Innovación

IA generativa en las empresas: por qué la confianza ciega es el nuevo enemigo silencioso del management

Imagen: LinkedIn.
Un informe del MIT advierte que la IA solo mejora el trabajo cuando los usuarios saben cuándo confiar en ella y revela que la automatización sin supervisión está generando una "atrofia de habilidades" en las organizaciones. Natalia Vivas, consultora estratégica y referente en comunicación, analiza los riesgos de la despersonalización y advierte: "La reputación, la credibilidad y la ética siguen siendo valores estrictamente humanos.

Según un informe del MIT Industrial Performance Centerun centro de investigación interdisciplinario dentro del Instituto de Tecnología de Massachusetts dedicado a analizar la productividad industrial, la innovación y la competitividad económica, indicó que “para que la IA realmente acelere las tareas y mejore la calidad del trabajo, los usuarios deben saber cuándo confiar”. “Un solo talle no sirve para todos, ni siquiera para algunos”, destaca el estudio y sugiere que “los trabajadores utilizan las herramientas de IA generativa de maneras muy distintas, incluso realizando el mismo trabajo” lo que le permite a “los trabajadores usar estas herramientas cómo y cuándo quieran, y pueden evitar usarlas cuando no confían en su eficacia”.

Natalia Vivas, consultora especializada en comunicación estratégica y experta en gestión de reputación corporativa, explica que en la vorágine por reducir costos de operatividad “las empresas están adoptando IA a una velocidad que no siempre va acompañada de pensamiento crítico del usuario y el problema es usarla sin cuestionamiento alguno”. Según la especialista existe “un peligro latente que se magnifica por la falta de mirada crítica y analítica sobre algo que parece incuestionable”.

 

La ilusión de ser una “empresa tech”

La mirada de Vivas coincide con el último estudio del MIT que sentencia que en el mundo de la IA “un solo talle no sirve para todos, ni siquiera para algunos” y es ahí donde las empresas argentinas enfrentan un desafío invisible pero letal para su reputación. “Veo casos de pymes que quieren usar la IA de turno que sea solamente para decir que son más tecnológicas y hasta los mails entre equipos son hechos por IA generativa, fríos, sin personalidad, sin identidad, un espanto”, indicó.

 

Ética y alucinaciones

El estudio además advierte que la confianza ciega “se convierte en un problema de seguridad cuando se utiliza la IA para tareas de alto riesgo sin un proceso de verificación humana robusto”. En este mismo sentido Vivas indica que “cuando las empresas dejan de validar resultados bajo la creencia de que la máquina nunca se equivoca puede ser foco de conflicto” y destaca que “es allí cuando el empleado escéptico se transforma en una ventaja competitiva ya que quien posee la experiencia para desconfiar tiene la capacidad de identificar y corregir posibles alucinaciones de la IA”.

Vivas es tajante sobre la naturaleza de estas herramientas: “La IA no tiene ética, une puntos basados en patrones y, si no los encuentra, puede inventarlos por estadística generando alucinaciones”, explica. Además, destaca que los algoritmos fueron entrenados mayoritariamente con datos de Estados Unidos y Europa lo que es un punto ciego para el mercado local. “La IA no tiene la menor idea de si ese mensaje va a caer bien o si va a ofender a un sector específico en una economía tan sensible como la nuestra”, indicó.

 

Desuso, mal uso y sobreuso: las tres trampas de la automatización que vuelven vulnerables a las empresas

Por otro lado, el informe advierte que hay tres formas principales en que las aplicaciones de nuevas tecnologías pueden no lograr mejorar el desempeño de los trabajadores, o la calidad de su trabajo:

  1. Desuso: no automatizar cuando agregar nueva tecnología podría ser beneficioso.
  2. Mal uso: implementar tecnologías de automatización con malos resultados.
  3. Sobreuso: las tecnologías de automatización funcionan bien, pero conducen a consecuencias no deseadas.

Cuando los trabajadores no entienden cómo la IA llega a una conclusión tienden a irse a los extremos: o no la usan nunca o la usan para todo sin cuestionar y es el “uso excesivo” el que deja de validar los resultados porque la herramienta nunca se equivoca. Al ser herramientas persuasivas y seguras de sí mismas, los usuarios tienden a confiar por demás y es por eso que el informe sugiere que el uso exagerado “se convierte en un problema de seguridad cuando se utiliza la IA para tareas de alto riesgo sin un proceso de verificación humana robusto”.

“Cuando un equipo deja de cuestionar los resultados porque la herramienta parece infalible, estamos ante un problema de seguridad grave”, indica Vivas y sentencia que “hay quienes piensan que dejarle todo a una versión gratuita de IA es una jugada maestra de eficiencia, son decisiones, pero hay decisiones que pueden salir caras porque hacen a las empresas más vulnerables”.

 

El costo de la reputación

Hay empresas que pasan su vida productiva intentando instalarse en el mercado y ganar buena reputación. Sin embargo, un error no chequeado de un contenido generado por IA puede tirar años de trabajo por la borda.

“La intervención humana no es opcional por más que la IA suene tan segura que nos da la confianza de hipotecar la compañía en su buen nombre y honor”, explica Vivas. “Conforme pasaron los años, aceptamos que si un texto está bien escrito, que es lo que medianamente hacen las IA, es cierto pero no es así en todos los casos; cuando una alucinación no detectada a tiempo en un reporte o en una respuesta a un cliente puede sufrir el costo de tener que reconstruir la confianza de la marca, que es infinitamente superior al de haber tenido un profesional para la supervisión de ese proceso”, destacó.

Según la especialista, delegar íntegramente áreas sensibles como marketing, comunicación interna o externa y atención al cliente sin intervención profesional, lejos de ser innovador, es una decisión que “roza la negligencia”, concluyó.