La fiebre ChatGPT llega a las oficinas de EE.UU. y hace sonar las alarmas

Chat GPT
Foto: webperfection

Muchos trabajadores de Estados Unidos están recurriendo a ChatGPT para que les ayude con tareas básicas, según una encuesta de Reuters/Ipsos, a pesar del temor que ha llevado a empresas como Microsoft y Google a frenar su uso.

Empresas de todo el mundo están estudiando la mejor manera de usar ChatGPT, un programa de chatbot que utiliza IA generativa para mantener conversaciones con los usuarios y responder a innumerables preguntas. Sin embargo, las empresas y firmas de seguridad han expresado su preocupación porque puede dar lugar a filtraciones de propiedad intelectual y de estrategias.

Algunos ejemplos de cómo las personas usan ChatGPT para ayudarles en su trabajo diario son la redacción de correos electrónicos, el resumen de documentos y la investigación preliminar.

Alrededor del 28% de los encuestados en el sondeo en línea sobre inteligencia artificial (IA) realizado entre el 11 y el 17 de julio dijeron haber usado ChatGPT con regularidad en el trabajo, pero sólo el 22% dijo que sus jefes permitían explícitamente este tipo de herramientas externas.

También puede leer:

Pensión de sobreviviente del IVSS: cómo solicitarla si es cónyuge o hijo de un fallecido

La encuesta de Reuters/Ipsos a 2.625 adultos de todo Estados Unidos tiene un intervalo de credibilidad, una medida de precisión, de unos 2 puntos porcentuales.

Un 10% de los encuestados dijo que sus jefes prohibían explícitamente las herramientas externas de IA, mientras que alrededor del 25% no sabía si su empresa permitía el uso de esta tecnología.

ChatGPT se convirtió en la aplicación de mayor crecimiento de la historia tras su lanzamiento en noviembre. Ha creado tanto expectación como alarma, y ha enfrentado a su desarrollador, OpenAI, con las autoridades reguladoras, sobre todo en Europa, donde la recogida torrencial de datos ha suscitado críticas de los organismos de control de la privacidad.

Los revisores humanos de otras empresas pueden leer cualquiera de los chats generados, y los investigadores descubrieron que una IA similar podría reproducir los datos que absorbió durante el entrenamiento, lo que supone un riesgo potencial para la información con derechos de propiedad.

«La gente no entiende cómo se usan los datos cuando usan servicios de IA generativa», dijo Ben King, vicepresidente de confianza del cliente en la firma de seguridad corporativa Okta.

«Para las empresas esto es medular, porque los usuarios no tienen un contrato con muchas IA -porque son un servicio gratuito-, así que las corporaciones no habrán pasado el riesgo por su proceso habitual de evaluación», dijo King.

OpenAI no quiso hacer comentarios cuando se le preguntó por las implicaciones de que empleados individuales usen ChatGPT, pero destacó una reciente entrada en el blog de la empresa en la que se aseguraba a los socios corporativos que sus datos no se usarían para seguir entrenando al chatbot, a menos que dieran su permiso explícito.

Cuando los usuarios utilizan el Bard de Google, se recopilan datos como el texto, la ubicación y otra información de uso. La empresa permite a los usuarios eliminar la actividad anterior de sus cuentas y solicitar que se elimine el contenido introducido en la IA.

Tareas inofensivas

Un empleado estadounidense de Tinder dijo que los trabajadores de la aplicación de citas usaban ChatGPT para «tareas inofensivas», como escribir correos electrónicos, a pesar de que la compañía no lo permite oficialmente.

«Son correos electrónicos normales. Muy intrascendentes, como hacer divertidas invitaciones de calendario para eventos de equipo, correos de despedida cuando alguien se va (…) También lo utilizamos para la investigación en general«, dijo el empleado, que no quiso que se mencionara su nombre porque no estaba autorizado a hablar con periodistas.

El empleado dijo que Tinder tiene una «regla de no ChatGPT», pero que los empleados todavía lo utilizan de una «manera genérica que no revela nada acerca de que estamos en Tinder».

Reuters no pudo confirmar de forma independiente cómo usaban ChatGPT los empleados de Tinder. Tinder dijo que proporcionaba «orientación regular a los empleados sobre las mejores prácticas de seguridad y datos».

En mayo, Samsung Electronics prohibió a su personal en todo el mundo el uso de ChatGPT y herramientas de IA similares, después de descubrir que un empleado había subido código sensible a la plataforma.

«Estamos revisando medidas para crear un entorno seguro para el uso de IA generativa que mejore la productividad y eficiencia de los empleados«, dijo Samsung en un comunicado el 3 de agosto.

«Sin embargo, hasta que estas medidas estén listas, estamos restringiendo temporalmente el uso de IA generativa a través de dispositivos de la compañía».

Reuters informó en junio de que Alphabet había advertido a los empleados sobre cómo utilizar chatbots incluyendo Bard de Google, al mismo tiempo que comercializa el programa a nivel mundial.

Google dijo que, aunque Bard puede hacer sugerencias de código no deseadas, ayuda a los programadores, además que pretendía ser transparente sobre las limitaciones de su tecnología.

Prohibición de las mantas

Algunas empresas dijeron a Reuters que están adoptando ChatGPT y plataformas similares, sin perder de vista la seguridad.

«Hemos empezado a probar y aprender sobre cómo la IA puede mejorar la eficacia operativa«, dijo un portavoz de Coca-Cola  en Atlanta, Georgia, añadiendo que los datos permanecen dentro de su firewall.

«Internamente, hemos lanzado recientemente nuestra versión empresarial de Coca-Cola ChatGPT para la productividad«, dijo el portavoz, añadiendo que Coca-Cola planea usar la IA para mejorar la eficacia y la productividad de sus equipos.

Por su parte, la presidenta financiera de Tate & Lyle, Dawn Allen, dijo a Reuters que el fabricante mundial de ingredientes estaba probando ChatGPT, tras haber «encontrado la manera de utilizarlo de forma segura».

«Tenemos diferentes equipos decidiendo cómo quieren utilizarlo a través de una serie de experimentos. ¿Lo utilizamos en las relaciones con los inversores?, ¿lo utilizamos en la gestión del conocimiento?, ¿cómo podemos utilizarla para realizar tareas de forma más eficiente?».

Algunos empleados dicen que no pueden acceder en absoluto a la plataforma en las computadoras de la empresa.

«Está completamente prohibida en la red de la oficina, como si no funcionara», afirmó un empleado de Procter & Gamble , que quiso permanecer en el anonimato por no estar autorizado a hablar con la prensa.

P&G no quiso hacer comentarios. Reuters no pudo confirmar de forma independiente si los empleados de P&G no podían utilizar ChatGPT.

Paul Lewis, director de seguridad de la información de la empresa de ciberseguridad Nominet, dijo que las empresas tenían razón al desconfiar.

«Todo el mundo se beneficia de esa mayor capacidad, pero la información no es completamente segura y puede ser manipulada», dijo, citando «mensajes maliciosos» que pueden ser usados para conseguir que los chatbots de inteligencia artificial revelen información.

«Todavía no se justifica una prohibición general, pero debemos actuar con cautela«, dijo Lewis.

Reuters