Google advierte a sus empleados sobre el riesgo de utilizar la inteligencia artificial en la oficina La empresa desarrolló Bard, el modelo de lenguaje autorregresivo que sugiere a sus empleados no utilizar en el ámbito laboral.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
A estas alturas del 2023, no nos cabe duda alguna: el término tecnológico del año es la inteligencia artificial (IA). Desde que OpenAI presentó ChatGPT en noviembre del año pasado, los modelos de lenguaje autorregresivo no han hecho más que acaparar titulares y sorprendernos con su capacidad para realizar diversas tareas siguiendo las instrucciones de un humano.
Quienes ya los hemos utilizado sabemos lo útiles que resultan para resolver en poco tiempo tareas que suelen ser tediosas: desde redactar un correo electrónico hasta escribir los captions para los posts de toda la semana.
Más allá del temor que provocan (¿en verdad se van a quedar con nuestro trabajo?) el obstáculo principal al que se enfrenta esta nueva tecnología son las dudas que genera en términos de la privacidad de los datos de los usuarios.
Hace unas semanas, por ejemplo, el Departamento de Protección de Datos de Italia (Garante Per La Protezine Dei Dati Personalli) ordenó a Open AI que deje de procesar datos proporcionados por los usuarios, por miedo que el programa no cumpla con los lineamientos del Reglamento General de Protección de Datos (RGPD) de la Unión Europea.
¿POR QUÉ PIDIÓ GOOGLE CAUTELA A SUS EMPLEADOS AL USAR HERRAMIENTAS IMPULSADAS POR LA IA?
Varias empresas han prohibido a sus empleados utilizar herramientas como ChatGPT por miedo a filtraciones de información confidencial; entre ellas se encuentran Apple, Goldman Sachs y Samsung. Ahora en un movimiento que ha generado asombro, Google ha pedido a sus empleados que tengan cuidado al utilizar en la oficina Bard, la herramienta que ellos mismos crearon.
Según Reuters la empresa ha pedido a sus empleados no ingresar información confidencial en las instrucciones que le den a herramientas impulsadas por la IA, como Bard y ChatGPT, por temor a que se puedan producir filtraciones. La empresa sabe que personas reales revisan la información que los usuarios ingresan a los chatbots de lenguaje autorregresivo y que esos datos eventualmente podrían ser replicados en la pantalla de otro usuario. Sin ingresan información sensible, esta podría filtrarse.
Además, Google ha pedido a sus ingenieros que no utilicen código de programación que haya sido generado por este tipo de herramientas —incluyendo a Bard— pues suelen hacer sugerencias de código "no deseadas", pese a ser útiles para los desarrolladores.
Google intenta posicionar a Bard como la primera opción a utilizar cuando alguien piensa en herramientas de inteligencia artificial y libra una ardua batalla para convencernos de utilizarla, aunque sus empleados no lo hagan.
Según Reuters lo que Google pretende con esta medida es ser clara en torno a las limitaciones y riesgos que Bard (y otras herramientas impulsadas por la inteligencia artificial) suponen. Un reporte de Fishbowl indica que el 43% de los empleados están utilizando ya herramientas de IA para resolver tareas laborales, pero el 68% no se lo hace saber a sus superiores.