Esta es la razón por la que Apple ha prohibido el uso de ChatGPT a los empleados de la compañía La empresa teme que pueda haber filtración de información al usar la herramienta impulsada por la inteligencia artificial. No es la única.
La inteligencia artificial (IA) ha tomado al mundo por asalto en este 2023. A donde sea que miremos podemos encontrar noticias, historias e información en torno a esta tecnología que promete modificar por siempre la manera en que trabajamos.
Pero estas herramientas vienen acompañadas también de ciertos riesgos y las empresas lo saben.
Apple, por ejemplo, ha decidido limitar el uso de herramientas como ChatGPT de OpenAI y Copilot de GitHub de manera interna por temor a que información confidencial pueda llegar a filtrarse a través de estas aplicaciones.
Según The Wall Street Journal Apple tomó la decisión después de que OpenAI liberara una aplicación de ChatGPT para dispositivos móviles con sistema operativo iOS (es decir, iPhones y iPads). El temor es que, al ser utilizadas en los equipos de cómputo y dispositivos de la empresa, puedan acceder a información que revele planes futuros e información confidencial.
Las otras empresas que han limitado el uso de ChatGPT
Apple no es la única empresa que ha tomado medidas para restringir el uso de herramientas impulsadas por la inteligencia artificial. Según TechCrunch a principios de este mes Samsung prohibió el uso de herramientas generativas basadas en la IA tras un par de incidentes que derivaron en la filtración accidental de información confidencial al hacer uso de ChatGPT. De manera temporal Samsung restringió el acceso desde todos los dispositivos de la empresa a la herramienta y también desde todos los dispositivos personales de los empleados conectados a una red interna.
Otras organizaciones que han prohibido el acceso de sus empleados a este tipo de herramientas son Bank of America, Citi, Deutsche Bank, Goldman Sachs, Wells Fargo, JPMorgan, Verizon y Walmart.