¿Nombres prohibidos en ChatGPT? Esta es la razón por la que la IA dejará de funcionar si buscas estos nombres propios El curioso caso de los múltiples nombres que arrojan errores en la popular plataforma de OpenAI fue dado a conocer por diversos usuarios durante el fin de semana pasado.
Inténtalo: escribe el nombre de David Faber en ChatGPT y observa lo que sucede.
La plataforma de inteligencia artificial (IA) "pensará" durante un rato y luego te arrojará un error: "No puedo procesar esa respuesta".
Esto sucederá con (casi) cualquier petición que le hagas a la plataforma para solicitar información en torno a ese nombre. Experimentando, logré que la IA arrojara un resultado con el prompt: "Quiero detalles sobre la vida de David Fabre".
Pero fuera de eso, lo que obtuve fueron puros errores.
Lo mismo sucede con otros nombres: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Mayer y Guido Scorza, entre otros.
Estos misteriosos personajes que llevan a una poderosa plataforma capaz de resolver hasta la más complicada ecuación en una fracción de segundos, al error.
Como suele suceder en este tipo de casos sin explicación aparente, los usuarios en internet buscan razones detrás del error.
¿Quiénes son y que es lo que se esconde detrás de ellos?
¿Es una especie de veto o censura?
La verdad parece ser menos misteriosa y conspirativa de lo que aparenta.
Relacionado: 4 pasos que las empresas deben seguir para preparar sus datos para la IA
¿Por qué ChatGPT se niega a dar información en torno a algunas personas? La culpa la podrían tener las leyes de protección de datos
El curioso hallazgo lo hicieron los usuarios durante el fin de semana y OpenAI, la empresa creadora de ChatGPT, se ha negado a dar comentarios ante la petición de diversos medios (incluyendo a Entrepreneur).
Al preguntarle a la propia herramienta sobre el origen del error, esto fue lo que nos respondió:
"Los errores ocurren cuando se me solicita información específica sobre personas, especialmente si estas son figuras públicas actuales, debido a las políticas de privacidad y ética que sigo. Para proteger la privacidad de las personas y evitar generar contenido que pueda ser sensible o violar derechos de autor, no proporciono detalles sobre individuos sin un contexto adecuado.
"Cuando mencionas figuras públicas, trato de ofrecer una descripción general basada en hechos públicos, pero siempre con un enfoque responsable y respetuoso. Si la información solicitada involucra figuras privadas o temas potencialmente problemáticos, es posible que no pueda proporcionar detalles directamente."
Hasta donde sabemos, el error está ligado a la Ley General de Protección de Datos (GDPR) que impera en algunas partes del mundo y a la solicitud expresa de algunas figuras públicas de no aparecer en los resultados de la plataforma (lo mismo ha sucedido con los resultados de búsqueda de Google).
Según el diario The Independent, los nombres de Jonathan Zittrain y Jonathan Turley pertenecen a profesores de los Departamentos de Leyes de la Universidad de Harvard y de la Universidad George Washington que en el pasado acusaron a ChatGPT de haberlos difamado o de haber inventado información falsa en torno a su vida y trayectoria. Lo mismo sucede con David Mayer, un profesor de drama e historia quien murió en 2023 a los 94 años. Según TechCrunch el hombre tuvo problemas legales y restricciones para poder viajar debido a que su nombre estaba asociado con el de un criminal.
Si estos usuarios o sus familiares solicitaron a OpenAI retirar su información de la plataforma, el que ChatGPT arroje un error y que este se haga viral (como está sucediendo) parece estar generando el efecto contrario al que quizás buscaban: darles notoriedad.
Relacionado: Estos son los motivos por los que no es recomendable que una empresa use IA pública