Un abogado utilizó ChatGPT para redactar un texto legal y presentó en juicio un documento lleno de citas inventadas El jurista ha comprobado en carne propia que las herramientas de inteligencia artificial no son infalibles.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
Una vez que te das cuenta de lo que la inteligencia artificial (IA) puede hacer por ti, es difícil no comenzar a usarla. Herramientas como ChatGPT, Bard o Midjourney son capaces de ahorrarnos largas horas de trabajo arrojando grandes resultados (siempre y cuando sepamos explicarles exactamente qué es lo que queremos).
Pero estas herramientas no son infalibles. Sus datos son tan correctos como las bases de datos que las alimentan. Pueden arrojar respuestas con errores, comentarios sesgados, datos incompletos o desactualizados. Por eso, al utilizarlas, es crucial verificar la información que nos han dado.
Un abogado en un tribunal de Nueva York ha aprendido esto por la mala. Según The New York Times el abogado Steven Schwartz utilizó ChatGPT para redactar un texto en el que se oponía a la solicitud de la parte defensora de que el caso fuera desestimado.
Schwartz representa a un pasajero que demandó a la aerolínea colombiana Avianca luego de ser golpeado por un carrito de servicio durante un vuelo.
El problema para el abogado fue que el programa impulsado por la inteligencia artificial inventó varias decisiones judiciales que citaba en el texto como ejemplo para apoyar su tesis.
Según The New York Times, al darse cuenta de las fallas en el documento, el juez Kevin Castel comentó: "La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar el caso está llena de citas de casos que no existen".
Luego de explicar que el texto había sido elaborado con ayuda de una herramienta impulsada por la inteligencia artificial, Schwartz fue citado el próximo 8 de junio para exponer su caso y exponer por qué no debería de ser sancionado por haber presentado un documento lleno de datos falsos.
¿Qué son las alucinaciones de la inteligencia artificial?
No es la primera vez que los usuarios reportan que las herramientas de inteligencia artificial arrojan resultados perfectamente bien redactados, pero completamente inventados. A esto se le llama "alucinaciones".
Hace unos meses Prabhakar Raghavan, vicepresidente senior de Google y jefe de Google Search explicó el fenómeno al diario alemán Welt am Sonntag: "Este tipo de inteligencia artificial de la que estamos hablando en este momento a veces puede conducir a algo que llamamos alucinación. Esto se expresa de tal manera que una máquina proporciona una respuesta convincente, pero completamente inventada".