Join our Waitlist for Expert Advice!

Un abogado utilizó ChatGPT para redactar un texto legal y presentó en juicio un documento lleno de citas inventadas El jurista ha comprobado en carne propia que las herramientas de inteligencia artificial no son infalibles.

SomYuZu | Shutterstock

Una vez que te das cuenta de lo que la inteligencia artificial (IA) puede hacer por ti, es difícil no comenzar a usarla. Herramientas como ChatGPT, Bard o Midjourney son capaces de ahorrarnos largas horas de trabajo arrojando grandes resultados (siempre y cuando sepamos explicarles exactamente qué es lo que queremos).

Pero estas herramientas no son infalibles. Sus datos son tan correctos como las bases de datos que las alimentan. Pueden arrojar respuestas con errores, comentarios sesgados, datos incompletos o desactualizados. Por eso, al utilizarlas, es crucial verificar la información que nos han dado.

Un abogado en un tribunal de Nueva York ha aprendido esto por la mala. Según The New York Times el abogado Steven Schwartz utilizó ChatGPT para redactar un texto en el que se oponía a la solicitud de la parte defensora de que el caso fuera desestimado.

Schwartz representa a un pasajero que demandó a la aerolínea colombiana Avianca luego de ser golpeado por un carrito de servicio durante un vuelo.

El problema para el abogado fue que el programa impulsado por la inteligencia artificial inventó varias decisiones judiciales que citaba en el texto como ejemplo para apoyar su tesis.

Según The New York Times, al darse cuenta de las fallas en el documento, el juez Kevin Castel comentó: "La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar el caso está llena de citas de casos que no existen".

Luego de explicar que el texto había sido elaborado con ayuda de una herramienta impulsada por la inteligencia artificial, Schwartz fue citado el próximo 8 de junio para exponer su caso y exponer por qué no debería de ser sancionado por haber presentado un documento lleno de datos falsos.

¿Qué son las alucinaciones de la inteligencia artificial?

No es la primera vez que los usuarios reportan que las herramientas de inteligencia artificial arrojan resultados perfectamente bien redactados, pero completamente inventados. A esto se le llama "alucinaciones".

Hace unos meses Prabhakar Raghavan, vicepresidente senior de Google y jefe de Google Search explicó el fenómeno al diario alemán Welt am Sonntag: "Este tipo de inteligencia artificial de la que estamos hablando en este momento a veces puede conducir a algo que llamamos alucinación. Esto se expresa de tal manera que una máquina proporciona una respuesta convincente, pero completamente inventada".
Eduardo Scheffler Zawadzki

Entrepreneur Staff

Emprendedores

10 grandes frases sobre el poder de las metas

Establecer metas es el primer paso para lograr algo significativo.

Mujeres emprendedoras

"Sí a todo lo que sume": Los aprendizajes de dos emprendedoras desde el tanque de Shark Tank Colombia

Verónica Bacci y Paulina Franco hablaron con nosotros sobre las lecciones aprendidas al salir del tanque.

Finanzas

7 formas rápidas de ganar dinero invirtiendo $ 1,000

Si eres astuto, puedes convertir mil dólares en aún más dinero. Así es cómo.

Consultoría

Los empleados sobrecalificados pueden ser un beneficio o un perjuicio para tu empresa. A continuación, te indicamos cómo mantenerlos motivados y productivos

Los empleados sobrecalificados pueden ser perjudiciales o beneficiosos para las empresas en las que trabajan. La clave está en ayudarlos a interpretar su situación de manera más productiva.

Plan de Negocios

10 consejos simples para escribir un plan de negocios exitoso

En el nuevo libro "Write Your Own Business Plan", el experto en negocios Eric Butow elimina la ansiedad y la confusión de la planificación y ofrece una hoja de ruta fácil de seguir hacia el éxito.

Emprendedores

8 formas de recibir un cumplido con gracia

Todo el mundo quiere elogios, pero las personas agradables suelen ser inadvertidamente groseras cuando los reciben.