OpenAI desarrolla una herramienta para identificar textos generados por medio de la IA: ¿por qué no la ha liberado? La empresa ha creado una marca de agua con una efectividad del 99.9% para detectar textos de ChatGPT, pero aún evalúa su implementación debido a posibles complicaciones y efectos secundarios.
OpenAI ha desarrollado una marca de agua con una efectividad del 99.9% para identificar textos generados por ChatGPT. Sin embargo, la empresa aún no ha decidido si lanzará al público esta nueva función debido a varias complejidades y posibles impactos más allá del ecosistema de la marca, según un informe de The Wall Street Journal.
ChatGPT, un modelo basado en un sistema de inteligencia artificial (IA) que predice la siguiente palabra o fragmento (conocido como token) en una oración, podría ser detectado por esta herramienta anti-trampas. La función tiene la capacidad de agregar una marca de agua imperceptible para el ojo humano, pero detectable por la tecnología de OpenAI.
Una de las inquietudes es que las marcas de agua podrían ser eliminadas fácilmente, ya sea traduciendo el texto a otro idioma y volviendo a traducirlo al original, o agregando y después quitando emojis.
Relacionado: OpenAI lanza SearchGPT, un motor de búsqueda para competir con Google
Debido a esto, OpenAI está considerando proporcionar el detector a educadores o empresas que ayudan a identificar textos generados por IA y trabajos plagiados.
Una encuesta realizada por OpenAI entre los usuarios de ChatGPT reveló que el 69% cree que esta tecnología podría llevar a acusaciones falsas de uso de IA. Además, casi el 30% de los encuestados afirmó que usaría menos el chatbot si se implementaran estos cambios.
A principios de este año, OpenAI realizó una prueba que mostró que las marcas de agua no afectan el rendimiento del chatbot. Según The Verge, la empresa reconoció que sus equipos han desarrollado un método de marca de agua "muy preciso y eficaz" contra la manipulación de contenidos. Sin embargo, también reconoció que el sistema aún no es infalible frente a la manipulación y podría afectar a algunos grupos, como hablantes no nativos de inglés.
Relacionado: OpenAI presenta Voice Engine, un modelo que clona voces, pero frena su lanzamiento