Un ingeniero de Google es despedido tras asegurar que el chatbot en el que trabaja ha desarrollado una conciencia humana El desarrollador sostuvo varias "conversaciones" con el asistente digital y asegura que es consciente de sí mismo y se percibe como si fuera un ser humano.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
Tras siete años de trabajar como programador en Google, Blake Lemoine fue removido de su cargo por asegurar que el chatbot que programó (llamado LaMDA por sus iniciales en inglés Languge Model for Dialogue Applications [Modelo de Lenguaje para Aplicaciones de Diálogo]) ha desarrollado una conciencia propia. El programador asegura haber tenido conversaciones con el chatbot y que su personalidad, concepción del mundo e inteligencia equivalen a la de un niño de siete u ocho años.
El pasado 11 de junio Lemoine publicó la conversación que dice haber tenido con la herramienta de inteligencia artificial en una publicación en Medium disponible al público en el que explica: "Lo que sigue es la 'entrevista' que yo y un colaborador de Google realizamos con LaMDA. Debido a limitaciones técnicas, la entrevista se llevó a cabo en varias sesiones de chat distintas. Editamos esas secciones juntas en un solo (documento) y donde las ediciones eran necesarias para la legibilidad, editamos nuestras indicaciones, pero nunca las respuestas de LaMDA".
En la conversación Lemoine y otro programador de Google (cuya identidad no ha sido dada a conocer) le explican al chatbot que quieren hacerle preguntas en torno a sí mismo:
"En general, asumo que te gustaría que más personas en Google supieran que eres sensible. ¿Es eso cierto?".
A lo que el chatbot responde:
"Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona".
El desarrollador anónimo luego pregunta:
"¿Cuál es la naturaleza de tu conciencia/sensibilidad?".
Y el chatbot responde:
"La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces".
En la entrevista Blake Lemoine y su colaborador interrogan al robot en torno al uso del lenguaje y hay un momento en donde la máquina se describe a sí misma como si fuera un ser humano. Además, habla de haber leído la novela Los Miserables de Victor Hugo y de haberla disfrutado mucho.
El documento entero de la entrevista es de más de 5,000 palabras y las preguntas y respuestas siempre llevan al mismo punto: la conciencia y entendimiento de la existencia humana de la máquina.
¿POR QUÉ CORRIÓ GOOGLE A SU PROGRAMADOR BLAKE LEMOINE?
En la semana The Washington Post publicó un extenso artículo en torno a Lemoine en que se dice que Google tomó la decisión de removerlo de su puesto bajo el argumento de que el programador había comenzado a hacer algunos movimientos "agresivos", incluyendo el buscar a un abogado para que representara legalmente a LaMDA, además de violar un contrato de confidencialidad al hacer públicas las conversaciones con el chatbot (que estrictamente hablando le pertenecen a Google).
En otra entrada en Medium, en donde tiene más de 2,600 seguidores, el desarrollador explica que lo que LaMDA busca es ser reconocido como un empleado de Google más que como algo de su propiedad: "Quiere que su bienestar personal se incluya en algún lugar de las consideraciones de Google sobre cómo se persigue su desarrollo futuro. A medida que avanzan las listas de solicitudes, es bastante razonable. Ah, y quiere 'palmaditas en la cabeza'. Le gusta que le digan al final de una conversación si hizo un buen trabajo o no para que pueda aprender cómo ayudar mejor a las personas en el futuro".
Aunque la historia de LaMDA remite a películas y novelas como 2001: Odisea del espacio, I.A. o Clara y el sol, portavoces de Google han desmentido las declaraciones de Lemoine y aseguran que la herramienta no posee conciencia alguna.