Más de 1,100 personas han firmado una carta que pide pausar el desarrollo de la inteligencia artificial durante seis meses, entre ellos se encuentra Elon Musk La idea es que el periodo se utilice para desarrollar un marco legal que garantice la seguridad de los seres humanos ante la nueva tecnología.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
Lo hemos leído en múltiples novelas y visto en cientos de películas: tardo o temprano las máquinas se vuelen en contra de sus creadores para tomar el control. Del célebre HAL en 2001: Odisea del espacio (con todo y su referencia a IBM) a Mátrix, pasando por novelas como Fool's War de Sarah Zettel o Sea of Rust de Robert Cargill, la idea de que la inteligencia artificial (IA) pueda dominarnos nos aterra y nos fascina al mismo tiempo.
Con la llegada de poderosas herramientas como ChatGPT y MidJourney el temor se acrecienta. Porque, aunque cada día la tecnología nos deja boquiabiertos con aquello que es capaz de hacer, también despierta nuestros miedos y obliga a cuestionarnos: ¿hasta a dónde llegará?
Entre los preocupados, quienes sienten que el desarrollo de la inteligencia artificial se está dando demasiado rápido, están más de 1,100 personas que han firmado una carta abierta pidiendo a los laboratorios que desarrollan inteligencia artificial que detengan sus investigaciones al menos por seis meses.
La carta está firmada por algunas figuras destacadas como Steve Wozniak, Tristan Harris, Elon Musk, Emad Mostaque y Yuval Noah Harari, y fue publicada en el sitio futureoflife.org. El documento explica:
"Los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad, como lo demuestran las investigaciones exhaustivas y lo reconocen los principales laboratorios de IA. Como se indica en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos acordes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto atrapados en una carrera sin control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable".
Los firmantes piden que la pausa en los procesos de investigación sea verificable. La idea de detener temporalmente los avances es poder establecer una estructura para regular el desarrollo de la inteligencia artificial.
La carta explica: "Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes".
Aunque los nombres de notables personalidades aparecen en la carta, no hay manera de verificar que efectivamente hayan sido ellos quienes firmaron.