Busca la Unión Europea frenar el desarrollo de la inteligencia artificial Los diputados de la Unión Europea buscan aprobar una normativa para limitar el desarrollo de la inteligencia artificial.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
Los diputados de la Unión Europea buscan aprobar la primera normativa a nivel mundial desarrollada de manera específica con el objetivo de regular la inteligencia artificial (IA). Y es que los integrantes del Mercado Interior y Libertades Civiles propusieron imponer restricciones a ChatGPT y otros modelos de lenguaje basados en la IA.
Es así como los legisladores buscan que, dentro de la Unión Europea, se garantice que los sistemas de IA estén supervisados por personas y que serán "seguros, transparentes, rastreables, inclusivos y respetuosos con el medioambiente".
Estas medidas anticipadas, que se han debatido durante los últimos meses, buscan establecer un precedente para que se genere una legislación para controlar a la inteligencia artificial y restringirla de alguna manera, al considerar que puede ser potencialmente peligrosa para la humanidad, por ejemplo, con sistemas de reconocimiento facial o de crédito social.
Asimismo, se pretende que estas nuevas normas sean válidas en los sistemas existentes, como ChatGTP y para los que puedan ser aprobados en el futuro. Existirán diferentes tipos de clasificaciones de inteligencia artificial, pues las que sean consideradas peligrosas se prohibirán de manera definitiva.
El proyecto de ley se someterá a votación plenaria en el Parlamento Europeo en junio, antes de que se acuerden los términos definitivos entre los representantes del Parlamento, Consejo y Comisión de la Unión Europea.
Una vez que se ultimen los detalles y el proyecto se convierta en ley, habrá un periodo de dos años para que los afectados puedan cumplir la normativa tal y como ha ocurrido con la aprobación de la Les de Servicios Digitales (DSA) hace unos meses y que afecta a compañías como Twitter o Facebook.
Estas son las clasificaciones preaprobadas:
- Riesgo inaceptable: se prohibirán los usos nocivos de la inteligencia artificial que contravengan los valores de la Unión Europea —como la puntuación social por parte de los gobiernos— debido al riesgo inaceptable que generan.
- Alto riesgo: se consideran de alto riesgo una serie de sistemas de IA que crearan un impacto adverso en la seguridad de las personas o en sus derechos fundamentales. Para garantizar la confianza y un nivel elevado y coherente de protección de la seguridad y los derechos fundamentales, se aplicará una serie de requisitos obligatorios —incluida una evaluación de la conformidad— a todos los sistemas de alto riesgo.
- Riesgo limitado: algunos sistemas de inteligencia artificial estarán sujetos a un conjunto limitado de obligaciones. Por ejemplo, la transparencia.
- Riesgo mínimo: todos los demás sistemas de IA pueden desarrollarse y utilizarse en la Unión Europea sin más obligaciones legales que la legislación vigente.