Sundar Pichai, CEO de Google, dice que existe la necesidad de una regulación gubernamental de la inteligencia artificial: 'Tiene que haber consecuencias' En una entrevista con 60 Minutes Sundar Pichar, CEO de Google, dijo que la inteligencia artificial es la "tecnología más profunda en la que la humanidad está trabajando, más profunda que el fuego o la electricidad".
Por Madeline Garfinkle Editado por Eduardo Scheffler Zawadzki
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
Las capacidades de la inteligencia artificial (IA) y la velocidad a la que la tecnología se está lanzando al público, están obteniendo una mezcla de reacciones de los entusiastas de la tecnología, directores ejecutivos y expertos.
Para el CEO de Google, Sundar Pichai, la IA es un aspecto cada vez más importante del negocio de Google: la compañía lanzó Bard, su chatbot impulsado por la inteligencia artificial, en febrero y tiene otros proyectos en el horizonte, como un prototipo llamado Project Starlink, que tiene como objetivo mejorar las videoconferencias simulando una experiencia más realista.
En una entrevista con 60 Minutes el domingo, Pichai dijo que la IA es uno de los descubrimientos más significativos de nuestro tiempo.
"Siempre he pensado en la IA como la tecnología más profunda en la que la humanidad está trabajando, más profunda que el fuego o la electricidad", dijo Pichai en la entrevista. "Estamos desarrollando tecnología que será mucho más capaz que cualquier cosa que hayamos visto antes".
Pinchai dijo al programa que debería haber una regulación gubernamental de la IA, especialmente con la aparición de deepfakes, diciendo que el enfoque de la tecnología "no sería diferente" de la forma en que la compañía abordó el spam en Gmail.
"Constantemente estamos desarrollando mejores algoritmos para detectar spam", dijo Pichai. "Tendríamos que hacer lo mismo con los deepfakes de audio y video. Con el tiempo tiene que haber regulación. Tiene que haber consecuencias por crear deep fakes que causan daño a la sociedad".
En marzo, en una carta abierta firmada por líderes tecnológicos (entre ellos Elon Musk y el cofundador de Apple, Steve Wozniak) y directores ejecutivos, pidieron una pausa de seis meses en el desarrollo de IA para gestionar y evaluar los riesgos potenciales. Hasta la fecha, la carta cuenta con más de 26,000 firmas.