Según el ex CEO de Google, estos son los riesgos "más obvios" de la IA Los peligros de la inteligencia artificial van desde ciberataques hasta la generación de patógenos biológicos.
Por Sherin Shibu
Key Takeaways
- Eric Schmidt fue el CEO de Google de 2001 a 2011.
- En una nueva entrevista, Schmidt habló sobre los riesgos que la IA representa en el futuro.
- Habló de amenazas biológicas así como de ciberataques
La inteligencia artificial (IA) podría transformar la atención médica, el lugar de trabajo, la industria cinematográfica y la educación, pero en las manos equivocadas, su poder también podría ser destructivo.
El lunes pasado Eric Schmidt, ex CEO de Google, elaboró sobre los riesgos de la IA en un episodio del podcast The Prof G Pod con el profesor de la Universidad de Nueva York, emprendedor y autor Scott Galloway. Aunque Schmidt destacó que la IA mejora la productividad para casi todos, también reconoció que en el futuro la tecnología podría ser utilizada para dañar a los seres humanos.
"El más obvio es su uso en biología", afirmó Schmidt. "¿Pueden estos sistemas, en algún momento en el futuro, generar patógenos biológicos que puedan dañar a muchos, muchos, muchos, muchos humanos?"
Hoy en día no pueden hacerlo, pero, según Schmidt, hay "muchas personas" que creen que, en el futuro, la IA será capaz de crear materiales biológicos dañinos. Estas mismas personas ya trabajan para prevenir que la IA sea utilizada como arma biológica, dijo.
Schmidt también señaló que la IA abre la puerta a ciberataques generalizados que podrían, por ejemplo, derribar todo el sistema financiero de un país.
Relacionado: Hackers están aprovechando la inteligencia artificial para lanzar ataques más sofisticados
"Los sistemas de inteligencia artificial son tan poderosos que estamos bastante preocupados de que, además de que las democracias los usen para cosas benéficas, los dictadores los utilicen para acumular poder", afirmó Schmidt.
Schmidt fue el CEO de Google de 2001 a 2011. En agosto, fue noticia por afirmar durante una charla en la Universidad de Stanford, que el trabajo remoto fue la razón por la que Google se quedó atrás en la carrera de la IA. Más tarde se disculpó y dijo que se había equivocado; Stanford retiró el video de la plática que tuvo más de 40,000 vistas en menos de un día.
Schmidt no es el único ejecutivo que plantea preocupaciones sobre la IA. A principios de este año Sahil Agarwal, un doctor en matemáticas aplicadas de Yale que cofundó y actualmente dirige la startup de seguridad de IA, Enkrypt, dijo a Entrepreneur que a medida que los sistemas de IA se vuelven más complejos, la posibilidad de que contengan sesgos implícitos y contenido tóxico también aumenta.
Relacionado: Eric Schmidt se retracta tras criticar la política de trabajo remoto de Google