¿Demasiado tarde? Microsoft aplica candados para evitar deepfakes como las de Taylor Swift Reportes señalaron que usuarios aprovecharon fallas en Designer para generar contenido ofensivo sin el consentimiento de las celebridades.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
Luego de que se diera a conocer que los deepfakes explícitos de Taylor Swift fueron creados por su herramienta gratuita de generación de imágenes mediante inteligencia artificial, Designer, Microsoft anunció que ha implementado medidas de seguridad en dicha herramienta.
Esta respuesta de la empresa tecnológica norteamericana llega después de que 404 Media informó que estas imágenes tuvieron su origen en el foro 4chan y un canal de Telegram, donde usuarios aprovecharon un fallo en la aplicación para generar contenido falso de celebridades sin su consentimiento.
El informe destacó que los usuarios descubrieron que al escribir mal el nombre de la artista o al redactar una descripción ligeramente sugerente, la herramienta permitía eludir protecciones contra el uso de palabras clave con términos sexuales.
En respuesta, Microsoft aplicó un parche de seguridad, limitando la capacidad de Designer para crear imágenes genéricas.
Aunque no se pudo confirmar que las imágenes de Taylor Swift en X fueron generadas con la herramienta, la semana pasada, el CEO de Microsoft, Satya Nadella, se comprometió en una entrevista con NBC News a fortalecer las barreras de seguridad en los sistemas de IA para prevenir la creación de contenido dañino.
La denuncia de un hombre llamado Shane Jones
En un incidente relacionado, un ingeniero de Microsoft llamado Shane Jones, alertó sobre una vulnerabilidad en la plataforma DALL-E 3 de OpenAI, permitiendo la generación de deepfakes violentos y sexuales similares a los de Taylor Swift.
Ante la falta de respuesta de OpenAI y Microsoft, Jones presentó una denuncia en el Capitolio, con la que exhortó al gobierno a crear un sistema para reportar y rastrear vulnerabilidades en sistemas de IA.
En respuesta, un vocero de Microsoft afirmó que sus investigadores no encontraron que las técnicas reportadas por Jones burlaran los filtros de seguridad. Además, anunció la implementación de una plataforma interna de informes para que los empleados expresen sus inquietudes sobre los modelos de IA antes de hacerlas públicas.
Relacionado: Los deepfakes acechan en 2024. Así es cómo abordar el creciente panorama de amenazas de la IA