El CEO de Microsoft, Satya Nadella, ha expresado su preocupación por la proliferación de imágenes falsas de Taylor Swift sexualmente explícitas generadas por IA. En una entrevista con NBC Nightly News, Nadella califica la situación de alarmante y terrible, y subraya la necesidad de actuar con rapidez. Aunque reconoce la importancia de implantar barreras en torno a la tecnología de IA para garantizar una producción de contenidos más segura, también subraya la necesidad de normas sociales globales y de colaboración entre las fuerzas del orden y las plataformas tecnológicas. Se ha sugerido que las imágenes falsas de Swift pueden proceder de una comunidad de producción de pornografía no consentida que utiliza el generador de imágenes Designer de Microsoft. Sin embargo, abordar el problema va más allá de reforzar las barreras de seguridad de las empresas, ya que las herramientas de IA han facilitado la creación de desnudos falsos de personas reales. Controlar su producción es complejo, e incluso si las principales plataformas tecnológicas están protegidas, las herramientas abiertas pueden ser manipuladas. Nadella insinúa la necesidad de cambios sociales y políticos más amplios, pero en la actualidad no existe una gama clara de soluciones con las que Microsoft pueda trabajar. Mientras los legisladores y las fuerzas del orden tratan de resolver el problema, se han sugerido medidas temporales como limitar el alcance de las imágenes no consentidas o la justicia vigilante. Por ahora, Nadella’ se centra principalmente en mejorar las propias prácticas de IA de Microsoft.
