Imágenes porn*gráficas generadas por inteligencia artificial de Taylor Swift, la estrella más famosa del mundo, se difundieron por las redes sociales esta semana, subrayando el potencial dañino que plantea la tecnología de inteligencia artificial dominante: su capacidad para crear imágenes convincentemente reales y dañinas.
Las imágenes falsas de Taylor Swift circulaban sobre todo en la red social X, antes conocida como Twitter. Las imágenes, que mostraban a la cantante en posturas sexualmente sugerentes y explícitas, fueron vistas decenas de millones de veces antes de ser retiradas de las plataformas sociales. Pero nada en Internet desaparece para siempre, y sin duda seguirán compartiéndose en otros canales menos regulados.
El portavoz de Swift no respondió a la solicitud de comentarios.
Como la mayoría de las principales plataformas de medios sociales, las políticas de X prohíben compartir «medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a la gente y provocar daños».
El incidente se produce en un momento en que Estados Unidos se adentra en un año de elecciones presidenciales, y crece la preocupación sobre cómo podrían utilizarse imágenes y videos engañosos generados por IA para encabezar esfuerzos de desinformación y, en última instancia, interferir con la votación.
«Este es un excelente ejemplo de cómo se está utilizando la inteligencia artificial con fines nefastos, sin que existan suficientes salvaguardas para proteger la esfera pública», declaró a CNN Ben Decker, director de Memetica, una agencia de investigación digital.
Decker dijo que la explotación de herramientas de IA generativa para crear contenido potencialmente dañino dirigido a todo tipo de figuras públicas está aumentando rápidamente y se está extendiendo más rápido que nunca a través de las redes sociales.
«Las empresas de redes sociales no disponen realmente de planes eficaces para supervisar el contenido», afirma.
X, por ejemplo, ha eliminado en gran medida su equipo de moderación de contenidos y confía en sistemas automatizados y en los informes de los usuarios. (En la Unión Europea se está investigando a X por sus prácticas de moderación de contenidos).
Meta también ha recortado sus equipos de lucha contra la desinformación y las campañas coordinadas de trolls y acoso en sus plataformas, según han declarado a CNN personas con conocimiento directo de la situación, lo que suscita preocupación de cara a las cruciales elecciones de 2024 en Estados Unidos y en todo el mundo.
No está claro de dónde proceden las imágenes relacionadas con Taylor Swift. Aunque algunas imágenes se encontraron en sitios como Instagram y Reddit, fueron un tema generalizado en X en particular.
El incidente también coincide con el auge de herramientas de generación de IA como ChatGPT y Dall-E. Sin embargo, según Decker, también existe un mundo mucho más amplio de modelos de IA no moderados y no seguros para el trabajo en plataformas de código abierto.
«Esto es indicativo de un tipo de fractura mayor en la moderación de contenidos y la gobernanza de las plataformas, porque si todas las partes interesadas: las empresas de IA, las empresas de redes sociales, los reguladores y la sociedad civil, no están hablando de las mismas cosas y en la misma página sobre cómo abordar estas cuestiones, este tipo de contenido simplemente va a seguir proliferando», añadió.
Decker dijo, sin embargo, que el hecho de que Swift esté en el punto de mira podría llamar más la atención sobre los crecientes problemas en torno a las imágenes generadas por inteligencia artificial. El enorme contingente de «Swifties» fieles a Swift expresó su indignación en las redes sociales esta semana, poniendo el tema en primera plana.
En 2022, un colapso de Ticketmaster antes de su concierto Eras Tour desató la ira en Internet, lo que dio lugar a varios esfuerzos legislativos para acabar con las políticas de venta de entradas poco favorables a los consumidores.
Decker sugiere que quizá ocurra lo mismo con las imágenes perjudiciales generadas por la IA.
«Cuando figuras como Taylor Swift se convierten en un blanco tan importante, quizá sea esto lo que impulse a los legisladores y a las empresas tecnológicas a actuar, porque no pueden permitirse que la ‘novia de Estados Unidos’ haga una campaña pública en su contra», afirma. «Yo diría que necesitan hacerla sentir mejor porque probablemente tiene más influencia que casi cualquier otra persona en Internet».
Este tipo de tecnología se ha utilizado desde hace tiempo para crear lo que se conoce como «porno de venganza», esto es, publicar imágenes explícitas de alguien en Internet sin su consentimiento, pero ahora está recibiendo una atención renovada debido a las imágenes ofensivas de Swift.
Nueve estados de EE.UU. cuentan actualmente con leyes contra la creación o el intercambio no consentido de imágenes «deepfake», que son imágenes artificiales creadas para imitar la propia imagen.
Con información de CNN Español