Sara Sálamo denuncia en redes sociales el uso de la IA como violencia sexual: "Esto no va de tecnología sino de poder"
La actriz ha sido víctima en X (antes Twitter) de un montaje con Grok, la Inteligencia Artificial de la plataforma
Sara Sálamo en el Festival Internacional de Cine de San Sebastián, septiembre de 2025. / JB Lacroix
En mayo de 2023, una falsa fotografía de Rosalía editada con IA recorría las redes sociales. Un año después, era Taylor Swift quién sufría la otra cara de la Inteligencia Artificial al convertirse en víctima de un fenómeno conocido como pornovenganza: "abuso sexual que implica la distribución o imágenes sexualmente explícitas, sin el consentimiento de la persona en cuestión. Es decir: utilizar el desnudo como una forma de ataque o humillación pública".
En aquellas ocasiones, había que recurrir a una herramienta como ChatGPT o de edición "mágica" de imágenes para crear otro tipo de realidad. Sin embargo, ahora son las aplicaciones las que tienen este tipo de funciones integradas en sus plataformas. Y es mucho más sencillo ejercer violencia contra las mujeres.
Una de las últimas víctimas en denunciar esta utilización inmoral y poco ética de la IA ha sido Sara Sálamo, quien ha visto una de sus selfies modificadas sin su consentimiento.
Sara ha compartido dos capturas de pantallas: una en la que sale totalmente vestida; y otra, en la que un usuario le pedía a Grok que le pusiera un bikini.
"Durante años he dicho que he rechazado papeles porque hay personas que cogen secuencias de mis pelis de ficción, las sacan de contexto y las suben a páginas porno", ha expresado a través de X, donde ha expuesto su caso sin pelos en la lengua.
Ha destacado que "eso ya era violencia. Lo dije como actriz, pero sobre todo como madre. Porque no es abstracto: son mis hijos, su colegio, lo que oyen, lo que cargarán en unos años... Ahora resulta que ni siquiera dejando de trabajar basta".
Porque con una IA y cero escrúpulos pueden volver a sexualizarte sin tu consentimiento. Modificar tu imagen. Tu cuerpo. Tu gesto. Convertirte otra vez en objeto… Esto no va de tecnología sino de poder", ha añadido.
"De una cultura que cree que los cuerpos de las mujeres son editables, disponibles y reutilizables. Que confunde deseo con derecho. Y violencia con broma. Lo grave no es la imagen falsa. Es lo fácil que se hace y desde luego lo poco que escandaliza!!!!", ha concluido.
Desde su irrupción en nuestra vida, el debate sobre la inteligencia artificial (IA) y su uso ético se ha intensificado en los últimos años debido a la velocidad con la que estas tecnologías están transformando la sociedad. Por un lado, la IA ofrece beneficios incuestionables: automatización de procesos, avances en medicina, optimización de recursos y nuevas oportunidades creativas. Sin embargo, estas ventajas vienen acompañadas de riesgos significativos, como la pérdida de empleos, la manipulación de información, la invasión de la privacidad y la posibilidad de sesgos en los algoritmos que perpetúen desigualdades sociales. La pregunta central es cómo garantizar que la IA se desarrolle y se aplique de manera responsable, sin comprometer derechos fundamentales.
En este contexto, surgen dilemas éticos complejos: ¿quién debe regular la IA y bajo qué criterios?, ¿cómo se asegura la transparencia en sistemas que son cada vez más opacos?, ¿qué límites se deben imponer para evitar que la IA se utilice con fines dañinos, como la vigilancia masiva o la creación de armas autónomas? Organismos internacionales, empresas tecnológicas y gobiernos están intentando establecer marcos normativos, pero el ritmo de innovación supera muchas veces la capacidad regulatoria. Por ello, la ética aplicada a la IA no es solo una cuestión técnica, sino también social y filosófica, que requiere la participación activa de expertos, legisladores y ciudadanos para construir un futuro donde la tecnología esté al servicio del bienestar común.