La inteligencia artificial puede ser un espejo distorsionado. Cuando se usa para sexualizar a una mujer sin su permiso, se comete un acto de violencia que destruye su derecho a la intimidad y a la verdad (Imagen generada por IA)

Sexo, mentiras e inteligencia artificial

Expertos denuncian una explosión de imágenes pornográficas creadas con IA de mujeres reales sin su consentimiento. Nos enfrentamos a nuevos retos éticos y legales

La inteligencia artificial (IA) se convirtió en la herramienta más usada para deshumanizar a las personas, hipersexualizando y manipulando la realidad hasta convertir a miles de mujeres en objetos sexuales sintéticos.

En muy poco tiempo vimos como la IA pasó de ser una herramienta que parecía destinada a facilitar la vida de muchos y a expandir la creatividad, terminó convertida en una herramienta usada para robar, engañar, humillar, acosar y deshumanizar a miles de personas, especialmente a las mujeres.

Hoy es común encontrarnos con contenido de índole sexual creado sin el consentimiento de las víctimas. Gracias a la manipulación inteligente y algorítmica de la imagen, las mujeres se convierten en nuevas víctimas, una novísima forma de violencia que se basa en el uso de inteligencia artificial brindando una peligrosa dimensión de la violencia de género. En plena era de la post-verdad, la mentira digital tiene efectos devastadores al explotar, victimizar y revictimizar a las mujeres.

La inteligencia artificial ya dejó de ser una promesa de futuro para convertirse, en manos criminales, en un arma de destrucción reputacional. El fenómeno de los deepfakes y la generación de imágenes hiperrealistas mediante modelos de lenguaje y difusión permite que la violencia contra la mujer se traslade del plano físico al digital con una velocidad y un alcance sin precedentes.

Hoy nos enfrentamos a una capacidad monstruosa de fabricar realidades paralelas. Gracias a las herramientas de IA, basta una fotografía para generar desnudos sin consentimiento y videos que aparentan ser reales, pero que son mentiras procesadas por algoritmos. Esta práctica no solo busca la satisfacción de pulsiones sexuales de terceros, sino el control, la humillación y el silenciamiento de las mujeres en el espacio público y privado.

El caso de Renee Nicole Good

Un ejemplo alarmante de esta deshumanización digital es lo ocurrido tras el asesinato de Renee Nicole Good por funcionarios del ICE en un incidente violento en la calle. Sin embargo, lejos de encontrar respeto ante la tragedia, su imagen fue usada por usuarios de la red social X para alimentar a Grok, la inteligencia artificial de la plataforma.

La manipulación de la imagen de Renee Nicole Good tras su asesinato demuestra que la IA puede ser utilizada para despojar a las víctimas de su humanidad. Estamos ante una nueva forma de ensañamiento digital»

Análisis sobre Ética Tecnológica y Derechos Humanos

El resultado es una campaña de odio visual, la IA generó imágenes y videos que la sexualizaban y la mostraban en situaciones satíricas y denigrantes que nada tenían que ver con la realidad de los hechos ni con su vida personal. 

Este uso de la tecnología no solo empaña la memoria de una víctima de homicidio, sino que «sataniza» su figura ante la opinión pública, utilizando la falsedad para justificar o minimizar la violencia sufrida. Nos encontramos a las puertas del ejercicio de la post-verdad al servicio de la crueldad, el asesinato y la justificación criminal.

El impacto en niños y adolescentes

La accesibilidad de estas herramientas ha provocado que la violencia digital se filtre en entornos escolares. Niños y adolescentes utilizan aplicaciones de «desnudo fácil» para acosar a sus compañeras.

Psicólogos han advertido sobre el impacto que este tipo de materiales puede tener en menores, “El daño a la identidad y a la autoestima es masivo. Una adolescente cuya imagen es manipulada sufre un trauma de exposición pública que puede derivar en aislamiento, depresión severa y una sensación de total desprotección ante un mundo digital que percibe como hostil», indica un estudio.

La organización internacional Thorn, especializada en la protección de menores en entornos digitales, ha advertido sobre la gravedad de este fenómeno en sus informes de 2025. Según la organización: «El contenido puede ser falso, pero el trauma es real. Incluso si la imagen fue producida sintéticamente, el miedo, la vergüenza y la manipulación infligidos a la víctima son muy reales».

Riesgos legales y el desafío de la justicia

En el ámbito penal, el uso de la IA para generar contenido sexual no consentido o difamatorio presenta retos complejos.

Aunque en Venezuela la Ley Orgánica sobre el Derecho de las Mujeres a una Vida Libre de Violencia establece sanciones penales por el ejercicio de violencia mediática y simbólica, la persecución de delitos generados por IA tropieza con el anonimato y la extraterritorialidad de las plataformas.

Expertos legales señalan que crear o difundir un deepfake de carácter sexual puede ser tipificado como pornografía no consentida o extorsión, dependiendo de la intención del agresor. El mayor riesgo radica en la «muerte civil» de la víctima: una vez que el contenido se viraliza, la verdad —por más verificable que sea— rara vez logra alcanzar la velocidad del algoritmo que propagó la mentira.

El contenido puede ser falso, pero el trauma es real… el miedo, la vergüenza y la manipulación infligidos a la víctima son muy reales»

Thorn.org

Organización experta en seguridad infantil digital

Otras acciones se han comenzado a ejecutar. En el sureste asiático. el pasado fin de semana, Indonesia y Malasia se convirtieron en los primeros países en bloquear oficialmente el acceso a Grok. La ministra de Comunicación y Digitalización de Indonesia, Meutya Hafid, justificó la medida denunciando que la herramienta permitía crear pornografía falsa y contenido sexualizado de menores utilizando fotos reales de ciudadanos.

Cómo enfrentar la violencia digital por IA

Educación y prevención: Es necesario enseñar a los jóvenes a identificar contenidos manipulados y fomentar la empatía digital para entender que detrás de cada imagen hay personas reales.

Protección de datos: Evitar el sobreuso de etiquetas de ubicación y la publicación de fotos de alta resolución en perfiles públicos que puedan ser usados para «entrenar» a la IA contra las usuarias.

Acción legal y técnica: Ante un ataque, se debe documentar todo (capturas, URLs) y denunciar ante la División de Delitos Informáticos del Cicpc.

Exigencia a las tecnológicas: Es imperativo presionar a las empresas de IA (como X AI, OpenAI o Google) para que implementen filtros éticos que impidan generar imágenes de personas reales sin su consentimiento.

La inteligencia artificial puede ser un espejo distorsionado. Cuando se usa para sexualizar a una mujer sin su permiso, se comete un acto de violencia que destruye su derecho a la intimidad y a la verdad (Imagen generada por IA)
La inteligencia artificial puede ser un espejo distorsionado. Cuando se usa para sexualizar a una mujer sin su permiso, se comete violencia que destruye su derecho a la intimidad y la verdad (Imagen generada por IA)

Deja un comentario