Recientemente han detectado vía online una “inundación” de ese material producido por IA
El uso de la inteligencia artificial (IA) para cometer hechos delictivos ha sido alertado, tanto por especialistas como por autoridades policiales.
Las capacidades de la IA para crear deep fakes, a través de computadoras que simulan y reproducen rostros, voces y videos, han sido utilizadas para estafas y para manipular la opinión pública mediante la “fabricación de hechos no ocurridos”.
Sin embargo, en los últimos meses ha surgido una nueva amenaza en el tema de la inteligencia artificial, y si bien ya se había visto la elaboración de material pornográfico de personajes famosos, cantantes, actores y hasta políticos, ahora la amenaza viene de las manos de unos personajes bastante oscuros, los pedófilos.
Y es que una investigación efectuada por periodistas de la British Broadcasting Corporation (BBC) detectó el incremento en la utilización de herramientas de inteligencia artificial para producir contenido de abuso sexual contra niños y pedofilia.
Lo malo no es la tecnología sino quien la usa
La irrupción al mercado de las herramientas de IA permitió una explosión de creación de imágenes, videos, sonidos y textos, en los que la participación humana básicamente se limita a dar algunas instrucciones, o “prompts”, para generar contenidos.
En sus inicios eran imágenes alucinadas, textos incongruentes y voces robóticas, pero en la medida en que las redes se nutrieron, lo generado comenzó a ser cada vez más realista, y en menos de un año llegamos a resultados absolutamente sorprendentes. Hoy es difícil diferenciar lo real de lo falso. En meses o semanas será imposible.
La pornografía infantil virtual normaliza el abuso, su difusión abre el camino a futuros maltratos contra niños”
Fernando Pereira
Coordinador de la ONG Cecodap
Mientras la generación de estos contenidos estuvo bajo el control de las empresas propietarias de las IA, la producción de material sensible estuvo limitada debido a barreras y controles fijados por las propias compañías.
A inicios de año se generó tal explosión de material falso difundido como real, que las empresas pusieron un freno y comenzaron a cobrar por utilizar sus IA, lo que les generaba ganancias.
Pero otros algoritmos fueron liberados y se instalaron en equipos independientes, o lograron eliminar los controles, y los creadores obtuvieron total libertad, con lo que se propagó una plaga: La producción de material pornográfico, de abuso, maltrato gore, totalmente creado con IA.
Y lo más grave: ese material comenzó a venderse.
Víctimas sintéticas y víctimas reales
Los pedófilos y abusadores sexuales adoptan las tecnologías para salvaguardarse. Algunos creen que el futuro del material de abuso sexual infantil yace en el contenido generado por IA, bajo la excusa de que no hay víctimas humanas.
“Lo grave es que mientras se generan miles o millones de víctimas sintéticas, hay otro tanto de víctimas reales a quienes es cada vez más difícil identificar, ubicar y ayudar debido a la cantidad de material deep fake que está surgiendo”, señala el informe de la BBC.
“Consideran que al no haber víctimas reales no habría delito, sin embargo, esa premisa es falsa. Al producir y exponer este material, las personas se insensibilizan ante el daño que hacen y se normaliza el abuso, se oculta su gravedad bajo la excusa de que no se dañó a niños reales, sin tomar en cuenta que la difusión de ese material abre el camino a futuros abusos”, señala Fernando Pereira, coordinador de la ONG Cecodap.
Agregó que ve con preocupación la producción de este material y que se difunda, con el riesgo de que no se puedan diferenciar las víctimas reales de las virtuales. “¿Cómo rescatar a un niño que está en manos de una banda de criminales que abusa de él, si no sabemos si existe? ¿Cómo rastrearlo?”, pregunta.
Por su parte, Raymond Orta, abogado especialista en tecnología, destaca que “la posesión y distribución de material pornográfico de abuso infantil es un delito, sea un dibujo, una foto o un producto de IA”.
“Si alegan que no es un ilícito porque no es sobre una persona real, pues entonces hacen apología al delito; si usan la IA para crear ese tipo de contenidos, estaríamos ante la incitación y promoción del delito; el uso de redes para difundirlo, solo lo agrava. Es evidente que por algún lado ese delincuente será perseguido, al menos en el caso de Venezuela”, acota el abogado.
“Producirlo, almacenarlo en computadoras, distribuirlo, venderlo a través de redes sociales o de páginas web, también constituyen delitos que deben ser combatidos con todo el peso de la ley debido a sus implicaciones”, subraya Orta.
Pedófilos cibernéticos: los nuevos delincuentes
Los crímenes que tienen más enemigos son la pedofilia y el abuso sexual infantil. Hasta en las cárceles estos delincuentes no la tienen fácil, así que siempre tratarán de cuidar su pellejo ocultando su rastro, bien sea a través de amenazas, engaños, ocultándose y hasta asesinando a sus víctimas para no dejar pruebas. Pero el crimen siempre sale a la luz.
Producir, almacenar en computadoras o teléfonos, compartir, distribuir o vender a través de redes sociales o de páginas web, pornografía infantil real o virtual, constituyen delitos que deben ser combatidos con todo el peso de la ley”
Raymond Orta
Abogado especialista en tecnología
Para producir ese material muchos se ocultan en “paraísos” de pornografía, como países del sureste asiático o en naciones empobrecidas, como Venezuela, donde unos dólares son la justificación para cometer cualquier cantidad de abusos y maltratos; y para tener ganancias venden su mercancía a través de la dark web o de redes privadas.
Pero una nueva camada de pedófilos emergió de las cloacas de la tecnología y estos trabajan desde sus casas. Solo necesitan una computadora, acceso a internet y alguna IA para producir su material, cargarlo y promoverlo. Luego lo venden, a través de páginas como Only Fans, Patreon, Liberapay, Buymeacoffee y Flattr, entre otras.
Es en este sentido que es tan importante el desarrollo de tecnologías que permitan identificar y rastrear esta clase de materiales hasta sus orígenes para desarticular el tipo de organizaciones que están surgiendo.

