Aumenta uso de inteligencia artificial para generar imágenes de abuso sexual infantil 

Una investigación realizada por periodistas de la British Broadcasting Corporation (BBC) detectó el incremento en el uso de herramientas de Inteligencia Artificial (IA) para producir contenido de abuso sexual y pedofilia.

La irrupción al mercado de las herramientas de IA hace poco menos de un año, permitió una explosión de creación de contenido, imágenes, videos, sonidos y textos, en los que la participación humana básicamente consiste en dar una serie de instrucciones, o “prompts” que permitirán la generación de contenidos.

Mientras la generación de estos contenidos estuvo bajo el control de las empresas dueñas de las IA, la producción de material sensible, estaba prácticamente limitado, debido a que existen limitaciones o controles fijados por las mismas compañías.

Esta situación llegó a extremos de que las propias empresas se vieron obligadas a imponer tarifas y mayores límites, para evitar la explosión de deep fakes que se produjo a inicios de año, cuando salieron a las redes sociales miles de elementos con características de fotografías, videos o audios de apariencia real, pero que en realidad fueron producidos por IA.

Sin embargo, de algo tiene que vivir la empresa creadora de las IA y a partir del momento en que estos algoritmos fueron liberados, bien sea, permitiendo su instalación en equipos independientes, o a través del pago de suscripciones que eliminan los controles y dan a los creadores total libertad, comenzó a propagarse una plaga: La producción de material pornográfico, de abuso y de maltrato, totalmente creado con AI

Ya en el reino Unido organismos como el Consejo Nacional de Jefes de Policía calificó de “indignante” que algunas plataformas estuvieran percibiendo “enormes ganancias” al no adoptar una “responsabilidad moral” en lo relativo al comercio de pornografía infantil generada por IA.

Hackers sexuales

El problema es que ante las limitaciones y sanciones, “los pedófilos y criminales de abuso sexual infantil adoptarán todas las tecnologías que puedan para salvaguardarse y algunos ya creen que el futuro del material de abuso sexual infantil yace en el contenido generado por IA”.

Y es que hay programas como Stable Diffusion, o Midjourney que son capaces de dar resultados con calidad fotográfica a partir de solicitudes de los usuarios, a pesar de que fueron programados para generar arte, o diseño gráfico, al final llegaron a las manos de los pervertidos.

La BBC asegura que encontró evidencias de que Stable Diffusion se está usando para crear imágenes realistas de abuso sexual infantil, que incluyen la violación de bebés y menores, la policía británica que lucha contra el abuso infantil online ya se topó con ese tipo de contenidos.

La BBC cita a la periodista independiente Octavia Sheepshanks quien ha investigado el tema y detectó que “desde que la generación de imágenes con IA se hizo posible, se generó un aluvión de este tipo de imágenes”.

Igual vas preso

Vale destacar que poseer imágenes de pornografía infantil constituye un delito, así se trate de “pseudo imágenes” generadas por computadoras que muestren abuso sexual infantil, son consideradas en Reino Unido y otros países del mundo como imágenes reales y su posesión, publicación o transferencia son ilegales y acarrean penas de prisión”.

El asunto es que se pretende señalar que al tratarse de una imagen generada por computadora, no se está causando daños a niños o personas reales, que se trata de una especie de personas sintéticas inexistentes para la ley.

Sin embargo, el riesgo que existe es que este tipo de imágenes normalice el abuso y el maltrato. Un pedófilo podría caminar a lo largo de esa escala de ofensas partiendo del pensamiento, hacia lo inexistente de un “ser sintético”, hasta llegar a abusar un niño de real”.

Compartir es un delito

Según la BBC, las imágenes de abuso son compartidas a través de redes privadas, utilizando un proceso de tres etapas: Los pedófilos generan las imágenes con software de IA, luego las promueven las fotos en plataformas como Pixiv, un sitio de intercambio de imágenes de manga y animé japonés japonés.

Y no es casual que esté en Japón, allí el intercambio de dibujos animados sexuales e ilustraciones de menores, no son ilegales. Por lo que los creadores lo utilizan para promover su “trabajo”.

Portavoces de Pixiv señalaron a la BBC que ponen mucho énfasis en luchar contra este tema. El 31 de mayo prohibieron toda representación realista de contenido sexual que involucrara menores.

Además, fortalecieron sus sistemas de monitoreo y destinan recursos sustanciales para contrarrestar los problemas relacionados con el desarrollo de la IA.

Sin embargo, Sheepshanks señala que hoy en día se están produciendo imágenes de abuso sexual infantil a una escala industrial nunca antes vista.

Lo grave es que los pedófilos tienen un interés sexual en menores, inclusive según la BBC, algunos ofrecieron aportar imágenes y videos de abuso “que no ha sido generados por IA”.

Mercado mundial

Muchas de las cuentas incluyen vínculos a biografías que dirigen a la gente a lo que llaman sus “contenidos sin censura” dentro del sitio de mecenazgo y de contenido compartido Patreon, basado en EEUU

Allí con más de 250.000 creadores, la mayoría de ellos son cuentas legítimas que pertenecen a celebridades, periodistas y escritores bien conocidos, quienes crean blogs, pódcast, videos e imágenes por precios que empieza en dos dólares.

Pero hay cuentas de Patreon que venden imágenes fotorrealistas de niños, con diferentes niveles de precio, dependiendo del tipo de material requerido, uno de esos creadores, escribió en su cuenta: “Yo entreno a mis niñas en mi PC”, añadiendo que despliegan “sumisión”. Por 8,30  dólares al mes, otro usuario ofreció “arte exclusivo no censurado”.

Al ser notificada la empresa retiró la cuenta por violación de las políticas, Patreon afirmó que tiene una política de “tolerancia cero, e insistió en que los creadores no pueden financiar contenido dedicado a temas sexuales que involucran a menores”.

La compañía dijo que el aumento de contenido dañino generado por IA en internet era “real y preocupante”, añadiendo que había “identificado y eliminado “crecientes cantidades” de dicho material.

“Ya prohibimos material sintético de explotación infantil generado por IA”, manfiestó, describiendo el sitio como “muy proactivo”, con equipos, tecnología y socios dedicados a “proteger a los adolescentes”.

Generadores ante un momento crucial

El generador de imágenes de IA Stable Diffusion nació como una colaboración internacional entre académicos y compañías, encabezados por la firma Stability AI.

Tiene varias versiones, con restricciones redactadas dentro de la codificación para controlar el contenido que se puede crear.

Pero el año pasado, una versión anterior de “fuente abierta” fue lanzada públicamente que permitía a los usuarios remover cualquier filtro y capacitarse para producir cualquier imagen, incluyendo las ilegales.

Stability AI dijo a la BBC que “apoyamos firmemente los esfuerzos de los cuerpos policiales contra aquellos que abusan nuestros productos con propósito ilegal o nefario”.

Mientras esto sucede una verdadera inundación de imágenes está surgiendo, es necesario que las autoridades y agencias, asuman que deben emprender una lucha para estar a la delantera de las amenazas emergentes como el contenido generado por IA y asegurar que no haya un refugio para los ofensores.

Lo grave es que mientras se generan miles o millones de víctimas sintéticas, hay otro tanto de víctimas reales a quienes es cada vez más difícil identificar, ubicar y ayudar debido a la cantidad de material deep fake que está surgiendo.

Ahora los organismos de investigación tienen un trabajo adicional, en términos de la vigilancia policial y las agencias del orden, para identificar dónde está un menor real, que es abusado, en vez de un niño artificial o sintético, explicó.

2 comentarios en “Aumenta uso de inteligencia artificial para generar imágenes de abuso sexual infantil 

Deja un comentario