Combatir el aumento de material de abuso sexual infantil generado por la IA

Posted on Posted in Derechos del Niño, Derechos Humanos, Explotación

El mundo está experimentando un auge de las tecnologías de inteligencia artificial (IA) accesibles. Las nuevas herramientas y capacidades ofrecen nuevas oportunidades para que los delincuentes y los malechores exploten a los niños. Mientras los legisladores, los responsables políticos y las fuerzas del orden se esfuerzan por seguir el ritmo de las innovaciones delictivas, los niños son cada vez más susceptibles al material de abuso sexual infantil generado por IA. Las nuevas tecnologías están permitiendo a los delincuentes crear, amplificar y distribuir CSAM a un ritmo sin precedentes. Sin una intervención urgente, esta tendencia amenaza con dañar la seguridad en línea de los niños. 

¿Qué es el CSAM generado por IA?

El CSAM (Contenido de Abuso Sexual Infantil) generado por IA es CSAM sintético o de la vida real creado mediante herramientas de IA (Clark, 2023). Este contenido plantea una doble amenaza: por sí mismo permite la generación de CSAM nuevo y perjudicial y, simultáneamente, las herramientas de IA permiten a los delincuentes acceder a otros CSAM y difundirlos a un ritmo más rápido que nunca.

Los contenidos ilícitos pueden contener imágenes alteradas de niños reales o creaciones fraudulentas. La capacidad de las herramientas de IA para crear contenidos que antes no existían suele denominarse «generativa», y esta modalidad amplía la red de víctimas potenciales de CSAM si las imágenes son creadas fraudulentamente. 

La IA ha presentado una oportunidad sin precedentes para que los delincuentes creen un volumen ilimitado de CSAM. Todas las formas de CSAM generadas por IA son ilegales, independientemente de que representen o reflejen a un niño real o no. Las herramientas de IA son tan sofisticadas que la mayor parte del CSAM generado por IA es «visualmente indistinguible» del CSAM real, incluso para analistas entrenados (Internet Watch Foundation, 2023).

Tendencias y prevalencia

Aunque el uso de la IA para generar y propagar CSAM es relativamente novedoso, están surgiendo ideas sobre las metodologías empleadas por los delincuentes. En cuanto a la generación, se está utilizando software de IA de libre acceso, como Stable Diffusion, para generar contenidos fraudulentos de CSAM (Crawford y Smith, 2023).

La facilidad de este y otros programas informáticos permite a las personas, que no necesariamente tienen experiencia tecnológica previa, crear nuevas imágenes basándose en indicaciones de palabras e instrucciones sencillas (Crawford y Smith, 2023). La tecnología de conversión de texto en imagen es rápida, precisa y permite crear grandes volúmenes de contenido simultáneamente (Internet Watch Foundation, 2023). 

En cuanto al alojamiento y la difusión de CSAM, se están utilizando sitios de intercambio de contenidos como Patreon para almacenar imágenes de CSAM generadas por IA (Crawford y Smith, 2023). Esto permite a los delincuentes adquirir suscripciones a los mismos servicios para acceder a las imágenes de forma sistemática (Crawford y Smith, 2023). Patreon ha expresado su tolerancia cero ante la aparición de estos contenidos en su sitio web, pero identificar y sancionar a los delincuentes que se aprovechan de estas plataformas es más fácil de decir que de hacer (Crawford y Smith, 2023).

Lucha mundial contra el abuso de menores en línea potenciado por la IA

Este desafío no se limita a Patreon; la Agencia Nacional contra el Crimen (NCA) del Reino Unido (RU) cree que un mayor cifrado de extremo a extremo -el proceso de asegurar los datos entre dos partes que se comunican y evitar que terceros accedan a ellos- dentro de las plataformas de Meta (Facebook, Instagram y otras) significaría que las fuerzas de seguridad perderían el acceso entre el 85 % y el 92 % de las remisiones de CSAM que llegan a través de las plataformas (Ministerio del Interior, 2023).

Los estudios realizados en Estados Unidos sugieren que Facebook, Instagram y WhatsApp son las plataformas de redes sociales que albergan la mayor proporción de material ilícito (McQue, 2024). A estas les siguen rápidamente otras entidades de medios sociales a gran escala, lo que refleja el papel central de algunos de los sitios web y aplicaciones más populares del mundo a la hora de permitir la difusión de CSAM.

Debido a la facilidad de producción de CSAM facilitada por la IA, es difícil medir con precisión la escala y la prevalencia del contenido en línea. El Ministerio del Interior del Reino Unido declaró que se han realizado 800 detenciones de depredadores sexuales y que el Gobierno protege a 1.200 niños al mes (Ministerio del Interior, 2023), pero esto no se limita al ámbito en línea. Además, el software de IA puede descargarse y ejecutarse en línea, lo que significa que los malintencionados pueden crear contenidos ilimitados mientras están desconectados de Internet, ocultándolos a las fuerzas de seguridad (Internet Watch Foundation, 2023).

Los escasos análisis existentes apuntan a un volumen alarmante de CSAM generado por IA en un corto espacio de tiempo. Un análisis realizado en el Reino Unido reveló que se habían publicado 20.254 imágenes en un solo foro de CSAM generado por IA en el mes de septiembre de 2023 (Internet Watch Foundation, 2023).

En los Estados Unidos  (EE.UU.), el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) no empezó a recibir CSAM generado por IA hasta 2023, y ya ha recibido informes relacionados con casi 5.000 contenidos (McQue, 2024). En 2023, la Cyber Tipline de EE. UU. recibió casi 36 millones de informes relacionados con incidentes de CSAM, más del 90% de los contenidos se cargaron en territorio extranjero y más de 60.000 de los informes implicaban a un niño en peligro inmediato (McQue, 2024).

Respuestas políticas y policiales

Dada la naturaleza transversal del desafío de la ESCNNA generada por IA, se requieren enfoques multisectoriales para interrumpir significativamente la tendencia. En el sector privado, 27 organizaciones, como TikTok y Snapchat, entre otras, se han asociado recientemente con varios gobiernos, como los de Estados Unidos, Alemania y Australia, para explorar nuevas formas de combatir el MSCAM generado por IA (Clark, 2023).

También están empezando a surgir intervenciones gubernamentales bilaterales y multinacionales: en 2023, EE. UU. y el Reino Unido emitieron una declaración conjunta en la que reafirmaban su compromiso de combatir la IA generativa (Ministerio del Interior y Secretario de Seguridad Nacional de EE. UU., 2023). Esto fue apoyado por un proyecto de ley histórico del gobierno del Reino Unido, el Online Safety Bill, que impuso requisitos más estrictos a las entidades del sector privado para que hicieran todo lo posible por identificar y eliminar el contenido CSAM de sus sitios web (Ministerio del Interior, 2023).

Respuestas estratégicas al CSAM generado por la IA

La creciente amenaza del CSAM generado por la IA requiere una respuesta rápida y global. Entre otras intervenciones, hay algunas cosas clave que los gobiernos deben hacer para catalizar una respuesta contundente.

  • Los gobiernos deben asegurarse de que su legislación sobre CSAM se actualiza, cuando sea necesario, para garantizar que fomenta adecuadamente el seguimiento del CSAM generado por IA y crea vías para detenciones y enjuiciamientos (Internet Watch Foundation, 2023). 
  • Los gobiernos deben trabajar con las jurisdicciones extranjeras y vecinas para alinear sus procesos y regulaciones sobre CSAM generado por IA (Internet Watch Foundation, 2023). Los marcos normativos incoherentes crean lagunas que los delincuentes pueden aprovechar.
  • Los gobiernos deben supervisar y regular el trabajo de los desarrolladores tecnológicos del sector privado, que a menudo innovan a un ritmo más rápido de lo que los responsables políticos pueden legislar para las nuevas actividades delictivas. Como mínimo, se debe pedir a las empresas tecnológicas que prohíban claramente el CSAM en sus plataformas, y que busquen activamente formas de prevenir la difusión de contenidos nocivos a través de sus plataformas.
  • Los agentes del orden deben recibir formación sobre el uso de herramientas de IA para ayudarles a identificar y procesar el CSAM generado por IA. Cuando existan limitaciones de recursos, debe alentarse y apoyarse en los organismos encargados de hacer cumplir la ley para que desarrollen formas novedosas de contrarrestar la proliferación de CSAM.
  • Los organismos de investigación deben buscar oportunidades para mejorar la base de pruebas del CSAM generado por IA. Actualmente, no existe una comprensión normalizada de la magnitud de la amenaza, ni un análisis sólido de dónde se alojan los contenidos en línea. Esto merma la respuesta de las fuerzas de seguridad.

En Humanium nos dedicamos a salvaguardar los derechos de los niños y a garantizar su seguridad en la era digital. Apoyando nuestros esfuerzos a través de donaciones, voluntariado o promoción, puedes ayudarnos a proteger a los niños de todo el mundo. Únete a nosotros en nuestra misión de hacer del mundo digital un lugar más seguro para las generaciones futuras.

Escrito por Vanessa Cezarita Cordeiro 

Traducido por Adrian Ordinana Salvador

Revisado por Laura Zaragoza Visier

Referencias:

Clark, E. (2023, October 31). “Pedophiles using AI to generate child sexual abuse imagery.” Retrieved from Forbes, accessed 22 April 2024.  

Crawford, A and Smith, T. (2023, June 28). “Illegal trade in AI child sex abuse images exposed.” Retrieved from BBC News, accessed 22 April 2024. 

Home Office and US Secretary of Homeland Security. (2023, September 27). “A joint statement from the United States and the United Kingdom on combatting child sexual abuse and exploitation.” Retrieved from Home Office, accessed 22 April 2024. 

Home Office. (2023, September 27). “UK and US pledge to combat AI-generated images of child abuse.” Retrieved from Home Office, accessed 22 April 2024. 

Internet Watch Foundation. (2023, October 25).  “‘Worst nightmares’ come true as predators are able to make thousands of new AI images of real child victims.” Retrieved from Internet Watch Foundation, accessed 22 April 2024.  

Internet Watch Foundation. (2023, October). “How AI is being abused to create child sexual abuse imagery.” Retrieved from Internet Watch Foundation, accessed 22 April 2024. 

McQue, K. (2024, April 16). “Child sexual abuse content growing online with AI-mad images, report says.” Retrieved from The Guardian, accessed 22 April 2024.