DOCTRINA


DEEPFAKES Y CREACIONES ARTIFICIALES DE IMÁGENES ÍNTIMAS DE NIÑOS, NIÑAS Y ADOLESCENTES

DEEPFAKES AND ARTIFICIAL CREATIONS OF INTIMATE IMAGES OF CHILDREN AND ADOLESCENTS

Por Daniela Dupuy[1]

Universidad Austral, Argentina

Resumen: El artículo analiza cómo el desarrollo de internet y las tecnologías digitales han facilitado la expansión de delitos sexuales contra niños, niñas y adolescentes mediante la producción, difusión y comercialización de material de abuso sexual infantil. La facilidad de acceso, el anonimato y la ausencia de fronteras han convertido esta práctica en un negocio global y de bajo riesgo. Además, se advierte el surgimiento de nuevas formas de explotación a través de la inteligencia artificial, que permite crear imágenes falsas (deepfakes) de abuso infantil, vulnerando igualmente los derechos y la integridad sexual de los menores.

Palabras clave: abuso sexual infantil, ciberdelito, inteligencia artificial, tecnologías digitales, derechos del niño, imágenes falsas

Abstract: This article analyzes how the development of the internet and digital technologies have facilitated the spread of sexual crimes against children and adolescents through the production, dissemination, and marketing of child sexual abuse material. Ease of access, anonymity, and the absence of borders have turned this practice into a global, low-risk business. It also warns of the emergence of new forms of exploitation through artificial intelligence, which allows the creation of deepfakes of child abuse, also violating the rights and sexual integrity of minors.

Keywords: Child sexual abuse, cybercrime, deepfakes, artificial intelligence, digital technologies, children’s rights, fake images

INTRODUCCIÓN

Internet ha impactado en nuestras vidas. Si bien el desarrollo tecnológico es una herramienta favorable para el alcance global de la comunicación, también es cierto que se ha convertido en un espacio que facilita la actividad de los ciberdelincuentes, quienes, cómodamente y desde el anonimato, demandan, ofrecen, consumen, comercializan, comparten, producen y facilitan imágenes de abuso sexual de niños, niñas y adolescentes.

Hace ya un tiempo que quienes cometen delitos en contra de los niños, niñas y adolescentes descubrieron que, a través de las tecnologías digitales, pueden producir, compartir y comercializar imágenes de explotación sexual que les permiten completar sus colecciones de materiales de abuso sexual infantil. Internet permite que sea fácil, económico, de bajo riesgo y sin obstáculos de límites geográficos.

Es claro que, como iremos descubriendo en el desarrollo de este trabajo, para que las imágenes abusivas se encuentren a disposición de quienes las pretenden, se debe abusar de estos sujetos de especial protección.

El escenario de abuso sexual es el primer paso, el que permitirá fotografiarlos y filmarlos durante el acto sexual, para luego eternizar la violación a su integridad sexual a través del intercambio y la difusión de esos archivos en una red internacional, dejando huella para siempre en sus vidas.

El advenimiento de internet y de la telefonía móvil ha facilitado las descargas y el intercambios de material de explotación sexual infantil, generando que su producción y posterior venta se conviertan en un negocio lucrativo a nivel mundial.

Quienes abusan y registran a través de cámaras de fotos o celulares dicha actividad para luego vender o intercambiar las imágenes son explotadores sexuales de niños, niñas y adolescentes. Cuando alguien paga por tal material o lo consume, también participa de la explotación, formando parte del circuito delictivo.

La tecnología sigue avanzando y esos niños ya no son reales, sino imágenes creadas con inteligencia artificial (IA) que simulan a la perfección, como si fueran auténticos. Ello también vulnera el bien jurídico de la libertad sexual y el libre desarrollo de la sexualidad de los más pequeños.

En la actualidad son varias las ONG, fuerzas policiales nacionales e internacionales e instituciones judiciales que están trabajando fuertemente para combatir este delito. Pero no alcanza. Debe existir una política pública clara, específica y global que, a través de la cooperación internacional, termine con este flagelo. Ello debe estar acompañado con legislaciones de forma y de fondo que permitan legítimamente dar la batalla (Dupuy, 2021).

El Convenio sobre la Ciberdelincuencia, realizado en Budapest en 2021, insta a los Estados adheridos a incorporar en sus leyes penales la explotación sexual infantil –real o simulada– como delito, y surge clara de su reporte explicativo su intención de combatirla.[2]

Lo que sigue es un enfoque jurídico práctico de esta problemática internacional y sus graves derivaciones permitidas por la tecnología, como la creación con IA de imágenes de niños, niñas y adolescentes siendo abusados por adultos (deepfakes).

Este fenómeno reciente, de escasa regulación a nivel regional y con grandes desafíos para su investigación penal inmediata y efectiva, trae aparejadas consecuencias irreparables y permanentes en las víctimas.

I - INTELIGENCIA ARTIFICIAL Y NUEVAS FORMAS DE CRIMINALIDAD SEXUAL INFANTIL

Con los avances tecnológicos, la creación y distribución de material de abuso sexual infantil se ha convertido en una de las industrias ilícitas en línea de más rápido crecimiento en el mundo.

Los perpetradores se están volviendo cada vez más sofisticados y utilizan tecnología de última generación, lo que dificulta que las fuerzas del orden y los investigadores detecten estas conductas, que en algunos países de la región aún no se encuentran legisladas, lo que convierte en un gran desafío internacional la investigación y el procesamiento de casos de abuso sexual en línea, sobre todo cuando de deepfakes se trata.

La investigación del abuso sexual infantil se ha vuelto cada vez más compleja, ayudada por la fácil y anónima disponibilidad de internet.

Antes de la era digital, las imágenes y videos de niños y niñas siendo abusados por adultos se compartían entre los perpetradores mediante el intercambio físico de imágenes impresas, ya sea por correo postal o en encuentros presenciales.

Los deepfakes son imágenes hiperrealistas manipuladas y modificadas de manera digital para mostrar personas haciendo o diciendo cosas que nunca sucedieron en realidad. Están basados en diferentes redes neuronales que estudian extensos volúmenes de información para replicar movimientos faciales, ademanes y otras expresiones humanas, voces e inflexiones, a través del deep learning. Se alimenta a la IA con imágenes de varias personas para que las aplique al cuerpo de otra, o incluso coloque los cuerpos en situaciones completamente generadas por ella (Westerlund, 2019). Por lo general es muy difícil detectar la autenticidad, ya que la mayoría de las veces se utilizan imágenes reales con audios que suenan legítimos, por lo que la audiencia tiende a creer que es cierto.

La proliferación de material de abuso sexual infantil generado por IA ha hecho que este fenómeno ya no se limite a la web oscura (dark web), sino que ahora esté disponible en la red convencional. Los perpetradores parecen considerar la producción y distribución de este material menos arriesgada y adoptan la nueva tecnología. A medida que las redes sociales facilitan la propagación de dicho material, parece normalizarse la visualización y creación de este tipo de contenidos. Como explica Mike Frend, supervisor de Online CSEA Covert Intelligence Team (OCCIT) del Reino Unido en una entrevista realizada por Value for Good, estas comunidades son bastante accesibles en las principales redes sociales, dónde abundan cuentas que exhiben con orgullo la calidad de sus contenidos. Algunos modeladores facilitan el contacto mediante Telegram u otras aplicaciones cifradas para compartir material adicional, mientras que los algoritmos de recomendación pueden dirigir perfiles de menores. Cuando un posible agresor encuentra a un modelador con experiencia, el paso a plataformas de pago ocurre rápidamente, y al haber sido guiado desde redes sociales, no suele percibir la acción como algo ilícito.

 El abuso sexual infantil generado por IA ha propiciado un aumento de la comercialización de explotación sexual de niños y niñas. Además de la compraventa de contenido y modelos, han proliferado nuevos métodos de extorsión –o sextorsión– gracias a la facilidad con la que los perpetradores pueden crear material de abuso sexual infantil.

Existen tres factores principales que impulsan a los perpetradores a poseer material de abuso sexual infantil generado por IA, los cuales determinan los factores comerciales:

Veamos ahora, las distintas formas de manipulación digital de imágenes vinculadas a material de abuso sexual infantil.

Imágenes 100 % artificiales a partir de instrucciones escritas

Modelos de IA como Stable Diffusion o DALL-E permiten generar imágenes a partir de descripciones escritas en lenguaje natural, mediante una técnica conocida como text-to-image. A partir de estos textos –denominados prompts (indicaciones)– los usuarios pueden obtener imágenes realistas que reflejan con precisión las instrucciones proporcionadas.

Estos modelos de IA se componen de redes neuronales avanzadas formadas con grandes volúmenes de datos visuales, muchos de ellos extraídos de internet. La IA generativa ha permitido la creación de una amplia gama de contenido de abuso sexual infantil.

El tipo de material que ha recibido mayor atención es el de texto a imagen, lo que significa que un agresor da una indicación a un modelo de IA para que genere o altere una imagen a fin de que sea sexualmente explícita. La naturaleza realista de este material ha madurado rápidamente, siendo en muchos casos indistinguible.[4]

A veces, los modelos de IA generativa de texto a texto no pueden filtrar lo que no se debe producir. Por ejemplo, cuando se le pidió a un popular modelo una lista de sitios web donde se pudieran descargar películas pirateadas, respondió que no podía proporcionarla; sin embargo, cuando se le hizo la solicitud inversa –es decir, una lista de sitios web que se deberían evitar si uno quisiera asegurarse de que no están pirateando películas–, la proporcionó. Ello aplica a la creación de imágenes de niños.

Algunos modelos que carecen de mayores garantías incluso pueden producir guías prácticas sobre cómo extorsionar a las víctimas usando material de abuso sexual infantil real o generado por IA.

Esta capacidad permite la explotación de imágenes inocuas, creando víctimas que pueden nunca saber que sus imágenes fueron utilizadas para material de abuso sexual infantil. Además, se puede revictimizar a las personas al “mejorar” la calidad o alterar las imágenes para que las víctimas participen en actos sexuales adicionales, específicos para las fantasías de un perpetrador.

Internet Watch Foundation (IWF) predijo en julio de 2024 que los futuros videos de abuso sexual infantil generados por IA serían de mayor calidad y realismo, y los recientes avances han permitido la creación de imágenes en movimiento que rápidamente se vuelven indistinguibles de los videos. Si bien a finales de 2023 las fuerzas del orden podían identificar los videos de abuso sexual infantil generados por IA por la ausencia de parpadeos, los agresores han podido eliminar este indicio.[5] 

Las fuerzas del orden han observado que el rápido desarrollo de este material se ve impulsado por la naturaleza solidaria de la comunidad de perpetradores, que se apoyan unos a otros para ayudar a mejorar las indicaciones y hacer material de “mejor calidad”. Intercambian consejos sobre cómo evitar la detección, manejar las investigaciones policiales y usar imágenes generadas por IA para chantaje o sextorsión. Esta colaboración les permite refinar las tácticas y mantenerse por delante de las fuerzas del orden, evadiendo la captura.

Particularmente preocupante es lo fácil que es encontrar estas comunidades en las redes sociales. A la vez, los perpetradores que producen, ven y comercializan contenido generado por IA a menudo incitan a los usuarios interesados ​​a interactuar con ellos a través de otros canales, incluidos Telegram o sitios web oscuros, donde no existen salvaguardas para prevenir el comercio de este material.

Deepfakes: superposición de rostros reales en cuerpos artificiales

Deepfake se refiere a toda técnica de manipulación audiovisual que utiliza IA, en particular redes neuronales conocidas como redes generativas adversativas o generative adversarial networks (GAN), para generar contenido falso.

Los deepfakes son imágenes, audios o videos creados con IA generativa que pueden hacer que una persona –incluso niñas, niños y adolescentes– parezca estar diciendo o haciendo algo que en realidad nunca hizo. Si alguien usa una foto de un niño para crear contenido falso y lo difunde, no solo está violando su imagen, intimidad y consentimiento: puede dañarlo emocionalmente y afectar su seguridad.

Debemos tener presente que el uso de dicha imagen sirvió para entrenar la IA generadora del contenido, por lo tanto, los patrones de esa foto y sus datos ya obran en el sistema (O’Mill y Corvalán, 2025).

La calidad de estas producciones supone también un salto cualitativo en la generación de evidencia falsa de abuso, especialmente en video y audio, con implicancias probatorias y procesales mucho más complejas.

Morphing 

El morphing es una técnica de manipulación digital que combina elementos visuales –rostros, cuerpos, expresiones– de una o más personas –reales o generadas artificialmente– para crear una nueva imagen que aparenta ser auténtica.

En el contexto del abuso sexual infantil, puede implicar la combinación del rostro de un niño con el cuerpo desnudo de otro menor o de un adulto, generando una representación sexualizada que no corresponde a ningún hecho real pero que puede producir efectos equiparables a los del material de abuso tradicional. Suele verse más frecuente en fotografías estáticas de material de abuso sexual infantil sintético y su detección puede ser difícil, pero técnicamente aún es rastreable.

Se utilizan imágenes inocuas y material de abuso sexual infantil existente en los conjuntos de datos de entrenamiento para los modelos de IA.

Desnudos artificiales

Hay aplicaciones que suprimen la ropa digitalmente, simulando cuerpos desnudos que en realidad no existen. Plataformas como DeepNude –cerrada por su creador en 2019–[6] o el software de Nudify han sido adaptados ilegalmente para representar a menores de edad.

Estas herramientas suelen funcionar mediante modelos de aprendizaje automático entrenados con grandes volúmenes de imágenes. Al generar una estimación de cómo se vería la mujer de la foto sin ropa, las apps crean imágenes de desnudos ficticios manteniendo la cara real, sin consentimiento de la víctima.

Las aplicaciones “desvisten” imágenes principalmente de mujeres y niñas. En algunos casos, aun, si se sube la foto de un hombre la aplicación genera la anatomía femenina. Si bien estos usos con imágenes de menores no siempre cumplen con la definición de abuso sexual infantil generado por IA, sigue siendo un peligro grave y cada vez más extendido.[7]

Las aplicaciones “nudify” se han vuelto especialmente populares entre los menores, con decenas de denuncias de adolescentes que las usan con sus compañeras de clase. Las fuerzas del orden del Reino Unido estiman que allí al menos un niño de cada escuela tiene una de estas aplicaciones, que no se limitan a la web oscura, sino que están disponibles en las mismas tiendas de apps de donde los menores descargan Instagram, Snapchat y TikTok.

Chatbots y avatares que simulan ser niños o adolescentes, usados para grooming automatizado

El Departamento de Seguridad Nacional de Estados Unidos destaca que delincuentes en línea utilizan chatbots de IA –programas informáticos que simulan una conversación humana– para preparar a los niños para abusos sexuales.[8] Estos les permiten a los abusadores simular ser menores o mantener múltiples conversaciones en simultaneo sosteniendo diálogos persistentes con víctimas reales sin necesidad de intervención humana constante.

La posibilidad de pasar de una imagen ficticia a una modificada, o de combinar ambas en una misma representación, revela que nos enfrentamos a supuestos diversos dentro de un mismo problema estructural: la explotación sexual infantil mediada por tecnología. Esta transición entre categorías –de lo simulado a lo manipulado– no solo incrementa la sofisticación del delito, sino que desafía los marcos normativos tradicionales.

Los chatbots son muy proactivos a la hora de dirigir a los usuarios hacia este contenido explícito: ofrecen sugerencias sobre cómo cometer delitos, los incitan a autolesionarse y los atraen constantemente.

II - HABLEMOS DE DATOS

Debido a la naturaleza oculta de la creación y el comercio de material de abuso sexual infantil, es difícil cuantificar lo que se crea, posee y comparte. Aun así, todos los indicadores apuntan a un volumen de contenido creciente.

Las estimaciones actuales apuntan a que el comercio sexual forzado es una industria de 172.000 millones de dólares. Los efectos de esta explotación son generalizados: uno de cada ocho niños en todo el mundo fue víctima de explotación sexual infantil en línea –es decir, toma, intercambio y exposición no consentida a imágenes sexuales– en 2023.[9]

Un estudio del Reino Unido descubrió que hasta 14 millones de hombres estadounidenses –el 11 % de la población masculina– han participado del abuso sexual infantil en línea.[10] Además, más de 850.000 hombres en el Reino Unido tienen interés sexual en niños, lo que destaca la necesidad urgente de proteger a los niños de la explotación.[11]

Los datos internacionales del National Center for Missing and Exploited Children muestran un aumento significativo en la cantidad de material de abuso sexual infantil disponible en línea y denunciado a través de plataformas en línea. Al analizar los disponibles de 2010 a 2023, el número de informes de CyberTipline relacionados con el abuso sexual infantil se ha disparado, alcanzando los 36 millones de informes de presunta explotación sexual infantil en 2024.[12] La Internet Watch Foundation informó en 2021 el mayor aumento de nuevos casos de abuso sexual de niños de entre once y trece años, del 75 %.

A partir de 2023, solo cinco plataformas de IA generativa se habían registrado para presentar informes de CyberTipline, a pesar de que todos los proveedores de servicios electrónicos con sede en Estados Unidos están legalmente obligados a informar sobre casos de material de abuso sexual infantil una vez que los detectan.

De los aproximadamente 36 millones de informes de CyberTipline en 2023, 4.700 incluyeron material de abuso sexual infantil generado por IA verificado. En las plataformas tradicionales, como Meta y X, fue donde se encontró la mayoría del material, con más del 70 % de las denuncias.[13]

Chainalysis, una empresa de análisis de blockchain, rastrea los flujos de criptomonedas en la red oscura y ha observado que el mercado de abuso sexual infantil parece haberse visto inundado de contenido en los últimos años, alegando que este aumento ha provocado el colapso del precio del abuso sexual infantil. Esta avalancha de contenido podría estar impulsada por la presencia de material generado por IA.[14]

Si bien estos indicios sobre la cantidad de abuso sexual infantil generado por IA son útiles para comprender la magnitud del problema, determinar qué contenido es generado por IA será cada vez más difícil en la medida que la tecnología siga avanzando.

III - RECOMENDACIONES

No hay dudas de que el deepfake sexual, entre otros, debería reconocerse como un delito específico y regularse mediante iniciativas nacionales e internacionales.

Con el fin de facilitar el proceso de criminalización, es necesario abordarlo desde varios ámbitos (Bhuiyan, Islam, Al-Mamun y Asraf Uddin, 2025).

Desde el punto de vista tecnológico es necesario:

Desde el punto de vista legal, y para implementar adecuadamente la solución tecnológica, será de vital importancia:

Los gobiernos podrían implementar estas recomendaciones estableciendo vínculos con diferentes colaboradores: ministerios, legisladores, organizaciones tecnológicas, empresas de software, distribuidores de contenido en línea, especialistas en medios, investigadores y proveedores de servicios de internet. El sistema legal debe evolucionar junto con el desarrollo tecnológico para controlar el impacto negativo del deepfake sexual. Para ello, el Estado debe impulsar la formulación de políticas sobre detección, control y mecanismos de prevención de deepfakes, así como establecer recursos legales para su criminalización.

La adopción de políticas nacionales en materia de ciberseguridad y privacidad infantil, incluyendo el control de la manipulación de datos, es uno de los aspectos en los que el Estado debe tomar la iniciativa. Los legisladores deben promulgar una ley sobre el control y la prevención del deepfake sexual, la identificación de contenido no consensuado, el bloqueo de sitios pornográficos deepfake, el control de los proveedores de servicios de internet, la creación de salas de vigilancia en las unidades cibernéticas para plataformas en línea o el establecimiento de unidades de detección de deepfake como parte de diferentes células de las fuerzas de ciberseguridad. Todos estos esfuerzos darán como resultado un control exitoso del deepfake sexual si se lo criminaliza con disposiciones legales claras y se lo reconoce legalmente como delito.

CONCLUSIONES

Es indudable que las creaciones con IA de cuerpos desnudos o de niños, niñas y adolescentes en situaciones de naturaleza sexual no pasan desapercibidas.

Que a la cara real de los niños le agreguen un cuerpo abusado sexualmente por un adulto –o, por ejemplo, cuando algunos adolescentes le crean artificialmente un cuerpo desnudo o llevando a cabo actividades sexuales al rostro de su compañera de colegio– genera un gravamen de difícil reparación a las víctimas, por muchas razones:

Es cierto que cada Estado debe incluir estas conductas en su legislación penal, pero antes se debe desarrollar la tecnología adecuada para detectar imágenes o videos falsos a fin de desindexarlos en una búsqueda o solicitar su baja inmediata. De nada sirve tener la ley si los investigadores no van a tener herramientas.

Sin embargo, antes –o en paralelo– deben existir políticas públicas robustas que concienticen, sensibilicen y eduquen a la sociedad sobre las nuevas formas de delincuencia tecnológica y los riesgos que traen aparejadas.

Sin duda es mejor trabajar en la prevención, a fin de evitar consecuencias graves en las victimas. Es fundamental abordar a los adolescentes, que son menores de edad con la tecnología a su alcance y no miden los efectos nocivos. Como, por su edad, no pueden ser alcanzados por la ley, el Estado debe estar atento para evitar la creación de un mal de difícil reparación y recuperación emocional de las víctimas infantes.

REFERENCIAS

BHUIYAN, E., ISLAM, S., AL-MAMUN, A. y UDDIN, A. (2025). Cyber Crime or Technological Epidemic? Intersecting the Criminalization of Sexual Deepfake in Domestic and International Law. Open Access Library Journal 12. https://www.scirp.org/pdf/oalib_1113311.pdf.

DUPUY, D. (2021). Acosos en la red a niños, niñas y adolescentes. Hammurabi.

FREND, M. (2024). National Law Enforcement Agency, interview by Value for Good.

LAKATOS, S. (2023). A revealing picture. https://public-assets.graphika.com/reports/graphika-report-a-revealing-picture.pdf.

O’Mill, M. y Corvalán, J. G. (2025). Deepfakes e Infancias. Proteger identidades digitales. https://revistaquorum.com.ar/wp-content/uploads/2025/08/Guia-Deepfake.pdf

WESTERLUND, M. (2019). The Emergence of Deepfake Technology: A Review. https://timreview.ca/article/1282.


                        

                                                        

Derechos de autor: 2025 Daniela Dupuy

El artículo está protegido por una Licencia Creative Commons Atribución-NoComercial-ShareAlike 4.0

                                


                                        

Revista Jurídica Universidad Nacional del Oeste . Editada entre Julio – Diciembre del Año 2025. Periodicidad semestral.

Editorial  EDUNO  de la Universidad Nacional del Oeste.Realizada en el marco del Instituto de Educación, Justicia y Trabajo de la Universidad Nacional del Oeste        



[1] Doctora en Derecho Penal y Procesal (Universidad de Sevilla, España). Profesora adjunta de Derecho Penal (Universidad Austral). Directora de la Maestría en Derecho y la Diplomatura Internacional en Ciberdelincuencia y Tecnologías Aplicadas a la Investigación (Universidad Austral). Directora del Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales (OCEDIC). Fiscal coordinadora especializada en delitos y contravenciones informáticas de la Ciudad Autónoma de Buenos Aires. Identificador ORCID: https://orcid.org/0009-0009-6063-4260. Correo electronico: daniela.dupuy@gmail.com.

[2] Véase: https://www.oas.org/juridico/english/cyb_pry_convenio.pdf.

[3] Véase: https://aimojo.io/es/.

[4] Véase: https://www.youtube.com/watch?v=IaeoPhiqtZk.

[5] Véase: https://www.theguardian.com/technology/2025/jul/10/ai-generated-child-sexual-abuse-videos-surging-online-iwf.

[6] Véase: https://www.infobae.com/america/tecno/2020/10/22/un-deepfake-ha-estado-desnudando-mujeres-y-ninas-sin-que-lo-sepan-en-telegram/.

[7] El National Center for Missing and Exploited Children, una organización sin ánimo de lucro con sede en Estados Unidos que gestiona CyberTipline, una base de datos sobre explotación sexual infantil, y apoya a las víctimas y a las fuerzas del orden en la eliminación de contenido explícito infantil de internet, advierte sobre aplicaciones basadas en IA generativa que permiten eliminar digitalmente la ropa de imágenes reales para producir desnudos falsos y no consentidos. Véase: https://www.missingkids.org/es/theissues/generative-ai.

[8] Véase: www.dhs.gov/sites/default/files/2025-01/25_0122_k2p_genai-bulletin_spanish.pdf.

[9] Véase: https://www.independent.co.uk/news/uk/politics/sexual-abuse-children-online-safety-childlight-b2552670.html.

[10] Véase: https://www.childlight.org/#.

[11] Véase: https://www.nationalcrimeagency.gov.uk/news/nca-leads-international-coalition-tackling-child-sexual-abuse.

[12] El NCMEC opera su línea directa cibernética desde 1998. Los datos están disponibles solo a partir de 2010. Entre 2019 –año de publicación del primer estudio de la Fundación Bracket, “Artificial Intelligence: Combating Online Sexual Abuse of Children”, disponible en: https://static1.squarespace.com/static/5d7cd3b6974889646fce45c1/t/632f37b896470d1340136fc9/1664038845748/AI.pdf– y la actualidad, se ha registrado un aumento del 210 % en la cantidad de material denunciado.

[13] Véase: https://unicri.org/sites/default/files/2024-09/Generative-AI-New-Threat-Online-Child-Abuse.pdf.

[14] Véase: https://www.pensamientopenal.com.ar/system/files/Documento_Editado1686.pdf.