|06/12/23 10:25 AM

Alerta mundial por 'pornografía infantil' creadas con IA

Publicar fotos de menores en redes se torna peligroso en tiempos de herramientas capaces de manipular contenidos. Vacío legal

Por Redacción

06 de diciembre, 2023 - 10:25

Distintos organismos internacionales alertan sobre la utilización de Inteligencia Artificial (IA) para crear material de abuso sexual infantil (MASI).

Un informe de la organización Internet Watch Foundation advirtió sobre este nuevo fenómeno relacionado con uno de los avances tecnológicos más importantes de los últimos años. Mientras el mundo analiza el alcance de la tecnología artificial y como afecta nuestra vida, grupos de pedófilos están creando y compartiendo en internet imágenes de explotación sexual de menores generadas con fotos de niños y adolescentes que fueron publicadas en redes sociales, propias o de sus padres.

En sólo un mes de trabajo analizando un único sitio del 'internet profundo' o 'deep web', la organización detectó alrededor de 3 mil imágenes artificiales de niños actores y de niños sin una vida pública, sexualizados artificialmente. Se lo conoce como 'deep fake', se utiliza la Deep Face (“face”, rostro en inglés) y la Deep Voice (“voice”, voz en inglés), para modificar la cara y voz de una persona en una foto o video simulando que es otra.

 “La crítica no debe estar enfocada solamente en el uso indebido de este tipo de sistemas, sino también en la responsabilidad de las empresas que permiten que sus desarrollos informáticos de inteligencia artificial se usen para esto”, afirmó Marina Benítez Demtschenko, abogada especialista en Derecho Informático, en diálogo con el sitio El Destape. Según la experta, las empresas desarrolladoras tienen la posibilidad de inhibir usos de esta índole y no lo hacen porque “les genera lucro”.

Respecto a una solución, Demtschenko sostuvo que “es evitable. Los organismos internacionales tienen una red de detección preventiva de softwares que rastrean este tipo de contenidos, y tienen la capacidad de alertar a las fiscalías locales en Argentina si encuentran MASI”.

En referencia a la legislación vigente, la titular de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas, Daniela Dupuy, opinó: “Si bien para muchísimas legislaciones penales esto ya es considerado un delito, la falta de un marco legal específico para castigarlo sigue siendo una deuda que tenemos en Argentina”.

Chantaje en el mundo

En Argentina, como en el mundo, se produjo la creación y distribución de MASI cuyo abordaje representa un desafío para el poder judicial.

En Argentina

Un ejemplo se dio en la provincia de San Juan. El joven de 23 años Mario Leandro Pérez González fue denunciado por sus compañeras de la Facultad. Sin su consentimiento, usó fotos de las redes sociales de al menos 15 jóvenes, para luego “desnudarlas” borrando su ropa con Inteligencia Artificial y posteriormente venderlas con precio en dólares a un sitio web para adultos.

El caso fue tratado por la Justicia de Faltas de San Juan, y los fiscales descartaron la comisión de un delito tipificado en el Código Penal.

La edad de las víctimas es condicionante: cada vez más mujeres adultas son agredidas sexualmente con la creación de “deep fakes” que se confunde con pornografía lícita, pero no avanzan las investigaciones. Sin embargo, la creación, distribución e incluso la tenencia de imágenes pornográficas con menores de edad no tiene discusión: es un delito.

Así, este caso fue tenido en cuenta por la Justicia después de que el Centro de Abordaje Integral de Niños, Niñas y Adolescentes Víctimas de esa provincia presentara un informe en el que alertaba que Pérez González tenía, además, material real de explotación sexual de chicas y chicos menores de 13 años que luego distribuía en redes como WhatsApp. Fue así que se concretó la condena a tres años de prisión condicional.

Perú

En el colegio St George’s College, fueron entre 14 y 16 las adolescentes mujeres víctimas de la manipulación de fotografías y videos sacados de sus redes sociales con fines de explotación sexual.

Los presuntos responsables serían sus propios compañeros varones, de entre 13 y 14 años, que, mediante una aplicación, insertaron las caras de sus compañeras en cuerpos desnudos falsos para venderlos a otros alumnos del mismo centro educativo. Se investiga actualmente si adultos ayudaron a los adolescentes en la creación y distribución de las imágenes en cuestión.

España

“Mamá, están circulando fotos mías con el pecho desnudo”, contó una adolescente de 14 años en septiembre, en Almendralejo, España.  Su madre contó a la BBC: “Le pregunté si se había tomado fotos desnuda y dijo: ‘No, mamá, son fotos falsas de niñas que están siendo creadas y hay otras chicas de mi clase a las que les ha pasado también’”.

Además de la hija de María, hubo 24 niñas y adolescentes de Almendralejo y cercanías, entre los 11 y los 17 años, que han denunciado lo mismo: sus fotos fueron tomadas de las redes sociales para luego ser “desnudadas” mediante una aplicación de IA.

A esta problemática se suma que los agresores extorsionaron a las familias exigiéndoles dinero a cambio de no difundir las imágenes de algunas de ellas.

Cuando se trata de menores de edad, no existen grises judiciales, sean imágenes  reales, ficticias o mixtas, son condenables.

“Está bien que pensemos en que hay personas que hacen el mal, pero lo hacen con cualquier instrumento. Las redes de distribución y comercialización de material de abuso sexual infantil a nivel mundial son literalmente imparables y cada vez mayores. Es necesario estudiar y controlar esa actividad, no luchar contra un software”, sostuvo Demtschenko.

Con información de El Destape