En las últimas horas se conoció la noticia del alumno que manipuló imágenes de sus compañeras con Inteligencia Artificial (IA) para verlas desnudas y luego vender esas ediciones. Lo denunciaron padres y madres del grupo de chicas que asisten a la escuela, en el partido de General San Martín, y ahora actúa una fiscal de menores. De acuerdo a un especialista, «hay varios puntos» para tomar el caso como un posible delito, en tiempos donde la IA avanza sin control.
El estudiantado de entre 13 y 17 años asiste al Colegio Agustiniano, ubicado en la localidad de San Andrés, al noroeste del Gran Buenos Aires. Los padres de las alumnas denunciaron formalmente a un alumno de 15 años por la utilización de inteligencia artificial para manipular fotos de sus compañeras que luego vendía a través de una plataforma digital.
La causa se inició en agosto, a raíz de la denuncia de las familias de cinco de las 22 víctimas. Después se allanó el domicilio del menor implicado, y se le secuestraron dispositivos electrónicos que serán peritados.
Ahora, la fiscal de menores Verónica Novoa trabaja en determinar la imputación que le podría caber al acusado, que es menor de edad y continúa asistiendo a clases.
También entrevistará a las autoridades del colegio durante esta semana, mientras avanza en identificar a los compradores de las imágenes: el chico operaba a través de la billetera virtual Mercado Pago.
El caso salió a la luz gracias a otro estudiante, que se hizo pasar por comprador y adquirió una de las carpetas con fotos que ofrecía el acusado.
«Cuando tenía el CBU y el nombre real de la persona, empezó a avisarle a cada una de las víctimas para que hicieran algo”, sostuvo la mamá de una de las víctimas.
Además, criticó el accionar de las autoridades del establecimiento: “desde el colegio nos dijeron que eso ocurrió fuera del establecimiento y ellos no podían hacer nada”.
La adulteración de imágenes de menores con Inteligencia Artificial
«En el caso de la adulteración de las imágenes de las menores a través de IA, hay varios puntos que deberíamos tener en cuenta y que podrían configurar un delito», remarca el abogado experto en ciberseguridad y protección de datos Daniel Monastersky, titular del Centro de Estudios en Ciberseguridad y Protección de Datos de la Universidad del CEMA.
Menciona la producción de material de explotación sexual infantil: «aunque las imágenes sean generadas por IA, están basadas en fotografías reales de menores y las representan en situaciones sexuales explícitas».
También simple tenencia de materia de abuso y explotación sexual infantil; y la distribución y/o comercialización de material de explotación sexual infantil: «el uso no autorizado de las imágenes originales de las menores para crear este contenido constituye una clara violación de su privacidad».
«Al crear versiones falsas y sexualizadas de las menores, se podría argumentar que hay una forma de suplantación de identidad (contravención en CABA). Debería considerarse urgente incluirlo como delito en el Código Penal de la Nación», continúa.
Y subraya que dependiendo de cómo se usen estas imágenes, podría constituir una forma de ciberacoso hacia las víctimas (también es contravención en CABA): «desconozco los detalles, pero podria configurarse también un intento de extorsión usando las imágenes falsas, esto constituiría un delito adicional. La Ley 25.326 de Protección de Datos Personales podría ser relevante, ya que se estarían utilizando imágenes y datos personales de las menores sin su consentimiento».