Horror en las aulas: un alumno vendía fotos íntimas de sus compañeras trucadas con IA

Horror en las aulas: un alumno vendía fotos íntimas de sus compañeras trucadas con IA

El estudiante utilizaba la plataforma Discord para subir las imágenes falsas. A través del CBU, pudieron descubrir su identidad.

Un grave caso de violencia sexual sacude a una escuela privada de San Martín, donde un alumno de 15 años fue acusado de crear y vender imágenes falsas de sus compañeras de clase desnudas utilizando inteligencia artificial (IA).

La denuncia fue presentada en agosto por un grupo de padres de adolescentes que asisten al colegio San Agustiniano, quienes descubrieron el caso a través de otro compañero, que se hizo pasar por comprador y consiguió el CBU y la foto del estudiante que realizaba las ventas, confirmando así su identidad. El alumno usaba la plataforma Discord para crear grupos, invitando a otros estudiantes a unirse a un chat privado. Allí, difundía fotos y videos de chicas, muchas de ellas eran sus compañeras. Pero esas imágenes eran falsas, ya que las manipulaba mediante IA para “desnudarlas”. Según la denuncia, el grupo alcanzó más de 8000 miembros, tanto menores como adultos.

Tras la denuncia, se inició una causa que recayó en la Fiscalía de Responsabilidad Penal juvenil de San Martín. La fiscal ordenó un allanamiento en la casa del acusado, donde se secuestró la computadora del chico y se identificó la IP desde donde comercializaba las imágenes. La Justicia adelantó que citarán a los padres del menor, así como también a las autoridades del colegio. También pidieron auditar la billetera virtual donde recibía los cobros.

Fuente: Todo Noticias

Esto tambien te puede interesar

Free Joomla! templates by AgeThemes