Valeria Martínez, abogada de víctimas del IPN, lamentó que responsable de haber manipulado fotos de alumnas con IA de manera sexual haya sido absuelto por juez.
En entrevista en el espacio informativo de Enrique Acevedo, en Radio Fórmula, aseguró que están desanimadas pues ya habían sido alertadas acerca de que el juez que revisaría el caso tenía actitudes misóginas y machistas.
“No era la sentencia que esperábamos, nos cayó mucho de sorpresa, estamos desanimadas, pero estamos conscientes que esto sólo implica un poquito más de trabajo”, dijo.
Te podría interesar
“Tres de las víctimas que han llevado su proceso con este juez nos comentaban que era muy misógino, muy machista, que no juzgaba con perspectiva de género y que las había hecho llorar en su juicios orales”.
No obstante, la litigante enfatizó que apelarán sentencia y confían en que el resto de procesos pendientes que tiene el presunto responsable sean diferentes.
Indicó que el próximo lunes se realiza una nueva audiencia de una tercera víctima. Además de que aún tiene un juicio pendiente por pornografía infantil y también está próximo a realizarse.
“Esta no es la última decisión, vamos a presentar una apelación que es el siguiente paso jurídico y además todavía restan 6 víctimas que tienen carpetas de investigación”, comentó.
“Juez dijo que había elementos para acreditar el delito, que sí existió el delito, que las victimas sí resintieron este delito en sus cuerpos pero que no había elementos para demostrar que Diego lo había hecho, no obstante que se encontraron las más de mil 600 fotografías en su iPad y que jamás se negó que ese dispositivo fuera propiedad de Diego”.
Así manipuló Diego 'N' fotografías con IA
El pasado 6 de octubre de 2023, un grupo de estudiantes de la Escuela Superior de Comercio y Administración (ESCA) del Instituto Politécnico Nacional, detectaron que su compañero, Diego N, tenía en su poder una tablet en la que encontraron más 20 mil videos y 166 mil imágenes reales y manipuladas de mujeres de 17 a 25 años. Después descubrieron que esta práctica llevaba en operación desde el año 2016.
Dicho contenido era alterado con Inteligencia Artificial con el fin de sexualizarlo y era vendido a otros alumnos y personas de la comunidad estudiantil, además de plataformas externas.