Detuvieron a un hombre por crear imágenes sexuales falsas con IA de once mujeres

policiales
Share on facebook
Facebook
Share on pinterest
Pinterest
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on email
Email

La Justicia de Salta ordenó la detención de un hombre acusado de crear y difundir imágenes sexuales falsas realizadas con Inteligencia Artificial utilizando fotografías de al menos once mujeres. Entre las denunciantes se encuentra la decana de la Facultad de Humanidades de la Universidad Nacional de Salta. El caso volvió a encender las alarmas sobre la violencia digital de género y el uso ilegal de herramientas de IA para manipular imágenes íntimas sin consentimiento.

La investigación judicial comenzó luego de que varias mujeres denunciaran la circulación de imágenes íntimas falsas realizadas mediante herramientas de Inteligencia Artificial. Según trascendió, el acusado habría utilizado fotografías reales extraídas de redes sociales y otros espacios digitales para generar montajes sexuales y contenido manipulado con apariencia realista. El caso tomó gran repercusión pública luego de conocerse que una de las víctimas es la decana de Humanidades de la Universidad Nacional de Salta, lo que generó un fuerte repudio en ámbitos académicos, políticos y sociales.

De acuerdo con la información difundida por la Justicia salteña, el hombre fue identificado a partir del rastreo de huellas digitales e informáticas dejadas durante la difusión del material. Tras una serie de tareas investigativas, la Policía realizó un allanamiento en el que secuestró distintos dispositivos electrónicos y pruebas digitales que ahora serán sometidas a peritajes especializados. Los investigadores buscan determinar el alcance total de las maniobras y si existen más víctimas además de las once mujeres que ya realizaron denuncias formales.

La causa está siendo investigada bajo la figura de violencia digital de género, una problemática que crece a nivel mundial con el avance de tecnologías capaces de generar imágenes falsas extremadamente realistas, conocidas popularmente como “deepfakes”. Estas herramientas permiten alterar fotografías o videos de personas reales para fabricar escenas inexistentes, muchas veces con contenido sexual explícito. Organizaciones feministas y especialistas en derechos digitales vienen alertando desde hace años sobre el impacto psicológico, social y laboral que este tipo de ataques provoca en las víctimas.

El caso de Salta no es un hecho aislado. En distintos países comenzaron a multiplicarse denuncias por la utilización de IA para crear pornografía falsa o contenido sexual no consentido. En las últimas semanas, incluso la Unión Europea avanzó en nuevas regulaciones para prohibir sistemas de Inteligencia Artificial capaces de generar imágenes sexualizadas sin consentimiento. Las autoridades europeas consideran que estas prácticas representan una amenaza para los derechos fundamentales y la dignidad humana, especialmente de mujeres y adolescentes.

Desde sectores universitarios y organizaciones de derechos humanos manifestaron una profunda preocupación por la facilidad con la que hoy pueden manipularse imágenes personales disponibles en redes sociales. Especialistas advierten que el problema no sólo involucra la creación del contenido falso, sino también su viralización masiva en plataformas digitales y grupos privados, donde muchas veces resulta casi imposible frenar la circulación del material una vez difundido. El daño emocional y reputacional puede extenderse durante años, aun cuando posteriormente se demuestre la falsedad de las imágenes.

En Argentina todavía existe un fuerte debate sobre la necesidad de actualizar los marcos legales frente a los delitos digitales vinculados a Inteligencia Artificial. Si bien distintas figuras penales pueden aplicarse en casos de difusión de contenido íntimo sin consentimiento, especialistas sostienen que las tecnologías de IA abren nuevos escenarios que requieren normativas específicas y herramientas judiciales más ágiles. El avance tecnológico, explican, corre mucho más rápido que la legislación vigente.

La situación también reabrió discusiones sobre privacidad, exposición en redes sociales y educación digital. Expertos en ciberseguridad remarcan que hoy cualquier fotografía pública puede ser utilizada para generar contenido falso mediante aplicaciones cada vez más accesibles y sofisticadas. Muchas de estas herramientas funcionan automáticamente y requieren pocos conocimientos técnicos, lo que incrementa los riesgos de utilización con fines de hostigamiento, extorsión o violencia de género digital.

Mientras avanza la investigación judicial en Salta, las denunciantes esperan que el caso siente un precedente importante frente a este tipo de delitos. Organizaciones feministas y defensoras de derechos digitales reclaman mayor regulación sobre las plataformas y aplicaciones de IA, además de campañas de concientización y protocolos rápidos de asistencia para víctimas. La causa vuelve a mostrar cómo la expansión de la Inteligencia Artificial plantea enormes desafíos éticos, judiciales y sociales en todo el mundo.

Fuente: Filo.News

Scroll al inicio