La creciente explotación de la Inteligencia Artificial para crear deepfakes de estudiantes y menores
La proliferación de fotografías y videos deepfake, que exhiben un nivel de realismo sorprendentemente convincente, plantea una amenaza latente en el panorama actual de la evolución de la Inteligencia Artificial. Este avance tecnológico representa un riesgo inminente para aquellos que han compartido sus fotografías en plataformas de redes sociales como Instagram y Facebook.
En Europa y América Latina, ha surgido recientemente una preocupante ola de aplicaciones y sitios web que utilizan esta tecnología para generar imágenes y videos deepfake de contenido explícito, revelando la desnudez de personas a partir de una simple imagen casual. Lo más inquietante de todo es que estas plataformas de Inteligencia Artificial no toman en consideración la edad ni respetan el concepto básico de consentimiento, lo que ha llevado a casos alarmantes de estudiantes y menores que han caído víctimas de estas perturbadoras creaciones hiperrealistas.
En la nueva era de Internet, la IA se emplea para producir pornografía falsa, exponiendo sin escrúpulos a adolescentes, niños y personas de cualquier edad, estrato social o situación personal.
Hace aproximadamente un año, TikTok puso de manifiesto el impacto potencial de estas plataformas mediante una serie de videos protagonizados por imitadores de personas famosas. En aquel entonces, ya se vislumbraba el peligro inminente, pero lamentablemente, ahora es una realidad innegable.
Las imágenes deepfake generadas por la Inteligencia Artificial han emergido como una nueva y perturbadora fuente de material de abuso sexual dirigido a menores y adolescentes. Un desgarrador incidente ocurrido en la pequeña comunidad española de Almendralejo, documentado en un artículo publicado por la BBC el 25 de septiembre de 2023, evidencia esta preocupante tendencia. Más de 25 niñas y adolescentes se convirtieron en víctimas de fotografías y videos deepfake explícitos y falsos, creados con precisión mediante el uso de IA.
En otro caso similar, detallado en un extenso informe del prestigioso periódico sudamericano La Nación, se expone la historia de Mario Leandro Pérez González, un joven argentino de 23 años. Fue acusado por sus compañeras de la Facultad de Arquitectura y Diseño Gráfico de la Universidad Nacional de San Juan por utilizar sus imágenes para crear este tipo de material falso. Sin embargo, surge un dilema legal, ya que el contenido falso de este tipo aún no está tipificado como delito debido a la obsolescencia de las regulaciones existentes.
Finalmente, el Centro de Abordaje Integral de Niños, Niñas y Adolescentes Víctimas (ANIVI) tomó medidas legales contra el estudiante, al descubrirse que también almacenaba imágenes explícitas reales de menores de edad.
Estos trágicos sucesos en España y Argentina resaltan el riesgo potencial y la delicadeza del tema, en vista de la existencia de aplicaciones populares capaces de generar desnudos a partir de retratos inocentes (cuyo nombre no mencionaremos en este contexto). Es imperativo abordar urgentemente esta problemática y actualizar las regulaciones vigentes para proteger a las personas vulnerables de los abusos perpetrados por la Inteligencia Artificial en manos irresponsables.