Las redes sociales evidenciaron el aumento del peligro de imágenes sexuales generadas por Inteligencia Artificial (IA), en el que incluso, se vio afectada la cantante Taylor Swift.
Los expertos del sector advierten de que, a medida que las herramientas potenciadas por la IA se generalicen, este tipo de explotación podría intensificarse, victimizando desde adolescentes hasta adultos.
En el contexto mundial, estudiantes de secundaria denuncian casos en los que sus fotografías fueron distorsionadas mediante IA y difundidas en Internet.
Danielle Citron, profesora de Derecho de la Universidad de Virginia, subraya que los objetivos de este tipo de pornografía generado por IA no son sólo los famosos. Desde profesionales a estudiantes, están igualmente en peligro.
Preocupante tendencia de imágenes sexuales generadas por IA
Las imágenes de Swift manipuladas digitalmente, en las que aparecía en situaciones sexualmente explícitas, fueron divulgadas en X, atrayendo millones de visitas antes de su retirada. Dada la naturaleza de Internet, estas imágenes son susceptibles de reaparecer en plataformas menos vigiladas.
En otro incidente, una conocida jugadora de Twitch se vio perturbada al descubrir que su imagen aparecía en un vídeo explícito fabricado con IA que se difundió rápidamente entre la fraternidad de jugadores.
Sin embargo, los rostros de mujeres manipulados en contenidos pornográficos sin su consentimiento recibieron menos atención. Esta tendencia es la variante con IA de la "porno venganza", lo que complica la tarea de verificar la autenticidad de esos contenidos.
Los seguidores de Swift mostraron solidaridad utilizando eficazmente las herramientas de denuncia para erradicar estas publicaciones. Sin embargo, son numerosas las víctimas que tienen que hacer frente a la situación por sí solas.
Creciente amenaza de contenido sexual generado por IA
Ben Decker, que dirige Memetica, una empresa de investigaciones digitales, señala que las empresas de redes sociales carecen de estrategias para supervisar este tipo de contenidos.
Muchas plataformas redujeron sus equipos de moderación de contenidos, confiando en gran medida en los sistemas automatizados y en los informes de los usuarios.
La disponibilidad y accesibilidad de las herramientas de IA simplificó la creación de este tipo de contenidos, lo que supone un obstáculo importante para los esfuerzos de represión.
Aunque nueve estados de EE.UU. tienen leyes contra la fotografía deepfake no consentida, no existe ninguna ley federal que la regule.
David Jones, experto en seguridad informática, recomienda mantener perfiles privados y compartir fotos únicamente con contactos de confianza como medida preventiva.
El lado oscuro de la IA
También aconseja no adoptar contraseñas fáciles de adivinar y alerta de que los piratas informáticos pueden intentar acceder a fotos y vídeos personales.
En esta era de tecnología avanzada, combatir los contenidos abusivos generados por la IA requiere un esfuerzo potente y colectivo por parte de individuos, reguladores y empresas tecnológicas por igual.