Skip to content

La creciente preocupación de las apps alimentadas por inteligencia artificial que "desnudan" las fotos de las mujeres

El uso malintencionado de la Inteligencia Artificial (IA), en particular de la tecnología deepfake, ha desatado preocupación en todo el mundo

Cómo la tecnología deepfake está causando revuelo debido a las fotos "desnudas" generadas por inteligenia artificial. Foto de
Cómo la tecnología deepfake está causando revuelo debido a las fotos "desnudas" generadas por inteligenia artificial. Foto de Archivo

El uso malintencionado de la Inteligencia Artificial (IA), en particular de la tecnología deepfake, ha desatado la preocupación en todo el mundo.

La IA y su uso poco moral

Una tendencia alarmante es el auge de aplicaciones y sitios web deepfake basados en IA que "desnudan" digitalmente a mujeres en fotografías.

Según un informe de Bloomberg, Graphika, una empresa especializada en el análisis de redes sociales, reveló que unos 24 millones de usuarios visitaron estas plataformas deepfake sólo en septiembre.

Estas plataformas que "desnudan" explotan imágenes de personas reales, principalmente mujeres, y utilizan la tecnología deepfake para generar imágenes falsas de desnudos.

En su informe de diciembre "Una imagen reveladora", Graphika examinó 34 sitios web que ofrecían estos servicios, clasificándolos como plataformas de imágenes íntimas no consentidas (NCII).

graphika-report-a-revealing-pictureDescarga

La investigación descubrió un asombroso aumento del 2.400% en los anuncios en redes sociales de este tipo de aplicaciones deepfake desde que comenzó el año.

Aumento de la tecnología deepfake

Sorprendentemente, al menos un millón de usuarios accedieron a estos servicios a través de 53 grupos de Telegram.

La creación mediante IA de pornografía no consentida, a menudo denominada "desnudos deepfake", es cada vez más preocupante.

Estas imágenes alteradas digitalmente, que hacen que una persona aparezca desnuda, han ido saliendo a la superficie a un ritmo preocupante.

Esta cuestión es especialmente preocupante, ya que a menudo se dirige a menores.

Un caso reciente se refería a la circulación por Internet de imágenes deepfake de alumnas de un instituto de New Jersey.

El peligro de la accesibilidad

En otro episodio inquietante, más de 20 chicas fueron presa de las fotos deepfake generadas por la aplicación "Clothoff", impulsada por inteligencia artificial, que se anuncia para "desnudar chicas gratis", según el Daily Mail.

Las imágenes falsas de desnudos, creadas a partir de fotos completamente vestidas de los perfiles de Instagram de las chicas, se compartieron posteriormente en grupos de WhatsApp.

Eva Galperin, directora de ciberseguridad de la Electronic Frontier Foundation, subrayó que este abuso digital no se limita a celebridades o personajes públicos.

"Esto lo perpetran cada vez más individuos medios que tienen como objetivo a gente corriente"

declaró a Bloomberg.

Las herramientas de IA, especialmente la tecnología deepfake, son cada vez más asequibles y accesibles, lo que facilita la creación de contenidos sexualmente explícitos no consentidos.

Los modelos de difusión de código abierto han simplificado la manipulación de imágenes, estimulando el lanzamiento de estos sitios web y aplicaciones para "desnudarse".

Monetización del deepfake

Como se señala en un informe de Graphika citado por Forbes, los proveedores sintéticos de NCII operan como una industria en línea de pleno derecho, adoptando estrategias de marketing y herramientas de monetización similares a las de las empresas de comercio electrónico de renombre.

Los investigadores advirtieron de que la creciente accesibilidad y prominencia de estos servicios podría conducir probablemente a un aumento de los daños en línea.

Esto incluye la creación y distribución de imágenes de desnudos no consentidas, campañas de acoso selectivo, sextorsión y producción de material de abuso sexual infantil.

Las medidas para contrarrestar el problema

En respuesta a este problema, las empresas tecnológicas han empezado a tomar medidas.

Bloomberg informó de que Google está eliminando los contenidos patrocinados en YouTube que incumplen sus políticas contra los contenidos sexualmente explícitos.

Telegram afirmó que modera activamente los contenidos nocivos, incluida la pornografía no consentida.

Según los informes, TikTok y Meta bloquearon el término de búsqueda "desnudez" en sus esfuerzos por frenar el problema.

Reddit también ha prohibido varios dominios asociados a la distribución de material sintético sexualmente explícito sin consentimiento.

Te podría interesar leer:

Chocolatero estadounidense acusado de la muerte de pionero de la animacion canadiense y su esposa

El Departamento de Transporte aprueba un presupuesto de mas de 6 millones de dólares para proyectos de trenes de alta velocidad

Últimas Noticias

Arena Stage anuncia el Voices Of Now Festival 2025

Arena Stage anuncia el Voices Of Now Festival 2025

El festival que durará todo el día el 10 de mayo contará con presentaciones, charlas, talleres y mesas redondas, además de actividades interactivas durante todo el día que amplificarán las voces de los jóvenes y adolescentes

Members Public