Los ciudadanos y la democracia necesitan mejor protección contra actores malintencionados.
"La falsedad vuela y la verdad llega cojeando detrás", escribió el satírico irlandés Jonathan Swift en 1710. El auge de las falsedades que genera la IA —manipulaciones hiperrealistas de video, audio o imágenes conocidas como deepfakes por el término aplicado en inglés— significa que la ficción ahora vuela más rápido que nunca.
Esta semana, X bloqueó las búsquedas de Taylor Swift después de que imágenes falsas sexualmente explícitas de la estrella del pop se difundieran en la plataforma de redes sociales. Antes de que la realidad se impusiera, una imagen falsa de la mega estrella ya había sido vista 47 millones de veces.
A medida que los programas de deepfake se han vuelto más sofisticados, realistas y ampliamente accesibles, su uso para fines nefastos ha crecido. Las salvaguardas para individuos y la sociedad no han seguido el ritmo. Las protecciones legales a menudo son insuficientes para prevenir la difusión de contenido dañino, y los medios de comunicación social tienen diferentes reglas de contenido y capacidades para eliminar publicaciones malignas. Sin embargo, los deepfakes borran la frontera entre lo que es real y lo que no, y corren el riesgo de sembrar desconfianza en todo a través de la internet. Los legisladores, las plataformas de redes sociales y las empresas tecnológicas que crean estas herramientas deben intensificar sus esfuerzos para prevenir, detectar y responder a deepfakes dañinos.
Swift puede ser la víctima femenina de más alto perfil, pero está lejos de ser la única. Las investigaciones sugieren que la mayoría de las imágenes deepfake en línea son de naturaleza pornográfica, en su mayoría de mujeres. El software se ha utilizado para estafar, chantajear y destruir reputaciones. También representa un enorme riesgo para la democracia en todo el mundo. Se ha utilizado para difundir información falsa, manipular la opinión pública y hacerse pasar por políticos. El mes pasado, una llamada robótica —usando un audio falso del Presidente de Estados Unidos Joe Biden— instó a los demócratas a quedarse en casa antes de las primarias de New Hampshire.
La Comisión Federal de Comunicaciones de Estados Unidos propuso esta semana que el uso de tecnología de clonación de voz en llamadas automatizadas se considere fundamentalmente ilegal. Sin embargo, regular el contenido generado por IA dañino está lejos de ser sencillo; determinar la intención maliciosa puede ser difícil. Intentar prevenir su creación se topa con problemas de definir lo que está permitido y lo que no, y podría sofocar la libertad de expresión y los usos innovadores del software. A pesar de sus defectos, la tecnología se ha utilizado para bien —por ejemplo, para apoyar a educadores, creadores de películas e incluso a pacientes que han perdido la voz. La gama de programación y la naturaleza sin fronteras de las redes sociales hacen que controlar a los creadores a menudo anónimos sea un desafío logístico también. La Ley de IA de la UE exige que los creadores revelen el uso de tecnología deepfake, pero eso no impide que se difunda contenido malicioso.
La responsabilidad debe centrarse en la distribución de deepfakes malignos. La Ley de Seguridad en Línea del Reino Unido hace ilegal la difusión de deepfakes pornográficos no consensuados. Otros países deberían seguir su ejemplo. El marco legal para la difusión sin consentimiento de otros deepfakes perjudiciales —incluyendo derechos de autor, difamación y reglas sobre interferencia electoral— necesita ser reforzado. Los límites deben ser claros, para no sofocar la expresión libre legítima. Campañas de concientización pública y una mejor alfabetización mediática ayudarían a los usuarios a detectar y denunciar deepfakes maliciosos también.
Aun así, el contenido dañino seguirá filtrándose. Eso significa que las empresas de redes sociales deberían tomar mayor responsabilidad, y ser penalizadas si no toman acciones adecuadas como detectar y eliminar contenido malicioso más rápidamente, y prohibir cuentas falsas. La inversión para mejorar los programas de detección de IA ayudaría, junto con el "marcas especiales" para distinguir entre publicaciones reales y generadas por máquinas. La colaboración en salvaguardas a través de plataformas y software es vital.
A medida que avancen los esfuerzos de protección, también lo harán las tecnologías malignas para evadirlos. Los responsables de políticas y las empresas deben actuar rápidamente, evitando consecuencias no intencionadas. Pero con los derechos de los individuos, especialmente las mujeres, y el discurso democrático en juego, no pueden permitirse el lujo quedarse aún más rezagados que actualmente.
Derechos de autor - Financial Times Limited 2024.
Lee el artículo original aquí.