Skip to content

Espionaje estadounidense busca IA confiable como herramienta contra China

La comunidad de inteligencia evalúa el poder y las trampas de la ayuda de la IA mientras la CIA ve una oportunidad para aumentar la productividad y digerir inteligencia.

espionaje estadounidense
Un brazo de la Oficina del Director de Inteligencia Nacional está colaborando con empresas y universidades para aprovechar la tecnología de IA. | Foto: (Doug Mills/The New York Times).

La comunidad de inteligencia evalúa el poder y las trampas de la ayuda de la IA mientras la CIA ve una oportunidad para aumentar la productividad y digerir inteligencia.

Las agencias de inteligencia de EEUU están enfrentando un nuevo desafío imponente: hacer que la inteligencia artificial sea segura para los espías del país.

Un brazo de la Oficina del Director de Inteligencia Nacional está colaborando con empresas y universidades para aprovechar la tecnología de IA que se desarrolla rápidamente, la cual podría proporcionar una ventaja contra competidores globales como China. El desafío es asegurarse de que no abra una puerta trasera en los secretos más importantes de la nación o genere datos falsos.

"La comunidad de inteligencia quiere aprovechar los modelos de lenguaje extenso que existen, pero hay muchas incógnitas", dijo Tim McKinnon, un científico de datos que dirige uno de los proyectos de la ODNI, conocido como Bengal. "El objetivo final es poder trabajar con un modelo que de confianza".

El enfoque en la fiabilidad y seguridad es parte de una campaña militar y de inteligencia más amplia de EEUU para aprovechar el poder de la IA y competir con China, que busca convertirse en líder mundial en el sector para 2030. También está impulsando un aumento en la contratación relacionada con la IA en el área de Washington a medida que el gobierno y sus contratistas adoptan la tecnología emergente.

Las preocupaciones más apremiantes se centran en los modelos de lenguaje extenso, que utilizan enormes conjuntos de datos para alimentar herramientas como ChatGPT de OpenAI Inc., para proporcionar respuestas detalladas a las indicaciones y preguntas de los usuarios.

"La comunidad de inteligencia ve la IA con un escepticismo saludable y un rango de entusiasmo", dijo Emily Harding, directora del Programa de Inteligencia, Seguridad Nacional y Tecnología en el Centro de Estudios Estratégicos e Internacionales, citando como ejemplo la capacidad de los analistas para procesar grandes cantidades de información pero dudas sobre la fiabilidad de los modelos actuales.

"Es una herramienta en sus primeras etapas de utilidad", dijo.

El director de tecnología de la Agencia Central de Inteligencia, Nand Mulchandani, ve la IA potencialmente aumentando la productividad al digerir grandes volúmenes de contenido y encontrar patrones que serían difíciles o imposibles de discernir para los humanos. También lo ve como una forma de competir con la ventaja numérica de China en cuanto a personal de inteligencia.

"Los seres humanos son geniales pero son difíciles de escalar", dijo Mulchandani en una entrevista. "Ayudar a escalar a los seres humanos con tecnología es la jugada inteligente en negocios".

Las agencias de espionaje de EEUU ya han comenzado a experimentar con sus propios programas de IA. La Agencia Central de Inteligencia estaba preparándose para implementar una función similar a ChatGPT que dará a los analistas un mejor acceso a la inteligencia de fuentes abiertas, informó Bloomberg News en septiembre.

El atractivo de la IA para la inteligencia de EEUU proviene en parte de su potencial para distinguir señales clave entre las toneladas de datos recopilados cada día, así como para desarrollar formas creativas de ver los problemas, según un analista de inteligencia que habló bajo condición de anonimato. Sin embargo, hay formas de influir e interferir con los modelos de IA que introducen nuevos riesgos, dijo el analista.

Amenazas e interferencias

McKinnon dijo que la IA es vulnerable tanto a amenazas internas como a interferencias externas. Esas amenazas podrían ser humanos intentando engañar a los sistemas para que revelen información clasificada, un intento de "liberar" el modelo. O lo contrario: un sistema comprometido "intentando obtener información de los humanos que no deberían compartir", dijo.

El programa Bengal de McKinnon - abreviatura de Bias Effects and Notable Generative AI Limitations - es dirigido por la Actividad de Investigación Avanzada de Inteligencia, una organización poco conocida que está bajo la ODNI. Bengal ha recopilado aportes de empresas, incluida una unidad de Amazon.com Inc., pero McKinnon no quiso decir si estaba trabajando con empresas específicas.

El programa tiene como objetivo aliviar algunos de los riesgos de la IA desarrollando formas de tratar con posibles sesgos o salidas tóxicas, como "alucinaciones", cuando un programa fabrica información o entrega un resultado incorrecto, lo cual no es raro.

"Ahora mismo solo hay unos pocos modelos que están públicamente disponibles, pero se volverán más prevalentes y las formas en que serán entrenados podrían estar sesgadas", dijo McKinnon. "Si hay un modelo envenenado, queremos poder mitigar su efecto".

Peter Martin - Bloomberg.

Lee el artículo original aquí.

Últimas Noticias