Skip to content

EEUU y Reino Unido firman acuerdo histórico sobre evaluación de seguridad de la IA

Los aliados llegan al primer acuerdo bilateral del mundo en momentos en los cuales muchos gobiernos buscan evaluar y regular los riesgos de la tecnología emergente.

Foto: Oficinas de OpenAI en San Francisco. Crédito: Jason Henry/The New York Times.

Los aliados llegan al primer acuerdo bilateral del mundo en momentos en los cuales muchos gobiernos buscan evaluar y regular los riesgos de la tecnología emergente.

EEUU y el Reino Unido han firmado un acuerdo histórico sobre inteligencia artificial, donde los aliados se convierten en los primeros países en cooperar formalmente en cómo evaluar y analizar los riesgos que emanan de los modelos emergentes de IA.

El acuerdo, firmado el lunes en Washington por Michelle Donelan, ministra de ciencia del Reino Unido, y Gina Raimondo, secretaria de comercio de EEUU, delinea cómo ambos gobiernos compartirán conocimientos técnicos, información y talento sobre la seguridad de la IA.

Este acuerdo representa el primer arreglo bilateral sobre la seguridad en la IA en el mundo y surge a la vez que los gobiernos presionan por una regulación más estricta de los riesgos existenciales de las nuevas tecnologías, tales como su uso en ataques cibernéticos dañinos o en el diseño de armas biológicas.

"El próximo año es cuando realmente tenemos que actuar rápidamente porque están saliendo los próximos modelos de [IA], que podrían cambiar completamente el juego, y aún no sabemos las capacidades completas que ofrecerán", Donelan le dijo al Financial Times.

El acuerdo permitirá específicamente que el nuevo Instituto de Seguridad de IA del Reino Unido (AISI, por sus siglas en inglés), establecido en noviembre, y su equivalente estadounidense, que aún no ha comenzado su trabajo, intercambien experiencia a través de comisiones de investigadores de ambos países.

Los institutos también trabajarán juntos respecto a evaluar independientemente modelos privados de IA creados por entidades como OpenAI y Google.

La asociación está modelada en una entre la Sede de Comunicaciones del Gobierno (GCHQ) del Reino Unido y la Agencia de Seguridad Nacional (NSA) de EEUU, las cuales trabajan juntas estrechamente en asuntos relacionados con inteligencia y seguridad.

"El hecho de que EEUU, una gran potencia de IA, esté firmando este acuerdo con nosotros, el Reino Unido, dice mucho sobre la manera en la cual estamos liderando el camino en la seguridad de la IA", dijo Donelan.

Añadió que, dado que muchas de las compañías de IA más avanzadas están actualmente basadas en EEUU, la experiencia del gobierno estadounidense es clave tanto para entender los riesgos de la IA como para mantener a las compañías responsables de sus compromisos.

Sin embargo, Donelan insistió en que, a pesar de realizar investigaciones sobre la seguridad de la IA y asegurar que existan barreras de protección, el Reino Unido no busca regular la tecnología de manera más amplia a corto plazo, ya que está evolucionando demasiado rápidamente.

Esta posición contrasta con la de otras naciones y regiones. La UE ha aprobado una Ley de IA, considerada el régimen más estricto sobre el uso de la IA en el mundo. El presidente de EEUU, Joe Biden, ha emitido una orden ejecutiva dirigida a modelos de IA que podrían amenazar la seguridad nacional. China ha emitido directrices buscando asegurar que la tecnología no desafíe su perenne régimen de censura.

Raimondo dijo que la IA era "la tecnología que definía nuestra generación".

"Esta asociación va a acelerar el trabajo de ambos institutos en la totalidad del espectro de riesgos, ya sea para nuestra seguridad nacional o para nuestra sociedad en general", dijo.

"Nuestra asociación deja claro que no estamos huyendo de estas preocupaciones — estamos enfrentándonos a ellas. Debido a nuestra colaboración, nuestros institutos ganarán una mejor comprensión de los sistemas de IA, llevarán a cabo evaluaciones más robustas y emitirán orientaciones más rigurosas".

El AISI, respaldado por el gobierno del Reino Unido y presidido por el inversionista tecnológico y emprendedor Ian Hogarth, ha contratado a investigadores como Geoffrey Irving de Google DeepMind y Chris Summerfield de la Universidad de Oxford para comenzar a probar modelos de IA existentes pero aún no diseminados.

OpenAI, Google DeepMind, Microsoft y Meta están entre los grupos tecnológicos que firmaron compromisos voluntarios para exponer sus últimos modelos de IA generativa a una revisión por parte del AISI del Reino Unido, establecido tras la Cumbre de Seguridad de IA del Reino Unido en Bletchley Park.

El instituto es clave para la ambición del Primer Ministro Rishi Sunak de que el Reino Unido juegue un papel central en abordar el desarrollo de la IA.

Las pruebas se han centrado en los riesgos asociados con el mal uso de la tecnología, incluida la seguridad cibernética, apoyándose en la experiencia del Centro Nacional de Seguridad Cibernética dentro del GCHQ, según una persona con conocimiento directo del asunto.

Donelan dijo que ella y Raimondo tienen pensado discutir desafíos compartidos, como el impacto de la IA en las próximas elecciones a ocurrir este año. La ministra de ciencia agregó que también discutirían la necesidad de infraestructura informática para la IA "compartiendo nuestras habilidades y profundizando la colaboración en general como manera de generar beneficios para la población".

Madhumita Murgia - Financial Times.

Puedes leer el artículo original aquí.

Últimas Noticias

Mike Waltz no sobrevió al Signalgate

Mike Waltz no sobrevió al Signalgate

¿Crónicas de una destitución anunciada? Bueno, no está tan lejos de la realidad: Trump anunció que Mike Waltz ya no servirá como asesor de seguridad nacional, solo duró 100 días en el cargo

Members Public