Skip to content

Decenas de científicos destacados se unen a esfuerzos para prevenir armas biológicas de IA

Un acuerdo firmado por más de 90 personas indicó, sin embargo, que el beneficio de la inteligencia artificial para el campo de la biología superaría cualquier daño potencial.

Foto: Александр Македонский/Pexels.

Un acuerdo firmado por más de 90 personas indicó, sin embargo, que el beneficio de la inteligencia artificial para el campo de la biología superaría cualquier daño potencial.

Dario Amodei, CEO de la startup de inteligencia artificial de alto perfil Anthropic, declaró ante el Congreso el año pasado que la nueva tecnología de IA podría pronto ayudar a personas no cualificadas pero malintencionadas a crear ataques biológicos a gran escala, incluyendo la liberación de virus o sustancias tóxicas que causan enfermedades generalizadas y muerte.

Senadores de ambos partidos se alarmaron, mientras que investigadores de IA en la industria y la academia debatían cuán seria podría ser la amenaza.

Ahora, más de 90 biólogos y otros científicos que se especializan en tecnologías de IA utilizadas para diseñar nuevas proteínas —los mecanismos microscópicos que impulsan todas las creaciones en biología— han firmado un acuerdo que busca asegurar que su investigación asistida por IA avance sin exponer al mundo a daños serios.

Los biólogos, que incluyen a la Nobel Frances Arnold y representan laboratorios en Estados Unidos y otros países, también argumentaron que las tecnologías más recientes tendrían muchos más beneficios que puntos negativos, incluyendo nuevas vacunas y medicinas.

"Como científicos comprometidos con este trabajo, creemos que los beneficios de las tecnologías actuales de IA para el diseño de proteínas superan con creces el potencial de daño, y nos gustaría asegurar que nuestra investigación siga siendo beneficiosa para todos en el futuro", se lee en el acuerdo.

El acuerdo no busca suprimir el desarrollo o la distribución de tecnologías de IA. En cambio, los biólogos apuntan a regular el uso de equipos necesarios para fabricar material genético nuevo.

Este equipo de fabricación de ADN es, en última instancia, lo que permite el desarrollo de armas biológicas, dijo David Baker, director del Instituto para el Diseño de Proteínas de la Universidad de Washington, quien ayudó a guiar el acuerdo.

"El diseño de proteínas es solo el primer paso en la fabricación de proteínas sintéticas", dijo en una entrevista. "Luego tienes que sintetizar el ADN y mover el diseño del computador al mundo real, y ese es el lugar apropiado para regular".

El acuerdo es uno de los muchos esfuerzos para sopesar los riesgos de la IA contra los posibles beneficios. Mientras algunos expertos advierten que las tecnologías de IA pueden ayudar a difundir desinformación, reemplazar empleos a un ritmo inusual y quizás incluso destruir a la humanidad, compañías tecnológicas, laboratorios académicos, reguladores y legisladores buscan entender mejor estos riesgos y encontrar formas de abordarlos.

Anthropic construye modelos de lenguaje ampliado (LLM por sus siglas en inglés), el nuevo tipo de tecnología que genera los chatbots en línea. Cuando Amodei testificó ante el Congreso, argumentó que la tecnología pronto podría ayudar a los atacantes a construir nuevas armas biológicas.

Pero reconoció que esto no era posible hoy. Anthropic había realizado recientemente un estudio detallado que mostraba que si alguien intentaba adquirir o diseñar armas biológicas, los LLMs eran marginalmente más útiles que un motor de búsqueda de internet ordinario.

Amodei y otros se preocupan de que a medida que las compañías mejoren los LLMs y los combinen con otras tecnologías, surgirá una amenaza seria. Le dijo al Congreso que esto estaba a solo dos o tres años de distancia.

OpenAI, creador de ChatGPT, luego realizó un estudio similar que mostró que los LLMs no eran significativamente más peligrosos que los motores de búsqueda. Aleksander Mądry, profesor de ciencias de la computación en el Instituto Tecnológico de Massachusetts y jefe de imprevistos de OpenAI, dijo que esperaba que los investigadores continuaran mejorando estos sistemas, pero que aún no había visto ninguna evidencia de que pudieran crear nuevas armas biológicas.

Los LLMs de hoy se crean analizando enormes cantidades de texto digital recopilado de todo internet. Esto significa que restructuran o recombinan lo que ya está disponible en línea, incluyendo información existente sobre ataques biológicos. (Nota editorial: The New York Times ha demandado a OpenAI y su socio, Microsoft, acusándolos de infracción de derechos de autor durante este proceso.)

Pero en un esfuerzo por acelerar el desarrollo de nuevas medicinas, vacunas y otros materiales biológicos útiles, los investigadores están comenzando a construir sistemas de IA similares que pueden generar nuevos diseños de proteínas. Los biólogos dicen que tal tecnología también podría ayudar a los atacantes a diseñar armas biológicas, pero señalan que la construcción de las armas requeriría un laboratorio multimillonario, incluyendo equipo de fabricación de ADN.

"Hay cierto riesgo que no requiere millones de dólares en infraestructura, pero esos riesgos han estado presentes por un tiempo y no están relacionados con la IA", dijo Andrew White, cofundador de la organización sin fines de lucro Future House y uno de los biólogos que firmó el acuerdo.

Los biólogos abogaron por el desarrollo de medidas de seguridad que impidan que el equipo de fabricación de ADN se utilice con materiales dañinos, aunque no está claro cómo funcionarían esas medidas. También solicitaron estudios de seguridad y protección para nuevos modelos de IA antes de su lanzamiento.

No plantearon que las tecnologías debieran ser restringidas.

"Estas tecnologías no deberían ser retenidas por un pequeño número de personas u organizaciones", dijo Rama Ranganathan, profesor de bioquímica y biología molecular en la Universidad de Chicago, quien también firmó el acuerdo. "La comunidad científica debería poder explorarlas libremente y contribuir a ellas".

Cade Metz - The New York Times.

Lee el artículo original aquí.

Últimas Noticias