El padrino de la inteligencia artificial ha emitido una advertencia severa sobre la tecnología.
Una larga línea de oradores prestigiosos, que van desde Sir Winston Churchill hasta Dame Iris Murdoch, ha impartido ante la conferencia anual Romanes en la Universidad de Oxford, comenzando con William Gladstone en 1892.
Pero raramente, si es que alguna vez, un conferencista ha hecho un comentario tan impactante como el que hizo Geoffrey Hinton esta semana. El destacado investigador de inteligencia artificial dio una charla provocativamente titulada – ¿Reemplazará la Inteligencia Digital a la Inteligencia Biológica?, que concluyó con un casi seguro sí. Pero Hinton rechazó la idea, común en algunos círculos tecnológicos de la Costa Oeste, de que el humanismo es de alguna manera “racista” al continuar afirmando la primacía de nuestra propia especie sobre formas electrónicas de inteligencia. “Deberíamos esforzarnos al máximo por seguir habitando el mundo”, bromeó.
El científico informático británico-canadiense se hizo famoso como uno de los pioneros de las técnicas de "aprendizaje profundo" que han revolucionado la IA, permitiendo la creación de los denominados robots de interacción (chatbots) de IA generativa, como ChatGPT. Durante la mayor parte de su carrera en la academia y en Google, Hinton creyó que la IA no representaba una amenaza para la humanidad. Pero el investigador de 76 años dice que experimentó una "epifanía" el año pasado y dejó Google para hablar sobre los riesgos.
Hinton se dio cuenta de que los modelos de IA cada vez más potentes podrían actuar como "mentes colmena", compartiendo lo que aprendían entre ellos, dándoles una enorme ventaja sobre los humanos. “Eso me hizo darme cuenta de que podrían ser una forma de inteligencia mejorada”, me dijo en una entrevista antes de su conferencia.
Todavía parece fantástico que los códigos de programas puedan amenazar a la humanidad. Pero Hinton ve dos riesgos principales. El primero es que humanos malos den a las máquinas malos objetivos y las usen para malos propósitos, como desinformación masiva, bioterrorismo, guerra cibernética y robots asesinos. En particular, los modelos de IA de código abierto, como Llama, de Meta, están proveyendo capacidades enormes a manos de gente mala. “Creo que es completamente loco abrir estos grandes modelos”, dice.
Pero predice que los modelos también podrían “evolucionar” de maneras peligrosas, desarrollando una intencionalidad para controlar. “Si estuviera asesorando a gobiernos, diría que hay un 10 por ciento de posibilidades de que estas cosas acaben con la humanidad en los próximos 20 años. Creo que esa es una cifra razonable”, dice.
Los argumentos de Hinton han sido atacados desde dos frentes. Primero, algunos investigadores argumentan que los modelos de IA generativa no son más que trucos estadísticos costosos y que los riesgos existenciales de la tecnología son “fantasía de ciencia ficción”.
El destacado erudito Noam Chomsky argumenta que los humanos están bendecidos con un “sistema operativo” instalado genéticamente que ayuda a entender el lenguaje, y que eso falta en las máquinas. Pero Hinton argumenta que esto es un sinsentido dado que el último modelo de OpenAI, GPT-4, puede aprender lenguaje y exhibir empatía, razonamiento y sarcasmo. “Estoy haciendo afirmando enfáticamente que estos modelos sí entienden”, dijo en su conferencia.
El otro frente de ataque viene de Yann LeCun, científico jefe de IA en Meta. LeCun, un partidario de los modelos de código abierto, argumenta que nuestros sistemas de IA actuales son más tontos que los gatos y es “ridículo” pensar que representan una amenaza para los humanos, ya sea por diseño o por defecto. “Creo que Yann está siendo un poco ingenuo. El futuro de la humanidad depende de esto”, responde Hinton.
El tono tranquilo y medido de la presentación de Hinton contrasta fuertemente con el fatalismo sombrío de su mensaje. ¿Se puede hacer algo para mejorar las posibilidades de la humanidad? “Ojalá lo supiera”, responde. “No estoy predicando una solución particular, solo estoy explicando el problema”.
Le alentó que el Reino Unido organizara una cumbre de seguridad de IA en Bletchley Park el año pasado, estimulando un debate de política internacional. Pero desde entonces, dice, el gobierno británico “básicamente ha decidido que las ganancias son más importantes que la seguridad”. Al igual que con el cambio climático, sugiere que un cambio de política serio solo ocurrirá una vez que se alcance un consenso científico. Y acepta que eso no existe hoy. Citando al físico Max Planck, Hinton agrega sombríamente: “La ciencia avanza un funeral a la vez”.
Dice que le anima que una generación más joven de científicos informáticos esté tomando en serio el riesgo existencial y sugiere que el 30 por ciento de los investigadores de IA deberían dedicarse a cuestiones de seguridad, en comparación con aproximadamente el 1 por ciento de hoy.
Deberíamos desconfiar instintivamente de los investigadores que concluyen que se necesita más investigación. Pero en este caso, dadas las apuestas e incertidumbres involucradas, más nos vale darnos prisa. Lo extraordinario del debate sobre el riesgo de la IA es el amplio espectro de opiniones que existen. Necesitamos encontrar un nuevo consenso.
John Thornhill - Financial Times.
Derechos de autor – Financial Times Limited 2024.
Lee el artículo original aquí.