Las disputas en OpenAI resaltan la necesidad de que las empresas sean más transparentes.
Tanto los defensores como los detractores de la IA tienden a coincidir en que la tecnología cambiará el mundo. Figuras como Sam Altman de OpenAI ven un futuro donde la humanidad prosperará; los críticos profetizan una disrupción social y un poder corporativo excesivo. Qué predicción se haga realidad depende en parte de las bases que se establezcan hoy.
Sin embargo, las recientes disputas en OpenAI —incluida la salida de su cofundador y científico jefe— sugieren que los actores clave de la IA se han vuelto demasiado opacos para que la sociedad pueda establecer el rumbo correcto.
Un índice desarrollado en la Universidad de Stanford encuentra que la transparencia en los líderes de IA, Google, Amazon, Meta y OpenAI no alcanza lo necesario. Aunque la IA surgió a través de la colaboración entre investigadores y expertos en diversas plataformas, las empresas se han cerrado desde que ChatGPT de OpenAI inauguró un auge comercial de la IA. Dado el potencial peligro de la IA, estas empresas necesitan volver a su pasado más abierto.
La transparencia en la IA se divide en dos áreas principales: los insumos y los modelos. Los grandes modelos de lenguaje, la base de la IA generativa como ChatGPT de OpenAI o Gemini de Google, se entrenan rastreando internet para analizar y aprender de "conjuntos de datos" que van desde foros de Reddit hasta pinturas de Picasso.
En los primeros días de la IA, los investigadores a menudo divulgaban sus datos de entrenamiento en revistas científicas, permitiendo a otros diagnosticar fallos al evaluar la calidad de los insumos.
Hoy en día, los actores clave tienden a retener los detalles de sus datos para protegerse contra demandas por infracción de derechos de autor y obtener una ventaja competitiva. Esto dificulta la evaluación de la veracidad de las respuestas generadas por la IA.
También deja a escritores, actores y otros creativos sin información sobre si su privacidad o propiedad intelectual ha sido violada conscientemente.
Los propios modelos también carecen de transparencia. Cómo un modelo interpreta sus insumos y genera lenguaje depende de su diseño. Las empresas de IA tienden a ver la arquitectura de su modelo como su "salsa secreta": la genialidad de GPT-4 de OpenAI o Llama de Meta pivota en la calidad de su computación.
Los investigadores de IA solían publicar artículos sobre sus diseños, pero la carrera por la cuota de mercado ha terminado con esas divulgaciones. Sin la comprensión de cómo funciona un modelo, es difícil evaluar las salidas, límites y sesgos de una IA.
Toda esta opacidad dificulta que el público y los reguladores evalúen la seguridad de la IA y protejan contra posibles daños. Eso es aún más preocupante, ya que Jan Leike, quien ayudó a liderar los esfuerzos de OpenAI para dirigir herramientas de IA superpoderosas, afirmó tras dejar la empresa este mes que sus líderes habían priorizado "productos brillantes" sobre la seguridad. La empresa ha insistido en que puede regular su propio producto, pero su nuevo comité de seguridad informará a los mismos líderes.
Los gobiernos han comenzado a sentar las bases para la regulación de la IA a través de una conferencia el año pasado en Bletchley Park, la orden ejecutiva sobre IA del presidente Joe Biden y la ley de IA de la UE.
Aunque bienvenidas, estas medidas se centran en barandillas y "pruebas de seguridad", en lugar de en la transparencia total. La realidad es que la mayoría de los expertos en IA trabajan para las propias empresas y las tecnologías se están desarrollando demasiado rápido para que las pruebas de seguridad periódicas sean suficientes.
Los reguladores deberían exigir transparencia en los modelos y los insumos, y los expertos en estas empresas necesitan colaborar con los reguladores.
La IA tiene el potencial de transformar el mundo para mejor, quizás con incluso más potencia y rapidez que la revolución de internet. Las empresas pueden argumentar que los requisitos de transparencia ralentizarán la innovación y embotarán su ventaja competitiva, pero la historia reciente de la IA sugiere lo contrario.
Estas tecnologías han avanzado gracias a la colaboración y la investigación compartida. Volver a esas normas solo serviría para aumentar la confianza pública y permitir una innovación más rápida, pero más segura.
Comité editorial - Financial Times.
Puedes leer el artículo original aquí.