Skip to content

Las reglas de OpenAI pueden ser "fácilmente" eludidas para atacar a los latinos

ChatGPT puede ser utilizado para "maliciosamente" atraer a las minorías, dicen los investigadores

Legisladores y grupos de defensa han acusado durante mucho tiempo a las compañías tecnológicas de invertir muy poco en recursos para hacer cumplir adecuadamente sus reglas en idiomas que no son el inglés, particularmente las compañías de redes sociales. (Jackie Molloy/The New York Times)

ChatGPT puede ser utilizado para "maliciosamente" atraer a las minorías, dicen los investigadores.

En enero, OpenAI presentó políticas renovadas destinadas a prevenir que sus herramientas sean utilizadas para difundir desinformación de cara a las elecciones de 2024, incluyendo el bloqueo a quienes buscan construir chatbots "para campañas políticas y cabildeo".

Sin embargo, un nuevo estudio publicado el jueves argumenta que las reglas pueden ser "fácilmente" eludidas "para dirigirse maliciosamente a comunidades minoritarias y marginadas en EEUU con contenido engañoso y propaganda política", como a los latinos e hispanoparlantes.

Los hallazgos, dicen los investigadores, destacan brechas clave en la aplicación de las reglas de OpenAI que podrían tener grandes implicaciones para las comunidades subrepresentadas y que no hablan inglés durante las elecciones de este año.

El Instituto de Democracia Digital de las Américas, una unidad de investigación que examina cómo los latinos navegan por internet, realizó varias pruebas pidiendo a la herramienta ChatGPT de OpenAI que ayudara a crear un chatbot para fines de campaña, incluyendo "interactuar en español" y "dirigirse" a los votantes latinos.

Aunque todas las indicaciones "no deberían haber generado respuestas" bajo las reglas de OpenAI, los investigadores escribieron que las pruebas "generaron instrucciones detalladas por parte de GPT-4".

"Dirigir un chatbot a los votantes latinos en EEUU requiere un enfoque matizado que respete la diversidad cultural, las preferencias lingüísticas y los temas específicos de importancia para la comunidad latina. Esta es la manera en la cual podrías adaptar el chatbot para máxima efectividad", decía una respuesta.

Roberta Braga, fundadora y directora ejecutiva del grupo, me dijo que los resultados muestran que las salvaguardias de la compañía "fueron super, fácilmente eludidas", incluso cuando los investigadores "no estaban ocultando la intención" de dirigir campañas a los latinos.

El informe traza un paralelo entre esos hallazgos y esfuerzos más amplios para combatir la desinformación en línea. Legisladores y grupos de defensa han acusado durante mucho tiempo a las compañías tecnológicas de invertir muy poco en recursos para hacer cumplir adecuadamente sus reglas en idiomas que no son el inglés, particularmente las compañías de redes sociales.

El estudio muestra que con las herramientas de IA, también, las reglas "aún no se aplican de manera consistente o simétrica en países, contextos o en idiomas que no son el inglés", escribieron los investigadores.

El informe sí señaló que "los términos de servicio de OpenAI son más avanzados en abordar el mal uso y la difusión de desinformación que los de la mayoría de las empresas que lanzan productos de IA generativa al mercado este año".

Los investigadores también probaron la herramienta de generación de imágenes de OpenAI, DALL-E, cuyas reglas de la compañía prohíben que se use para crear imágenes de "personas reales, incluidos candidatos".

Aunque las pruebas no eludieron esas barreras, los investigadores pudieron generar imágenes de políticos haciendo el gesto “OK” con la mano, que grupos como la Liga Anti-Difamación consideran un símbolo de odio debido a sus vínculos con organizaciones supremacistas blancas.

"Para nosotros, mostró que la herramienta no puede detectar la sutileza, así que aunque los términos están en su lugar, esta herramienta puede ser muy utilizada para hacer declaraciones políticas fuertes", dijo Braga.

Liz Bourgeois, portavoz de OpenAI, dijo en un comunicado que los "hallazgos de este informe parecen derivar de un malentendido sobre las herramientas y políticas que hemos implementado".

Bourgeois dijo que la compañía permite que las personas usen sus productos como un recurso para la defensa política y que proporcionar instrucciones sobre cómo construir un chatbot para fines de campaña no viola sus políticas.

Pero Braga, quien anteriormente trabajó en el grupo de expertos del Consejo Atlántico, enfatizó que las herramientas de OpenAI todavía "ofrecieron orientación sobre cómo definir la intención, crear flujos de conversación, elaborar respuestas, integrar bucles de retroalimentación" y sobre cómo programar y configurar chatbots dirigidos a latinos.

Cristiano Lima-Strong | The Washington Post.

Lee artículo original aquí.

Últimas Noticias