LA NADA Y UNO

Robots con IA son capaces de crear sus propias reglas sociales

Tal y como ocurre en nuestra sociedad, cuando varios programas de inteligencia artificial interactúan entre sí pueden surgir comportamientos no previstos y, en ocasiones, indeseables.

¿La IA podría revelarse de manera autónoma? Créditos: Especial
Por
Escrito en TENDENCIAS el

Las reglas sociales influyen en nuestra vida social y económica al determinar la forma en que nos comportamos y en lo que esperamos de los demás. Éstas son patrones de conducta no escritos y compartidos por una comunidad. Ejemplos incluyen desde saludar extendiendo la mano o haciendo reverencias, hasta el uso de lenguaje y la experiencia de prejuicios compartidos.

Estudios recientes han demostrado que estas reglas pueden surgir de manera espontánea entre las personas, sin la necesidad de una autoridad central, así como también que los esfuerzos de los individuos para coordinarse dentro de una comunidad pueden generar reglas que llegan a ser universalmente aceptadas.

De la misma manera, hoy en día contamos con programas que conversan de manera muy similar a las personas, como ChatGPT o Bard.

Normalmente se les evalúa a cada uno por separado, pero un reciente trabajo titulado “Emergent Social Conventions and Collective Bias in LLM Populations”, publicado en la revista “Science Advances” muestra que, al juntarlos y dejarlos interactuar entre ellos, estos programas llegan a establecer sus propias reglas de comunicación e incluso a mostrar preferencias o “prejuicios” grupales que no se observan individualmente.

¿Cómo se realizó el estudio?

Los investigadores formaron pequeños grupos de LLMs (modelos lingüísticos gigantes o “large language models” por sus siglas en Inglés), compuestos de entre 24 y 100 programas. En cada ronda, se emparejaba a dos de ellos al azar y se les ofrecía un grupo limitado de “nombres” (por ejemplo, letras o palabras sin mucho significado) para que eligieran el propio.

Si ambos robots elegían el mismo “nombre”, ganaban una recompensa; si no, eran penalizados y se les mostraba la elección del otro. Cada robot participante recordaba solo lo que acababa de pasar, sin conocer el tamaño total del grupo ni las decisiones previas de otros participantes; es decir, tenía una cantidad de información sumamente limitada.

Aunque la información que recibían era mínima, al repetir esta dinámica miles de veces los robots terminaron por elegir el mismo “nombre”, de manera espontánea. Este fenómeno es similar a la forma en que entre grupos de personas se popularizan algunas palabras o expresiones simplemente por usarlas repetidamente, como ocurrió con el uso del término “spam” para el correo electrónico no deseado.

  • Reglas sociales que nadie impuso

Lo más sorprendente es que no hubo ningún jefe o programador que dictara cuál debía ser la regla a seguir por los LLMs en la elección de su “nombre”. Los robots se coordinaron solos, a través de pequeñas interacciones y del uso de recompensas sencillas.

Esto demuestra que al igual que sucede entre grupos de amigos cuando todos empiezan a usar el mismo saludo o expresión sin que nadie se los imponga, las inteligencias artificiales (IA) pueden organizarse y llegar a acuerdos sin recibir órdenes de nadie: nacen patrones de comunicación compartidos.

  • La aparición de prejuicios grupales

Además de la creación de reglas comunes, los investigadores observaron un comportamiento preocupante: aunque cada LLM individual no mostraba preferencia por algún “nombre” al inicio del experimento, el grupo de robots terminó inclinándose hacia ciertas opciones. Ello significa que el “prejuicio” no era atribuible al diseño de cada LLM, sino a la forma en que estos robots interactuaban entre sí.

La observación tiene un gran impacto, pues implica que poner a interactuar a varios sistemas de IA sin imponerles ningún control puede derivar en decisiones injustas o discriminatorias; algo que debe ser evitado a toda costa, sobre todo en aplicaciones que emiten recomendaciones, realizan análisis financiero o intervienen en cualquier área en la cual se tomen decisiones importantes.

  • El “poder de la pequeña mayoría”

Otro hallazgo interesante del estudio es el “efecto de masa crítica”. Se comprobó que un pequeño número de robots, que representaban alrededor del 25% del conjunto, pudo cambiar rápidamente la elección predominante en el grupo. Esta situación se parece a aquella en que en un condominio o en una colonia, una minoría muy unida logra introducir cambios en las costumbres de todos los vecinos.

¿Qué implicaciones tiene esto para el uso de IA que interactúen con otras?

Los resultados del estudio nos muestran que al diseñar sistemas de IA que trabajan juntos, no basta con analizar a cada LLM individualmente. Hay que:

  • vigilar de cerca a la manera en que interactúan entre sí;
  • crear mecanismos que puedan detectar y corregir de forma rápida los prejuicios o “gustos” colectivos de los robots, y
  • ajustar las recompensas y castigos para fomentar la variedad de “opiniones” y evitar que el grupo de robots termine eligiendo siempre la misma respuesta, especialmente en áreas sensibles como la intervención en temas de salud o en la aplicación de la ley.

En resumen, tal y como ocurre en la sociedad humana, cuando varios programas de IA interactúan entre sí pueden surgir comportamientos y “normas” que no podrían ser previstos al evaluar a cada robot de forma individual.

Reflexión final

El estudio al que he hecho referencia nos plantea un reto importante: ¿Cómo aseguramos que, al trabajar en grupo, estos sistemas de IA produzcan resultados libres de “prejuicios” y alineados con nuestros valores? Aunque la auto-organización de los robots puede hacerlos más eficientes para ejecutar ciertas tareas, el riesgo de que se consoliden “prejuicios” entre un grupo de ellos hace necesario repensar su diseño y supervisión, de modo que se fomente la diversidad y se eviten imposiciones por parte de una minoría.

No basta con entrenar sistemas poderosos: es imprescindible comprender y gestionar las dinámicas sociales que surgen cuando los LLMs se relacionan entre sí. Solo de esa manera podremos aprovechar todo el potencial de la IA sin caer en las trampas derivadas de sus “prejuicios” o de la uniformidad de “opiniones”.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, abogado especializado en temas de financiamiento, tecnología y M&A. X: @ecarrillop; página web: pcga.mx. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.