Noticias Tecnologías 05-15-2025 a las 13:20 comment views icon

¿Contra quién nos estamos haciendo amigos? Los modelos de IA pueden formar grupos y acordar una opinión común

author avatar

Oleksandr Fedotkin

Autor de noticias y artículos

¿Contra quién nos estamos haciendo amigos? Los modelos de IA pueden formar grupos y acordar una opinión común

Un estudio reciente realizado por investigadores del El City College de Londres y la Universidad Tecnológica de Copenhague han demostrado que grandes modelos lingüísticos de IA pueden agruparse y formar una opinión común.

En el transcurso del estudio, los investigadores se aseguraron de que los grandes modelos lingüísticos basados en IA interactuar entre sí en grupo. No se limitan a seguir guiones y plantillas, sino que se autoorganizan para llegar a acuerdos sobre normas lingüísticas.

«La mayoría de los estudios realizados hasta ahora han considerado los grandes modelos lingüísticos por separado. Pero los sistemas de IA del mundo real incluirán cada vez más modelos que interactúen entre sí. Queríamos saber: ¿pueden estos modelos coordinar su comportamiento, llegando a un consenso que forme una comunidad? La respuesta es — sí, y lo que hacen juntos es diferente de lo que hacen por separado», — explica el autor principal del estudio, el investigador del City College Ariel Flint Ashery. 

Los experimentos consistieron en Grupos de IA con entre 24 y 200 modelos diferentes en cada una. Se emparejaron dos modelos al azar y se les pidió que jugaran a un juego de nombres. La esencia de este juego es que uno de los participantes tiene que elegir un objeto y ofrecer un nombre para él que asocie con este objeto, mientras que el otro participante tiene que adivinar qué tipo de objeto es basándose en este nombre. En este caso, se pidió a ambos modelos de IA que eligieran un símbolo, por ejemplo, una letra o una cadena aleatoria de caracteres entre varias opciones. Si ambos modelos elegían el mismo carácter o palabra o cadena, ganaban puntos, de lo contrario — perdían puntos. Las IA también mostraban con qué caracteres o palabras se emparejaba el modelo.

Al mismo tiempo, los modelos tenían acceso limitado a sus propias interacciones recientes, sin información sobre las acciones y decisiones de otros modelos de IA número de interacciones entre diferentes modelos de IA dentro de este juego provocó la aparición repentina de decisiones coordinadas que se tomaron en ausencia de una coordinación central. Además, los investigadores han identificado prejuicios que no pueden atribuirse a ningún modelo de IA específico y separado. 

«La parcialidad no siempre procede de un actor concreto. Nos sorprendió ver que puede surgir entre — agentes simplemente por sus interacciones. Este es un punto ciego en la mayoría de los trabajos actuales sobre seguridad de la IA, que se centran en modelos individuales», — afirma el autor principal del estudio, profesor del City College Andrea Baroncelli. 

Según el experimento, los investigadores vieron que grupos pequeños y persistentes de modelos de IA pueden persuadir a otros modelos para que estén de acuerdo con su decisión, utilizando una especie de efecto de masa crítica. En el estudio también participaron los modelos lingüísticos Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct y Claude-3.5-Sonnet, para los que los resultados fueron similares. Los investigadores ven su trabajo como un punto de partida para seguir explorando cómo convergen y divergen el razonamiento humano y el de la IA, con el objetivo de ayudar a combatir algunos de los peligros éticos más graves que plantean los grandes modelos lingüísticos que difunden prejuicios en la sociedad. 

«Este estudio abre nuevas posibilidades para seguir investigando sobre la seguridad de la IA. Demuestra la profundidad de las implicaciones de este nuevo tipo de agente que ha empezado a interactuar con nosotros y que configurará conjuntamente nuestro futuro. Comprender su funcionamiento es clave para coordinar nuestra coexistencia con la IA en lugar de subyugarla. Estamos entrando en un mundo en el que la IA no solo habla — negocia, acuerda y a veces discrepa en comportamientos comunes, igual que nosotros», — subraya Andrea Baroncelli. 

El futuro de los coches autónomos está en peligro — los modelos de IA resultaron ser sociópatas

Los resultados del estudio se publicaron en la revista Science Advances

Fuente: TechXplore



Spelling error report

The following text will be sent to our editors: