Noticias Ciencia y espacio 03-21-2024 a las 08:00 comment views icon

Monólogo interior: se ha enseñado a pensar a la inteligencia artificial (¿era posible?)

author avatar
https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg *** https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg *** https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg

Andrii Rusanov

Redactor de noticias

Monólogo interior: se ha enseñado a pensar a la inteligencia artificial (¿era posible?)

Un nuevo estudio demuestra que dar a los sistemas de inteligencia artificial «monólogo interno» hace que sus resultados sean significativamente mejores. En esencia, se ha entrenado a la IA para que piense antes de responder a las consultas, igual que los humanos piensan en lo que tienen que decir a continuación antes de hablar. Esto difiere de cómo se comportan los modelos lingüísticos de IA más populares, como ChatGPT. Estos últimos no «piensan» sobre lo que escriben y no anticipan distintas posibilidades para los siguientes pasos de la conversación.

El nuevo método, denominado Quiet-STaR, ordena al sistema de IA que genere muchos argumentos internos en paralelo antes de responder a una consulta. Cuando la IA responde a las preguntas, genera muchas opciones y emite la mejor respuesta. Al final, la IA aprende descartando las opciones que resultan incorrectas. En esencia, el método de aprendizaje da a los modelos de IA la capacidad de predecir conversaciones futuras y aprender de las actuales.

Investigadores de la Universidad de Stanford y Notbad AI aplicaron el algoritmo Quiet-STaR a Mistral 7B, un gran modelo lingüístico de código abierto, y publicaron los resultados en arXiv. La versión de Mistral 7B entrenada con Quiet-STaR obtuvo una puntuación del 47,2% en la prueba de argumentación, frente al 36,3% antes de cualquier entrenamiento. En la prueba de matemáticas, el modelo suspendió con un 10,9%. Pero es casi el doble de la puntuación del 5,9% de la versión original.

Modelos como ChatGPT y Gemini no relacionan los datos con el sentido común o el contexto, por lo que en realidad no entienden sus propias respuestas, limitándose a generar palabras. Los intentos anteriores de mejorar la capacidad de «pensar» de los modelos lingüísticos han sido muy especializados y no han podido aplicarse a distintos modelos de IA.

El algoritmo de aprendizaje automático STaR, que los investigadores utilizaron como base para su trabajo, es un ejemplo de este tipo de aprendizaje, pero también está constreñido por estas limitaciones. Los científicos que desarrollaron Quiet-STaR llamaron así al método porque STaR se ejecuta en segundo plano. Puede funcionar con distintos modelos, independientemente de los datos de entrenamiento. Ahora quieren explorar cómo métodos similares pueden salvar la distancia entre los sistemas de inteligencia artificial basados en redes neuronales y las capacidades de razonamiento humano.

Fuente: Live Sciense


Loading comments...

Spelling error report

The following text will be sent to our editors: