
Investigadores de la Universidad Hebrea de Jerusalén han utilizado el lenguaje Modelos de IA comparó los mecanismos de la inteligencia artificial y el cerebro humano en el procesamiento de la información lingüística.
La similitud de los mecanismos utilizados por modelos de inteligencia artificial y el cerebro humano al procesar la información del habla, puede contribuir aún más al desarrollo de dispositivos que ayuden a las personas a comunicarse.
Basándose en la forma en que el modelo lingüístico Whisper transforma en texto grabaciones de audio de conversaciones de personas reales, los investigadores pudieron reflejar con mayor precisión la actividad cerebral durante las conversaciones cotidianas que modelos lingüísticos tradicionales de IA, que codifican determinadas características las estructuras de la lengua, incluidos los sonidos fonéticos que forman las palabras y las partes de la oración.
En su lugar, Whisper se entrenó con grabaciones de audio y transcripciones de texto de conversaciones. A partir de los datos estadísticos obtenidos, el modelo lingüístico se entrenó por correspondencia para crear texto a partir de grabaciones de audio que nunca antes había escuchado. Así pues, este modelo utiliza únicamente los datos estadísticos obtenidos, y no las características de la estructura lingüística codificadas en el la configuración inicial. No obstante, los resultados de la investigación mostraron que Whisper seguía utilizando las características de la estructura lingüística después del entrenamiento.
El estudio también demostró cómo funcionan los grandes modelos lingüísticos de la inteligencia artificial. Sin embargo, los investigadores estaban más interesados en comprender cómo esos modelos iluminan la comprensión de los procesos relacionados con el habla en el cerebro humano.
«En realidad se refiere a la forma en que pensamos sobre la cognición Debemos pensar en la cognición en términos de este tipo de modelo», — explica Profesor asociado de la Universidad Hebrea y autor del estudio Ariel Goldstein.
En el estudio participaron 4 voluntarios con epilepsia que ya habían sido operados para implantarles electrodos que monitorizaran la función cerebral. Con su consentimiento, los investigadores grabaron las conversaciones de estos pacientes durante su estancia en el hospital. En total, se grabaron más de 100 horas de conversaciones de audio.
A cada uno de los participantes se le implantaron entre 104 y 255 electrodos para seguir la actividad cerebral. Como señala Ariel Goldstein, la mayoría de estos estudios se realizan en condiciones controladas de laboratorio, pero sus colegas expresaron su deseo de investigar la actividad cerebral en la vida real.
El científico subraya que existe un debate en curso sobre si se activan partes individuales del cerebro durante el proceso del habla y el reconocimiento del habla, o si el cerebro reacciona de forma más colectiva. Los investigadores sugieren que una parte del cerebro puede encargarse de reconocer los sonidos fonéticos, mientras que otra — participa en la interpretación del significado de las palabras. Al mismo tiempo, la tercera parte del cerebro procesa los movimientos y expresiones faciales que acompañan al habla.
Goldstein cree que las distintas áreas del cerebro trabajan de forma concertada, distribuyéndose entre sí diferentes tareas. Por ejemplo, áreas conocidas por su implicación en el procesamiento de sonidos, como la circunvolución temporal superior, mostraron una mayor actividad al procesar información auditiva, y áreas implicadas en el pensamiento de alto nivel, como la circunvolución frontal inferior, se mostraron más activas al comprender el significado del lenguaje.
Los investigadores también registraron que distintas áreas del cerebro se activaban secuencialmente. En concreto, el área responsable de la percepción de las palabras se activaba antes que el área responsable de su interpretación sin embargo, los investigadores también vieron claramente que las regiones cerebrales también se activaban en respuesta a acciones que los científicos pensaban que no estaban diseñadas para procesar.
Lo que sorprendió a los investigadores sobre el modelo lingüístico de la IA
Los investigadores utilizaron el 80% de las conversaciones de audio grabadas y las transcripciones correspondientes para entrenar el modelo lingüístico Whisper, que luego tuvo que aprender a crear un texto por sí solo el 20% restante de las grabaciones de audio.
El estudio se publicó en la revista Nature
Fuente: LiveScience
Spelling error report
The following text will be sent to our editors: