Noticias Ciencia y espacio 06-06-2025 a las 11:54 comment views icon

FutureHouse presenta AI ether0 — un LLM especializado en tareas científicas

author avatar

Oleksandr Fedotkin

Autor de noticias y artículos

FutureHouse presenta AI ether0 — un LLM especializado en tareas científicas

La startup FutureHouse, con sede en San Francisco, ha presentado el LLM ether0 dirigido a la investigación científica.

Los desarrolladores, dirigidos por Sam Rodríguez llama a éter0 el primer modelo de razonamiento «verdadero diseñado específicamente para resolver problemas científicos. Es gran modelo lingüístico, diseñado para resolver problemas en el campo de la química. El modelo se entrenó superando una prueba con unas 500.000 preguntas. 

Siguiendo instrucciones en inglés sencillo, ether0 es capaz de generar fórmulas químicas, incluidas las adecuadas para la creación de productos farmacéuticos. LLM es de código abierto y de dominio público.

A diferencia de modelos especializados, ether0 puede seguir su propio razonamiento en inglés sencillo y puede responder a preguntas complejas que normalmente requieren un razonamiento más profundo.

Según un químico de Universidad de Jena (Alemania) Kevin Jablonka, que ya ha probado ether0, afirma que el modelo es capaz de extraer conclusiones significativas sobre propiedades químicas para las que no ha recibido una formación especial. 

FutureHouse se fundó en 2023 como una organización sin ánimo de lucro respaldada por el ex CEO de Google Eric Schmidt con la misión de acelerar el proceso científico mediante el uso de IA. El año pasado, la empresa lanzó un revisor avanzado de literatura científica y una plataforma de agentes de IA.

Estos agentes toman información de la literatura científica y utilizan herramientas del campo de la química molecular para analizar datos y responder a preguntas sobre el desarrollo de fármacos. Sin embargo, como la mayoría de los LLM, los agentes son fundamentalmente limitada por la cantidad de información en química, que está disponible en línea.

Para seguir mejorando, los científicos han recurrido a modelos de razonamiento como el chino DeepSeek-R1. Estos modelos son capaces de «reflexionar» y demostrar el curso de su propio razonamiento que les lleva a una respuesta concreta. Los investigadores de FutureHouse tomaron un LLM relativamente pequeño de la startup francesa Mistral AI, que es unas 25 veces más pequeño que DeepSeek-R1 — lo suficientemente compacto como para funcionar en un ordenador portátil.

En lugar de entrenar al modelo a partir de libros de texto de química y artículos científicos, los investigadores decidieron que podría aprender haciendo pruebas. Para ello, recopilaron resultados de laboratorio de 45 artículos científicos sobre química, incluidos los relativos a la solubilidad molecular y el olor. Así se crearon 5.790 preguntas.

El modelo básico ether0 fue entrenado para pensar en voz alta y se le pidió que leer las decisiones incorrectas y las cadenas de razonamiento generadas por DeepSeek-R1. Cada una de las siete versiones del modelo intentaba resolver un subconjunto específico de preguntas de química, recibiendo recompensas de refuerzo por las respuestas correctas. A continuación, los investigadores combinaron las cadenas de razonamiento de estos modelos especializados en un modelo universal. 

El rendimiento de ether0 se evaluó utilizando una serie de preguntas adicionales, algunas de las cuales no estaban relacionadas con los temas tratados en el curso de formación. En casi todas las áreas, ether0 superó a modelos como OpenAI GPT-4.1 y DeepSeek-R1.

¿Ha empezado? Los modelos de IA más inteligentes de OpenAI se niegan a apagarse por orden directa

Fuente: Nature



Spelling error report

The following text will be sent to our editors: