Noticias Tecnologías 05-23-2025 a las 16:59 comment views icon

DOGE Musk utilizó «la IA de otro» para controlar a funcionarios — Llama 2 de Meta, no de Grok

author avatar

Margarita Yuzyak

Redactor de noticias

DOGE Musk utilizó «la IA de otro» para controlar a funcionarios — Llama 2 de Meta, no de Grok

El equipo de DOGE, dirigido por Elon Musk, no analizó las respuestas de los empleados federales con su propio modelo Grok. Tomaron prestado «Llama 2 de Meta.

Wiredrefiriéndose a documentos internos, escribe sobre las reacciones a la escandalosa carta de elección. Se trata de aquella en la que se decía a los empleados federales que o se mantenían fieles a la nueva política o dimitían. Para ello, la DOGE protestó localmente y lanzó Llama 2para evitar que se filtraran los datos. El modelo clasificó las respuestas al correo electrónico «Fork in the Road» (Bifurcación en el camino), que estaba estructurado como se parece a la recibida por los empleados de X (Twitter). A los empleados de la red social se les ofreció una opción: apoyar las nuevas normas para volver a las oficinas o renunciar.

Los medios de comunicación afirmaron que fue Llama 2 quien analizó las respuestas — para valorar quién se quedaba y quién se iba. El proceso estaba localizado, pero no fue suficiente para disipar la preocupación por la privacidad de los empleados. Todavía se hacían referencias a cómo DOGE buscó funcionarios del gobierno hostiles contra Trump gracias a la IA.

¿Por qué no Grok?

El análisis tuvo lugar en enero, pero en aquel momento Grok aún no estaba disponible en formato abierto — solo como sistema propietario y cerrado. Hace poco se supo que Microsoft está empezando a alojar Grok 3 de xAI en Azure. Así que en el futuro, es probable que DOGE utilice las herramientas de Mask con más frecuencia.

Sin embargo, esto es exactamente lo que preocupa a los legisladores. En abril, más de 40 congresistas escribieron al director de la Oficina de Gestión y Presupuesto exigiendo una investigación sobre las acciones de DOGE. La carta mencionaba los posibles conflictos de intereses de Musk, el riesgo de filtraciones y el uso poco transparente de modelos de inteligencia artificial.

Otros experimentos DOGE con IA

Además de Llama 2, DOGE experimentó con otras herramientas. En concreto, el chatbot GSAi (basado en los modelos Antrópico y Meta), AutoRIF (un sistema que podría ayudar con las reducciones masivas) y Grok-2 como asistente interno.

Otra parte de la indignación de los legisladores se refería a un nuevo tipo de carta que los empleados empezaron a recibir tras «Fork in the Road» la bifurcación del camino. Se les pedía que enviaran hasta cinco puntos sobre sus logros cada semana. A los funcionarios les preocupaba que estos correos electrónicos también se introdujeran en los sistemas de IA y pudieran contener datos sensibles. Aunque no hay pruebas de que Llama 2 se utilizara para analizar los nuevos correos electrónicos, algunos empleados creen que el código podría haberse reutilizado.

Llama 2 — no es ajeno a los escándalos

El pasado otoño se supo que el ejército chino utilizaba Llama 2 como base para su modelo de IA. Meta declaró que se trataba de un uso «no autorizado» de una versión obsoleta, y a continuación abrió el acceso a sus modelos para los programas de seguridad nacional estadounidenses. Y fue precisamente gracias a la apertura de Llama 2 que el gobierno pudo utilizarlo sin el consentimiento explícito de Meta.

Y teniendo en cuenta todo lo anterior, los funcionarios tienen opiniones encontradas. Por ejemplo, la dirección de la Oficina de Administración y Presupuesto parece leal a la DOGE. Pero los legisladores ven el uso de la IA en el análisis de la mano de obra sin transparencia y seguridad como un desastre potencial. Los modelos generativos suelen cometer errores y tener sesgos, por lo que la tecnología sencillamente aún no está preparada para tomar decisiones de alto riesgo.

Fuente: Ars Technica



Spelling error report

The following text will be sent to our editors: