
Команда DOGE, яку очолює Ілон Маск, аналізувала відповіді федеральних працівників не власною моделлю Grok. Вони «позичили» Llama 2 від Meta.
Wired, посилаючись на внутрішні документи, пише про реакції на скандальний лист з вибором. Йдеться про той, коли федералам казали: або залишаєтесь лояльними до нової політики, або звільняєтесь. DOGE для цього локально протестувала та запустила Llama 2, аби дані не потрапили в мережу. Модель сортувала відповіді листа «Fork in the Road», який за структурою нагадує той, що отримували співробітники X (Twitter). Працівникам соцмережі пропонували обрати: підтримати нові правила повернення в офіси чи піти з роботи.
ЗМІ стверджує, що саме Llama 2 аналізувала відповіді — щоб оцінити, хто залишився, а хто звільнився. Процес був локальним, але цього не вистачило, щоб розвіяти занепокоєння про конфіденційність серед співробітників. Та і раніше з’являлися згадки, як DOGE вишукувала вороже налаштованих урядовців проти Трампа завдяки ШІ.
Чому не Grok?
Аналіз відбувся у січні, але тоді Grok ще не був доступний у відкритому форматі — лише як власна, закрита система. Лише нещодавно стало відомо, що Microsoft починає хостити Grok 3 від xAI на Azure. Тож у майбутньому DOGE, імовірно, буде використовувати інструменти Маска частіше.
Однак саме це і турбує законодавців. У квітні понад 40 конгресменів звернулися до директора Адміністративно-бюджетного управління з вимогою розслідувати дії DOGE. У листі казали про потенційні конфлікти інтересів Маска, ризики витоків та непрозоре використання моделей штучного інтелекту.
Інші експерименти DOGE з ШІ
Крім Llama 2, DOGE експериментувала з низкою інших інструментів. Зокрема чат-ботом GSAi (на основі моделей Anthropic та Meta), AutoRIF (система, що могла допомагати з масовими скороченнями), а також з Grok-2 у вигляді внутрішнього помічника.
Окрема частина обурення законодавців стосувалася нового типу листів, які працівники почали отримувати вже після «Fork in the Road». Їх просили щотижня надсилати до п’яти пунктів про свої досягнення. Держслужбовці хвилювались, що ці листи теж потрапляють у ШІ-системи, і в них можуть бути конфіденційні дані. Хоча немає підтверджень, що Llama 2 використовували для аналізу нових листів, деякі працівники вважають, що код могли просто повторно використати.
Llama 2 — не новачок у скандалах
Минулої осені стало відомо, що китайські військові використали Llama 2 як основу для своєї AI-моделі. Meta заявила, що це було «несанкціоноване» використання застарілої версії, після чого відкрила доступ до своїх моделей для програм нацбезпеки США. І саме через відкритість Llama 2 уряд міг використати її без прямої згоди Meta.
І з огляду на все вищезгадане, посадовці мають неоднозначні думки. Наприклад, керівництво Адміністративно-бюджетного управління виглядає лояльним до DOGE. Але законодавці вважають потенційною катастрофою використання ШІ в аналізі персоналу без прозорості та безпеки. Генеративні моделі часто помиляються та мають упередження, а тому технологія просто ще не готова для рішень з високими ризиками.
Джерело: Ars Technica
Favbet Tech – це ІТ-компанія зі 100% украінською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологіи та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: