Чат-бот для шпигунів: Microsoft запустила модель штучного інтелекту без підключення до Інтернету

Опубликовал
Вадим Карпусь

Microsoft створила генеративну модель штучного інтелекту на основі GPT-4, розроблену спеціально для спецслужб США. Вона працює без підключення до Інтернету.

Повідомляється, що це перший випадок, коли Microsoft розгорнула основну мовну модель у безпечному середовищі, розроблену, щоб дозволити розвідувальним службам аналізувати надсекретну інформацію без ризиків підключення, а також забезпечити безпечні розмови з чат-ботом, подібним до ChatGPT і Microsoft Copilot.

За даними Bloomberg, новий сервіс штучного інтелекту (який ще не має публічної назви) відповідає зростаючому інтересу розвідувальних агенцій до використання генеративного ШІ для обробки секретних даних, одночасно зменшуючи ризики витоку даних або спроб злому. ChatGPT зазвичай працює на хмарних серверах, що може спричинити ризики витоку та перехоплення даних. Тому минулого року ЦРУ оголосило про свій план створити сервіс, схожий на ChatGPT, але це рішення Microsoft є окремим проєктом.

Вільям Чаппел, головний технічний директор Microsoft зі стратегічних місій і технологій, зазначив, що розробка нової системи включала 18 місяців роботи над модифікацією суперкомп’ютера ШІ в Айові. Модифікована модель GPT-4 призначена для читання файлів, наданих користувачами, але не має доступу до відкритого Інтернету.

Онлайн-курс "Excel та Power BI для аналізу даних" від robot_dreams.
Навчіться самостійно аналізувати й візуалізувати дані, знаходити зв’язки, розуміти кожен аспект отриманої інформації та перетворювати її на ефективні рішення.
Детальніше про курс

«Це перший раз, коли ми мали ізольовану версію — коли ізольована означає, що вона не підключена до Інтернету — і вона знаходиться в спеціальній мережі, доступ до якої має лише уряд США», — сказав Чаппелл.

Новий сервіс був активований в четвер і тепер доступний приблизно для 10 тис. осіб з розвідувальної спільноти. Він готовий до подальшого тестування відповідними агентствами. За словами Чаппелла, зараз він «відповідає на запитання».

Одним із серйозних недоліків використання GPT-4 для аналізу важливих даних є те, що він потенційно може створювати неточні підсумки, робити неточні висновки або надавати неточну інформацію своїм користувачам. Оскільки навчені нейронні мережі ШІ не є базами даних і працюють на основі статистичних ймовірностей, вони можуть створювати погані фактичні ресурси, якщо їх не доповнюють зовнішнім доступом до інформації з іншого джерела за допомогою такої техніки, як розширена пошукова генерація. Враховуючи це обмеження, цілком можливо, що GPT-4 може потенційно дезінформувати або ввести в оману американські спецслужби, якщо не використовувати його належним чином.

Джерело: arstechnica

Disqus Comments Loading...