Рубрики НовиниШІ

OpenAI запустила кастомний ChatGPT, який слідкує за листуванням працівників

Опублікував Андрій Шадрін

OpenAI використовує внутрішню версію ChatGPT для виявлення співробітників, які можуть передавати конфіденційну інформацію журналістам. Інструмент аналізує корпоративні комунікації та зіставляє їх із оприлюдненими матеріалами в медіа. З цього приводу в Reddit вже тривають дискусії.

За даними New York Post, після виходу статті про внутрішні процеси компанії служба безпеки OpenAI завантажує її текст у спеціально налаштовану версію ChatGPT. Ця система має доступ до внутрішніх документів, листування співробітників у Slack та електронної пошти. Алгоритм аналізує зміст публікації, визначає, які саме файли або канали могли містити відповідну інформацію, і встановлює коло працівників, що мали до неї доступ.

Джерело, знайоме з процесом, зазначило, що інструмент здатен враховувати контекст, а не лише прямі текстові збіги, що дозволяє знаходити можливі витоки навіть у випадках перефразування. За інформацією WinBuzzer, система може скорочувати розслідування з кількох тижнів до хвилин. Водночас публічних підтверджень того, що когось було звільнено саме завдяки цьому механізму, поки що немає.

“Іронія виявлена. Хіба це не саме той тип неправильного використання ШІ, про який ми попереджали?” — питає користувач Invalid_Ad4412.

Практика з’явилася на тлі серії витоків щодо внутрішніх проєктів OpenAI, зокрема ініціатив під назвами “Q*” та “Project Strawberry”. Компанія традиційно приділяє підвищену увагу захисту інтелектуальної власності, включно з вагами моделей та іншими технічними напрацюваннями, які можуть становити комерційну цінність. OpenAI не є винятком для Кремнієвої долини: жорстку політику конфіденційності практикують також Apple, Tesla та Anthropic. Такі компанії прагнуть мінімізувати ризики витоку даних про розробки, стратегії та нові продукти. У минулому OpenAI та інші лабораторії штучного інтелекту звільняли дослідників за неналежне поширення внутрішньої інформації.

“Виявлення витоків і їх запобігання не є новою темою, це існувало задовго до OpenAI” — слушно написав реддітор Logical-Ad877.

Водночас останніми місяцями OpenAI та Anthropic заявляли про посилення механізмів захисту викривачів, які повідомляють про потенційні порушення або ризики для безпеки ШІ. Це створює складний баланс між внутрішнім контролем і декларованою відкритістю до сигналів про проблеми.

“Якщо у них є внутрішня версія, яка не галюцинує і дає правильні відповіді 100% часу замість 80%, чому вони не випускають її публічно? Вони фактично гарантують хибні обвинувачення. Жахливо”,  — зауважує ChatModulator9.

Офіційних детальних коментарів щодо технічної архітектури системи або її масштабів компанія не оприлюднювала. Проте сам факт використання власної мовної моделі для внутрішніх розслідувань свідчить про те, що OpenAI інтегрує генеративний ШІ не лише в продукти для клієнтів, а й у процеси корпоративної безпеки.

Джерело: The Information

Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.

Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.