OpenAI использует внутреннюю версию ChatGPT для выявления сотрудников, которые могут передавать конфиденциальную информацию журналистам. Инструмент анализирует корпоративные коммуникации и сопоставляет их с обнародованными материалами в медиа. По этому поводу в Reddit уже идут дискуссии.
По данным New York Post, после выхода статьи о внутренних процессах компании служба безопасности OpenAI загружает ее текст в специально настроенную версию ChatGPT. Эта система имеет доступ к внутренним документам, переписке сотрудников в Slack и электронной почты. Алгоритм анализирует содержание публикации, определяет, какие именно файлы или каналы могли содержать соответствующую информацию, и устанавливает круг работников, имевших к ней доступ.
OpenAI uses internal version of ChatGPT to identify staffers who leak information: report
byu/EchoOfOppenheimer inOpenAI
Источник, знакомый с процессом, отметил, что инструмент способен учитывать контекст, а не только прямые текстовые совпадения, что позволяет находить возможные утечки даже в случаях перефразирования. По информации WinBuzzer, система может сокращать расследование с нескольких недель до минут. В то же время публичных подтверждений того, что кто-то был освобожден именно благодаря этому механизму, пока нет.
«Ирония обнаружена. Разве это не тот тип неправильного использования ИИ, о котором мы предупреждали?» — спрашивает пользователь Invalid_Ad4412.
Практика появилась на фоне серии утечек о внутренних проектах OpenAI, в частности инициатив под названиями «Q*» и «Project Strawberry». Компания традиционно уделяет повышенное внимание защите интеллектуальной собственности, включая вес моделей и другие технические наработки, которые могут представлять коммерческую ценность. OpenAI не является исключением для Кремниевой долины: жесткую политику конфиденциальности практикуют также Apple, Tesla и Anthropic. Такие компании стремятся минимизировать риски утечки данных о разработках, стратегиях и новых продуктах. В прошлом OpenAI и другие лаборатории искусственного интеллекта увольняли исследователей за ненадлежащее распространение внутренней информации.
«Обнаружение утечек и их предотвращение не является новой темой, это существовало задолго до OpenAI» — справедливо написал редатор Logical-Ad877.
В то же время в последние месяцы OpenAI и Anthropic заявляли об усилении механизмов защиты обличителей, которые сообщают о потенциальные нарушения или риски для безопасности. Это создает сложный баланс между внутренним контролем и декларируемой открытостью к сигналам о проблемах.
«Если у них есть внутренняя версия, которая не галлюцинирует и дает правильные ответы 100% времени вместо 80%, почему они не выпускают ее публично? Они фактически гарантируют ложные обвинения. Ужасно», — замечает ChatModulator9.
Официальных подробных комментариев относительно технической архитектуры системы или ее масштабов компания не обнародовала. Однако сам факт использования собственной языковой модели для внутренних расследований свидетельствует о том, что OpenAI интегрирует генеративный ИИ не только в продукты для клиентов, но и в процессы корпоративной безопасности.
Менеджер активів про OpenAI: “Я бачив руйнування багатьох компаній, у цієї є всі ознаки”
Источник: The Information



Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: