
Розробник ChatGPT у коментарі Financial Times заявив, що має докази того, що китайська DeepSeek використала дані OpenAI для навчання конкурентної моделі штучного інтелекту.
Йдеться про присутність ознак «дистиляції» — техніки, яку розробники застосовують для підвищення ефективності менших моделей шляхом використання результатів більших і потужніших версій. Дистиляція є звичною практикою для галузі, утім, зважаючи на те, що DeepSeek могла використати її для створення конкурентки, це порушує умови обслуговування OpenAI.
«Проблема у тому, що модель створена для власних цілей», — сказала у коментарі виданню людина, близька до OpenAI.
В умовах обслуговування OpenAI зазначено, що користувачі не можуть «копіювати» будь-який з сервісів компанії або «використовувати результати для розробки моделей, які конкурують з OpenAI».
Випуск останньої моделі міркування DeepSeek сколихнув ринок штучного інтелекту, обваливши акції ключових компаній у галузі. Лише Nvidia зазнала падіння на понад 17% і втратила майже $600 млрд за день — у вівторок ситуація дещо стабілізувалась і акції компанії наростили 9%.
Повідомляється, що OpenAI разом зі своїм ключовим партнером Microsoft «дослідили акаунти, які ймовірно належали DeepSeek і використовувались минулої осені, та заблокували їх за підозрою у дистиляції».
Раніше підприємець Девід Сакс, відповідальний за розвиток штучного інтелекту в адміністрації Дональда Трампа, заявив, що «крадіжка даних цілком можлива».
«У штучному інтелекті є техніка, яка називається дистиляцією …коли одна модель вчиться в іншої моделі й ніби висмоктує знання з материнської моделі», — говорив Сакс у коментарі журналістам. «Є суттєві докази того, що DeepSeek зробила те саме, вилучивши знання з моделей OpenAI, і не думаю, що OpenAI дуже цим задоволена».
Експерти кажуть, що для менших китайських та американських лабораторій ШІ крадіжка навчальних даних у таких компаній, як OpenAI, є звичною справою — оскільки повноцінний процес навчання потребує чимало вливань. Нагадаємо, що DeepSeek заявляла, що використала кластер з 2000 відеокарт Nvidia H800 і загалом $5,6 млн на навчання моделі V3 з 671 млрд параметрів — тоді як навчання лише GPT-4 обійшлось у $100 млн. При цьому підозри у крадіжці даних з’явились ще на момент запуску китайської моделі, коли та сама стверджувала, що «вона і є ChatGPT».
«Ми знаємо, що китайські компанії — та інші — постійно намагаються скопіювати моделі провідних американських компаній зі штучного інтелекту», — пише OpenAI у своїй останній заяві. «Ми вживаємо контрзаходів, щоб захистити нашу інтелектуальну власність».
Наразі OpenAI й сама бореться зі звинуваченнями щодо порушень авторських прав з боку видань і творців контенту — включаючи позов від The New York Times, який стверджує, що компанія Сема Альтмана без дозволу тренує свої моделі на їхніх статтях.
Favbet Tech – це ІТ-компанія зі 100% украінською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологіи та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: