Дослідники OpenAI повідомили раду директорів про «небезпечний» прорив у технологіях штучного інтелекту напередодні звільнення Альтмана, — Reuters

Опубликовал
Юрій Орос

Напередодні вигнання генерального директора OpenAI Сема Альтмана (на чотири дні) кілька штатних дослідників написали листа до ради директорів, попередивши про потужне відкриття в технологіях штучного інтелекту, яке, за їхніми словами, може загрожувати людству, розповіли Reuters двоє анонімних джерел.

За словами співрозмовників, лист, про який раніше не повідомлялося, і новий алгоритм ШІ стали ключовими подіями перед тим, як рада директорів звільнила Альтмана. До його повернення у вівторок більшість з 700+ співробітників погрожували звільнитися і приєднатися до Microsoft на знак солідарності зі своїм звільненим лідером.

Джерела посилаються на лист як на один із чинників серед довшого списку претензій ради директорів, що призвели до звільнення Альтмана, серед яких були побоювання щодо комерціалізації досягнень ще до розуміння наслідків. Reuters не змогло ознайомитися з копією листа.

У внутрішньому повідомленні для співробітників було визнано, що проєкт під назвою Q* і лист до правління були написані до подій вихідних, сказав один зі співробітників. Дехто в OpenAI вважає, що Q* (вимовляється як Q-Star) може стати проривом у пошуках стартапом так званого штучного загального інтелекту (AGI). OpenAI визначає AGI як автономні системи, які перевершують людину у виконанні більшості економічно цінних завдань.

Маючи величезні обчислювальні ресурси, нова модель змогла вирішити певні математичні завдання, сказав співрозмовник на умовах анонімності, оскільки він не був уповноважений говорити від імені компанії. Успішне проходження таких тестів вселило в дослідників оптимізм щодо майбутніх успіхів Q*.

Дослідники вважають математику межею розвитку генеративного ШІ. Наразі генеративний штучний інтелект добре справляється з письмом і перекладом, статистично передбачаючи наступне слово, а відповіді на одне й те саме запитання можуть сильно відрізнятися. Але завоювання здатності до математики, де є лише одна правильна відповідь, означає, що ШІ матиме більші можливості для міркувань, подібні до людського інтелекту. Це може бути застосовано, наприклад, у нових наукових дослідженнях, вважають дослідники ШІ.

На відміну від калькулятора, який може виконувати обмежену кількість операцій, AGI може узагальнювати, вчитися й осмислювати. У своєму листі до ради дослідники підкреслили досконалість ШІ та його потенційну небезпеку, повідомили джерела, не уточнюючи, про які саме проблеми безпеки йдеться в листі. Серед комп’ютерних науковців вже давно точаться дискусії про небезпеку, яку становлять високоінтелектуальні машини, наприклад, чи можуть вони вирішити, що в їхніх інтересах є знищення людства. Класичний сюжет науково-фантастичної літератури.

Disqus Comments Loading...