Новини Технології 17.05.2023 о 11:17

Глава OpenAI Сем Альтман запропонував створити агенцію контролю над ШІ та видавати ліцензії на розробку

https://itc.ua/wp-content/uploads/2022/08/photo_2022-08-08_12-53-42-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/08/photo_2022-08-08_12-53-42-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/08/photo_2022-08-08_12-53-42-96x96.jpg

Андрій Русанов

Автор сайту ITC.ua

Глава OpenAI Сем Альтман запропонував створити агенцію контролю над ШІ та видавати ліцензії на розробку

На слуханнях у Сенаті США CEO OpenAI Сем Альтман запропонував створити агенцію контролю над моделями ШІ, які працюють «вище певного рівня можливостей». Агентство має видавати ліцензії на передові розробки в галузі штучного інтелекту та забирати їх, якщо компанії порушують встановлені правила.

Курс
ПРОДЖЕКТ-МЕНЕДЖМЕНТ В IT
Навчіться керувати проектами в галузі IT та ефективно використовувати Agile-методології для досягнення максимальних результатів.
Більше про курс
pic

Пропозицію Альтман висловив ​​у відповідь на побоювання сенаторів з приводу надмірного ентузіазму, який виявляють представники технологічної галузі до технології ШІ – форсування розробок могло б призвести до неконтрольованих наслідків. Він погодився із зауваженням сенаторів, що агентство могло б діяти подібно до Комісії з ядерного регулювання, яка видає ліцензії на атомні електростанції та суворо контролює їхню експлуатацію.

Альтман підтвердив, що ШІ справді може вийти з-під контролю:

«Я думаю, якщо з цією технологією щось піде не так, воно може піти зовсім не так. Ми хочемо голосно заявити про це та працювати з урядом, щоб цього не сталося».

Мовна модель ШІ від OpenAI, що лежить в основі чат-бота GhatGPT, стала однією з найуспішніших і багато в чому спровокувала бум навколо технологій штучного інтелекту наприкінці минулого року. Початкове захоплення спільноти у багатьох її представників змінилося побоюваннями. Тисячі відомих діячів галузі та відомих особистостей підписали відкритий лист про тимчасове обмеження розробки ШІ до створення правил його роботи.

Ілон Маск та понад 1000 експертів підписали відкритий лист про небезпеку просунутих ШІ – пропонується мораторій на розробку та регулювання

Джерело: Insider


Завантаження коментарів...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: