У США проводять публічні опитування щодо штучного інтелекту – на їх основі можуть розробити правила регулювання для ChatGPT та подібних систем

Опубликовал
Катерина Даньшина

Національне управління телекомунікацій та інформації США (NTIA) збирає публічні коментарі щодо роботи штучного інтелекту та способів його регулювання – аби надалі забезпечити функціонування цих моделей «без шкоди».

У першу чергу NTIA цікавиться методами перевірки безпеки ШІ та обсягом доступу до даних, необхідного для оцінки систем, а також тим, чи можуть знадобитися різні стратегії регулювання для окремих галузей (наприклад, освіти, медицини тощо).

Управління прийматиме коментарі до 10 червня, і вважає, що правила необхідно вводити якомога скоріше, оскільки «зростає кількість інцидентів», коли штучний інтелект завдає шкоди.

Дійсно, генеративні ШІ-моделі вже були пов’язані з витоками інформації (заголовки чужих розмов в ChatGPT) і порушенням авторських прав (художники подали позов проти творців Stable Diffusion, Midjourney та DreamUp). До того ж уряди побоюються, що технологію будуть використовувати для автоматизованої дезінформації та кампаній зловмисного програмного забезпечення. Є також деякі питання щодо точності та упередженості систем

Онлайн-курс "Комунікаційний менеджер" від Skvot.
Ви отримаєте скіли комунікації, сформуєте CV та розробите власну one page strategy. Для своєї карʼєри та успішного масштабування бренду.
Програма курсу і реєстрація

Група експертів зі штучного інтелекту та керівників галузі у відкритому листі закликали до шестимісячної паузи у розробках систем штучного інтелекту, потужніших, ніж нещодавно запущений OpenAI GPT-4 – аби розв’язати питання з безпекою, етикою та регулюванням систем (хоча дехто, схоже, прагнув з цього отримати особливий зиск і знизити конкуренцію).

Білий дім ще не має остаточної позиції щодо ризиків, пов’язаних зі ШІ. Президент США Джо Байден обговорював цю тему з радниками минулого тижня, але сказав, що «ще занадто рано з’ясовувати, чи є ця технологія небезпечною». Але дії NTIA демонструють, що в країні можуть розглядати ШІ, як серйозну проблему.

Раніше італійська служба захисту даних наказала OpenAI тимчасово припинити обробку даних італійських користувачів на тлі розслідування щодо ймовірного порушення суворих європейських правил конфіденційності. Також ми розповідали, як в інших країнах планують контролювати ШІ-технології:

Disqus Comments Loading...