В США проводят публичный опрос по искусственному интеллекту – на его основе могут разработать правила регулирования для ChatGPT и подобных систем

Опубликовал
Катерина Даньшина

Национальное управление телекоммуникаций и информации США (NTIA) собирает публичные комментарии относительно работы искусственного интеллекта и способов его регулирования – чтобы в дальнейшем обеспечить функционирование этих моделей «без ущерба».

В первую очередь NTIA интересуется методами проверки безопасности ИИ и объемом доступа к данным, необходимым для оценки систем, а также тем, могут ли понадобиться разные стратегии регулирования для отдельных отраслей (например, образования, медицины и т.п.).

Управление будет принимать комментарии до 10 июня, и считает, что правила необходимо вводить как можно скорее, поскольку «растет количество инцидентов», когда искусственный интеллект наносит ущерб.

Действительно, генеративные ИИ-модели уже были связаны с утечками информации (заголовки чужих разговоров в ChatGPT) и нарушением авторских прав (художники подали иск против создателей Stable Diffusion, Midjourney и DreamUp). К тому же, правительства опасаются, что технологию будут использовать для автоматизированной дезинформации и кампаний вредоносного программного обеспечения. Есть также некоторые вопросы относительно точности и предвзятости систем

Курс Fullstack Web Development від Mate academy.
Стань універсальним розробником, який може створювати веб-рішення з нуля.
Дізнатись про курс

Группа экспертов по искусственному интеллекту и руководители отрасли в открытом письме призвали к шестимесячной паузе в разработках систем искусственного интеллекта, более мощных, чем недавно запущенный OpenAI GPT-4 – чтобы решить вопросы с безопасностью, этикой и регулированием систем (хотя некоторые, похоже, стремились из этого получить особую выгоду и снизить конкуренцию).

У Белого дома еще нет окончательной позиции по рискам, связанным с ИИ. Президент США Джо Байден обсуждал эту тему с советниками на прошлой неделе, но сказал, что «еще слишком рано выяснять, опасна ли эта технология». Но действия NTIA демонстрируют, что в стране могут рассматривать ИИ как серьезную проблему.

Ранее итальянская служба защиты данных приказала OpenAI временно прекратить обработку данных итальянских пользователей на фоне расследования вероятного нарушения строгих европейских правил конфиденциальности. Также мы рассказывали, как в других странах планируют контролировать ИИ-технологии:

Disqus Comments Loading...