Риски превышают выгоды. Работники OpenAI и Google DeepMind призывают усилить контроль за ИИ

Опубликовал
Ігор Шелудченко

Бывшие и нынешние работники OpenAI и Google DeepMind подписали открытое письмо с требованиями усиления мер безопасности в развитии искусственного интеллекта.

В открытом письме эксперты призывают к созданию независимых регуляторных органов и установлению строгих стандартов для контроля за развитием и внедрением ИИ-технологий. Они отмечают, что без надлежащего контроля и регуляции потенциальные риски превысят выгоды, которые могут принести эти технологии.

Подписанты выражают обеспокоенность по поводу возможных злоупотреблений и опасностей, связанных с неконтролируемым развитием ИИ. Они подчеркивают важность междисциплинарного сотрудничества для обеспечения безопасного и этического использования ИИ-технологий, а также необходимость прозрачности и подотчетности в этой области.

Работники выдвигают следующие требования к передовым компаниям в области ИИ:

Онлайн-курс "Tableau для аналізу та візуалізації даних" від robot_dreams.
Навчіться створювати інтерактивні візуалізації та працювати із широким спектром аналізу даних навіть без уміння писати код завдяки функціоналу Tableau.
Детальніше про курс
  • Не заключать соглашения, запрещающие критику компании по поводу рисков, и не преследовать работников за такую критику.
  • Обеспечить возможность донести предостережения (в том числе и анонимно) до совета директоров, регуляторов и других организаций.
  • Формировать культуру открытого диалога и позволять работникам публичные высказывания при условии защиты коммерческой тайны.
  • Не применять санкции в отношении работников, которые публично делятся конфиденциальной информацией о рисках после того, как другие способы донести свое беспокойство не дали результата.

Открытое письмо уже получило широкую поддержку в академических кругах и среди общественных организаций, занимающихся вопросами этики и безопасности в технологическом секторе.

OpenAI отреагировала на обращение, заявив, что уже имеет каналы для информирования о возможных рисках ИИ. В частности, это «горячая линия». Также компания не выпускает новые технологии, пока не будут внедрены соответствующие меры безопасности.

Стоит отметить, что ИИ-компании, в том числе и OpenAI, неоднократно применяли агрессивные тактики для предотвращения свободного высказывания работников. По информации Vox, на прошлой неделе стало известно, что OpenAI заставляла сотрудников, покидающих компанию, подписывать чрезвычайно ограничительные документы о запрете на критику и неразглашение, иначе они теряли все свои начисленные акции. Генеральный директор OpenAI Сэм Альтман извинился после этого сообщения, заявив, что изменит процедуры увольнения.

Письмо появилось вскоре после того, как OpenAI покинули два ведущих сотрудника — соучредитель Илья Суцкевер и ключевой исследователь безопасности Ян Лейке. После увольнения Лейке заявил, что OpenAI отказалась от культуры безопасности в пользу «блестящих продуктов».

AGI — не за горами, считают эксперты

В то же время специалисты в сфере искусственного интеллекта выражают обеспокоенность темпами и вектором развития ИИ.

Например, бывший инженер OpenAI Леопольд Ашенбреннер написал документ аж на 165 страниц о том, что в 2027 мы будем иметь AGI (интеллект, равный человеческому), который достаточно быстро дотренирует сам себя до уровня ASI (интеллект, превосходящий человеческий). Главный риск по мнению Леопольда в том, что ИИ сейчас как вторая ядерная бомба и военные уже очень хотят получить (и получают) доступ к ИИ.

Disqus Comments Loading...