Топовые ИИ-исследователи говорят, что искусственный интеллект создает «риски вымирания», подобные ядерной войне

Опубликовал
Катерина Даньшина

С появлением ChatGPT, Bard и других крупных языковых моделей (LLM) лидеры технологической отрасли регулярно говорят о негативных последствиях, к которым может привести использование ИИ. Более того, в новом письме топовые исследователи технологии заявляют, что искусственный интеллект создает «риски вымирания», подобные тем, что могут вызвать пандемии или даже ядерные войны.

Уменьшение этих рисков должно стать «глобальным приоритетом» человечества, уверены подписанты нового письма, среди которых гендиректор OpenAI Сэм Альтман, руководитель Google DeepMind Демис Хассабис, а также исследователи и лауреаты Премии Тюринга 2018 года за работу над ИИ, Джеффри Хинтон и Йошуа Бенгио, которых многие считают «крестными родителями современного искусственного интеллекта».

Интересно, что само заявление состоит всего из 22 слов — якобы для того, чтобы «избежать разногласий между подписантами». В еще одном открытом письме, опубликованном в марте, Илон Маск, Стив Возняк и более 1000 других экспертов призвали приостановить разработку технологии на полгода.

В настоящее время риски ИИ в основном связаны с этичностью, дезинформацией, авторским правом и потенциальным влиянием на рабочие места. Однако многие эксперты указывают на быстрое совершенствование таких систем, как большие языковые модели, в качестве доказательства будущих достижений искусственного интеллекта, и утверждают, что когда системы ИИ достигнут определенного уровня сложности, контролировать их действия будет невозможно.

Англійська для IT від Englishdom.
В межах курсу можна освоїти ключові ІТ-теми та почати без проблем говорити з іноземними колегами.
Дійзнайтеся більше

Во многих странах уже предпринимают попытки запретить или ограничить использование больших языковых моделей. Президент США Джо Байден недавно заявил, что необходимо «выяснить, опасен ли ИИ‎», добавив, что технические компании обязаны убедиться, что их продукты безопасны, прежде чем обнародовать их. На недавней встрече в Белом доме Сэм Альтман сам призвал законодателей к регулированию ИИ из-за потенциальных рисков.

Disqus Comments Loading...