Новости ИИ 22.10.2025 comment views icon

Прекратить разработку искусственного суперинтеллекта: Стив Возняк, Ричард Брэнсон, принц Гарри и сотни известных людей подписали открытое письмо

author avatar

Олександр Федоткін

Автор новостей и статей

Припинити розробку штучного суперінтелекту: Стів Возняк, Річард Бренсон, принц Гаррі та сотні відомих людей підписали відкритого листа

Сотни известных людей, включая разработчиков первых версий ИИ, подписали письмо, призывающее отказаться от разработки так называемого общего искусственного интеллекта.

Письмо под названием «Заявление о сверхразуме» призывает к запрету разработки общего ИИ, которая не должна быть снята до момента достижения широкого научного консенсуса относительно того, что совершенствование искусственного интеллекта будет осуществляться безопасно и контролируемо при широкой общественной поддержке. В письме приводятся данные недавнего опроса Института исследований искусственного интеллекта (FLI).

По данным опроса, только 5% граждан США поддерживают быструю и нерегулируемую разработку инновационных инструментов на базе ИИ. Более 73% опрошенных поддержали внедрение жесткого регулирования ИИ. Около 64% респондентов заявили, что пока не будет доказано, что общий искусственный интеллект будет безопасным и контролируемым, его разработку допускать нельзя.

Среди подписантов письма: соучредитель Apple Стив Возняк, основатель Virgin Ричард Брэнсон, представители СМИ, в частности, ведущий «War Room» Стив Бэннон и ведущий ток-шоу Гленн Бек, а также артисты Джозеф Гордон-Левитт, принц Гарри и Меган Маркл, отставной адмирал ВМС США Майк Маллен, знимавший должность председателя Объединенного комитета начальников штабов при бывших президентах Джордже Буше-младшем и Бараке Обаме, советник Папы Римского по вопросам искусственного интеллекта монах Паоло Бенанти, большой консорциум экспертов и ученых в области искусственного интеллекта, включая лауреата премии Тьюринга Йошуа Бенджио и лауреата Нобелевской премии Джеффри Хинтона. 

«Системы искусственного интеллекта нового поколения смогут превзойти большинство людей в решении большинства когнитивных задач всего за несколько лет. Эти достижения могут открыть пути решения важнейших глобальных проблем, но они также несут в себе значительные риски. Чтобы безопасно двигаться к сверхразуму, мы должны научно определить, как проектировать системы ИИ, которые принципиально неспособны нанести вред людям, будь то из-за несоответствия или злонамеренного использования. Мы также должны обеспечить, чтобы общественность имела значительно большее влияние на решения, которые определят наше общее будущее», — подчеркнул профессор Монреальского университета Йошуа Бенджио. 

В письме не отмечается, что ИИ необязательно достигать уровня общего искусственного интеллекта, чтобы вызвать массовый хаос. Сейчас генеративные модели ИИ, далекие от уровня общего искусственного интеллекта, изменяют процессы обучения, наполняют интернет большими объемами дезинформации и мусорного контента и провоцируют многочисленные психические расстройства у пользователей.

Подписывать письмо отказались гендиректор OpenAI Сэм Альтман, соучредитель DeepMind и гендиректор Microsoft по ИИ Мустафа Сулейман, гендиректор Anthropic Дарио Амодеи, руководитель Белого дома в сфере ИИ и криптовалют Дэвид Сакс, основатель xAI Илон Маск. 

«Многие хотят мощных инструментов ИИ для науки, медицины, повышения производительности и других целей. Но путь, по которому идут корпорации, занимающиеся ИИ и стремящиеся к созданию ИИ, превосходящего человека и призванного заменить людей, совершенно не соответствует потребностям общественности, мнению ученых о безопасности и мнению религиозных лидеров о правильности. Никто из тех, кто разрабатывает эти системы искусственного интеллекта, не спрашивал человечество, приемлемо ли это. Мы спрашивали — и получили ответ, что это неприемлемо», — отмечает соучредитель FLI Энтони Агирре.

Источник: Futurism

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: