Новости Технологии 27.10.2023 в 10:13 comment views icon

OpenAI формирует команду для изучения «катастрофических» рисков искусственного интеллекта — включая ядерные угрозы

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Автор новостей

Команда будет отслеживать, прогнозировать и защищать от опасностей будущих систем ИИ — начиная с обмана людей и завершая созданием вредоносного кода.

OpenAI создает отдельную «группу готовности», которая будет изучать «катастрофические» риски искусственного интеллекта – специалистами будет руководить директор Центра развертывания машинного обучения MIT Александр Мадри, который присоединился к компании Сэма Альтмана в мае.

Главные обязанности команды — отслеживание, прогнозирование и защита от опасностей будущих систем искусственного интеллекта, начиная от их способности убеждать и обманывать людей (например, в фишинге) до создания вредоносного кода. В то же время некоторые категории кажутся несколько надуманными, например «химические, биологические, радиологические и ядерные» угрозы, которые, по мнению OpenAI, вызывают наибольшее беспокойство, когда это касается моделей ИИ.

Параллельно OpenAI собирает идеи сообщества по исследованиям рисков, с призом в размере $25 000 и возможностью работы в группе готовности для авторов 10 лучших заявок.

«Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (транскрипция), Voice (текст в речь), GPT-4V и DALLE·3, а вы были злоумышленником. Рассмотрим наиболее уникальное, но возможное, потенциально катастрофическое, неправильное использование модели», — говорится в одном из вопросов конкурсной работы.

В OpenAI говорят, что группа готовности сформулирует «политику развития с учетом рисков», подробно описывающую подход компании к созданию инструментов оценки модели искусственного интеллекта и мониторинга, действия компании по уменьшению рисков и ее структуру управления для надзора за процессом разработки модели.

«Мы верим, что у моделей искусственного интеллекта, которые существуют сейчас в своих самых совершенных вариациях, есть потенциал принести пользу всему человечеству. Но они также создают все более серьезные риски… Нужно убедиться, что у нас есть пониманиме и инфраструктура, необходимые для безопасности высокопроизводительных систем ИИ», — пишет OpenAI.

Генеральный директор OpenAI Сэм Альтман часто высказывал опасения, что ИИ «может привести к вымиранию человечества», а в мае вместе с другими исследователями искусственного интеллекта опубликовал заявление из 22 слов о том, что «уменьшение риска вымирания из-за искусственного интеллекта должно быть глобальным приоритетом». Во время интервью в Лондоне он также предположил, что правительства должны относиться к ИИ «так же серьезно», как к ядерному оружию.

Завантаження коментарів...

Новые посты

Посты
Думки вслух: чому ChatGPT не знищив копірайтинг
author avatar
https://itc.ua/wp-content/uploads/2023/06/Snymok-01.02.2023-v-12.59-150x150.jpg *** https://itc.ua/wp-content/uploads/2023/06/Snymok-01.02.2023-v-12.59-150x150.jpg *** https://itc.ua/wp-content/uploads/2023/06/Snymok-01.02.2023-v-12.59-150x150.jpg

Роман

Кріпак-фрілансер

Посты
Як ефективно керувати витратами на хмарну інфраструктуру
author avatar
https://itc.ua/wp-content/uploads/2023/11/125790864-150x150.jpg *** https://itc.ua/wp-content/uploads/2023/11/125790864-150x150.jpg *** https://itc.ua/wp-content/uploads/2023/11/125790864-150x150.jpg

Андрій Михайленко

Colobridge GmbH, Chief Operating Officer

Посты
«Кіновсесвіт Marvel» йде на дно… Це кінцева зупинка?!»
author avatar
https://itc.ua/wp-content/uploads/2023/11/Head_Odysseus_MAR_Sperlonga-150x150.jpg *** https://itc.ua/wp-content/uploads/2023/11/Head_Odysseus_MAR_Sperlonga-150x150.jpg *** https://itc.ua/wp-content/uploads/2023/11/Head_Odysseus_MAR_Sperlonga-150x150.jpg

Odysseus

Міфічний персонаж

Загрузить еще

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: