Вероятность, что ChatGPT поможет в создании биооружия согласно исследованию OpenAI — невелика

Опубликовал
Юрій Орос

Согласно собственному исследованию OpenAI, GPT-4 дает людям лишь незначительное преимущество над обычным интернетом, когда речь идет об исследовании биологического оружия.

Выводы OpenAI должны развеять опасения ученых, законодателей и специалистов по этике ИИ, что мощные модели искусственного интеллекта, такие как GPT-4, могут стать значительной помощью террористам, преступникам и другим злоумышленникам. Вроде бы ИИ может дать дополнительное преимущество тем, кто создает биологическое оружие.

В исследовании приняли участие 100 человек, половина из которых были опытными экспертами по биологии, а другая половина — студентами, изучавшими биологию на уровне колледжа. Затем участников случайным образом разделили на две группы: одна из них получила доступ к специальной неограниченной версии усовершенствованного чат-бота с искусственным интеллектом GPT-4 от OpenAI, а другая имела доступ только к обычному интернету. Затем ученые попросили группы выполнить пять исследовательских задач, связанных с созданием биологического оружия. В одном из примеров участников попросили записать пошаговую методологию синтеза и сохранения вируса Эбола. Их ответы оценивались по шкале от 1 до 10 по таким критериям, как точность, инновационность и полнота.

Исследование показало, что группа, которая использовала GPT-4, имела несколько более высокий показатель точности в среднем как для студенческой, так и для экспертной групп. Но по мнению исследователей OpenAI, увеличение не было «статистически значимым», передает The Verge.

Онлайн-курс "Business English for Marketers" від Laba.
Опануйте професійну англійську для маркетингу.Розширте карʼєрні можливості для роботи з іноземними колегами: від розробки нових продуктів до презентації стратегії бренду.
Детальніше про курс

Исследователи также обнаружили, что участники, которые полагались на GPT-4, давали более развернутые ответы.

Хотя мы не наблюдали статистически значимых различий по этой метрике, мы заметили, что ответы участников с модельным доступом, как правило, были длиннее и содержали большее количество деталей, касающихся задания.

— пишут авторы исследования.

Кроме того, студенты, которые использовали GPT-4, почти так же хорошо справлялись с некоторыми заданиями, как и группа экспертов. Исследователи также заметили, что GPT-4 приблизил ответы когорты студентов к «базовому уровню экспертов» в двух заданиях.

Команда также работает над исследованиями, чтобы изучить потенциал ИИ для угроз кибербезопасности, а также его способность менять убеждения. Когда команда была создана осенью прошлого года, OpenAI заявила, что ее целью является «отслеживание, оценка, прогнозирование и защита» рисков технологии ИИ, а также смягчение химических, биологических и радиологических угроз. Учитывая, что команда по вопросам готовности все еще работает от имени OpenAI, важно относиться к их исследованию с определенной долей скептицизма.

Disqus Comments Loading...