Новости

ИИ, натренированный на неполиткорректных материалах 4chan, публиковал расистские высказывания

ИИ, натренированный на неполиткорректных материалах 4chan, публиковал расистские высказывания

Автор YouTube-канала Yannic Kilcher рассказал о своём эксперименте в сфере обучения ИИ. Он тренировал языковую модель, используя контент за 3 года из раздела Politically Incorrect (Неполиткорректно) форума 4chan. Этот раздел печально известен проявлениями расизма и других форм фанатичных нелицеприятных высказываний.

Затем автор внедрил эту модель в 10 ботов и запустил их в форуме. И тем самым он породил волну ненависти. В течение 24 часов боты написали 15 тыс. сообщений, которые часто содержали расистский контент или взаимодействовали с ним. По словам автора, в тот день боты оставили более 10% сообщений в ветке Politically Incorrect (/pol/).

Модель под названием GPT-4chan научилась не только подбирать слова, используемые в сообщениях ветки /pol/, но учитывала общий тон, который, по словам Килчера, сочетал в себе «оскорбление, нигилизм, троллинг и глубокое недоверие». Создатель видео позаботился о том, чтобы обойти защиту 4chan от прокси и VPN, и даже использовал VPN, чтобы создать впечатление, что посты ботов исходят с Сейшельских островов.

ИИ допустил несколько ошибок, таких как публикация пустых сообщений. Но в то же время он был достаточно убедителен. Многим пользователям потребовалось около 2 дней, чтобы понять, что что-то не так. По словам Килчера, многие участники форума заметили только одного из ботов. Модель ИИ проявляла достаточную осторожность, чтобы люди обвиняли друг друга в том, что они боты, даже через несколько дней после того, как Килчер их деактивировал.

Курс
Python
Опануйте професію Python-розробника за 4 місяці й отримуйте $1300 уже через рік роботи
РЕЄСТРУЙТЕСЯ!
Python

Автор охарактеризовал эксперимент как «розыгрыш», а не исследование. И он может служить в качестве напоминания, что обученный ИИ хорош настолько, насколько хорош исходный материал.

Также следует отметить, что Килчер поделился своей работой. Он не хотел публиковать код бота, но поделился частично урезанной версией модели с репозиторием ИИ Hugging Face. Посетители могли воссоздать ИИ для зловредных целей, и администрация Hugging Face решила ограничить доступ к материалам в целях предосторожности. У проекта были явные этические проблемы, и сам Килчер сказал, что в будущем ему следует сосредоточиться на «гораздо более позитивной» работе.

Источник: Engadget


Завантаження коментарів...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: