Новини Софт 09.06.2022 о 17:51 comment views icon

ШІ, натренований на неполіткоректних матеріалах 4chan, публікував расистські висловлювання

author avatar

Вадим Карпусь

Автор новин

Автор YouTube-каналу Yannic Kilcher розповів про свій експеримент у сфері навчання ШІ. Він тренував мовну модель, використовуючи контент за 3 роки з розділу Politically Incorrect (Неполіткоректно) форуму 4chan. Цей розділ сумно відомий проявами расизму та інших форм фанатичних неприємних висловлювань.

Потім автор впровадив цю модель у 10 ботів та запустив їх у форумі. І цим породив хвилю ненависті. Протягом 24 години боти написали 15 тис. повідомлень, які часто містили расистський контент або взаємодіяли з ним. За словами автора, того дня боти залишили понад 10% повідомлень у гілці Politically Incorrect (/pol/).

Модель під назвою GPT-4chan навчилася не тільки підбирати слова, що використовуються в повідомленнях гілки /pol/, але враховувала загальний тон, який, за словами Кілчера, поєднував у собі «образу, нігілізм, тролінг і глибоку недовіру». Автор відео подбав про те, щоб обійти захист 4chan від проксі та VPN, і навіть використав VPN, щоб створити враження, що пости ботів виходять з Сейшельських островів.

ШІ припустився кількох помилок, таких як публікація порожніх повідомлень. Але водночас він був досить переконливим. Багатьом користувачам знадобилось близько 2 днів, щоб зрозуміти, що щось не так. За словами Кілчера, багато учасників форуму помітили лише одного з ботів. Модель ШІ проявляла достатню обережність, щоб люди звинувачували один одного в тому, що вони боти, навіть через кілька днів після того, як Кілчер їх деактивував.

Автор схарактеризував експеримент як «розіграш», а не дослідження. І він може служити як нагадування про те, що навчений ШІ хороший настільки, наскільки хороший вихідний матеріал.

Також слід зазначити, що Кілчер поділився своєю роботою. Він не хотів публікувати код бота, але поділився частково урізаною версією моделі із репозиторієм ШІ Hugging Face. Відвідувачі могли відтворити ШІ для шкідливих цілей, і адміністрація Hugging Face вирішила обмежити доступ до матеріалів з метою обережності. Проєкт мав явні етичні проблеми, і сам Кілчер сказав, що в майбутньому йому слід зосередитися на «набагато позитивнішій» роботі.

Джерело: Engadget


Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: