Новини

ШІ, натренований на неполіткоректних матеріалах 4chan, публікував расистські висловлювання

ШІ, натренований на неполіткоректних матеріалах 4chan, публікував расистські висловлювання

Автор YouTube-каналу Yannic Kilcher розповів про свій експеримент у сфері навчання ШІ. Він тренував мовну модель, використовуючи контент за 3 роки з розділу Politically Incorrect (Неполіткоректно) форуму 4chan. Цей розділ сумно відомий проявами расизму та інших форм фанатичних неприємних висловлювань.

Потім автор впровадив цю модель у 10 ботів та запустив їх у форумі. І цим породив хвилю ненависті. Протягом 24 години боти написали 15 тис. повідомлень, які часто містили расистський контент або взаємодіяли з ним. За словами автора, того дня боти залишили понад 10% повідомлень у гілці Politically Incorrect (/pol/).

Модель під назвою GPT-4chan навчилася не тільки підбирати слова, що використовуються в повідомленнях гілки /pol/, але враховувала загальний тон, який, за словами Кілчера, поєднував у собі «образу, нігілізм, тролінг і глибоку недовіру». Автор відео подбав про те, щоб обійти захист 4chan від проксі та VPN, і навіть використав VPN, щоб створити враження, що пости ботів виходять з Сейшельських островів.

ШІ припустився кількох помилок, таких як публікація порожніх повідомлень. Але водночас він був досить переконливим. Багатьом користувачам знадобилось близько 2 днів, щоб зрозуміти, що щось не так. За словами Кілчера, багато учасників форуму помітили лише одного з ботів. Модель ШІ проявляла достатню обережність, щоб люди звинувачували один одного в тому, що вони боти, навіть через кілька днів після того, як Кілчер їх деактивував.

Курс
Frontend розробка
Заробляйте від $1800 вже через два роки і навчайтесь у вільний час
РЕЄСТРУЙТЕСЯ!
Frontend розробка

Автор схарактеризував експеримент як «розіграш», а не дослідження. І він може служити як нагадування про те, що навчений ШІ хороший настільки, наскільки хороший вихідний матеріал.

Також слід зазначити, що Кілчер поділився своєю роботою. Він не хотів публікувати код бота, але поділився частково урізаною версією моделі із репозиторієм ШІ Hugging Face. Відвідувачі могли відтворити ШІ для шкідливих цілей, і адміністрація Hugging Face вирішила обмежити доступ до матеріалів з метою обережності. Проєкт мав явні етичні проблеми, і сам Кілчер сказав, що в майбутньому йому слід зосередитися на «набагато позитивнішій» роботі.

Джерело: Engadget


Завантаження коментарів...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: