Блоги
Роботы-редакторы Microsoft перепутали двух певиц смешанной расы

Роботы-редакторы Microsoft перепутали двух певиц смешанной расы

Роботы-редакторы Microsoft перепутали двух певиц смешанной расы


Волна критики обрушилась на недавнее спорное решение Microsoft заменить часть редакторов новостных сервисов Microsoft News и MSN системой искусственного интеллекта после того, как последняя в первую же неделю своей работы перепутала двух певиц смешанной расы. Само собой, без обвинений в расизме не обошлось. Об инциденте рассказало издание The Guardian.

Система отбирает контент для показа на главной странице MSN. Один из новоявленных роботов-журналистов MSN.com перепечатал личную историю о расизме, которую поведала участница группы Little Mix Джейд Фёрволл, но опубликовал ее вместе с фотографией другой участницы группы — Ли-Энн Пиннок.

Заметив ошибку, Фёрволл выступила с критическим замечанием в адрес Microsoft на своей странице в «Историях» в Instagram.

Роботы-редакторы Microsoft перепутали двух певиц смешанной расы

«MSN, если вы хотите копировать и публиковать у себя статьи из других источников, то вам стоит сначала убедиться, что вы берёте фото правильного участника группы смешанной расы.

Это дерьмо происходит со мной и Ли-Энн Пиннок постоянно. Меня оскорбляет то, что вы не можете различить двух «цветных» женщин в группе из четырёх человек. Старайтесь лучше!»

Джейд Фёрволл

участница группы Little Mix

Вполне вероятно, певица и знать и не знала, что за отбор новостей на MSN отвечает ИИ.

Неясно, что именно привело к ошибке, но, учитывая, что речь идет об автоматизированной системе, не исключено, что это произошло из-за неправильно помеченных изображений, предоставляемых информационными агентствами. Как раз такие ошибки должны замечать и исправлять «живые» редакторы, хотя, судя по комментариям Джейд Фёрволл, это далеко не первый такой случай.

Представитель Microsoft прокомментировал The Guardian инцидент следующим образом: «Как только мы узнали об этой проблеме, мы немедленно приняли меры для ее устранения и заменили неправильное фото».

После инцидента Microsoft проинструктировала оставшихся «живых» редакторов сайта внимательно отслеживать и удалять негативные публикации о роботе-редакторе, если алгоритм опубликует ее в новостном сервисе, сообщает издание со ссылкой на одного из сотрудников.

«Со всеми этими антирасистскими протестами сейчас не время ошибаться», — отметил собеседник издания.

Остается добавить, что для Microsoft это далеко не первый такой инцидент с ИИ: еще помните скандальных чат-ботов Tay и Zo? Первый за сутки полюбил Гитлера и возненавидел феминисток, а второй называл ОС Windows «шпионским ПО» и рекламировал Linux.

Источник: The Guardian


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: