Блоги Блоги 13.12.2018 в 14:33 comment

Вивьен Минг: «Мы возлагаем слишком большие надежды на молодых мужчин из Кремниевой долины»

author avatar
https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://itc.ua/wp-content/themes/ITC_6.0/images/no-avatar.svg

Технологии стимулируют неравенство, а их создатели оторваны от проблем обычных людей. Большинством IT-корпораций заведуют молодые мужчины, которые ранее никогда не сталкивались с глобальными задачами, а теперь вынуждены искать для них решение. Технический консультант и эксперт по нейронаукам из Университета Карнеги—Меллон Вивьен Минг рассказывает о парадоксах прогресса.

Проблемы белых людей

Кремниевая долина строит новый формат общества на основе неравенства, в котором небольшая доминирующая группа пытается решить глобальные проблемы своими силами. По мнению Минг, человечество возлагает слишком большую ответственность на молодых мужчин, на которых держится Кремниевая долина, но которым банально не хватает жизненного опыта.

«Мы доверяем решение глубинных экзистенциальных вопросов группе людей, которые в своей жизни не решили ни одной проблемы», — отметила исследовательница в интервью Guardian.

Эксперт подчеркивает, что представители IT-индустрии умны и у них нет желания навредить другим людям. Просто поставленные задачи им не по силам.

«Мы хотим, чтобы группка молодых людей сказала нам, кого нанимать на работу, кого и на какой срок сажать в тюрьму, как бороться с психическими заболеваниями. Но они понятия не имеют, как отвечать на эти вопросы», — предупреждает Минг.

Этическое невежество

По словам исследовательницы, ситуацию усугубляет система образования. Разработчики слепо поклоняются технологиям искусственного интеллекта и полностью доверяют им принятие важных решений. Им кажется, что достаточно «скормить» нейросети массив данных, чтобы все сработало как надо.

Создатели технологий зачастую не понимают самой сути проблемы и не пытаются разобраться в ней другими способами, без помощи ИИ, например, используя наработки в сфере психологии, образования и HR при найме сотрудников. Также инженеры зачастую не исследуют этические вызовы, слабо разбираются в логике и не принимают во внимание последствия некорректной работы алгоритмов.

Минг приводит в пример Amazon. При найме сотрудников на работу компания использовала алгоритм, который сканировал резюме и отбирал предпочтительных кандидатов.

В октябре стало известно, что программа ставила более низкую оценку резюме, в которых присутствовало слово «женский». Когда систему уличили в сексизме, ее пришлось свернуть.Как поясняет эксперт, создатели проекта не знали, как избавить алгоритм от предубеждений. А сам ИИ с этим вопросом не разберется: он видит, что большинство вакансий занимают мужчины, и считает это преимуществом.

Специалист уверена, что, чтобы нейросети стали этичными, инженерам сперва нужно досконально разобраться в тех сферах, в которых они намерены начать применять алгоритмы. Только в этом случае разработчики смогут в полной мере осознать последствия предлагаемых решений.

«Если вы не знаете, как решить проблему, не применяя ИИ, будьте уверены — машина также не сможет ее решить», — подчеркивает Минг.

Глубинное неравенство

Исследовательница уверена, что технологии усиливают неравенство. Она приводит в пример образовательные приложения. Изначально их создают с благими намерениями, чтобы помочь отстающим школьникам и студентам лучше усваивать материал. Но в итоге ими чаще пользуются дети элиты, поскольку именно они создают спрос и приносят прибыль.

«Практически любая технология стимулирует рост неравенства, так как наиболее эффективно воспользоваться ею могут те, кто меньше всего в ней нуждается. Остальные 99,999% остаются не у дел», — замечает Минг.

Она предлагает признать ИИ таким же правом человека, как право на доступ к суду или к вакцинам.

Помимо этого, сама среда разработки должна стать более разнообразной. Минг предлагает подключать к процессам больше женщин и представителей меньшинств.

«Крайне важно предоставлять голос тем, кто может пострадать от ИИ, — уверена эксперт. — Я сама являюсь представителем меньшинства, поэтому вижу, как технологии могут усиливать неравенство и как этого можно избежать».

[Вивьен — трансгендер, представитель сексуального меньшинства. — прим. автор новости]

В целом, заключает эксперт, сфере технологий требуется этическая революция. Инженерам необходимо начать изучать этику, логику и наконец отучить ИИ слепо полагаться на корреляции.

«Дайте нейронной сети кучу данных, и она найдет в ней определенные шаблоны, предсказывающие поведение человека, его успеваемость и трудолюбие. Однако с тем же успехом алгоритмы могут приписать абсолютно всем чернокожим высокий риск совершения преступления.

Нам нужны ИИ, которые оперируют не корреляциями, а причинно-следственной связью, — заключает техноконсультант. — Я всегда поражаюсь тому, как мало инженеры сегодня задумываются об этом».

Источники: The Guardian, hightech.plus


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: