Блоги Блоги 24.10.2018 в 10:17 comment

Этические кодексы в сфере ИИ должны начинаться с прав человека

author avatar
https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://itc.ua/wp-content/themes/ITC_6.0/images/no-avatar.svg

Развитие ИИ волнует IT-отрасль: и гиганты индустрии, и правительства пытаются направить процесс в нужное русло путем создания этических кодексов и комиссий. Однако этот путь оказался куда более тернистым, чем считалось ранее. К такому выводу пришли участники AI Now Symposium в Нью-Йорке.

Недавно полицейский отдел Нью-Йорка представил обширную базу данных, собранную за последние шесть лет, содержащую имена и личные данные не менее 17 500 человек, которые, по мнению правоохранителей, могут участвовать в преступных группировках. Однако инициативу резко раскритиковали специалисты в сфере гражданских прав за низкую точность и расовую дискриминацию. 

Так, по словам Шеррилин Айфил, президента фонда правовой защиты NAACP, представленная база данных предвзята в отношении чернокожих и женщин, поскольку на 95% состоит из афроамериканцев, латиноамериканцев и азиатов.

«Эта база данных, по сути, говорит о том, что все афроамериканцы, латиноамериканцы и азиаты — преступники, — говорит Айфил. — А теперь представьте, что ее объединили с технологией распознавания лиц и вы в нее попали».

Юристы, активисты и исследователи ранее неоднократно подчеркивали, что при создании и внедрении систем ИИ разработчикам необходимо следовать неким «этическим нормам». Но кто составляет эти нормы и кто должен контролировать их соблюдение?

Проблема в том, что моральные принципы не универсальны, и это научный факт: ученые MIT провели исследование, в ходе которого с помощью платформы Moral Machine попросили людей из разных стран разрешить известную проблему вагонетки в отношении беспилотных автомобилей (в ходе мысленного эксперимента участники должны были решить, кем самоуправляемой машине можно пожертвовать при ДТП, а кем — нет). В конечном счете эксперимент показал, что в разных странах и культурах существуют разные представления о морали.

Курс Project Manager від Powercode academy.
Онлайн-курс Project Manager. З нуля за 3,5 місяці до нової позиції Без знання коду, англійської та стресу.
Зарееструватися

Есть еще одно исследование, демонстрирующее неэффективность «этических кодексов». Ученые из Университета Северной Каролины обнаружили, что чтение кодексов никак не влияет на поведение программистов.

Но что же тогда делать?

Филип Алстон из Школы права Нью-Йоркского университета, кажется, нашел решение данной проблемы: он предложил предоставить закону возможность разобраться с развитием ИИ. По его мнению, достаточно следить за тем, чтобы нейросети не нарушали права человека.

«Права человека зафиксированы в Конституции. Они включены в билль о правах, они толкуются судами, — объясняет юрист. — Пока мы не введем в обсуждение развития ИИ вопрос прав человека, у нас не будет прочного основания. В то же время, ориентируясь на права человека, мы сможем отсеивать неправильный ИИ», — заключил Алстон.

Источник: hightech.plus, Technology Review


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: