Блоги
Глава поискового бизнеса Google опасается предвзятости алгоритмов

Глава поискового бизнеса Google опасается предвзятости алгоритмов

Глава поискового бизнеса Google опасается предвзятости алгоритмов


Джон Джаннандреа, глава поискового бизнеса Google, не боится восстания разумных роботов. Вместо этого он обеспокоен возможной предвзятостью алгоритмов на основе машинного обучения, которые принимают миллионы решений каждую минуту.

«Настоящая проблема безопасности, если вам угодно так ее называть, состоит в том, что если мы даем этим системам необъективные данные, они сами становятся необъективны», — сказал Джаннандреа на конференции Google, посвященной отношениям между людьми и системами искусственного интеллекта.

При этом проблема наличия в машинном обучении систематических ошибок становится тем значительнее, чем больше технология проникает в такие области, как медицина или юриспруденция, где любая неточность может стоить человеку жизни, и чем больше людей без технического образования начинают ее использовать. Некоторые эксперты считают, что алгоритмические ошибки уже наносят вред многим областям, однако почти никто не обращает на это внимания и не исправляет ситуацию.

«Важно, чтобы мы соблюдали прозрачность относительно данных, которые мы используем для обучения ИИ, и искали в них неточности, иначе мы создадим предвзятые системы, — говорит Джаннандреа. — Если кто-то пытается продать вам черный ящик, который ставит медицинский диагноз, а вы не знаете, как он работает или на каких данных его обучали, то я бы не стал ему доверять».

Вместе с тем, следует отметить, что системы, представляющие собой «черный ящик», уже оказывают серьезное влияние на жизни многих людей. Так, система под названием COMPAS, созданная компанией Northpointe, предсказывает вероятность рецидива подсудимых. Принципы работы COMPAS держатся в секрете; более того, исследование, проведенное ProPublica, продемонстрировало, что система может работать неадекватно, однако некоторые судьи продолжают брать ее выводы во внимание.

Любопытное исследование на этот счет провела недавно Кэрри Карахалиос, профессор информатики Университета штата Иллинойс. Карахалиос обнаружила, что пользователи Facebook зачастую не понимают, как алгоритмы социальной сети формируют новостную ленту. В то же время на сегодняшний день доподлинно известно, что эти алгоритмы существенным образом влияют на мнения пользователей и на их восприятие тех или иных событий.

Корпорация Google также работает над системами машинного обучения и активно предлагает собственные ИИ-решения коммерческим компаниям. Как сообщается, ИИ-системы гораздо эффективнее традиционных алгоритмов и потому позволяют бизнесу экономить драгоценные время и деньги. Вместе с тем, чем более мощной является ИИ-система, тем с большей вероятностью в ее работу может закрасться ошибка, предупреждает Джаннандреа.

Что делать?

К сожалению, просто опубликовать используемые данные или алгоритмы зачастую недостаточно. Большинство наиболее мощных систем машинного обучения ныне настолько сложны, что даже внимательное изучение исходных данных не принесет результатов. Поэтому для решения этой проблемы ученые работают над т.н. аппроксимациями — учебными пособиями и инструментами, позволяющими выявлять и устранять искажения в данных — для инженеров и конечных пользователей, не являющихся специалистами в области работы с данными.

Напоследок отметим, что Джаннандреа также критически высказался о гипотетическом ИИ, способном захватить власть над людьми, об опасности которого предупреждает Илон Маск. По мнению главы поискового бизнеса Google, возможное создание роботов-убийц — проблема в разы менее насущная, нежели предвзятость алгоритмов.

«С чем я не согласен, так это с предположением, что мы внезапно перейдем к какой-то сверхинтеллектуальной системе, которая сделает людей ненужными. Я понимаю, почему люди так обеспокоены этим, но думаю, что этому вопросу уделяют слишком много внимания. Я не вижу никакого технологического основания, почему это вообще должно произойти», — заявил он.

Источники: MIT Technology Review, hightech.fm


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: