Блоги
ИИ-специалист Ричард Сочер: «Реальная угроза, которая кроется в алгоритмах, — предвзятость»

ИИ-специалист Ричард Сочер: «Реальная угроза, которая кроется в алгоритмах, — предвзятость»

ИИ-специалист Ричард Сочер: «Реальная угроза, которая кроется в алгоритмах, — предвзятость»


Ричард Сочер, глава ИИ-подразделения компании Salesforce, полагает, что разговоры о сугубо гипотетическом восстании машин отвлекают экспертов и общество от главного — от темы предвзятости алгоритмов.

«Никто не хочет, чтобы вопрос о займе или кредите решался с учетом пола человека или, например, чтобы женщине не давали денег на стартап только потому, что у машины нет данных о женщинах-предпринимателях», — отметил Сочер в интервью VentureBeat.

Эксперты предлагают разные решения этой проблемы. Например, можно специально вносить в данные, на которых обучается ИИ, информацию о людях разных рас, полов и из разных социальных групп. Другое предложение — научить нейросеть объяснять свои решения. Но тут есть важный нюанс.

«Существует несоответствие между интерпретирующими алгоритмами и наиболее точными.

К тому же, далеко не во всех случаях интерпретации решили бы проблему: конечному потребителю хочется, как правило, чтобы система просто работала, иначе какой смысл в автоматизации, если каждое решение ИИ придется тщательно изучать?», — поясняет Сочер.

Помимо этого, исследователь не согласен со своими коллегами, которые видят опасность в развитии систем распознавания лиц. Он считает, что использовать неправильно можно практически любые алгоритмы, в том числе и те, к которым мы давно привыкли.

«Вспомните системы рекомендаций: если вы кликаете на конспирологические видео на YouTube, система начинает подсовывать вам все более и более безумные конспирологические теории, чтобы удержать вас на сайте», — привел пример Сочер.

«И это — вполне реальная серьезная проблема. Это те вещи, о которых мы должны больше говорить, потому что они могут вносить раздор в общество и делать мир менее стабильным и менее демократичным», — резюмировал он.

Эксперт находит разумным возможное государственное регулирование данной сферы — но только умеренное и конкретное.

«Регулировать всю IT-сферу нет смысла, но ввести контроль над некоторыми ее отраслями было бы вполне разумно. Это позволит не только предупреждать такие злоупотребления, как, например, использование беспилотных авто в качестве наркопритонов, но и обеспечивать надежность алгоритмов, задействованных в фармакологии, радиологии и патологии», — отметил специалист.

Что касается гипотетического восстания разумных машин, то по мнению Сочера, говорить о такоем пока рано.

«Идея полноценного ИИ, несомненно, захватывает воображение, но на сегодняшний день это не более чем научная фантастика, — говорит исследователь. — Возьмем, к примеру, технологию машинного обучения с подкреплением. Это такая модель обучения, при которой машине в воссозданной программистами симуляции нужно миллион раз выполнить одну и ту же относительно несложную задачу. Данный метод хорошо работает в теории, но на практике компьютерная симуляция не позволяет достоверно воссоздать всю сложность реального мира. Поэтому если вы решите применить «умные» алгоритмы, скажем, в хирургии, то будьте уверены, что ИИ, способный растеряться из-за малейшей ерунды, погубит миллионы жизней».

Сочер уточняет, что это, конечно, не значит, что полноценный ИИ невозможно создать в принципе. Просто на данный момент технологии находятся на начальной стадии развития.

«Как минимум, нам нужно разработать такой метод обучения, который позволит машине учиться выполнять сразу несколько задач одновременно. Без этого появление полноценного ИИ попросту невозможно», — отметил Сочер и добавил: «К тому же, если мы все же создадим самостоятельный ИИ, то, вероятно, обнаружим, что он абсолютно инертен и индифферентен к саморазвитию, поскольку, в отличие от человека, ему не нужны социальные связи, у него нет потребности в еде, нет желаний и так далее. Перед машиной не стоит необходимость жить в условиях ограниченности ресурсов. Ей достаточно подключиться к солнечной батарее, чтобы обеспечить себе существование на миллионы лет вперед».

***

«Мой прогноз — в краткосрочной перспективе люди сосредоточатся на создании совершенных роботов-«посудомоек», то есть устройств, выполняющих определенные, конкретные действия и не более того. До полноценного ИИ человечеству далеко, да и пока что в нем нет особой надобности.

А потому нам следует жестко пресекать попытки словить хайп на теме робопокалипса — из-за них общественность начинает бояться полезных фундаментальных исследований и отвлекается от насущных, реальных проблем», — подытожил исследователь.

Источники: hightech.plus, Venture Beat


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: