Блоги
Бывший советник президента США Барака Обамы по вопросам технологий: «Мы должны предотвратить апокалипсис роботов»

Бывший советник президента США Барака Обамы по вопросам технологий: «Мы должны предотвратить апокалипсис роботов»

Бывший советник президента США Барака Обамы по вопросам технологий: «Мы должны предотвратить апокалипсис роботов»


В июле этого года Илон Маск заявил, что искусственный интеллект представляет риск для человеческой цивилизации. Это привело его к словесной перепалке с гораздо более оптимистичным Марком Цукербергом. Однако, бывший советник президента США Барака Обамы по вопросам технологий Меган Смит считает, что Маск может оказаться прав. И она собирается сделать все, чтобы этого не случилось: по ее мнению, прежде чем вооружать роботов, человечество должно понять, как их контролировать.

«Я надеюсь, что нам удастся избежать апокалипсиса роботов, о котором все говорят. Но нужно определиться с тем, какие ценности мы намерены привить искусственному интеллекту. Уже сейчас мы пытаемся вооружить роботов, как вооружаем свои армии. Человечество должно решить, нужно ли это делать, а если да — как мы собираемся их контролировать? Будет ли это в принципе возможно? Это серьезные вопросы, которые не должны на свое усмотрение решать несколько программистов в Кремниевой долине», — заявила Смит на саммите Fortune.

Сегодня бывший советник президента стала CEO компании shift7, которая стремится к распространению научного знания и технического образования среди широкой общественности, будь то школы или фабрики. Компания уверена, что технологии позволят людям решить такие серьезные социально-экономические проблемы человечества, как торговля людьми и массовое насилие.

ИИ же может сыграть в этом ключевую роль. Но загвоздка в том, что мы делаем его чересчур гомогенным. Коды для ИИ пишут едва ли 10 000 человек из 7 стран мира, в то время, как население Земли — 7 миллиардов. По мнению Смит, коды и данные, на которых обучают ИИ, напрямую отражают предвзятое отношение их создателей.

«Наборы данных, на которых мы тренируем нейросети, неполноценны, они искажены» — говорит эксперт.

В этом, по ее мнению, и кроется основная опасность, особенно если при помощи этих данных мы намерены сформировать будущий искусственный интеллект.

«Должен ли искусственный интеллект мыслить так же, как мы? Люди делают порою ужасные вещи. Роботы могут также начать поступать плохо. Но точно так же они могут начать поступать хорошо, — говорит Смит. — Поэтому нам нужно задуматься над этим, очистить данные от предвзятости и предубеждений, а также активней дискуссировать по вопросам этики. Нам нужно обсуждать то, как будет действовать вооруженный ИИ. И понять, что мы можем сделать, чтобы предотвратить такой сценарий».

По мнению эксперта, нам следует что-либо предпринять на этот счет в любом случае, даже если впоследствии худшие опасения Стивена Хокинга и Илона Маска воплотятся в жизнь.

«Даже если эти парни окажутся в конечном счете правы (хорошо, если нет), мы все равно должны хотя бы попробовать предотвратить робоапокалипсис», — подытожила Смит.

Источники: hightech.fm, Fortune


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: