Рубрики Блоги

Профессор права Вашингтонского университета ответил Илону Маску: нам еще рано бояться искусственного интеллекта

Опубликовал
Кирилл Иртлач

Небезызвестный предприниматель Илон Маск давно известен своим осторожным отношением к искусственному интеллекту. Инженер постоянно говорит об угрозе со стороны умных машин.

На днях основатель Tesla и SpaceX в очередной раз напомнил о дамокловом мече, нависшем над человечеством, написав в своем Twitter, что развитие технологий ИИ опаснее конфликта с Северной Кореей. Свой пост он сопроводил постером с надписью «В итоге машины победят»:

«Все (автомобили, самолеты, еда, наркотики и т.д.), что представляет какую-либо опасность для общества, регулируется. С искусственным интеллектом должно быть так же», – затем добавил Маск.

Онлайн-курс Бізнес-аналіз. Basic Level від Ithillel.
В ході курсу студенти навчаться техніці збору і аналізу вимог, документуванню та управлінню документацією, управлінню ризиками та змінами, а також навчаться моделювати процеси і прототипуванню.
Приєднатися

Вместе с тем, с высказываниями предпринимателя согласились не все. Так, профессор права Вашингтонского университета, изучающий этические аспекты робототехники и компьютерных систем, Райан Кало заявил, что в нынешнем виде искусственный интеллект не несет абсолютно никакой угрозы человечеству.

В своем очерке «Принципы искусственного интеллекта: сценарий действий» он оспорил высказывание Маска об угрозе, исходящей от умных машин. По его мнению, в существующих исследованиях нигде не упоминается возможность создания искусственного разума даже на уровне примитивных млекопитающих, не говоря уже о человеческом разуме.

И именно по этой причине, продолжает эксперт, угрозы о грядущем захвате мира машинами исходят от таких людей, как Илон Маск, Стивен Хокинг и Ник Бостром, которые не имеют академического образования в этой области.

Также, по мнению эксперта, даже если нам удастся когда-либо создать суперинтеллект, на данный момент нет причин полагать, что он внезапно озаботится захватом мира, если только это не будет изначально в него запрограммировано.

Напоследок Кало добавляет, что изучение вероятности машинного апокалипсиса отнимает слишком много времени и ресурсов, которые следовало бы направить на изучение того, как искусственный интеллект может служить на благо общества.

Источник: ВВС

Disqus Comments Loading...