Блоги Блоги 12.06.2018 в 16:54 comment

Google отказалась разрабатывать ИИ в военных целях

author avatar
https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://itc.ua/wp-content/themes/ITC_6.0/images/no-avatar.svg

Корпорация Google ввела запрет на разработку искусственного интеллекта в военных целях. При этом она продолжит сотрудничать с армией в других областях.

Об этом сообщил генеральный директор Google Сундар Пичаи, опубликовавший семь основных принципов, которых отныне будет придерживаться корпорация при разработке искусственного интеллекта. Стоит отметить, что эти принципы были разработаны после массовых протестов сотрудников Google, которым не понравилось, что они работают над проектами для Пентагона.

Пичаи рассказал, что технологии искусственного интеллекта уже сегодня играют важнейшую роль в обществе.

«Развитие и использование искусственного интеллекта окажет значительное влияние на человечество на многие годы вперед. Будучи лидером в данной сфере, корпорация Google несет за это особую ответственность: мы признаем, что такая мощная технология вызывает столь же значимые вопросы о ее будущем использовании, — заявил он. — Именно поэтому сегодня мы объявляем семь принципов, которых будем придерживаться в нашей работе в будущем. Это не теоретические концепции; это конкретные стандарты, которые будут напрямую влиять на разработку продуктов и принятие нами бизнес-решений».

В семи тезисах говорится, что корпорация не будет создавать, разрабатывать и развивать искусственный интеллект в «потенциально опасных» целях.

«Все разработки Google должны приносить исключительно пользу обществу, обеспечивать безопасность людей», — говорит Пичаи.

Курс English For Tech course від Enlgish4IT.
Лише 7 тижнів по 20-30 хвилин щоденного навчання допоможуть вам подолати комунікативні бар'єри. Отримайте знижку 10% за промокодом ITCENG.
Дійзнайтеся більше

Помимо этого, подчеркивает он, искусственный интеллект не должен становиться автономным, всегда оставаясь под контролем человека.

Кроме того, базовым принципом разработок станет полная конфиденциальность и безопасность данных.

«Google никогда не станет заниматься созданием искусственного интеллекта, способного нанести вред человеку или обществу, а также нарушить права человека и международное право», — пообещал глава Google .

Здесь же он добавил, что корпорация не будет заниматься созданием ИИ для ведения боевых действий, в том числе — разрабатывать так называемое «умное оружие». При этом Google не отказывается от сотрудничества с правительством и армией в других сферах.

«Мы продолжим нашу совместную работу с правительством и военными во многих других областях. К ним относятся, в частности, кибербезопасность, подготовка рекрутов, здравоохранение ветеранов и в службах спасения. Эти совместные усилия важны для обеспечения безопасности гражданских лиц и военнослужащих», — объясняет Пичаи.

Курс English For Tech course від Enlgish4IT.
Лише 7 тижнів по 20-30 хвилин щоденного навчання допоможуть вам подолати комунікативні бар'єри. Отримайте знижку 10% за промокодом ITCENG.
Дійзнайтеся більше

Таким образом, отныне компания будет разрабатывать искусственный интеллект только для улучшения собственных продуктов, а также с целью решения проблем конечных пользователей. Например, нейросети, как и прежде, будут помогать в фильтрации электронных писем, обеспечивать работоспособность облачных сервисов, участвовать в мониторинге пожарной обстановки, диагностировать онкологические заболевания.

Напоследок отметим, что неделю назад Google свернула свое сотрудничество с Пентагоном по проекту Maven, в котором при помощи искусственного интеллекта компании анализировались видео, полученные с беспилотников армии США. Ранее требование прекратить сотрудничество с военными подписали более 4 тысяч сотрудников IT-корпорации.

Источник: Bloomberg


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: