Новости Новости 31.10.2019 в 15:33 comment

ИИ AlphaStar от DeepMind смог победить 99,8% игроков-людей в StarCraft II, достигнув уровня гроссмейстера

author avatar
https://itc.ua/wp-content/uploads/2022/04/ad81c83e9fbf757ce8a90d0eb41dee5b-96x96.jpeg *** https://itc.ua/wp-content/uploads/2022/04/ad81c83e9fbf757ce8a90d0eb41dee5b-96x96.jpeg *** https://itc.ua/wp-content/uploads/2022/04/ad81c83e9fbf757ce8a90d0eb41dee5b-96x96.jpeg

Вадим Карпусь

Автор новостей

Подразделение DeepMind, входящее в состав Google и занимающееся исследованиями в сфере искусственного интеллекта, рассказало об очередных успехах своих ИИ-агентов, обученных играть в игру StarCraft II. ПО AlphaStar достигло невероятных успехов и теперь способно обыграть в соревновании 99,8% всех игроков-людей.

Отмечается, что с целью уравнять в возможностях ИИ и игроков людей, ПО AlphaStar было соответствующим образом модифицировано. В частности, ИИ был обучен играть всеми тремя доступными в StarCraft II расами. Кроме того, обзор карты был ограничен таким же уровнем, что доступен человеку. Наконец, действовало ограничение в количестве кликов кнопками мышки – не более 22 недублирующихся действия каждые 5 секунд игры. Это соответствует количеству стандартных движений при игре человеком.

Даже несмотря на все указанные ограничения, ИИ смог обыграть 99,8% всех игроков-людей, принявших участие в онлайн-соревновании, и достичь уровня гроссмейстера. Это максимально возможный онлайн-рейтинг, и AlphaStar стала первой ИИ-системой, достигшей такого результата в StarCraft II.

DeepMind рассматривает это достижение как ещё одно доказательство того, что используемый командой способ машинного обучения может однажды быть использован для тренировки самообучающихся роботов, самоуправляемых автомобилей и создания более совершенных систем распознавания изображений и объектов.

Цель исследований AlphaStar и других подобных игровых агентов (например, OpenAI Dota 2) состоит не просто в том, чтобы сокрушить людей в различных играх, просто чтобы доказать, что это возможно. Эти исследования позволяют доказать, что при достаточном времени, усилиях и ресурсах сложное программное обеспечение для искусственного интеллекта может превзойти человека практически в любой конкурентной когнитивной задаче, будь то настольная игра или современная видеоигра. Это также показывает преимущества метода машинного обучения с подкреплением. Этот метод позволяет агентам самостоятельно понять, как нужно играть, и иногда это приводит к появлению невероятных тактик.

OpenAI и DeepMind ускоренно обучают своих агентов ИИ в играх против своих же версий и в ускоренном темпе. Таким образом, агенты могут наигрывать сотни лет игрового процесса на протяжении нескольких месяцев. Это и позволило данному типу программного обеспечения превзойти самых талантливых игроков в Го, а теперь и в более сложных играх, таких как StarCraft II и Dota 2. Хотя такое ПО всё же ограничено узкой дисциплиной, и агент для Го не может играть в Dota 2 и наоборот.

Курс QA.
Найпростіший шлях розпочати кар'єру в ІТ та ще й з гарантованим працевлаштуванням.
Дізнатись про курс

Источник: The Verge

Продолжается конкурс авторов ИТС. Напиши статью о развитии игр, гейминг и игровые девайсы и выигрывай профессиональный игровой руль Logitech G923 Racing Wheel, или одну из низкопрофильных игровых клавиатур Logitech G815 LIGHTSYNC RGB Mechanical Gaming Keyboard!


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: