Новости
Вычислитель Google TPU 2-го поколения обеспечивает существенный прирост производительности системам ИИ
5

Вычислитель Google TPU 2-го поколения обеспечивает существенный прирост производительности системам ИИ

Вычислитель Google TPU 2-го поколения обеспечивает существенный прирост производительности системам ИИ

В прошлом году компания представила вычислительный блок Tensor Processor Unit (TPU). Это чип собственной разработки, предназначенный для применения в системах машинного обучения. Теперь же в рамках проведения конференции Google I/O была представлена версия уже второго поколения, которая обладает более высокой производительностью и дополнительными возможностями.

Как отмечают в Google, модуль TPU второго поколения является полностью функциональным и уже начал внедряться в платформе Google Compute Engine, которую сторонние компании, исследователи и стартапы могут использовать для собственных нужд. Каждый отдельный блок TPU второго поколения обладает производительностью в 180 терафлопс. Инженеры компании смогли разместить в серверной стойке 64 блока TPU, сделав из неё суперкомпьютер суммарной производительностью 11,5 петафлопс. Такие стойки получили название TPU Pod. Отмечается, что они могут выполнять задачи по обучения систем искусственного интеллекта значительно быстрее, чем существующие решения на базе современных производительных GPU.

Помимо высокой производительности TPU второго поколения также получили важную оптимизацию в своей работе. Так, версия первого поколения могла лишь делать логические выводы для получения результата, например, полагаясь на Google Cloud для обработки данных в реальном времени. В то же время новинка позволяет серверам Google одновременно и делать логические выводы, и производить обучение.

Обучение – это основа работы современных систем искусственного интеллекта и машинного обучения. Чтобы научить систему выполнять какую-то задачу, первоначально её нужно предоставить большое количество примеров этой деятельности. Тогда система «научится» работать не на основании строго заданной программы, а исходя из полученного «опыта». Такой процесс обучения системы ИИ с целью выработки рабочего алгоритма требует больших затрат времени и ресурсов.

Благодаря тому, что новый блок TPU способен одновременно делать выводы и производить обучение, существенно сокращается время, необходимое для отработки алгоритмов искусственного интеллекта. В результате, исследователи смогут производить более разносторонние эксперименты в сфере искусственного интеллекта намного быстрее, чем раньше, используя платформу TensorFlow.

Google запустила программу TensorFlow Research Cloud и предоставит бесплатный доступ исследователям к кластеру из 1000 блоков TPU.

Источник: The Verge


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: