Новости Новости 17.05.2017 в 23:25 comment

«Естественный визуальный поиск»: Сервис Google Lens наделит камеры смартфонов способностью «понимать» окружающий мир

author avatar
https://itc.ua/wp-content/uploads/2022/04/vova-96x96.jpeg *** https://itc.ua/wp-content/uploads/2022/04/vova-96x96.jpeg *** https://itc.ua/wp-content/uploads/2022/04/vova-96x96.jpeg

Володимир Скрипін

Ексзаступник головного редактора

Пару часов назад стартовала ежегодная конференция для разработчиков Google I/O 2017 и посыпались первые анонсы. В числе первых новинок была представлена система Google Lens, которая представляет собой принципиально новый способ поиска необходимой информации в Интернете – посредством камеры мобильного устройства.

По сути, Google Lens – это система поиска по картинкам, которая работает в обратном порядке. Пользователь делает фотографию с помощью камеры своего смартфона, скармливает ее Google Lens, а затем система распознает изображенный на снимке объект и выдает различную полезную информацию о нем. Идея системы машинного зрения с искусственным интеллектом отнюдь не нова, но Google Lens – это принципиально новый уровень с точки зрения реализации. Например, сделав фото ресторана, система может сделать гораздо больше, нежели сказать, что это ресторан и продекларировать его название. Она может разузнать для вас часы работы, найти меню или проверить наличие свободных столиков на вечер. Другой пример: она может определить, что цветок на фото – это Бегония Элатиор, который жизненно необходим прямой солнечный цвет. Другими словами, Google Lens – это полноценная поисковая система, начинающаяся с камеры смартфона, а не с поисковой строки.

Изначально Google Lens будет интегрирован в сервис Google Photos, что позволит пользователям узнать много нового об имеющихся снимках. Преимущества Google Lens также получит персональный помощник Google Assistant, через которого проходит львиная доля операций, связанных с поиском и просмотром новых фотографий. Со временем Google Lens пропишется во всех продуктах и сервисах поискового гиганта.

Тут можно вспомнить Google Word Lens, который позволял навести камеру смартфона на плакат или указатель и быстро получить перевод текста с иностранного языка на родной на экране смартфона. Или Google Goggles, мобильное приложение для визуального поиска, позволяющее узнать больше информации о любом изображении, указателе или продукте со штрих-кодом. Оба они кажутся предтечами Google Lens, но теперь вместо отдельного приложения эта функциональность доступна во всех продуктах Google.

Онлайн-курс "Excel та Power BI для аналізу даних" від robot_dreams.
Навчіться самостійно аналізувати й візуалізувати дані, знаходити зв’язки, розуміти кожен аспект отриманої інформації та перетворювати її на ефективні рішення.
Детальніше про курс

Google Lens в каком-то смысле можно считать «гугловской» интерпретацией функций дополненной реальности сервисов Snapchat и Instagram: это способ познать мир лучше, просто взглянув на окружающие вас вещи. Но вместо акул в тарелке с хлопьями Google расскажет о пищевой ценности вашего завтрака. Ну или статью в сети с шокирующей правдой об изюме. Это очень похоже на решение, представленное Pinterest в этом году. К слову, та функция тоже называется Lens. Pinterest предлагает сделать фотографию своего наряда или пакета брокколи и получить рекомендации по покупкам или новые идеи для приготовления блюд.

Компания тоже так умеет, но этим его возможности не ограничиваются. За последние несколько лет поисковый гигант заметно преуспел в области машинного зрения и вот результат. Google, как и многие другие, прекрасно понимает значение камер в настоящем и будущем. Разработка вроде Google Lens сделает поиск в интернете столь же быстрым и естественным, как визуальное познавание окружающего вас мира. Она позволяет объединить виртуальный и реальный мир достаточно забавным и, главное, полезным путем. Забегая вперед, это была бы отличная функция дополненной реальности для очков Google Glass 2.0.

Источник: Wired


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: