Научим ли мы компьютеры понимать нас

По традиции на выставке довольно обширный раздел выделяется под демонстрацию разнообразных перспективных разработок. Уже много лет я наблюдаю за тем, как снова и снова человечество пытается реализовать в компьютерах те способы общения, которые мы используем между собой.

Вот и на этот раз в разделе CeBIT Lab оказался такой участник – швейцарская компания Tobii, специализирующаяся на технологиях отслеживания направления взгляда человека. Сначала я попытался самостоятельно поуправлять объектами на экране, а потом решил показать, как это удается другим.

На видео девушке сначала объясняют, что нужно находиться не слишком далеко от экрана, чтобы система могла захватить ее взгляд. Потом провели калибровку с помощью движущегося по экрану объекта (эту часть я пропустил из-за ее банальности), а потом началось самое интересное. На экран вывели несколько окон, среди которых были фотографии и обычные папки. И пользователь может, направляя взгляд на одно из этих окон, выбирать его для дальнейшей работы. А по окончанию просмотра, может увести взгляд в нижний левый угол, после чего рабочее окошко опять вернется в исходную позицию и уменьшится в размере. Так вот у девушки получилось только выбрать одно окно, а оно в ответ лишь подсветилось и не захотело увеличиваться.

Научим ли мы компьютеры понимать нас

Девушка не сумела правильно состроить глазки компьютеру (датчик, определяющий направление взгляда, находится под экраом)

Я так понимаю, что проблема не в том, чтобы поймать взгляд, а в корректной интерпретации всего поведения человека. Потому что среди множества объектов легко потеряться, ведь внимание все время отвлекается. В общем, система работает, но так, что нормальные люди с ней ни за что не захотят иметь дела. Ну, разве что, набравшись терпения, из-за отсутствия иных возможностей управлять ПК (инвалиды или работающие с обеими занятыми руками).

Не подумайте, что никакого прогресса не наблюдается. Еще лет пять назад и такие простые операции не удавались – я тогда так и не сумел ничего написать, выбирая буквы взглядом. А тут хоть какие-то успешные действия налицо. Не говоря уже о том, что игрушка со «стрельбой глазами» у парнишки была очень даже на уровне – он даже успевал поворачиваться к собеседнику. Так что, можно ожидать, что до нормальной реализации такого интерфейса осталось подождать еще с пяток лет…

Научим ли мы компьютеры понимать нас

А вот у парней стрелять глазами получается просто на оценку "отлично"