en
en
— 17 окт 2012

Интеллектуальный интерфейс — от идеи к реальности

Российские ученые проводят эксперимент, в ходе которого приматы учатся перемещать курсор по экрану с помощью взгляда. Одновременно американские специалисты работают над технологией, которая позволит компьютеру распознавать эмоции человека. Такие системы помогут точнее понимать пользователя и контекст ситуации.

Эксперимент «интерфейс мозг—компьютер» с участием приматов проводится в Институте медико-биологических проблем РАН. Приматам в различные области мозга внедряют датчики, а самих животных обучают перемещать взглядом курсор на мониторе.

По словам академика РАМН Игоря Ушакова, когда обезьяна пытается передвинуть курсор, в ее мозге происходят изменения электрофизиологической активности, которые регистрируются датчиками.

В идеале обезьяна сможет зрительно, не касаясь джойстика и монитора, управлять курсором, получая в качестве поощрения банановую таблетку.

«Такие работы проводились и с участием людей. Если человек о чем-то думает, у него возникают определенные сигналы в электроэнцефалограмме. Эти сигналы помогают управлять курсором или другими объектами. Созданием интеллектуальных интерфейсов очень озабочены на Западе, там ими занимаются многие коммерческие фирмы», — рассказал завкафедрой высшей нервной деятельности биологического факультета МГУ, доктор биологических наук, профессор Валерий Шульговский.

Дальнейшее развитие технологии может позволить, например, людям с ограниченными возможностями без помощи рук и посторонней помощи управлять технологичными инвалидными колясками.

Одновременно с российским экспериментом исследователи из нескольких американских университетов работают над технологией аффективных вычислений, которая позволит компьютеру распознавать настроение и эмоции пользователя.

Доктор наук Рана эль Калиоби из Массачусетского технологического института и ее коллеги разработали программное обеспечение, которое сканирует 24 различные точки на лице, определяя эмоции человека. Такие компьютерные алгоритмы способны определить, когда человек ухмыляется, улыбается или разочарован, что раньше считалось невозможным из-за небольших различий в выражении лица.

Профессор компьютерных технологий Питер Робинсон из Кембриджского университета разрабатывает систему, которая смогла бы распознавать состояние водителя за рулем. В том случае если автомобилист отвлекается, находится в замешательстве или даже расстроен, технология должна адаптировать телематические системы машины, чтобы избежать аварийной ситуации.

«Системы, распознающие эмоции пользователя, могут казаться зловещими. Например, реально работающие «цифровые классные комнаты», отслеживающие выражение лиц и даже направление взгляда студентов, — рассказывает проектировщик интерфейсов компании Thalient Interfaces Антон Уткин. — Но на деле они имеют целый ряд более практических применений. Допустим, системы цифровых вывесок последнего поколения умеют различать не только возраст, пол и расу пользователя, но и его эмоциональное состояние, чтобы еще точнее таргетировать рекламу. А у Intel Labs есть прототип смартфона, по уровню и характеру звука в помещении распознающего ссору или конфликт, — прототип присылает SMS с предложением умерить пыл или вызвать службу спасения».

По словам руководителя направления оптимизации контакт-центров компании CTI Леонида Перминова, анализ эмоций человека тем не менее является очень сложной IT-задачей.

«Сейчас набирает обороты распознавание эмоций в call-центрах. Однако анализировать именно интонации довольно сложно. Кто-то может кричать, но это не значит, что он проявляет негативные эмоции. Так что в этой сфере много ошибок. Надежнее анализировать сказанные слова, распознавать их по контексту. Есть также аналитика поведения, которую можно делать по данным камер видеонаблюдения. Но тут также пока очень много сложностей — мимика и жесты людей очень сильно отличаются, поэтому система может легко ошибиться», — добавил г-н Перминов.

Источник: статья на РБК Daily от 17.10.2012.

Мы используем cookie-файлы