Исследователи из Microsoft Research и университета Райса разработали MoodScope – программный метод фонового анализа действий пользователя, позволяющий определить его текущее настроение. В соответствии с ним разработчики программ смогут изменять поведение приложений и веб-сервисов, делая их более чуткими.
Раньше довольно удачным трендом стала персонализация сервисов, основанная на выявлении личных предпочтений разных людей. Новая инициатива – его дальнейшее развитие, направленное на усиление положительного восприятия техники.
Концепция MoodScope касается не только смартфонов (хотя апробация проводилась именно на них), но и многих других устройств. К примеру, в ролике показано, как телевизор делает подборку фильмов, а медиа-плеер – музыки под текущее настроение.
Работа алгоритма построена на анализе популярной в социологии диаграммы «удовольствие/активность». Она заполняется с учётом различных статистических данных, постоянно собираемых «для улучшения качества обслуживания».
Среди них местоположение (определяется по GPS, Wi-Fi и 3G), история поисковых запросов, сравнение времени, затраченного на каждый разговор, количество отправленных и принятых SMS и писем, длительность сеансов мобильных игр, частота запуска других приложений, особенности поведения в социальных сетях и другие факторы, легко поддающиеся точному учёту.
Особое внимание уделяется возможности непосредственно «поделиться настроением» через социальные сети, Skype и другие программы обмена сообщениями. Это сделано не в угоду субкультуре эмо, а с сугубо техническим целями. Декларируемое самим пользователем настроение используется для калибровки алгоритма его оценки. Также по замыслу на него в будущем должно моментально реагировать «персональное цифровое окружение», представляющее собой всю совокупность программ и сервисов, способных использовать данные о настроении.
К сожалению, апробация технологии проводилась на малой нерепрезентативной выборке из тридцати двух человек по данным анкетирования в электронной форме. На протяжении двух месяцев двадцать пять участников из Китая и семь из США периодически оценивали своё текущее настроение, двигая ползунки по шкале «удовольствие» и «активность». Указанные оценки сравнивались с определяемыми MoodScope, после чего выполнялся корреляционно-регрессионный анализ.
Как видно из представленного графика эффективности обучения алгоритма, изначально программа ошибалась в оценке более чем в половине случаев (40% совпадений с собственной оценкой настроения пользователем). Однако уже спустя два месяца показатель точности возрос до 93%.
Очевидный минус в том, что на данном этапе в MoodScope не производится никакого анализа изображения с фронтальной камеры, тембра голоса или хотя бы данных от акселерометра. Поэтому алгоритм программы работает вслепую: он не может определить, чем занимается владелец смартфона (планшета), когда не держит его в руках.
По всей видимости, исследователи исходили из предположения, что типичный пользователь не расстаётся со своим гаджетом и не может прожить даже часа, не потрогав экран или хотя бы не взглянув на него.
В российских реалиях такой подход имеет малую ценность. Например: если собраться весёлой компанией на даче с вечера пятницы и очнуться к понедельнику, то смартфоны с MoodScope определят настроение своих владельцев за выходные и проявленную ими активность как крайне низкие.
Вердикт программы будет «коллективная депрессия», ведь за два дня перемещения регистрировались в пределах десятков метров, посты в соцсетях отсутствовали, игру запустили один раз и постоянно промахивались мимо экрана. При этом фактическая атмосфера за эти два дня может быть совершенно противоположной. Дым коромыслом, блэкджек и радость простого общения.
Авторы исследования признают ограничения MoodScope, существующие в настоящее время, однако полны решимости преодолеть их после этапа открытого бета-тестирования. Разработчикам мобильных приложений будет предложен интерфейс программирования MoodScope API. Возможно, со временем в него добавятся функции распознавания выражения лица, эмоциональной окраски голоса и новых шаблонов поведения.