Владельцам смартфонов придется шевелить мозгами

9 сентябрь, 2015 - 13:45Виталий Кобальчинский

Испытываете одышку от работы с сенсорным экраном? Хотите освободить руки для изящных жестов? Возрадуйтесь. Не за горами уже умные телефоны, управлять которыми можно будет непосредственно мозгами, пардон, силой нашей с вами креативной мысли.

Компании IBM и Xerox подготовили совместный доклад (PDF), которым обрисовали состояние дел у разработчиков приложений, контролируемых мозговыми волнами – через интерфейс BCI (Brain-Computer Interfaces). Из документа следует, что в мире только ленивый не кодирует ПО для ввода номера «в уме» или настолько же безрукого выбора абонента из имеющегося списка контактов.

Отслеживать управляющие электрические импульсы мозга – сигналы теменной доли большого мозга, так называемые P300, а также SSVEP (Steady State Visually Evoked Potentials) – будет шапочка энцефалографа. Ну да, ее придется носить не снимая, но дизайнеры, безусловно, постараются, чтобы блок аккумуляторов при ходьбе не бил по черепу. Новейшая 14-канальная модель с Bluetooth – Emotiv – выглядит весьма даже стильно.

Владельцам смартфонов придется шевелить мозгами

Главная проблема в настоящее время заключается в необходимости увеличения точности интерпретации мозговых сигналов. Тем не менее, достигнутые результаты обнадеживают.

Созданная в Корнелльском университете система Neurophone позволяет подопытному с надетым на него Emotiv мысленно выбирать на экране iPhone контакт для звонка. Процесс этого выбора медленный и неоптимальный – подсвечиваются все контакты по очереди, а нужный определяется по вышеупомянутому P300. Мысль тут ловится менее надежно, чем, например, подмигивание глазом – тоже, кстати, неидеальный «hands free» вариант: точность лишь 92-95%.

Еще одно приложение, BCI Messenger, обеспечивает мысленный набор сообщений из китайских иероглифов на виртуальной клавиатуре. Оно использует шапочку Neuroscan QuickCap, дает пиковую точность чуть выше 80% и усредненную, менее 70%.

Кроме того, выяснилось, что лучшие результаты получаются в расслабленном состоянии – точность детектирования P300 падает во время мышечной активности. С одной стороны, это радует: значит в будущем напряженный прищур не позволит спутать маньяка с кем-то, всего лишь ставящим «лайк» в Instagram. С другой, становится понятно, что эта технология появится еще не завтра, причем, скорее всего, сначала в формате Assistive, то есть P300 будет подкреплен и продублирован движениями глаз или головы (со стороны выглядящим как нервный тик).

Вердикт IBM и Xerox оптимистичен хотя, подобно самому BCI, компании страдают отсутствием точности и конкретики в своих прогнозах: «Достижения в областях вычислительной неврологии, процессинга сигналов, машинного обучения вкупе с облачными хранением и обработкой создают предпосылки для появления все новых базирующихся на BCI мобильных приложений для обычных пользователей».