Команда исследователей из НИУ ВШЭ и МГМСУ им. А.И. Евдокимова разработала модель машинного обучения, которая способна предсказать произнесенное слово на основе мозговой активности. Это позволит говорить людям с речевыми нарушениями разной степени.
«Использование таких интерфейсов сопровождается минимальными рисками для пациента. Если всё получится, то воображаемую пользователем речь можно будет декодировать, считывая активность мозга при помощи небольшого числа минимально инвазивных электродов. Они будут имплантироваться в амбулаторном режиме под местной анестезией» — объясняет Алексей Осадчий, директор Центра биоэлектрических интерфейсов Института когнитивных нейронаук НИУ ВШЭ
В отличие от других уже существующих технологий, данная модель позволяет коммуницировать даже пациентам, которые не могут артикулировать с помощью лицевой мускулатуры. Подобные нейропротезы не требуют ввода команд через клавиатуру или микрофон, а напрямую получают их от мозга человека.
«Мы демонстрируем возможность создания речевого протеза с небольшим числом электродов и на основе компактного декодера без инженерии признаков, полученного на основе небольшого количества обучающих данных» — отмечается в статье.