Нейроинтерфейсы: Как управлять миром силой мысли

Экзоскелеты, механические руки, глаза-камеры и уши-микрофоны, передача мысли от мозга к мозгу - всё это уже реальность, возникшая на наших глазах в последние 15-20 лет. Технологии пока несовершенны, а некоторые - принципиально несовершенны на нашем уровне знаний. Однако первый удар по мячу на чемпионате мира по футболу в 2014 году нанёс человек с парализованными ногами. И пусть это выглядело не особенно впечатляюще, но человек управлял механической конечностью, и управлял мысленно.

История началась в 60-е годы прошлого века, когда в нескольких лабораториях стали работать с имплантированными в мозги обезьян и людей электродами. Человек с таким имплантатом нажимал на кнопку, меняя слайды в проекторе. Затем кнопку от проектора отсоединяли, но слайды продолжали переключаться по сигналу. В это же время начались работы по восстановлению слуха глухих через микрофон, совмещённый со слуховым нервом. Но настоящий прорыв лет назад, когда появились достаточно мощные компьютеры и новые алгоритмы.

Как работают нейроинтерфейсы, нам рассказал Александр Каплан, руководитель лаборатории нейрофизиологии и нейрокомпьютерных интерфейсов МГУ им. М.В. Ломоносова.

Читает ли компьютер мысли?

- В интерфейсе "мозг - компьютер" нет ничего мистического, - говорит Каплан. - Технология позволяет регистрировать электрическую активность мозга и преобразовывать её в команды для внешних исполнительных систем. Мозг спрятан глубоко в черепе, но электрические поля, создаваемые нервными клетками, пробиваются через кости, мышцы, кожу и улавливаются электродами на кожной поверхности головы. Это хорошо всем знакомый метод электроэнцефалографии - нет такой поликлиники, где бы он ни применялся для диагностики. Мы в лаборатории тоже занимались диагностикой, но в какой-то момент мне стало интересно: а почему бы этот сигнал не послать на какое-нибудь внешнее устройство, чтобы управлять им?

Когда мы управляем руками, мы их видим и ощущаем, но электрических полей в голове мы не чувствуем. Оказалось, что этому можно научиться: на экране компьютера испытуемому показывают активность мозга и просят так или иначе изменить её. Постепенно у него начинает получаться. Отсюда уже недалеко до нейроинтерфейса, нужно лишь послать изменение ритма на внешнее устройство.

- Что можно сделать? Ну, конечно, игрушки - они есть уже сейчас. Например, человек управляет игрушечной машинкой, изменяя активность мозга, - рассказывает Каплан. - Задаёт ей повороты. А наша задача - вычленить те самые сигналы мозга, составить нужный алгоритм. Ошибок должно быть как можно меньше, а время распознавания сигнала как можно короче. Если с момента, когда ребёнок задумал повернуть машинку, до самого действия проходит полчаса, какая уж тут игра!

Лучше всего спонсируются медицинские применения. И, надо сказать, интерфейс "мозг - компьютер" там нужнее всего. Например, есть постинсультные пациенты, которые не могут говорить и находятся в таком состоянии годами. Что делаем? Рисуем на экране компьютера матрицу, где в каждой клеточке написана буква. Клеточки мигают по очереди со скоростью 5-6 помигиваний в секунду. А в это время компьютер показывает энцефалограмму: если какая-то буква заинтересовала человека, реакция будет сильнее. Мы детектируем внимание и печатаем букву. Сейчас, по словам учёного, в его лаборатории скорость распознавания сигнала - примерно 8-10 букв в минуту, а безошибочных попаданий 95%.

Такой аппарат уже год тестируется в Первой градской больнице. Человек может общаться с помощью интерфейса, но пока медленно. В разработке - выход в интернет усилием мысли.

То же самое с парализованными пациентами, которые научились управлять инвалидным креслом, да и механическим экзоскелетом, если вспомнить первый удар на ЧМ-2014.

Есть и другой способ расшифровать намерения мозга - вживить в него электроды. В мозг втыкается пластинка, усеянная иголочками. Сама пластинка очень маленькая, примерно пять на пять миллиметров, а иголочек в ней около сотни. Это электроды, которые регистрируют электрическую активность отдельных нервных клеток в том месте, куда воткнуты. На голове есть разъём, который связывает по проводам мозг с компьютером и дальше - с внешним устройством. Уже есть пациенты, несколько человек, которые хорошо двигают, например, механической рукой: в эксперименте 2012 года женщина манипулятором берёт чашку кофе, шоколадку со стола, подносит её ко рту. Эта технология более чувствительна: электрод на коже снимает сигнал со 100-300 тысяч клеток, а здесь с каждого нейрона.

При имплантации такой пластины медику не требуется попасть точно в то место, которое управляет руками здорового человека. Достаточно воткнуть электрод в зону коры, которая в целом отвечает за подобные действия, а мозг сам разберётся, какие сигналы ему посылать. Такой вот он, мозг, умный.

Недавно прошло сообщение, что американцы собираются таким образом управлять самолётом. Реально ли это?

- Реально. Только самолёты будут падать, - объясняет Каплан. - Кто ж возьмётся управлять летательным аппаратом, если сигнал распознаётся через полторы - две секунды, да ещё с пятью процентами ошибок? Пока я не видел подобных разработок.

Как почувствовать механическую руку?

Одно дело - приказать механизму, совсем другое - получить от него обратную связь. Например, ощутить механической рукой шершавость поверхности, почувствовать, куда едет игрушечная машинка, увидеть картинку с телекамеры так, будто это твой собственный глаз. Здесь успехи киборгизации скромнее, но они есть.

Во-первых, обезьянам пробовали вживлять электроды не только в то место, откуда идёт сигнал, но и в сенсорную кору, которая связана с ощущениями. А на механической руке были датчики, распознающие текстуру предмета. И обезьяны уверенно отличали шероховатые поверхности от гладких.

Во-вторых, можно обучить мозг получать сигнал об успешности действия:

- Допустим, человек управляет машиной на мониторе компьютера. Если он делает успешный поворот, то в сенсорную кору его мозга поступает сигнал с частотой 10 герц, а если неверно - 30. Таким образом мозг понимает, правильно он действует или нет. И человек с закрытыми глазами может регулировать активность мозга и управлять механизмом, - рассказывает Каплан.

В-третьих, сенсорные датчики уже используются. Например, в видеокамерах для слепых. Конечно, мозг не получает столь же детальную информацию, как от живого глаза, потому что в сетчатке 126 миллионов чувствительных единиц - в компьютерном мире это называется пикселями. У настоящего глаза каждый такой пиксель имеет выход в мозг. Столько проводов от камеры внутрь головы не проведёшь.

- В природе не предусмотрена встреча со 126-мегапиксельными камерами, - говорит Каплан. - И пока нет соображений, как это сделать искусственно.

Но даже 400 входов уже позволяют слепому "видеть" препятствия и ориентироваться.

Когда мозг сольётся с компьютером?

Год назад появилось сообщение, что через интерфейс "мозг - компьютер" один человек передал слово "привет" другому. Оба были в специальных шапочках. Можно ли научиться передавать не только отдельные слова, но и связные мысли? Или вообще подключить мозг к компьютеру настолько, чтобы человек, допустим, видел панораму Манхэттена чужими глазами, то есть камерами, а сам находился в Ростове? И ещё управлял этими "глазами"? Где предел технологии?

- Если бы мы научились транслировать тексты в мозг, это было бы очень круто, - говорит Каплан. - Такие опыты проводят уже лет шестьдесят, с тех пор как в человеческий мозг начали вживлять электроды, но пока результатов нет. Если в алфавите 33 буквы, вы должны стимулировать мозг в 33 местах. И человек не просто должен понимать, что идёт стимуляция, но и распознать конкретное место. Неизвестно, как это сделать.

Такая же проблема и с виртуальным Манхэттеном. Проблема расшифровки. Понятно, что 126 миллионов электродов в мозг не затолкать, но, может быть, мы сумеем стимулировать его по небольшому числу каналов какими-то специальными способами?

- Для этого нужно расшифровать весь информационно-аналитический процесс, который идёт в голове, - объясняет Каплан. - Как контактирует компьютер с, допустим, флешкой? Они подогнаны друг к другу, одни и те же инженеры сделали и флешку, и компьютер. А здесь ситуация другая: одни инженеры - высокого класса - сделали мозг, другие - поделки вроде нейроинтерфейса. И вот они пытаются их совместить, хотя не знают ни кодов, ни формата, ни где что хранится… В этом вопросе я скептик.

Мозг гораздо сложнее компьютера. Самый совершенный процессор содержит два миллиарда операционных единиц, а мозг - миллион миллиардов. Это контакты между нервными клетками. Из анатомии известно, что самих клеток 86 миллиардов и на каждую приходится примерно 15 тысяч контактов.

К тому же мозг очень пластичен: вчера здесь проходили импульсы, а сегодня нет. Так что полная виртуальность пока откладывается. Но начало положено: мы уже умеем отличать свет от тени через камеру.

Киборг

Гибрид живого организма и электронного устройства. Любого пациента с имплантированным кардиостимулятором можно считать киборгом. Но лишь в последние несколько лет учёные нашли способы гибридизировать мозг человека и машину.

Системы "мозг - компьютер"

Развитие нейроинтерфейсов стимулировали в первую очередь работы учёного бразильского происхождения Мигеля Николелиса, опубликованные на рубеже 1990-х и 2000-х годов. Он создал системы управления механической рукой (управляла обезьяна) и восприятия тактильных ощущений. Так в этой области наметились два конкурирующих исследовательских направления.

Сегодня интерфейсы бывают двух типов: инвазивные и неинвазивные. Первые отмечают электрическую активность мозга и передают её на компьютер напрямую, через имплантированные в мозг электроды. Вторые расшифровывают сигналы энцефалограммы.

Есть учёные, вживившие электроды в свой мозг.

ри имплантации электродной матрицы некоторые нервные клетки разрушаются. Но это микроскопические нарушения, некритичные для мозга.

Экспериментальные нейроинтерфейсы

В 1963 году американский кибернетик и нейрофизиолог Грей Уолтер поставил эксперимент, в котором впервые был использован интерфейс "мозг - компьютер". "Пациентам по медицинским показаниям были имплантированы электроды в различные области коры мозга. Им предлагалось переключать слайды проектора, нажимая на кнопку. Обнаружив область коры, ответственную за воспроизведение этого мышечного паттерна, исследователь подключил её напрямую к проектору. Пациенты нажимали на отсоединённую кнопку, но слайды продолжали переключаться: управление осуществлялось непосредственно мозгом, причём даже быстрее, чем человек успевал нажать на кнопку", - пишут О. Левицкая и М. Лебедев в монографии "Интерфейс мозг - компьютер: будущее в настоящем".