История началась в 60-е годы прошлого века, когда в нескольких лабораториях стали работать с имплантированными в мозги обезьян и людей электродами. Человек с таким имплантатом нажимал на кнопку, меняя слайды в проекторе. Затем кнопку от проектора отсоединяли, но слайды продолжали переключаться по сигналу. В это же время начались работы по восстановлению слуха глухих через микрофон, совмещённый со слуховым нервом. Но настоящий прорыв лет назад, когда появились достаточно мощные компьютеры и новые алгоритмы.
Как работают нейроинтерфейсы, нам рассказал Александр Каплан, руководитель лаборатории нейрофизиологии и нейрокомпьютерных интерфейсов МГУ им. М.В. Ломоносова.
- В интерфейсе "мозг - компьютер" нет ничего мистического, - говорит Каплан. - Технология позволяет регистрировать электрическую активность мозга и преобразовывать её в команды для внешних исполнительных систем. Мозг спрятан глубоко в черепе, но электрические поля, создаваемые нервными клетками, пробиваются через кости, мышцы, кожу и улавливаются электродами на кожной поверхности головы. Это хорошо всем знакомый метод электроэнцефалографии - нет такой поликлиники, где бы он ни применялся для диагностики. Мы в лаборатории тоже занимались диагностикой, но в какой-то момент мне стало интересно: а почему бы этот сигнал не послать на какое-нибудь внешнее устройство, чтобы управлять им?
Когда мы управляем руками, мы их видим и ощущаем, но электрических полей в голове мы не чувствуем. Оказалось, что этому можно научиться: на экране компьютера испытуемому показывают активность мозга и просят так или иначе изменить её. Постепенно у него начинает получаться. Отсюда уже недалеко до нейроинтерфейса, нужно лишь послать изменение ритма на внешнее устройство.
- Что можно сделать? Ну, конечно, игрушки - они есть уже сейчас. Например, человек управляет игрушечной машинкой, изменяя активность мозга, - рассказывает Каплан. - Задаёт ей повороты. А наша задача - вычленить те самые сигналы мозга, составить нужный алгоритм. Ошибок должно быть как можно меньше, а время распознавания сигнала как можно короче. Если с момента, когда ребёнок задумал повернуть машинку, до самого действия проходит полчаса, какая уж тут игра!
Лучше всего спонсируются медицинские применения. И, надо сказать, интерфейс "мозг - компьютер" там нужнее всего. Например, есть постинсультные пациенты, которые не могут говорить и находятся в таком состоянии годами. Что делаем? Рисуем на экране компьютера матрицу, где в каждой клеточке написана буква. Клеточки мигают по очереди со скоростью 5-6 помигиваний в секунду. А в это время компьютер показывает энцефалограмму: если какая-то буква заинтересовала человека, реакция будет сильнее. Мы детектируем внимание и печатаем букву. Сейчас, по словам учёного, в его лаборатории скорость распознавания сигнала - примерно 8-10 букв в минуту, а безошибочных попаданий 95%.
Такой аппарат уже год тестируется в Первой градской больнице. Человек может общаться с помощью интерфейса, но пока медленно. В разработке - выход в интернет усилием мысли.
То же самое с парализованными пациентами, которые научились управлять инвалидным креслом, да и механическим экзоскелетом, если вспомнить первый удар на ЧМ-2014.
Есть и другой способ расшифровать намерения мозга - вживить в него электроды. В мозг втыкается пластинка, усеянная иголочками. Сама пластинка очень маленькая, примерно пять на пять миллиметров, а иголочек в ней около сотни. Это электроды, которые регистрируют электрическую активность отдельных нервных клеток в том месте, куда воткнуты. На голове есть разъём, который связывает по проводам мозг с компьютером и дальше - с внешним устройством. Уже есть пациенты, несколько человек, которые хорошо двигают, например, механической рукой: в эксперименте 2012 года женщина манипулятором берёт чашку кофе, шоколадку со стола, подносит её ко рту. Эта технология более чувствительна: электрод на коже снимает сигнал со 100-300 тысяч клеток, а здесь с каждого нейрона.
При имплантации такой пластины медику не требуется попасть точно в то место, которое управляет руками здорового человека. Достаточно воткнуть электрод в зону коры, которая в целом отвечает за подобные действия, а мозг сам разберётся, какие сигналы ему посылать. Такой вот он, мозг, умный.
Недавно прошло сообщение, что американцы собираются таким образом управлять самолётом. Реально ли это?
- Реально. Только самолёты будут падать, - объясняет Каплан. - Кто ж возьмётся управлять летательным аппаратом, если сигнал распознаётся через полторы - две секунды, да ещё с пятью процентами ошибок? Пока я не видел подобных разработок.
Одно дело - приказать механизму, совсем другое - получить от него обратную связь. Например, ощутить механической рукой шершавость поверхности, почувствовать, куда едет игрушечная машинка, увидеть картинку с телекамеры так, будто это твой собственный глаз. Здесь успехи киборгизации скромнее, но они есть.
Во-первых, обезьянам пробовали вживлять электроды не только в то место, откуда идёт сигнал, но и в сенсорную кору, которая связана с ощущениями. А на механической руке были датчики, распознающие текстуру предмета. И обезьяны уверенно отличали шероховатые поверхности от гладких.
Во-вторых, можно обучить мозг получать сигнал об успешности действия:
- Допустим, человек управляет машиной на мониторе компьютера. Если он делает успешный поворот, то в сенсорную кору его мозга поступает сигнал с частотой 10 герц, а если неверно - 30. Таким образом мозг понимает, правильно он действует или нет. И человек с закрытыми глазами может регулировать активность мозга и управлять механизмом, - рассказывает Каплан.
В-третьих, сенсорные датчики уже используются. Например, в видеокамерах для слепых. Конечно, мозг не получает столь же детальную информацию, как от живого глаза, потому что в сетчатке 126 миллионов чувствительных единиц - в компьютерном мире это называется пикселями. У настоящего глаза каждый такой пиксель имеет выход в мозг. Столько проводов от камеры внутрь головы не проведёшь.
- В природе не предусмотрена встреча со 126-мегапиксельными камерами, - говорит Каплан. - И пока нет соображений, как это сделать искусственно.
Но даже 400 входов уже позволяют слепому "видеть" препятствия и ориентироваться.
Год назад появилось сообщение, что через интерфейс "мозг - компьютер" один человек передал слово "привет" другому. Оба были в специальных шапочках. Можно ли научиться передавать не только отдельные слова, но и связные мысли? Или вообще подключить мозг к компьютеру настолько, чтобы человек, допустим, видел панораму Манхэттена чужими глазами, то есть камерами, а сам находился в Ростове? И ещё управлял этими "глазами"? Где предел технологии?
- Если бы мы научились транслировать тексты в мозг, это было бы очень круто, - говорит Каплан. - Такие опыты проводят уже лет шестьдесят, с тех пор как в человеческий мозг начали вживлять электроды, но пока результатов нет. Если в алфавите 33 буквы, вы должны стимулировать мозг в 33 местах. И человек не просто должен понимать, что идёт стимуляция, но и распознать конкретное место. Неизвестно, как это сделать.
Такая же проблема и с виртуальным Манхэттеном. Проблема расшифровки. Понятно, что 126 миллионов электродов в мозг не затолкать, но, может быть, мы сумеем стимулировать его по небольшому числу каналов какими-то специальными способами?
- Для этого нужно расшифровать весь информационно-аналитический процесс, который идёт в голове, - объясняет Каплан. - Как контактирует компьютер с, допустим, флешкой? Они подогнаны друг к другу, одни и те же инженеры сделали и флешку, и компьютер. А здесь ситуация другая: одни инженеры - высокого класса - сделали мозг, другие - поделки вроде нейроинтерфейса. И вот они пытаются их совместить, хотя не знают ни кодов, ни формата, ни где что хранится… В этом вопросе я скептик.
Мозг гораздо сложнее компьютера. Самый совершенный процессор содержит два миллиарда операционных единиц, а мозг - миллион миллиардов. Это контакты между нервными клетками. Из анатомии известно, что самих клеток 86 миллиардов и на каждую приходится примерно 15 тысяч контактов.
К тому же мозг очень пластичен: вчера здесь проходили импульсы, а сегодня нет. Так что полная виртуальность пока откладывается. Но начало положено: мы уже умеем отличать свет от тени через камеру.
Гибрид живого организма и электронного устройства. Любого пациента с имплантированным кардиостимулятором можно считать киборгом. Но лишь в последние несколько лет учёные нашли способы гибридизировать мозг человека и машину.
Развитие нейроинтерфейсов стимулировали в первую очередь работы учёного бразильского происхождения Мигеля Николелиса, опубликованные на рубеже 1990-х и 2000-х годов. Он создал системы управления механической рукой (управляла обезьяна) и восприятия тактильных ощущений. Так в этой области наметились два конкурирующих исследовательских направления.
Сегодня интерфейсы бывают двух типов: инвазивные и неинвазивные. Первые отмечают электрическую активность мозга и передают её на компьютер напрямую, через имплантированные в мозг электроды. Вторые расшифровывают сигналы энцефалограммы.
Есть учёные, вживившие электроды в свой мозг.
ри имплантации электродной матрицы некоторые нервные клетки разрушаются. Но это микроскопические нарушения, некритичные для мозга.
В 1963 году американский кибернетик и нейрофизиолог Грей Уолтер поставил эксперимент, в котором впервые был использован интерфейс "мозг - компьютер". "Пациентам по медицинским показаниям были имплантированы электроды в различные области коры мозга. Им предлагалось переключать слайды проектора, нажимая на кнопку. Обнаружив область коры, ответственную за воспроизведение этого мышечного паттерна, исследователь подключил её напрямую к проектору. Пациенты нажимали на отсоединённую кнопку, но слайды продолжали переключаться: управление осуществлялось непосредственно мозгом, причём даже быстрее, чем человек успевал нажать на кнопку", - пишут О. Левицкая и М. Лебедев в монографии "Интерфейс мозг - компьютер: будущее в настоящем".