Вот к таким выводам пришли ученые после этих и других сложных опытов (разумеется, помогала им не одна только Джесси).
И вскоре сами же себя опровергли.
На этот раз ради науки мучали обезьяну. У нее тоже раздвоили мозг, перерезав мозолистое тело, и стали дрессировать. Только задача здесь была посложнее. Сначала ее научили различать круг и крест. Потом, когда показывали крест, она должна была тянуть за шершавый рычаг, а увидев круг - за гладкий. Вся сложность-то вот в чем: экспериментаторы сделали так, что обезьяна могла тянуть за рычаг только той рукой, которая управлялась полушарием, не получавшим зрительной информации.
Фигуры "распознавало" одно полушарие, а рычаги - другое. Прямая связь между ними была нарушена, склад зрительных следов не сообщался со "складом" осязательным (через мозолистое тело коры). И все-таки животное справлялось с задачей: каждый раз тянуло за нужный рычаг. Роль координатора памяти выполнял, вероятно, ствол.
Итак, специального центра памяти, кажется, нет. По крайней мере его до сих пор не нашли. Полагают, что следы прошлых событий хранятся в разных отделах мозга: более простые - в стволе, более сложные - в коре. Вполне возможно, что зрительные впечатления записывают оптические центры коры, звуковые - слуховые и так далее.
По-видимому, в мозгу существуют и какие-то механизмы, которые обеспечивают временную синхронизацию зрительных, слуховых и других воспоминаний.
Сколько битов в мозгу?
Открытие феномена Пенфилда и известные науке случаи исключительной памяти, видимо, доказывают, что все впечатления, которые мы получаем, полностью сохраняются в нашей памяти. (Хотя сознание обычно имеет дело лишь с небольшой их частью.)
Какова же тогда информационная емкость запоминающего устройства мозга?
И поскольку сейчас нам потребуется терминология теории информации, придется совершить экскурс в самые начальные ее пределы.
В последние годы работу мозга все чаще сравнивают с работой электронно-вычислительных машин. О машинах таких вы знаете. Они играют в шашки, решают сложные шахматные и другие логические задачи. Чтобы решить задачу, нужно, как известно, уяснить себе ее условия. Поэтому, прежде чем ввести в машину эти условия, их кодируют, то есть переводят в условную, "понятную" машине форму - код. Чаще всего пользуются двоичным кодом, то есть при решении, например, логической задачи у машины два выбора: "верно - неверно", "да - нет".
Электронно-вычислительная машина в идеальном варианте состоит из колоссального числа двухпозиционных переключателей. Они соединены друг с другом в определенном порядке. И схему их соединения определяет тот тип задач, которые ей под силу. Двухпозиционный переключатель, как это и следует из названия, срабатывает только в двух направлениях. Или он, переработав определенным образом, пропускает электрический импульс к следующему переключателю (это равнозначно решению "верно", "да"), или не пропускает, если тот не "подходит" для него ("неверно", "нет"). Не получивший визы на вход импульс бежит к другому переключателю и так в лабиринте схем отыскивает верный путь.
Значит, по существу, сложную логическую задачу машина разбивает на множество элементарных действий, при решении которых однозначного ответа "да" или "нет" достаточно, чтобы продолжить поиск решения в нужном направлении. Ведь и мы поступаем так же, решая сложную математическую задачу.
Полагают, что на подобном принципе основана и работа мозга. А роль двухпозиционных переключателей в нем играют нейроны. Одни сигналы, на которые настроены, они пропускают, другие "запирают" или пускают в обход, образуя новые логические цепи.
Ежесекундно мозг наш получает сверхогромную информацию о событиях, происходящих внутри и вне организма. Причем вся эта информация, какого бы рода она ни была, боль ли это в желудке или сообщение о запуске ракеты на Луну, передается в мозг в одной и той же форме: в виде электрических импульсов.
Мы уже знаем, как этот поток информации закодирован.
Помните: "сила" и продолжительность каждого импульса одинаковы, а частота, с какой они пробегают по нерву, и число их в "залпе" разные. Значит, в каждую секунду нерв передает импульс или не передает, то есть, по существу, работает по двоичному коду: "есть импульс - нет импульса". Такой код дает возможность ввести в мозг чудовищное количество самой разнородной информации.
Объем информации, которую может "переработать" какое-нибудь счетное устройство, или, как говорят кибернетики, информационную емкость его, выражают в битах. Один бит равен количеству двоичных единиц, или двухпозиционных переключений (типа "да - нет") в секунду.
Так, если нервное волокно способно передать 100 импульсов в секунду, это значит, что в секунду оно передает 100 двоичных единиц информации (100 импульсов и 100 пауз). Пользуясь терминологией кибернетиков, мы сказали бы, что это нервное волокно способно передать 100 битов информации в секунду, или иначе: информационная емкость его равна 100 битам.
Вот теперь мы можем вернуться к вопросу, поставленному несколькими страницами раньше. Если мозг наш полностью сохраняет впечатления, какова же тогда информационная емкость его запоминающего устройства?
Джон фон Нейман в книге "Вычислительная машина и мозг" пишет, что она должна быть равна в таком случае 280 000 000 000 000 000 000 битов информаций. Двумстам восьмидесяти квинтильонам! Для записи одного бита нужен один двухпозиционный переключатель. Роль переключателей в мозгу играют нейроны. Предполагая, что 10 миллиардов из них принимают участие в сохранении памяти, получим, что на каждый нейрон приходится объем информации, эквивалентный приблизительно 30 миллиардам битов!
По мнению Вулдриджа, однако, вычисления эти сильно завышены. Наверное, далеко не все из того, что происходило с нами, запечатлевается в мозгу, считает он.
Несмотря на то, что пациенты Пенфилда очень отчетливо и реально видели себя в прошлом, вряд ли картины эти воспроизводились в их мозгу с фотографической точностью.
Пенфилд сам писал о таких больных: "Здесь отсутствуют ощущения, которых он не замечал, разговоры, к которым не прислушивался".
"Вероятно, в памяти, - говорит Вулдридж, - регистрируется лишь небольшая доля переживаемых нами событий и даже в тех событиях, которые действительно помним, мы выделяем и фиксируем лишь ничтожную часть первоначальных сенсорных данных".
А вот косвенные доказательства правоты этой точки зрения.
Обыкновенный тест на внимание. Вам показывают десятка два предметов, потом их убирают и просят назвать все, что вы только что видели. Человек средних способностей может сразу запомнить и описать не больше 5–10 предметов.
Ученые, имеющие дело с вычислительными машинами, называют эти предметы информационными объектами. Каждый такой объект заключает в себе приблизительно 15 битов информации. Стало быть, общая информация, с которой человек одновременно может иметь дело: 75–150 битов.
Такие же психологические опыты показали, что количество информации, которое мозг способен воспринять не бессознательно, а сохраняя хотя бы недолго в памяти, при самых оптимальных условиях равно 25 битам в секунду.
Производя дальнейшие расчеты с этой реальной величиной, регистрирующей работы мозга, получим, что нормальная, "битовая" емкость памяти должна равняться 50 миллиардам битов. А это соответствует 5 битам или двухпозиционным переключателям на нейрон.
Вместо 30 миллиардов у фон Неймана!
Где живет наша память?
Теперь о механизмах образования самой памяти.
Некоторые ученые считают, что в этом "виноваты" какие-то физико-химические сдвиги, происходящие в телах нейронов. Другие (и их большинство) говорят: все дело в синапсах. Напомню, что синапс - это входная "клемма" нейрона: место соединения с ним отростков (аксонов) других нервных клеток. На теле нейрона и на его дендритах синапсов иногда бывает до тысячи!
Если память хранят синапсы, то понятно, как мозгу удается записывать такую колоссальную информацию. Даже самые заниженные расчеты убеждают, что одним нейронам это не под силу.
Еще больше увеличиваются возможности записывающего устройства мозга, если принять точку зрения профессора Эйди из Калифорнийского университета в Лос-Анжелосе. Он считает, что в образовании следов принимает участие и глия - материал, которым заполнены в мозгу все промежутки между нейронами. Глиальные клетки, "запоминая", изменяют, по-видимому, свои электрические свойства, в частности сопротивление.
А совсем недавно появились работы, которые доказывают, что в образовании и хранении следов памяти принимает участие РНК - рибонуклеиновая кислота.
У плоских червей планарий вырабатывали несложные условные рефлексы. Стало быть, обучали их. При этом выяснилось, что после обучения в нервных клетках червей стало больше РНК. Потом "ученых" червей скормили червям-"неучам". И вдруг у "неучей" без всякого обучения появились "привычки" съеденных приятелей.
С другими обученными планариями поступили не лучше. Каждую разрезали на несколько частей. Правда, для червей это не очень страшно: через некоторое время из каждого кусочка вырастает новый червяк. Как говорят ученые, кусочки эти регенерируют. Так вот, регенерировавшие части планарий продолжали сохранять все "привычки" своих целых, так сказать, основоположников.