От натурфилософии к нейропсихологии 3 страница
2.3.2 Гипотеза модулярности: вклад Джерри Фодора
2.3.3 Нейронные сети в психологии
2.4 Усиливающееся влияние нейронаук
2.4.1 Интерес к нейропсихологическим данным
2.4.2 Новые методы и старые проблемы
2.4.3 Нейробиологические модели познания
92
На рубеже 1960-х годов произошла быстрая смена сферы интересов и теоретической ориентации мировой экспериментальной психологии. Термин «когнитивный» стал относиться не только к высшим познавательным процессам, но также к восприятию и даже моторике, мотивации и эмоциям. Складывается впечатление, что иногда он используется, по словам голландского психолингвиста Флореса д'Аркэ, «в качестве модной этикетки, позволяющей сбыть залежалый товар» (Flores d'Arcais, 1975, p. 45). Отдельным примерам такого рода, несомненно, противостоит — особенно в лице междисциплинарной когнитивной науки — ведущее направление современных научных исследований поведения и психики человека. Это направление постоянно развивается и имеет значительное число способных и активных сторонников.
Главным достижением когнитивной психологии стало то, что она полностью восстановила прерванное бихевиоризмом почти на полвека изучение познания. После появления вычислительных машин анализ внутренних психических процессов и состояний внезапно перестал казаться чем-то сомнительным. Но и внутри области познавательных процессов оказались неожиданные пробелы. Так, на первых порах из рассмотрения выпала проблема обучения. Дело в том, что известные до тех пор компьютеры были устройствами, которые не обучались, их возможности были жестко заданы «хардвером» и программным обеспечением. Типичный компьютер последовательно оперирует дискретными символами. Для него характерно отделение активного процессора от пассивной памяти. Процессор имеет ограниченную пропускную способность, тогда как пассивная память, напротив, является существенно более емкой. Те же черты стали находить и в организации когнитивной сферы человека. Потребовалось более двух десятилетий и тысячи экспериментов для выявления противоречий и начала интенсивных поисков альтернативных архитектур. На первый план выдвинулись представления о параллельной обработке. Появились новые методы, позволяющие реконструировать и даже в какой-то мере «увидеть» процессы, разворачивающиеся в самих структурах мозга. В когнитивных исследованиях компьютерная метафора в различных ее модификациях все более уступает место теориям и моделям, основанным на анализе реальных нейрофизиологических механизмов и их эволюционного развития.
|
|
2.1 Информационный подход
|
|
2.1.1 Кибернетика и статистическая теория связи
Решающее значение для появления когнитивной психологии имела кибернетическая революция в науке и технике, истоки которой, в свою очередь, связаны с развитием формальной и математической логики. В середине 19-го века Дж.С. Милль и Дж. Буль были убеждены, что их системы логики описывают законы мышления (именно так называлась вышедшая в 1858 году книга Буля, содержавшая описание двоичной алгебры). Отличительной чертой психологических теорий, которые ориентировались на эти достижения, уже тогда был более или менее отчетливый отказ от рассмотрения физиологических механизмов, которые, правда, в то время были еще практически неизвестны.
В 1900 году немецкий математик Давид Гильберт сформулировал ряд нерешенных в 19-м столетии проблем, часть из которых была связана с формальным обоснованием таких аксиоматических систем, как арифметика, геометрия, пропозициональная логика. Речь шла о полноте, непротиворечивости и вычислимости выражений, записанных в терминах «языка» этих систем. Несмотря на усилия выдающихся авторов и полученные ими принципиальные результаты, заметное продвижение в решении этих проблем произошло только в 1930-е годы, благодаря работам Гёделя, Колмогорова, Поста, Чёрча и Тьюринга (см. 9.2.2). Английский логик Алан Тьюринг проанализировал проблему эффективности процедур вычисления. Идея эффективности близка лейбницевской идее алгоритма — последовательности операций, ведущих через определенное (конечное) число шагов к решению. Тьюринг показал, что любая эффективная процедура может быть реализована с помощью простого абстрактного автомата, получившего название «машины Тьюринга». Состояния и изменения состояний этой «машины» могут быть описаны с помощью четырех или пяти элементарных логических операций, считывающих и записывающих двоичные числа в ячейки передвигаемой вперед и назад бесконечной ленты. Эта работа сделала возможной очень наглядное теоретическое обоснование функционирования вычислительной техники, так как с формальной точки зрения всякое цифровое вычислительное устройство является ничем иным, как физическим воплощением «машины Тьюринга».
|
|
«Кибернетика» американского математика и физика Норберта Винера, вышедшая в свет в 1948 году и переведенная потом на многие языки (например, Винер, 1958), зафиксировала начало новой научно-технической революции, основанной на теории управления и сервомеханизмов, статистической теории связи и применении программируемых вычислительных устройств. Как пишут А.И. Берг и Б.В. Бирюков, «Кибернетика осуществляет формализованный подход к объектам различной природы — техническим, биологическим, социальным. Смысл
|
|
этого подхода состоит в том, чтобы выделить в них стороны, связанные с управлением и переработкой информации... Кибернетика влечет за собой изменение привычных взглядов на некоторые философские категории. Например, концепция управления как перевода управляемого объекта из одного состояния в другое в соответствии с целью (задачей) управления влечет за собой определенное переосмысление телеологического... подхода. Если до кибернетики представление о цели обычно считалось неотделимым от идеализма, то теперь становится очевидным, что это понятие органически входит в число наиболее общих понятий, используемых для описания реальности» (Берг, Бирюков, 1975, с. 503).
Так была реабилитирована одна из характерных особенностей того, что Курт Левин и неопозитивисты называли «аристотелевским способом образования понятий» (см. 1.3.2). Кибернетика стала первым опытом широкого синтеза научных дисциплин в 20-м веке, про-образом современной когнитивной науки. Многое в кибернетике было подготовлено работами не только математиков и физиков, но и философов, физиологов, психологов1. Уже у Аристотеля можно найти прекрасный образ управления кораблем, который может вестись к цели различными способами: капитаном по звездам, местным лоцманом по береговым ориентирам и т.д. Карл Бюлер в своей книге о причинах первого кризиса психологии (Buehler, 1927) прямо называл изучение процессов управления поведением на основе психического отображения (нем. Darstellung) окружения — центральной задачей этой научной дисциплины.
В более узком исследовательском контексте Кёлер (см. Metzger, 1975) дал анализ фиксационных движений глаз в терминах работы механизма с отрицательной обратной связью (англ. feedback). Примерно та же самая задача удержания прицела на движущемся объекте интересовала и Винера, который занимался созданием вычислительной машины для управления зенитным огнем. Важно отметить, что в случае систем с обратной связью, особенно если эти системы включают несколько уровней организации, теряет свою объяснительную силу столь важное в механике и в науках о неживой природе понятие линейных причин-
1 Ближайшим сотрудником Винера и его соавтором по статье «Поведение, целена
правленность и телеология» (Винер, 1958) был физиолог Розенблют. Разработка идеи це
ленаправленности была дана ранее такими физиологами, как П.К. Анохин, H.A. Берн-
штейн, В.ф. Вайцекер и Э.ф. Хольст. В последнее время нейрофизиология вновь стано
вится источником идей для всего комплекса когнитивных исследований (см. 2.4.3 и 9.1.1 ).
При этом происходит поиск понятий, которые могли бы лучше выразить сложность изу
чаемых систем, чем ставшие привычными понятия кибернетики. Так, по предложению
американского биолога Дж. Эдельмана (Нобелевская премия 1972 года за работы по им
мунологии) в когнитивной науке начинает использоваться понятие «повторного ввода»
(англ. re-entry), близкое понятию «обратная связь», но подчеркивающее значение само
организации нейронных систем живого, частично осознающего себя организма (напри-
94 мер, Edelman, 1985).
но-следственных связей. На место этого понятия выдвигается представление о круговой причинности. Например, в физиологических исследованиях картезианское понятие рефлекторной дуги было еще в 1930-е годы, то есть в период доминирования основанных на схемах «стимул-реакция» бихевиористских концепций и до официального появления кибернетики, заменено представлением о рефлекторном кольце, причем произошло это практически одновременно на Востоке (H.A. Бернш-тейн) и на Западе (Виктор фон Вайцекер). Так яблоки, по словам Гёте, одновременно падают осенью в разных садах.
Начиная с 1942 года в США стали практически регулярно происходить встречи, в которых участвовали ведущие кибернетики, лингвисты, физиологи и психологи. Междисциплинарные конференции и семинары, на которых закладывалась основа для совместных исследований, в духе последующей когнитивной науки, участились с окончанием войны и в других странах, в частности, в Советском Союзе. В 1950-е годы появились возможности и для прямых международных контактов разрозненных до того времени национальных групп. Из многочисленных достижений и нововведений кибернетики в психологию проникли первоначально, пожалуй, только положения статистической теории связи, изложенной в доступной для психологов форме Шенноном и Уивером (Shannon & Weaver, 1949). Эта теория — она стала известна потом как теория информации — предлагала простой формальный аппарат для оценки количества информации, содержащейся в том или ином сообщении.
Количество информации Н, передаваемое сообщением о реализации одного из N равновероятных событии, определяется по формуле:
Количество информации измеряется, таким образом, в двоичных ло гарифмических единицах, или битах. Передача количества информации, равного одному биту, позволяет уменьшить неопределенность ситуации вдвое, двух битов — вчетверо и т.д. Множество всех возможных событий, естественно, заранее должно быть известно на принимающей стороне. Приведенная выше формула описывет максимально возможное количество информации, достигаемое в случае, когда система событий совершенно случайна. Если система событий структурирована, так что разные события возникают с различной вероятностью/>, то среднее количество информации для множества из N событий определяется несколько более сложной формулой:
Именно эта информация Я при продолжительном предъявлении сигналов определяет нагрузку на канал связи. Разница между максимально
95
96
возможным и фактическим количеством информации определяет далее так называемую избыточность системы событий. Избыточность является ничем иным, как мерой организации такой системы, степени ее отличия от совершенно случайного, хаотичного состояния. Важным источником избыточности в канале связи являются, наряду с абсолютной вероятностью возникновения событий, условные вероятности следования события друг за другом. Так, поскольку появление, а главное, следование отдельных фонем друг за другом в звуках человеческой речи далеко не равновероятны, общая избыточность системы фонем (или же букв при письме и чтении) естественных языков оказывается довольно большой, примерно равной 70%.
С инженерной точки зрения, можно говорить далее о различной степени оптимальности процессов кодирования информации. Оптимальным является такое кодирование событий, например в виде последовательностей двоичных символов «0» и «1», при котором более вероятные события будут представлены, более короткими цепочками символов. Интересно, что соответствующая эмпирическая зависимость — чем частотнее слово в языке, тем оно короче — действительно известна в лингвистике, где она называется «вторым законом Ципфа». При оптимальном кодировании канал связи, имеющий пропускную способность С бит/с, будет передавать С/Н двоичных символов в секунду. Если кодирование не оптимально, то фактическая скорость передачи информации уменьшится. Она в принципе никогда не может превзойти пропускную способность канала С, а тем более стать бесконечной (Яглом, Яглом, 1973).
Первой претеоретической метафорой будущей когнитивной психологии стало, таким образом, понимание человека как канала связи с ограниченной пропускной способностью. Это понимание буквально совпадало с тем специфическим аспектом рассмотрения возможностей человека, который был характерен для проводившихся еще в годы Второй мировой войны инженерно-психологических исследований. Поскольку экстремальные условия войны и начавшегося сразу после нее военно-индустриального соревнования Востока и Запада вновь и вновь обнаруживали специфические слабости человеческого звена в системе человек—машина, необходим был единый язык описания ограничений как техники, так и самого человека-оператора. Теория информации была воспринята многими психологами и инженерами как своего рода лапласовская «мировая формула» (см. 1.1.2), позволяющая единообразно описать возможности не только технических звеньев человеко-машинных систем, но и большое количество собственно психологических феноменов.
2.1.2 Инженерная психология и ее эволюция
В силу их значительного и продолжающегося влияния на когнитивный подход, нам следует хотя бы кратко остановиться здесь на особенностях и эволюции исследований «человеческого фактора» {human factor engineering), получивших в Западной Европе и СССР название инженер ной психологии. Появление этой области исследований было вызвано целым рядом случаев отказа человеко-машинных систем, произошедших по вине человека. Один из наиболее драматических, хотя и малоизвестных эпизодов случился в декабре 1941 года на американской военно-морской базе Перл-Харбор, когда инженеры, обслуживавшие один из первых образцов только что поступивших на вооружение радиолокаторов, отчетливо увидели на экране отраженные от приближающихся японских самолетов сигналы, но просто не поверили, что такое количество сигналов возможно, и решили отправить аппаратуру на ремонт вместо того, чтобы сообщить в штаб флота о возможном нападении.
Потребовалось целое десятилетие, чтобы научиться аккуратно описывать подобные ситуации. Для этого инженерными психологами наряду с теорией информации стала использоваться заимствованная из радиотехники и психофизики теория обнаружения сигнала (Wald, 1950). Благодаря ряду допущений, эта теория позволила описать работу оператора в задачах на обнаружение с помощью всего лишь двух параметров: чувствительности (а") и критерия (β). Если первый параметр описывает сенсорные возможности различения сигнала на фоне шума, то второй, как мы сказали бы сегодня, связан именно с когнитивными переменными: представлением о вероятности появления сигнала, а также оценкой относительной «цены» последствий двух возможных и неизбежных в ситуации обнаружения ошибок — пропуска сигнала и ложных тревог. На основании этих когнитивных переменных формируется готовность оператора при прочих равных условиях подтверждать наличие сигнала (низкий, или либеральный критерий) либо воздерживаться от такого подтверждения (высокий, или консервативный критерий). С формальной точки зрения, именно завышенное положение критерия помешало операторам в Перл-Харборе подтвердить приближение воздушных целей.
На рис. 2.1 показаны два идеализированных примера ситуации обна
ружения сигнала для простейшего случая, при котором появление сигна
ла не меняет разброса значений распределения шума, а просто сдвигает
это распределение вправо по оси величин регистрируемой в сенсорных
каналах активности. Распределение шума (аналог спонтанной сенсорной
активности) предполагается нормальным и стандартным, так что его сред
нее равно нулю, а стандартное отклонение — единице. Верхний график
описывает ситуацию обнаружения слабого сигнала, сдвигающего рас
пределение шума лишь на 0,5 его стандартного отклонения. Величина 0,5
и есть значение параметра чувствительности, обычно обозначаемого как
d' (произносится «дэ штрих»). Нижний график иллюстрирует обнаруже- „_
Ρ =2,0 сигнал и шум |
шум |
β = 0,0 нет да
-2,0 -1,5 -1,0 -0,5 0 0,5 1,0 1,5 2,0
d" сенсорное возбуждение
-2,0 -1,5 -1,0 -0,5 0 0,5 1,0 1,5 2,0
а' сенсорное возбуждение
Рис. 2.1. Примеры использования аппарата теории обнаружения сигнала для описания ситуаций обнаружения слабого (А) и сильного (Б) сигналов на фоне шума.
98
ние более мощного сигнала. Расстояние между распределениями и, следовательно, чувствительность здесь больше: d' = 1,5. На обоих графиках также приведены по два возможных значения параметра критерия выбора ответа, β («бета»). Оператор, принимающий более низкий из этих двух критериев (β = 0,0), будет сообщать о появлении сигнала всякий раз, когда величина сенсорной активности превышает среднее для распределения шума значение. Критерий β = 2,0 означает, что о присутствии сигнала будет сообщаться, если величина сенсорной активности превысит два стандартных отклонения распределения шума.
Лейтмотивом множества исследований, проведенных с использованием аппарата теории обнаружения сигнала, стало представление о субоптимальности решений человека в ситуациях обнаружения. Особенно проблематичным оказалось постепенное ухудшение результатов обнаружения с увеличением времени наблюдения. Это ухудшение обычно состоит в ужесточении критерия принятия решений, что ведет к уменьшению числа ложных тревог, но чревато также и все более вероятными ошибками пропуска сигнала. Особенно яркими примерами этого явились сбои в обнаружении воздушных целей при охране наиболее важных государственных объектов системами противовоздушной обороны (ПВО) СССР и США в 1980-е годы. Так, в 1987 году немецкий летчик-любитель Маттиас Руст пересек со стороны Финляндии советскую границу, незамеченным долетел до Москвы и приземлился на Красной площади. Некоторое время спустя похожий инцидент произошел и в США, где недовольный налоговой политикой правительства фермер, захватив охотничье ружье, беспрепятственно долетел до центра Вашингтона, но разбился при попытке посадить свой самолет в саду Белого Дома. В обоих случаях операторы ПВО были «обезоружены» многолетним ожиданием вражеского нападения: стремясь избежать ложных тревог, они постепенно ужесточали критерии и в конце концов практически перестали замечать потенциально опасные цели.
Дата добавления: 2019-07-17; просмотров: 118; Мы поможем в написании вашей работы! |
Мы поможем в написании ваших работ!