Глава 9. Алеатика и другие науки



Не будучи ни в какой мере знатоком упоминаемых далее наук (кроме биологической эволюции), я не претендую ни на оценку их основной проблематики, ни на типичность для них тех примеров, которые привожу далее с целью показать некоторые возможности алеатики. Не в силах уследить за новейшими успехами этих наук, надеюсь, что читатели простят меня за отставание на 10-15 лет, если вспомнят, что физики до сих пор обсуждают, в качестве современных, вероятностные вопросы квантовой теории середины ХХ века, что методологи рассуждают о случайности в понятиях 1920-х годов, а дарвинисты вообще основывают свои теории на идее случайной мутации, как она выглядела сто лет назад. В таких условиях мои заметки вполне могут быть полезны, тем более, что мне тут важнее увязать новое со старым, нежели гнаться за новейшим.

 

Случайность в планетной астрономии

В работе [Чайковский, 1987] было показано, что планетная астрономия (и планетная механика в частности), слывущая самой точной и детерминированной из наук, в действительности пронизана идеями случайности, притом подчас самыми расплывчатыми. Так, случайность вроде обратного вращения Венеры вряд ли можно уверенно отнести к какому-либо типу (даже к уникальности) или какой-либо ступени.

Один из выводов был тот, что "гораздо перспективнее искать объяснения статистической закономерности в целом", нежели каждому отдельному факту (с. 82). Проводилась параллель между космической и биологической эволюцией (мы затронем ее ниже, в п. 8). Статья касалась классических областей небесной механики, не связанных с проблемой многих тел; теперь добавлю, что доказательство невозможности однозначного решения задач движения трех и более тел (1966 г.) ввело сюда все реалии теории динамического хаоса.

Вот в пояснение факт из теории планетных колец. Там описаны "частицы-странники", чьи траектории похожи на траектории в странных аттракторах. "Перепутывание областей питания и зон незахваченных обломков объясняется наличием обломков-странников, которые, попеременно ускоряясь и замедляясь в поле крупных расходящихся тел, путешествуют между ними по довольно сложным траекториям". Судьба такой частицы "вблизи спутника, который она догнала, также может сложиться по-разному в зависимости от совсем ничтожных смещений в начальных координатах. Можно сказать, что частицы-странники – это стохастическая компонента нашей динамической и, в основном, детерминированной системы" [Горькавый, Фридман, 1994, c. 120-121].

Эта случайность ступени 1 (согласно п. 8-3.2) может как обладать вероятностной компонентой, так и не обладать, но в любом варианте случайная компонента играет организующую роль в создании и поддержании целостной системы.

 

Связь алеатики с физикой

Гауссова идеология возникла из тех физических задач, которые легко трактуются в рамках второй ПМ. Однако считается (и в этом влияние третьей ПМ), что нормально распределена любая физическая величина, которая, подобно ошибке измерения, является суммой большого числа независимых малых слагаемых, почти уравнивающих друг друга. Но почему эти незримые компоненты именно суммируются? Почему они независимы? Иногда говорят, что их взаимодействия могут быть более сложными, но что таковой сложностью можно "в первом приближении" пренебречь. При этом, однако, встает более каверзный вопрос – почему порядок малости этих пренебрегаемых добавок выше порядка малости самих незримых величин? Если вдуматься, тут налицо порочный круг (см. конец главы 3).

Единственным оправданием гауссовой идеологии служит практическая эффективность ТВ, т.е. ссылка на тот факт, что она работает там, где она работает. Пример радиоактивного распада рушит и эту сомнительную аргументацию: Откуда данный атом "знает", что сейчас именно ему надо распасться, если не взаимодействует с другими объектами? Распад идет в некоем событийном вакууме и все-таки проявляет те же свойства, которые характерны для потока взаимодействий. Так в потоке ли суть?

Налицо альтернатива. Либо событийный вакуум – фикция, т.е. не зависимых ни от чего событий попросту не бывает (и третий эффект Шноля, если он имеет место, говорит в пользу этого); тогда надо говорить не о событийном вакууме, а о "черном ящике взаимодействий" [Заславский, 1984, с. 215] как о причине гауссовости многих процессов. Либо он действительно существует, но тогда он явно обладает тем свойством, что возникающие там случайности обладают равновозможностью (симметричны).

В п. 7-1 говорилось, что, по-видимому, взаимодействие событий (если оно не сводится к перемешиванию) искривляет тройную симметрию случайности, вплоть до исчезновения вероятностей. Несимметричная случайность легче всего выявляется там, где налицо ее индикатор – гиперболическое распределение частот. Ту же роль индикатора играет и гиперболическая релаксация: если чисто вероятностная релаксация имеет, как известно, вид экспоненты от времени (скорость затухания пропорциональна числу частиц), то в когерентных системах она носит гиперболический характер (для простой гиперболы скорость пропорциональна числу пар взаимодействующих частиц).

На этом основана диагностика физической когерентности: Фриц-Альберт Попп, немецкий биофизик и автор концепции биофотонов, объясняющей феномен "биогенетических лучей" (сверхслабого полихромного когерентного излучения биообъектов, которое открыл А.Г. Гурвич), пишет, что если зарегистрирована экспоненциальная релаксация, то можно считать продукт распада исходящим из хаотического поля, а если гиперболическая, то – из когерентного поля. "Для этого решения нет более необходимости придерживаться идеи постоянной частоты" – заключает Попп [Recent advances..., 1992, c. 53], желая этим сказать, что нашел объяснение полихроматического характера биофотонного "лазера"; с позиции алеатики можно сказать большее: по-видимому, стоит искать неустойчивость частот этого излучения. Однако, когда Попп полагает биофотоны основным инструментом самоорганизации в эволюции, это кажется мне преувеличенным. Осторожнее будет и здесь говорить лишь об организующей роли случайности.

Столь же важна гиперболическая релаксация в спин-стекольной термодинамике, т.е. в теории магнитных атомов, хаотически рассеяных в немагнитном образце. Не берусь обсуждать суть этой теории, но очевидна неадэкватность ее аппарата (ТВ) ее субстрату. Кроме неэкспоненциальной релаксации, здесь имеют место множественные фазовые переходы, носящие характер случайного ветвящегося (фрактального) процесса, а такие процессы обычно обладают бесконечными дисперсиями и, следовательно, неустойчивыми частотами. Понятно, почему "для многих физиков, занимавшихся проблемой спиновых стекол, состояние дел в этой области продолжает оставаться безнадежной путаницей из тысяч разноречивых экспериментов... и десятков сомнительных теорий, ни одна из которых не имеет отношения к эксперименту" [Дорофеев, Доценко, 1994, c. 22].

Подробнее, но сложнее проблему излагает обзор [Доценко, 1993], где в п. 2.4 прямо отмечается, что "самоусреднение" (т.е. усреднение по макроскопическому образцу) в "остеклованных" (структурированных, но не кристаллических) телах редко что дает. "Стеклование" оказалось одной из основных процедур не только в биофизике, но и в физике всяких полимеров – см. обзор [Гросберг, 1997], где, в частности, отмечено отличие случайностных характеристик "остеклованных" тел ото всех прочих. В итоге видим, что "возможность применения методов традиционной статистической механики (распределение Гиббса и т.п.) представляется весьма загадочной... и не вполне понятно, когда можно, а когда не вполне" [Доценко, 1993, c. 7]. Дело явно за алеатикой.

Две физические теории, статистическая и квантовая, прямо построены на идее случайности, но первая основана на идее эргодичности, скорее мировоззренческой, чем физической, и мы отложим ее рассмотрение до главы 10. Пока же обратимся к квантам.

Как писал в 1956 году Поппер, "Главный аргумент в пользу интерпретации вероятности как предрасположенности следует искать в ее способности устранить из квантовой теории некоторые крайне неудовлетворительные элементы иррационального и субъективистского характера" [Поппер, 1983, с. 422]. Достаточно заглянуть в недавнюю литературу, чтобы убедиться, что цель эта не достигнута: споры идут прежние, те же, что сорок лет назад, до Поппера. Не мне судить об их сути, но замечу, что без алеатики они будут и впредь топтаться на месте.

В теории квантов применяется стандартная ТВ, следовательно частоты предполагаются устойчивыми. Так ли это на деле? Ведь источник вероятностного, очевидный в механике (перемешивание, неустойчивость, суммирование малых помех), тут не виден совсем; нет уверенности и в наличии "событийного вакуума" – тоже возможного источника симметрии случайностей (см. п. 7-1). Оправданна ли уверенность ученых в том, что волновая функция описывает именно амплитуду вероятности?

Вспомним, что сперва теорию квантов называли "квантовая механика", т.е. явно или неявно стремились трактовать ее (как и "статистическую механику") в рамках второй ПМ. Отсюда и планетарная модель Бора, и волновое уравнение Шрёдингера, и (что ныне звучит совсем странно) термин "матричная механика" в отношении матричной (т.е. семиотической по сути) модели квантовой системы. На мой же взгляд, теория квантов впервые в Новом времени ориентировала физику на системную ПМ (одновременно то же сделала теория относительности), но перейти от второй ПМ к четвертой не удалось без обращения к третьей, что и породило массу искусственных проблем.

Далее, какое отношение к вероятностям имеет соотношение неопределенностей? Напомню, что его обобщение – принцип дополнительности Бора – с успехом применяется и к неформализованным случайностям, когда о вероятностях речи нет и лучше говорить о случайности как свободном выборе – с предрасположенностью или без нее. Можно надеяться, что по решении этих и подобных им вопросов "неудовлетворительные элементы" квантовой теории изрядно поредеют.

Как пишет С.Я. Беркович [1993, c. 64], существуют "трудности на пути представления квантовой механики как статистической теории", заставляющие вводить даже такие уловки, как "представление о квантовой частице, движущейся вспять во времени". По Берковичу, "свойства квантовых объектов определяются не их непосредственным окружением, но глобальной структурой целостной системы". Если же атом – система, то свойства случайности квантовых явлений надо не постулировать (как требовали первая и третья ПМ), а выводить из сути системы. Системная же случайность, как мы видели, часто оказывается нестохастической (невероятностной).

Смутную потребность в анализе природы квантовой случайности выражал и Ричард Фейнман: <<У нас нет хорошей модели для объяснения частичного отражения от двух поверхностей; мы только вычисляем вероятность... Я не собираюсь объяснять, как фотоны в действительности "решают" вопрос, отскочить ли назад или пройти насквозь. Это неизвестно. (Возможно, вопрос не имеет смысла.)>>; единственную альтернативу такому псевдознанию Фейнман видел в каком-то механизме ("колесики" и "шестеренки") внутри фотона, упомянув впрочем загадочную фразу из "Оптики" Ньютона, где частичное отражение объяснялось неким предрасположением частиц света; обе идеи Фейнман [1988, c. 20-24] отверг. Как видим, выбор вёлся между второй, третьей и шестой ПМ (по-моему же, тут более перспективна четвертая).

Наконец, не стоит обожествлять системность. Пусть Вселенная и система, но ее происхождение от этой констатации не проясняется. Не лучше ли сказать, что выход ее из сингулярного состояния, описываемый как Большой взрыв, можно описать на языке пропенсивности? Тогда и "антропный принцип космологии" получит рациональный статус. На это обстоятельство мое внимание любезно обратила философ Е.А. Мамчур.

Суть ее замечания, как я его понимаю, в том, что данный принцип выведен не из существа дела, а из той познавательной трудности, которая вызвана господством статистической ПМ: если пространства (как физическое, так и все абстрактные пространства, например, событийное) мыслить однородными и изотропными, то совпадение параметров, необходимое для возникновения материи и жизни, выглядит невероятным. Да, оно невероятно, если полагать его совокупностью независимых случайностей, но зачем полагать это? На каком основании принято прилагать идею независимости к тому, о чем ничего не известно?

До недавних пор было принято считать независимыми все события, связи между которыми нет никаких оснований ожидать. Т.е. было принято считать независимость первичной, а всякую связь – следствием каких-то событий. Пропенсивный подход явился альтернативой этой убежденности: если мы ничего не знаем о зависимости, то можем предполагать ее наличие с тем же правом, что и независимости; более того, мы просто обязаны рассматривать обе альтернативы. Если же допустить, что мировые константы первично связаны в рамках неизвестной пока теории, то антропный принцип из мировоззренческой аксиомы превратится в одно из следствий этой теории. Возможно, в этом пункте обойдется вообще без алеатики, но следует всегда иметь в виду, что неизвестные нам связи могут оказаться нежесткими, т.е. каком-то смысле случайными.

 

Связь с экономикой

Итальянской экономической статистике принадлежит заслуга выявления гиперболического распределения людей по их богатству – первый шаг здесь сделал в 1830 г. Адриано Бальби, а в науку они вошли через 70 лет благодаря Вильфредо Парето. (Ежегодные заработки, наоборот, чаще всего распределены в обществе логнормально, и это обычная ситуация: гипербола возникает там, где есть система с памятью). Это хорошо известно [Кудрин, 1991; Шрёдер, 2001], как и то, что большой интерес в экономике проявляется сейчас к фрактальной случайности [Шрёдер, 2001, c. 178, 208]. Зато остается почти незамеченным факт двухсотлетней путаницы в понимании (точнее, в непонимании) роли случайности для схем обратной связи.

Тут наиболее (и всех скандальнее) известен английский экономист Томас Мальтус, выступивший в 1798 году с брошюрой "Очерк о населении", в которой он бросил в общество понятие "борьба за существование". И хотя сам он вскоре испугался своих заявлений о "лишнем на пиру природы" и коренным образом переработал свой "Очерк" (обратившийся в спокойный статистический двухтомник, мало кем читаемый), однако идея была подхвачена читающей публикой в первичном и самом примитивном виде. Впоследствии она породила, в частности, дарвинизм.

Менее известно, что в 1890 году в Лондоне появились две работы – кембриджского экономиста Альфреда Маршалла [Marshall, 1890] и теоретика русского анархизма П.А. Кропоткина [Kropotkin, 1890], каждая из которых пыталась в своей науке поколебать мнение о благотворности конкуренции. Маршалл (в молодости – последователь дарвинизма [Селигмен, 1968, c. 297]) убеждал, что победа в рыночной конкуренции происходит не столько в силу лучшего качества или меньшей себестоимости изделий, сколько в силу "удачного начала деятельности" фирмы. <<Здесь присутствует элемент "случайной стоимости" ("opportunity value"), которая в конкурентной ситуации легко может исчезнуть>> [Селигмен, 1968, c. 309]. Другими словами, итог конкуренции часто бывает случайным, т.е. не связанным с профессиональным преимуществом одного конкурента над другими. (Динамика, как видим, сходна со случайным выживанием клона, о чем мы не раз толковали в предыдущих главах. Хотя замечу, что никакой конкуренции в схеме клонального выживания нет.)

Однако никто тогда, включая самого Маршалла, особого значения этому суждению не придал. Лишь через сто лет экономисты и социологи стали обращать внимание на то, что конкурент часто (а может быть и как правило?) побеждает по причинам, никакого отношениия к качеству его продукции не имеющим, т.е. случайным в смысле Б (см. п. 8-1). Затем выяснилось, что в экономике есть обширная область, где конкуренция даже больше мешает развитию, чем способствует, и что к ней относятся как раз наиболее продвинутые отрасли – например, электроника.

Американский экономист Брайан Артур, взявшийся разрабатывать эту область, отмечает, что экономическая наука долго игнорировала новую проблематику по чисто модельным обстоятельствам: "До недавних пор авторы учебников по традиционной экономике обычно преподносили свою науку как некую обширную ньютоновскую систему с единственным равновесным состоянием", причем в ней "неполадки или временные возмущения ... быстро компенсируются противоложно направленными силами" [Артур, 1990, с. 66]. Эту модель (явно механическую по его мнению) автор считает "фатально простой структурой, навязанной ей [экономике] в XVIII в.", т.е. во времена Адама Смита.

Мне остается добавить: ссылка на Смита (как и часто проводимая тут параллель с принципом Ле Шателье) ясно говорит, кроме механического, о статистическом компоненте модели. Это характерно: почти никто из ученых не видит различия между второй и третьей ПМ (исключение составил, как мы видели в п. 5-3.2, Аттали, различивший "ньютоново" и "гиббсово" понимания природы).

На самом же деле, рыночная идеология еще у Смита несла, кроме статистического (баланс, конкуренция), также и системный компонент: «невидимая рука», реализующая общее благо, и идея homo oeconomicus — бизнесмена, стремящегося только к максимизации своей прибыли. Как и все ранние варианты системного подхода, модель эта слишком груба (что понимал и Смит) – ни один человек не ограничивается оценкой какой-либо одной числовой функции и ни один человек не стремится к ее максимизации любой ценой, а многие люди вообще ничего максимизировать не хотят, довольствуясь приемлемой областью значений важных для них величин. Что же касается «невидимой руки», то понимание системы как устанавливающей некий баланс интересов, вообще есть тот самый исходный пункт, с которого системная ПМ начинает обособляться от статистической ПМ [Чайковский, 1992, c. 76]. В наше время всем ясно так же, что в любой экономике есть элемент диатропический – именно поэтому приходится моделировать общество (в том числе и экономику) не рынком, а ярмаркой.

Словом, любая ПМ находит себе аргументы, и в рамках каждой встают свои алеатические задачи, но лучше избегать тех ПМ, которые себя исчерпали — они тянут нас в прошлое, а не помогают решать задачи нынешние.

В частности, «невидимая рука» и принцип Ле Шателье – частные случаи сформулированного в ХХ веке принципа стабилизации динамических систем с помощью отрицательной обратной связи. Таких систем в самом деле много, и указать на них было необходимо. Никакой алеатики здесь может и не оказаться.

Однако, кроме отрицательной, бывает и положительная обратная связь, которая, как известно, дестабилизирует систему. В химии она именуется автокатализом и ведет к взрыву. Именно такова роль конкуренции в высокоразвитой экономике: малая начальная удача (случайность типа В) приводит (в силу случайности типа Г) к монополии. Точнее, если затраты на разработку велики по сравнению с затратами на серийное производство, то изделие, вышедшее на рынок раньше, побеждает на нем даже в том случае, когда оно ничем не лучше (или даже несколько хуже) опоздавших. Аналогичная ситуация в биологии хорошо известна как "принцип основателя".

Для нас важно, что 200-летняя уверенность экономистов-либералов в мудрости "рыночной стихии" основана на неверном понимании случайности: отрицательную обратную связь, при которой случайности (типа А) быстро гасятся системой, видели там, где на самом деле царит положительная обратная связь, при которой случайность (типа В) может неимоверно усиливаться, даже если она вредит обществу.

Возможная роль алеатики видится тут прежде всего в различении случайностей деструктивных и конструктивных. К последним относится прежде всего та, где малые возмущения компенсируют друг друга (она выступает в форме нормального распределения), а затем – все виды организующей роли случайности. Сама по себе конкуренция, как феномен деструктивный, таких случайностей не порождает, но из порождаемых ею неустойчивостей другие (конструктивные) механизмы могут извлекать полезные для развития варианты. Это значит, что рыночный механизм может существовать лишь в рамках некоторой системы, регулирующей экономику – точно так же, как последовательность многих взрывов может обеспечивать движение в едином направлении только в цилиндрах двигателя.

 

Связь с биологией

Наиболее впечатляющее вторжение алеатики в биологию связано с идеями фрактального хаоса. Приведу один пример из физиологии: всегда считалось, что хаотическая динамика параметров организма означает болезнь, а теперь выяснилось, что всё как раз наоборот. Например, исследование ритма сокращений сердца "удар за ударом" показало, что у здорового сердца ритм хаотичен (в фазово-пространственном представлении график напоминает странный аттрактор), у тяжело больного менее хаотичен (напоминает хаотический предельный цикл), а у умирающего почти регулярен (стягивается к точке) [Голдбергер и др., 1990]. Такие работы привлекают много внимания, но другие, столь же важные, направления остаются почти неизвестными.

Что позволяет клеткам (одного организма или одной колонии) делиться синхронно? Попытки моделировать этот процесс привели кибернетиков к задачам о синхронизации большого коллектива N автоматов. Основной интерес представляла задача с одинаковыми автоматами, имеющими небольшое число состояний, при котором автомат не способен считать ни время, ни число членов коллектива. Решения были остроумны, но все они, пока рассматривались детерминированные задачи, обладали общим дефектом: сбой одного автомата хотя бы в одном такте или даже малое перемещение автомата среди соседей разрушали весь процесс синхронизации. Биологического значения такие ненадежные схемы не имели. Однако в 1969 г. ленинградский кибернетик В.И. Варшавский изменил постановку задачи: он предложил искать такое поведение автоматов, при котором в синхронное состояние приходят одновременно не все, а почти все автоматы. (Его автоматы соединялись в случайные пары равновероятно.)

Оказалось, что такой случайностный подход позволяет построить очень надежную систему и сильно упростить внутреннюю структуру самих автоматов. Эта система подробно рассмотрена мною ранее [Чайковский, 1990, c. 98–100] как основная при обсуждении организующей роли случайности.

Самоорганизация, демонстрируемая при таком типе синхронизации, очень красива, но за нее надо дорого платить – случайное взаимодействие означает непрерывное перемешивание коллектива (как перемешиваются молекулы в сосуде с газом), а это означает невозможность образования не только структуры из индивидов, но и существенного разнообразия самих индивидов. В реальных коллективах пары (например, при половом процессе у высших организмов) и группы образуются если даже и с элементом случайности, то далеко не случайно и, тем более, не равновероятно.

Поэтому в качестве основной случайности, организующей элементы в целое, чаще выступает не синхронизация, а другие феномены – например, мероно-таксономическое несоответствие (см. п. 8-5.2) – феномен, в принципе отсутствующий в однородных коллективах. Очень ярко он выступает при анализе видового разнообразия организмов.

 

Систематика

В необъятной литературе по теории систематики можно выделить две противоположные тенденции — к целостной характеристике каждого таксона («Не признаки задают род, но род задает признаки» – декларировал Карл Линней) и к манипуляции с признаками. Если первая требует сложной алеатики, то вторая тяготеет к обычной ТВ и стандартной МС. Крайним выражением второй тенденции последние полвека, начиная с книги В. Геннига (1950 г.), является кладистика. Недавно ее суть ясно изложил петербургский энтомолог Н.Ю. Клюге. В основе ее лежит тезис:

«Кладистический анализ базируется на предположении о неповторимости и необратимости эволюционных преобразований (известном, как закон Долло). Это предположение, в свою очередь, основывается на соображениях вероятности: вероятность того, что одно и то же изменение в генотипе может произойти независимо несколько раз, настолько мала, что ее можно считать равной нулю. Таким образом, предполагается, что каждая апоморфия (признак, годный для систематики – Ю.Ч.) возникла один раз и и унаследована всеми потомками того вида, у которого она возникла» [Клюге, 2000, c. 15].

Сам же автор до этого (на с. 9) признал: «Однако в действительности каких-либо общих законов эволюции не существует (или, по крайней мере, еще не открыто)». Тем самым, либо закон Долло еще не открыт (что странно, поскольку Луи Долло давно умер), либо это — не общий закон, а лишь одна из тенденций, на которой строить систематику не имеет смысла. Дилемма решена автором именно путем обращения к вероятности: повторным возникновением признака можно пренебречь.

На самом деле «Закон Долло» гласит лишь о невозможности повторения целого таксона, а отнюдь не его признаков. Даже и в такой форме «закон» не всегда верен, что заставило В.А. Красилова [1999] ввести понятие «лазарева группа» (в честь библейского героя, воскресшего Лазаря). А признаки и даже их комплексы возникают многократно, и образуют в разных таксонах параллельные ряды (упомянутые ранее как ряды Копа – Вавилова). Так что тезис кладистики можно понимать только в том смысле, что для систематики пригодны лишь те признаки, о которых достоверно известно, что каждый возник всего однажды. Их именуют апоморфиями, и система в сущности своей задается в тот момент, когда задан перечень апоморфий; всё дальнейшее – лишь техника.

Автор вполне понимает это и на с. 17 пишет, что реально признаки можно выявить, когда «очерчена естественная группа», что «наше восприятие признаков зависит от нашего представления о филогении» и что поэтому кладистический процесс ни начала, ни конца не имеет. Словом, он в душе стоит на позициях целостной систематики, и лишь аппеляция к вероятности заставляет его на практике ею пренебречь и манипулировать признаками. Если так, то судьба кладистики зависит от решения вопроса: существует ли вероятность (в данном контексте – устойчивая частота) появления апоморфии?

Положительный ответ возможен только при многократной повторности, каковая у Клюге отрицается. Трудность легко преодолима, если прямо признать, что речь идет не о тех типах случайности, которые ведут к стохастичности, а об уникальности (тип (В) из п. 8-1), но это означало бы, что основной тезис кладистики не обоснован, а постулирован. Для обоснования приходится говорить о реальных частотах изменений генов, и оказывается, что «в действительности мутации являются не равновероятными», поскольку мутабильность зависит от работы всей генетической системы организма, так что апоморфиями могут служить исключительно те признаки, которые кодируются низкомутабильными генами [Клюге, 2000, c. 24].

Добавлю: как дарвинист Клюге должен бы признать, что «зависит» означает зависимость от среды, т.е. что признак, нужный для выживания, должен возникать многократно. Тогда на чем основана уверенность в уникальности апоморфий? Ни на чем: до этого автор сам привел в качестве «наибольшего затруднения» ряды Вавилова и признал, что этим доказывается «существование независимо возникающих гомологических признаков», которые следует «исключить из кладистического анализа» (с. 19). Как – не сказано, хотя другие «затруднения» разобраны подробно, с примерами.

Критику кладистики Геннига дал в свое время Любищев [1982], чьи доводы, насколько могу судить, сохраняют силу поныне, но чьи работы Клюге вряд ли читал внимательно. К нашей теме относится лишь вероятностный тезис кладистики, и мы видим, что он совершенно не продуман кладистами. Поскольку важные для классификации признаки возникают многократно, встает вопрос: существует ли вероятность их появления? Ответ давно дан, он отрицателен, что и надо рассмотреть.

Число видов в роде связано нежестко, но все-таки связано с числом тех признаков, по которым мы классифицируем сами роды и виды. Нежесткость – это форма случайности, но связана ли она с вероятностью?

Вся идеология вероятностей, вытекающая из теоремы Кардано – Бернулли, гласит, что наиболее вероятно то, может быть реализовано наибольшим числом способов или (это в сущности почти то же) что наиболее симметрично. Если случайности складывать и требование максимума их симметрии ничем не ограничивать, то мы придем к нормальному распределению, т.е. к наличию вероятности (см. пп. 4-6, 5-5).

Однако в случае видов и родов симметричность касается равным образом и самих таксонов, и их классификационных признаков – меронов (см. п. 8-5.2). Налицо две сопряженные группы случайностей. Если их тоже складывать, то это приводит к следующей простой экстремальной задаче.

Пусть задана система таксонов, каждый из которых определяется своей совокупностью меронов, причем множество меронов предполагается единым для всей системы. Трактовка энтропии как меры разнообразия позволяет в данном случае использовать ее в качестве меры симметрии. Сходство видов выражается (при данной постановке задачи) в том, что они входят в общий род, а сходство родов – в том, что они содержат равное число видов. Формализуем это так. Пусть Y(Х) – число родов, содержащих Х видов каждый; тогда Х(Y) – число видов, входящих в те роды, число которых равно Y. Заменим целые числа Х, Y на соответствующие доли х, у. Поскольку х>0, у>0, то то максимум суммарной энтропии обоих разнообразий запишется как

max S = min (ò y ln y dx + A ò x ln x dy),

где коэфициент А отражает разномасштабность величин х и у. Заменяя dу на у'dх, получаем стандартную задачу вариационного исчисления. Ее постановка и решение изложены в работах М.В. Арапова и Ю.А. Шрейдера (см. [Шрейдер, Шаров, 1982]), только максимум назван там (по неясной мне причине) минимумом. Учтя, что во втором интеграле следует, при замене переменной, поменять порядок интегрирования, т.к. по смыслу задачи функция у(х) должна быть монотонно убывающей, получаем

у = Сx-a, где a> 1, С > 0,

что согласуется с формулой (9) главы 7. Итак, негауссовы распределения можно, насколько позволяют судить приведенные нестрогие соображения, выводить из идеи симметрии случайности и ее нарушений. Это подтверждают данные наблюдений.

В 1918 г. английский ботаник Джон Кристофер Виллис обнаружил распределение видов цветковых растений по родам в виде убывающей кривой: одновидовых родов обычно (в крупных семействах и таксонах более высокого порядка) наблюдается около 40%, двухвидовых родов – около 17% и т.д.: чем больше видов в роде, тем меньше таких родов; зависимость приближенно выражается гиперболой, причем основная часть видов содержится в одном или нескольких обширных родах [Willis, 1922].

Это выглядело (а для многих выглядит до сих пор) странно: ведь понятие рода для того и придумано, чтобы объединять в них похожие виды – зачем же нужна система, для этого плохо пригодная? Сперва могло казаться, что множество одновидовых родов – просто следствие малой изученности таксонов, но впоследствии выяснилось, что доля одновидовых родов растет по мере изучения группы [Williams, 1964, c. 137].

Скептики предположили, что гипербола – результат не биологический, а психологический (свойство классифицирующих умов), но гиперболы оказались на удивленье схожи с теми, где никакой ум не участвовал. Более того, все попытки скептиков построить более равномерные системы организмов оказались безуспешны – их конструкции рвали естественные таксоны и соединяли неестественные (как бы ни понимать естественность) и вскоре отвергались как непрактичные. Но это было позже.

А пока знакомый Виллиса, математик Гаролд Эдни Юл, предложил изображать найденную Виллисом зависимость в виде прямой линии в полулогарифмических координатах (в обычных линейных координатах такая прямая превращается в гиперболу). Вскоре Юл описал кривые Виллиса математической моделью. Он положил в основу своей модели сразу два взаимоуравновешивающих ветвящихся процесса – порождение видов и порождение родов. Первый процесс увеличивает число видов в данном роде, а второй – уменьшает. Если "видовая мутация" происходит с частотой s, "родовая мутация" – с частотой g, а время эволюции бесконечно, то распределение видов по родам определится формулой

f(i)/f(i – 1) = (i – 1)q/(1 + iq), где q = s/g,

причем f(i) – доля родов, состоящих из i видов каждый [Yule, 1924, с. 37]. Эта гипербола получена в предположении двух очень упрощенных взаимоуравновешивающих ветвящихся процессов чистого рождения (без гибели).

Гиперболическое распределение можно получить и в рамках одного ветвящегося процесса, если виды не только возникают, но и исчезают (за счет вымирания и преобразования в другой вид). Так, дискретная плотность вероятности общей численности клона за все бесконечное время его жизни выражается гиперболой с показателем 3/2 [Золотарев, 1983, c. 37-38], и высказано мнение, довольно невнятное, что эта же модель выражает и распределение видов по родам [Золотарев, 1984, c. 54].

Для экологии более важным оказалось другое наблюдение Виллиса – распределение видов по численности (распространенности) тоже оказалось приблизительно гиперболическим. Половину книги [Willis, 1922] занимает попытка увязать этот факт с эволюцией: по Виллису, распространенность таксона говорит о его эволюционном возрасте. Это вряд ли верно.

Поскольку ветвящийся процесс является фракталом, размерность которого определяется вероятностями гибели и размножения частиц, то естественно характеризовать каждую родо-видовую систему размерностью соответствующего фрактала. Она равна (с той точностью, с какой кривая Виллиса может быть выражена гиперболой) тангенсу угла наклона прямой Юла [Burlando, 1990]. Еще Виллис отметил, что данный наклон примерно одинаков для самых разных таксонов.

Вот один из самых общих законов систематики: разнообразие таксонов организовано по единому принципу — распределению Виллиса. (Насколько знаю, не выполняется он только на бактериях.) Если полагать, как принято, систему организмов результатом эволюции, то налицо и общий закон эволюции: она ведет к распределению Виллиса. Существование таких законов Клюге отрицает, но мы должны быть благодарны ему за четкое выражение вероятностного тезиса кладистики, ясно говорящего, что она является попросту одной из интуитивных доктрин. В них случайность прежде всего – пропенсивная, и анализ ее – дело будущего.

 


Дата добавления: 2019-02-22; просмотров: 514; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!