Последующие интерпретации вероятности и ЗБЧ



Как отметил Колмогоров [1956, c. 262], понимание вероятности как частоты возможно и для Р, "но это не позволит нам совсем освободиться от необходимости на последнем этапе обратиться к вероятностям в примитивном грубом понимании этого термина", т.е. как степени уверенности. Через 20 лет логик Б.Н. Пятницын с горечью заметил, что вероятность относится к тем понятиям, о которых сказано: "чем больше о них говорят, тем меньше знают, что это такое" [Пятницын, 1976, с. 88].

Как же так получилось? Мое мнение: главная ошибка состояла а отказе от анализа самого понятия вероятности. Все забыли, что в основе ТВ лежит термин, имеющий сразу четыре смысла. Еще Лейбниц был неправ, объединяя их. Разумеется, это не в упрек ему – едва ли в то время было возможно осознать, что ТВ, понимаемая как "новый раздел логики", не даст учения о частотах, а комбинаторика мыслимых исходов не даст гуманитарных пониманий вероятности (логического и морального). Нелепо упрекать и Бернулли – он сделал попытку спасти единое понимание вероятности тем, что отнес гуманитарные понимания к ситуациям, в которых такие вероятности всегда получаются очень близкими к нулю или единице. Если виноваты, то последователи, равнодушные к анализу понятий.

Лаплас дал, как выше сказано, новое изящное чисто биномиальное доказательство теоремы Кардано – Бернулли. Однако его знаменитые работы, определившие облик ТВ на столетие, никак не продвинули исследуемую нами проблему. Скорее наоборот – у математиков стало (и продолжает быть до сих пор) нормой и даже некоторым шиком углубляться в аппарат ТВ, не помышляя о сути применяемых понятий.

Новую интерпретацию вероятности содержала книга Пуассона, о чем выше сказано. В ХХ веке это понимание перешло в концепции субъективной вероятности [Кайберг, 1978; Gigerenzer e.a., 1989], которыми мы заниматься не будем. Незаметная смена смыслов связана, как мы увидим в главе 5, со столь же незаметной сменой познавательных моделей, господствующих в обществе. Здесь же нам важно следствие – поскольку почти никто не задумывается о смысле ЗБЧ (а тех одиночек, кто задумывается, научный мир всерьез не воспринимает), от "золотой теоремы" мало что остается. Иногда даже "встречаются в современной литературе утверждения, что статистическая устойчивость имеет место в силу ЗБЧ" [Алимов, 1980, c. 27]. Вот пример: "Существование предела этих частот есть следствие... закона больших чисел" [Синай, 1981, c. 78]. Жаль, что вывод этого "следствия" нигде не прочесть. Нет и самого предела (см. п. 2-7).

Интерпретация ЗБЧ остается внутренне противоречивой. Составитель сборника по философии вероятности французский методолог Жак-Поль Дюбю воспроизвел точку зрения Хакинга, согласно которой "сама концепция вероятности подобна Янусу: статистическая сторона занята статистическими законами случайных процессов, а эпистемическая сторона занята степенью рационального убеждения – в терминах, возможно чуждых статистического содержания" [Philosophy..., 1993, с. XII]. Если так, то Хакинг не заметил ни симметрийной стороны ЗБЧ, ни сущностного (а не только понятийного) различия в разных пониманиях вероятности. Это, по-моему, прямой итог отсутствия в книге Хакинга [Hacking, 1975], в иных отношениях добротной, анализа доказательства "золотой теоремы".

Изложив мысль Хакинга, Дюбю с грустью отметил, что эти два понимания, остающиеся без всякой связи с 1660 г., объединены в концепции Колмогорова, но – ценой многих передержек (distortions) [Philosophy..., 1993, с. XII]. На мой взгляд, Дюбю прав в том смысле, что

1) первая аксиоматика Колмогорова без всякого обсуждения узаконила пуассоново отождествление р и Р (хотя Пуассон придавал обеим статус моральных, а Колмогоров – теоретикомерных);

2) вторая аксиоматика Колмогорова не вполне правомерно отождествила случайность с длиной алгоритма. Ближе к истине были, на мой взгляд, Венн и Карнап (см. конец гл. 2), увидавшие в двух интерпретациях два разных природных явления. Однако интерпретации берутся не из вакуума. Основную роль в них играют господствующие в обществе воззрения (см. гл. 5). Среди интерпретаций главную роль, по-моему, играет презентизм – направление в истории науки, оценивающее труд прошлого с позиций нынешней науки (о презентизме см. [Демидов, 1994]). Точнее – дело здесь в желании видеть у автора прошлого лишь то, что вошло в последующую науку. А теорема Кардано – Бернулли не вошла, и ее не видят.

На самом деле Бернулли видел всякое случайное событие как падение некой многогранной кости определенной гранью и при доказательстве исходил не из какой бы то ни было "доверительной" оценки, а из схемы исчерпания равновозможностей. Если следовать за его логикой, то легко понять, что никакого представления о случайности явлений мира ни у него, ни в ТВ действительно не отражено. В ХХ в. родилось понимание ЗБЧ в рамках теории веществ. числа (пп. 4-5, 4-8), несколько прояснившее его случайностный смысл.

 

Место нормального закона

Пора отметить, что и ЦПТ, и вся идеология суммирования независимых случайных величин лишь иллюстрируют важную роль гауссоиды, но вряд ли могут служить обоснованием этой роли. Советские учебники ТВ дружно иллюстрировали свои положения разбросом попаданий при стрельбе в цель, и вряд ли это было лучше, чем прежняя установка Гаусса – Пуанкаре, видевшая главным примером случайного события совокупность ошибок измерений. Есть ли у ТВ что-то более общее?

Принято считать, что это общее состоит в способе формирования случайности:как ошибка при измерении или стрельбе складывается из большого числа малых влияний (откуда и следует, якобы, нормальный закон), так и прочие случайные явления складываются из незаметных влияний. Делается, например, такое обобщение: "Встречающиеся на практике случайные величины во многих ситуациях возникают как следствие большого числа малых неконтролируемых влияний"; и хотя "наблюдаемая величина Х может формироваться довольно сложным путем как результат этих по отдельности малых воздействий", но из-за их малости "суммарное воздействие в первом приближении можно считать линейной функцией" [Золотарев, 1984, c. 19].

На мой вопрос – почему разнородные влияния именно суммируются и почему порядок малости их взаимосвязи более высок, чем сами влияния, один сторонник вышеприведенной позиции ответил, что иначе бы нормальный закон не был распространен столь широко; и тут же с улыбкой признал тут порочный круг(*). Однако в большинстве практических задач ни малость и линейность влияний, ни их суммируемость ничем не обоснованы, и А.А. Марков (старший) еще в 1898 г. писал, что "представление ошибки в виде суммы многих независимых ошибок следует отнести, как я полагаю, к области фантазии" [Марков, 1951, c. 248]. Тем более фантастичным представляется такой подход вне теории ошибок.

Для понимания сути и места нормального закона нужна более общая основа. Можно думать, что широкое распространение гауссоиды и близких к ней плотностей среди явлений природы связано с тем, что она служит предельной формой не только для сумм, но и для других функций многих случайных величин. Такое предположение, насколько знаю, почти не исследовано (см., впрочем, туманную ссылку на работы М. Фреше [Леви, 1972, c. 163]), и остается исходить из успехов в анализе суммирования.

В 1954 году В.П. Скитович доказал, что если случайные величины независимы и независимы их линейные комбинации (со сплошь ненулевыми коэфициентами), то эти величины распределены нормально [Феллер, 1984, c. 98]. Данный результат наводит на ту мысль, что вообще следует ожидать тесной связи нормальности и независимости и, следовательно, искать скрытую зависимость между случайностями всюду, где налицо резкое отличие наблюдаемых распределений от нормальных. Этим мы займемся в части 2, но прежде надо понять, как устроена простейшая случайность.


Дата добавления: 2019-02-22; просмотров: 199; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!