Интервальный дискриминантный анализ



     Перейдем к задачам классификации в статистике интервальных данных. Как известно [27], важная их часть – задачи дискриминации (диагностики, распознавания образов с учителем). В этих задачах заданы классы (полностью или частично, с помощью обучающих выборок), и необходимо принять решение –к какому этих классов отнести вновь поступающий объект.

     В линейном дискриминантном анализе правило принятия решений основано на линейной функции f ( x ) от распознаваемого вектора  Рассмотрим для простоты случай двух классов. Правило принятия решений определяется константой С – при f ( x )> C распознаваемый объект относится к первому классу, при f ( x )< C – ко второму.

     В первоначальной вероятностной модели Р.Фишера предполагается, что классы заданы обучающими выборками объемов N 1 и N 2 соответственно из многомерных нормальных распределений с разными математическими ожиданиями, но одинаковыми ковариационными матрицами. В соответствии с леммой Неймана-Пирсона, дающей правило принятия решений при поверке статистических гипотез, дискриминантная функция является линейной. Для ее практического использования теоретические характеристики распределения необходимо заменить на выборочные. Тогда дискриминантная функция приобретает следующий вид

Здесь  - выборочное среднее арифметическое по первой выборке  а  - выборочное среднее арифметическое по второй выборке  В роли S может выступать любая состоятельная оценка общей для выборок ковариационной матрицы. Обычно используют следующую оценку, естественным образом сконструированную на основе выборочных ковариационных матриц:

     В соответствии с подходом статистики интервальных данных считаем, что специалисту по анализу данных известны лишь значения с погрешностями

Таким образом, вместо f ( x ) статистик делает выводы на основе искаженной линейной дискриминантной функции f 1 ( x ), в которой коэффициенты рассчитаны не по исходным данным , а по искаженным погрешностями значениям .

     Это – модель с искаженными параметрами дискриминантной функции. Следующая модель – такая, в которой распознаваемый вектор x также известен с ошибкой. Далее, константа С может появляться в модели различными способами. Она может задаваться априори абсолютно точно. Может задаваться с какой-то ошибкой, не связанной с ошибками, вызванными конечностью обучающих выборок. Может рассчитываться по обучающим выборкам, например, с целью уравнять ошибки классификации, т.е. провести плоскость дискриминации через середину отрезка, соединяющего центры классов. Итак – целый спектр моделей ошибок.

     На какие статистические процедуры влияют ошибки в исходных данных? Здесь тоже много постановок. Можно изучать влияние погрешностей измерений на значения дискриминантной функции f, например, в той точке, куда попадает вновь поступающий объект х. Очевидно, случайная величина f ( x ) имеет некоторое распределение, определяемое распределениями обучающих выборок. Выше описана модель Р.Фишера с нормально распределенными совокупностями. Однако реальные данные, как правило, не подчиняются нормальному распределению [27]. Тем не менее линейный статистический анализ имеет смысл и для распределений, не являющихся нормальными (при этом вместо свойств многомерного нормального распределения приходится опираться на многомерную центральную предельную теорему и теорему о наследовании сходимости [3]). В частности, приравняв метрологическую ошибку, вызванную погрешностями исходных данных, и статистическую ошибку, получим условие, определяющее рациональность объемов выборок. Здесь два объема выборок, а не один, как в большинстве рассмотренных постановок статистики интервальных данных. С подобным мы сталкивались ранее при рассмотрении двухвыборочного критерия Смирнова.

     Естественно изучать влияние погрешностей исходных данных не при конкретном х, а для правила принятия решений в целом. Может представлять интерес изучение характеристик этого правила по всем х или по какому-либо отрезку. Более интересно рассмотреть показатель качества классификации, связанный с пересчетом на модель линейного дискриминантного анализа [27].

     Математический аппарат изучения перечисленных моделей развит выше в предыдущих пунктах настоящей главы. Некоторые результаты приведены в [14]. Из-за большого объема выкладок ограничимся приведенными здесь замечаниями.

 

Интервальный кластер-анализ

     Кластер-анализ, как известно [27], имеет целью разбиение совокупности объектов на группы сходных между собой. Многие методы кластер-анализа основаны на использовании расстояний между объектами. (Степень близости между объектами может измеряться также с помощью мер близости и показателей различия, для которых неравенство треугольника выполнено не всегда.) Рассмотрим влияние погрешностей измерения на расстояния между объектами и на результаты работы алгоритмов кластер-анализа.

     С ростом размерности р евклидова пространства диагональ единичного куба растет как  А какова погрешность определения евклидова расстояния? Пусть двум рассматриваемым векторам соответствуют  и  - вектора размерности р. Они известны с погрешностями  и , т.е. статистику доступны лишь вектора  Легко видеть, что

(73)

Пусть ограничения на абсолютные погрешности имеют вид

Такая запись ограничений предполагает, что все переменные имеют примерно одинаковый разброс. Трудно ожидать этого, если переменные имеют различные размерности. Однако рассматриваемые ограничения на погрешности естественны, если переменные предварительно стандартизованы, т.е. отнормированы (т.е. из каждого значения вычтено среднее арифметическое, а разность поделена на выборочное среднее квадратическое отклонение).

     Пусть  Тогда последнее слагаемое в (73) не превосходит  поэтому им можно пренебречь. Тогда из (73) следует, что нотна евклидова расстояния имеет вид

с точностью до бесконечно малых более высокого порядка. Если случайные величины  имеют одинаковые математические ожидания и для них справедлив закон больших чисел (эти предположения естественны, если переменные перед применением кластер-анализа стандартизованы), то существует константа С такая, что

с точностью до бесконечно малых более высокого порядка при малых  больших р и

     Из рассмотрений настоящего пункта вытекает, что

(74)

при некотором  таком, что

     Какое минимальное расстояние является различимым? По аналогии с определением рационального объема выборки при проверке гипотез предлагается уравнять слагаемые в (74), т.е. определять минимально различимое расстояние  из условия

. (75)

Естественно принять, что расстояния, меньшие , не отличаются от 0, т.е. точки, лежащие на расстоянии , не различаются между собой.

     Каков порядок величины С? Если xi и yi независимы и имеют стандартное нормальное распределение с математическим ожиданием 0 и дисперсией 1, то, как легко подсчитать,  и соответственно С = 4,51. Следовательно, в этой модели

     Формула (75) показывает, что хотя с ростом размерности пространства р растет диаметр (длина диагонали) единичного куба – естественной области расположения значений переменных, с той же скоростью растет и естественное квантование расстояния с помощью порога неразличимости , т.е. увеличение размерности (вовлечение новых переменных), вообще говоря, не улучшает возможности кластер-анализа.

     Можно сделать выводы и для конкретных алгоритмов. В дендрограммах (например, результатах работы иерархических агломеративных алгоритмах ближнего соседа, дальнего соседа, средней связи) можно порекомендовать склеивать (т.е. объединять) уровни, отличающиеся менее чем на . Если все уровни склеятся, то можно сделать вывод, что у данных нет кластерной структуры, они однородны. В алгоритмах типа «Форель» центр тяжести текущего кластера определяется с точностью  по каждой координате, а порог для включения точки в кластер (радиус шара R) из-за погрешностей исходных данных может измениться согласно (74) на

Поэтому кроме расчетов с R рекомендуется провести также расчеты с радиусами R 1 и R 2, где

,

и сравнить полученные разбиения. Быть адекватными реальности могут только выводы, общие для всех трех расчетов. Эти рекомендации развивают общую идею [3] о целесообразности проведения расчетов при различных значениях параметров алгоритмов с целью выделения выводов, инвариантных по отношению к выбору конкретного алгоритма.

 


Дата добавления: 2018-10-26; просмотров: 217; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!