Узагальнено-регресійна НМ



Дана мережа влаштована аналогічно ймовірнісній НМ, але вона призначена для розв’язання завдань регресії, а не класифікації. Як і у випадку PNN-мережі, у точці розташування кожного навчального спостереження міститься гауссова ядерна функція. Узагальнено-регресійна НМ (GRNN-мережа) копіює в себе всі навчальні спостереження й використовує їх для оцінювання відгуку в довільній точці. Остаточна вихідна оцінка мережі визначається як зважене середнє виходів за всіма навчальними спостереженнями:

,

де - точки навчальної вибірки.

Перший проміжний шар GRNN-мережі складається з радіальних елементів. Другий проміжний шар містить елементи, які допомагають оцінити зважене середнє. Кожний вихід має в цьому шарі свій елемент, що формує для нього зважену суму. Щоб одержати зі зваженої суми зважене середнє, цю суму потрібно поділити на суму вагових коефіцієнтів. Останню суму обчислює спеціальний елемент другого шару. Після цього у вихідному шарі виконується розподіл (за допомогою спеціальних елементів «розподілу»). Таким чином, число елементів у другому проміжному шарі на одиницю більше, ніж у вихідному шарі. Як правило, у завданнях реґресії потрібно оцінити одне вихідне значення, і, відповідно, другий проміжний шар містить два елементи.

Переваги й недоліки GRNN-мереж в основному такі, як і в PNN-мереж. Розходження полягає в тому, що GRNN використовуються в завданнях реґресії, a PNN - у завданнях класифікації. GRNN-мережа навчається майже миттєво, але може вийти великою і повільною. Як і мережа RBF, GRNN-мережа не має здатності екстраполювати дані.

Лінійні НМ

Найпростішою моделлю для розв’язання задач апроксимації є лінійна, у якій апроксимуюча (підгінна) функція визначається гіперплощиною. У завданні класифікації гіперплощина розташовується таким чином, щоб вона розділяла собою два класи (лінійна дискримінантна функція); у завданні реґресії гіперплощина повинна проходити через задані точки.

Лінійна модель звичайно задається рівнянням:

Y = XW + В,

де W - матриця ваг мережі; В - вектор зсувів.

Лінійна модель представлена НМ без проміжних шарів, що у вихідному шарі містить тільки лінійні елементи (тобто елементи з лінійною функцією активації). Ваги відповідають елементам матриці, а пороги - компонентам вектора зсуву. Під час роботи мережа фактично множить вектор входів на матрицю ваг, а потім до отриманого вектора додає вектор зсуву.


Дата добавления: 2015-12-18; просмотров: 25; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!