Главная Обратная связь Поможем написать вашу работу!

Дисциплины:

Архитектура (936)
Биология (6393)
География (744)
История (25)
Компьютеры (1497)
Кулинария (2184)
Культура (3938)
Литература (5778)
Математика (5918)
Медицина (9278)
Механика (2776)
Образование (13883)
Политика (26404)
Правоведение (321)
Психология (56518)
Религия (1833)
Социология (23400)
Спорт (2350)
Строительство (17942)
Технология (5741)
Транспорт (14634)
Физика (1043)
Философия (440)
Финансы (17336)
Химия (4931)
Экология (6055)
Экономика (9200)
Электроника (7621)






Краткие теоретические сведения. Основная идея, положенная в основу модели гибридных сетей, заключается в том, чтобы использовать существующую выборку данных для определения параметров



 

Основная идея, положенная в основу модели гибридных сетей, заключается в том, чтобы использовать существующую выборку данных для определения параметров функций принадлежности, которые лучше всего соответствуют некоторой системе нечеткого вывода. При этом для нахождения параметров ФП используются известные процедуры обучения нейронных сетей.

В пакете Fuzzy Logic Toolbox системы МАТLАВ гибридные сети реализованы в форме адаптивной системы нейро-нечеткого вывода ANFIS. С одной стороны, гибридная сеть ANFIS представляет собой нейронную сеть с единственным выходом и несколькими входами, которые представляют собой нечеткие лингвистические переменные. При этом термы входных лингвистических переменных описываются стандартными для системы МАТLАВ функциями принадлежности, а термы выходной переменной представляются линейной или постоянной ФП. С другой стороны, гибридная сеть ANFIS представляет собой систему нечеткого вывода FIS типа Сугено нулевого или первого порядка, в которой каждое из правил нечетких продукций имеет постоянный вес, равный 1 [8].

Для прогнозирования используем нечеткую сеть TSK. Обобщенную схему вывода модели TSK при использовании M правил и N переменных xj можно представить в виде

IF (x1.IS.A1(1)).AND.(x2.IS.A2(1)).AND. … .AND.(xn.IS.An(1)),

THEN y1 = p10 + p1jxj

… … …

IF (x1.IS.A1(M)).AND.(x2.IS.A2(M)).AND. … .AND.(xn.IS.An(M)),

THEN yM = pM0 + pMjxj .

Условие IF (xi.IS.Ai) реализуется функцией фуззификации, которая представляется обобщенной функцией Гаусса отдельно для каждой переменной xi:

, (4.1)

 

где представляет оператор Ai. В нечетких сетях целесообразно задавать это условие в форме алгебраического произведения, из которого следует, что для k-го правила вывода

. (4.2)

 

При M правилах вывода агрегирование выходного результата сети производится по формуле

, (4.3)

которую можно представить в виде

, (4.4)

где .

Присутствующие в этом выражении веса wk интерпретируются как значимость компонентов , определенных формулой (4.1). При этом условии формуле (4.4) можно сопоставить многослойную структуру сети (рис. 1). В такой сети выделяется пять слоев.



Первый слой выполняет раздельную фуззификацию каждой переменной xi (i=1,2, … , N), определяя для каждого k-го правила вывода значение коэффициента принадлежности в соответствии с применяемой функцией фуззификации. Это параметрический слой с параметрами cj(k), , bj(k), подлежащими адаптации в процессе обучения.

Второй слой выполняет агрегирование отдельных переменных xi, определяя результирующее значение коэффициента принадлежности для вектора x (уровень активизации правила вывода) в соответствии с формулой (4.2). Это слой непараметрический.

Третий слой представляет собой генератор функции TSK, рассчитывающий значения . В этом слое также производится умножение сигналов yk(x) на значения wk, сформированные на предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса pkj для k = 1,2, … ,M и j = 1,2, … ,N, определяющие функцию следствия модели TSK.

Четвертый слой составляют два нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов yk(x), а второй определяет сумму весов . Это непараметрический слой.

Последний, пятый слой, состоящий из единственного выходного нейрона,- это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой (4.4). Выходной сигнал y(x) определяется выражением, соответствующим зависимости (4.3),



. (4.5)

Из приведенного описания следует, что нечеткая сеть TSK содержит только два параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя будем называть нелинейными параметрами, поскольку они относятся к нелинейной функции (4.1), а параметры третьего слоя – линейными весами, т.к. они относятся к параметрам pkj линейной функции TSK.

 

Рис. 4.1 Структура нечеткой нейронной сети TSK

 

При уточнении функциональной зависимости (4.4) для сети TSK получаем:

. (4.6)

Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция y(x) является линейной относительно переменных xi (i=1,2, … ,N).

При наличии N входных переменных каждое правило формирует N+1 переменных pj(k) линейной зависимости TSK. При M правилах вывода это дает M(N+1) линейных параметров сети. В свою очередь, каждая функция принадлежности использует три параметра (с, s, b), подлежащих адаптации. Если принять, что каждая переменная xi характеризуется собственной ФП, то при М правилах вывода мы получим 3MN нелинейных параметров. В сумме это дает M(4N+1) линейных и нелиней­ных параметров, значения которых должны подбираться в процессе обучения сети.

На практике для уменьшения количества адаптируемых параметров оперируют меньшим количеством независимых функций принадлежности для отдельных переменных, руководствуясь правилами, в которых ком­бинируются ФП различных переменных. Если при­нять, что каждая переменная xi имеет т различных функций принадлеж­ности, то максимальное количество правил, которые можно создать при их комбинировании, составит: M = mN (при трех ФП, распространяющихся на две переменные, это 32 = 9 правил вывода). Таким образом суммарное количество нелинейных параметров сети при М правилах; вывода уменьшается с 3MN в общем случае до 3NM1/N. Количество ли­нейных параметров при подобной модификации остается без изменений, т.е. M(N+1).



В пакете Fuzzy Logic Toolbox системы МАТLАВ гибридные сети реализованы в форме адаптивных систем нейро-нечеткого вывода ANFIS.

Редактор ANFIS позволяет создавать или загружать конкретную модель адаптивной ННС, выполнять ее обучение, визуализировать ее структуру, изменять и настраивать ее параметры, а также использовать настроенную сеть для получения результатов нечеткого вывода.


Просмотров 490

Эта страница нарушает авторские права




allrefrs.ru - 2021 год. Все права принадлежат их авторам!