А. А. Усков, С. А. Котельников, Е. М. Грубник, В. М. Лаврушин
ГИБРИДНЫЕ НЕЙРОСЕТЕВЫЕ МЕТОДЫ МОДЕЛИРОВАНИЯ СЛОЖНЫХ ОБЪЕК...
43 downloads
245 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
А. А. Усков, С. А. Котельников, Е. М. Грубник, В. М. Лаврушин
ГИБРИДНЫЕ НЕЙРОСЕТЕВЫЕ МЕТОДЫ МОДЕЛИРОВАНИЯ СЛОЖНЫХ ОБЪЕКТОВ МОНОГРАФИЯ
Смоленск 2011
УДК 519.254 ББК 30.17 У 75 Рецензенты: профессор Российского университета кооперации – Курилин С. П. профессор Военной академии войсковой ПВО ВС РФ – Фомин А. И. У 75
Усков А. А., Котельников С. А., Е. Грубник Е. М., Лаврушин В. М. Гибридные нейросетевые методы моделирования сложных объектов: Монография. – Смоленск: Смоленский филиал АНО ВПО ЦС РФ "Российский университет кооперации", 2011. – 132 с.: ил.
ISBN 978-5-91805-019-4 В коллективной монографии рассматривается аппарат обобщеннорегрессионных нейронных сетей с полиномиальной коррекцией и его применение для моделирования объектов из различных предметных областей. Для специалистов в области информатики и математического моделирования. Монография издается в авторской редакции.
АНО ВПО ЦС РФ "Российский университет кооперации" Смоленский филиал, 2011 Усков А. А., 2011 Котельников С. А., 2011 Грубник Е. М., 2011 Лаврушин В. М., 2011 2
ВВЕДЕНИЕ Задача построения систем автоматического управления (САУ), способных функционировать в условиях неопределенности математического описания объекта управления, является одной из важнейших задач современного системного анализа и имеет общенаучное значение. Один из важных этапов синтеза систем управления – идентификация объекта управления. При функциональной идентификации на основе априорной информации и экспериментальных данных ищется неизвестная зависимость ―вход-выход‖ объекта моделирования. Различают два основных подхода к получению функциональных моделей: аналитический и аппроксимационный. При аналитическом подходе структура модели строится на основе закономерностей, действующих в объекте моделирования. При аппроксимационном подходе выбор аппроксимирующей зависимости не связан с внутренним ―устройством‖ объекта моделирования. Как известно, выделяют два основных вида аппроксимационных моделей: параметрические и непараметрические (локальнопараметрические). При параметрическом подходе вначале выбирается аппроксимирующая зависимость, известная с точностью до параметров, затем на основе обучающей выборки производится адаптация ее параметров (обучение). К параметрическим методам моделирования относятся: регрессионные модели, полиномиальные нейронные сети (Σ-Π нейронные сети), многослойные персептроны и др. Достоинством параметрических методов является следующее: если аппроксимируемая зависимость достаточно проста (например, представима полиномом невысокого порядка), то достаточно просто подобрать аппроксимирующую зависимость, при этом качество моделирования будет весьма высоко, даже в случае небольшой или зашумленной обучающей выборки. В тоже время, в случае неудачно выбранной аппроксимирующей зависимости точность моделирования часто неудовлетворительная. При непараметрическом подходе так же вначале выбирается тип аппроксимирующей зависимости, но, в данном случае, по экспериментальным данным строится большое количество указанных зависимостей, каждая из которых действует в некоторой локальной области входных факторов и имеет свои параметры. К непараметрическим методам моделирования относятся: непараметрические статистические оценки, метод М-ближайших узлов, нейронные сети с радиальными базисными элементами и др. Достоинством непараметрических методов является отсутствие необходимости выбирать тип глобальной аппроксимирующей зависимости, что позволяет значительно увеличить точность 3
моделирования сложных существенно нелинейных объектов. В тоже время, отклик модели в непараметрических методах определяется не всей, а лишь частью обучающей выборки, что делает такие модели мало эффективными при значительной зашумленности обучающей выборки. На практике часто моделируемая зависимость представляет собой сумму гладкой функции, аппроксимируемой полиномом невысокого порядка, и сложной негладкой нелинейной зависимости, что нивелирует достоинства как параметрического, так и непараметрического подходов. Проведенные исследования позволяют сделать вывод о том, что в данном случае будут наиболее эффективны гибридные методы идентификации, выполненные на основе методов относящихся как к параметрическому, так и непараметрическому подходам. Ввиду того, что в настоящее время большое развитие получили нейросетевые методы идентификации целесообразно решение научной задачи проводить на основе нейросетевого подхода, в частности, с использованием аппарата радиально-базисных нейронных сетей, как наиболее перспективного представителя непараметрических методов идентификации. В качестве параметрического метода идентификации для построения гибридного метода выбраны полиномиальные модели, которые широко распространены на практике благодаря возможности аналитически определять параметры модели на основе метода наименьших квадратов. В связи с вышесказанным актуальной научной задачей, имеющей как чисто теоретическое, так и прикладное значение, является разработка гибридных нейросетевых алгоритмов идентификации сложных промышленных объектов, сочетающих достоинства параметрического и непараметрического подходов: высокую точность и малую чувствительностью к шуму в обучающей выборке. Монография состоит из введения, четырех разделов, заключения, списка литературы и приложений. В первом разделе проанализированы известные из литературных источников методы функциональной идентификации, в том числе регрессионный анализ, комбинаторные, непараметрические и нейросетевые методы. Конкретизированы задачи дальнейших исследований. Во втором разделе рассматривается разработанный аппарат обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией. Доказана сходимость получаемых моделей, рассмотрены методики оценки точности и планирования эксперимента. В третьем разделе рассмотрены разработанные методики моделирования динамических объектов на основе обобщеннорегрессионных нейронных сетей с полиномиальной коррекцией. 4
В четвертом разделе описано применение разработанных методов при моделировании и управлении обектом химической технологии (отсадочной машиной). В заключении приводятся выводы по работе.
5
1 СОСТОЯНИЕ НАУЧНЫХ ИССЛЕДОВАНИЙ В ОБЛАСТИ МЕТОДОВ ФУНКЦИОНАЛЬНОЙ ИДЕНТИФИКАЦИИ СЛОЖНЫХ ОБЪЕКТОВ 1.1 Задачи функциональной идентификации Объектом принято называть ту часть окружающего мира, состояние которой интересует исследователя [1-3]. Схематично взаимодействие объекта с остальными частями окружающего мира (средой) представлено на рисунке 1.1 [1].
Рисунок 1.1 – Схема взаимодействия объекта со средой Объект всегда выделяется некоторым субъектом, формирующим как определение объекта, как части среды, так и цели такого определения. Под субъектом совершенно не обязательно подразумевать конкретную личность: это может быть группа людей, объединенная по некоторому признаку, и даже все человечество, если, например, изучению подлежат глобальные объекты (космос, окружающая среда и т. д.) [1]. На рисунке 1.2 схематично показано выделение субъекта из среды.
Рисунок 1.2 – Схема взаимодействия субъекта со средой и объектом 6
Здесь под у понимаются интересующие субъекта состояния объекта, под х – измеряемые контролируемые или учитываемые входы, а под – неконтролируемые воздействия. Априори (субъектом) предполагается, что между указанными переменными существует причинно-следственная связь, отображаемая соотношением y
R(x, ) ,
(1.1)
где R ( ) - оператор, вообще говоря, неизвестного вида. Исследование объекта может проводиться c помощью математической модели или математического описания объекта. Существует огромное число определений этого фундаментального понятия. Определим математическую модель как упрощенное отображение наиболее существенных сторон (свойств) реальной системы, выраженное в математической форме [1 - 3]. Конкретизируя это определение, в дальнейшем под математической моделью будем понимать правило преобразования входных переменных в выходные в виде функциональной зависимости y
(x )
,
(1.2)
где x – входные переменные (сигналы) объекта, (x ) - некоторая функция, - вектор неконтролируемых возмущений, y – выходной сигнал объекта. Процесс получения математической модели объекта в виде (1.2) называется функциональной идентификацией [1]. Приступая к поиску математической модели (функции (x ) ), исследователь обладает некоторой априорной информацией, степень его информированности можно охарактеризовать двумя основными уровнями. 1. Вид функции (x ) неизвестен. Известно лишь, что функция (x ) в интересующей исследователя области может быть достаточно хорошо аппроксимирована конечным рядом по некоторой системе (или системам) наперед заданными функциями. Требуется найти наилучшее приближение функции (x ) . 2. Функция (x ) известна с точностью до параметров, т. е. ( x)
( x, c ) ,
(1.3)
где c - вектор параметров модели. В этом случае, очевидно, имеем 7
( x, c )
y
,
(1.4)
а прогноз состояния объекта дается соотношением ( x, c ) ,
y
(1.5)
где оценка c находится исходя из некоторого критерия ошибки или функции потерь, определяющих меру близости выходов объекта и их прогноза:
c
min E ( y, y ), c
(1.6)
т. е. в результате подгонки c к имеющимся экспериментальным данным. В свете изложенного, при классическом подходе можно выделить следующие этапы построения математической модели исследуемого объекта [2, 3]: 1) выбор модели, т. е. установление каким-то образом вида зависимости (x ) с точностью до вектора параметров c ;
2) нахождение c (этап оценивания); 3) проверка и подтверждение модели проверка, проверка адекватности).
(диагностическая
1.2 Классические методы идентификации Второй и третий этапы описанной процедуры в достаточной степени формализованы и наибольшее затруднение при моделировании обычно вызывает первый этап, на котором применяются два основных подхода - аналитический и аппроксимационный. При аналитическом подходе (называемом также физическим или имитационным) объект отображается состоящим из отдельных взаимосвязанных элементов, для каждого из которых составляются частные описания, на основе закономерностей известных из электротехники, механики, химии и других наук, например, уравнениям материального баланса [3]. Данные частные описания имеют вид нелинейных дифференциальных (разностных) или алгебраических уравнений и их объединение с учетом внутренних (для объекта) перекрестных или обратных связей между элементами дает общую структуру модели. 8
Для относительно простых объектов (например, во многих ситуациях встречающихся в технике) аналитический подход дает очень хорошие результаты и является основным при построении математических моделей. Однако для сложных объектов точность моделей, полученных аналитическим путем, невелика. Это связано со следующими причинами [3, 4]: во-первых, при устойчивости объекта прогнозы быстро «затухают» и теряют свою информативность, во-вторых, при неполных данных коэффициенты модели определяются со смещением, что может привести к нарастанию ошибки прогнозирования, кроме того, объект моделирования может содержать не формализуемые элементы, обладать стохастическими свойствами или подвергаться влиянию случайных внешних воздействий. В связи с этим аналитические модели используются в основном для изучения относительно простых объектов (прежде всего технических), а для сложных объектов могут использоваться лишь для познавательных целей. Аналитические методы моделирования имеют особенность: чрезмерное увеличение числа уравнений и учитываемых переменных не всегда приводит к улучшению результата, часто это способствует получению противоречивых уравнений и невозможности использования их для прогнозирования [3]. Кроме того, аналитический подход имеет еще один существенный недостаток: получаемая с его помощью модель, как правило, нелинейная по параметрам, что приводит к большим проблемам на этапе оценивания (если такую оценку нельзя провести отдельно для каждого из элементов модели) [5, 6]. Указанные недостатки привели к развитию аппроксимационного подхода в моделировании [2, 3]. Основная идея аппроксимационного подхода состоит в отказе от аналитического поиска структуры описания (1.2) на основе предположения, что в некоторой окрестности x выбранной базовой точки x0 зависимость (x ) (предположим, для простоты, что в данном случае (x ) — гладкая функция) с достаточной степенью точности может быть представлена некоторой зависимостью, например, отрезком ряда Тейлора:
( x)
1 x1
n
( x1 , x2 ,..., xn )
i ( xi
0 i 1
x0,i )
x2 ...
T
c,
(1.7)
xn 9
где
0
( x0 ) ,
( x) xi
i
x x0
, cT
n
(
i x0,i , 1 , 2 ,..., n ) .
0 i 1
При необходимости аппроксимационные свойства модели можно улучшить, добавив в нее, например, компоненты типа xi x j , xi2 и т. п. В любом случае модель оказывается линейной по параметрам y
1 x1
x2 ... xn
x12 ...
c,
(1.8)
которые на этапе оценивания находятся обычно из минимума критерия в виде суммы квадратов ошибок [6]: N
( yi
E
yi )2 ,
(1.9)
i 1
где N – общий объем экспериментальных данных, что приводит к известному методу наименьших квадратов (МНК) с решением c где y T
(F T F ) 1 F T y ,
(1.10)
( y1 , y 2 ,..., y N ) , а матрица базисных функций F составлена из
строк вида 1 x1i x2i ... xni x1i x1i ... , i=1, 2, …, N [6, 10 - 14]. Модель вида (1.8) называется регрессионной, и теоретический аппарат построения данных моделей является хорошо изученным [614]. Применение регрессионных моделей во многих случаях дает хорошие результаты, но только при достаточно гладких зависимостях между входами и выходами объекта. Следует заметить, что формула (1.10) соответствует процедуре так называемого классического регрессионного анализа, при котором в начале определяются все элементы обучающей выборки (экспериментальные данные), а затем по ним вычисляются коэффициенты регрессии. Известна также процедура последовательного регрессионного анализа, при котором коэффициенты регрессии последовательно уточняются по мере добавления обучающей выборки [10]. Недостаток peгрессионного подхода хорошо известен: если зависимость между x и у имеет существенно нелинейный характер, то использование в (1.8) полиномов высоких порядков (для noлучения надлежащего качества аппроксимации) приводит к резкому увеличению размерности задачи (увеличению количества оцениваемых параметров модели), что в свою очередь приводит к существенным 10
вычислительным проблемам и, в конечном счете, к неадекватной модели. Так, если регрессионная модель имеет n входов и представляет собой полином m-го порядка, то общее число коэффициентов регрессии определяется формулой [3, 15]: K
(n m)! . n! m!
Например, при n = 5 и m = 4 получим К = 126. Для исключения указанных проблем была предложена целая группа методов, наиболее развитым из которых представляются комбинаторный подход. В комбинаторных методах вид уравнения регрессии жестко не фиксируется, а может варьироваться, с включением в него или выключением отдельных факторов, изменением степени аппроксимирующего полинома (так называемые методы пошаговой регрессии) [4, 13]. Наиболее ярким представителем данного вида аппроксимационного подхода следует считать метод группового учета аргументов (МГУА) [4, 16, 17]. Алгоритмы, реализующие МГУА, воспроизводят схему массовой селекции. В них есть генераторы усложняющихся из ряда в ряд комбинаций и механизм отбора лучших из них. Полное описание объекта y
( x1 , x2 ,..., xn )
(1.11)
заменяется несколькими рядами частных описаний. Первый ряд селекции f1
где s
где p
( x1 , x2 ) , f 2
( x1 , x3 ) , … , f s
Cn2 ( C nm – число сочетаний из n по m). Второй ряд селекции z1 ( f1 , f 2 ) , z2 ( f1 , f 3 ) , … , z p C s2 ,
( xn 1 , xn ) ,
(1.12)
( zs 1, zs ) ,
(1.13)
и т. д.
Различные алгоритмы МГУА отличаются друг о друга по виду функции φ. Известны алгоритмы с квадратичными или линейными полиномами, вероятностные алгоритмы МГУА, использующие формулы Байеса или теории статистических решений и многие другие. В основном алгоритме МГУА в качестве опорных используются квадратичные полиномы. При этом степень полного описания повышается с каждым рядом селекции, т. е. удваивается. В первом 11
ряду реализуется квадратичная регрессия, во втором – регрессия четвертой степени, в третьем - регрессия восьмой степени и т. д. Каждое частное описание является функцией только двух аргументов. Поэтому коэффициенты частных описаний легко определить по данным обучающей последовательности (методом наименьших квадратов) при малом числе узлов интерполяции (первая операция). Исключая промежуточные переменные (вторая операция), можно получить аналог полного описания. В результате удается определить числовые значения коэффициентов сколь угодно сложного описания по малому числу узлов интерполяции. Например, по десяти узлам интерполяции можно получить оценки коэффициентов полинома седьмой степени и т. д. [4, 15]. Из ряда в ряд селекции при помощи пороговых отборов пропускается только некоторое количество самых регулярных или несмещенных переменных. Степень регулярности оценивается по величине среднеквадратической ошибки на отдельной (объемом Nnp) проверочной последовательности 2 пр ,k
1 N пр
N пр
( yi
f ki ) 2 , k
1,2,..., s ,
(1.14)
i 1
где f ki и y i , - соответственно значения f k и выхода объекта в i-ом опыте, а степень несмещенности – по специальному критерию. По алгоритмам МГУА после каждого ряда селекции выбирается по L уравнений регрессии следующего вида: ( xi , x j ) ; первый ряд f второй ряд z третий ряд v четвертый ряд
( fi , f j ) ; ( zi , z j ) ; (vi , v j ) и т. д.
Для расчета критерия несмещенности все имеющиеся экспериментальные точки y i ранжируются и делятся на 2 части. Точки с четными номерами образуют первую последовательность R1 , а точки с нечетными - вторую последовательность R2 . Первый ряд селекции. Синтез уравнений выполняется два раза. Сначала первая последовательность является обучающей, а вторая проверочной: R1 N об , R2 N пр . Уравнения регрессии, полученные при этом, обозначим как f k* . Затем, наоборот, первая служит проверочной, а вторая - обучающей: 12
R1
N пр , R2
N об . Уравнения регрессии, полученные при этом,
обозначим f k** . Каждое из найденных уравнений оценивается по величине nсм среднеквадратического отклонения, рассчитанного по всем точкам обеих последовательностей:
n1см (k )
R1 R2
1
( f k* ( x r )
R1 R2
f k** ( x r )) .
(1.15)
r 1
Из всех уравнений регрессии на первом ряду выбираются L (число L задается исследователем) уравнений, имеющих меньшую ошибку n1см (k ) (1≤ k ≤ L). Критерий несмещенности решений для первого ряда селекции определяется как среднее значение показателя несмещенности для L отобранных уравнений: 1 N см
1 L
L
n1см (k )
(1.16)
k 1
Второй и последующие ряды селекции. Последующие ряды селекции построены так же, как и первый. Например, на втором ряду находятся оценки несмещенности каждого из уравнений регрессии второго ряда 2 nсм (k )
R1 R2
1 R1
R2
( z k* ( x r ) z k** ( x r )) .
1.17)
r 1
Критерий несмещенности решений для второго ряда 2 N см
1 L
L 2 nсм (k ) .
(1.18)
k 1
Для третьего и последующих рядов справедливы аналогичные формулы. Ряды селекции наращиваются до тех пор, пока критерий несмещенности падает: Nсм min; как только достигнут минимум несмещенности (или ошибки), селекцию следует остановить. Следует указать, что алгоритмы МГУА были весьма популярны в 70-80-е годы; в последнее время интерес к ним уменьшился. Возможно, причиной этому является громоздкость метода при большом числе входных переменных. Так, например, при 10 входах объекта только на первом ряду селекции необходимо строить и 13
анализировать C102 45 частных регрессии. Кроме того, алгоритмы МГУА достаточно сложны в программной реализации. Общим недостатком параметрического подхода является необходимость заранее знать с точностью до параметров аппроксимируемую зависимость (например, должно быть точно известно, что она представима полиномом или какой-либо другой функцией). 1.3 Непараметрические методы идентификации При непараметрическом подходе также как при параметрическом вначале выбирается тип аппроксимирующей зависимости, но, в данном случае, на основе экспериментальных данных строится большое число указанных зависимостей, каждая из которых действует в некоторой локальной области входных факторов и имеет свои параметры [2]. «Непараметрическая» модель функции y (x ) в окрестности центра
x
разыскивается в виде y( x, )
m
cj( )
j(
x) , x,
x
,
(1.19)
j 1
где
j (x )
- заданные функции n переменных, c j ( ) - скалярные
величины (неизвестные коэффициенты), в данном случае зависящие от текущего значения , т. е. являющегося постоянными только в некоторой локальной области изменения аргумента x , m — параметр, устанавливаемый при моделировании. Так, если в качестве j (x ) взяты полиномы, то для нулевой и первой степеней m 1, m
n 1,
1(x)
1, 1 ( x ) 1,
2 (x)
x1 , ...,
n 1(x)
(1.20)
xn ,
для второй степени m
(n 1)(n 2) , 2
1 ( x) n
14
1,
2 1 ( x ) x1 ,
2 ( x) n
x1 ,
...,
2 ( x ) x1 x 2 , ...,
n 1 ( x) n
xn , 2 ( x ) x1 x n , ...,
m ( x)
(1.21) x n2 .
Определение коэффициентов c j ( ) производится исходя из минимизации функционала
E ( x, c , )
1 N
N
(
xi
) ( yi
y ( x i , ))2 ,
(1.22)
i 1
экспериментальной выборки, y i — экспериментальные значения выхода, x i — соответствующие значения вектора входов, > 0 — скалярный параметр, так называемый параметр локальности, (z ) — некоторая функция от п переменных ( z так называемая функция локальности. x ), (z ) 0 , достигает максимума при z 0 , Предполагается, что где
N
–
объем
общий
является невозрастающей функцией по каждой из величин zi ( z i - i-я 0 , где компонента вектора z ) и, наконец, (z ) 0 при z евклидова норма вектора. Функции (z ) , удовлетворяющие перечисленным условиям, могут быть построены, например, при помощи функций (скалярной переменной) вида, приведенного на рисунке 1.3.
Рисунок 1.3 – Вид функций (z ) Для этого достаточно в качестве аргумента в них взять какуюлибо норму вектора-аргумента или принять 15
n
(z)
( zi ) .
(1.23)
i 1
Если обозначить, далее, через ( x ) ( 1 ( x ), 2 ( x ),..., m ( x ))T вектор функций n переменных, входящих в модель (1.19), и минимизировать (1.22) по c ( ) , то получаем [3]:
y( x, , )
cT ( , ) (
ht ( x , , ) y i ,
N
x)
i 1
c( , )
min E ( x, c , ) , c
c( , )
1
N
( )
xi
(
(
)
xi ) yi ,
i 1
( )
N
xi
(
(
)
xi ) T (
xi ) ,
i 1
ht ( x , , )
T (
Полагая, что в (1.24)
y( x, , )
xi )
1
( ) (
xi )
(
xi
).
(1.24)
x придем к соотношениям
c T ( , ) (0)
N
ht ( x, ) y i ,
i 1
c( , )
min E ( x, c , ) , c
c( , )
1
( x)
N
(
x
xi
)
(x
xi ) yi ,
i 1
( x)
N
( i 1
16
x
xi
)
(x
xi ) T (x
xi ) ,
(1.25)
ht ( x , )
T i (x x )
1
( ) (x x i )
(
xi
).
Отметим, что строгих правил для выбора входящего в приведенные соотношения параметра локальности не существует; в качестве рекомендации в [2] отмечается, что величина не может быть меньше некоторого предельного значения, при этом должно выполняться равенство:
z ( )
(
z1 z1 z , ,..., 1 ) .
(1.26)
Выбор величины существенно влияет на точность идентификации. В случае модели нулевого порядка конечное выражение имеет вид [3]: N
y( x, )
(
x
i 1 N
(
xi x
) yi xi
, x
x
.
(1.27)
)
i 1
y (x , ) Оценка при различных значениях параметра оптимальности имеет следующий характер. При малых функция y (x , ) близка к кусочно-постоянной, проходящей через точки y i ,
причем для каждого x величина y (x , ) определяется как значение y i для x i , ближайшего к x в смысле метрики, определяемой функцией
локальности
(x ) . При больших
(
)
y( x, )
1 N
N
yi i 1
постоянная величина. При промежуточных значениях и гладкой функцией веса (x ) оценка y (x , ) - гладкая функция, имеющая в узлах x i «тяготение» к соответствующим y i . В общем случае при n > 1 и использовании полиномиальной модели степени выше нулевой, получить аналитическое выражение для y(x, ) , аналогичное (1.27), затруднительно. В этом случае с 17
использованием соотношений (1.25) расчеты могут быть выполнены только численно. Разновидностью непараметрического подхода являются оценки типа «М ближайших узлов» [2, 3, 18, 19]. Проведем упорядочение узлов x i в зависимости от величин расстояния между узлом и точкой x . Для такого упорядочения может быть выбран любой способ определения расстояния в n-мерном евклидовом пространстве; так, если - некоторая норма, то
x
x(1)
x
x( 2)
x
...
x( N ) .
(1.28)
Будем далее считать, что упорядочивание узлов выполнено в соответствии с рядом (1.28). Всюду x(i ) есть i-й ближайший узел к точке x . Оценками типа «М ближайших узлов» называются такие оценки, веса наблюдений в которых зависят только от номеров узлов, упорядоченных относительно центра x , а не от величин этих расстояний. Введем весовые коэффициенты, зависящие лишь от индекса i: i
0,
i
S
при i
S,
i
A
.
(1.29)
Непараметрические оценки y (x , ) типа «М ближайших узлов» определяются соотношениями
y( x, )
c T ( , ) (0) , c
min E N (c , M ) , c
E N ( x, M )
N
cT
i [ y (i ( x ))
(x
x(i ( x )) )]2 .
(1.30)
i 1
В общем многомерном случае при n 1 , m = 1,
y( x, )
N
1( x)
1 имеем
ht0 ( x , M ) y t ,
t 1
ht0 ( x , M )
i
.
N i i 1
18
(1.31)
Представляется, что непараметрический подход (точнее, локально-параметрический) является достаточно мощным средством для идентификации сложных объектов [2]. В то же время можно указать на его существенный недостаток: в соответствии с (1.24) - (1.27) следует, что использование построенной модели предполагает хранение в оперативной памяти всего массива (объемом N многомерных точек) данных, собранных на этапе идентифицирующего эксперимента. Объем такого массива, в силу применяемых процедур локальной интерполяции, может быть весьма существенным. В работах [3, 20, 21] изложена модификация метода «М ближайших узлов» – локально-аппроксимационные модели. В данном случае экспериментальные данные редуцируются, путем оставления наиболее информативных точек, которые затем используются для оценки состояния объекта методом «М ближайших узлов» с применением локальных аппроксимирующих функций порядка, обычно, не выше второго. 1.4 Нейросетевые методы идентификации Бурно развивающийся в последние годы аппарат искусственных нейронных сетей предназначен для решения задач классификации/кластеризации, распознавания образов, аппроксимации функций, оптимизации управления, прогноза случайных процессов и др. Рассмотрим основные понятия теории искусственных нейронных сетей [22 - 39]. Под искусственными нейронными сетями (далее просто нейронными сетями (НС)) подразумевают вычислительные структуры, состоящие из большого количества однотипных элементов, каждый из которых выполняет относительно простые функции. Процессы в искусственных НС иногда ассоциируют с процессами происходящими в нервной системе живых организмов. К настоящему времени разработано большое количество различных типов нейронных сетей, имеющих свои отличительные особенности. Среди различных видов НС наибольший интерес вызывает многослойная нейронная сеть прямого распространения или многослойный персептрон, сокращенно MLP (Multi Layer Perceptron). Элементарным преобразователем в рассматриваемых сетях является искусственный нейрон или просто нейрон, названный так по аналогии с биологическим прототипом. Искусственный нейрон обычно представляют в виде структуры, приведенной на рисунке 1.4.
19
x1 x2
W1 W2 y
s
F(s) xn
Wn b
Рисунок 1.4 – Структура искусственного нейрона Такой нейрон имеет n входов x1, x2, …, xn и один выход y, а его математическая модель описывается соотношениями: n
S
wi xi b ,
(1.32)
i 1
y
F (S ) ,
где w1, w2, … wn – весовые коэффициенты, b – постоянное смещение, F ( ) – функция активации или передаточная функция нейрона. Обычно в качестве активационной функции используется сигмоид:
y
F (S )
1 , 1 exp( a s)
(1.33)
где а – некоторая положительная постоянная. Выходное значение нейрона лежит в диапазоне [0, 1]. Ценные свойства сигмоидальной функции – дифференцируемость на всей оси абсцисс и простое выражение для ее производной, что используется в некоторых алгоритмах обучения. Кроме того, она обладает свойством усиливать слабые сигналы лучше, чем большие, что предотвращает насыщение от больших сигналов, так как они соответствуют областям аргументов, где сигмоид имеет пологий наклон. Известно также большое количество других разновидностей активационных функций.
20
Нейронная сеть состоит из ряда связанных между собой нейронов, обычно, образующих несколько слоев. На рисунке 1.5 в качестве примера приведена простейшая двухслойная нейронная сеть.
Рисунок 1.5 – Двухслойная нейронная сеть Отметим, что нейроны первого слева (входного) слоя сети на рисунке 1.5 математических операций не выполняют, а служат лишь для размножения сигналов и при определении числа слоев не учитываются. Чтобы нейронная сеть могла решить поставленную задачу, ее предварительно необходимо обучить. Сущность обучения состоит в подстройке весов нейронов по примерам обучающей выборки. Эффективность использования нейронных сетей устанавливается рядом так называемых теорем о полноте. Смысл данных теорем сводиться к тому, что любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисленными нейронными сетями, при выполнении некоторых достаточно легко реализуемых условий; таким образом, нейронные сети являются универсальными аппроксиматорами. Основным алгоритмом обучения MLP является алгоритм обратного распространения ошибки. В данном случае нейронная сеть обучается воспроизводить зависимость, заданную набором из N пар xn, yn точек n=1, 2, … N, с минимизацией суммарной квадратичной ошибки N
Е
Еn ,
(1.34)
n 1
где En
( yn
On ) 2 , Оn – выход сети при поступлении на вход x n . 21
Алгоритм состоит в последовательном выполнении следующих шагов. 1. Задаются параметр [0, 1] и некоторые малые случайные веса сети w ijk – k-й вес j-го нейрона в i-м слое нейронной сети, а также Еmax – максимальное значение суммарной функции ошибок сети. 2. Устанавливается n=1 – номер текущей обучающей точки и Е=0 – текущее значение суммарной функции ошибок сети. 3. Вводится очередная обучающая пара x x n и y y n . Вычисляется выходной сигнал сети On . 4. Производится корректировка весов в соответствии с формулой: wi
En , wi
wi
(1.35)
где wi – матрица весов i–го слоя нейронов, причем коррекция весов происходит в направлении от последнего слоя к первому, т.е. i последовательно меняется от М – число слоев в сети до 1. 5. Корректируются (наращивается) значение функции ошибки: E
E
(yn
On ) 2 .
(1.36)
6. Если nЕmax, то переход к п.2. 8. Останов. En В формуле (1.35) под понимается матрица элементами wi которой являются частные производные
En . Элементы данной w jk
матрицы в ряде случаев могут быть определены в аналитическом виде. Например, если нейроны сети описываются сигмоидальными функциями вида: On
1
, 1 exp( wT j x n )
(1.37)
где x n - вектор входных сигналов нейрона, Оn – выходной сигнал нейрона, w j - вектор весов нейрона; то для выходного нейрона сети: 22
En ( y n On )O n (1 On )OnM 1 , (1.38) WM где Оn – выход сети, On M 1 - выходной сигнал (М-1) слоя; для
предыдущего слоя нейронной сети: En WM
где: OnM
2
(yn
On )O n (1 On )WM OnM 1 (1 OnM 1 )OnM
2
,
(1.39)
1
- выходной сигнал М-2 слоя.
Аналогично для всех остальных слоев сети. Если вид частных производных аналитически определить не удается, то пользуются приближенными формулами для численной оценки производных:
En Wi
En . Wi
(1.40)
Рассмотренный алгоритм реализует процедуру градиентного метода наискорейшего спуска. Данный метод имеет линейную скорость сходимости, а также резкое замедление оптимизационного процесса в окрестности точки оптимального решения, что делает рассматриваемый алгоритм на практике малоэффективным. Тем не менее, благодаря своей простоте он остается одним из наиболее распространенных. Более эффективными методами настройки весов многослойной сети являются квазиньютоновские алгоритмы, например, методы переменной метрики (Бройдена-ФлетчераГольдфарба-Шенно, Девидона-Флетчера-Пауэлла) или ЛевенбергаМарквардта. При большом числе настраиваемых весов (десятки тысяч и более) очень хорошо зарекомендовал себя алгоритм сопряженных градиентов, хотя при меньшей размерности он уступает квазиньютоновским алгоритмам. Разработано также большое число алгоритмов эвристического типа, не имеющих строгого теоретического обоснования, но показавших свою эффективность на практике; в качестве примеров таких алгоритмов можно привести: симплекс метод, Quickprop, RPROP и ряд других. Как известно, перечисленные выше алгоритмы является алгоритмами локальной оптимизации, и для увеличения вероятности нахождения глобального экстремума необходимо проводить обучение несколько раз с разными начальными весами нейронов.
23
Для надежного нахождения глобального решения разработан ряд алгоритмов глобальной оптимизации, наиболее известными из которых являются метод имитации отжига и генетические алгоритмы. Многослойные персептроны, с точки зрения математики выполняют аппроксимацию функции нескольких переменных путем преобразования множества входных переменных во множество выходных переменных. Вследствие характера сигмоидальной функции активации преобразование значения функции в произвольной точке пространства выполняется объединенными усилиями всех нейронов, что позволяет отнести многослойный персептрон к методам глобальной аппроксимации или параметрическим методам. Другой способ отображения входного множества в выходное заключается в преобразовании путем адаптации нескольких одиночных аппроксимирующих функций к ожидаемым значениям, причем эта адаптация проводится только в ограниченной области многомерного пространства. При таком подходе отображение всего множества данных представляет собой сумму локальных преобразований. Наиболее известными из НС, реализующих принцип локальной аппроксимации являются радиально-базисные нейронные сети или RBFN (от Radial Basis Function Network), в которых скрытые нейроны реализуют функции, радиально изменяющиеся вокруг выбранного центра и принимающие ненулевые значения только в окрестности этого центра. RBFN – это двухслойная нейронная сеть. Первый слой данной сети состоит из так называемых радиальных нейронов. Нейроны данного слоя реализуют нелинейные зависимости в соответствии с соотношением:
r ( x)
or
(
x cr
),
(1.41)
r
где o k – выходной сигнал r-го нейрона; x – входной сигнал сети (данный сигнал подается на каждый нейрон рассматриваемого слоя); r , c r – постоянные параметры, которые могут настраиваться в процессе обучения. Часто в качестве ( ) используется функция Гаусса: (s)
exp( s 2 / 2) . В этом случае
r ( x)
24
exp(
x cr 2
2 2
r
).
(1.42)
Второй слой RBFN осуществляет линейное или нелинейное преобразование выходных сигналов первого слоя (в частности, если выходной сигнал сети – скаляр, данный слой состоит из одного нейрона). Линейный выходной нейрон выполняет операцию взвешенного суммирования: M
or wr .
y
(1.43)
k 1
В общем случае процесс обучения RBFN сводится к определению ряда параметров: 1) числа нейронов входного слоя М; 2) координат центров c r и отклонений радиальных r базисных функций (см. формулу (1.41)); 3) весов нейронов выходного слоя wk (см. формулу (1.43)). Разработано большое количество алгоритмов настройки указанных параметров. Перечислим основные из них. Настройка параметров c r и r может осуществляться методом обратного распространения ошибки, аналогично тому, как это происходит в сигмоидальных нейронных сетях, например, градиентным методом. Кроме того, для определения координат центров c r могут использоваться алгоритмы обучения без учителя, помещающие центры радиальных функций в центры кластеров обучающих данных. Для определения отклонений r также существуют различные эмпирические методы, использующие в качестве исходной информации расстояния между центрами радиальных функций. Веса нейронов выходного слоя
wr
обычно входят линейно в
выражение для выходного сигнала сети (см. формулу (1.43)), и их настройку можно осуществить с помощью формул для определения коэффициентов линейной регрессии по методу наименьших квадратов. Наиболее сложным является выбор числа радиальных базисных функций M. Существует несколько методов выбора параметра М, однако данную задачу пока нельзя считать решенной. В обобщенно-регрессионных нейронных сетях или GRNN (от Generalized Regression Neural Network), являющихся разновидностью RBFN, второй слой осуществляет взвешенное суммирование выходных сигналов первого слоя:
25
M
or wr y
r 1
,
N
(1.44)
or r 1
где wr – веса, настраиваемые при обучении, M – число нейронов первого слоя, y – выходной сигнал сети. Структура обобщенно-регрессионной нейронной сети показана на рисунке 1.6.
РБЧ – радиально-базисная часть БВС – блок взвешенного суммирования Рисунок 1.6 – Обобщенно-регрессионная нейронная сеть Достоинство обобщенно-регрессионной нейронной сети – очень простой алгоритм обучения. Допустим, что обучающая выборка состоит из N пар значений i i x , y , i=1, 2, …N. В простейшем случае при обучении формируется радиальный слой из M=N нейронов с параметрами cr x i , а параметры второго слоя выбираются из условия wr y i . В описанном алгоритме обучение GRNN происходит практически мгновенно (один такт). Однако сеть получается достаточно громоздкой, поэтому разработаны алгоритмы обучения GRNN, в которых число радиальных нейронов меньше числа элементов обучающей выборки (M
на расстоянии больше заданного от уже имеющихся в сети центров радиальных функций [32]. Для радиальных нейронных сетей доказано ряд теорем, согласно которым, данные сети, при выполнении определенных условий, могут аппроксимировать произвольную гладкую функцию. Обычно RBFN обладают худшими обобщающими свойствами по сравнению с сигмоидальными нейронными сетями при больших объемах обучающей выборки. Особенно сильно это проявляется в задачах экстраполяции. Однако RBFN показали очень хорошие результаты, в случае если объем обучающей выборки мал. В RBFN нет проблемы выбора числа слоев сети. Кроме того, большинство алгоритмов обучения RBFN работают значительно быстрее по сравнению с алгоритмами обучения многослойных персептронов. Приведенный обзор литературных источников позволяет сделать следующие выводы. 1. Под функциональной идентификацией понимается процедура определения зависимости между входными и выходными сигналами объекта на основе экспериментальных данных. Существует два подхода к функциональной идентификации: аналитический и аппроксимационный. При аналитическом подходе структура математической модели объекта строится на основе описания действующих в объекте закономерностей. Для сложных систем при аналитическом подходе возникает ряд трудностей: во-первых, невозможно учесть все закономерности, действующие в объекте, а пренебрежение рядом из них может существенно ухудшить точность модели; во-вторых, после определения структуры модели необходимо провести определение ее параметров, что для сложного объекта является нетривиальной задачей. Указанные трудности привели к развитию так называемого аппроксимационного подхода к решению задачи идентификации. В данном случае связь ―вход – выход‖ объекта аппроксимируется некоторой зависимостью (функцией или функционалом), в общем случае не базирующемся на процессах, происходящих в объекте, отражающей общий характер связи. 2. Аппроксимационные модели можно разделить на параметрические и непараметрические. При параметрическом подходе во всей области нахождения входных факторов выбирается одна аппроксимирующая зависимость между входами и выходами объекта, параметры которой определяются на основе экспериментальных данных. Достоинство параметрических моделей состоит в том, что, если аппроксимирующая зависимость выбрана правильно, т. е. отражает основные тенденции связи «вход – выход», то точность модели может быть весьма высока даже при небольшом объеме и существенной зашумленности экспериментальных данных. В тоже время, для сложных объектов достаточно трудно подобрать единую для всей области действия входных факторов зависимость, а неверный ее выбор существенно снижает точность моделей. При 27
непараметрическом подходе также строятся аппроксимирующие зависимости, но они не остаются постоянными, изменяются в зависимости от значений входов объекта. Достоинством непараметрического подхода являются хорошие аппроксимирующие свойства для сложных объектов. С другой стороны, непараметрический подход имеет ряд недостатков, в частности: плохие экстраполирующие свойства моделей и высокая чувствительность к шуму обучающей выборки. 3. Искусственные нейронные сети представляют собой алгоритмы обработки информации на основе большого числа однотипных элементов – искусственных нейронов. Достоинствами нейронных сетей являются: высокий параллелизм решения задач, позволяющий достигнуть быстродействия и надежности; возможность легко изменять масштаб сети, путем выбора числа нейронов без изменения алгоритма обработки информации; наличие разработанных высокоэффективных алгоритмов обучения. Различные нейросетевые парадигмы реализуют, как параметрические (например, полиномиальные нейронные сети, персептроны), так и не параметрические (например, сети с радиальными базисными элементами) аппроксимационные методы функциональной идентификации. 4. Перспективным представляется развитие гибридных нейросетевых алгоритмов функциональной идентификации, сочетающие достоинства различных подходов (параллелизм решения задач, возможность использовать уже разработанные высокоэффективные алгоритмы обучения, точность моделей при небольшом объеме и существенной зашумленности экспериментальных данных, хорошие аппроксимирующие свойства для сложных зависимостей). 1.5 Конкретизация задач исследования Предположим, что ―истинная‖ модель статического объекта в n -мерной области представляется соотношением: y
(x )
,
исследуемого адекватно x
(1.45)
а динамического – yi
( xi )
(1.46)
где ( ) – функция неизвестного вида; , i – аддитивная случайная помеха (отражает действие неучитываемых факторов) с нулевым 28
математическим ожиданием и неизвестным распределением на m , m , независящая от x и x i соответственно и имеющая значения в различных опытах независимые друг от друга; для статического объекта: x x1 , x2 , ..., xn T – векторный вход объекта, y – скалярный выход объекта; для динамического объекта: xi [ yi 1 , ..., yi l , ui , ui 1 , ..., ui l1 ]T ; u i , y i – значения входного и выходного сигнала объекта соответственно, измеренные в эквидистантные (равноудаленные) моменты времени ti , i 1, 2, ... ; l , l1 – заданные целые положительные константы. Отношение составляющей выхода модели (y и yi соответственно), обусловленное действием входных факторов, к шумовой (случайной) компоненте (ε и εi соответственно) намного превышает единицу. Предположим далее, что функция ( ) представима в виде: ( x)
p( x ) g ( x ) ,
(1.47)
где p(x ) – полиномиальная функция: K
p( x )
ak x1
1k
x2
2k
... xn
nk
,
(1.48)
k 1
a k – постоянные параметры, K – целый положительный параметр, – целые неотрицательные параметры; g (x ) – нелинейная jk
функция общего вида. В области x соотношение:
для функций S p( x )
p(x )
g (x )
и
S g ( x) ,
выполняется
(1.49)
где S – функционал, возвращающий среднеквадратичное значение функции-аргумента в области x : g ( x ) 2 dx
p ( x ) 2 dx S p( x )
,
x
dx x
S g (x)
.
x
(1.50)
dx x
29
На объекте реализован регистрации N пар значений: для статического случая –
эксперимент,
заключающийся
в
x i , yi ,
(1.50)
u i , yi ,
(1.51)
для динамического случая – где i 1, 2, ..., N . При этом значения x , y , u i и y i измерены без ошибок; xi x , xi x. Требуется на основе экспериментальных данных (1.50) или (1.51) восстановить неизвестную зависимость ( ) с максимально возможной точностью. Для решения поставленной задачи необходимо: 1. Разработать нейросетевые методы идентификации сложных статических и динамических объектов, которые могут быть адекватно представлены моделями вида (1.45) и (1.46) при принятых допущениях. 2. Провести аналитическое исследование свойств и точности моделей, получаемых с использованием предложенных методов. 3. Разработать статистическую методику оценки точности полученных нейросетевых моделей. 4. Разработать метод получения модели сложного статического объекта требуемой точности с элементами планирования. 1.6 Выводы по главе Основные результаты настоящей главы можно отразить в следующих выводах. 1. Рассмотрены основные понятия теории идентификации. Описаны аналитический и аппроксимационный подходы построения математических моделей. Отмечается, что аналитические модели не всегда применимы при идентификации сложных объектов. Рассмотрены основные группы методов, относящихся к аппроксимационному подходу: регрессионные модели, комбинаторные (методы группового учета аргументов), непараметрические и искусственные нейронные сети. 2. Рассмотрены параметрические и непараметрические аппроксимационные методы идентификации. Отмечается, что достоинством параметрических методов является высокая точность моделирования даже в случае небольшой или зашумленной обучающей выборки, если аппроксимируемая зависимость достаточно проста (например, представима полиномом невысокого порядка). В тоже время, в случае неудачно выбранной аппроксимирующей 30
зависимости точность моделирования параметрическими методами часто неудовлетворительная. Достоинством непараметрических методов является отсутствие необходимости выбирать тип глобальной аппроксимирующей зависимости, что позволяет значительно увеличить точность моделирования сложных существенно нелинейных объектов. В тоже время, отклик модели в непараметрических методах определяется не всей, а лишь частью обучающей выборки, что делает такие модели мало эффективными при значительной зашумленности обучающей выборки. 3. Отмечается, что на практике часто моделируемая зависимость представляет собой сумму гладкой функции, аппроксимируемой полиномом невысокого порядка, и сложной негладкой нелинейной зависимости, что нивелирует достоинства как параметрического, так и непараметрического подходов. Сделан вывод о том, что в данном случае будут наиболее эффективны гибридные методы идентификации, выполненные на основе методов относящихся как к параметрическому, так и непараметрическому подходам. 4. Ввиду того, что в настоящее время большое развитие получили нейросетевые методы идентификации целесообразно решение научной задачи проводить на основе нейросетевого подхода, в частности, с использованием аппарата радиально-базисных нейронных сетей, как наиболее перспективного представителя непараметрических методов идентификации. В качестве параметрического метода идентификации для построения гибридного метода выбраны полиномиальные модели, которые широко распространены на практике благодаря возможности аналитически определять параметры модели на основе метода наименьших квадратов.
31
2
МОДЕЛИ СТАТИЧЕСКИХ ОБЪЕКТОВ НА ОСНОВЕ ОБОБЩЕННО-РЕГРЕССИОННЫХ НЕЙРОННЫХ СЕТЕЙ С ПОЛИНОМИАЛЬНОЙ КОРРЕКЦИЕЙ 2.1 Обобщенно-регрессионная полиномиальной коррекцией
нейронная
сеть
с
В работе [17] сформулирован принцип адекватности, согласно которому объект и его система моделирования или управления для наиболее оптимального решения задачи должны обладать рядом общих черт. В соответствии с принципом адекватности, для решения рассматриваемой задачи предложена обобщенно-регрессионная нейронная сеть с полиномиальной коррекцией (сокращенно GRNN PC от Generalized Regression Neural Network Polynomial Сorrection), структурно состоящая из радиально-базисной части (РБЧ), полиномиальной части (ПЧ) и блока взвешенного суммирования (БВС), см. рисунок 2.1. Предложенная искусственная нейронная сеть реализует следующую нелинейную зависимость: M
r ( x)
y( x )
wr
u
П ( x)
r 1 M
,
r ( x) u
(2.1)
r 1
где wr – весовые коэффициенты, u – параметр, определяющий влияние полиномиальной и радиально-базисной частей на выход сети y , r (x ) , П (x ) – функции, реализуемые радиальными нейронами и полиномиальной частью сети соответственно:
x cr
r ( x ) exp
2
2
2
,
(2.2)
L
П ( x)
bk x1
1k
x2
2k
... xn
nk
,
(2.3)
k 1
– евклидова векторная норма,
bk , c r ,
L – целый положительный параметр, параметры. 32
jk
– постоянные параметры, – целые неотрицательные
РН r – радиальные нейроны, – блоки умножения, – блоки суммирования, – блок деления, k – пи-нейроны Рисунок 2.1 – Структура обобщенно-регрессионной нейронной сети с полиномиальной коррекцией (GRNN PC) Предположим, далее, что на объекте реализован эксперимент, заключающийся в регистрации N пар значений:
x i , y i , i 1, 2, ..., N .
(2.4)
При этом значения x и y измеряются без ошибок; x i x, x – некоторая n-мерная область. Формирование GRNN PC на основе обучающей выборки (2.4) состоит в последовательной реализации трех этапов. Этап 1. Формирование полиномиальной части сети, в предположении, что радиальнобазисная часть отсутствует ( u ). В рассматриваемом случае выражение (2.1) с учетом (2.3) принимает вид: y( x )
L
П ( x)
L
bk x1 k 1
1k
x2
2k
... x n
nk
bk f k ( x ) b T f ( x ) , (2.5)
k 1
33
где b1 b
b2
f (x)
,
... bL
f1 ( x ) f2 (x) , ... f L (x)
(2.6)
f (x ) – вектор базисных функций [10]. Из формулы (2.6) видно, что формирование полиномиальной части заключается в определении количества пи-нейронов L (числа базисных функций) и значений параметров данных нейронов jk , а
также весовых коэффициентов bk . Структура полиномиальной зависимости может выбираться как на основе информации о предметной области, так и путем оптимизации вида данной зависимости, например, с использованием метода группового учета аргументов (МГУА) [4]. Этап 2. Формирование радиальнобазисной части сети, в предположении, что полиномиальная часть отсутствует (u = 0). В этом случае выражение (2.1) с учетом (2.2) принимает вид: M
y( x )
РБЧ ( x )
r ( x ) wr
r 1 M r 1
M
exp r 1
r ( x)
M
exp r 1
x cr
2
2 2 x cr 2
wr 2
. (2.7)
2
Из соотношения (2.7) следует, что формирование радиальнобазисной части заключается в определении числа радиальных нейронов M, значений параметров c r и данных нейронов, а также весовых коэффициентов wr . При формировании радиальнобазисной части сети могут использоваться методы, разработанные для создания и обучения GRNN сетей [22-26]. Этап 3. Настройка параметра u, определяющего соотношение между влиянием радиально-базисной и полиномиальной частей на выход сети. В случае, если обучающая выборка содержит обучающие точки i i x , y , расположенные случайным образом в n-мерной области x , с положительной
34
плотностью
вероятностей
f (x )
0,
можно
использовать алгоритм формирования GRNN PC состоящий из следующих шагов. Шаг 0 (предварительный). Обучающая выборка (2.4) разбивается на две части: собственно обучающую
x l , y l , l 1, 2, ..., L
(2.8)
x h , y h , h 1, 2, ..., H
(2.9)
и контрольную
выборки (H+L=N). Размер контрольной выборки
H
N , где
0, 1 ; по умолчанию выбирается заданный параметр 0.2 . Устанавливается параметр R – минимально допустимое расстояние между центрами радиальных нейронов. Шаг 1. Определение вектора параметров b полиномиальной части сети. Вариант А. С использованием нерекуррентного метода наименьших квадратов (МНК) [10-14]: b
где
(F T F )
1
f T ( x1 ) f T ( x2 ) , y ... T f ( xN )
F
FT y ,
(2.10)
y1 y2 ...
.
(2.11)
yN
Вариант B. С использованием рекуррентного МНК [10, 14]:
bN
1
bN
f ( xN 1 ) yN f T ( xN 1 ) N 1 f ( xN 1 ) 1
N
1
1
f ( x N 1 ) bN , (2.12)
где N
N 1
N
(F T F ) , f (xN 1) f T (xN 1) ,
35
f (xN 1 ) f T (xN 1 ) N 1 . E N 1 N 1 f T (xN 1 ) N 1 f (xN 1 ) Шаг 2. Определение числа радиальных нейронов M, значений параметров c r и весов wr . 2.1. Устанавливаются переменные i=1 и M=0. 2.2. Из обучающей выборки извлекается элемент и x i , yi 1
1
находится минимальное расстояние: Rmin
где c r
min r 1, 2,..., M
2.4.
Если
xi ,
(2.13)
- центры радиальных нейронов. Если радиальных
нейронов нет (M=0), считается Rmin 2.3.
cr
.
R , то добавляется радиальный нейрон с параметрами cM 1 x i , устанавливаются wM 1 y i и M =M+1. (Идея такого ―просеивания‖ обучающих точек предложена в работах [32, 51]). Если i= N, то останов, иначе i=i+1 и переход к пункту 2.2. Rmin
Шаг 3. Определение значения параметра отклонения радиальных нейронов . Вариант А. С использованием эмпирической формулы [22-26]:
d 8 ln 2 где
,
(2.14)
и d ( xmax xmin ) /(n M 1) , x max и x min – максимальное минимальное значения компонент входного вектора x соответственно. При таком выборе параметра гауссовы функции принадлежности при регулярном расположении базисных функций в узлах равномерной сетки пересекаются на уровне 0.5. Вид функций, реализуемых радиальными нейронами в случае, когда исследуемый объект имеет только один вход, полученных с использованием формулы (2.14), представлен на рисунке 2.2. Вариант B. С использованием алгоритма оптимизации. Нейронная сеть обучается на основе обучающей выборке (2.8), после чего параметр определяется путем минимизации ошибки на тестирующей выборке (2.9):
36
H
E( )
( y( x h , )
yh )2
min ,
(2.15)
h 1
где y ( x h , ) – отклик обученной сети при подаче на ее вход x h . Для решения задачи (2.15) используется метод золотого сечения [52, 53].
Рисунок 2.2 – Вид функций, реализуемых радиальными нейронами 4. Настройка параметра u. Вариант А. С использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (2.8), после чего параметр u определяется путем минимизации ошибки на тестирующей выборке (2.9): H
E (u )
( y( x h , u)
u
y h )2
min ,
(2.16)
h 1
где y ( x h , u ) – отклик обученной сети при подаче на ее вход x h . Для решения задачи (2.16) используется метод золотого сечения [52, 53]. Вариант Б. С использованием эвристической формулы
u
0, E РБЧ , E РБЧ E ПЧ ,
E РБЧ
0.75E ПЧ
0.75E ПЧ , 0.75E РБЧ 0.75E РБЧ
E ПЧ ,
(2.17)
E ПЧ
37
где E РБЧ
1 H
H
(
РБЧ
(x h )
– среднеквадратическая ошибка
y h )2
h 1
радиальнобазисной
части
сети,
1 H
E ПЧ
H
(
h
П (x
)
y h )2
–
h 1
среднеквадратическая ошибка полиномиальной части сети, определенная по тестирующей выборке. Рассмотрим метод золотого сечения, используемый при нахождении параметров и u [52, 53]. Предположим, необходимо найти минимум функции f (x) на отрезке a, b с заданной точностью . Метод золотого сечения состоит в реализации следующих шагов. Шаг L2
1.
Устанавливаются
переменные:
k=1,
L1
5 1 , 2
1 L1 , ak xmin , bk xmax . Вычисляются значения:
Шаг 2. Если Fk1
x1k
ak
L1 (bk
ak ),
xk2
bk
L1 (bk
ak ),
1
f ( x1k ),
Fk2
f ( xk2 ).
Fk2 , то
ak x1k
Fk1
(2.18)
ak
ak , bk
1
L1 (bk
1
Fk1 1
f
ak 1 ) , xk2
1
( x1k 1 )
,
xk2 ,
1
Fk2 1
1
x1k ,
(2.19)
Fk1 ,
иначе ak x1k 1
xk2 , Fk1 1
1
x1k , bk
xk2 1 Fk2 ,
bk
Fk2 1
bk ,
1
L1 (bk
1
f
1 ( xk2 1 ) .
ak 1 ),
(2.20)
Шаг 3. Проверяется критерий останова b a . Если указанный критерий не выполнен, то k=k+1 и переход к шагу 2. В противном случае, останов, решением считается (ak 1 bk 1 ) / 2 .
38
Для упрощения поиска параметра u можно использовать модификацию предложенной GRNN PC, которая реализует зависимость: y( x ) M
где
РБЧ ( x )
r ( x) r 1 M
u1 wr
РБЧ ( x )
u2
П ( x) ,
(2.21)
– оператор, реализуемый радиальнобазисной
r ( x)
r 1
частью сети. На рисунке 2.3 приведена структура модифицированной обобщенно-регрессионной нейронной сети с полиномиальной коррекцией (M GRNN PC).
РН r – радиальные нейроны, – блоки умножения, – блоки суммирования, – блок деления, Пk– пи-нейроны Рисунок 2.3 – Структура модифицированной обобщеннорегрессионной нейронной сети с полиномиальной коррекцией (M GRNN PC)
39
Обучение полиномиальной и радиальнобазисной частей происходит аналогичным базовому варианту образом. Выбор параметров u1 и u2 может осуществляться двумя способами. Вариант А. С использованием метода наименьших квадратов.
u1 u2
(F T F )
1
(2.22)
1 ) 2 ( x ) П . ... H П (x )
(2.23)
FT
( x1 ) 2 РБЧ ( x ) ... H РБЧ ( x )
П (x
РБЧ
F
y1 y2 , ... yH
Вариант Б. На основе взвешенного значения среднеквадратических ошибок полиномиальной и радиально-базисной части. u1
E ПЧ , E РБЧ E ПЧ
u2
E РБЧ , E РБЧ E ПЧ
(2.24)
где ЕРБЧ и ЕПЧ – такие же, как и в формуле (2.17). 2.2 Численное исследование обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией Рассмотрим следующий пример. Предположим, что моделируемый объект описывается зависимостью вида (1.45), функция (x ) удовлетворяет условию (1.46) и имеет вид: ( x)
q [3 (1 x1 ) 2 exp( x12
1 exp( ( x1 1) 2 3
( x2 1) 2 ) 10
x22 )] (1 q ) [ x12
1 x1 5
x13
exp( x12
x22 )
x22 ],
где q – постоянный параметр, q 0, 1 . Аддитивная помеха имеет нормальное 0 и СКО математическим ожиданием M .
40
x25
распределение
с
Аппроксимация
производится
в
области
x
:
x1 [ 3, 3]; x2 [ 3, 3] .
Обучающая выборка (2.4) расположена в области x равномерно случайным образом и содержит 64 точки. Тестирующая выборка содержит 400 точек, расположенных по равномерному закону в области x . Использовались следующие методы построения моделей: полиномиальная МНК модель 2-го порядка (LMS2); обобщенно-регрессионная нейронная сеть (GRNN); метод локальной аппроксимации с числом ближайших узлов М=5 (LA5); многослойный персептрон со структурой 12-5-1 (MLP)). обобщенно-регрессионная нейронная сеть с полиномиальной коррекцией (GRNN PC); модифицированная обобщенно-регрессионная нейронная сеть с полиномиальной коррекцией (M GRNN PC). В качестве полиномиальной части GRNN PC и M GRNN PC была выбрана структура, реализующая квадратичную зависимость: f (x)
A BT x
xT C x .
(2.25)
Использовались различные варианты алгоритма обучения GRNN PC и M GRNN PC: ―GRNN PC AA‖ – параметр определялся по эмпирической формуле (2.14), параметр u определялся методом оптимизации. ―GRNN PC AB‖ – параметр определялся по эмпирической формуле (2.14), параметр u определялся по эмпирической формуле (2.17); ―GRNN PC BA‖ – параметры и u определялись методом оптимизации; ―GRNN PC BB‖ – параметр определялся методом оптимизации, параметр u определялся по эмпирической формуле (2.17); ―M GRNN PC AA‖ – параметр определялся по эмпирической формуле (2.14), параметры u1 и u 2 определялись по эмпирической формуле (2.24). ―M GRNN PC AB‖ – параметр определялся по эмпирической формуле (2.14), параметры u1 и u 2 определялись по методу наименьших квадратов; ―M GRNN PC BA‖ – параметр определялся методом оптимизации, параметры u1 и u 2 определялись по методу наименьших квадратов; 41
―M GRNN PC BB‖ – параметр определялся методом оптимизации, параметры u1 и u 2 определялись по эмпирической формуле (2.24); На рисунках 2.4 – 2.6 показаны графики среднеквадратичной ошибки моделей на тестовой выборке в зависимости от параметра q для разных методов и значений СКО шума: =0, =0,25 и =0,5 соответственно.
Рисунок 2.4 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0
Рисунок 2.5 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0,25 42
Рисунок 2.6 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0,5 Введем в рассмотрение среднюю ошибку модели по множеству значений параметра q:
Ecp
q max
1 qmax qmin
E (q) dq ,
(2.26)
q min
где E (q) – среднеквадратичная ошибка модели в зависимости от параметра q. Таблица 2.1 – Средняя ошибка моделей по множеству значений параметра q GRNN 0 0,25 0,50
1,08 1,13 1,32
Полиномиальная модель 0,88 0,90 0,92
Многослойный персептрон 0,94 1,04 1,11
Локальноаппроксимационная модель 0,76 0,82 0,91
GRNN PC 0,59 0,61 0,68
M GRNN PC 0,63 0,65 0,71
Из приведенных графиков видно, что предложенная GRNN PC в среднем при различных значениях параметра q обеспечивает наилучшую точность моделирования из всех представленных методов. При этом выбор параметра осуществляется по эмпирической формуле (2.14), параметр u – определяется методом оптимизации. Однако следует заметить, что модели, полученные с использованием метода наименьших квадратов, а так же полученные с использованием обобщенно-регрессионных нейронных сетей (GRNN) 43
дают лучший результат, чем предложенная гибридная нейронная сеть (GRNN PC) при значении параметра q=0 и q=1 соответственно. Это связано с тем, что объем обучающей выборки невелик, вследствие чего исключение части обучающих точек приводит к ухудшению точности даваемых каждым из методов положенных в основу гибридной сети в отдельности, причем неодинаковому, а значит неадекватному выбору значения параметра u. В приведенных примерах особенно это характерно при значении параметра q=1, так как радиально-базисная составляющая более чувствительна к уменьшению и так небольшого объема обучающей выборки. С увеличением объема обучающей выборки указанное явление становится незначительным. На рисунках 2.7 – 2.9 показаны графики среднеквадратичной ошибки моделей на тестовой выборке в зависимости от параметра q для разных вариантов обучения GRNN PC и значений СКО шума: =0, =0,25 и =0,5 соответственно.
Рисунок 2.7 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0
44
Рисунок 2.8 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0,25
Рисунок 2.9 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0,5 На рисунках 2.10 – 2.12 показаны графики среднеквадратичной ошибки моделей на тестовой выборке в зависимости от параметра q для разных вариантов обучения M GRNN PC и значений СКО шума: =0, =0,25 и =0,5 соответственно.
45
Рисунок 2.10 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0
Рисунок 2.11 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0,25
46
Рисунок. 2.12 – Зависимость среднеквадратичной погрешности аппроксимации от параметра q при СКО шума =0,5 Из приведенных на рисунках 2.4 – 2.12 графиков видно, что при различных значениях параметра q наилучшую точность моделирования обеспечивается когда выбор параметра осуществляется по эмпирической формуле (2.14), параметр u – определяется методом оптимизации, при использовании модифицированной обобщеннорегрессионной нейронной сети с полиномиальной коррекцией, когда параметры u1 и u 2 определяются по эмпирической формуле (2.24). В дальнейшем будем полагать, что для обучения GRNN PC используется алгоритм, в котором выбор параметра осуществляется по эмпирической формуле (2.14), параметр u – определяется методом оптимизации, кроме случаев оговоренных отдельно. 2.3 Аналитическое исследование свойств обобщеннорегрессионных нейронных сеть с полиномиальной коррекцией Проведем исследование свойств моделей, получаемых с использованием рассмотренного выше алгоритма формирования обобщенно-регрессионной нейронной сети с полиномиальной коррекцией. Теорема 2.1. Пусть обучающие точки из выборки (2.4) расположены на n-мерном гиперкубе x с размером грани D , тогда число радиальных нейронов M, при работе алгоритма ограничено сверху величиной
D R
n
1 , т. е.
47
M
D 1 R
n
.
(2.27)
Доказательство. Согласно шагу 2.3 в алгоритме обучения в радиально-базисную часть добавляются только те радиальные нейроны, центры которых отдалены от центров уже имеющихся радиальных нейронов более чем на R. Очевидно, максимальное число радиальных нейронов может быть добавлено при регулярном n
D 1 . Во R всех остальных случая число добавленных радиальных нейронов будет меньше указанной величины. Что и доказывает теорему. ■ Теорема 2.2 (теорема сходимости). Пусть обучающие точки из выборки (2.4) расположены на n-мерном гиперкубе x с размером грани L с плотностью распределения вероятности f (x ) 0 , аппроксимируемая зависимость (x ) – непрерывная ограниченная на , в алгоритме x неслучайная функция, такая, что sup ( x ) расположении обучающих точек с шагом R и составляет
x
x
обучения минимальное расстояние между точками R=0. Тогда для x 1 выполняется соотношение: x с вероятностью p
lim y( x )
( x) .
(2.28)
N
Доказательство. Алгоритм обучения GRNN PC состоит в независимом обучении радиально-базисной и полиномиальной частей сети. Независимо обучаемая радиально-базисная часть – это по сути обощеннорегрессионная нейронная сеть (GRNN). В работе [24] показано, что при объеме обучающей выборки N→ и числе радиальных нейронов равному числу обучающих точек (R=0) GRNN дает оценку обобщенной регрессии [6], т. е. M ( y ( x ))
( x) .
(2.29)
Выражение (2.29) при отсутствии шума в обучающей выборке принимает вид: y( x )
( x)
(2.30)
с вероятностью p → 1. При этом, очевидно, ошибка аппроксимации (2.16) достигает своего минимального значения при отсутствии 48
полиномиальной части сети т. е. из u=0 следует E(u)=0. Откуда в свою очередь следует выражение (2.28), что и доказывает теорему. ■ 2.4 Статистическая оценка ошибки моделирования с помощью обобщенно-регрессионных нейронных сеть с полиномиальной коррекцией Задача оценки точности модели, обычно, решается следующим образом. Обучающая выборка (2.4) случайным образом делится на, собственно, обучающую: X l , Y l , l 1, 2, ..., N1 ,
(2.31)
по которой и проводится обучение нейронной сети, и тестирующую: X k , Y k , k 1, 2, ..., N 2
(2.32)
(объем тестирующей выборки (2.31) выбирается, обычно, во много раз N1 ), на меньше объема обучающей выборки (2.32), то есть N 2 основе которой производится оценка точности модели. Рассмотрим ошибку модели:
Y Y,
(2.33)
где Y - выход объекта, Y – выход модели. Ввиду наличия случайного шума погрешность модели можно считать случайной величиной. Максимальное абсолютное значение ошибки модели Max (СКО) ошибки модели
и среднеквадратическое отклонения
определяется формулами [56, 57]: Max
max x
(
,
(2.34)
m ) 2 f ( )d ,
(2.35)
x
x
где
x
m
- область моделирования, f ( ) - плотность распределения
f ( )d
– математическое ожидание
,
.
x
49
Точечные оценки помощью формул [56, 57]:
Max
Max
и
могут быть получены с
max k 1, 2, ... N
1
k
Yk
,
(2.36)
N2
N2 1 k где
k
[
k
m ]2 ,
(2.37)
1
Y k , Y k и Y k – значения выхода объекта и модели в k-й N2
1 N2
точке тестирующий выборки (2.32) соответственно, m
k
.
k 1
Описанные точечные оценки Max и часто не позволяют сделать однозначный вывод о качестве полученных моделей, преодолеть указанную сложность позволяют интервальные оценки, методика получения которых изложена ниже. Для конкретизации метода построения интервальных оценок необходимо проверить гипотезу нормальности распределения величины . Проверка указанной гипотезы может быть проведена с помощью ―критерия 2‖ Пирсона [56, 57]. Сведем результаты опытов в J интервалов и оформим в виде статистического ряда (см. таблицу 2.2). Таблица 2.2 – Статистический ряд распределения ошибки модели ( 1, 2 ) ( 2, 3) ( J 1, J ) … I p
p1
…
p2
pJ
В таблице 2.2 приняты следующие обозначения: m j – число попаданий ошибки модели
k
в интервал (
mj
pj
j 1,
N2
, где
j).
На основе функции нормального закона распределения можно найти теоретические вероятности попадания в каждый интервал [55, 56]:
50
yj
pj
yj
m )2
(
1
e
2
2
d , j
1, 2, ..., J .
(2.38)
2 1
Проверка согласованности нормального и статистического распределений производится на основе анализа расхождения между теоретическими вероятностями p j и наблюдаемыми частотами p j . В качестве меры расхождения квадратов отклонений:
~2
J
p j )2
(pj
N2
используется
pj
j 1
J
взвешенную
m j )2
(N2 p j
N2 p j
j 1
.
сумму
(2.39)
Распределение 2 зависит от параметра r, называемого числом ―степеней свободы‖ распределения. Число степеней свободы r, определяемое согласно формуле: r =L – R,
(2.40)
где R число независимых условий (―связей‖). Если выполняется условие 12 1 ~ 2 , то закон распределения случайной величины соответствует нормальному закону распределения с доверительной вероятностью 1 [56, 57]. В зависимости от результатов проверки гипотезы нормальности распределения рассмотрим два случая. 1. Гипотеза нормальности распределения величины выполняется. Доверительный интервал для ошибки модели выражается в виде [56, 57]: m
где
2
t
2
m
t
,
2
- доверительная вероятность, t
(2.41) 1
2
1
2
2
,
–
нормальная функция распределения. Из формулы (2.41) воспользовавшись свойствами функции модуль можно получить оценку максимальной абсолютной ошибки модели Max с доверительной вероятностью [69]: 51
Max
m
t
,
2
(2.42)
Верхняя оценка значения СКО ошибки модели уровнем значимости
3
( N 2 1)
max
2 p
.
2
(2.43)
3
1
где
с заданным
определятся формулой [56, 57]:
2 2
- значение закона распределения
степенями свободы отвечающее вероятности
p,
3
с
( N 2 1)
- уровень
значимости ( 3 1 3 , 3 – доверительная вероятность). 2. Гипотеза нормальности не выполняется (закон распределения неизвестен). На основании неравенства Чебышева можно записать [56, 57]: 2
P(
m )
)
,
2
(2.44)
где P ( ) – вероятность выполнения условия, стоящего внутри скобок, – положительный параметр. Проведя преобразования на основе (2.44) можно получить доверительный интервал для ошибки модели :
m
,
m 4
(2.45)
4
где 4 - уровень значимости ( 4 1 4 , 4 – доверительная вероятность). В случае, когда для закона распределения случайной величины выполняется гипотеза симметричности, можно получить более точную оценку [57]:
m
52
2 3
m 4
2 3
. 4
(2.46)
Метод проверки гипотезы симметричности закона распределения случайной величины описан в работе [58]. Для получения верхней оценки значения СКО ошибки модели с заданной доверительной вероятностью 5 можно воспользоваться следующей приближенной формулой [56]:
max
где
5
1 t
2 5
N2 1
- доверительная вероятность, t
,
1
(2.47)
1
5
5
2
,
–
нормальная функция распределения. Рассмотрим следующий пример. Выполним построение нейросетевых моделей и оценку их ошибки для объектов со структурой (1.46), описываемых следующими выражениями: (x)
1)
1.5 (1 x1 ) 2 exp( x12
1 exp( ( x1 1) 2 6
( x)
2)
1) 2 )
x22 ) + 0.5(x12 + x 22 ), x1
10 100
( x12
x1 [ 3;3], x2 ( x)
3)
( x2
(0.8 x12
x22 ) 2
(1
x12 ) 2
1
x1
5 x13
[ 3,3], x2
0.9 ( x12
5 x25 exp( x12
x22 )
[ 3,3],
3 x1 x2
x22 ),
[ 3;3],
12 0.6 x12
0.6 x22
6 cos( 2 x1 ) 6 cos( 2 x2 )
1.2 x1 x2 ),
x1 [ 3,3], x2
[ 3,3],
при нормальном законе распределения аддитивной помехи ξ (математическое ожидание m( ) 0 , СКО ( ) ) и доверительных ... 0.95 . вероятностях 1 5 Для построения моделей использовались следующие методы: обобщенно-регрессионная нейронная сеть (GRNN), обобщеннорегрессионная нейронная сеть с полиномиальной коррекцией (GRNN PC), многослойный персептрон (MLP), сеть с радиальными базисными функциями и линейным выходным слоем (RBFN) [23, 32]. Объем обучающей выборки составлял N 2900 ( N1 2500, N 2 400 ). Точки из обучающей выборки располагались случайным образом с равномерным законом распределения. Результаты вычислительного эксперимента приведены в таблице 2.3. 53
1)
0.25
2)
0.5
3)
0.25
GRNN GRNN PC MLP RBFN GRNN GRNN PC MLP RBFN GRNN GRNN PC MLP RBFN
Выполнение гипотезы о нормальности закона распределения абсолютной ошибки
Тип модели
СКО шума
Объект моделирования
Таблица 2.3 – Интервальные оценки ошибок моделей
принимается
Точечные оценки
Верхнее значение интервальных оценок
Max Max
1.1088
Max
Max
(формула (2.43))
(формула (2.42))
(формула (2.47))
0.33523
0.31414
0.33756
1.2681
принимается 0.90371 0.29575
0.3178
1.2095
0.3156
принимается 1.9874 0.51937 принимается 0.95475 0.30119 принимается 1.9513 0.6125
0.5581 0.32365 0.65817
2.1001 1.2277 2.4684
0.55424 0.32141 0.65361
принимается
0.56029
0.60206
2.2431
0.5979
отвергается 3.8964 0.7200 отвергается 4.3796 0.61352 принимается 0.92708 0.33761
1.6494
0.36278
1.3585
0.76833 0.65471 0.36027
принимается 0.98533 0.32759
0.35201
1.3143
0.34958
принимается отвергается
0.48355 -
1.8004 -
0.4802 0.36716
1.4168 1.7437
0.4500 0.34407
Из приведенного примера, а также большого количества других проведенных исследований можно сделать вывод, что практически всегда гипотеза нормальности распределения ошибки моделей на основе GRNN РС выполняется, что дает возможность оценивать указанные ошибки моделей с заданной доверительной вероятностью. 2.5 Планирование эксперимента для обучения обобщеннорегрессионных нейронных сетей с полиномиальной коррекцией В случае наличия возможности проведения активного эксперимента для формирования GRNN PC можно использовать алгоритм, позволяющие строить модели статических объектов, удовлетворяющие заданной точности, идея, которого состоит в следующем. Предположим необходимо построить модель статического объекта в области x представляющей собой n-мерный гиперкуб. На первой стадии активного эксперимента реализуется план Бокса-Бенкена и на основе данных этого эксперимента строится полиномиальная часть сети [81, 82]. В планах Бокса-Бенкена каждый фактор может изменяться на трех уровнях, то есть каждый из факторов принимает значения -1, 0, +1. Планы Бокса-Бенкена представляют собой определенную выборку строк из матрицы плана полного факторного эксперимента (ПФЭ) 3 n . 54
Отличительной особенностью этих планов, является то обстоятельство, что в каждом опыте основной части плана отлично от нулевого значения лишь вполне определенное число факторов: всего два фактора, если n = 3, 4, 5, три фактора, когда n = 6, 7, 9 и четыре, если n = 10, 11, 12, 16. Кроме того, в пределах некоторой группы опытов варьируется лишь это же количество факторов, а остальные в пределах этой группы опытов стабилизированы на нулевом уровне. Указанные особенности планов Бокса-Бенкена делает их в ряде случаев весьма удобными при практических применениях, упрощая и удешевляя эксперимент. При n = 4 и n =7 эти планы являются ротатабельными, а для прочих п – весьма близкими к ротатабельным. Рассмотрим матрицу основной части спектра плана БоксаБенкена. Для п = 3, 4, 5 это построение ясно из таблицы 2.4. Таблица 2.4 – Матрица основной части спектра плана БоксаБенкена для п = 3, 4, 5
В таблице 2.4 использованы следующие обозначения векторстолбцов:
1 a1
1 1 1
0
1 a2 ,
1
0
1 1
,
0 0 0
.
Для п = 6 и п = 7 матрицы основной части планов Бокса-Бенкена указаны соответственно в таблицах 2.4 и 2.5, где 55
b1
1
1
1
0
1 1 1
1 1 1
1 1 1
0 0 0
1 1 1 1,
b2
1 1 1 1,
b3
1 1 1 1,
0
0 0 0 1.
Таблица 2.5 – Матрица основной части спектра плана БоксаБенкена для п = 6
Таблица 2.6 – Матрица основной части спектра плана БоксаБенкена для п = 7
Основная часть матрицы спектра плана Бокса-Бенкена дополняется нулевыми точками, количество которых N0 указано в таблице 2.7 (иногда в планах Бокса-Бенкена используется всего одна центральная точка). Там же приведено число точек основной части этих планов и суммарное число точек N. 56
Таблица 2.7 – Число точек плана Бокса-Бенкена
Если гипотеза адекватности не выполняется, то факторное пространство дополнятся еще обучающими точками, после чего строится модель уже с привлечением, как полиномиальной, так и радиально-базисной части сети. На основе тестирующей выборки находится среднеквадратичная ошибка модели. Если указанная ошибка меньше заданной (критерий останова), то процесс построения модели завершен. В противном случае факторное пространство вновь увеличивается путем добавления обучающих точек между уже имеющимися, после чего цикл построения модели, проверки условия останова и добавления обучающих точек повторяется. Приведем алгоритм. Шаг 0. Выбирается вид полиномиальной зависимости, максимальное значение среднеквадратичной ошибки модели Emax , максимально допустимое число опытов N max , начальное число точек регулярной сетки на каждый вход p (общее число точек определяется как N p n , где n – число входов). Шаг 1. Реализуется план Бокса-Бенкена. В каждой из точек плана проводиться m параллельных опытов. В результате имеем обучающую выборку:
xi , yi , i
1, 2, ..., N ,
(2.48)
yki .
(2.49)
где
yi
1 m
m k 1
Шаг 2. Формирование GRNN PC на основе экспериментальных данных, полученных при реализации плана Бокса-Бенкена и проверка адекватности. Формирование полиномиальной части GRNN PC осуществляется на основе обучающей выборки (2.48). Определение вектора параметров b полиномиальной части сети может осуществляться как с использованием нерекуррентного МНК, так и с использованием рекуррентного МНК. 57
Радиальнобазисная часть сети не содержит ни одного нейрона (M=0) и параметр u=1. В связи с отсутствием радиальнобазисной части сети, вид GRNN PC сводится к виду регрессионной модели, следовательно, возможно использование процедуры проверки адекватности для регрессионной модели. Проверка адекватности состоит, по сути дела, в выяснении соотношения между дисперсией адекватности 2 S ад
N
m N
L
y( x i ) .
yi
(2.50)
i 1
и оценкой дисперсии воспроизводимости значения выхода модели 2 S вос
1 N
N i 1
m
1 ( y ki m 1k 1
yi )2 .
(2.51)
Если эти оценки дисперсий однородны, то математическое описание адекватно представляет результаты опытов; если же нет, то описание считается неадекватным. F-критерий Фишера позволяет 2 проверить гипотезу об однородности двух выборочных дисперсий S ад 2 2 2 . В том случае, если S ад > S вос S вос
и
критерий Фишера
характеризуется отношением
F
S ад2 . 2 S вос
(2.52)
Если вычисленное по результатам наблюдений эмпирическое значение критерия F меньше критического Fкр для соответствующих степеней свободы: 1 ад
N L,
2 ад
N (m 1)
(2.53)
при заданном уровне значимости q ад (обычно q ад = 0,05), то гипотезу об адекватности принимают. В противном случае гипотезу отвергают и математическое описание признается неадекватным. 2 2 Если S ад < S вос , то числитель и знаменатель в (2.52), а также 1 ад
58
и
2 ад
в (2.53) просто меняются местами.
В случае выполнения гипотезы адекватности построенной модели формирование GRNN PC заканчивается. Шаг 3. Реализация эксперимента. Проводится эксперимент таким образом, чтобы точки результирующей обучающей выборки были расположены в узлах регулярной сетки в области определения входов, на основе которых строится обучающая выборка. Причем число точек на один вход было равным p. На основе проведенных опытов формируется обучающая выборка объемом N p n :
x i , y i , i 1, 2, ..., N .
(2.54)
Проводится дополнительный набор опытов, в точках расположенных равномерно случайным образом в области определения входов, на основе которых строится тестирующая выборка объемом V, лежащим в диапазоне от 0.1 N до 0.25N:
x v , y v , v 1, 2, ..., V .
(2.55)
На рисунке 2.14 представлен пример расположения обучающих точек для двух итераций при n=2. Изначально расположение точек соответствует ПФЭ 3 второй p=9.
2
(p=3). После первой итерации p=5, после
Рисунок 2.14 – Пример расположения обучающих точек 59
Шаг 4. Формирование GRNN PC. На основе полученной обучающей выборке строится полиномиальная часть сети с использованием рекуррентного или не рекуррентного МНК. Формирование радиально-базисной части сети осуществляется следующим образом. Число радиальных нейронов M совпадает с числом точек в обучающей выборке. Каждый радиальный нейрон формируется на основе соответствующей обучающей точки. То есть ci
x i , wi
yi ,
i=1,2,…,N.
(2.56)
Отклонения нейронов выбираются в соответствии с эмпирической формулой (2.14). Поиск параметра u осуществляться из условия минимизации среднеквадратической ошибки на тестирующей выборке: V
( y( x v , u)
yv )2
u
min .
(2.57)
v 1
В качестве алгоритма поиска может быть использован метод одномерной оптимизации (дихотомии, золотого сечения и т.п.). Шаг 5. Проверка критерия останова. На тестирующей выборке находятся точечная оценка значения среднеквадратической ошибки модели:
E
1 V
V
[ y( x v )
y v ]2 ,
(2.58)
v 1
Если E Emax , то заданная точность достигнута, и формирование искусственной нейронной сети на этом заканчивается. В противном случае число точек p увеличивается:
p
2 p 1.
(2.59)
Выражение (2.59) позволяет повторно использовать экспериментальные данные, полученные на предыдущих этапах для формирования обучающей выборки на шаге 3. Если общее число требуемых опытов превышает допустимое, то модель с заданной точностью не может быть построена, формирование искусственной нейронной сети на этом заканчивается. Иначе переход к шагу 3. 60
Рассмотрим следующий пример. Предположим, что объект описывается зависимостью вида (1.62), функция (x ) имеет вид: ( x ) 0.15 [3 (1 x1 ) 2 exp( x12 1 exp( ( x1 1) 2 3
( x2
x22 )] 0.75 [ x12
1) 2 ) 10
1 x1 5
x13
x25
exp( x12
x22 )
x22 ].
Аддитивная помеха имеет нормальное распределение 0.25 . 0 и СКО математическим ожиданием M Аппроксимация
производится
в
области
с x
:
x1 [ 3, 3]; x2 [ 3, 3] . Необходимо построить модель объекта со
среднеквадратичной ошибкой не более чем
Emax =0.5 и количество экспериментальных данных не должно превышать N max =200. Выберем начальное число точек регулярной сетки на каждый вход p=9. Формирование GRNN PC в соответствии с алгоритмом 2 предполагает выполнение следующих шагов: Шаг 1. Реализации плана Бокса-Бенкена. Объект имеет два входа (n=2). Для данного числа факторов план n
Бокса-Бенкена совподает с планом ПФЭ 3 . Матрица плана имеет вид:
МП
1 1 1 0 0 0 1 1 1
1 0 1 1 0 1 1 0 1
.
На объекте проводится m=3 параллельных экспериментов в соответствии с матрицей плана (общее количество экспериментов 27). Шаг 2. Формируется GRNN PC (радиальнобазисная часть отсутствует) и осуществляется проверка адекватности. Для уровня значимости 0.05 критическое значение составляет Fкр = 8.6745, фактическое значение F= 15.9274. Гипотеза адекватности полиномиальной части GRNN PC не выполняется. Шаг 3. Проводится эксперимент таким образом, чтобы точки результирующей обучающей выборки были расположены в узлах регулярной сетки в области определения входов, на основе которых строится обучающая выборка. На основе проведенных опытов 61
формируется обучающая выборка объемом N 81 (общее количество экспериментов с учетом повторного использования экспериментальных данных: 99=81-9+27). Шаг 4. Формирование GRNN PC. Величина отклонения радиальных нейронов составляет 0.3185, значение параметра u= 0.8681. Данные значения получены следующим образом: d
3 ( 3)
8 ln 2 A
1 EРБЧ ( p1 )
p0
1 E РБЧ ( p2 )
1
p1 E РБЧ ( p1 ) p2 E РБЧ ( p2 )
E РБЧ
A p
E РБЧ E ПЧ
1 0.7592 1 2.5685
2.1557 9 2.1607
p0 E ПЧ
u
0.3185
( 81 1) 8 ln 2 1
5 0.7592 3 2.5685
2.1557 2.1607
.
0.3152
0.3570 0.3152 0.8828 0.3570
Шаг 5. Проверка критерия останова Оценка среднеквадратичной ошибки HPRBFN: E
min EР , E ПЧ
min 0.3152,0.3570
0.3152 .
В виду выполнения условия E Emax формирование GRNN PC считается законченным. В таблице 2.7 приведена среднеквадратичная ошибка на тестирующей выборке, содержащей 1600 точек расположенных в узлах регулярной сетки, для полученной модели, а так же для других видов моделей построенных на той же обучающей выборке: полиномиальная МНК модель 2-го порядка (LMS2); обобщенно-регрессионная нейронная сеть (GRNN); метод локальной аппроксимации с числом ближайших узлов M=5 (LA5); многослойный персептрон со структурой 12-5-1 (MLP). Среди представленных методов, обощеннорегрессионная нейронная сеть с полиномиальной коррекцией показала лучший результат. Таблица 2.7 – Среднеквадратические ошибки моделей Тип модели Среднеквадратичная ошибка GRNN 0.3739 LMS2 0.3599 MLP 0.3828 LA5 0.3449 GRNN PC 0.3236 62
2.6 Выводы по главе Основные результаты настоящей главы можно отразить в следующих выводах. 1. Предложена обобщенно-регрессионная нейронная сеть с полиномиальной коррекцией, позволяющая решать задачу идентификации сложного статического объекта. Описан алгоритм обучения сети. Рассмотрены различные модификации сети. 2. На основе вычислительных экспериментов проведено сравнение GRNN PC с существующими методами идентификации сложных статических объектов и установлено, что предложенный метод идентификации в среднем обеспечивает наилучшую точность по сравнению с известными методами идентификации. 3. Проведено аналитическое исследование свойств GRNN PC. Была получена оценка верхнего значения числа нейронов радиальнобазисной части GRNN PC, показана сходимость аппроксимационной модели на основе GRNN PC к искомой зависимости. 4. Получены оценки точности нейросетевых моделей с использованием принципов интервального статистического оценивания, проведены экспериментальные исследования по оценке точности получаемых моделей с использованием полученных формул для различных методов идентификации (в том числе и для GRNN PC). 5. Предложена методика планирования эксперимента для получения нейросетевой модели сложного статического объекта с использованием GRNN PC, удовлетворяющей требованиям по заданной точности и допустимому объему эксперимента.
63
3
МОДЕЛИ ДИНАМИЧЕСКИХ ОБЪЕКТОВ НА ОСНОВЕ ОБОБЩЕННО-РЕГРЕССИОННЫХ НЕЙРОННЫХ СЕТЕЙ С ПОЛИНОМИАЛЬНОЙ КОРРЕКЦИЕЙ 3.1 объекта
Обобщенная
нейросетевая
модель
динамического
Ведем в рассмотрение обобщенную нейросетевую модель динамического объекта, пригодную для описания большинства односвязных динамических объектов встречающихся на практике. Данная модель включает, как подкласс, математическое описание объектов управления использующееся в большинстве работ по нейросетевому управлению [29, 30, 33, 83]. Определение 1.1. Под обобщенной нейросетевой моделью динамического объекта (ОНМДО) понимается математическая модель динамического объекта, состоящая из линейного динамического звена (ЛДЗ) и блока нейронной сети (БНС), имеющая структуру, приведенную на рисунке 3.1.
u – управляющее воздействие, y – выходной сигнал Рисунок 3.1 – Обобщенная нейросетевая модель динамического объекта Линейное динамическое звено описывается системой векторноматричных разностных уравнений [60, 70]:
zi xi
1
Azi B i , Czi D i ,
(3.1)
где A, B, C, D – заданные постоянные матрицы, i ui , yi T , i – номер такта. Блок нейронной сети реализует функциональную зависимость yi
64
( xi ) .
(3.2)
Одним из общих вариантов классического математического описания объектов управления является их представление в виде нелинейных разностных уравнений l-го порядка [60, 70]: yi
f ( yi 1 , ..., yi l , ui , ui 1 , ..., ui
l1 ),
(3.3)
где f ( ) – непрерывная и ограниченная на R n ( n l l1 1 ) нелинейная функция; l, l1 – заданные целые положительные константы. Матрицы при этом A, B, C, D имеют вид:
l A
0 ... 0 1 ... 0
0 0
0
... ... ... ... 0 ... 1 0
0
l
,
l1 1
0 ... 0 1 ... 0
0 0
... ... ... ... 0 ... 1 0
C I – единичная матрица,
D
0
B l1 1
1 0
0 0
0 0
... 0 0 0
... 0 1 0
... 0 0 0
, (3.4)
... ... ... 0 0 0
– нулевая матрица;
где l , l1 – постоянные параметры. На рис. 3.2 показана обобщенная нечеткая модель динамического объекта, реализующая оператор, эквивалентный разностному уравнению (3.4). С помощью БНС в данном случае аппроксимируется функция f ( ) т. е. ( ) f ( ) .
Рисунок 3.2 – Реализация нелинейного разностного уравнения (3.4) с помощью ОНМДО 65
3.2 Модели на основе аппроксимации разностного уравнения 3.2.1 Подход к построению модели на основе аппроксимации разностного уравнения Допустим, что объект имеет скалярные вход контролируемой помехи помехи
i
i,
u i , сигнал
сигнал неконтролируемой аддитивной
и выход y i , как это показано на рисунке 3.3.
Рисунок 3.3 – Односвязный динамический объект Предположим, далее, что объект может быть адекватно описан обобщенной нечеткой моделью, введенной в рассмотрение в параграфе 3.1. Применительно к рассматриваемому случаю, указанная модель имеет структуру, приведенную на рисунке 3.4.
Рисунок 3.4 – Обобщенная нечеткая модель односвязного динамического объекта, представленного на рисунке 3.3 Линейное динамическое звено (ЛДЗ) описывается системой векторно-матричных разностных уравнений:
zi xi
66
Azi Czi
1
B i, D i,
(3.5)
где A, B, C, D – заданные постоянные матрицы, i ~ yi , ui , i T , i– номер такта. Блок нейронной сети реализует нелинейную функциональную зависимость:
( xi ) .
~ yi
(3.6)
Выходной сигнал определяется формулой: ~ yi
yi
i
.
(3.7)
Допустим, известны результаты эксперимента на объекте, заключающийся в регистрации в эквидистантные (равноудаленные друг от друга) моменты времени N троек значений ui , , ~ y i , i 1, 2, ..., N .
(3.8)
Необходимо определить оценку неизвестной зависимости (3.6): ( x) .
~ y
Допустим, что сигнал помехи
(3.9)
не велик и на основании yi . формулы (3.7) можно считать, что yi ~ Тогда используя экспериментальные данные (3.8), можно найти решение разностных уравнений (3.5) и определить N пар значений x i , y i . i
На основании указанных данных может быть определена оценка зависимости (3.9) на основе GRNN PC. Наиболее простой вид решение уравнения (3.5) принимает, если выбрать:
l
0 ... 0
0
1
0
0
1 ... 0
0
0
0
0
0 ... 1
A
0
... ... ... ...
0
0
l
0
,
0
l1
0 1 1 ... 0
... ... ... ...
0
0 0 ... 1
0 0 ... 0
B
0
l2
0 ... 0 0 1 ... 0 0 1 ... ... ... ... 0 ... 1
0
l1
l2
... ... ... 0 0 0 1 ... 0 0 0 1 ...
0 1 0 ... 0 0 0 ...
0 0 0 ... 0 1 0 ...
0
0
0
, (3.10)
67
C I – единичная матрица, D 0 – нулевая матрица, В этом случае
xi
yi 1, yi 2 ,..., yi l , ui , ui 1,..., ui
l1 ,
i , i 1,..., i l 2
(если i 1 , то значения y0 , y 1, , y1 l отражают условия). Модель объекта в этом случае имеет вид:
yi
( yi 1 , yi 2 ,..., yi l , ui , ui 1,..., ui
l1 ,
T
, (3.11)
начальные
i , i 1 ,..., i l 2 )
. (3.12)
Описанные модели динамических объектов далее будем называть моделями на основе аппроксимации разностного уравнения нейронной сетью, в литературе они также известны под названием модель типа ―авторегрессия – скользящее среднее‖ [5, 9]. Достоинством модели типа ―авторегрессия – скользящее среднее‖ является универсальность, в смысле применимости к объектам с любой структурой, в том числе и не известной. Недостаток описанного подхода: накопление погрешности, в следствии наличия шума наблюдения и неточностью аппроксимации, что вызвано использованием информации, полученной на предыдущих итерациях работы алгоритма. Исходными данными для построения модели является следующее: массив экспериментальных данных (3.8), матрицы A, B, C, D, входящие в уравнения (3.5). Определение 3.2. Под базовым алгоритмом моделирования динамических объектов с помощью GRNN PC на основе аппроксимации разностного уравнения будет пониматься алгоритм использующий матрицы A, B, C, D вида (3.10) и разностное уравнение (3.12). На стадии эксплуатации, полученной нейросетевой модели, производится совместное решение разностных уравнений (3.5) и нелинейного уравнения: yi
где
68
( xi ) ,
(3.13)
( xi ) – функция восстанавливаемая с помощью GRNN PC.
3.2.2 Примеры применения алгоритма аппроксимации разностного уравнения
на
основе
Пример 3.1 Часто можно предположить, что объект управления в первом приближении представляет собой линейное динамическое звено n-го порядка. Допустим, что модель первого приближения объекта управления может быть представлена структурой приведенной на рисунке 3.5.
Рисунок 3.5 – Структура модели объекта управления На рис. 3.5 приняты следующие обозначения: М – амплитудноимпульсный модулятор с фиксатором нулевого порядка и периодом выходных импульсов T0 ; непрерывное ЛДЗ – непрерывное линейное динамическое звено, описываемое системой дифференциальных уравнений:
dv (t ) dt y (t )
A0 v (t ) b0 u (t ), c0T v (t ) d 0u (t ).
(3.14)
В моменты срабатывания модулятора система на рис. 3.5 описывается разностными уравнениями [60, 70]:
vi
1
yi
A1 vi b1 ui , c1T vi d1 ui ,
(5.15)
где A1 exp( AT0 ) , b1 A 1 (exp(AT0 ) I )b , c1 c0 , d1 d0 I – единичная матрица. Применив к уравнениям (5.15) дискретное преобразование Лапласа [60, 70] получим импульсную передаточную функцию линейной части системы на рисунке 3.5:
69
A1 ) 1b1 d1
c1T ( zI
W ( z)
1z
0
где
0,
1 , ...,
l,
0 , 1 , ...,
l1
1
1z
0
...
1
l1
l1 z
...
lz
l
,
(3.16)
– константы.
Используя импульсную передаточную функцию (3.16) получим разностное уравнение системы на рисунке 3.5: a1 yi a0
yi
a2 yi a0
1
2
...
al yi a0
l
b0 ui a0
b1 ui a0
bl1
...
1
a0
ui
l1
. (3.17)
Матрицы (3.10) в этом случае имеет вид:
l A
0 ... 0 1 ... 0
0 0
0
C
l
0
... ... ... ... 0 ... 1 0
,
l1 1
0 ... 0 1 ... 0
0 0
B l1 1
... ... ... ... 0 ... 1 0
1 0
0 0
0 0
... 0 0 0
... 0 1 0
... 0 0 0
, (3.18)
... ... ... 0 0 0
I , D 0.
А вектор
xi
(см. формулу (3.11)):
xi
yi 1, yi 2 ,..., yi l , ui , ui 1,..., ui
T l1
.
Наиболее часто на практике встречается случай, когда можно предположить, что в первом приближении объект управления представляет собой звено второго порядка с передаточной функцией:
W ( p)
k , (1 pT1 )(1 pT2 )
параметры уравнения (3.14) в данном случае принимают вид:
A0
1 / T1 1 / T2
а уравнения (3.15) – 70
0 1 / T2
, b0
k / T1 0
, c0 T
0 1 , d0
0,
exp( T0 / T1 ) T1
A1
T2 T1
0
exp( T0 / T2 ) exp(T0 / T1 )
exp( T0 / T2 )
,
1 exp(T0 / T1 )
b1
1 T2 T1
c1T
0
T2 T1 T1 exp( T0 / T1 ) T2 exp(T0 / T2 )
1 , d1
,
0.
Если для периода работы модулятора выполняется соотношение: T0 T1, T2 , то разностное уравнение (3.17) имеет вид:
yi
2T1T2 T0
2
T0 (T1 T2 )
T0 (T1 T2 ) T1T2 kT0 2
T0 2
T0 (T1 T2 ) T1T2
yi
T1T2 1
T0 2
T0 (T1 T2 ) T1T2
yi
2
ui .
Пример 3.2 Рассмотрим пример моделирования нелинейного дискретного динамического объекта. Пусть имеется объект, имеющий один вход u и один выход y . Состояние входа и выхода объекта измеряются в дискретные моменты времени i 0, 1, 2, ... . Объект имитируется существенно нелинейным разностным уравнением yi
3 sin( yi
0.25ui
2
2
/ 5) 8 cos( yi 1 / 5) 1000
sin(ui 2 )
sin( yi 2 / 10) sin( yi 1 / 10) yi 1 yi 1 / 4 0.1
i,
где i – случайная помеха, распределенная по равномерному закону на интервале 5, 5 . На данном интервале два первых слагаемых рассматриваемой модели объекта в первом приближении достаточно точно описываются полиномом второго порядка. Входной сигнал объекта представляет собой дискретный шум распределенный по равномерному закону ui ( 200, 200) . Зависимость yi 2 ( yi , yi 1 ) при ui 0 приведена на рисунке 3.6.
71
Рисунок 3.6 – Зависимость yi 2 ( yi , yi 1 ) при ui
0
Для идентификации использовалась выборка из 200 отсчетов. Идентификация объекта производилась с помощью следующих методов: 1) многослойного персептрон, содержащий три слоя нейронов: 1-й слой – 10 нейронов, 2-й – 5 нейронов, 3-й – 1 нейрон с сигмоидальными функциями активации [22, 23, 32]. 2) метод наименьших квадратов (МНК) [6, 10], с полиномиальной моделью второго порядка:
yi
b0 b1 ui b2 ui
b7 ui ui b12 ui
2
1 yi 2 b17 ui 12 b18
b13 ui ui
2 2
b3 ui
1
b8 ui yi
2
b4 yi
1
b9 ui yi
2
yi
b14 ui
1
b19 yi
2
2 2
b5 yi
1
b10 ui 2
b20 yi
yi
2 2
2
1
ui
b6 ui ui
2 2
b11 ui
b15 yi
1
yi
1
2
yi
2
b16 ui 2
1
,
3) базовый алгоритм моделирования динамических объектов на основе GRNN PC на основе аппроксимации разностного уравнения.
Рисунок 3.7 – Процесс на выходе модели и объекта 72
На рисунке 3.7 показан процесс на выходе объекта (сплошная линия) и на выходе модели (линия, помеченная звездочками). В таблице 3.1 приведены значения средней абсолютной погрешности моделей eср , полученных разными методами, при тестировании данных моделей реализацией входного сигнала, отличной от обучающей. Таблица 3.1 – Средняя погрешность моделей Многослойный Модель МНК GRNN PC персептрон eср 13.7 16.3 11.3 Из данных таблицы 3.1 видно, что точность модели полученной с помощью алгоритма на основе GRNN PC выше, чем при применении других методов. Остановимся на выборе порядка модели m. В работе [84] рекомендуется последовательно увеличивать порядок модели до получения минимального значения оценки средней погрешности. В то же время, численное моделирование показывает, что зависимость средней погрешности eср (m) от порядка модели m представляет собой унимодальную функцию дискретного аргумента (возрастание средней погрешности при превышении порядком модели истинного порядка объекта объясняется недостатком информации для обучения модели). В качестве иллюстрации на рисунке 3.8 приведена данная зависимость для рассмотренного выше примера.
Рисунок 3.8 – Зависимость средней ошибки аппроксимации от порядка модели Воспользовавшись тем, что зависимость eср (m) унимодальная, а также тем, что максимальное значение порядка модели m обычно выбирается не больше 5-7, можно рекомендовать для поиска оптимального значения m дискретный вариант метода дихотомии [85]. 73
Пример 3.3 Рассмотрим объект управления со структурой представленной на рисунке 3.9.
Рисунок 3.9 – Структура модели объекта На рисунке 3.9 приняты следующие обозначения: М – амплитудно-импульсный модулятор, с периодом следования выходных 1 импульсов T0 0.1 ; НЭ – статическая нелинейность z 3 th u * ; 3 ЛДЗ – линейное динамическое звено с передаточной функцией 1 , – случайная некоррелированная помеха W ( p) (1 p)(1 0.5 p) распределенная по нормальному закону с математическим ожиданием m 0 и среднеквадратическим отклонением 0.0129 . На рисунке 3.10 представлены графики обучающих сигналов (линия 1 – вход объекта, линия 2 – выход объекта).
Рисунок 3.10 – Входной и выходной обучающие сигналы объекта Для построения модели использовался алгоритм на основе GRNN PC для динамических объектов на основе аппроксимации разностного уравнения и алгоритм на основе МНК модели второго порядка. 74
Для тестирования модели сравнивалась реакция объекта и модели на ступенчатое входное воздействие u 1 . Средняя абсолютная погрешность для модели на основе МНК составляет eср 0.212 , для GRNN PC –– eср 0.136 . Таким образом, использование GRNN PC в рассматриваемом случае позволяет уменьшить погрешность модели более чем на 35 %. 3.3. Модели на основе аппроксимации весовой функции 3.3.1 Подход к построению модели на основе аппроксимации весовой функции В разделе 3.2 рассмотрен алгоритм идентификации нелинейных динамических объектов на основе GRNN PC и аппроксимации разносного уравнения (модели типа ―авторегрессия – скользящее среднее‖). Недостаток такого подхода к построению модели хорошо известен: для оценки выхода объекта в текущий момент времени используются оценки выхода объекта полученные ранее, что приводит к накоплению погрешности [10, 60]. Ниже описан подход к построению нечеткой модели динамического объекта основанной на аппроксимации весовой функции, позволяющий прогнозировать его выход только по значениям входного сигнала [3, 10]. Допустим, как и ранее, что стационарный динамический объект имеет скалярные вход u (t ) и выход y (t ) . Допустим далее, что на объекте может быть реализован эксперимент, заключающийся в регистрации N пар значений:
u(i), y(i) .
(3.19)
Пусть структурно рассматриваемый динамический объект может быть представлен состоящим из последовательно соединенных линейного динамического звена (ЛДЗ) и статического нелинейного элемента (НЭ), как это показано на рисунке 3.11.
Рисунок 3.11 – Структура динамического объекта
75
Линейное динамическое звено характеризуется импульсной весовой функцией (i ) , нелинейный элемент – функцией НЭ (z ) . Предполагается, что (i ) и НЭ (z ) неизвестны. При нулевых начальных условиях выходной сигнал ЛДЗ определяется формулой [70]: i
z (i)
(i k )u (k ) .
(3.20)
k 0
Представим импульсную весовую функцию в виде суммы [70]: n
(i )
aj
j (i )
,
(3.21)
j 1
где
j (i )
– базисные функции; a j const .
Введя обозначения: i
x j (i)
j (i
k ) u (k ) ,
(3.22)
k 0
решая совместно (3.20) и (3.21) получим: n
z (i )
a j x j (i ) .
(3.23)
j 1
Выходной сигнал объекта на рисунке 3.11 описывается выражением: n
y (i )
НЭ (
a j x j (i ) )
(i ) ,
(3.24)
j 1
где
– нелинейная зависимость реализуемая НЭ. Перепишем формулу (3.24) в виде:
НЭ ( )
y(i)
( x1 (i), x2 (i), ..., xn (i))
(i) ,
или y (i ) 76
( x (i ))
(i) ,
(3.25)
где x j (i ) – компоненты вектора x (i ) ,
определяющиеся согласно
формуле (3.22). На основании уравнения (3.25) модель объекта управления можно представить обобщенной нейросетевой моделью, приведенной на рисунке 3.12 ( ЛДЗ j – линейные динамические звенья с импульсной весовыми функциями
j (i ) ).
Рисунок 3.12 – Обобщенная нечеткая модель на основе аппроксимации дискретной весовой функции По известным определяются
u(i), y(i) , с использованием формулы (3.22), x (i), y (i) . На основе данной пар значений
N информации, можно провести аппроксимацию зависимости ( ) (см. формулы (3.25)) с помощью GRNN PC. Достоинством данного алгоритма является отсутствие накопления погрешности, свойственного модели типа ―авторегрессия – скользящее среднее‖. Теорема 3.1. Если выбранный базис T
(i )
1 (i ),
2 (i ), ...,
n (i )
(3.26)
таков, что в области допустимых значений аргумента возможно представление 77
то для вектора x T (i )
(i 1)
A
(i) ,
(3.27)
x1 (i ), x2 (i ), ..., xn (i ) , с компонентами i
x j (i)
j (i
k )u (k )
(3.28)
k 1
справедливо разностное уравнение: A x (i 1) b u (i ) ,
x (i )
где b
(3.29)
( 0) . Доказательство. Решение уравнения (3.29) при нулевых начальных условиях имеет вид [70]:
G (i k )b u (k ) ,
i
x (i)
(3.30)
k 1
G (i ) – переходная матрица системы (3.29). Решение уравнения (3.30) при нулевых начальных условиях имеет вид [70]:
(i )
Ai
( 0) .
(3.31)
Подставляя (3.31) в (3.28) получим: i
x (i)
Ai
k
(0) u (k ) .
(3.32)
k 0
Сопоставляя (3.30) и (3.32) на основании теоремы существования и единственности решения разностного уравнения [70], получим: G (i k )
Ai
k
,b
( 0) .
(3.33)
Таким образом (3.28) является решением разностного уравнения (3.29), что и доказывает теорему. ■ 78
Замечание. Аналогичная теорема для непрерывного случая доказана в работе [3]. Выберем в качестве базисных функций (такой базис введен в работе [33]): qi ,
1 (i)
i qi , ………. n 1 qi . n (i ) i 2 (i)
(3.34)
Для момента времени i 1 имеем j (i
1)
(i 1) j
1
qi 1 .
Воспользовавшись формулой бинома Ньютона [57] j
(i 1) j
1
C lj
1 1
il
1
,
l 1
n(n 1)... n (m 1) n! , m! m!(n m)! из последнего выражения получим:
где Cnm
j j (i
1)
C lj
q
1 1 l (i ) .
(3.35)
l 1
Выражение (3.35) можно переписать в матричной форме:
1 1
0 1
1 ...
2 ...
(i 1)
0 0
A (i) ,
(3.36)
... 0 ... 0
1 ... 0 . ... ... ... (n 1)(n 2) 1 n 1 ... 1 2 Выражение (3.36) позволяет использовать в рассматриваемом случае результаты теоремы 3.1, в частности формулу (3.29), откуда b (0) 1, 0, 0, ..., 0 . где
A
79
Весовая функция устойчивой односвязной линейной стационарной дискретной системы может быть представлена в виде [70]: Ls
S
Cs, l i l
(i)
1
(q s ) i ,
(3.32)
s 1 l 1
где S – порядок системы, q s – s -й корня характеристического уравнения, Ls – кратность s -го корня, C s , l – константы. Теорема 3.2. Весовая функция устойчивой линейной дискретной системы (3.37) при i 0, N может быть представлена в виде отрезка ряда с базисными функциями (3.34) с любой заданной точностью. Другими словами, для любого 0 0 существует такое n 0 и такие a j , что
для
любого
n
выполняется
n0
соотношение:
n
sup
(i)
i 0, N
aj
j (i )
0
.
j 1
Доказательство. Рассмотрим функцию f (i) i l q s
i
. Функция
q
f (i ) является аналитической [57] и может быть представлена в виде
i 0:
ряда Тейлора с базисной точкой
d где
a s0, l , j
qs q
il
f (i )
j
il
1 i!
i
qs q
a s0, l , j i j , i
.
di j
i 0 i 1
Умножая выражение (3.38) на q i
Cs, l i l
1
qs i
80
as0, l , j Cs, l .
Cs, l , получим
as, l , j i j j 1
где as, l , j
(3.38)
j 1
1
qi ,
(3.39)
Сравнивая (3.37) и (3.39) приходим к выражению: Ls
S
as, l , j i j
(i )
1
qi .
s 1 l 1 j 1
Меняя порядок суммирования в последней формуле, получим: S
Ls
(i )
as, l , j j 1
ij
1
qi ,
s 1 l 1
или с учетом (3.34): (i )
aj
j (i )
,
(3.40)
j 1
S
Ls
где a j
a s, l , j . s 1 l 1
Отметим, что ряд в правой части выражения (3.35) сходится равномерно [70]. Представим (3.40) в следующем виде: (i)
Rn (i) On (i) ,
(3.41)
n
где Rn (i )
aj
j (i )
, On (i )
aj
j 1
0
j (i )
– остаточный член ряда.
j n 1
Из равномерной сходимости ряда (3.40) следует: для любого 0 существует такое n 0 , что для любого n n0 выполняется
соотношение:
sup On (i )
0.
Что в свою очередь и доказывает
i 0, N
теорему. ■ Формула (3.40) позволяет определить коэффициенты
aj
разложения весовой функции с точки зрения получения наилучшего приближения в окрестности точке i 0 . На практике более рационально коэффициенты a j определять из условия наилучшего среднеквадратичного приближения аппроксимации весовой функции к самой функции для i 0, N :
81
N
sup
2
n
(i )
aj i
i 0, N i 1
aj
j 1 i
q
min .
(3.42)
j 1
Пример 3.3 Рассмотрим качество аппроксимации в зависимости от числа базисных функций n и параметра базисных функций q. На рисунке 3.13 показаны зависимости относительной квадратичной ошибки аппроксимации: N
(i) 2
i 1
(n, q)
2
n
aj j 1
j (i )
,
n
aj
j (i )
j 1
при применении базисных функций (3.34), определении a j согласно условию (3.42) и N
20 , для весовых функций
(i )
0,5i –
рисунок 3.13, а; (i ) i 0,5i – рисунок 3.13, б; (i ) 0,5i i 0,25i – рисунок 3.13, в. Примеры, показанные на рисунке 3.13, а так же ряд других исследований позволяет сделать следующие выводы: 1) точность аппроксимации растет с ростом числа базисных функций n , приемлемая для многих практических случаев точность обеспечивается при n 3 5 ; 2) с ростом числа базисных функций n уменьшается влияние параметра q на точность моделей. Исходными данными является следующее: массив экспериментальных данных (3.19), набор базисных функций (3.26) (по умолчанию используются базисные функции (3.34)). На основании решения уравнений (3.22) или (3.29) определяется очередная точка x (i ) . На стадии эксплуатации полученной нечеткой модели производится совместное решение разностных уравнений (3.22) или (3.29) и y ( x (i ))
82
( x) .
(3.43)
а)
б)
в) Рисунок 3.13 – Ошибка аппроксимации дискретных весовых функций 83
3.3.2 Численное исследование алгоритма идентификации на основе аппроксимации весовой функции Рассматривался объект со структурой приведенной на рисунке 3.11. ЛДЗ описывается разностным уравнением: yi 2 a yi 1 b yi c ui , где b 0.4 , a 0.1 , c 1. Характеристика НЭ определяется формулой: zi tanh(yi ) . – аддитивная некоррелированная помеха распределенная по нормальному закону с математическим ожиданием m 0 и СКО 0.02 . Для обучения нечеткой системы используется 10 реализаций реакции объекта на ступенчатое входное воздействие со случайной амплитудой, распределенной по равномерному закону на интервале u (0, 2) , длительность каждой реализации N 20 отсчетов. Таким образом, общее число обучающих точек составляет 200 (10 20) . Число базисных функций n 5 . Параметр базисных функций q 0.6 . Для тестирования рассматривалась реакция объекта и модели на ступенчатое воздействие единичной амплитуды (u 1) .
На рисунке 3.14 показаны реакция объекта y i (сплошная линия) и реакция модели y i , (пунктирная линия, помеченная звездочками), для реализации с погрешностью, приблизительно соответствующей средней. Средняя абсолютная погрешность модели по множеству описанных выше экспериментов составляет eср 0.0036 . Такой результат, по всей удовлетворительным.
84
видимости,
может
быть
признан
Рисунок 3.14 – Переходный процесс на выходе объекта и модели
3.4 Выводы по главе Основные результаты настоящей главы можно отразить в следующих выводах. 1. Предложен алгоритм моделирования динамических объектов на основе аппроксимации разностного уравнения с помощью GRNN PC (модель типа авторегрессия – скользящее среднее); достоинством алгоритма является его универсальность в смысле применимости к объектам с произвольной структурой, в том числе и неизвестной. 2. Разработан алгоритм моделирования динамических объектов с помощью GRNN PC на основе аппроксимации весовой функции объекта (так называемая обобщенная модель). Достоинством алгоритма является возможность получения оценок выхода объекта по значениям его входа без использования ранее полученных оценок выхода объекта, что позволяет избежать накопления погрешности, свойственного модели типа ―авторегрессия-скользящее среднее‖. В качестве базиса для разложения весовой функции объекта использована система показательных функций. Доказана теорема, согласно которой при применении выбранного базиса с увеличением числа базисных функций аппроксимирующая зависимость равномерно сходится к истинной весовой функции линейного динамического звена, входящего в структуру объекта управления. 3. Приведены численные примеры показывающие эффективность разработанных методов. 85
4 ПРИМЕНЕНИЕ ОБОБЩЕННО-РЕГРЕССИОННЫХ НЕЙРОННЫХ СЕТЕЙ С ПОЛИНОМИАЛЬНОЙ КОРРЕКЦИЕЙ ДЛЯ МОДЕЛИРОВАНИЯ ТЕХНОЛОГИЧЕСКОГО ПРОЦЕССА ОБОГАЩЕНИЯ УГЛЯ МЕТОДОМ ГИДРАВЛИЧЕСКОЙ ОТСАДКИ 4.1 Технологический процесс обогащения угля методом гидравлической отсадки Технологический процесс обогащения каменного угля является составным элементом ряда химических производств, в частности коксохимического [86 - 93]. Среди способов обогащения каменного угля преимущественное распространение, благодаря простоте, универсальности и относительной дешевизне, получило гравитационное обогащение в водной среде – гидравлическая отсадка [92, 93]. С точки зрения автоматизации гидравлическая отсадка – это достаточно сложный процесс, ввиду отсутствия точной математической модели и наличия ряда трудноконтролируемых возмущений (изменения нагрузки, гранулометрического, фракционного и химического состава исходного продукта), а также отсутствия надежных методов оперативного измерения параметров качества исходного и обогащенного продукта [94 -97]. Гидравлическая отсадка – это процесс разделения компонентов исходной смеси в вертикально пульсирующем потоке воды. Фактором разделения при обогащении углей в отсадочной машине является разница в скоростях падения частиц в зависимости от их размера и плотности. Процесс отсадки можно разделить на две взаимосвязанные технологические операции: колебательное движение, при котором происходит разделение исходного материала по плотности и транспортирование материала вдоль агрегата с последующей разгрузкой готовых продуктов обогащения. Гидравлическая отсадка осуществляется в отсадочных машинах (ОМ), состоящих из двух или трех одинаковых ступеней (см. рисунок 4.1).
86
Рисунок 4.1 – Упрощенная схема отсадочной машины с тремя ступенями Исходный уголь с потоком транспортной воды загружается на решето, образуя так называемую постель. Воздухораспределители попеременно коммутируют воздушные камеры, то с воздухосборником сжатого воздуха, то с атмосферой, что создает вертикальные колебания воды. Смесь угля, породы и промежуточных фракций, лежащая на решете (постель), пульсирующим потоком воды приводится попеременно в разрыхленное и уплотненное состояния. Под действием порций загружаемого материала, поступающих в машину с транспортной водой, и подрешетной воды постель перемещается в горизонтальном направлении, одновременно расслаиваясь на тяжелый и легкий продукты. Нижние слои постели, состоящие из тяжелых негорючих продуктов, удаляются из отсадочной машины посредством разгрузочного устройства, которым заканчивается каждая ступень (отделение) машины. Обогащенный продукт (микст – для первого отделения ОМ и концентрат – для последнего отделения ОМ) вместе с водой удаляется через сливной порог в правой части отделения отсадочной машины. Рассмотрим основные факторы, влияющие на протекание процессов в отсадочной машине [98]. Контролируемые, но не управляемые факторы: 1) нагрузка на ОМ Qисх – масса исходного угля поступающего в отсадочную машину в единицу времени (диапазон изменения: от 3 до 20 т/час на 1 м2 решета ОМ); 87
S (S ) – 2) гранулометрический состав исходного угля S функция, показывающая процентное содержание зерен заданных размеров в исходном сырье; 3) фракционный состав исходного угля – процентное содержание различных компонентов в составе исходного сырья,
U
где
U
AUc US
U
AcU
,
AcU
,
US
US
,
– процентное содержание узкой фракции плотностью ρ в исходном угле; – зольность узкой фракции плотностью ρ; – процентное содержание узкой фракции плотностью ρ с крупностью зерен s в исходном угле.
Суммарный выход всех фракций: max
( ) d
и
100 % ,
min
где
ρmin ρmax
– минимальная плотность исходного угля; – максимальная плотность исходного угля.
Зольность исходного угля, A с исх – процентное содержание негорючей части в исходном угле: max
Aсисх
max
( ) * Aси ( ) d min
В исходном составляющие:
угле
( )d
.
min
доминирующее
значение
имеют
три исх
- процентное содержание породы в исходном угле обычно, лежит в диапазоне от 15 до 50%;
п
- процентное содержание промпродукта в исходном угле обычно, лежит в диапазоне от 2 до 15 %;
пп
исх
, ,
- процентное содержание концентрата в исходном угле k исх , обычно, лежит в диапазоне от 35 до 80%. Контролируемые и управляемые факторы: 1) давление сжатого воздуха P (диапазон изменения 1.5 – 2.4 м. вод. ст.); 88
2) расход подрешетной воды q п (диапазон изменения 0.05 – 0.08 м/с на 1 м2 решета ОМ); 3) расход транспортной воды q t ; 3) скорость вращения ротора разгрузчика n (рад/с); 4) параметры колебательного цикла: - время впуска воздуха вп (диапазон изменения 0.2 – 0.5 с); - время паузы
п
(диапазон изменения 0.2 – 0.5 с);
- время выпуска сжатого воздуха вып ( диапазон изменения 0.2 – 0.5 с). Основные параметры, характеризующие эффективность протекания процесса отсадки: 1) производительность по выходному концентрату QK , т/час; 2) зольность выходного концентрата – процентное содержание негорючей части в выходном концентрате A c K ; 3) потери легких фракций в породе – процентное содержание горючей части в отходах ОМ n . Важными промежуточными технологическими параметрами являются: высота отсадочной постели H и разрыхленность отсадочной постели R , которая измеряется амплитудой колебаний высоты потели во время цикла [96]. На рисунке 4.2 показана отсадочная машина, как объект управления.
Рисунок 4.2 – Отсадочная машина, как объект управления Изучение процессов протекающих в отсадочной машине показало, что постоянство качества выходной продукции наиболее 89
просто осуществить путем стабилизации высоты постели H и разрыхленности постели R . Стабилизация высоты постели на заданном уровне осуществляется путем изменения скорости вращения вала двигателя разгрузочного устройства. Стабилизация разрыхленности постели может осуществляться путем изменения давления или времени впуска сжатого воздуха [96]. При этом H и R рассматриваются как входные управляемые факторы процесса отсадки, см. рисунок 4.3.
Рисунок 4.3 – Отсадочная машина, как объект управления (H и R – входные управляемые факторы процесса отсадки) Все современные отсадочные машины, находящиеся в эксплуатации и выпускаемые промышленностью, оснащены системами автоматической стабилизации высоты отсадочной постели. Некоторые отсадочные машины, выпущенные позже 1980 года, оснащены также системами автоматической стабилизации разрыхленности отсадочной постели [86, 99, 100]. Функциональная схема систем стабилизации высоты постели ОМ с роторным разгрузчиком представлена на рисунке 4.4.
Рисунок 4.4 – Функциональная схема системы стабилизации высоты постели
90
В системах стабилизации высоты отсадочной постели используются как традиционные ПД и ПИД-регуляторы [95, 96, 99, 100], так и интеллектуальные контроллеры, например, нечеткие логические регуляторы [101-104]. Системы стабилизации разрыхленности отсадочной постели, установленных на ряде ОМ, изменяют положение задвижки, регулирующей давление сжатого воздуха, и имеют функциональную схему, приведенную на рисунке 4.5 [95, 96].
Рисунок 4.5 – Функциональная схема системы стабилизации разрыхленности отсадочной постели Автоматические системы регулирования высоты и разрыхленности отсадочной постели представляют собой первую ступень иерархии управления процессом отсадки. Следующей, верхней ступенью системы управления ОМ являются системы, управляющие процессом по показателям, характеризующим конечные продукты отсадки. 4.2 Моделирование процесса гидравлической отсадки 4.2.1 Существующие модели гидравлической отсадки Несмотря на широкое применение гидравлической отсадки для обогащения различных видов полезных ископаемых, данный технологический процесс в настоящее время не имеет общепризнанного математического описания. При создания моделей процесса отсадки используется, как аналитический и аппроксимационный, так и смешанные подходы. Аналитические модели отсадки. В аналитическом исследовании отсадки определилось два принципиальных направления: детерминистское и массово-статистическое [93]. В основу первого положено исследование и описание закономерностей движения отдельного зерна под действием внешних сил в условиях, создаваемых совокупностью других зерен, участвующих в процессе. Массовостатистическое направление рассматривает перемещение не отдельных зерен, а их совокупности, характеризуемой определенными физическими константами, как результат действия на них системы сил, проявление которых носит вероятностно-статистический характер. В 91
свою очередь массово-статистические модели делятся на три вида: суспензионные, энергетические и вероятностно-статистические. Детерминистские модели. Детерминистские модели отсадки рассматривают скорости и ускорения движения отдельных частиц как функции их физических свойств: плотности, крупности, формы и т. д. Эти модели позволяют качественно оценивать параметры процесса отсадки, определять с известным приближением основные факторы, влияющие на расслоение частиц по плотности и крупности, выявлять тенденции перемещения частиц с различными физическими свойствами. Между тем, рассматривая движение отдельной частицы с позиций только классической механики, детерминистские модели не в состоянии объяснить внутренний механизм разделения массы материала в отсадочных машинах. Реальному процессу присущи не только функциональные зависимости, но и статистические закономерности, от которых в решающей степени зависят скорости перемещения частиц к своим слоям равновесия. Главный недостаток детерминистской модели заключается в том, что скорости стесненного падения, ускорения частиц и дифференциальные уравнения движения отдельной частицы анализируются без учета реальных условий, в которых пребывает отсадочная постель в течение цикла отсадки. Эти условия в течение цикла отсадки непрерывно изменяются, поэтому представляется неправомерным составлять и анализировать уравнения движения отдельной частицы для всего времени цикла. В то же время по отдельным периодам цикла и, в частности, применительно к периоду, когда отсадочная постель находится в разрыхленном состоянии и когда происходит взаимное перемещение частиц, эти уравнения могут реально отражать некоторые аспекты механизма разделения в зависимости от физической характеристики частиц и гидродинамических параметров движения жидкости. В литературе [92, 93, 98] отмечается, что детерминистская модель отсадки весьма приближенно объясняет механизм разделения материала по плотности, так как перемещение большой совокупности частиц коренным образом отличается от перемещения одиночной частицы. Массово-статистические модели. Было показало, что силы, действующие на частицу при ее движении в свободных и стесненных условиях, качественно различны [92, 93, 95]. Так как заранее невозможно учесть изменение количества движения из-за случайного характера соударений и трения между частицами, то, как показывают многочисленные исследования, закономерности перемещения частиц различной плотности и крупности при неустановившемся движении среды могут быть описаны средствами статистической механики. На основе массово-статистического аспекта были предложены три 92
теоретические модели отсадки – суспензионная, энергетическая и вероятностно-статистическая. Суспензионная модель отсадки. Физическая сущность этой модели заключается в том, что отсадочная постель рассматривается как тяжелая суспензия, в которой разделение материала по плотности осуществляется по законам, подобным разделению в обычной тяжелой среде [93, 105]. Недостатки теоретических разработок, основанных на суспензионной модели отсадки, обусловлены рядом искусственных допущений. Отсадочная постель является лишь весьма грубым аналогом суспензии в строгом смысле этого слова. Только самые мелкие частицы могут создавать более или менее устойчивую взвесь, крупные же зерна, у которых гравитационные силы значительно превалируют над вязкостными, не могут одновременно рассматриваться как наполнитель суспензии и как обогащаемый материал. Все силы, возникающие в результате сложного механического взаимодействия между частицами и жидкостью и между частицами, по-видимому, нельзя сводить только к гидростатической силе. Теоретические формулы для определения подъемной силы, энергии, скорости всплывания частиц и других параметров базируются на том условии, что плотность суспензоида равна некоторой средней плотности всей взвеси. Между тем плотность взвеси в отсадочной машине является переменной по высоте постели и изменяется в течение всего цикла отсадки. К недостаткам суспензионной модели следует отнести также и то, что силы, действующие на частицу, рассматриваются в статических условиях. Колебательному движению отводится лишь роль в одних случаях создавать максимально возможное сплочение материала, в других — оптимальное разрыхление. В результате колебательного движения среды возникают динамические силы, без учета которых математическое описание процесса разделения не может претендовать на высокую точность. Попытка учесть динамику процесса не приводит к однозначному ответу относительно явлений, имеющих место при формировании постели отсадочных машин. Суспензионная модель была использована в практике обогащения полезных ископаемых для улучшения режимов отсадки, расширения диапазона крупности обогащаемого материала и повышения производительности отсадочных машин за счет перехода на более низкие частоты пульсаций [93]. Энергетическая модель. Сущность энергетической модели заключается в том, что нерасслоенная отсадочная постель представляется как механически неустойчивая система, обладающая определенным запасом потенциальной энергии [93, 106]. При подводе к этой системе внешней энергии, в частности потока жидкости при отсадке, силы сцепления и трения между 93
частицами уменьшаются и постель переходит в такое состояние, когда каждая частица ее стремится занять место среди других частиц соответственно своему запасу потенциальной энергии, характеризуемому физическими свойствами самих частиц. В этом случае вся система стремиться к устойчивому состоянию при ее минимально потенциальном энергии. Этому условию отвечает разделение смеси на слои, в нижних и з которых сосредоточиваются преимущественно частицы большего размера и большей плотности. При этом основная часть потенциальной энергии преобразуется в работу по преодолению всех видов сопротивлений между частицами. Следует отметить, что энергетическая модель не дает объяснения явлениям, происходящим в течение одного цикла отсадки. Она рассматривает состояние отсадочной постели лишь после определенного времени протекания процесса. Достоинство энергетической модели отсадки состоит в том, что она анализируют совокупность частиц различных физических свойств как единую массовую систему. Энергетическая модель отсадки не раскрывает взаимосвязи между изменением потенциальной энергии в различных фазах отсадочного цикла и скоростью протекания процесса расслоения, роль которой, как известно, является определяющей. Несмотря на некоторые существенные недостатки, энергетическая модель все же довольно обстоятельно раскрывает общую статистическую суть расслоения и устанавливает взаимосвязь между качеством разделения и фактором времени [93]. Вероятностно-статистическая модель. Во взвешенной постели отсадочных машин, состоящей из множества частиц различной плотности и крупности, непрерывно происходит перемещение их отдельных групп, как в вертикальном, так и горизонтальном направлениях с общей тенденцией движения к местам выгрузки и вертикального перемещения в свои слои равновесия [93, 95]. Но так как общая тенденция распределения частиц по плотности достаточно убедительно подтверждена многочисленными теоретическими и экспериментальными исследованиями и практикой обогащения полезных ископаемых в отсадочных машинах, основной задачей вероятностно-статистической модели является определение физических факторов и закономерностей формирования постели, т. е. перехода частиц различной плотности и крупности из беспорядочного состояния в упорядоченное, характерное для расслоенной постели. Первые практические результаты в этом направлении были получены в моделях с использованием уравнения Фоккера-ПланкаКолмогорова, описывающего одномерные массовые диффузионные процессы со сносом [95]:
94
y ( x, t ) t
где y x A D
2
x
A ( x, t ) y ( x , t )
x2
D ( x, t ) y ( x, t ) ,
– некоторая физическая величина, характеризующая концентрацию материала; – независимая переменная; – коэффициент сноса, определяющий детерминированную часть процесса; – коэффициент диффузии, определяющий стохастическую часть процесса.
Численное решение этого уравнения приводит к конечноразностному соотношению:
yi, где i j
j 1
(1 2 ) yi,
j
(
– шаг по переменной x; – шаг по переменной t, A t D t , x ( x )2
2
) yi
1, j
(
2
) yi
1, j
,
.
Для анализа таких объектов можно применить математический аппарат цепей Маркова [107]. При этом в таких моделях не рассматриваются физические закономерности гравитационного процесса разделения зерен материала по плотности. Процесс отсадки рассматривают как массовый вероятностный процесс с переменным по значению коэффициентом разделения, зависящим от конкретных значений многочисленных параметров процесса. Такие модели позволяют получить удовлетворительную адекватность реальному процессу лишь в узком диапазоне параметров процесса отсадки, поскольку для каждого изменения многочисленных параметров обогащаемого сырья требуются проведение обширных экспериментов, направленных на определение новых значений переходных вероятностей и начальных состояний. Практическое применение таких моделей для исследования переходных процессов с изменяющимися характеристиками исходного сырья и возмущающих воздействий крайне ограничено [93]. Аппроксимационные модели отсадки. В работе [96] рассматривается регрессионная модель отсадочной машины, находится уравнения связи между исследуемыми переменными в установившемся режиме – статическая характеристика объекта управления. В качестве характеристики отсадочной машины как объекта в [96] рассматривается зависимость в виде полинома второй степени: 95
n
yk
a0
ai xi i 1
C n2
n
aii xi i 1
2
aij xi x j ,
(4.1)
i, j 1
где
y k , x i – выходная k-я и входная i-я переменные соответственно; k 1, ... m ; i 1, ... n ; a 0 , a1 , a 2 , a 3 – коэффициенты 2 полинома, определяемые по методу наименьших квадратов, C n – число сочетаний из n элементов по два; m и n – число выходных и входных переменных соответственно. С помощью зависимости (4.1) в [96] рассматривается аппроксимация связи между производительностью отсадочной машины по концентрату Qk, а также другими критериями эффективности процесса отсадки и высотой H и разрыхленностью R отсадочной постели. Заметим, что применение квадратичной зависимости (4.1) не позволяет достичь высокой точности моделирования. Другим примером аппроксимационного подхода к моделированию отсадочной машины может служить использование рассматриваемых в настоящей работе обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией. Смешанные модели. При решении задачи создания имитационной модели процесса обогащения угля методом гидравлической отсадки целесообразно исходить из принятия компромисса, заключающегося в одновременном использовании разнообразных теорий, проверенных аппроксимаций и методик расчета параметров технологического процесса, такие моли в настоящей работе будут называться смешанными. Рассмотрим модель, предложенную в работах [98, 108, 109], основанную на разделении по плотности, уравнениях баланса и аппроксимации ряда зависимостей. В данной модели отсадочная постель рассматривается как суспензия, а отсадка, как процесс разделения твердых сыпучих смесей в жидкой среде по плотности, при этом рассматривается псевдожидкость с плотностью, зависящей от высоты и разрыхленности отсадочной постели, нагрузки на отсадочную машину, а также ряда других факторов. Указанная зависимость аппроксимируется посредством квадратичных полиномов и степенных функций. Математическая модель ОМ строится на принципе выполнения материального и зольного балансов между поступающим сырьем и продуктами обогащения по каждой из узких фракций. Входными параметрами модели ОМ являются характеристики исходного угля (фракционный состав), нагрузка на отсадочную машину по исходному углю, а также значения основных параметров управления процессом отсадки – высота и разрыхленность отсадочной постели в породном и промпродуктовом отделениях.
96
Структурная схема такой математической модели процесса отсадки приведена на рисунке 4.6.
Рисунок 4.6 – Структурная схема модели отсадки угля Последовательность вычислений параметров модели отсадки угля в соответствии с данной структурной схемой заключаются в следующем: - ввод исходных данных (характеристик исходного угля, управлений); - определение плотности разделения в породном отделении ОМ в зависимости от входных параметров; - определение качественных (зольность) и количественных (выход, производительность) характеристик микста; - определение качественных (зольность, засоренность посторонними фракциями) и количественных (выход, производительность) характеристик породы; - определение плотности разделения в промпродуктовом отделении ОМ в зависимости от входных параметров; - определение качественных (зольность) и количественных (выход, производительность) характеристик концентрата; - определение качественных (зольность) и количественных (выход, производительность) характеристик промпродукта. Корреляционная связь плотности разделения с параметрами процесса отсадки определялась путем обработки экспериментальных данных статистическими методами. Согласно этим данным зависимость плотности разделения от высоты и разрыхленности отсадочной постели, от нагрузки по исходному углю в породном отделении определяется следующим выражением: (4.2) п п ( Hп ) п ( Rп ) п (Gи ) 97
где
п
( Hп )
– составляющая
п
, зависящая от высоты отсадочной
постели H п в породном отделении: а пH0 а пH1 * Hп а пH2 Hп2 п ( Hп ) п
( Rп )
–
составляющая
п
,
зависящая
от
разрыхленности
Rп отсадочной постели в породном отделении: п п
(Gи )
( Rп ) а пR0 а пR1 * Rп а пR2 * Rп2
– составляющая п , учитывающая влияние величины нагрузки по исходному углю на плотность разделения: cG1 * e(Gи Gн ) / Gн cG1 при Gи Gин , п (Gи ) cG 2 * e(Gи Gн ) / Gн CG1 , CG2 – константы, п
(Gи )
при
cG 2
Gи Gин ,
Gи , Gн – текущее и номинальное значения нагрузки по исходному углю Вычисление характеристик породы (выход γп и зольность Aсп ) и микста (выход γм и зольность Aсм) осуществляется аналогично определению характеристик исходного угля. Однако для породы рассматриваются значения функций U f , AUc f , в диапазоне значений плотности фракций [ρп , ρmax ], а для микста в диапазоне [ρmin , ρп]. Количество n узких фракций было принято равным n=8. Выход микста определяется следующим образом: n
max
( )d
м min
i
Интерполируя величину выхода получим:
98
,
(4.3)
i 1
м в диапазоне
[ρmin , ρп]
м
1
м
1
при 2*
е 1
п
2
3*
м
е 2
п
i
е 2
п
е 2
при
е 2
i 1
е 1
при
е 1
е 1
п
е 3
п
n 1 n
м
*
е n 1
п
i i 1
Gи
м
при
е n 1
при
п
е n 1
е n
п е n
С учетом (1-3) зольность микста определяется как: п
п
A см
( ) * A си ( ) d
n
( )d
min
i
n
* A сi
min
,
i
i 1
i 1
где интерполированная величина зольности микста Aсм равна: Асм Асм Асм
Ас1 Ас1 * 2
Ас2 *
2*
1
Асi *
е 1
п
м
е 1
Ас3 *
3*
i
е 2
п
i 1
п
е 1
при
е 1
п
при
м
е 2
при
е 2
е 2
е 3
п
Асм
n 1
Асi *
Асn * i
*
е n 1
п
м
е n 1
i 1
Асм
n
Аси
е n 1
при при
п
п
е n
е n
Выход и зольность породы в соответствии с уравнениями материального и зольного балансов, определяется зависимостями: п
Acп
100
(100* Aси
м
м
;
* Aсм )
п
.
Производительности по всем продуктам обогащения угля получаем путем умножения выхода каждого продукта на производительность по исходному углю: 99
Gм
м
Gп
Gи 100
,
Gм . Содержание легких фракций в породе определяется значениями высоты постели, разрыхленности, производительности по тяжелым фракциям в исходном угле и нагрузкой по исходному углю: л п
где: л п
(Нп )
( Rп )
л п ( Rп )
л п (Gи )
л 1,8 , Gп ) п (Gи
,
(4.4)
– составляющая содержания легких фракций в породе, определяющаяся высотой отсадочной постели, л k h1 ( H п ср H п )2 , п (Нп )
k л п
л п (H п )
Gи
коэффициент пропорциональности,
h1
– составляющая содержания легких фракций в породе, определяющаяся разрыхленностью отсадочной постели, л k R ( Rп ср Rп )2 , п ( Rп ) п
k л п
(Gи 1,8 , Gп )
коэффициент пропорциональности,
Rп
– составляющая содержания легких фракций в породе, зависящая от производительности по тяжелым фракциям в исходном угле л 1,8 , Gп ) п (Gи
Gп Gи 1,8
*k
при G п
1
Gп
л 1,8 , Gп ) п (Gи
k
2
Gи 1,8
л 1,8 , Gп ) п (Gи
k
5
Gи 1,8
k 1 , ... k
7
где
Gп
–
Gи 1,8 2 ,
k
3
*k
4
при Gи 1,8 2
k
6
*k
7
при G п
константы
и
Gи 1,8
Gп
Gи 1,8
,
,
коэффициенты
пропорциональности, и
Gи 1,8
1,8
* Gи 100
–
производительность
по
тяжелым
фракциям в исходном угле, и
1,8
n иi
, где
иj
1.8 , 1.8 иj
e j
– выход тяжелых
i j
фракций в исходном угле, п * Gи – производительность ОМ по породе. Gп 100
л п
100
(Gи )
– составляющая содержания легких фракций в породе, определяющаяся нагрузкой по исходному углю,
л п (Gи )
kGи * Gи 2 ,
где kGи – коэффициент пропорциональности. Плотность разделения в промпродуктовом отделении вычисляется аналогично выражению (4.2) для вычисления плотности разделения в породном отделении. Описанная смешанная модель, основанная на разделении по плотности, уравнениях баланса и аппроксимации ряда зависимостей в большинстве случаев позволяет с достаточной для практики точностью моделировать процесс гидравлической отсадки. К недостаткам данной модели относится необходимость оценивать большое количество параметров, что требует проведения дополнительных экспериментов на отсадочной машине. На рисунке 4.7 приведена классификация моделей гидравлической отсадки.
Рисунок 4.7 – Классификация моделей отсадки 4.2.2 Модель отсадки на основе обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией На основе GRNN PC была реализована модель работы отсадочной машины с двумя отделениями (породным и промпродуктовым). Входные сигналы модели: - нагрузка на отсадочную машину по исходному углю, Gи; - высота отсадочной постели породного отделения, Hп; - разрыхленность отсадочной постели породного отделения, Rп; - высота отсадочной постели промпродуктового отделения, Hп; - разрыхленность отсадочной постели промпродуктового отделения, Rп. Выходные сигналы модели: 101
- производительность по породе, Gп; - процентное содержание легких фракций в породе, γлп; - производительность по концентрату, Gк; - зольность выходного концентрата, Аск. В модели отсадочной машины используется четыре нейронные сети (см. рисунок 4.8). Используются следующие параметры алгоритма обучения (более подробно см. раздел 2.1): 1) Полиномиальная часть GRNN PC имеет вид полинома второго порядка: A BT x x T C x . (4.5) П ( x) 2) Определение вектора параметров b полиномиальной части сети осуществляется с использованием нерекуррентного метода наименьших квадратов, на начальной стадии обучения и с использованием рекурсивного метода наименьших квадратов на последующей стадии обучения сети (формулы (2.10) и (2.11) соответственно). 3) Определение значения параметра отклонения радиальных нейронов осуществляется по эмпирической формуле (2.14). 4) Настройка параметра u осуществляется с использованием алгоритма одномерной оптимизации (методом золотого сечения).
Рисунок 4.8 – Структура нейросетевой модели ОМ 102
Блок схема алгоритма, соответствующая описанным выше параметрам алгоритма обучения представлена на рисунке 4.9. Для обучения нейронных сетей использовались данные полученные в процессе экспериментов на Криворожской ЦОф (Украина), при обогащении угля поступающего с одной и той же шахты и обладающего достаточно стабильным фракционным, гранулометрическим и химическим составом. Фрагмент обучающей выборки, состоящей из 400 точек, приведен в таблице 4.1. Таблица 4.1 – Данные исследования ОМ мелкого угля на Криворожской ЦОф №
Входные сигналы Hп Rп Hпп м·10-2 м·10-2 м·10-2 22.8 3.5 19.0 21,7 3.3 19.2 21.6 4.1 18.7
Rпп м·10-2 2.7 2.7 3.2
Выходные сигналы Gп γлп Gк Аск т/ч % т/ч % 22.0 2.32 109.4 7.91 23.5 3.21 119.5 6.77 22.6 2.23 118.8 6.12
1 2 3
Gи т/ч 140.1 152.3 150.4
…
…
…
…
…
…
…
…
…
…
398 399 400
152.4 144.7 131.8
24.0 21.2 19.8
4.8 5.0 4.8
21.1 19.5 18.4
3.6 4.0 4.0
22.5 21.1 20.3
1.10 1.64 2.01
121.0 115.3 103.4
7.16 5.51 5.38
103
Рисунок 4.9 – Алгоритм формирования GRNN PC Для тестирования использовалась таблица экспериментальных данных отличная от обучающей, ее фрагмент приведен в таблице 4.2.
104
Таблица 4.2 – Фактические и расчетные параметры процесса отсадки, используемые для оценки адекватности нейросетевой модели Экспериментальные данные
№
Значения, Выходные полученные с Параметры процесса показатели помощью модели процесса Gи Hп Rп Hпп Rпп Gп γпл Gк Aкс Gп γпл Gк Aкс т/ч м·10- м·10- м·10- м·10- т/ч % т/ч % т/ч % т/ч % 2
1 2 3 …
2
2
2
83,9 21,6 4,3 20,5 3,6 12,9 1,65 65,9 7,05 14,1 0,84 65,4 6,74 116,4 22,0 4,0 20,3 3,0 18,3 1,30 90,9 6,46 19,4 0,92 91,0 6,88 121,0 22,4 3,9 20,3 3,0 20,7 1,38 97,1 6,68 20,0 1,06 94,6 6,81 …
…
…
…
…
… …
…
… … …
…
…
98 141,8 20,8 4,4 18,0 2,8 23,8 2,10 115,5 6,11 24,4 1,75 107,0 5,91 99 68,0 22,1 4,7 20,3 4,3 9,8 1,39 54,3 6,63 11,5 0,87 53,0 7,05 100 107,2 21,7 3,9 18,1 3,3 17,2 1,43 83,1 6,49 17,6 0,92 81,2 6,97 Относительная формуле:
средняя
% где
1 N
ошибка
N k 1
Yk
модели
определяется
по
Yk Yk
100% ,
(4.6)
N – объем тестирующей выборки, Yk – выход объекта в k-й точке;
Y k – выход модели в k-й точке. Точность модели на основе GRNN PC сравнивалась с точностью регрессионной модели на основе полинома второго порядка [96] и смешанной модели на основе разделения по плотности, уравнениях баланса и аппроксимации ряда зависимостей, предложенной в работах [98, 108]. Относительная средняя ошибка для различных моделей и выходных сигналов сведена в таблицу 4.3.
105
Таблица 4.3 – Относительная средняя ошибка моделей Выход Модель Регрессионная модель Смешанная модель на основе плотности разделения GRNN PC
Gп ,
γ лп ,
Gк,
Аск,
%
%
%
%
30,1
29,4
32,0
28,6
18,9
21,7
22,4
17,3
12,3
11,9
9,8
7,8
На основе данных приведенных в таблице 4.3 можно сделать вывод, что модель гидравлической отсадки на основе GRNN PC обеспечивает значительно более высокую точность по сравнению с другими моделями. Таким образом, модель гидравлической отсадки на основе обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией при стабильном составе исходного угля позволяет достигнуть более высокой точности моделирования по сравнению с другими описанными в литературе моделями и, кроме того, при построении модели на основе GRNN PC используются лишь экспериментальные данные, полученные при измерении сигналов на входе и выходе отсадочной машины. 4.3 Системы машиной
автоматического
управления
отсадочной
4.3.1 Существующие системы автоматического управления гидравлической отсадкой Решению задачи повышения эффективности процесса отсадки путем нахождения оптимальных управлений заданными значениями высоты и разрыхленности отсадочной постели было посвящено ряд исследований, в результате которых были предложены алгоритмы и пути реализации управления задатчиками высоты и разрыхленности отсадочной постели. Эти решения заключались в использовании поисковых экстремальных систем [95, 96, 110], беспоисковых экстремальных систем [111, 112] и нечетких экспертных контроллеров [101 - 103] и нечетких адаптивных систем управления [98, 108, 113, 114]. Критерии автоматического управления отсадкой. Наиболее общим критерием технологической эффективности для процесса обогащения угля методом гидравлической отсадки может служить мера извлечения полезного продукта из исходного сырья [92, 93]. i i
106
100%,
где
– извлечение i-ой фракции в данный продукт, – выход i-ой фракции в данном продукте обогащения, αi – содержание i-ой фракции в исходном материале. Такой метод определения технологической эффективности несмотря на высокую объективность и точность не может быть использован при автоматическом управлении процессом гидравлической отсадки, поскольку определение извлечения отдельных фракций связано с проведением глубокого фракционного анализа исходного угля и определенного продукта его обогащения. Подобный анализ является трудоемкой задачей, требует значительного времени для его проведения и не может быть выполнен без использования специального лабораторного оборудования. Вследствие этого, в ряде работ рассматриваются более практически применимые критерии эффективности [95, 96]. Так предлагается считать целью управления Ф1 первым (породным) отделением ОМ достижение максимального извлечения породы из исходного сырья при заданном содержании в породе посторонних фракций. Целью управления вторым (промпродуктовым) отделением Ф2 – достижение максимального выхода концентрата при допустимом отклонении его зольности от заданного значения: γi
Ф1 Ф01 а1 Q0 b1
0
Ф2 Ф02 а 2 Qк b2 А ск
где Ф1 , Ф2
Q0 , Qк γ0 , γ0з Аск , Аскз Ф01, Ф02 , а1,а2, b1, b2, n 1, n 2
0з
А скз
n1 n2
max ,
(4.7)
max ,
(4.8)
− критерий эффективности работы породного и промпродуктового отделений отсадочной машины при ее управлении в автоматическом режиме работы, − производительность отсадочной машины по породе и концентрату, − действительное и заданное значения содержания посторонних фракций в породе, − действительное и заданное значения зольности концентрата, − константы, определяемые в процессе функционирования системы автоматического управления отсадочной машиной.
Коэффициенты a1, a2, b1 , b2 и показатели степени n1, n2 выбираются в зависимости от желаемого уровня эквивалентности 107
увеличения производительности от снижения качества выходного продукта. Часто при построении критерия эффективности сосредотачиваются лишь на получении максимального количества концентрата с заданной зольностью, в частности распространение получил следующий критерий [96]: QК
max,
AC К
AC КЗ
(4.9)
AC КЗ ,
где QК – производительность ОМ по выходному концентрату, – зольность выходного концентрата, A C КЗ – заданная зольность выходного концентрата, AC КЗ – допустимое отклонение зольности выходного концентрата от номинального значения. Словесная формулировка цели управления в данном случае имеет вид: получение максимального количества угольного концентрата при номинальном отклонении его зольности от заданного значения. Применение метода штрафных функций и приведение отклонения зольности к относительным единицам позволяет получить из оптимизационной задачи (4.9), задачу, не содержащую ограничений: A
C
К
AC К a QК
b
AC КЗ AC КЗ
c
max ,
(4.10)
где a, b, c const ; – обобщенный критерий эффективности. Управление процессом отсадки угля с помощью экстремальных поисковых систем. Проведенные исследования зависимости критерия эффективности (4.7) – (4.10) от высоты и разрыхленности отсадочной постели показали, что эта зависимость имеет экстремальный характер, при этом экстремум критерия эффективности дрейфует во времени относительно управлений – высоты и разрыхленности отсадочной постели [96]. Установлено, что дрейф критерия эффективности вызван, в большей степени, изменением качественно-количественных показателей обогащаемого угля и в меньшей степени – изменением неуправляемых параметров процесса и некоторых возмущений (расходов подрешетной и транспортной воды, степенью забивки решета и др.). Было также определено, что скорость дрейфа экстремума вдоль оси высоты постели гораздо выше скорости относительно 108
разрыхленности постели. На основании полученных результатов был сделан вывод о том, что поиск экстремума критерия эффективности может быть осуществлен экстремальной системой управления. Поскольку скорость и величина дрейфа экстремума по каналу разрыхленности постели является менее существенной, с целью упрощения системы управления и уменьшения времени поиска экстремума часто поиск оптимального режима осуществляется только по каналу высоты постели. Укрупненная структура систем экстремального управления приведена на рисунке 4.10.
Рисунок 4.10 – Структура экстремальной САУ Экстремальным поисковым системам управления свойственен существенный недостаток – значительное время настройки; данное обстоятельство особенно сильно проявляется при большой размерности вектора настраиваемых технологических параметров p . За время настройки ввиду дрейфа показателя эффективности синтезированное управление может существенно отличаться от оптимального. Переходный процесс в экстремальной поисковой системе показан на рисунке 4.7 (шаг квантования по времени выбран равным 109
100 с, из условия практического окончания переходного процесса за один шаг поиска) [96].
1 – изменение критерия управления, 2 – изменение управляющего воздействия
Рисунок 4.7 – Переходный процесс в экстремальной системе управления ОМ Процесс поиска в рассматриваемой экстремальной системе ведется по критерию достижения максимального извлечения породы из исходного сырья при заданном содержании в породе посторонних фракций породного отделения отсадочной машины (4.7), в качестве оптимизируемого параметра используется лишь высота отсадочной постели в породном отделении. Следует отметить, что время достижения оптимального значения высоты отсадочной постели только по одному отделению составляет примерно 3500 с, т. е. около одного часа. Процесс, представленный на рисунке 4.11 получен при допущении, что за время поиска дрейф экстремальной характеристики отсутствовал, и качество обогащаемого угля оставалось постоянным. На практике такие условия встречаются достаточно редко, ряд параметров процесса (нагрузка по исходному углю, фракционный состав обогащаемого материала, его зольность и ряд других параметров) постоянно изменяются, поэтому в реальных условиях при таком управлении можно ожидать увеличение времени достижения оптимального режима работы ОМ или даже постоянного колебательного режима работы лишь с приближением в той или иной степени к оптимальному режиму [113, 114]. Экспертная нечеткая САУ. Технологический процесс гидравлической отсадки угля характерен наличием многих трудноконтролируемых факторов, таких как фракционный и 110
гранулометрический составы исходного угля, расход транспортной воды, нагрузка на отсадочную машину и производительность по породе и промпродукту, степень забивки решета и др. В этих условиях целесообразно воспользоваться методами и алгоритмами автоматического управления, которые специально ориентированы на построение управляющей модели, учитывающей неполноту и неточность исходных данных. Одним из таких перспективных методов является теория нечетких множеств, которая оказывается наиболее полезной в случаях, когда затруднено применения точных количественных методов и подходов [22-27]. В исследованиях Золотухина Ю. Н., Бакулина Е.П. и др. (лаборатория нечетких технологий института автоматики и электрометрии Сибирского отделения РАН, Новосибирск) [28-30] предлагается осуществлять управление регуляторами параметров технологического процесса с помощью нечеткого супервизора на основе информации о составе исходной шихты и данных оперативного контроля (фракционного анализа, показаний золомера и др.). Структура системы управления в данном случае имеет вид, показанный на рисунке 4.12.
Рисунок 4.12 – Экспертная нечеткая САУ тактического уровня Система на рисунке 4.12 работает следующим образом: в зависимости от сигналов возмущения блок нечеткого вывода (БНВ) 111
на основе имеющейся базы знаний из нечетких продукционных правил формирует сигналы p , являющиеся заданиями для системы управления исполнительного уровня. В соответствии с заданием p , САУ исполнительного уровня вырабатывает управляющие воздействия u и контролирует технологические параметры y . База знаний БНВ может быть сформирована экспертным методом, путем организации и проведения опроса специалистов по управлению рассматриваемым объектом. Кроме того, можно использовать автоматическое формирование базы знаний путем слежения за действиями человека-оператора. Измерения большинства возмущающих факторов (таких как нагрузка на ОМ по исходному углю, фракционный состав исходного угля и др.) в режиме реального времени является достаточно трудной реализуемой на практике задачей, кроме того, рассматриваемая системы управления ОМ, по сути, являющейся разомкнутой по контору управления и просто не отрабатывает неконтролируемые возмущающие воздействия на процесс отсадки. Данные обстоятельства ограничивают применение описанной экспертной нечеткой САУ ОМ. Адаптивная нечеткая система управления гидравлической отсадкой. Рассмотрим применение экстремального предикторного нечеткого управления на основе алгоритма самоорганизации нечеткой системы для управления отсадочной машиной [98, 108, 113, 114]. На рисунке 4.13 показана структура адаптивной нечеткой системы управления ОМ, поясняющая его работу.
Рисунок 4.13 – Структура адаптивной нечеткой системы управления ОМ
112
Идея работы системы управления состоит в следующем. При подаче на вход системы нижнего уровня в качестве задания вектора параметров p , в установившемся режиме показатель эффективности процесса принимает значение Ф. Модель связи ( p) реализована блоком нечеткого вывода (БНВ), по сути, представляющим собой модель технологического процесса. Алгоритм оптимизации производит поиск оптимальных значений параметров не на самом объекте управления, как это имело место в классических экстремальных системах, а на модели (БНВ) /см. сигнал p /, после чего оптимальные значения параметров отрабатываются на объекте. Если показатель эффективности процесса, предсказанный моделью , отличается от показателя эффективности Ф, полученного на ОУ более чем на заданную величину , производится уточнение базы знаний модели с помощью алгоритма самоорганизации БНВ. Достоинствами описанной нечеткой адаптивной САУ является, во-первых, возможность использования экспертной информации качественного характера о связи технологических параметров процесса отсадки и показателя эффективности, во-вторых, способность обучаться, т. е. адаптироваться к свойствам и эволюции объекта управления, и, в-третьих, значительно меньшее время переходного процесса по сравнению с поисковыми экстремальными системами управления. Эффективность описанного алгоритма управления исследовалась на модели отсадочной машины с двумя ступенями полученной по реальным экспериментальным данным. В качестве управляемых параметров использовались: высота отсадочной постели H1, H2 и разрыхленность отсадочной постели R1, R2 в первом и втором отделении ОМ [113, 114]. На рисунке 4.14 показан процесс поиска максимума критерия эффективности в экстремальной системе управления и эс аналогичный процесс в предложенной интеллектуальной системе ис . Видно, что в нечеткой системе управления выход на квазиоптимальный режим работы осуществляется за время порядка 500 с., а в экстремальной системе управления за время порядка 8000 с. т.е. значительно большее время. Предложенный в работах [98, 108, 113, 114] алгоритм адаптивного предикторного нечеткого управления на основе самоорганизации системы нечеткого вывода обладает тем недостатком, что первоначально нечеткая база знаний (БНВ) заполняется экспертным методом и может задавать зависимости далекие от действительных, кроме того, зависимости аппроксимированные посредством нечетких систем, обычно, не являются гладкими 113
функциями, что затрудняет функционирование алгоритма оптимизации [29, 30].
Рисунок 4.14 – Переходный процесс в системах управления ОМ 4.3.2 Система адаптивного нейросетевого отсадочной машиной на основе GRNN PC
управления
Рассмотрим адаптивную нейросетевую систему управления ОМ отличающуюся от описанной в предыдущем параграфе нечеткой САУ тем, что в качестве модели используется не БНВ, а обобщеннорегрессионная нейронная сеть с полиномиальной коррекцией. Применение GRNN PC в САУ дает следующее преимущество: модель на основе данной нейронной сети позволяет получить более гладкую аппроксимацию по сравнению с нечеткой системой, что в свою очередь позволяет улучшить точность работы алгоритма оптимизации. Кроме того, при инициализации нейросетевой САУ можно использовать обучение нейронной сети на основе данных, полученных на объекте управления, а не экспертную информацию, как в нечеткой САУ, что позволяет отказаться от субъективных оценок, которые не могут гарантировать качество модели. Структура адаптивной нечеткой САУ приведена на рисунке 4.15.
114
Рисунок 4.15 – Структура алгоритма экстремального нечеткого предикторного управления Идея работы системы управления состоит в следующем. При подаче на вход системы нижнего уровня в качестве задания вектора параметров p , в установившемся режиме показатель эффективности f ( p) реализована процесса принимает значение Ф. Модель связи на основе GRNN PC, по сути, представляет собой модель технологического процесса. Алгоритм оптимизации производит поиск оптимальных значений параметров не на самом объекте управления, как это имело место в классических экстремальных системах, а на модели (GRNN PC) /см. сигнал параметров p /, после чего оптимальные значения параметров отрабатываются на объекте. Если показатель эффективности процесса, предсказанный моделью , отличается от показателя эффективности Ф, полученного на ОУ более чем на заданную величину , производится новое обучение модели с использованием полученных в процессе реализации управления на объекте данных. Рассмотрим более подробно алгоритм функционирования нейросетевой САУ. Приведем алгоритм для управления ОМ с двумя ступенями (такие агрегаты более распространены), отметив, что алгоритм может 115
быть легко изменен для работы с отсадочной машиной, имеющей произвольное число ступени. Исходной информацией для принятия управленческих решений является: 1) нагрузка на отсадочную машину по исходному сырью Qисх , 2) производительность по концентрату QK , 3) зольность выходного концентрата AC K . Задачей управления является поддержание значений высоты и разрыхленности постели в каждом из отделений ОМ h1 , h2 , R1 , R2 в соответствии с критерием (4.10). Рассмотрим функцию f (Qисх , h1 , h2 , R1 , R2 ) .
(4.11)
Указанная зависимость в случае изменения параметров исходного угля, а также наличия других возмущающих факторов не может быть признана стационарной. Однако часто можно допустить, что ее эволюция носит квазистационарный характер по сравнению с протекающими в системе процессами. Зависимость (4.11) аппроксимируется посредством GRNN PC, данные для обучения сети снимаются непосредственно на ОМ. Алгоритм управления состоит в реализации последовательности следующих шагов. Шаг 0. Задается – погрешность аппроксимации. Шаг 1. Используя имеющуюся GRNN PC, определяется оптимальное значение параметров h1 , h2 , R1 , R2 : h10 , h2 0 , R10 , R2 0 соответственно, путем решения оптимизационной задачи:
(h1 , h2 , R1 , R2 )
h10 , h2 0 , R10 , R2 0
max
,
(4.12)
где – выход GRNN PC Шаг 2. Определяется значение критерия эффективности путем реализации на ОМ управления h10 , h2 0 , R10 , R2 0 .
,
Шаг 3. Проверяется неравенство: (4.13)
116
При невыполнении неравенства переход к шагу 4, иначе переход к шагу 5. Шаг 4. Производится новое обучение GRNN PC на основе полученных в процессе реализации управления на ОМ данных. Переход к шагу 1. Шаг 5. Заданное время t реализуется квазиоптимальное управление путем установки на объекте параметров h10 , h2 0 , R10 , R2 0 . После чего переход к шагу 1. Рассмотрим результаты моделирования. На рисунке 4.16 приведены графики изменения входных и возмущающих воздействий используемые в процессе сравнительных испытаний различных САУ ОМ.
а) – расход подрешетной воды, отн., б) – расход транспортной воды, отн., в) – давление сжатого воздуха, м.в.ст., г) – степень забивки решета, %, д) – нагрузка по исходному углю, т/час. Рисунок 4.16 – Графики изменения входных и возмущающих воздействий ОМ На рисунке 4.17 приведены графики изменения зольности исходного угля. Рассматривалось два варианта подачи исходного угля: поступающий с одной шахты (см. рисунок 4.17, а) и поступающий с группы различных шахт (см. рисунок 4.17, б).
117
а) – уголь с одной шахты б) – уголь с различных шахт Рисунок 4.17 – Графики изменения зольности исходного угля Максимально допустимая зольности кондиционного концентрата в ходе сравнительных испытаний работы ОМ принимается равной 6,8 %. Рассматривалось три системы управления: экстремальная поисковая САУ [96], нечеткая адаптивная предикторная САУ [98], нейросетевая адаптивная САУ на основе GRNN PC. Результаты сравнения приведены в таблице 4.2. Таблица 4.2 - Результаты сравнительных испытаний работы ОМ при различных системах автоматического управления
118
Нейросетевая адаптивная САУ
Поисковая экстремальная САУ
Нечеткая адаптивная САУ
Нейросетевая адаптивная САУ
Общий выход концентрата, % Средняя зольность концентрата, % Выход кондиционного концентрата, %
Нечеткая адаптивная САУ
Показатели процесса
При исходном угле поступающем с ряда шахт
Поисковая экстремальная САУ
При исходном угле постоянного качества
69.99
68.68
70.02
62.32
62.46
62.35
6.52
6.31
6.48
6.16
6.22
6.21
67.02
67.96
69.56
47.52
52.14
53.37
Результаты сравнительных испытаний показали, что при относительно одинаковом выходе угольного концентрата и его средней зольности, выход кондиционного концентрата при управлении предложенной нейросетевой САУ увеличился. В частности, при обогащении угля постоянного качества выход кондиционного концентрата увеличился на 2,54 % по сравнению с поисковой экстремальной САУ и на 1,60% по сравнению с нечеткой адаптивной САУ. При обогащении углей, поступающих с ряда шахт, выход кондиционного концентрата увеличился более чем на 5,85 % по сравнению с поисковой экстремальной САУ и на 1,23% по сравнению с нечеткой адаптивной САУ. 4.4 Выводы по главе 1. Рассмотрен технологический процесс обогащения угля методом гидравлической отсадки. Приводятся существующие модели гидравлической отсадки. Проанализированы описанные в литературе системы автоматического управления гидравлической отсадкой. 2. Предложена модель гидравлической отсадки на основе обобщенно-регрессионной нейронной сети с полиномиальной коррекцией. На численных примерах показано, что модель гидравлической отсадки на основе обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией при стабильном составе исходного угля позволяет достигнуть более высокой точности моделирования по сравнению с другими описанными в литературе моделями и, кроме того, при построении модели на основе GRNN PC используются лишь экспериментальные данные, полученные при измерении сигналов на входе и выходе отсадочной машины. 3. Рассмотрена система адаптивного нейросетевого управления отсадочной машиной на основе GRNN PC. Результаты сравнительных испытаний показали, что при относительно одинаковом выходе угольного концентрата и его средней зольности, выход кондиционного концентрата при управлении нейросетевой САУ увеличился по сравнению с САУ, описанными в литературе. В частности, при обогащении угля постоянного качества выход кондиционного концентрата увеличился на 2,54 % по сравнению с поисковой экстремальной САУ и на 1,60% по сравнению с нечеткой адаптивной САУ; при обогащении углей, поступающих с ряда шахт, выход кондиционного концентрата увеличился более чем на 5,85 % по сравнению с поисковой экстремальной САУ и на 1,23% по сравнению с нечеткой адаптивной САУ.
119
ЗАКЛЮЧЕНИЕ Основные результаты настоящей монографии состоят в следующем. 1. Предложены обобщенно-регрессионные нейронные сети, позволяющие решать задачу идентификации сложных статических объектов. Описан алгоритм обучения данных сетей. Рассмотрены различные модификации сетей. 2. На основе вычислительных экспериментов проведено сравнение GRNN PC с существующими методами идентификации сложных статических объектов и установлено, что предложенный метод идентификации в среднем обеспечивает наилучшую точность из всех представленных методов, при решении поставленной задачи. 3. Проведено аналитическое исследование свойств GRNN PC, показана сходимость аппроксимационной модели на основе GRNN PC к искомой зависимости. 4. Получены оценки точности нейросетевых моделей с использованием принципов интервального статистического оценивания, проведены численные исследования по оценке точности получаемых моделей с использованием полученных формул для различных методов идентификации (в том числе и для GRNN PC). 5. Предложена методика планирования эксперимента для получения нейросетевой модели сложного статического объекта с использованием GRNN PC, удовлетворяющей требованиям по заданной точности и допустимому объему эксперимента. 6. Рассмотрен алгоритм моделирования динамических объектов на основе аппроксимации разностного уравнения с помощью GRNN PC (модель типа авторегрессия – скользящее среднее); достоинством алгоритма является его универсальность в смысле применимости к объектам с произвольной структурой, в том числе и неизвестной. 7. Рассмотрен алгоритм моделирования динамических объектов на основе GRNN PC и аппроксимации весовой функции объекта управления (так называемая обобщенная модель). Достоинством алгоритма является возможность получения оценок выхода объекта по значениям его входа без использования ранее полученных оценок выхода объекта, что позволяет избежать накопления погрешности, свойственного модели типа ―авторегрессия‖. В качестве базиса для разложения весовой функции объекта использована система показательных функций. Доказана теорема, согласно которой при применении выбранного базиса с увеличением числа базисных функций аппроксимирующая зависимость равномерно сходится к истинной весовой функции линейного динамического звена, входящего в структуру объекта управления. Приведены 120
численные примеры аппроксимации часто встречающихся на практике весовых функций. 8. Предложена модель гидравлической отсадки на основе обобщенно-регрессионной нейронной сети с полиномиальной коррекцией. На численных примерах показано, модель гидравлической отсадки на основе обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией при стабильном составе исходного угля позволяет достигнуть более высокой точности моделирования по сравнению с другими описанными в литературе моделями и, кроме того, при построении модели на основе GRNN PC используются лишь экспериментальные данные, полученные при измерении сигналов на входе и выходе отсадочной машины. 9. Рассмотрена система адаптивного нейросетевого управления отсадочной машиной на основе GRNN PC. Результаты сравнительных испытаний показали, что при относительно одинаковом выходе угольного концентрата и его средней зольности, доля кондиционного концентрата при управлении нейросетевой САУ увеличилась по сравнению с САУ, описанными в литературе. В частности, при обогащении угля постоянного качества выход кондиционного концентрата увеличился на 2,54 % по сравнению с поисковой экстремальной САУ и на 1,60% по сравнению с нечеткой адаптивной САУ; при обогащении углей, поступающих с ряда шахт, выход кондиционного концентрата увеличился более чем на 5,85 % по сравнению с поисковой экстремальной САУ и на 1,23% по сравнению с нечеткой адаптивной САУ.
121
СПИСОК ЛИТЕРАТУРЫ 1. 2. 3.
4. 5. 6. 7. 8. 9. 10.
11. 12.
13. 14. 15. 16. 17. 18. 19.
20.
122
Растригин Л.А. Современные принципы управления сложными объектами. М.: Советское радио, 1980. Катковник В.Я. Непараметрическая идентификация и сглаживание данных. М.: Наука, 1985. Дли М.И., Круглов В.В., Осокин М.В. Локальноаппроксимационные модели социально-экономических систем и процессов. М.: Наука. Физматлит, 2000. Ивахненко А.Г., Юрачковский Ю.П. Моделирование сложных систем по экспериментальным данным. М.: Радио и связь, 1987. Гроп Д. Методы идентификации систем. М.: Мир, 1979. Демиденко Е.З. Линейная и нелинейная регрессия. М.: Финансы и статистика, 1981. Райбман Н.С., Чадеев В.М. Построение моделей производства. М.: Энергия, 1975. Растригин Л.А., Пономарев Ю.П. Экстраполяционные методы проектирования и управления. М.: Машиностроение, 1986. Дейч А.М. Методы идентификации динамических объектов. М.: Энергия, 1979. Планирование эксперимента в исследовании технологических процессов / Под ред. К.Хартмана, Э.Лецкого, В.Шефера и др. М.: Мир, 1977. Планирование и организация эксперимента в научных исследованиях / Под ред. Г.К.Круга. М.: Советское радио, 1974. Круг Г.К., Сосулин Ю.А., Фатуев В.А. Планирование эксперимента в задачах идентификации и экстраполяции. М.: Наука, 1977. Себер Дж. Линейный регрессионный анализ. М.: Мир, 1980. Петрович М.Л. Регрессионный анализ и его математическое обеспечение на ЭВМ. М.: Финансы и статистика, 1982. Ту Дж., Гонсалес Р. Принципы распознавания образов. М.: Мир, 1978. Ивахненко А.Г., Зайченко Ю.П., Дмитриев В.Д. Принятие решений на основе самоорганизации. М.: Советское радио, 1976. Ивахненко А.Г. Системы эвристической самоорганизации в технической кибернетике. Киев: Техника, 1969. Cover T.M., Hart P.E. Nearest neighbor pattern classification // IEEE Trans on Inform. Theory. 1969. V. IT-13. P. 21 - 27. Lancaster P., Saulkauskas K. Surface generated by moving least squares methods // Mathematics of Computation. 1981. V. 37. № 155. P. 141 - 158. Дли М.И. Локально-аппроксимационные модели сложных объектов. М.: Наука, 1999.
21. Дли М.И. Локально-аппроксимационные модели социальноэкономических объектов. Дисс. … доктора техн. наук. Тверь: Тверской государственный университет, 2000. 22. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. М.: Горячая линия – ТЕЛЕКОМ, 2001. 23. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети. М.: Физматлит, 2001. 24. Круглов В.В., Борисов В.В. Гибридные нейронные сети. Смоленск: Русич, 2001. 25. Круглов В.В., Борисов В.В. Нечеткие нейронные сети. М.: ИПРЖР, 2003. 26. Круглов В.В., Дли М.И. Интеллектуальные информационные системы: компьютерная поддержка систем нечеткой логики и нечеткого вывода. М.: Физматлит, 2002. 27. Борисов В.В., Круглов В.В., Федулов А.С. Нечеткие модели и сети. М.: Горячая линия – Телеком, 2007. 28. Дьяконов В.П., Круглов В.В. MATLAB 6.5 SP 1/7/7 SP 1/7 SP2 SIMULINK 5/6. Инструменты искусственного интеллекта и биоинформатики. М.: СОЛОН-ПРЕСС, 2006. 29. Усков А.А., Круглов В.В. Интеллектуальные системы управления на основе методов нечеткой логики. Смоленск: Смоленская городская типография, 2003. 30. Усков А.А., Кузьмин А.А. Интеллектуальные технологии управления. Искусственные нейронные сети и нечеткая логика. М.: Горячая линия – Телеком, 2004. 31. Дюк В., Самойленко А. Data Mining. Учебный курс. СПб.: Питер, 2001. 32. Осовский С. Нейронные сети для обработки информации / М.: Финансы и статистика, 2002. 33. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности / Г.К.Вороновский, К.В.Махотило, С.Н.Петрашев, С.А.Сергеев. Харьков: Основа, 1997. 34. Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6. М.: ДИАЛОГ-МИФИ, 2002. 35. Галушкин А.И. Теория нейронных сетей. Кн. 1 / Общая ред. А. И. Галушкина. М.: ИРПЖР, 2000. 36. Галушкин А.И. Нейрокомпьютеры. Кн. 3 / Общая ред. А. И. Галушкина. М.: ИРПЖР, 2000. 37. Гoрбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. Новосибирск: Наука, 1996. 38. Нейроноинформатика / А. Н. Горбань, В. Л.Дунин-Барковский, Е. М. Миркес и др. Новосибирск: Наука, 1998. 39. Уоссермен Ф. Нейрокомпьютерная техника. М.: Мир, 1992. 40. Нечеткие множества в моделях управления и искусственного интеллекта / Под. ред. Д.А. Поспелова. М.: Наука, 1986. 123
41. Нечеткие нейронные сети. Теория и решение военно-прикладных задач / О. В. Балашов, В. В. Борисов, В. В. Круглов, Е. В. Харитонов. Смоленск: Изд-во Военного ун-та войсковой ПВО ВС РФ, 2001. 42. Прикладные нечеткие системы / Под ред. Т.Терано, К.Асаи, М.Сугэно. М.: Мир, 1993. 43. Берштейн Л.С., Боженюк А.В. Нечеткие модели принятия решений: дедукция, индукция, аналогия. Таганрог: Изд-во ТРТУ, 2001. 44. Бочарников В.П. Fuzzy-Технология: математические основы практика моделирования в экономике. СПб.: Питер, 2001. 45. Леоненков А.В. Нечеткое моделирование в среде MATLAB и fuzzyTECH. СПб.: БХВ – Петербург, 2003. 46. Ротштейн А.П. Интеллектуальные технологии идентификации: нечеткая логика, генетические алгоритмы, нейронные сети. Винница: УНИВЕРСУМ-Винница, 1999. 47. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. М.: Горячая линия – Телеком, 2002. 48. Ярушкина Н.Г. Методы нечетких экспертных систем в интеллектуальных САПР. Саратов: Изд-во Сарат. ун-та, 1997. 49. Яхъяева Г.Э. Нечеткие множества и нейронные сети. М.: БИНОМ, 2006. 50. Штовба С.Д. Проектирование нечетких систем средствами MATLAB. М.: Горячая линия – Телеков, 2007. 51. Platt J. A resource-allocating network for function interpolation // Neural Computation, 1991. Vol. 3. P. 213-225. 52. Мудров А.Е. Численные методы для ПЭВМ. Томск: МП «РАСКО», 1991. 53. Калиткин Н.Н. Численные методы. М.: Наука, 1978. 54. Дьяконов В.П., Круглов В.В., Абраменкова И.В. MATLAB 5.3.1 с пакетами расширений. М., Нолидж, 2001. 55. Дьяконов В.П. MATLAB 6. Учебный курс. Спб: ПИТЕР, 2001. 56. Вентцель Е.В. Теория вероятностей. М.: Высшая школа, 1998. 57. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. М.: Наука, 1984. 58. Орлов А.И. Методы проверки однородности связных выборок // Заводская лаборатория. 2004. Т. 70, № 7. 59. Справочник по теории автоматического управления / Под. ред. А.А.Красовского. М.: Наука, 1987. 60. Изерман Р. Цифровые системы управления. М.: Мир, 1984. 61. Катков М.С. Непрерывные системы адаптивного управления с идентификаторами. М.: Мир книги, 1992. 62. Кудинов Ю.И., Венков А.Г., Келина А.Ю. Моделирование технологических и экологических процессов. Липецк: ЛЭГИ, 2001. 124
63. Токарев В.Л. Основы теории обеспечения рациональных решений. Тула: ТулГУ, 2000. 64. Тюрин Ю.Н., Макаров А.А. Анализ данных на компьютере. М.: ИНФРА-М. Финансы и статистика, 1997. 65. Иванов В.А., Ющенко А.С. Теория дискретных систем автоматического управления. М.: Наука, 1983. 66. Дюк В. А. Самойленко А.П. Data Mining: учебный курс. СПб.: ―Питер‖, 2001. 67. Гантмахер Ф.Р. Теория матриц. М.: Наука, 1988. 68. Хорн Р., Джонсон Ч. Матричный анализ. М.: Мир, 1989. 69. Кудрявцев Л.Д. Курс математического анализа. М.: Высшая школа, 1981. 70. Математические основы теории автоматического регулирования / Под. Ред. Б.К.Чемоданова. М.: Высшая школа, 1971. 71. Пискунов Н.С. Дифференциальное и интегральное исчисление. М.: Наука, 1968. 72. Алберт А. Регрессия, псевдоинверсия и рекуррентное оценивание: Пер. с англ. М.:Наука, 1977. 73. Завьялов Ю.С., Квасов Б.И., Мирошниченко В.П. Методы сплайнфункций. М.: Наука, 1980. 74. Аоки М. Введение в методы оптимизации. М. Наука, 1977. 75. Химмельблау Д. Прикладное нелинейное программирование. М. Мир, 1975. 76. Эйккофф П. Основы идентификации систем управления. М.: Мир, 1975. 77. Растригин Л.А. Статистические методы поиска. М.: Наука, 1968. 78. Стронгин Р.Г. Численные методы в многоэкстремальных задачах. М.: Наука, 1978. 79. Ту Дж, Гонсалес Р. Принципы распознавания образов. М.: Мир, 1978. 80. Живоглядов В.П. Интегрированные и многоуровневые системы управления производством. Фрунзе: Илим, 1980. 81. Иванов А.З., Круг Г.К., Филаретов Г.Ф. Статистические методы в инженерных исследованиях. Построение регрессионных моделей. М.: Московский энергетический институт, 1979. 82. Голикова Т.И., Панченко Л.А., Фридман М.З. Каталог планов второго порядка. М.: МГУ, 1974. 83. Омату С., Халид М., Юсоф Р. Нейроуправление и его приложения. Кн.2 / Общая ред. А.И.Галушкина. М.: ИРПЖР, 2000. 84. Гаврилов А.И. Нейросетевая реализация процедуры идентификации динамических систем // Автоматизация и современные технологии. 2002. № 3. С. 22-25. 85. Пападимитриу Х., Стайглиу К. Кимбинаторная оптимизация. Алгоритмы и сложность. М.: Мир, 1985. 125
86. Кауфман А.А, Харламвович Г.Д. Технология коксохимического производства. Екатеринбург: ВУХИН-НКА, 2005. 87. Техника и технология обогащения углей / Под ред. В.А. Чантурия, А.Р. Молявко, М.: Наука, 1995. 88. Берт Р.О. Технология гравитационного обогащения. М.: Недра, 1990. 89. Справочник по обогащению углей / Под ред. И.С.Благова, А.М.Коткина, Л.С.Зарубина. М.: Недра, 1984. 90. Фоменко Т.Г., Бутовецкий В.С.. Погарцева Е.М. Технология обогащения углей: Справочное пособие. М.: Энегоатомиздат, 1985. 91. Шохин В.Н., Лопатин А.Г. Гравитационные методы обогащения. М.: Недра, 1993. 92. Самылин Н. А. Технология обогащения угля гидравлической отсадкой. - М.: Недра, 1967. 93. Самылин Н.А., Золотко А.А., Починок В.В. Отсадка. М.: Недра, 1976. 94. Козин В.З., Тихонов О.Н. Опробование, контроль и автоматизация обогатительных процессов. М.: Недра, 1990. 95. Власов К.П. Основы автоматического управления технологическими процессами обогащения угля.- М.: Недра, 1985. 96. Власов К.П., Лехциер Л.Р. Автоматическое управление процессами отсадки угля. М.: Недра, 1978. 97. Троп А.Е., Козин В.З., Аршинский В.М. Автоматизация обогатительных фабрик.- М.: Недра. 1970. 98. Лехциер О.Л., Моделирование процесса отсадки угля и синтез систем автоматического управления отсадочными машинами. Луганск: Издательство СНУ, 2008. 99. Белецкий В.С., Елишевич А.Т. Некоторые новые направления в развитии управления отсадкой / Политехн. ин-т - Донецк, 1982. 15 с. – Рус. - Деп. в ЦНИЭИуголь, 1982, № 2514. 100. Разработка унифицированный технических средств и систем комплексной автоматизации и автоматики оборудования гравитационных процессов углеобогащения на базе микропроцессорной техники ОКА 3/ Отчет о НИОКР институт Гипроуглеавтоматизация. Научн. рук. Синепольский В.С., отв.исп. Михайлов А.М., Склифус Ю.Г. № госрег. 0193V020939 ТО№1478, 22.12.1985. - 14 с. 101. Нечеткое управление технологическим процессом обогащения угля методом отсадки / Е.П. Бакулин, В.Ф. Головин, Ю.Н. Золотухин, А.А. Нестеров, В.Н. Чайко, А.П. Ян. В кн. Теория и приложения искусственных нейронных сетей. Тезисы докладов III ежегодного рабочего семинара-совещания. Снежинск, 1-3 апреля 1998 г. Изд. РФЯЦ - ВНИИТФ, 1998, С. 8 - 9. 102. Бакулин Е.П., Головин В.Ф., Золотухин Ю.Н. и др. Нечеткое управление технологическим процессом обогащения угля 126
методом отсадки // Труды шестого Международного семинара "Распределенная обработка информации. РОИ-98". Новосибирск. 1998. 103. Бакулин Е.П., Головин В.Ф., Золотухин Ю.Н. и др. Нечеткое управление технологическим процессом обогащения угля методом отсадки // URL http://www.idisys.iae.nsk.su/ref_98/folder5/docl5.html 104. Мешалкин В.П., Усков А.А. Автоматизация технологического процесса обогащения угля с использованием нечетко-логических регуляторов // Химическая технология. 2005. № 7. С. 39 – 42. 105. Лященко П.В. Гравитационные методы обогащения. М.: Гостоп техиздат, 1940. 106. Майер Ф.В. Основы потенциальной теории процесса отсадки. В кн.: «VII Международный конгресс по обогащению руд». М.: Недра, 1964. 107. Власов К.П., Рафалес-Колбатиков Э.Э., Фатеев В.Н. Об одном классе математических моделей процесса отсадки угля // Известия вузов. Горный журнал. №11. –М.: 1978. -С. 155-160. 108. Лехциер О.Л. Система ситуационного управления с экспертной базой знаний процессом отсадки угля. Дисс. Кандидата техн. наук. Донецк: «Донецкий национальный технический университет», 2007. 109. Лехциер О.Л. Имитационная динамическая модель отсадочной машины // Вiсник Схiдноукраiнського нацiонального унiверситета iм В. Даля. 2005. № 3. С. 130-140. 110. Власов К.П. Технологические основы автоматического управления основными процессами на углеобогатительных фабриках. Дисс. докт. техн. наук: 05.15.08. – Харьков, 1978. - 250 с. 111. Автоматическая оптимизация процессов обогащения как экстремальная задача. Автоматизация и автоматизированные системы управления технологическими процессами на угольных предприятиях / Труды института Гипроуглеавтоматизация. Руководители Синепольский В.С., Ульшин В.А. Выпуск 21. М.:1976. – 191с. 112. Основные принципы создания АСУ ТП углеобогащения. Автоматизированные системы управления технологическими процессами на угольных предприятиях / Труды института Гипроуглеавтоматизация. Руководители Синепольский В.С., Ульшин С.А. 1979. Выпуск 32. М., 1979, – 112 с. 113. Лехциер О.Л., Усков А.А., Интеллектуальная нечеткая система управления технологическим процессом обогащения угля// Приборы и системы. Управление, контроль, диагностика, №10. М.: МПП, - 2004. - С. 8-12. 114. Усков А.А., Лехциер О.Л. Оптимизация процесса отсадки угля при управлении интеллектуальной нечеткой системой// Вісник 127
СНУ ім. В.Даля. Науковий журнал. №8 (78). Видавн. СНУ ім. В.Даля, Луганськ. – 2004. С. 145-150. 115. Котельников С.А. Гибридная полиномиально-радиальнобазисная нейронная сеть // Информационные технологии моделирования и управления. 2007. № 5 (39). Воронеж: Научная книга, 2007. 116. Котельников С.А., Усков А.А. Гибридный нейросетевой алгоритм построения аппроксимационных моделей сложных систем // Программные продукты и системы. 2007. № 3. С. 63-64. 117. Котельников С.А., Усков А.А. Гибридный нейросетевой алгоритм построения аппроксимационных моделей экономических процессов / Материалы Всесроссийской научнометодической конференции «Применение современных информационных технологий в подготовке специалистов по прикладной информатике». Смоленск: СГУ, 2007. С. 46-48. 118. Котельников С.А., Усков А.А. Модели сложных динамических систем на основе аппроксимации весовых функций / Сборник материалов 6-го регионального межвузовского научнопрактического семинара ―Актуальные вопросы современной теории и практики управления‖. Смоленск: Смоленский филиал Российского университета кооперации, 2007. С. 23-31. 119. Котельников С.А., Усков А.А. Полиномиальнорадиальнобазисная нейронная сеть / Сборник материалов 6-го регионального межвузовского научно-практического семинара ―Актуальные вопросы современной теории и практики управления‖. Смоленск: Смоленский филиал Российского университета кооперации, 2007. С. 31-36. 120. Котельников С.А., Усков А.А. Статистическая оценка точности нейросетевых моделей / Сборник материалов 6-го регионального межвузовского научно-практического семинара ―Актуальные вопросы современной теории и практики управления‖. Смоленск: Смоленский филиал Российского университета кооперации, 2007. С. 37-42. 121. Котельников С.А., Усков А.А. Идентификация сложных систем с помощью полиномиально-радиальнобазисной нейронной сети / Материалы XIII Кирилло-Мифодиевские чтений ―Актуальные проблемы экономики и информационных технологий‖. Смоленск: Универсум, СГУ, 2008. С. 129-134. 122. Котельников С.А., Усков А.А. Интервальные оценки точности нейросетевых моделей / Материалы XIII Кирилло-Мифодиевские чтений ―Актуальные проблемы экономики и информационных технологий‖. Смоленск: Универсум, СГУ, 2008. С. 134-136. 123. Котельников С.А., Усков А.А. Метод определения точности нейросетевого моделирования. Инновационные технологии в экономике, управлении и образовании / Материалы международной научно-практической конференции, посвященной 95-летию Российского университета кооперации ―Инновационные 128
технологии в экономике, управлении и образовании‖. – М.: Российский университет кооперации, 2008. С. 96-98. 124. Котельников С.А. Радиально-базисная нейронная сеть с полиномиальной коррекцией. Информационные технологии в экономике и образовании / Материалы международной научно-практической конференции студентов и аспирантов, посвященной 95-летию Российского университета кооперации. – М.: Российский университет кооперации, 2008. С. 75-76. 125. Котельников С.А., Усков А.А. Методика определения точности нейросетевого моделирования // Программные продукты и системы. 2008. № 2. С. 63-65. 126. Котельников С.А., Усков А.А. Нейросетевой алгоритм идентификации сложных объектов управления // Приборы и системы. Управление, контроль, диагностика. 2008. № 11. С. 1518.
129
СОДЕРЖАНИЕ ВВЕДЕНИЕ .................................................................................................. 3 1 СОСТОЯНИЕ НАУЧНЫХ ИССЛЕДОВАНИЙ В ОБЛАСТИ МЕТОДОВ ФУНКЦИОНАЛЬНОЙ ИДЕНТИФИКАЦИИ СЛОЖНЫХ ОБЪЕКТОВ .................................................................................................. 6 1.1 Задачи функциональной идентификации ........................................ 6 1.2 Классические методы идентификации ............................................ 8 1.3 Непараметрические методы идентификации ................................ 14 1.4 Нейросетевые методы идентификации ......................................... 19 1.5 Конкретизация задач исследования ............................................... 28 1.6 Выводы по главе .............................................................................. 30 2 МОДЕЛИ СТАТИЧЕСКИХ ОБЪЕКТОВ НА ОСНОВЕ ОБОБЩЕННО-РЕГРЕССИОННЫХ НЕЙРОННЫХ СЕТЕЙ С ПОЛИНОМИАЛЬНОЙ КОРРЕКЦИЕЙ............................................... 32 2.1 Обобщенно-регрессионная нейронная сеть с полиномиальной коррекцией ............................................................................................. 32 2.2 Численное исследование обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией .................................................. 40 2.3 Аналитическое исследование свойств обобщенно-регрессионных нейронных сеть с полиномиальной коррекцией ................................ 47 2.4 Статистическая оценка ошибки моделирования с помощью обобщенно-регрессионных нейронных сеть с полиномиальной коррекцией ............................................................................................. 49 2.5 Планирование эксперимента для обучения обобщеннорегрессионных нейронных сетей с полиномиальной коррекцией .... 54 2.6 Выводы по главе .............................................................................. 63 3 МОДЕЛИ ДИНАМИЧЕСКИХ ОБЪЕКТОВ НА ОСНОВЕ ОБОБЩЕННО-РЕГРЕССИОННЫХ НЕЙРОННЫХ СЕТЕЙ С ПОЛИНОМИАЛЬНОЙ КОРРЕКЦИЕЙ .................................................. 64 3.1 Обобщенная нейросетевая модель динамического объекта ........ 64 3.2 Модели на основе аппроксимации разностного уравнения ........ 66 3.2.1 Подход к построению модели на основе аппроксимации разностного уравнения ..................................................................... 66 3.2.2 Примеры применения алгоритма на основе аппроксимации разностного уравнения ..................................................................... 69 3.3. Модели на основе аппроксимации весовой функции ................. 75 3.3.1 Подход к построению модели на основе аппроксимации весовой функции ............................................................................... 75 3.3.2 Численное исследование алгоритма идентификации на основе аппроксимации весовой функции ....................................... 84 3.4 Выводы по главе .............................................................................. 85 4 ПРИМЕНЕНИЕ ОБОБЩЕННО-РЕГРЕССИОННЫХ НЕЙРОННЫХ СЕТЕЙ С ПОЛИНОМИАЛЬНОЙ КОРРЕКЦИЕЙ ДЛЯ МОДЕЛИРОВАНИЯ ТЕХНОЛОГИЧЕСКОГО ПРОЦЕССА ОБОГАЩЕНИЯ УГЛЯ МЕТОДОМ ГИДРАВЛИЧЕСКОЙ ОТСАДКИ.... 86 130
4.1 Технологический процесс обогащения угля методом гидравлической отсадки ....................................................................... 86 4.2 Моделирование процесса гидравлической отсадки ..................... 91 4.2.1 Существующие модели гидравлической отсадки ................. 91 4.2.2 Модель отсадки на основе обобщенно-регрессионных нейронных сетей с полиномиальной коррекцией ........................ 101 4.3 Системы автоматического управления отсадочной машиной .. 106 4.3.1 Существующие системы автоматического управления гидравлической отсадкой ............................................................... 106 4.3.2 Система адаптивного нейросетевого управления отсадочной машиной на основе GRNN PC ....................................................... 114 4.4 Выводы по главе ............................................................................ 119 ЗАКЛЮЧЕНИЕ ........................................................................................ 120 СПИСОК ЛИТЕРАТУРЫ ....................................................................... 122
131
Усков Андрей Александрович Котельников Сергей Александрович Грубник Елена Михайловна Лаврушин Владимир Михайлович
ГИБРИДНЫЕ НЕЙРОСЕТЕВЫЕ МЕТОДЫ МОДЕЛИРОВАНИЯ СЛОЖНЫХ ОБЪЕКТОВ Монография
Компьютерная верстка: Кондратова Н.В.
ISBN 978-5-91805-019-4
Подписано в печать 17.04.2011 Формат 60x84 1/16. Печать цифровая Печ. л. 8,25. Тираж 150 экз. Смоленский филиал АНО ВПО ЦС РФ "Российский университет кооперации" Смоленск, 214018, проспект Гагарина, 58 132