Другие журналы
|
научное издание МГТУ им. Н.Э. БауманаНАУКА и ОБРАЗОВАНИЕИздатель ФГБОУ ВПО "МГТУ им. Н.Э. Баумана". Эл № ФС 77 - 48211. ISSN 1994-0408![]()
Исследование погрешности нейросетевой аппроксимации функции предпочтений
# 03, март 2010 УДК 519.6
МГТУ им. Н.Э. Баумана,
Введение Работа является продолжением серии работ, посвященных адаптивным методам решения непрерывной конечномерной задачи многомерной многокритериальной оптимизации (МКО-задачи), основанным на аппроксимации функции предпочтений лица, принимающего решение (ЛПР) [1]. Работа посвящена одному из методов этого класса – методу, основанному на аппроксимации функции предпочтения ЛПР с помощью многослойных персептронных сетей (MultiLayer Perceptron, MLP-сети), а также с помощью нейронных сетей с радиально-базисными функциями (Radial Basis Function Network, RBF-сети). Отметим, что методологической основой аппроксимации функций указанными сетями являются теоремы об универсальной аппроксимации [2]. В первом разделе работы представлена постановка и метод решения МКО-задачи. Во втором разделе рассматриваются особенности нейросетевой аппроксимации функции предпочтения ЛПР. Программная реализация адаптивного метода решения МКО-задачи приводится в третьем разделе. Четвертый раздел посвящен исследованию эффективности нейросетевой аппроксимации функции предпочтения ЛПР. В заключение сформулированы основные выводы и перспективы ее развития.
Формально непрерывную МКО – задачу можно условно записать в виде
где
Множество достижимости задачи, т.е. множество, в которое векторный критерий оптимальности Рассматривается метод решения поставленной МКО-задачи, который относится к классу прямых адаптивных методов. В этих методах ЛПР выполняет только оценку, например, в терминах «отлично», «очень хорошо», «хорошо» и т.д. предлагаемых программной системой многокритериальной оптимизации (МКО-системой) решений [3].
Метод основан на предположении существования функции предпочтений ЛПР
При этом задача многокритериальной оптимизации сводится к задаче выбора вектора
Отметим, что функция предпочтений ЛПР заранее не известна и может быть приближенно сформирована только в процессе диалога ЛПР с МКО-системой. Предполагается, что при предъявлении ЛПР вектора параметров X, а также соответствующих значений всех критериев оптимальности Задачу (1) решаем методом скалярной свертки. Способ свертки не фиксируется – это может быть аддитивная свертка, мультипликативная свертка, свертка Джоффриона и другие свертки [3].
Обозначим операцию свертки
При каждом фиксированном векторе
В силу ограниченности и замкнутости множества
Если при каждом
В результате МКО-задача сводится к задаче выбора вектора
Поскольку обычно
Заметим, что если используется аддитивная свертка и множество достижимости
Величина
В результате МКО-задача сводится к задаче отыскания вектора
Общая схема рассматриваемого метода является итерационной и состоит из следующих основных этапов.
Этап «разгона» метода. МКО-система некоторым образом (например, случайно) последовательно генерирует 1) решает задачу однокритериальной оптимизации (ОКО-задачу)
2) предъявляет ЛПР найденное решение
3) ЛПР оценивает эти данные и вводит в систему соответствующее значение своей функции предпочтений
Первый этап. На основе всех имеющихся в МКО-системе значений
1) строит функцию
2) отыскивает максимум функции
3) с найденным вектором
ЛПР оценивает указанные данные и вводит в систему соответствующее значение своей функции предпочтений
Второй этап. На основе всех имеющихся в системе значений
2. Особенности нейросетевой аппроксимации функции предпочтения ЛПР Аппроксимация функции предпочтения ЛПР нейронными сетями имеет в работе ту особенность, что процесс обучения нейронных сетей происходит в условиях малой обучающей выборки. Это обстоятельство обусловлено тем, что количество «разгонных» итераций не должно быть слишком большим, иначе ЛПР просто прекратит процесс вычислений, не получив окончательного решения. Как следствие, для аппроксимации функции предпочтения ЛПР в работе используются только двухслойные MLP и RBF нейронные сети, архитектура которых представлена на рисунке 1.
Рис. 1. Архитектура используемых нейронных сетей: (m - 1) - количество входов сети;
Поскольку на компоненты вектора весовых множителей ЛПР в процессе решения МКО–задачи может переоценивать результаты предыдущих итераций, указанные им оценки могут быть противоречивы. Это требует постоянной корректировки обучающих данных. В работе была принята следующая стратегия корректировки.
1) Если для текущего вектора
2) Если для текущего вектора
Рис. 2. К стратегии корректировки обучающей выборки:
3. Программная реализация метода Средствами известного программного комплекса MatLab 7.0 [4] разработана программа PREF-NNW, реализующая рассматриваемый метод решения МКО-задачи. Реализация нейронных сетей выполнена с использованием функций пакета «Neural Network Toolbox». Для обучения MLP–сети использовался один из самых эффективных и одновременно простых методов обучения - модифицированный метод обратного распространения ошибки RPROP (Resilent back PROPagation). Отметим, что этот метод предполагает пакетный режим обучения (batch mode или offline режим), который состоит в том, что корректировка весов нейронной сети производится после обработки всех примеров обучающей выборки (эпохи) [5]. Суть метода, используемого для обучения RBF-сети, состоит в добавлении на каждой итерации в скрытый слой по одному нейрону до тех пор, пока не будет достигнут допустимый уровень ошибки обучения. Максимальное количество нейронов ограничивается размером обучающей выборки. В качестве функции ошибки обучения для обеих сетей использовалась среднеквадратическая ошибка. ОКО-задачи глобальной условной оптимизации (5) и (6) решались методом последовательного квадратичного программирования SQP (Sequential Quadratic Programming), из пакета «Optimization Toolbox» программного комплекса MatLab, в комбинации с методом мультистарта (из 100 случайных начальных точек) [4]. Программа PREF-NNW предоставляет в распоряжение ЛПР механизм просмотра и корректировки сделанных им ранее оценок функции предпочтений. Например, ЛПР может понизить или повысить свои оценки, «откатиться» на заданное количество итераций и пр. Для интерактивного взаимодействия программы PREF-NNW с ЛПР реализован графический интерфейс.
4. Исследование эффективности метода С помощью программы PREF-NNW выполнено исследование погрешности нейросетевой аппроксимации функции предпочтений ЛПР для двух двумерных двухкритериальных задач и одной трехмерной трехкритериальной задачи. В качестве критерия останова было выбрано условие достижения максимума функции предпочтения с максимальной оценкой равной 9. В качестве допустимого уровня ошибки обучения во всех случаях использовалась величина 0.1.
Исследование вышеперечисленных МКО–задач проводилось на MLP-сетях с тремя, пятью, семью, девятью нейронами в скрытом слое и RBF–сети, которые далее обозначаются NN_MLP3, NN_MLP5, NN_MLP7, NN_MLP9 и NN_RBF, соответственно. Для каждой двухкритериальной и трехкритериальной задачи использовалось три (k=3) и пять (k=5) «разгонных» векторов
Напомним, что для двухкритериальной задачи вектор Приняты следующие обозначения: · NN – вариант исследуемой сети (например, NN_MLP3, NN_ MLP5 и т.д.); · I – количество итераций;
·
·
·
·
·
·
·
·
·
·
где i – номер итерации,
·
·
где i – номер итерации, j – номер примера из обучающей выборки,
4.1. Двухкритериальная задача 1:
Заметим, что задача имеет выпуклый фронт Парето (рис. 3).
Рис. 3. Множество достижимости
В качестве оптимальных решений ЛПР рассматривал те решения, при которых значения критериев оптимальности принадлежат следующим диапазонам:
Результаты исследования задачи 1 сведены в таблицы 1, 2, которые иллюстрируют рисунки 4, 5. На рисунках 4, 5 и аналогичных последующих рисунках, если не оговорено противное, приняты следующие обозначения: число рядом с графиком – номер итерации; темный кружок соответствует значению функции предпочтения ЛПР на конечной итерации; белый кружок – значению функции предпочтения ЛПР на промежуточных итерациях, в число которых входят и «разгонные» итерации.
Таблица 1. Результаты исследования задачи 1 при k=3
Таблица 2. Результаты исследования задачи 1 при k=5
Рис. 4. Результаты исследования задачи 1: MLP-сеть c 5 нейронами; k=3
Рис. 5. Результаты исследования задачи 1: MLP-сеть с 9 нейронами; k=3 Результаты исследования показывают следующее.
1) Максимальное количество итераций, которое потребовалось для решения задачи 1 при трех «разгонных» векторах
2) Для MLP-сети при k=3 «разгонных» векторах величина 3) При решении задачи 1 на MLP–сетях с числом нейронов в скрытом слое больше 5 начинает сказываться эффект «переобучения» нейронной сети (рис. 5). 4.2. Двухкритериальная задача 2:
Задача представляет собой одну из задач стандартного тестового набора для многокритериальной оптимизации [6]. Множество достижимости этой задачи имеет сложную структуру, фронт Парето невыпуклый (рис. 6). В качестве оптимальных решений в задаче 2 ЛПР рассматривал значения критериев, принадлежащие следующим диапазонам:
Рис. 6. Множество достижимости
Аналогично результатам, полученным в задаче 1, результаты исследования задачи 2 сведены в таблицы 3, 4, которые иллюстрируют рисунки 7, 8.
Таблица 3. Результаты исследования задачи 2 при k=3
Таблица 4. Результаты исследования задачи 2 при k=5
Рис. 7. Результаты исследования задачи 2: MLP-сеть c 3 нейронами; k=3
Для задачи 2 были проведены дополнительные исследования, в которых оценивалось влияние «разгонных» векторов
Рис. 8. Результаты исследования задачи 2: RBF-сеть; k=3; итерации ╧ 5
Исследование показало, что для рассмотренного набора векторов
Таблица 5. Влияние «разгонных» векторов в задаче 2
В целом, по задаче 2 можно сформулировать следующие выводы. 1) Максимальное количество итераций, которое потребовалось для решения задачи при трех «разгонных» векторах равно 7, при пяти «разгонных» векторах – 15. Увеличение количества этих векторов не всегда улучшает результат решения задачи 2. 2) Большая погрешность аппроксимации RBF–сети связана с плохими экстраполяционными свойствами этих сетей (рис. 8). 4.3. Трехкритериальная задача 3:
Отметим, что данная задача имеет выпуклый фронт Парето. В данной задаче в качестве оптимальных решений ЛПР рассматривал значения критериев оптимальности, принадлежащие следующим диапазонам:
Результаты исследования сведены в таблицы 6 и 7. Линии уровня аппроксимирующих функций представлены на соответствующих рисунках 9, 10. Результаты исследования задачи 3 показывают следующее. 1) Максимальное количество итераций, которое потребовалось для решения задачи 3 при трех «разгонных» векторах равно 13, при пяти векторах – 17. 2) При пяти «разгонных» векторах максимальная ошибка аппроксимации достигнута на RBF–сети, что, как было отмечено выше, связано с плохими экстраполяционными свойствами этих сетей. 3) Решения задачи 3 на MLP–сетях потребовало больше итераций, чем на RBF-сети (рис. 9, 10).
Таблица 6. Результаты исследования задачи 3 при
Таблица 7. Результаты исследования задачи 3 при
Рис. 9. Результаты исследования задачи 3: RBF–сеть; k=3
Заключение Исследование погрешности нейросетевой аппроксимации функции предпочтений ЛПР показало, что для решения двухкритериальной задачи наиболее подходящими являются MLP–сети с тремя и пятью нейронами в скрытом слое, а для трехкритериальной задачи – MLP–сеть с пятью нейронами. Для двухкритериальной задачи достаточным оказалось три «разгонных» вектора, для трехкритериальной задачи – пять векторов. Все сети, обеспечили нахождение максимума функции предпочтений. Максимальная ошибка аппроксимации была получена на RBF–сети, что связано с плохими экстраполяционными свойствами этих сетей.
Рис. 10. Результаты исследования задачи 3: MLP–сеть с 7 нейронами; k=5
В развитии работы предполагается сравнить эффективность нейросетевой аппроксимации функции предпочтений с эффективностью аппроксимации этой функции симплекс – планами, регрессионными планами второго порядка, а также нечеткими функциями. Кроме того, планируется сравнить эффективность рассматриваемого метода с эффективностью других адаптивных методов решения МКО-задачи (например, метода, реализованного в известной МКО-системе NIMBUS [7]), а также провести апробацию метода на реальной, практически значимой МКО–задаче. Автор сердечно благодарит своего научного руководителя д.ф.-м.н., профессора МГТУ им. Н.Э. Баумана Карпенко А.П. за всестороннюю помощь и поддержку в процессе работы.
Литература 1. Карпенко, А.П., Федорук, В.Г. Адаптивные методы решения задачи многокритериальной оптимизации, использующие аппроксимацию функции предпочтений лица, принимающего решения // Наука и образование: электронное научно-техническое издание, 2008, 8, (http://technomag.edu.ru/doc/101804.html). 2. Хайкин, С. Нейронные сети. Полный курс.– М.: ООО «И.Д.Вильямс», 2008.- 415 с. 3. Лотов, А.В. Введение в экономико-математическое моделирование. – М.: Наука, 1984.- 392 с. 4. The MathWorks. Documentation. Documentation for MathWorks products, R2009b. Режим доступа: http://www.mathworks.com/access/helpdesk/help/helpdesk.html, свободный. 5. Riedmilller, M. and Braun, H. A direct adaptive method for faster backpropagation learning: The RPROP algorithm. In Proceedings of the IEEE International Conference on Neural Networks 1993 (ICNN 93), San Francisco – USA, 1993, p. 586-591. 6. Лобарева, И.Ф. и др. Многоцелевая оптимизация формы лопасти гидротурбины // Вычислительные технологии, Том 11, ╧5, 2006, С.63 – 76. 7. Карпенко, А.П., Федорук, В.Г. Обзор программных систем многокритериальной оптимизации. Отечественные системы //Информационные технологии, 2008, ╧1, С. 15-22. Публикации с ключевыми словами: аппроксимация, многокритериальная оптимизация, нейронные сети Публикации со словами: аппроксимация, многокритериальная оптимизация, нейронные сети Смотри также:
Тематические рубрики: Поделиться:
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|