Другие журналы
|
научное издание МГТУ им. Н.Э. БауманаНАУКА и ОБРАЗОВАНИЕИздатель ФГБОУ ВПО "МГТУ им. Н.Э. Баумана". Эл № ФС 77 - 48211. ISSN 1994-0408![]()
Исследование погрешности аппроксимации многомерной функции с помощью нейронных сетей с радиальными базисными функциями
#4 2008 УДК 519.6
Мухлисуллина Д.Т. (студентка 5 курса МГТУ им. Н.Э.Баумана, E-mail: D.Mukhlisullina@mail.ru)
Введение
В
большинстве современных технических задач требуется обеспечить оптимальность
объекта проектирования одновременно по нескольким критериям оптимальности
Будем
называть скалярные критерии оптимальности Задачу многокритериальной оптимизации будем условно записывать в виде
где Еще сравнительно недавно считалось, что проблема многих критериев является некоторым сравнительно небольшим разделом теории оптимизации, задачей которого является сведение нескольких критериев выбора решения к единственному критерию. Проблема такого сведения решалась методами теорией многокритериальной полезности (Multi-Attribute Utility Theory, MAUT) [1,2]. В рамках MAUT предлагается выразить предпочтения Лица, Принимающего Решение (ЛПР), в виде функции полезности (ценности), аргументами которой являются рассматриваемые критерии, а затем найти допустимое решение, максимизирующее значение этой функции. Поскольку использовать теоретические построения MAUT на практике довольно затруднительно, при решении практических задач обычно просто задавали веса критериев, которые должны были отражать их важность. Далее взвешенные критерии (или, в самом сложном случае, некоторые функции от критериев) складывались, и получалась некоторая новая функция, которая использовалась в качестве единственного критерия оптимальности. Метод STEM [1,2] базировался на принципиально иной основе. В этом методе были реализована прямая итеративная человеко-машинная процедура поиска решения, соответствующего предпочтениям ЛПР (STEp Method). Основной принцип построения итеративных процедур заключается в выделение на каждой итерации двух этапов: этапа вычислений, осуществляемых компьютером, и этапа, на котором ЛПР выражает свои предпочтения. На первом этапе обычно компьютер решает некоторую задачу оптимизации, которая формируется на основе информации о предпочтениях ЛПР, полученной на предыдущих итерациях. На втором этапе ЛПР уточняет информацию о предпочтениях на основе анализа результатов расчета.
Задача,
рассматриваемая в данной работе, решается в связи с проблемой
аппроксимации «функции предпочтений» ЛПР при решении задачи многокритериальной
оптимизации с помощью прямой итеративной человеко-машинной процедуры [3].
Предполагается, что функция предпочтений ЛПР ψ(x)
определенна на множестве
Ψ: X
При этом задача многокритериальной оптимизации
сводится к задаче выбора вектора
Обозначим
операцию свертки частных критериев в скалярный критерий
Таким
образом, при каждом фиксированном векторе
Отметим,
что в силу ограниченности и замкнутости множества
Если
при каждом
Ψ:
Λ
В
результате задача многокритериальной оптимизации сводится к задаче выбора вектора
Величина
При аппроксимации функции предпочтений ЛПР с помощью нейронных сетей вместо
задачи (3) рассматривается задача отыскания вектора
1. Нейронные сети с радиальными базисными функциями и их аппроксимирующие свойства
Искусственный
нейрон (далее - нейрон) обычно определяется как элемент, имеющий некоторое
количество входов (синапсов), на которые поступают входные сигналы
Рис. 1. К определению искусственного нейрона.
Функция состояния нейрона
1.
Скалярное
произведение векторов
2.
Расстояние
между векторами
где Искусственный нейрон с функцией состояния (5) называется персептроном, с функцией состояния (6) – нейроном с радиальной базисной функцией (RBF). Часто функция состояния и функция активации объединяются в одну (передаточную) функцию. Далее мы будем следовать этому соглашению. Нейронные сети (НС) образуются путем соединения синапсов одних нейронов с аксонами других. Важно, что возможно соединение многих синапсов нейронов с одним аксоном. Как правило, вид передаточных функций всех нейронов в сети фиксирован (используются однородные сети), а веса и, возможно, параметры передаточных функций могут изменяться. Существуют НС с множеством различных топологий. Приведем классификацию основных многослойных сетей: · сети без обратных связей (сети прямого распространения): многослойные персептроны; многослойные сети с радиальными базисными функциями; · сети с обратными связями (рекуррентные сети): соревновательные сети; сети Кохонена; сети Хопфилда; сети Элмана; сети Жордана. Минимальной реализацией нейронной сети является двухслойная НС, состоящая из входного (распределительного), промежуточного (скрытого) и выходного слоя (при подсчете числа слоев входной слой обычно не учитывается) - см. Рис. 2.
Обозначим выходы нейронов скрытого слоя
Рис.
2. Двухслойная
сеть без обратных связей:
Здесь Нейронная сеть на основе RBF-нейронов является частным случаем двухслойной сети прямого распространения и моделирует произвольную нелинейную функцию с помощью одного промежуточного слоя. Выходной слой сети строится на основе нейронов с линейными передаточными функциями. Последнее обстоятельство позволяет не обучать нейроны выходного слоя.
Рассмотрим случай, когда число элементов в обучающей выборке относительно
невелико (не превышает нескольких сотен). При этом в RBF-сети
каждому вектору
где
В
данной работе предполагается, что величины
Здесь
Решение СЛАУ (8) сводится к обращению
Если величины Аппроксимация функций нейронными сетями основана на следующей теореме.
Теорема. Пусть множество
2. Тестовая функций и область планирования эксперимента Пусть
Выберем
коэффициенты
Перейдем к стандартным факторам
Область планирования эксперимента при этом есть гиперкуб
В
качестве желаемой функции будем использовать функцию 3. Организация эксперимента
Для
оценки точности аппроксимации будем использовать Для оценки точности экстраполяции будем использовать следующие области планирования эксперимента:
Количество контрольных точек в этих областях обозначим
Так же, как при оценке точности аппроксимации, для проверки точности
экстраполяции будем использовать случайные точки, равномерно распределенные в
гиперкубе Введем в рассмотрение также следующие множества контрольных точек:
·
множество
точек
·
аналогичное
множество точек
·
аналогичное
множество точек
·
аналогичное
множество точек
Количества точек множества Построение аппроксимирующей функции будем выполнять на основе центральных композиционных планов (ЦКП), которые являются не насыщенными планами и состоят из трех частей [7].
1)
Основа плана или ядро плана – полный факторный эксперимент ПФЭ
2)
«Звездные» точки (2m
штук),
расположенные на координатных осях на расстоянии
где
3) Центральная точка.
Заметим, что Ниже перечисляются используемые планы:
1)
m=2 (см. Табл. 1). Ядро плана – план
ПФЭ
Таблица
1.
План на основе плана ПФЭ
2)
m=3 (см. Табл.
2). Ядро плана – план ПФЭ
Таблица 2. План на основе
плана ПФЭ
3)
m=4 (см. Табл.
3). Ядро плана – план ПФЭ
4)
m=5. Ядро плана –
план ДФЭ
5)
m=6. Ядро плана –
план ДФЭ
6)
m=7. Ядро плана –
план ДФЭ
Таблица
3.
План на основе плана ПФЭ
7)
m=8. Ядро плана –
план ДФЭ
8)
m=9. Ядро плана –
план ДФЭ
9)
m=10. Ядро плана
– план ДФЭ
4. Исследование погрешности аппроксимации Исследование выполнены с помощью программы MathCAD. На приведенных ниже графиках графики синего цвета – регрессии 2-го порядка, полученные с помощью функции regress() системы MathCAD.
Рис.
3.
Максимальная относительная погрешность аппроксимации, как функция размерности
задачи
Рис.
4.
Математическое ожидание относительной погрешности аппроксимации, как функция
размерности задачи
Рис.
5.
Среднее квадратичное отклонение относительной погрешности аппроксимации, как
функция размерности задачи
Рис.
6.
Относительная погрешность аппроксимации, как функция номера опыта (множество
Рис.
7.
Плотность распределения относительной погрешности аппроксимации для множества
5. Исследование точности экстраполяции
Исследование
точности экстраполяции выполняется по той же схеме, что и исследование точности
аппроксимации. Отличие состоит в том, что вычисляется только оценка
максимальной погрешности экстраполяции и эти вычисления производятся на
множествах
Во
всех случаях множество точек
Приняты
следующие обозначения: EpsMax(B/A)
– максимальная относительная погрешность экстраполяции на множестве Таблица 4. Результаты исследования точности экстраполяции
Рис.
8.
Максимальная погрешность экстраполяции на множестве
Рис.
9.
Максимальной погрешности экстраполяции на множестве
Рис.
10.
Максимальной погрешности экстраполяции на множестве
6. Исследование чувствительности к изменению количества точек в плане
Для
·
(
·
Оценка
относительной погрешности аппроксимации
·
(
·
Оценка
относительной погрешности аппроксимации · …
·
(
·
Оценка
относительной погрешности аппроксимации Здесь K - количество точек, удаленных из соответствующего плана.
Рис. 11. Максимальная относительная погрешность аппроксимации
7. Заключение Из проведенного исследования можно сделать вывод, что аппроксимирующие и экстраполирующие свойства нейронных сетей с радиальными базисными функциями существенно меняются с изменением количества точек в плане. На основе приведенных результатов можно утверждать, что эта зависимость является примерно квадратичной. Литература 1. R.Benayuon, J.de Montgolfier, J.Terny, and O.I.Larichev. Linear Programming with Multiple Objective Functions: Step Method (STEM). Mathematical Programming, 1971, V. 1, No. 3, 366-375 с. 2. Р.Бенайюн, О.И.Ларичев, Ж.Монгольфье, Ж.Терни. Линейное программирование при многих критериях. Автоматика и телемеханика, 1971, ╧ 8. 3. Карпенко А.П., Федорук В.Г. Адаптивные методы решения задачи многокритериальной оптимизации. 1. Методы на основе планов первого порядка. //“Наука и образование: электронное научное издание. Инженерное образование", www.technomag.edu.ru (╧ Гос. регистрации 0420700025, ЭЛ ╧ ФС 77-305 69), март, 2008, ╧0420800025/0007. 4. Карпенко А.П., Федорук В.Г. Адаптивные методы решения задачи многокритериальной оптимизации. 2. Методы на основе планов второго порядка. //"Наука и образование: электронное научное издание. Инженерное образование", www.technomag.edu.ru (╧ Гос. регистрации 0420700025, ЭЛ ╧ ФС 77-305 69), март, 2008, ╧0420800025/0008. 5. Черноруцкий И.Г. Методы принятия решений. – СПб.: БХВ-Петербург. 2005. – 416 с. 6. Ларичев О.И. теория и методы принятия решения. -М.: Университетская книга, Логос, 2006. -392 с. 7. Загоруйко Н.Г. Прикладные методы анализа данных и знаний, Новосибирск, Изд-во Ин-та математики, 1999 г.-270 с. 8. Грачев Ю.П., Плаксин Ю.М. Математические методы планирования эксперимента. –М.: Издательство ДеЛипринт, 2005. - 296 с.
Публикации с ключевыми словами: многокритериальная оптимизация Публикации со словами: многокритериальная оптимизация Смотри также:
Тематические рубрики: Поделиться:
|
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|