Другие журналы

научное издание МГТУ им. Н.Э. Баумана

НАУКА и ОБРАЗОВАНИЕ

Издатель ФГБОУ ВПО "МГТУ им. Н.Э. Баумана". Эл № ФС 77 - 48211.  ISSN 1994-0408

Интерактивные методы решения задачи многокритериальной оптимизации. Обзор

# 04, апрель 2013
DOI: 10.7463/0413.0547747
Файл статьи: Шварц_P.pdf (329.48Кб)
автор: Шварц Д. Т.

УДК 519.6

Россия, МГТУ им. Н.Э. Баумана

d.mukhlisullina@gmail.com

 

Введение

Большинство современных задач проектирования являются многокритериальными. С развитием производства и техники число таких задач постоянно растёт. Например, в компаниях НПО «Сатурн», ОКБ «Сухой», ООО «Ладуга», Canon, BMW, Fiat, Toyota, Piaggio процесс проектирования технических объектов и систем неразрывно связан с применением методов решения задачи многокритериальной оптимизации (МКО-задачи).

Методы решения МКО-задачи чрезвычайно разнообразны. Существует несколько способов классификации этих методов [12]. Приведем классификацию, основанную на содержании и форме использования дополнительной информации о предпочтениях ЛПР [2], в соответствии с которой выделяют следующие классы методов:

·методы, не учитывающие предпочтения ЛПР (no-preferencemethods);

·апостериорныеметоды (a posteriori methods);

·априорныеметоды (a priori methods);

·интерактивныеметоды (interactive methods).

Методы каждого из этих классов имеют свои достоинства и ни один из них не свободен от недостатков. Методы могут принадлежать различным классам, также возможны различные комбинации указанных методов.

Методы, не учитывающие предпочтения ЛПР. Методы, принадлежащие к данному классу, не предполагают учета в той или иной форме информации о предпочтениях ЛПР. Поэтому задача состоит в поиске некоторого компромиссного решения, обычно в «центральной части» фронта Парето. В качестве примеров приведем метод глобального критерия и метод нейтрального компромиссного решения [3].

Апостериорные методы предполагают внесение ЛПР в МКО-систему информации о своих предпочтениях после того, как получено некоторое множество недоминируемых решений. В этой связи все методы данного класса на первом этапе строят аппроксимацию множества Парето. В работе [4] выполнен обзор современных методов Парето-аппроксимации. Обычно для аппроксимации фронта Парето используют эволюционные алгоритмы [5]. В работе [6] выполнен обзор основных направлений развития эволюционных алгоритмов, призванных повысить их эффективность в задачах оптимизации с большим числом критериев.

Основной недостаток апостериорных методов заключается в том, что равномерная аппроксимация множества и/или фронта Парето требует больших вычислительных затрат. Кроме того, с повышением точности аппроксимации, которую достигают увеличением числа недоминируемых решений, задача выбора единственного решения из представленного множества становится более трудоемкой для ЛПР. Наконец, возникает самостоятельная проблема визуализации фронта Парето для задач с числом критериев большим двух [7].

Априорные методы призваны преодолеть основной недостаток апостериорных методов, связанный с построением всего множества достижимости. Здесь предполагают, что ЛПР вносит дополнительную информацию о своих предпочтениях до начала решения задачи, априори. Чаще всего эту информацию формализуют таким образом, чтобы свести многокритериальную задачу к однокритериальной. В качестве примеров можно привести метод скалярной свертки, метод ограничений, лексикографического упорядочения и целевого программирования [8910].

На практике априорные методы в «чистом» виде используются не часто, в связи с тем, что зачастую ЛПР очень сложно сформулировать свои предпочтения до начала решения задача.

Интерактивные методы. Методы данного класса состоят из совокупности итераций, каждая из которых включает в себя этап анализа, выполняемый ЛПР, и этап расчета, выполняемый МКО-системой. По характеру информации, получаемой МКО-системой от ЛПР на этапе анализа, можно выделить классы интерактивных методов [2], в которых ЛПР

·непосредственно назначает весовые коэффициенты частных критериев оптимальности;

·накладывает ограничения на значения частных критериев оптимальности;

·выполняет оценку предлагаемых МКО-системой альтернатив.

В русскоязычной литературе наряду с термином интерактивность методов многокритериальной оптимизации используют термин адаптивность, делая акцент на том, что методы должны гарантировать получение эффективного решения [2].

Основой для развития современных интерактивных методов решения МКО-задачи послужили метод Дайера-Джиоффриона, метод SIGMOP (SequentialInformationGeneratorforMultipleObjectiveProblems), метод Зайонца-Валлениуса [1211].

Одним из современных интерактивных методов многокритериальной оптимизации, который относится к классу методов с применением информации от ЛПР о желаемых уровнях критериев, является метод NIMBUS (NondifferentiableInteractiveMultiobjectiveBundle-basedoptimizationSystem). Этот метод разработан в Хельсинском университете (г. Хельсинки, Финляндия) под руководством профессора К. Миеттинен и др. [12].

Среди интерактивных методов решения МКО-задачи наиболее перспективными являются методы, основанные на оценках решений. В зависимости от того, в какой форме ЛПР производит оценку решений,  к данному классу методов можно отнести

·методы, в которых ЛПР выполняет оценку решений в терминах «отлично», «очень хорошо», «хорошо» и т.д., или методы, основанные на оценках функции предпочтений;

·методы, в которых ЛПР выполняет оценку решений в терминах «лучше», «хуже», «одинаково», или методы, основанные на парном сравнении решений.

Для ЛПР эти формы задания предпочтений являются наиболее простыми и удобными. В последние годы наметились тенденции развития именно этого класса методов, что обусловлено необходимостью активного участия ЛПР в решении сложных современных инженерных задач. Целью данной статьи является обзор новейших интерактивных методов именно этого класса.

В первом разделе представлена постановка МКО-задачи. Во втором и в третьем разделах рассматриваются интерактивные методы, основанные на оценках функции предпочтений, и интерактивные методы, основанные на парном сравнении решений, соответственно. В заключении сформулированы основные выводы.

1.     Постановка МКО-задачи

МКО-задачу рассматриваем в виде

(1)

где    вектор варьируемых параметров;  – ограниченное и замкнутое множество допустимых значений этого вектора;  – векторный критерий оптимальности. ЛПР стремится найти такой вектор  – искомое решение МКО-задачи, который минимизирует на множестве  каждый из частных критериев оптимальности.

Множество, в которое векторный критерий оптимальности отображает множество , обозначим  и назовем критериальным множеством (множеством достижимости).

Также обозначим , и будем писать , если  и среди равенств и неравенств  имеется, хотя бы одно строгое. Вектор  из критериального множества доминирует по Парето вектор  из того же множества, если .

Не формально, множество Парето  поставленной задачи многокритериальной оптимизации можно определить как совокупность векторов , среди которых нет доминируемых. Формально, множество Парето определяют следующим образом:

Если , то будем говорить, что – эффективный по Парето вектор. Множество векторов, принадлежащих множеству Парето, обозначим .

Интерактивные методы решения МКО-задачи основаны на гипотезе существования единственной, неизвестной ЛПР скалярной функции его предпочтений . При этом полагают, что большему значению функции  соответствует более предпочтительное с точки зрения ЛПР решение .

2.     Интерактивные методы, основанные на оценках функции предпочтений ЛПР

Метод FFANN. Первый интерактивный метод многокритериальной оптимизации с использованием нейронных сетей для аппроксимации функции предпочтений ЛПР FFANN (Feed-ForwardArtificialNeuralNetworks, метод с использованием искусственной нейронной сети прямого распространения) был разработан профессором Минге Сан Университета Техаса (г. Сан Антонио, США) и профессорами Антонио Стам и Ральф Штойер Университета штата Джорджия (г. Атланта, США) [13].

В методе FFANN  ЛПР оценивает предоставленные ему решения, задавая конкретные значения своей функции предпочтений по каждому отдельному решению. Для облегчения процедуры оценки, на каждой итерации ему предоставляют вектор надира  которому соответствует значение функции предпочтений , и идеальный вектор  с оценкой .

Структура нейронный сети представлена на рисунке 1. Входами нейронный сети являются компоненты нормализованного вектора частных критериев оптимальности, выходом – значение функции предпочтений. Авторы этого метода провели ряд экспериментов, подтверждающие тот факт, что метод является робастным к выбору архитектуры нейронной сети, точнее говоря, – к числу нейронов в скрытом слое.

 

FFANN.png

 

Рисунок 1 – Архитектура нейронной сети в методе FFANN

 

Метод FFANN состоит из следующих шагов.

Шаг 1. Генерируем s недоминируемых векторов  во множестве допустимых значений . Вычисляем значения соответствующего векторного критерия оптимальности . Инициализируем счетчик числа итераций .

Шаг 2. Предоставляем sзначений векторного критерия оптимальности  совместно с векторами  и  для оценки ЛПР. На основе полученной информации о предпочтениях ЛПР, определяем наилучший вектор , найденный среди всех итераций. Если ЛПР удовлетворяет текущее наилучшее решение, то данное решение ЛПР принимает в качестве решения МКО-задачи и прекращает вычисления.

Шаг 3. Нормализуем компоненты каждого из s критериальных векторов по формуле

 

Шаг 4. После того как ЛПР назначил каждому решению значение своей функции предпочтений, выполняем нормализацию его оценок:

 

Шаг 5. Используя нормализованные векторы  с соответствующими нормализованными оценками выполняем обучение нейронной сети FFANN.

Шаг 6. Используя выходы нейронной сети FFANNдля вычисления значений целевой функции, решаем задачу оптимизации для получения нового вектора решений на текущей h-ой итерации:

 

Шаг 7. Если значение векторного критерия оптимальности  является уникальным, то есть его не предоставляли ЛПР для оценки на предыдущих итерациях, то генерируем новые недоминируемые решения, число которых равно (s-1). В противном случае, игнорируем  и генерируем s новых решений. Переходим на Шаг 2.

Для генерации недоминируемых решений авторы метода предлагают использовать расширенную взвешенную свертку Чебышева (augmentedweightedTchebycheffprogram)

Здесь  малая положительная константа; утопический вектор имеет координаты , где  малая положительная константа. Область допустимых значений вектора весовых множителей имеет вид . Обучение нейронной сети происходит стандартным методом обратного распространения ошибки.

Основным недостатком данного метода является то, что решения, генерируемые нейронной сетью, не всегда являются Парето оптимальными. Для решения этой проблемы авторы метода FFANNпредложили модифицированный вариант данного метода, который носит название FFANN-2 [14].

Метод FFANN-2. Кратко рассмотрим основные отличия модифицированного метода FFANN-2 от его оригинальной версии. В методе FFANN-2 произвольным образом генерируем  весовых векторов , где m – число частных критериев оптимальности. Авторы метода рекомендуют использовать число решений равное , на основе проведенного ими эмпирического исследования. Далее среди  весовых векторов выбираем 2s вектора наиболее удаленных друг от друга на фронте Парето. После этого, используя выход обученной нейронной сети  в качестве значения функции предпочтений ЛПР, вычисляем значения функции  при подаче на вход 2sвекторов . Среди всех полученных значений  выбираем sвекторов , которые обеспечивают максимальное значение .

В данной версии метода нейронная сеть, реализующая аппроксимацию функции предпочтений ЛПР, не участвует в поиске наилучшего с точки зрения ЛПР решения, она всего лишь представляет собой оператор, который поддерживает разнообразие решений, предоставляемых ЛПР для оценки.

Метод PREF(PREFerence)  призван решить вышеуказанные недостатки методов FFANN. Данный метод был разработан автором обзора под руководством д.ф.-м.н. Карпенко А.П. в МГТУ им. Н.Э. Баумана [15].

В основе метода PREF лежит операция скалярной свертки частных критериев оптимальности , где  – вектор весовых множителей, – множество допустимых значений этого вектора. Способ свертки не фиксируется – это может быть аддитивная свертка, мультипликативная свертка и другие.

При каждом фиксированном векторе  метод скалярной свертки сводит решение многокритериальной задачи (1) к решению однокритериальной задачи глобальной условной оптимизации (ОКО-задачи)

(2)

В силу ограниченности и замкнутости множества  решение задачи (2) существует.

Если при каждом  решение задачи (2) единственно, то условие (2) ставит в соответствие каждому из допустимых векторов  единственный вектор  и соответствующие значения частных критериев оптимальности . Это обстоятельство позволяет полагать, что функция предпочтений ЛПР  определена не на множестве , а на множестве .

Основная идея метода PREF заключается в построении аппроксимации функции предпочтений ЛПР  на множестве  и поиске вектора , который максимизирует функцию предпочтений ЛПР. Более строго, вектор находим в результате решения ОКО-задачи

Переход из пространства варьируемых параметров , в пространство весовых множителей , позволяет упростить поиск наилучшего с точки зрения ЛПР решения, поскольку, как правило .

Ключевой процедурой в методе PREF является аппроксимация функции предпочтений. Для аппроксимации функции предпочтений в работе  [15] предложено использовать нейронные сети, аппарат нечеткой логики и нейро-нечеткие системы.

Общая схема метода PREFявляется итерационной и состоит из следующих основных этапов.

Этап «разгона» метода. МКО-система некоторым образом (например, случайно) последовательно генерирует k векторов  и для каждого из этих векторов выполняет следующие действия.

1) Решает ОКО-задачу

(3)

2) Предъявляет ЛПР найденное решение , а также соответствующие значение всех частных критериев оптимальности.

3) ЛПР оценивает эти данные и вводит в МКО-систему соответствующее значение своей функции предпочтений .

Первый этап. На основе всех имеющихся в МКО-системе значений  вектора  и соответствующих оценок функции предпочтений МКО-система выполняет следующие действия.

1) Строит функцию , аппроксимирующую функцию  в окрестности точек .

2) Отыскивает максимум функции  – решает ОКО-задачу

3) С найденным вектором  решает ОКО-задачу вида (3) – находит вектор параметров и соответствующие значения частных критериев оптимальности, а затем предъявляет их ЛПР. В свою очередь, ЛПР оценивает предлагаемые ему решения и вводит в систему соответствующее значение своей функции предпочтений 

Второй этап. На основе всех имеющихся в системе значений вектора  и соответствующих оценок функции предпочтений  МКО-система выполняет аппроксимацию функции  в окрестности точек  ­− строит функцию . И так далее по схеме первого этапа до тех пор, пока ЛПР не остановится на каком-либо решении.

Таким образом, в методе PREFна этапе анализа ЛПР для оценки предоставляются решения, принадлежащие множеству Парето. На этапе расчета для поиска более удовлетворительных с точки зрения ЛПР решений непосредственно используется аппроксимация функции предпочтений ЛПР.

Особенности нейросетевой, нечеткой и нейро-нечеткой аппроксимации функции предпочтений ЛПР рассматриваются в работах [16, 17, 18]. Также в этих работах проведено исследование эффективности указанных способов аппроксимации при решении тестовых МКО-задач. Результаты решения практических задач с использованием метода PREFпредставлены в работах [1619].

3.     Интерактивные методы, основанные на парном сравнении решений

В рассматриваемом классе методов предполагают, что ЛПР вносит свои предпочтения в МКО-систему в виде парного сравнения отдельных решений [202122]. Например, альтернатива  и соответствующее значение векторного критерия оптимальности  «лучше» набора  (обозначим, ) или два набора  и  «неразличимы» . На основе полученной информации МКО-система тем или иным способом строит аппроксимацию функции предпочтений ЛПР  с целью обеспечения корректного ранжирования данных. Другими словами, если , то ; если , то .

Все методы данного класса, разработанные к настоящему времени, используют близкий подход, который состоит в комбинации одного из эволюционных алгоритмов с процедурой построения функции предпочтений ЛПР .

Общая схема методов данного класса может быть представлена следующим образом.

Шаг 1. Генерируем начальную популяцию решений .

Шаг 2. Одним из методов приближенного построения множества Парето получаем начальную аппроксимацию этого множества: формируем множество решений .

Шаг 3. Выбираем из множества  число решений  равное sдля оценки ЛПР. Затем ЛПР ранжирует эти решения и вносит эту информацию в систему.

Шаг 4. На основе полученной информации МКО-система строит аппроксимацию функции предпочтений ЛПР .

Шаг 5. Запускаем метод приближенного построения множества Парето, при этом, в качестве «функции приспособленности» отдельных решений используем текущую функцию предпочтений ЛПР  и формируем множество решений .

Шаг 6. Если условие останова выполнено, то завершаем вычисления. В противном случае, осуществляем переход на Шаг 2.

Основным критерием останова является получение ЛПР наиболее удовлетворяющего его решения. Однако на этапе испытания метода на тестовых задачах многокритериальной оптимизации, при отсутствии реального ЛПР, могут быть рассмотрены также другие условия. Например, выполнение наперед заданного числа итераций диалога с ЛПР или достижение фиксированного числа итераций метода приближенного построения множества Парето.

Далее в работе рассматриваем наиболее развитые современные методы данного класса: IEM, PI-EMO-VF, BC-EMO.

Метод IEM. В работе [20] авторы предлагают метод IEM (InteractiveEvolutionaryMethod, Интерактивный эволюционный метод), в основе которого лежит скалярная свертка частных критериев оптимальности вида

(4)

где  – параметр, который определяет функцию предпочтений;  – компоненты вектора весовых множителей ;  – идеальный вектор частных критериев оптимальности. Для нахождения весовых множителей  авторы решают задачу оптимизации

(5)

где   – «граница» предпочтений. Здесь парные сравнения решений формируют ограничения задачи оптимизации. В работе [20] авторы предполагают, что функция предпочтений ЛПР линейна (). При этом, авторы не приводят никаких рекомендаций по выбору этого параметра. Если функция предпочтений нелинейная, то этот метод может генерировать недопустимые для ЛПР решения. В этом случае авторы предлагают удалять по одному из ограничений в хронологическом порядке, до тех пор, пока решение задачи (5) не будет найдено. Тем самым они предполагают, что последние поступившие оценки от ЛПР имеют большую важность, чем информация, полученная на первых итерациях.

Метод PI-EMO-VF(ProgressivelyInteractiveEvolutionaryMulti-objectiveOptimizationusingValueFunction, Интерактивный Эволюционный Метод Многокритериальный Оптимизации с использованием Функции Предпочтений) [21]. Здесь авторы предлагают использовать функцию предпочтений вида

(6)

Параметр tтакже определяет функцию предпочтений ЛПР. Определение коэффициентов  и происходит в результате решения вспомогательной задачи

(7)

В отличие от метода IEM, здесь учитывается информация о решениях, которые для ЛПР равнозначны. Другим важным отличием, является то, что параметр  подбирают итерационно. На первом этапе принимают  и решают задачу (7). Если в процессе решения этой задачи не удается найти коэффициенты функции предпочтений (6) так, чтобы удовлетворить всем ограничениям, то параметр увеличивают , и вновь решают задачу (7). Вычисления выполняют до тех пор, пока функция предпочтений не будет удовлетворять всем ограничениям (7).

Метод PI-EMO-VF в качестве метода аппроксимации множества Парето использует алгоритм NSGA-II (Non-dominated sorting genetic algorithm version IIГенетический алгоритм недоминируемой сортировки версии II) [23].

Авторы методов IEM и PI-EMO-VF при построении функции предпочтений не принимают во внимание то, что ЛПР может ошибаться и давать противоречивые ответы. Они подразумевают, что ЛПР всегда дает верные оценки и, в результате, сводят задачу обучения к задаче оптимизации.

Метод BC-EMO (Brain-ComputerEvolutionaryMultiobjectiveOptimization, Нейрокомпьютерный Эволюционный Метод Многокритериальной Оптимизации), с нашей точки зрения, является наиболее перспективным в настоящее время [22]. Отметим, что перевод термина «brain-computer» соответствует принятой терминологии (http://neurobotics.ru/research/bci/). Аппроксимацию функции предпочтений в этом методе выполняют на основе машины опорных векторов (SupportVectorMachine, SVM) [24], что выгодно отличает BC-EMOот остальных существующих интерактивных методов данного класса:

1) метод позволяет строить функцию предпочтений на основе парных сравнений решений, эта форма оценки решений является наиболее удобной для ЛПР;

2) метод является робастным к неточным и противоречивым оценкам ЛПР, что является типичным при решении МКО-задач;

3) выбор различных ядер [24] в методе опорных векторов позволяет наилучшим способом аппроксимировать функцию предпочтений ЛПР.

В методе BC-EMOфункция предпочтений ЛПР строится в виде , где символ  обозначает  скалярное произведение векторов. Эта функция должна выполнять заданное ранжирование данных:  . Для построения функции предпочтений ЛПР необходимо найти такой вектор , который удовлетворяет всем неравенствам вида

(8)

При решении практических задач очень сложно подобрать такой вектор , который удовлетворяет всем вышеуказанным неравенствам (8). В этом случае, точки из пространства критериев проецируют в новое пространство признаков (featurespace) посредством проецирующей функции . Новое пространство имеет большую размерность, чем размерность пространства критериев (это пространство, в котором к исходным признакам – частным критериям оптимальности – добавлены их парные произведения). В математической формулировке задача оптимизации для поиска вектора  имеет вид

(9)

Фиктивная переменная  характеризует величину ошибки на двух векторах  и , С – параметр регуляризации, задается пользователем или адаптивно подбирается на основе перекрестной проверки (cross-validation) [22].

Задача (9) является задачей квадратичного программирования, поэтому для ее решения целесообразно применить метод множителей Лагранжа. Метод требует вычисления скалярного произведения . Для эффективного вычисления скалярного произведения двух векторов без непосредственного проецирования их в новое пространство вводят понятие ядра скалярного произведения и обозначают его .

В результате функцию предпочтений можно записать в виде линейной комбинации ядер

где  – множители Лагранжа [22].

В методе BC-EMO выбор конкретной функции ядра происходит автоматически в процессе решения МКО-задачи на основе перекрестной проверки из следующего списка:

·        – линейная функция;

·        – полиномиальная функция второй степени;

·        – гауссова функция, где положительную константу подбирают из совокупности .

Оригинальная версия BC-EMO, также как метод PI-EMO-VF, в качестве метода аппроксимации множества Парето использует алгоритм NSGA-II[23].

Результаты широкого исследования эффективности метода BC-EMO на различных тестовых МКО-задачах приведены в работе [22].

Заключение

В работе выполнен обзор современных интерактивных методов FFANN и PREF, основанных на оценках функции предпочтений, и методов IEM, PI-EMO-VF и BC-EMO, основанных на парном сравнении решений.

На основании выполненного обзора может быть сделан вывод о том, что наиболее перспективными являются методы PREF и BC-EMO. Предлагаются следующие направления развития этих методов.

·       Разработка более удобных средств взаимодействия ЛПР с указанными методами; создание самостоятельной МКО-системы на основе этих методов.

·       Разработка и реализация параллельных алгоритмов методов PREF и BC-EMO в связи с тем, что практические задачи оптимизации, как правило, имеют большую вычислительную сложность.

Автор благодарит своего научного руководителя д.ф.-м.н. МГТУ им.Н.Э. Баумана Карпенко А.П. за плодотворное обсуждение работы, а также за всестороннюю помощь по ее совершенствованию.

 

Список литературы

1.         Лотов А.В., Поспелова И.И. Многокритериальные задачи принятия решений: учеб. пособие. М.: МАКС Пресс, 2008. 197 c.

2.         Растригин Л.А., Эйдук Я.Ю. Адаптивные методы многокритериальной оптимизации // Автоматика и телемеханика. 1985. № 1. С. 5-26.

3.         Wierzbicki A.P. Reference point approaches // Multicriteria Decision Making: Advances in MCDM Models, Algorithms, Theory and Applications / Gal T., Stewart T.J., Hanne T. (Eds.). Boston: Kluwer Academic Publishers, 1999. P. 9.1-9.39.

4.         КарпенкоА.П., СеменихинА.С., МитинаЕ.В. ПопуляционныеметодыаппроксимациимножестваПаретовзадачемногокритериальнойоптимизации. Обзор // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2012. № 4. Режим доступа:   http://www.technomag.edu.ru/doc/363023.html   (дата обращения 08.07.2012).

5.         Multiobjective Optimization: Interactive and Evolutionary Approaches / Branke J., Deb K., Miettinen K., Slowinski R. (Eds.). Berlin/Heidelberg, Germany: Springer-Verlag, 2008. 470 p.

6.         Wang R., Purshouse R.C., Fleming P.J. Preference-inspired Co-evolutionary Algorithms for Many-objective Optimisation // IEEE Transactions on Evolutionary Computation. 2012. DOI: 10.1109/TEVC.2012.2204264

7.         Miettinen K. Nonlinear Multiobjective Optimization. Boston: Kluwer Academic Publishers, 1999. 298 p.

8.         Gass S., Saaty T. The computational algorithm for the parametric objective function // Naval Research Logistics Quarterly. Wiley, 1955. Vol. 2, no. 1-2. P. 39-45.

9.         Fishburn P.C. Lexicographic orders, utilities and decision rules: A survey // Management Science. USA, 1974. Vol. 20, no. 11. P. 1442-1471.

10.       Charnes A., Cooper W.W. Management Models and Industrial Applications of Linear Programming. Vol. 1. New York: Wiley, 1961. 859 p.

11.       Ларичев О.И. Теория и методы принятия решений. М.: Университетская книга, Логос, 2002. 392 c.

12.       Miettinen K., Makela M.M. Interactive Bundle-based Method for Nondifferentiable Multiobjective Optimization: NIMBUS // Optimization: A Journal of Mathematical Programming and Operations Research. 1995. Vol. 34, no. 3. P. 231-246.

13.       Sun M., Stam A., Steuer R. Solving multiple objective programming problems using feed-forward artificial neural networks: The interactive FFANN procedure // Management Science. 1996. Vol. 42, no. 6. P. 835-849.

14.       Sun M., Stam A., Steuer R. Interactive multiple objective programming using Tchebycheff programs and artificial neural networks // Computer Operations Research. 2000. Vol. 27, no. 7-8. P. 601-620.

15.       Карпенко А.П., Федорук В.Г. Аппроксимация функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации. 3. Методы на основе нейронных сетей и нечеткой логики // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2008. № 4. Режим доступа: http://www.technomag.edu.ru/doc/86335.html   (дата обращения 02.07.2012).

16.       Карпенко А.П., Мухлисуллина Д.Т., Овчинников В.А. Нейросетевая аппроксимация функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации // Информационные технологии. 2010. № 10. С. 2-9.

17.       Карпенко А.П., Моор Д.А., Мухлисуллина Д.Т. Многокритериальная оптимизация на основе нечеткой аппроксимации функции предпочтений лица, принимающего решения // Наукоемкие технологии и интеллектуальные системы 2010: труды 12-ой молодежной международной научно-технической конференции. М., 2010. С. 94-98.

18.       Карпенко А.П., Моор Д.А., Мухлисуллина Д.Т. Многокритериальная оптимизация на основе нейро-нечеткой аппроксимации функции предпочтений лица, принимающего решения // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2010. № 6. Режим доступа: http://technomag.edu.ru/doc/143964.html  (дата обращения 03.10.2012).

19.       Карпенко А.П., Мухлисуллина Д.Т., Цветков А.А. Многокритериальная оптимизация геометрии щелевого фильтра для очистки жидкостей // Наука и образование. МГТУим. Н.Э. Баумана. Электрон. журн. 2013. № 2. DOI: 10.7463/0213.0539055

20.       Phelps S., Koksalan M. An interactive evolutionary metaheuristic for multiobjective combinatorial optimization // Management Science. 2003. Vol. 49, no. 12. P. 1726-1738.

21.       Deb K., Sinha A., Korhonen P.J., Wallenius J. An Interactive Evolutionary Multiobjective Optimization Method Based on Progressively Approximated Value Function // IEEE Transactions on Evolutionary Computation. 2010. Vol. 14, no. 5. P. 723-739.

22.       Battiti R., Passerini A. Brain-computer evolutionary multiobjective optimization (BC-EMO): a genetic algorithm adapting to the decision maker // IEEE Transaction on Evolutionary Computation. 2010. Vol. 14, no. 5. P. 671-687.

23.       Deb K., Pratap A., Agarwal S., Meyarivan T. A fast elitist multi-objective genetic algorithm: NSGA-II // IEEE Transaction on Evolutionary Computation. 2002. Vol. 6, no. 2. P. 182-197.

24.       Хайкин С. Нейронные сети. Полный курс : пер. с англ. М.: ООО «И.Д.Вильямс», 2008. 1104 c.

25.       Zhang Q., Li H. MOEA/D: A multiobjective evolutionary algorithm based on decomposition // IEEE Transactions on Evolutionary Computation. 2007. Vol. 11, no. 6. P. 712-731.

26.       Li H., Zhang Q. Multiobjective optimization problems with complicated pareto sets, MOEA/D and NSGA-II // IEEE Transactions on Evolutionary Computation. 2009. Vol. 13, no. 2. P. 284-302.

Поделиться:
 
ПОИСК
 
elibrary crossref ulrichsweb neicon rusycon
 
ЮБИЛЕИ
ФОТОРЕПОРТАЖИ
 
СОБЫТИЯ
 
НОВОСТНАЯ ЛЕНТА



Авторы
Пресс-релизы
Библиотека
Конференции
Выставки
О проекте
Rambler's Top100
Телефон: +7 (915) 336-07-65 (строго: среда; пятница c 11-00 до 17-00)
  RSS
© 2003-2024 «Наука и образование»
Перепечатка материалов журнала без согласования с редакцией запрещена
 Тел.: +7 (915) 336-07-65 (строго: среда; пятница c 11-00 до 17-00)