Другие журналы
|
научное издание МГТУ им. Н.Э. БауманаНАУКА и ОБРАЗОВАНИЕИздатель ФГБОУ ВПО "МГТУ им. Н.Э. Баумана". Эл № ФС 77 - 48211. ISSN 1994-0408![]()
77-30569/316296 Методика селекции признаков классификации в задачах распознавания образов сложных пространственных объектов
# 01, январь 2012
Файл статьи:
![]() УДК 778.35:629.7 МГТУ им. Н.Э. Баумана Радиотехнический институт имени академика А.Л. Минца ВУНЦ ВВС «Военно-воздушная академия имени профессора Н.Е. Жуковского
ОСОБЕННОСТИ РЕШЕНИЯ ЗАДАЧИ КЛАССИФИКАЦИИ ОБРАЗОВ ДЛЯ СЛОЖНЫХ ПРОСТРАНСТВЕННЫХ ОБЪЕКТОВ
Анализ дифракционных изображений, полученных в результате рассеивания широкополосных радиолокационных сигналов на объектах со сложной трехмерной поверхностью, во многом зависит от качества обработки информации. На формирование радиолокационного дифракционного изображения сказываются ряд случайных факторов. Случайные факторы можно в зависимости от причин возникновения разделить на группы. Первая группа факторов определяется самим объектом - характером отражения и рассеивания сигнала от его поверхности. Ввиду структурной сложности дифракционного изображения объекта, многовариантностью ракурсов, внешнего оборудования и средств маскировки эта группа имеет детерминированную и случайную составляющие. Вторая группа связана с влиянием среды - рассеивание электромагнитного излучения в атмосфере и зависит от метеоусловий, замирания радиолокационного сигнала в атмосфере на участке “РЛ - объект”. Третья группа случайных факторов связана с приемной антенной. Проходя приемные тракты входных усилителей происходит оцифровка дифракционного изображения - квантование по мощности сигнала и квантованию по времени, обусловленные спектральной чувствительностью антенны и характеристиками АЦП входных каскадов приемного тракта. К этой же группе относятся помехи: естественные и искусственные (крыши домов, трубопроводы, линии электропередач, кабельные каналы и другие). К шумовому воздействию можно также отнести различные ложные объекты. Успешность выполнения задачи анализа дифракционного изображения можно характеризовать показателями эффективности применяемыми к системам технического зрения. В большинстве систем технического зрения в качестве показателей используются вероятность правильного распознавания (классификации) или достоверность оцениваемых классификатором признаков РЛ изображения. Очевидно, что показатели эффективности зависят от дальности, помех, метеоусловий и целого ряда случайных факторов. В статье для определенности будем рассматривать систему технического зрения с обучением по эталонным сигналам, в этой связи будем рассматривать ее работу на 2 этапах: − проектирование и первичное обучение, − эксплуатация и дообучение с целью распознавания новых объектов. Рассмотрим некоторые принципы построения систем технического зрения, которые закладываются на первом этапе и определяют потенциальные возможности по распознаванию дифракционных изображений объектов. Общая схема решения задачи распознавания приведена на рисунке 1. Рисунок 1 – Схема решения задачи распознавания
Изображение объекта, сформированное в приемном тракте РЛС и оцифрованное АЦП, будем обозначать Z. По-существу, Z представляет собой двумерную матрицу размером N∙M (размер в пикселях). Последовательно считывая строки матрицы Z, преобразуем её в вектор В качестве признаков, как правило, выбирают следующие признаки изображения: − геометрические (отрезки прямых, дуги – обобщенный метод Хафа, детекторы углов – методы Харриса и Томаши, контуры и другие особенности изображения); − спектральные (спектральные характеристики на основе Фурье или вейвлет преобразования); − структурные (на основе морфологического анализа и других методов); − энергетические; − статистические (на основе анализа распределений и статистик) и другие. Без ограничения общности могут быть использованы любые признаки и их комбинации для обучения системы технического зрения (СТЗ). Будем предполагать, что при фиксированном выборе векторного пространства признаков классификатор обеспечивает оптимальное решение по распознаванию объекта. Обработка признаков в СТЗ наиболее часто ведется тремя способами: отбором наиболее информативных признаков (отбором подпространств вектора признаков), образованием отношений отдельных признаков (отношений отдельных компонент вектора признаков) и образованием линейных комбинаций отдельных признаков. В теории распознавания используется термин “существенная размерность”, обозначающий минимальное число измерений (выделяемых признаков), необходимое для достаточно точной идентификации распознаваемых объектов. Поэтому при разработке новых и совершенствовании существующих СТЗ важно отобрать минимальное число признаков, обеспечивающих заданные показатели эффективности работы СТЗ без усложнения её конструкции, тем самым, повысить надежность работы и понизить стоимость её производства и эксплуатации. Постановка задачи исследования Выбор наиболее информативных признаков, описывающих множество классов объектов Ω={ωj, j=1…K}, является ключевым моментом в задаче распознавания сложных по форме, спектру и другими признакам объектов, находящихся на “пестром” фоне. Задача ставится следующим образом: разработать критерии выбора информационных признаков образов, обеспечивающих решение задачи распознавания образов из K классов с максимальным уровнем вероятности распознавания Допущения: 1 в кадре присутствует информация только об одном нормализованном образе; 2 векторы признаков КРИТЕРИЙ РАЗДЕЛИМОСТИ КЛАССОВ С ТОЧКИ ЗРЕНИЯ ТЕОРИИ ИНФОРМАЦИИ
Для оценки информативности признаков воспользуемся положениями теории информации - используем понятия объем информации
где основание логарифма, как правило, равно 2 (единица информации - bit) или e(единица информации - nat). Для определенности будем использовать последнюю. Ввиду того, что разрешение приемника ОЭС определено – M×N, тогда множество реализаций образов объекта можно рассматривать как случайное событие Здесь предполагаем, что минимальный объем информации соответствует достоверному событию ( Среднее значение объема информации По своей сути энтропия определяется как мера априорной неопределенности информации о системе (образе), учитывающая как вероятность наступления события в системе, так и число степеней свободы системы (сомножитель Считая, что 0×log0=0 для энтропии
Под условной энтропией где Так как энтропия т.е. Прежде чем приступить к решению задачи селекции минимального набора признаков решим 2 подзадачи. 1. Какой из двух наборов признаков FX и GX с распределениями 2. Как изменится взаимная информация Рассмотрим первую подзадачу. В работе [2] был сформулирован принцип максимальной энтропии: “Если выводы основываются на неполной информации, она должна выбираться из распределения вероятности, максимизирующего энтропию при заданных ограничениях на распределение”. В [3] доказано, что принцип максимальной энтропии корректен и существует только одно распределение, обеспечивающее максимум энтропии, которое можно выбрать с помощью "аксиом согласованности": 1 уникальность (результат должен быть уникальным); 2 инвариантность (выбор системы координат не должен влиять на результат); 3 независимость системы (не должно иметь значения, будет ли независимая информация о независимых системах браться в расчет как в терминах различных плотностей вероятности раздельно, так и вместе, в терминах совместной плотности вероятности); 4 независимость подмножеств (не должно иметь значения, будет ли независимое множество состояний системы рассматриваться в терминах условной плотности вероятности или полной плотности вероятности системы). Для случая многомерного гауссового распределения Тогда доопределим энтропию для непрерывного вектора признаков Последняя величина получается из (2) как предельный переход по количеству состояний для вектора признаков
где L- размерность вектора признаков Из выражения (7) вытекает 3 вывода.
1 Если вектор признаков 2 Энтропия 3 Понижение размерности вектора признаков В этой связи может быть сформулирован критерий 1- разделение множества признаков сложных объектов на подклассы: скачкообразное изменение энтропии вектора признаков Рассмотрим вторую подзадачу. Для этого рассмотрим линейный классификатор сигналов из вектора признаков (метод главных компонент, метод линейной нейронной сети). Пусть выход этого классификатора с учетом шума выражается соотношением: где Учитывая свойство взаимности информации из (4) можно записать: Несложно заметить из (9), что функция плотности вероятности переменной
Тогда (9) перепишем в следующем виде: Из выражения (7) для После подстановки в формулу (6) и упрощения получим: Из выражения (11) вытекает 2 вывода. 1 Частное 2 Рост дисперсии шума
Теперь вернемся к решению основной задачи по разработке критериев выбора признаков, обеспечивающих решение задачи распознавания с максимальным уровнем вероятности распознавания Поскольку на основании зависимости (7) энтропия
где Учитывая тот факт, что Подставляя выражение (13) в (7), получим: В работе [5] показано, что максимальная погрешность разложения (12) определяется выражением: В (15) предполагается, что все собственные значения и их собственные вектора упорядочены в порядке убывания, так как значимость каждого компонента вектора признаков
Рассмотрим ортогональное преобразование исходного вектора признаков
т.е. матрица
Тогда для матрицы ковариации
На основании выражения (18) и с учетом (12) получим:
Можно сделать вывод о том, что ортогональное преобразование пространства признаков не меняет энтропии (7) для вектора
ГЕОМЕТРИЧЕСКИЙ ПОДХОД К ЗАДАЧЕ РАЗДЕЛИМОСТИ КЛАССОВ Для определенности будем рассматривать эллипсоиды постоянной плотности вероятности с полуосями равными Теорема 1[8]. Пусть Последняя теорема может быть использована для матриц Непересечение эллипсоидов рассеивания различных классов является необходимым условием при выборе эффективного набора признаков классификатора образов. В случае зашумления вектора признаков среднеквадратические отклонения ошибок (СКО) компонент вектора признаков, а, следовательно, и главные оси эллипсоидов рассевания будут расти, что, в конце концов, приведет к их пересечению и возникновению состояния неопределенности. Для контроля выполнения необходимого критерия выбора признаков и оценки устойчивости классификатора к шумам можно использовать расстояние между близкими классами (эллипсоидами рассеивания). Для этого воспользуемся следующей теоремой. Теорема 2[8]. Если выполняется условие теоремы 1, то квадрат расстояния между эллипсоидом в предположении, что этот корень не является кратным. Здесь
Таким образом, для каждой пары близких эллипсоидов рассеивания с матрицами где
Результант
Тогда, выбирая минимальный положительный корень -
Отметим, что указанная процедура оценки расстояний может быть рассчитана на этапе проектирования классификатора. Выполняя пропорциональное расширение (k-коэффициент пропорциональности) главных полуосей эллипсоида рассеивания получим таблицу соответствий При некотором упрощении задачи может быть получена оценка вероятности распознавания. Выполняя процедуру нормализации и ранжирования (16) собственных значений для выборочной ковариационной матрицы каждого класса, можно оставить только три значимых компоненты вектора признака:
В работе [7] найдено аналитическое выражение для вероятности попадания случайного трехмерного вектора признаков с гауссовой плотностью вероятности в эллипсоид рассеивания:
Последнее выражение было получено для центрированного вектора признаков. В более общем случае -рассматриваем несколько эллипсоидов в одной системе координат,
Здесь, как и при составлении таблицы расстояний между классами, полуоси эллипсоида (a, b, с) пропорциональны СКО компонент вектора признаков:
В соответствии с выражением (5) для постоянной плотности вероятности вектора признаков при L=3, потребуем для степени экспоненты: где Матрица
Выполняя замену переменных Из последнего выражения следует: Далее получим выражение для вероятности попадания вектора признаков
где В [6] показано, что уровень значимости признаков, как правило, резко падает с увеличением ранжированного номера собственного значения выборочной матрицы ковариации и на основании (15) относительная ошибка представления вектора признаков для размерности L>3 составит единицы процента. Реализация вектора признаков Поскольку значения СКО были получены на этапе первичного обучения, то для текущего вектора признака Рисунок 2 – Зависимость вероятности рассеивания признаков от СКО
При использовании более низкого уровня доверительной вероятности, как видно из рисунка 2.а) доверительный интервал уменьшается и при малых значениях СКО (рисунок 2.б) такое несоответствие весьма существенно. Обобщая на случай размерности нормально распределенного вектора признаков с L>3 и учитывая недиагональность матрицы ковариации, можно построить доверительную область с помощью обобщения распределения Стьюдента на случай L>1. В теории многомерного статистического анализа[10] для построения доверительной области оценки неизвестного математического ожидания вектора признаков Для выборки объемом n нормально распределенного вектора признаков
определяется через Здесь На рисунке 2 изображена зависимость распределения Фишера-Снедекора от объема выборки nдля уровня значимости α=0,01. Так, например, для размерности вектора признаков 6 и объема выборки 31 получим числа степеней свободы 𝜈1=6 и 𝜈2=25, тогда из 1 графика получим В соответствии с (25) величина где Таким образом, может быть сформулирован критерий 3-объема обучающей выборки классификатора: уровень значимости Как правило, в реальных классификаторах выбирают максимальный объем обучающей выборки для всех классов, т.е. Рисунок 3 – Зависимость распределение
Найдем теперь вероятность попадания вектора признаков Поскольку точность определения центра эллипса определяется доверительной вероятностью qj=1-αj, тогда условная вероятность того, что реализация вектора признаков Из постановки задачи следует, что совместная вероятность независимых событий определяется произведением их вероятностей. Тогда вероятность распознавания класса Подчеркнем тот факт, что выражение (29) позволяет оценивать максимальную вероятность распознавания объекта на множестве классов Ω, так как на этапе разработки (при обучении) системы учитываются СКО, обусловленные лишь ошибками квантования (оцифровки) сигнала изображения. В действительности СКО компонент вектора признаков всегда будет больше на реальном сигнале. При увеличении отношения сигнал/шум в соответствии с (11) взаимная информацию между входным и выходным сигналами классификатора снижается. Это эквивалентно расширению эллипсоида рассеивания, то есть росту Выявим некоторые закономерности относительно количества классов –K при фиксированной размерности пространства признаков L. Из выражения (29), видно, что увеличение мощности множества распознаваемых образов (увеличение K) приводит к снижению вероятности распознавания, так как: Поскольку На рисунке 3 приведена относительное снижение вероятности распознавания Рисунок 4 – Зависимость
Из рисунка видно, что уже для K=23 классов Критерий 4-мощности множества классов: увеличение количества распознаваемых объектов классификатором приводит к снижению вероятности распознавания в соответствии с выражением (31). В заключении сформулируем еще один критерий по выбору размерности набора признаков
С одной стороны в соответствии с методом величина Заметим, что выражение (31) скорее является верхней границей для выбора размерности пространства признаков. Как правило, назначая уровень значимости признаков удается существенно понизить размерность этого пространства, например, используя упорядоченный набор собственных значений разложения Карунена-Лоева для ковариационной матрицы класса. Именно в этой связи был введен термин “существенная размерность” и на основании (15), (16) получим значение С другой стороны, минимальное возможное число признаков описывается степенями свободы физической системы. Например, движение твердого тела в пространстве описывается 6 фазовыми координатами (3- линейных, 3- угловых). Считая, что вдоль каждой фазовой координаты необходимо иметь хотя бы 1 координату вектора признаков, получим 6 компонент. Если движения объекта можно считать плоским, то получим 5 компонент (одно уравнение связи координат движения объекта, например y=0). Обобщая, приходим к выводу: если на движение объекта наложено mуравнений связи, то получим 6-mкомпонент вектора признаков. Тогда получим Тогда для размерности пространства признаков можно записать:
В этой связи может быть сформулирован критерий 5-существенной размерности пространства признаков: размерностью пространства признаков классификатора определяется выражением (33). В заключении сформулируем выводы по работе. 1 Рассмотренные выше критерии качества информационных признаков могут быть положены в основу построения классификаторов на самых общих положениях статистической теории оценивания и теории информации и не используют конкретных методов и схем построения классификаторов. 2 Изложенные в статье критерии составляют основу научно-обоснованной методики селекции информативных признаков классификаторов. 3 Критерии отбора информационных признаков сложных пространственных объектов и сигналов могут быть применены для построения оптимального, в том числе, байесовского классификатора.
СПИСОК ЛИТЕРАТУРЫ
Публикации с ключевыми словами: распознавание образов, теория информации, селекция признаков, системы технического зрения, эллипсоидальное оценивание Публикации со словами: распознавание образов, теория информации, селекция признаков, системы технического зрения, эллипсоидальное оценивание Смотри также: Тематические рубрики: Поделиться:
|
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|