Магистрант 2-го года Токсабаева Э.Т., к.ф.-м. н., доцент Бердалиева Г.А.

Южно-Казахстанский государственный университет имени М.О. Ауезова

Применение нейронных сетей для решения задачи классификации графических образов

 

В настоящее время одним из интересных как в теоретическом, так и в практическом приложении подходов к решению прикладных задач в сфере информационных технологий является подход, основывающийся на теории нейронных сетей /1/. Под нейронными сетями подразумеваются вычислительные структуры, которые моделируют простые биологические процессы, обычно ассоциируемые с процессами человеческого мозга. Адаптируемые и обучаемые, они представляют собой распараллеленные системы, способные к обучению путем анализа положительных и отрицательных воздействий. Элементарным преобразователем в данных сетях является искусственный нейрон или просто нейрон, названный так по аналогии с биологическим прототипом. К настоящему времени предложено и изучено большое количество моделей нейроподобных элементов и нейронных сетей.

Понятие «нейронные сети» сформировалось в 40-х годах прошлого столетия века в среде ученых, изучавших принципы организации и функционирования биологических нейронных сетей. Для математического моделирования задач, исходящих из самоорганизующихся систем предпочтительно использовать теорию нейронных сетей. В контексте теории НС хорошо решаются следующие типы задач.

Классификация образов. Задача состоит в указании принадлежности входного образа, представленного вектором признаков, одному или нескольким предварительно определенным классам. К известным приложениям относятся распознавание букв, распознавание речи, классификация сигнала электрокардиограммы, классификация клеток крови.

Кластеризация/категоризация. При решении задачи кластеризации, которая известна также как классификация образов «без учителя», отсутствует обучающая выборка с метками классов. Алгоритм кластеризации основан на подобии образов и размещает близкие образы в один кластер. Известны случаи применения кластеризации для извлечения знаний, сжатия данных на исследования свойств данных.

Аппроксимация функций.  Предположим, что имеется обучающая выборка  (пары данных вход-выход), которая генерируется известной функцией F(x), искаженной шумом. Задача аппроксимации состоит в нахождении оценки неизвестной функции F(x). Аппроксимация функций необходима при решении многочисленных инженерных и научных задач моделирования

Предсказание/прогноз. Пусть заданы п дискретных отсчетов  в последовательные времени Задача состоит в предсказании значении  в некоторый будущий момент времени . Предсказание / прогноз имеет значительное влияние на принятие решений бизнесе, науке и технике. Предсказание цен на фондовой бирже и прогноз погоды являются типичными приложениями техники предсказания / прогноза.

Оптимизация. Многочисленные проблемы в математике, статистике, технике науке, медицине и экономике могут рассматриваться как проблемы оптимизации. Задачей алгоритма оптимизации является  нахождение такого решения,  которое удовлетворяет системе ограничений и максимизирует или минимизирует целевую функцию.

Память, адресуемая по содержанию. В модели вычислений фон Неймана обращения к памяти  доступно только посредством адреса, который не зависит от содержания памяти. Если допущена ошибка в вычислении адреса, то может быть найдена  совершенно иная информация. Ассоциативная память , или память, адресуемая по содержанию, доступна по указанию  заданного содержания. Содержимое памяти может быть вызвано даже по частичному входу или искаженному содержанию. Ассоциативная память чрезвычайно желательна при создании мультимедийных информационных баз данных.

Управление. Рассмотрим динамическую систему, заданную совокупностью , где  является входным управляющим воздействием, а  -  выходом системы в момент времени t. В системах управления с эталонной моделью целью управления является расчет такого входного воздействия , при котором система следует по желаемой траектории, диктуемой эталонной моделью.

В теории нейронных сетей существуют две актуальных проблемы, одной из которых является выбор оптимальной структуры нейронной сети, а другой - построение эффективного алгоритма обучения нейронной сети.

Оптимизация нейронной сети направлена на уменьшение объёма вычислений при условии сохранения точности решения задачи на требуемом уровне. Параметрами оптимизации в нейронной сети могут быть:

- размерность и структура входного сигнала нейросети;

- синапсы нейронов сети. Они упрощаются с помощью удаления из сети или заданием "нужной" или "оптимальной" величины веса синапса;

- количество нейронов каждого слоя сети: нейрон целиком удаляется из сети, с автоматическим удалением тех синапсов нейронов следующего слоя, по которым проходил его выходной сигнал;

- количество слоёв сети.

Вторая проблема заключается в разработке качественных алгоритмов обучения нейросети, позволяющих за минимальное время настроить нейросеть на распознавание заданного набора входных образов. Процесс обучения нейронной сети заключается в необходимости настройки сети таким образом, чтобы для некоторого множества входов давать желаемое (или, по крайней мере, близкое, сообразное с ним) множество выходов.

          Далее приведены результаты сравнения распознавания образов для различных типов нейронных сетей, разработанных в среде Matlab 2007:

- классическая многослойная сеть с обучением по методу обратного распространения ошибки (рис.2 А);

- каскадная сеть со скрытыми внутренними слоями (рис.2 Б);

- сеть Элмана (рис.2 В);

- классическая многослойная сеть с обучением по методу обратного распространения ошибки и с наличием задержек по входам (рис.2 Г).

    В качестве оригинала берутся графические

Подпись: letterA =  [0 0 1 0 0 ...
                  0 1 0 1 0 ...
                  0 1 0 1 0 ...
                  1 0 0 0 1 ...
                  1 1 1 1 1 ...
                  1 0 0 0 1 ...
                  1 0 0 0 1 ]';
     представления букв кириллицы, пример буквы

      «А» показан на рисунке 1. Из рисунка 2 мож-

      но сделать вывод, что классическая много-

        слойная сеть с обучением по методу обрат-

        ного распространения ошибки имеет наи-

        лучший показатель

Рисунок 1 Пример оригинального образа

распознавания по сравнению с другими рассмотренными нейронными сетями.

 

 

 

 

 

 

 


                                    А)                                                                    Б)

 

 

 

 

 

 

 


                                    В)                                                                    Г)

Рисунок 2 – Результаты расчетов для разных типов нейросетей

Литература

1. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети. – М., 2001.