Найда Е.И

Донецкий национальный технический университет, Украина

Построение нейронной сети для прогнозирования значений нагрузки в телекоммуникационной сети

Благодаря концепции построения и функционирования моделей, ко­то­рые основаны на искусственных нейронах, стало возможным ре­ше­ние разных задач прогнозирования, в частности, экстраполяция во временных рядах.

Представим общий алгоритм построения нейронной сети для задачи предсказания нагрузки.

1.     Отбор входных переменных.

2.     Выбор типа сети для решения поставленной задачи.

3.     Обучение нейронной сети, то есть определение численных зна­че­ний весов каждого из нейронов на основании экспертной или ретро­спек­тивной информации.

В качестве массива входных переменных выберем значения суммарного трафика по контролеру базовых станций сети оператора мобильной связи. На рис.2 представлены статистические данные за 5 суток.

Все множество наблюдений разбиваем на три подмножества – обучающее, контрольное и независимое тестовое, которое в обучении не участвует. Общая рекомендация при этом в пропорциях – 2:1:1, т.е. при 24 часа Х 6 суток=144 наблюдениях соотношение 72:36:36.

Несомненно, выбор архитектуры сети является необходимой составляющей в общем успехе проекта. Рассмотрим основные типы архитектуры нейросетей (табл.1).

Таблица 1 – Сравнение основных типов нейросетей.

Тип

Преимущества

Недостатки

Многослойный пер­се­п­т­рон (MLP)

Небольшие, быстро работают

Медленно учатся

Радиальные базисные фун­к­ции (RBF)

Быстро учатся

Большие по размерам, не мо­гут решать задачи эк­стра­­по­ляции

Линейные

Простые, быстро учатся

Не могут решать нели­не­й­ные задачи

Из таблицы 1 видно, почему многоуровневые персептроны до­во­ль­но популярны при решении таких задач, где актуальна проб­лема использования сети для целей экстраполяции, то есть прог­но­зи­рования за пределами соответствующих входных данных. Поскольку показатели работы телекоммуникационной системы напрямую зависят от времени (час суток, дня недели, месяца в году), то в их представлении отчетливо прослеживается сезонная составляющая. Это важно учесть при синтезе нейросети. Так как все вычисления привязаны в данном случае к суткам, во входном слое MLP размещаем 24 нейрона, в латентном – 12 (в соответствии с правилом «пирамиды» для персептрона). Синтезированная структура сети показана на рис.2.

Рисунок 1 – Многослойный персептрон 24Х12Х1

Далее необходимо сеть обучить. Выбор одного из многих алгоритмов обучения в основном определяется адекватностью сети, т.е. величиной ошибки в прогнозировании. После проведения экспериментов с разными алгоритмами был выбран метод сопряженных градиентов, т.к. получены более высокий коэффициент корреляции и меньшие оценки ошибки.

Таблица 2 – Сравнение основных алгоритмов обучения нейросети.

Наименование показателя

Метод сопряженных градиентов

Метод обратного распространения ошибки

Среднее значение нагрузки

210,83 Эрл

СКО нагрузки

166,03

Среднее значение ошибки

7,035

79,280

СКО ошибки

11,094

32,216

Коэф. корреляции

0,998

0,983

 

В результате выполненных действий с помощью нейросетевого механизма получены следующие результаты (рис.2).

 

Рисунок 2 – Сравнение реальных и прогнозных данных

Проанализируем полученные данные. В массиве реальных данных первый пик на графике соответствует вторнику, и здесь просматривается высокая активность абонентов (пиковое значение нагрузки приближается к 600 Эрл). В то же время, пятый пик соответствует субботнему дню. В этот день среднее значение нагрузки падает, что вполне логично, ведь это – выходной день. Таким образом, из пяти наблюдений имеется два, которые отличаются от средних по выборке. Они являются т.н. «выбросами» и являются наравне с «проклятиям размерности» второй причиной зачастую неудовлетворительных результатов прогнозирования. К сожалению, на весьма небольших по объему выборках нейросеть не сможет достаточно хорошо обучиться, чтобы справиться с предсказанием «выбросом». В свете этой проблемы очень остро стоит задача оперативного обеспечения нейросети новыми входными данными, что в совокупности с значениями прошлых периодов позволит непрерывно обучать сеть и получать все более качественный прогноз.