Математика/3.Теория вероятностей и математическая
статистика
К.т.н. Тюмиков Д.К.
Титов С.Ю.
Самарский
государственный университет путей сообщения, Россия
Обнаружение неоднозначных
зависимостей по эмпирическим данным
При исследовании сложных систем по экспериментальным
данным возникает необходимость определить тип статистической зависимостей между
переменными. Основным методом определения типа зависимости до настоящего
времени является корреляционных анализ, определяющий линейные связи между
переменными сложной системы. Для нелинейной системы в основном используются
нелинейные регрессионный анализ, основная идея которого сводится к выбору из
некоторых эвристических соображений вида нелинейной зависимости и оценивание
коэффициентов этой зависимости.
Релейные зависимости широко распространены в
измерительных и исполнительных системах, системах автоматического управления,
ряда технологических процессов, в системах диагностики. Возникает необходимость
в идентификации таких зависимостей в экспериментальной практике [1]. Однако, методов
обнаружения неоднозначных по значениям практически отсутствуют.
Идентификация нелинейных
многомерных объектов представлено не так успешно, как в линейном случае.
Постановка задачи. Пусть, рассмотрена нелинейная система с одной входной
переменной
Множество классов функций, в общем случае,
включает линейные, нелинейные, однозначные и нелинейные неоднозначные статистические
зависимости (связи). Требуется идентифицировать тип нелинейной зависимости.
Рассмотрим характеристики нелинейных
статистических связей.
Дисперсионные
отношения.
Метод основывается на разложении[2].
где M[y|x] –
условная математическое ожидание, D[y] -
дисперсия.
Поделив это выражение на
где,
где
Энтропийно-информационные
характеристики статистической связи. Энтропия характеризует меру неопределенности
некоторых событий. Чаще говорят как о мере хаоса, о мере беспорядка, о мере
неструктурируемости. Однако, энтропийные характеристики позволяют определить
статистическую взаимосвязь поскольку в основе определения энтропии участвует
совместная плотность распределения переменных, а при определении взаимной информации
используются условная плотность распределения вероятностей, характеризующая
статическую зависимость переменных.
Энтропия выходной переменной может быть
представлена [2,3]:
где
Взаимная информация, выражающая статистическую
связь между переменными, определяется:
IHyx =
где
В работе исследуются неоднозначные зависимости
гистерезисного типа, представленных на рисунке 1: «месяц», «летучая мышь» [1].
По заданному аналитическому виду этих зависимостей получены экспериментальные
данные, табулированием этих зависимостей, затем эти данные обрабатывались тремя
методами: корреляционным анализом, методом дисперсионных отношений и расчетом
энтропийно-информационных характеристик. В качестве исходных зависимостей были
взяты следующие варианты[1].
а)
"Месяц": аналитический вид
-
где
б)
"Летучая мышь": аналитический вид
-
где
Формально задача исследования сводятся к
доказательству факта наличия статистической связи, предложенными
характеристиками, оцененными по эмпирическим данным.
Рисунок 1. Зависимости
релейного типа: а-"Месяц" , б-"Летучая мышь"
а б в
Таблица
|
Тип |
ПКК |
ПДО |
ПВИ |
|
А."Месяц" |
0 |
0.019 |
0.833 |
|
Б."Летучая
мышь" |
0 |
0.759 |
0,733 |
Из таблицы видно, что множественная корреляция в
двух случаях имеет нулевые значения. Напротив, парная взаимная информация
показывают достаточно высокие значения, что подтверждает наличие нелинейной
связи. Дисперсионная мера во втором случае так же подтверждает статистическую
связь. Для статистики «месяц» иллюстрируются вариант оценки статистических
связей, когда неоднозначность идентифицируется парной взаимной информацией.
Исследование статистической информации входной и выходной переменных показывает,
что они распределены не по нормальному закону распределения вероятностей, что
подтверждает нулевые значения коэффициентов корреляции. Это условие и
нелинейность зависимости объясняют неработоспособность корреляционного анализа.
На практике при получении экспериментальных
данных и их исследования корреляционным анализом приходят к выводу об
отсутствии статистической зависимости, что приводит к потере может быть ценной информации.
Поэтому требуется убедиться в отсутствии статистической связи применением
энтропийно-информационного похода.
Рисунок 2. Гистограмма входных и выходных переменных
На рисунке 2 представлены гистограммы, которые
иллюстрируют плотность распределения переменных x и y
для
зависимости «месяц». Видно, что плотности распределения отличны от нормального
распределения.
Вывод: на основании
статистического исследовании двух неоднозначных по входу и выходу зависимостей
показано неработоспособность корреляционного анализа и эффективность оценок
взаимной информационных мер.
Список
литературы:
1.
R. V. Lapshin «Analytical model for the
approximation of hysteresis loop and its application to the scanning tunneling
microscope», Review of Scientific Instruments, volume 66, number 9,
pages 4718-4730, 1995
2. Д.К. Тюмиков Энтропийно-информационные меры
многомерных статистических связей: Самарский гос. университет путей сообщ. –
Самара: СамГУПС, 2012. - 130 с.
3.
D.K. Tyumikov, M.A. Shcherbakov Structural characteristics of statistical relationships of
multidimensional nonlinear systems // Austrian Journal of Technical and Natural
Sciences, May, June, 2014 №3 , pp
28-32.