СОВРЕМЕННЫЕ ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ / 1.Компьютерная инженерия.
В. И. Хрусталев,
Р.И. Хрусталев, С.А. Сигнаевский, А.С. Себякин
Хакасский
государственный университет им. Н. Ф. Катанова
Определение меры неопределенности
информации с использованием формулы Шеннона
В настоящее время компьютерные технологии
широко используются в различных сферах деятельности человечества. Не стали
исключением и процессы экономического характера, управления и бизнеса.
Профессионалы работающие в этой сфере в своих работах активно используют
компьютерные технологии, что позволяет улучшать и дорабатывать уже известные
подходы применительно к достижению поставленных целей.
На сегодняшний день информационные
технологии являются бурно развивающемся направлением современного общества, в
связи с этим существует большое разнообразие количества определений понятия
«информация»
Приведем
четыре из них [1]:
1.
Информация есть
сущность, сохраняющаяся при вычислимом изоморфизме.
2.
Информация о какой-либо
предметной области (её объектах, явлениях и пр.) есть результат гомоморфного (то
есть сохраняющего основные соотношения) отображения элементов этой предметной
области в некоторые отторжимые от этих элементов сущности – сигналы,
характеристики, описания.
3.
Информация – это
содержательное описание объекта или явления.
4.
Информация, заключенная
в сообщении, есть сущность, определяющая изменение знаний при получении
сообщения.
В первом варианте определение
математически соотносится с моделями реальных объектов, во втором – с помощью
формальных сигналов осуществляется формализация информационных характеристик
объекта. Очевидно, что в третьем случае определение помимо содержательности
сведений об объекте, обращает внимание на процесс передачи этих сведений. В
четвертом случае для получателя сообщение является важным, если сведения об
объекте обладают новизной.
В настоящее время происходит активное
развитие теории информации и подходов к измерению количества информации. Эти
подходы можно разделить на пять основных видов:
1. Энтропийный;
2. Алгоритмический;
3. Комбинаторный;
4. Семантический;
5. Прагматический.
Первый подход получил применение в задачах
количественного определения сложности системы и уровня внешних воздействий,
второй – для описания (воссоздания) объекта, четвертый – для описания
содержательной части сообщения, передаваемого её получателю, пятый – обращает
внимание на полезность передаваемой информации [2].
Остановимся более подробно на энтропийном
подходе. Суть подхода заключается в применении математических выражений Клода
Шннона предложенного в 1949 году в работе «Математическая теория связи» [3]. В
нем при уменьшении вероятности отдельного сообщения количество информации
увеличивается. Получается что количество информации определяется как сумма
логарифмов доступных выборов. Формула Шеннона имеет вид:
, (1)
где
-вероятность
появления события i из множества М.
В данном математическом выражении мера
неопределенности информации Н(Х) позволяет измерить количественно
информацию.
Для более подробного рассмотрения процесса
определения меры неопределенности информации рассмотрим пример.
Пусть у нас имеется 32 компьютера, из них
8 с процессором Intel. Произведем случайный выбор
одного из 32 компьютеров. Какое количество информации содержит сообщение, что
выбранный компьютер с процессором Intel?
При таком выборе каждый компьютер с
одинаковой вероятностью 1/32 может быть с процессором фирмы Intel. Сообщение что компьютер с процессором фирмы Intel лишь частично снимает неопределенность
выбора. Количество информации можно определить как уменьшение неопределенности
до и после сообщения по формуле I=Hдо – Hпосле. Для
равновероятных исходов неопределенность можно вычислить по формуле Хартли Ндо
= log2(32)=5бит,
Нпосле = log2(8)=3бита, I = 5 -3
= 2 бита. С учетом свойств логарифмов этот же результат можно вычислить по
формуле I=log2(32)-log2(8)=log2(32/8)=2 бита.
Точно так же можно производить расчеты
меры неопределенности информации для реальных процессов и систем. И на основе
полученных данных производить анализ качества системы или процесса, для
выявления и устранения ошибок.
Литература:
1.
Н.А.Кузнецов,
«Информационное взаимодействие в технических и живых системах», Информационные
процессы, Том 1, № 1, 2001, стр. 1–9.
2.
А.С. Дулесов, В.И.
Хрусталев, С.В. Швец, «Применение формулы Шеннона и геометрического обобщения
для определения энтропии» Перспективы науки. Тамбов, 2010. -№3.
-C. 94-98.
3.
Shannon С. A Mathematical Theory of
Communication. Bell System Tech. J.,
1948, no. 27, pt.I., 379-423; pt.II., 623-656.