![]() Главная страница Случайная лекция ![]() Мы поможем в написании ваших работ! Порталы: БиологияВойнаГеографияИнформатикаИскусствоИсторияКультураЛингвистикаМатематикаМедицинаОхрана трудаПолитикаПравоПсихологияРелигияТехникаФизикаФилософияЭкономика ![]() Мы поможем в написании ваших работ! |
ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ5.1. Предмет и содержание теории информации
Основой процессов управления и связи в технических системах является передача, хранение и преобразование информации. Под информацией понимают совокупность сведений о той или иной физической системе, явлении или событии. Передача информации обеспечивает процесс общения между ее отправителем и получателем, которые, как правило, разделены пространством и временем (рис.5.1).
Рис. 5.1 - Структурная схема передачи информации
Информация представляет собой свойство материи и требуется материальный носитель, на котором она отображалась бы. В качестве носителей информации могут служить различные объекты, например, листы бумаги, магнитофонные ленты, ферритовая матрица памяти ЦВМ, световые колебания, радиоколебания и т.д. Отображение информации на носителе означает изменение его состояния по определенным законам. Отметим, что процесс изменения состояния носителя является процессом формирования сигнала. Это означает, что в качестве сигналов, выступают не сами объекты, а их состояния. Итак, сигнал, являясь носителем информации, представляет собой изменение по заранее установленному правилу состояния материального объекта. Сообщения, подлежащие передаче, могут быть дискретными (например, передача текста, состоящего из отдельных букв) или непрерывными (речь, музыка). Получатель должен быть информирован о том, в каком соответствии находятся сообщения и сигналы, сформированные путем кодирования и модуляции. Это необходимое условие, при котором получатель может извлечь информацию из сигнала. При этом сигнал вследствие неопределенности выбора представляется получателю случайной функцией времени. В условиях неизбежных помех при передаче информации встают важные проблемы передачи по каналу связи максимального количества информации с минимальными искажениями, обнаружения сигналов в шумах, наилучшей фильтрации и другие. Основными вопросами, которые решает теория информации, являются вопросы осуществления помехоустойчивого кодирования и декодирования, расчета пропускной способности каналов связи оптимальной обработки сигналов, сбора и хранения информации.
5.2. Энтропия как мера неопределенности состояния системы
Вопрос о количественной мере информации наиболее актуальный в теории информации. На современном этапе развития этой теории отвлекаются от семантической, смысловой стороны информации и характеризуют ее лишь с одной стороны – со стороны неопределенности рассматриваемой физической системы. При этом под получением информации о состоянии некоторой физической системы подразумевают разность между априорной неопределенностью ее состояния и апостериорной (после постановки опыта по изучению ее состояния) неопределенностью. В связи с этим встает вопрос о том, как измерять неопределенность состояния данной физической системы. Предположим, что система может находиться с равными вероятностями в одном из n состояний Таблица 5.1. Равновероятные состояния системы
Рассмотрим, каким условиям должна удовлетворять функция H ( Очевидно, что функция H ( В итоге, неопределенность состояния совокупности двух и более независимых систем должна быть равна сумме неопределенности состояний отдельных систем (условия аддитивности). Перечисленным требованиям удовлетворяет логарифмическая функция числа состояния: H ( Выполнение первых двух условий является очевидным. Для доказательства аддитивности такой меры неопределенности рассмотрим две независимые системы, имеющие n и m исходов соответственно. В этом случае совокупность H ( За единицу неопределенности принимают неопределенность ситуации с двумя равновероятными исходами. Основание логарифма при этом необходимо взять равным двум: H ( Данная единица измерения неопределенности называется двоичной единицей. В зависимости от основания логарифма (e или 10) различают натуральные или десятичные единицы. Предположим, что система может находиться в n не равновероятных состояниях, как показано в табл. 5.2. Таблица 5.2 Не равновероятные состояния системы
Естественно, что
В этом случае неопределенность состояния системы будет зависеть не только от числа состояний n, но и от того, как распределены вероятности состояний. В этом убеждает рассмотрение двух систем с одинаковым числом состояний, но с разным распределением вероятностей состояний (см. табл. 5.3 и табл. 5.4).
Таблица 5.3 Равновероятные распределения состояний системы
Таблица 5.4 Не равновероятные распределения состояний системы
Очевидно, что доопытная неопределенность состояния в первой системе гораздо больше, чем во второй. Предположим далее, что апостериорная неопределенность равна нулю, то есть после опыта состояние системы становится известным точно. Тогда количество получаемой в результате опыта информации численно равно априорной неопределенности состояния системы. Количество информации, получаемой в результате опыта, зависит от вероятности наступившего исхода. Действительно, если наступает исход Частную информацию, получаемую при наступлении
здесь
Выше было оговорено, что рассматривается случай, когда апостериорная неопределенность состояния системы равна нулю, Поэтому можно полагать, что мерой неопределенности системы с n не равновероятными состояниями следует применять величину H ( Это выражение получило название формула Шеннона. Подчеркнем, что определяемая формулой (5.3) энтропия – средняя на один исход опыта.
5.3. Энтропия дискретных случайных величин
Считая совокупность различных состояний системы с их вероятностями множеством значений случайной величины с дискретным распределением вероятностей, рассмотрим двумерную дискретную случайную величину со статистическими зависимыми составляющими Составим таблицу возможных сочетаний значений случайных величин
Таблица 5.5 Вероятности сочетаний случайных величин
Учитывая (5.3) и на основании данной таблицы записываем выражение для энтропии совокупности случайных величин H ( Преобразуем выражение (5.4), используя соотношение P ( H( = Первое слагаемое в этом выражении есть энтропия H ( Во втором слагаемом величина
представляет собой энтропию величины Условная энтропия величины
= Таким образом, H ( Можно также показать справедливость следующего равенства: H ( Здесь
Если величины
то
Это означает, что условная энтропия равна безусловной и H ( При жесткой функциональной связи случайных величин
Следовательно, в этом случае H ( Можно показать, что в общем случае выполняются следующие неравенства: 0 0 Таким образом, статистическая зависимость между случайными величинами, входящими в систему, уменьшает энтропию системы. Предположим, что производится опыт, в результате которого становится известным значение одной из статистически зависимых случайных величин, например При этом неопределенность величины
Выражение (5.11) определяет разность доопытной и оставшейся после опыта неопределенности случайной величины В случае независимых случайных величин
и
то есть знание величины 0 Из уравнений (5.6) и (5.7) следует, что H ( следовательно, H ( Таким образом, информация о случайной величине
Выражение (5.11) можно, получить в симметричной относительной I ( = Умножив первое слагаемое на
найдем I(
5.4. Энтропия дискретных случайных процессов
Ранее рассматривались свойства энтропии дискретных случайных величин. Рассмотрим теперь понятие энтропии применительно к случайным последовательностям некоторых символов (например, цифр, букв). Данный вопрос имеет существенное практическое значение, так как во многих случаях для передачи информации используются дискретные последовательности. Будем в дальнейшем рассматривать так называемые эргодические последовательности, у которых вероятностные связи распространяются на конечное число элементов. Рассмотрим вначале случай равновероятных статистических независимых элементов случайной последовательности. Предположим, что число различных элементов равно N. Число различных слов длиной S элементов, которые можно составить из алфавита объемом в N элементов, равно
Здесь индекс "
Отсюда по формуле (5.3) находим среднюю энтропию на одно слово
Энтропия, приходящаяся на одну букву, равна
Предположим, что элементы случайной последовательности являются не равновероятными и независимыми. Считая длину слова Элемент Следовательно, вероятность появления слова длиной S равна
Общее число различных слов вследствие их равновероятности определяется соотношением
Отсюда находим среднюю энтропию на одно слово
(5.17) На один элемент последовательности приходится энтропия, равная
Наконец, рассмотрим случай, когда элементы случайной последовательности статистически зависимы. Предположим, что элементы случайной последовательности образуют простую односвязную цепь Маркова, то есть вероятностная связь существует только между двумя соседними элементами и вероятность передачи элемента
Усредняя по всем элементам
= Если вероятностные связи имеют место между тремя элементами, то энтропия последовательности, приходящаяся на один элемент, будет равна
При наличии связей между большим числом элементов энтропия подсчитывается аналогичным образом. Вероятностные связи между элементами уменьшают энтропию последовательности и тем интенсивнее, чем теснее эти связи и чем большее число элементов будет ими охвачено. Рассмотрим пример. Пусть случайная последовательность состоит из элементов 0 и 1, вероятности которых соответственно равны P(
По формуле (5.19) находим энтропию на один элемент:
При отсутствии статистических связей между элементами энтропия на один элемент оказалась бы равной
Наконец, при равновероятности и независимости элементов последовательности получаем:
то есть максимально возможную в данном случае энтропию.
5.5. Энтропия непрерывных случайных величин и сигналов
Выражение, определяющее энтропию непрерывной случайной величины, получим предельным переходом из дискретного варианта. Заменим непрерывную случайную величину Рис. 5.2 – Гистограмма распределения величины
В пределе при H (
= = = С уменьшением интервала В связи с этим используют относительную энтропию
где H ( В качестве, энтропии H (
Тогда H ( При
Весьма важным с практической стороны является вопрос о том, какие распределения В дальнейшем нам будет необходим следующий результат из вариационного исчисления. Пусть имеется интеграл I = зависящий от вида функции
где функции Доказано, что такая функция
Здесь Разберем следующие случаи. 1. Случайная величина может принимать значения из интервала (a, b). Искомое распределение случайной величины должно удовлетворять условию нормировки
Воспользовавшись (5.23) – (5.25), записываем для выражения (5.22): F
Частные производные имеют вид:
Уравнение (5.25) в данном случае приобретает вид:
откуда P = Для нахождения множителя
Следовательно,
Таким образом, равномерный закон распределения обладает наибольшей энтропией среди всех законов с одним и тем же интервалом значений случайной величины. 2. Случайная величина имеет фиксированную дисперсию (интервал возможных значений
Здесь имеем: F
откуда
Неопределенные множители
Проделав несложные подстановки и выполнив интегрирование, находим
Следовательно, из всех законов с заданной дисперсией нормальный закон имеет максимальную энтропию. Рассмотрим задачу о нахождении энтропии непрерывного случайного процесса. В соответствии с теоремой Котельникова непрерывная случайная функция времени с ограниченным спектром может быть представлена совокупностью дискрет, отстоящих друг от друга на На конечном интервале времени Т число выборочных значений равно n =
Отсюда энтропия непрерывного случайного процесса определяется выражением H
Если дискреты не коррелированы и независимы, как в случае "белого" гауссовского шума, то энтропия его будет равна сумме энтропий отдельных дискрет. Средняя энтропия на реализацию "белого" гауссовского шума длиной Т, равна H Можно показать, что энтропия H ( Тогда H Как видно из последнего выражения, с увеличением скорости флюктуаций (ширины спектра
Дата добавления: 2014-10-17; просмотров: 508; Нарушение авторских прав ![]() Мы поможем в написании ваших работ! |