Главная страница Случайная лекция Мы поможем в написании ваших работ! Порталы: БиологияВойнаГеографияИнформатикаИскусствоИсторияКультураЛингвистикаМатематикаМедицинаОхрана трудаПолитикаПравоПсихологияРелигияТехникаФизикаФилософияЭкономика Мы поможем в написании ваших работ! |
Энтропия сложного событияПусть имеются два опыта λ и β. Опыт λ имеет исходы: x1, x2,…,xm с вероятностями – p(x1), p(x2),…,p(xm); а опыт β имеет исходы: y1, y2,…,yk с вероятностями - p(y1), p(y2),…,p(yk). В качестве сложного опыта будем рассматривать совместное появление опытов λ и β. Тогда исходами сложного опыта будут (x1y1), (x1y2),…,(xmyk); вероятности этих исходов: p(x1y1),…, p(xiyj).
Энтропия сложного события:
Рассмотрим два случая, когда λ и β независимы и зависимы друг от друга. 1). Опыты λ и β имеют независимые исходы. Тогда: p(xiyj)= p(xi)·p(yj).
Раскрыв логарифм произведения, получим:
Окончательно получаем: . 2). Опыты λ и β зависят друг от друга. Тогда (xiyj)= p(xi)·p(yj/xi)
При условии, что произошло событие xi, имеем: т.к. суммируются вероятности всех событий yj при условии появления xi на выходе источника λ. Выражение
представляет собой энтропию опыта β, при условии, что в опыте λ был исход xi . Здесь усреднение результатов по опыту β. Тогда
Но первое слагаемое есть H(λ), а второе – условная энтропия H(β/λ), где усреднение уже по опыту λ. Тогда: , или аналогично . Вывод: энтропия сложного события равна сумме энтропий каждого события, если опыты независимы и энтропия равна сумме энтропий одного опыта и условной энтропии другого опыта относительного первого, при двух зависимых опытах (дискретных источниках).
Дата добавления: 2014-03-11; просмотров: 438; Нарушение авторских прав Мы поможем в написании ваших работ! |