Энтропия дискретного источника – это среднее количество информации, содержащейся в одном сообщении, т.е. при основании кода a=2:
Энтропия зависит от количества событий и их вероятностей Pi;
Зависимость H=f(Р)
Двоичный
Дискретный источник
Рис. 1.2. График зависимости H от p
Можно показать, что если N>2, то при увеличении N точка максимума будет смещаться влево и возрастать (на графике это показано штрихпунктирной линией). Nmax будет при равновероятных событиях.