Энтропия. Теория информации
Наименование «бит» (“bit”) происходит от сокращения английских слов «двоичная единица» (binary unit).
В реальных текстах появлению разных букв соответствуют разные вероятности. Так, например, для русских текстов вероятность появления буквы "О" в 30 раз превышает вероятность появления буквы «Щ» или «Э» (Ро= 0,09; Рщ= Рэ= 0,003).
При подстановке в формулу (1.13) реальных значений вероятностей букв русского текста величина реальной информационной энтропии Нr уменьшается по сравнению с максимальной энтропией, определяемой выражением (2.4).
Разность между величиной максимальной энтропии Нmax и реальной энтропии Нr соответствует количеству избыточной (предсказуемой ) информации In.
Таким образом:
In = Hmax – Hr |
(2.6) |
Учет реальных значений вероятностей букв при передаче письменных текстов позволяет уменьшить избыточность сообщений, передаваемых по каналам связи. Так, например, для избавления от избыточности используется способ кодирования букв алфавита, при котором часто повторяющимся в тексте буквам (т.е. буквам, имеющим наибольшую вероятность, такую, например, как Ра = =0,062; Рв = 0,038 ; Ре = 0,072 ; Рл = 0,035 ; Ро = 0,09 и др.) соответствуют или меньшая трата энергии за счет уменьшения величины (амплитуды) сигналов или, увеличенная скорость передачи за счет сокращения числа знаков двоичного кода, соответствующего обозначению указанных букв.
Помимо учета реальных вероятностей букв, для уменьшения избыточности сообщений следует учитывать также вероятности их сочетаний (например, высокую вероятность появления буквы Я после переданного сочетания ТЬС , малую вероятность появления согласной буквы после передачи следующих друг за другом трех согласных букв и т.п.).
Таблица 1
Способ формирования «фраз» | №№ пп | "Фразы", полученные на основе статистических свойств русского языка |
Статистические характеристики фраз | |
Нr (бит) | D Is (бит ) | |||
При равной вероятности всех букв |
1 |
СУХРРОБЬТ ЯИХВЩИЮАЙЖТЛ-ФВНЗАГФОЕВШТТЦРПХГРКУ -ЧЖОРЯПЧЬКЙХРЫС | 5,0 | 0,0 |
При учете реальных вероятностей : | ||||
отдельных букв 3-х - буквенных сочетаний |
2 |
ЕЫНТ ЦИЯЬА СЕРВ ОДНГ ЬУЕМЛОЙК ЭБЯ ЕНВТША ПОКАК ПОТ ДУРНОСКАКА НАКОНЕПНО SHE СТВО - | 4,3 | 0,7 |
3 |
ЛОВИЛ СЕ ТВОЙ ОБНИЛ Ь | 3,5 | 1.5 | |
4-х - буквенных сочетаний |
4 |
ВЕСЕЛ ВРАТЬСЯ НЕ СУХОМ И НЕПО И КОРКО | 2,9 | 2,1 |
8-ми - буквенных сочетаний | 1,8 | 3.2 | ||
Выборка из реального текста |
5 |
ПРИСВОИВ ДВОИЧНЫЕ НОМЕРА БУКВАМ АЛФАВИТА, МОЖНО ПВРЕВРАТИТЬ ЛЮБОЙ ТЕКСТ В ЧЕРЕДОВАНИЕ ЕДИНИЦ И НУЛЕЙ | 1,0 | 4,0 |
При РА = 1; РБ-Рв-.-.-Ря = О |
АААА. . | 0,0 | 5,0 |
В результате взаимной корреляции букв в употребляемых в текстах буквенных сочетаний происходит дополнительное уменьшение определяемой выражением (1.13) реальной энтропии Нr по сравнению с определяемой выражением (2.4) максимальной энтропии Нmax. Подстановка значения Нr, вычисленного с учетом взаимной корреляции букв, в выражение (2.6) дает дополнительное увеличение численного значения избыточной информации In (таблица 1). Указанные свойства письменных текстов наглядно иллюстрируются таблицей искусственных текстов, полученных путем случайных выборок из реальных текстов отдельных букв или их сочетаний. Вместе с тем, указанная таблица показывает, что вместе с увеличением избыточности увеличивается и упорядо ченность (детерминация) текста, достигая в пределе «жесткой детерминации», при которой текст вырождается в повторение одинаковых букв.
Такая взаимосвязь между избыточностью и упорядоченностью текста обусловлена тем, что избыточность текста обусловлена действием грамматических и фонетических правил. Именно этими правилами обусловлена присущая тексту структурность, следовательно, вычисляемое согласно (2.6) количество избыточной информации In является одновременно и количеством информации, сохраняемой в упорядоченой структуре текста или любых других структурированных систем :
D IS = Hmax – Hr |
(2.7) |
Перейти на страницу: 1 2 3 4 5 6 7 8 9 10 11 12 13 14