Презентация на тему: ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ

ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
Энтропия как мера степени неопределенности состояния физической системы
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
Энтропия
Энтропия
Свойства энтропии
Двоичная единица
Энтропия системы с равновозможными состояниями
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
Примеры
Энтропия сложной системы.
Теорема сложения энтропий
Условная энтропия. Объединение зависимых систем
Энтропия и информация
Кодирование сообщений.
Кодирование
Понятие оптимального кода
Двоичным код букв русской азбуки
Простейший код
Частоты букв в русском тексте.
Код Шеннона — Фэно
Принцип построения кода Шеннона — Фэно
Кода Шеннона — Фэно на материале русского алфавита
Способ кодирования
Ошибки при кодировании и передаче сообщения практически исключены
Информация на один символ
1/30
Средняя оценка: 4.2/5 (всего оценок: 47)
Код скопирован в буфер обмена
Скачать (322 Кб)
1

Первый слайд презентации: ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ

Теорией информации называется наука, изучающая количественные закономерности, связанные с получением, передачей, обработкой и хранением информации. Возникнув в 40-х годах нашего века из практических задач теории связи, теория информации в настоящее время становится необходимым математическим аппаратом при изучении всевозможных процессов управления. Черты случайности, присущие процессам передачи информации, заставляют обратиться при изучении этих процессов к вероятностным методам. При этом не удается ограничиться классическими методами теории вероятностей, и возникает необходимость в создании новых вероятностных категорий. Поэтому теория информации представляет собой не просто прикладную науку, в которой применяются вероятностные методы исследования, а должна рассматриваться как раздел теории вероятностей. Получение, обработка, передача и хранение, различного рода информации - непременное условие работы любой управляющей системы. В этом процессе всегда происходит обмен информацией между раз­ личными звеньями системы. Простейший случай - передача информации от управляющего устройства к исполнительному органу (передача команд). Более сложный случай -замкнутый контур управления, в ко­ тором информация о результатах выполнения команд передается управляющему устройству с помощью так называемой «обратной связи».

Изображение слайда
2

Слайд 2

Любая информация для того чтобы быть переданной, должна быть соответственным образом «закодирована», т. е. переведена на язык специальных символов или сигналов. Сигналами, передающими информацию, могут быть электрические импульсы, световые или зву­ковые колебания, механические перемещения и т. д. Одной из задач теории информации является отыскание наиболее экономных методов кодирования, позволяющих передать заданную информацию с помощью минимального количества символов. Эта задача решается как при отсутствии, так и при наличии искажений (помех) в канале связи. Другая типичная задача теории информации ставится следующим образом: имеется источник информации (передатчик), непрерывно вырабатывающий информацию, и канал связи, по которому эта информация передается в другую инстанцию ( приемник ). Какова должна быть пропускная способность канала связи для того, чтобы канал справлялся со своей задачей, т. е. передавал всю поступающую информацию без задержек и искажений?

Изображение слайда
3

Слайд 3

Ряд задач теории информации относится к определению объема запминающих устройств, предназначенных для хранения информации, к способам ввода информации в эти запоминающие устройства и ­ вывода ее для непосредственного использования. Чтобы решать подобные задачи, нужно прежде всего научиться измерять количественно объем передаваемой или хранимой информации, пропускную способность каналов связи и их чувствительность к помехам (искажениям). Основные понятия теории информации позволяют дать количественное описание процессов передачи информации и наметить некоторые математические закономерности, относящиеся к этим процессам.

Изображение слайда
4

Слайд 4: Энтропия как мера степени неопределенности состояния физической системы

Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Например, на вход автоматизированной системы управления производственным цехом может быть передано сообщение о нормальном или повышенном проценте брака, о химическом со­ ставе сырья или температуре в печи. На вход системы управления средствами противовоздушной обороны может быть передано сообщение о том, что в воздухе находятся две цели, летящие на определенной высоте, с определенной скоростью. На тот же вход может быть передано сообщение о том, что на определенном аэродроме в данный момент находится такое-то количество истребителей в бое­ вой готовности, или что аэродром выведен из строя огневым воз­ действием противника, или что первая цель сбита, а вторая продолжает полет с изменённым курсом. Любое из этих сообщений описывает состояние какой-то физической системы. Очевидно, если бы состояние физической системы было известно заранее, не было бы смысла передавать сообщение. Сообщение при­ обретает смысл только тогда, когда состояние системы заранее не ­ известно, случайно.

Изображение слайда
5

Слайд 5: ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ

В качестве объекта, о котором передается информация, мы будем рассматривать некоторую физическую систему X, которая случайным образом может оказаться в том или ином состоянии, т. е. систему, которой заведомо присуща какая-то степень н е о п р е д е л е н н о с т и. Очевидно, сведения, полученные о системе, будут, вообще говоря, тем ценнее и содержательнее, чем больше была неопределенность системы до получения этих сведений («априори »). Возникает естественный вопрос : что значит «большая» или « меньшая » степень неопределенности и чем можно ее измерить? Чтобы ответить на этот вопрос, сравним между собой две системы, каждой из которых присуща некоторая неопределенность..

Изображение слайда
6

Слайд 6

В качестве первой системы возьмем монету, которая в результате бросания может оказаться в одном из двух состояний: 1 ) выпал герб и 2) выпала цифра. В качестве второй — игральную кость, у которой шесть возможных состояний: 1, 2, 3, 4, 5 и 6. Спрашивается, не определенность какой системы больше? Очевидно, второй, так как так как у нее больше возможных состояний, в каждом из которых она может оказаться с одинаковой вероятностью. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше. Очевидно что степень неопределенности физической системы определяется не только числом её в о з м о ж н ы х состояний, но и в е р о я т н о с т я м и состояний.

Изображение слайда
7

Слайд 7: Энтропия

Перейдем к общему случаю. Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: х 1, x2... х n с вероятностями р 1, р 2 … р n, где р i = Р ( Х ~ х i ) Очевидно,

Изображение слайда
8

Слайд 8: Энтропия

Эта табличка по написанию сходна с рядом распределения прерывной случайной величины X с возможными значениями x v х 2, ■• •. х п, имеющими вероятности р г, р 2,.... р п• И действительно, между физической системой X с конечным множеством состояний и прерывной случайной величиной много общего; для того чтобы свести первую ко второй, достаточно приписать каждому состоянию какое-то числовое значение (скажем, номер состояния). Подчеркнем, что для описания степени неопределенности системы совершенно неважно, к а к и е именно значения x v х 2 х п записаны в верхней строке таблицы; важны только к о л и ч е с т в о этих значений и их в е­ р я т о с т и. В качестве меры априорной неопределенности системы (или прерывной случайной величины X ) в теории информации применяется специальная характеристика, называемая э н тр о п и е й. Понятие об энтропии является в теории информации основным. Энтропией, системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:

Изображение слайда
9

Слайд 9: Свойства энтропии

Энтропия Н { Х ), как мы увидим в дальнейшем, обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, она обращается в нуль, когда одно из состояний системы достоверно, а другие — невозможны. Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний — увеличивается. Наконец, и это самое главное, она обладает свойством аддитивности, т. е. когда несколько независимых систем объединяются в одну, их энтропии складываются. Логарифм в формуле может быть взят при любом основании а > 1. Перемена снования равносильна простому умножению энтропии на постоянное число, а выбор основания равносилен вы ­ бору определенной единицы измерения энтропии. Если за основание выбрано число 10, то говорят о «десятичных единицах» энтропии, если 2 — о «двоичных единицах». На практике удобнее всего пользоваться логарифмами при основании 2 и измерять энтропию в двоичных единицах; это хорошо согласуется с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления. В дальнейшем мы будем везде, если не оговорено противное, под символом log понимать двоичный логарифм.

Изображение слайда
10

Слайд 10: Двоичная единица

Легко убедиться, что при выборе 2 в качестве основания логарифмов за единицу измерения энтропии принимается энтропия простейшей системы X, которая имеет два равновозможных состояния : Действительно, по формуле имеем: Определенная таким образом единица энтропии называется « двоичной единицей» и иногда обозначается bit (от английского « binary digit » — двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей.

Изображение слайда
11

Слайд 11: Энтропия системы с равновозможными состояниями

Измерим в двоичных единицах энтропию системы X, которая имеет п равновероятных состояний: Имеем : или т. e. энтропия системы с равновозможными состояниями равна л о г а р и ф м у числа состояний. Например, для системы с восемью состояниями Н ( X ) = log 8 = 3. Докажем, что в случае, когда состояние системы в точности известно заранее, ее энтропия равна нулю. Действительно, в этом случае все вероятности р х, р 2,.., р п в формуле (18.2.2) обращаются в нуль, кроме одной — например р к, которая равна единице. Член р к log p k обращается в нуль, так как log 1 = 0. Остальные члены тоже обращаются в нуль, так как

Изображение слайда
12

Слайд 12

Энтропия системы с конечным множеством состояний достигает максимума, когда все состояния равновероятны. максимальная энтропия системы равна : т. е. максимальное значение энтропии системы числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. Вычисление энтропии по формуле можно несколько упро­стить, если ввести в рассмотрение специальную функцию: Где логарифм берется по основанию 2. Формула принимает вид:

Изображение слайда
13

Слайд 13

Определить энтропию физической системы, которая может оказаться в одном из четырех возможных состояний.Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и 0,1. Записываем условия в виде таблицы : По формуле имеем: Определить энтропию системы, состояние которой описывается прерывной случайной величиной X с рядом распределения Р е ш е н и е.

Изображение слайда
14

Слайд 14: Примеры

П р и м е р 3. Определить максимально возможную энтропию системы, состоящей из трех элементов, каждый из которых может быть в четырех возможных состояниях. Ре ш е н и е. Общее число возможных состояний системы равно Максимально возможная энтропия системы равна log 64 = 6 ( дв. ед.). П р и м е р 4. Определить максимально возможную энтропию сообщения, состоящего из пяти букв, причем общее число букв в алфавите равно 32. Р е ш е н и е. Число возможных состояний системы п=32 5. Максимально возможная энтропия равна 5 log 32 = 25 ( дв. ед ).

Изображение слайда
15

Слайд 15: Энтропия сложной системы

На практике часто приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем. Под объединением двух систем X и Y с возможными состояниями jfj,..., ‘х п; у х,... ', у т понимается сложная система ( X, К), состоя­ ния которой ( x t, yj ) представляют собой все возможные комбинации состояний х х, у} систем А' и К. Очевидно, число возможных состояний системы ( X, К) равно п ' Х т. Обозначим P tj вероятность того, что система (X, Y) будет в состоянии ( x t, yj ): Вероятности Р ц удобно расположить в виде таблицы (матрицы)

Изображение слайда
16

Слайд 16: Теорема сложения энтропий

Найдем энтропию сложной системы. По определению она равна сумме произведений вероятностей всех возможных ее состояний на их логарифмы с обратным знаком: или, в других обозначениях : Энтропию сложной системы, как и энтропии простой, тоже можно записать в форме математического ожидания: Подставляя в (), получим или т. е. при объединении независимых систем их энтропии складываются, Доказанное положение называется т е о р е м о й с л о ж е н и я энтропий. Теорема сложения энтропий может быть легко обобщена на произвольное число независимых систем:

Изображение слайда
17

Слайд 17: Условная энтропия. Объединение зависимых систем

Если две системы X и У объединяются в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей­ плюс условная энтропия второй части относительно первой : Полная условная энтропия не может превосходить безусловную: Степень неопределенности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным. Теорему об энтропии сложной системы легко можно распростра­нить на любое число объединяемых систем : где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.

Изображение слайда
18

Слайд 18: Энтропия и информация

Энтропия была определена как мера неопределенности состояния некоторой физической системы. Очевидно, что в результате получения сведений неопределенность системы может быть уменьшена. Чем больше объем полученных сведений, чем они более содержательны, тем больше будет информация о системе, тем менее неопределенным будет ее состояние. Естественно поэтому количество информации измерять уменьшением энтропии той системы, для уточнения состояния которой предназначены сведения. Рассмотрим некоторую систему X, над которой производится наблюдение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным. До получения сведений (априори) энтропия системы была Н (X); после получения сведений состояние системы полностью определилось, т. е. энтропия стала равной нулю. Обозначим Ix информацию, получаемую в результате выяснения состояния системы X. Она равна уменьшению энтропии: или количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы.

Изображение слайда
19

Слайд 19: Кодирование сообщений

При передаче сообщения по линиям связи всегда приходится пользоваться тем или иным кодом, т. е. представлением сообщения в виде ряда сигналов. Общеизвестным примером кода может служить принятая в телеграфии для передачи словесных сообщений азбука Морзе. С помощью этой азбуки любое сообщение представляется в виде комбинации элементарных сигналов: точка, тире, пауза ( пробел между буквами), длинная пауза (пробел между словами ). Вообще кодированием называется отображение состояния одной физической системы с помощью состояния некоторой другой. Например, при телефонном разговоре звуковые сигналы кодируются в виде электромагнитных колебаний, а затем снова декодируются, превращаясь в звуковые сигналы на другом конце линии. Наиболее простым случаем кодирования является случай, когда обе системы X и Y ( отображаемая и отображающая) имеют конечное число возможных состояний. Так обстоит дело при передаче записанных буквами сообщений, например, при телеграфировании. Мы ограничимся рассмотре­нием этого простейшего случая кодирования.

Изображение слайда
20

Слайд 20: Кодирование

Пусть имеется некоторая система X (например, буква русского алфавита), которая может случайным образом принять одно из состояний x 1, x 2,.... х п. Мы хотим отобразить ее (закодировать) с по­ мощью другой системы X, возможные состояния которой y 1, у 2 у т. Если m < n, (число состояний системы Y меньше числа состояний системы X ), то нельзя каждое состояние системы X закодировать с по­ мощью одного-единственного состояния системы Y. В таких случаях одно состояние системы X приходится отображать с помощью определенной комбинации (последовательности) состояний системы Y. Так, в азбуке Морзе буквы отображаются различными комбинациями 'элементарных символов (точка, тире). Выбор таких комбинаций и установление соответствия между передаваемым сообщением и этими комбинациями и называется «кодированием» в узком смысле слова.

Изображение слайда
21

Слайд 21: Понятие оптимального кода

Коды различаются по числу элементарных символов (сигналов), из которых формируются комбинации, иными словами — по числу возможных состояний системы К. В азбуке Морзе таких элементарных символов четыре (точка, тире, короткая пауза, длинная пауза). Передача сигналов может осуществляться в различной форме: световые вспышки, посылки электрического тока различной длительности, звуковые сигналы и т. п. Код с двумя элементарными символами (0 и 1 ) называется двоичным. Двоичные коды широко применяются на практике, особенно при вводе информации в электронные цифровые вы­ числительные машины, работающие по двоичной системе счисления. Одно и то же сообщение можно закодировать различными способами. Возникает вопрос об оптимальных ( наивыгоднейших ) способах кодирования. Естественно считать наивыгоднейшим такой код, при котором на передачу сообщений затрачивается минимальное время. Если на передачу каждого элементарного символа (например 0 или 1) тратится одно и то же время, то оптимальным будет такой код, при котором на передачу сообщения заданной длины будет затрачено минимальное количество элементарных символов.

Изображение слайда
22

Слайд 22: Двоичным код букв русской азбуки

Предположим, что перед нами поставлена задача: закодировать двоичным кодом буквы русской азбуки так, чтобы каждой букве соответствовала определенная комбинация элементарных символов 0 и 1 и чтобы среднее число этих символов на букву текста было минимальным. Рассмотрим 32 буквы русской азбуки: а, б, в, г, д, е, ж, з, и, й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш, щ, т>, ы, ь, э, ю, я плюс промежуток между словами, который мы будем обозначать «—». Если, как принято в телеграфии, не различать букв ъ и ь (это не приводит к разночтениям), то получится 32 буквы: а, б, в, г, д, е, ж, з, и, й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш, щ, (ъ, ь ), ы, э, ю, я, « —». Первое, что приходит в голову — это, не меняя порядка букв, занумеровать их подряд, приписав им номера от 0 до 31, и затем перевести нумерацию в двоичную систему счисления. Двоичная си­стема — это такая, в которой единицы разных разрядов представляют собой разные степени двух. Например, десятичное число 12 изобра­зится в виде и в двоичной системе запишется как 1100.

Изображение слайда
23

Слайд 23: Простейший код

Каждое из чисел 0. 1. 2.......... 31 может быть изображено пятизначным двоичным числом. Тогда получим следующий код: а — 00000 б — 00001 в — 00010 г — 00011 ………………….. я — 11110 «— » — 11111 В этом коде на изображение каждой буквы тратится ровно 5 элементарных символов. Возникает вопрос, является ли этот простейший код оптимальным и нельзя ли составить другой код, в котором у букву будет в среднем приходиться меньше элементарных символов ?

Изображение слайда
24

Слайд 24: Частоты букв в русском тексте

Действительно, в нашем коде на изображение каждой буквы — час о встречающихся «а», «е», «о» или редко встречающихся «щ», «э», «ф» — тратится одно и то же число элементарных символов. Очевидно, разумнее было бы, чтобы часто встречающиеся буквы были закодированы меньшим числом символов, а реже встречающиеся — большим. Чтобы составить такой код, очевидно, нужно знать частоты букв в русском тексте. Эти частоты приведены в таблице () Буквы в таблице расположены в порядке убывания частот.

Изображение слайда
25

Слайд 25: Код Шеннона — Фэно

Пользуясь такой таблицей, можно составить наиболее экономич­ный код на основе соображений, связанных с количеством информации. Очевидно, код будет самым экономичным, когда каждый элементарный символ будет передавать максимальную информацию. Рассмотрим элементарный символ (т. е. изображающий его сигнал) как физическую систему с двумя возможными состояниями: 0 и 1. Информация, которую дает этот символ, равна энтропии системы и максимальна в случае, когда оба состояния равновероятны; в этом случае элементарный символ передает информацию 1 ( дв. ед.). Поэтому основой оптимального кодирования будет требование, чтобы элементарные символ в закодированном тексте встречались в сред­нем одинаково часто. Способ построения кода, удовлетворяющего поставленному условию ; этот способ известен под названием «кода Шеннона — Фэно ». Идея его состоите том, что кодируемые символы (буквы или комбинации букв) разделяются на две приблизительно равновероятные группы: для первой группы символов на первом месте комбинации ставится 0 ( первый знак двоичного числа, изображающего символ ); для второй группы — 1.

Изображение слайда
26

Слайд 26: Принцип построения кода Шеннона — Фэно

Изображение слайда
27

Слайд 27: Кода Шеннона — Фэно на материале русского алфавита

С помощью приведённой таблицы можно закодировать и декодировать любое сообщение.

Изображение слайда
28

Слайд 28: Способ кодирования

В виде примера запишем двоичным кодом фразу: « теория ин­формации » 0111 0100 001101000110110110000 0110100011111111100110100 1100001011111110101100110 Заметим, что здесь нет необходимости отделять друг от друга буквы специальным знаком, так как и без этого декодирование выполняется однозначно. В этом можно убедиться, декодируя с по­ мощью таблицы 18.8.2 следующую фразу: 10011100110011001001111010000 1011100111001001101010000110101 010110000110110110 («способ кодирования»). («способ кодирования»).

Изображение слайда
29

Слайд 29: Ошибки при кодировании и передаче сообщения практически исключены

Однако необходимо отметить, что любая ошибка при кодировании (случайное перепутывание знаков 0 и 1) при таком коде губительна, так как декодирование всего следующего за ошибкой текста становится невозможным. Поэтому данный принцип кодирования может быть рекомендован только в случае, когда ошибки при кодировании и передаче сообщения практически исключены. Возникает естественный вопрос: а является ли составленный нами код при отсутствии ошибок действительно оптимальным? Для того чтобы ответить на этот вопрос, найдем среднюю информацию, приходящуюся на один элементарный символ (0 или 1), и сравним ее с максимально возможной информацией, которая равна одной двоичной единице. Для этого найдем сначала среднюю информацию, содержащуюся в одной букве передаваемого текста, т. е. энтропию на одну букву : где p i — вероятность того, что буква примет определенное состояние («— », о, е, а,……., ф).

Изображение слайда
30

Последний слайд презентации: ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ: Информация на один символ

Из табл, () имеем ( дв. единиц на букву текста). П о таблице 18.8.2 определяем среднее число элементарных символов на букву n ср = 3 • 0. 145 + 3 • 0, 0 9 5 + 4 • 0. 0 7 4 +... ... + 9 • 0, 0 0 3 + 9 • 0, 0 0 2 = 4, 4 5. Деля энтропию H (б) на л ср, получаем информацию на один элементарный символ Таким образом, информация на один символ весьма близка к своему верхнему пределу 1, а выбранный нами код весьма близок к оптимальному. Оставаясь в пределах задачи к о д и р о в а н и я по буквам, мы ничего лучшего получить не сможем. Заметим, что в случае кодирования просто двоичных номеров букв мы имели бы изображение каждой буквы пятью двоичными знаками и информация на один символ была бы т. е. заметно меньше, чем при оптимальном буквенном кодировании.

Изображение слайда