Презентация на тему: Информатика

Реклама. Продолжение ниже
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
Информатика
1/105
Средняя оценка: 4.2/5 (всего оценок: 65)
Код скопирован в буфер обмена
Скачать (1218 Кб)
Реклама. Продолжение ниже
1

Первый слайд презентации: Информатика

Доцент кафедры ВиИТ ИМ СФУ Дарья Владиславовна Семёнова dariasdv@aport2000.ru

Изображение слайда
1/1
2

Слайд 2

Информатика Лекция 2 Информация, ее виды и свойства Информатика — наука о способах получения, накоплении, хранении, преобразовании, передаче и использовании информации. 2 / 8 7

Изображение слайда
1/1
3

Слайд 3

Информатика Лекция 2 Классификация информации 3 / 8 7

Изображение слайда
1/1
4

Слайд 4

Информатика Лекция 2 Формы представления информации Сообщение - информация, фиксированная в определенной форме. Сигнал можно характеризовать как средство перенесения информации в пространстве и времени. Кодирование - построение сигнала по определенным правилам. 4 / 8 7

Изображение слайда
1/1
5

Слайд 5

Информатика Лекция 2 Информационный элемент Первичным и неделимым элементом информации следует считать двоичное событие : утверждение или отрицание, наличие или отсутствие, единица или нуль, импульс или пауза. Событие не имеет геометрических измерений и представляется точкой ДА НЕТ 5 / 8 7

Изображение слайда
1/1
6

Слайд 6

Информатика Лекция 2 Величина Множество событий, упорядоченное в одном измерении, называется величиной. Дискретная величина принимает счетное множество значений. Непрерывная величина принимает бесконечное множество значений. Геометрически величина представляется линией.  X – шаг квантования X 6 / 8 7

Изображение слайда
1/1
7

Слайд 7

Информатика Лекция 2 Функция Если существует соответствие между величиной X и другой величиной U, или между величиной X и пространством N, или величиной X и временем T, то говорят о функции X(U), X(N), X(T) соответственно. Геометрическая функция может быть представлена как поле событий. Различают функции с непрерывным и дискретным аргументом. 7 / 8 7

Изображение слайда
1/1
Реклама. Продолжение ниже
8

Слайд 8

Информатика Лекция 2 Функция T X  X  T 8 / 8 7

Изображение слайда
1/1
9

Слайд 9

Информатика Лекция 2 Комплекс информации X(T, N) Комплекс информации X ( T,N ) представляет собой соответствие между величиной, с одной стороны, и временем и пространством - с другой. Элементами информационного комплекса являются кванты - неделимые части информации Геометрически комплекс информации представляется трехмерным полем событий. 9 / 8 7

Изображение слайда
1/1
10

Слайд 10

Информатика Лекция 2  T N  X  N X T Комплекс информации X(T, N) 10 / 8 7

Изображение слайда
1/1
11

Слайд 11

Информатика Лекция 2 Модели информации Информация описывается моделями с различной мерностью: событие представляет собой нульмерную информацию; величина - одномерную информацию; функция – двухмерную информацию; комплекс – трехмерную информацию. 11 / 8 7

Изображение слайда
1/1
12

Слайд 12

Информатика Лекция 2 12 / 8 7

Изображение слайда
1/1
13

Слайд 13

Информатика Лекция 2 Информационные меры : синтаксические Структурный подход При использовании структурных мер информации учитывается только дискретное строение сообщения, количество содержащихся в нем информационных элементов, связей между ними. 13 / 8 7

Изображение слайда
1/1
14

Слайд 14

Информатика Лекция 2 Информационные меры : синтаксические Структурный подход : геометрическая мера. Геометрическая мера предполагает измерение параметра геометрической модели информационного сообщения (длины, площади, объема и т. п ) в дискретных единицах (в количестве квантов). 14 / 8 7

Изображение слайда
1/1
Реклама. Продолжение ниже
15

Слайд 15

Информатика Лекция 2 Информационные меры : синтаксические Структурный подход : геометрическая мера. Сообщение S=S(X, N, T). Единица измерения – метрон (мера точности измеряемого параметра). Один метрон = объему элементарной ячейки v = Δ X* Δ N* Δ T количество метронов, обусловленное точностью измерения координат X, N, T ; X, N, T - интервалы, через которые осуществляются дискретные отсчеты. 15 / 8 7

Изображение слайда
1/1
16

Слайд 16

Информатика Лекция 2  T N  X  N X T Комплекс информации X(T, N) 16 / 8 7

Изображение слайда
1/1
17

Слайд 17

Информатика Лекция 2 Информационные меры : синтаксические Структурный подход : геометрическая мера. Информационная емкость есть число, указывающее количество метронов в полном массиве информации (количество метронов в сообщении S ) Максимально возможное число метронов в заданных структурных габаритах определяет информационную емкость системы. 17 / 8 7

Изображение слайда
1/1
18

Слайд 18

Информатика Лекция 2 Информационные меры : синтаксические Структурный подход : геометрическая мера. Сообщение 5 5 55554 4 444 3333 Информационный элемент – 1 символ сообщения. Объем сообщения ( количество метронов ): M исх = 1 5. Кодирование повторений 5( 6 )4( 5 )3( 4 ). M код = 1 2. Эффект кодирования M исх – M код =3 M( компьютеризация )= M( 5 5 55554 4 444 3333 ) 18 / 8 7

Изображение слайда
1/1
19

Слайд 19

Информатика Лекция 2 Информационные меры : синтаксические Комбинаторная мера оценивает возможность представления информации при помощи различных комбинаций информационных элементов в заданном объеме. Комбинаторика – раздел дискретной математики, посвященный решению задач выбора и расположения элементов некоторого множества в соответствии с заданными правилами. В комбинаторной мере количество информации определяется как число комбинаций элементов (символов). 19 / 8 7

Изображение слайда
1/1
20

Слайд 20

Информатика Лекция 2 Информационные меры : синтаксические Перестановками называют комбинации, которые отличаются друг от друга расположением элементов. Количество перестановок из n элементов без повторений. Количество перестановок из n элементов с повторениями. k 1 + k 2 +.. + k r. = n. 20 / 8 7

Изображение слайда
1/1
21

Слайд 21

Информатика Лекция 2 Информационные меры : синтаксические Сочетаниями называют комбинации, составленные из n различных элементов по m элементов Сочетания - группы по k элементов, образуемые из n разных элементов, различающиеся между собой самими элементами. Количество сочетаний из n разных элементов по k элементов с повторениями, в которые элементы могут входить многократно (до m раз) 21 / 8 7

Изображение слайда
1/1
22

Слайд 22

Информатика Лекция 2 Информационные меры : синтаксические Размещения - группы по k элементов, образуемые из n разных элементов, различающиеся между собой либо самими элементами, либо порядком их следования. Количество размещений из n разных элементов по k элементов без повторений. Количество размещений из n разных элементов по k элементов с повторениями. 22 / 8 7

Изображение слайда
1/1
23

Слайд 23

Информатика Лекция 2 Информационные меры : синтаксические Единицей измерения информации в комбинаторной мере является число комбинаций информационных элементов. Определение количества информации в комбинаторной мере - определение количества возможных или существующих комбинаций, т.е. оценка структурного разнообразия информационного устройства. 23 / 8 7

Изображение слайда
1/1
24

Слайд 24

Информатика Лекция 2 Информационные меры : синтаксические Алфавит A= {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Составим три структуры путем сочетаний из 10 элементов по 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 элементов 24 / 8 7

Изображение слайда
1/1
25

Слайд 25

Информатика Лекция 2 Информационные меры : синтаксические Алфавит A= {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Составим три структуры 2. путем перестановок 3. путем размещений по десяти различным позициям Когда нельзя реализовать полученные комбинации, подсчет ведется по реализуемым комбинациям. 25 / 8 7

Изображение слайда
1/1
26

Слайд 26

Информатика Лекция 2 Информационные меры : синтаксические Алфавит A - множество элементов-букв (символов). Мощность алфавита | A| = n. Дискретное сообщение - слово, состоящее из некоторого количества элементов m, заданных алфавитом A. Число возможных сообщений длиной m, которые можно образовать из данного алфавита : L= n m, где L - число сообщений; m - число элементов в слове; n - мощность алфавита. 26 / 8 7

Изображение слайда
1/1
27

Слайд 27

Информатика Лекция 2 Информационные меры : синтаксические Пример. Алфавит A= {0, 1}, | A |=n =2. Количество сообщений длиной (объемом) 8 символов; Количество сообщений длиной (объемом) 16 символов; 27 / 8 7

Изображение слайда
1/1
28

Слайд 28

Информатика Лекция 2 Информационные меры : синтаксические Пример. Алфавит A= {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Двузначных чисел ( m=2 ) Трехзначных чисел ( m= 5) Чем больше L, тем сильнее может отличаться каждое сообщение от остальных. Величина L может быть принята в качестве меры количества информации. 28 / 8 7

Изображение слайда
1/1
29

Слайд 29

Информатика Лекция 2 Информационные меры : синтаксические Комбинаторная мера. Комбинаторная мера является развитием геометрической меры, так как помимо длины сообщения учитывает объем исходного алфавита и правила, по которым из его символов строятся сообщения. Особенностью комбинаторной меры является то, что ею измеряется информация не конкретного сообщения, а всего множества сообщений, которые могут быть получены. 29 / 8 7

Изображение слайда
1/1
30

Слайд 30

Информатика Лекция 2 Информационные меры : синтаксические Комбинаторная мера. Зависимость количества информации L от длины сообщения нелинейна, т.к. число размещений из n элементов по m является степенью.. При L =1 информация равна нулю, поскольку заранее известен характер сообщения (т.е. сообщение есть, а информация равна нулю); 30 / 8 7

Изображение слайда
1/1
31

Слайд 31

Информатика Лекция 2 Информационные меры : синтаксические Комбинаторная мера. Не выполняется условие линейного сложения количества информации, т.е. условие аддитивности. Если, например, первый источник характеризуется L 1 различными сообщениями, а второй – L 2, то общее число различных сообщений для двух источников определяется произведением L=L 1 L 2 Для k источников общее число возможных различных сообщений равно L=L 1 L 2 … L k 31 / 8 7

Изображение слайда
1/1
32

Слайд 32

Информатика Лекция 2 Информационные меры : синтаксические Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, родился 30 ноября 1888 в Ели, штате Невада, умер 1 мая 1970 ). Американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации, которая называется хартлиевским количеством информации. Мера Хартли(аддитивная мера) 32 / 8 7

Изображение слайда
Изображение для работы со слайдом
1/2
33

Слайд 33

Информатика Лекция 2 Информационные меры : синтаксические Мера Хартли(аддитивная мера) I = m log n, где I – количество информации, содержащейся в сообщении; m – длина сообщения; n – мощность исходного алфавита. Пример. Пусть нужно угадать одно число из набора чисел от 1 до 100. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. 33 / 8 7

Изображение слайда
1/1
34

Слайд 34

Информатика Лекция 2 Информационные меры : синтаксические Мера Хартли(аддитивная мера) - логарифм числа возможных размещений из n элементов по m I = log a n m = m log a n, где I – количество информации, содержащейся в сообщении ; m – длина сообщения; n – мощность исходного алфавита. Основание логарифма Единицы измерения информации a = 2 бит a = e  2,71828 нит a =10 дит 34 / 8 7

Изображение слайда
1/1
35

Слайд 35

Информатика Лекция 2 Информационные меры : синтаксические Мера Хартли(аддитивная мера) I = m log a n, Линейная зависимость информативности от длины сообщения. Всегда положительна. Аддитивность I= l og a ( L 1 *L 2 *…*L K ) = log a ( L 1 ) + log a ( L 2 ) +…+ log a ( L k ) =I 1 +I 2 +…+I K 35 / 8 7

Изображение слайда
1/1
36

Слайд 36

Информатика Лекция 2 Информационные меры : синтаксические Сообщение записано с помощью алфавита, содержащего 8 символов. Какое количество информации несет одна буква этого алфавита? Решение: I = log 2 8 = 3 бита. Ответ: 3 бита. Сообщение, записанное буквами из 128-символьного алфавита, содержит 30 символов. Какой объем информации оно несет? Дано: n = 128, m =30. Решение: по формуле Хартли I = m log n = 30* log 2 128 = 210 бит Заметим, что : I = log 2 n = log 2 128 = 7 бит - объем одного символа; V = 30*7 = 210 бит - объем всего сообщения. Ответ: 210 бит объем всего сообщения. 36 / 8 7

Изображение слайда
1/1
37

Слайд 37

Информатика Лекция 2 Информация, ее виды и свойства Клод Э́лвуд Ше́ннон (англ.  Claude Elwood Shannon ; 30 апреля 1856, Петоцки, Мичиган — 24 февраля 2001, Медфорд, Массачусетс) — американский инженер и математик, его работы являются синтезом математических идей с конкретным анализом чрезвычайно сложных проблем их технической реализации. « … Информация - снятая неопределенность наших знаний о чем-то…» «Избранные труды по теории информации» 37 / 8 7

Изображение слайда
Изображение для работы со слайдом
1/2
38

Слайд 38

Информатика Лекция 2 Информационные меры : синтаксические Статистическая мера информации. Количество информации – мера уменьшения неопределенности. Получение информации (ее увеличение) одновременно означает увеличения знания, что, в свою очередь означает уменьшение незнания или информационной неопределенности. 38 / 8 7

Изображение слайда
1/1
39

Слайд 39

Информатика Лекция 2 Информационные меры : синтаксические Первичным и неделимым элементом информации следует считать двоичное событие : утверждение или отрицание, наличие или отсутствие, единица или нуль, импульс или пауза. За единицу количества информации было предложено принять «количество информации, передаваемое при одном выборе между равновероятными альтернативами». Эта наименьшая единица информации называется бит. 39 / 8 7

Изображение слайда
1/1
40

Слайд 40

Возможные события Произошедшее событие Информатика Лекция 2 Информационные меры : синтаксические Сообщение, уменьшающее неопределённость знания в два раза, несёт 1 бит информации. 40 / 8 7

Изображение слайда
Изображение для работы со слайдом
Изображение для работы со слайдом
1/3
41

Слайд 41

Информатика Лекция 2 Информационные меры : синтаксические Джон Уа́йлдер Тью́ки (англ.  John Wilder Tukey, 16 июня 1855 года, Нью-Бедфорд  — 26 июля 2000 года, Нью-Брансуик (Нью-Джерси)) — американский математик. «bit» (сокращение от binary digit ) « software » (программное обеспечение) 41 / 8 7

Изображение слайда
Изображение для работы со слайдом
1/2
42

Слайд 42

Информатика Лекция 2 Информационные меры : синтаксические Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений. Это количество информации, при котором неопределенность, т.е. количество вариантов выбора, уменьшается вдвое или, другими словами, это ответ на вопрос, требующий односложного разрешения — да или нет. Сообщение, уменьшающее неопределённость знания в два раза, несёт 1 бит информации. 42 / 8 7

Изображение слайда
1/1
43

Слайд 43

Вероятность (вероятностная мера) — численная мера возможности наступления некоторого события. Вероятность события – число от 0 до 1, показывающее, как часто случается это событие в большой серии одинаковых опытов. p = 0 событие никогда не происходит (нет неопределенности) p = 0,5 событие происходит в половине случаев ( есть неопределенность ) p = 1 событие происходит всегда (нет неопределенности) Информатика Лекция 2 Информационные меры : синтаксические 43 / 8 7

Изображение слайда
1/1
44

Слайд 44

Полная система событий: одно из N событий обязательно произойдет (и только одно!). p i – вероятность выбора i - ого варианта ( i = 1,…, N ) Информатика Лекция 2 Информационные меры : синтаксические x 1 x 2 x 3 … x N p 1 p 2 p 3 … p N 44 / 8 7

Изображение слайда
1/1
45

Слайд 45

Вычисление вероятности Задача. В пруду живут 100 рыб, из них 20 карасей, 30 пескарей, а остальные – окуни. Какова вероятность поймать карася (пескаря, окуня), если все рыбы одинаково голодны? Формула: число «нужных» событий общее число событий Решение: караси пескари окуни Как иначе посчитать p 3 ? ? Информатика Лекция 2 Информационные меры : синтаксические 45 / 8 7

Изображение слайда
1/1
46

Слайд 46

Полная система РАВНОВЕРОЯТНЫХ событий Информатика Лекция 2 Информационные меры : синтаксические x 1 x 2 x 3 … x N 1 /N 1/N 1/N … 1/N 46 / 8 7

Изображение слайда
1/1
47

Слайд 47

Равновероятные события Информатика Лекция 2 Информационные меры : синтаксические Если мы подбрасываем монету, то получим сообщение из двух возможных состояний (орел или решка), то есть, алфавит сообщений из двух букв N= 1. Количество информации : I = m log 2 N= 1 log 2 2=1 47 / 8 7

Изображение слайда
Изображение для работы со слайдом
Изображение для работы со слайдом
1/3
48

Слайд 48

При бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных события. Алфавит состоит из 4 символов N=4. Количество информации : I = m log 2 N= 1 log 2 4 = 2 При бросании шестигранного игрального кубика существует 6 равновероятных событий. Алфавит состоит из 6 символов N=6 Количество информации : I = m log 2 N= 1 log 2 6= log 2 6 Информатика Лекция 2 Информационные меры : синтаксические 48 / 8 7

Изображение слайда
Изображение для работы со слайдом
Изображение для работы со слайдом
1/3
49

Слайд 49

Информатика Лекция 2 Информационные меры : синтаксические Количество I информации, содержащееся в сообщении о том, что произошло одно из N равновероятностных событий, определяется из решения показательного уравнения 2 I = N  I=log 2 N Для уменьшения неопределенности ситуации в 2 n раз необходимо n бит информации. 49 / 8 7

Изображение слайда
1/1
50

Слайд 50

Информатика Лекция 2 Информационные меры : синтаксические Если известно количество информации I, то количество возможных событий N легко определить. Например, если I = 5, то N = 2 I = 32. Если известно количество возможных событий N, то для определения количества информации нужно решить показательное уравнение относительно I. Например, в соревнованиях участвуют 4 команды. Сообщение о том, что победила 3 команда уменьшает первоначальную неопределенность в 4 раза, ( 4=2 2 ) и несет 2 бита информации. Или имеется 4 равновероятных исхода N=4, N = 2 I =4= 2 2, то I = 2. 50 / 8 7

Изображение слайда
1/1
51

Слайд 51

Задача. В рулетке общее количество лунок равно 128. Какое количество информации мы получим в зрительном сообщении об остановке шарика в одной из лунок. N = 128 i - ? Дано: Решение: 2 i = N 2 i = 128 2 7 = 128 i = 7 бит Ответ: i = 7 бит Информатика Лекция 2 Информационные меры : синтаксические 51 / 8 7

Изображение слайда
Изображение для работы со слайдом
1/2
52

Слайд 52

Информатика Лекция 2 Метод двоичного поиска Для того чтобы угадать число из интервала от 1 до 32 потребовалось 5 вопросов. Количество информации, необходимое для определения одного из 32 чисел, составило 5 бит. Вопрос второго Ответ первого Кол-во возможных событий (неопределенность знаний) Полученное количество Информации 32 Число больше 16? Да 16 1 бит Число больше 24? Да 8 1 бит Число больше 28? Да 4 1 бит Число больше 30? Нет 2 1 бит Число 30? Да 1 1 бит 52 / 8 7

Изображение слайда
1/1
53

Слайд 53

Информатика Лекция 2 Информационные меры : синтаксические Количество вариантов 2 4 8 16 32 64 128 256 512 1024 Количество бит информации 1 2 3 4 5 6 7 8 9 10 6 вариантов – между 4 (2 бита) и 8 (3 бита) Ответ : количество информации между 2 и 3 битами 53 / 8 7

Изображение слайда
1/1
54

Слайд 54

Информатика Лекция 2 Информационные меры : синтаксические Тогда в соответствии с идеей Шеннона, количество информации I в сообщении k определяется по формуле: I = -log 2 p k, где p k – вероятность k -го сообщения (исхода). Как посчитать информацию, если варианты не равновероятны? Клод Шеннон Номер сообщения 1 2 … N 0  p k  1 p 1 p 2 … p N 54 / 8 7

Изображение слайда
Изображение для работы со слайдом
1/2
55

Слайд 55

Информатика Лекция 2 Информационные меры : синтаксические Задача 1. В пруду живут 100 рыб, из них 20 карасей, 30 пескарей, а остальные – окуни. Сколько информации несет сообщение о том, что рыбак поймал карася (пескаря, окуня), если все рыбы одинаково голодны? Формула: Решение: карась пескарь окунь бита бита бит 55 / 8 7

Изображение слайда
1/1
56

Слайд 56

Информатика Лекция 2 Информационные меры : синтаксические Помимо информационной оценки одного сообщения, Шеннон предложил количественную информационную оценку всех сообщений, которые можно получить по результатам проведения некоторого опыта. Так, среднее количество информации I ср, получаемой со всеми N сообщениями, определяется по формуле: где p k – вероятность k -го сообщения. 56 / 8 7

Изображение слайда
1/1
57

Слайд 57

Информатика Лекция 2 Информационные меры : синтаксические Задача 1. В пруду живут 100 рыб, из них 20 карасей, 30 пескарей, а остальные – окуни. Определить среднее количество информации о том, что рыбак поймал рыбу ? Формула: Решение: карась пескарь окунь бита бита бит бит 57 / 8 7

Изображение слайда
1/1
58

Слайд 58

Информатика Лекция 2 Информационные меры : синтаксические В непрозрачном мешочке хранятся 10 белых, 20 красных, 30 синих и 40 зеленых шариков. Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика 10 + 20 + 30 + 40 = 100 - шариков всего p б = 10/100; p к = 20/100; p з =30/100; p с = 40/100 ; p б = 0,1; p к = 0,2; p з = 0,3; p с = 0,4 События неравновероятны, поэтому для определения количества информации, содержащегося в сообщении о цвете шарика, воспользуемся формулой Шеннона : I = -(0,1·log 2 0,1+ 0,2·log 2 0,2 + 0,3·log 2 0,3 + 0,4·log 2 0,4) бит = 1,85 бит. 58 / 8 7

Изображение слайда
Изображение для работы со слайдом
1/2
59

Слайд 59

Информатика Лекция 2 Информационные меры : синтаксические Пусть у опыта два равновероятных исхода, составляющих полную группу событий, т.е. p 1 = p 2 = 0,5. Тогда имеем в соответствии с формулой для расчета I ср : I ср = -(0,5*log 2 0,5 + 0,5*log 2 0,5) = 1. Эта формула есть аналитическое определение бита по Шеннону : это среднее количество информации, которое содержится в двух равновероятных исходах некоторого опыта, составляющих полную группу событий. 59 / 8 7

Изображение слайда
1/1
60

Слайд 60

Информатика Лекция 2 Информационные меры : синтаксические Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона: 60 / 8 7

Изображение слайда
1/1
61

Слайд 61

Информатика Лекция 2 Информационные меры : синтаксические знание незнание получение информации знание незнание Как измерить неопределенность? ? Неопределенность – недостаток знаний (незнание). при получении информации знания увеличиваются, неопределенность уменьшается чем больше получено информации, тем больше уменьшается неопределенность информация – мера уменьшения неопределенности 61 / 8 7

Изображение слайда
1/1
62

Слайд 62

Информатика Лекция 2 Информационные меры : синтаксические Информационная энтропия  — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче. Неопределенность ( энтропия системы) Информация = снятая неопределенность! 62 / 8 7

Изображение слайда
1/1
63

Слайд 63

Информатика Лекция 2 Информационные меры : синтаксические Если в результате опыта или некоторого события снимается полностью неопределенность, то говорят, что получено количество информации равное энтропии. Если же энтропия лишь уменьшилась, то в этом случае количество полученной информации равно разности энтропии до опыта и энтропии после опыта. Если после опыта получено количество информации, превышающей величину энтропии, то это говорит об избыточности информации. 63 / 8 7

Изображение слайда
1/1
64

Слайд 64

Информатика Лекция 2 Информационные меры : синтаксические Система двух событий: 0 1 0,5 1 0,5 I Средняя информация (неопределенность) максимальна, когда все события равновероятны. p 2 = 1 – p 1 64 / 8 7

Изображение слайда
1/1
65

Слайд 65

Информатика Лекция 2 Информационные меры : синтаксические Энтропия обладает следующими свойствами: 1. H  0 2. H =0   1 k  N: p k =1 и  i  k p i  0, 3. Энтропия имеет наибольшее значение, когда все вероятности равны между собой: р 1 = р 2 =... = р N = 1/ N. При этом H = log 2 N. 4. Энтропия объекта АВ, состояния которого образуются совместной реализацией состояний А и В, равна сумме энтропии исходных объектов А и В, т. е. Н(АВ) = Н(А) + Н(В). 65 / 8 7

Изображение слайда
1/1
66

Слайд 66

Информатика Лекция 2 Информационные меры : синтаксические Определить количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 34 символов: 33 буквы и знак "пробел" для разделения слов. По формуле Хартли определим количество информации приходящееся на каждый символ: I = log 2 34 = 5 бит Однако, в словах русского языка (равно как и в других языках) различные буквы встречаются неодинаково часто. Используя таблицу вероятностей частоты употребления различных знаков русского алфавита (полученной на основе анализа очень больших текстов), по формуле Шеннона получаем: I = 4,72 бит Число 5 бит является максимальным количеством информации, которое могло бы приходится на один знак. Количество информации, которое несет один знак алфавита тем больше, чем больше знаков входят в этот алфавит, т.е. чем больше мощность алфавита. Количество информации, содержащейся в сообщении, закодированном с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении. 66 / 8 7

Изображение слайда
1/1
67

Слайд 67

Информатика Лекция 2 Информационные меры : синтаксические Вася Пупкин получил сдал сессию со следующими оценками: 4 5 5 3 5 Сколько информации получили в этом сообщении родители? Алфавитный подход: возможны 4 разные оценки: 2, 3, 4 и 5 ( мощность алфавита 4 ) каждая оценка несет 2 бита информации (основание log равно 2) Ответ: 5 · 2 бит = 10 бит Содержание информации не учитывается! ! 67 / 8 7

Изображение слайда
1/1
68

Слайд 68

Информатика Лекция 2 Информационные меры : синтаксические 68 Вероятностный подход: задаем вероятности получения всех оценок информация при получении 5, 4 и 3 : бит бит бит бит < 10 бит Ответ: информации в сообщении 4 5 5 3 5

Изображение слайда
1/1
69

Слайд 69

Информатика Лекция 2 Алгоритмическое измерение количества информации Идея алгоритмического измерения количества информации, выдвинутая в 1965 г. А.Н. Колмогоровым. Андре́й Никола́евич Колмого́ров (урождённый Катаев, 12 (25) апреля 1903, Тамбов — 20 октября 1987, Москва) — советский математик, один из крупнейших математиков ХХ века. 69 /105

Изображение слайда
Изображение для работы со слайдом
1/2
70

Слайд 70

Информатика Лекция 2 Алгоритмическое измерение количества информации Количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Длина программы при этом измеряется количеством команд. Этот подход (в отличие от подхода Шеннона), не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчета, по сравнению с исходными данными. Вероятностная теория информации на этот вопрос не может дать удовлетворительного ответа. 70 /105

Изображение слайда
1/1
71

Слайд 71

Информатика Лекция 2 Семантический подход к измерению информации Семантический аспект – характеристика информации с точки зрения ее смысла, содержания. Приведем два возможных способа семантической оценки информации: Оценивается количество ссылок на информацию в различных источниках: документах, файлах, Интернете. Вводится понятие элементарной семантической единицы, под которой понимается некоторая законченная мысль. Показатель информации в этом случае – количество таких единиц, в полученном сообщении 71 /105

Изображение слайда
1/1
72

Слайд 72

Информатика Лекция 2 Семантический подход к измерению информации Истинность информации(логическое количество) Эта мера оценивает информацию с позиций ее соответствия отображаемому источнику информации, т.е. реальному миру. Пусть r ( mess ) – функция, оценивающая истинность сообщения mess как соответствие его реальному положению вещей: 0 ≤ r ( mess ) ≤ 1, причем при r ( mess ) = 1 сообщение истинно, а при r ( mess ) = 0 сообщение ложно. Например, r («данная лекция посвящена информатике») = 1, r («данная лекция длится 5 минут») = 0. 72 /105

Изображение слайда
1/1
73

Слайд 73

Информатика Лекция 2 Семантический подход к измерению информации Истинность информации(логическое количество) Оценить истинность сложного сообщения  можно, разбив его на простые. Например, сообщение mess : «данная лекция посвящена информатике и длится 5 минут» можно представить как два простых сообщения mess1 и mess2 : mess1 - «данная лекция посвящена информатике », mess2 -  «данная лекция длится 5 минут». Тогда можно предложить рассчитывать истинность сложного сообщения как среднее арифметическое значение истинностей сообщений, его составляющих (что называют - «истинно лишь наполовину»). В таком случае имеем: r ( mess ) = Ѕ ( r ( mess1 ) + r ( mess2 )) = Ѕ (1 + 0) = 0,5. 73 /105

Изображение слайда
1/1
74

Слайд 74

Информатика Лекция 2 Семантический подход к измерению информации Полезность информации (тезаурус) Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя. Тезаурус - это совокупность сведений, которыми располагает пользователь или система. 74 /105

Изображение слайда
1/1
75

Слайд 75

Информатика Лекция 2 Семантический подход к измерению информации Шре́йдер Ю́лий Анато́льевич (28 октября 1927, Днепропетровск — 24 августа 1998) — математик, кибернетик и философ. 75 /105

Изображение слайда
Изображение для работы со слайдом
1/2
76

Слайд 76

Информатика Лекция 2 Семантический подход к измерению информации Полезность информации (тезаурус) I тезаурус наилучшее восприятие сведения не новы ничего непонятно… Ю.А. Шрейдер: Тезаурус – знания приемника информации о внешнем мире, его способность воспринимать те или иные сообщения. 76 /105

Изображение слайда
1/1
77

Слайд 77

Информатика Лекция 2 Семантический подход к измерению информации Полезность информации (тезаурус) Количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного. 77 /105

Изображение слайда
Изображение для работы со слайдом
1/2
78

Слайд 78

Информатика Лекция 2 Семантический подход к измерению информации Содержательность – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату. 78 /105

Изображение слайда
1/1
79

Слайд 79

Информатика Лекция 2 Прагматический подход к измерению информации Прагматический аспект – характеристика с точки зрения полезности, пригодности для решения задач. При этом оценка может быть субъективной, отражая точку зрения получателя информации (интерпретатора). Если получатель, хотя и понял поступившую информацию, но не счел ее полезной, важной, то возникает прагматический шум и информация отсеивается. Проблемы прагматического отбора изучает прагматика – раздел семиотики, науки о знаках и знаковых системах. Исследования в этой области важны для проектирования информационно – поисковых систем: систем машинного распознавания образов, машинного перевода и других. 79 /105

Изображение слайда
1/1
80

Слайд 80

Информатика Лекция 2 Прагматический подход к измерению информации Прагматическая система показателей рассматривается с точки зрения определения содержания и количества информации, необходимой для решения задач и технологии обработки. В систему включаются следующие показатели: важность, значимость, полнота информации, для решения задач. Важность информации всецело определяется необходимостью и достаточностью для решения конкретных задач. 80 /105

Изображение слайда
1/1
81

Слайд 81

Информатика Лекция 2 Прагматический подход к измерению информации адекватность - соответствие текущему состоянию соответствующих объектов или процессов. Под адекватностью информации понимается “…степень ее соответствия действительному состоянию тех реалий, которые отображает оцениваемая информация”. Определение адекватности осуществляется по двум параметрам: объективностью получения информации о предмете, процессе или явлении и продолжительностью интервала времени между моментом получения информации и текущим моментом, т.е. до момента оценивания ее адекватности. толерантность поступающей информации. Толерантность - показатель удобства восприятия и использования информации для решаемых задач. 81 /105

Изображение слайда
1/1
82

Слайд 82

Информатика Лекция 2 Прагматический подход к измерению информации релевантность информации, поступающей для обеспечения решаемых задач. Релевантность - соответствие содержания информации потребностям решаемой задачи. Количественно релевантность определяется коэффициентом где N r - количество релевантной информации, N o - общее количество информации. Проблема заключается в сложности, а порою и невозможности, определения количества релевантной информации. 82 /105

Изображение слайда
1/1
83

Слайд 83

Информатика Лекция 2 Прагматический подход к измерению информации Целесообразность информации Количество I получаемой вместе с сообщением информации с позиций ее целесообразности определяется по формуле: где p 1, p 2 – вероятности достижения цели после и до получения сообщения, соответственно. 83 /105

Изображение слайда
1/1
84

Слайд 84

Информатика Лекция 2 Прагматический подход к измерению информации Целесообразность информации 1. Пусть вероятность p 2 сдачи экзамена по информатике до получения сообщения (подсказки от соседа) оценивается студентом со значением 0,2. После того, как ему удалось получить подсказку, вероятность сдачи увеличилась: p 1 = 0,8. Определить количество информации, содержащейся в подсказке, с точки зрения ее целесообразности. В соответствии с приведенной формулой  имеем: I = log 2 (0,8/0,2) = log 2 4 = 2. 84 /105

Изображение слайда
1/1
85

Слайд 85

Информатика Лекция 2 Прагматический подход к измерению информации Целесообразность информации 2. Пусть положение студента до получения подсказки оценивается аналогично предыдущему примеру. После получения подсказки, вопреки ожиданиям, вероятность сдачи еще уменьшилась, поскольку  подсказка содержала неверную информацию: p 1 = 0,1. Определить количество информации, содержащейся в подсказке, с точки зрения ее целесообразности. В соответствии с приведенной формулой имеем: I = log 2 (0,1/0,2) = log 2 0,5 = -1. Таким образом, полученная информация является дезинформацией, поскольку имеет отрицательный знак при измерении. 85 /105

Изображение слайда
1/1
86

Слайд 86

Информатика Лекция 2 Измерение информации Источник информации Физический фильтр Семантический фильтр Прагматический фильтр Потребитель информации 86 /105

Изображение слайда
1/1
87

Слайд 87

Информатика Лекция 3 Единицы измерения информации В зависимости от точек зрения, бит может определяться следующими способами: Один разряд двоичного кода (двоичная цифра). Может принимать только два взаимоисключающих значения: да/нет, 1/0, включено/выключено, и т.п. В электронике 1 биту соответствует 1 двоичный триггер. По Шеннону, базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода. Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос). 87 /105

Изображение слайда
1/1
88

Слайд 88

Информатика Лекция 3 Единицы измерения информации В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Выбор одного из двух возможных вариантов позволяет также различать логические истину и ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием ( binary encoding ). 88 /105

Изображение слайда
1/1
89

Слайд 89

Информатика Лекция 3 Единицы измерения информации В вычислительной технике и сетях передачи данных обычно значения 0 и 1 передаются различными уровнями напряжения либо тока. В вычислительной технике, особенно в документации и стандартах, слово «бит» часто применяется в значении «двоичный разряд». Аналогом бита в квантовых компьютерах является q-бит. 89 /105

Изображение слайда
1/1
90

Слайд 90

Информатика Лекция 2 Информационное объем сообщения в технике – количество двоичных символов, используемое для кодирования этого сообщения. 1 бит = 1 знак двоичного алфавита A={0,1}, Если алфавит содержит 2 n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Число различных двоичных слов длины n равно 2 n. Множество A допускает однозначное кодирование с длинами кодов, не превосходящих n тогда и только тогда, когда число элементов множества A не превосходит n. Вывод : длина кода при двоичном кодировании одного символа из алфавита мощности |A|=2 n равна n. Объем информации, содержащейся в сообщении длиной m при использовании алфавита мощность 2 n, равен m*n бит. Единицы измерения информации 90 /105

Изображение слайда
1/1
91

Слайд 91

Информатика Лекция 2 Единицы измерения информации Первое упоминание байта встречается в одной из статей в “IBM Systems Journal ” за 1964). 1964 доктор Вернер Бухгольц из в IBM 91 /105

Изображение слайда
Изображение для работы со слайдом
1/2
92

Слайд 92

Информатика Лекция 2 Единицы измерения информации По одной из них, термин байт ( byte ) произошел от слов BInary digiT Eight (двоичное число восемь) путем замены в образовавшемся слове BITE буквы I на Y. Последнее было сделано для того, чтобы не путать в произношении и написании новый термин с уже существовавшим «битом». Сторонники другой гипотезы утверждают, что «байт» произошел от сокращения слов BinarY TErm (двоичный термин) без всякой возни с заменой одной буквы на другую. Наконец, есть и третьи, утверждающие, что «байт» просто был переделан из «бита» для того, чтобы термины для обозначения однородных величин и в звучании были похожи друг на друга. 92 /105

Изображение слайда
1/1
93

Слайд 93

Информатика Лекция 2 Байт ( byte ) – это двоичное слово, способное записывать и хранить в памяти ЭВМ один буквенно-цифровой или другой символ данных. Каждый символ записывается в виде набора двоичных цифр (битов) при помощи определенного кода, например ASCII. Байт – единица количества информации, обычно состоящая из 8 бит и используемая как одно целое при передаче, хранении и переработки информации компьютером. Байт служит для представления букв или специальных символов (занимающих обычно весь байт). Информация в компьютере обрабатывается отдельными байтами, либо группами байтов (полями, словами). Единицы измерения информации 93 / 61

Изображение слайда
1/1
94

Слайд 94

Информатика Лекция 2 Байт - в запоминающих устройствах - наименьшая адресуемая единица данных в памяти компьютера, обрабатываемая как единое целое. По умолчанию байт считается равным 8 битам. Обычно в системах кодирования данных байт представляет собой код одного печатного или управляющего символа. Байт - в измерении информации - единица измерения количества информации, объема памяти и ёмкости запоминающего устройства. Единицы измерения информации 94 / 61

Изображение слайда
1/1
95

Слайд 95

Информатика Лекция 2 Байт - единица количества информации. Для конкретного компьютера байт - минимальный шаг адресации памяти. В стандартном виде байт равен восьми битам (может принимать 256 (28) различных значений). Байт в современных компьютерах - минимально адресуемая последовательность фиксированного числа битов. При хранении данных в памяти существует также бит чтения-записи, а для цифровых микросхем - бит синхронизации. Иногда байтом называют последовательность битов, которые составляют подполе машинного слова, используемое для кодирования одного текстового символа (хотя правильней это называть символом, а не байтом). Единицы измерения информации 95 /105

Изображение слайда
1/1
96

Слайд 96

Информатика Лекция 2 1 бит ( binary digit – двоичное число) = 0 или 1, 1 байт = 2 3 бит =8 бит, 1 килобайт (1Кб) = 2 13 бит = 2 10 байт = 1024 байт 1 мегабайт (1Мб) = 2 23 бит = 1024 Кбайт 1 гигабайт (1Гб) = 2 33 бит = 1024 Мбайт 1 терабайт (1Тб) = 2 43 бит = 1024 Гбайт 1 петабайт (1Пб) = 2 53 бит, 1 эксабайт (1Эб) = 2 63 бит. Единицы измерения информации 96 /105

Изображение слайда
1/1
97

Слайд 97

Информатика Лекция 2 Важно иметь представление, сколько информации может вместить килобайт, мегабайт или гигабайт. При двоичном кодировании текста каждая буква, знак препинания, пробел занимают 1 байт. На странице книги среднего формата примерно 50 строк, в каждой строке около 60 символов, таким образом, полностью заполненная страница имеет объём 50 x 60 = 3000 байт ≈3 Килобайта. Вся книга среднего формата занимает ≈ 0,5 Мегабайт. Один номер четырёхстраничной газеты — 150 Килобайт. Если человек говорит по 8 часов в день без перерыва, то за 70 лет он наговорит около 10 Гигабайт информации. Один чёрно-белый кадр (при 32 градациях яркости каждой точки) содержит примерно 300 Кб информации, цветной кадр содержит уже около 1 Мб информации. Телевизионный фильм продолжительностью 1,5 часа с частотой 25 кадров в секунду — 135 Гб. Единицы измерения информации 97 /105

Изображение слайда
1/1
98

Слайд 98

Информатика Лекция 2 Чтобы жить эффективно, надо жить с адекватной информацией. Но́рберт Ви́нер 98 /105

Изображение слайда
Изображение для работы со слайдом
1/2
99

Слайд 99

Информатика Лекция 2 Скорость передачи информации пропускная способность – 10 л / мин лимонад лимонад Сколько лимонада перекачается по трубе за 1 час? ? Решение: время t скорость v Q = v · t = 10 л / мин · 1 час = ? единицы измерения? = 10 л / мин · 1 · 60 мин = 600 л Как найти время, если задано количество лимонада? ? Как найти скорость, если задано время и количество? ? 99 /105

Изображение слайда
1/1
100

Слайд 100

Информатика Лекция 2 Скорость передачи информации скорость передачи – 80 бит / с данные данные Сколько байт будет передано за 5 минут? ? Решение: время t скорость v = 80 бит / с · 5 мин = ? единицы измерения? Q = байт / с · 5 · 60 с = 3000 байт 80 8 100 /105

Изображение слайда
1/1
101

Слайд 101

Информатика Лекция 2 Скорость передачи информации скорость передачи – 12 8 00 0 бит / с данные данные Сколько Кбайт будет передано за 16 секунд? ? Решение: Q = v · t = 128000 бит / с · 16 с = ? единицы измерения? = = … байт 128000 бит / с · 16 с 8 = = … Кбайт 128000 бит / с · 16 с 8 · 1024 = = = 250 Кбайт 2 7 · 1 000 · 2 4 2 3 · 2 10 1 000 · 2 11 2 13 101 /105

Изображение слайда
1/1
102

Слайд 102

Информатика Лекция 2 Скорость передачи информации скорость передачи – 12 8 00 0 бит / с данные данные Сколько секунд потребуется на передачу файла размером 250 Кбайт? ? Решение: единицы измерения? = = … 250 Кбайт 128000 бит / с = = = 16 c 250∙ 1024 ∙ 8 бит 128000 бит / с 250∙ 2 10 ∙ 2 3 2 7 ∙ 1 000 102 /105

Изображение слайда
1/1
103

Слайд 103

Информатика Лекция 2 Скорость передачи информации данные данные Какова средняя скорость передачи данных (в битах в секунду), если файл размером 250 Кбайт был передан за 16 с? ? Решение: единицы измерения? = = … 250 Кбайт 16 с = = = 1 28000 бит /c 250∙ 1024 ∙ 8 бит 16 с 250∙ 2 10 ∙ 2 3 2 4 103 /105

Изображение слайда
1/1
104

Слайд 104

Информатика Лекция 2 Скорость передачи информации 256 Кбит/с 32 Кбит/с Вася Петя Сколько секунд потребуется Пете, чтобы скачать из Интернета через компьютер Васи файл размером 5 Мбайт, если Вася может начать передачу данных Пете только после получения первых 512 Кбайт данных? ? 1 Кбит = 1024 бит Решение: время перекачивания файла от Васи к Пете время, пока Вася ждет первые 512 Кбайт 104 /105

Изображение слайда
1/1
105

Последний слайд презентации: Информатика

Информатика Лекция 2 Скорость передачи информации Вася ждёт первые 512 Кбайт: = = = 16 с 512 Кбайт 256 Кбит / с 512∙ 1024 ∙ 8 бит 256∙1024 бит / с Передача файла от Васи к Пете: = = = 1280 с 5 Мбайт 32 Кбит / с 5 ∙ 1024 ∙ 1024 ∙ 8 бит 32 ∙ 1024 бит / с Общее время скачивания для Пети: = 16 + 1280 = 1296 с 105 /105

Изображение слайда
1/1