10 класс — 1 час. Урок 3-4.

Количество информации как мера уменьшения неопределенности знаний. Определение количества информации, содержащейся в сообщении при вероятностном и техническом (алфавитном) подходах.

Алфавитный подход к измерению количества информации.

Алфавитный подход — не связывает количество информации с содержанием сообщения.
Количество информации зависит от объёма сообщения, а не от его содержания или значимости.

N=2i

i — количество бит, которыми кодируется каждый символ сообщения (сколько «весит» один символ)

N — общее количество символов в алфавите

  • I = K*i

I — информационный объём сообщения (сколько будет «весить» та или иная информация)

K — Количество символов в сообщении

i — количество бит, которыми кодируется каждый символ сообщения (сколько «весит» один символ)

Задания по теме алфавитный подход в приложенном файле.

Содержательный (вероятностный) подход к измерению количества информации.

При содержательном подходе под количеством информации подразумевается информативность сообщения для пользователя. Содержательный (вероятностный) подход является субъективным, так как одну и ту же информацию разные люди могут оценивать по разному. Для одного человека сведения в сообщении могут быть важными и понятными, для другого нет.

Это подход к количеству информации как мере уменьшения неопределённости знания.

Пример.
На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?
Зададим несколько вопросов уменьшающих неопределенность знаний в два раза.
— Книга лежит выше четвертой полки?
— Нет.
— Книга лежит ниже третьей полки?
— Да .
— Книга — на второй полке?
— Нет.
— Ну теперь все ясно! Книга лежит на первой полке!

Каждый ответ уменьшал неопределенность в два раза.

Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.

N=2i

i — количество информации об одном событии

N — количество возможных событий

Важно: данная формула используется только для равновероятных событий.

А что, если события могут происходить с разной вероятностью? Формула Шенона для неравновероятных событий (1948 год):
e0bb3319c07b41d2cc8c4186509c6b0b

I — количество информации, которое несёт сообщение

N — количество возможных событий

pi — вероятность отдельного события

Вероятность — это отношение количества определённых событий к количеству возможных событий.

Задача. В озере плавает 12500 окуней, 6250 карпов и 6250 окуней. Какое количество информации несёт одна любая выловленная рыбка.

Количество информации о конкретном событии
i=log2(1/p)

Задача.На автобусной остановке останавливаются два маршрута автобусов: № 5 и № 7. Ученику дано задание: определить, сколько информации содержит сообщение о том, что к остановке подошел автобус № 5, и сколько информации в сообщении о том, что подошел автобус № 7. Ученик провел исследование. В течение всего рабочего дня он подсчитал, что к остановке автобусы подходили 100 раз. Из них — 25 раз подходил автобус № 5 и 75 раз подходил автобус № 7.

 

Домашнее задание.

1) Световое табло состоит из лампочек. Каждая лампочка может находиться в одном из трех состояний («включено», «выключено» или «мигает»). Какое наименьшее количество лампочек должно находиться на табло, чтобы с его помощью можно было передать 18 различных сигналов?

1) 6 2) 5 3) 3 4) 4

2) Метеорологическая станция ведет наблюдение за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100 процентов, которое записывается при помощи минимально возможного количества бит. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.

1) 80 бит 2) 70 байт 3) 80 байт 4) 560 байт

3) Сколько существует различных последовательностей из символов «плюс» и «минус», длиной ровно в пять символов?

1) 64 2) 50 3) 32 4) 20

4) Шахматная доска состоит 8 столбцов и 8 строк. Какое минимальное количество бит потребуется для кодирования координат одного шахматного поля?

1) 4 2) 5 3) 6 4) 7

5) Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 16 символов, а второй текст – в алфавите из 256 символов. Во сколько раз количество информации во втором тексте больше, чем в первом?

1) 12 2) 2 3) 24 4) 4

6) Какое минимальное количество бит потребуется для кодирования положительных чисел, меньших 60?

1) 1 2) 6 3) 36 4) 60

7) Двое играют в «крестики-нолики» на поле 4 на 4 клетки. Какое количество информации получил второй игрок, узнав ход первого игрока?

8) Объем сообщения – 7,5 Кбайт. Известно, что данное сообщение содержит 7680 символов. Какова мощность алфавита?

1) 77 2) 256 3) 156 4) 512

9) Дан текст из 600 символов. Известно, что символы берутся из таблицы размером 16 на 32. Определите информационный объем текста в битах.

1) 1000 2) 2400 3) 3600 4) 5400

10) Мощность алфавита равна 256. Сколько Кбайт памяти потребуется для сохранения 160 страниц текста, содержащего в среднем 192 символа на каждой странице?

1) 10 2) 20 3) 30 4) 40

11) Объем сообщения равен 11 Кбайт. Сообщение содержит 11264 символа. Какова мощность алфавита?

1) 64 2) 128 3) 256 4) 512

12) Для кодирования секретного сообщения используются 12 специальных значков-символов. При этом символы кодируются одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения длиной в 256 символов?

1) 256 бит 2) 400 бит 3) 56 байт 4) 128 байт

13) Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице?

1) 8 2) 12 3) 24 4) 36

14) Для кодирования нотной записи используется 7 значков-нот. Каждая нота кодируется одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения, состоящего из 180 нот?

1) 180 бит 2) 540 бит 3)100 байт 4) 1 Кбайт

Comments (2)

  1. Данилова Татьяна Владимировна 22.09.2014 at 18:45

    ДЗ 10 Д : 1-14

  2. Данилова Татьяна Владимировна 22.09.2014 at 10:20

    ДЗ 10 Г : 6-14

Leave a Comment

Лимит времени истёк. Пожалуйста, перезагрузите CAPTCHA.