Учебная работа. Реферат: Измерение информации
Выполнил: ученик 10а
класса
Школы №52
Ибрагимов Орхан.
Содержание.
Введение………………………………………….3
Вероятностный подход………………………….4
Таблица. Частотность букв российского языка…… 5
большой подход……………………………….6
Перечень применяемой литературы……………..7
Введение.
Найти понятие «количество инфы» достаточно трудно. В решении данной для нас препядствия есть два главных подхода. Исторически они появились практически сразу. В конце 40-х годов XX века один из основателей кибернетики южноамериканский математик Клод Шеннон развил вероятностный подход к измерению количества инфы, а работы по созданию ЭВМ привели к «объемному» подходу.
Вероятностный подход
Разглядим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (более всераспространенным является вариант шестигранной кости: N = 6). Результаты данного опыта могут быть последующие: выпадение грани с одним из последующих символов: 1,2,… N.
Введем в рассмотрение численную величину, измеряющую неопределенность —энтропию
(обозначим ее Н). Величины N и Н соединены меж собой некой многофункциональной зависимостью:
, (1.1)
а сама функция
является растущей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,… 6.
Разглядим функцию бросания кости наиболее тщательно:
1) готовимся кинуть кость; финал опыта неизвестен, т.е. имеется некая неопределенность; обозначим ее H1;
2) кость брошена; информация о финале данного опыта получена; обозначим количество данной для нас инфы через I;
3) обозначим неопределенность данного опыта опосля его воплощения через H2. За количество инфы, которое получено в процессе воплощения опыта, примем разность неопределенностей «до» и «опосля» опыта:
(1.2)
Разумеется, что в случае, когда получен определенный итог, имевшаяся неопределенность снята
= 0), и, таковым образом, количество приобретенной инфы совпадает с начальной энтропией. По другому говоря, неопределенность, заключенная в опыте, совпадает с информацией о финале этого опыта. Заметим, что к примеру, в случае, когда в процессе опыта последующей выпала грань со значением, огромным «З».
Последующим принципиальным моментом является определение вида функции
в формуле (1.1). Если разнообразить число граней
и число бросаний кости (обозначим эту величину через
общее число исходов (векторов длины М, состоящих из символов 1,2,….
будет равно
в степени
X=NM
.
(1.3)
Так, в случае 2-ух бросаний кости с шестью гранями имеем:
= 62
= 36. Практически любой финал
есть некая пара
где
и
соответственно финалы первого и второго бросаний (общее число таковых пар —
Таблица 1.3. Частотность букв российского языка
i
знак
Р(
)
Знак
P(
)
Знак
Р(
)
1
Пробел
0,175
13
0,028
24
Г
0.012
2
0
0,090
14
М
0,026
25
Ч
0,012
3
Е
0,072
15
Д
0,025
26
И
0,010
4
Ё
0,072
16
П
0,023
27
X
0,009
5
А
0,062
17
У
0,021
28
Ж
0,007
6
И
0,062
18
Я
0,018
29
Ю
0,006
7
Т
0,053
19
Ы
0,016
30
Ш
0.006
8
Н
0,053
20
З
0.016
31
Ц
0,004
9
С
0,045
21
Ь
0,014
32
Щ
0,003
10
Р
0,040
22
Ъ
0,014
33
Э
0,003
11
В
0,038
23
Б
0,014
34
Ф
0,002
12
Л
0,035
Большой подход
В двоичной системе счисления знаки 0 и 1 будем именовать битами
(от британского выражения Binary digiTs — двоичные числа). Отметим, что создатели компов отдают предпочтение конкретно двоичной системе счисления поэтому, что в техническом устройстве более просто воплотить два обратных физических состояния: некий физический элемент, имеющий два разных состояния: намагниченность в 2-ух обратных направлениях; устройство, пропускающий либо нет электронный ток; конденсатор, заряженный либо незаряженный и т.п. В компе бит является меньшей вероятной единицей инфы. Размер инфы, записанной двоичными знаками в памяти компа либо на наружном носителе инфы, подсчитывается просто по количеству требуемых для таковой записи двоичных знаков. При всем этом, а именно, нереально нецелое число битов (в отличие от вероятностного подхода).
Для удобства использования введены и наиболее большие, чем бит, единицы количества инфы. Так, двоичное слово из восьми символов содержит один, б
инфы,
1024 б образуют кб
(кбайт), 1024 кб — мб
(Мбайт), а 1024 мб — гб
(Гбайт).
Меж вероятностным и большим количеством инфы соотношение многозначное. Далековато не всякий текст, записанный двоичными знаками, допускает измерение размера инфы в кибернетическом смысле, но заранее допускает его в объемном. Дальше, если некое сообщение допускает измеримость количества инфы в обоих смыслах, то они не непременно совпадают, при всем этом кибернетическое количество инфы не быть может больше большого.
В предстоящем тексте данного учебника фактически постоянно количество инфы понимается в объемном смысле.
Перечень применяемой литературы.
Учебник Информатики и ИКТ 10-11 класс ( И.Г.Семакин, Е.К.Хеннер)
веб-сайт http://www.sitereferatov.ru
]]>