Учебная работа. Курсовая работа: Расчет информационных характеристик источников сообщений сигналов и кодов
Кафедра «Информационной сохранности систем и технологий»
Объяснительная записка к курсовой работе
по теме:
«Расчет информационных черт источников сообщений, сигналов и кодов»
ПГУ 2.010905.001 ПЗ
Дисциплина: Теория инфы
Пенза, 2008г.
Реферат
АНСАМБЛЬ СООБЩЕНИЯ, ДИСКРЕТНОЕ СООБЩЕНИЕ, ИСТОЧНИК СООБЩЕНИЙ, канал БЕЗ ШУМА, КАНАЛ С ШУМОМ, ЭФФЕТИВНОЕ КОДИРОВАНИЕ, ПОМЕХОУСТОЙЧИВОЕ КОДИРОВАНИЕ, ЭНТРОПИЯ.
Объектом исследования являются источники сообщений, сигналы и кодов.
Целью работы является расчет информационных черт источника сообщений, сигналов и кодов.
В процессе работы был произведен расчет разных информационных черт источников сообщений, сигналов и кодов.
В итоге работы все задачки были решены и все требования задания были выполнены.
Содержание
Реферат
Введение
1. Расчет информационных черт источников дискретных сообщений
1.1 задачка № 1.30
1.2 Задачка № 1.48
1.3 Задачка № 1.67
2. Расчет информационных черт дискретного канала
2.1 задачка № 2.24
2.2 Задачка № 2.58
3. Согласование дискретного источника с дискретным каналом без шума. Действенное кодирование
3.1 задачка № 3.24
3.2 Задачка № 3.54
3.3 Задачка № 3.84
3.4 Задачка № 3.114
4. Согласование дискретного источника с дискретным каналом с шумом. Помехоустойчивое кодирование
4.1 задачка № 4.24
4.2 Задачка № 4.54
Заключение
Перечень применяемых источников
Введение
Действенная организация обмена инфы приобретает все большее деятель людей. Размер инфы, нужной для обычного функционирования современного общества, вырастает приблизительно пропорционально квадрату развития промышленного потенциала. Толика рабочей силы занятой вопросцами обеспечения информацией начинает превосходить долю рабочей силы занятой конкретно в производстве. Потому науки, изучающие структуру и закономерности протекания информационных действий, к числу которых относится и теория инфы (ТИ), в таковой ситуации стают только животрепещущими.
Дисциплина связана с предыдущими ей дисциплинами «Высшая математика», «Теория вероятности и матстатистика», «Дискретная математика» и следующими дисциплинами «Компьютерная электроника», «Вычислительные системы«, «Сети ЭВМ «, «Надежность, контроль, смерти)
и эксплуатация ЭВМ «, «Базы защиты инфы» и др.
Главный задачей теории инфы как самостоятельной дисциплины является наилучшее внедрение информационных черт источников сообщений и каналов связи для построения кодов, обеспечивающих заданную достоверность передаваемой инфы с очень вероятной скоростью и мало вероятной стоимостью передачи сообщений. Личными задачками при всем этом являются: трудности измерения количества инфы, исследование параметров инфы, исследование способов помехоустойчивого кодировки, исследование взаимодействия систем и частей систем способами теории инфы, решение задач прикладного нрава.
В данной курсовой работе проводится расчет главных информационных черт источника сообщений, сигналов и каналов. Теория инфы представляет собой ветвь статистической теории связи. информация передается, и хранится в виде сообщений.
Сообщение — это информация представленная в какой-нибудь форме. 1-ый раздел курсовой работы носит заглавие: «Расчёт информационных черт источника дискретного сообщения». Изменяющийся во времени физический процесс, отражающий передаваемое сообщение именуется сигналом
. Сигнал передаётся по каналу связи. 2-ой раздел работы именуется: «Расчёт информационных черт дискретного канала». В оставшихся 2-ух разделах решаются задачки по темам: согласование дискретного источника с дискретным каналом с шумом и без шума, действенное и помехоустойчивое кодирование. Их решение основываются на постулатах таковых ученых как Шеннон, Хаффман, Фано.
1.
Расчет информационных черт источников дискретных сообщений
1.1
задачка № 1.30
Распределение вероятностей дискретной случайной величины имеет вид:
Найти число
значений случайной величины, при которых энтропия Hp
(X)
равномерного распределения будет равна энтропии
данного распределения.
Решение
:
Определим энтропию данного распределения. Для нахождении энтропии данного дискретного ансамбля воспользуемся формулой (1.4), соответственной определению энтропии (Энтропия – это среднее количество инфы, находящееся в одном сообщение источника). Вычислим энтропию распределения:
.
Равномерное распределение подразумевает равные вероятности всех вероятных исходов, при всем этом энтропия
.
Из условия, что
находим:
Ответ: при объеме алфавита
, энтропия Hp
(X)
равномерного распределения будет равна энтропии
данного распределения.
1.2
задачка № 1.48
Отыскать энтропию шума
в двоичном симметричном канале без памяти, если энтропия источника на входе канала
, энтропия ансамбля на выходе канала
, ненадежность канала
.
Решение:
Энтропия шума в двоичном симметричном канале без памяти будем находить по формуле
.
Выразим, неведомое нам, количество инфы
.
Подставляя эту формулу в начальную, получим выражение для нахождения энтропии шума в двоичном симметричном канале
.
Ответ
: энтропия шума в двоичном симметричном канале
.
1.3
Задачка № 1.67
Принимаемый сигнал может иметь амплитуду А1
(событие Х1
) либо А2
(событие Х2
), также сдвиг фаз (событие Y1
) либо (событие Y2
) режимах. Вероятности совместных событий имеют последующие значения: P(X1
,Y1
) = 0,73
; P(X1
,Y2
) = 0,21
; P(X2
,Y1
) = 0,02
; P(X2
,Y2
) = 0,04
.
Вычислить количество инфы, получаемой о фазовом сдвиге сигнала, если станет известной его амплитуда.
Решение
:
количество инфы о фазовом сдвиге при известной амплитуде будем находить по формуле (1.13) лекции
.
Найдем энтропию
:
.
Что бы отыскать энтропию, найдем вероятности возникновения событий Y1
и Y2
:
Найдем вероятности возникновения событий Х1
и Х2
:
Подставляя значения в вышестоящую формулу, найдем значение энтропии:
.
По формуле (1.9) лекции найдем
Подставляя приобретенные значения в формулу, получим, что
Тогда, количество инфы о фазовом сдвиге при известной амплитуде будет равно
.
Ответ
: количество инфы о фазовом сдвиге при известной амплитуде .
2.
Расчет информационных черт дискретного канала
2.1
задачка № 2.24
На вход дискретного симметричного канала без памяти поступают двоичные знаки U1
=0
и U2
= 1
с априорными вероятностями P(U1
) = 0,85
и P(U2
) = 0,15
. Переходные вероятности P(Zj / Ui
)
в таком канале задаются соотношением
,
где
– возможность ошибки,
. найти все апостериорные вероятности.
Решение
:
Ситуация в канале характеризуется схемой, изображенной на рисунке:
Рис. 2.1
Потому что
– возможность ошибки, как следует возможность правильного приема –
, при этом
.
Найдем переходные вероятности:
В таком канале любой кодовый знак быть может принят с неверной вероятностью:
.
Но не все информация, переедающаяся по каналу, быть может неверной. Таковым образом, верно переданная информация описывается последующим распределением вероятностей:
.
По формуле Байеса определим апостериорные вероятности:
;
Ответ
: априорные вероятности в данном канале равны: P(U1
/Z1
) = 0,96
; P(U1
/Z2
) = 0,23
; P(U2
/Z1
) = 0,04
; P(U2
/Z2
) = 0,77
.
2.2
задачка № 2.58
По каналу связи передаётся сообщение из ансамбля
.
Средняя продолжительность передачи 1-го элемента сообщения в канале
. Шум в канале отсутствует. Найти пропускную способность канала и скорость передачи инфы.
Решение
:
В согласовании с (1.25.а) лекции, в случае, когда шум в канале отсутствует
Скорость рассчитаем по формуле
.
Размер алфавита данного сообщения равно восьми, т.е.
. найдем пропускную способность
.
Скорость передачи инфы по каналу есть произведения количества инфы, передаваемого по каналу на скорость:
.
количество инфы будем находить по формуле (1.13) лекции
.
Потому что шум в канале отсутствует, то
.
Тогда, количество инфы
.
Определим энтропию данного распределения. Для нахождении энтропии данного ансамбля воспользуемся формулой (1.4):
.
Подставляя в полученную ранее формулу, получим
.
Ответ
: пропускная способность канала
; скорость передачи инфы V,
= 5546,12
.
3.
Согласование дискретного источника с дискретным каналом без шума. Действенное кодирование
3.1 задачка № 3.24
Закодировать двоичным кодом Фано ансамбль сообщений
А1
А2
А3
А4
А5
А6
А7
А8
А9
А10
А11
А12
0,088
0,065
0,035
0,062
0,06
0,059
0,097
0,3
0,068
0,044
0,054
0,122
Закодировать произвольную комбинацию, состоящую из 5 знаков ансамбля А; Найти возможный минимум среднего количества знаков кода, приходящихся на одно сообщение ансамбля А; Найти среднее количество знаков разработанного кода Фано, приходящихся на одно сообщение из ансамбля А; Высчитать эффективность разработанного кода.
Решение
:
Для удобства расположим вероятности возникновения сообщений в порядке убывания:
А8
0,3
0
А12
0,122
10
А7
0,097
100
А1
0,088
101
А9
0,068
110
А2
0,065
1110
А4
0,062
11110
А6
0,059
111110
А11
0,054
1111110
А10
0,044
1111110
А3
0,035
11111110
А5
0,006
11111111
Выберем из ансамбля А произвольную комбинацию из 5 знаков и закодируем их приобретенным кодом Фано:
А9
А3
А5
А7
А4
110111111101111111110011110.
Возможный минимум будем находить по формуле (2.12) лекции:
;
Потому что код является двоичным, тогда основание кода
. Как следует:
.
Тогда возможный минимум будет равен энтропии источника:
.
Найдем энтропию источника, пользуясь мерой Шеннона:
;
Рассчитаем среднее количество знаков, приходящихся на одно сообщение:
, где
– размер алфавита кода (
);
Pi
– возможность возникновения действия;
– количество знаков в коде.
P1
= 0,088
n1
= 3
P2
= 0,065
n2
= 4
P3
= 0,035
n3
= 8
P4
= 0,062
n4
= 5
P5
= 0,006
n5
= 8
P6
= 0,059
n6
= 6
P7
= 0,097
n7
= 3
P8
= 0,3
n8
= 1
P9
= 0,068
n9
= 3
P10
= 0,044
n10
= 7
P11
= 0,054
n11
= 7
P12
= 0,122
n12
= 2
Согласно (2.12.а) лекции эффективность кода находим, как:
.
Ответ
: возможный минимум ; среднее количество знаков, приходящихся на одно сообщение ; эффективность кода .
3.2 задачка № 3.54
Закодировать кодом Фано, с объемом алфавита
, ансамбль
А1
А2
А3
А4
А5
А6
А7
А8
А9
А10
А11
А12
0,082
0,122
0,503
0,04
0,012
0,002
0,005
0,034
0,124
0,006
0,0395
0,0305
Закодировать произвольную комбинацию, состоящую из 5 знаков ансамбля А; Найти возможный минимум среднего количества знаков кода, приходящихся на одно сообщение ансамбля А; Найти среднее количество знаков разработанного кода Фано, приходящихся на одно сообщение из ансамбля А; Высчитать эффективность разработанного кода.
Решение
:
Для удобства расположим вероятности возникновения сообщений в порядке убывания:
А3
0,503
0
А9
0,124
10
А2
0,122
210
A1
0,082
3210
А4
0,04
43210
А11
0,0395
443210
А8
0,034
4443210
А12
0,0305
44443210
А5
0,012
44444321
А10
0,006
44444432
А7
0,005
44444443
А6
0,002
44444444
Выберем из ансамбля А произвольную комбинацию из 5 знаков и закодируем их приобретенным кодом Фано:
А1
А2
А3
А4
А5
321021004321044444321
Возможный минимум будем находить по формуле (2.12) лекции:
;
Потому что код является четверичным, тогда основание кода
. Как следует:
.
Найдем энтропию источника, пользуясь мерой Шеннона:
;
Тогда возможный минимум
.
Рассчитаем среднее количество знаков, приходящихся на одно сообщение:
, где
– размер алфавита кода (
);
Pi
– возможность возникновения действия;
– количество знаков в коде.
P1
= 0,82
n1
= 4
P2
= 0,122
n2
= 3
P3
= 0,503
n3
= 1
P4
= 0,004
n4
= 5
P5
= 0,012
n5
= 8
P6
= 0,002
n6
= 8
P7
= 0,005
n7
= 8
P8
= 0,034
n8
= 7
P9
= 0,124
n9
= 2
P10
= 0,006
n10
= 8
P11
= 0,0395
n11
= 6
P12
= 0,0305
n12
= 8
Согласно (2.12.а) лекции эффективность кода находим, как:
.
Ответ
: возможный минимум ; среднее количество знаков, приходящихся на одно сообщение ; эффективность кода .
3.3 задачка № 3.84
Закодировать двоичным кодом Хаффмана ансамбль сообщений
А1
А2
А3
А4
А5
А6
А7
А8
А9
А10
А11
А12
0,082
0,122
0,503
0,04
0,012
0,002
0,005
0,034
0,124
0,006
0,0395
0,0305
Закодировать произвольную комбинацию, состоящую из 5 знаков ансамбля А; Найти возможный минимум среднего количества знаков кода, приходящихся на одно сообщение ансамбля А; Найти среднее количество знаков разработанного кода Хаффмана, приходящихся на одно сообщение из ансамбля А; Высчитать эффективность разработанного кода.
Решение
:
Для удобства закодирования расположим вероятности возникновения сообщений в порядке убывания. Две крайние вероятности объединяем в одну вспомогательную буковку, которой приписывается суммарная возможность. Вероятности, не учитывающиеся в объединении, и суммарная возможность опять расположим в порядке убывания. Приобретенный ряд вероятностей записываем в таблицу и две крайние вновь объединяем. процесс будем повторять до крайней вспомогательной буковкы, с вероятностью, равной единице.
А3
0,503
0,503
0,503
0,503
0,503
0,503
0,503
0,503
0,503
0,503
0,503
1
А9
0,124
0,124
0,124
0,124
0,124
0,124
0,124
0,1555
0,2175
0,2795
0,497
А2
0,122
0,122
0,122
0,122
0,122
0,122
0,122
0,124
0,1555
0,2175
A1
0,082
0,082
0,082
0,082
0,082
0,082
0,0955
0,122
0,124
А4
0,04
0,04
0,04
0,04
0,0555
0,0735
0,082
0,0955
А11
0,0395
0,0395
0,0395
0,0395
0,04
0,0555
0,0735
А8
0,034
0,034
0,034
0,034
0,0395
0,04
А12
0,0305
0,0305
0,0305
0,0305
0,034
А5
0,012
0,012
0,013
0,025
А10
0,006
0,007
0,012
А7
0,005
0,006
А6
0,002
Потом строится кодовое дерево, в процессе которого осуществляется кодирование: высочайшая точка дерева равна единице; из нее направляется две ветки, при этом, ветки с большей вероятностью приписывается
Рис. 3.1
Потом, двигаясь по кодовому дереву сверху вниз, записываем для каждой буковкы подобающую ей кодовую комбинацию:
P1
= 0,82
0111
n1
= 4
P2
= 0,122
001
n2
= 3
P3
= 0,503
1
n3
= 1
P4
= 0,004
0000
n4
= 4
P5
= 0,012
000100
n5
= 6
P6
= 0,002
00010110
n6
= 8
P7
= 0,005
00010111
n7
= 8
P8
= 0,034
01100
n8
= 5
P9
= 0,124
010
n9
= 3
P10
= 0,006
0001010
n10
= 7
P11
= 0,0395
01101
n11
= 5
P12
= 0,0305
00011
n12
= 5
Выберем из ансамбля А произвольную комбинацию из 5 знаков и закодируем их приобретенным кодом Хаффмана:
А1
А2
А7
А6
А4
011100100010111000101100000.
Возможный минимум будем находить по формуле (2.12) лекции:
;
Потому что код является двоичным, тогда основание кода
. Как следует:
.
Найдем энтропию источника, пользуясь мерой Шеннона:
;
Рассчитаем среднее количество знаков, приходящихся на одно сообщение:
, где
– размер алфавита кода (
);
Pi
– возможность возникновения действия;
– количество знаков в коде.
Согласно (2.12.а) лекции эффективность кода находим, как:
.
Ответ
: возможный минимум ; среднее количество знаков, приходящихся на одно сообщение ; эффективность кода .
3.4 задачки № 3.114
Закодировать кодом Хаффмана, с объемом алфавита
ансамбль
А1
А2
А3
А4
А5
А6
А7
А8
А9
А10
А11
А12
0,082
0,122
0,503
0,04
0,012
0,002
0,005
0,034
0,124
0,006
0,0395
0,0305
Закодировать произвольную комбинацию, состоящую из 5 знаков ансамбля А; Найти возможный минимум среднего количества знаков кода, приходящихся на одно сообщение ансамбля А; Найти среднее количество знаков разработанного кода Хаффмана, приходящихся на одно сообщение из ансамбля А; Высчитать эффективность разработанного кода.
Решение
:
Для удобства закодирования расположим вероятности возникновения сообщений в порядке убывания. Четыре крайние вероятности объединяем в одну вспомогательную буковку, которой приписывается суммарная возможность. Вероятности, не учитывающиеся в объединении, и суммарная возможность опять расположим в порядке убывания. Приобретенный ряд вероятностей записываем в таблицу и четыре крайние вновь объединяем. процесс будем повторять до крайней вспомогательной буковкы, с вероятностью, равной единице.
А3
0,503
0,503
0,503
1
А9
0,124
0,124
0,251
А2
0,122
0,122
0,124
A1
0,082
0,082
0,122
А4
0,04
0,0555
А11
0,0395
0,04
А8
0,034
0,0395
А12
0,0305
0,034
А5
0,012
А10
0,006
А7
0,005
А6
0,002
Потом строится кодовое дерево, в процессе которого осуществляется кодирование: высочайшая точка дерева равна единице; из нее направляется четыре ветки, при этом, ветки с большей вероятностью приписывается
Рис.3.2
Потом, двигаясь по кодовому дереву сверху вниз, записываем для каждой буковкы подобающую ей кодовую комбинацию:
P1
= 0,82
24
n1
= 2
P2
= 0,122
0
n2
= 1
P3
= 0,503
3
n3
= 1
P4
= 0,004
22
n4
= 2
P5
= 0,012
233
n5
= 3
P6
= 0,002
230
n6
= 3
P7
= 0,005
231
n7
= 3
P8
= 0,034
20
n8
= 2
P9
= 0,124
1
n9
= 1
P10
= 0,006
232
n10
= 3
P11
= 0,0395
21
n11
= 2
P12
= 0,0305
234
n12
= 3
Выберем из ансамбля А произвольную комбинацию из 5 знаков и закодируем их приобретенным кодом Хаффмана:
А8
А7
А6
А5
А4
2023023023322.
Возможный минимум будем находить по формуле (2.12) лекции:
;
Потому что код является четверичным, тогда основание кода
. Как следует:
.
Найдем энтропию источника, пользуясь мерой Шеннона:
;
Тогда возможный минимум
.
Рассчитаем среднее количество знаков, приходящихся на одно сообщение:
, где
– размер алфавита кода (
);
Pi
– возможность возникновения действия;
– количество знаков в коде.
Согласно (2.12.а) лекции эффективность кода находим, как:
.
Ответ
: возможный минимум ; среднее количество знаков, приходящихся на одно сообщение ; эффективность кода .
4.
Согласование дискретного источника с дискретным каналом с шумом. Помехоустойчивое кодирование
4.1
задачка № 4.24
Найти лишнего рационального по Шеннону кода (существование которого утверждается аксиомой для канала с шумом) с объемом алфавита
и средним количеством знаков, переданных в единицу времени – Vk
, созданного для безошибочной передачи инфы по каналу с пропускной способностью
. Отыскать мало вероятную избыточность рационального кода для симметричного канала с вероятностью ошибки
.
Решение
:
В согласовании с (1.12) лекции, избыточность источника дискретного сообщения с объемом алфавита
именуется величина
,
При этом, если ввести понятие производительности
,
То величину можно переписать в виде:
.
Потому что передача инфы подразумевает, что безошибочное кодирование обязано быть конкретным, т.е. утраты инфы при кодировке должны отсутствовать. Это означает, что производительность канала обязана быть равна производительности источника сообщения, т.е.
.
В согласовании с условием (2.15) аксиомы Шеннона
либо для рационального кода
, где .
Потому, окончательная формула для вычисления избыточности будет смотреться:
.
В согласовании с §1.6 лекции, среднее количество знаков, передающихся в единицу времени будем определять по формуле (1.27.а):
Подставляя приобретенное
Ответ
:
малая возможнаяизбыточность рационального кода для симметричного канала с вероятностью ошибки
и объемом алфавита
будет равна .
4.2
задачка № 4.54
Выстроить производящую матрицу
линейного двоичного блочного кода, способного исправлять одиночную ошибку при передаче дискретных сообщений источника, представляющих из себя последовательность десятичных цифр из спектра
(с объёмом алфавита
). Пользуясь разработанной матрицей
, сформировать кодовую комбинацию для сообщения
(
)
Выстроить подобающую производящей матрице
проверочную матрицу
и с её помощью сформировать кодовую комбинацию для сообщения
. По виду синдрома отыскать и поправить ошибку в принимаемой кодовой композиции (добавочно данной педагогом). Найти, является ли разработанный код кодом Хэмминга.
Решение
:
Производящая матрица
линейного двоичного блочного кода имеет размерность (
). Потому что код является двоичным, то
.
Отсюда находим
:
Матрица
линейного двоичного кода состоит из 2-ух матриц:
.
Построим матрицу
:
– это единичная матрица, размерности (
), при
Построим матрицу
:
– имеет размерность (
),
– число строк, а
– число столбцов.
Матрицу
будем строить по определенным правилам:
1. потому что код должен исправлять единичную ошибку, получим, что исправная способность будет равна единице, т.е. .
В одной стоке матрицы обязано быть не наименее
единиц. Найдем
как
2. все строчки должны быть различными;
3. число частей в стоке обязано быть мало.
Используя правила построения, получим матрицу
:
Опосля построения вспомогательных матриц, можно выстроить матрицу
:
Проверочная матрица
имеет размерность (
) и представляет собой транспонированную матрицу
Пользуясь разработанной матрицей
, сформируем кодовую комбинацию для сообщения –
(
. Переведем ее из десятичного в двоичный вид: 1569 11000100001.
Разрешенная композиция
Получится кодовая композиция Vi
Приобретенная композиция состоит из информационных и проверочных разрядов:
.
Любой проверочный разряд представляет собой сумму информационных разрядов, взятых с неким коэффициентом
.
берется из матрицы
.
:
:
:
:
Для того, что бы отыскать ошибку, нужно отыскать синдром . правило нахождения синдрома:
1. по информационным разрядам задается композиция, определяющая проверочные разряды;
2. складываем по модулю два приобретенные проверочные разряды с теми, которые имеют пространство в принятой композиции. Результатом является синдром .
Для того, что бы при помощи синдрома отыскать ошибку, найдем матрицу Нпроверочную
:
,
где
– единичная матрица, размерности (
)
Попробуем отыскать ошибку при помощи синдрома: пусть получена последующая композиция – [101000001111100]. Воспользуемся правилом нахождения синдрома:
1. по информационным разрядам определяем проверочные разряды начального кода – [1001];
2. складываем по модулю два приобретенные проверочные разряды и те, которые имеют пространство в принятой композиции:
[1001][1100] = [0101].
сейчас строим проверочную матрицу Нпроверочную
:
Найдем в Нпроверочной
столбец, совпадающий с композицией синдрома. Номер этого столбца показывает на номер столбца в принятой композиции, в какой допущена ошибка. В нашем случае композиция синдрома совпадает с 2 столбцом Нпроверочную
.
Для исправления данной для нас ошибки нужно инвертировать
Код Хемминга, это код (
), который определяется:
Приобретенная мной матрица имеет размерность . Она является кодом Хемминга.
Заключение
В итоге выполнения курсовой работы были прорешены задачки по последующим темам: расчет информационных черт источников дискретных сообщений, расчет информационных черт дискретного канала, согласование дискретного источника с дискретным каналом без шума, действенное кодирование, согласование дискретного источника с дискретным каналом с шумом, помехоустойчивое кодирование. Приобретенные при всем этом познания, как надо ждать, будут удачно употребляться в предстоящем.
Решенные задачки могут являться обычным примером внедрения познания основ теории инфы для практических целей.
В итоге выполнения работы все требования задания были выполнены.
Перечень использованных источников
1. Прикладная теория инфы: Учебн. Для студ. ВУЗов по спец. «Автоматические системы обработки инфы и управления». – М.: Высш. шк., 1989. – 320с.:ил.
]]>