![]() |
|
|
Шпаргалка: Лекции по количественной оценке информацииСогласно методике Хаффмена, для построения
оптимального кода N символы первичного алфавита выписываются в порядке
убывания вероятностей. Последние Построенные по указанным выше (либо подобным) методикам коды с неравномерным распределением символов, имеющие минимальную среднюю длину кодового слова, называют оптимальным, неравномерным, кодами (ОНК). Равномерные коды могут быть оптимальными только для передачи сообщений с равновероятным распределением символов первичного алфавита, при этом число символов первичного алфавита должно быть равно целой степени числа, равного количеству качественных признаков вторичного алфавита, а в случае двоичных кодов - целой степени двух. Максимально эффективными будут те ОНК, у которых Для двоичных кодов
так как log22 = 1. Очевидно, что равенство (52) удовлетворяется при условии, что длина кода во вторичном алфавите Величина
Эффективность ОНК. оценивают при помощи коэффициента статистического сжатия:
который характеризует уменьшение количества двоичных знаков на символ сообщения при применении ОНК по сравнению с применением методов нестатистического кодирования и коэффициента относительной эффективности
который показывает, насколько используется статистическая избыточность передаваемого сообщения. Для наиболее общего случая неравновероятных и взаимонезависимых символов Для случая неравновероятных и взаимозависимых символов ТЕМА 6. ОБНАРУЖЕНИЕ И ИСПРАВЛЕНИЕ ОШИБОК В СООБЩЕНИЯХ Понятие об идее коррекции ошибокДля того чтобы в принятом сообщении можно было обнаружить ошибку это сообщение должно обладать некоторой избыточной информацией, позволяющей отличить ошибочный код от правильного Например, если переданное сообщение состоит из трех абсолютно одинаковых частей, то в принятом сообщении отделение правильных символов от ошибочных может быть осуществлено по результатам накопления посылок одного вида, например 0 или 1. Для двоичных кодов этот метод можно проиллюстрировать следующим примером: 10110 - переданная кодовая комбинация; 10010 - 1-я принятая комбинация; 10100 - -я принятая комбинация; 00110 - 3-я принятая комбинация; 10110 - накопленная комбинация. Как видим, несмотря на то, что во всех трех принятых комбинациях были ошибки, накопленная не содержит ошибок[8]. Принятое сообщение может также состоять из кода и его инверсии. Код и инверсия посылаются в канал связи как одно целое. Ошибка на приемном конце выделяется при сопоставлении кода и его инверсии. Для того чтобы искажение любого из символов сообщения привело к запрещенной комбинации, необходимо в коде выделить комбинации, отличающиеся друг от друга в ряде символов, часть из этих комбинаций запретить и тем самым ввести в код избыточность. Например, в равномерном блочном коде считать разрешенными кодовые комбинации с постоянным соотношением нулей и единиц в каждой кодовой комбинации. Такие коды получили название кодов с постоянным весом. Для двоичных кодов число кодовых комбинаций в кодах с постоянным весом длиной в п символов равно
где Еще одним примером введения избыточности в код является метод суть которого состоит в том, что к исходным кодам добавляются нули либо единицы таким образом, чтобы сумма их всегда. была четной или нечетной. Сбой любого одного символа всегда нарушит условие четности (нечетности), и ошибка будет обнаружена. В этом случае комбинации друг от друга должны отличаться минимум в двух символах, т. е. ровно половина комбинаций кода является запрещенной (запрещенными являются все нечетные комбинации при проверке на четность или наоборот). Во всех упомянутых выше случаях сообщения обладают избыточной информацией. Избыточность сообщения говорит о том, что оно могло бы содержать большее количество информации, если бьг не многократное повторение одного и того же кода, не добавление к коду его инверсии, не несущей никакой информации, если бы. не искусственное запрещение части комбинаций кода и т. д. Но все перечисленные виды избыточности приходится вводить для того, чтобы можно было отличить ошибочную комбинацию от правильной. Коды без избыточности обнаруживать, а тем более исправлять ошибки не могут[9]. Минимальное количество символов, в которых любые две комбинации кода отличаются друг от друга, называется кодовым расстоянием. Минимальное количество символов, в которых все комбинации кода отличаются друг от друга, называется минимальным кодовым расстоянием. Минимальное кодовое расстояние - параметр, определяющий помехоустойчивость кода и заложенную в коде избыточность. Минимальным кодовым расстоянием определяются корректирующие свойства кодов. В общем случае для обнаружения r ошибок минимальное кодовое расстояние
Минимальное кодовое расстояние, необходимое для одновременного обнаружения и исправления ошибок,
где s - число исправляемых ошибок. Для кодов, только исправляющих ошибки,
Для того чтобы определить кодовое расстояние между двумя комбинациями двоичного кода, достаточно просуммировать эти комбинации по модулю 2 и подсчитать число единиц в полученной комбинации. Понятие кодового расстояния хорошо усваивается на примере построения геометрических моделей кодов. На геометрических моделях в вершинах n-угольников, где n-значность кода, расположены кодовые комбинации, а количество ребер n-угольника, отделяющих одну комбинацию от другой, равно кодовому расстоянию. Если кодовая комбинация двоичного кода А отстоит
от кодовой комбинации В на расстоянии d, то это значит, что в коде А
нужно d символов заменить на обратные, чтобы получить код В, но это не
означает, что нужно d добавочных символов, чтобы код обладал данными корректирующими свойствами. В двоичных кодах для
обнаружения одиночной ошибки достаточно иметь 1 дополнительный символ
независимо от числа информационных разрядов кода, а минимальное кодовое
расстояние Для обнаружения и исправления
одиночной ошибки соотношение между числом информационных разрядов
при этом подразумевается, что общая длина кодовой комбинации
Для практических расчетов при
определении числа контрольных разрядов кодов с минимальным кодовым расстоянием
если известна длина полной кодовой комбинации п, и
если при расчетах удобнее
исходить из заданного числа информационных символов Для кодов, обнаруживающих все
трехкратные ошибки
или
Для кодов длиной в п
символов, исправляющих одну или две ошибки
Для практических расчетов можно пользоваться выражением
Для кодов, исправляющих 3 ошибки
Для
кодов, исправляющих s ошибок
Выражение слева известно как нижняя граница Хэмминга [16], а выражение справа – как верхняя граница Варшамова – Гильберта [3][11] Для приближенных расчетов можно пользоваться выражением
Можно
предположить, что значение Линейные групповые кодыЛинейными называются коды, в которых проверочные символы представляют собой линейные комбинации информационных символов. Для двоичных кодов в качестве линейной операции используют сложение по модулю 2. Правила сложения по модулю 2 определяются следующими равенствами: Последовательность нулей и единиц, принадлежащих данному коду, будем называть кодовым вектором. Свойство линейных кодов: сумма (разность) кодовых векторов линейного кода дает вектор, принадлежащий данному коду. Линейные коды образуют алгебраическую группу по отношению к операции сложения по модулю 2. В этом смысле они являются групповыми кодами. Свойство группового кода: минимальное кодовое расстояние между кодовыми векторами группового кода равно минимальному весу ненулевых кодовых векторов. Вес кодового вектора (кодовой комбинации) равен числу его ненулевых компонентов. Расстояние между двумя кодовыми векторами равно весу вектора, полученного в результате сложения исходных векторов по модулю 2. Таким образом, для данного группового кода
Групповые коды удобно задавать матрицами, размерность
которых определяется параметрами кода
Коды, порождаемые этими
матрицами, известны как Порождающая матрица С может
быть представлена двумя матрицами И и П (информационной и проверочной). Число
столбцов матрицы П равно
Теорией и практикой установлено, что в качестве матрицы И удобно брать единичную матрицу в канонической форме: При выборе матрицы П исходят из следующих соображений: чем больше единиц в разрядах проверочной матрицы П, тем ближе соответствующий порождаемый код к оптимальному[12], с другой стороны, число единиц в матрице П определяет число сумматоров по модулю 2 в шифраторе и дешифраторе, т. е. чем больше единиц в матрице П, тем сложнее аппаратура. Вес каждой строки матрицы П должен быть не менее При соблюдении перечисленных условий любую порождающую матрицу группового кода можно привести к следующему виду: называемому левой канонической формой порождающей матрицы. Для кодов с Во всех комбинациях кода, построенного при помощи такой матрицы, четное число единиц. Для кодов с Корректирующие коды с минимальным количеством избыточных разрядов называют плотно упакованными или совершенными кодами. Для кодов с Плотно упакованные коды,
оптимальные с точки зрения минимума избыточных символов, обнаруживающие
максимально возможное количество вариантов ошибок кратностью r + 1; r + 2 и т. д. и имеющие Строчки образующей матрицы С представляют собой Алгоритм образования проверочных символов по известной информационной части кода может быть записан следующим образом: В процессе декодирования осуществляются проверки, идея которых в общем виде может быть представлена следующим образом: Для каждой конкретной матрицы существует своя,
одна-единственная система проверок. Проверки производятся по следующему
правилу: в первую проверку вместе с проверочным разрядом В результате осуществления проверок образуется проверочный
вектор Вид синдрома для каждой конкретной матрицы может быть
определен при помощи проверочной матрицы Н, которая представляет собой
транспонированную матрицу П, дополненную единичной матрицей
Столбцы такой матрицы представляют собой значение синдрома для разряда, соответствующего номеру столбца матрицы Н. Процедура исправления ошибок в процессе декодирования групповых кодов сводится к следующему. Строится кодовая таблица. В
первой строке таблицы располагаются все кодовые векторы Остальные позиции второй строки
заполняются векторами, полученными в результате суммирования по модулю 2
вектора Аналогично поступают до тех пор,
пока не будут просуммированы с векторами |
|
|||||||||||||||||||||||||||||
![]() |
|
Рефераты бесплатно, реферат бесплатно, курсовые работы, реферат, доклады, рефераты, рефераты скачать, рефераты на тему, сочинения, курсовые, дипломы, научные работы и многое другое. |
||
При использовании материалов - ссылка на сайт обязательна. |