Вследствие большого числа избыточных кодов необходим критерий для объективного сравнения их между собой. В известной степени таким критерием для блочных кодов может служить минимальное хэммингово расстояние d. Однако оно не характеризует код в полной мере.
Так, например, код с d = 3 (т. е. исправляющий все одиночные ошибки) при n = 7 не эквивалентен коду с таким же d = 3 при n = 50. Применение первого из этих кодов в симметричном канале без памяти при вероятности ошибки p = 0,01 позволит исправить почти все ошибки, поскольку вероятность того, что из семи символов кодовой комбинации ошибочно будут приняты два или более, очень мала (приблизительно 0,002). Из тысячи кодовых комбинаций в среднем только две будут декодированы неправильно. При применении же второго кода около 12% всех комбинаций будет декодировано ошибочно, потому что вероятность появления двух или большего числа ошибок в комбинации из 50 символов приблизительно равна 0,12.
Для более объективного сравнения кодов и каналов используют понятие эквивалентной вероятности ошибки. Ограничимся здесь только блочными двоичными кодами, хотя это понятие можно распространить на другие коды.
Пусть n-разрядная кодовая комбинация содержит k двоичных единиц информации. Здесь k = log M, где М - число разрешенных кодовых комбинаций. Очевидно, что для систематического кода k является числом информационных символов в комбинации. Предположим, что в некотором реальном канале I данный код обеспечивает вероятность q правильного декодирования комбинации.
Рассмотрим другой воображаемый двоичный симметричный канал без памяти II, в котором ошибки происходят с вероятностью рэ, и предположим, что по этому каналу передаются те же k двоичных информационных символов, но при безызбыточном кодировании. Пусть далее величина рэ такова, что вероятность правильно принять все k символов равна q, т. е. такая же, как и вероятность правильного декодирования в канале I при использовании рассматриваемого помехоустойчивого кода. Очевидно, что с точки зрения верности передачи информации каналы I и II можно считать эквивалентными. Тогда естественно назвать величину рэ эквивалентной вероятностью ошибок для канала I при заданном избыточном коде.
Величину вероятности правильного декодирования комбинации, в принципе,, можно всегда вычислить, зная структуру рассматриваемого кода и свойство канала I. В крайнем случае ее можно оценить экспериментально. Зная q, можно вычислить и эквивалентную вероятность ошибок рэ. Для этого заметим, что в канале II q = (1 - рэ)k откуда
рэ = 1 - q 1/k(5.31)
Если величина q близка к единице (как это бывает в практически важных случаях), то, обозначив 1- q = poш<<1, получим
Величина рош представляет, очевидно, вероятность ошибочного декодирования кодовой комбинации.
В качестве (примера оценим эквивалентную вероятность ошибки описанного выше систематического кода (7,4) при использовании его в симметричном канале с вероятностью ошибки р. Кодовая комбинация содержит n = 7 символов и k = 1 двоичных единиц информации. Код позволяет исправить все одиночные ошибки и никакие другие.
Поэтому комбинация будет декодирована правильно, если все символы приняты верно либо если из семи символов один принят ошибочно. Вероятность этого
При р<<1, пользуясь формулой бинома Ньютона и пренебрегая членами порядка выше р2, получим q ≈ 1 - 7р + 21р2 + 7р - 42р2 = 1 - 21р2, откуда рош = 1- q ≈ 21p2 и на основании (5.32) рэ ≈ 21р2/4 = 5,25р2.
Следует подчеркнуть, что эквивалентная вероятность ошибки характеризует код не сам по себе, а только в применении к определенному каналу. Именно это необходимо для объективной характеристики кода, поскольку один и тот же код может быть хорошим для одного канала и в то же время непригодным для другого.