НОВОСТИ    БИБЛИОТЕКА    ССЫЛКИ    О САЙТЕ







Современная терраса: материалы и оборудование

предыдущая главасодержаниеследующая глава

Глава 2. Сообщения, сигналы, помехи

2.1. Сообщения, сигналы и помехи как случайные процессы

Как отмечалось в § 1.1, детерминированное, т. е. заранее известное сообщение не содержит информации. Поэтому в теории связи источник сообщения следует рассматривать как устройство,, осуществляющее выбор из некоторого множества возможных сообщений. Каждая конкретная реализация сообщения возникает с определенной вероятностью, которая в общем случае зависит от того, какие сообщения передавались раньше. Точно так же и посылаемая в канал реализация сигнала является элементом некоторого множества, выбираемого с определенной вероятностью. Множество, на котором задана вероятностная мера, называют ансамблем. Ансамбли сообщений и сигналов могут быть конечными (в дискретном случае) или бесконечными.

Ансамбль {X(t)} функций времени является случайным процессом. Каждая входящая функция xr(t) называется выборочной функцией или реализацией процесса. Наличие различных реализаций позволяет сигналу переносить информацию. Для этого нужно установить соответствие между каждым сообщением из ансамбля сообщений и определенной реализацией сигнала. Тогда по принятой реализации сигнала можно судить о том, какое сообщение передавалось. Это суждение было бы точным, если бы переданный сигнал не искажался помехами. В действительности помехи являются также случайными процессами, и поэтому по принятому сигналу можно лишь с некоторой вероятностью определить, какое сообщение было передано.

Итак, сообщения, сигналы, помехи являются случайными процессами и для их исследования необходимо использовать основные положения теории случайных процессов (случайных функций). Все содержание данной главы относится в равной степени к случайным сообщениям, сигналам и помехам

Случайный процесс может быть задан на дискретном множестве значений t1, t2, ..., tk. Это случай сообщения (сигнала), дискретного по времени. Такие случайные процессы называются также случайными последовательностями. Примером случайной последовательности является процесс X(tk), заданный на дискретных точках t1, t2 ..., tk, ... и принимающий в каждой из них значение 1 с вероятностью р1 и 0 с вероятностью р0 = 1 - p1 независимо от значений в других точках. Чаще встречаются процессы, непрерывные по времени, например, заданные на всей оси -∞<t<∞ или на конечном отрезке 0<t<π -T/2<t<T/2 и т. п. Процессы, заданные на конечном отрезке времени, называют финитными.

Задать детерминированную (т. е. не случайную) функцию времени - это значит указать ее значение для любого t в пределах области определения. Случайную функцию можно задать только в вероятностном смысле. Если число реализаций конечно или счетно, можно их просто перечислить и указать их вероятности.

Рассмотрим, как задаются дискретные случайные последовательности элементов A (tk), могущие принимать m различных значений а1, а2, ..., аm. Реализацией такой последовательности может быть, например, A(t1) = а4(1); A(t2) = а6(2); A(t3) = a1(3), ... ..., A (tk) = aikk ; ..., где нижний индекс обозначает значение элемента, а верхний - момент времени. Отрезок такой последовательности длиной n (т. е. состоящий из n элементов) характеризуется своей вероятностью Р. На основании теоремы умножения вероятностей можно в общем случае записать вероятность отрезка реализации, в которой элементы A (tk) принимают значения aik (ik = 1, 2, ..., m) так:


Здесь


условная вероятность появления элемента аin в момент in при условии, что в предыдущие моменты осуществлялась реализация отрезка

ai1, ai2,....,ain-1

Примером такой последовательности может служить последовательность букв, передаваемых по телеграфу. Хотя для этого случая определить вероятность отрезка нелегко, но качественно сравнить вероятности различных отрезков можно без особого труда. Так, при n = 7 последовательность букв "ВЫЕЗЖАЮ" более вероятна, чем последовательность "ГРАНАТА", которая, в свою очередь, вероятнее, чем последовательность "МАФТУЗА". Последняя все же вероятнее, чем последовательность "АЬМШЗЮО", для которой вероятность появления в осмысленном русском тексте равна нулю. На этом примере, между прочим, легко убедиться, что условная вероятность появления некоторой буквы зависит от ранее переданных букв.

Простейший вид случайной последовательности элементов отличается тем, что появление того или иного элемента не зависит от предыдущих элементов. Для такой последовательности независимых элементов (или последовательности Бернулли)

Р(аi1(1), аi2(2),....,аin(n)) = P(аi1)P (аi2)......P(аin). (2.2)

Важным видом случайной последовательности зависимых элементов является цепь Маркова. Простой цепью Маркова называется последовательность, в которой условная вероятность появления некоторого элемента aik целиком определена, если известен предыдущий элемент ai,k-1 Это значит, что


Таким образом, в простой цепи Маркова связь между последовательными элементами целиком определяется зависимостью между соседними элементами. Для вычисления вероятности некоторого отрезка цепи Маркова достаточно знать переходные вероятности, т. е. все условные вероятности P(ai|aj) появления элемента ai, если предыдущим элементом был aj. Заметим, что это вовсе не означает независимости a(k)ik от a(k-2)ik-2 или от еще более ранних элементов. Поскольку вероятность появления a(k)ik зависит от того, каким был элемент a(k-1)ik-1, а последний зависит от то имеет место и зависимость a(k)ik от ak-2ik-2 если a(k-1)ik-1 значение неизвестно. Нетрудно показать, что


Обобщением простой цепи Маркова является сложная марковская цепь r-го порядка, в которой вероятность элемента целиком определена, если известны r предшествующих ему элементов: марковская цепь высокого порядка является удовлетворительной математической моделью текстовых последовательностей в приведенном выше примере.

Непрерывные случайные функции также могут иметь конечное число реализаций на конечном интервале времени. Для их задания также достаточно указать их вероятности.

Так, например, процесс X(t), заданный на интервале 0≤t≤T и имеющий

Две реализации:

х1 (t) - A cos ω1 t; х2 = A cos ω2t, (2.5)

возникающие с вероятностями P(x1) = p1, Р(х2) = p2 = 1 - p1, где A, ω1, ω2, p1 - определенные постоянные, является простым примером случайного процесса с конечным числом реализаций. Он может служить сигналом, информационное содержание которого определяется значением частоты ω.

Примером процесса, заданного на том же интервале и имеющего бесконечное число реализаций, может служить процесс

X (t) = A cos (ωt + Φ), (2.6)

где A и ω - постоянные неслучайные величины, а Φ - случайная величина с заданным распределением вероятностей. Такой процесс может иметь счетное число реализаций (например, если Φ принимает значения φk = 2π/k с вероятностями 2-k) или несчетное (например, если величина Φ равномерно распределена на интервале 0-2π). Довольно часто приходится рассматривать процессы, определенные рядом


где ψk(t) - обычные (детерминированные) функции, а Хk - случайные величины с заданным распределением вероятности. Сходимость ряда понимается в среднеквадратическом смысле, т. е. при всех :t


Символ М{ } здесь и в дальнейшем обозначает математическое ожидание.

В общем случае скалярный случайный процесс X (t) полностью задан, если для любого набора моментов времени t1, t2, ..., tn и любых значений x1, х2, .., хn можно вычислить вероятность того, что X(t) принимает в указанные моменты времени значения, не превышающие соответственно x1, x2, ...., xn:

F (х1, x2; t1, t2,...,tn) = Р {X (t1)≤ x1, X(t2) ≤ x2,....,X(tn) ≤ xn}, (2.9)

Здесь P{ } обозначает совместную вероятность событий, записанных в скобках. Заметим, что X(tk) представляет собой случайную величину и называется сечением случайного процесса в момент

Функция F (х1, x2, ...., xn, t1, t2, ..., tn) в (2.9) называется n-мерной функцией распределения вероятности процесса. Ее аргументами являются x1, x2 ,..., хn. Величины t1, t2, ..., tn играют роль параметров. Следует подчеркнуть, что случайный процесс полностью задан в том случае, если для любого n и любых моментов t1, t2,..., tn (в области его определения) можно найти функцию распределения.

Рис. 2.1. Реализация случайного процесса
Рис. 2.1. Реализация случайного процесса

На рис. 2.1 представлены четыре реализации некоторого случайного процесса и показаны три его сечения. Реализации 1 к 2 удовлетворяют условиям X(t1≤x1), X(t2) ≤x2, X(t3)≤x3, где х1, х2, x3 - значения сечений, отмеченные на рисунке точками, а реализации 3 и 4 этому условию не удовлетворяют. Если других реализаций данный процесс не имеет, то трехмерная функция распределения при заданных сечениях х1, х2, x3 равна сумме вероятностей реализаций 1 и 2.

Если существуют частные производные функции распределения по всем хk, то можно определить n-мерную плотность распределения вероятности:


которая также полностью определяет процесс, если она известна для любого числа любых сечений*.

* (С помощью обобщенной функции δ (x) можно распространить понятие плотности распределения и на случай разрывной функции распределения. Как известно, если функция F(x) при некотором значении х = х0 совершает скачок на величину а, то в ее производную войдет слагаемое аδ(х - х0). Функция δ(х) Равна бесконечности при х2 = 0 и равна нулю при прочих значениях х, причем ПРИ x2>x1)


Пусть, например,


где An, cij, ai, aj - постоянные определенные выбором сечений t1,...., tn и связанные между собой некоторыми зависимостями, на которых сейчас останавливаться не будем. В частности, при n = 1 одномерную плотность распределения можно записать следующим образом:


Здесь


соответствует коэффициенту А1, а 1/2σ2 - коэффициенту с11 в (2.11).

Процесс, у которого любая n-мерная плотность распределения вероятностей выражается (2.11), называется нормальным, или гауссовским. Нормальные процессы играют исключительно важную роль в теории передачи сигналов. Так, в § 1.3 говорилось, что флуктуационные помехи, в частности, вызванные тепловым движением электронов, являются нормальными. Из центральной предельной теоремы вероятности известно, что при некоторых ограничениях сумм большого числа разных процессов образует процесс, очень близкий к гауссовскому.

Среднее значение процесса по ансамблю или его математическое ожидание определяется как


где ω(x, t) - одномерная плотность распределения для сечения t. Математическое ожидание, вообще говоря, является функцией времени (не случайной). Разность между случайным процессом и его математическим ожиданием называется центрированным процессом и обозначается


Математическое ожидание квадрата центрированного процесса называется дисперсией:


которая, вообще говоря, тоже является функцией времени.

Функция корреляции Вх(t1, t2) определяется как математическое ожидание произведения двух сечений центрированного случайного процесса:


Функция корреляции (ФК), вообще говоря, является функцией двух моментов времени t1 и t2. Ее следует отличать от функции взаимной корреляции между двумя процессами X (t) и Y (t):


где w(x1, y2; t1, t2) - двумерная (совместная) плотность вероятности сечения t1 процесса X и сечения t2 процесса Y. Иногда функцию корреляции и взаимной корреляции определяют без центрирования.

Легко показать, что для нормального процесса с одномерной плотностью (2.13) математическое ожидание равно a, а дисперсия σ2.

Случайный процесс, у которого математическое ожидание и дисперсия не зависит от времени, а ФК зависит от разности t2 - t1 = τ, но не от самих значений t1 и t2, называется стационарным (в широком смысле)*. Реальные сообщения, сигналы и помехи обычно не являются стационарными. Однако если их рассматривать на протяжении не слишком длительного времени, то с хорошим приближением их можно описать стационарными процессами, которые поэтому широко используются в качестве математической модели реальных сообщений, сигналов и помех.

* (Стационарными в узком смысле называются процессы, у которых любые n-мерные функции распределения (2.2) не изменяются, если все моменты времени t1, ..., tn сдвинуть на любой интервал τ. Очевидно, что процесс, стационарный в узком смысле, является стационарным и в широком смысле. Обратное утверждение неверно. В настоящей книге стационарность понимается всегда в широком смысле.)

Примером стационарного процесса может служить процесс (2.6), если Φ - случайная величина, распределенная равномерно на интервале (0; 2π). Его математическое ожидание равно нулю, дисперсия равна 0,5A2, а функция корреляции


Наоборот, процесс (2.5) стационарным не является.

Помимо средних значений по ансамблю можно определить средние значения случайного процесса по времени. Для финитного процесса, заданного на интервале времени от t1 до t2, определим постоянную составляющую:


Если процесс задан на бесконечной оси времени, то для него постоянная составляющая


Постоянная составляющая, очевидно, сама от времени не зависит, но является, вообще говоря, случайной величиной - ее значение зависит от реализации сигнала.

Процесс


называется переменной составляющей процесса X(t). Среднее по времени значение квадрата переменной составляющей


процессы часто используют в качестве математических моделей реальных сообщений, сигналов и помех.

Функцию корреляции эргодического процесса также можно вычислить по одной реализации усреднением по времени:


Рассмотрим некоторые свойства функции корреляции стационарного случайного процесса Вх(τ), где τ - разность между двумя сечениями. С учетом стационарности можно записать:


Таким образом, ФК стационарного процесса является четной функцией интервала τ. При τ = 0


т. е. значение корреляционной функции в точке τ = 0 равно дисперсии сигнала.

В теории вероятностей доказывается, что при любом


Таким образом, Вх(τ) имеет максимум при τ = 0.

Определим нормированную функцию корреляции (НФК) или коэффициент корреляции процесса Х(t) как


В частности, для стационарного процесса

RX(τ) = BX(τ)/D{X}. (2.26)

Из свойств функции корреляции следует, что для стационарного процесса

RX(τ) = RX(-τ), Rx (0) = 1, |RX(τ)|≤1. (2.27)

Величина Rx(τ) является в известной степени мерой статистической зависимости между сечениями процесса, отстоящими на интервал τ. Действительно, если при некотором значении τ X(t) и X(t+τ) всегда совпадают, то, как легко убедиться, R(τ) = 1. Если при другом значении τ X(t) = -X(t+τ), то R(t) = - 1. Если, наконец, X(t) и X(t+τ)-независимые случайные величины, то

Bx(x)=M{X̊(t)X̊(t+τ)} = N[{X̊(t)}N[{X̊(t+τ)}=0,

откуда и

Rx(τ) = 0.

Таким образом, независимые сечения являются также некоррелированными. Обратное утверждение в общем случае неверно - два сечения могут быть некоррелированными и в то же время зависимыми. Только в том случае, когда процесс гауссовский, из некоррелированности двух сечений следует их независимость.

Коэффициент и функция корреляции для эргодических случайных процессов стремятся к нулю с увеличением τ. Это происходит потому, что чем дальше отстоят друг от друга сечения, тем слабее статистическая зависимость между ними. Интервал времени τk называется временем корреляции процесса, если при τ>τk величина |R(х)| становится пренебрежимо малой (практически в большинстве случаев для этого достаточно, чтобы она стала меньше 0,1). Иногда интервал корреляции определяют как основание прямоугольника с высотой, равной 1, площадь которого равна площади, ограниченной кривой |R(τ)| и осями координат:


если этот интеграл существует.

Многомерные функции и плотности распределения (2.9), (2.10) иногда удобнее выражать через условные функции (плотности) распределения, аналогично" тому, как это было сделано для вероятностей отрезка последовательности (2.1).. Особенно удобно такое представление для марковских процессов, которые являются аналогом простых марковских цепей и обладают тем свойством, что при известном значении X(tk-1) = xk-1 вероятность значения X(tk) (tk>tk-1) не зависит от значений в любые более ранние моменты времени:

w(xk; tk|x1, x2,...,xk-1; t1, t2,.....,tk-1) = w (xk; tk|xk-1; tk-1), (2.28)

Отсюда следует, что для марковского процесса при t1<t2<... <tn

w(x1,..., хn; t1,..., tn) = w (x1; t1)w(x2; t2|x1; t1) × w(x3;t3|x2; t2).....w(xn; tn|xn-1; tn-1),(2.29)

Теория марковских процессов хорошо разработана и широко используется в современной теории связи. В частности, при некоторых дополнительных условиях переходная плотность вероятности w(x2; t2|x1; t1), где t2>t1 удовлетворяет дифференциальному уравнению 2-го порядка в частных производных:.


при начальном условии w1(x2; t1|x1; t1) = δ(х2 - x1). Здесь A1(x2, t2) - коэффициент сноса, а А22, t2) -коэффициент диффузии.

Уравнение (2.30) называют уравнением Колмогорова-Фоккера-Планка. Марковские процессы, удовлетворяющие этому уравнению, называют диффузионными. В общем случае это нестационарные процессы. Для стационарного процесса коэффициенты А1 и A2 не зависят от t2.

В зависимости от вида коэффициентов A1 и A2 диффузионный марковский процесс может иметь различные распределения вероятностей. В частности, он может быть гауссовским. Имеет место следующая теорема: чтобы стационарный гауссовский процесс был марковским, необходимо и достаточно, чтобы его коэффициент корреляции был экспоненциальным:

R (τ) = е-α|τ|, (2.31)

где α - постоянная.

предыдущая главасодержаниеследующая глава







© RATELI.RU, 2010-2020
При использовании материалов сайта активной гиперссылки обязательна:
http://rateli.ru/ 'Радиотехника'


Поможем с курсовой, контрольной, дипломной
1500+ квалифицированных специалистов готовы вам помочь