Измерение характеристик случайных сигналов. Нечеткий вероятностный автомат Вероятностных характеристики нечеткого сигнала

Анализ различных задач радиотехники показывает, что по су­ществу любой сигнал, несущий информацию, может рассматривать­ся как случайный (стохастический). Это обусловливается, с одной стороны, случайными искажениями сигнала при его распростране­нии и наличием разнообразных (внешних и внутренних) помех, а с другой-несовершенством применяемых радиотехнических устройств и систем. Ряд процессов, влияющих на их технический уровень и качество, относится к категории случайных. Эксперимен­тальный анализ таких процессов также связан с измерением харак­теристик соответствующих случайных сигналов.

Изучение свойств и характеристик случайных сигналов базиру­ется, как известно, на теории вероятностей и математической ста­тистике. Потребность в этом привела к развитию методов и средств, составляющих содержание статистических измерений. Они основа­ны на общих принципах измерения параметров сигналов, но имеют свою специфику и ряд принципиальных особенностей, вытекающих из теории случайных процессов. Напомним исходные определения и сведения о характеристиках случайных сигналов и уточним основ­ные задачи техники статистических измерений.

ОБЩИЕ СВЕДЕНИЯ

Случайным называется сигнал, мгновенные значения которого изменяются во времени случайным образом. В связи с этим он описывается случайной функ­цией времени X(t), которую можно рассматривать как бесконечную совокупность (ансамбль) функций x i (t), каждая из которых представляет собой одну из воз­можных реализаций X(t). На рис. 8.1 в качестве примера приведена совокупность реализаций x i (t), где x i (t j)-мгновенное значение сигнала X(t), соответствую­щее значению i -й реализации в j -й момент времени.

Полное описание случайных сигналов может быть произведено с помощью системы вероятностных характеристик. Любая из них определяется либо усред­нением по совокупности реализаций x i (t), либо усреднением по времени для од­ной реализации X(t). В общем случае результаты таких усреднений неодинако­вы, они могут зависеть либо не зависеть от времени или номера реализации. На­личие или отсутствие этой зависимости определяет такие фундаментальные свой­ства сигналов, как стационарность и эргодичность. Стационарным называется сиг­нал, вероятностные характеристики которого не зависят от времени. Соответствен­но вероятностные характеристики эргодических сигналов не зависят от номера реализации.

Классификация случайных сигналов по признакам стационарности и эргодич­ности позволяет выделить следующие их виды: стационарные эргодические, ста­ционарные неэргодические, нестационарные эргодические и нестационарные неэргодические. В рамках курса мы ограничимся рассмотрением методов и средств измерения вероятностных характеристик случайных сигналов первого вида как наиболее простого и типичного. Для таких сигналов усреднение любой вероятностной характеристики по множеству реализаций эквивалентно усреднению по­времени одной теоретически бесконечно длинной реализации. Другими словами все вероятностные характеристики стационарного эргодического сигнала могут быть получены по одной его реализации. Ясно, что проводить измерения с одной реализацией сигнала значительно проще, чем с совокупностью реализаций.

Для практических приложений наиболее важны следующие вероятностные характеристики стационарных эргодических сигналов, имеющих длительность реализации Т (ГОСТ 16465-70):

среднее значение (математическое ожидание), характеризующее, как и

Рис. 8.1. Совокупность реализаций случайного сигнала.

для детерминированных сигналов (см. § 3.1), постоянную составляющую сигнала

(8.1)

средняя мощность, характеризующая энергетический уровень сигнала,

(8.2)

дисперсия, характеризующая среднюю мощность переменной составляющей (флюктуации) сигнала,

или среднее квадратическое отклонение его

функция распределения, определяемая как интегральная вероятность того что значение X i (t j) ниже некоторого заданного уровня х,

(8.5)

т. е. для стационарных эргодических сигналов F x характеризуется относитель­ным временем пребывания значений реализации ниже уровня х ( - i -й интер­вал пребывания; п - количество интервалов);

одномерная плотность вероятности, называемая также дифференциальным законом распределения,

(8.6)

где - расстояние между соседними уровнями X i (t j) и , называемое дифференциальным коридором, а - i -й интервал пребывания реализации в пределах этого коридора;

корреляционная функция, характеризующая стохастическую связь между мгновенными значениями случайного сигнала, разделенными заданным интерва­лом времени ,

или нормированная корреляционная функция

(8.8)

взаимная корреляционная функция, характеризующая стохастическую связь между мгновенными значениями двух случайных сигналов X(t) иY(t), разделен­ными интервалом времени ,

и соответствующая ей нормированная взаимная корреляционная функция

спектральная плотность мощности, определяющая среднюю мощность сиг­нала, приходящуюся на единицу полосы частот. Распределение средней мощно­сти по частоте характеризует энергетический спектр сигнала. Он может быть определен для каждой реализации x i (t) по общим правилам (см. § 7.8). Оказы­вается, что для стационарных случайных сигналов функция спектральной плот­ности мощности связана с корреляционной функцией парой преобразо­ваний Фурье (теорема Винера - Хинчина):

(8.11)

Если мы имеем два стационарных сигнала X(t) иY(t), они могут быть оха­рактеризованы взаимной спектральной плотностью мощности, которая в общем случае является комплексной величиной . Поэтому на практике опреде­ляют функции действительной и мнимой составляющих :

(8.12)

При расчетах по формулам (8.11) и (8.12) можно пользоваться значениями и . Тогда функции спектральной плотности мощности будут норми­рованными.

Как следует из формул (8.1) - (8.12), все вероятностные характеристики, представляющие собой неслучайные числа или функции, определяются по одной реализации X(t) бесконечной длительности. Практически же длительность Т, на­зываемая продолжительностью анализа, всегда ограничена. Поэтому реально всякая экспериментальная характеристика отличается от соответствующей ве­роятностной (теоретической) характеристики и может являться только ее оцен­кой. Оценки, полученные аппаратурным путем, называются статистическими ха­рактеристиками и обозначаются знаком « » (см. § 1.3). В этом смысле измере­ние характеристик случайных сигналов всегда сопровождается статистическими погрешностями. В остальном метрологические характеристики анализаторов ста­тистических характеристик аналогичны характеристикам приборов других под­групп и регламентируются ГОСТ 8.251-77. Анализаторы статистических харак­теристик входят в подгруппу X (см. § 2.1), где они образуют вид Х6.

1. Особенности исследования САУ при случайных воздействиях

При детерминированных заранее заданных воздействиях состояние САУ в любой момент t определяется начальным состоянием системы в некоторый момент времени t0 и приложенными к системе воздействиями. Эта задача определяется решением соответствующего дифференциального уравнения

anx (n)+an-1x(n-1)+…+a0x=bmg(m)+bm-1g(m-1)+…+b0g. (26.1)

Если ai, bj - постоянные коэффициенты, а g - определенная функция времени, то решение этого уравнения для заданных начальных условий будет единственным и определенным для всего интервала времени.

Однако в реальных условиях часто внешние воздействия изменяются случайно, т.е. заранее не предвиденным образом. Например:

суточные изменения нагрузки энергосистемы;

порывы ветра, действующие на самолет;

удары волны в гидродинамических системах;

сигналы радиолокационных установок;

шумы в радиотехнических устройствах и т.д.

Случайные воздействия могут прикладываться к системе извне (внешние воздействия) или возникать внутри некоторых ее элементов (внутренние шумы).

Очевидно, если в уравнении (26.1) g - входное воздействие заранее не определено, т.е. является случайной функцией, или параметры системы ai, bj изменяются случайным образом, то получить решение этого уравнения в детерминированном (т.е. определенном) виде невозможно.

Конечно, можно задаться некоторыми максимальными значениями этих параметров и решить поставленную задачу (расчет системы на заданную точность при максимальных значениях случайных воздействий). Но поскольку максимальные значения случайной величины наблюдаются редко, то в этом случае к системе будут предъявлены заведомо более жесткие требования, чем это вызывается реальностью.

Правда, такой подход иногда является единственно возможным(высокоточное производство, иначе – брак). Поэтому в большинстве случаев расчет системы при случайных воздействиях ведут не по максимальному, а по наиболее вероятному значению случайных величин, т.е. по такому значению, которое встречается наиболее часто.

В этом случае получают наиболее рациональное техническое решение (меньший коэффициент усиления системы, меньшие габариты отдельных устройств, меньшее потребление энергии), хотя для маловероятных значений задающего воздействия будет иметь место ухудшение работы системы.

Расчет САУ при случайных воздействиях с помощью специальных статистических методов, которые оперируют статистическими характеристиками случайных воздействий, являющихся не случайными, а детерминированными величинами.

САУ, спроектированная на основе статистических методов, будет обеспечивать соответствующие требования не для одного, детерминированного воздействия, а для целой совокупности этих воздействий, заданных с помощью статистических характеристик (если ошибка САУ носит случайный характер, то точное ее значение в какой-либо момент времени при статистическом расчете получить невозможно).

Статистические методы расчета САУ основаны на расчетах и работах советских ученых: Хинчина А.Я., Колмогорова А.Н., Гнеденко В.В., Солодовникова В.В., Пугачева В.С., Казакова И.Е. и др., а также зарубежных ученых – Н. Винера, Л. Заде, Дж. Рагоцине, Калмана, Бьюси и др.

2. Краткие сведения о случайных процессах.

Случайной функцией называется функция, которая при каждом значении независимой переменной является случайной величиной. Слу­чайные функции, для которых независимой переменной является время t,называют случайными процессами. Так как в САУ процессы протекают во времени, то в дальнейшем будем рассматривать только случайные процессы.

Случайный процесс x(t) не есть определенная кривая, он явля­ется множеством определенных кривых x i (t) (i=1,2,…,n), по­лучаемых в результате отдельных опытов (рис.26.1). Каждую кривую этого множества называют реализацией случайного процесса, и сказать, по какой из реализаций пойдет процесс, невозможно.

Рис. 26.1. Графики реализаций и математического ожидания случайного процесса

Для случайного процесса, как и для случайной величины, для определения статистических свойств вводят понятие функции распре­деления (интегральный закон распределения) F(x, t) и плотнос­ти вероятности (дифференциальный закон распределения) w(x, t). Данные характеристики зависят от фиксированного момента времени наблюдения t и от некоторого выбранного уровня x, то есть явля­ются функциями двух переменных - x, и t.

Функции F(x, t) и w(x, t) являются простейшими статис­тическими характеристиками случайного процесса. Они характеризуют случайный процесс изолированно в отдельных сечениях, не раскрывая связи между сечениями случайного процесса.

К основным характеристикам случайных процессов, наиболее ши­роко используемых при исследовании систем управления, относят: математическое ожидание, дисперсию, среднее значение квадрата слу­чайного процесса, корреляционную функцию, спектральную плотность и другие.

А. Математическое ожидание m x (t) является средним значением случайного процесса x(t) по множеству и определяется

(26.2)

где w 1 (x, t) - одномерная плотность вероятности случайного про­цесса x(t).

Математическое ожидание случайного процесса x(t) представляет собой некоторую неслучайную функцию времени m x (t), около которой группируются и относительно которой колеблются все реализации дан­ного случайного процесса (рис. 26.1).

Средним значением квадрата случайного процесса называют вели­чину

(26.3)

Часто вводят в рассмотрение центрированный случайный процесс , под которым понимают отклонение случайного процесса X(t) от его среднего значения m x (t), или

(26.4)

Б. Дисперсия. Чтобы учесть степень разбросанности реализаций случайного про­цесса относительно его среднего значения, вводят понятие дисперсии случайного процесса, которая равна математическому ожиданию квад­рата центрированного случайного процесса

(26.5)

Дисперсия случайного процесса является неслучайной функцией времени D x (t) и характеризует разброс случайного процесса Х(t) от­носительно его математического ожидания m x (t).

На практике широко применяются статистические характеристики, имеющие ту же размерность, что и случайная величина, к которым от­носятся:

Среднее квадратическое значение случайного процесса

равное значению квадратного корня из среднего значения квадрата случайного процесса;

Среднее квадратичное отклонение случайного процесса

(26.7)

равное значению квадратного корня из дисперсии случайного процесса.

Математическое ожидание и дисперсия являются важными характе­ристиками случайного процесса, но не дают достаточного представления о внутренних связях случайного процесса, которые оказывают су­щественное влияние на характер его реализаций в пределах заданного интервала времени.

Одной из статистических характеристик, отражающих особенности внутренних связей случайного процесса, является корреляционная функция.

В. Корреляционной функцией случайного процесса Х(t) называют неслучайную функцию двух аргументов R x (t 1 ,t 2), которая для каж­дой пары произвольно выбранных значений моментов времени t 1 и t 2 равна математическому ожиданию произведения двух случайных величин -Х(t 1) и Х(t 2), соответствующих сечений случайного процесса:

где w 1 (x 1 , t 1 , x 2 , t 2) двумерная плотность вероятности.

Случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Различают стационарность в узком и широком смысле .

Стационарным в узком смысле называют случайный процесс Х(t), если его n-мерные функции распределения и плотность вероятнос­ти при любом n не зависят от положения отсчета времени t.

Стационарным в широком смысле называют случайный процесс X(t), математическое ожидание которого постоянно:

М[Х(t)]= m x =const, (26.9)

а корреляционная функция зависит только от одной переменной - раз­ности аргументов t=t 2 -t 1:

В теории случайных процессов пользуются двумя понятиями сред­них значений: среднее значение по множеству и среднее значение по времени.

Среднее значение по множеству определяется на основе наблюде­ния над множеством реализаций случайного процесса в один и тот же момент времени, т.е.

(26.11)

Среднее значение по времени определяется на основе наблюде­ний за отдельной реализацией случайного x(t) на протяжении доста­точно длительного времени Т, т.е.

(26.12)

Из эргодической теоремы вытекает, что для так называемых эргодических стационарных случайных процессов среднее значение по множеству совпадает со средним значением по времени, т.е.

(26.13)

В соответствии с эргодической теоремой для стационарного слу­чайного процесса с математическим ожиданием m 0 x =0 корреляционную функцию можно определить

где x(t) - любая реализация случайного процесса.

Статистические свойства связи двух случайных процессов Х(t) и G(t) можно характеризовать взаимной корреляционной функцией R xg (t 1 ,t 2), которая для каждой пары произвольно выбранных значении аргументов t 1 и t 2 равна

Согласно эргодической теореме вместо (26.15) можно записать

(26.16)

где x(t) и g(t)- любые реализации стационарных случайных процес­сов Х(t) и G(t).

Если случайные процессы Х(t) и G(t) статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех t равна нулю.

Приведем некоторые свойства корреляционных функций.

1. Начальное значение корреляционной функции равно среднему

значению квадрата случайного процесса:

2. Значение корреляционной функции при любом t не может превышать ее начального значения, то есть

3. Корреляционная функция есть четная функция от t, т.е.

(26.18)

Другой статистической характеристикой, отражающей внутреннюю структуру стационарного случайного процесса Х(t), является спект­ральная плотность S x (w), которая характеризует распределение энергии случайного сигнала по спектру частот.

Г. Спектральная плотность S x (w) случайного процесса Х(t) опре­деляется как преобразование Фурье корреляционной функции R(t),

(26.19)

Следовательно,

так как спектральная плотность S x (a ) является действительной и четной функцией частоты w.

Соотношения (26.19) и (26.20) позволяют установить некоторые зависимости между структурой случайного процесса Х(t) и видом ха­рактеристик R x (t) и S x (w) (рис.26.2).

Ид приведенных графиков следует, что с увеличением скорости изменения реализации Х(t) корреляционная функция R x (t) сужает­ся (обостряется), а спектральная плотность S x (w) расширяется.

Информация, передаваемая по каналу связи или извлекаемая в результате измерения, заключена в сигнале.

До приема сообщения (до испытания) сигнал следует рассматривать как случайный процесс, представляющий собой совокупность (ансамбль) функций времени, подчиняющихся некоторой общей для них статистической закономерности. Одна из этих функций, ставшая полностью известной после приема сообщения, называется реализацией случайного процесса. Эта реализация является уже не случайной, а детерминированной функцией времени.

Важной, но не исчерпывающей характеристикой случайного процесса является присущий ему одномерный закон распределения вероятностей.

На рис. 4.1 изображена совокупность функций , образующих случайный процесс . Значения, которые могут принимать отдельные функции в момент времени , образуют совокупность случайных величин

Рис. 4.1. Совокупность функций, образующих случайный процесс

Вероятность того, что величина при измерении попадает в какой-либо заданный интервал (рис. 4.1), определяется выражением

Функция представляет собой дифференциальный закон распределения случайной величины называется одномерной плотностью вероятности, а - интегральной вероятностью.

Функция имеет смысл для случайных непрерывного типа, могущих принимать любое значение в некотором интервале. При любом характере функции должно выполняться равенство

где - границы возможных значений

Если же является случайной величиной дискретного типа и может принимать любое из конечного числа дискретных значений, то (4.2) следует заменить суммой

где - вероятность, соответствующая величине .

Задание одномерной плотности вероятности позволяет произвести статистическое усреднение как самой величины так и любой функции . Под статистическим усреднением подразумевается усреднение по множеству (по ансамблю) в каком-либо «сечении» процесса, т. е. в фиксированный момент времени.

Для практических приложений наибольшее значение имеют следующие параметры случайного процесса:

математическое ожидание

дисперсия

среднее квадратическое отклонение

Одномерная плотность вероятности недостаточна для полного описания процесса, так как она дает вероятностнре представление о случайном процессе X(t) только в отдельные фиксированные моменты времени.

Более полной характеристикой является двумерная плотность вероятности позволяющая учитывать связь значений принимаемых случайной функцией в произвольно выбранные моменты времени

Исчерпывающей вероятностной характеристикой случайного процесса является -мерная плотность вероятности при достаточно больших n. Однако большое число задач, связанных с описанием случайных сигналов, удается решать на основе двумерной плотности вероятности.

Задание двумерной плотности вероятности позволяет, в частности, определить важную характеристику случайного процесса - ковариационную функцию

Согласно этому определению ковариационная функция случайного процесса представляет собой статистически усредненное произведение значений случайной функции в моменты

Для каждой реализации случайного процесса произведение является некоторым числом. Совокупность реализаций образует множество случайных чисел, распределение которых характеризуется двумерной плотностью вероятности При заданной функции операция усреднения по множеству осуществляется по формуле

При двумерная случайная величина вырождается в одномерную величину Можно поэтому написать

Таким образом, при нулевом интервале между моментами времени ковариационная функция определяет величину среднего квадрата случайного процесса в момент

При анализе случайных процессов часто основной интерес представляет его флуктуационная составляющая. В таких случаях применяется корреляционная функция

Подставляя в вместо вместо можно получить следующее выражение:

При выражение (4.8) в соответствии с (4.4) определяет дисперсию случайного процесса Следовательно,

Исследование случайного процесса, а также воздействия его на радиоцепи существенно упрощается при стационарности процесса.

Случайный процесс называется строго стационарным, если его плотность вероятности произвольного порядка зависит только от интервалов и не зависит от положения этих интервалов в области изменения аргумента

В радиотехнических приложениях теории случайных процессов условие стационарности обычно ограничивается требованием независимости от времени только одномерной и двумерной плотностей вероятности (случайный процесс, стационарный в широком смысле). Выполнение этого условия позволяет считать, что математическое ожидание, средний квадрат и дисперсия случайного процесса не зависят от времени, а корреляционная функция зависит не от самих моментов времени , а только от интервала между ними

Стационарность процесса в широком смысле можно трактовать как стационарность в рамках корреляционной теории (для моментов не выше второго порядка).

Таким образом, для случайного процесса, стационарного в широком смысле, предыдущие выражения можно записывать без обозначения фиксированных моментов времени. В частности,

Дальнейшее упрощение анализа случайных процессов достигается при использовании условия эргодичности процесса. Стационарный случайный процесс называется эргодическим, если при определении любых статистических характеристик усреднение по множеству реализаций эквивалентно усреднению по времени одной теоретически бесконечно длинной реализации.

Условие эргодичности случайного процесса включает в себя и условие его стационарности. В соответствии с определением эргодического процесса соотношения эквивалентны следующим выражениям, в которых операция усреднения по времени обозначена чертой:

Если представляет собой электрический сигнал (ток, напряжение), то - постоянная составляющая случайного сигнала, - средняя мощность флуктуации сигнала [относительно постоянной составляющей х(t)].

Выражение (4.15) внешне совпадает с определением (2.131) корреляционной функции детерминированного сигнала (периодического).

Часто применяется нормированная корреляционная функция

Функции характеризуют связь (корреляцию) между значениями разделенными промежутком . Чем медленнее, плавнее изменяется во времени тем больше промежуток , в пределах которого наблюдается статистическая связь между мгновенными значениями случайной функции.

При экспериментальном исследовании случайных процессов используются временнйе корреляционные характеристики процесса (4.15)-(4.19), поскольку, как правило, экспериментатору доступно наблюдение одной реализации сигнала, а не множества его реализаций. Интегрирование выполняется, естественно, не в бесконечных пределах, а на конечном интервале Т, длина которого должна быть тем больше, чем выше требование к точности результатов измерения.


Математический аппарат анализа стационарных случайных сигналов основан на гипотезе эргодичности. Согласно гипотезе эргодичности статистические характеристики большого числа произвольно выбранных реализаций стационарного случайного сигнала овпадают со статистическими характеристиками одной реализации достаточно большой длины. Это означает, что усреднение по множеству реализаций стационарного случайного сигнала можно заменить усреднением по времени одной, достаточно длинной реализации. Тем самым существенно облегчается экспериментальное определение статистических характеристик стационарных сигналов и упрощается расчет систем при случайных воздействиях.

Определим основные статистические характеристики стационарного случайного сигнала, заданного в виде одной реализации в интервале (рис. 11.1.1, а).

Числовые характеристики. Числовыми характеристиками случайного сигнала являются среднее значение (математическое ожидание) и дисперсия.

Среднее значение сигнала на конечном интервале времени равно

Если интервал усреднения - длину реализации Т устремить к бесконечности, то среднее по времени значение согласно гипотезе эргодичности будет равно математическому ожиданию сигнала:

Рис. 11.1.1. Реализации стационарных случайных сигналов

В дальнейшем для краткости знак предела перед интегралами по времени будем опускать. При этом либо вместо знака = будем использовать знак , либо под вычисляемыми статистическими характеристиками будем подразумевать их оценки.

В практических расчетах, когда конечная реализация задана в виде N дискретных значений, отделенных друг от друга равными промежутками времени (см. рис. 8.1), среднее значение вычисляют по приближенной формуле

Стационарный случайный сигнал можно рассматривать как сумму постоянной составляющей, равной среднему значению ,и переменной составляющей , соответствующей отклонениям случайного сигнала от среднего:

Переменную составляющую называют центрированным случайным сигналом.

Очевидно, что среднее значение центрированного сигнала всегда равно нулю.

Так как спектр сигнала х (t) совпадает со спектром соответствующего центрированного сигнала , то во многих (но не всех!) задачах расчета автоматических систем можно вместо сигнала x(t) рассматривать сигнал .

Дисперсия D x стационарного случайного сигнала равна среднему значению квадрата отклонений сигнала от математического ожидания , т. е.

Дисперсия D x является мерой разброса мгновенных значений сигнала около математического ожидания. Чем больше пульсация переменной составляющей сигнала относительно его постоянной составляющей, тем больше дисперсия сигнала. Дисперсия имеет размерность величины х в квадрате.

Дисперсию можно рассматривать так же, как среднее значение мощности переменной составляющей сигнала.

Часто в качестве меры разброса случайного сигнала используют среднеквадратичное отклонение .

Для расчета автоматических систем имеет важное значение следующее свойство:

дисперсия суммы или разности независимых случайных сигналов равна сумме (!) дисперсий этих сигна­лов, т. е.

Математическое ожидание и дисперсия являются важными числовыми параметрами случайного сигнала, но они характеризуют его не полностью: по ним нельзя судить о скорости изменения сигнала во времени. Так, например, для случайных сигналов х 1 (t) и х 2 (t) (рис. 11.1.1, б, в) математические ожидания и дисперсии одинаковые, но несмотря на это, сигналы явно отличаются друг от друга: сигнал х 1 (t) изменяется медленнее, чем сигнал х 2 (t).

Интенсивность изменения случайного сигнала во времени можно охарактеризовать одной из двух функций - корреляционной или функцией спектральной плотности.

Корреляционная функция. Корреляционной функцией случайного сигнала х(t) называется математическое ожидание произведений мгновенных значений центрированного сигнала , разделенных промежутком времени , т. е.

где т - варьируемый сдвиг между мгновенными значениями сигнала (см. рис. 11.1.1, а). Сдвиг варьируют от нуля до некоторого значения. Каждому фиксированному значению соответствует определенное числовое значение функции .

Корреляционная функция (называемая также автокорреляционной) характеризует степень корреляции (тесноту связи) между предыдущими и последующими значениями сигнала.

При увеличении сдвига связь между значениями и ослабевает, и ординаты корреляционной функции (рис. 11.1.2, а) уменьшаются.

Это основное свойство корреляционной функции можно объяснить следующим образом. При малых сдвигах под знак интеграла (11.1.12) попадают произведения сомножителей, имеющих, как правило, одинаковые знаки, и поэтому большинство произведений будут положительными, а значение интеграла большим. По мере уве­личения сдвига под знак интеграла будет попадать все больше сомножителей, имеющих противоположные знаки, и значения интеграла будут уменьшаться. При очень больших сдвигах

Рис. 11.1.2. Корреляционная функция (а) и спектральная плотность (б) слу­чайного сигнала

сомножители и практически независимы, и число положительных произведений равно числу отрицательных произведений, а значение интеграла стремится к нулю. Из приведенных рассуждений следует также, что корреляционная функция убывает тем быстрее, чем быстрее изменяется случайный сигнал во времени.

Из определения корреляционной функции следует, что она является четной функцией аргумента , т. е.

поэтому обычно рассматривают только положительные значения .

Начальное значение корреляционной функции центрированного сигнала равно дисперсии сигнала, т. е.

Равенство (8.14) получается из выражения (11.1.12) при подстановке .

Корреляционную функцию конкретного сигнала определяют по экспериментально полученной реализации этого сигнала. Если реализация сигнала получена в виде непрерывной диаграммной записи длиной Т, то корреляционную функцию определяют при помощи специального вычислительного устройства - коррелятора (рис. 11.1.3, а), реализующего формулу (11.1.12). Коррелятор состоит из блока задержки БЗ, блока умножения БУ и интегратора И. Для определения нескольких ординат блок запаздывания поочередно настраивают на различные сдвиги

Если же реализация представляет собой совокупность дискретных значений сигнала, полученных через равные промежутки (см рис. 11.1.1, а), то интеграл (11.1.12) приближенно заменяют суммой

которую вычисляют при помощи ЦВМ.

Рис 11.1.3 Алгоритмические схемы вычисления ординат корреляционной функции (а) и спектральной плотности (б)

Для получения достаточно достоверной информации о свойствах случайного сигнала длину реализации Т и интервал дискретности необходимо выбирать из условий:

где T н t ч и Т в ч - периоды соответственно самой низкочастотной и самой высокочастотной составляющих сигнала.

Спектральная плотность. Определим теперь спектральную характеристику стационарного случайного сигнала . Так как функция не является периодической, она не может быть разложена в ряд Фурье (2.23). С другой стороны, функция из-за неограниченной длительности неинтегрируема, и поэтому не может быть представлена интегралом Фурье (2.28). Однако, если рассматривать случайный сигнал на конечном интервале Т, то функция становится интегрируемой, и для нее существует прямое преобразование Фурье:

Изображение по Фурье непериодического сигнала х(t) характеризует распределение относительных амплитуд сигнала вдоль оси частот и называется спектральной плотностью амплитуд, а функция характеризует распределение энергии сигнала среди его гармоник (см. 2.2). Очевидно, что если разделить функцию на длительность Т случайного сигнала, то она будет определять распределение мощности конечного сигнала среди его гармоник. Если теперь устремить Т к бесконечности, то функция будет стремиться к пределу

который называется спектральной плотностью мощности случайного сигнала. В дальнейшем функцию будем называть сокращенно - спектральная плотность.

Наряду с математическим определением (11.1.18) спектральной плотности можно дать более простое - физическое толкование: спектральная плотность случайного сигнала х (t) характеризует распределение квадратов относительных амплитуд гармоник сигнала вдоль оси .

Согласно определению (11.1.18) спектральная плотность - четная функция частоты. При функция обычно стремится к нулю (рис. 11.1.2, б), причем, чем быстрее изменяется сигнал во времени, тем шире график .

Отдельные пики на графике спектральной плотности свидетельствуют о наличии периодических составляющих случайного сигнала.

Найдем связь спектральной плотности с дисперсией сигнала. Запишем равенство Парсеваля (2.36) для конечной реализации и разделим его левую и правую части на Т. Тогда получим

При левая часть равенства (8.19) стремится к дисперсии сигнала D x [см. (11.1.10)], а подынтегральное выражение в правой части - к спектральной плотности , т. е. вместо (8.19) по­лучим одну из главных формул статистической динамики:

Поскольку левая часть равенства (11.1.20) представляет собой полную дисперсию сигнала, то каждую элементарную составляющую под знаком интеграла можно рассматривать как дисперсию или квадрат амплитуды гармоники с частотой .

Формула (11.1.20) имеет большое практическое значение, так как позволяет по известной спектральной плотности сигнала вычислять его дисперсию, которая во многих задачах расчета автоматических систем служит важной количественной характеристикой качества.

Спектральную плотность можно найти по экспериментальной реализации сигнала при помощи спектрального анализатора (рис. 11.1.3, б), состоящего из полосового фильтра ПФ с узкой полосой пропускания , квадратора Кв и интегратора И. Для определения нескольких ординат полосовой фильтр поочередно настраивают на различные частоты пропускания.

Взаимосвязь между функциональными характеристиками случайного сигнала. Н. Винером и А. Я. Хинчиным было впервые показано, что функциональные характеристики и стационарного случайного сигнала связаны друг с другом преобразованием Фурье: спектральная плотность является изображением корреляционной функции т. е.

а корреляционная функция, соответственно, является оригиналом этого изображения,т.е.

Если разложить множители с помощью формулы Эйлера (11.1.21) и учесть, что , и - четные функции, а - нечетная функция, то выражения (11.1.21) и (11.1.22) можно преобразовать к следующему виду, более удобному для практических расчетов:

Подставляя в выражение (11.1.24) значение получим формулу (11.1.20) для вычисления дисперсии.

Соотношения, связывающие корреляционную функцию и спектральную плотность, обладают всеми присущими преобразованию Фурье свойствами. В частности: чем шире график функции тем уже график функции , и наоборот, чем быстрее убывает функция , тем медленнее уменьшается функция (рис. 11.1.4). Кривые 1 на обоих рисунках соответствуют медленно меняющемуся случайному сигналу (см. рис. 11.1.1, б), в спектре которого преобладают низкочастотные гармоники. Кривые 2 соответствуют быстро меняющемуся сигналу х 2 (t) (см. рис. 11.1.1, б), в спектре которого преобладают высокочастотные гармоники.

Если случайный сигнал изменяется во времени очень резко, и между его предыдущими и последующими значениями корреляция полностью отсутствует, то функция имеет вид дельта-функции (см. рис. 11.1.4, а, прямая 3). График спектральной плотности в этом случае представляет собой горизонтальную прямую в диапазоне частот от 0 до (см. рис. 11.1.4, б, прямая 3). Это указывает на то, что амплитуды гармоник во всем диапазоне частот одинаковы. Такой сигнал называется идеальным белым шумом (по аналогии с белым светом, у которого, как известно, интенсивность всех компонент одинакова).

Рис 11.1.4 Взаимосвязь между корреляционной функцией (а) и спектральной плотностью (б)

Отметим, что понятие «белый шум» является математической абстракцией. Физические сигналы в виде белого шума неосуществимы, так как бесконечно широкому спектру согласно формуле (11.1.20) соответствует бесконечно большая дисперсия, а следова­тельно, и бесконечно большая мощность, что невозможно. Тем не менее, реальные сигналы с конечным спектром часто можно приближенно рассматривать как белый шум. Это упрощение правомерно в тех случаях, когда спектр сигнала значительно шире полосы пропускания системы, на которую действует сигнал.

Для всех случайных сигналов, действующих в реальных физических системах, существует корреляция между предыдущими и последующими значениями. Это означает, что корреляционные функции реальных сигналов отличаются от дельта-функции и имеют конечную, не равную нулю длительность спада. Соответственно и спектральные плотности реальных сигналов всегда имеют конечную ширину.

Характеристики связи двух случайных сигналов. Для описания вероятностной связи, проявляющейся между двумя случайными сигналами, используют взаимную корреляционную функцию и взаимную спектральную плотность.

Взаимная корреляционная функция стационарных случайных сигналов х 1 (t) и х 2 (t) определяется выражением

Функция характеризует степень связи (корреляции) между мгновенными значениями сигналов х 1 (t) и х 2 (t), отстоящими друг от друга на величину . Если сигналы статистически не связаны (не коррелированы) между собой, то при всех значениях функция .

Для взаимной корреляционной функции справедливо следующее соотношение, вытекающее из определения (8.25):

Корреляционная функция суммы (разности) двух коррелированных между собой сигналов определяется выражением

Взаимная спектральная плотность случайных сигналов х 1 (t) и х 2 (t) определяется как изображение по Фурье взаимной корреляционной функции:

Из определения (11.1.28) и свойства (11.1.26) следует, что

Спектральная плотность суммы (разности) случайных сигналов х 1 (t) и х 2 (t)

Если сигналы х 1 (t) и х 2 (t) некоррелирвоаны между собой, то выражения (11.1.27) и (11.1.29) упрощаются:

Соотношения (11.1.31), а также (11.1.11), означают, что статистические характеристики и D x совокупности нескольких некоррелированных друг с другом случайных сигналов всегда равны сумме соответствующих характеристик этих сигналов (независимо от того, с каким знаком сигналы суммируются в эту совокупность).

Типовые случайные воздействия. Реальные случайные воздействия, влияющие на промышленные объекты управления, весьма разнообразны по своим свойствам. Но прибегая при математическом описании воздействий к некоторой идеализации, можно выделить ограниченное число типичных или типовых случайных воздействий. Корреляционные функции и спектральные плотности типовых воздействий представляют собой достаточно простые функции аргументов и . Параметры этих функций, как правило,можно легко определить по экспериментальным реализациям сигналов.

Простейшим типовым воздействием является белый шум с ограниченной шириной спектра. Спектральная плотность этого воздействия (рис. 11.1.5, а) описывается функцией

Где - интенсивность белого шума. Дисперсия сигнала согласно (11.1.20)

Корреляционная функция согласно (11.1.24) в данном случае имеет вид

Учитывая (11.1.33), функцию (11.1.34) можно записать в следующем виде:

График функции (11.1.35) показан на рис. 11.1.5, б.

Рис. 11.1.5. Спектральные плотности и корреляционные функции типовых случайных сигналов

Наиболее часто в практических расчетах встречаются сигналы с экспоненциальной корреляционной функцией (рис. 11.1.5, г)

Применяя к корреляционной функции (11.1.36) преобразование (11.1.23), находим спектральную плотность (рис. 11.1.5, в)

Чем больше параметр а х, тем быстрее уменьшается корреляционная функция и тем шире график спектральной плотности. Ординаты функции при увеличении а х уменьшаются. При рассматриваемый сигнал приближается к идеальному белому шуму.

При ориентировочных расчетах параметр а х можно определить непосредственно по реализации сигнала - среднему числу пересечений центрированным сигналом оси времени: .

Часто случайный сигнал содержит скрытую периодическую составляющую. Такой сигнал имеет экспоненциально-косинусную корреляционную функцию (рис. 11.1.5, е)

Параметр этой функции соответствует среднему значению «периода» скрытой составляющей, а параметр а х характеризует относительную интенсивность остальных случайных составляющих, которые наложены на периодическую составляющую. Если показатель , то относительный уровень этих составляющих невелик, и смешанный сигнал близок к гармоническому. Если же показатель , то уровень случайных составляющих соизмерим с «амплитудой» периодической составляющей. При корреляционная функция (8.38) практически совпадает (с точностью 5 %) с экспонентой (11.1.36).

Поскольку все информационные сигналы и помехи являются случайными и могут быть предсказаны лишь с некоторой степенью вероятности, то для описания таких сигналов используется теория вероятностей. При этом используются статистические характеристики, которые получают путем проведения многочисленных опытов в одинаковых условиях.

Все случайные явления, изучаемые теорией вероятностей можно разделить на три группы:
— случайные события;
— случайные величины;
— случайные процессы.

Случайное событие — это всякий факт, который в результате опыта может произойти или не произойти.
Случайным событием является появление помехи на входе приемника или прием сообщения с ошибкой.
Случайные события обозначаются латинскими буквами А, В, С.

Числовыми характеристиками случайного события являются:
1. Частота появления случайного события:

где m — количество опытов, в которых произошло данное событие;
N — общее количество проведенных опытов.

Как следует из выражения (40) частота появления случайного события не может превышать 1, т. к. количество опытов, в которых произошло данное событие не может привысить общее количество проведенных опытов.
2. Вероятность появления случайного события:

Т. е. вероятность появления случайного события есть частота его появления при неограниченном увеличении количества проведенных опытов. Вероятность появления события не может превышать 1. Случайное событие, имеющее вероятность равную единице является достоверным, т. е. оно обязательно произойдет, поэтому такую вероятность имеют уже произошедшие события.
Случайная величина — это величина, которая от опыта к опыту изменяется случайным образом.
Случайной величиной является амплитуда помехи на входе приемника или количество ошибок в принятом сообщении. Случайные величины обозначаются латинскими буквами X, Y, Z, а их значения — x, y, z.
Случайные величины бывают дискретными и непрерывными.
Дискретной называется случайная величина, которая может принимать конечное множество значений (например, количество оборудования, количество телеграмм и т. д., т. к. они могут принимать только целое число 1, 2, 3, …).
Непрерывной называется случайная величина, которая может принимать любые значения из некоторого диапазона (например, амплитуда помехи на входе приемника может принимать любые значения, точно так же как и любые значения может принимать информационный аналоговый сигнал).

Числовыми, статистическими характеристиками, описывающими случайные величины являются:
1. Функция распределения вероятности .

F(x)=P(X ? x) (42)

Данная функция показывает вероятность того, что случайная величина Х не превысит конкретно выбранного значения х. Если случайная величина Х является дискретной, то F(x) так же является дискретной функцией, если Х непрерывная величина, то F(x) ? непрерывная функция.
2. Плотность распределения вероятности .

Р(х)=dF(x)/dx (43)

Данная характеристика показывает вероятность попадания значения случайной величины в малый интервал dx в окрестности точки х’, т. е. в заштрихованную область (рисунок).

3. Математическое ожидание .

где хi — значения случайной величины;
Р(хi) — вероятность появления этих значений;
n — количество возможных значений случайной величины.

где р(х) — плотность вероятности непрерывной случайной величины.

По своему смыслу математическое ожидание показывает среднее и наиболее вероятное значение случайной величины, т. е. это значение наиболее часто принимает случайная величина. Выражение (44) применяется, если случайная величина является дискретной, а выражение (45), если она является непрерывной. Обозначение M[X] является специальным для математического ожидания того случайной величины, которая указана в квадратных скобках, однако иногда используются обозначения mх или m.

4. Дисперсия .

Дисперсия количественно характеризует степень разброса результатов отдельных опытов относительно среднего значения. Обозначение дисперсии случайной величины D[X] является общепринятым, однако может использоваться и обозначение??х. Выражение (46) используется для вычисления дисперсии дискретной случайной величины, а (47) — для вычисления дисперсии непрерывной случайной величины. Если извлечь квадратный корень из дисперсии, то получится величина, называемая среднеквадратическим отклонением (?х).

Все характеристики случайной величины можно показать с помощью рисунка 22.

Рисунок 22 - Характеристики случайной величины

Случайный процесс — это такая функция времени t, значение которой при любом фиксированном значении времени является случайной величиной. Например, на рисунке 23 показана диаграмма некоторого случайного процесса, наблюдаемого в результате проведения трех опытов. Если определить значение функций в фиксированный момент времени t1, то полученные значения окажутся случайными величинами.

Рисунок 23 - Ансамбль реализаций случайного процесса

Таким образом, наблюдение любой случайной величины (Х) во времени, является случайным процессом Х(t). Например, как случайные процессы, рассматриваются информационные сигналы (телефонные, телеграфные, передачи данных, телевизионные) и шумы (узкополосные и широкополосные).
Однократное наблюдение случайного процесса называется реализацией xk(t). Совокупность всех возможных реализаций одного случайного процесса называется ансамблем реализаций. Например, на рисунке 23 представлен ансамбль реализаций случайного процесса, состоящий из трех реализаций.

Для характеристики случайных процессов используются те же характеристики, что и для случайных величин: функция распределения вероятности, плотность распределения вероятности, математическое ожидание и дисперсия. Данные характеристики рассчитываются аналогично, как и для случайных величин. Случайные процессы бывают различных типов. Однако в электросвязи большинство случайных сигналов и помех относятся к стационарным эргодическим случайным процессам.

Стационарным является случайный процесс, у которого характеристики F(x), P(x), M[X] и D[X] не зависят от времени.
Эргодическим является процесс, у которого усреднение по времени одной из реализации приводит к тем же результатам, что и статическое усреднение по всем реализациям. Физически это означает, что все реализации эргодического процесса похожи друг на друга, поэтому измерения и расчеты характеристик такого процесса можно проводить по одной (любой) из реализаций.
Кроме четырех характеристик приведенных выше случайные процессы также описываются функцией корреляции и спектральной плотностью мощности.

Функция корреляции характеризует степень взаимосвязи между значениями случайного процесса в различные моменты времени t и t+?. Где? временной сдвиг.

где tн — время наблюдения реализации xk(t).

Спектральная плотность мощности — показывает распределение мощности случайного процесса по частотам.

где?Р — мощность случайного процесса, приходящаяся на полосу частот?f.

Таким образом, наблюдение случайного явления во времени является случайным процессом, его появление является случайным событием, а его значение случайной величиной.

Например, наблюдение телеграфного сигнала на выходе линии связи в течение, какого то времени — это случайный процесс, появление на приеме его дискретного элемента «1» или «0» — случайное событие, а амплитуда этого элемента — случайная величина.