Запорожец  Издания 

0 1 [ 2 ] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95

иую вероятности того, что g лежит в пределах x...x-\-dx незави-. кмо от значения ц. Таким образом,

Wii{x)= w{x, y)dy,

I ie Ш1 g (л:) - плотность вероятности величины Аналогично плотность вероятности величины г\

Щу){у)= Jt<y{. y)dx.

I ели величины и tj независимы, то у) = mix) Win (у).

Моменты для двумерного распределения можно выразить через плотность вероятности W2ix; у) [I].

Математические ожидания, т. е. моменты первого порядка

оо оо оо

"i{i}= \fXWii(x)dx= xw, (x, y)dx, dy,

-оо -со -оо

оо оо оо

miiv}- ywiniy)dy= ywix, y)dx, ay.

- оо -оо -ОО

Дисперсии, т. е. центральные моменты второго порядка D{l} = M,{l} = ]lx-mi{l}\wMdx =

со оо

= j lx-m{l}fw, (x, y)dxdy,

-оо -со

0{ц}=М,Ы= ][y-mi{r]}fw,r,{y)dy =

оо оо

= i \y-tni{r\}fwix, y)dxdy.

-оо -оо

Смешанный центральный момент второго порядка [3]

щЛ1, Ц}=М,{1, ,,)=M{(-mi{g}) (n-m.{ri})} (1.10)

называют корреляционным моментом. Чтобы выделить его из чис-la других моментов, обозначим Ti}=fi{g, т)}. Корреляцион-

ный момент является функцией двух переменных. Обычно эту (функцию называют функцией корреляции.

1.5. Функция корреляции и коэффициент корреляции

Остановимся более подробно на соотношении (1.10). Функция ьорреляции t\} характеризует степень связи между величина-



ми I и т] и может быть выражена через плотность вероятности W2{x, у):

В{Ь ] 1[x-mi(l)]\y-mi(y\)\2{x, y)dxdy. (1.11)

-00-оо

Коэффициентом корреляции случайных величин и т] называют величину

где я D{t]} - дисперсии.

Коэффициент корреляции характеризует степень статистической связи между случайными величинами g и т], которые называют некоррелированными, если р(, т]}==0.

Коэффициент корреляции «ли же фуш4ция корреляции совместно с математическими ожиданиями, а также дисперсиями Z){g} = =ах и £>{т]}=а2„ образуют простейшую совокупность числовых характеристик, определяющих случайные величины и т]. При нормальных (гауссовских) законах указанные величины полностью характеризуют случайный процесс.

1.6. Нормальный закон распределение (закон Гаусса)

Рассмотренные ранее случаи одномерного и двумерного распределений охватывают довольно широкий круг задач, относящихся к случайным величинам. Однако при огхределенных условиях, в том числе и при гауссовских законах, возникает необходимость изучения многомерных распределений. Обозначим п-мерную плотность вероятности случайных величин черз Wn(xu Xi, .... Хп). При гауссовском законе распределения [1]

ш„ (Xi, х,, Хг)-- X

Oi, оа,.... о„1/ (2n)"D

хехр

I п п

Ч - Щ хи-аи

2D ,=1 fc=, Ofe

где Oi и flj - t-e значения дисперсии и ]иатемэтического ожидания; D - определитель корреляционной 1иатрицы (Z)==P)

/Рц Ри • -PmN Р= Р21 Рй . • -Pzn \ (1.14)

\Рп1 Рп2. . • Рпп /

Здесь коэффициенты корреляции pii=f)22, .... рп„=1; ргь==рм; pifel. в (1.13) Dik - алгебраическое дополнение элемента pife в определителе D.

Матрицу (1.14) при сокращенной записи, принятой в последующих главах, можно представить в виде Р=[ргл], где окуляр р.ь называют элементом



патрицы. Элемент рт расположен в t-й строке и в км столбце матрицы (1.14). (По вопросу матричных обозначений см., например, [48]).

Воспользуемся соотношением (1.13), чтобы получить двумерное (п=2) и одномерное (п=1) гауссовские распределения. Для I ауссовскаго распределения двух случайных величин, когда /г=2, при pi2=p2i=p определитель

= 1-1

I алгебраические дополнения Dii==D22 = l, а I>i2=£>2i=p. На основании (1.13) при п=2

(•«1-, fe-ug)

2(1-pi!)

(1.15)

1хли случайные величины независимы, то коэффициент корреляции р=0 и соотношение (1.15) упрощается:

-ехр

/1ля п=1 из (1.13) получим (xi=x; Oi=o; at = a)

Wi{x) = -

a У 2л

-ехр

(1.16)

(1.17)

Формула (1.17) соответствует одномерному нормальному распределению - закону Гаусса. Значительная часть случайных ве-1)пчин имеет закон распределения плотности вероятности, примерно соответствующий этому закону. Если значение х отсчитывать -м средней величины х=а, т. е. принять а-О, то

(1.18)

wi {X) = (1/а V) ехр {-хЧ2а).

Согласно общим свойствам законов кривых распределения, рассмотренных ранее, площадь, ограниченная кривой Wi{x), равна единице. Кривые нормального распределения, построенные для различных значений среднеквадратического отклонения а, пред- 1авлены на рис. 1.2. Эти кривые имеют наибольшее значение 1)и х=х, т. е. для значения математического ожидания.

Кривая / наиболее сосредоточена около значения х=х. Для 10Й кривой среднеквадратическое отклонение а и дисперсия D= достаточно малы. Для кривых 2 и 3 значение а больше, чем 1ля кривой /; здесь случайная величина более рассеяна, чем в нервом случае. С увеличением рассеяния уменьшается и вероятность w{x) при х=х, так как площадь, ограниченная всеми кри-ИГ.1МИ, одна и та же и равна единице. Как видно из рис. 1.2, кривые I аусса симметричны и отличаются колоколообразной формой,



0 1 [ 2 ] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95