Запорожец Издания
иую вероятности того, что g лежит в пределах x...x-\-dx незави-. кмо от значения ц. Таким образом, Wii{x)= w{x, y)dy, I ie Ш1 g (л:) - плотность вероятности величины Аналогично плотность вероятности величины г\ Щу){у)= Jt<y{. y)dx. I ели величины и tj независимы, то у) = mix) Win (у). Моменты для двумерного распределения можно выразить через плотность вероятности W2ix; у) [I]. Математические ожидания, т. е. моменты первого порядка оо оо оо "i{i}= \fXWii(x)dx= xw, (x, y)dx, dy, -оо -со -оо оо оо оо miiv}- ywiniy)dy= ywix, y)dx, ay. - оо -оо -ОО Дисперсии, т. е. центральные моменты второго порядка D{l} = M,{l} = ]lx-mi{l}\wMdx = со оо = j lx-m{l}fw, (x, y)dxdy, -оо -со 0{ц}=М,Ы= ][y-mi{r]}fw,r,{y)dy = оо оо = i \y-tni{r\}fwix, y)dxdy. -оо -оо Смешанный центральный момент второго порядка [3] щЛ1, Ц}=М,{1, ,,)=M{(-mi{g}) (n-m.{ri})} (1.10) называют корреляционным моментом. Чтобы выделить его из чис-la других моментов, обозначим Ti}=fi{g, т)}. Корреляцион- ный момент является функцией двух переменных. Обычно эту (функцию называют функцией корреляции. 1.5. Функция корреляции и коэффициент корреляции Остановимся более подробно на соотношении (1.10). Функция ьорреляции t\} характеризует степень связи между величина- ми I и т] и может быть выражена через плотность вероятности W2{x, у): В{Ь ] 1[x-mi(l)]\y-mi(y\)\2{x, y)dxdy. (1.11) -00-оо Коэффициентом корреляции случайных величин и т] называют величину где я D{t]} - дисперсии. Коэффициент корреляции характеризует степень статистической связи между случайными величинами g и т], которые называют некоррелированными, если р(, т]}==0. Коэффициент корреляции «ли же фуш4ция корреляции совместно с математическими ожиданиями, а также дисперсиями Z){g} = =ах и £>{т]}=а2„ образуют простейшую совокупность числовых характеристик, определяющих случайные величины и т]. При нормальных (гауссовских) законах указанные величины полностью характеризуют случайный процесс. 1.6. Нормальный закон распределение (закон Гаусса) Рассмотренные ранее случаи одномерного и двумерного распределений охватывают довольно широкий круг задач, относящихся к случайным величинам. Однако при огхределенных условиях, в том числе и при гауссовских законах, возникает необходимость изучения многомерных распределений. Обозначим п-мерную плотность вероятности случайных величин черз Wn(xu Xi, .... Хп). При гауссовском законе распределения [1] ш„ (Xi, х,, Хг)-- X Oi, оа,.... о„1/ (2n)"D хехр I п п Ч - Щ хи-аи 2D ,=1 fc=, Ofe где Oi и flj - t-e значения дисперсии и ]иатемэтического ожидания; D - определитель корреляционной 1иатрицы (Z)==P) /Рц Ри • -PmN Р= Р21 Рй . • -Pzn \ (1.14) \Рп1 Рп2. . • Рпп / Здесь коэффициенты корреляции pii=f)22, .... рп„=1; ргь==рм; pifel. в (1.13) Dik - алгебраическое дополнение элемента pife в определителе D. Матрицу (1.14) при сокращенной записи, принятой в последующих главах, можно представить в виде Р=[ргл], где окуляр р.ь называют элементом патрицы. Элемент рт расположен в t-й строке и в км столбце матрицы (1.14). (По вопросу матричных обозначений см., например, [48]). Воспользуемся соотношением (1.13), чтобы получить двумерное (п=2) и одномерное (п=1) гауссовские распределения. Для I ауссовскаго распределения двух случайных величин, когда /г=2, при pi2=p2i=p определитель = 1-1 I алгебраические дополнения Dii==D22 = l, а I>i2=£>2i=p. На основании (1.13) при п=2 (•«1-, fe-ug) 2(1-pi!) (1.15) 1хли случайные величины независимы, то коэффициент корреляции р=0 и соотношение (1.15) упрощается: -ехр /1ля п=1 из (1.13) получим (xi=x; Oi=o; at = a) Wi{x) = - a У 2л -ехр (1.16) (1.17) Формула (1.17) соответствует одномерному нормальному распределению - закону Гаусса. Значительная часть случайных ве-1)пчин имеет закон распределения плотности вероятности, примерно соответствующий этому закону. Если значение х отсчитывать -м средней величины х=а, т. е. принять а-О, то (1.18) wi {X) = (1/а V) ехр {-хЧ2а). Согласно общим свойствам законов кривых распределения, рассмотренных ранее, площадь, ограниченная кривой Wi{x), равна единице. Кривые нормального распределения, построенные для различных значений среднеквадратического отклонения а, пред- 1авлены на рис. 1.2. Эти кривые имеют наибольшее значение 1)и х=х, т. е. для значения математического ожидания. Кривая / наиболее сосредоточена около значения х=х. Для 10Й кривой среднеквадратическое отклонение а и дисперсия D= достаточно малы. Для кривых 2 и 3 значение а больше, чем 1ля кривой /; здесь случайная величина более рассеяна, чем в нервом случае. С увеличением рассеяния уменьшается и вероятность w{x) при х=х, так как площадь, ограниченная всеми кри-ИГ.1МИ, одна и та же и равна единице. Как видно из рис. 1.2, кривые I аусса симметричны и отличаются колоколообразной формой, 0 1 [ 2 ] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95
|