22. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции

Начальным моментом порядка s,h системы двух случайных величин X, Y называется математическое ожидание произведения степени s случайной величины X и степени h случайной величины Y:

αs,h=M(XsYh)


Центральным, моментом порядка s, h системы СВ (X, Y) называется математическое ожидание произведения степеней s, h соответствующих центрированных случайных величин:

μs,h =M(XSYh), где X =X-М(X),

Y=Y-М(Y)

-центрированные случайные величины X и Y.

Основным моментом порядка s, h системы СВ (X,Y) называется нормированный центральный момент порядка s, h:

Начальные моменты α1.0, α0,1

α1.0=M(X1Y0)=M(X); α0.1=M(X0Y1)=M(Y).

Вторые центральные моменты:

μ2,0=M(X2Y0)=M(x-M(X))2=D(X)

- характеризует рассеяние случайных величин в направлении оси ОХ.

μ2,0 = M(X0Y2) = M(y-M(Y))2 = D(Y)

- характеризует рассеяние случайных величин в направлении оси OY.

Особую роль в качестве характеристики совместной вариации случайных величин X и Y играет второй смешанный центральный момент, который называется корреляционным моментом - K(X,Y) или ковариацией –

cov(X,Y): μ1,1=K(X,Y)=cov(X,Y)=M(X1Y1)=M(XY)-M(X)M(Y).

Корреляционный момент является мерой связи случайных величин.

Если случайные величины X и Y независимы, то математическое ожидание равно произведению их математических ожиданий:

М (XY)= М (X) М (Y), отсюда cov(X,Y)=0

Если ковариация случайных величин не равна нулю, то говорят, что случайные величины коррелированны. Ковариация может принимать значения на всей числовой оси, поэтому в качестве меры связи используют основной момент порядка s=1, h=1 ,который называют коэффициентом корреляции:

Свойства коэффициента корреляции:

1. -1<rху<1.

2. Если r = +1, то случайные величины линейно зависимы;

3. Если rху = 0, то случайные величины некоррелированны, что не означает их независимости вообще.

Замечание. Если случайные величины X и Y подчиняются нормальному закону распределения, то некоррелированность СВ X и Y означает их независимость.

23. Функции случайных величин

Закон распределения функции случайных величин.

Пусть имеется непрерывная случайная величина X с функцией плотности вероятности f(x). Другая случайная величина Y связана со случайной величиной X функциональной зависимостью: Y=φ(X). Случайная точка (X, Y) может находиться только на кривой у=φ(х).

Дифференциальная функция случайной величины Y определяется при условии, что φ(х) - монотонна на интервале (а,b), тогда для функции φ(х) существует обратная функция: φ-1= Ψ, x= Ψ(x).

Обычно, числовая прямая разбивается на n промежутков монотонности и обратная функция находится на каждом из них, поэтому g(y) -дифференциальная функция СВ Y определяется по формуле

Замечание.

Математическое ожидание и дисперсию СВ Y - функции случайной величины X(Y=φ(x)), имеющей дифференциальную функцию f(x), можно определить по формулам:

24. Композиция законов распределения

В приложениях часто рассматривается вопрос о распределении суммы нескольких случайных величин. Например, пусть Z=X+Y, тогда G(z) -интегральную функцию СВ Z можно определить по формуле

где: f(х,у)-дифференциальная функция системы случайных величин (X,Y);

область D - полуплоскость, ограниченная сверху прямой y= z-x.

Отсюда

g(z) = G'(z) = ∫f(x, z - x)dx.

Если Х и Y независимы, то говорят о композиции законов распределения случайных величин и дифференциальная функция СВ Z определяется как g(z)=f1 (x) f2(z-x)dx, где f ,(х) и f2(y) дифференциальные функции СВ X и Y соответственно.

Если возможные значения аргументов неотрицательны, то дифференциальную функцию СВ Z определяют по формуле

Или


Информация о работе «О теории вероятностей»
Раздел: Математика
Количество знаков с пробелами: 70295
Количество таблиц: 2
Количество изображений: 1

Похожие работы

Скачать
59066
6
49

... Доказать: По определению второй смешанной производной. Найдем по двумерной плотности одномерные плотности случайных величин X и Y. Т.к. полученное равенство верно для всех х, то подинтегральные выражение аналогично В математической теории вероятности вводится как базовая формула (1) ибо предлагается, что плотность вероятности как аналитическая функция может не существовать. Но т.к. в нашем ...

Скачать
25559
0
0

... равна 0,515). Конец 19 в. и 1-я половина 20 в. отмечены открытием большого числа статистических закономерностей в физике, химии, биологии и т.п. Возможность применения методов теории вероятностей к изучению статистических закономерностей, относящихся к весьма далёким друг от друга областям науки, основана на том, что вероятности событий всегда удовлетворяют некоторым простым соотношениям, о ...

Скачать
125259
9
8

... {ξn (ω )}¥n=1 . Поэтому, во-первых, можно говорить о знакомой из математического анализа (почти) поточечной сходимости последовательностей функций: о сходимости «почти всюду», которую в теории вероятностей называют сходимостью «почти наверное». Определение 46. Говорят, что последовательность с. в. {ξn } сходится почти наверное к с. в. ξ при n ® ¥ , и пишут: ξn ...

Скачать
34707
0
6

... ничего другого, кроме как опять же события и . Действительно, имеем: *=, *=, =, =. Другим примером алгебры событий L является совокупность из четырех событий: . В самом деле: *=,*=,=,. 2.Вероятность. Теория вероятностей изучает случайные события. Это значит, что до определенного момента времени, вообще говоря, нельзя сказать заранее о случайном событии А произойдет это событие или нет. Только ...

0 комментариев


Наверх