Корреляционный момент формула. Ковариация и корреляция

Ковариация и коэффициент корреляции.

Между случайными величинами может существовать функциональная или стохастическая (вероятностная) зависимость. Стохастическая зависимость проявляется в том, что условный закон распределения одной случайной величины изменяется в зависимости от значений, принимаемых другой случайной величиной. Одной из характеристик стохастической зависимости двух случайных величин является ковариация случайных величин.

Ковариацией случайных величин (X ,Y ) называется число равное математическому ожиданию произведения отклонений случайных величин X и Y от своих математических ожиданий:

Иногда ковариацию называют корреляционным моментом или вторым смешанным центральным моментом случайных величин (X ,Y ).

Используя определение математического ожидания, получим:

для дискретного распределения

для непрерывного распределения

При Y = X ковариация совпадает с дисперсией Х .

Величина корреляционного момента зависит от единиц измерения случайных величин. Это затрудняет сравнение корреляционных моментов различных систем случайных величин. Для устранения этого недостатка вводится новая числовая характеристика – коэффициент корреляции , который является

безразмерной величиной.

Для его вычисления заменим отклонения случайных величин от математических ожиданий их нормированными отклонениями, т.е.

Свойства коэффициента корреляции :

Пусть t – переменная величина в смысле математического анализа. Рассмотрим дисперсию случайной величины D (Y – tX ) как функцию переменной t .

По свойству дисперсии . Дискриминант в этом случае должен быть меньше либо равен нулю, т.е.

Откуда получим

2. Модуль коэффициента корреляции не меняется при линейных преобразованиях случайных переменных: , где , , – произвольные числа.

3. , тогда и только тогда, когда случайные величины X и Y связаны линейно, т.е. существуют такие числа a, b, что .

Если , то рассматриваемый в п.1 дискриминант равен нулю, а поэтому при некотором значение . Следовательно, величина и для некоторого С справедливо равенство , что требовалось доказать.

4. Если X и Y статистически независимы, то .

Свойства 2,4 проверяются непосредственно.

4.5.2. Коррелированность и зависимость системы случайных величин .

Необходимым условием независимости случайных величин X и Y является равенство нулю их корреляционного момента (или коэффициента корреляции). Однако равенство (или ) есть только необходимое, но недостаточное условие независимости.

Пример 1.

На рисунке изображены точки, лежащие на параболе , а .

В связи с этим вводится более узкое понятие некоррелированности (если ) или коррелированности (если ) случайных величин. Поэтому независимость случайных величин означает и некоррелированность () и, наоборот, коррелированность () – зависимость .

В общем случае, когда , точки (X,Y) будут разбросаны вокруг прямой тем более тесно, чем больше величина . Таким образом, коэффициент корреляции характеризует не любую зависимость между X и Y , а степень тесноты линейной зависимости между ними.

Так, в частности, даже при , т.е. при полном отсутствии линейной зависимости, между X и Y может существовать сколь угодно сильная статистическая и даже нелинейная функциональная зависимость (см. пример1).

При значениях говорят о положительной корреляции между X и Y , означающей, что обе переменные имеют одинаковую тенденцию к возрастанию или убыванию. При говорят об отрицательной корреляции, означающей противоположную тенденцию в изменении случайных величин X и Y , т.е. одна возрастает, а другая убывает или наоборот.

Если случайные величины X и Y распределены нормально, то из их некоррелированности следует и их независимость, так как

Если , то .

Для вычисления коэффициента корреляции продолжим пример 2 из §4.1. Воспользуемся формулой

.

M (X ×Y )=(-200)×(-100)×0,2 + (-200)×0×0,1 + (-200)×(100)×0,05 + 0×(-100)×0,05 + 0×0×0,25 + 0×100×0,02 + 200×(-100)×0,01 + 200×0×0,02 + 200×100×0,3 = 8800$;

; ;

.

Пример 2. Закон распределения системы двух случайных величин задан таблицей распределения

X Y
-1 0,01 0,06 0,05 0,04
0,04 0,24 0,15 0,07
0,05 0,01 0,01 0,09

Найти одномерные (маргинальные) законы распределения X и Y , их математические ожидания, дисперсии и коэффициент корреляции между X и Y .

Решение. Вероятности возможных значений дискретной случайной величины Х , входящей в систему, определяются формулой

, к =1, 2, 3, 4.

Поэтому одномерное распределение величины Х имеет следующий вид

Математические ожидания случайных величин X и Y :

M (X )=1,6; M (Y )=0,18.

Дисперсии случайных величин X и Y :

D (X )=0,84; D (Y )=0,47.

Коэффициент корреляции между X и Y вычисляется по формуле

; ;

; ;

Вопросы для самопроверки.

1. Дайте определение многомерной случайной величины и функции распределения вероятностей.

2. Что называется совместным распределением двумерной дискретной случайной величины (X ,Y )? Как оно записывается?

3. Как по известному совместному распределению двумерной случайной величины (X ,Y ) найти маргинальные распределения составляющих X и Y ?

4. Что называется условным распределением составляющей X двумерной дискретной величины (X ,Y )?

5. Что называется ковариацией?

6. Что называется коэффициентом корреляции?

7. Укажите свойства коэффициента корреляции.

8. Чему равен коэффициент корреляции случайных величин X и Y = 1 – 2X ?

9. В какую величину превращается ковариация двух случайных величин X и Y , если X = Y ?

10. Равносильны ли понятия независимости и некоррелированности?

Задачи

4.1. На двух различных рынках города продаются три типа автомобилей (А,В,С). Ниже приведены данные о числе проданных автомобилей за год:



Найти следующие вероятности: Р (а, А ), P (a, B ), P (a, C ), P (b, A ), P (b, B ), P (b,С ), P (A ), P (a/A ), P (A/a ). Составить таблицу совместных вероятностей.

4.2. Отдыхающие на некотором курорте являются, как правило, бизнесменами (B )или людьми свободных профессий (P )(адвокатами, художниками, врачами и т.д.). Владелец курорта хочет установить, не выгоднее ли ему будет выпускать рекламу двух видов, а не одного. Для этого он поручил своему рекламному отделу подготовить рекламу двух типов – одну для бизнесменов (тип I), другую – для людей свободных профессий (тип II). Реклама была подготовлена, материалы разосланы возможным клиентам, и было получено 800 заявок. Они распределились следующим образом.

а). Найдите вероятности P (B,I ); P (B,II ); P (I/B ).

Для описания системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих пользуются и другими характеристиками, к числу которых относятся корреляционный момент икоэффициент корреляции (кратко было упомянуто в конце Т.8.п.8.6).

Корреляционным моментом (иликовариацией, или моментом связи ) двух случайных величинX иY называется м. о. произведения отклонений этих величин (см. равенство (5) п. 8.6):

Следствие 1. Длякорреляционного момента с.в. X иY также справедливы равенства:

,

где соответствующие централизованные с.в.X иY (см. п.8.6.).

При этом: если
- двумерная д.с.в., то ковариация вычисляется по формуле

(8)
;

если
- двумерная н.с.в., то ковариация вычисляется по формуле

(9)

Формулы (8) и (9) получены на основании формул (6) п.12.1. Имеет место вычислительная формула

(10)

которая выводится из определения (9) и на основании свойств м.о., действительно,

Следовательно, формул (36) и (37) можно переписать в виде

(11)
;

Корреляционный момент служит для характеристики связи между величинами X иY .

Как будет показано ниже, корреляционный момент равен нулю, если X иY являются независимыми;

Следовательно, если корреляционный момент не равен нулю, то X и Y – зависимые случайные величины.

Теорема12.1. Корреляционный момент двух независимых случайных величин X и Y равен нулю, т.е. для независимых с.в. X и Y ,

Доказательство. Так какX иY независимые случайные величины, то их отклонения

и

т акже независимы. Пользуясь свойствами математического ожидания (математическое ожидание произведения независимых с. в. равно произведению математических ожиданий сомножителей
,
, поэтому

Замечание. Из этой теоремы следует, что если
то с.в. X иY зависимы и в таких случаях с.в. X иY называюткоррелированными . Однако из того, что
не следует независимость с.в.X иY .

В этом случае (
с.в.X иY называютнекоррелированными, тем самым из независимости вытекаетнекоррелированность ; обратное утверждение, вообще говоря, неверно (см. далее пример 2.)

Рассмотрим основные свойства корреляционного момента.

C войства ковариации:

1. Ковариация симметрична, т.е.
.

Непосредственно следует из формулы (38).

2. Имеют место равенства:т.е. дисперсия с.в. является ковариацией её с самой собой.

Эти равенства прямо следуют из определения дисперсии и равенство (38) соответственно при

3. Справедливы равенства:

Эти равенства выводятся из определения дисперсии, ковариации с.в.
и, свойств 2.

По определению дисперсии (с учётом централизованности с.в.
) мы имеем

теперь, на основании (33) и свойств 2 и 3, получим первое (со знаком плюс) свойство 3.

Аналогично, вторая часть свойства3, выводится из равенство

4. Пусть
постоянные числа,
тогда справедливы равенства:

Обычно эти свойства называются свойствами однородностью первого порядка и периодичностью по аргументам.

Докажем первое равенство, при этом будем использовать свойства м.о.
.

Теорема 12.2. Абсолютное значение корреляционного момента двух произвольных случайных величин X и Y не превышает среднего геометрического их дисперсий: т.е.

Доказательство. Заметим, чтодля независимых с.в. неравенство выполняется (с.м. теорему 12.1.). Итак, пусть с.в.X и Y зависимые. Рассмотрим стандартные с.в.
и
и вычислим дисперсию с.в.
с учётом свойства 3, имеем: с одной стороны
С другой стороны

Следовательно, с учётом того, что
и- нормированные (стандартизированные) с.в., то для них м.о. равна нулю, а дисперсия равна 1, поэтому, пользуясь свойством м.о.
получим

а следовательно, на основании того, что
получим

Отсюда следует, что т.е.

=

Утверждение доказано.

Из определения и свойства ковариации следует, что она характеризует и степень зависимости с.в., и их рассеяния вокруг точки
Размерность ковариации равна произведению размерностей случайных величинX иY . Другими словами, величина корреляционного момента зависит от единиц измерения случайных величин. По этой причине для одних и тех же двух величинX иY , величина корреляционного момента будет иметь различные значения в зависимости от того, в каких единицах были измерены величины.

Пусть, например, X и Y были измерены в сантиметрах и
; если измерить X иY в миллиметрах, то
Эта особенность корреляционного момента и есть недостатком этой числовой характеристики, так как сравнение корреляционных моментов различных систем случайных величин становится затруднительным.

Для того чтобы устранить этот недостаток, вводят новую числовую характеристику- - «коэффициент корреляции ».

Коэффициентом корреляции
случайных величин
иназывают отношение корреляционного момента к произведению средних квадратических отклонений этих величин:

(13)
.

Так как размерность
равна произведению размерностей величин
и,
имеет размерность величины
σ y имеет размерность величины, то
есть просто число (т.е. «безразмерная величина» ). Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения с.в., в этом состоитпреимущество коэффициента корреляции перед корреляционным моментом.

В Т.8. п.8.3 нами было введено понятие нормированной с.в.
, формула (18), и доказана теорема о том, что
и
(см. там же теорема 8.2.). Здесь докажем следующее утверждение.

Теорема 12.3. Длялюбых двух случайных величин
и справедливо равенство
.Другими словами, коэффициент корреляции
любых двух с
.в .X и Y равно корреляционному моменту их соответствующих нормированных с.в.
и .

Доказательство. По определениюнормированных случайных величин
и

и
.

Учитывая свойство математического ожидания: и равенство (40) получим

Утверждение доказано.

Рассмотрим некоторые часто встречающие свойства коэффициента корреляции.

Свойства коэффициента корреляции:

1. Коэффициент корреляции по абсолютной величине непревосходит 1, т.е.

Это свойство прямо следует из формулы (41) - определения коффициента корреляции и теоремы 13.5. (см. равенство (40)).

2. Если случайные величины
инезависимы, токоэффициент корреляции равен нулю, т.е.
.

Это свойство является прямым следствием равенства (40) и теоремы 13.4.

Следующее свойство сформулируем в виде отдельной теоремы.

Теорема 12.4.

Если с.в.
имежду собой связаны линейной функциональной зависимостью, т.е.
то

при этом

и наоборот, если
,
то с.в.
и между собой связаны линейной функциональной зависимостью, т.е. существуют постоянные
и
такие, что имеет место равенство

Доказательство. Пусть
тогда на основании свойства 4 ковариации, имеем

и поскольку, , поэтому

Следовательно,
. Равенство в одну сторону получено. Пусть далее,
, тогда

следует рассматривать два случая:1)
и 2)
Итак, рассмотрим первый случай. Тогда по определению
и следовательно из равенства
, где
. В нашем случае
, поэтому из равенства (см. доказательство теоремы 13.5.)

=
,

получаем, что
, значит
постоянна. Так как
и поскольку, то
действительно,

.

Следовательно,


.

Аналогично, показывается, что для
имеет место (проверьте самостоятельно!)

,
.

Некоторые выводы:

1. Если
инезависимыес.в., то

2. Если с.в.
имежду собой связаны линейно, то
.

3. В остальных случаях
:

В этом случае говорят, что с.в.
исвязаны между собойположительной корреляцией, если
в случаях же
отрицательной корреляцией . Чем ближе
к единице, тем больше оснований считать, чтос.в.
исвязаны линейной зависимостью.

Отметим, что корреляционные моменты и дисперсии системы с.в. обычно задаются корреляционной матрицей :

.

Очевидно, что определитель корреляционной матрицы удовлетворяет:

Как уже было отмечено, если две случайные величины зависимы, то они могут быть как коррелированными , так инекоррелированными. Другими словами, корреляционный момент двух зависимых величин может бытьне равен нулю , но может иравняться нулю.

Пример 1. Закон распределения дискретной с.в.задан таблицей


Найти коэффициент корреляции

Решение. Находим законы распределения составляющих
и:


Теперь вычислим м.о. составляющих:

Этих величин можно было находить на основании таблицы распределения с.в.

Аналогично,
находите самостоятельно.

Вычислим дисперсии составляющих при это будем пользоваться вычислительной формулой:

Составим закон распределения
, а затем найдём
:

При составлении таблицы закона распределения следует выполнять действия:

1) оставить лишь различные значения всевозможных произведений
.

2) для определения вероятности данного значения
, нужно

складывать все соответствующие вероятности, находящиеся на пересечении основной таблицы, благоприятствующие наступлению данного значения.

В нашем примере с.в.принимает всего три различных значения
. Здесь первое значение (
) соответствует произведению
из второй строки и
из первого столбца, поэтому на их пересечении находится вероятностное число
аналогично

которое получено из суммы вероятностей, находящихся на пересечениях соответственно первой строки и первого столбца (0,15 ; 0,40; 0,05) и одно значение
, которое находится на пересечении второй строки и второго столбца, и наконец,
, которое находится на пересечении второй строки и третьего столбца.

Из нашей таблицы находим:

Находим корреляционный момент, используя формулу (38):

Находим коэффициент корреляции по формуле (41)

Таким образом, отрицательная корреляция.

Упражнение. Закон распределения дискретной с.в. задан таблицей


Найти коэффициент корреляции

Рассмотрим пример, где окажется две зависимые случайные величины могут бытьнекоррелированными.

Пример 2. Двумерная случайная величина
)
задана функцией плотностью

Докажем, что
и зависимые , нонекоррелированные случайные величины.

Решение. Воспользуемся ранее вычисленными плотностями распределения составляющих
и :

Так как ,то
изависимые величины. Для того, чтобы доказать некоррелированность
и, достаточно убедиться в том, что

Найдем корреляционный момент по формуле:

Поскольку дифференциальная функция
симметрична относительно оси OY , то
аналогично
, в силу симметрии
относительно оси OX . Поэтому, вынося постоянный множитель

Внутренний интеграл равен нулю (подынтегральная функция нечетна, пределы интегрирования симметричны относительно начала координат), следовательно,
, т.е. зависимые случайные величины
и между собой некоррелируют.

Итак, из коррелированности двух случайных величин следует их зависимость, но из некоррелированности ещё нельзя заключить о независимости этих величин.

Однако, для нормально распределённых с.в. такой вывод является исключением, т.е. из некоррелированности нормально распределенных с.в. вытекает их независимость .

Этому вопросу посвящается следующий пункт.

Для описания системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих пользуются и другими характеристиками, к числу которых относятся корреляционный момент икоэффициент корреляции (кратко было упомянуто в конце Т.8.п.8.6).

Корреляционным моментом (иликовариацией, или моментом связи ) двух случайных величинX иY называется м. о. произведения отклонений этих величин (см. равенство (5) п. 8.6):

Следствие 1. Длякорреляционного момента с.в. X иY также справедливы равенства:

,

где соответствующие централизованные с.в.X иY (см. п.8.6.).

При этом: если
- двумерная д.с.в., то ковариация вычисляется по формуле

(8)
;

если
- двумерная н.с.в., то ковариация вычисляется по формуле

(9)

Формулы (8) и (9) получены на основании формул (6) п.12.1. Имеет место вычислительная формула

(10)

которая выводится из определения (9) и на основании свойств м.о., действительно,

Следовательно, формул (36) и (37) можно переписать в виде

(11)
;

Корреляционный момент служит для характеристики связи между величинами X иY .

Как будет показано ниже, корреляционный момент равен нулю, если X иY являются независимыми;

Следовательно, если корреляционный момент не равен нулю, то X и Y – зависимые случайные величины.

Теорема12.1. Корреляционный момент двух независимых случайных величин X и Y равен нулю, т.е. для независимых с.в. X и Y ,

Доказательство. Так какX иY независимые случайные величины, то их отклонения

и

т акже независимы. Пользуясь свойствами математического ожидания (математическое ожидание произведения независимых с. в. равно произведению математических ожиданий сомножителей
,
, поэтому

Замечание. Из этой теоремы следует, что если
то с.в. X иY зависимы и в таких случаях с.в. X иY называюткоррелированными . Однако из того, что
не следует независимость с.в.X иY .

В этом случае (
с.в.X иY называютнекоррелированными, тем самым из

независимости вытекает некоррелированность ; обратное утверждение, вообще говоря, неверно (см. далее пример 2.)

Рассмотрим основные свойства корреляционного момента.

C войства ковариации:

1. Ковариация симметрична, т.е.
.

Непосредственно следует из формулы (38).

2. Имеют место равенства:т.е. дисперсия с.в. является ковариацией её с самой собой.

Эти равенства прямо следуют из определения дисперсии и равенство (38) соотвеиственно при

3. Справедливы равенства:

Эти равенства выводятся из определения дисперсии, ковариации с.в.
и, свойств 2.

По определению дисперсии (с учётом централизованности с.в.
) мы имеем

теперь, на основании (33) и свойств 2 и 3, получим первое (со знаком плюс) свойство 3.

Аналогично, вторая часть свойства3, выводится из равенство

4. Пусть
постоянные числа,
тогда справедливы равенства:

Обычно эти свойства называются свойствами однородностью первого порядка и периодичностью по аргументам.

Докажем первое равенство, при этом будем использовать свойства м.о.
.

Теорема 12.2. Абсолютное значение корреляционного момента двух произвольных случайных величин X и Y не превышает среднего геометрического их дисперсий: т.е.

Доказательство. Заметим, чтодля независимых с.в. неравенство выполняется (с.м. теорему 12.1.). Итак, пусть с.в.X и Y зависимые. Рассмотрим стандартные с.в.
и
и вычислим дисперсию с.в.
с учётом свойства 3, имеем: с одной стороны
С другой стороны

Следовательно, с учётом того, что
и- нормированные (стандартизированные) с.в., то для них м.о. равна нулю, а дисперсия равна 1, поэтому, пользуясь свойством м.о.
получим

а следовательно, на основании того, что
получим

Отсюда следует, что т.е.

=

Утверждение доказано.

Из определения и свойства ковариации следует, что она характеризует и степень зависимости с.в., и их рассеяния вокруг точки
Размерность ковариации равна произведению размерностей случайных величинX иY . Другими словами, величина корреляционного момента зависит от единиц измерения случайных величин. По этой причине для одних и тех же двух величинX иY , величина корреляционного момента будет иметь различные значения в зависимости от того, в каких единицах были измерены величины.

Пусть, например, X и Y были измерены в сантиметрах и
; если измерить X иY в миллиметрах, то
Эта особенность корреляционного момента и есть недостатком этой числовой характеристики, так как сравнение корреляционных моментов различных систем случайных величин становится затруднительным.

Для того чтобы устранить этот недостаток, вводят новую числовую характеристику- - «коэффициент корреляции ».

Коэффициентом корреляции
случайных величин
иназывают отношение корреляционного момента к произведению средних квадратических отклонений этих величин:

(13)
.

Так как размерность
равна произведению размерностей величин
и,
имеет размерность величины
σ y имеет размерность величины, то
есть просто число (т.е. «безразмерная величина» ). Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения с.в., в этом состоитпреимущество коэффициента корреляции перед корреляционным моментом.

В Т.8. п.8.3 нами было введено понятие нормированной с.в.
, формула (18), и доказана теорема о том, что
и
(см. там же теорема 8.2.). Здесь докажем следующее утверждение.

Теорема 12.3. Длялюбых двух случайных величин
и справедливо равенство
.Другими словами, коэффициент корреляции
любых двух с
.в .X и Y равно корреляционному моменту их соответствующих нормированных с.в.
и .

Доказательство. По определениюнормированных случайных величин
и

и
.

Учитывая свойство математического ожидания: и равенство (40) получим

Утверждение доказано.

Рассмотрим некоторые часто встречающие свойства коэффициента корреляции.

Свойства коэффициента корреляции:

1. Коэффициент корреляции по абсолютной величине непревосходит 1, т.е.

Это свойство прямо следует из формулы (41) - определения коффициента корреляции и теоремы 13.5. (см. равенство (40)).

2. Если случайные величины
инезависимы, токоэффициент корреляции равен нулю, т.е.
.

Это свойство является прямым следствием равенства (40) и теоремы 13.4.

Следующее свойство сформулируем в виде отдельной теоремы.

Теорема 12.4.

Если с.в.
имежду собой связаны линейной функциональной зависимостью, т.е.
то

при этом

и наоборот, если
,
то с.в.
и между собой связаны линейной функциональной зависимостью, т.е. существуют постоянные
и
такие, что имеет место равенство

Доказательство. Пусть
тогда на основании свойства 4 ковариации, имеем

и поскольку, , поэтому

Следовательно,
. Равенство в одну сторону получено. Пусть далее,
, тогда

следует рассматривать два случая:1)
и 2)
Итак, рассмотрим первый случай. Тогда по определению
и следовательно из равенства
, где
. В нашем случае
, поэтому из равенства (см. доказательство теоремы 13.5.)

=
,

получаем, что
, значит
постоянна. Так как
и поскольку, то
действительно,

.

Следовательно,


.

Аналогично, показывается, что для
имеет место (проверьте самостоятельно!)

,
.

Некоторые выводы:

1. Если
инезависимыес.в., то

2. Если с.в.
имежду собой связаны линейно, то
.

3. В остальных случаях
:

В этом случае говорят, что с.в.
исвязаны между собойположительной корреляцией, если
в случаях же
отрицательной корреляцией . Чем ближе
к единице, тем больше оснований считать, чтос.в.
исвязаны линейной зависимостью.

Отметим, что корреляционные моменты и дисперсии системы с.в. обычно задаются корреляционной матрицей :

.

Очевидно, что определитель корреляционной матрицы удовлетворяет:

Как уже было отмечено, если две случайные величины зависимы, то они могут быть как коррелированными , так инекоррелированными. Другими словами, корреляционный момент двух зависимых величин может бытьне равен нулю , но может иравняться нулю.

Пример 1. Закон распределения дискретной с.в.задан таблицей


Найти коэффициент корреляции

Решение. Находим законы распределения составляющих
и:


Теперь вычислим м.о. составляющих:

Этих величин можно было находить на основании таблицы распределения с.в.

Аналогично,
находите самостоятельно.

Вычислим дисперсии составляющих при это будем пользоваться вычислительной формулой:

Составим закон распределения
, а затем найдём
:

При составлении таблицы закона распределения следует выполнять действия:

1) оставить лишь различные значения всевозможных произведений
.

2) для определения вероятности данного значения
, нужно

складывать все соответствующие вероятности, находящиеся на пересечении основной таблицы, благоприятствующие наступлению данного значения.

В нашем примере с.в.принимает всего три различных значения
. Здесь первое значение (
) соответствует произведению
из второй строки и
из первого столбца, поэтому на их пересечении находится вероятностное число
аналогично

которое получено из суммы вероятностей, находящихся на пересечениях соответственно первой строки и первого столбца (0,15 ; 0,40; 0,05) и одно значение
, которое находится на пересечении второй строки и второго столбца, и наконец,
, которое находится на пересечении второй строки и третьего столбца.

Из нашей таблицы находим:

Находим корреляционный момент, используя формулу (38):

Находим коэффициент корреляции по формуле (41)

Таким образом, отрицательная корреляция.

Упражнение. Закон распределения дискретной с.в. задан таблицей


Найти коэффициент корреляции

Рассмотрим пример, где окажется две зависимые случайные величины могут бытьнекоррелированными.

Пример 2. Двумерная случайная величина
)
задана функцией плотностью

Докажем, что
и зависимые , нонекоррелированные случайные величины.

Решение. Воспользуемся ранее вычисленными плотностями распределения составляющих
и :

Так как ,то
изависимые величины. Для того, чтобы доказать некоррелированность
и, достаточно убедиться в том, что

Найдем корреляционный момент по формуле:

Поскольку дифференциальная функция
симметрична относительно оси OY , то
аналогично
, в силу симметрии
относительно оси OX . Поэтому,

вынося постоянный множитель

Внутренний интеграл равен нулю (подынтегральная функция нечетна, пределы интегрирования симметричны относительно начала координат), следовательно,
, т.е. зависимые случайные величины
и между собой некоррелируют.

Итак, из коррелированности двух случайных величин следует их зависимость, но из некоррелированности ещё нельзя заключить о независимости этих величин.

Однако, для нормально распределённых с.в. такой вывод является исключением, т.е. из некоррелированности нормально распределенных с.в. вытекает их независимость .

Этому вопросу посвящается следующий пункт.

  • Коэффициент корреляции Спирмена: пример решения задачи

Случайная величина описывается двумя числовыми характеристиками: математическим ожиданием и дисперсией. Чтобы описать систему из двух случайных величин кроме «основных» характеристик используют так же корреляционный момент и коэффициент корреляции.
Корреляционным моментом µ xy случайных величин X и У называют математическое ожидание произведения отклонений этих величин:

µ xy = M { [ X - M(X) ] [ Y - M(Y) ] }

Для нахождения корреляционного момента дискретных величин используют формулу:

а для непрерывных величин - формулу:

Корреляционный момент характеризует наличие (отсутствие) связи между величинами X и У. Ниже будет доказано, что корреляционный момент равен нулю, если X и У независимы; Если же корреляционный момент для случайных величин X и Y не равен нулю, то между ними имеется завимость.

Замечание 1. Приняв во внимание, что отклонения есть центрированные случайные величины, можно дать корреляционному моменту определение, как математическому ожиданию произведения двух центрированных случайных величин:

µ xy = М .

Замечание 2. Не сложно доказать, что корреляционный момент можно записать в виде

µ xy = М (ХY) – М(X) М(У).

Теорема 1. Корреляционный момент двух независимых случайных величин X и Y равен нулю.

Доказательство. Так как X и У- независимые случайные величины, то их отклонения X-М (X) и У-М (У) также независимы. Пользуясь свойствами математического ожидания (математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей) и отклонения (математическое ожидание отклонения равно нулю), получим

µ xy = М { M} = М M = 0.

Из определения корреляционного момента следует, что он имеет размерность, равную произведению размерностей величин X и У. Другими словами, величина корреляционного момента зависит от единиц измерения случайных величин. По этой причине для одних и тех же двух величин величина корреляционного момента имеет различные значения в зависимости от того, в каких еди- ницах были измерены величины. Пусть, например, X и У были измерены в сантиметрах и µxy = 2 см2; если измерить X и У в миллиметрах,
то µxy = 200 мм. Такая особенность корреляционного мо-мента является недостатком этой числовой характеристики, поскольку сравнение корреляционных моментов различных систем случайных величин становится затруднительным. Для того чтобы устранить этот недостаток, вводят новую числовую характеристику-коэффициент корреляции .
Коэффициентом корреляции г ху случайных величин X и У называют отношение корреляционного момента к произведению средних квадратических отклонений этих
величин:

r xy = µ xy /σ x σ y

Так как размерность µxy равна произведению размерностей величин X и У, σ x имеет размерность величины X, σ y имеет размерность величины Y, то r xy -безразмерная величина. Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения случайных величин. В этом состоит преимущество коэффициента корреляции перед корреляционным моментом.
Очевидно, коэффициент корреляции независимых случайных величин равен нулю (так как µ xy = 0).

Замечание 3 . Во многих вопросах теории вероятностей целесообразно вместо случайной величины X рассматривать нормированную случайную величину X", которую определяют как отношение отклонения к среднему квадратическому отклонению:

Х" = (Х - М(Х))/σ x .

Нормированная величина имеет математическое ожидание, равное нулю, и дисперсию, равную единице. Действительно, используя свойства математического ожидания и дисперсии, имеем:

Легко убедиться, что коэффициент корреляции r ху равен корреляционному моменту нормированных величин Х" и Y" :

Теорема 2. Абсолютная величина корреляционного момента двух случайных величин X и Y не превышает среднего геометрического их дисперсий:

Доказательство. Введем в рассмотрение случайную величину Z 1 = σ y X - σ x Y и найдем ее дисперсию D(Z l) = M 2 . Выполнив выкладки, получим

D(Z 1) = 2σ x 2 σ y 2 – 2σ x σ y µ xy

Любая дисперсия неотрицательна, поэтому

2σ x 2 σ y 2 – 2σ x σ y µ xy ≥0.

µ xy ≤ σ x σ y .

Введя случайную величину Z t = σ y X+ σ x Y, аналогично найдем

µ xy ≥ − σ x σ y .

Объединим два этих неравенства:

σ x σ y ≤ µ xy ≤ σ x σ y или | µ xy | ≤ σ x σ y

Теорема 3. Абсолютная величина коэффициента корреляции не превышает единицы:

Доказательство: Разделим обе части полученного двойного неравенства на произведение положительных чисел σxσy:

1 ≤ r xy ≤ 1

Корреляционные моменты, коэффициент корреляции - это числовые характеристики, тесно связанные во введенным выше понятием случайной величины, а точнее с системой случайных величин. Поэтому для введения и определения их значения и роли необходимо пояснить понятие системы случайных величин и некоторые свойства присущие им.

Два или более случайные величины, описывающих некоторое явление называют системой или комплексом случайных величин.

Систему нескольких случайных величин X, Y, Z, …, W принято обозначать через (X, Y, Z, …, W).

Например, точка на плоскости описывается не одной координатой, а двумя, а в пространстве - даже тремя.

Свойства системы нескольких случайных величин не исчерпываются свойствами отдельных случайных величин, входящих в систему, а включают также взаимные связи (зависимости) между случайными величинами. Поэтому при изучении системы случайных величин следует обращать внимание на характер и степень зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. А в других случаях случайные величины оказаться практически независимыми.

Случайная величина Y называется независимой от случайной величины Х, если закон распределения случайной величины Y не зависит от того какое значение приняла величина Х.

Следует отметить, что зависимость и независимость случайных величин есть всегда явление взаимное: если Y не зависит от Х, то и величина Х не зависит от Y. Учитывая это, можно привести следующее определение независимости случайных величин.

Случайные величины Х и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины Х и Y называются зависимыми.

Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями.

Понятие "зависимости" случайных величин, которым пользуются в теории вероятностей, несколько отличается от обычного понятия "зависимости" величин, которым пользуются в математике. Так, математик под "зависимостью" подразумевает только один тип зависимости - полную, жесткую, так называемую функциональную зависимость. Две величины Х и Y называются функционально зависимыми, если, зная значение одного из них, можно точно определить значение другой.

В теории вероятностей встречаются несколько с иным типом зависимости - вероятностной зависимостью. Если величина Y связана с величиной Х вероятностной зависимостью, то, зная значение Х, нельзя точно указать значение Y, а можно указать её закон распределения, зависящий от того, какое значение приняла величина Х.

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Т.о., функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой.

Вероятностная зависимость между случайными величинами часто встречается на практике. Если случайные величины Х и Y находятся в вероятностной зависимости, то это не означает, что с изменением величины Х величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины Х величина Y

имеет тенденцию также изменяться (возрастать или убывать при возрастании Х). Эта тенденция соблюдается лишь в общих чертах, а в каждом отдельном случае возможны отступления от неё.

Примеры вероятностной зависимости.

Выберем наугад одного больного с перитонитом. случайная величина Т - время от начала заболевания, случайная величина О - уровень гомеостатических нарушений. Между этими величинами имеется явная зависимость, так как величина Т является одной из наиболее главных причин, определяющих величину О.

В то же время между случайной величиной Т и случайной величиной М, отражающей летальность при данной патологии, имеется более слабая вероятностная зависимость, так как случайная величина хоть и влияет на случайную величину О, однако не является главной определяющей.

Тем более, если рассматривать величину Т и величину В (возраст хирурга), то данные величины практически независимы.

До сих пор мы обсуждали свойства систем случайных величин, давая только словесное разъяснение. Однако существуют числовые характеристики, посредством которых исследуются свойства как отдельных случайных величин, так и системы случайных величин.

Одной из важнейших характеристик случайной величины нормального распределения является математическое ожидание.

Рассмотрим дискретную случайную величину Х, имеющую возможные значения Х 1 , Х2 , ... , Хn с вероятностями р1 , р2 , ... , рn . нам требуется охарактеризовать каким-то числом положение значений случайной величины на оси абсцисс с учетом того, что эти значения имеют различные значения. Для этой цели обычно пользуются так называемым "средним взвешенным" из значений Хi , причем каждое значение Хi при осреднении должно учитываться с "весом", пропорциональным вероятности этого значения. Таким образом, если обозначить "среднее взвешенное" через М[X] или mx , получим

или, учитывая, что,

Математическим ожиданием случайной величины называется сумма произведений всех возможных значений случайной величины на вероятности этих значений.

Для большей наглядности рассмотрим одну механическую интерпретацию введенного понятия. Пусть на оси абсцисс расположены точки с абсциссами х 1 , х2 , …, хn , в которых сосредоточены соответственно массы р1 , р2 , … , рn , причем. Тогда математическое ожидание есть не что иное, как абсцисса центра тяжести данной системы материальных точек.

Формула (1) для математического ожидания соответствует случаю дискретной случайной величины. Для непрерывной величины Х математическое ожидание, естественно, выражается не суммой, а интегралом:

где - плотность распределения величины Х.

Формула (2) получается из формулы (1), если в ней заменить отдельные значения Хi непрерывно изменяющимся параметром Х, соответствующие вероятности рi элементом вероятности f(x)dx, конечную сумму - интегралом.

В механической интерпретации математическое ожидание непрерывной случайной величины сохраняет тот же смысл - абсциссы центра тяжести в случае, когда масса распределения по оси абсцисс непрерывна с плотностью f(x).

Следует отметить, что математическое ожидание существует не для всех случайных величин, что, однако, по мнению некоторых ученых, не представляет для практики существенного интереса.

Помимо математического ожидания важное значение имеют также другие числовые случайной величины - моменты.

Понятие момента широко применяется в механике для описания распределения масс (статистические моменты, моменты инерции и т.д.). Совершенно теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего применяются на практике моменты двух видов: начальные и центральные.

Начальным моментом s-го порядка прерывной случайной величины Х называется сумма вида

Очевидно это определение совпадает с определением начального момента порядка s в механике, если на оси абсцисс в точках х 1 , …, хn сосредоточена масса р1 , …, рn .

Для непрерывной случайной величины Х начальным моментом s-го порядка называется интеграл

Очевидно, что

т.е. начальный момент s-го порядка случайной величины Х есть не что иное, как математическое ожидание s-ой степени этой случайной величины.

Перед тем как дать определение центрального момента введем понятие "центрированной случайной величины".

Пусть имеется случайная величина Х с математическим ожиданием m x . Центрированной случайной величиной, соответствующей величине Х, называется отклонение случайной величины Х от её математического ожидания

Нетрудно видеть, что математическое ожидание центрированной случайной величины равно нулю.

Центрирование случайной величины равносильно переносу начала координат в точку, абсцисса которой равна математическому ожиданию.

Центральным моментом порядка s случайной величины Х называется математическое ожидание s-ой степени соответствующей центрированной случайной величины:

Для прерывной случайной величины s-й центральный момент выражается суммой

а для непрерывной - интегралом

Важнейшее значение имеет второй центральный момент, который называют дисперсией и обозначают D[X]. Для дисперсии имеем

Дисперсия случайной величины есть характеристика рассеивания, разбросанности значений случайной величины около её математического ожидания. Само слово "дисперсия" означает "рассеивание".

Механической интерпретацией дисперсии является не что иное, как момент инерции заданного распределения масс относительно центра тяжести.

На практике часто применяется также величина

называемая средним квадратичным отклонением (иначе - "стандартом") случайной величины Х.

Теперь перейдем к рассмотрению характеристик систем случайных величин.

Начальным моментом порядка k,s системы (Х, Y) называется математическое ожидание произведения X k и Y s ,

xk,s =M.

Центральным моментом порядка k,s системы (Х, Y) называется математическое ожидание произведения k-ой и s-ой степени соответствующих центрированных величин:

Для прерывных случайных величин

где р ij - вероятность того, что система (Х, Y) примем значения (xi , yj ), а сумма рассматривается по всем возможным значениям случайных величин X,Y.

Для непрерывных случайных величин

где f(x,y) - плотность распределения системы.

Помимо чисел k и s, характеризующих порядок момента по отношению к отдельным величинам, рассматривается ещё суммарный порядок момента k+s, равный сумме показателей степеней при Х и Y. Соответственно суммарному порядку моменты классифицируют на первый, второй и т.д. На практике обычно применяются только первые и вторые моменты.

Первые начальные моменты представляют собой математические ожидания величин Х и Y, входящих в систему

у1,0 =mx у0,1 =my.

Совокупность математических ожиданий m x , my представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание точки (Х, Y).

Важную роль на практике играют также вторые центральные моменты систем. Два из них представляют собой дисперсии величин Х и Y

характеризующие рассеивание случайной точки в направлении осей Ox и Oy.

Особую роль играет второй смещенный центральный момент:

называемый корреляционным моментом (иначе - "моментом связи")случайных величин Х и Y.

Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Y, еще и связь между ними. Для того, чтобы убедиться в этом отметим, что корреляционный момент независимых случайных величин равен нулю.

Заметим, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Поэтому для характеристики связи между величинами (Х;Y) в чистом виде переходят от момента K xy к характеристике

где уx , уy - средние квадратичные отклонения величин Х и Y. Эта характеристика называется коэффициентом корреляции величин Х и Y.

Из формулы (3) видно, что для независимых случайных величин коэффициент корреляции равен нулю, так как для таких величин kxy =0.

Случайные величины, для которых rxy =0, называют некоррелированными (несвязанными).

Отметим однако, что из некоррелированности случайных величин не следует их независимость.

Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Т.о., коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами.

Для определения коэффициента корреляции имеется несколько методов. Однако мы приведем пример с использованием коэффициента корреляции смешанных моментов Пирсона, где

с применением таблицы данных (в нашем примере относительного содержания Т-лимфоцитов в % и уровня IgG в г/л):

Подставив полученные значения в формулу (4), получим

Т.е., коэффициент корреляции динамики Т-лимфоцитов и иммуноглобулина G у детей при перитонитах равен 0,9933, что говорит о высокой связи между данными показателями.



Понравилась статья? Поделитесь с друзьями!