El momento de correlación y el coeficiente de correlación son ejemplos. Momento de correlación, variables aleatorias continuas, dependencia lineal.

Para describir un sistema de dos variables aleatorias, además de las expectativas matemáticas y las varianzas de los componentes, se utilizan otras características, que incluyen momento de correlación Y coeficiente de correlación(mencionado brevemente al final de T.8.p.8.6) .

Momento de correlación(o covarianza, o momento de conexión) dos variables aleatorias X Y Y llamado m.o. producto de las desviaciones de estas cantidades (ver igualdad (5) cláusula 8.6):

Corolario 1. Para el momento de correlación r.v. X Y Y También son válidas las siguientes igualdades:

,

donde se encuentra el correspondiente r.v. centralizado. X Y Y (ver cláusula 8.6.).

En este caso: si
es un d.s.v. bidimensional, entonces la covarianza se calcula mediante la fórmula

(8)
;

Si
es un n.s.v. bidimensional, entonces la covarianza se calcula mediante la fórmula

(9)

Las fórmulas (8) y (9) se obtuvieron con base en las fórmulas (6) de la cláusula 12.1. Hay una fórmula computacional.

(10)

que se deriva de la definición (9) y se basa en las propiedades del MO, de hecho,

En consecuencia, las fórmulas (36) y (37) se pueden reescribir en la forma

(11)
;

El momento de correlación sirve para caracterizar la relación entre cantidades. X Y Y.

Como se mostrará a continuación, el momento de correlación igual a cero, Si X Y Y son independiente;

Por lo tanto, si el momento de correlación no es igual a cero, entoncesXYYson variables aleatorias dependientes.

Teorema 12.1.Momento de correlación de dos variables aleatorias independientes.XYYes igual a cero, es decir para r.v. independiente.XYY,

Prueba. Porque X Y Y variables aleatorias independientes, entonces sus desviaciones

Y

t también independiente. Aprovechando las propiedades expectativa matemática(la expectativa matemática del producto de r.v.s independientes es igual al producto de las expectativas matemáticas de los factores
,
, Es por eso

Comentario. De este teorema se deduce que si
entonces s.v. X Y Y dependiente y en tales casos r.v. X Y Y llamado correlacionado. Sin embargo, del hecho de que
no sigue la independencia r.v. X Y Y.

En este caso (
s.v. X Y Y llamado no correlacionado, por lo tanto de

sigue la independencia no correlacionado; la afirmación inversa es, en términos generales, falsa (consulte el ejemplo 2 a continuación).

Veamos las propiedades básicas. momento de correlación.

Cpropiedades de covarianza:

1. La covarianza es simétrica, es decir
.

Esto se deriva directamente de la fórmula (38).

2. Hay igualdades: es decir dispersión r.v. es su covarianza consigo mismo.

Estas igualdades se derivan directamente de la definición de dispersión e igualdad (38) respectivamente para

3. Son válidas las siguientes igualdades:

Estas igualdades se derivan de la definición de varianza y covarianza de r.v.
Y , propiedades 2.

Por definición de dispersión (teniendo en cuenta la centralidad de r.v.
) tenemos

Ahora, con base en (33) y las propiedades 2 y 3, obtenemos la primera propiedad 3 (con signo más).

De manera similar, la segunda parte de la propiedad 3 se deriva de la igualdad

4. Dejar
números constantes,
entonces las igualdades son válidas:

Por lo general, estas propiedades se denominan propiedades de homogeneidad y periodicidad de primer orden en los argumentos.

Demostremos la primera igualdad y usaremos las propiedades de m.o.
.

Teorema 12.2.Valor absolutomomento de correlación de dos variables aleatorias arbitrariasXYYno excede la media geométrica de sus varianzas: es decir

Prueba. Tenga en cuenta que para r.v. independientes. la desigualdad se cumple (ver Teorema 12.1.). Entonces, dejemos que r.v. X Y Y dependiente. Consideremos el r.v. estándar.
Y
y calcular la dispersión de r.v.
teniendo en cuenta la propiedad 3, tenemos: por un lado
Por otro lado

Por tanto, teniendo en cuenta el hecho de que
Y - r.v. normalizado (estandarizado), luego para ellos m.o. es igual a cero y la varianza es igual a 1, por lo tanto, usando la propiedad de m.o.
obtenemos

y por lo tanto, basándose en el hecho de que
obtenemos

De ello se deduce que es decir

=

La afirmación ha sido probada.

De la definición y propiedades de la covarianza se deduce que caracteriza tanto el grado de dependencia de r.v como su dispersión alrededor de un punto.
La dimensión de la covarianza es igual al producto de las dimensiones de las variables aleatorias. X Y Y. En otras palabras, la magnitud del momento de correlación depende de las unidades de medida de las variables aleatorias. Por esta razón, para las mismas dos cantidades X Y Y, la magnitud del momento de correlación tendrá diferentes significados dependiendo de las unidades en las que se midieron los valores.

Dejemos, por ejemplo, X Y Y se midieron en centímetros y
; si se mide X Y Y en milímetros, entonces
Esta característica del momento de correlación es la desventaja de esta característica numérica, ya que la comparación de los momentos de correlación de diferentes sistemas de variables aleatorias se vuelve difícil.

Para eliminar este inconveniente, se introduce una nueva característica numérica: " coeficiente de correlación».

Coeficiente de correlación
variables aleatorias
Y se llama relación entre el momento de correlación y el producto de promedios desviaciones cuadradas estas cantidades:

(13)
.

Desde la dimensión
igual al producto de las dimensiones de cantidades
Y ,
tiene la dimensión de magnitud
σ y tiene la dimensión de magnitud , Eso
es solo un número (es decir, " cantidad adimensional"). Por tanto, el valor del coeficiente de correlación no depende de la elección de las unidades de medida de r.v., esto es ventaja coeficiente de correlación antes del momento de correlación.

En T.8. cláusula 8.3 introdujimos el concepto normalizado s.v.
, fórmula (18), y se ha demostrado el teorema de que
Y
(Ver también Teorema 8.2.). Aquí demostramos la siguiente afirmación.

Teorema 12.3. Para cualesquiera dos variables aleatorias
Y la igualdad es verdadera
.En otras palabras, el coeficiente de correlación
dos cualesquiera con
.V.XYYigual al momento de correlación de sus correspondientes normalizados s.v.
Y .

Prueba. Por definición de variables aleatorias normalizadas
Y

Y
.

Teniendo en cuenta la propiedad de la expectativa matemática: y la igualdad (40) obtenemos

La afirmación ha sido probada.

Veamos algunas propiedades comunes del coeficiente de correlación.

Propiedades del coeficiente de correlación:

1. El coeficiente de correlación en valor absoluto no supera 1, es decir

Esta propiedad se deriva directamente de la fórmula (41): la definición del coeficiente de correlación y el teorema 13.5. (ver igualdad (40)).

2. Si las variables aleatorias
Y son independientes, el coeficiente de correlación actual es cero, es decir
.

Esta propiedad es una consecuencia directa de la igualdad (40) y el teorema 13.4.

Formulemos la siguiente propiedad como un teorema separado.

Teorema 12.4.

Si r.v.
Y están interconectados por una dependencia funcional lineal, es decir
Eso

donde

Y por el contrario, si
,
Eso s.v.
Y están interconectados por una dependencia funcional lineal, es decir hay constantes
Y
tal que se cumple la igualdad

Prueba. Dejar
Entonces Con base en la propiedad 4 de la covarianza, tenemos

y ya que, por lo tanto

Por eso,
. Se obtiene la igualdad en una dirección. dejar más
, Entonces

Se deben considerar dos casos: 1)
y 2)
Entonces, consideremos el primer caso. Entonces por definición
y por tanto de la igualdad
, Dónde
.
En nuestro caso

=
,

, por lo tanto de la igualdad (ver la demostración del Teorema 13.5.)
entendemos eso
, Medio
es constante. Porque
y desde entonces

.

en realidad,


.

Por eso,
De manera similar, se demuestra que para

,
.

se lleva a cabo (¡compruébalo tú mismo!)

Algunas conclusiones:
Y 1. Si

independientes.v., entonces
Y 2. Si r.v.
.

están linealmente relacionados entre sí, entonces
:

3. En otros casos
Y En este caso dicen que r.v. interconectado correlacion positiva,
Si
en casos correlación negativa
. Cuanto más cerca a uno, el más razones
Y considere eso.v. conectado.

dependencia lineal Nótese que los momentos de correlación y las dispersiones del sistema de r.v. generalmente dado:

.

matriz de correlación

Como ya se señaló, si dos variables aleatorias son dependientes, entonces pueden ser como correlacionado, entonces no correlacionado. En otras palabras, el momento de correlación de dos cantidades dependientes puede ser no igual a cero, pero tal vez igual a cero.

Ejemplo 1. La ley de distribución de un r.v discreto viene dada por la tabla.


Encuentra el coeficiente de correlación

Solución. Encontrar las leyes de distribución de componentes.
Y :


Ahora calculemos el m.o. componentes:

Estos valores se pueden encontrar a partir de la tabla de distribución de r.v.

Asimismo,
encuéntrelo usted mismo.

Calculemos las varianzas de los componentes y usemos la fórmula computacional:

Creemos una ley de distribución.
, y luego encontramos
:

Al compilar una tabla de la ley de distribución, se deben realizar los siguientes pasos:

1) dejar solo significados diferentes de todos los productos posibles
.

2) para determinar la probabilidad de un valor dado
, Necesitar

sumar todas las probabilidades correspondientes ubicadas en la intersección de la tabla principal que favorecen la ocurrencia de un valor dado.

En nuestro ejemplo, r.v. toma solo tres valores diferentes
. Aquí el primer valor (
) corresponde al producto
desde la segunda línea y
de la primera columna, por lo que en su intersección hay un número de probabilidad
similarmente

que se obtiene de la suma de las probabilidades ubicadas en las intersecciones de la primera fila y la primera columna, respectivamente (0,15; 0,40; 0,05) y un valor
, que está en la intersección de la segunda fila y la segunda columna, y finalmente,
, que está en la intersección de la segunda fila y la tercera columna.

De nuestra tabla encontramos:

Encontramos el momento de correlación usando la fórmula (38):

Encuentre el coeficiente de correlación usando la fórmula (41)

Por tanto, una correlación negativa.

Ejercicio. Ley de distribución de r.v. discreta. dado por tabla


Encuentra el coeficiente de correlación

Veamos un ejemplo donde hay dos variables aleatorias dependientes puede ser no correlacionado.

Ejemplo 2. Bidimensional valor aleatorio
)
dado por la función de densidad

Probemos que
Y dependiente , Pero no correlacionado variables aleatorias.

Solución. Utilicemos las densidades de distribución de los componentes previamente calculadas.
Y :

Desde entonces
Y cantidades dependientes. Probar no correlacionado
Y , basta con asegurarse de que

Encontremos el momento de correlación usando la fórmula:

Dado que la función diferencial
simétrico respecto al eje oy, Eso
similarmente
, debido a la simetría
relativo al eje BUEY. Es por eso,

sacando un factor constante

La integral interna es igual a cero (el integrando es impar, los límites de integración son simétricos con respecto al origen), por lo tanto,
, es decir. variables aleatorias dependientes
Y no están correlacionados entre sí.

Entonces, de la correlación de dos variables aleatorias se desprende su dependencia, pero de la falta de correlación aún es imposible concluir que estas variables sean independientes.

Sin embargo, para r.v. de distribución normal. tal conclusión es excepto aquellos. de no correlacionado Normalmente distribuido s.v. los fluye independencia.

El siguiente párrafo está dedicado a esta cuestión.

COMITÉ ESTATAL DE CIENCIA Y TECNOLOGÍA DE LA REPÚBLICA DE AZERBAIYÁN

CENTRO DE INVESTIGACIÓN Y FORMACIÓN DE BAKÚ

ESTUDIANTE DE POSGRADO DEL DEPARTAMENTO DE CIRUGÍA PEDIÁTRICA

UMA que lleva el nombre de N. NARIMANOV

MUKHTAROVA EMIL GASAN feo

MOMENTOS DE CORRELACIÓN. COEFICIENTE DE CORRELACIÓN

INTRODUCCIÓN

Teoría de probabilidad Hay ciencia matemática, estudiando patrones en fenómenos aleatorios.

¿Qué se entiende por fenómenos aleatorios?

En investigación científica problemas físicos y técnicos, a menudo nos encontramos con fenómenos tipo especial, que generalmente se denominan aleatorios. Fenómeno aleatorio - Se trata de un fenómeno que, cuando se reproduce repetidamente la misma experiencia, se desarrolla de forma algo diferente.

Pongamos un ejemplo de un fenómeno aleatorio.

El mismo cuerpo se pesa varias veces en una balanza analítica: los resultados de los pesajes repetidos son algo diferentes entre sí. Estas diferencias se deben a la influencia de diversos factores menores que acompañan a la operación de pesaje, como vibraciones aleatorias del equipo, errores en la lectura del instrumento, etc.

Evidentemente no existe ninguno en la naturaleza. fenómeno físico, en el que los elementos de azar no estarían presentes en un grado u otro. No importa cuán precisas y detalladas sean las condiciones experimentales, es imposible garantizar que cuando se repita el experimento, los resultados coincidan completa y exactamente.

Los accidentes acompañan inevitablemente a cualquier fenómeno natural. Sin embargo, en una serie de problemas prácticos estos elementos aleatorios puede ser despreciado considerando en su lugar fenómeno real su diagrama simplificado, es decir modelo, y suponiendo que bajo las condiciones experimentales dadas el fenómeno se desarrolla de una manera muy definida. Al mismo tiempo, entre los innumerables factores que influyen en este fenómeno, se destacan los más importantes, fundamentales y decisivos. Simplemente se ignora la influencia de otros factores menores. Al estudiar patrones en el marco de una determinada teoría, los principales factores que influyen en un fenómeno particular se incluyen en los conceptos o definiciones con los que opera la teoría en cuestión.

Como cualquier ciencia que se desarrolle teoria general Para cualquier gama de fenómenos, la teoría de la probabilidad también contiene una serie de conceptos básicos en los que se basa. Naturalmente, no todos los conceptos básicos pueden definirse estrictamente, ya que definir un concepto significa reducirlo a otros más conocidos. Este proceso debe ser finito y terminar con conceptos primarios que sólo se explican.

Uno de los primeros conceptos de la teoría de la probabilidad es el concepto de evento.

Bajo evento Se entiende cualquier hecho que pueda ocurrir o no como resultado de la experiencia.

Pongamos ejemplos de eventos.

A - el nacimiento de un niño o una niña;

B - selección de una u otra apertura en una partida de ajedrez;

C - perteneciente a uno u otro signo del zodíaco.

Considerando los eventos anteriores, vemos que cada uno de ellos tiene algún grado de posibilidad: algunos mayores, otros menores. Para comparar cuantitativamente eventos entre sí según el grado de posibilidad, obviamente es necesario asociar con cada evento Cierto número, que es mayor cuanto más posible sea el evento. Este número se llama probabilidad de un evento. Por tanto, la probabilidad del evento es característica numérica grados posibilidad objetiva eventos.

La unidad de probabilidad es la probabilidad. evento confiable, igual a 1, y el rango de cambios en las probabilidades de cualquier evento es un número de 0 a 1.

La probabilidad suele denotarse con la letra P.

Veamos el ejemplo del eterno problema del Hamlet de Shakespeare "¿ser o no ser?" ¿Cómo se puede determinar la probabilidad de un evento?

Es bastante obvio que una persona, un objeto y cualquier otro fenómeno pueden estar en uno de dos y no más estados: presencia (“ser”) y ausencia (“no ser”). Aquellos., posibles eventos dos, pero sólo uno puede suceder. Esto significa que la probabilidad de, por ejemplo, existencia es 1/2.

Además del concepto de evento y probabilidad, uno de los conceptos principales de la teoría de la probabilidad es el concepto de variable aleatoria.

Variable aleatoria es una cantidad que, como resultado de un experimento, puede tomar uno u otro valor, y no se sabe de antemano cuál.

Las variables aleatorias que toman sólo valores separados entre sí y que se pueden enumerar de antemano se denominan variables aleatorias continuas o discretas.

Por ejemplo:

1. Número de pacientes supervivientes y fallecidos.

2. El número total de niños de pacientes ingresados ​​en el hospital durante la noche.

Las variables aleatorias cuyos posibles valores llenan continuamente un determinado intervalo se denominan variables aleatorias continuas.

Por ejemplo, error de pesaje en una balanza analítica.

Tenga en cuenta que teoría moderna La probabilidad opera principalmente con variables aleatorias, más que con eventos, en los que se basó principalmente la teoría "clásica" de la probabilidad.

MOMENTOS DE CORRELACIÓN. COEFICIENTE DE CORRELACIÓN.

Momentos de correlación, coeficiente de correlación. - Estas son características numéricas que están estrechamente relacionadas con el concepto de variable aleatoria introducido anteriormente, o más precisamente con un sistema de variables aleatorias. Por tanto, para introducir y definir su significado y función, es necesario explicar el concepto de sistema de variables aleatorias y algunas propiedades inherentes a ellas.

Dos o más variables aleatorias que describen algún fenómeno se llaman sistema o complejo de variables aleatorias.

Un sistema de varias variables aleatorias X, Y, Z,…, W generalmente se denota por (X, Y, Z,…, W).

Por ejemplo, un punto en un plano no se describe por una coordenada, sino por dos, y en el espacio, incluso por tres.

Las propiedades de un sistema de varias variables aleatorias no se limitan a las propiedades de las variables aleatorias individuales incluidas en el sistema, sino que también incluyen conexiones mutuas(dependencias) entre variables aleatorias. Por tanto, al estudiar un sistema de variables aleatorias, se debe prestar atención a la naturaleza y el grado de dependencia. Esta dependencia puede ser más o menos pronunciada, más o menos estrecha. Y en otros casos, las variables aleatorias resultan prácticamente independientes.

La variable aleatoria Y se llama independiente de una variable aleatoria X, si la ley de distribución de la variable aleatoria Y no depende del valor que tomó X.

Cabe señalar que la dependencia e independencia de las variables aleatorias es siempre un fenómeno mutuo: si Y no depende de X, entonces el valor de X no depende de Y. Teniendo esto en cuenta, podemos dar siguiente definición independencia de variables aleatorias.

Las variables aleatorias X e Y se denominan independientes si la ley de distribución de cada una de ellas no depende del valor que tome la otra. De lo contrario, los valores de X e Y se llaman dependiente.

Ley de distribución Una variable aleatoria es cualquier relación que establece una conexión entre los posibles valores de una variable aleatoria y sus correspondientes probabilidades.

El concepto de "dependencia" de variables aleatorias, que se utiliza en la teoría de la probabilidad, es algo diferente del concepto habitual de "dependencia" de variables, que se utiliza en matemáticas. Por tanto, un matemático entiende por "dependencia" sólo un tipo de dependencia: la llamada dependencia funcional, completa y rígida. Dos cantidades X e Y se denominan funcionalmente dependientes si, conociendo el valor de una de ellas, se puede determinar con precisión el valor de la otra.

En la teoría de la probabilidad, existe un tipo de dependencia ligeramente diferente: dependencia probabilística. Si el valor Y está relacionado con el valor X mediante una dependencia probabilística, entonces, conociendo el valor de X, es imposible indicar con precisión el valor de Y, pero se puede indicar su ley de distribución, dependiendo del valor que tenga el valor X. tomado.

La relación probabilística puede ser más o menos estrecha; A medida que aumenta la cercanía de la dependencia probabilística, se acerca cada vez más a la funcional. Por tanto, la dependencia funcional puede considerarse como un caso extremo y límite de la dependencia probabilística más cercana. Otro caso extremo es la total independencia de las variables aleatorias. Entre estos dos casos extremos Se encuentran todas las gradaciones de dependencia probabilística, desde la más fuerte hasta la más débil.

En la práctica se encuentra a menudo la dependencia probabilística entre variables aleatorias. Si las variables aleatorias X e Y están en una relación probabilística, esto no significa que con un cambio en el valor de X, el valor de Y cambia de una manera muy específica; esto sólo significa que con un cambio en el valor de X, el valor de Y

tiende a cambiar también (aumentar o disminuir a medida que X aumenta). Esta tendencia se observa sólo en bosquejo general, y en cada caso especial Es posible que se produzcan desviaciones.

Ejemplos de dependencia probabilística.

Seleccionemos al azar un paciente con peritonitis. La variable aleatoria T es el tiempo desde el inicio de la enfermedad, la variable aleatoria O es el nivel de alteraciones homeostáticas. Existe una relación clara entre estos valores, ya que el valor T es una de las razones más importantes para determinar el valor O.

Al mismo tiempo, existe una relación probabilística más débil entre la variable aleatoria T y la variable aleatoria M, que refleja la mortalidad en una determinada patología, ya que la variable aleatoria, aunque influye en la variable aleatoria O, no es el principal determinante.

Además, si consideramos el valor T y el valor B (la edad del cirujano), estos valores son prácticamente independientes.

Hasta ahora hemos discutido las propiedades de los sistemas de variables aleatorias, dando sólo una explicación verbal. Sin embargo, existen características numéricas a través de las cuales se estudian las propiedades tanto de variables aleatorias individuales como de un sistema de variables aleatorias.

Covarianza y coeficiente de correlación.

Puede haber una relación funcional o estocástica (probabilística) entre variables aleatorias. La dependencia estocástica se manifiesta en el hecho de que ley condicional la distribución de una variable aleatoria cambia según los valores que toma otra variable aleatoria. Una de las características de la dependencia estocástica de dos variables aleatorias es covarianza variables aleatorias.

Covarianza variables aleatorias ( X,Y) es un número igual a la expectativa matemática del producto de las desviaciones de variables aleatorias X Y Y de tus expectativas matemáticas:

A veces se llama covarianza momento de correlación o segundo mixto punto central variables aleatorias ( X,Y).

Usando la definición de expectativa matemática, obtenemos:

Para distribución discreta

Para distribución continua

En Y= X la covarianza es lo mismo que la varianza X.

La magnitud del momento de correlación depende de las unidades de medida de las variables aleatorias. Esto dificulta la comparación de puntos de correlación. varios sistemas variables aleatorias. Para eliminar este inconveniente, se introduce una nueva característica numérica: coeficiente de correlación, cual es

cantidad adimensional.

Para calcularlo, reemplazamos las desviaciones de las variables aleatorias de las expectativas matemáticas con sus desviaciones normalizadas, es decir

Propiedades del coeficiente de correlación:

Dejar t – variable en el sentido Análisis matemático. Considere la varianza de la variable aleatoria. D(Y-tX) en función de una variable t.

Según la propiedad de dispersión. El discriminante en este caso debe ser menor o igual a cero, es decir

¿De dónde lo obtenemos?

2. El módulo del coeficiente de correlación no cambia cuando transformaciones lineales variables aleatorias: , donde , , son números arbitrarios.

3. , si y sólo si las variables aleatorias X Y Y están conectados linealmente, es decir hay tales números a, b, Qué .

Si , entonces el discriminante considerado en el párrafo 1 es igual a cero y, por lo tanto, para algún valor . Por lo tanto, el valor y para algunos CON la igualdad que había que demostrar es cierta.

4. Si X Y Y son estadísticamente independientes, entonces.

Las propiedades 2.4 se verifican directamente.

4.5.2. Correlación y dependencia de un sistema de variables aleatorias..

Una condición necesaria independencia de variables aleatorias X Y Y es la igualdad a cero de su momento de correlación (o coeficiente de correlación). Sin embargo, la igualdad (o ) es sólo una condición necesaria, pero no suficiente, para la independencia.

Ejemplo 1.

La figura muestra puntos que se encuentran en una parábola. , A .

En este sentido, se introduce un concepto más restringido de variables aleatorias no correlacionadas (si) o correlacionadas (si). Es por eso La independencia de las variables aleatorias también significa no correlación.() y viceversa, correlación () – adiccion.

EN caso general, cuando , los puntos (X,Y) estarán dispersos alrededor de la línea, más cerca estará valor mayor. Así, el coeficiente de correlación caracteriza no cualquiera relación entre X Y Y, A grado de rigidez de la relación lineal entre ellos.

Entonces, en particular, incluso con , es decir. en ausencia total relación lineal entre X Y Y Puede existir una dependencia funcional estadística arbitrariamente fuerte e incluso no lineal (ver ejemplo 1).

Cuando se habla de los valores correlacion positiva entre X Y Y, lo que significa que ambas variables tienen la misma tendencia a aumentar o disminuir. Cuando hablan de correlación negativa, se refieren a la tendencia opuesta en el cambio de variables aleatorias. X Y Y, es decir. uno aumenta y el otro disminuye, o viceversa.

Si las variables aleatorias X Y Y se distribuyen normalmente, entonces su falta de correlación implica su independencia, ya que

Si entonces.

Para calcular el coeficiente de correlación, continuamos con el Ejemplo 2 del §4.1. Usemos la fórmula

.

METRO(X× Y)=(-200)×(-100)×0,2 + (-200)×0×0,1 + (-200)×(100)×0,05 + 0×(-100)×0,05 + 0×0×0,25 + 0 ×100×0,02 + 200×(-100)×0,01 + 200×0×0,02 + 200×100×0,3 = $8800;

; ;

.

Ejemplo 2. La ley de distribución de un sistema de dos variables aleatorias viene dada por la tabla de distribución.

X Y
-1 0,01 0,06 0,05 0,04
0,04 0,24 0,15 0,07
0,05 0,01 0,01 0,09

Encuentre leyes de distribución unidimensionales (marginales) X Y Y, sus expectativas matemáticas, varianzas y coeficiente de correlación entre X Y Y.

Solución. Probabilidades de posibles valores de una variable aleatoria discreta X, incluidos en el sistema, están determinados por la fórmula

, A=1, 2, 3, 4.

Por tanto, la distribución unidimensional de la cantidad. X tiene la siguiente forma

Expectativas matemáticas de variables aleatorias. X Y Y:

METRO(X)=1,6; METRO(Y)=0,18.

Varianzas de variables aleatorias. X Y Y:

D(X)=0,84; D(Y)=0,47.

Coeficiente de correlación entre X Y Y calculado por la fórmula

; ;

; ;

Preguntas de autoevaluación.

1. Defina una variable aleatoria multivariada y una función de distribución de probabilidad.

2. ¿Qué se llama distribución conjunta de una variable aleatoria discreta bidimensional ( X,Y)? ¿Cómo está escrito?

3. Como se sabe distribución conjunta variable aleatoria bidimensional ( X,Y) encontrar distribuciones marginales componentes X Y Y?

4. ¿Qué se llama distribución condicional del componente? X cantidad discreta bidimensional ( X,Y)?

5. ¿Qué se llama covarianza?

6. ¿Cuál es el coeficiente de correlación?

7. Especifique las propiedades del coeficiente de correlación.

8. ¿Cuál es el coeficiente de correlación de variables aleatorias? X Y Y = 1 – 2X?

9. ¿A qué valor se convierte la covarianza de dos variables aleatorias? X Y Y, Si X = Y?

10. ¿Son equivalentes los conceptos de independencia y no correlacionados?

Tareas

4.1. Se venden tres tipos de automóviles en dos mercados diferentes de la ciudad ( A B C). A continuación se muestran datos sobre la cantidad de automóviles vendidos durante el año:



Encuentre las siguientes probabilidades: R(un, un), PAG(a, b), PAG(a, c), PAG(segundo, un), PAG(segundo, segundo), PAG(antes de Cristo), PAG(A), PAG(Automóvil club británico), PAG(Automóvil club británico). Crea una tabla de probabilidades conjuntas.

4.2. Los turistas en un determinado resort suelen ser hombres de negocios ( B)o personas de profesiones liberales ( PAG)(abogados, artistas, médicos, etc.). El propietario de un complejo turístico quiere determinar si le resultaría más rentable producir dos tipos de publicidad en lugar de uno. Para ello, encargó a su departamento de publicidad que preparara dos tipos de publicidad: uno para empresarios (tipo I) y otro para personas de profesiones liberales (tipo II). Se preparó un anuncio, se envió material a posibles clientes y se recibieron 800 solicitudes. Fueron distribuidos de la siguiente manera.

A). Encuentra las probabilidades PAG(BI); PAG(B,II); PAG(I/B).

Para caracterizar la dependencia de la correlación entre cantidades, se utilizan el momento de corrección y el coeficiente de correlación.

Definición 2. Momento de correlaciónµ xy de las variables aleatorias X e Y es la expectativa matemática del producto de las desviaciones de estas variables

Para calcular el momento de correlación cantidades discretas se usa la expresión

(3.12)

y para los continuos – la expresión

(3.13)

Observación. El momento de correlación µ xy se puede reescribir en la forma

(3.14)

De hecho, utilizando las propiedades de la expectativa matemática (ver §§ 2.2; 2.6), tenemos

Teorema. El momento de correlación de dos variables aleatorias independientes X e Y es igual a cero.

Prueba. Según la observación

y dado que X e Y son variables aleatorias independientes, entonces (ver §§ 2.2; 2.6)

y, por tanto, µ xy =0.

De la definición del momento de correlación se deduce que tiene una dimensión igual al producto dimensiones de las cantidades X e Y, es decir su valor depende de las unidades de medida de las variables aleatorias. Por tanto, para las mismas dos cantidades, la magnitud del momento de correlación puede tener valores diferentes dependiendo de las unidades en las que se midieron las cantidades. Para eliminar este inconveniente, acordamos tomar una cantidad adimensional como medida de la relación (dependencia) de dos variables aleatorias X e Y.

Dónde σx =σ(X), σy =σ(Y), llamado coeficiente de correlación.

Ejemplo 1. Sea una variable aleatoria discreta bidimensional (X,Y) especificada por la ley de distribución:

y por lo tanto,

Sumando las probabilidades en las columnas, encontramos las probabilidades de los posibles valores de Y:

De ahí la ley de distribución Y:

Y
pag 1\3 1\2 1\6

y por lo tanto,

en realidad,

Por tanto, el coeficiente de correlación

Teorema. Valor absoluto el momento de correlación de dos variables aleatorias no excede el producto de sus desviaciones estándar:

Prueba. Introduciendo la variable aleatoria Dónde Encontremos su varianza. Tenemos

(cualquier variación no es negativa). De aquí

Al ingresar una variable aleatoria , de igual manera encontraremos

Como resultado tenemos

Definición 2. Variables aleatorias X e Y se denominan no correlacionados si = 0, y correlacionados si

Ejemplo 1. Variables aleatorias independientes X y Y no están correlacionados, ya que debido a la relación (3.12) = 0.

Ejemplo 2. Dejemos que las variables aleatorias X Y Y están conectados por una dependencia lineal. Encontremos el coeficiente de correlación. Tenemos:

Por tanto, el coeficiente de correlación de variables aleatorias relacionadas por una dependencia lineal es igual a ±1 (más precisamente, =1 si A>0 y =-1 si A<0).

Observemos algunas propiedades del coeficiente de correlación.

Del ejemplo 1 se deduce:

1) Si X e Y son variables aleatorias independientes, entonces el coeficiente de correlación es cero.

Tenga en cuenta que la afirmación inversa es, en términos generales, falsa. (Como prueba, consulte el trabajo).

2) El valor absoluto del coeficiente de correlación no excede la unidad:

De hecho, dividir ambos lados de la desigualdad (3.16) por el producto , llegamos a la desigualdad deseada.

3) Como puede verse en la fórmula (3.15), teniendo en cuenta la fórmula (3.14), el coeficiente de correlación caracteriza la magnitud relativa de la desviación de la expectativa matemática del producto del producto de las expectativas matemáticas. M(X) M(Y) cantidades X Y y. Dado que esta desviación ocurre sólo para cantidades dependientes, podemos decir que El coeficiente de correlación caracteriza la cercanía de la relación entre X e Y.

3. Correlación lineal. Este tipo de correlación es bastante común.

Definición de dependencia de correlación entre variables aleatorias. X y Y llamado correlación lineal, si ambas funciones de regresión y son lineales. En este caso, ambas líneas de regresión son rectas; se les llama regresiones directas.

Derivemos las ecuaciones de regresión directa. Y en X, aquellos. encontremos el coeficiente de la función lineal

denotemos M(X) = a, M(Y)= b, M[(X - a) 2 ]= , M[(Y –b 2)]= . Utilizando las propiedades de MO (§§ 2.2; 2.6) encontramos:

M(Y) = M= METRO(AX + B) = AM(X) + B,

aquellos. b = Aa + B, dónde B=b-Aa.

M(XY)= M[Xg(X)\= M(AX 2 + BX) = AM(X 2) + BM(X)= AM(X 2) + (b- Aa)a,

o, según la propiedad 1 de dispersión (§§ 2.3; 2.6),

El coeficiente resultante se llama coeficiente de regresión Y en X y se denota por:

Por tanto, la ecuación de regresión directa Y en X parece

De manera similar, puedes obtener la ecuación de regresión directa de X sobre Y.

¿Con qué frecuencia has escuchado afirmaciones que dicen que un fenómeno está correlacionado con otro?

"El alto crecimiento se correlaciona con una buena educación y con la felicidad, según los expertos del servicio de encuestas Gallup".

"El precio del petróleo está correlacionado con los tipos de cambio".

"El dolor muscular después del ejercicio no se correlaciona con la hipertrofia de las fibras musculares".

Parece que el concepto de "correlación" se ha vuelto ampliamente utilizado no sólo en la ciencia, sino también en la vida cotidiana. La correlación refleja el grado de relación lineal entre dos fenómenos aleatorios. Entonces, cuando los precios del petróleo comienzan a caer, el tipo de cambio del dólar frente al rublo comienza a subir.

De todo lo anterior, podemos concluir que al describir variables aleatorias bidimensionales, características tan conocidas como la expectativa matemática, la dispersión y la desviación estándar a veces resultan insuficientes. Por lo tanto, se suelen utilizar dos características más muy importantes para describirlos: covarianza Y correlación.

Covarianza

Covarianza$cov\left(X,\ Y\right)$ de las variables aleatorias $X$ y $Y$ es la expectativa matemática del producto de las variables aleatorias $X-M\left(X\right)$ y $Y-M\left(Y \right)$, es decir:

$$cov\left(X,\ Y\right)=M\left(\left(X-M\left(X\right)\right)\left(Y-M\left(Y\right)\right)\right). $$

Puede resultar conveniente calcular la covarianza de las variables aleatorias $X$ e $Y$ utilizando la siguiente fórmula:

$$cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right),$$

que se puede obtener a partir de la primera fórmula utilizando las propiedades de la expectativa matemática. Enumeremos los principales. propiedades de covarianza.

1 . La covarianza de una variable aleatoria consigo misma es su varianza.

$$cov\izquierda(X,\ X\derecha)=D\izquierda(X\derecha).$$

2 . La covarianza es simétrica.

$$cov\izquierda(X,\ Y\derecha)=cov\izquierda(Y,\ X\derecha).$$

3 . Si las variables aleatorias $X$ y $Y$ son independientes, entonces:

$$cov\izquierda(X,\ Y\derecha)=0.$$

4 . El factor constante se puede sacar del signo de covarianza.

$$cov\left(cX,\ Y\right)=cov\left(X,\ cY\right)=c\cdot cov\left(X,\ Y\right).$$

5 . La covarianza no cambiará si se suma un valor constante a una de las variables aleatorias (o dos a la vez):

$$cov\left(X+c,\ Y\right)=cov\left(X,\ Y+c\right)=cov\left(X+x,\ Y+c\right)=cov\left( X,\Y\derecha).$$

6 . $cov\left(aX+b,\ cY+d\right)=ac\cdot cov\left(X,\ Y\right)$.

7 . $\left|cov\left(X,\ Y\right)\right|\le \sqrt(D\left(X\right)D\left(Y\right))$.

8 . $\left|cov\left(X,\ Y\right)\right|=\sqrt(D\left(X\right)D\left(Y\right))\Leftrightarrow Y=aX+b$.

9 . La varianza de la suma (diferencia) de variables aleatorias es igual a la suma de sus varianzas más (menos) el doble de la covarianza de estas variables aleatorias:

$$D\left(X\pm Y\right)=D\left(X\right)+D\left(Y\right)\pm 2cov\left(X,\ Y\right).$$

Ejemplo 1 . Se proporciona una tabla de correlación de un vector aleatorio $\left(X,\ Y\right)$. Calcule la covarianza $cov\left(X,\ Y\right)$.

$\begin(matriz)(|c|c|)
\hline

\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 y 0,05 y p_(22) y 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end(matriz)$

Los eventos $\left(X=x_i,\ Y=y_j\right)$ forman un grupo completo de eventos, por lo tanto la suma de todas las probabilidades $p_(ij)$ indicadas en la tabla debe ser igual a 1. Entonces $0,1 +0+0, 2+0.05+p_(22)+0+0+0.2+0.05+0.1+0+0.1=1$, por lo tanto $p_(22)=0.2$.

$\begin(matriz)(|c|c|)
\hline
X\barra invertida Y & -6 & 0 & 3 \\
\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 & 0,05 & 0,2 & 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end(matriz)$

Usando la fórmula $p_(i) =\sum _(j)p_(ij) $, encontramos la serie de distribución de la variable aleatoria $X$.

$\begin(matriz)(|c|c|)
\hline
X y -2 y 0 y 1 y 7 \\
\hline
p_i y 0,3 y 0,25 y 0,25 y 0,2 \\
\hline
\end(matriz)$

$$M\left(X\right)=\sum^n_(i=1)(x_ip_i)=-2\cdot 0.3+0\cdot 0.25+1\cdot 0.25+7\cdot 0,2=1.05.$ $

$$D\left(X\right)=\sum^n_(i=1)(p_i(\left(x_i-M\left(X\right)\right))^2)=0.3\cdot ( \left (-2-1.05\right))^2+0.25\cdot (\left(0-1.05\right))^2+0.25\cdot (\left(1-1, 05\right))^2+$$

$$+\ 0.2\cdot (\left(7-1.05\right))^2=10.1475.$$

$$\sigma \left(X\right)=\sqrt(D\left(X\right))=\sqrt(10.1475)\aproximadamente 3.186.$$

Usando la fórmula $q_(j) =\sum _(i)p_(ij) $, encontramos la serie de distribución de la variable aleatoria $Y$.

$\begin(matriz)(|c|c|)
\hline
Y y -6 y 0 y 3 \\
\hline
p_i y 0,25 y 0,4 y 0,35 \\
\hline
\end(matriz)$

$$M\left(Y\right)=\sum^n_(i=1)(y_ip_i)=-6\cdot 0.25+0\cdot 0.4+3\cdot 0.35=-0.45 .$$

$$D\left(Y\right)=\sum^n_(i=1)(p_i(\left(y_i-M\left(Y\right)\right))^2)=0.25\cdot ( \left (-6+0,45\right))^2+0,4\cdot (\left(0+0,45\right))^2+0,35\cdot (\left(3+0, 45\right))^2=11,9475. $$

$$\sigma \left(Y\right)=\sqrt(D\left(Y\right))=\sqrt(11.9475)\aproximadamente 3.457.$$

Dado que $P\left(X=-2,\ Y=-6\right)=0.1\ne 0.3\cdot 0.25$, entonces las variables aleatorias $X,\ Y$ son dependientes.

Definamos la covarianza $cov\ \left(X,\ Y\right)$ de las variables aleatorias $X,\ Y$ mediante la fórmula $cov\left(X,\ Y\right)=M\left(XY\ derecha)-M\ izquierda(X\derecha)M\izquierda(Y\derecha)$. La expectativa matemática del producto de variables aleatorias $X,\Y$ es igual a:

$$M\left(XY\right)=\sum_(i,\ j)(p_(ij)x_iy_j)=0.1\cdot \left(-2\right)\cdot \left(-6\right) +0.2 \cdot \left(-2\right)\cdot 3+0.05\cdot 1\cdot 3+0.1\cdot 7\cdot \left(-6\right)+0.1\cdot 7\cdot 3=-1.95.$$

Entonces $cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right)=-1.95-1.05\cdot \left(- 0,45\right)=-1,4775.$ Si las variables aleatorias son independientes, entonces su covarianza es cero. En nuestro caso, $cov(X,Y)\ne 0$.

Correlación

Coeficiente de correlación las variables aleatorias $X$ y $Y$ se llaman número:

$$\rho \left(X,\ Y\right)=((cov\left(X,\ Y\right))\over (\sqrt(D\left(X\right)D\left(Y\right) )))).$$

Enumeremos los principales. propiedades del coeficiente de correlación.

1 . $\rho \left(X,\ X\right)=1$.

2 . $\rho \left(X,\ Y\right)=\rho \left(Y,\ X\right)$.

3 . $\rho \left(X,\ Y\right)=0$ para variables aleatorias independientes $X$ y $Y$.

4 . $\rho \left(aX+b,\ cY+d\right)=(sgn \left(ac\right)\rho \left(X,\ Y\right)\ )$, donde $(sgn \left( ac\right)\ )$ es el signo del producto $ac$.

5 . $\left|\rho \left(X,\ Y\right)\right|\le 1$.

6 . $\left|\rho \left(X,\ Y\right)\right|=1\Leftrightarrow Y=aX+b$.

Anteriormente se dijo que el coeficiente de correlación $\rho \left(X,\ Y\right)$ refleja el grado de dependencia lineal entre dos variables aleatorias $X$ e $Y$.

Cuando $\rho \left(X,\ Y\right)>0$ podemos concluir que a medida que la variable aleatoria $X$ aumenta, la variable aleatoria $Y$ tiende a aumentar. esto se llama positivo dependencia de correlación. Por ejemplo, la altura y el peso de una persona están correlacionados positivamente.

Cuando $\rho \left(X,\ Y\right)<0$ можно сделать вывод о том, что с ростом случайной величины $X$ случайная величина $Y$ имеет тенденцию к уменьшению. Это называется отрицательной корреляционной зависимостью. Например, температура и время сохранности продуктов питания связаны между собой отрицательной корреляционной зависимостью.

Cuando $\rho \left(X,\ Y\right)=0$, las variables aleatorias $X$ e $Y$ se denominan no correlacionadas. Vale la pena señalar que la falta de correlación de las variables aleatorias $X$ e $Y$ no significa su independencia estadística, solo significa que no existe una relación lineal entre ellas.

Ejemplo 2 . Determinemos el coeficiente de correlación $\rho \left(X,\ Y\right)$ para la variable aleatoria bidimensional $\left(X,\ Y\right)$ del Ejemplo 1.

El coeficiente de correlación de las variables aleatorias $X,\Y$ es igual a $r_(XY) =(cov(X,Y)\over \sigma (X)\sigma (Y)) =(-1.4775\over 3.186\cdot 3,457) =-0,134.$ Desde $r_(XY)<0$, то с ростом $X$ случайная величина $Y$ имеет тенденцию к уменьшению (отрицательная корреляционная зависимость).



¿Te gustó el artículo? ¡Compartir con tus amigos!