Cantidades dependientes e independientes. Variables aleatorias independientes

Leyes condicionales de distribución. Regresión.

Definición. La ley de distribución condicional de uno de los componentes unidimensionales de una variable aleatoria bidimensional (X, Y) es su ley de distribución, calculada bajo la condición de que el otro componente tomó un cierto valor (o cayó en algún intervalo). En la conferencia anterior, analizamos cómo encontrar distribuciones condicionales para variables aleatorias discretas. Allí también se dan fórmulas para probabilidades condicionales:

En el caso de variables aleatorias continuas, es necesario determinar las densidades de probabilidad de las distribuciones condicionales j y (x) y j X (y). ¡Para ello, en las fórmulas dadas, reemplazamos las probabilidades de los eventos con sus “elementos de probabilidad”!

Después de reducir por dx y dy obtenemos:

aquellos. la densidad de probabilidad condicional de uno de los componentes unidimensionales de una variable aleatoria bidimensional es igual a la relación entre su densidad conjunta y la densidad de probabilidad del otro componente. Estas relaciones se escriben en la forma

se denominan teorema (regla) para multiplicar densidades de distribución.

Densidades condicionales j y (x) y j X (y). tienen todas las propiedades de la densidad "incondicional".

Al estudiar variables aleatorias bidimensionales, se consideran las características numéricas de los componentes unidimensionales X e Y: expectativas matemáticas y varianzas. Para una variable aleatoria continua (X, Y), están determinadas por las fórmulas:

Junto a ellas, también se consideran las características numéricas de las distribuciones condicionales: expectativas matemáticas condicionales M x (Y) y M y (X) y varianzas condicionales D x (Y) y D Y (X). Estas características se encuentran utilizando las fórmulas habituales de expectativa y varianza matemática, en las que se utilizan probabilidades condicionales o densidades de probabilidad condicionales en lugar de probabilidades de eventos o densidades de probabilidad.

Expectativa matemática condicional de una variable aleatoria Y en X = x, es decir M x (Y) es una función de x, llamada función de regresión o simplemente regresión de Y sobre X. De manera similar, M Y (X) se llama función de regresión o simplemente regresión de X sobre Y. Las gráficas de estas funciones son llamadas líneas de regresión (o curvas de regresión) Y respectivamente por X o X por Y.

Variables aleatorias dependientes e independientes.

Definición. Las variables aleatorias X e Y se denominan independientes si su función de distribución conjunta F(x,y) se representa como un producto de las funciones de distribución F 1 (x) y F 2 (y) de estas variables aleatorias, es decir

De lo contrario, las variables aleatorias X e Y se denominan dependientes.

Derivando la igualdad dos veces con respecto a los argumentos x e y, obtenemos

aquellos. para las variables aleatorias continuas independientes X e Y, su densidad conjunta j(x,y) es igual al producto de las densidades de probabilidad j 1 (x) y j 2 (y) de estas variables aleatorias.

Hasta ahora nos hemos encontrado con el concepto de relación funcional entre las variables X e Y, cuando cada valor x de una variable correspondía a un valor estrictamente definido de la otra. Por ejemplo, la relación entre dos variables aleatorias (el número de equipos que fallan durante un cierto período de tiempo y su costo) es funcional.

En general, se enfrentan a un tipo de dependencia diferente, menos grave que la funcional.

Definición. La relación entre dos variables aleatorias se llama probabilística (estocástica o estadística) si cada valor de una de ellas corresponde a una determinada distribución (condicional) de la otra.

En el caso de una dependencia probabilística (estocástica), es imposible, conociendo el valor de uno de ellos, determinar con precisión el valor del otro, pero sólo se puede indicar la distribución de la otra cantidad. Por ejemplo, la relación entre el número de averías del equipo y el coste de sus reparaciones preventivas, el peso y la altura de una persona, el tiempo que un escolar dedica a mirar televisión y leer libros, etc. son probabilísticos (estocásticos).

En la figura. La figura 5.10 muestra ejemplos de variables aleatorias dependientes e independientes X e Y.

Al estudiar sistemas de variables aleatorias, siempre se debe prestar atención al grado y naturaleza de su dependencia. Esta dependencia puede ser más o menos pronunciada, más o menos estrecha. En algunos casos, la relación entre variables aleatorias puede ser tan estrecha que, conociendo el valor de una variable aleatoria, se puede indicar con precisión el valor de otra. En el otro caso extremo, la dependencia entre variables aleatorias es tan débil y distante que prácticamente pueden considerarse independientes.

El concepto de variables aleatorias independientes es uno de los conceptos importantes de la teoría de la probabilidad.

Se dice que una variable aleatoria es independiente de otra variable aleatoria si la ley de distribución de la variable no depende del valor que toma la variable.

Para variables aleatorias continuas, la condición de independencia de se puede escribir como:

en cualquier.

Por el contrario, si depende de , entonces

.

Demostremos que la dependencia o independencia de las variables aleatorias es siempre mutua: si el valor no depende de .

En efecto, que no dependa de:

. (8.5.1)

De las fórmulas (8.4.4) y (8.4.5) tenemos:

de donde, teniendo en cuenta (8.5.1), obtenemos:

Q.E.D.

Dado que la dependencia y la independencia de las variables aleatorias son siempre mutuas, podemos dar una nueva definición de variables aleatorias independientes.

Las variables aleatorias se llaman independientes si la ley de distribución de cada una de ellas no depende del valor que toma la otra. De lo contrario, las cantidades se llaman dependientes.

Para variables aleatorias continuas independientes, el teorema de multiplicación para las leyes de distribución toma la forma:

, (8.5.2)

es decir, la densidad de distribución de un sistema de variables aleatorias independientes es igual al producto de las densidades de distribución de las variables individuales incluidas en el sistema.

La condición (8.5.2) puede considerarse como condición necesaria y suficiente para la independencia de las variables aleatorias.

A menudo, por la forma misma de la función, se puede concluir que las variables aleatorias son independientes, es decir, si la densidad de distribución se descompone en el producto de dos funciones, una de las cuales depende solo de, la otra solo de, entonces las variables aleatorias son independientes.

Ejemplo. La densidad de distribución del sistema tiene la forma:

.

Determinar si las variables aleatorias son dependientes o independientes.

Solución. Factorizando el denominador tenemos:

.

Del hecho de que la función se divide en el producto de dos funciones, una de las cuales depende sólo de , y la otra sólo de , concluimos que las cantidades y deben ser independientes. En efecto, aplicando las fórmulas (8.4.2) y (8.4.3), tenemos:

;

similarmente

,

¿Cómo podemos estar seguros de que

y, por tanto, las cantidades y son independientes.

El criterio anterior para juzgar la dependencia o independencia de variables aleatorias se basa en el supuesto de que conocemos la ley de distribución del sistema. En la práctica, suele ocurrir lo contrario: se desconoce la ley de distribución del sistema; Sólo se conocen las leyes de distribución de cantidades individuales incluidas en el sistema y hay motivos para creer que las cantidades son independientes. Luego podemos escribir la densidad de distribución del sistema como el producto de las densidades de distribución de las cantidades individuales incluidas en el sistema.

Detengámonos con cierto detalle en los conceptos importantes de "dependencia" e "independencia" de variables aleatorias.

El concepto de "independencia" de variables aleatorias, que utilizamos en la teoría de la probabilidad, es algo diferente del concepto habitual de "dependencia" de variables, que utilizamos en matemáticas. De hecho, normalmente por "dependencia" de cantidades nos referimos a un solo tipo de dependencia: la dependencia completa, rígida, la llamada dependencia funcional. Dos cantidades se llaman funcionalmente dependientes si, conociendo el valor de una de ellas, es posible indicar con precisión el valor de la otra.

En la teoría de la probabilidad, nos encontramos con otro tipo de dependencia más general: una dependencia probabilística o "estocástica". Si una cantidad está relacionada con una cantidad mediante una dependencia probabilística, entonces, conociendo el valor de , es imposible indicar el valor exacto de , pero sólo se puede indicar su ley de distribución, que depende del valor que ha tomado la cantidad.

La relación probabilística puede ser más o menos estrecha; A medida que aumenta la cercanía de la dependencia probabilística, se acerca cada vez más a la funcional. Por tanto, la dependencia funcional puede considerarse como un caso extremo y límite de la dependencia probabilística más cercana. Otro caso extremo es la total independencia de las variables aleatorias. Entre estos dos casos extremos se encuentran todas las gradaciones de dependencia probabilística, desde la más fuerte hasta la más débil. Aquellas cantidades físicas que en la práctica consideramos funcionalmente dependientes, de hecho, están conectadas por una dependencia probabilística muy estrecha: para un valor dado de una de estas cantidades, la otra fluctúa dentro de límites tan estrechos que prácticamente puede considerarse bastante definida. Por otro lado, aquellas cantidades que consideramos independientes en la práctica y en la realidad a menudo se encuentran en algún tipo de dependencia mutua, pero esta dependencia es tan débil que, a efectos prácticos, puede descuidarse.

La dependencia probabilística entre variables aleatorias es muy común en la práctica. Si las variables aleatorias están en una dependencia probabilística, esto no significa que con un cambio en el valor el valor cambie de una manera muy específica; simplemente significa que a medida que la magnitud cambia, la magnitud también tiende a cambiar (por ejemplo, aumentar o disminuir al aumentar). Esta tendencia se observa sólo "en promedio", en términos generales, y en cada caso individual es posible que se produzcan desviaciones.

Consideremos, por ejemplo, dos de estas variables aleatorias: - la altura de una persona tomada al azar, - su peso. Evidentemente, las cantidades y están en una determinada relación probabilística; se expresa en que, en general, las personas con mayor altura tienen más peso. Incluso se puede crear una fórmula empírica que reemplace aproximadamente esta dependencia probabilística por una funcional. Ésta es, por ejemplo, una fórmula muy conocida que expresa aproximadamente la relación entre altura y peso.

Dos variables aleatorias $X$ y $Y$ se llaman independientes si la ley de distribución de una variable aleatoria no cambia dependiendo de los posibles valores que tome la otra variable aleatoria. Es decir, para cualquier $x$ e $y$, los eventos $X=x$ y $Y=y$ son independientes. Dado que los eventos $X=x$ y $Y=y$ son independientes, entonces por el teorema del producto de probabilidades de eventos independientes $P\left(\left(X=x\right)\left(Y=y\ derecha)\derecha)=P \izquierda(X=x\derecha)P\izquierda(Y=y\derecha)$.

Ejemplo 1 . Sea la variable aleatoria $X$ expresar las ganancias en efectivo de los boletos de una lotería "Russian Lotto", y la variable aleatoria $Y$ exprese las ganancias en efectivo de los boletos de otra lotería "Golden Key". Es obvio que las variables aleatorias $X,\Y$ serán independientes, ya que las ganancias de los billetes de una lotería no dependen de la ley de distribución de las ganancias de los billetes de otra lotería. En el caso en que las variables aleatorias $X,\Y$ expresaran las ganancias de la misma lotería, entonces, obviamente, estas variables aleatorias serían dependientes.

Ejemplo 2 . Dos trabajadores trabajan en diferentes talleres y producen diversos productos que no están relacionados entre sí ni por las tecnologías de fabricación ni por las materias primas utilizadas. La ley de distribución del número de productos defectuosos fabricados por el primer trabajador por turno tiene la siguiente forma:

$\begin(matriz)(|c|c|)
\hline
Número de productos \ defectuosos \ x & 0 & 1 \\
\hline
Probabilidad y 0,8 y 0,2 \\
\hline
\end(matriz)$

El número de productos defectuosos producidos por el segundo trabajador por turno obedece a la siguiente ley de distribución.

$\begin(matriz)(|c|c|)
\hline
Número de productos \ defectuosos \ y & 0 & 1 \\
\hline
Probabilidad y 0,7 y 0,3 \\
\hline
\end(matriz)$

Encontremos la ley de distribución para el número de productos defectuosos producidos por dos trabajadores por turno.

Sea la variable aleatoria $X$ el número de productos defectuosos producidos por el primer trabajador por turno, y $Y$ el número de productos defectuosos producidos por el segundo trabajador por turno. Por condición, las variables aleatorias $X,\Y$ son independientes.

El número de productos defectuosos producidos por dos trabajadores por turno es una variable aleatoria $X+Y$. Sus valores posibles son $0,\1$ y $2$. Encontremos las probabilidades con las que la variable aleatoria $X+Y$ toma sus valores.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right) =0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ o\ X=1,\ Y=0\right)=P\left(X=0\right) )P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0.8\cdot 0.3+0.2\cdot 0.7 =0.38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right) =0.2\cdot 0.3=0.06.$

Entonces la ley de distribución del número de productos defectuosos fabricados por dos trabajadores por turno:

$\begin(matriz)(|c|c|)
\hline
Número de productos \ defectuosos \ & 0 & 1 & 2 \\
\hline
Probabilidad y 0,56 y 0,38 y 0,06\\
\hline
\end(matriz)$

En el ejemplo anterior, realizamos una operación con variables aleatorias $X,\Y$, es decir, encontramos su suma $X+Y$. Demos ahora una definición más rigurosa de operaciones (suma, diferencia, multiplicación) sobre variables aleatorias y demos ejemplos de soluciones.

Definición 1. El producto $kX$ de una variable aleatoria $X$ por una variable constante $k$ es una variable aleatoria que toma valores $kx_i$ con las mismas probabilidades $p_i$ $\left(i=1,\ 2,\ \puntos,\ n\ derecha)$.

Definición 2. La suma (diferencia o producto) de las variables aleatorias $X$ y $Y$ es una variable aleatoria que toma todos los valores posibles de la forma $x_i+y_j$ ($x_i-y_i$ o $x_i\cdot y_i$) , donde $i=1 ,\ 2,\dots ,\ n$, con probabilidades $p_(ij)$ de que la variable aleatoria $X$ tome el valor $x_i$, y $Y$ el valor $y_j$:

$$p_(ij)=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Dado que las variables aleatorias $X,\Y$ son independientes, entonces, según el teorema de multiplicación de probabilidad para eventos independientes: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ derecha)= p_i\cdot p_j$.

Ejemplo 3 . Las variables aleatorias independientes $X,\ Y$ se especifican mediante sus leyes de distribución de probabilidad.

$\begin(matriz)(|c|c|)
\hline
x_i y -8 y 2 y 3 \\
\hline
p_i y 0,4 y 0,1 y 0,5 \\
\hline
\end(matriz)$

$\begin(matriz)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i y 0,3 y 0,7 \\
\hline
\end(matriz)$

Formulemos la ley de distribución de la variable aleatoria $Z=2X+Y$. La suma de las variables aleatorias $X$ y $Y$, es decir, $X+Y$, es una variable aleatoria que toma todos los valores posibles de la forma $x_i+y_j$, donde $i=1,\ 2 ,\dots ,\ n$ , con probabilidades $p_(ij)$ de que la variable aleatoria $X$ tome el valor $x_i$, y $Y$ el valor $y_j$: $p_(ij)=P\left [\left(X=x_i\right )\left(Y=y_j\right)\right]$. Dado que las variables aleatorias $X,\Y$ son independientes, entonces, según el teorema de multiplicación de probabilidad para eventos independientes: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ derecha)= p_i\cdot p_j$.

Entonces, tiene leyes de distribución para las variables aleatorias $2X$ e $Y$, respectivamente.

$\begin(matriz)(|c|c|)
\hline
x_i y -16 y 4 y 6 \\
\hline
p_i y 0,4 y 0,1 y 0,5 \\
\hline
\end(matriz)$

$\begin(matriz)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i y 0,3 y 0,7 \\
\hline
\end(matriz)$

Para facilitar la búsqueda de todos los valores de la suma $Z=2X+Y$ y sus probabilidades, elaboraremos una tabla auxiliar, en cada celda de la cual colocaremos en la esquina izquierda los valores de la suma $ Z=2X+Y$, y en la esquina derecha, las probabilidades de estos valores obtenidas como resultado de multiplicar las probabilidades de los valores correspondientes de las variables aleatorias $2X$ y $Y$.

Como resultado, obtenemos la distribución $Z=2X+Y$:

$\begin(matriz)(|c|c|)
\hline
z_i y -14 y -8 y 6 y 12 y 10 y 16 \\
\hline
p_i y 0,12 y 0,28 y 0,03 y 0,07 y 0,15 y 0,35 \\
\hline
\end(matriz)$



¿Te gustó el artículo? ¡Comparte con tus amigos!