Análisis de correlación de Spearman en psicología. Coeficiente de correlación biserial puntual

37. Coeficiente de correlación de rangos de Spearman.

T.56 (64) 063.JPG

http://psystat.at.ua/publ/1-1-0-33

El coeficiente de correlación de rangos de Spearman se utiliza en los casos en que:
- las variables tienen escala de clasificación medidas;
- la distribución de datos es demasiado diferente de normal o no se sabe en absoluto;
- las muestras tienen un volumen pequeño (N< 30).

La interpretación del coeficiente de correlación de rangos de Spearman no es diferente del coeficiente de Pearson, pero su significado es algo diferente. Para comprender la diferencia entre estos métodos y justificar lógicamente sus áreas de aplicación, comparemos sus fórmulas.

Coeficiente de correlación de Pearson:

Coeficiente de correlación de Spearman:

Como puede ver, las fórmulas difieren significativamente. Comparemos las fórmulas.

La fórmula de correlación de Pearson utiliza la media aritmética y la desviación estándar de las series correlacionadas, pero la fórmula de Spearman no. Así, para obtener un resultado adecuado utilizando la fórmula de Pearson, es necesario que las series correlacionadas se acerquen a la distribución normal (la media y la desviación estándar son parámetros de distribución normal). Esto no es relevante para la fórmula de Spearman.

Un elemento de la fórmula de Pearson es la estandarización de cada serie en escala z.

Como puede ver, la conversión de variables a la escala Z está presente en la fórmula del coeficiente de correlación de Pearson. En consecuencia, para el coeficiente de Pearson, la escala de los datos no importa en absoluto: por ejemplo, podemos correlacionar dos variables, una de las cuales tiene un mínimo. = 0 y máx. = 1, y el segundo min. = 100 y máx. = 1000. No importa cuán diferente sea el rango de valores, todos se convertirán a valores z estándar que tienen la misma escala.

Esta normalización no ocurre en el coeficiente de Spearman, por lo tanto

UNA CONDICIÓN OBLIGATORIA PARA LA UTILIZACIÓN DEL COEFICIENTE DE SPEARMAN ES LA IGUALDAD DEL RANGO DE LAS DOS VARIABLES.

Antes de utilizar el coeficiente de Spearman para series de datos con diferentes rangos, es necesario rango. La clasificación da como resultado que los valores de estas series adquieran un mismo mínimo = 1 (rango mínimo) y un máximo igual al número de valores (máximo, último rango = N, es decir, el número máximo de casos en la muestra) .

¿En qué casos se puede prescindir del ranking?

Estos son casos en los que los datos son inicialmente escala de clasificación. Por ejemplo, la prueba de orientaciones valorativas de Rokeach.

Además, estos son casos en los que el número de opciones de valor es pequeño y la muestra contiene un mínimo y un máximo fijos. Por ejemplo, en un diferencial semántico, mínimo = 1, máximo = 7.

Ejemplo de cálculo del coeficiente de correlación de rangos de Spearman

La prueba de Rokeach de orientaciones de valores se llevó a cabo en dos muestras X e Y. Objetivo: descubrir qué tan cercanas están las jerarquías de valores de estas muestras (literalmente, qué tan similares son).

El valor resultante r=0,747 se comprueba mediante tabla de valores críticos. Según la tabla, con N=18, el valor obtenido es significativo al nivel p<=0,005

Coeficientes de correlación de rangos de Spearman y Kendal

Para variables que pertenecen a una escala ordinal o para variables que no están sujetas a una distribución normal, así como para variables que pertenecen a una escala de intervalo, se calcula la correlación de rango de Spearman en lugar del coeficiente de Pearson. Para ello, a los valores de las variables individuales se les asignan rangos, que posteriormente se procesan mediante fórmulas adecuadas. Para detectar la correlación de rango, desactive la casilla de verificación Correlación de Pearson predeterminada en el cuadro de diálogo Correlaciones bivariadas.... En su lugar, active el cálculo de correlación de Spearman. Este cálculo dará los siguientes resultados. Los coeficientes de correlación de rango están muy cerca de los valores correspondientes de los coeficientes de Pearson (las variables originales tienen una distribución normal).

titkova-matmetody.pdf p. 45

El método de correlación de rangos de Spearman le permite determinar la tensión (fuerza) y la dirección.

correlación entre dos signos o dos perfiles (jerarquías) señales.

Para calcular la correlación de rango, es necesario tener dos filas de valores,

que se puede clasificar. Dicha serie de valores podría ser:

1) dos signos medido en el mismo grupo sujetos;

2) dos jerarquías individuales de características, identificado en dos sujetos usando el mismo

fisonomía;

3) dos jerarquías grupales de características,

4) individual y grupal jerarquía de características.

En primer lugar, los indicadores se clasifican por separado para cada una de las características.

Como regla general, se asigna una clasificación más baja a un valor de atributo más bajo.

En el primer caso (dos características), los valores individuales se clasifican según la primera

característica obtenida por diferentes sujetos, y luego valores individuales para el segundo

firmar.

Si dos características están relacionadas positivamente, entonces los sujetos con rangos bajos

uno de ellos tendrá rangos bajos en el otro, y los sujetos que tengan rangos altos en

una de las características también tendrá rangos altos para la otra característica. Para calcular rs

Es necesario determinar las diferencias. (d) entre los rangos obtenidos por un sujeto determinado en ambos

señales. Luego estos indicadores d se transforman de cierta manera y se restan de 1. Que

Cuanto menor sea la diferencia entre los rangos, mayor será rs y más cerca estará de +1.

Si no hay correlación, entonces todos los rangos se mezclarán y no habrá

sin correspondencia. La fórmula está diseñada para que en este caso rs esté cerca de 0.

En caso de correlación negativa rangos bajos de sujetos sobre una base

corresponderán altos rangos sobre otra base, y viceversa. Cuanto mayor sea la discrepancia

entre las filas de sujetos en dos variables, más cerca está rs de -1.

En el segundo caso (dos perfiles individuales), los individuales están clasificados

valores obtenidos por cada uno de los 2 sujetos según un determinado (lo mismo para ellos

ambos) conjunto de características. La primera clasificación se otorgará a la característica con el valor más bajo; segundo rango –

un cartel con un valor más alto, etc. Obviamente, todas las características deben medirse en

las mismas unidades, de lo contrario la clasificación es imposible. Por ejemplo, es imposible

clasificar los indicadores en el Inventario de Personalidad de Cattell (16PF), si se expresan en

puntos "brutos", ya que los rangos de valores son diferentes para diferentes factores: de 0 a 13, de 0 a

20 y de 0 a 26. No podemos decir qué factor ocupará el primer lugar en

expresión hasta que llevemos todos los valores a una sola escala (la mayoría de las veces es la escala de la pared).

Si las jerarquías individuales de dos sujetos están relacionadas positivamente, entonces los signos

tener rangos bajos en uno de ellos tendrá rangos bajos en el otro, y viceversa.

Por ejemplo, si el factor E (dominancia) de un sujeto tiene el rango más bajo, entonces

otro sujeto de prueba, debería tener un rango bajo si un sujeto de prueba tiene el factor C

(estabilidad emocional) tiene el rango más alto, entonces el otro sujeto también debe tener

este factor tiene un rango alto, etc.

En el tercer caso (dos perfiles de grupo), se clasifican los valores medios del grupo,

obtenido en 2 grupos de sujetos según un conjunto específico, idéntico para ambos grupos

signos. En lo que sigue, el razonamiento es el mismo que en los dos casos anteriores.

En el caso 4 (perfiles individuales y grupales), se clasifican por separado.

valores individuales del sujeto y valores promedio grupales para el mismo conjunto

signos que se obtienen, por regla general, excluyendo este sujeto individual - él

no participa en el perfil de grupo promedio con el que se comparará su perfil individual

perfil. La correlación de rango le permitirá comprobar cuán consistente es el individuo y

perfiles de grupo.

En los cuatro casos, se determina la importancia del coeficiente de correlación resultante.

por el número de valores clasificados NORTE. En el primer caso, esta cantidad coincidirá con

tamaño de muestra En el segundo caso, el número de observaciones será el número de características,

conformando la jerarquía. En el tercer y cuarto caso, N es también el número de comparaciones

características, y no el número de sujetos en los grupos. En los ejemplos se dan explicaciones detalladas. Si

el valor absoluto de rs alcanza o excede un valor crítico, correlación

confiable.

Hipótesis.

Hay dos hipótesis posibles. El primero se aplica al caso 1, el segundo a los otros tres.

Primera versión de hipótesis.

H0: La correlación entre las variables A y B no es distinta de cero.

H2: La correlación entre las variables A y B es significativamente diferente de cero.

Segunda versión de hipótesis.

H0: La correlación entre las jerarquías A y B no es distinta de cero.

H2: La correlación entre las jerarquías A y B es significativamente diferente de cero.

Limitaciones del coeficiente de correlación de rangos

1. Para cada variable se deberán presentar al menos 5 observaciones. Superior

el límite de muestreo está determinado por las tablas disponibles de valores críticos .

2. El coeficiente de correlación de rangos de Spearman rs para un gran número de

Las clasificaciones para una o ambas variables comparadas dan valores aproximados. Idealmente

Ambas series correlacionadas deben representar dos secuencias de divergentes.

valores. Si no se cumple esta condición, se deberá realizar una modificación en

mismas filas.

El coeficiente de correlación de rangos de Spearman se calcula mediante la fórmula:

Si ambas series de rangos comparadas contienen grupos del mismo rango,

antes de calcular el coeficiente de correlación de rango, es necesario hacer correcciones para el mismo

Rangos de Ta y TV:

Ta = Σ (a3 – a)/12,

Тв = Σ (в3 – в)/12,

Dónde A - el volumen de cada grupo de rangos idénticos en la fila de rango A, en volumen de cada

grupos de rangos idénticos en la serie de rangos B.

Para calcular el valor empírico de rs, use la fórmula:

38. Coeficiente de correlación punto-biserial.

Sobre correlación en general, ver pregunta No. 36 Con. 56 (64) 063.jpg

harchenko-korranaliz.pdf

Consideremos la variable X en una escala fuerte y la variable Y en una escala dicotómica. El coeficiente de correlación biserial puntual rpb se calcula mediante la fórmula:

Aquí x 1 es el valor promedio sobre X objetos con un valor de “uno” sobre Y;

x 0 – valor promedio sobre X objetos con un valor de “cero” sobre Y;

s x – desviación estándar de todos los valores a lo largo de X;

n 1 – número de objetos “uno” en Y, n 0 – número de objetos “cero” en Y;

n = n 1 + n 0 – tamaño de la muestra.

El coeficiente de correlación biserial puntual también se puede calcular utilizando otras expresiones equivalentes:

aquí x– valor medio global de la variable incógnita.

Coeficiente de correlación biserial puntual rpb varía de –1 a +1. Su valor es cero si variables con uno Y tener un promedio Y, igual al promedio de variables con cero sobre Y.

Examen hipótesis de significación punto coeficiente de correlación biserial es comprobar hipótesis nulah 0 sobre la igualdad del coeficiente de correlación general a cero: ρ = 0, que se realiza mediante la prueba t de Student. Importancia empírica

comparado con valores críticos t a (df) para el número de grados de libertad df = norte– 2

Si la condición | t| ≤ (df), no se rechaza la hipótesis nula ρ = 0. El coeficiente de correlación biserial puntual difiere significativamente de cero si el valor empírico | t| cae en la región crítica, es decir, si la condición | t| > (norte– 2). Fiabilidad de la relación calculada utilizando el coeficiente de correlación biserial puntual. rpb, también se puede determinar utilizando el criterio χ 2 para el número de grados de libertad df= 2.

Correlación biserial puntual

La modificación posterior del coeficiente de correlación del producto de momentos quedó reflejada en el punto biserial r. Esta estadística. muestra la relación entre dos variables, una de las cuales es supuestamente continua y normalmente distribuida, y la otra es discreta en el sentido estricto de la palabra. El coeficiente de correlación biserial puntual se denota por r pbis Desde en r pbis La dicotomía refleja la verdadera naturaleza de la variable discreta, y no es artificial, como en el caso r Bis, su signo se determina arbitrariamente. Por tanto, a todos los efectos prácticos. objetivos r pbis considerado en el rango de 0,00 a +1,00.

También existe el caso en el que se supone que dos variables son continuas y están distribuidas normalmente, pero ambas están dicotomizadas artificialmente, como en el caso de la correlación biserial. Para evaluar la relación entre dichas variables, se utiliza el coeficiente de correlación tetracórico. r tete, que también fue criado por Pearson. Básico Fórmulas (exactas) y procedimientos de cálculo. r tete bastante complejo. Por lo tanto, con prácticas Este método utiliza aproximaciones. r tete,obtenido sobre la base de procedimientos abreviados y tablas.

/en línea/diccionario/diccionario.php?term=511

COEFICIENTE BISERIAL DE PUNTOS es el coeficiente de correlación entre dos variables, una medida en una escala dicotómica y la otra en una escala de intervalo. Se utiliza en las pruebas clásicas y modernas como indicador de la calidad de una tarea de prueba: confiabilidad y coherencia con la puntuación general de la prueba.

Correlacionar variables medidas en escala dicotómica y de intervalo usar coeficiente de correlación biserial puntual.
El coeficiente de correlación biserial puntual es un método de análisis de correlación de la relación de variables, una de las cuales se mide en una escala de nombres y toma solo 2 valores (por ejemplo, hombres/mujeres, respuesta correcta/respuesta falsa, característica presente/no presente), y el segundo en una escala de razones o escala de intervalo. Fórmula para calcular el coeficiente de correlación biserial puntual:

Dónde:
m1 y m0 son los valores promedio de X con un valor de 1 o 0 en Y.
σx – desviación estándar de todos los valores por X
n1,n0 – número de valores X desde 1 o 0 hasta Y.
n – número total de pares de valores

Muy a menudo, este tipo de coeficiente de correlación se utiliza para calcular la relación entre los ítems de la prueba y la escala total. Este es un tipo de verificación de validez.

39. Coeficiente de correlación biserial de rango.

Sobre correlación en general, ver pregunta No. 36 Con. 56 (64) 063.jpg

harchenko-korranaliz.pdf p. 28

Coeficiente de correlación biserial de rango, utilizado en los casos en que una de las variables ( incógnita) se presenta en escala ordinal, y el otro ( Y) – dicotómico, calculado por la fórmula

.

Aquí está el rango promedio de objetos que tienen uno en Y; – rango promedio de objetos con cero a Y, norte– tamaño de la muestra.

Examen hipótesis de significación El coeficiente de correlación biserial de rango se realiza de manera similar al coeficiente de correlación biserial puntual utilizando la prueba de Student con reemplazo en las fórmulas. rpb en rrb.

En los casos en que una variable se mide en una escala dicotómica (variable INCÓGNITA), y el otro en la escala de rango (variable Y), se utiliza el coeficiente de correlación biserial de rango. Recordemos que la variable INCÓGNITA, medido en una escala dicotómica, toma solo dos valores (códigos) 0 y 1. Destacamos especialmente: a pesar de que este coeficiente varía en el rango de –1 a +1, su signo no importa para la interpretación del resultados. Esta es otra excepción a la regla general.

Este coeficiente se calcula mediante la fórmula:

donde ` incógnita 1 rango promedio para esos elementos de la variable Y, que corresponde al código (signo) 1 en la variable incógnita;

`X 0 – rango promedio para esos elementos de la variable Y, que corresponde al código (signo) 0 en la variable INCÓGNITA\

norte – número total de elementos en la variable INCÓGNITA.

Para aplicar el coeficiente de correlación biserial de rango, se deben cumplir las siguientes condiciones:

1. Las variables que se comparan deben medirse en diferentes escalas: una X – en escala dicotómica; otro Y– en una escala de clasificación.

2. Número de características variables en las variables comparadas incógnita Y Y debería ser el mismo.

3. Para evaluar el nivel de confiabilidad del coeficiente de correlación biserial de rango, se debe utilizar la fórmula (11.9) y la tabla de valores críticos para el criterio de Student. k = norte – 2.

http://psystat.at.ua/publ/drugie_vidy_koehfficienta_korreljacii/1-1-0-38

Casos donde una de las variables está representada en escala dicotómica, y el otro en rango (ordinal), requiere solicitud coeficiente de correlación de rango biserial:

rpb=2 / n * (m1 - m0)

Dónde:
n – número de objetos de medición
m1 y m0: el rango promedio de objetos con 1 o 0 en la segunda variable.
Este coeficiente también se utiliza para comprobar la validez de las pruebas.

40. Coeficiente de correlación lineal.

Para la correlación en general (y la correlación lineal en particular), consulte la pregunta No. 36. Con. 56 (64) 063.jpg

COEFICIENTE DEL SEÑOR PEARSON

r-Pearson (pearson r) se utiliza para estudiar la relación entre dos métricasdiferentes variables medidas en la misma muestra. Hay muchas situaciones en las que su uso es apropiado. ¿La inteligencia afecta el rendimiento académico en los cursos universitarios superiores? ¿El tamaño del salario de un empleado está relacionado con su amabilidad hacia sus colegas? ¿El estado de ánimo de un estudiante afecta el éxito de la resolución de un problema aritmético complejo? Para responder a tales preguntas, el investigador debe medir dos indicadores de interés para cada miembro de la muestra. Luego se tabulan los datos para estudiar la relación, como en el siguiente ejemplo.

EJEMPLO 6.1

La tabla muestra un ejemplo de datos iniciales para medir dos indicadores de inteligencia (verbal y no verbal) para 20 estudiantes de octavo grado.

La relación entre estas variables se puede representar mediante un diagrama de dispersión (ver Figura 6.3). El diagrama muestra que existe cierta relación entre los indicadores medidos: cuanto mayor es el valor de la inteligencia verbal, mayor (en su mayoría) es el valor de la inteligencia no verbal.

Antes de dar la fórmula para el coeficiente de correlación, intentemos rastrear la lógica de su aparición utilizando los datos del ejemplo 6.1. La posición de cada punto / (sujeto con el número /) en el diagrama de dispersión en relación con los otros puntos (Fig. 6.3) se puede especificar mediante los valores y signos de desviaciones de los valores de las variables correspondientes de sus valores promedio. : (xj - mj Y (mente en ). Si los signos de estas desviaciones coinciden, esto indica una relación positiva (valores más grandes para incógnita los valores grandes corresponden a en o valores inferiores incógnita los valores más pequeños corresponden a y).

Para el sujeto No. 1, desviación del promedio. incógnita y por en positivo, y para el sujeto No. 3 ambas desviaciones son negativas. En consecuencia, los datos de ambos indican una relación positiva entre los rasgos estudiados. Por el contrario, si los signos de desviaciones de la media incógnita y por en difieren, esto indicará una relación negativa entre las características. Así, para el sujeto No. 4, la desviación del promedio incógnita es negativo, por y - positivo, y para el sujeto No. 9, viceversa.

Por lo tanto, si el producto de las desviaciones (x,- METRO incógnita ) incógnita (mente en ) positivo, entonces los datos del sujeto / indican una relación directa (positiva), y si es negativo, entonces una relación inversa (negativa). En consecuencia, si incógnitawy y generalmente están relacionados en proporción directa, entonces la mayoría de los productos de las desviaciones serán positivos, y si están relacionados por una relación inversa, entonces la mayoría de los productos serán negativos. Por lo tanto, un indicador general de la fuerza y ​​dirección de la relación puede ser la suma de todos los productos de las desviaciones para una muestra determinada:

Con una relación directamente proporcional entre variables, este valor es grande y positivo; para la mayoría de los sujetos, las desviaciones coinciden en signo (los valores grandes de una variable corresponden a valores grandes de otra variable y viceversa). Si incógnita Y en Si tiene retroalimentación, entonces, para la mayoría de los sujetos, los valores más grandes de una variable corresponderán a valores más pequeños de otra variable, es decir, los signos de los productos serán negativos y la suma de los productos en su conjunto también será grande. en valor absoluto, pero de signo negativo. Si no existe una conexión sistemática entre las variables, entonces los términos positivos (productos de las desviaciones) se equilibrarán con los términos negativos y la suma de todos los productos de las desviaciones será cercana a cero.

Para que la suma de los productos no dependa del tamaño de la muestra, basta con promediarla. Pero lo que nos interesa es la medida de la interconexión no como un parámetro general, sino como una estimación calculada de la misma: la estadística. Por tanto, en cuanto a la fórmula de dispersión, en este caso haremos lo mismo, dividiremos la suma de los productos de las desviaciones no por norte, y en la televisión - 1. Esto da como resultado una medida de conexión, ampliamente utilizada en física y ciencias técnicas, que se llama covarianza (Covahance):


EN En psicología, a diferencia de la física, la mayoría de las variables se miden en escalas arbitrarias, ya que a los psicólogos no les interesa el valor absoluto de un signo, sino la posición relativa de los sujetos en un grupo. Además, la covarianza es muy sensible a la escala (varianza) en la que se miden los rasgos. Para independizar la medida de conexión de las unidades de medida de ambas características, basta con dividir la covarianza en las desviaciones estándar correspondientes. Así se obtuvo para-Mula del coeficiente de correlación de K. Pearson:

o, después de sustituir las expresiones de o x y


Si los valores de ambas variables se convirtieran a valores r usando la fórmula


entonces la fórmula para el coeficiente de correlación r-Pearson parece más simple (071.JPG):

/dict/sociología/article/soc/soc-0525.htm

CORRELACIÓN LINEAL- relación estadística lineal de naturaleza no causal entre dos variables cuantitativas incógnita Y en. Medido utilizando el "coeficiente K.L". Pearson, que es el resultado de dividir la covarianza entre las desviaciones estándar de ambas variables:

,

Dónde s xy- covarianza entre variables incógnita Y en;

s incógnita , s y- desviaciones estándar para variables incógnita Y en;

incógnita i , y i- valores variables incógnita Y en para objeto con número i;

incógnita, y- promedios aritméticos de variables incógnita Y en.

coeficiente de Pearson r puede tomar valores del intervalo [-1; +1]. Significado r = 0 significa que no existe una relación lineal entre las variables incógnita Y en(pero no excluye una relación estadística no lineal). Valores de coeficientes positivos ( r> 0) indican una conexión lineal directa; cuanto más cerca esté su valor de +1, más fuerte será la relación con la línea estadística. Valores de coeficientes negativos ( r < 0) свидетельствуют об обратной линейной связи; чем ближе его значение к -1, тем сильнее обратная связь. Значения r= ±1 significa la presencia de una conexión lineal completa, directa o inversa. En el caso de conexión completa, todos los puntos con coordenadas ( incógnita i , y i) se encuentran en línea recta y = a + bx.

"Coeficiente K.L." Pearson también se utiliza para medir la fuerza de la conexión en un modelo de regresión lineal por pares.

41. Matriz de correlación y gráfico de correlación.

Sobre correlación en general, ver pregunta No. 36 Con. 56 (64) 063.jpg

Matriz de correlación. A menudo, el análisis de correlación incluye el estudio de las conexiones no entre dos, sino entre muchas variables medidas en una escala cuantitativa en una muestra. En este caso, las correlaciones se calculan para cada par de este conjunto de variables. Los cálculos suelen realizarse en una computadora y el resultado es una matriz de correlación.

Matriz de correlación(Correlación Matriz) es el resultado de calcular correlaciones de un tipo para cada par del conjunto R Variables medidas en una escala cuantitativa en una muestra.

EJEMPLO

Supongamos que estamos estudiando relaciones entre 5 variables (vl, v2,..., v5; PAG= 5), medido en una muestra de norte=30 Humano. A continuación se muestra una tabla de datos fuente y una matriz de correlación.

Y
datos similares:

Matriz de correlación:

Es fácil notar que la matriz de correlación es cuadrada, simétrica con respecto a la diagonal principal (takkak,y = /) y), con unidades en la diagonal principal (ya que GRAMO Y = Gu = 1).

La matriz de correlación es cuadrado: el número de filas y columnas es igual al número de variables. Ella simétrico en relación con la diagonal principal, ya que la correlación incógnita Con en igual a correlación en Con INCÓGNITA. Las unidades se ubican en su diagonal principal, ya que la correlación del rasgo consigo mismo es igual a uno. En consecuencia, no todos los elementos de la matriz de correlación están sujetos a análisis, sino aquellos que se ubican por encima o por debajo de la diagonal principal.

Número de coeficientes de correlación, Las características a analizar al estudiar las relaciones están determinadas por la fórmula: PÁGINAS- 1)/2. En el ejemplo anterior, el número de dichos coeficientes de correlación es 5(5 - 1)/2 = 10.

La principal tarea de analizar la matriz de correlación es Identificar la estructura de relaciones entre muchas características. En este caso, el análisis visual es posible. galaxias de correlación- imagen gráfica estructuras estadísticamenteconexiones significativas, si no hay muchas de estas conexiones (hasta 10-15). Otra forma es utilizar métodos multivariados: regresión múltiple, análisis factorial o de cluster (ver apartado “Métodos multivariados...”). Mediante el análisis factorial o de conglomerados, es posible identificar agrupaciones de variables que están más estrechamente relacionadas entre sí que con otras variables. Una combinación de estos métodos también es muy eficaz, por ejemplo, si hay muchos signos y no son homogéneos.

Comparación de correlaciones - una tarea adicional de analizar la matriz de correlación, que tiene dos opciones. Si es necesario comparar correlaciones en una de las filas de la matriz de correlación (para una de las variables), se utiliza el método de comparación para muestras dependientes (p. 148-149). Al comparar correlaciones del mismo nombre calculadas para diferentes muestras, se utiliza el método de comparación para muestras independientes (págs. 147-148).

Métodos de comparación correlaciones en diagonales matriz de correlación (para evaluar la estacionariedad de un proceso aleatorio) y comparación varios Las matrices de correlación obtenidas para diferentes muestras (por su homogeneidad) requieren mucha mano de obra y están fuera del alcance de este libro. Puede familiarizarse con estos métodos en el libro de G.V. Sukhodolsky 1.

El problema de la significación estadística de las correlaciones. El problema es que el procedimiento para la prueba de hipótesis estadísticas supone uno-múltiple prueba realizada sobre una muestra. Si se aplica el mismo método repetidamente, incluso si en relación con diferentes variables, aumenta la probabilidad de obtener un resultado puramente casual. En general, si repetimos el mismo método de prueba de hipótesis una vez en relación con diferentes variables o muestras, entonces con el valor establecido a tenemos la garantía de recibir la confirmación de la hipótesis en ahk número de casos.

Supongamos que se analiza una matriz de correlación para 15 variables, es decir, se calculan 15(15-1)/2 = 105 coeficientes de correlación. Para probar hipótesis, se establece el nivel a = 0,05. Al verificar la hipótesis 105 veces, recibiremos su confirmación cinco veces (!), independientemente de si la conexión realmente existe. Sabiendo esto y teniendo, digamos, 15 coeficientes de correlación “estadísticamente significativos”, ¿podemos decir cuáles de ellos se obtuvieron por casualidad y cuáles reflejan una relación real?

Estrictamente hablando, para tomar una decisión estadística es necesario reducir el nivel a tantas veces como el número de hipótesis que se están probando. Pero esto no es aconsejable, ya que la probabilidad de ignorar una conexión realmente existente (cometer un error de tipo II) aumenta de forma impredecible.

La matriz de correlación por sí sola no es una base suficientepara conclusiones estadísticas sobre los coeficientes individuales incluidos en élcorrelaciones!

Sólo hay una forma verdaderamente convincente de resolver este problema: dividir la muestra aleatoriamente en dos partes y tener en cuenta sólo aquellas correlaciones que sean estadísticamente significativas en ambas partes de la muestra. Una alternativa puede ser el uso de métodos multivariados (análisis factorial, de conglomerados o de regresión múltiple) para identificar y posteriormente interpretar grupos de variables relacionadas estadísticamente de manera significativa.

Problema de valores faltantes. Si faltan valores en los datos, entonces son posibles dos opciones para calcular la matriz de correlación: a) eliminación de valores fila por fila (Excluircasosde lista); b) eliminación de valores por pares (Excluircasospor pares). En eliminación línea por línea observaciones con valores faltantes, se elimina toda la fila de un objeto (sujeto) que tiene al menos un valor faltante para una de las variables. Este método conduce a una matriz de correlación "correcta" en el sentido de que todos los coeficientes se calculan a partir del mismo conjunto de objetos. Sin embargo, si los valores faltantes se distribuyen aleatoriamente en las variables, entonces este método puede llevar al hecho de que no quede ni un solo objeto en el conjunto de datos considerado (habrá al menos un valor faltante en cada fila) . Para evitar esta situación, utilice otro método llamado eliminación por pares. Este método solo considera las brechas en cada par de columna-variable seleccionado e ignora las brechas en otras variables. La correlación para un par de variables se calcula para aquellos objetos donde no hay brechas. En muchas situaciones, especialmente cuando el número de brechas es relativamente pequeño, digamos 10%, y las brechas se distribuyen de manera bastante aleatoria, este método no conduce a errores graves. Sin embargo, a veces este no es el caso. Por ejemplo, un sesgo (desplazamiento) sistemático en la evaluación puede “ocultar” una disposición sistemática de omisiones, lo que es la razón de la diferencia en los coeficientes de correlación construidos para diferentes subconjuntos (por ejemplo, para diferentes subgrupos de objetos). Otro problema asociado con la matriz de correlación calculada con por pares La eliminación de brechas se produce cuando se utiliza esta matriz en otros tipos de análisis (por ejemplo, en regresión múltiple o análisis factorial). Suponen que se utiliza la matriz de correlación "correcta" con un cierto nivel de coherencia y "cumplimiento" de varios coeficientes. El uso de una matriz con estimaciones "malas" (sesgadas) conduce al hecho de que el programa no puede analizar dicha matriz o los resultados serán erróneos. Por lo tanto, si se utiliza el método por pares para excluir los datos faltantes, es necesario comprobar si existen patrones sistemáticos en la distribución de los datos faltantes.

Si la eliminación por pares de datos faltantes no conduce a ningún cambio sistemático en las medias y las varianzas (desviaciones estándar), entonces estas estadísticas serán similares a las calculadas utilizando el método fila por fila para eliminar datos faltantes. Si se observa una diferencia significativa, entonces hay motivos para suponer que hay un cambio en las estimaciones. Por ejemplo, si el promedio (o desviación estándar) de los valores de una variable A, que se utilizó para calcular su correlación con la variable EN, mucho menor que la media (o desviación estándar) de los mismos valores de la variable A, que se utilizaron para calcular su correlación con la variable C, entonces hay muchas razones para esperar que estas dos correlaciones (A-Ba nosotros) basándose en diferentes subconjuntos de datos. Habrá un sesgo en las correlaciones causado por la colocación no aleatoria de espacios en los valores de las variables.

Análisis de galaxias de correlación. Después de resolver el problema de la significancia estadística de los elementos de la matriz de correlación, las correlaciones estadísticamente significativas se pueden representar gráficamente en forma de galaxia o galaxia de correlación. Galaxia de correlación - Esta es una figura que consta de vértices y líneas que los conectan. Los vértices corresponden a las características y generalmente se designan con números: números variables. Las líneas corresponden a conexiones estadísticamente significativas y expresan gráficamente el signo y, a veces, el nivel j de significancia de la conexión.

La galaxia de correlación puede reflejar Todo conexiones estadísticamente significativas de la matriz de correlación (a veces llamada gráfico de correlación ) o solo su parte seleccionada significativamente (por ejemplo, correspondiente a un factor según los resultados del análisis factorial).

EJEMPLO DE CONSTRUCCIÓN DE UNA PLEIADA DE CORRELACIÓN


Preparación para la certificación estatal (final) de los graduados: formación de la base de datos del Examen Estatal Unificado (lista general de participantes del Examen Estatal Unificado de todas las categorías, indicando materias), teniendo en cuenta los días de reserva en el caso de las mismas materias;

  • Plan de trabajo (27)

    Solución

    2. Actividades de la institución educativa para mejorar el contenido y evaluar la calidad de las materias de educación científica y matemática Institución educativa municipal escuela secundaria No. 4, Litvinovskaya, Chapaevskaya,

  • Correlación de rango de Spearman(correlación de rango). La correlación de rangos de Spearman es la forma más sencilla de determinar el grado de relación entre factores. El nombre del método indica que la relación se determina entre rangos, es decir, series de valores cuantitativos obtenidos, clasificados en orden descendente o ascendente. Hay que tener en cuenta que, en primer lugar, no se recomienda la correlación de rangos si la conexión entre pares es inferior a cuatro y superior a veinte; en segundo lugar, la correlación de rango permite determinar la relación en otro caso, si los valores son de naturaleza semicuantitativa, es decir, no tienen una expresión numérica y reflejan un orden claro de aparición de estos valores; en tercer lugar, es aconsejable utilizar la correlación de rangos en los casos en que sea suficiente para obtener datos aproximados. Un ejemplo de cálculo del coeficiente de correlación de rango para determinar la pregunta: el cuestionario mide X e Y cualidades personales similares de los sujetos. Utilizando dos cuestionarios (X e Y), que requieren respuestas alternativas "sí" o "no", se obtuvieron los resultados primarios: las respuestas de 15 sujetos (N = 10). Los resultados se presentaron como la suma de las respuestas afirmativas por separado para el cuestionario X y el cuestionario B. Estos resultados se resumen en la tabla. 5.19.

    Tabla 5.19. Tabulación de resultados primarios para calcular el coeficiente de correlación de rango de Spearman (p) *

    Análisis de la matriz de correlación resumen. Método de correlación de galaxias.

    Ejemplo. en la mesa La figura 6.18 muestra interpretaciones de once variables que se prueban utilizando el método Wechsler. Los datos se obtuvieron de una muestra homogénea de edades comprendidas entre 18 y 25 años (n = 800).

    Antes de la estratificación, es aconsejable clasificar la matriz de correlación. Para ello, en la matriz original se calculan los valores medios de los coeficientes de correlación de cada variable con todas las demás.

    Luego según la tabla. 5.20 determinar los niveles aceptables de estratificación de la matriz de correlación con una probabilidad de confianza dada de 0,95 y n - cantidades

    Tabla 6.20. Matriz de correlación ascendente

    variables 1 2 3 4 quería 0 7 8 0 10 11 M(rij) Rango
    1 1 0,637 0,488 0,623 0,282 0,647 0,371 0,485 0,371 0,365 0,336 0,454 1
    2 1 0,810 0,557 0,291 0,508 0,173 0,486 0,371 0,273 0,273 0,363 4
    3 1 0,346 0,291 0,406 0,360 0,818 0,346 0,291 0,282 0,336 7
    4 1 0,273 0,572 0,318 0,442 0,310 0,318 0,291 0,414 3
    5 1 0,354 0,254 0,216 0,236 0,207 0,149 0,264 11
    6 1 0,365 0,405 0,336 0,345 0,282 0,430 2
    7 1 0,310 0,388 0,264 0,266 0,310 9
    8 1 0,897 0,363 0,388 0,363 5
    9 1 0,388 0,430 0,846 6
    10 1 0,336 0,310 8
    11 1 0,300 10

    Designaciones: 1 - conciencia general; 2 - conceptualidad; 3 - atención; 4 - vdataness K de generalización; b - memorización directa (en números) 6 - nivel de dominio de la lengua materna; 7 - velocidad de dominio de las habilidades sensoriomotoras (codificación de símbolos) 8 - observación; 9 - habilidades combinatorias (para análisis y síntesis) 10 - capacidad para organizar partes en un todo significativo; 11 - capacidad de síntesis heurística; M (rij) - el valor promedio de los coeficientes de correlación de la variable con otras variables de observación (en nuestro caso n = 800): r (0) - el valor del plano cero "de disección" - el valor absoluto mínimo significativo de la coeficiente de correlación (n - 120, r (0) = 0,236; n = 40, r (0) = 0,407) | Δar | - paso de estratificación permitido (n = 40, | Δr | = 0,558) en - número permitido de niveles de estratificación (n = 40, s = 1; n = 120, s = 2); r (1), r (2), ..., r (9) - valor absoluto del plano de corte (n = 40, r (1) = 0,965).

    Para n = 800, encontramos el valor de gtype y los límites de gi, después de lo cual estratificamos la matriz de correlación, resaltando las galaxias de correlación dentro de las capas, o partes separadas de la matriz de correlación, dibujando asociaciones de galaxias de correlación para las capas superpuestas (Fig. 5.5).

    Un análisis significativo de las galaxias resultantes va más allá de la estadística matemática. Cabe señalar que existen dos indicadores formales que ayudan con la interpretación significativa de las Pléyades. Un indicador importante es el grado de un vértice, es decir, el número de aristas adyacentes a un vértice. La variable con mayor número de aristas es el “núcleo” de la galaxia y puede considerarse como un indicador del resto de variables de esta galaxia. Otro indicador significativo es la densidad de comunicación. Una variable puede tener menos conexiones en una galaxia, pero más cercanas, y más conexiones en otra galaxia, pero menos cercanas.

    Predicciones y estimaciones. La ecuación y = b1x + b0 se llama ecuación general de la recta. Indica que los pares de puntos (x, y), que

    Arroz. 5.5. Galaxias de correlación obtenidas por estratificación matricial.

    se encuentran en una determinada línea, conectada de tal manera que para cualquier valor x, el valor b emparejado con él se puede encontrar multiplicando x por un cierto número b1 y sumando en segundo lugar, el número b0 a este producto.

    El coeficiente de regresión le permite determinar el grado de cambio en el factor de investigación cuando el factor causal cambia en una unidad. Los valores absolutos caracterizan la relación entre factores variables por sus valores absolutos. El coeficiente de regresión se calcula mediante la fórmula:

    Diseño y análisis de experimentos. El diseño y análisis de experimentos es la tercera rama importante de los métodos estadísticos desarrollados para encontrar y probar relaciones causales entre variables.

    Para estudiar las dependencias multifactoriales, recientemente se han utilizado cada vez más métodos de diseño experimental matemático.

    La capacidad de variar simultáneamente todos los factores le permite: a) reducir el número de experimentos;

    b) reducir el error experimental al mínimo;

    c) simplificar el procesamiento de los datos recibidos;

    d) garantizar la claridad y facilidad de comparación de los resultados.

    Cada factor puede adquirir un cierto número correspondiente de valores diferentes, que se denominan niveles y se denotan -1, 0 y 1. Un conjunto fijo de niveles de factores determina las condiciones de uno de los posibles experimentos.

    La totalidad de todas las combinaciones posibles se calcula mediante la fórmula:

    Un experimento factorial completo es un experimento en el que se implementan todas las combinaciones posibles de niveles de factores. Los experimentos factoriales completos pueden tener la propiedad de ortogonalidad. Con la planificación ortogonal, los factores del experimento no están correlacionados; los coeficientes de regresión que finalmente se calculan se determinan de forma independiente unos de otros.

    Una ventaja importante del método de planificación experimental matemática es su versatilidad e idoneidad en muchas áreas de investigación.

    Consideremos un ejemplo de comparación de la influencia de algunos factores en la formación del nivel de estrés mental en los controladores de televisores en color.

    El experimento se basa en un Diseño 2 ortogonal tres (tres factores cambian en dos niveles).

    El experimento se realizó con una parte completa 2+3 con tres repeticiones.

    La planificación ortogonal se basa en la construcción de una ecuación de regresión. Por tres factores se ve así:

    El procesamiento de los resultados en este ejemplo incluye:

    a) construcción de una tabla de cálculo en planta ortogonal 2+3;

    b) cálculo de coeficientes de regresión;

    c) comprobar su importancia;

    d) interpretación de los datos obtenidos.

    Para los coeficientes de regresión de la ecuación mencionada fue necesario poner N = 2 3 = 8 opciones para poder evaluar la significancia de los coeficientes, donde el número de repeticiones K fue 3.

    La matriz de planificación del experimento se compiló y tenía este aspecto:

    Esta calculadora a continuación calcula el coeficiente de correlación de rango de Spearman entre dos variables aleatorias. La parte teórica es tradicional debajo de la calculadora.

    agregar importar_exportar modo_editar borrar

    Cambios de variables aleatorias.

    flecha_arribaflecha_hacia abajo flecha_arribaflecha_hacia abajo
    Artículos por página: 5 10 20 50 100 chevron_izquierda chevron_right

    Cambios de variables aleatorias.

    Importar datos Error de importación

    "Uno de los siguientes caracteres se utiliza para separar campos de datos: tabulación, punto y coma (;) o coma (,)" Ejemplo: -50,5;-50,5

    Importar Atrás Cancelar

    Dígitos después del punto decimal: 4

    Calcular

    Coeficiente de correlación de Spearman

    Ahorrar compartir extensión

    El método de cálculo del coeficiente de correlación de rangos de Spearman es en realidad bastante simple. Es como si estuviera diseñado el coeficiente de correlación de Pearson, pero no solo para mediciones de variables aleatorias sino para ellas. valores de clasificación.

    Sólo tenemos que entender cuál es el valor del rango y por qué todo esto es necesario.

    Si los elementos de una serie variacional están dispuestos en orden ascendente o descendente, eso rango del elemento será su número en serie ordenada.

    Por ejemplo, tenemos una serie variable (17,26,5,14,21). Ordenemos sus elementos en orden descendente (26,21,17,14,5). 26 tiene un rango de 1, 21 - rango de 2 y así sucesivamente. Las series variacionales de valores de clasificación se verán así (3,1,5,4,2).

    Es decir. al calcular el coeficiente de Spearman, las series de variación iniciales se convierten en series variacionales de valores de clasificación y luego se les aplica la fórmula de Pearson.
    .
    Hay una sutileza: el rango de los valores repetidos se toma como el promedio de los rangos. Es decir, para una serie (17, 15, 14, 15) la serie de clasificación se verá así (1, 2,5, 4, 2,5), ya que el primer elemento 15 tiene el rango 2 y el segundo, el rango 3, y.

    Si no tiene los valores repetidos, es decir, todos los valores de la serie de clasificación (los números entre 1 y n), la fórmula de Pearson se puede simplificar a

    Por cierto, esta fórmula se utiliza a menudo como fórmula para calcular el coeficiente de Spearman.

    ¿Cuál es la esencia de la transición de los valores mismos a su valor jerárquico?
    Al investigar la correlación de los valores de clasificación, se puede encontrar qué tan bien una función monótona describe la dependencia de las dos variables.

    El signo del coeficiente indica la dirección de la relación entre variables. Si el signo es positivo los valores de Y tienen tendencia a aumentar con el aumento de X. Si el signo es negativo los valores de Y tienen tendencia a disminuir con el aumento de X. Si el coeficiente es 0 hay Entonces no hay tendencia. Si el coeficiente es igual a 1 o -1, la relación entre X e Y tiene apariencia de función monótona, es decir con el aumento de X, Y también aumenta y viceversa.

    Es decir, a diferencia del coeficiente de correlación de Pearson, que sólo puede detectar la relación lineal de una variable con respecto a otra, el coeficiente de correlación de Spearman puede detectar una dependencia monótona, donde no se puede revelar la relación lineal directa.

    He aquí un ejemplo.
    Déjame explicarte con un ejemplo. Supongamos que examinamos la función y=10/x.
    Tenemos las siguientes medidas de X e Y
    {{1,10}, {5,2}, {10,1}, {20,0.5}, {100,0.1}}
    Para estos datos, el coeficiente de correlación de Pearson es igual a -0,4686, es decir la relación es débil o ausente. Y el coeficiente de correlación de Spearman es estrictamente igual a -1, como si le insinuara al investigador que Y tiene una dependencia monótona fuertemente negativa de X.

    Breve teoría

    La correlación de rango es un método de análisis de correlación que refleja las relaciones de variables ordenadas por valor creciente.

    Los rangos son los números de serie de unidades agregadas en una serie clasificada. Si clasificamos una población según dos características, cuya relación se está estudiando, entonces la coincidencia completa de rangos significa la conexión directa más cercana posible, y el completo opuesto de rangos significa la retroalimentación más cercana posible. Es necesario clasificar ambas características en el mismo orden: ya sea de valores más pequeños de la característica a valores más grandes, o viceversa.

    A efectos prácticos, el uso de la correlación de rangos resulta muy útil. Por ejemplo, si se establece una correlación de alto rango entre dos características cualitativas de los productos, entonces basta con controlar los productos solo por una de las características, lo que reduce el costo y acelera el control.

    El coeficiente de correlación de rangos, propuesto por K. Spearman, se refiere a una medida no paramétrica de la relación entre variables medidas en una escala de rangos. Al calcular este coeficiente, no se requieren suposiciones sobre la naturaleza de las distribuciones de características en la población. Este coeficiente determina el grado de cercanía de la conexión entre las características ordinales, que en este caso representan los rangos de las cantidades comparadas.

    El valor del coeficiente de correlación de Spearman se encuentra en el rango de +1 y -1. Puede ser positivo o negativo y caracteriza la dirección de la relación entre dos características medidas en una escala de rango.

    El coeficiente de correlación de rangos de Spearman se calcula mediante la fórmula:

    Diferencia entre rangos en dos variables

    número de pares coincidentes

    El primer paso para calcular el coeficiente de correlación de rango es clasificar la serie de variables. El procedimiento de clasificación comienza ordenando las variables en orden ascendente de sus valores. A diferentes valores se les asignan rangos, indicados por números naturales. Si hay varias variables de igual valor, se les asigna un rango promedio.

    La ventaja del coeficiente de correlación de rango de Spearman es que es posible clasificar según características que no se pueden expresar numéricamente: es posible clasificar a los candidatos para un determinado puesto por nivel profesional, por capacidad para liderar un equipo, por encanto personal, etc. Con las evaluaciones de expertos es posible clasificar las evaluaciones de diferentes expertos y encontrar sus correlaciones entre sí, para luego excluir de la consideración las evaluaciones de los expertos que están débilmente correlacionadas con las evaluaciones de otros expertos. El coeficiente de correlación de rangos de Spearman se utiliza para evaluar la estabilidad de la tendencia. La desventaja del coeficiente de correlación de rangos es que las mismas diferencias en los rangos pueden corresponder a diferencias completamente diferentes en los valores de las características (en el caso de características cuantitativas). Por tanto, para este último, la correlación de rangos debe considerarse una medida aproximada de la cercanía de la conexión, que es menos informativa que el coeficiente de correlación de los valores numéricos de las características.

    Ejemplo de solución de problema

    Condición problemática

    Una encuesta realizada a 10 estudiantes seleccionados al azar que viven en una residencia universitaria revela la relación entre la puntuación media de la sesión anterior y el número de horas semanales que el estudiante dedica al estudio independiente.

    Determine la fuerza de la relación utilizando el coeficiente de correlación de rangos de Spearman.

    Si tiene dificultades para resolver problemas, el sitio brinda ayuda en línea a los estudiantes de estadística con pruebas o exámenes caseros.

    solución del problema

    Calculemos el coeficiente de correlación de rango.

    que van Comparación de rango diferencia de rango 1 26 4.7 8 1 3.1 1 8 10 -2 4 2 22 4.4 10 2 3.6 2 7 9 -2 4 3 8 3.8 12 3 3.7 3 1 4 -3 9 4 12 3.7 15 4 3.8 4 3 3 0 0 5 15 4.2 17 5 3.9 5 4 7 -3 9 6 30 4.3 20 6 4 6 9 8 1 1 7 20 3.6 22 7 4.2 7 6 2 4 16 8 31 4 26 8 4.3 8 10 6 4 16 9 10 3.1 30 9 4.4 9 2 1 1 1 10 17 3.9 31 10 4.7 10 5 5 0 0 Suma 60

    Coeficiente de correlación de rangos de Spearman:

    Sustituyendo valores numéricos obtenemos:

    Conclusión del problema.

    La relación entre el GPA de la sesión anterior y el número de horas semanales que el estudiante dedica al estudio independiente es moderadamente fuerte.

    Si se está quedando sin tiempo para completar una prueba, siempre puede solicitar una solución urgente a los problemas de estadísticas en el sitio web.

    Promedio el costo de resolver una prueba es de 700 a 1200 rublos (pero no menos de 300 rublos por todo el pedido). El precio está muy influenciado por la urgencia de la decisión (desde un día hasta varias horas). El coste de la ayuda en línea para un examen/prueba es de 1000 rublos. para resolver el ticket.

    Podrás realizar todas las dudas sobre el coste directamente en el chat, habiendo enviado previamente las condiciones de la tarea e informado el plazo necesario para la solución. El tiempo de respuesta es de unos minutos.

    Ejemplos de problemas relacionados

    proporción de Fechner
    Se proporciona una breve teoría y se considera un ejemplo de cómo resolver el problema de calcular el coeficiente de correlación del signo de Fechner.

    Coeficientes de contingencia mutua de Chuprov y Pearson.
    La página contiene información sobre métodos para estudiar las relaciones entre características cualitativas utilizando los coeficientes de contingencia mutua de Chuprov y Pearson.

    ​ El coeficiente de correlación de rangos de Spearman es un método no paramétrico que se utiliza para estudiar estadísticamente la relación entre fenómenos. En este caso, se determina el grado real de paralelismo entre las dos series cuantitativas de las características estudiadas y se evalúa la cercanía de la conexión establecida mediante un coeficiente expresado cuantitativamente.

    1. Historia del desarrollo del coeficiente de correlación de rangos.

    Este criterio fue desarrollado y propuesto para el análisis de correlación en 1904. Carlos Eduardo Spearman, psicólogo inglés, profesor de las universidades de Londres y Chesterfield.

    2. ¿Para qué se utiliza el coeficiente de Spearman?

    El coeficiente de correlación de rangos de Spearman se utiliza para identificar y evaluar la cercanía de la relación entre dos series de datos comparados. indicadores cuantitativos. En el caso de que las filas de indicadores, ordenados por grado de aumento o disminución, en la mayoría de los casos coincidan (un valor mayor de un indicador corresponde a un valor mayor de otro indicador; por ejemplo, al comparar la altura y el peso corporal del paciente), se concluye que existe directo conexión de correlación. Si los rangos de indicadores tienen la dirección opuesta (un valor más alto de un indicador corresponde a un valor más bajo de otro; por ejemplo, al comparar la edad y la frecuencia cardíaca), luego hablan de contrarrestar conexiones entre indicadores.

      El coeficiente de correlación de Spearman tiene las siguientes propiedades:
    1. El coeficiente de correlación puede tomar valores de menos uno a uno, y con rs=1 existe una relación estrictamente directa, y con rs= -1 existe una relación estrictamente de retroalimentación.
    2. Si el coeficiente de correlación es negativo, entonces existe una relación de retroalimentación; si es positivo, entonces existe una relación directa.
    3. Si el coeficiente de correlación es cero, entonces prácticamente no existe conexión entre las cantidades.
    4. Cuanto más cercano a la unidad esté el módulo del coeficiente de correlación, más fuerte será la relación entre las cantidades medidas.

    3. ¿En qué casos se puede utilizar el coeficiente de Spearman?

    Debido a que el coeficiente es un método. análisis no paramétrico, no es necesario realizar pruebas de distribución normal.

    Se pueden medir indicadores comparables tanto en escala continua(por ejemplo, la cantidad de glóbulos rojos en 1 μl de sangre), y en ordinal(por ejemplo, puntos de valoración de expertos del 1 al 5).

    La efectividad y calidad de la evaluación de Spearman disminuye si la diferencia entre los diferentes valores de cualquiera de las cantidades medidas es lo suficientemente grande. No se recomienda utilizar el coeficiente de Spearman si existe una distribución desigual de los valores de la cantidad medida.

    4. ¿Cómo calcular el coeficiente de Spearman?

    El cálculo del coeficiente de correlación de rango de Spearman incluye los siguientes pasos:

    5. ¿Cómo interpretar el valor del coeficiente de Spearman?

    Cuando se utiliza el coeficiente de correlación de rango, la cercanía de la conexión entre características se evalúa condicionalmente, considerando valores de coeficiente iguales a 0,3 o menos como indicadores de conexión débil; los valores superiores a 0,4, pero inferiores a 0,7 son indicadores de una cercanía de conexión moderada, y los valores de 0,7 o más son indicadores de una cercanía de conexión alta.

    La significación estadística del coeficiente obtenido se evalúa mediante la prueba t de Student. Si el valor calculado de la prueba t es menor que el valor tabulado para un número determinado de grados de libertad, la relación observada no es estadísticamente significativa. Si es mayor, entonces la correlación se considera estadísticamente significativa.



    ¿Te gustó el artículo? ¡Comparte con tus amigos!