La diferencia entre los indicadores es mínima y no estadísticamente significativa. Ocultar significación estadística

En cualquier situación científica y práctica de un experimento (encuesta), los investigadores no pueden estudiar a todas las personas (población general, población), sino solo una muestra determinada. Por ejemplo, incluso si estamos estudiando un grupo relativamente pequeño de personas, como aquellas que padecen una enfermedad particular, es muy poco probable que tengamos los recursos adecuados o la necesidad de realizar pruebas a cada paciente. En cambio, es común analizar una muestra de la población porque es más conveniente y requiere menos tiempo. Si es así, ¿cómo sabemos que los resultados obtenidos de la muestra son representativos de todo el grupo? O, para usar terminología profesional, ¿podemos estar seguros de que nuestra investigación describe correctamente toda la situación? población, ¿la muestra que utilizamos?

Para responder a esta pregunta, es necesario determinar la significancia estadística de los resultados de la prueba. Significancia estadística (Nivel significante, abreviado sig.), o nivel de significancia /7 (nivel p) - es la probabilidad de que un resultado dado represente correctamente la población de la cual se tomó la muestra del estudio. Tenga en cuenta que esto es sólo probabilidad- es imposible decir con absoluta certeza que un estudio determinado describe correctamente a toda la población. En el mejor de los casos, el nivel de significancia sólo puede concluir que esto es muy probable. Por lo tanto, surge inevitablemente la siguiente pregunta: ¿qué nivel de significancia debe tener antes de que un resultado determinado pueda considerarse una caracterización correcta de la población?

Por ejemplo, ¿a qué valor de probabilidad está usted dispuesto a decir que esas posibilidades son suficientes para correr un riesgo? ¿Qué pasa si las probabilidades son 10 sobre 100 o 50 sobre 100? ¿Qué pasa si esta probabilidad es mayor? ¿Qué pasa con probabilidades como 90 sobre 100, 95 sobre 100 o 98 sobre 100? Para una situación de riesgo, esta elección es bastante problemática, porque depende de las características personales de la persona.

En psicología, tradicionalmente se cree que una probabilidad de 95 o más sobre 100 significa que la probabilidad de que los resultados sean correctos es lo suficientemente alta como para que sean generalizables a toda la población. Esta cifra se estableció en el proceso de la actividad científica y práctica: no existe una ley según la cual deba elegirse como guía (y de hecho, en otras ciencias a veces se eligen otros valores del nivel de significancia).

En psicología, esta probabilidad se opera de una manera un tanto inusual. En lugar de la probabilidad de que la muestra represente a la población, la probabilidad de que la muestra no representa población. En otras palabras, es la probabilidad de que la relación o diferencias observadas sean aleatorias y no una propiedad de la población. Entonces, en lugar de decir que hay una probabilidad de 95 entre 100 de que los resultados de un estudio sean correctos, los psicólogos dicen que hay una probabilidad de 5 entre 100 de que los resultados sean incorrectos (así como una probabilidad de 40 entre 100 de que los resultados sean correctos significa una probabilidad de 60 entre 100 a favor de su incorrección). El valor de probabilidad a veces se expresa como porcentaje, pero más a menudo se escribe como fracción decimal. Por ejemplo, 10 posibilidades sobre 100 se expresan como una fracción decimal de 0,1; 5 de 100 se escribe como 0,05; 1 de cada 100 - 0,01. Con esta forma de registro el valor límite es 0,05. Para que un resultado se considere correcto, su nivel de significancia debe ser abajo este número (recuerde, esta es la probabilidad de que el resultado equivocado describe la población). Para dejar de lado la terminología, agreguemos que la “probabilidad de que el resultado sea incorrecto” (que se llama más correctamente Nivel significativo) generalmente denotado por una letra latina r. Las descripciones de los resultados experimentales suelen incluir una declaración resumida como "los resultados fueron significativos en el nivel de confianza". (R(p) menos de 0,05 (es decir, menos del 5%).

Por lo tanto, el nivel de significancia ( R) indica la probabilidad de que los resultados No representan a la población. Tradicionalmente en psicología, se considera que los resultados reflejan de manera confiable el panorama general si el valor R menos del 0,05 (es decir, el 5%). Sin embargo, esto es sólo una afirmación probabilística y no una garantía incondicional. En algunos casos esta conclusión puede no ser correcta. De hecho, podemos calcular con qué frecuencia esto podría suceder si observamos la magnitud del nivel de significancia. Con un nivel de significancia de 0,05, es probable que 5 de cada 100 veces los resultados sean incorrectos. 11a a primera vista parece que esto no es muy común, pero si lo piensas bien, entonces 5 posibilidades de 100 es lo mismo que 1 de 20. Es decir, en uno de cada 20 casos el resultado será incorrecto. Estas probabilidades no parecen particularmente favorables y los investigadores deben tener cuidado de no cometer errores del primer tipo. Así se llama el error que se produce cuando los investigadores creen que han encontrado resultados reales, pero en realidad no es así. El error contrario, que consiste en que los investigadores creen que no han encontrado un resultado, pero en realidad lo hay, se llama errores del segundo tipo.

Estos errores surgen porque no se puede descartar la posibilidad de que el análisis estadístico realizado. La probabilidad de error depende del nivel de significancia estadística de los resultados. Ya hemos señalado que para que un resultado se considere correcto, el nivel de significancia debe ser inferior a 0,05. Por supuesto, algunos resultados son inferiores a eso y no es raro ver resultados tan bajos como 0,001 (un valor de 0,001 significa que hay una probabilidad de 1 entre 1000 de que los resultados sean incorrectos). Cuanto menor sea el valor p, mayor será nuestra confianza en la exactitud de los resultados.

En mesa 7.2 muestra la interpretación tradicional de los niveles de significancia sobre la posibilidad de inferencia estadística y el fundamento de la decisión sobre la presencia de una relación (diferencias).

Tabla 7.2

Interpretación tradicional de los niveles de significancia utilizados en psicología.

Con base en la experiencia de la investigación práctica, se recomienda: para evitar al máximo los errores del primer y segundo tipo, al sacar conclusiones importantes, se deben tomar decisiones sobre la presencia de diferencias (conexiones), centrándose en el nivel. R n signo.

prueba estadistica(Prueba estadística - es una herramienta para determinar el nivel de significación estadística. Esta es una regla decisiva que garantiza que se acepte una hipótesis verdadera y se rechace una hipótesis falsa con alta probabilidad.

Los criterios estadísticos también denotan el método para calcular un determinado número y el número en sí. Todos los criterios se utilizan con un propósito principal: determinar Nivel significativo los datos que analizan (es decir, la probabilidad de que los datos reflejen un efecto real que represente correctamente la población de la que se extrae la muestra).

Algunas pruebas solo se pueden utilizar para datos distribuidos normalmente (y si el rasgo se mide en una escala de intervalo); estas pruebas generalmente se denominan paramétrico. Con otros criterios, puede analizar datos con casi cualquier ley de distribución; se denominan no paramétrico.

Los criterios paramétricos son criterios que incluyen parámetros de distribución en la fórmula de cálculo, es decir, medias y varianzas (prueba t de Student, prueba F de Fisher, etc.).

Los criterios no paramétricos son criterios que no incluyen parámetros de distribución en la fórmula para calcular los parámetros de distribución y se basan en operar con frecuencias o rangos (criterio q Criterio de Rosenbaum Ud. Maná - Whitney

Por ejemplo, cuando decimos que la importancia de las diferencias fue determinada por la prueba t de Student, queremos decir que se utilizó el método de la prueba t de Student para calcular el valor empírico, que luego se compara con el valor tabulado (crítico).

Por la relación entre los valores empíricos (calculados por nosotros) y críticos del criterio (tabulares) podemos juzgar si nuestra hipótesis está confirmada o refutada. En la mayoría de los casos, para que reconozcamos las diferencias como significativas, es necesario que el valor empírico del criterio supere el valor crítico, aunque existen criterios (por ejemplo, la prueba de Mann-Whitney o la prueba de signos) en los que debemos atenernos a la regla opuesta.

En algunos casos, la fórmula de cálculo del criterio incluye el número de observaciones en la muestra en estudio, denotado como PAG. Utilizando una tabla especial, determinamos a qué nivel de significación estadística de las diferencias corresponde un valor empírico determinado. En la mayoría de los casos, el mismo valor empírico del criterio puede ser significativo o insignificante dependiendo del número de observaciones en la muestra en estudio ( PAG ) o del llamado numero de grados de libertad , que se denota como v (g>) o cómo df (A veces d).

Conocimiento PAG o el número de grados de libertad, utilizando tablas especiales (las principales se dan en el Apéndice 5) podemos determinar los valores críticos del criterio y comparar con ellos el valor empírico obtenido. Esto generalmente se escribe así: “cuando norte = 22 valores críticos del criterio son t St = 2,07" o "en v (d) = 2 valores críticos de la prueba de Student son = 4.30”, etc.

Por lo general, todavía se da preferencia a los criterios paramétricos y nosotros mantenemos esta posición. Se consideran más fiables y pueden proporcionar más información y análisis más profundos. En cuanto a la complejidad de los cálculos matemáticos, cuando se utilizan programas informáticos esta complejidad desaparece (aunque algunas otras parecen, sin embargo, bastante superables).

  • En este libro de texto no consideramos en detalle el problema de la estadística.
  • hipótesis (nula - R0 y alternativa - Hj) y decisiones estadísticas tomadas, ya que los estudiantes de psicología estudian esto por separado en la disciplina "Métodos matemáticos en psicología". Además, cabe señalar que al preparar un informe de investigación (trabajo de curso o diploma, publicación), por regla general, no se dan hipótesis estadísticas ni soluciones estadísticas. Por lo general, al describir los resultados, indican el criterio, proporcionan las estadísticas descriptivas necesarias (medias, sigma, coeficientes de correlación, etc.), valores empíricos de los criterios, grados de libertad y necesariamente el nivel p de significancia. Luego se formula una conclusión significativa con respecto a la hipótesis que se está probando, indicando (generalmente en forma de desigualdad) el nivel de significancia alcanzado o no alcanzado.

CONFIABILIDAD ESTADÍSTICA

- Inglés credibilidad/validez, estadística; Alemán Validación estadística. Coherencia, objetividad y falta de ambigüedad en una prueba estadística o en un q.l. conjunto de medidas. D. s. se puede probar repitiendo la misma prueba (o cuestionario) sobre el mismo tema para ver si se obtienen los mismos resultados; o comparando diferentes partes de una prueba que se supone mide el mismo objeto.

Antinazi. Enciclopedia de Sociología, 2009

Vea qué es “CONFIABILIDAD ESTADÍSTICA” en otros diccionarios:

    CONFIABILIDAD ESTADÍSTICA- Inglés credibilidad/validez, estadística; Alemán Validación estadística. Coherencia, objetividad y falta de ambigüedad en una prueba estadística o en un q.l. conjunto de medidas. D. s. se puede verificar repitiendo la misma prueba (o... Diccionario explicativo de sociología.

    En estadística, un valor se denomina estadísticamente significativo si la probabilidad de que ocurra por casualidad o incluso por valores más extremos es baja. Aquí, por extremo nos referimos al grado de desviación de las estadísticas de prueba de la hipótesis nula. La diferencia se llama... ... Wikipedia

    El fenómeno físico de la estabilidad estadística es que a medida que aumenta el tamaño de la muestra, la frecuencia de un evento aleatorio o el valor promedio de una cantidad física tiende a algún número fijo. El fenómeno de la estadística... ... Wikipedia

    FIABILIDAD DE LAS DIFERENCIAS (Similitudes)- procedimiento estadístico analítico para establecer el nivel de significancia de diferencias o similitudes entre muestras según los indicadores (variables) estudiados ... Proceso educativo moderno: conceptos y términos básicos.

    INFORMES ESTADÍSTICOS Gran diccionario de contabilidad

    INFORMES ESTADÍSTICOS- una forma de observación estadística estatal, en la que los organismos pertinentes reciben de las empresas (organizaciones e instituciones) la información que necesitan en forma de documentos de presentación de informes legalmente establecidos (informes estadísticos) para... Gran diccionario económico

    Una ciencia que estudia métodos de observación sistemática de fenómenos masivos en la vida social humana, compilando descripciones numéricas de los mismos y el procesamiento científico de estas descripciones. Por tanto, la estadística teórica es una ciencia... ... Diccionario enciclopédico F.A. Brockhaus y I.A. Efrón

    Coeficiente de correlación- (Coeficiente de correlación) El coeficiente de correlación es un indicador estadístico de la dependencia de dos variables aleatorias Definición del coeficiente de correlación, tipos de coeficientes de correlación, propiedades del coeficiente de correlación, cálculo y aplicación... ... Enciclopedia de inversores

    Estadísticas- (Estadística) La estadística es una ciencia teórica general que estudia los cambios cuantitativos en fenómenos y procesos. Estadísticas estatales, servicios estadísticos, Rosstat (Goskomstat), datos estadísticos, estadísticas de consultas, estadísticas de ventas,... ... Enciclopedia de inversores

    Correlación- (Correlación) La correlación es una relación estadística entre dos o más variables aleatorias. El concepto de correlación, tipos de correlación, coeficiente de correlación, análisis de correlación, correlación de precios, correlación de pares de divisas en Forex Contenidos... ... Enciclopedia de inversores

Libros

  • Investigación en matemáticas y matemáticas en la investigación: Colección metodológica sobre las actividades de investigación de los estudiantes, Borzenko V.I.. La colección presenta desarrollos metodológicos aplicables en la organización de las actividades de investigación de los estudiantes. La primera parte de la colección está dedicada a la aplicación de un enfoque de investigación en...

Si no actúa, la sala no servirá de nada. (Shota Rustaveli)

Términos y conceptos básicos de estadística médica.

En este artículo presentaremos algunos conceptos estadísticos clave que son relevantes al realizar investigaciones médicas. Los términos se analizan con más detalle en los artículos pertinentes.

Variación

Definición. El grado de dispersión de los datos (valores de atributos) en el rango de valores.

Probabilidad

Definición. La probabilidad es el grado de posibilidad de que ocurra un determinado evento bajo ciertas condiciones.

Ejemplo. Expliquemos la definición del término en la frase "La probabilidad de recuperación cuando se usa el medicamento Arimidex es del 70%". El evento es "recuperación del paciente", la condición "el paciente toma Arimidex", el grado de posibilidad es del 70% (en términos generales, de 100 personas que toman Arimidex, 70 se recuperan).

Probabilidad acumulada

Definición. La probabilidad acumulada de sobrevivir en el momento t es la misma que la proporción de pacientes vivos en ese momento.

Ejemplo. Si decimos que la probabilidad acumulada de supervivencia después de un tratamiento de cinco años es 0,7, esto significa que del grupo de pacientes considerado, el 70% del número inicial permaneció vivo y el 30% murió. Es decir, de cada cien personas, 30 murieron en los primeros cinco años.

Tiempo antes del evento

Definición. El tiempo antes de un evento es el tiempo, expresado en algunas unidades, que ha transcurrido desde algún punto inicial en el tiempo hasta que ocurre algún evento.

Explicación. Las unidades de tiempo en la investigación médica son días, meses y años.

Ejemplos típicos de tiempos iniciales:

    comenzar a monitorear al paciente

    Tratamiento quirúrgico

Ejemplos típicos de los eventos considerados:

    enfermedad progresiva

    ocurrencia de recaída

    muerte del paciente

Muestra

Definición. La parte de una población obtenida por selección.

Con base en los resultados del análisis de la muestra, se extraen conclusiones sobre toda la población, lo cual es válido solo si la selección fue aleatoria. Dado que es prácticamente imposible realizar una selección aleatoria de una población, se deben hacer esfuerzos para garantizar que la muestra sea al menos representativa de la población.

Muestras dependientes e independientes.

Definición. Muestras en las que los sujetos del estudio fueron reclutados de forma independiente unos de otros. Una alternativa a las muestras independientes son las muestras dependientes (conectadas, emparejadas).

Hipótesis

Hipótesis bilaterales y unilaterales.

Primero, expliquemos el uso del término hipótesis en estadística.

El propósito de la mayoría de las investigaciones es probar la veracidad de alguna afirmación. El propósito de las pruebas de drogas suele ser probar la hipótesis de que un medicamento es más eficaz que otro (por ejemplo, Arimidex es más eficaz que el tamoxifeno).

Para garantizar el rigor del estudio, la afirmación que se verifica se expresa matemáticamente. Por ejemplo, si A es el número de años que vivirá un paciente que toma Arimidex y T es el número de años que vivirá un paciente que toma tamoxifeno, entonces la hipótesis que se está probando se puede escribir como A>T.

Definición. Una hipótesis se llama bilateral si consiste en la igualdad de dos cantidades.

Un ejemplo de hipótesis bilateral: A=T.

Definición. Una hipótesis se llama unilateral (unilateral) si consiste en la desigualdad de dos cantidades.

Ejemplos de hipótesis unilaterales:

Datos dicotómicos (binarios)

Definición. Datos expresados ​​por sólo dos valores alternativos válidos

Ejemplo: El paciente está “sano” - “enfermo”. Edema "es" - "no".

Intervalo de confianza

Definición. El intervalo de confianza para una cantidad es el rango alrededor del valor de la cantidad en el que se encuentra el valor real de esa cantidad (con un cierto nivel de confianza).

Ejemplo. Sea la cantidad en estudio el número de pacientes por año. En promedio, su número es 500 y el intervalo de confianza del 95% es (350, 900). Esto significa que, lo más probable (con una probabilidad del 95%), al menos 350 y no más de 900 personas se comunicarán con la clínica durante el año.

Designación. Una abreviatura muy utilizada es: IC 95% es un intervalo de confianza con un nivel de confianza del 95%.

Fiabilidad, significación estadística (nivel P)

Definición. La significación estadística de un resultado es una medida de confianza en su "verdad".

Cualquier investigación se lleva a cabo basándose sólo en una parte de los objetos. El estudio de la eficacia de un fármaco no se lleva a cabo sobre la base de todos los pacientes del planeta, sino solo sobre un determinado grupo de pacientes (es simplemente imposible realizar un análisis sobre la base de todos los pacientes).

Supongamos que como resultado del análisis se llegó a una determinada conclusión (por ejemplo, el uso de Arimidex como terapia adecuada es 2 veces más eficaz que el tamoxifeno).

La pregunta que hay que hacerse es: “¿Cuánto se puede confiar en este resultado?”

Imaginemos que realizamos un estudio basado en sólo dos pacientes. Por supuesto, en este caso los resultados deben tomarse con cautela. Si se examinó a un gran número de pacientes (el valor numérico de un "gran número" depende de la situación), entonces ya se puede confiar en las conclusiones extraídas.

Entonces, el grado de confianza está determinado por el valor del nivel p (valor p).

Un nivel p más alto corresponde a un nivel más bajo de confianza en los resultados obtenidos del análisis de la muestra. Por ejemplo, un nivel p igual a 0,05 (5%) indica que la conclusión extraída del análisis de un determinado grupo es sólo una característica aleatoria de estos objetos con una probabilidad de sólo el 5%.

En otras palabras, con una probabilidad muy alta (95%) la conclusión se puede extender a todos los objetos.

Muchos estudios consideran que el 5% es un valor de nivel p aceptable. Esto significa que si, por ejemplo, p = 0,01, entonces se puede confiar en los resultados, pero si p = 0,06, entonces no se puede confiar.

Estudiar

Estudio prospectivo Es un estudio en el que se seleccionan muestras en base a un factor inicial y se analiza algún factor resultante en las muestras.

Estudio retrospectivo Es un estudio en el que se seleccionan muestras en función de un factor resultante y se analiza algún factor inicial en las muestras.

Ejemplo. El factor inicial es una mujer embarazada menor/mayor de 20 años. El factor resultante es que el niño pesa menos o pesa más de 2,5 kg. Analizamos si el peso del niño depende de la edad de la madre.

Si reclutamos 2 muestras, una con madres menores de 20 años y la otra con madres mayores, y luego analizamos la masa de niños en cada grupo, entonces este es un estudio prospectivo.

Si reclutamos 2 muestras, en una, madres que dieron a luz a niños que pesaban menos de 2,5 kg, en la otra, más pesadas, y luego analizamos la edad de las madres en cada grupo, entonces este es un estudio retrospectivo (naturalmente, tal estudio sólo se puede llevar a cabo cuando se completa el experimento, es decir, cuando nacieron todos los niños).

éxodo

Definición. Un fenómeno, indicador de laboratorio o signo clínicamente significativo que sirve como objeto de interés para el investigador. Al realizar ensayos clínicos, los resultados sirven como criterio para evaluar la eficacia de una intervención terapéutica o preventiva.

Epidemiología clínica

Definición. Ciencia que permite predecir un resultado particular para cada paciente específico basándose en el estudio del curso clínico de la enfermedad en casos similares utilizando métodos científicos estrictos de estudio de los pacientes para garantizar la precisión de las predicciones.

Grupo

Definición. Un grupo de participantes en un estudio unidos por alguna característica común en el momento de su formación y estudiados durante un largo período de tiempo.

Control

Control histórico

Definición. Se formó y examinó un grupo de control en el período anterior al estudio.

control paralelo

Definición. Se formó un grupo de control simultáneamente con la formación del grupo principal.

Correlación

Definición. Una relación estadística entre dos características (cuantitativa u ordinal), que muestra que un valor mayor de una característica en una determinada parte de los casos corresponde a un valor mayor - en el caso de una correlación positiva (directa) - de la otra característica o a un valor menor. valor - en el caso de una correlación negativa (inversa).

Ejemplo. Se encontró una correlación significativa entre los niveles de plaquetas y leucocitos en la sangre del paciente. El coeficiente de correlación es 0,76.

Coeficiente de riesgo (RR)

Definición. La razón de riesgo es la relación entre la probabilidad de que ocurra algún evento ("malo") para el primer grupo de objetos y la probabilidad de que ocurra el mismo evento para el segundo grupo de objetos.

Ejemplo. Si la probabilidad de desarrollar cáncer de pulmón en los no fumadores es del 20% y en los fumadores del 100%, entonces la CR será igual a una quinta parte. En este ejemplo, el primer grupo de objetos son no fumadores, el segundo grupo son fumadores y la aparición de cáncer de pulmón se considera un evento "malo".

Es obvio que:

1) si KR = 1, entonces la probabilidad de que un evento ocurra en grupos es la misma

2) si KP>1, entonces el evento ocurre más a menudo con objetos del primer grupo que del segundo

3) si kr<1, то событие чаще происходит с объектами из второй группы, чем из первой

Metaanálisis

Definición. CON análisis estadístico que resume los resultados de varios estudios que investigan el mismo problema (generalmente la efectividad del tratamiento, la prevención, los métodos de diagnóstico). La agrupación de estudios proporciona una muestra más grande para el análisis y un mayor poder estadístico para los estudios combinados. Se utiliza para aumentar la evidencia o la confianza en una conclusión sobre la efectividad del método en estudio.

Método de Kaplan-Meier (estimaciones del multiplicador de Kaplan-Meier)

Este método fue inventado por los estadísticos E.L. Kaplan y Paul Meyer.

El método se utiliza para calcular varias cantidades asociadas con el tiempo de observación de un paciente. Ejemplos de tales cantidades:

    probabilidad de recuperación dentro de un año cuando se usa el medicamento

    probabilidad de recaída después de la cirugía dentro de los tres años posteriores a la cirugía

    probabilidad acumulada de supervivencia a cinco años entre pacientes con cáncer de próstata después de la amputación de un órgano

Expliquemos las ventajas de utilizar el método Kaplan-Meier.

Los valores de los valores en el análisis "convencional" (sin utilizar el método de Kaplan-Meier) se calculan dividiendo el intervalo de tiempo considerado en intervalos.

Por ejemplo, si estudiamos la probabilidad de muerte de un paciente dentro de 5 años, entonces el intervalo de tiempo se puede dividir en 5 partes (menos de 1 año, 1-2 años, 2-3 años, 3-4 años, 4- 5 años), así y por 10 (seis meses cada uno), o por otro número de intervalos. Los resultados para diferentes particiones serán diferentes.

Elegir la partición más adecuada no es tarea fácil.

Las estimaciones de los valores obtenidos mediante el método de Kaplan-Meier no dependen de la división del tiempo de observación en intervalos, sino que dependen únicamente del tiempo de vida de cada paciente individual.

Por lo tanto, es más fácil para el investigador realizar el análisis y los resultados suelen ser mejores que los del análisis "convencional".

La curva de Kaplan-Meier es una gráfica de la curva de supervivencia obtenida mediante el método de Kaplan-Meier.

modelo cox

Este modelo fue inventado por Sir David Roxby Cox (n. 1924), un famoso estadístico inglés, autor de más de 300 artículos y libros.

El modelo de Cox se utiliza en situaciones donde las cantidades estudiadas en el análisis de supervivencia dependen de funciones del tiempo. Por ejemplo, la probabilidad de recaída después de t años (t=1,2,...) puede depender del logaritmo del tiempo log(t).

Una ventaja importante del método propuesto por Cox es la aplicabilidad de este método en una gran cantidad de situaciones (el modelo no impone restricciones estrictas sobre la naturaleza o forma de la distribución de probabilidad).

A partir del modelo de Cox se puede realizar un análisis (llamado análisis de Cox), cuyo resultado es el valor del coeficiente de riesgo y el intervalo de confianza para el coeficiente de riesgo.

Métodos estadísticos no paramétricos.

Definición. Clase de métodos estadísticos que se utilizan principalmente para el análisis de datos cuantitativos que no forman una distribución normal, así como para el análisis de datos cualitativos.

Ejemplo. Para identificar la importancia de las diferencias en la presión sistólica de los pacientes según el tipo de tratamiento utilizaremos la prueba no paramétrica de Mann-Whitney.

Signo (variable)

Definición. X características del objeto de estudio (observación). Hay características cualitativas y cuantitativas.

Aleatorización

Definición. Un método para distribuir aleatoriamente objetos de investigación en los grupos principal y de control utilizando medios especiales (tablas o contador de números aleatorios, lanzamiento de moneda y otros métodos para asignar aleatoriamente un número de grupo a una observación incluida). La aleatorización minimiza las diferencias entre grupos sobre características conocidas y desconocidas que potencialmente influyen en el resultado que se estudia.

Riesgo

Atributivo- riesgo adicional de un resultado desfavorable (por ejemplo, enfermedad) debido a la presencia de una determinada característica (factor de riesgo) en el tema del estudio. Esta es la porción del riesgo de desarrollar una enfermedad que está asociada, explicada y puede eliminarse si se elimina el factor de riesgo.

Riesgo relativo- la relación entre el riesgo de una condición desfavorable en un grupo y el riesgo de esta condición en otro grupo. Se utiliza en estudios prospectivos y observacionales cuando los grupos se forman con anticipación y aún no se ha producido la aparición de la condición en estudio.

examen continuo

Definición. Un método para verificar la estabilidad, confiabilidad y desempeño (validez) de un modelo estadístico eliminando secuencialmente observaciones y recalculando el modelo. Cuanto más similares sean los modelos resultantes, más estable y fiable será el modelo.

Evento

Definición. El resultado clínico observado en el estudio, como la aparición de una complicación, recaída, recuperación o muerte.

Estratificación

Definición. METRO una técnica de muestreo en la que la población de todos los participantes que cumplen con los criterios de inclusión para un estudio se divide primero en grupos (estratos) en función de una o más características (generalmente sexo, edad) que potencialmente influyen en el resultado de interés, y luego de cada una de Los participantes de estos grupos (estrato) se reclutan de forma independiente en los grupos experimental y de control. Esto permite al investigador equilibrar características importantes entre los grupos experimental y de control.

Mesa de contingencia

Definición. Una tabla de frecuencias absolutas (números) de observaciones, cuyas columnas corresponden a los valores de una característica y las filas, a los valores de otra característica (en el caso de una tabla de contingencia bidimensional). Los valores de frecuencia absoluta se encuentran en celdas en la intersección de filas y columnas.

Pongamos un ejemplo de tabla de contingencia. La cirugía de aneurisma se realizó en 194 pacientes. Se conoce la gravedad del edema en pacientes antes de la cirugía.

Edema\ Resultado

sin hinchazón 20 6 26
hinchazón moderada 27 15 42
edema pronunciado 8 21 29
mj 55 42 194

Así, de 26 pacientes sin edema, 20 sobrevivieron después de la cirugía y 6 pacientes murieron. De los 42 pacientes con edema moderado, 27 sobrevivieron, 15 murieron, etc.

Prueba de chi-cuadrado para tablas de contingencia

Para determinar la importancia (confiabilidad) de las diferencias en un signo dependiendo de otro (por ejemplo, el resultado de una operación dependiendo de la gravedad del edema), se utiliza la prueba de chi-cuadrado para tablas de contingencia:


Oportunidad

Sea la probabilidad de algún evento igual a p. Entonces la probabilidad de que el evento no ocurra es 1-p.

Por ejemplo, si la probabilidad de que un paciente siga vivo después de cinco años es de 0,8 (80%), entonces la probabilidad de que muera durante este período es de 0,2 (20%).

Definición. La probabilidad es la relación entre la probabilidad de que ocurra un evento y la probabilidad de que no ocurra.

Ejemplo. En nuestro ejemplo (sobre un paciente), la probabilidad es 4, ya que 0,8/0,2=4

Por tanto, la probabilidad de recuperación es 4 veces mayor que la probabilidad de muerte.

Interpretación del valor de una cantidad.

1) Si probabilidad = 1, entonces la probabilidad de que ocurra un evento es igual a la probabilidad de que el evento no ocurra;

2) si Probabilidad >1, entonces la probabilidad de que ocurra el evento es mayor que la probabilidad de que no ocurra;

3) si oportunidad<1, то вероятность наступления события меньше вероятности того, что событие не произойдёт.

Razón de probabilidades

Definición. La razón de probabilidades es la razón de probabilidades para el primer grupo de objetos con respecto a la razón de probabilidades para el segundo grupo de objetos.

Ejemplo. Supongamos que tanto hombres como mujeres se someten a algún tratamiento.

La probabilidad de que un paciente varón siga vivo después de cinco años es de 0,6 (60%); la probabilidad de que muera durante este período de tiempo es de 0,4 (40%).

Probabilidades similares para las mujeres son 0,8 y 0,2.

La razón de probabilidades en este ejemplo es

Interpretación del valor de una cantidad.

1) Si el odds ratio = 1, entonces la probabilidad para el primer grupo es igual a la probabilidad para el segundo grupo.

2) Si el odds ratio es >1, entonces la probabilidad para el primer grupo es mayor que la probabilidad para el segundo grupo.

3) Si el odds ratio<1, то шанс для первой группы меньше шанса для второй группы

Consideremos un ejemplo típico de la aplicación de métodos estadísticos en medicina. Los creadores del fármaco sugieren que aumenta la diuresis en proporción a la dosis tomada. Para probar esta hipótesis, administran a cinco voluntarios diferentes dosis del fármaco.

Según los resultados de la observación, se traza una gráfica de diuresis versus dosis (fig. 1.2A). La dependencia es visible a simple vista. Los investigadores se felicitan unos a otros por el descubrimiento y al mundo por el nuevo diurético.

De hecho, los datos sólo nos permiten afirmar de forma fiable que se observó una diuresis dosis-dependiente en estos cinco voluntarios. El hecho de que esta dependencia se manifestará en todas las personas que toman el medicamento no es más que una suposición.
zy

Con

vida No se puede decir que sea infundado; de lo contrario, ¿por qué realizar experimentos?

Pero la droga salió a la venta. Cada vez más personas lo toman con la esperanza de aumentar su producción de orina. Entonces ¿Qué vemos? Vemos la Figura 1.2B, que indica la ausencia de cualquier conexión entre la dosis del fármaco y la diuresis. Los círculos negros indican datos del estudio original. La estadística tiene métodos que nos permiten estimar la probabilidad de obtener una muestra tan “poco representativa” y, de hecho, confusa. Resulta que, en ausencia de una conexión entre la diuresis y la dosis del fármaco, la “dependencia” resultante se observaría en aproximadamente 5 de cada 1000 experimentos. Entonces, en este caso, los investigadores simplemente no tuvieron suerte. Incluso si hubieran utilizado los métodos estadísticos más avanzados, eso no les habría impedido cometer errores.

Hemos dado este ejemplo ficticio, pero nada alejado de la realidad, para no señalar la inutilidad.
ness de las estadísticas. Habla de otra cosa, del carácter probabilístico de sus conclusiones. Como resultado de aplicar el método estadístico, no obtenemos la verdad última, sino sólo una estimación de la probabilidad de un supuesto particular. Además, cada método estadístico se basa en su propio modelo matemático y sus resultados son correctos en la medida en que dicho modelo se corresponda con la realidad.

Más sobre el tema CONFIABILIDAD Y SIGNIFICADO ESTADÍSTICO:

  1. Diferencias estadísticamente significativas en los indicadores de calidad de vida.
  2. Población estadística. Características contables. El concepto de investigación continua y selectiva. Requisitos para datos estadísticos y el uso de documentos contables y de informes.
  3. ABSTRACTO. ESTUDIO DE CONFIABILIDAD DE LAS INDICACIONES DE TONÓMETRO PARA MEDIR LA PRESIÓN INTRAOCULAR A TRAVÉS DEL PÁRPADO 2018, 2018

Las principales características de cualquier relación entre variables.

Podemos observar las dos propiedades más simples de la relación entre variables: (a) la magnitud de la relación y (b) la confiabilidad de la relación.

- Magnitud . La magnitud de la dependencia es más fácil de entender y medir que la confiabilidad. Por ejemplo, si algún hombre de la muestra tenía un valor de recuento de glóbulos blancos (WCC) superior al de cualquier mujer, entonces se puede decir que la relación entre las dos variables (Género y WCC) es muy alta. En otras palabras, se podrían predecir los valores de una variable a partir de los valores de otra.

- Fiabilidad ("verdad"). La confiabilidad de la interdependencia es un concepto menos intuitivo que la magnitud de la dependencia, pero es extremadamente importante. La confiabilidad de la relación está directamente relacionada con la representatividad de una determinada muestra a partir de la cual se extraen conclusiones. En otras palabras, la confiabilidad se refiere a la probabilidad de que una relación sea redescubierta (en otras palabras, confirmada) utilizando datos de otra muestra extraída de la misma población.

Cabe recordar que el objetivo final casi nunca es estudiar esta muestra particular de valores; una muestra sólo es de interés en la medida en que proporciona información sobre toda la población. Si el estudio satisface ciertos criterios específicos, entonces la confiabilidad de las relaciones encontradas entre las variables de la muestra se puede cuantificar y presentar utilizando una medida estadística estándar.

La magnitud de la dependencia y la confiabilidad representan dos características diferentes de las dependencias entre variables. Sin embargo, no se puede decir que sean completamente independientes. Cuanto mayor sea la magnitud de la relación (conexión) entre variables en una muestra de tamaño normal, más confiable será (ver la siguiente sección).

La significancia estadística de un resultado (nivel p) es una medida estimada de confianza en su “verdad” (en el sentido de “representatividad de la muestra”). Más técnicamente hablando, el nivel p es una medida que varía en orden de magnitud decreciente con la confiabilidad del resultado. Un nivel p más alto corresponde a un nivel más bajo de confianza en la relación entre las variables encontradas en la muestra. Es decir, el nivel p representa la probabilidad de error asociada con la distribución del resultado observado a toda la población.

Por ejemplo, nivel p = 0,05(es decir, 1/20) indica que existe un 5% de posibilidades de que la relación entre las variables encontradas en la muestra sea solo una característica aleatoria de la muestra. En muchos estudios, un nivel p de 0,05 se considera un "margen aceptable" para el nivel de error.

No hay forma de evitar la arbitrariedad a la hora de decidir qué nivel de significancia debería considerarse realmente "significativo". La elección de un cierto nivel de significancia por encima del cual los resultados se rechazan como falsos es bastante arbitraria.



En la práctica, la decisión final suele depender de si el resultado fue predicho a priori (es decir, antes de realizar el experimento) o descubierto a posteriori como resultado de muchos análisis y comparaciones realizadas sobre una variedad de datos, así como sobre la base de datos. tradición del campo de estudio.

Generalmente, en muchos campos, un resultado de p .05 es un límite aceptable para la significación estadística, pero tenga en cuenta que este nivel aún incluye un margen de error bastante grande (5%).

Los resultados significativos al nivel de p 0,01 generalmente se consideran estadísticamente significativos, mientras que los resultados al nivel de p 0,005 o p 0,00 generalmente se consideran estadísticamente significativos. 001 como muy significativo. Sin embargo, debe entenderse que esta clasificación de niveles de significancia es bastante arbitraria y es sólo un acuerdo informal adoptado sobre la base de la experiencia práctica. en un campo de estudio particular.

Está claro que cuanto mayor sea el número de análisis que se realicen sobre la totalidad de los datos recopilados, mayor será el número de resultados significativos (en el nivel seleccionado) que se descubrirán puramente por casualidad.

Algunos métodos estadísticos que implican muchas comparaciones y, por lo tanto, tienen una probabilidad significativa de repetir este tipo de error, realizan un ajuste o corrección especial para el número total de comparaciones. Sin embargo, muchos métodos estadísticos (especialmente los métodos simples de análisis de datos exploratorios) no ofrecen ninguna forma de resolver este problema.

Si la relación entre variables es “objetivamente” débil, entonces no hay otra manera de probar dicha relación que estudiar una muestra grande. Incluso si la muestra es perfectamente representativa, el efecto no será estadísticamente significativo si la muestra es pequeña. Del mismo modo, si una relación es “objetivamente” muy fuerte, entonces puede detectarse con un alto grado de significancia incluso en una muestra muy pequeña.

Cuanto más débil sea la relación entre las variables, mayor será el tamaño de muestra necesario para detectarla de manera significativa.

Muchas diferentes medidas de relación entre variables. La elección de una medida particular en un estudio particular depende del número de variables, las escalas de medición utilizadas, la naturaleza de las relaciones, etc.

Sin embargo, la mayoría de estas medidas siguen un principio general: intentan estimar una relación observada comparándola con la “relación máxima concebible” entre las variables en cuestión. Técnicamente hablando, la forma habitual de hacer este tipo de estimaciones es observar cómo varían los valores de las variables y luego calcular qué parte de la variación total presente puede explicarse por la presencia de una variación "común" ("conjunta") en dos (o más) variables.

La importancia depende principalmente del tamaño de la muestra. Como ya se explicó, en muestras muy grandes incluso las relaciones muy débiles entre variables serán significativas, mientras que en muestras pequeñas incluso las relaciones muy fuertes no son confiables.

Así, para determinar el nivel de significancia estadística se necesita una función que represente la relación entre la “magnitud” y la “significancia” de la relación entre variables para cada tamaño de muestra.

Tal función indicaría exactamente “qué probabilidad hay de obtener una dependencia de un valor dado (o más) en una muestra de un tamaño dado, suponiendo que no existe tal dependencia en la población”. En otras palabras, esta función daría un nivel de significancia
(nivel p), y, por tanto, la probabilidad de rechazar erróneamente el supuesto de ausencia de esta dependencia en la población.

Esta hipótesis "alternativa" (que no existe relación en la población) suele denominarse hipótesis nula.

Sería ideal si la función que calcula la probabilidad de error fuera lineal y solo tuviera pendientes diferentes para diferentes tamaños de muestra. Lamentablemente, esta función es mucho más compleja y no siempre es exactamente igual. Sin embargo, en la mayoría de los casos su forma es conocida y puede usarse para determinar niveles de significancia en estudios de muestras de un tamaño determinado. La mayoría de estas funciones están asociadas con una clase de distribuciones llamadas normal .



¿Te gustó el artículo? ¡Compartir con tus amigos!