Glosario de términos estadísticos
- 80% rango central
- El rango entre el percentil 10 y 90 (en este rango se encuentran el 80% de los valores).
- 90% rango central
- El rango entre el percentil 5 y 95 (en este rango se encuentran el 90% de los valores).
- 95% rango central
- El rango entre los percentiles 2,5 y 97,5 (en este rango se encuentran el 95% de los valores).
A
- Alfa de Cronbach
- Medida de la fiabilidad de la consistencia interna. Calcula la correlación media entre todos los ítems de una escala o cuestionario.
- Análisis de series temporales
- Una técnica estadística que trata datos ordenados temporalmente para identificar tendencias y patrones estacionales.
- Análisis de supervivencia
- El análisis de supervivencia es un método estadístico que se utiliza para analizar datos de tiempo transcurrido hasta el evento, donde el evento de interés suele ser la muerte, la progresión de la enfermedad o la recuperación. Calcula el tiempo hasta que ocurre un evento y tiene en cuenta censura.
- Análisis de varianza (regresión)
- La tabla de análisis de varianza divide la variación total en la variable dependiente en dos componentes, uno que puede atribuirse al modelo de regresión (denominado Regresión) y otro que no (denominado Residual), y calcula una estadística F correspondiente.
- Análisis de varianza de dos vías
- Método para analizar el efecto de dos factores cualitativos sobre uno variable dependiente.
- Análisis de varianza unidireccional
- Ver ANOVA (Análisis de varianza).
- Análisis factorial
- Una técnica utilizada para reducir los datos a un conjunto más pequeño de variables de resumen e identificar relaciones subyacentes.
- Análisis multivariado
- Un método estadístico utilizado para analizar datos que involucran múltiples variables para comprender las relaciones.
- ANCOVA (Análisis de covarianza)
- Un modelo lineal general con una variable de resultado continua (cuantitativa) y una o más variables factoriales (cualitativas).
- ANOVA (Análisis de varianza)
- ANOVA se utiliza para comparar medias entre múltiples grupos para determinar si al menos la media de un grupo es significativamente diferente de las demás.
- ANOVA de medidas repetidas
- Compara medias en múltiples puntos de tiempo o condiciones dentro de los mismos sujetos.
- Área bajo la curva ROC (AUC)
- El área bajo la curva ROC (AUC) mide la capacidad de un clasificador para distinguir entre clases, y varía de 0,5 (aleatorio) a 1,0 (discriminación perfecta).
- Área bajo la curva ROC (AUC)
- El área bajo la curva ROC (AUC) mide la capacidad de un clasificador para distinguir entre clases, y varía de 0,5 (aleatorio) a 1,0 (discriminación perfecta).
- Área parcial bajo la curva ROC
- El área parcial bajo la curva ROC Resume una parte de la curva ROC en un intervalo de interés predefinido. Este intervalo puede ser de especificidad o de sensibilidad.
B
- Barra X ($ \bar{X}$)
- La media muestral.
- Bondad de ajuste
- Cuantificación de qué tan bien un modelo se ajusta a los datos observados.
C
- Censura
- En el análisis de supervivencia, la censura ocurre cuando el momento exacto del evento (por ejemplo, muerte, recaída de una enfermedad) es desconocido para algunos sujetos del estudio. Esto sucede porque el estudio termina antes de que ocurra el evento, el participante se pierde durante el seguimiento o se retira del estudio.
- Cociente de riesgo
- El cociente de riesgos es una medida estadística utilizada principalmente en el análisis de supervivencia para comparar la probabilidad de que ocurra un evento en un momento dado entre dos grupos.
- Coeficiente Beta
- Una medida de la influencia de un variable independiente en un variable dependiente en regresión análisis.
- Coeficiente de contingencia
- Una medida de asociación basada en el Chi-cuadrado. Este coeficiente siempre está entre 0 y 1, pero generalmente no es posible que alcance el valor 1. El valor máximo posible depende del número de filas y columnas de una tabla.
- Coeficiente de correlación de orden cero
- El simple coeficiente de correlación Para el variable dependiente y todas las variables independientes por separado.
- Coeficiente de correlación de Pearson
- Esto mide la linealidad correlación entre dos variables, produciendo un valor entre -1 y 1.
- Coeficiente de correlación
- Una medida de la fuerza y dirección de la relación entre dos variables.
- Coeficiente de determinación
- En regresión análisis, el coeficiente de determinación indica la proporción de la varianza en una variable que puede asociarse con la varianza de la otra. Puede oscilar entre 0 y 1.
- Coeficiente de repetibilidad
- Se define como 1,96 veces las desviaciones estándar de las diferencias entre dos mediciones (ver Diagramma de Bland-Altman).
- Coeficiente de variación
- Ver Desviación estándar relativa (DER).
- Coeficientes de regresión
- El regresión Los coeficientes indican el cambio esperado en la variable dependiente para un cambio de una unidad en el variable independiente. Por ejemplo, en el regresión múltiple ecuación $ y = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 +\...\ + b_k x_k $, los valores $b_1\... \ b_n$ son los coeficientes de regresión.
- Control estadístico de calidad (SQC)
- Un conjunto de técnicas y herramientas utilizadas para supervisar y controlar un proceso para garantizar que funcione a su máximo potencial.
- Corrección de Yates
- Una corrección aplicada en pruebas de chi-cuadrado para continuidad, particularmente con tablas de contingencia 2x2.
- Correlación de rangos de Spearman
- Una medida no paramétrica de correlación que evalúa qué tan bien se puede describir la relación entre dos variables mediante una función monótona.
- Correlación de rangos
- Método para estudiar la relación entre dos variables que no se distribuyen normalmente o entre variables ordinales.
- Correlación parcial
- Examina la relación entre dos variables mientras controla una tercera.
- Correlación
- La correlación entre dos variables x e y mide su estrecha relación, o su relación lineal. La correlación mide hasta qué punto un cambio en una variable aleatoria tiende a corresponderse con un cambio en la otra.
- Covarianza
- Una medida de la variabilidad conjunta de dos variables aleatorias.
- Cuartiles
- Los cuartiles dividen un conjunto de datos ordenado en cuatro partes iguales y corresponden a los percentiles 25, 50 y 75.
- Curtosis
- La curtosis es una medida del grado de cola en la distribución de la variable.
- Curva de Kaplan-Meier
- Un gráfico escalonado que estima la supervivencia probabilidad a lo largo del tiempo, y eso explica censurado datos.
- Curva de precisión-recuperación
- Una curva de precisión-recuperación es un gráfico de la precisión (valor predictivo positivo, eje y) frente a la recuperación (sensibilidad, eje x) para diferentes umbrales. Es una alternativa para... curva ROC.
- Curva ROC
- Una curva característica operativa del receptor (ROC) es un gráfico que ilustra el rendimiento de un modelo de clasificador binario en valores de umbral variables.
D
- Datos cualitativos
- Los datos cualitativos son medidas de «tipos» y pueden representarse mediante un nombre, un símbolo o un número. Véase también Datos cuantitativos.
- Datos cuantitativos
- Los datos cuantitativos son medidas de valores o conteos y se expresan como números. Véase también Datos cualitativos.
- Datos nominales
- Observaciones codificadas alfanuméricamente, pero sin un orden claro, p. ej., grupo sanguíneo, masculino/femenino. Véase también Datos ordinales.
- Datos ordinales
- Los datos ordinales son datos categóricos que pueden tomar un valor que se puede ordenar o jerarquizar lógicamente. Véase también Datos nominales.
- Desviación estándar relativa (DER)
- Esta es la desviación estándar dividida entre la media. Si corresponde, este número puede expresarse como porcentaje multiplicándolo por 100 para obtener el coeficiente de variación.
- Desviación estándar residual
- La desviación estándar residual mide cuánto se desvían, en promedio, los valores reales de los valores predichos por un modelo de regresión. Indica qué tan bien se ajusta el modelo a los datos: cuanto menor sea, mejor es el ajuste.
- Desviación estándar
- La desviación estándar es la raíz cuadrada de la varianza. Proporciona una medida de la distancia promedio de cada punto de datos con respecto a la media. $$s = \sqrt{\frac{\sum_{}^{}{(x-\bar{x})^2}}{n-1}} $$
- Diagramma de Bland-Altman
- Método gráfico para la evaluación de la concordancia entre dos técnicas de medición.
- Diagramma de bosque
- En metaanálisis un diagrama de bosque representa visualmente los tamaños del efecto y los intervalos de confianza de múltiples estudios.
- Diagrama de caja y bigotes con muescas
- A Diagrama de caja y bigotes Las muescas representan intervalos para las medianas, lo que permite la comparación por pares de medianas con un nivel de confianza del 95 %. Si las muescas de dos medianas no se superponen, las medianas son, aproximadamente, significativamente diferentes con un nivel de confianza del 95 %.
- Diagrama de caja y bigotes
- Resumen estadístico gráfico de una variable: mediana, cuartiles, rango y posiblemente valores extremos (valores atípicos). Véase también Diagrama de caja y bigotes con muescas.
- Diagrama de caja
- Ver Diagrama de caja y bigotes.
- Diagrama de dispersión
- Un gráfico que ilustra la relación entre dos variables cuantitativas.
- Diferencia absoluta
- La diferencia, tomada sin tener en cuenta el signo, entre dos valores.
- Distribución bimodal
- Una distribución con dos modos o picos diferentes.
- Distribución binomial
- Una distribución de probabilidad discreta que representa el número de éxitos en un número fijo de ensayos independientes, cada uno con la misma probabilidad de éxito.
- Distribución de muestreo
- Distribución de probabilidad de una estadística obtenida de un gran número de muestras extraídas de la misma población.
- Distribución de Poisson
- Una distribución de probabilidad discreta que expresa la probabilidad de que ocurra un número determinado de eventos en un intervalo fijo de tiempo o espacio.
- Distribución exponencial
- Una distribución de probabilidad que describe el tiempo entre eventos en un proceso de Poisson.
- Distribución gaussiana
- Otro nombre para el distribución normal.
- Distribución normal estandarizada
- Una distribución normal con media 0 y desviación estándar 1. Una distribución normal se puede convertir en una distribución normal estandarizada sustituyendo todos los valores x por (x-media)/DE.
- Distribución normal
- Una distribución de probabilidad simétrica caracterizada por una curva en forma de campana, definida por su media $\mu$ y desviación estándar $\sigma $.
La distribución normal viene dada por la fórmula
$$ f(x) = \frac{1}{\sqrt{2\pi\sigma^2} } e^{-\frac{(x-\mu)^2}{2\sigma^2}} $$ - Distribución nula
- La distribución de probabilidad de una estadística bajo la hipótesis nula.
- Distribución sesgada
- Una distribución que no es simétrica.
- Distribución uniforme
- Una distribución de probabilidad donde todos los resultados son igualmente probables.
- Distribuciones de probabilidad
- Las distribuciones de probabilidad describen cómo se distribuyen las probabilidades sobre los valores de una variable aleatoria. Véase Distribución normal, Distribución binomial, Distribución de Poisson.
E
- Ecuación de regresión
- El regresión La ecuación describe la relación entre dos variables. Por ejemplo, en la ecuación de regresión lineal $y = a + bx $, donde $y$ es la variable dependiente y $x$ es el variable independiente El coeficiente $b$ es la pendiente y $a$ es la intersección con el eje y. Véase también regresión_múltiple, regresión cuadrática.
- El poder de una prueba
- La probabilidad de que la prueba rechace correctamente una hipótesis nula falsa (1 menos la probabilidad de una Error de tipo II).
- Eliminación hacia atrás
- Un paso a paso regresión Técnica que comienza con todos los predictores y elimina iterativamente los menos significativos. Véase también selección hacia adelante, selección paso a paso.
- Encuesta
- Un método de recopilación de datos que implica hacer preguntas a las personas para recopilar información.
- Ensayo controlado aleatorio (ECA)
- Un experimento que asigna aleatoriamente a los participantes a un grupo de tratamiento o de control.
- Error absoluto
- El error absoluto de una observación x es la desviación absoluta de x respecto a su valor 'verdadero'. Véase también Error relativo.
- Error cuadrático medio (EMM)
- Promedio de los cuadrados de errores o desviaciones, que representa la diferencia cuadrática media entre los valores estimados y el valor real.
- Error estándar de la media (SEM)
- El SEM se calcula dividiendo la desviación estándar por la raíz cuadrada del tamaño de la muestra. $$SEM = \frac{s}{\sqrt{n}} $$
- Error estándar
- Medida de la variación del valor de un estadístico de prueba entre muestras. Es la desviación estándar de la distribución muestral de un estadístico.
- Error relativo
- Error absoluto dividido por el valor real.
- Error de tipo I
- El error de rechazar la hipótesis nula cuando en realidad es verdadera (falso positivo).
- Error de tipo II
- El error de no rechazar la hipótesis nula cuando en realidad es falsa (falso negativo).
- Especificidad
- Probabilidad de que un resultado de prueba sea negativo cuando la enfermedad no está presente (tasa de verdaderos negativos). Véase también Sensibilidad.
- Estadística inferencial
- Procedimientos para hacer generalizaciones sobre una población mediante el estudio de una muestra de esta población.
- Estadística
- La estadística es la disciplina que utiliza teorías y metodologías matemáticas para recopilar, analizar, interpretar, presentar y organizar datos. Proporciona un marco para la toma de decisiones y la realización de inferencias sobre poblaciones a partir de datos muestrales.
- Estadística
- Una característica numérica o medida de una muestra.
- Estadísticas descriptivas
- Resume y describe las características de un conjunto de datos, incluidas las medidas de tendencia central y variabilidad.
- Estimación de máxima verosimilitud (EMV)
- La estimación de máxima verosimilitud de un parámetro es el valor posible del parámetro para el cual la probabilidad de observar los datos es mayor.
- Estimador imparcial
- Para que un estimador sea imparcial se requiere que, en promedio, produzca el valor verdadero del parámetro desconocido.
- Estrato
- En el muestreo aleatorio, a veces la muestra se extrae por separado de diferentes subconjuntos disjuntos de la población. Cada subconjunto se denomina estrato.
- Estudio controlado
- Un estudio que evalúa el efecto de un tratamiento comparando sujetos tratados con un grupo de control, que no reciben el tratamiento. Véase también Estudio transversal, Estudio longitudinal.
- Estudio de casos y controles
- Un estudio observacional diseñado para ayudar a determinar si una exposición está asociada con un resultado.
- Estudio de cohorte
- Un tipo de estudio observacional que sigue a un grupo de personas a lo largo del tiempo para determinar cómo ciertas exposiciones afectan sus resultados.
- Estudio experimental
- Un estudio experimental es un estudio donde se controlan los factores bajo consideración para obtener información sobre su influencia sobre la variable de interés.
- Estudio longitudinal
- Un estudio que observa a los mismos sujetos durante un largo período de tiempo. Véase también Estudio controlado, Estudio transversal.
- Estudio observacional
- Un estudio observacional es un estudio en el que el investigador observa y registra el comportamiento o los resultados sin manipular ninguna variable.
- Estudio transversal
- Un estudio transversal es un tipo de diseño de investigación en el que se recopilan datos de muchas personas diferentes en un mismo momento. En la investigación transversal, se observan las variables sin influir en ellas. Véase también Estudio controlado, Estudio longitudinal.
- Extrapolar
- La extrapolación es una forma de estimar valores más allá de los datos conocidos. Se pueden usar patrones y gráficos para determinar otros posibles puntos de datos que no se midieron realmente. Véase también Interpolar.
F
- Factor
- Un variable independiente definir grupos de casos.
- Falso negativo
- A Error de tipo II En las pruebas de hipótesis, donde se acepta incorrectamente una hipótesis nula. Véase también Falso positivo.
- Falso positivo
- A Error tipo I En las pruebas de hipótesis, donde se rechaza incorrectamente una hipótesis nula. Véase también Falso negativo.
- Frecuencia acumulada
- La suma de las frecuencias de todos los valores hasta un valor dado.
- Frecuencia relativa
- Una frecuencia relativa describe la cantidad de veces que se ha observado que ocurre un valor particular para una variable en relación con la cantidad total de valores para esa variable.
- Función de verosimilitud
- Una función de parámetros en un modelo estadístico que mide qué tan bien el modelo explica los datos observados.
- Función logit
- La función logit es la inversa de la función sigmoidea (logística) y se utiliza en regresión logística y otros modelos estadísticos. Transforma las probabilidades $p$ en un rango de $-\infty$ a $+\infty$, lo que lo hace útil para modelar resultados binarios. $$ \operatorname{logit}(p)= \ln\left(\frac{p}{1-p} \right) $$
G
- Grados de libertad (FD)
- El número de valores o cantidades independientes que pueden variar en un análisis sin romper ninguna restricción.
- Gráfico de barras
- Un gráfico que presenta datos categóricos con barras rectangulares que representan la frecuencia o el valor de cada categoría.
- Gráfico de control
- Un gráfico de control es una herramienta estadística utilizada en el control de calidad para supervisar y analizar el rendimiento del proceso a lo largo del tiempo.
- Gráfico de distribución de frecuencias acumuladas
- Un gráfico donde, para cada valor de la característica, se representa el porcentaje de elementos iguales o menores a dicho valor. Los puntos se conectan mediante líneas rectas.
- Gráfico de embudo
- Una herramienta gráfica para detectar sesgos en metaanálisis.
- Gráfico de frecuencia
- Una representación gráfica de una tabla de frecuencias.
- Gráfico de violín
- Un gráfico de violín representa la distribución de datos numéricos de uno o más grupos mediante curvas de densidad. El ancho de cada curva se corresponde con la frecuencia aproximada de los puntos de datos en cada región.
- Gráfico de Youden
- Un método gráfico para analizar datos interlaboratorios, donde todos los laboratorios han analizado 2 muestras.
- Gráfico normal
- El gráfico normal es una herramienta gráfica para evaluar la normalidad de la distribución de datos muestrales. En un gráfico normal, el valor esperado... puntuaciones z Se grafican en función de los datos observados. Una muestra aleatoria de una distribución normal formará una línea casi recta.
- Gráfico QQ
- Un gráfico QQ (gráfico cuantil-cuantil) es una herramienta gráfica que se utiliza para comparar la distribución de un conjunto de datos con una distribución teórica (por ejemplo, distribución normal).
- Grupo de control
- Los sujetos de una estudio controlado que no reciben el tratamiento.
H
- Hipótesis alternativa (H1)
- La afirmación que contradice la hipótesis nula, indicando la presencia de un efecto o diferencia.
- Hipótesis nula (H0)
- Una afirmación que afirma que no hay efecto ni diferencia, utilizada como punto de partida para probar hipótesis.
- Hipótesis nulas y alternativas
- Hipótesis nula (H0): supone que no hay efecto ni diferencia.|Hipótesis alternativa (H1): supone que hay un efecto o una diferencia.
- Hipótesis
- Una explicación propuesta para un fenómeno, típicamente formulada en el contexto de una prueba estadística.
- Histograma
- Representación gráfica de la distribución de una variable numérica. El número de observaciones de cada intervalo en la escala horizontal se representa mediante la altura de una barra colocada sobre dicho intervalo. (Nota: Si los intervalos no tienen la misma longitud, el número de observaciones se representa mediante el volumen de la barra).
I
- IC del 95% para el coeficiente de correlación
- El rango de valores que contiene el 'verdadero' coeficiente de correlación con un 95% de confianza.
- IC del 95% para la media
- Un rango de valores que contiene la media de la población con una probabilidad del 95%.
- IC del 95% para la mediana
- Un rango de valores que contiene la mediana de la población con una probabilidad del 95%.
- Inferencia bayesiana
- Un método de inferencia estadística en el que se utiliza el teorema de Bayes para actualizar la probabilidad de una hipótesis a medida que hay más evidencia o información disponible.
- Inferencia causal
- El proceso de sacar una conclusión sobre una conexión causal basándose en las condiciones de ocurrencia de un evento.
- Interpolación lineal
- La interpolación lineal es un método para estimar un valor desconocido entre dos valores conocidos en una línea recta. Dados dos puntos conocidos ($x_1$, $y_1$) y ($x_2$, $y_2$), el valor interpolado de y en el punto x entre ellos es $$ y = y_1 + \frac{(x - x_1)(y_2 - y_1)}{x_2 - x_1} $$
- Interpolar
- La interpolación es una forma de estimar datos. Al interpolar, se estiman los datos entre dos observaciones o mediciones conocidas. Véase también Extrapolar.
- Intervalo de confianza (IC)
- Un rango de valores que probablemente contenga el parámetro de población con un nivel de confianza específico (por ejemplo, 95%).
- Intervalo de confianza del 95% (regresión)
- Curvas que representan un intervalo de confianza del 95 % para la línea de regresión. Este intervalo incluye la línea de regresión verdadera con una probabilidad del 95 %.
- Intervalo de confianza del 95%
- Un rango de valores que el 95% del tiempo incluye el valor de la población (verdadero).
- Intervalo de predicción del 95% (regresión)
- Curvas que representan el intervalo de predicción del 95% para la curva de regresión. Para cualquier valor dado de variable independiente, este intervalo representa la probabilidad del 95% para los valores de la variable dependiente.
- Intervalo de referencia
- Un intervalo de referencia (rango de referencia, rango normal) para un parámetro es el intervalo en el que se encuentran los valores centrales del 95% de sujetos aparentemente sanos.
K
- Kappa
- Una medida del acuerdo entre dos sistemas de clasificación (diagnóstico), después de la corrección por acuerdo aleatorio.
L
- La D de Cohen
- Una medida del tamaño del efecto que expresa la diferencia entre dos medias de grupos en términos de desviación estándar.
- Limpieza de datos
- El proceso de corregir o eliminar datos erróneos de un conjunto de datos.
- línea de regresión
- Una representación gráfica de la ecuación de regresión. Generalmente combinado con un diagrama de dispersión.
M
- Máximo
- El valor más grande que toma una variable.
- Media armónica
- La media armónica se define como el promedio de los valores recíprocos de los valores dados. $$\frac{n}{\frac1{x_1} + \frac1{x_2} + \cdots + \frac1{x_n}} = \frac{n}{\sum\limits_{i=1}^n \frac1{x_i}} $$Véase también Media, Media geométrica.
- Media geométrica
- La media geométrica es la raíz n -ésima del producto de n observaciones. $$\left (\prod_{i=1}^n{x_i} \right) ^\tfrac1n = \sqrt[n]{x_1 x_2 \cdots x_n} = \exp\left[\frac1n\sum_{i=1}^n\ln x_i\right] $$Véase también Media, Media armónica.
- Media recortada
- Una media recortada es una medida estadística que calcula el promedio después de eliminar un cierto porcentaje de valores extremos de ambos extremos de la muestra.
- Media
- La media es el valor promedio calculado sumando todos los valores y dividiéndolo por el número de valores. $$ \bar{x} = \frac{x_1+x_2+\cdots +x_n}{n} = {1 \over n} \sum_{i=1}^{n}{x_i} = {1 \over n} \sum_{}^{}{x} $$Véase también Media geométrica, Media armónica.
- Mediana
- La mediana es el valor medio en un conjunto de datos ordenado. Si hay un número par de observaciones, es el promedio de los dos valores medios. La mediana es igual al percentil 50.
- Medidas de dispersión
- Estas medidas indican la dispersión o variabilidad dentro de un conjunto de datos. Ejemplos: Rango, Varianza, Desviación estándar.
- Medidas de tendencia central
- Las medidas de tendencia central ayudan a resumir un conjunto de datos con un único valor. Ejemplos: Media, Mediana.
- Metaanálisis
- Un método estadístico que combina resultados de múltiples estudios para identificar tendencias generales.
- Minería de datos
- La práctica de examinar grandes conjuntos de datos para descubrir patrones y extraer información valiosa.
- Mínimo
- El valor más pequeño que toma una variable.
- Mínimos cuadrados
- Se utiliza para estimar parámetros en modelos estadísticos como los que ocurren en regresión Análisis. Las estimaciones del parámetro se obtienen minimizando la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos según el modelo.
- Modelo completo
- A regresión modelo que incluye todas las variables predictoras potenciales.
- Modo
- La moda es el valor que aparece con mayor frecuencia en un conjunto de datos. Un conjunto de datos puede tener una moda, más de una moda o ninguna.
- Muestra aleatoria
- Una muestra en la que todos los miembros de la población tienen la misma probabilidad de ser seleccionados y la selección de cada miembro es independiente de la selección de todos los demás miembros.
- Muestra
- Un subconjunto de la población elegida para el análisis.
- Muestreo estratificado
- Un método de muestreo en el que la población se divide en subgrupos homogéneos llamados estratos, y se selecciona una muestra de cada estrato. Esto permite obtener estimaciones más precisas y representativas que con un muestreo aleatorio simple.
- Muestreo por conglomerados
- Se seleccionan aleatoriamente grupos o conglomerados, en lugar de individuos, para su análisis.
- Muestreo
- El proceso de seleccionar un subconjunto adecuado de elementos de la población completa, de modo que dicho subconjunto pueda utilizarse para realizar inferencias sobre la población en su conjunto.
N
- Nivel de significancia
- El nivel de significancia (alfa) define el umbral para decidir si rechazar H0.
- N
- Número de casos en una muestra.
- Número necesario a tratar (NNT)
- El número necesario a tratar (NNT) es el número estimado de pacientes que necesitan ser tratados con el nuevo tratamiento en lugar del tratamiento estándar (o ningún tratamiento) para que un paciente adicional se beneficie.
O
- Oblicuidad
- La asimetría es una medida del grado de simetría en la distribución de la variable.
P
- Parámetro
- Una característica numérica o medida de una población.
- Parte aislada
- Una observación que se considera inusual y posiblemente errónea porque no sigue el patrón general de los datos de la muestra.
- Pendiente
- Un número que indica la inclinación o pendiente de una línea en un gráfico.
- Percentil 25
- El valor por debajo del cual se sitúa el 25 por ciento de los casos observados y por encima del cual se sitúa el 75 por ciento de los casos observados.
- Percentil 50
- El valor por encima y por debajo del cual se sitúan la mitad de los valores observados de una variable (= el mediana).
- Percentil 75
- El valor por debajo del cual cae el 75 por ciento de los valores observados de una variable y por encima del cual cae el 25 por ciento de los valores observados de una variable.
- Percentil
- Un percentil es el valor por debajo del cual se encuentra un cierto porcentaje de datos numéricos. El percentil p es igual a la observación con número de rango. $$ R(p) = 0.5 + \frac {p \times n} {100} $$
- Población
- El conjunto completo de elementos de los cuales se pueden seleccionar datos, o el grupo completo de individuos o elementos que los investigadores están interesados en estudiar.
- Probabilidad condicional
- La probabilidad condicional es la probabilidad de que ocurra un evento dado que otro evento ha ocurrido.
- Probabilidad
- La probabilidad de un evento es la relación entre el número de resultados que incluye el evento y el número total de resultados posibles.
- Probabilidades (Odds)
- Una forma de representar la probabilidad de ocurrencia de un evento. La probabilidad m: n a favor de un evento significa que esperamos que ocurra m veces por cada n veces que no ocurre.
- Promedio
- Ver Media.
- Prueba de chi-cuadrado
- Una prueba estadística utilizada para determinar si existe una asociación significativa entre variables categóricas.
- Prueba de Cochran-Mantel-Haenszel
- La prueba de Cochran-Mantel-Haenszel calcula un odds ratio teniendo en cuenta un factor de confusión.
- Prueba de Friedman
- Alternativa no paramétrica a ANOVA de medidas repetidas.
- Prueba de hipótesis
- La prueba de hipótesis es un método para probar una suposición con respecto a un parámetro de población, basándose en datos de muestra.
- Prueba de Jonckheere-Terpstra
- Una prueba estadística no paramétrica para tendencias en datos ordinales.
- Prueba de Kolmogorov-Smirnov
- Compara una distribución de muestra con una distribución de referencia (por ejemplo, la Distribución normal) o compara dos distribuciones.
- Prueba de Kruskal-Wallis
- Alternativa no paramétrica al ANOVA para comparar tres o más grupos. Una extensión del Prueba U de Mann-Whitney.
- Prueba de Levene
- Prueba la igualdad de varianzas en múltiples grupos.
- Prueba de McNemar
- Compara datos categóricos pareados (por ejemplo, diseños anteriores y posteriores con resultados binarios).
- Prueba de normalidad
- Una prueba estadística que evalúa si un conjunto de datos tiene una distribución normal.
- Prueba de rango logarítmico
- La prueba de rango logarítmico, o prueba de log-rank, es una prueba de hipótesis para comparar las distribuciones de supervivencia de dos muestras.
- Prueba de rangos con signo de Wilcoxon
- Prueba las diferencias entre muestras apareadas, evaluando si difieren sus rangos medios poblacionales. Alternativa no paramétrica a la prueba T pareada.
- Prueba exacta de Fisher
- Una prueba de significancia estadística utilizada para analizar tablas de contingencia, especialmente cuando los tamaños de muestra son pequeños.
- Prueba F
- Una prueba estadística utilizada para comparar las varianzas de dos poblaciones o para evaluar la significancia general de una regresión modelo.
- Prueba H
- Ver Prueba de Kruskal-Wallis.
- Prueba Q de Cochran
- Pruebas para detectar diferencias en proporciones entre grupos relacionados.
- Prueba T de Welch
- Versión de la Prueba t Se utiliza cuando dos grupos tienen varianzas y/o tamaños de muestra desiguales.
- Prueba T pareada
- Compara las medias de dos muestras relacionadas (por ejemplo, antes y después del tratamiento).
- Prueba t
- Una prueba estadística utilizada para comparar las medias de dos grupos.
- Prueba U de Mann-Whitney
- Alternativa no paramétrica a la Prueba t para comparar dos grupos independientes.
- Pruebas no paramétricas
- Las pruebas no paramétricas son pruebas que no asumen una distribución específica para los datos. Véase Prueba U de Mann-Whitney, Prueba de rangos con signo de Wilcoxon, Prueba de Kruskal-Wallis.
- Pruebas paramétricas
- Pruebas estadísticas que asumen que los datos siguen una distribución determinada (por ejemplo, distribución normal).
- Puntuación Z
- Una medida que describe la relación de un valor con la media de un grupo de valores, expresada en desviaciones estándar.
$$ z = \frac{x-\bar{x}}{s} $$
R
- Rango intercuartil (RIC)
- Una medida de dispersión estadística, calculada como la diferencia entre el primer (Q1) y el tercer (Q3) cuartil.
- Rango normal
- Ver Intervalo de referencia.
- Rango
- Los valores mínimo y máximo, o la diferencia entre los valores máximo y mínimo en un conjunto de datos.
- Razón
- Una comparación de dos cantidades mediante división. Una razón compara la frecuencia de un valor de una cantidad con otro valor de esa misma cantidad. Véase también Tasa.
- Razón de Probabilidades (Odds Ratio)
- La relación de la probabilidades del resultado en dos grupos. La Razón de Probabilidades compara la probabilidad de que un evento ocurra en un grupo con la probabilidad de que ocurra en otro. Véase también Riesgo Relativo.
- Razón de riesgo
- Ver Riesgo Relativo.
- Razón de verosimilitud negativa
- Relación entre la probabilidad de un resultado negativo en la prueba dada la presencia de la enfermedad y la probabilidad de un resultado negativo en la prueba dada la ausencia de la enfermedad. Véase también Razón de verosimilitud positiva.
- Razón de verosimilitud positiva
- Relación entre la probabilidad de un resultado positivo en la prueba dada la presencia de la enfermedad y la probabilidad de un resultado positivo en la prueba dada la ausencia de la enfermedad. Véase también Razón de verosimilitud negativa.
- R cuadrado
- Una estadística que proporciona una indicación de la bondad del ajuste de un regresión modelo.
- R cuadrado corregida
- El coeficiente de determinación (múltiple) ajustado por el número de variables independientes en la regresión modelo. El R cuadrado ajustado puede disminuir si se ingresan variables en el modelo que no contribuyen significativamente al ajuste del modelo.
- Regresión
- Una técnica estadística que modela la relación entre una variable dependiente y una o más variables independientes.
- Regresión cuadrática
- La regresión cuadrática es un tipo de regresión polinomial Se utiliza para modelar la relación entre una variable dependiente y una variable independiente cuando los datos presentan un patrón parabólico (en forma de U o de U invertida). Es una técnica de regresión no lineal, pero se considera un modelo lineal porque es lineal en términos de sus coeficientes. $$y = a x^2 + b x + c $$
- Regresión de Cox
- La regresión de Cox (o regresión de riesgos proporcionales de Cox) es un método estadístico para analizar el efecto de varios factores de riesgo sobre la supervivencia o, en general, sobre el tiempo que tarda en ocurrir un evento específico.
- Regresión lineal simple
- Ver regresión lineal.
- Regresión lineal
- A regresión método de análisis que modela la relación entre dos variables ajustando una ecuación lineal.
- Regresión logística
- A regresión método de análisis utilizado para modelar la relación entre un binario variable dependiente y una o más variables independientes. El análisis de regresión logística genera los coeficientes de una fórmula para predecir una logit transformación de la probabilidad de presencia de la característica de interés. $$ logit(p) = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 +... + b_n x_n $$
- Regresión múltiple
- Múltiple regresión evalúa la relación entre uno variable dependiente y múltiples variables independientes. $$ y = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 +\...\ + b_k x_k $$
- Regresión polinomial
- La regresión polinomial es un tipo de regresión que modela la relación entre una variable independiente $x$ y una variable dependiente $y$ como un polinomio de grado n. $$ Y = b_0 + b_1 x + b_2 x^2 + b_3 x^3 + \... \ + b_n x^n $$
- Remuestreo de Bootstrap
- Un método de remuestreo que implica el muestreo repetido con reemplazo de los datos para estimar las estadísticas. Véase también Remuestreo Jackknife, Simulación de Monte Carlo.
- Remuestreo Jackknife
- un método estadístico que estima la variabilidad de un estadístico recalculándolo repetidamente, excluyendo en cada iteración una observación distinta de la muestra. Véase también Remuestreo de Bootstrap.
- Residuos
- Diferencias entre los valores observados y predichos. Los residuos representan la variación no explicada (o residual) tras ajustar un modelo de regresión. Es la diferencia entre el valor observado de la variable y el valor sugerido por el modelo de regresión.
- Riesgo Relativo
- Cociente entre las proporciones de casos con resultado positivo en dos grupos. El Riesgo Relativo compara la probabilidad de que un evento ocurra en el grupo expuesto con la probabilidad de que ocurra en el grupo no expuesto. Véase también Razón de Probabilidades (Odds Ratio).
S
- Selección hacia adelante
- Un paso a paso regresión Técnica que comienza sin predictores y añade iterativamente los más significativos estadísticamente. Véase también Eliminación hacia atrás, Selección paso a paso.
- Selección paso a paso
- En regresión, una combinación de Selección hacia adelante y Eliminación hacia atrás.
- Sensibilidad
- Probabilidad de que un resultado de prueba sea positivo cuando la enfermedad está presente (tasa de verdaderos positivos). Véase también Especificidad.
- Sesgo de muestreo
- Un sesgo que ocurre cuando la muestra recolectada no es representativa de la población.
- Significancia estadística
- La probabilidad de que una relación entre dos o más variables sea causada por algo distinto al azar.
- Simulación de Monte Carlo
- Una técnica computacional que utiliza la aleatoriedad para obtener resultados numéricos, generalmente para evaluar el riesgo y la incertidumbre. Véase también Remuestreo de Bootstrap.
- Sobreajuste
- El subajuste es un error de modelado que ocurre cuando un modelo es demasiado simple para captar la tendencia subyacente de los datos. Véase también Subajuste.
- Subajuste
- Un error de modelado que ocurre cuando un modelo es demasiado simple para captar la tendencia subyacente de los datos. Véase también Sobreajuste.
- Supuestos del ANOVA
- El conjunto de supuestos que deben cumplirse para que los resultados de ANOVA sean válidos, incluida la independencia, la normalidad y la homogeneidad de la varianza.
T
- Tabla de frecuencias
- Una tabla que muestra el número de casos que pertenecen a categorías distintas, o simultáneamente a dos o más categorías distintas, por ejemplo, pacientes clasificados de forma cruzada según género y grupo de edad, o según categorías de tratamiento y resultado.
- Tabulación cruzada
- Un método para analizar cuantitativamente la relación entre múltiples variables mostrando las distribuciones de variables en un formato de matriz.
- Tamaño de la muestra
- El número de casos (observaciones) en la muestra.
- Tamaño del efecto
- Una medida cuantitativa de la magnitud de un fenómeno o la fuerza de una relación.
- Tasa
- Medida de la cantidad de una cosa en relación con otra. La tasa compara dos cantidades diferentes, medidas en unidades distintas. Véase también Razón.
- Tau de Kendall
- Una estadística que mide la asociación ordinal entre dos cantidades medidas.
- Técnicas de muestreo
- Las técnicas de muestreo son métodos utilizados para seleccionar individuos de una población para participar en un estudio. Ver Muestra aleatoria, Muestreo estratificado.
- Temblor
- Una técnica utilizada en la visualización de datos para agregar ruido aleatorio a los puntos de datos para reducir la superposición en los diagramas de dispersión.
- Teorema del límite central
- Una teoría estadística que establece que la distribución de las medias de la muestra se aproxima a una distribución normal a medida que el tamaño de la muestra aumenta, independientemente de la distribución de la población.
- Término de error
- Una variable que representa la cantidad de variación en la variable dependiente que no se puede explicar por la variable independiente (s).
- Tiempo medio de supervivencia restringido
- El tiempo medio de supervivencia restringido (RMST) se define como el área bajo la curva de supervivencia hasta un punto temporal específico. Véase también Tiempo medio de supervivencia.
- Tiempo medio de supervivencia
- El tiempo medio de supervivencia se estima como el área bajo la curva de supervivencia en el intervalo de 0 a tmáx. Véase también Tiempo medio de supervivencia restringido.
- Tiempo medio de supervivencia
- La supervivencia media es el tiempo mínimo en el que la probabilidad de supervivencia cae a 0,5 (50%) o menos.
- Transformación logarítmica
- La transformación logarítmica es una técnica estadística que implica aplicar un logaritmo a cada punto de datos en un conjunto de datos para estabilizar la varianza y hacer que la distribución sea más cercana a una Distribución normal.
V
- Validación cruzada
- Un método estadístico utilizado para estimar la habilidad de un modelo con datos no vistos.
- Valor absoluto
- El valor de un número sin tener en cuenta su signo algebraico.
- Valor exterior
- Un valor externo se define como un valor que es menor que el cuartil inferior menos 1,5 veces el rango intercuartil, o mayor que el cuartil superior más 1,5 veces el rango intercuartil (cercas internas) (ver también Diagrama de caja y bigotes).
- Valor muy elevado
- Un valor lejano se define como un valor que es menor que el cuartil inferior menos 3 veces el rango intercuartil, o mayor que el cuartil superior más 3 veces el rango intercuartil (cercas externas) (ver también Diagrama de caja y bigotes).
- Valor p
- La probabilidad de obtener un valor del estadístico de prueba igual o más extremo que el observado, asumiendo que la hipótesis nula es verdadera.
- Valor predictivo negativo
- Probabilidad de que la enfermedad no esté presente cuando la prueba es negativa. Véase también Valor predictivo positivo.
- Valor predictivo positivo
- Probabilidad de que la enfermedad esté presente cuando la prueba es positiva. Véase también Valor predictivo negativo.
- Valor previsto
- Valor para el variable dependiente predicho a partir del modelo de regresión.
- Variable aleatoria
- Una variable cuyos valores están determinados por los resultados de un fenómeno aleatorio.
- Variable continua
- Una variable aleatoria que puede tomar cualquier valor dentro de un rango dado.
- Variable de confusión
- Una variable que influye tanto en el dependiente como en el variable independiente, lo que lleva a una asociación falsa.
- Variable dependiente
- En regresión, la variable cuyos valores se supone que se explican por los cambios en las otras variables (las variables independientes o explicativas). Generalmente se representa por $y$. Véase también variable independiente.
- Variable dicotómica
- Una variable que solo puede tener 2 valores.
- Variable discreta
- Un tipo de variable aleatoria que puede tomar un número finito o infinito contable de valores.
- Variable explicativa
- Ver variable independiente.
- Variable independiente
- En la regresión, las variables independientes son las que se supone que explican el variable dependiente. Generalmente representado por $x$ o $x_i$.
- Variable X
- A menudo se utiliza para denotar la variable independiente en regresión análisis.
- Variable Y
- Generalmente representa el variable dependiente en un modelo matemático o estadístico. Ver Regresión.
- Variable
- Una cantidad que varía.
- Variación explicada (regresión)
- La cantidad de la variabilidad total observada en la variable dependiente Esto se explica por la regresión.
- Variación inexplicable (regresión)
- La suma de los cuadrados de las diferencias entre los valores observados y los valores estimados o predichos.
- Variación total (regresión)
- La suma de los cuadrados de la diferencia entre los valores observados y la media aritmética de la variable dependiente.
- Varianza
- Medida de la dispersión de un conjunto de valores, calculada como la suma de las diferencias al cuadrado de la media, dividida por el número de valores menos 1. $$s^2 = \frac{\sum_{}^{}{(x-\bar{x})^2}}{n-1} $$
- Visualización de datos
- La representación gráfica de datos para identificar patrones, tendencias y conocimientos.