Saltar al contenido principal
MedCalc
Enviar una copia en PDF de esta página a:
(Su dirección de correo electrónico no se añadirá a una lista de distribución)
working

Glosario de términos estadísticos

A B C D E F G H I K L M N O P R S T V
80% rango central
El rango entre el percentil 10 y 90 (en este rango se encuentran el 80% de los valores).
90% rango central
El rango entre el percentil 5 y 95 (en este rango se encuentran el 90% de los valores).
95% rango central
El rango entre los percentiles 2,5 y 97,5 (en este rango se encuentran el 95% de los valores).
A
Alfa de Cronbach
Medida de la fiabilidad de la consistencia interna. Calcula la correlación media entre todos los ítems de una escala o cuestionario.
Análisis de series temporales
Una técnica estadística que trata datos ordenados temporalmente para identificar tendencias y patrones estacionales.
Análisis de supervivencia
El análisis de supervivencia es un método estadístico que se utiliza para analizar datos de tiempo transcurrido hasta el evento, donde el evento de interés suele ser la muerte, la progresión de la enfermedad o la recuperación. Calcula el tiempo hasta que ocurre un evento y tiene en cuenta censura.
Análisis de varianza (regresión)
La tabla de análisis de varianza divide la variación total en la variable dependiente en dos componentes, uno que puede atribuirse al modelo de regresión (denominado Regresión) y otro que no (denominado Residual), y calcula una estadística F correspondiente.
Análisis de varianza de dos vías
Método para analizar el efecto de dos factores cualitativos sobre uno variable dependiente.
Análisis de varianza unidireccional
Ver ANOVA (Análisis de varianza).
Análisis factorial
Una técnica utilizada para reducir los datos a un conjunto más pequeño de variables de resumen e identificar relaciones subyacentes.
Análisis multivariado
Un método estadístico utilizado para analizar datos que involucran múltiples variables para comprender las relaciones.
ANCOVA (Análisis de covarianza)
Un modelo lineal general con una variable de resultado continua (cuantitativa) y una o más variables factoriales (cualitativas).
ANOVA (Análisis de varianza)
ANOVA se utiliza para comparar medias entre múltiples grupos para determinar si al menos la media de un grupo es significativamente diferente de las demás.
ANOVA de medidas repetidas
Compara medias en múltiples puntos de tiempo o condiciones dentro de los mismos sujetos.
Área bajo la curva ROC (AUC)
El área bajo la curva ROC (AUC) mide la capacidad de un clasificador para distinguir entre clases, y varía de 0,5 (aleatorio) a 1,0 (discriminación perfecta).
Área bajo la curva ROC (AUC)
El área bajo la curva ROC (AUC) mide la capacidad de un clasificador para distinguir entre clases, y varía de 0,5 (aleatorio) a 1,0 (discriminación perfecta).
Área parcial bajo la curva ROC
El área parcial bajo la curva ROC Resume una parte de la curva ROC en un intervalo de interés predefinido. Este intervalo puede ser de especificidad o de sensibilidad. Área parcial bajo la curva ROC
B
Barra X ($ \bar{X}$)
La media muestral.
Bondad de ajuste
Cuantificación de qué tan bien un modelo se ajusta a los datos observados.
C
Censura
En el análisis de supervivencia, la censura ocurre cuando el momento exacto del evento (por ejemplo, muerte, recaída de una enfermedad) es desconocido para algunos sujetos del estudio. Esto sucede porque el estudio termina antes de que ocurra el evento, el participante se pierde durante el seguimiento o se retira del estudio.
Cociente de riesgo
El cociente de riesgos es una medida estadística utilizada principalmente en el análisis de supervivencia para comparar la probabilidad de que ocurra un evento en un momento dado entre dos grupos.
Coeficiente Beta
Una medida de la influencia de un variable independiente en un variable dependiente en regresión análisis.
Coeficiente de contingencia
Una medida de asociación basada en el Chi-cuadrado. Este coeficiente siempre está entre 0 y 1, pero generalmente no es posible que alcance el valor 1. El valor máximo posible depende del número de filas y columnas de una tabla.
Coeficiente de correlación de orden cero
El simple coeficiente de correlación Para el variable dependiente y todas las variables independientes por separado.
Coeficiente de correlación de Pearson
Esto mide la linealidad correlación entre dos variables, produciendo un valor entre -1 y 1.
Coeficiente de correlación
Una medida de la fuerza y dirección de la relación entre dos variables.
Coeficiente de determinación
En regresión análisis, el coeficiente de determinación indica la proporción de la varianza en una variable que puede asociarse con la varianza de la otra. Puede oscilar entre 0 y 1.
Coeficiente de repetibilidad
Se define como 1,96 veces las desviaciones estándar de las diferencias entre dos mediciones (ver Diagramma de Bland-Altman).
Coeficiente de variación
Ver Desviación estándar relativa (DER).
Coeficientes de regresión
El regresión Los coeficientes indican el cambio esperado en la variable dependiente para un cambio de una unidad en el variable independiente. Por ejemplo, en el regresión múltiple ecuación $ y = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 +\...\ + b_k x_k $, los valores $b_1\... \ b_n$ son los coeficientes de regresión.
Control estadístico de calidad (SQC)
Un conjunto de técnicas y herramientas utilizadas para supervisar y controlar un proceso para garantizar que funcione a su máximo potencial.
Corrección de Yates
Una corrección aplicada en pruebas de chi-cuadrado para continuidad, particularmente con tablas de contingencia 2x2.
Correlación de rangos de Spearman
Una medida no paramétrica de correlación que evalúa qué tan bien se puede describir la relación entre dos variables mediante una función monótona.
Correlación de rangos
Método para estudiar la relación entre dos variables que no se distribuyen normalmente o entre variables ordinales.
Correlación parcial
Examina la relación entre dos variables mientras controla una tercera.
Correlación
La correlación entre dos variables x e y mide su estrecha relación, o su relación lineal. La correlación mide hasta qué punto un cambio en una variable aleatoria tiende a corresponderse con un cambio en la otra.
Covarianza
Una medida de la variabilidad conjunta de dos variables aleatorias.
Cuartiles
Los cuartiles dividen un conjunto de datos ordenado en cuatro partes iguales y corresponden a los percentiles 25, 50 y 75.
Curtosis
La curtosis es una medida del grado de cola en la distribución de la variable.
Curva de Kaplan-Meier
Un gráfico escalonado que estima la supervivencia probabilidad a lo largo del tiempo, y eso explica censurado datos. Curva de supervivencia de Kaplan-Meier
Curva de precisión-recuperación
Una curva de precisión-recuperación es un gráfico de la precisión (valor predictivo positivo, eje y) frente a la recuperación (sensibilidad, eje x) para diferentes umbrales. Es una alternativa para... curva ROC. Curva de precisión-recuperación
Curva ROC
Una curva característica operativa del receptor (ROC) es un gráfico que ilustra el rendimiento de un modelo de clasificador binario en valores de umbral variables. Curva característica de funcionamiento del receptor (ROC)
D
Datos cualitativos
Los datos cualitativos son medidas de «tipos» y pueden representarse mediante un nombre, un símbolo o un número. Véase también Datos cuantitativos.
Datos cuantitativos
Los datos cuantitativos son medidas de valores o conteos y se expresan como números. Véase también Datos cualitativos.
Datos nominales
Observaciones codificadas alfanuméricamente, pero sin un orden claro, p. ej., grupo sanguíneo, masculino/femenino. Véase también Datos ordinales.
Datos ordinales
Los datos ordinales son datos categóricos que pueden tomar un valor que se puede ordenar o jerarquizar lógicamente. Véase también Datos nominales.
Desviación estándar relativa (DER)
Esta es la desviación estándar dividida entre la media. Si corresponde, este número puede expresarse como porcentaje multiplicándolo por 100 para obtener el coeficiente de variación.
Desviación estándar residual
La desviación estándar residual mide cuánto se desvían, en promedio, los valores reales de los valores predichos por un modelo de regresión. Indica qué tan bien se ajusta el modelo a los datos: cuanto menor sea, mejor es el ajuste.
Desviación estándar
La desviación estándar es la raíz cuadrada de la varianza. Proporciona una medida de la distancia promedio de cada punto de datos con respecto a la media.
$$s = \sqrt{\frac{\sum_{}^{}{(x-\bar{x})^2}}{n-1}} $$
Diagramma de Bland-Altman
Método gráfico para la evaluación de la concordancia entre dos técnicas de medición. Diagramma de Bland y Altman
Diagramma de bosque
En metaanálisis un diagrama de bosque representa visualmente los tamaños del efecto y los intervalos de confianza de múltiples estudios. Diagramma de bosque
Diagrama de caja y bigotes con muescas
A Diagrama de caja y bigotes Las muescas representan intervalos para las medianas, lo que permite la comparación por pares de medianas con un nivel de confianza del 95 %. Si las muescas de dos medianas no se superponen, las medianas son, aproximadamente, significativamente diferentes con un nivel de confianza del 95 %. Diagrama de caja y bigotes con muescas
Diagrama de caja y bigotes
Resumen estadístico gráfico de una variable: mediana, cuartiles, rango y posiblemente valores extremos (valores atípicos). Véase también Diagrama de caja y bigotes con muescas. Diagrama de caja y bigotes
Diagrama de caja
Ver Diagrama de caja y bigotes.
Diagrama de dispersión
Un gráfico que ilustra la relación entre dos variables cuantitativas. Diagrama de dispersión
Diferencia absoluta
La diferencia, tomada sin tener en cuenta el signo, entre dos valores.
Distribución bimodal
Una distribución con dos modos o picos diferentes.
Distribución binomial
Una distribución de probabilidad discreta que representa el número de éxitos en un número fijo de ensayos independientes, cada uno con la misma probabilidad de éxito.
Distribución de muestreo
Distribución de probabilidad de una estadística obtenida de un gran número de muestras extraídas de la misma población.
Distribución de Poisson
Una distribución de probabilidad discreta que expresa la probabilidad de que ocurra un número determinado de eventos en un intervalo fijo de tiempo o espacio.
Distribución exponencial
Una distribución de probabilidad que describe el tiempo entre eventos en un proceso de Poisson.
Distribución gaussiana
Otro nombre para el distribución normal.
Distribución normal estandarizada
Una distribución normal con media 0 y desviación estándar 1. Una distribución normal se puede convertir en una distribución normal estandarizada sustituyendo todos los valores x por (x-media)/DE.
Distribución normal
Una distribución de probabilidad simétrica caracterizada por una curva en forma de campana, definida por su media $\mu$ y desviación estándar $\sigma $. Distribución normal La distribución normal viene dada por la fórmula
$$ f(x) = \frac{1}{\sqrt{2\pi\sigma^2} } e^{-\frac{(x-\mu)^2}{2\sigma^2}} $$
Distribución nula
La distribución de probabilidad de una estadística bajo la hipótesis nula.
Distribución sesgada
Una distribución que no es simétrica.
Distribución uniforme
Una distribución de probabilidad donde todos los resultados son igualmente probables.
Distribuciones de probabilidad
Las distribuciones de probabilidad describen cómo se distribuyen las probabilidades sobre los valores de una variable aleatoria. Véase Distribución normal, Distribución binomial, Distribución de Poisson.
E
Ecuación de regresión
El regresión La ecuación describe la relación entre dos variables. Por ejemplo, en la ecuación de regresión lineal $y = a + bx $, donde $y$ es la variable dependiente y $x$ es el variable independiente El coeficiente $b$ es la pendiente y $a$ es la intersección con el eje y. Véase también regresión_múltiple, regresión cuadrática.
El poder de una prueba
La probabilidad de que la prueba rechace correctamente una hipótesis nula falsa (1 menos la probabilidad de una Error de tipo II).
Eliminación hacia atrás
Un paso a paso regresión Técnica que comienza con todos los predictores y elimina iterativamente los menos significativos. Véase también selección hacia adelante, selección paso a paso.
Encuesta
Un método de recopilación de datos que implica hacer preguntas a las personas para recopilar información.
Ensayo controlado aleatorio (ECA)
Un experimento que asigna aleatoriamente a los participantes a un grupo de tratamiento o de control.
Error absoluto
El error absoluto de una observación x es la desviación absoluta de x respecto a su valor 'verdadero'. Véase también Error relativo.
Error cuadrático medio (EMM)
Promedio de los cuadrados de errores o desviaciones, que representa la diferencia cuadrática media entre los valores estimados y el valor real.
Error estándar de la media (SEM)
El SEM se calcula dividiendo la desviación estándar por la raíz cuadrada del tamaño de la muestra.
$$SEM = \frac{s}{\sqrt{n}} $$
Error estándar
Medida de la variación del valor de un estadístico de prueba entre muestras. Es la desviación estándar de la distribución muestral de un estadístico.
Error relativo
Error absoluto dividido por el valor real.
Error de tipo I
El error de rechazar la hipótesis nula cuando en realidad es verdadera (falso positivo).
Error de tipo II
El error de no rechazar la hipótesis nula cuando en realidad es falsa (falso negativo).
Especificidad
Probabilidad de que un resultado de prueba sea negativo cuando la enfermedad no está presente (tasa de verdaderos negativos). Véase también Sensibilidad.
Estadística inferencial
Procedimientos para hacer generalizaciones sobre una población mediante el estudio de una muestra de esta población.
Estadística
La estadística es la disciplina que utiliza teorías y metodologías matemáticas para recopilar, analizar, interpretar, presentar y organizar datos. Proporciona un marco para la toma de decisiones y la realización de inferencias sobre poblaciones a partir de datos muestrales.
Estadística
Una característica numérica o medida de una muestra.
Estadísticas descriptivas
Resume y describe las características de un conjunto de datos, incluidas las medidas de tendencia central y variabilidad.
Estimación de máxima verosimilitud (EMV)
La estimación de máxima verosimilitud de un parámetro es el valor posible del parámetro para el cual la probabilidad de observar los datos es mayor.
Estimador imparcial
Para que un estimador sea imparcial se requiere que, en promedio, produzca el valor verdadero del parámetro desconocido.
Estrato
En el muestreo aleatorio, a veces la muestra se extrae por separado de diferentes subconjuntos disjuntos de la población. Cada subconjunto se denomina estrato.
Estudio controlado
Un estudio que evalúa el efecto de un tratamiento comparando sujetos tratados con un grupo de control, que no reciben el tratamiento. Véase también Estudio transversal, Estudio longitudinal.
Estudio de casos y controles
Un estudio observacional diseñado para ayudar a determinar si una exposición está asociada con un resultado.
Estudio de cohorte
Un tipo de estudio observacional que sigue a un grupo de personas a lo largo del tiempo para determinar cómo ciertas exposiciones afectan sus resultados.
Estudio experimental
Un estudio experimental es un estudio donde se controlan los factores bajo consideración para obtener información sobre su influencia sobre la variable de interés.
Estudio longitudinal
Un estudio que observa a los mismos sujetos durante un largo período de tiempo. Véase también Estudio controlado, Estudio transversal.
Estudio observacional
Un estudio observacional es un estudio en el que el investigador observa y registra el comportamiento o los resultados sin manipular ninguna variable.
Estudio transversal
Un estudio transversal es un tipo de diseño de investigación en el que se recopilan datos de muchas personas diferentes en un mismo momento. En la investigación transversal, se observan las variables sin influir en ellas. Véase también Estudio controlado, Estudio longitudinal.
Extrapolar
La extrapolación es una forma de estimar valores más allá de los datos conocidos. Se pueden usar patrones y gráficos para determinar otros posibles puntos de datos que no se midieron realmente. Véase también Interpolar.
F
Factor
Un variable independiente definir grupos de casos.
Falso negativo
A Error de tipo II En las pruebas de hipótesis, donde se acepta incorrectamente una hipótesis nula. Véase también Falso positivo.
Falso positivo
A Error tipo I En las pruebas de hipótesis, donde se rechaza incorrectamente una hipótesis nula. Véase también Falso negativo.
Frecuencia acumulada
La suma de las frecuencias de todos los valores hasta un valor dado.
Frecuencia relativa
Una frecuencia relativa describe la cantidad de veces que se ha observado que ocurre un valor particular para una variable en relación con la cantidad total de valores para esa variable.
Función de verosimilitud
Una función de parámetros en un modelo estadístico que mide qué tan bien el modelo explica los datos observados.
Función logit
La función logit es la inversa de la función sigmoidea (logística) y se utiliza en regresión logística y otros modelos estadísticos. Transforma las probabilidades $p$ en un rango de $-\infty$ a $+\infty$, lo que lo hace útil para modelar resultados binarios.
$$ \operatorname{logit}(p)= \ln\left(\frac{p}{1-p} \right) $$
G
Grados de libertad (FD)
El número de valores o cantidades independientes que pueden variar en un análisis sin romper ninguna restricción.
Gráfico de barras
Un gráfico que presenta datos categóricos con barras rectangulares que representan la frecuencia o el valor de cada categoría.
Gráfico de control
Un gráfico de control es una herramienta estadística utilizada en el control de calidad para supervisar y analizar el rendimiento del proceso a lo largo del tiempo. Gráfico de control
Gráfico de distribución de frecuencias acumuladas
Un gráfico donde, para cada valor de la característica, se representa el porcentaje de elementos iguales o menores a dicho valor. Los puntos se conectan mediante líneas rectas.
Gráfico de embudo
Una herramienta gráfica para detectar sesgos en metaanálisis. Gráfico de embudo
Gráfico de frecuencia
Una representación gráfica de una tabla de frecuencias. Gráfico de frecuencia
Gráfico de violín
Un gráfico de violín representa la distribución de datos numéricos de uno o más grupos mediante curvas de densidad. El ancho de cada curva se corresponde con la frecuencia aproximada de los puntos de datos en cada región. Gráfico de violín
Gráfico de Youden
Un método gráfico para analizar datos interlaboratorios, donde todos los laboratorios han analizado 2 muestras. Gráfico de Youden
Gráfico normal
El gráfico normal es una herramienta gráfica para evaluar la normalidad de la distribución de datos muestrales. En un gráfico normal, el valor esperado... puntuaciones z Se grafican en función de los datos observados. Una muestra aleatoria de una distribución normal formará una línea casi recta. Gráfico normal
Gráfico QQ
Un gráfico QQ (gráfico cuantil-cuantil) es una herramienta gráfica que se utiliza para comparar la distribución de un conjunto de datos con una distribución teórica (por ejemplo, distribución normal).
Grupo de control
Los sujetos de una estudio controlado que no reciben el tratamiento.
H
Hipótesis alternativa (H1)
La afirmación que contradice la hipótesis nula, indicando la presencia de un efecto o diferencia.
Hipótesis nula (H0)
Una afirmación que afirma que no hay efecto ni diferencia, utilizada como punto de partida para probar hipótesis.
Hipótesis nulas y alternativas
Hipótesis nula (H0): supone que no hay efecto ni diferencia.|Hipótesis alternativa (H1): supone que hay un efecto o una diferencia.
Hipótesis
Una explicación propuesta para un fenómeno, típicamente formulada en el contexto de una prueba estadística.
Histograma
Representación gráfica de la distribución de una variable numérica. El número de observaciones de cada intervalo en la escala horizontal se representa mediante la altura de una barra colocada sobre dicho intervalo. (Nota: Si los intervalos no tienen la misma longitud, el número de observaciones se representa mediante el volumen de la barra). Histograma
I
IC del 95% para el coeficiente de correlación
El rango de valores que contiene el 'verdadero' coeficiente de correlación con un 95% de confianza.
IC del 95% para la media
Un rango de valores que contiene la media de la población con una probabilidad del 95%.
IC del 95% para la mediana
Un rango de valores que contiene la mediana de la población con una probabilidad del 95%.
Inferencia bayesiana
Un método de inferencia estadística en el que se utiliza el teorema de Bayes para actualizar la probabilidad de una hipótesis a medida que hay más evidencia o información disponible.
Inferencia causal
El proceso de sacar una conclusión sobre una conexión causal basándose en las condiciones de ocurrencia de un evento.
Interpolación lineal
La interpolación lineal es un método para estimar un valor desconocido entre dos valores conocidos en una línea recta. Dados dos puntos conocidos ($x_1$, $y_1$) y ($x_2$, $y_2$), el valor interpolado de y en el punto x entre ellos es
$$ y = y_1 + \frac{(x - x_1)(y_2 - y_1)}{x_2 - x_1} $$
Interpolar
La interpolación es una forma de estimar datos. Al interpolar, se estiman los datos entre dos observaciones o mediciones conocidas. Véase también Extrapolar.
Intervalo de confianza (IC)
Un rango de valores que probablemente contenga el parámetro de población con un nivel de confianza específico (por ejemplo, 95%).
Intervalo de confianza del 95% (regresión)
Curvas que representan un intervalo de confianza del 95 % para la línea de regresión. Este intervalo incluye la línea de regresión verdadera con una probabilidad del 95 %.
Intervalo de confianza del 95%
Un rango de valores que el 95% del tiempo incluye el valor de la población (verdadero).
Intervalo de predicción del 95% (regresión)
Curvas que representan el intervalo de predicción del 95% para la curva de regresión. Para cualquier valor dado de variable independiente, este intervalo representa la probabilidad del 95% para los valores de la variable dependiente.
Intervalo de referencia
Un intervalo de referencia (rango de referencia, rango normal) para un parámetro es el intervalo en el que se encuentran los valores centrales del 95% de sujetos aparentemente sanos.
K
Kappa
Una medida del acuerdo entre dos sistemas de clasificación (diagnóstico), después de la corrección por acuerdo aleatorio.
L
La D de Cohen
Una medida del tamaño del efecto que expresa la diferencia entre dos medias de grupos en términos de desviación estándar.
Limpieza de datos
El proceso de corregir o eliminar datos erróneos de un conjunto de datos.
línea de regresión
Una representación gráfica de la ecuación de regresión. Generalmente combinado con un diagrama de dispersión. línea de regresión
M
Máximo
El valor más grande que toma una variable.
Media armónica
La media armónica se define como el promedio de los valores recíprocos de los valores dados.
$$\frac{n}{\frac1{x_1} + \frac1{x_2} + \cdots + \frac1{x_n}} = \frac{n}{\sum\limits_{i=1}^n \frac1{x_i}} $$
Véase también Media, Media geométrica.
Media geométrica
La media geométrica es la raíz n -ésima del producto de n observaciones.
$$\left (\prod_{i=1}^n{x_i} \right) ^\tfrac1n = \sqrt[n]{x_1 x_2 \cdots x_n} = \exp\left[\frac1n\sum_{i=1}^n\ln x_i\right] $$
Véase también Media, Media armónica.
Media recortada
Una media recortada es una medida estadística que calcula el promedio después de eliminar un cierto porcentaje de valores extremos de ambos extremos de la muestra.
Media
La media es el valor promedio calculado sumando todos los valores y dividiéndolo por el número de valores.
$$ \bar{x} = \frac{x_1+x_2+\cdots +x_n}{n} = {1 \over n} \sum_{i=1}^{n}{x_i} = {1 \over n} \sum_{}^{}{x} $$
Véase también Media geométrica, Media armónica.
Mediana
La mediana es el valor medio en un conjunto de datos ordenado. Si hay un número par de observaciones, es el promedio de los dos valores medios. La mediana es igual al percentil 50.
Medidas de dispersión
Estas medidas indican la dispersión o variabilidad dentro de un conjunto de datos. Ejemplos: Rango, Varianza, Desviación estándar.
Medidas de tendencia central
Las medidas de tendencia central ayudan a resumir un conjunto de datos con un único valor. Ejemplos: Media, Mediana.
Metaanálisis
Un método estadístico que combina resultados de múltiples estudios para identificar tendencias generales.
Minería de datos
La práctica de examinar grandes conjuntos de datos para descubrir patrones y extraer información valiosa.
Mínimo
El valor más pequeño que toma una variable.
Mínimos cuadrados
Se utiliza para estimar parámetros en modelos estadísticos como los que ocurren en regresión Análisis. Las estimaciones del parámetro se obtienen minimizando la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos según el modelo.
Modelo completo
A regresión modelo que incluye todas las variables predictoras potenciales.
Modo
La moda es el valor que aparece con mayor frecuencia en un conjunto de datos. Un conjunto de datos puede tener una moda, más de una moda o ninguna.
Muestra aleatoria
Una muestra en la que todos los miembros de la población tienen la misma probabilidad de ser seleccionados y la selección de cada miembro es independiente de la selección de todos los demás miembros.
Muestra
Un subconjunto de la población elegida para el análisis.
Muestreo estratificado
Un método de muestreo en el que la población se divide en subgrupos homogéneos llamados estratos, y se selecciona una muestra de cada estrato. Esto permite obtener estimaciones más precisas y representativas que con un muestreo aleatorio simple.
Muestreo por conglomerados
Se seleccionan aleatoriamente grupos o conglomerados, en lugar de individuos, para su análisis.
Muestreo
El proceso de seleccionar un subconjunto adecuado de elementos de la población completa, de modo que dicho subconjunto pueda utilizarse para realizar inferencias sobre la población en su conjunto.
N
Nivel de significancia
El nivel de significancia (alfa) define el umbral para decidir si rechazar H0.
N
Número de casos en una muestra.
Número necesario a tratar (NNT)
El número necesario a tratar (NNT) es el número estimado de pacientes que necesitan ser tratados con el nuevo tratamiento en lugar del tratamiento estándar (o ningún tratamiento) para que un paciente adicional se beneficie.
O
Oblicuidad
La asimetría es una medida del grado de simetría en la distribución de la variable.
P
Parámetro
Una característica numérica o medida de una población.
Parte aislada
Una observación que se considera inusual y posiblemente errónea porque no sigue el patrón general de los datos de la muestra.
Pendiente
Un número que indica la inclinación o pendiente de una línea en un gráfico.
Percentil 25
El valor por debajo del cual se sitúa el 25 por ciento de los casos observados y por encima del cual se sitúa el 75 por ciento de los casos observados.
Percentil 50
El valor por encima y por debajo del cual se sitúan la mitad de los valores observados de una variable (= el mediana).
Percentil 75
El valor por debajo del cual cae el 75 por ciento de los valores observados de una variable y por encima del cual cae el 25 por ciento de los valores observados de una variable.
Percentil
Un percentil es el valor por debajo del cual se encuentra un cierto porcentaje de datos numéricos. El percentil p es igual a la observación con número de rango.
$$ R(p) = 0.5 + \frac {p \times n} {100} $$
Población
El conjunto completo de elementos de los cuales se pueden seleccionar datos, o el grupo completo de individuos o elementos que los investigadores están interesados en estudiar.
Probabilidad condicional
La probabilidad condicional es la probabilidad de que ocurra un evento dado que otro evento ha ocurrido.
Probabilidad
La probabilidad de un evento es la relación entre el número de resultados que incluye el evento y el número total de resultados posibles.
Probabilidades (Odds)
Una forma de representar la probabilidad de ocurrencia de un evento. La probabilidad m: n a favor de un evento significa que esperamos que ocurra m veces por cada n veces que no ocurre.
Promedio
Ver Media.
Prueba de chi-cuadrado
Una prueba estadística utilizada para determinar si existe una asociación significativa entre variables categóricas.
Prueba de Cochran-Mantel-Haenszel
La prueba de Cochran-Mantel-Haenszel calcula un odds ratio teniendo en cuenta un factor de confusión.
Prueba de Friedman
Alternativa no paramétrica a ANOVA de medidas repetidas.
Prueba de hipótesis
La prueba de hipótesis es un método para probar una suposición con respecto a un parámetro de población, basándose en datos de muestra.
Prueba de Jonckheere-Terpstra
Una prueba estadística no paramétrica para tendencias en datos ordinales.
Prueba de Kolmogorov-Smirnov
Compara una distribución de muestra con una distribución de referencia (por ejemplo, la Distribución normal) o compara dos distribuciones.
Prueba de Kruskal-Wallis
Alternativa no paramétrica al ANOVA para comparar tres o más grupos. Una extensión del Prueba U de Mann-Whitney.
Prueba de Levene
Prueba la igualdad de varianzas en múltiples grupos.
Prueba de McNemar
Compara datos categóricos pareados (por ejemplo, diseños anteriores y posteriores con resultados binarios).
Prueba de normalidad
Una prueba estadística que evalúa si un conjunto de datos tiene una distribución normal.
Prueba de rango logarítmico
La prueba de rango logarítmico, o prueba de log-rank, es una prueba de hipótesis para comparar las distribuciones de supervivencia de dos muestras.
Prueba de rangos con signo de Wilcoxon
Prueba las diferencias entre muestras apareadas, evaluando si difieren sus rangos medios poblacionales. Alternativa no paramétrica a la prueba T pareada.
Prueba exacta de Fisher
Una prueba de significancia estadística utilizada para analizar tablas de contingencia, especialmente cuando los tamaños de muestra son pequeños.
Prueba F
Una prueba estadística utilizada para comparar las varianzas de dos poblaciones o para evaluar la significancia general de una regresión modelo.
Prueba H
Ver Prueba de Kruskal-Wallis.
Prueba Q de Cochran
Pruebas para detectar diferencias en proporciones entre grupos relacionados.
Prueba T de Welch
Versión de la Prueba t Se utiliza cuando dos grupos tienen varianzas y/o tamaños de muestra desiguales.
Prueba T pareada
Compara las medias de dos muestras relacionadas (por ejemplo, antes y después del tratamiento).
Prueba t
Una prueba estadística utilizada para comparar las medias de dos grupos.
Prueba U de Mann-Whitney
Alternativa no paramétrica a la Prueba t para comparar dos grupos independientes.
Pruebas no paramétricas
Las pruebas no paramétricas son pruebas que no asumen una distribución específica para los datos. Véase Prueba U de Mann-Whitney, Prueba de rangos con signo de Wilcoxon, Prueba de Kruskal-Wallis.
Pruebas paramétricas
Pruebas estadísticas que asumen que los datos siguen una distribución determinada (por ejemplo, distribución normal).
Puntuación Z
Una medida que describe la relación de un valor con la media de un grupo de valores, expresada en desviaciones estándar.
$$ z = \frac{x-\bar{x}}{s} $$
R
Rango intercuartil (RIC)
Una medida de dispersión estadística, calculada como la diferencia entre el primer (Q1) y el tercer (Q3) cuartil.
Rango normal
Ver Intervalo de referencia.
Rango
Los valores mínimo y máximo, o la diferencia entre los valores máximo y mínimo en un conjunto de datos.
Razón
Una comparación de dos cantidades mediante división. Una razón compara la frecuencia de un valor de una cantidad con otro valor de esa misma cantidad. Véase también Tasa.
Razón de Probabilidades (Odds Ratio)
La relación de la probabilidades del resultado en dos grupos. La Razón de Probabilidades compara la probabilidad de que un evento ocurra en un grupo con la probabilidad de que ocurra en otro. Véase también Riesgo Relativo.
Razón de riesgo
Ver Riesgo Relativo.
Razón de verosimilitud negativa
Relación entre la probabilidad de un resultado negativo en la prueba dada la presencia de la enfermedad y la probabilidad de un resultado negativo en la prueba dada la ausencia de la enfermedad. Véase también Razón de verosimilitud positiva.
Razón de verosimilitud positiva
Relación entre la probabilidad de un resultado positivo en la prueba dada la presencia de la enfermedad y la probabilidad de un resultado positivo en la prueba dada la ausencia de la enfermedad. Véase también Razón de verosimilitud negativa.
R cuadrado
Una estadística que proporciona una indicación de la bondad del ajuste de un regresión modelo.
R cuadrado corregida
El coeficiente de determinación (múltiple) ajustado por el número de variables independientes en la regresión modelo. El R cuadrado ajustado puede disminuir si se ingresan variables en el modelo que no contribuyen significativamente al ajuste del modelo.
Regresión
Una técnica estadística que modela la relación entre una variable dependiente y una o más variables independientes.
Regresión cuadrática
La regresión cuadrática es un tipo de regresión polinomial Se utiliza para modelar la relación entre una variable dependiente y una variable independiente cuando los datos presentan un patrón parabólico (en forma de U o de U invertida). Es una técnica de regresión no lineal, pero se considera un modelo lineal porque es lineal en términos de sus coeficientes.
$$y = a x^2 + b x + c $$
Regresión de Cox
La regresión de Cox (o regresión de riesgos proporcionales de Cox) es un método estadístico para analizar el efecto de varios factores de riesgo sobre la supervivencia o, en general, sobre el tiempo que tarda en ocurrir un evento específico.
Regresión lineal simple
Ver regresión lineal.
Regresión lineal
A regresión método de análisis que modela la relación entre dos variables ajustando una ecuación lineal.
Regresión logística
A regresión método de análisis utilizado para modelar la relación entre un binario variable dependiente y una o más variables independientes. El análisis de regresión logística genera los coeficientes de una fórmula para predecir una logit transformación de la probabilidad de presencia de la característica de interés.
$$ logit(p) = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 +... + b_n x_n $$
Regresión múltiple
Múltiple regresión evalúa la relación entre uno variable dependiente y múltiples variables independientes.
$$ y = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 +\...\ + b_k x_k $$
Regresión polinomial
La regresión polinomial es un tipo de regresión que modela la relación entre una variable independiente $x$ y una variable dependiente $y$ como un polinomio de grado n.
$$ Y = b_0 + b_1 x + b_2 x^2 + b_3 x^3 + \... \ + b_n x^n $$
Remuestreo de Bootstrap
Un método de remuestreo que implica el muestreo repetido con reemplazo de los datos para estimar las estadísticas. Véase también Remuestreo Jackknife, Simulación de Monte Carlo.
Remuestreo Jackknife
un método estadístico que estima la variabilidad de un estadístico recalculándolo repetidamente, excluyendo en cada iteración una observación distinta de la muestra. Véase también Remuestreo de Bootstrap.
Residuos
Diferencias entre los valores observados y predichos. Los residuos representan la variación no explicada (o residual) tras ajustar un modelo de regresión. Es la diferencia entre el valor observado de la variable y el valor sugerido por el modelo de regresión.
Riesgo Relativo
Cociente entre las proporciones de casos con resultado positivo en dos grupos. El Riesgo Relativo compara la probabilidad de que un evento ocurra en el grupo expuesto con la probabilidad de que ocurra en el grupo no expuesto. Véase también Razón de Probabilidades (Odds Ratio).
S
Selección hacia adelante
Un paso a paso regresión Técnica que comienza sin predictores y añade iterativamente los más significativos estadísticamente. Véase también Eliminación hacia atrás, Selección paso a paso.
Selección paso a paso
En regresión, una combinación de Selección hacia adelante y Eliminación hacia atrás.
Sensibilidad
Probabilidad de que un resultado de prueba sea positivo cuando la enfermedad está presente (tasa de verdaderos positivos). Véase también Especificidad.
Sesgo de muestreo
Un sesgo que ocurre cuando la muestra recolectada no es representativa de la población.
Significancia estadística
La probabilidad de que una relación entre dos o más variables sea causada por algo distinto al azar.
Simulación de Monte Carlo
Una técnica computacional que utiliza la aleatoriedad para obtener resultados numéricos, generalmente para evaluar el riesgo y la incertidumbre. Véase también Remuestreo de Bootstrap.
Sobreajuste
El subajuste es un error de modelado que ocurre cuando un modelo es demasiado simple para captar la tendencia subyacente de los datos. Véase también Subajuste.
Subajuste
Un error de modelado que ocurre cuando un modelo es demasiado simple para captar la tendencia subyacente de los datos. Véase también Sobreajuste.
Supuestos del ANOVA
El conjunto de supuestos que deben cumplirse para que los resultados de ANOVA sean válidos, incluida la independencia, la normalidad y la homogeneidad de la varianza.
T
Tabla de frecuencias
Una tabla que muestra el número de casos que pertenecen a categorías distintas, o simultáneamente a dos o más categorías distintas, por ejemplo, pacientes clasificados de forma cruzada según género y grupo de edad, o según categorías de tratamiento y resultado.
Tabulación cruzada
Un método para analizar cuantitativamente la relación entre múltiples variables mostrando las distribuciones de variables en un formato de matriz.
Tamaño de la muestra
El número de casos (observaciones) en la muestra.
Tamaño del efecto
Una medida cuantitativa de la magnitud de un fenómeno o la fuerza de una relación.
Tasa
Medida de la cantidad de una cosa en relación con otra. La tasa compara dos cantidades diferentes, medidas en unidades distintas. Véase también Razón.
Tau de Kendall
Una estadística que mide la asociación ordinal entre dos cantidades medidas.
Técnicas de muestreo
Las técnicas de muestreo son métodos utilizados para seleccionar individuos de una población para participar en un estudio. Ver Muestra aleatoria, Muestreo estratificado.
Temblor
Una técnica utilizada en la visualización de datos para agregar ruido aleatorio a los puntos de datos para reducir la superposición en los diagramas de dispersión.
Teorema del límite central
Una teoría estadística que establece que la distribución de las medias de la muestra se aproxima a una distribución normal a medida que el tamaño de la muestra aumenta, independientemente de la distribución de la población.
Término de error
Una variable que representa la cantidad de variación en la variable dependiente que no se puede explicar por la variable independiente (s).
Tiempo medio de supervivencia restringido
El tiempo medio de supervivencia restringido (RMST) se define como el área bajo la curva de supervivencia hasta un punto temporal específico. Véase también Tiempo medio de supervivencia.
Tiempo medio de supervivencia
El tiempo medio de supervivencia se estima como el área bajo la curva de supervivencia en el intervalo de 0 a tmáx. Véase también Tiempo medio de supervivencia restringido.
Tiempo medio de supervivencia
La supervivencia media es el tiempo mínimo en el que la probabilidad de supervivencia cae a 0,5 (50%) o menos.
Transformación logarítmica
La transformación logarítmica es una técnica estadística que implica aplicar un logaritmo a cada punto de datos en un conjunto de datos para estabilizar la varianza y hacer que la distribución sea más cercana a una Distribución normal.
V
Validación cruzada
Un método estadístico utilizado para estimar la habilidad de un modelo con datos no vistos.
Valor absoluto
El valor de un número sin tener en cuenta su signo algebraico.
Valor exterior
Un valor externo se define como un valor que es menor que el cuartil inferior menos 1,5 veces el rango intercuartil, o mayor que el cuartil superior más 1,5 veces el rango intercuartil (cercas internas) (ver también Diagrama de caja y bigotes).
Valor muy elevado
Un valor lejano se define como un valor que es menor que el cuartil inferior menos 3 veces el rango intercuartil, o mayor que el cuartil superior más 3 veces el rango intercuartil (cercas externas) (ver también Diagrama de caja y bigotes).
Valor p
La probabilidad de obtener un valor del estadístico de prueba igual o más extremo que el observado, asumiendo que la hipótesis nula es verdadera.
Valor predictivo negativo
Probabilidad de que la enfermedad no esté presente cuando la prueba es negativa. Véase también Valor predictivo positivo.
Valor predictivo positivo
Probabilidad de que la enfermedad esté presente cuando la prueba es positiva. Véase también Valor predictivo negativo.
Valor previsto
Valor para el variable dependiente predicho a partir del modelo de regresión.
Variable aleatoria
Una variable cuyos valores están determinados por los resultados de un fenómeno aleatorio.
Variable continua
Una variable aleatoria que puede tomar cualquier valor dentro de un rango dado.
Variable de confusión
Una variable que influye tanto en el dependiente como en el variable independiente, lo que lleva a una asociación falsa.
Variable dependiente
En regresión, la variable cuyos valores se supone que se explican por los cambios en las otras variables (las variables independientes o explicativas). Generalmente se representa por $y$. Véase también variable independiente.
Variable dicotómica
Una variable que solo puede tener 2 valores.
Variable discreta
Un tipo de variable aleatoria que puede tomar un número finito o infinito contable de valores.
Variable explicativa
Ver variable independiente.
Variable independiente
En la regresión, las variables independientes son las que se supone que explican el variable dependiente. Generalmente representado por $x$ o $x_i$.
Variable X
A menudo se utiliza para denotar la variable independiente en regresión análisis.
Variable Y
Generalmente representa el variable dependiente en un modelo matemático o estadístico. Ver Regresión.
Variable
Una cantidad que varía.
Variación explicada (regresión)
La cantidad de la variabilidad total observada en la variable dependiente Esto se explica por la regresión.
Variación inexplicable (regresión)
La suma de los cuadrados de las diferencias entre los valores observados y los valores estimados o predichos.
Variación total (regresión)
La suma de los cuadrados de la diferencia entre los valores observados y la media aritmética de la variable dependiente.
Varianza
Medida de la dispersión de un conjunto de valores, calculada como la suma de las diferencias al cuadrado de la media, dividida por el número de valores menos 1.
$$s^2 = \frac{\sum_{}^{}{(x-\bar{x})^2}}{n-1} $$
Visualización de datos
La representación gráfica de datos para identificar patrones, tendencias y conocimientos.

Véase también