Calculadoras estadísticas gratuitas
Concordancia de interevaluadores (Kappa)
Descripción
Utilice el acuerdo entre evaluadores para evaluar el acuerdo entre dos clasificaciones (escalas nominales u ordinales).
Entrada requerida
- Primero seleccione el número de categorías en el sistema de clasificación: el número máximo de categorías es 12.
- A continuación, ingrese el número de observaciones en cada celda de la tabla de datos.
- Kappa ponderado: seleccione Kappa ponderado si los datos provienen de una escala ordenada. Si los datos provienen de una escala nominal, no seleccione Kappa ponderado.
MedCalc ofrece dos conjuntos de ponderaciones: lineal y cuadrático. En el conjunto lineal, si hay k categorías, las ponderaciones se calculan de la siguiente manera:
En el conjunto lineal, si hay k categorías, los pesos se calculan de la siguiente manera::
$$ w_i = 1 - \frac{i}{k-1} $$y en el conjunto cuadrático:
$$ w_i = 1 - \frac{i^2}{ (k-1)^2 } $$Cuando hay 5 categorías, los pesos en el conjunto lineal son 1, 0,75, 0,50, 0,25 y 0 cuando la diferencia es 0 (=concordancia total) o 1, 2, 3 y 4 categorías, respectivamente. En el conjunto cuadrático, los pesos son 1, 0,937, 0,750, 0,437 y 0.
Utilice pesos lineales cuando la diferencia entre la primera y la segunda categoría tenga la misma importancia que la diferencia entre la segunda y la tercera categoría, etc. Si la diferencia entre la primera y la segunda categoría es menos importante que la diferencia entre la segunda y la tercera categoría, etc., utilice pesos cuadráticos.
Interpretación
El acuerdo se cuantifica mediante la estadística Kappa (K) (Cohen, 1960; Fleiss et al., 2003)::
- K es 1 cuando hay concordancia perfecta entre los sistemas de clasificación;
- K es 0 cuando no hay acuerdo mejor que el azar;
- K ies negativo cuando el acuerdo es peor que el azar.
Después de hacer clic en el botón Aceptar, el programa mostrará el valor de Kappa con su error estándar y el intervalo de confianza del 95% (IC) (Fleiss et al., 2003).
Los errores estándar informados por MedCalc son los errores estándar apropiados para probar la hipótesis de que el valor subyacente de kappa ponderado es igual a un valor preestablecido distinto de cero (Fleiss et al., 2003).
El valor K se puede interpretar de la siguiente manera (Altman, 1991):
| Valor de K | Fuerza del acuerdo |
|---|---|
| < 0,20 | Pobre |
| 0,21 - 0,40 | Justo |
| 0,41 - 0,60 | Moderado |
| 0,61 - 0,80 | Bien |
| 0,81 - 1,00 | Muy bien |
Literatura
- Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
- Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement 20:37-46.
- Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.
Cómo citar esta página
- MedCalc Software Ltd. Concordancia de interevaluadores (Kappa). https://www.medcalc.org/es/calc/kappa.php (Version 23.4.5; accessed January 16, 2026)