Saltar al contenido principal
MedCalc
Enviar una copia en PDF de esta página a:
(Su dirección de correo electrónico no se añadirá a una lista de distribución)
working

Calculadoras estadísticas gratuitas

Concordancia de interevaluadores (Kappa)

Número de categorías:
 Categoría 1Categoría 2
Categoría 1
Categoría 2
Kappa ponderado

Descripción

Utilice el acuerdo entre evaluadores para evaluar el acuerdo entre dos clasificaciones (escalas nominales u ordinales).

Entrada requerida

  • Primero seleccione el número de categorías en el sistema de clasificación: el número máximo de categorías es 12.
  • A continuación, ingrese el número de observaciones en cada celda de la tabla de datos.
  • Kappa ponderado: seleccione Kappa ponderado si los datos provienen de una escala ordenada. Si los datos provienen de una escala nominal, no seleccione Kappa ponderado.

    MedCalc ofrece dos conjuntos de ponderaciones: lineal y cuadrático. En el conjunto lineal, si hay k categorías, las ponderaciones se calculan de la siguiente manera:

    En el conjunto lineal, si hay k categorías, los pesos se calculan de la siguiente manera::

    $$ w_i = 1 - \frac{i}{k-1} $$

    y en el conjunto cuadrático:

    $$ w_i = 1 - \frac{i^2}{ (k-1)^2 } $$

    Cuando hay 5 categorías, los pesos en el conjunto lineal son 1, 0,75, 0,50, 0,25 y 0 cuando la diferencia es 0 (=concordancia total) o 1, 2, 3 y 4 categorías, respectivamente. En el conjunto cuadrático, los pesos son 1, 0,937, 0,750, 0,437 y 0.

    Utilice pesos lineales cuando la diferencia entre la primera y la segunda categoría tenga la misma importancia que la diferencia entre la segunda y la tercera categoría, etc. Si la diferencia entre la primera y la segunda categoría es menos importante que la diferencia entre la segunda y la tercera categoría, etc., utilice pesos cuadráticos.

Interpretación

El acuerdo se cuantifica mediante la estadística Kappa (K) (Cohen, 1960; Fleiss et al., 2003)::

  • K es 1 cuando hay concordancia perfecta entre los sistemas de clasificación;
  • K es 0 cuando no hay acuerdo mejor que el azar;
  • K ies negativo cuando el acuerdo es peor que el azar.

Después de hacer clic en el botón Aceptar, el programa mostrará el valor de Kappa con su error estándar y el intervalo de confianza del 95% (IC) (Fleiss et al., 2003).

Los errores estándar informados por MedCalc son los errores estándar apropiados para probar la hipótesis de que el valor subyacente de kappa ponderado es igual a un valor preestablecido distinto de cero (Fleiss et al., 2003).

El valor K se puede interpretar de la siguiente manera (Altman, 1991):

Valor de KFuerza del acuerdo
< 0,20Pobre
0,21 - 0,40Justo
0,41 - 0,60Moderado
0,61 - 0,80Bien
0,81 - 1,00Muy bien

Literatura

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement 20:37-46.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Cómo citar esta página

  • MedCalc Software Ltd. Concordancia de interevaluadores (Kappa). https://www.medcalc.org/es/calc/kappa.php (Version 23.4.5; accessed January 16, 2026)

Calculadoras estadísticas gratuitas