2019027 Cálculo concordancia Índice Kappa Cohen

แชร์
ฝัง
  • เผยแพร่เมื่อ 8 ม.ค. 2025

ความคิดเห็น • 20

  • @fabianandresleonperez3905
    @fabianandresleonperez3905 4 ปีที่แล้ว

    excelente explicación, no había encontrado algo tan claro como lo dices, me ayudo mucho!

  • @ezzardamian509
    @ezzardamian509 3 ปีที่แล้ว

    Saludos desde Peru, gracias por la explicacion

  • @marinaalvarezmonllor7575
    @marinaalvarezmonllor7575 2 ปีที่แล้ว

    Muchas gracias al fin he comprendido el cálculo de kappa

  • @leninjhosue1592
    @leninjhosue1592 7 หลายเดือนก่อน

    Tengo una pregunta
    En el caso de hacer en una encuesta de 32 encuestados como aplicaríamos ?

  • @Rafa_Galvezs
    @Rafa_Galvezs ปีที่แล้ว

    Buenas tardes, estoy viendo su video para intentar resolver un problema que pienso es similar, pero no termino de comprenderlo. Si cada observador en su ejemplo interpreta 100 radiografías, no debería su casilla de anormales y su casilla de normales sumar 100? de igual manera con el observador numero 2. Explicado de otra manera, siendo las casillas de la tabla de contingencia a,b,c y d. No debería a + b sumar 100 y c + d sumar 100 igualmente? No entiendo como el total no acaba en su caso siendo de 200 al comparar los 100 resultados de un observador frente a los 100 del otro. En mi problema el total de pacientes con x enfermedad es de 140, y tengo que enfrentar un criterio que diagnostica como enfermos a 78 contra una que diagnostica a 116. Un saludo

    • @evalmed9454
      @evalmed9454  ปีที่แล้ว

      Aunque hay una segunda versión más actualizada y completa de este vídeo en: evalmed.es/2020/04/20/modulo-2-2-concordancia-mas-alla-del-azar/ , le doy mi correo electrónico (galoagustin.sanchez.2007@gmail.com) por si usted quiere que nos conectemos telemáticamente, compartiendo pantalla, para resolver el problema conjuntamente.

  • @elplayonero
    @elplayonero 2 ปีที่แล้ว

    Tengo una pregunta, y si las radiografías consideradas como Anormales por el observador 1 , no están dentro del conjunto de las radiografías consideradas como Anormales por el observados 2, es decir las que si las consideradas como normales por el observador 1 , están dentro del conjunto consideradas como anormales por el observador 2, no habría ninguna concordancia, a pesar de que en porcentajes se dijera que las anormales de cada grupo representen 40 % por ejemplo.

    • @evalmed9454
      @evalmed9454  2 ปีที่แล้ว

      No entiendo bien su pregunta. Si usted quiere, con mucho gusto podemos conectar por video-conferencia, compartiendo pantalla, de modo que podamos dialogar con comodidad. Usted sólo tiene que escribirme a mi correo electrónico, para que yo la invite por esa vía a la hora (horario de Madrid) que a usted le venga mejor. Mi correo electrónico es: galoagustin.sanchez.2007@gmail.com . Tiene disponible esto mismo que usted ha visto, aunque más ampliado ya en: evalmed.es/2020/04/20/modulo-2-2-concordancia-mas-alla-del-azar/

  • @nevermind367
    @nevermind367 4 ปีที่แล้ว

    Estaba muy claro, muchas gracias!

  • @evalmed9454
    @evalmed9454  7 หลายเดือนก่อน

    Usted tiene que preparar primero la tabla con las cuatro posibilidades de resultados en los que concuerdan y no concuerdan el observador nº 1 y el observador nº 2. La suma de las cuatro casillas será 32 tanto si lo hace verticalmente como horizontalmente, porque son los mismos 32 encuestados. Tiene usted un ejemplo real en una de nuestras investigaciones aquí: evalmed.es/2021/03/05/concordancias-entre-oftalmologos-y-profesionales-de-ap-sobre-210-retinografias/
    Si no he logrado aclararle sus dudas, puede usted contactar conmigo a través de mi correo electrónico: galoagustin.sanchez.2007@gmail.com

  • @oredent
    @oredent 2 ปีที่แล้ว

    gracias dr..........
    wa practicar

  • @ssgelcich
    @ssgelcich 3 ปีที่แล้ว

    Buenisima explicacion !!

  • @carlosmiguelperaza5474
    @carlosmiguelperaza5474 2 ปีที่แล้ว

    Hola: una duda, El índice Kappa tiene relevancia también cuando las matrices de observaciones son llevadas a cabo por un método de clasificación dígase Análisis Discriminante etc, o solo cuando la clasificación la hace ese observador y existe un azar. Gracias

    • @evalmed9454
      @evalmed9454  2 ปีที่แล้ว

      1) Si entiendo el término “discriminar” como separar a los sujetos por su aptitud, entonces habría que relacionar las respuestas de los sujetos con un referente de objetividad. Si es ésta la acepción a la que usted se refiere cuando alude a “discriminar”, entonces las pruebas para estimar el grado de concordancia no serían las adecuadas, porque éstas se utilizan cuando no hay referente de objetividad. Son dos subjetividades las que se relacionan. Sabe usted perfectamente que también se utilizan para estimar la fiabilidad en los tests psicométricos, no sólo para estimar la fiabilidad entre 2 o más observadores independientes (inter-observadores) sino también para estimar la fiabilidad entre las observaciones de un mismo observador en dos tiempos separados (intra-observador).
      2) En cuanto a la concordancia cuando no hay referente de objetividad, por si resulta útil, en julio de 2021 refrescamos los contenidos en una narración, que está disponible en th-cam.com/video/cW03uY70UVo/w-d-xo.html. En la misma explicamos los fundamentos, operaciones (cálculos) y significados prácticos de la concordancia-discordancia diagnóstica: a) inter-observadores, es decir la coincidencia entre dos observadores independientes en el mismo momento, cuando no hay un referente de objetividad); o b) intra-observador, es decir la coincidencia de un observador consigo mismo en dos tiempos distintos. Para la comprensión nos basamos en la concordancia más allá del azar mediante el estadístico “índice kappa de Cohen”, mostrando además cómo se utiliza la calculadora cuando hay dos opciones (tabla 2x2), tres opciones (tabla 3x3), cuatro opciones (tabla 4x4) y cinco opciones (5x5). En estas cinco se obtiene la estimación puntual con sus intervalos de confianza al 95%. Al final mostramos también las calculadoras 2x2 y 3x3 para los otros estadísticos de concordancia: a) Coeficiente de Consistencia; b) V de Cramer; y c) Coeficiente.
      Todo el contenido está disponible en la web evalmed: evalmed.es/2020/04/20/modulo-2...
      Si no he acertado a responderle lo que usted quería pregúntame, puede ponerse en contacto conmigo mediante el correo electrónico: galoagustin.sanchez.2007@gmail.com

  • @carlosahumada201
    @carlosahumada201 2 ปีที่แล้ว

    ¡Vaya, todos usáis un ejemplo con dos observadores! ¿Qué pasa si en vez de tener sólo dos observadores, como todos mostráis, se tuviesen 3, 5 o más observadores? ¿Cómo se obtendría el índice Kappa?

  • @smartlucky8027
    @smartlucky8027 7 หลายเดือนก่อน

    Muy buena explicacion

  • @Andrea-hf7qg
    @Andrea-hf7qg 3 ปีที่แล้ว

    Que buena explicación

  • @itzelflores4002
    @itzelflores4002 3 ปีที่แล้ว

    Gracias por la explicación, muy buena además, me sirvió mucho su ejemplo de la página. Pero tengo una duda, en el error estándar Cohen marca que ee=raiz((Po(1-Po))/(N(1-Pc)^2)) y en su excel han puesto en el numerador en lugar de Po han puesto Pc, es decir Po*(1-Pc), ¿esto a qué se debe?

    • @evalmed9454
      @evalmed9454  3 ปีที่แล้ว

      Estoy comprobándolo por si había algún error mecanográfico o matemático, y creo que no hemos cometido ninguno de ambos. El error estándar EE = Raíz [Po(1-Pe)] / N(1-Pe)]. Eso es lo que veo que está escrito, y los datos de cada término están bien tomados y operados. No sé si en el vídeo, podría no verse bien por la calidad de la imagen. En todo caso, aparte de que puede usted bajar la hoja de cálculo (evalmed.es/wp-content/uploads/2020/04/2.2.1-Concordancia-mas-alla-del-azar-kappa-de-Cohen-2x2-a-5x5-1.xlsx), también puede contactar conmigo a través de mi correo electrónico (galoagustin.sanchez.2007@gmail.com) si mi explicación no es correcta.

    • @evalmed9454
      @evalmed9454  3 ปีที่แล้ว +1

      También acabo de comprobar que usted no ha entrado en la versión mejorada, que acabamos de subir hace una semana. Está aquí: evalmed.es/2020/04/20/modulo-2-1-sensiblidad-especificidad-vpp-y-vpn-de-pruebas-diagnosticas/