Thesis
Concordancia interobservador para la detección de espondiloartritis por radiografía sacroiliacas
Fecha
2023Autor
Lucín Alarcón, Juan Carlos
Institución
Resumen
Las concordancias interobservador, es cuando dos o más profesionistas
realizan una evaluación a un participante de manera independiente y
simultánea, Como médico, es importante entender el coeficiente kappa como
una medida de concordancia interobservador. Esta medida se puede calcular en
tablas de cualquier dimensión cuando se comparan dos observadores. En el
caso de la evaluación de concordancia de tres o más observadores, se utiliza el
coeficiente kappa de Fleiss. El coeficiente kappa puede variar entre -1 y +1,
donde un valor cercano a +1 indica una alta concordancia interobservador,
mientras que un valor cercano a -1 indica una alta discordancia interobservador.
Un valor de k = 0 indica que la concordancia observada es igual a la que se
espera por azar. Por lo tanto, es importante considerar el valor del coeficiente
kappa al interpretar los resultados de una evaluación de concordancia
interobservador... El trabajo se relazaría en los hospitales pertenecientes al
Instituto Ecuatoriano de Seguridad Social, en la ciudad de Guayaquil, y se
aplicara como un estudio observacional y correlacional, con análisis a base de
estadística descriptiva e inferencial, aplicado a 60 médicos y especialistas que
laboran en las áreas de reumatología y radiología, el objetivo es determinar
quienes tienen el mayor acierto al diagnosticar espondiloartritis por radiografía
sacroilíacas, y así determinar la concordancia interobservador en esta patología. Interobserver agreement is when two or more professionals perform an
evaluation of a participant independently and simultaneously. As a doctor, it is
important to understand the kappa coefficient as a measure of interobserver
agreement. This measure can be calculated on tables of any dimension when
two observers are compared. In the case of agreement evaluation of three or
more observers, the Fleiss kappa coefficient is used. The kappa coefficient can
vary between -1 and +1, where a value close to +1 indicates high interobserver
agreement, while a value close to -1 indicates high interobserver disagreement.
A value of k = 0 indicates that the observed agreement is the same as that
expected by chance. Therefore, it is important to consider the value of the kappa
coefficient when interpreting the results of an interobserver agreement
evaluation... The work would be carried out in the hospitals belonging to the
Ecuadorian Social Security Institute, in the city of Guayaquil, and it would be
applied as an observational and correlational study, with analysis based on
descriptive and inferential statistics, applied to 60 physicians and specialists
working in the areas of rheumatology and radiology, the objective is to determine
who has the greatest accuracy in diagnosing spondyloarthritis by sacroiliac
radiography, and thus to determine the interobserver agreement in this
pathology.