Grado de concordancia en una serie de informes de electroencefalogramas ambulatorios del Departamento de Neurofisiología Clínica del Hospital de Clínicas
DOI:
https://doi.org/10.29193/RMU.39.2.3Palabras clave:
ELECTROENCEFALOGRAMA, CONCORDANCIA KAPPAResumen
El electroencefalograma (EEG) es una técnica neurofisiológica encargada de analizar la actividad cerebral utilizada con fines diagnósticos en la epilepsia, pero también en pacientes con encefalopatías agudas y crónicas no epilépticas. Su interpretación debe realizarse por médicos especializados en el área con una formación correcta, actualizada y homogénea para evitar conclusiones disimiles y términos en desuso. Para conocer dentro de una unidad de Neurofisiología Clínica de manera objetiva cómo se interpreta un EEG y su concordancia, comparamos una serie de estudios de EEG ambulatorios a través del grado de concordancia o Kappa entre los observadores. Creemos que es importante conocer las similitudes o diferencias inter observador a fines de corregir los problemas observados y mejorar la calidad asistencial.
Citas
Ebersole J, Husain A, Nordli D. Current Practice of Clinical Electroencephalography. 4th ed. Lippincott Williams & Wilkins: Philadelphia, 2014.
McKay JH, Tatum WO. Artifact mimicking ictal epileptiform activity in EEG. J Clin Neurophysiol 2019; 36(4):275- 88. doi: 10.1097/WNP.0000000000000597.
Mathias SV, Bensalem-Owen M. Artifacts that can be misinterpreted as interictal discharges. J Clin Neurophysiol 2019; 36(4):264-74. doi: 10.1097/WNP.0000000000000605.
Kang JY, Krauss GL. Normal variants are commonly overread as in-terictal epileptiform abnormalities. J Clin Neurophysiol 2019; 36(4): 257-63. doi: 10.1097/WNP.0000000000000613.
Cohen J. A coefficient of agreement for nominal scales. EPM 1960; 20:37-46. doi: 10.1177/001316446002000104.
American Electroencephalographic Society guidelines for standard electrode position nomenclature. J Clin Neurophysiol 1991; 8(2):200-2.
Kutluay E, Kalamangalam G. Montages for noninvasive EEG recording. J Clin Neurophysiol 2019; 36(5):330-6. doi: 10.1097/WNP.0000000000000546.
Landis JR, Koch GG. The measurement of observer agreement for categorical data. Biometrics 1977; 33(1):159-74.
Mc Hugh ML. Interrater reliability: the kappa statistic. Biochem Med (Zagreb) 2012; 22(3):276-82.
Viera AJ, Garrett JM. Understanding interobserver agreement: the kappa statistic. Fam Med 2005; 37(5):360-3.
Zec S, Soriani N, Comoretto R, Baldi I. High agreement and high prevalence: the paradox of Cohen’s Kappa. Open Nurs J 2017; 11:211-8. doi: 10.2174/1874434601711010211.