Resúmenes amplios

USO DE INTELIGENCIA ARTIFICIAL PARA LA INVESTIGACIÓN EN SALUD MENTAL


Valencia, España
La investigación en salud mental apoyada en algoritmos de inteligencia artificial presenta todavía incongruencias metodológicas significativas, defectos de calidad y falta de transparencia.

JMIR Mental Health 10(42045):1-19

Autores:
Tornero-Costa R, Martinez-Millana A, Novillo-Ortiz D

Institución/es participante/s en la investigación:
Universitat Politècnica de València

Título original:
Methodological and Quality Flaws in the Use of Artificial Intelligence in Mental Health Research: Systematic Review

Título en castellano:
Revisión Sistemática de Incongruencias Metodológicas y de Defectos de Calidad con el Uso de Inteligencia Artificial para la Investigación en Salud Mental

Extensión del  Resumen-SIIC en castellano:
2.56 páginas impresas en papel A4

Introducción y objetivos

La salud mental está considerada un elemento vital del bienestar del individuo y de la sociedad. Las condiciones de vida adversas o estresantes, el trabajo, las condiciones económicas, las desigualdades sociales, la violencia y los conflictos ponen en riesgo la salud mental. La pandemia de COVID-19 mostró cuán vulnerable puede ser la salud mental de una sociedad.

Los trastornos de salud mental representan una de las principales causas de discapacidad en Europa. En 2021, más de 150 000 000 de personas en la Comunidad Europea presentaron un trastorno de salud mental, y solamente una de cada 3 personas con depresión recibió la atención adecuada. La Organización Mundial de la Salud (OMS) de la región europea puso en marcha una iniciativa insignia para el período 2020-2025, donde la salud mental es la prioridad central.

La inteligencia artificial (IA) se utiliza cada vez con mayor frecuencia como herramienta para el diagnóstico y el tratamiento de enfermedades. La IA se caracteriza por la reproducibilidad de un razonamiento similar al humano, y por la identificación de patrones para resolver problemas; asimismo, despliega una variedad de métodos para expandir las técnicas estadísticas tradicionales. Todos los modelos de IA requieren ser alimentados con información clínica de alta calidad. Los datos digitalizados en el contexto de la salud están disponibles en diferentes formatos, incluidos datos estructurados (historia clínica electrónica, imágenes, estudios de laboratorio) y datos no estructurados, como las notas clínicas manuscritas.

Las posibilidades de la IA son atractivas para investigadores y para formuladores de políticas de salud. Sin embargo, la IA comprende con frecuencia el uso de estadísticas complejas, de abordajes matemáticos sofisticados y de datos multidimensionales que pueden conducir a sesgos, interpretación inadecuada y sobreestimación de las capacidades de esta herramienta. Se han identificado varias áreas deficitarias que causan preocupación. La falta de transparencia en el informe de modelos de IA limita la replicabilidad, genera potenciales problemas éticos, impide la validación de la generalizabilidad y obstaculiza la colaboración en la comunidad de investigadores.

Los objetivos de esta revisión fueron analizar las aplicaciones de las técnicas de IA en la investigación en salud mental, y evaluar la calidad metodológica de los estudios que utilizaron esta herramienta.

 

Métodos

Se llevó a cabo una búsqueda sistemática de estudios sobre trastornos de salud mental en las bases de datos PubMed, Scopus, IEEE Xplore y Cochrane. Se incluyeron ensayos clínicos (de intervención y de observación) publicados en los últimos 5 años, relacionados con trastornos de salud mental y que hubieran utilizado una aplicación de IA. Se excluyeron los estudios en idioma distinto al inglés y aquellos que utilizaron la IA para una variable que no fuera de salud mental (por ej., mejoramiento de la calidad de imágenes).

Los datos extraídos fueron elegidos sobre la base de las recomendaciones Critical Appraisal and Data Extraction for Systematic Reviews of Prediction Modelling Studies (CHARMS). El riesgo de sesgos fue evaluado con la herramienta Cochrane Handbook for Systematic Reviews of Interventions (CHASRI) y con las recomendaciones Prediction Model Risk of Bias Assessment Tool (PROBAST).

Resultados

La búsqueda inicial identificó 540 registros. Luego de aplicados los criterios de exclusión, 153 estudios ingresaron en el análisis final. La mayor parte de los trabajos (n = 142) utilizaban datos privados y desarrollaban nuevos métodos de IA. La categoría más frecuente de diagnósticos fue la de trastornos del estado de ánimo (77/153, 50.3%; trastornos depresivos: n = 70; trastorno bipolar: n = 4; otros: n = 3). La segunda categoría en frecuencia fue la de esquizofrenia y trastornos relacionados (n = 26), seguida por trastornos asociados con el estrés (n = 12), trastornos combinados (n = 10), trastornos de ansiedad (n = 7), síndromes conductuales asociados con enfermedades sistémicas (n = 5), abuso de sustancias (n = 5), demencias (n = 4), trastornos del neurodesarrollo (n = 1), trastorno obsesivo compulsivo (n = 1), trastornos de la alimentación (n = 1), trastornos de la percepción corporal (n = 1), trastorno de la personalidad (n = 1) y trastornos conductuales del embarazo y del puerperio (n = 1).

Las publicaciones analizadas fueron ensayos clínicos aleatorizados (n = 62), estudios de cohortes prospectivas (n = 30), ensayos clínicos no aleatorizados (n = 15), estudios naturalísticos longitudinales (n = 15), investigaciones transversales (n = 14), estudios de casos y controles (n = 9), informes de casos (n = 2), estudios de diseño mixto (n = 4) e investigaciones que no informaron su diseño (n = 2).

Las investigaciones aplicaron la IA principalmente para evaluación de tratamientos (n = 44), para identificación de subgrupos (n = 31), para identificación de factores predictivos (n = 28), para pronóstico (n = 23), para diagnóstico (n = 20) y para identificación de síntomas precoces (n = 7). Solo 12/153 estudios (7.8%) comunicaron la potencia estadística del tamaño muestral. Únicamente el 38.6% de los artículos informaron un método para calcular la significación estadística. Entre los algoritmos para IA utilizados, los más frecuentes fueron la regresión (n = 34), la arborización (n = 26), la vectorización de soporte (n = 23), los algoritmos bayesianos (n = 6), el conglomerado estadístico (n = 5), el conglomerado jerárquico (n = 5), los modelos mixtos (n = 3), el aprendizaje automático (n = 1), las técnicas multivariadas (n = 1), el modelo de Markov (n = 1) y la vectorización de relevancia (n = 1); en 12 estudios se emplearon diferentes algoritmos simultáneamente, y 35 trabajos no predefinieron un algoritmo específico.

En la mayoría de los estudios el riesgo de sesgos fue alto o no definido; solo en 23 trabajos se concluyó que un sesgo era improbable. El riesgo de sesgo más importante se encontró en la aplicación de los algoritmos de IA y en su evaluación. Solo un estudio se evaluó como de bajo riesgo de sesgos.

Discusión y conclusiones

Esta revisión resume el desarrollo actual de las aplicaciones de IA como herramienta para la investigación en salud mental, mediante un análisis de la bibliografía publicada entre 2016 y 2021. El trabajo incluye aspectos relacionados con la calidad metodológica, el riesgo de sesgos y la transparencia.

Los autores hallaron incongruencias metodológicas significativas en el proceso estadístico, las cuales se listan a continuación:

-         En muchas publicaciones se omite informar la calidad de los datos y el ajuste del modelo de IA utilizado.

-         Algunos estudios utilizan varios modelos de IA en forma concurrente, lo que representa uno de los motivos contribuyentes a la sobreestimación de las capacidades de la IA.

-         No está informado adecuadamente el tratamiento para con los datos faltantes.

-         No se indica adecuadamente el proceso de reclutamiento de participantes. Estas dos últimas incongruencias pueden contribuir al sobreajuste del modelo.

-         Presencia de tamaños muestrales insuficientes que no permiten la generalizabilidad de los resultados.

-         La transformación preprocesamiento de los datos no está adecuadamente descripta. Esto reduce la reproducibilidad del estudio y la adaptabilidad de las técnicas de IA para protocolos específicos.

-         Complejidad de los algoritmos de IA, lo que lleva a los investigadores a elegir técnicas más simples.

-         Falta de transparencia en el informe de los modelos de IA (coeficientes, hiperparámetros, selección de predictores).

-         Predominio de datos retrospectivos provenientes de estudios que no fueron diseñados específicamente para la IA.

-         En los estudios de observación, riesgo de sesgos por heterogeneidad de las cohortes.

-         Riesgo de sesgos por falta de seguimiento adecuado.

-         Escasez de investigaciones multicéntricas internacionales, con excesiva predominancia de datos locales con baja generalizabilidad.

Los autores recomiendan la utilización de algunas guías específicas, como Consolidated Standards of Reporting Trials for AI (CONSORT-AI), Standard Protocol Items: Recommendations for Interventional Trials (SPIRIT-AI), Minimum Information About Clinical Artificial Intelligence Modeling (MI-CLAIM), Transparent Reporting of a Multivariable Prediction Model of Individual Prognosis or Diagnosis (TRIPOD-AI) y PROBAST-AI para mejorar las características de los modelos de análisis que utilizan IA.

Señalan también que la utilización de la IA como herramienta de investigación es despareja entre los distintos trastornos de salud mental. La mayoría de los estudios están centrados en los trastornos depresivos y en las psicosis.

En conclusión, los algoritmos de IA se están incorporando a la investigación en salud mental en forma creciente. Existen, sin embargo, problemas metodológicos y desafíos que deben encararse para mejorar su transparencia y para reducir el riesgo de sesgos.



ua40317

Imprimir esta página