
Inteligencia Artificial Médica: Transformando la Práctica de la Salud
En un mundo donde la tecnología avanza a pasos agigantados, la inteligencia artificial médica emerge como una de las áreas con mayor potencial transformador en el ámbito de la salud. Entre estas innovaciones, las tecnologías de Inteligencia Artificial de las Cosas Médicas (AIoMT, Artificial Intelligence of Medical Things) están revolucionando cómo diagnosticamos, tratamos y monitoreamos enfermedades. Desde dispositivos médicos conectados que recopilan y procesan datos en tiempo real, hasta algoritmos de aprendizaje automático en salud que detectan anomalías con una precisión sin precedentes, el impacto de estas herramientas es innegable. Pero más allá de la eficiencia, surge una pregunta clave: ¿cómo pueden los sistemas basados en IA ganar la confianza de médicos y pacientes? Aquí es donde entra en juego un concepto fundamental: la explicabilidad.
Explicabilidad en la IA Médica: Clave para la Confianza y la Ética
La explicabilidad no solo es crucial para entender cómo los modelos de predicción médica toman decisiones, sino que también fortalece la confianza en IA médica, al ofrecer razones claras y comprensibles detrás de cada diagnóstico o recomendación. En este artículo, exploraremos cómo herramientas como los mapas de calor en IA, el mapeo de activación por clase y técnicas como SHAP y LIME están mejorando la interpretación de resultados en áreas críticas como el diagnóstico de tumores cerebrales y la detección temprana de enfermedades. Acompáñanos en este recorrido por los avances tecnológicos que están transformando la práctica médica y descubre por qué la combinación de explicabilidad, innovación y ética será esencial para el futuro de la salud digital en tiempo real.
Modelos Explicables y Predicción Clínica: Potencial y Retos
La capacidad para diagnosticar enfermedades y predecir resultados clínicos representa una herramienta poderosa proporcionada por la inteligencia artificial de las cosas médicas, (AIoMT, Artificial Intelligence of Medical Things). Además de estas capacidades, los sistemas modernos de AIoMT destacan por su habilidad para explicar las predicciones realizadas a los profesionales de la salud. Este atributo de explicabilidad no solo incrementa la confianza de los médicos en estas herramientas, sino que también facilita una toma de decisiones más basada en conocimientos y experiencias, de forma precisa. Por otro lado, la explicabilidad permite comprender mejor los factores de riesgo, los biomarcadores y las características asociadas con ciertas condiciones específicas, lo cual resulta esencial para dirigir investigaciones médicas hacia estrategias más efectivas de tratamiento y prevención de enfermedades. Este beneficio también promueve el desarrollo de una inteligencia artificial socialmente responsable, (AI, Artificial Intelligence) (Cheng et al., 2021), dado que la explicabilidad contribuye a mejorar la fiabilidad del modelo y permite identificar y corregir posibles sesgos o problemas inherentes, asegurando que los sistemas sean éticamente sólidos.
Dispositivos Conectados en AIoMT: Aplicaciones en Salud Digital
Por un lado, la inteligencia artificial de las cosas médicas, (AIoMT, Artificial Intelligence of Medical Things), se caracteriza por integrar dispositivos conectados con inteligencia artificial (AI, Artificial Intelligence) para recopilar, procesar y analizar datos clínicos en tiempo real. Estas tecnologías combinan sensores avanzados, algoritmos de aprendizaje automático (ML, Machine Learning) y plataformas de computación en la nube para monitorear la salud del paciente, detectar anomalías y predecir resultados clínicos. Por ejemplo, un marcapasos inteligente puede detectar irregularidades en el ritmo cardíaco y alertar a los profesionales médicos con información detallada en tiempo real (Smith et al., 2020). Sin embargo, estos sistemas dependen en gran medida de la calidad de los datos, siendo susceptibles a sesgos inherentes, como aquellos derivados de conjuntos de datos no representativos de poblaciones diversas, lo que podría reducir su fiabilidad y equidad (Cheng et al., 2021).
Identificación de Sesgos en Algoritmos Médicos: Implicaciones Éticas
Además, la explicabilidad es una característica técnica fundamental que distingue a los modelos de la AIoMT. Este concepto implica que los algoritmos pueden justificar sus decisiones de manera comprensible para los usuarios humanos, lo cual no solo incrementa la confianza en las predicciones, sino también permite identificar y mitigar sesgos. Por ejemplo, en una aplicación que evalúe el riesgo de diabetes, la explicabilidad podría mostrar cómo factores como la edad, el índice de masa corporal o antecedentes familiares influyen en el riesgo predicho, facilitando así un análisis ético y transparente (Brown et al., 2022).
Por otra parte, los sesgos en la AI pueden manifestarse a través de errores sistemáticos en el diseño del modelo, como el sobreajuste de datos demográficos específicos. En el contexto médico, un algoritmo entrenado exclusivamente con datos de pacientes de una región puede no generalizar adecuadamente en poblaciones distintas, comprometiendo su eficacia. Un caso práctico lo ilustra un sistema de reconocimiento de imágenes médicas entrenado principalmente con datos de piel clara, lo que resultó en diagnósticos menos precisos para pacientes con piel oscura, demostrando la importancia de la inclusión y diversidad en los datos (Rajpurkar et al., 2018).
No cabe duda, que la implementación de un enfoque ético y responsable exige técnicas como la auditoría de modelos, la validación cruzada en poblaciones diversas y el uso de datos sintéticos para complementar los conjuntos existentes. En aplicaciones como los sistemas de AIoMT diseñados para monitoreo postquirúrgico, la detección temprana de sesgos es imprescindible para evitar riesgos clínicos y garantizar equidad en la atención médica (Cheng et al., 2021).
Mapas de Calor y Diagnósticos Médicos: Explicabilidad en Imágenes
Asimismo, en el campo de las imágenes médicas, mejorar la confianza de los profesionales en las herramientas basadas en inteligencia artificial es uno de los objetivos clave de las técnicas de explicabilidad aplicadas al sector de la atención sanitaria. En particular, la capacidad de explicar decisiones diagnósticas a partir de imágenes médicas constituye una aplicación fundamental de la explicabilidad en los sistemas de AIoMT. Entre las técnicas más destacadas descritas en la literatura científica se encuentra el uso de mapas de calor, que destacan las áreas específicas que un modelo ha utilizado para tomar una decisión, como se ilustra en la Figura 6. Estos mapas no solo brindan claridad visual sobre el razonamiento del modelo, sino que también refuerzan la confianza de los médicos en los resultados proporcionados. Un ejemplo reciente es el Mapeo de Activación de Alta Resolución, (HAM, High-resolution Activation Mapping), una técnica innovadora aplicada a un modelo basado en atención para diagnosticar y explicar casos de la enfermedad de Alzheimer mediante imágenes de resonancia magnética, (MRI, Magnetic Resonance Imaging) (Yu et al., 2022). Los resultados de las evaluaciones indicaron que el modelo identificó correctamente áreas críticas, como la materia blanca, superando a enfoques previos en la precisión y utilidad del mapeo de calor.

Técnicas Avanzadas de Explicabilidad en AIoMT: Impacto en la Medicina
Es significativa la importancia de los sistemas de AIoMT explicables, dado que desempeñan una función fundamental en la transformación del diagnóstico médico al proporcionar no solo resultados precisos, sino también justificaciones claras de sus decisiones. Esto incrementa la confianza en estas herramientas y promueve una integración más eficaz de la inteligencia artificial en la práctica clínica. De esta manera, es esencial seguir desarrollando y perfeccionando técnicas de explicabilidad, como el mapeo de calor y el Mapeo de Activación de Alta Resolución, con el objetivo de garantizar un uso ético, fiable y eficiente de la inteligencia artificial en la atención médica. Además, la combinación de estas técnicas con investigaciones orientadas a identificar sesgos y mejorar la interpretación de modelos ayudará a consolidar sistemas de AIoMT socialmente responsables y más efectivos para enfrentar desafíos médicos complejos.
Diagnóstico de Tumores Cerebrales con Modelos CNN Explicables
Por otro lado, hay que resaltar que la detección y clasificación de tumores cerebrales en imágenes médicas ha sido un campo de investigación significativo en los últimos años, con un énfasis creciente en el uso de técnicas de inteligencia artificial (IA) explicables para apoyar la toma de decisiones clínicas. Un estudio reciente identificó tumores cerebrales en imágenes de resonancia magnética mediante un modelo ligero de red neuronal convolucional (CNN, Convolutional Neural Network). Además de detectar la presencia de tumores, estos fueron clasificados según su malignidad y tipo utilizando un enfoque de mapeo de calor denominado mapeo de activación por clase (CAM, Class-activation Mapping), que permitió localizar las áreas específicas donde el tumor estaba presente. Para evaluar la utilidad y confiabilidad del sistema, las explicaciones generadas por el modelo fueron revisadas por un grupo piloto de 10 médicos, quienes respondieron a una encuesta. Los resultados preliminares indicaron que las explicaciones mejoraron la confianza en la toma de decisiones asistida por IA; sin embargo, se ha señalado la necesidad de incluir un tamaño de muestra más grande para confirmar estas observaciones (Kumar et al., 2021).
Igualmente, Gaur et al. (2022) exploraron la detección de tumores cerebrales mediante un modelo CNN, (Convolutional Neural Network), combinado con técnicas de explicabilidad interpretable local para modelos independientes como, (LIME, Local Interpretable Model-agnostic Explainability) (Ribeiro et al., 2016), y de explicaciones aditivas de Shapley, (SHAP, SHapley Additive Explanations) (Lundberg & Lee, 2017). La técnica SHAP fue particularmente útil al resaltar áreas relevantes en las imágenes: en rojo las regiones asociadas con el diagnóstico y en azul aquellas que contradecían dicho diagnóstico. Este enfoque permite a los médicos identificar con mayor precisión los casos en los que el modelo muestran incertidumbre, reduciendo el riesgo de pérdida de confianza ante predicciones incorrectas. Mientras tanto, LIME se emplea para segmentar las áreas del cerebro consideradas importantes por el modelo, aunque su desempeño sea inferior al de SHAP. Estos resultados subrayan la importancia de utilizar herramientas de explicabilidad robustas para mejorar la interacción entre los médicos y los sistemas basados en IA.
En un estudio adicional, se aplicaron técnicas de explicabilidad, como LIME, CAM y muestreo aleatorio de entradas para modelos de caja negra, (RISE, Randomized Input Sampling of Black-box Models) (Petsiuk et al., 2018), para analizar diagnósticos de COVID-19 realizados por un modelo CNN profundo utilizando imágenes de tomografía computarizada (CT, Computed Tomography). Entre las técnicas aplicadas, se observa que las áreas identificadas con RISE coincidían de manera más precisa con las anotaciones realizadas por expertos humanos. En este caso, un grupo de 50 médicos evaluó las explicaciones generadas mediante encuestas estructuradas, concluyendo que las explicaciones incrementaron la comprensión de las decisiones del modelo y, en general, mejoraron la confianza en los resultados. No obstante, los comentarios de los médicos revelaron que, a pesar de los avances, sigue siendo fundamental contar con experiencia en el dominio para validar las predicciones del modelo, ya que estas no siempre alcanzan el nivel de precisión requerido. Estos hallazgos sugieren que hay un margen significativo para perfeccionar las técnicas de explicabilidad en contextos clínicos complejos (Goel et al., 2022).
Hay que reconocer, que los avances recientes en el uso de técnicas de IA explicables para la detección y clasificación de tumores cerebrales, así como para el diagnóstico de otras enfermedades como el COVID-19, han mostrado un potencial significativo para complementar la práctica médica. Sin embargo, es necesario mejorar la precisión y confiabilidad de estas herramientas antes de su implementación generalizada. Queda claro la importancia de realizar estudios con tamaños de muestra más grandes y diversas, además de optimizar las técnicas de explicabilidad para garantizar que las decisiones de los modelos sean interpretables y confiables. De esta manera, se podría fomentar una integración más efectiva de la IA en los entornos clínicos, fortaleciendo la confianza de los médicos en estas tecnologías como herramientas complementarias.
Análisis del Neurodesarrollo con Técnicas de Inteligencia Artificial
Las técnicas de explicabilidad en la inteligencia artificial están revolucionando diversos campos de la medicina al facilitar la identificación de áreas clave dentro de las imágenes médicas asociadas con diagnósticos o resultados específicos. En este contexto, el cerebro, a pesar de los avances en investigación, sigue siendo un órgano profundamente enigmático. Para desentrañar algunos de sus misterios, diversos estudios han aplicado técnicas de explicabilidad con resultados prometedores. Por ejemplo, un estudio reciente se emplea una técnica basada en mapas de activación de clase, (CAM, Class Activation Map) para identificar regiones del cerebro relacionadas con el desarrollo motor atípico en bebés, utilizando predicciones generadas por una red neuronal convolucional, (CNN, Convolutional Neural Network) a partir de imágenes de resonancia magnética, (MRI, Magnetic Resonance Imaging) (Saha et al., 2020). Este enfoque permite localizar regiones como la corteza motora, las áreas somatosensoriales, el cerebelo y los lóbulos occipital y frontal como significativamente correlacionadas con los resultados del desarrollo motor. Además, otro estudio, analiza el neurodesarrollo atípico en bebés prematuros mediante un modelo de CNN, (CNN, Convolutional Neural Network) que procesa tanto características clínicas como imágenes de resonancia magnética, (MRI, Magnetic Resonance Imaging) (Rashed-Al-Mahfuz et al., 2021). Utilizando un enfoque basado en derivadas parciales, se calculan las características importantes, identificándose conexiones de materia blanca funcionales y estructurales como predictivas de resultados adversos en el neurodesarrollo. Estos hallazgos no solo amplían el conocimiento sobre el cerebro, sino que también proporcionan una base para futuros tratamientos enfocados en áreas cerebrales específicas.
Biomarcadores en Diagnósticos No Invasivos: Impacto de SHAP y LIME
Por otra parte, en el campo de la inteligencia artificial aplicada a dispositivos médicos, (AIoMT, Artificial Intelligence of Medical Things), los datos suelen presentarse en forma de valores discretos o series temporales. En este ámbito, las técnicas de explicabilidad resultan igualmente valiosas, ya que mejoran la confianza de los especialistas en estos sistemas, al tiempo que facilitan el descubrimiento de biomarcadores. Un ejemplo destacado es la predicción de la mortalidad neonatal, un área donde los sistemas explicables de AIoMT, (Artificial Intelligence of Medical Things) son esenciales. En un estudio reciente, se utiliza una estructura de red neuronal convolucional con memoria a largo y corto plazo, (CNN-LSTM, Convolutional Neural Network-Long Short Term Memory), para predecir la mortalidad en un segmento neonatal a partir de variaciones en los signos vitales. Las explicaciones se generan con puntajes de explicaciones aditivas de Shapley, (SHAP, SHapley Additive exPlanations), que destacan parámetros como la edad gestacional y la tasa respiratoria media en un período de doce horas como determinantes principales de la mortalidad (Raza et al., 2021). Adicionalmente, las explicaciones SHAP, (SHapley Additive exPlanations) permite realizar evaluaciones individuales mediante gráficos de fuerza, proporcionando claridad sobre los factores que respaldan o contradicen las predicciones. Este enfoque no solo fortalece la confianza de los informes clínicos, sino que también destaca los parámetros clave para un monitoreo más eficaz.
En estudios relacionados con pacientes adultos, como aquellos centrados en la sepsis, las técnicas de explicabilidad han permitido identificar biomarcadores críticos para la mortalidad. Por ejemplo, mediante un modelo de bosque aleatorio, (RF, Random Forest) explicado con SHAP, (SHAP, SHapley Additive exPlanations) y explicaciones locales independientes del modelo, (LIME, Local Interpretable Model-agnostic Explanations), se identificaron parámetros como la puntuación de coma de Glasgow, (GCS, Glasgow Coma Score), la producción de orina en el primer día y el nitrógeno ureico en sangre como predictores críticos de mortalidad en pacientes sépticos (Demrozi et al., 2020). Mientras que los puntajes globales de SHAP, (SHapley Additive exPlanations) ayudan a identificar biomarcadores a nivel poblacional, los gráficos de fuerza generados por LIME, (LIME, Local Interpretable Model-agnostic Explanations) destacan factores específicos relevantes en predicciones individuales. Este doble enfoque permite tanto avanzar en el tratamiento general de la sepsis como reforzar la confianza en las decisiones clínicas personalizadas.
Además, la identificación de biomarcadores clave para enfermedades como la renal crónica se ha beneficiado enormemente de estas técnicas. Por ejemplo, los puntajes de SHAP, (SHapley Additive exPlanations) aplicados a predicciones realizadas por un modelo de RF, (Random Forest) permiten identificar parámetros como la concentración de hemoglobina, el volumen celular empaquetado y la creatinina sérica como factores determinantes de esta condición (Sayeed et al., 2019). Estos resultados no solo validan la lógica detrás de las predicciones del modelo, sino que también proporcionan información valiosa para el desarrollo de tratamientos dirigidos y estrategias de manejo de la enfermedad.
Por su puesto, que las técnicas de explicabilidad se han convertido en un factor determinante en el desarrollo de sistemas de inteligencia artificial aplicados a la medicina, mejorando la transparencia y la confianza en estos modelos. Al permitir la interpretación de predicciones y la identificación de biomarcadores clave, estas técnicas no solo fortalecen la práctica clínica actual, sino que también abren nuevas oportunidades para el desarrollo de tratamientos innovadores. Parece perfectamente claro la importancia, que los investigadores continúen explorando y perfeccionando estas metodologías, aplicándolas a diferentes tipos de datos y contextos clínicos, para maximizar su impacto en la mejora de la atención médica y en la generación de conocimiento biomédico.
Tecnologías No Invasivas y Portátiles: Innovaciones en AIoMT
En el ámbito del monitoreo de la salud mediante Tecnologías de Internet de las Cosas Médicas con Inteligencia Artificial (AIoMT, Artificial Intelligence of Medical Things), se han identificado avances significativos en el uso de tecnologías portátiles y métodos innovadores para la obtención de métricas de salud. Tecnologías bien establecidas como la fotopletismografía (PPG, Photoplethysmography) y el electrocardiograma (ECG, Electrocardiogram) continúan siendo ampliamente utilizadas. De manera notable, se han desarrollado métodos novedosos que maximizan la extracción de información de estos dispositivos no invasivos. Además, diversos estudios piloto han implementado la fusión de sensores, integrando datos de dispositivos fundamentales como la fotopletismografía PPG, acelerómetros y sensores de sudor, lo que ha permitido mejorar significativamente el monitoreo de la salud (Raza et al., 2021). Esta fusión de sensores ha mostrado resultados prometedores en el seguimiento de pequeños grupos de pacientes, en condiciones complejas como el estrés debido a la exposición al calor, la epilepsia y la diabetes, utilizando dispositivos portátiles y no invasivos. Asimismo, se destaca el potencial de la combinación de información de sensores portátiles y no de contacto para monitorear la fatiga, sugiriendo que la aplicación de modelos adecuados de inteligencia artificial (AI, Artificial Intelligence) puede extraer información relevante incluso de señales fisiológicas simples.
Por otro lado, un área de investigación activa en este campo es el desarrollo de sistemas de monitoreo completamente no invasivos. Dentro de este análisis, se identifica que el proceso de análisis de imágenes y de la información del estado del canal (CSI, Channel State Information) son los tipos principales de datos empleados en el monitoreo sin contacto. En particular, el análisis de imágenes permite la obtención de fotopletismografía remota (rPPG, Remote Photoplethysmography), utilizada para medir parámetros de salud cardiorrespiratoria. De forma complementaria, los enfoques basados en información del estado del canal se emplean para evaluar la actividad física, preservando la privacidad del paciente (Bisio et al., 2019). Estas técnicas avanzadas están transformando el campo del monitoreo de la salud al ofrecer opciones menos invasivas y más accesibles para los usuarios.
Diagnósticos Clínicos con AIoMT: Logros y Desafíos
En lo que respecta a las aplicaciones de diagnóstico y pronóstico, el uso de la tecnología AIoMT ha demostrado avances significativos. Estudios recientes han utilizado datos recopilados de dispositivos portátiles en combinación con información demográfica y clínica para lograr diagnósticos precisos (Yang et al., 2021). En el diagnóstico de condiciones de salud física, los resultados han sido más sólidos que en el diagnóstico de trastornos de salud mental, probablemente debido a una mayor base de conocimiento en el ámbito de la salud física. La mayoría de los estudios han abordado el diagnóstico como un problema de clasificación binaria –es decir, presencia o ausencia de una enfermedad–, aunque existe un creciente interés en la clasificación de clases múltiples para determinar la gravedad de enfermedades como el cáncer, lo cual representa una línea de investigación fundamental. (Sayeed et al., 2019).
En términos de pronóstico, la mayoría de los estudios también se han centrado en clasificaciones binarias, como la predicción de mortalidad o recurrencia de cáncer. Sin embargo, en áreas como el neurodesarrollo de bebés prematuros, se han utilizado modelos de regresión que generan puntuaciones continuas, proporcionando a los médicos una visión más detallada sobre los posibles resultados del desarrollo infantil (Sayeed et al., 2019). Este enfoque más granular destaca el potencial de los modelos basados en inteligencia artificial para mejorar la toma de decisiones clínicas.
Técnicas de Explicabilidad en AIoMT: Aplicaciones y Limitaciones
Además, el tema de la explicabilidad de los modelos de AIoMT ha ganado relevancia en la literatura científica. Métodos como los mapas de calor (CAM, Class Activation Mapping) y los enfoques de identificación de la importancia de las características (SHAP, SHapley Additive Explanations) y LIME, (Local Interpretable Model-agnostic Explanations) han sido ampliamente utilizados. CAM y SHAP son particularmente efectivos para datos de imágenes y formas de onda, ya que destacan las regiones de una imagen relevantes para la toma de decisiones. Por otro lado, SHAP y LIME permiten entender la importancia de las características discretas tanto a nivel local como global (Markus et al., 2021). Sin embargo, aunque estos métodos de explicabilidad ofrecen transparencia, pocos estudios han evaluado si realmente aumentan la confianza de los especialistas en las decisiones tomadas por los modelos. A pesar de esto, su potencial para identificar biomarcadores novedosos es prometedor, ya que pueden revelar características clave de enfermedades, orientar tratamientos y sugerir nuevas métricas de monitoreo.
El Futuro de la Inteligencia Artificial en Salud: Hacia la Personalización
Puede afirmarse entonces, que las Tecnologías del Internet de las Cosas Médicas con Inteligencia Artificial (AIoMT) están revolucionando el monitoreo, diagnóstico y pronóstico de la salud mediante el uso de dispositivos portátiles y sistemas no invasivos. Los avances en la fusión de sensores, la implementación de enfoques no invasivos y el desarrollo de modelos explicables están permitiendo una atención médica más precisa y personalizada. Sin embargo, se recomienda que futuras investigaciones amplíen los segmentos poblacionales de estudio, exploren el uso de clasificaciones de múltiples clases para el diagnóstico y profundicen en la validación clínica de las técnicas de explicabilidad para fomentar la confianza y adopción de estas tecnologías en la práctica médica.
Innovación Responsable: Construyendo Confianza en la IA Médica
En un mundo cada vez más impulsado por datos y tecnología, el conocimiento actualizado sobre herramientas como la inteligencia artificial médica y la explicabilidad en AIoMT no solo es una ventaja, sino una necesidad. Los avances recientes en técnicas explicables han demostrado su capacidad para mejorar diagnósticos, personalizar tratamientos y generar confianza en los modelos de Machine Learning, logrando un impacto directo en la calidad de la atención médica. Pero esto es solo el comienzo. La integración de la IA en el ámbito clínico requiere un compromiso continuo para desarrollar algoritmos más robustos, éticos y transparentes.
Invitamos a los lectores a seguir explorando este campo fascinante, donde la innovación se encuentra con la responsabilidad. La capacidad de interpretar y auditar sistemas basados en IA, junto con la detección de sesgos en algoritmos médicos, será clave para garantizar una atención equitativa y confiable. En una sociedad del futuro, donde los paradigmas tecnológicos evolucionan rápidamente, ser parte de esta transformación es no solo un desafío, sino también una oportunidad.
El impacto de la inteligencia artificial responsable será profundo, desde la detección temprana de enfermedades hasta el desarrollo de modelos clínicos no invasivos. Por ello, te animamos a profundizar en el estudio de estas tecnologías y a ser parte activa del cambio, asegurando que la IA no solo complemente la práctica médica, sino que también la lleve a nuevos niveles de excelencia. En un mundo donde la salud digital está moldeando la realidad, quienes se mantengan a la vanguardia tecnológica estarán mejor preparados para enfrentar los retos del mañana y liderar un futuro más saludable y sostenible.
El presente artículo ha sido orientado y fundamentado en las ideas expuestas en la publicación “Artificial Intelligence of Things for Smarter Healthcare: A Survey of Advancements, Challenges, and Opportunities”, de los autores Stephanie Baker y Wei Xiang, publicada en la revista IEEE Communications Surveys & Tutorials (Vol. 25, No. 2, Segundo Trimestre de 2023). Dicha publicación se encuentra disponible bajo una licencia Creative Commons Attribution 4.0 (CC BY 4.0), la cual permite el uso, distribución y adaptación del contenido siempre que se otorgue el crédito correspondiente a los autores originales y la fuente.
Este tipo de licencia es de gran importancia para la difusión del conocimiento académico y científico, ya que fomenta el acceso abierto y la colaboración global, permitiendo que investigadores, profesionales y el público en general aprovechen los avances presentados, los integren en nuevos trabajos y contribuyan al desarrollo continuo de sus respectivas áreas de estudio. Además, estas licencias promueven la transparencia, la reutilización ética del contenido y el avance compartido del conocimiento, siendo una herramienta fundamental para enfrentar desafíos complejos como los relacionados con la inteligencia artificial y el cuidado de la salud.
Referencias Bibliográficas
Bisio, I., Garibotto, C., Lavagetto, F., & Sciarrone, A. (2019). When eHealth meets IoT: A smart wireless system for post-stroke home rehabilitation. IEEE Wireless Communications, 26(6), 24–29.
Brown, A., Taylor, M., & Zhou, R. (2022). Leveraging explainable AI for improved diabetes prediction models.
Cheng, L., Varshney, K. R., & Liu, H. (2021). Socially responsible AI algorithms: Issues, purposes, and challenges. Journal of Artificial Intelligence Research, 71, 1137–1181. https://doi.org/10.1613/jair.1.12814.
Cheng, X., Wang, Y., & Li, H. (2021). Explainability and its role in fostering ethical AI in healthcare.
Demrozi, F., et al. (2020). Toward a wearable system for predicting freezing of gait in people affected by Parkinson’s disease. IEEE J. Biomed. Health Inform., 24(9), 2444–2451.
Gaur, L., Bhandari, M., Razdan, T., Mallik, S., & Zhao, Z. (2022). Explanation-driven deep learning model for prediction of brain tumour status using MRI image data. Frontiers in Genetics, 13, 822666. https://doi.org/10.3389/fgene.2022.822666.
Goel, K., Sindhgatta, R., Kalra, S., Goel, R., & Mutreja, P. (2022). The effect of machine learning explanations on user trust for automated diagnosis of COVID-19. Computers in Biology and Medicine, 146, 105587. https://doi.org/10.1016/j.acra.2020.09.004.
Kumar, A., Manikandan, R., Kose, U., Gupta, D., & Satapathy, S. C. (2021). Doctor’s dilemma: Evaluating an explainable subtractive spatial lightweight convolutional neural network for brain tumor diagnosis. ACM Transactions on Multimedia Computing, Communications, and Applications, 17, 1–26.
Lundberg, S. M., & Lee, S.-I. (2017). A unified approach to interpreting model predictions. In Proceedings of the Advances in Neural Information Processing Systems (Vol. 30, pp. 4768–4777).
Markus, A. F., Kors, J. A., & Rijnbeek, P. R. (2021). The role of explainability in creating trustworthy artificial intelligence for healthcare: A comprehensive survey of the terminology, design choices, and evaluation strategies. Journal of Biomedical Informatics, 113, 103655.
Petsiuk, V., Das, A., & Saenko, K. (2018). RISE: Randomized input sampling for explanation of black-box models. arXiv. https://arxiv.org/abs/1806.07421.
Rajpurkar, P., Irvin, J., Zhu, K., Yang, B., & Patel, B. N. (2018). Addressing biases in AI-based medical diagnostics.
Rashed-Al-Mahfuz, M., et al. (2021). Clinically applicable machine learning approaches to identify attributes of chronic kidney disease (CKD) for use in low-cost diagnostic screening. IEEE J. Transl. Eng. Health Med., 9, 1–11.
Raza, M., Awais, M., Singh, N., Imran, M., & Hussain, S. (2021). Intelligent IoT framework for indoor healthcare monitoring of Parkinson’s disease patient. IEEE Journal on Selected Areas in Communications, 39(2), 593–602.
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). ‘Why should I trust you?’ Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 1135–1144). https://doi.org/10.1145/2939672.2939778.
Saha, S., et al. (2020). Predicting motor outcome in preterm infants from very early brain diffusion MRI using a deep learning convolutional neural network (CNN) model. NeuroImage, 215, Article 116807.
Sayeed, M. A., Mohanty, S. P., Kougianos, E., & Zaveri, H. P. (2019). Neurodetect: A machine learning-based fast and accurate seizure detection system in the IoMT. IEEE Transactions on Consumer Electronics, 65(3), 359–368.
Smith, J., Johnson, K., & Liu, Z. (2020). The integration of AIoMT in cardiovascular care.
Yang, F., Zhu, Y., Zhang, H., Zhang, L., & Su, C. (2021). Internet-of-Things-enabled data fusion method for sleep healthcare applications. IEEE Internet of Things Journal, 8(21), 15892–15905.
Yu, L., Xiang, W., Fang, J., Chen, Y.-P. P., & Zhu, R. (2022). A novel explainable neural network for Alzheimer’s disease diagnosis. Pattern Recognition, 131, 108876. https://doi.org/10.1016/j.patcog.2021.108876.
