Menú Principal
4 de diciembre de 2023

Bioética | Octubre

Hola! Un gran saludo y nuestra cordial bienvenida a nuestra comunidad hospitalaria a este nuevo espacio de Bioética.

En esta edición, El Faro nos desafía con dos interesantes artículos que nos invitan a reflexionar sobre aspectos significativos, contingentes y plenamente vigentes en la actualidad. El primer término, Camilo Sepúlveda-Queipul, psicólogo Unidad de Salud Mental CDT y miembro de nuestro Comité de Ética asistencial, nos invita a pensar y reflexionar respecto de la Inteligencia artificial (IA), su estado desarrollo, sus potenciales aplicaciones, sus implicancias y, muy especialmente su dimensión bioética en términos de sus aplicaciones y eventuales usos en la sociedad contemporánea. Ciertamente es un tema fascinante y en continuo desarrollo. Por lo mismo, adelantamos que, en las Jornadas de Bioética 2023 de nuestro hospital (12 y 13 de octubre), hemos destinado una clase específicamente al análisis bioético de la IA.

También, compartimos una carta escrita por Elda Ramírez, usuaria adulta mayor, quien amablemente entrega su experiencia vivencial que ella titula “ Un viaje en el Metro”. Su lectura representa una invitación generosa respecto de cómo viven y sienten nuestros adultos mayores, cómo se constituyen s í mismos y cómo nosotros respondemos ante ellos en una instancia de vida particular como es el compartir un trayecto de viaje, en este caso, en el Metro de Santiago.

Esperamos que este número les aporte y sea de su interés. Renovamos nuestra invitación a compartir con nosotros sus impresiones a través de nuestro correo institucional. ¡Un gran día para ustedes!

Inteligencia Artificial, Salud y Salud Mental: Desafíos Bioéticos

 Mg. Camilo Sepúlveda, psicólogo encargado Unidad Salud Mental Infantil CDT Hospital de La Serena y miembro del CEA HLS.

En la historia los avances de la ciencia y la tecnología siempre han despertado interés y conmoción en salud, desde los primeros trasplantes de corazón, y el uso de la hemodiálisis, que no solo han presentado la posibilidad de prolongar la vida, si no que han presentado profundos problemas bioéticos (1), sobre quienes pueden acceder a un tratamiento, o la decisión de la vida y la muerte, que, en palabras de Foucault, el Biopoder (2).

No obstante, pocas veces en la historia la tecnología y su vínculo con la salud ha presentado tanto interés y preocupación como la inteligencia artificial, aprendizaje automático y medicina (3), desde el proyecto del Genoma Humano que constituye un antecedente en esta línea de desarrollo. Académicos y cientistas de todo el mundo, han constituido su tiempo y reflexión, en los desafíos que involucran la inteligencia artificial en la práctica clínica, la salud pública, la investigación biomédica (3) y la salud mental (4).

En este escenario, la organización Mundial de la Salud (OMS), apoya la red Global de Centros Colaboradores para la Bioética, y financio la primera reunión el 2017 sobre Big Data e Inteligencia Artificial, que tenía como objetivo identificar el alcance y los elementos éticos vinculados a los macrodatos, de la IA en salud, para el desarrollo de principios o orientaciones para los involucrados (3). Entre los principios acordados por este comité se encuentran; Protección de la autonomía humana, Promoción del bienestar y seguridad humana e interés público, Transparencia e explicabilidad e inteligibilidad, Responsabilidad y rendición de cuentas, Inclusión y equidad, y Promoción de que la IA sea receptiva y sostenible (4).

Ahora bien, los desafíos bioéticos se relacionan a la brecha digital, ya que el acceso a las tecnologías no es igual para todos, y constituye un determinante social relevante en salud, y salud mental (5), el colonialismo de datos, que implica que países de altos ingresos recopilen datos de países de bajos y medianos ingresos, ante la carencia de marcos regulatorios (3). Obligaciones éticas vinculadas a la rendición de cuentas y responsabilidad vinculados a los sistemas de calidad de la IA, toma de decisiones autónomas de la IA, sesgo y discriminación que se puede incluir en la programación de la IA, seguridad y ciberseguridad, degradación de habilidades médicos y profesionales, y comercialización de la salud (3).

En salud mental la inteligencia artificial constituye una promesa de transformación de los procesos de atención, pero a la vez grandes obstáculos. En la actualidad se está utilizando para la detección temprana de enfermedades, permitir una mejor comprensión de la progresión de una enfermedad, optimizar dosis de medicamentos, y descubrir nuevos tratamientos. En sus fortalezas se encuentra, el rápido análisis de grandes conjuntos de datos, en áreas como la medicina, oftalmología, detección del cáncer y radiología, donde los algoritmos han demostrado un resultado similar o mejor que los médicos experimentados (4).

En salud mental, la atención más centrada en el paciente en la práctica clínica ha implicado el desarrollo de las llamadas “habilidades blandas”, incluida la formación del “vinculo terapéutico”, observación directa de comportamientos y emociones de los pacientes. En este contexto al IA no ofrece una comprensión precisa de las interacciones entre los sistemas biológicos, psicológicos, y sociales.

Como barrido general, la IA se está utilizando como Sistema de Aprendizaje Cásico Supervisado (SIBS), con datos preetiquetados, en donde los algoritmos aprenden a asociar derivadas de flujos de datos para la determinación de diagnósticos. Aprendizaje Automático No Supervisado (AANS), en donde el algoritmo reconoce similitudes entre las características de entrada y descubre la subyacente estructura de los datos, pero no es capaz de asociar características con una etiqueta conocida, utilizando técnicas de agrupamiento para clasificar, separar los datos y sus características más destacadas, técnica que ha sido utilizada para encontrar biomarcadores, para enfermedades como la esquizofrenia (4).

El aprendizaje profundo (AP), en donde los algoritmos aprenden directamente de la materia prima sin la guía humana, brindando la posibilidad de descubrir relaciones latentes utilizando las redes neuronales artificiales, asociando notas de los médicos, historia clínica, y datos clínicos proporcionadas por el paciente (4).

Ejemplos de estas aplicaciones existen en investigaciones que han utilizado la IA, como forma de detectar signos de trastornos mentales como la depresión, mediante el uso de datos de las redes sociales Instagram y Twitter. Estos detectores de depresión de IA identifican a los usuarios que están en riesgo de depresión antes de cualquier contacto con el sistema de salud (6).

Entre los desafíos metodológicos, de estas tecnologías se plantea la accesibilidad y el uso de tecnologías y servicios digitales que generalmente se distribuyen de manera desigual en la población, por tanto la IA podría perpetuar las desigualdades y sesgos sociales en la toma de decisiones, influir en la relación médico paciente y afectar valores éticamente importantes, como la autonomía, la confianza y la privacidad (6), poniendo a la luz el conflicto entre la beneficencia y respeto a la autonomía del paciente, en tanto el análisis de sus contenidos en redes sociales puede determinar el diagnostico, como el curso de acción, sin participación de la voluntad del usuario(6).

Otro ejemplo del uso de la IA en salud mental se encuentra en la predicción del riesgo de con psicosis, ya sea una transición a la psicosis, una recaída psicótica, autolesión y suicidio, o daño a otros (7), lo que conlleva desafíos legales de regulación del uso de datos y el análisis de costo beneficios para los usuarios, en particular con la población que tiene una enfermedad psiquiátrica que presenta condiciones de vulnerabilidad que deben ser resguardadas en la investigación y tratamiento (8).

Ahora bien, la inclusión de las tecnologías presenta tremendos desafíos bioéticos y sociales, dado que la IA empuja hacia una gobernanza de datos en donde la trasparencia es utilizada por la IA en sus potencialidades, pero presenta peligros importantes para el ser humano, como señala Han, la Transparencia que exige la IA y la verdad no son idénticas, y aunque la IA permita la mayor operativización de diagnósticos y tratamientos, el proceso de atención en salud mental se basa en espacios de comunión, a donde la IA difícilmente puede acceder, y si bien la sociedad avanza a la eliminación de todos los rituales y ceremonias, pero estos  no pueden hacerse operacionales, constituyendo un impedimento para la aceleración de los ciclos de la información, la comunicación y la producción (9).

Siguiendo a Han, la sociedad digital de la transparencia, elimina el aura y desmitifica el mundo (10), la IA artificial podría constituir una forma de violencia global, desde su expresión de lo igual, buscado por patrones y algoritmos para definir enfermedades y tratamientos, y la singularidad quedaría subsumida a la circulación a la información, de la comunicación y el flujo del capital (10). Los espacios de salud y salud mental, tiene el desafío de integrar el uso de tecnologías, y sus fortalezas sin perd

**/ -->> -->