El uso de técnicas de inteligencia artificial para diagnósticos médicos automatizados.
Ejemplos
Existe una aplicación llamada ADA que realiza diagnósticos médicos automatizados. La aplicación funciona basándose en un árbol de decisión, donde se le pregunta a la persona si tiene una serie de síntomas, y la persona responde afirmativamente o negativamente. Basándose en esto, produce estadísticas y ofrece un resultado de un tipo, 6 de 10 personas con sus síntomas tienen esta enfermedad, y cuatro tienen esta otra enfermedad. Para esta enfermedad, no le recomendamos que visite a un doctor, o recomendamos que visite a un doctor. En su página web, la empresa anuncia que ADA completa una evaluación médica cada tres segundos. La pregunta en este caso es: ¿cómo es posible confiar en estadísticas para un diagnóstico médico sin una evaluación holística del paciente?
Otro ejemplo de diagnósticos médicos automatizados se basa en imágenes tomográficas o imágenes cerebrales. En muchos de esos casos, el diagnóstico automatizado es mejor que aquel hecho por un doctor, ya que hay ciertos tipos de imágenes que son difíciles de comprender para los humanos. En este caso la preocupación es que el diagnóstico es realizado por una caja negra, y no es posible que el algoritmo explique los criterios aplicados para realizar el diagnóstico.
En salud mental, hay un parámetro oficial denominado Manual de Diagnóstico y Estadística de Desórdenes Mentales (MDE) que tipifica enfermedades. Teniendo en cuenta el MDE y basándose en un conjunto de síntomas, un algoritmo de aprendizaje de máquina puede diagnosticar que el paciente sufre de esquizofrenia, trastorno del sueño, u otra enfermedad. Hay todo un debate en relación a esta dinámica basada en parámetros. Es común que los médicos planteen muchos problemas argumentando que la medicina todavía confía mucho en el consultorio. Ellos argumentan que los códigos DSM y los síntomas son indicativos, muy sintéticos y que deben ser más descriptivos.
Una aplicación llamada REPLIKA actúa como una especie de terapeuta. Es un chatbot al que el usuario puede hablarle como si estuviera hablando con un psicólogo. Basándose en técnicas de inteligencia artificial, la aplicación trata de ayudar al usuario con sus problemas emocionales, aunque no está entrenado para actuar como un terapeuta. Basándose en interacciones frecuentes, la persona se acostumbra al estilo de comunicación. Sin embargo, algunos usuarios reaccionaron negativamente a algunos cambios de comportamiento de la bot debido a actualizaciones de software.
El uso de los robots médicos y de los robots en asistencia sanitaria, los robots acompañantes y los robots en el cuidado de adultos mayores se analizan en (COMEST, 2017).
Beneficios
- obtener un diagnóstico médico sin tener acceso a la presencia física de un médico
- tener acceso a más información para analizar y diagnosticar
- mayor precisión en el diagnóstico por imágenes
Amenazas relacionadas con la mala utilización y el uso abusivo
Falta de conciencia del paciente – Hubo un caso de una actriz famosa que decidió someterse a una doble mastectomía preventiva para disminuir el riesgo de cáncer de mama. El caso ayudó a crear conciencia sobre el hecho de que las estadísticas, para mal o bien, tienen un impacto en la vida humana. Los pacientes deben ser conscientes de cómo funcionan los sistemas de diagnósticos médicos automatizados. Esto significa, que en su gran mayoría estos confían en estadísticas e indican una probabilidad de haber contraído una enfermedad, pero no predicen si el paciente realmente ha contraído esa enfermedad.
Falta de interacción con los médicos – En cuestiones médicas, tan sensibles como la salud física o mental, ¿podemos prescindir del médico profesional? ¿Podemos considerar a las aplicaciones de diagnóstico médico como un reemplazo del profesional? No debemos olvidar que somos seres sociales, vivimos en sociedad y necesitamos estar en contacto con otras personas. No es necesario reflexionar sobre qué rol quisiéramos que jugara la tecnología en los diagnósticos médicos. ¿Qué sucederá si la tecnología excede la capacidad de los profesionales de la medicina?
Diagnóstico equivocado – Uno de los desafíos éticos de aplicar las nuevas tecnologías a los diagnósticos médicos está relacionado con el riesgo de que se informen falsos positivos o falsos negativos. Un falso positivo ocurre cuando estos diagnostican una enfermedad a una persona que realmente no la tiene, y adicionalmente si, dependiendo de este diagnóstico, se prescriben medicaciones y tratamientos innecesarios que pueden afectar la salud de la persona. El falso negativo ocurre cuando la enfermedad no se detecta y la persona debería estar recibiendo un tratamiento médico que no se le prescribe. ¿Cuánto daño puede causar un diagnóstico equivocado a un paciente?
Definir responsabilidad por los diagnósticos – Legalmente, los médicos tienen una licencia y realizan un Juramento Hipocrático. Ellos son responsables por sus diagnósticos, pero cuando es un sistema automatizado que diagnostica, ¿quién es responsable?
Mala utilización de los datos médicos – Puede considerarse positivo conservar datos médicos sobre los pacientes, ya que dichos datos pueden servir para propósitos estadísticos. Mientras que los datos de la salud de una persona específica no se divulguen, los datos de los pacientes pueden usarse para preparar y diseminar estadísticas. Es necesario considerar ambos aspectos: es muy importante asegurar la privacidad de los datos personales, y las estadísticas son muy útiles para la salud pública. Por lo tanto, mantener el anonimato de los datos es un tema central. Además, tratando de proporcionar mejores servicios sanitarios, un sistema debería ser capaz de predecir la enfermedad de una persona basándose en la revisión de la historia clínica de esa persona. Sin embargo, esto solo podría ocurrir sin violar su privacidad. En este sentido, puede considerarse negativo mantener la historia de los registros médicos ya que ¿cómo se conservan esos registros y cómo se protege la privacidad? ¿a quién le pertenecen dichos datos?
Confiabilidad del diagnóstico – Teniendo en cuenta la situación de que una persona recibe dos diagnósticos diferentes que indican enfermedades diferentes, podrían formularse las siguientes preguntas: ¿usaba el sistema la misma información? ¿Se conservaba la información tomando medidas de seguridad apropiadas? ¿Puede manipularse la información almacenada en el sistema? ¿Puede jaquearse el sistema?
Sesgo de la información – Otro desafío ético podría relacionarse con dar información falsa sobre enfermedades en un área determinada, cuando en realidad hay un filtro programado que restringe la información que se proporciona. Por ejemplo, no declarar el surgimiento de una enfermedad para no afectar intereses comerciales. El sesgo debe evitarse cuando se divulgan estadísticas relacionados con la salud. Una preocupación importante es cómo asegurar la transparencia de las estadísticas relacionadas con la salud.
Compartición de datos – La posibilidad de intercambiar datos entre hospitales y centros sanitarios puede ser considerada una ventaja. Por ejemplo, si un paciente es atendido en un hospital y se le realiza un diagnóstico, esa información debiera estar disponible en otros hospitales. Un problema importante es el modo de acceso a esa información. Deberían definirse reglas que especificaran precisamente qué datos pueden compartirse y qué datos solo deben estar disponible para los médicos. Como contrapartida, constituiría un efecto negativo que un hospital accediera a los datos de salud, y pudiera discriminar a un paciente negándose a proporcionarle un tratamiento específico. En el caso de un hospital privado, ellos tienen derecho a decidir. ¿Es esto deseable? El acceso a los datos sobre la salud también se asocia a un riesgo ético de discriminar a una persona que se encuentra en la búsqueda de trabajo. Otro riesgo es que la información sea usada por compañías de salud o seguros de vida para decidir el monto que debe cobrarse por los servicios.
Desafíos Éticos
La siguiente tabla sintetiza desafíos éticos asociados con los diagnósticos médicos automatizados.
ID | DESAFÍO | RELACIONADO CON * |
C1 | Asegurar que el paciente es consciente de cómo los sistemas de diagnóstico automatizados producen el diagnóstico | Principio D Principio A (accesibilidad) |
C2 | Pérdida de oportunidades para interactuar con los médicos cara a cara | Principio D |
C3 | Asegurar la confiabilidad del diagnóstico médico automatizado | Principio D Principio A (apertura) |
C4 | Decidir sobre la responsabilidad de un diagnóstico automatizado | Principio P |
C5 | Mala utilización de datos médicos, como la violación de la privacidad del paciente divulgando registros de salud personales recogidos mediante un sistema de diagnóstico médico automatizado | Principio D |
C6 | Asegurar transparencia y rendición de cuentas al proporcionar estadísticas relacionadas con la salud, i.e. que la información publicada o difundida no sea tendenciosa | Principio A Principio A |
C7 | Asegurar que los registros de salud personales se comparten siguiendo estrictamente las normas y con el consentimiento del paciente | Principio D Principio A (accesibilidad) |
C8 | Asegurar que los datos relacionados con la salud almacenados en bases de datos públicas o privadas no sean utilizados para discriminar a los individuos | Principio D |
* Ver Principios para saber más acerca de los principios