HOME | VISIÓN | HISTORIA | FILOSOFÍA | EXPERIENCIA | SOCIOS | ADHESIONES | SERVICIOS | ACTIVIDADES |

MANUAL DE PROCEDIMIENTOS | MANUAL DE ODONTÓLOGOS | ARTICULOS DE INTERÉS | REVISTA | NUESTRAS PUBLICACIONES | ENTREVISTAS Y MEDIOS DE COMUNICACIÓN | CONTACTO


servicios
actividades
noticias
vazzano

volver

 

Ética, valores y principios del futuro de la innovación en Salud


Compartimos algunos conceptos vertidos por el Dr. Hernán Seoane, Decano de la Facultad de Ciencias Médicas de la Universidad Católica Argentina (UCA), en el marco de la Conferencia Magistral brindada durante el XXV Congreso Internacional de la CAES, bajo el título Política de Estado “Innovación y Equidad”.



A modo de introducción, Seoane se refirió a la evolución de la innovación tomando algunas ideas del Dr. José Ignacio Latorre, físico de la Universidad de Barcelona, que se refieren al concepto de “declive”: “El Dr. Latorre hace un recorrido por la historia de las máquinas, donde en primer lugar el ser humano creó máquinas fuertes y esto le trae aparejado el declive del físico humano. Luego creó las máquinas inteligentes, lo que devino en el declive mental humano”, y finalmente agregó, “ahora estamos en el desafío de las máquinas que toman decisiones y lo que está ocurriendo en este proceso es un declive en lo ético humano”.
En este sentido, algunos de los ejes desarrollados fueron:

Sobre los procesos masivos de innovación
En el taller de 2019 de la Pontificia Academia por la Vida, una red del Instituto de Bioética de la UCA, el tema abordado fue la Roboética (la ética y la robótica) para lo cual la academia convocó a una serie de expertos para que expongan porque claramente comienza a ser una preocupación y una transformación hacia un dilema ético.
Para el próximo taller en 2020, el tema va a estar relacionado con la inteligencia artificial (IA), para lo cual se está intentando generar un marco dentro de este nuevo concepto y entre los temas a analizar se encuentran:
- los marcos legales nacionales /internacionales (si el robot es o no un agente moral, si va a tener personalidad electrónica);
- la centralidad de la persona (lo que la persona busca a partir de estas innovaciones)
- dignidad humana.
Además, la identificación de los conflictos éticos que tienen que ver en el desarrollo del “internet de las cosos médicas”, lo que hoy se llama “sensorización del paciente y de su entorno”, la posibilidad de hacer seguimiento de los pacientes en su domicilio, etc. Temas que van a estar en la agenda de los próximos debates porque ya hay una serie de situaciones que debemos contemplar y el mercado de la salud debe dar su punto de vista.
Hoy hay mucho trabajo en términos de intromisión, privacidad y sobre todo el valor del consentimiento informado en términos de las nuevas tecnologías. Cuántos de los datos que son capturados a posteriori de la firma del consentimiento están incluidos, cuál es el valor hoy del consentimiento cuando se tiene un sensor.
El otro problema ético es cuando se descontextualiza el acto médico con lo no registrado y todos los sesgos que ya están identificados en términos de inteligencia artificial: sesgos en el diseño del modelo; en la interacción con los médicos y en la interacción con los pacientes. Hay sesgos en los datos de entrenamiento. Hoy todavía los algoritmos de inteligencia artificial están supervisados y esto requiere de datos concretos validados con anterioridad y que se garantice que en esos sets de datos estamos representados todos, desde las distintas perspectivas de la diversidad del ser humano. Hasta que eso no ocurra claramente implica un sesgo potencial en términos de la información proveída a los algoritmos para que aprendan y tomen decisiones. Lo que los médicos y gestores no registren hace que estos algoritmos perpetúen el sesgo de la información inicial e incentiven la inequidad. En eso somos todos responsables, incluyendo a los pacientes.

Cómo utilizar la IA en términos de la justicia social para garantizar el bien común.
Hay 3 ejes sobre los cuales están trabajando los grupos de investigadores, para que los algoritmos puedan definir y acreditar estos resultados:
- Equal Outcomes (resultados iguales / iguales beneficios)
- Equal Performance (igual rendimiento)
- Asignación equitativa (la asignación de recursos según lo decidido por le modelo es igual en todos los grupos, posiblemente después de controlar todos los factores relevantes)

En relación a la Fiabilidad de la redes de IA, Seoane citó al Grupo Independiente de Expertos de Alto Nivel sobre IA creado por la Comisión Europea (Junio 2018) y mencionó:
- Si estos sistemas, y las personas que se encuentran detrás de ellos, no demuestran ser merecedores de confianza, pueden producirse consecuencias no deseadas que obstaculicen su adopción, impidiendo el logro de los enormes beneficios económicos y sociales que pueden acarrar los sistema de IA (punto 13).
- Su finalidad es convertir la ética en un pilar fundamental para desarrollar un enfoque único con respecto a la IA, que busque beneficiar, empoderar y proteger tanto la prosperidad humana a nivel individual como el bien común de la sociedad (punto 17).

En términos de la confianza y de poner como pilar fundamental para el diseño y el desarrollo la ética, las 3 situaciones innegociables en este desarrollo son:
- La IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables;
- ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos;
- y debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales.

Además, la IA debe respetar 4 principios básicos de ética:
- Respeto de la autonomía humana.
- Prevención del daño.
- Equidad.
- Explicabilidad.

¿Cómo llevamos los principios a la implementación? Para ello se han definido 7 requisitos, donde están:
- Acción y supervisión humanas.
- Solidez técnica y seguridad.
- Gestión de la privacidad y de los datos.
- Transparencia - Diversidad.
- No discriminación y equidad.
- Bienestar ambiental y social.
- Rendición de cuentas.

Se trata de recomendaciones que no se han transformado aún en leyes, existen todavía los vacíos legales, existen pacientes que se están incorporando en estos proyectos de investigación de la aplicación de estas tecnologías e invocaciones sin el necesario consentimiento o revisión ética. Creo que la ética y la bioética tienen un gran camino hacia delante en términos de salir del análisis de la casuística individual y entrar en la comprensión de los problemas y las soluciones que puede traernos.

A modo de conclusión:
- Es esencial fomentar el desarrollo de una cultura humanista que discierna las vinculaciones entre la ciencia y la tecnología y los aspectos antropológicos, culturales y éticos. Tenemos que volver a mirar a la persona en el centro del sistema.
- Solo una consideración multidisciplinaria puede ayudar a aprovechar el potencial de tales innovaciones científicas y tecnológicas en formas que respeten la dignidad humana y promuevan el bien común.
- Renovar nuestro compromiso con el conocer y comprender. Una persona que renuncia a comprender y conocer no tiene elementos de juicio para tomar decisiones. Cuando no tiene decisiones propias, las delega, perdiendo en el fondo una de las características centrales de la libertad.

Estoy convencido que la próxima revolución que nos va a ocupar a todos y motivar en la segunda parte del siglo XXI claramente va a estar girando en torno a la ética.


 

subir

Toda la información publicada en este sitio es © Copyright La Mutual 2008.