Para que los pacientes confíen en la IA médica, necesitan entenderla

Resumen.

La IA tiene una gran promesa de aumentar la calidad y reducir el costo de la atención médica en los países desarrollados y en desarrollo. Pero un obstáculo para usarlo es que los pacientes no confían en él. Una razón clave es que perciben que la IA médica es una caja negra y creen que saben más sobre el proceso de toma de decisiones de los médicos que en realidad, según la investigación de los autores. Un remedio: Proporcione a los pacientes una explicación de cómo ambos tipos de proveedores de atención toman decisiones.


Las aplicaciones sanitarias habilitadas para la inteligencia artificial para la atención de diagnóstico están cada vez más disponibles para los consumidores; incluso se puede acceder a algunas a través de teléfonos inteligentes. Google, por ejemplo, anunciado recientemente su entrada en este mercado con una herramienta basada en IA que ayuda a las personas a identificar las afecciones de la piel, el cabello y las uñas. Sin embargo, uno de los principales obstáculos para la adopción de estas tecnologías es que los consumidores tienden a confiar menos en la IA médica que en los proveedores de atención médica humana. Creen que la IA médica no lo logra atienden sus necesidades únicas y funciona peor que proveedores humanos comparables, y sienten que no pueden responsabilizar a la IA por errores de la misma manera que podría ser humano.

Esta resistencia a la IA en el ámbito médico plantea un desafío para los responsables políticos que desean mejorar la atención médica y para las empresas que venden servicios sanitarios innovadores. Nuestra investigación proporciona información que podría utilizarse para superar esta resistencia.

En un artículo publicado recientemente en Naturaleza Comportamiento humano, mostramos que la adopción por parte del consumidor de la IA médica tiene tanto que ver con sus percepciones negativas de los proveedores de atención de IA como con sus opiniones irrealistas positivas de los proveedores de atención humana. Los consumidores se muestran reacios a confiar en los proveedores de atención de IA porque no creen que entiendan ni entiendan objetivamente cómo la IA toma decisiones médicas; consideran que su toma de decisiones es una caja negra. Los consumidores también se muestran reacios a utilizar la IA médica porque creen erróneamente que entienden mejor cómo los humanos toman decisiones médicas.

Nuestra investigación, que consiste en cinco experimentos en línea con representantes nacionales y muestras de conveniencia de 2.699 personas y un estudio de campo en línea sobre Google Ads, muestra lo poco que los consumidores comprenden cómo llega la IA médica a sus conclusiones. Por ejemplo, probamos cuánto sabían muestras representativas a nivel nacional de estadounidenses sobre cómo los proveedores de atención de IA toman decisiones médicas, como si un lunar de la piel es maligno o benigno. Los participantes no tuvieron mejor rendimiento de lo que hubieran adivinado; lo habrían hecho igual de bien si escogieran respuestas al azar. Sin embargo, los participantes reconocieron su ignorancia: calificaron su comprensión de cómo los proveedores de atención de IA toman las decisiones médicas como bajas.

Por el contrario, los participantes sobreestimaron qué tan bien entendieron cómo los médicos humanos toman decisiones médicas. A pesar de que los participantes en nuestros experimentos tenían escasa comprensión fáctica de las decisiones tomadas por la IA y los proveedores de atención humana, afirmaron comprender mejor cómo funcionaba la toma de decisiones humanas.

En un experimento, pedimos a una muestra en línea representativa nacional de 297 residentes estadounidenses que informaran lo mucho que entendieron acerca de cómo un médico o un algoritmo examinarían las imágenes de su piel para identificar lesiones cutáneas cancerosas. Luego les pedimos que explicaran los procesos de toma de decisiones humanos o del proveedor algorítmico. (Este tipo de intervención que ha sido utilizado antes para destrozar creencias ilusorias sobre lo bien que uno entiende los procesos causales. La mayoría de la gente, por ejemplo, cree entender cómo funciona un helicóptero. Solo cuando les pides que expliquen cómo funciona, se dan cuenta de que no tienen ni idea.)

Después de que los participantes intentaron dar una explicación, evaluaron de nuevo su comprensión del proceso de toma de decisiones médicas humanas o algorítmicas. Descubrimos que obligar a las personas a explicar los procesos de toma de decisiones del proveedor humano o algorítmico redujo la medida en que los participantes consideraban que entendían las decisiones tomadas por los proveedores humanos, pero no decisiones tomadas por proveedores algorítmicos. Esto se debe a que su comprensión subjetiva de cómo los médicos tomaron decisiones se había inflado y su comprensión subjetiva de cómo los proveedores de IA tomaron las decisiones no se vio afectada por tener que dar una explicación, posiblemente porque ya habían sentido que esta última era una caja negra.

En otro experimento, con una muestra representativa a nivel nacional de 803 estadounidenses, medimos qué tan bien las personas subjetivamente sintieron que entendían los procesos de toma de decisiones humanos o algorítmicos para diagnosticar el cáncer de piel y luego los probaron para ver qué tan bien los entendieron realmente. Para ello, creamos un cuestionario con la ayuda de expertos médicos: un equipo de dermatólogos de una escuela de medicina de los Países Bajos y un equipo de desarrolladores de una popular aplicación de detección del cáncer de piel en Europa. Descubrimos que, aunque los participantes informaron de una comprensión subjetiva más deficiente de las decisiones médicas tomadas por algoritmos que las decisiones tomadas por los proveedores humanos, poseían una comprensión real igualmente limitada de las decisiones tomadas por proveedores humanos y algorítmicos.

¿Qué pueden hacer los responsables políticos y las empresas para fomentar la adopción de la IA médica por parte de los consumidores?

Encontramos dos intervenciones exitosas y ligeramente diferentes que implicaban explicar cómo los proveedores, tanto algorítmicos como humanos, toman decisiones médicas. En un experimento, explicamos cómo ambos tipos de proveedores utilizan el marco ABCD (asimetría, borde, color y diámetro) para examinar las características de un lunar y realizar una evaluación del riesgo de malignidad. En otro experimento, explicamos cómo ambos tipos de proveedores examinan la similitud visual entre un lunar objetivo y otros lunares que se sabe que son malignos.

Estas intervenciones redujeron con éxito la diferencia en la comprensión percibida de la toma de decisiones algorítmicas y humanas al aumentar la comprensión percibida de la primera. A su vez, las intervenciones aumentaron las intenciones de los participantes de utilizar proveedores de atención algorítmica sin reducir sus intenciones de utilizar proveedores humanos.

La eficacia de estas intervenciones no se limita al laboratorio. En un estudio de campo sobre Google Ads, los usuarios vieron uno de los dos anuncios diferentes de una aplicación de detección del cáncer de piel en sus resultados de búsqueda. Un anuncio no ofrecía ninguna explicación y el otro explicó brevemente cómo funciona el algoritmo. Tras una campaña de cinco días, el anuncio que explica cómo funciona el algoritmo produjo más clics y una mayor tasa de clics.

Los servicios de atención médica basados en IA son fundamentales para la misión de proporcionar servicios asequibles y de alta calidad a los consumidores en países desarrollados y en desarrollo. Nuestros hallazgos muestran cómo una mayor transparencia (abrir la caja negra de IA) puede ayudar a lograr esta misión crítica.

Escrito por Chiara Longoni, Carey K. Morewedge Chiara Longoni,