Es menos probable que los pacientes sigan los consejos de los médicos de IA que conocen sus nombres

Es menos probable que los pacientes sigan los consejos de los médicos de IA que conocen sus nombres

mayo 13, 2021 0 Por RenzoC



Los ingenieros siempre se esfuerzan por hacer que nuestras interacciones con la IA sean más humanas, pero un nuevo estudio sugiere que un toque personal no siempre es bienvenido.

Investigadores de Penn State y la Universidad de California en Santa Bárbara han descubierto que es menos probable que las personas sigan los consejos de un médico de IA que conoce su nombre y su historial médico.

Su estudio de dos fases asignó aleatoriamente a los participantes a chatbots que se identificaron como IA, humanos o humanos asistidos por IA.

La primera parte del estudio se diseñó como una visita a un nuevo médico en una plataforma de salud electrónica.

[Read moreThis dude drove an EV from the Netherlands to New Zealand — here are his 3 top road trip tips]

Primero se pidió a los 295 participantes que completaran un formulario de salud. Luego leyeron la siguiente descripción del médico que estaban a punto de conocer:

Doctor humano El Dr. Alex se graduó de la Facultad de Medicina de la Universidad de Pittsburgh en 2005 y está certificado por la junta en Medicina Pulmonar (Pulmonar). Su área de interés incluye tos, enfermedad pulmonar obstructiva y problemas respiratorios. El Dr. Alex dice: “Me esfuerzo por brindar un diagnóstico y tratamiento precisos a los pacientes”.
Médico de IA AI Dr. Alex es un algoritmo de inteligencia artificial basado en aprendizaje profundo para la detección de influenza, enfermedades pulmonares y problemas respiratorios. El algoritmo fue desarrollado por varios grupos de investigación de la Facultad de Medicina de la Universidad de Pittsburgh con un gran conjunto de datos del mundo real. En la práctica, AI Dr. Alex ha logrado una alta precisión en el diagnóstico y el tratamiento.
Médico humano asistido por IA El Dr. Alex es un neumólogo certificado por la junta que recibió un título médico de la Facultad de Medicina de la Universidad de Pittsburgh en 2005.
El sistema médico de inteligencia artificial que ayuda al Dr. Alex se basa en algoritmos de aprendizaje profundo para la detección de influenza, enfermedades pulmonares y problemas respiratorios.

Luego, el médico ingresó al chat y comenzó la interacción.

Cada chatbot ha sido programado para hacer ocho preguntas sobre los síntomas y comportamientos de COVID-19. Finalmente, propusieron un diagnóstico y recomendaciones basadas en el autocontrolador CDC Coronavirus.

Aproximadamente 10 días después, se invitó a los participantes a una segunda sesión. A cada uno de ellos se le asignó un chatbot con la misma identidad que en la primera parte del estudio. Pero esta vez, a algunos se les asignó un bot que hacía referencia a detalles de su interacción anterior, mientras que a otros se les asignó un bot que no hacía referencia a su información personal.

Después de la discusión, los participantes recibieron un cuestionario para evaluar al médico y su interacción. Luego se les dijo que todos los médicos eran robots, independientemente de su identidad declarada.

Diagnosticar IA

El estudio encontró que los pacientes eran menos propensos a seguir los consejos de los médicos de IA que se referían a información personal, y más propensos a ver el chatbot como intrusivo. Sin embargo, el patrón inverso se vio en las vistas de los chatbots presentados como humanos.

Según el documento de estudio:

De acuerdo con la teoría de la mente del valle extraño, la individuación podría considerarse exclusiva de la interacción humano-humano. La individualización de la IA probablemente se considere una farsa, es decir, un intento deshonesto de compasión y cercanía. Por otro lado, cuando un médico humano no individualiza y pregunta repetidamente por el nombre, el historial médico y el comportamiento de los pacientes, los individuos tienden a percibir una mayor intrusión que conduce a un peor cumplimiento por parte del paciente.

Los resultados sobre los médicos humanos, sin embargo, vienen con una advertencia: el 78% de los participantes de este grupo creían que habían interactuado con un médico de IA. Los investigadores sospechan que esto se debió a las respuestas mecánicas de los chatbots y a la falta de presencia humana en la interfaz, como una foto de perfil.

En última instancia, el equipo espera que la investigación conduzca a mejoras en el diseño de chatbots médicos. También podría ofrecer consejos sobre cómo los médicos humanos deben interactuar con los pacientes en línea.

Puedes leer el documento de estudio aquí.

¡Saludos humanoides! ¿Sabías que tenemos un boletín informativo de IA? Puedes suscribirte aquí.