ChatGPT Salud: ¿ayuda o riesgo?

Más allá de la posible filtración de los datos personales y sanitarios de los pacientes, la calidad de las respuestas o recomendaciones que la plataforma ChatGPT Salud pueda dar también está cuestionada

A principios de año, la plataforma de inteligencia artificial OpenAI, creadora de la herramienta ChatGPT anunciaba el lanzamiento de ChatGPT Salud. La compañía lo define como “una experiencia diseñada para integrar de manera segura tu información médica con la inteligencia de ChatGPT, para que dispongas de más información, confianza y preparación a la hora de cuidar tu salud”.

A nivel seguridad, ante la suscitación de desconfianza por la nueva herramienta, OpenAI asegura que “ChatGPT Salud combina los sólidos controles de privacidad, seguridad y gestión de datos de ChatGPT con protecciones adicionales diseñadas específicamente para la salud”.

A pesar de esta promesa, el doctor Javier Sanz-García, médico de familia y coordinador del grupo de trabajo de Innovación Digital en Salud de la SEMERGEN (Sociedad Española de Médicos de Atención Primaria) aconseja cautela: “Por ahora, hasta que no sepamos al 100% qué tipo de protección y control sobre la gestión de los datos va a manejar toda esa información de los pacientes, lo que recomendaría sería que, si van a usarla, eviten compartir cualquier información que pueda identificar al paciente. Si van a compartir, por ejemplo, un electro, una radiografía o una analítica, que eliminen cualquier dato que permita identificar la identidad del paciente ya sea por nombre, por número de historia médica, lo que sea”.

Doctor Javier Sanz-García, médico de familia y coordinador del grupo de trabajo de Innovación Digital en Salud de la SEMERGEN.

Esta práctica, continúa el experto, debe extenderse a cualquier plataforma: “si yo veo una radiografía, tengo dudas y quiero consultar a un compañero, antes de enviar la imagen por whatsapp o por correo electrónico, tengo que evitar que el paciente sea reconocido. Porque nunca sabe hasta donde puede llegar esa imagen ya que esta plataforma, como cualquier otra herramienta de almacenaje, puede ver filtrados esos datos en algún momento. A día de hoy se supone que solo almacena los datos para entrenar la IA pero no sabemos si en el futuro, estos datos que hemos cedido pueden terminar siendo vendidos a empresas privadas”.

¿RIESGO PARA LA SALUD?


Más allá de la posible filtración de los datos personales y sanitarios de los pacientes, la calidad de las respuestas o recomendaciones que la plataforma ChatGPT Salud pueda dar también está cuestionada y, actualmente depende de qué versión de Chat GPT utilices (no ofrece la misma respuesta versión gratuita y la de pago).

A pesar de que la herramienta afirma estar desarrollada junto a médicos, el doctor Javier Sanz-García recuerda que “hasta que tenga mucho más bagaje y se hayan realizado pruebas por el sector sanitario, es lo mismo que buscar información por Google: la gente, al hacerlo, acaba en webs con evidencia científica y en otras que no tienen ningún tipo de evidencia científica. Ocurre lo mismo con las herramientas de inteligencia artificial”.

Por este motivo, el doctor recomienda “ser muy prudentes a día de hoy, sobre todo si no eres personal sanitario. En nuestro caso, es más fácil recoger esa información para reafirmarte o para buscar una segunda opinión, pero si no estás formado en la materia no sabes cómo hacer las preguntas, puede llevarte a error. Así que yo, a la población en general, le recomendaría no usarla todavía”.

En caso de buscar en Internet, el coordinador del grupo de trabajo en Innovación Digital en Salud de la SEMERGEN recomienda, “utilizar solo páginas web que estén validadas por sociedades médicas, por el Ministerio de Sanidad, y no acudir a foros en los que no sabes qué personas te están contestando”◙











Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos relacionados