Actualidad

La OMS alerta de los riesgos del uso de ChatGPT en el ámbito sanitario

La agencia sanitaria advierte que los datos que ofrece la Inteligencia Artificial "pueden estar sesgados, generando información engañosa o inexacta"
ChatGPT, una de las herramientas de inteligencia artificial que están bajo la lupa.

La Organización Mundial de la Salud (OMS) ha pedido que "se actúe con cautela" en el uso de herramientas de inteligencia artificial (IA) como ChatGPT en el ámbito sanitario y que se "examinen cuidadosamente" cuáles pueden ser sus riesgos en esta materia.

"Aunque la OMS está entusiasmada con el uso adecuado de las tecnologías para apoyar a los profesionales sanitarios, los pacientes, los investigadores y los científicos, preocupa que la cautela que normalmente se ejercería con cualquier tecnología nueva no se esté ejerciendo de forma coherente con estas IA", ha advertido el organismo sanitario internacional de Naciones Unidas a través de un comunicado.

En este contexto, la OMS alerta de que la "adopción precipitada" de estos sistemas de IA "podría dar lugar a errores por parte del personal sanitario, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de estas tecnologías en todo el mundo".

"Información engañosa o inexacta"

La OMS apunta, por ejemplo, que los datos utilizados para entrenar la IA "pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión". Asimismo, indican que las respuestas de ChatGPT "pueden ser completamente incorrectas o contener errores graves, especialmente en el caso de las respuestas relacionadas con la salud".

De la misma forma, avisan de que estas IA "pueden no proteger los datos sensibles (incluidos los datos sanitarios) que un usuario proporciona para generar una respuesta". Por último, la OMS señala que "pueden utilizarse indebidamente para generar y difundir desinformación muy convincente en forma de contenidos de texto, audio o vídeo que el público difícilmente puede diferenciar de contenidos sanitarios fiables".

Por todo ello, insisten en la necesidad de que estas IA "se utilicen de forma segura, eficaz y ética". Así, piden a los responsables políticos que "garanticen la seguridad y la protección de los pacientes".

17/05/2023