OMS alerta sobre peligros de la Inteligencia Artificial

254

La OMS alertó que estas herramientas pueden ser entrenadas con datos falsos y ser utilizadas indebidamente para «generar y difundir desinformación muy convincente» en forma de texto, vídeo y audio.

En concreto, cuestionó el uso que le pueden otorgar los profesionales de la salud u otras personas al preguntarle sobre diagnósticos u otro tipo de información médica: «Es imperativo que se examinen cuidadosamente los riesgos que tiene el uso de estas herramientas como método de apoyo para la toma de decisiones médicas», insistió la OMS, que no obstante se mostró «entusiasmada» con los avances tecnológicos en este ámbito.

De acuerdo con su percepción, podría inducir al error a los médicos y causarles daño a los pacientes. Además, la OMS está preocupada por los datos personales que se le pueden suministrar a estas tecnologías.

La inteligencia artificial aplicada a la salud puede generar orientaciones incorrectas, violación de datos personales y difundir desinformación, alerta la Organización Mundial de la Salud (OMS). La entidad pide precaución con plataformas como ChatGPT, Bard, Bert y varias otras que imitan la comprensión, el procesamiento y la producción de la comunicación humana.

Los expertos de la agencia consideran que la rápida y amplia difusión de los lenguajes de la inteligencia artificial (IA) y el creciente uso experimental para fines relacionados con la salud no está acompañado de mecanismos de control. Esto incluye la adhesión de las plataformas de inteligencia artificial a valores como la transparencia, la inclusión, el compromiso público, la supervisión especializada y la evaluación rigurosa.

Estas plataformas pueden generar respuestas que parecen confiables y plausibles para un usuario final. Sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente para temas relacionados con la salud.

Además, “pueden ser entrenados en datos para los que el consentimiento puede no haber sido proporcionado anteriormente. Además, estas herramientas no protegen necesariamente los datos confidenciales, incluidos los de salud, que un usuario proporciona para generar una respuesta”, añade la OMS.

Otro temor de la organización es que “la IA puede utilizarse para generar y difundir desinformación altamente convincente en forma de texto, audio o video, lo que dificulta al público diferenciar el contenido falso del contenido confiable”.

LA INTELIGENCIA ARTIFICIAL DEBE CENTRARSE EN REDUCIR LA DESIGUALDAD
La OMS propone que estas preocupaciones se aborden sobre la base de la evidencia. Un análisis de riesgos y beneficios debe preceder al uso generalizado en la atención sanitaria y la medicina de rutina, ya sea por individuos, proveedores de servicios y formuladores de políticas.

La OMS reconoce que el uso adecuado de tecnologías, puede contribuir a apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos. Las nuevas plataformas pueden ser una herramienta de apoyo a las decisiones médicas y aumentar la capacidad de diagnóstico en entornos con pocos recursos. La atención debe centrarse en proteger la salud de las personas y reducir la desigualdad.

DAÑO A LOS PACIENTES
Pero la entidad señala que los riesgos asociados con el uso de estas herramientas para mejorar el acceso a la información sanitaria deben evaluarse cuidadosamente. La adopción precipitada de sistemas no probados puede provocar errores por parte de los profesionales sanitarios, dañar a los pacientes y socavar la confianza en la inteligencia artificial y en las tecnologías futuras.

Los datos utilizados para entrenar la Inteligencia Artificial pueden ser sesgados, generando información engañosa o inexacta que puede suponer riesgos para la salud, la equidad y la inclusión.