top of page
  • Foto del escritorOscar C

La OMS ya tiene su postura sobre utilizar IAs como ChatGPT y Bard en temas de salud

* "¡Ay, con cuidado!"



La Organización Mundial de la Salud (OMS) ha dado a conocer su postura sobre el uso de las herramientas de modelos grandes de lenguaje (LLM), con la intención de proteger y promover el bienestar, la seguridad humana y autonomía, además de ayudar a preservar la salud pública.


A través de un comunicado, la OMS solicita precauciones al utilizar plataformas como ChatGPT, Bard o Bert, en especial en sus implementaciones experimentales en fines relacionados con la salud para apoyar las necesidades de las personas.


En su postura, la organización dice que es "imperativo" examinar cuidadosamente los riesgos cuando se usan los LLM, ya sea para mejorar el acceso a la información de salud, como herramienta de apoyo para toma de decisiones o en diagnóstico médico en entornos de escasos recursos para proteger la salud de las personas.


Por un lado la OMS se dice "entusiasmada" por el uso apropiado de estas tecnologías, aunque también señalan que existe una preocupación de que la cautela que se ejercería para cualquier nuevo adelanto no se está ejerciendo de una forma coherente en este caso.


Entre los comportamientos según la Organización se están omitiendo están la transparencia, inclusión, participación pública, supervisión experta y la evaluación rigurosa.


Adoptar de forma precipitada sistemas no probados, dice la Organización, podría derivar en errores de los trabajadores de salud, pero también causar daño en pacientes y erosionar la confianza de las personas. Esto último derivaría en socavar o retrasar los posibles beneficios y usos a largo plazo de la tecnología.


Las pautas de la OMS para las IAs


Según la OMS se debe establecer la supervisión rigurosa para que estos avances se usen de forma segura, eficaz y ética. Específicamente los puntos que mención a revisar son:


Considerar que los datos usados para el entrenamiento puedan estar sesgados y dar información engañosa o inexacta; que los LLM generan respuestas que parecen válidas para los usuarios, aunque se pueda tratar de contenido incorrecto o con errores graves.


Otros elementos a valorar es que los LLM pueden recibir capacitación de datos sobre los cuales no hay un consentimiento para su uso en esa finalidad, además de que los LLM pueden no proteger datos confidenciales (como la información de salud) que un usuario proporciona a una plataforma para obtener una respuesta.


La Organización también apunta a que los LLM se pueden usar de forma indebida para generar y difundir desinformación "altamente convincente" en formatos de texto, audio o video, siendo difícil para el público diferenciar cuando este es confiable.


Aunque la OMS está comprometida en aprovechar las nuevas tecnologías como la IA y la salud digital, recomienda el desarrollo de políticas que permitan garantizar la seguridad y protección de los pacientes mientras las empresas de tecnología comercializan los LLM.


De forma adicional, para el Organismo es necesario abordar las preocupaciones y medir el beneficio de la implementación de las IAs antes de comenzar a utilizarlas en atención médica y medicina de rutina.


Algunos de los usos de la IA en medicina


La Inteligencia Artificial ya ha sido utilizada en distintos escenarios, desde para escribir artículos de investigación científica, pero también en aplicaciones médicas.


Por ejemplo, aprovechando tecnologías similares a Midjourney y DALL-E se creó un modelo capaz de diseñar nuevas proteínas que parecen ser "biofísicamente reales".


Otras aplicaciones son el uso de la IA para responder las dudas de los pacientes, resultando ser mejores que las interacciones de los médicos en determinados escenarios.


Creditos: XATAKA

bottom of page