El uso de la inteligencia artificial (IA) ya es bastante frecuente en la práctica médica, sobre todo en países desarrollados, pero lo que hay ahora no es “tan inteligente” ni entraña los riesgos éticos que sí tienen los llamados Grandes Modelos Multimodales, por lo que la Organización Mundial de la Salud (OMS) publica hoy una guía para ayudar a los países miembros a prevenir problemas y hacer un uso ético de esta tecnología prometedora.
Con el gran crecimiento que tiene la inteligencia artificial actualmente, además de los “enormes beneficios que podría aportar a los sistemas de salud, incluida la mejora de la salud pública y el logro de la cobertura sanitaria universal”, hay también “riesgos importantes que podrían socavar la salud pública y poner en peligro la dignidad individual, la privacidad y los derechos humanos”, señala la OMS en la guía.
Y algunos de esos riesgos aún pueden ser difíciles de imaginar y prever.
Más poderosos y convincentes
Los Grandes Modelos Multimodales, o GMMs (entre los que están incluidos los de lenguaje como ChatGPT), se distinguen de muchas formas de los tipos anteriores de IA: son mucho más poderosos, versátiles e interactivos.
Por ejemplo, la IA previa no requiere ni invita a la participación del usuario (o, en este caso, paciente), más que en formas rudimentarias; sin embargo, los GMMs suelen tener una interfaz que no sólo facilita las interacciones con humanos, sino que pueden imitar la comunicación humana y, “por lo tanto, pueden llevar a los usuarios a dotar al algoritmo de cualidades similares a las humanas”, señala la OMS.
Otra diferencia notable es que los modelos de IA previos y más limitados y son “especialistas” en un área de determinada, pero los GMMs son entrenados con conjuntos de datos muy amplios y diversos, pueden tener información genómica, epigenómica, de imagen, clínica, social y ambiental, lo que hace que puedan generar resultados que no se limitan al tipo de datos ingresados por el usuario o paciente.
Debido a esta capacidad de generar respuestas amplias y profundas, éstas pueden llegar una autoridad inmerecida, “y muchos usuarios las aceptan acríticamente como correctas, incluso si un GMM no puede garantizar una respuesta correcta y no puede integrar normas éticas o razonamiento moral en las respuestas que genera”, señala la Organización como ejemplo.
La propuesta de la OMS sobre la IA
La propuesta de la OMS para, primero, identificar los beneficios y desafíos asociados con el uso de los GMM, y después para enfrentarlos con una gobernanza basada en la ética consiste en mantenerse apegado a cinco principios:
Proteger la autonomía; promover el bienestar y la seguridad de los seres humanos, así como el interés público; garantizar la transparencia, la “explicabilidad” y la inteligibilidad; fomentar la responsabilidad y la rendición de cuentas, y garantizar la inclusión y la equidad.
Estos principios, señala la OMS, se deberían mantener a lo largo de toda la cadena de valor de la IA, desde su generación en una startup, una universidad o una gran compañía, hasta la atención de los pacientes.
ES DE INTERÉS:
Histórico acuerdo para la Inteligencia Artificial en Europa
La inteligencia artificial sacude el mundo de la edición
¿Héroe o villana? Inteligencia Artificial ayuda a delincuentes