La IA y la desigualdad en salud

16 de Junio de 2024

La IA y la desigualdad en salud

Promos Portada Ciencia 356

Los avances de la inteligencia artificial tienen riesgos latentes e intrínsecos de dejar rezagadas a poblaciones enteras, y no sólo por el hecho de que hay países con las capacidades de acceder a estas tecnologías

En los últimos años, y especialmente en estos meses, los avances de la inteligencia artificial en el análisis de imágenes médicas han crecido exponencialmente; las máquinas entrenadas pueden reconocer y contar desde células tumorales hasta espermatozoides con mucha más rapidez y efectividad que los ojos humanos.

Estos avances, como otros que han sucedido en la intersección de los campos de la tecnología y la medicina, tienen riesgos latentes e intrínsecos, por la forma cómo se están construyendo, de dejar rezagadas a poblaciones enteras, y no sólo por el hecho de que hay países, comunidades e individuos con las capacidades financieras de acceder a estas tecnologías mientras que otros no las tienen.

Para darnos una idea del avance de estas tecnologías, baste dar tres ejemplos que sucedieron casi el mismo día de junio pasado (lo cual, más que una casualidad es una muestra de la gran cantidad de publicaciones que se están haciendo).

Contando espermatozoides

IA y la salud

El martes 27 de junio en la 39 reunión anual de la Sociedad Europea de Reproducción Humana y Embriología en Copenhague, Dinamarca, se presentó una inteligencia artificial (IA) que puede identificar espermatozoides en hombres infértiles en cuestión de segundos, mientras que a científicos y técnicos entrenados en la tarea les toma horas.

La IA entrenada, llamada SpermSearch, identifica casi instantáneamente los espermatozoides, y luego deja que el embriólogo decida si los espermatozoides están realmente presentes y si son lo suficientemente viables para realizar un procedimiento de fertilización manual de óvulos, que es lo que normalmente esperan poder hacer quienes recurren a estos conteos.

El entrenamiento de la IA se llevó a cabo en una clínica de fertilidad en Sydney, Australia, y duró cinco meses, durante los cuales el equipo de investigación utilizó miles de fotografías fijas de microscopio de esperma y otras células y desechos, como los que se pueden encontrar en las muestras que se analizan, que provienen de muestras de tejido testicular triturado.

Después se realizó una prueba simultánea entre la IA y un embriólogo cuya precisión se consideraba del 100%. El especialista humano encontró 560 espermatozoides; la IA encontró 611, fue un 5% más precisa y analizó cada muestra en menos de una milésima parte del tiempo que le tomó al embriólogo.

La aceptación de los expertos

El mismo 27 de junio, en la revista Radiology, se publicó un estudio, realizado por un equipo de investigación de la Universidad Nacional de Seúl, que analizó la aceptación de los expertos humanos de las sugerencias de una inteligencia artificial que detecta cánceres de pulmón en radiografías de tórax.

La idea, ya que el diagnóstico por imágenes basado en IA es uno de los campos que más rápidamente ha avanzado, era saber de qué depende la aceptación de los radiólogos de la asistencia de la IA, por lo que se incluyeron expertos con entre cinco y 18 años de experiencia y residentes con apenas uno o dos años; también se usaron dos IAs, una de baja precisión y otra de alta (los lectores no sabían de antemano qué tipo de IA les asistieron).

Independientemente de la cantidad de experiencia que tuvieran los radiólogos, los resultados del estudio muestran que sólo son “susceptibles” a la IA (así es como llaman a la aceptación de sus sugerencias) si ésta es de alta precisión.

Esto implica que, aunque las IAs de rendimiento bajo y medio podrían en teoría ayudar a agilizar el trabajo, en la práctica diaria no lo harán por la desconfianza de los humanos.

Pruebas de memoria

Al día siguiente, el 28 de junio, la Universidad de Sheffield, en Reino Unido, dio a conocer una herramienta de inteligencia artificial que detecta los primeros signos de demencia y Alzheimer de manera más rápida y eficiente que los sistemas tradicionales.

El sistema, conocido como CognoSpeak, entabla una conversación con el paciente por medio de un agente virtual que se muestra en pantalla y hace preguntas para evaluar capacidades cognitivas, como descripciones de imágenes y pruebas de fluidez verbal.

Una de las ventajas de CognoSpeak es que se puede acceder a través de un navegador web, lo que significa que los pacientes pueden realizar la prueba en su casa a través del dispositivo que prefieran (sus resultados se mandan a uno de los centros especializados en problemas de memoria), en lugar de tener que ir al hospital, lo que puede causar menos estrés y ansiedad.

CognoSpeak, que tiene una precisión de 90 % y aún se encuentra en fase de investigación, tiene una subvención de 1.4 millones de libras del Instituto Nacional para la Investigación de la Salud y la Atención (NIHR), para probarse más ampliamente.

El equipo de investigación está entrenando a la IA con distintos acentos regionales del Reino Unido y los quienes hablan inglés como segundo idioma, para que la herramienta sea accesible para los pacientes de comunidades de minorías étnicas que tienen menos acceso a este tipo de servicios.

Epílogo de inequidad

Desafortunadamente, los desarrollos incluyentes como CognoSpeak son una minoría. De acuerdo con un estudio publicado el 3 de abril en Nature Medicine, la mayoría de los desarrollos de IA que analizan imágenes médicas tienden a ser parciales y están siendo entrenadas con información de hombres blancos, dejando de lado otras razas, géneros, edades u orientaciones sexuales.

Este análisis fue hecho en los Estados Unidos, pero este país es el que realiza más imágenes, está desarrollando más IAs y es el lugar de residencia de la mayor parte de las compañías que producirán industrialmente y venderán estas innovaciones, existe el potencial de sesgar los resultados en todo el mundo.

SIGUE LEYENDO:

La vida, hasta la artificial, se abre camino

La IA puede distorsionar nuestras creencias

Te Recomendamos: