Novedades

30 marzo, 2020

Inteligencia Artificial en épocas de pandemia

Inteligencia Artificial en épocas de pandemia

Una mirada precautoria desde la Fundación Sadosky

¿IA durante la pandemia?

En las últimas semanas hemos tenido noticias de lanzamientos no oficiales de aplicaciones, plataformas y análisis de todo tipo, basados en Inteligencia Artificial (IA), en relación a la Pandemia de Coronavirus: aplicaciones para celular que predicen el riesgo de un individuo a contagiarse con solo compartir la geolocalización; algoritmos que prometen diagnosticar coronavirus a partir de imágenes de tomografías o rayos x; sistema de diagnóstico a partir de la voz; predicciones sobre futuros números de casos positivos, fallecidos, recuperados; iniciativas que pretenden resolver el problema de subdiagnóstico; entre otros proyectos. 

A simple vista parecería que la IA es una herramienta poderosa en la lucha contra el COVID-19. La misma narrativa parece replicarse, cada vez más, en medios de comunicación y redes sociales. Y si bien es cierto que la IA ha tenido un desarrollo destacado en años recientes, y su uso es exitoso y palpable (como por ejemplo cuando se procesan nuestras imágenes una red social para identificar personas y objetos, cuando hacemos traducciones en línea, filtrar spam, recomendación de productos y otras aplicaciones comerciales), es importante destacar que tales aplicaciones están basadas en la disponibilidad de grandes cantidades de datos y años de desarrollo y perfeccionamiento, sumado a que, en general, son aplicaciones no críticas.

Desde la Fundación Sadosky queremos invitar a la población, y a los medios de comunicación, a ser cautos con el uso y la difusión de esas aplicaciones, plataformas y análisis, debido a que muchos han visto la oportunidad de generar impacto con la pandemia y no dudan en lanzar propuestas, que, en su mayoría, adolecen de una o varias de las siguientes fallas:

-Falta de acceso a datos de calidad y en la cantidad que los algoritmos de IA requieren para brindar resultados confiables. Durante una pandemia con el sistema de salud en alerta y con riesgo de colapso, esa información no  resulta fácil de conseguir. Los Estados recién están organizando esfuerzos para recolectar esos datos genuinos y poder ponerlos en manos de la comunidad científica.

-No poseen una homologación por parte de los organismos de control, lo que requiere tiempo para que sean validadas por profesionales expertos y testeadas en el ámbito clínico.  

-Se utilizan heurísticas o recetas oscuras para procesar y comparar los datos, que son de de escaso o nulo rigor matemático y metodológico.  

-Siguiendo con la falta de rigor, se comparan curvas y se hacen extrapolaciones de otros casos y países, en las que los resultados son  extremadamente sensibles a pequeños errores en la recolección de datos y en los protocolos de reporte, lo cual arroja conclusiones carentes de validez.-

-Requieren que el usuario ceda información personal sensible, como puede ser su historial de geolocalización, su estado de salud o incluso sus radiografías, sin una política clara de privacidad, ni de protección de datos. Y ésto en desarrollos apresurados e inmaduros, lo que supone un riesgo adicional de filtración de datos. 

Resumiendo, la inteligencia artificial es una herramienta con mucho potencial y aplicable a las más diversas áreas, pero requiere acceso a datos confiables, revisiones y pruebas para evitar sesgos, y más aún, como cualquier dispositivo aplicado a la salud, requiere de homologaciones y aprobación por los organismos de control que aseguren su idoneidad y fiabilidad. Además, debemos utilizarla de manera crítica. De no ser así, se podría incurrir en conclusiones falaces, toma de decisiones erróneas, crear angustia y preocupaciones innecesarias, por lo que, nuevamente, desde la Fundación Sadosky exhortamos a la población, y los medios, a minimizar su uso y difusión, y en tal caso a no tomar sus predicciones como certeras bajo ningún aspecto.