#DrArmandoMolina
En la #Era_de_la_Información nos llegan datos que van modelando nuestra percepción de la #Realidad pero cada vez más empiezo a entender que es a base de martillazos. Si tuviéramos tiempo de analizar todo lo que nos llega no sólo nos sorprenderíamos, sino que empezaríamos a desconfiar de casi todo. Si encima analizamos las repercusiones en la #Ética y #Bioética, la lente deformadora a través de la que miramos el mundo se rompe en añicos.
El Efecto Bola de Nieve es cómo una noticia vá rodando por los medios y adquiriendo tintes cada vez más escandalosos…. según interese al medio, que le añade según le convenga. Una misma noticia puede llegar a justificar cosas completamente distintas, según la «ladera» por donde baje.
Como en el juego infantil del Teléfono Roto (tiene otros nombres), la información vá degradándose y haciéndose más truculenta cuantos más eslabones tenga la cadena de información.
Nivel 1 – Noticia en Medios españoles
Recientemente apareció una impactante noticia en los medios que aunaba #InteligenciaArtificial y #Medicina:
Publicado en ElEspañol.com, diario virtual nacional, añadían un pequeño subtítulo: «Científicos del MIT han desarrollado una Inteligencia Artificial capaz de predecir el #CáncerDeMama con precisión, antes de que sea demasiado tarde».
Cuando se leía la noticia, se entendía algo menos. Empezaban a hablar de «El sistema ha sido creado para identificar pacientes de riesgo en pruebas periódicas; incluso antes de que la enfermedad se desarrolle».
Se entendía que habían entrenado con 60.000 mamografías para que mediante #DeepLearning buscara diferencias sutiles (más allá de la habilidad humana) que indicaran la presencia de tejido tumoral.
Pero cuando se veían las ilustraciones hablaban de RIESGO, con unas proporciones además bajas, del 5.5% máximo. El penúltimo párrafo de la información comentaba que «con esta información, es posible realizar un seguimiento personalizado del paciente, en vez de esperar a las revisiones periódicas», por lo que claramente el titular no era precisamente certero respecto al contenido de la noticia.
Finalmente, comentan que el sistema de IA llama la atención porque no discriminaba entre mujeres blancas y negras como si pasaba en otros sistemas.
Comoquiera que la noticia resultaba un poco incongruente, lo correcto es buscar la fuente.
Nivel 2 – Web norteamericana
En este caso resultaba en un artículo de la web del MIT Computer Science & Artificial Intelligence Lab, fechado el 7 de mayo de 2019, titulado:
«Usando IA para predecir el cáncer de mama y personalizar el tratamiento», bastante diferente al que tenía el del periódico español.
En la cabeza del artículo ya explican que el área de trabajo es la identificación de las pacientes con riesgo de padecer Cáncer de Mama, fundamental en los programas de #DetecciónPrecoz. Explican algo mejor que entrenaron al modelo de IA con las mamografías y resultados finales de 60.000 pacientes tratadas en el Massachusetts General Hospital para que estudiara las diferencias sutiles en los patrones de tejido mamario que pudieran ser precursores del Cáncer de Mama.
Citando a una de las autoras del trabajo, Regina Barzilay (Department of Electrical Engineering and Computer Science, Massachusetts Institute of Technology), especificaban que el objetivo es que se pudiera personalizar el tipo de seguimiento de las pacientes según su riesgo, en vez de un Seguimiento Estándar para todas las mujeres. En ningún caso habla de diagnósticos. El titular nacional ya queda completamente en entredicho. Tampoco colocaban las imágenes que aparecían en el artículo español.
Con un link al artículo original en Radiology, comentan que «el nuevo modelo asigna correctamente en alto riesgo al 31% de las pacientes que luego tuvieron Cáncer de Mama, en lugar del 18% que tiene el modelo tradicional usado habitualmente», entreviendo un poco mejor cómo debe ser el artículo original y sus verdaderas conclusiones.
Desarrollan más abajo que utilizaron «sobre 90.000 mamografías» para «deducir los patrones [demasiado sutiles o complejos de detectar por el ojo humano] que conducen a un cáncer futuro directamente desde los datos (sic)». Aclaran un poco el asunto racial explicando que el modelo previo se realizó casi exclusivamente utilizando datos de pacientes blancas, por lo que no era adecuado para todas las poblaciones, mientras que el nuevo modelo no tiene ese sesgo.
Pero los tres últimos párrafos ofrecen varias perlas de información:
a) reciente legislación federal norteamericana que obliga a que todas las pacientes sometidas a mamografía sean informadas de la densidad mamaria, y lo señalan como una potente medida del Congreso que las mujeres merecen acceso a la información de su #Salud [no dan más datos]
b) están intentando usar el sistema para saber si con una Mamografía puede saberse si la paciente tiene mayor riesgo de otros problemas de salud, como los cardiovasculares u otros cánceres.
c) Terminan citando una frase categórica de Regina Barzilay: «al predecir quien desarrollará cáncer en el futuro, podemos coger el cáncer antes que aparezcan los síntomas y esperanzadoramente salvar vidas».
Conclusión Parcial: el artículo español, además de exagerado, contiene más información que la fuente descrita. Y la fuente descrita aporta información «curiosa» y éticamente objetivable.
Es necesario buscar la fuente científica siguiendo el enlace.
[continuará…] Revistas Científicas