apprentissage-automatique-prédit-insuffisance-cardiaque
Chaque année, environ 70 000 décès en France, sont causés, au moins en partie, par une insuffisance cardiaque. L’un des signes d’alerte les plus courants de l’insuffisance cardiaque aiguë est l’excès de liquide dans les poumons, une affection connue sous le nom « d’œdème pulmonaire ».

L’insuffisance cardiaque 

Le niveau exact de liquide excédentaire d’un patient dicte souvent la ligne de conduite du médecin, mais il est difficile de faire de telles déterminations, et les cliniciens doivent se fier aux caractéristiques subtiles des radiographies, qui conduisent parfois à des diagnostics et des plans de traitement incohérents.
Pour mieux gérer ce genre de nuances, un groupe dirigé par des chercheurs du laboratoire d’informatique et d’intelligence artificielle du MIT (CSAIL) a mis au point un modèle d’apprentissage automatique, qui peut examiner une radiographie pour quantifier la gravité de l’œdème, sur une échelle à quatre niveaux; allant de 0 (sain) à 3 (très, très mauvais). Ce système a déterminé le bon niveau dans plus de la moitié des cas, et le niveau 3 a été correctement diagnostiqué dans 90 % des cas.
L’équipe affirme qu’un meilleur diagnostic de l’œdème, aiderait les médecins à gérer non seulement les problèmes cardiaques aigus, mais aussi d’autres affections comme, la septicémie et l’insuffisance rénale qui sont fortement associées à l’œdème pulmonaire.

Il a été formé sur plus de 300 000 radiographiques

Un aspect important de ce système, est qu’il a été formé non seulement sur plus de 300 000 radiographiques, mais aussi sur le texte correspondant des rapports sur ces radiographies, qui ont été rédigés par les radiologues. L’équipe a été agréablement surprise que son système ait connu un tel succès en utilisant ces rapports, dont la plupart ne comportaient pas d’étiquettes expliquant le niveau exact de gravité de l’œdème.
« En apprenant l’association entre les images et leurs rapports correspondants, cette méthode a le potentiel d’une nouvelle façon de générer automatiquement des rapports à partir de la détection des résultats des images », explique Tanveer Syeda-Mahmood, un chercheur qui ne participe pas à ce projet. « Bien sûr, il faudrait faire d’autres expériences pour que cela soit largement applicable à d’autres découvertes ».
« Notre modèle peut transformer à la fois les images et le texte en abstractions numériques compactes, à partir desquelles une interprétation peut être dérivée », explique M. Chauhan. « Nous l’avons formé pour minimiser la différence entre les représentations des radiologiques et le texte des rapports de radiologie, en utilisant ces rapports pour améliorer l’interprétation des images ».

Obtenir des corrélations plus détaillées

En outre, ce système a également été capable de « s’expliquer », en montrant quelles parties des rapports et des zones des images radiologiques, correspondent à la prédiction du modèle. M. Chauhan espère que les futurs travaux dans ce domaine, permettront d’obtenir des corrélations plus détaillées entre les images et les textes de bas niveau, afin que les cliniciens puissent établir une taxonomie des images, des rapports, des étiquettes de maladies et des régions corrélées pertinentes.
« Ces corrélations seront précieuses pour améliorer la recherche, dans une vaste base de données d’images et de rapports radiologiques, afin de rendre l’analyse rétrospective encore plus efficace », déclare M. Chauhan.
Cette recherche a été pré-publiée dans arXiv.
Source : MIT
Crédit photo : Rawpixel