OPINION - Diagnostics médicaux: doit-on vraiment laisser l’IA décider? - 20/10/2049

Ces dernières semaines ont été le théâtre de plusieurs évènements choquants qui appellent de plus en plus à se questionner sur la confiance aveugle que l’on a donné à l’intelligence artificielle ces dernières années.

En effet, l’hôpital central a été attaqué en justice par 3 fois en peu de temps par des familles de patients décédés des suites de mauvais diagnostique ou mauvaise prescription.


Les familles ont tenté de démontrer que les bases de données de l’intelligence artificielle, en service pour les diagnostiques de médecine générale depuis 12 ans maintenant, ne tenaient pas assez compte des spécificités des malades et se basaient sur des données limitées en termes de diversité et de compréhension physiologiques des différents profils médicaux.


Le cas le plus triste étant celui de cette petite fille autiste qui, ne réagissant pas “convenablement” aux processus mis en place par l’intelligence artificielle, s’est vue prescrire les mauvais médicaments et a succombé au traitement au bout de quelques jours.


La question centrale ne porte pas tant ici sur le système d’intelligence artificielle mais bien sur le manque de contrôle exercé par le personnel médical sur ce système. Depuis quelques années pourtant, de nombreux professionnels du secteur se sont élevés contre l’autonomie selon eux “trop large” laissée au système.


Pour le cas de notre hôpital, le système a été mis en place il y a donc 12 ans. Si les 3 premières années le système était en effet supervisé par du personnel médical, le faible nombre d’erreurs a poussé la direction de l’hôpital a stopper la supervision humaine. La raison officielle était le faible niveau d’erreur et “la nécessité pour l’hôpital de proposer les services de dernière technologie”. Mais la raison officieuse était surtout de réduire les coûts: le système d’IA ne nécessitant que de faibles coûts de maintenance et de mise à jour alors que le personnel nécessite un coût bien plus important.


C’est sûr ce point, ainsi que l’absence de contrôle des mises à jour des bases de données issues de l’entreprise propriétaire du système qui s’appuie sur des données principalement issues des Etats-Unis et donc pas nécessairement adaptées à la population originaire du Pacifique.


En parallèle, le refus du gouvernement de participer, là encore par soucis budgétaire, au projet de création de bases de données régionales pour obtenir des données plus adaptées, n’aide pas à calmer les contestations de la population.


Les verdicts sont attendus prochainement et l’hôpital pourrait avoir à payer d’importantes indemnités qui, selon certains experts, pourraient quasiment approcher le coût d’une supervision humaine… Ou quand les réductions budgétaires à vue courte impacte la vie des individus sur le long terme sans apporter les réels bénéfices économiques attendus…

89757353

©2019 by Observatoire Océanien de Prospective - 2OP. Proudly created with Wix.com