« nous avons conçu des machines intelligentes, puis demandé aux médecins d’être encore plus intelligents »

« nous avons conçu des machines intelligentes, puis demandé aux médecins d’être encore plus intelligents »

Play all audios:

Loading...

L’intelligence artificielle (IA) est souvent saluée comme la solution aux défis les plus complexes de la médecine moderne. Qu’il s’agisse de prédire des infections chez les prématurés ou de


recommander des traitements personnalisés, les outils d’IA promettent plus de précision et d’efficacité. En tant que chercheurs et médecins, nous voyons l’immense potentiel de l’IA. Mais


nous constatons aussi un problème croissant : bien que l’IA soit conçue pour alléger la charge des cliniciens, elle pourrait en réalité l’aggraver. Comme nous l’avons souligné en mars dans


un article publié dans le _JAMA Health Forum_, on demande aux médecins d’accomplir l’impossible. L’IA s’introduit dans les hôpitaux à un rythme que les réglementations ne peuvent pas suivre.


Les médecins doivent décider – souvent seuls – quand se fier aux recommandations d’un algorithme et quand les rejeter. Et si le résultat est mauvais, ce sont eux qui en portent la


responsabilité. Des recherches montrent que le public tend à blâmer davantage les médecins qui suivent une recommandation erronée d’IA que ceux qui suivent un avis humain fautif. Les


médecins restent perçus comme les décideurs finaux, même lorsque la technologie échoue. Résultat : on demande aux médecins d’évaluer parfaitement la fiabilité d’outils qu’ils n’ont pas


conçus et ne peuvent entièrement comprendre, tout en les tenant seuls responsables du résultat. Nous appelons cela le « dilemme surhumain du médecin ». La société attend depuis longtemps des


médecins qu’ils soient infaillibles et l’IA ne fait qu’amplifier ces attentes. On demande désormais aux médecins d’interpréter instantanément des résultats algorithmiques, en naviguant


entre deux risques constants : les faux positifs (faire confiance à une IA défectueuse) et les faux négatifs (rejeter une IA fiable). « BOÎTES NOIRES » Les voilà ainsi pris dans un double


piège. S’ils suivent l’IA et que celle-ci se trompe, ils peuvent être blâmés pour avoir fait confiance à une machine. S’ils la rejettent et qu’un préjudice survient, ils peuvent être blâmés


pour l’avoir ignorée. Cela ajoute de la pression, brouille leur jugement et érode la confiance, tant envers la technologie qu’envers eux-mêmes. IL VOUS RESTE 60.99% DE CET ARTICLE À LIRE. LA


SUITE EST RÉSERVÉE AUX ABONNÉS.