Par Jaimi Dowdell, Steve Stecklow, Chad Terhune et Rachael Levy
Reuters, 2 mars 2026
Traduit de l’anglais par le Kiosque Médias

Les fabricants de dispositifs médicaux se précipitent pour intégrer l’IA à leurs produits. Bien que les partisans affirment que cette nouvelle technologie révolutionnera la médecine, les régulateurs reçoivent un nombre croissant de réclamations concernant des blessures de patients.

En 2021, une unité du géant de la santé Johnson & Johnson a annoncé « un bond en avant » : elle avait ajouté l’intelligence artificielle à un dispositif médical utilisé pour traiter la sinusite chronique, une inflammation des sinus. Acclarent a indiqué que le logiciel de son système de navigation TruDi utiliserait désormais un algorithme d’apprentissage automatique pour aider les spécialistes de l’oreille, du nez et de la gorge lors des opérations.

L’appareil était déjà sur le marché depuis environ trois ans. Jusqu’à ce moment-là, la Food and Drug Administration des États-Unis avait reçu des rapports non confirmés de sept cas où l’appareil avait dysfonctionné et un autre cas de blessure d’un patient. Depuis l’ajout de l’IA au dispositif, la FDA a reçu des rapports non confirmés faisant état d’au moins 100 dysfonctionnements et événements indésirables.

La société de dispositifs médicaux Acclarent a ajouté l’intelligence artificielle à son système de navigation TruDi pour aider les médecins lors de la chirurgie des sinus. Un post Twitter de la société en octobre 2021 a présenté ces nouvelles fonctionnalités d’IA.
Au moins 10 personnes ont été blessées entre la fin 2021 et novembre 2025, selon les rapports. La plupart concernaient des erreurs dans lesquelles le système de navigation TruDi désinformait les chirurgiens sur l’emplacement de leurs instruments alors qu’ils les utilisaient dans la tête des patients lors des opérations.
Du liquide céphalorachidien aurait fui par le nez d’un patient. Dans un autre cas signalé, un chirurgien a perforé par erreur la base du crâne d’un patient. Dans deux autres cas, les patients auraient chacun subi des AVC après qu’une artère majeure ait été accidentellement blessée.

Les rapports de la FDA sur les dispositifs peuvent être incomplets et ne visent pas à déterminer les causes des accidents médicaux, il n’est donc pas clair quel rôle l’IA a pu jouer dans ces événements. Les deux victimes d’AVC ont chacune intenté une plainte au Texas, alléguant que l’IA du système TruDi avait contribué à leurs blessures. « Le produit était sans doute plus sûr avant d’intégrer des modifications dans le logiciel pour intégrer l’intelligence artificielle qu’après la mise en œuvre des modifications logicielles », affirme l’une des poursuites.

Reuters n’a pas pu vérifier de manière indépendante les allégations des plaintes.

Interrogés sur les rapports de la FDA concernant l’appareil TruDi, Johnson & Johnson a renvoyé les questions à Integra LifeSciences, qui a acheté en 2024 Acclarent et le système de navigation TruDi. Integra LifeSciences a déclaré que les rapports « ne font rien d’autre qu’indiquer qu’un système TruDi était utilisé lors d’une chirurgie où un événement indésirable s’est produit. » Elle a ajouté qu’« il n’existe aucune preuve crédible démontrant un lien de causalité entre le système de navigation TruDi, la technologie d’IA et les blessures présumées. »

Une vidéo publiée par Acclarent sur LinkedIn démontre une fonctionnalité d’IA dans son système de navigation TruDi. Appelé TruPath, il montre aux chirurgiens « le chemin le plus court et valide entre deux points ».

Les éclairages sur ces incidents arrivent alors que l’IA commence à transformer le monde des soins de santé. Les partisans prédisent que cette nouvelle technologie aidera à trouver des remèdes contre les maladies rares, à découvrir de nouveaux médicaments, à renforcer les compétences des chirurgiens et à autonomiser les patients. Mais une revue de Reuters sur la sécurité et les dossiers juridiques, ainsi que des entretiens avec des médecins, des infirmières, des scientifiques et des régulateurs, documente certains des dangers de l’IA en médecine alors que les fabricants d’appareils, les géants de la technologie et les développeurs de logiciels se précipitent pour la déployer.

Au moins 1 357 dispositifs médicaux utilisant l’IA sont désormais autorisés par la FDA – soit le double du nombre autorisé jusqu’en 2022. Le système TruDi n’est pas le seul à être remis en question : la FDA a reçu des rapports impliquant des dizaines d’autres dispositifs améliorés par l’IA, dont un moniteur cardiaque censé avoir négligé des battements anormaux et un appareil à ultrasons qui aurait mal identifié des parties du corps fœtal.

Des chercheurs des universités Johns Hopkins, Georgetown et Yale ont récemment découvert que 60 dispositifs médicaux autorisés par la FDA utilisant l’IA étaient liés à 182 rappels de produits, selon une lettre de recherche publiée dans le JAMA Health Forum en août. Leur revue a montré que 43 % des rappels ont eu lieu moins d’un an après que les appareils ont été approuvés. C’est environ deux fois le taux de rappel de tous les dispositifs autorisés selon des règles similaires de la FDA, a noté la revue.

Le boom de l’IA pose un problème à la FDA, ont déclaré cinq scientifiques actuels et anciens de l’agence à Reuters : l’agence peine à suivre le rythme de l’afflux de dispositifs médicaux améliorés par l’IA cherchant à obtenir l’approbation après la perte de personnel clé. Un porte-parole du Département américain de la Santé et des Services sociaux, qui inclut la FDA, a déclaré qu’il cherchait à renforcer sa capacité dans ce domaine.

Une autre forme d’intelligence artificielle, les chatbots d’IA générative, est également en train de s’implanter en médecine. De nombreux médecins utilisent désormais l’IA pour gagner du temps, par exemple pour transcrire les notes des patients. Mais les médecins affirment aussi que de nombreux patients utilisent des chatbots pour s’autodiagnostiquer ou remettre en question les conseils des professionnels, posant ainsi de nouveaux défis et risques.

L’intelligence artificielle est devenue une sensation commerciale et sociale après le lancement de ChatGPT il y a environ trois ans. ChatGPT et d’autres chatbots populaires, tels que Gemini de Google et Claude d’Anthropic, utilisent ce qu’on appelle l’IA générative pour créer du contenu. Ils sont construits sur de grands modèles de langage, ou LLM, entraînés sur d’immenses trésors de texte et d’autres données pour comprendre et générer le langage humain. Ces outils d’IA sont désormais introduits dans des domaines médicaux tels que les applications de santé grand public.

L’IA englobe cependant bien plus que les LLM, et cette technologie a fait son entrée dans la médecine bien avant l’apparition des bots IA. Ce domaine remonte à plus de 70 ans : un moment clé fut lorsque le mathématicien britannique Alan Turing demanda dans un article de 1950 : « Les machines peuvent-elles penser ? »

La FDA a autorisé ses premiers dispositifs médicaux améliorés par IA en 1995 – deux systèmes utilisant des logiciels de correspondance de motifs pour dépister le cancer du col de l’utérus. Le type d’IA utilisé aujourd’hui dans les dispositifs médicaux est souvent appelé apprentissage automatique, ainsi qu’un sous-ensemble appelé apprentissage profond, qui est entraîné sur des données pour accomplir des tâches spécifiques. La technologie est utilisée en radiologie, par exemple, pour améliorer et analyser les images médicales. Il peut aider à diagnostiquer les cancers en identifiant les tumeurs que les médecins pourraient négliger.

De tels systèmes sont également utilisés dans les dispositifs chirurgicaux. En juin 2022, un chirurgien a inséré un petit ballon dans la cavité sinusale d’Erin Ralph dans un hôpital de Fort Worth, Texas. Selon un procès intenté par Ralph, le Dr Marc Dean utilisait le système de navigation TruDi, qui utilise l’IA, pour confirmer la position de ses instruments dans sa tête.

Cette procédure, appelée sinuplastie, est une technique peu invasive pour traiter la sinusite chronique. Un ballon est gonflé pour agrandir l’ouverture de la cavité sinusale, afin de permettre un meilleur drainage et de soulager l’inflammation.

Mais le système TruDi a « induit en erreur et détourné » Dean, selon le procès que Ralph a intenté devant le tribunal de district du comté de Dallas contre Acclarent et d’autres défendeurs. Une artère carotide – qui alimente le cerveau, le visage et le cou – aurait été blessée, entraînant un caillot sanguin. Selon un document judiciaire, l’avocat de Ralph a déclaré à un juge que les propres dossiers de Dean montraient qu’il « n’avait aucune idée qu’il était près de l’artère carotide ». Reuters n’a pas pu examiner ces dossiers, qui sont soumis à une ordonnance de protection judiciaire.

Après le départ de Ralph de l’hôpital, il est devenu évident qu’elle avait subi un AVC. La mère de quatre enfants est revenue et a passé cinq jours en soins intensifs, selon une campagne de collecte de fonds GoFundMe organisée pour soutenir sa guérison. Une section de son crâne a été retirée « pour laisser de la place à son cerveau pour gonfler », indique l’appel GoFundMe.

« Je suis toujours en thérapie », a déclaré Ralph dans une interview plus d’un an plus tard sur un blog sur les victimes d’AVC. « C’est difficile de marcher sans attelle et de remettre mon bras gauche en marche, encore une fois. »

Des soutiens ont créé cette campagne GoFundMe en 2022 pour collecter des fonds pour Erin Ralph et sa famille après que Ralph, qui a subi une opération des sinus, a subi un AVC. Ralph a ensuite intenté une plainte alléguant que l’IA du système de navigation TruDi aurait contribué à ses blessures. La société nie les allégations de la plainte.

En mai 2023, Dean utilisait TruDi lors d’une autre opération de sinuplastie lorsque l’artère carotide de la patiente Donna Fernihough aurait « explosé ». Le sang « éclaboussait partout » – allant même jusqu’à toucher un représentant d’Acclarent qui observait l’opération, selon une plainte intentée par Fernihough devant le tribunal fédéral de district de Fort Worth contre Acclarent et plusieurs fabricants. Une des artères carotides de Fernihough était endommagée. Elle a subi un AVC le jour de l’opération, selon sa plainte. Acclarent « savait ou aurait dû savoir que l’intelligence artificielle prétendue causait ou exacerbait la tendance du système de navigation intégré à être incohérent, imprécis et peu fiable », allègue la plainte.

Acclarent a nié les allégations dans les deux procès, qui sont en cours, selon les documents judiciaires. L’entreprise affirme qu’elle n’a ni conçu ni fabriqué le système TruDi, mais seulement distribué, selon des documents judiciaires. Le propriétaire d’Acclarent, Integra LifeSciences, a déclaré à Reuters qu’il n’y avait aucune preuve de lien entre la technologie d’IA et les blessures présumées.

Dean a commencé à conseiller pour Acclarent en 2014 et a reçu plus de 550 000 $ en honoraires de consultant de la part de l’entreprise jusqu’en 2024, selon Open Payments, une base de données fédérale qui suit les liens financiers entre les entreprises et les médecins. Au moins 135 000 $ de ces frais étaient liés au système TruDi.

Un avocat de Dean a déclaré que le médecin ne pouvait pas commenter en raison de la confidentialité des patients et des litiges en cours. Integra a déclaré que Dean n’est plus consultant chez TruDi et que les paiements effectués après l’acquisition d’Acclarent concernaient les repas.

En 2021, le président d’Acclarent à l’époque, Jeff Hopkins, poussait à intégrer l’IA dans TruDi « comme outil marketing » afin d’affirmer que l’appareil « possédait une technologie nouvelle et novatrice », allègue la plainte de Fernihough.

Le logiciel TruDi utilise l’apprentissage automatique pour identifier des segments spécifiques de l’anatomie d’un patient et calculer « le chemin le plus court et valide entre deux points spécifiés par le médecin », selon un post d’Acclarent sur LinkedIn. La technologie est conçue pour simplifier la planification chirurgicale et fournir un retour en temps réel lors d’interventions telles que les opérations des sinus.

Les responsables d’Acclarent avaient approché Dean du projet d’ajouter l’IA, indique la plainte de Fernihough. Le chirurgien a averti Hopkins et Acclarent « qu’il y avait des problèmes à résoudre », ajoute la plainte. Malgré cet avertissement, selon la plainte, Acclarent « a abaissé ses normes de sécurité pour accélérer la mise sur le marché de la nouvelle technologie » et s’est fixé « comme objectif une précision de seulement 80 % pour certaines de ces nouvelles technologies avant de l’intégrer au système de navigation TruDi. »

Reuters n’a pas pu déterminer si Dean avait émis l’avertissement. Les journalistes n’ont pas pu examiner les documents soumis à l’appui des affirmations de Fernihough, qui sont soumis à une ordonnance de protection judiciaire.

Hopkins, l’ancien président d’Acclarent, n’a pas répondu à une demande de commentaire.

La FDA met en garde contre les rapports d’événements indésirables et de dysfonctionnements des dispositifs qui sont limités : ils manquent souvent de détails, sont expurgés pour protéger les secrets commerciaux, et ne peuvent pas être utilisés seuls pour en faire porter la responsabilité. L’agence reçoit également parfois plusieurs rapports pour un seul incident.

Reuters a constaté qu’au moins 1 401 des rapports déposés à la FDA entre 2021 et octobre 2025 concernent des dispositifs médicaux figurant sur une liste de 1 357 produits de la FDA utilisant l’IA. L’agence affirme que la liste n’est pas exhaustive. Parmi ces rapports, au moins 115 mentionnent des problèmes de logiciels, d’algorithmes ou de programmation.

Un rapport de la FDA de juin 2025 alléguait que les logiciels d’IA utilisés pour les échographies prénatales identifiaient mal les parties du corps fœtal. Appelé Sonio Detect, il utilise des techniques d’apprentissage automatique pour aider à analyser les images fœtales.

« L’algorithme d’IA de détection logicielle Sonio est défectueux et identifie à tort les structures fœtales et les associe aux mauvaises parties du corps », indique le rapport, qui ne précise pas si un patient a été blessé. Sonio Detect appartient à Samsung Medison, une filiale de Samsung Electronics. Samsung Medison a déclaré que le rapport de la FDA concernant Sonio Detect « n’indique aucun problème de sécurité, et la FDA n’a pas non plus demandé de mesures à Sonio. »

Le porte-parole du HHS n’a pas répondu aux questions concernant Sonio Detect.

Au moins 16 rapports ont affirmé que les moniteurs cardiaques assistés par IA, fabriqués par le géant des appareils médicaux Medtronic, ne reconnaissaient pas les rythmes anormaux ou les pauses. Aucun des rapports ne mentionnait de blessures. Medtronic a indiqué à la FDA que certains incidents étaient causés par une « confusion utilisateur ».

Les algorithmes d’IA de la série LINQ de Medtronic sont décrits comme une « intelligence artificielle d’apprentissage profond ». Ils ont considérablement réduit les fausses alertes et conservé les alertes véritables des événements cardiaques, selon le site web de l’entreprise. Mais l’entreprise affirme également sur son site et dans la documentation produit que sa technologie d’IA, AccuRhythm AI, peut mal classer de véritables rythmes cardiaques anormaux ou pauses.

Medtronic a déclaré à Reuters qu’elle avait examiné les 16 épisodes et conclu que son appareil n’avait manqué qu’un seul épisode anormal de rythme cardiaque. « Aucun de ces rapports n’a causé de préjudice pour les patients », a-t-elle déclaré. Medtronic a indiqué que certains incidents étaient liés à des problèmes d’affichage des données, et non à la technologie IA. Elle a refusé d’expliquer pleinement ce qui n’allait pas dans chaque incident.

Le porte-parole du HHS a indiqué que l’agence ne discute pas des questions de conformité possibles ou en cours.

Lors d’entretiens, cinq scientifiques actuels et anciens de la FDA ayant examiné des dispositifs médicaux alimentés par IA ont déclaré à Reuters que les régulateurs fédéraux sont désormais moins équipés pour gérer le flot de nouveaux médicaments. Il y a environ quatre ans, la FDA a élargi son catalogue de scientifiques spécialisés dans l’IA, notamment pour l’examen des dispositifs d’imagerie médicale et de radiologie utilisant cette technologie. De nombreuses recrues étaient affectées à la Division de l’imagerie, du diagnostic et de la fiabilité logicielle (DIDSR). Cette unité est devenue la
ressource clé de l’agence pour évaluer la sécurité de l’IA en médecine, ont déclaré à Reuters un employé actuel et deux anciens employés de la FDA. Elle est passée à environ 40 personnes au début de l’année dernière.

« Certains régulateurs seniors n’ont aucune idée du fonctionnement de ces technologies », a déclaré un ancien employé. « Nous avons rencontré de près les principaux régulateurs et leur avons expliqué pourquoi nous pensons que cette technologie est sûre ou non à utiliser sur le marché. »

Il n’était pas facile d’attirer les meilleurs talents dans le service gouvernemental. Recruter des informaticiens nécessitait souvent de les convaincre de refuser des salaires plus élevés dans le secteur privé.

Dans leur travail, des scientifiques ont tenté de « casser » les modèles d’IA des appareils, a déclaré un ancien employé. Ils testaient les algorithmes d’un appareil dans diverses situations cliniques et vérifiaient si les performances de l’IA se dégradaient avec le temps. Ils cherchaient également à minimiser les « hallucinations », dans lesquelles les modèles d’IA génèrent parfois de fausses informations, ont écrit des responsables de la FDA dans un article publié en octobre.

Mais au début de l’année dernière, l’administration Trump a commencé à démanteler l’équipe IA dans le cadre de la campagne de réduction des coûts d’Elon Musk, le Département de l’Efficacité Gouvernementale, ou DOGE. Environ 15 des 40 scientifiques de l’IA de l’unité DIDSR ont été licenciés ou ont choisi de partir, ont indiqué des sources internes de la FDA. Une autre unité qui a élaboré des politiques sur les appareils utilisant l’IA, le Digital Health Center of Excellence, a perdu environ un tiers de son personnel d’environ 30 personnes.

Andrew Nixon, porte-parole du HHS, a déclaré que la FDA applique les mêmes normes rigoureuses aux dispositifs médicaux aidés par l’apprentissage automatique et d’autres IA qu’elle appliquerait à n’importe quel produit.

« La sécurité des patients est la priorité absolue de la FDA et est au cœur de notre travail pour protéger et promouvoir la santé publique », a déclaré Nixon. « La FDA voit un potentiel énorme dans le domaine de la santé numérique », y compris des appareils équipés par l’IA et l’apprentissage automatique, « pour aider à diagnostiquer et traiter une gamme de pathologies. » Il a ajouté que la FDA continue de recruter et de développer des talents spécialisés en santé numérique, intelligence artificielle et autres technologies émergentes.

Depuis les coupes, la charge de travail a presque doublé pour certains critiques d’appareils, ont déclaré deux anciens employés. « Si vous n’avez pas les ressources, il est plus probable que des choses soient manquées », a déclaré un ancien critique de dispositifs parti l’année dernière.

La FDA exige des essais cliniques pour de nouveaux médicaments, mais les dispositifs médicaux font face à des dépistages différents. La plupart des dispositifs compatibles avec l’IA sur le marché ne sont pas tenus d’être testés sur les patients, selon les règles de la FDA. Au lieu de cela, les fabricants se conforment aux règles de la FDA en citant des dispositifs préalablement autorisés qui ne disposaient d’aucune capacité liée à l’IA, explique le Dr Alexander Everhart, enseignant à la faculté de médecine de l’Université Washington à St. Louis et expert en réglementation des dispositifs médicaux.

Positionner les nouveaux appareils comme des mises à jour sur les existants est une pratique bien établie, mais Everhart affirme que l’IA apporte une nouvelle incertitude au statu quo. « Je pense que l’approche traditionnelle de la FDA pour réglementer les dispositifs médicaux n’est pas à la hauteur pour garantir la sécurité et l’efficacité des technologies habilitées par l’IA », a déclaré Everhart à Reuters. « Nous comptons sur les fabricants pour bien sortir les produits. Je ne sais pas ce qui est en place à la FDA qui représente des garde-fous significatifs. »