October 22, 2025

TRIBUNE. La formation continue des médecins : l’intelligence artificielle au secours d’une obligation en crise

l’essentiel
À peine 14 % des médecins français respectent leur obligation de formation continue. Un échec qui menace la qualité des soins et pèse lourd sur l’Assurance maladie. Vincent Misrai, médecin et Alena Bruchon, ingénieure IT (innovative technologies), proposent dans cette tribune à La Dépêche un décryptage de la façon dont l’intelligence artificielle pourrait améliorer la situation.

En France, seuls 14 % des médecins ont respecté leur obligation de formation continue en 2023 [1]. Un chiffre qui interroge à l’heure où les connaissances médicales évoluent plus vite que jamais. L’enjeu dépasse le cadre individuel : le gaspillage des soins représente 20 % du budget de l’Assurance maladie [2], tandis que selon l’enquête ENEIS 3 du ministère de la Santé, plus de la moitié des événements indésirables graves survenus à l’hôpital en 2019 auraient pu être évités [4]. La HAS estime par ailleurs que jusqu’à 15 % des diagnostics posés en France seraient erronés ou incomplets [5].

Les racines du problème

Un système devenu illisible. Depuis la réforme du Développement Professionnel Continu (DPC) en 2016, les médecins naviguent entre multiples dispositifs : ANDPC, Ordre, HAS, sociétés savantes… Cette multiplication des formats (e-learning, congrès, audits, simulations) crée plus de confusion que d’adhésion [1].

L’absence de sanctions. Contrairement aux pilotes de lignes, régulièrement évalués en simulateur sous peine de suspension de licence, les médecins ne risquent aucune sanction concrète. Cette culture de l’impunité se reflète dans les chiffres : l’enquête ENEIS 3 révèle que sur 61 événements graves devant être signalés aux autorités, un seul l’a effectivement été [3].

Des formations inadaptées. Face à une charge de travail croissante, les programmes proposés sont souvent trop généralistes et déconnectés des besoins réels du terrain [1].

Des dispositifs existants peu efficaces. Même les Revues de Morbi-Mortalité (RMM), censées permettre l’analyse collective des cas complexes et des erreurs, montrent leurs limites. Plusieurs études scientifiques rapportent un impact peu significatif sur l’amélioration réelle de la qualité des soins. Sans méthodologie rigoureuse, sans suivi objectif des changements de pratiques et sans culture du retour d’expérience déculpabilisé, ces réunions restent souvent formelles et sans effet tangible sur les pratiques quotidiennes.

Quand les institutions surestiment leurs dispositifs

Si l’HAS produit un travail remarquable dans l’élaboration des recommandations de bonnes pratiques, sa communication sur l’accréditation révèle un excès de confiance. Sur son site, l’institution affirme que l’accréditation offre « une garantie de maintien des compétences voire d’acquisition de nouvelles ». Le mot « garantie » implique pourtant l’assurance certaine d’un résultat.

Or l’accréditation, aussi structurée soit-elle, repose sur l’engagement volontaire du médecin : elle favorise, soutient, encourage cette démarche, mais ne la « garantit » pas. Cette surestimation institutionnelle illustre le décalage entre affichage réglementaire et efficacité réelle.

Quand l’auto-évaluation devient un piège

Les recherches sont sans appel : l’auto-évaluation médicale ne fonctionne pas. Une étude publiée dans le journal médical américain JAMA révèle que les médecins surestiment systématiquement leurs compétences, particulièrement ceux qui ont le plus de lacunes [5].

Un exemple récent illustre ce biais : lorsque l’IA ChatGPT-4 travaille seule sur des cas diagnostiques complexes, elle obtient 92 % de bonnes réponses. Mais quand des médecins l’utilisent comme aide, leur performance stagne à 76 % contre 74 % sans assistance [6]. « Les médecins font confiance à leur jugement plutôt qu’aux suggestions de la machine, même quand celle-ci a raison », expliquent les auteurs. Cette résistance aux informations qui remettent en question l’expertise établie est au cœur du problème.

Ce que la France pourrait apprendre de l’étranger

Au Royaume-Uni et aux États-Unis, la formation continue s’accompagne d’analyses de cas, de simulateurs cliniques et de retours d’expérience collectifs structurés. Contrairement aux RMM françaises, ces démarches s’appuient sur une méthodologie rigoureuse, des évaluations objectives et surtout une véritable culture du retour d’expérience où l’erreur est synonyme d’apprentissage, non de sanction. Les médecins partagent leurs doutes, questionnent leurs décisions sans craindre la stigmatisation.

L’évaluation par les pairs et les systèmes de mesure objective remplacent progressivement l’auto-évaluation défaillante [7]. Résultat : là où ces démarches sont structurées, les taux d’erreurs graves et le nombre de sinistres diminuent significativement.

L’intelligence artificielle, une solution d’avenir

L’IA révolutionne déjà la formation médicale via les systèmes d’aide à la décision clinique (CDSS). Intégrés aux dossiers électroniques, ces outils analysent automatiquement les données pour identifier les écarts aux recommandations, alerter sur les interactions médicamenteuses ou suggérer des diagnostics différentiels.

Des formations personnalisées. Les plateformes les plus avancées utilisent l’IA pour créer des parcours adaptés à chaque praticien. En analysant prescriptions, diagnostics et temps de décision, elles identifient automatiquement les domaines nécessitant une formation. Certaines génèrent même des cas cliniques synthétiques basés sur les erreurs les plus fréquentes du médecin. Cette approche objective contourne les limites de l’auto-évaluation : taux d’erreurs diagnostiques, conformité aux recommandations, simulation de consultations complexes dans un environnement sécurisé [5].

Un cercle vertueux. Les CDSS deviennent de véritables laboratoires d’apprentissage. Chaque interaction génère des données sur les zones d’incertitude du médecin, ses biais cognitifs, ses lacunes. Ces informations alimentent ensuite des modules de formation ciblés, créant un système d’amélioration continue.

Vers un changement de culture

Au-delà de la technologie, c’est toute une culture médicale qui doit évoluer. Comme le disait l’industriel Henry Ford : « La seule vraie erreur est celle dont nous n’apprenons rien. » Or la médecine française reste marquée par une approche où l’erreur est synonyme de faute professionnelle plutôt que d’opportunité d’apprentissage.

Dans d’autres pays, les médecins analysent leurs pratiques en équipe, partagent leurs doutes, questionnent leurs décisions sans que cela remette en cause leur compétence. Cette culture du retour d’expérience reste à construire en France.
L’IA peut jouer un rôle clé dans cette transformation en anonymisant les données et en se concentrant sur l’amélioration plutôt que sur la sanction. Car comme le soulignent les experts : l’intelligence artificielle ne remplacera pas les médecins, mais les médecins qui maîtrisent l’IA remplaceront ceux qui l’ignorent.

Références
[1] Rapport de l’Observatoire des conditions d’exercice (OC) 2024, Conseil National de l’Ordre des Médecins.
[2] Les dépenses de santé en 2023, Drees, édition 2024.
[3] ENEIS 3, « Enquête nationale sur les événements indésirables graves associés aux soins », Ministère de la Santé, 2019.
[4] Haute Autorité de Santé. Rapport sur les erreurs diagnostiques en médecine, 2024.
[5] Davis DA, Mazmanian PE, Fordis M, et al. Accuracy of Physician Self-assessment Compared With Observed Measures of Competence : A Systematic Review. JAMA. 2006 ; 296 (9) : 1094 – 1102.
[6] Goh E, Gallo R, Hom J, et al. Large Language Model Influence on Diagnostic Reasoning : A Randomized Clinical Trial. JAMA Network Open. 2024 ; 7 (10) : e2440969.
[7] Haute Autorité de Santé. Rapport d’activité 2023 des organismes agréés, 2023.

source

TAGS: