Les erreurs cognitives sont des processus de pensée comportant des fautes ou des manques de raisonnement et qui conduisent à des diagnostics erronés et/ou à la mise en place de solutions inappropriées.
Cette psychologie de la prise de décision a reçu jusqu’à présent assez peu d’attention dans la littérature médicale et notamment en anesthésie. Dans d’autres domaines (aviation, industrie nucléaire), où la culture de la sécurité et de la prévention des risques est plus développée, cet aspect est largement plus documenté.
Des auteurs ont ainsi cherché à identifier et à caractériser les différents types d’erreurs cognitives constatées en anesthésiologie.
Cette étude se compose de deux parties. Tout d’abord, un catalogue spécifique des erreurs cognitives de la pratique anesthésique a été créé en utilisant une revue de la littérature, en recueillant des avis d’experts pour aboutir, après sondage auprès des membres du corps professoral, à un top 10 (tableau 1).
Dans la deuxième partie, 32 résidents ont été confrontés sur une période de 5 mois à 38 situations simulées d’urgence en anesthésie.
La liste avec les prévalences des 9 types d’erreurs communément observées est résumée sur le tableau 2. Alors que les erreurs liées à un ancrage ou à un biais de réminiscence semblaient a priori les plus fréquentes, ce sont la fermeture prématurée et le biais de confirmation qui sortent en tête. Sept de ces erreurs sont survenues dans au moins la moitié des situations d’urgences simulées.
tableau 2
Pour les auteurs, comprendre les mécanismes de ces principaux biais cognitifs inconscients est un des premiers pas vers l’amélioration de la sécurité des patients.
Dr Béatrice Jourdain (source JIM)
Stiegler M et coll. : Cognitive errors detected in anaesthesiology : a literature
review and pilot study.
Br J Anaesthesia, 2012 ; 108 : 229–35
Méthode pour l’analyse du facteur humain dans les incidents anesthésiques critiques
Publié le 21/11/2018
En médecine, ressasser que 60 % à 80 % des incidents sont dus à des erreurs humaines est un lieu commun et un fourre-tout ; on colle ainsi une étiquette « globale » sur un système socio-technique complexe, suscitant la culpabilité et empêchant souvent toute analyse des causes sous-jacentes de l’incident. Depuis l’accident de la centrale nucléaire de Three Mile Island en 1979, il a été entrepris de déconstruire le concept d’erreur humaine en plusieurs composants plus accessibles et remédiables.
James Reasons dans son “Swiss Cheese Model”, décrit 4 différents niveaux d’erreurs humaines s’enchevêtrant, fait la différence entre les conditions « actives » et « latentes », et introduit des barrières afin de protéger le système contre ses propres défaillances. Afin de développer ce modèle, d’en accroître la granularité et de nous fournir une taxonomie pratique, le Human Factors Analysis and Classification System (HFACS) a été proposé, à l’origine pour l’aviation de la marine américaine, puis modifié pour être appliqué à une grande variété d’autres risques, dont ceux liés aux soins, pour étudier et analyser la contribution humaine aux accidents et incidents. Il prend en compte les facteurs individuels, environnementaux, de gouvernance et organisationnels à quatre niveaux hiérarchiques.
Le but de cette étude était d’évaluer l’applicabilité d’une taxonomie HFACS modifiée aux déclarations d’incidents anesthésiques provenant d’une vaste base de données anonyme, dans le but d’obtenir un aperçu des conditions sous-jacentes systémiques et des mécanismes récurrents qui pourraient permettre d’éviter de futurs incidents.
Cinquante observations interprétées à l’aune du HFACS
C’est ainsi qu’on été analysés 50 rapports signalant les incidents critiques survenus dans un seul centre d’anesthésiologie d’Allemagne, en utilisant une taxonomie HFACS-CIRS modifiée. Les 19 catégories du HFACS ont été subdivisées en 117 nanocodes représentant des comportements spécifiques ou des conditions propices à la survenue d’incidents.
Au plan individuel, les contributions les plus fréquentes ont été des erreurs de jugement, par évaluation inadéquate des risques ou par manque de réflexion critique. La communication et la coordination, principalement en raison d’une communication inadéquate ou inefficace, ont été mises en cause dans deux tiers des rapports. La moitié des rapports ont incriminé des interactions complexes dans un environnement sociotechnique. Les « cotes de notoriété » étaient sensiblement plus faibles en ce qui concerne les problèmes de gouvernance et les influences organisationnelles, ce qui nécessitait une interprétation prudente.
Bien que la taxonomie HFACS appliquée à l’analyse des incidents et accidents anesthésiques, ne soit pas en mesure d’apprécier le « fonctionnement » des deux médecins chevronnés participant à l’analyse rétrospective d’un ensemble fini de données, cette méthodologie est utile pourvu qu’elle soit exploitée avec soin pour pointer les pistes d’une recherche future sur les facteurs humains sous-tendant les incidents et les accidents anesthésiques, guidant ainsi nos stratégies d’atténuation et d’intervention mieux que de simples hypothèses et opinions.
Dr Bernard-Alex Gaüzère
Référence
Neuhaus C et coll. : Applying the human factors analysis and classification system to critical incident reports in anaesthesiology. Acta Anaesthesiol Scand., 2018 ; 62 : 1403-1411. doi : 10.1111/aas.13213.
Source : jim.fr