Société Française des Infirmier(e)s Anesthésistes
Slogan du site
Descriptif du site
Eurêkiade !
Ou l’histoire des inventions de notre quotidien professionnel
Article mis en ligne le 29 avril 2011
dernière modification le 3 janvier 2024

par Arnaud Bassez

Actualisation 8 août 2021

EURÊKA !

Paraphrasant Archimède ou la légende qui lui fit dire "j’ai trouvé !" on peut affirmer que sans les inventeurs, point de civilisation évoluée.

Certains d’entre eux ont rejoint le panthéon du National Inventors Hall of Fame

Cependant à qui devons-nous les inventions de notre quotidien professionnel, auxquelles nous n’accordons pas d’attention ? Comment la conception est-elle venue aux observateurs attentifs que sont les inventeurs ?

Glissons-nous dans une journée type d’un(e) IADE au bloc. Et voyons ce que nous côtoyons sans jamais vraiment nous en soucier.

NDLR : Cet article ne prétend à aucune exhaustivité et n’est pas chronologique dans l’ouverture d’une salle d’opération. 38 inventions sont répertoriées ici.

Les sites consultés : ch.cornouaille.fr, medarus, wikipedia, gralon, linternaute, donnersonsang.com, ophtasurf, revue.medhyg.ch, compilhistoire, medicopedia, MediResource, foulon.chez-alice.fr, avionslegendaires.net, eurekaweb.free, collection.telephones.pagesperso, histoire-image.org, encyclopedie-universelle.com ; planete-echo, bruno.ciccone.pagesperso-orange.fr, lyc58-romain-rolland.ac-dijon.fr, gloubik.info/sciences, grangeblanche.hautetfort, medicantica.com, alain.bugnicourt.free.fr/site/, histanestrea-france.org, société d’histoire de la pharmacie, 1914-1918.be, chaouky.blog.lemonde.fr

SOMMAIRE


La seringue

Le mot seringue vient du grec ancien syrinx signifiant "tube".
Cette étymologie grecque a aussi donné son nom au seringa, un arbre dont le bois évidé a également servi à faire des injections.

Le mot clystère provient du grec « klustêr », de « kluzein » laver. Ce terme a donné « clyster » en latin.

Le fonctionnement de la seringue aurait été inspiré au naturaliste romain Pline l’Ancien (qui a vécu au Ier siècle) par l’observation des ibis.
Ces oiseaux ont en effet la particularité d’utiliser leur long bec courbe pour s’administrer des lavements à l’eau de mer et faciliter l’expulsion de leurs selles.

Un corollaire de cette nouveauté fut l’invention de la purgation vermifuge . L’administration d’eau sous pression dans le fondement engendra un des premiers exemples d’intervention à but thérapeutique. Fort heureusement, on se cantonna aux cavités naturelles de l’organisme. On attribue à Celse, (Aulus Aurelius Cornelius Celsus 53 av. J.C. 7 après J.C.), la pratique de lavements huileux vermifuges après ingestion de lupin ou d’ail. De même Rufus, médecin grec du premier siècle après J.C., conseillait des clystères irritants vermifuges à base d’eau salée et d’huile de ricin ou de tisane de centaurée, d’absinthe, de lupins ou de résine de cèdre. Quatre siècles plus tard, un médecin à Constantinople Oribase (325-403) conseillait également les lavements vermifuges. Il préconisait l’utilisation d’une canule en corne, aménagée de plusieurs trous sur sa circonférence.

Une seringue à piston aurait été décrite à la même époque. Son utilisation est mentionnée par Philon (environ 230 av. J.C.), médecin à Byzance, pour instiller de l’eau de rose dans le conduit auditif. Celse recommandait également dans son livre « De Medecina » le lavement d’oreille pour combattre les écoulements purulents ou extraire les corps étrangers du conduit auditif externe. Il utilise le vocable « clyster oricularius » même pour évoquer son utilisation en urologie. Puis la seringue pour lavage d’oreille tombe en désuétude et ne sera ré-inventée qu’au 19ème siècle.

Plusieurs millénaires avant notre ère, les lavements intestinaux, vaginaux et auriculaires étaient déjà pratiqués à l’aide de canules rudimentaires en roseau ou en sureau.

Les nombreuses scènes de lavement qui ornent certaines poteries mayas semblent indiquer que des lavements-intoxication étaient pratiqués lors de rituels chez les Mayas. Certaines scènes de vomissements suggèrent que des boissons alcooliques pouvaient être administrées sous forme de lavements. On a expérimentalement démontré depuis l’induction ou l’exacerbation de l’ébriété après administration d’alcool par voie rectale. D’autres scènes suggèrent que le tabac, le lys d’eau (hallucinogène ?) et d’autres plantes à fleurs pouvaient entrer dans la composition des lavements.

Cette pratique médicale perdura jusqu’au XVème siècle où on s’adonnait sans retenue aux lavements intestinaux, vaginaux et d’oreille. On s’aida d’une vessie puis d’une poche en cuir pour servir de réservoir. Un tuyau de roseau ou de sureau faisant fonction de canule rudimentaire. En pressant ou entortillant le réservoir, on expulsait le liquide contenu.

C’est à l’italien Marco Gatenaria que l’on doit l’invention d’une seringue pour administrer les lavements, au XVIème siècle.
D’abord fait en bois puis en métal, cet instrument médical fit l’objet de plusieurs améliorations.

On sait que Léonard de Vinci (1452-1519) pratiqua des injections à visée anatomique dans les vaisseaux, bronchioles et autres cavités à explorer.

En 1668, le médecin hollandais Reinier de Graaf, auteur de « De Clysteribus  » invente une tige flexible permettant l’auto-administration du lavement.

Le chirurgien Jean Scultet (1595-1645) publie à Lyon en 1672 « l’Arsenal de la Chirurgie » « Armamentarium chirurgicum » dans lequel il décrit l’emploi de chaque instrument. On y trouve une seringue à lavement avec son tuyau droit (matriculaire) et courbe (auriculaire) ainsi qu’une seringue à clyster avec son petit chapeau et les bougies.

Alfred Franklin, dans « le Médecin charitable » recommande "deux seringues avec leur étui ; l’une pour servir à la maison avec deux canons d’ivoire (= canules), l’un pour donner clystère aux grandes personnes et l’autre pour les petites. On y ajoute un pot d’estain à mettre clystère, pour le garder et faire chauffer lorsque l’on le voudra donner. La seconde seringue se présente avec deux canons de buys, pour prester charitablement aux pauvres quand ils en auront affaire ".

Au XVIIème siècle, on utilise des seringues à lavement dotées d’un tuyau droit ou courbe.

L’homme étant parfaitement « rodé » à l’administration de substances dans les cavités naturelles de l’organisme s’abouchant à l’extérieur, l’idée lui vint de l’effectuer après avoir fracturé la peau. Mais les « avancées technologiques » doivent attendre l’acquisition des connaissances pour ouvrir la voie à de nouveaux domaines.

En 1628, la découverte de la circulation sanguine par William Harvey marque une étape décisive dans l’évolution des usages de la seringue.

Enhardis par cette découverte majeure, durant tout le 17ème siècle, les expérimentateurs donnèrent corps au concept d’injection parentérale.
Les premières tentatives d’injections intraveineuses semblent avoir été réalisées par un servant de chasse à courre en 1642, en Allemagne de l’est.
Tout au long du XVIIème siècle, des essais d’injections par voie parentérale sont menés par Christopher Wren, Johann Major, Johan Sigismund Elsholz, Fabricus.

En 1656, Sir Christopher Wren (1628-1694), astronome/mathématicien/architecte à Oxford, injecta par voie intraveineuse différents alcools à des chiens. Schottus raconte qu’à la Cour du Prince palatin Ruppert, un « amusement » consistait à enivrer ou purger des chiens en leur injectant dans les veines du vin d’Espagne ou une liqueur purgative. A cette époque, il n’y avait qu’un pas entre l’expérimentation animale et humaine. Il fut très rapidement franchi. Johann Daniel Major (1634-1693) fut le premier à tenter cette expérience chez l’homme, en 1662 qu’il publia dans le premier livre relatant des injections intraveineuses « Chirurgia Infusoria » paru en 1664.

En 1665, Schmidt réalisa la première tentative de cure de la syphilis par injections intraveineuses

En 1685, Johan Sigismund Elshotz (1623-1688), médecin de l’Electeur de Brandebourg, réalisa les premiers essais infructueux d’anesthésie intraveineuse qu’il relata dans son livre « Clysmatica Nova » en 1667.

Fabricius en 1668 « voulut expérimenter les effets que produirait l’infusion de quelque médicament dans les veines d’un homme ». Il passa à l’acte en infusant avec un siphon deux dragmes de purgatif dans la veine médiane du bras droit de trois malades. Frédéric Dekkers à Leyde (1695) enseigna l’administration dans l’arrière-gorge de substances médicamenteuses à l’aide d’une seringue et canule en argent, en cas d’angine grave avec difficultés respiratoires. Une illustration figure dans son Traité « Exercitationes praticae circa medendi methodum  ». Les instruments utilisés étaient des vessies d’animaux ou des seringues à lavement adaptées. Les aiguilles creuses n’existant pas, la veine était disséquée pour être perforée. Comme les notions d’asepsie et d’antisepsie étaient inconnues, la mortalité excessive de ces expériences les fit tomber en désuétude.

En 1776, le médecin allemand Kohler réalisa une injection dont l’indication perdurera jusqu’au XXème siècle. Chez un patient en état d’étouffement par obstruction œsophagienne, il administra du tartrate d’antimoine par voie intraveineuse, provoquant de violents vomissements salutaires.

Les premières transfusions sanguines furent réalisées au XVIII ème siècle.

L’ancêtre de la seringue hypodermique actuelle est l’instrument mis au point par le chirurgien français Dominique Anel, chirurgien du roi Louis XIV, au début du XVIII ème siècle, sur le modèle des seringues à lavement.
Son traité L’art de sucer les plaies, sans se servir de la bouche d’un homme avec un discours d’un spécifique propre à prévenir certaines maladies vénériennes, jusques à présent inconnu nouvellement invente par le Sr. Dominique Anel est publié en 1707 à Amsterdam. Il y décrit un nouvel instrument, capable selon lui d’aspirer facilement les secrétions.

Cet instrument, basé sur le modèle de la seringue à lavement, mais beaucoup plus petit, était un tube en argent à piston coulissant, dont le corps se terminait par un embout sur lequel pouvaient être vissées différentes canules, sondes ou aiguilles. Mais l’introduction n’était pas si aisée et elle causa beaucoup de blessures aux patients.
Dans « A Medical Dictionary » de R. James paru en 1745, figure une seringue d’Anel et ses sondes.

Une illustration de l’Encyclopédie de Diderot et d’Alembert représente une seringue d’Anel munie de son « siphon pour la succion des plaies ». Il s’agit d’une seringue en argent, à piston coulissant, dont le corps se termine par un embout à base carrée sur lequel se vissaient différentes canules, sondes ou aiguilles. Les chirurgiens-barbiers l’utilisaient uniquement pour nettoyer les plaies ou irriguer les cavités naturelles du corps.

Anel écrivit également d’autres traités, qui feront de lui un des chirurgiens les plus réputés de son temps, notamment pour son traitement chirurgical réussi de la fistule lacrymale.

En 1821, Jean-Marc Gaspard Itard (1775-1838), médecin otologiste et chirurgien au Val-de-Grâce, préconise pour la première nouvelle fois, l’irrigation de l’oreille à l’aide d’une seringue dans le but de faciliter l’écoulement d’un excès de cérumen. L’idée est rapidement reprise et appliquée par Beck à Freiburg en 1827, Fabrizi à Modène en 1839 et enfin Schmalz à Dresde en 1846 qui introduisit « le plateau en forme de haricot » chargé de recevoir l’eau de rinçage. Kramer à Berlin (1860) propose un « petit sac en forme de seringue » fabriqué dans un ruban, destiné à l’auto-lavement auriculaire .

Durant environ 200 ans, du milieu du XVIème au milieu du XVIIIème siècle, on chercha quelquefois à fracturer la peau et les parois veineuses à l’aide le plus souvent de plumes d’oie taillées.

Dentist_Syringe Antique high quality Dentistry Anaesthetic Syringe Set marked Young&Sons, Such sets were typically used for local anaesthetic injection This Set is complete with 4 needles vials

En 1841, un autre chirurgien français, Charles Gabriel Pravaz améliore la seringue d’Anel en l’adaptant aux administrations parentérales précises. Il désirait injecter dans un anévrisme du perchlorure de fer coagulant. Pour ce faire il conçut et fit fabriquer par les établissements Charrière une seringue en argent de 3 cm de longueur et 5 mm de diamètre. Le piston avançait en se vissant, permettant ainsi le contrôle de la quantité de substance injectée ( en l’occurrence 30 gouttes). Canules et trocart étaient en or ou platine. Une fois la canule mise en place à travers le derme du sujet, le trocart était retiré de la canule. Il ne restait plus qu’à visser la canule sur l’embout de la seringue.

Pravaz n’expérimenta que peu, ou pas, sa seringue chez l’Homme. Ce faisant il initia tout de même la sclérothérapie des varices. C’est le chirurgien L. J. Behier qui la dénomma « appareil ou seringue de Pravaz » et en popularisa l’utilisation en Europe.

En 1841, Zophar Jayne (Illinois) invente un dispositif pour le traitement des hernies inguinales par injection de substance irritante dans le sac herniaire. Il s’agit d’une seringue effilée à une extrémité qui, affûtée, peut servir d’aiguille. Une ouverture latérale a été pratiquée dans le corps de la seringue, par laquelle la substance peut être introduite.

En 1845 le chirurgien Irlandais Frances Rynd modifie la seringue dite de Pravaz pour administrer de la morphine par voie parentérale. Il invente un instrument qu’il nomme « Rétractable Trocar ». Cet instrument est basé sur le même principe que le dispositif breveté par Z. Jayne. La morphine avait été isolée de l’opium en 1805 par Frierich Serturner, mais son utilisation retardée de 40 ans.

En 1853, Lenoir de l’Hôpital Necker de Paris, lui apporte deux importantes modifications. Tout d’abord il rend visible la substance injectée en dotant le corps métallique de la seringue d’un fût en verre. Ensuite il visse une fine canule à l’extrémité de la seringue et l’introduit dans le derme à travers la traditionnelle canule, plus large, dont on a retiré le trocart. Les nécessités de la stérilisation vont entraîner des progrès rapides dans la fabrication des seringues. Les seringues doivent pouvoir être démontées rapidement et être composées de matériaux résistants aux procédés de stérilisation. Le cuir du piston va être remplacé par divers matériaux. Straus et Collin vont employer la moelle de sureau. à la place du cuir. Lhomme va se servir de "couches de carton d’amiante et de toile fine cousues serré ensemble" pour réaliser un piston solide et étanche.

En 1853, l’invention majeure de l’aiguille creuse par Alexander Wood change les possibilités de traitements. Chirurgien à Edinbourgh, Wood utilise une seringue appelée « seringue de Fergusson » pour soulager les névralgies chroniques par l’injection sous-cutanée de morphine au plus près des nerfs affectés. Son corps est en verre d’une longueur de 9 cm et d’un diamètre de 1 cm, terminé par une partie conique et effilée. Son piston en verre est muni d’un joint en coton pour l’ajuster au corps cylindrique non calibré. Ce dispositif nécessite l’utilisation d’une lancette pour fracturer l’épiderme et permettre l’introduction de la partie conique et effilée de la seringue. Wood va modifier cette seringue en calibrant son corps pour améliorer l’étanchéité du piston et ajouter un embout fileté pour visser une aiguille creuse. Wood semble avoir utilisé l’aiguille creuse jusqu’en 1855, sans le publier. Toutefois, son nom est désormais associé à l’invention de l’aiguille creuse.

Mais c’est finalement le système canule/trocart qui s’impose. En 1869, les établissements Charrière, dirigés par Joseph-Frédéric-Benoit Charrière, pérennisent leur fabrication en adoptant le corps de seringue en verre enserré entre deux anneaux métalliques. La même année Lüer, un concurrent parisien de Charrière, apporte deux modifications fondamentales. Il crée un système d’embout conique pour adapter facilement l’aiguille creuse à la seringue. Puis il remplace le piston-vissé par un piston à course libre de type « pousser-tirer » que l’on actionne par une simple pression du pouce. La tige de ce piston est toujours métallique et porte une vis de calibrage dont le réglage permet d’injecter une goutte de produit pour chaque millimètre de course du piston. Le « cône Lüer » aura son homologue sous forme de « cône Pravaz ». Le diamètre moyen du cône Pravaz étant inférieur à celui du cône Lüer, les aiguilles de type Lüer ou Pravaz durent perdurer jusqu’au milieu du XXème siècle ce qui a entraîné pendant des générations des problèmes de connexion entre seringues et aiguilles. Des adaptateurs existaient afin de résoudre ce problème de connexion mais ils se perdaient... La norme internationale n’a retenu que la connexion Luer et le verrouillage a été crée par les américains (Luer–Lock).

Deux avancées vont catalyser l’évolution des injections parentérales. On imagine aisément l’importance de l’invention du brûleur à gaz de R. W. Bunsen qui décupla les possibilités de travail du verre. Mais d’autres facteurs étaient également nécessaires. Il fallait que les idées et les faits évoluent au niveau de l’asepsie et de l’antisepsie. Les travaux de Lister-Koch-Pasteur, et de leurs prédécesseurs plus ou moins célèbres ou obscurs furent primordiaux.
Pasteur étudia d’abord des maladies animales transmissibles par voie buccale (choléra des poules, rouget des porcs, charbon). Mais un jour il eut besoin de faire pratiquer par ses collaborateurs Joubert et Chamberland une administration par voie parentérale.

Il s’agissait d’injecter sous la peau d’un cobaye une culture pure de microbes. Chamberland se rendit aux établissement Lüer, fournisseur d’instruments de chirurgie. Il acheta une seringue de Pravaz. Chamberland (physicien) et Pasteur (chimiste) connaissaient son maniement long, complexe et non stérile, mais aucun n’en avait l’expérience.

Pasteur conseilla à Chamberland de solliciter l’aide d’un jeune étudiant en médecine qui préparait les cours de Duclaux à la Sorbonne. Il s’agissait d’Émile Roux. Ce dernier arriva vers midi. Il prit le cochon d’Inde d’une main et l’inocula rapidement sous la peau. Émile Roux venait de signer son contrat d’embauche avec Pasteur.

Misterious_antique_Syringe_1 Interesting and unusual finely decorated glass and silver () hypodermic syringe . Complete set stored in its original wooden box with hand-carved housing. A proper thanks for thei

Quelques années plus tard, Robert Koch (1843-1910) initia à Berlin le premier cours de microbiologie. (En effet le 1er cours de la Bactériologie naissante française, « Le Grand Cours de Microbiologie  » donné par Émile Roux sous la directive de Pasteur à l’Institut du même nom, ne fut donné que plus tard, vers 1880) Cet enseignement récapitulait une longue série de découvertes (cultures pures, Postulat de Koch, bouillon de culture, gélose nutritive, pipette d’Ehrenberg, etc…). Dans ce domaine, Pasteur estima l’événement à sa juste valeur et envoya Emile Roux suivre le premier cours de R. Koch. On imagine facilement la moisson de connaissances que le jeune « stagiaire » engrangea. Il rapporta notamment une « pipette d’Ehrenberg », tube de verre que l’on effile à la flamme d’un bec Bunsen, pour servir à la manipulation des bactéries ou les inoculer à l’animal dans des conditions d’asepsie correctes.

Il s’agit de la fameuse « pipette Pasteur » que tous les biologistes connaissent mais qui aurait dû s’appeler « pipette d’Ehrenberg ». Puis le Dr Emile Roux mit au point une seringue entièrement en verre, donc stérilisable. En forme d’ampoule munie d’une aiguille métallique, son piston était constitué par une tige filetée portant des graduations. Au fur et à mesure que l’on « vissait » le piston dans le bouchon de la partie supérieure de la seringue, on faisait apparaître le volume de liquide injecté. Le Dr Roux l’utilisait pour pratiquer de relatives anesthésies par la morphine. Puis on fabriqua des modèles en verre dont le corps de seringue gradué recevait un piston dont l’étanchéité était assurée par un anneau de caoutchouc entourant sa base.

 La graduation

La graduation va apparaître sur le piston puis sur le corps de la seringue. La seringue "moderne" tout en verre apparaît en 1894, elle est réalisée par un souffleur de verre français Fournier. Elle est rapidement commercialisée par la maison Lüer de Paris.
Ces seringues furent très largement diffusées mais concurrencées par les seringues faites à Berlin par Dewitt et Herz vers 1906.

 Les tailles

Le système de calibrage des aiguilles hypodermiques, cathéters, sondes et fils de suture est basé sur le système anglais de mesure de l’épaisseur du fil de fer. En l’absence de normes officielles, les fabricants définirent des calibres directement corrélés avec les procédés de tréfilage. Ce système a été standardisé vers 1884. Chaque taille du calibrage était exprimée en multiples de 0,001 inches, soit 0.0254 mm.

Joseph-Frédéric-Benoit Charrière a uniformisé l’incrément entre les tailles des calibres (1/3 de mm). Ce système fut connu sous le nom de « French Gauge ». Au début du XX ème siècle, ce calibrage a été modifié par l’adoption du « Système d’Unités International ».

Calibrage des aiguilles hypodermiques

En 1906, on utilise des seringues graduées en verre avec aiguille métallique.

Pravaz_Syringe A good quality antique hypodermic syringe set that includes two needles. Such sets were typically used for cocaine and morphine injection. Complete with two needles and cleaning wires

En 1908, la "voie injectable" est inscrite au Codex des pharmaciens et peut donc être utilisée pour administrer des médicaments.

Perpetua_Set1 Vintage Hypodermic brass & glass 2 ml syringe marked Aesculap ISOCAL with original brass PERPETUA sterilizing container and a set of 3 hypodermic needles.
Pravaz_Syringe_wooden Antique metal & glass hypodermic Pravaz Syringe in wooden case. Such sets were typically used for cocaine and morphine injection. Complete with two needles and cleaning wires i

L’ultime révolution qui bouleversa la conception des seringues est l’apparition, vers 1970 de la seringue en Plastique avec aiguille jetable, puis de la seringue entièrement jetable.

Ce modèle finit par s’imposer dans les années 1980 car, outre la stérilité garantie, l’aiguille jetable offre un biseau toujours parfait.

Éloge burlesque de la seringue son origine son histoire, ses transformations avec un projet nouveau pour la perfectionner
Thèse du docteur Géraldine Wagnon ; Intérêt de la perfusion intra osseuse chez l’adulte (Nancy)
Joseph Frederic Benoit Charrière. Master Cutler and Instrument Designer
Qui a inventé l’aiguille creuse ? (revue du praticien)

En savoir plus

Les ampoules de verre

C’est Euphrasie-Stanislas Limousin, un pharmacien français (né le 21 mai 1831 à Ardentes (Indre) et mort le 7 avril 1887 à Paris) qui inventa l’ampoule de verre permettant de conserver les produits injectables.

Inventif, d’une habileté manuelle rare, ce pharmacien rendit un service insigne à sa profession en la dorant de méthodes ingénieuses pour conditionner et préparer certains médicaments. Propriétaire d’une pharmacie, sise rue Blanche, Stanislas Limousin avait vu le jour le 29 mai 1831, à Ardentes, dans l’Indre. Après de bonnes études secondaires au collège de Châteauroux, il avait acquis son diplôme dans la capitale et s’y était établi. De par ses réalisations, il donna très vite une grande extension à sa modeste officine de quartier.

Limousin avait en effet découvert un procédé pratique pour préparer et transporter l’oxygène, que l’on commençait à utiliser en thérapeutique. A la suite de diverses manipulations, il emprisonnait le gaz dans des ballons de caoutchouc cylindriques, ce qui permettait de livrer en tous lieux, pour les soins à domicile ou dans les hôpitaux. Pour les malades qui ne pouvaient se déplacer, Limousin avait installé à côté de son officine une salle d’inhalations où ils étaient traités sous sa surveillance ou celle de leur médecin. Cette nouvelle thérapeutique rencontra un succès immédiat. Limousin fut sollicité de tous côtés.

Ainsi, en 1874, c’est Limousin qui fournit l’oxygène de l’équipage du ballon le Zénith. Ascension dramatique qui coûta la vie à Joseph Croce-Spinelli et Théodore Sivel, qui n’eurent pas le temps de respirer l’oxygène. Seul Gaston Tissandier put le faire et échappa à la mort. Imaginatif, intéressé par tous les problèmes de fabrications médicamenteuses, le pharmacien mit encore au point un procédé pour confectionner et sertir les cachets.

Auparavant l’administration des poudres médicamenteuses se faisait en disposant le médicament au centre d’une feuille de pain azyme humecté dont ont rabattait les bords de façon à former un petit sac que l’on avalait avec un peu d’eau. Les inconvénients de ce mode d’administration étaient grands, éparpillement du médicament et fixation de parcelles de poudre sur les parois de la gorge. Limousin eut l’idée de d’enfermer les poudres dans des feuilles de pain azyme concaves soudées circulairement de façon à former une capsule aplatie. Il modifia plusieurs fois son appareil à cacheter, pour aboutir à l’appareil « cacheteur Limousin », ancêtre de tous les appareils à cachets.

Il inventa les « sucres-tisanes », solubles dans l’eau chaude, des crayons à base d’huile de croton, des vésicatoires, etc. Mais c’est l’invention des ampoules hypodermiques qui fit sa renommée.

Jusque-là, les solutions injectables, popularisées par Dujardin-Baumetz, étaient conditionnées dans des flacons bouchés, plus ou moins stérilisés, ce qui facilitait les cultures microbiennes. Pour y remédier, le pharmacien fabriqua de petites ampoules de verre, terminées par un tube effilé, d’un centimètre-cube de capacité. Une fois stérilisées à 200°C, elles étaient remplies avec des solutions stériles et scellées au chalumeau. L’ampoule injectable venait de naître. Malheureusement, ce grand serviteur de la Pharmacie mourut, en effet, un an après, le 7 avril 1887.

Stanislas Limousin était membre de la Société de Pharmacie (future Académie Nationale de Pharmacie), et fut président de la Société de Médecine pratique et de la Société de Thérapeutique

La perfusion

L’anatomiste et physiologiste Julien César Legallois entrevoit en 1809 la technique de réanimation par l’injection intraveineuse de sang et de liquides susceptibles de le remplacer.

Thomas Latta avec les Dr Lewins et Craigh de Leith, après avoir analysé les travaux du Dr O’Shaughnessy traitent trois cholériques en 1830 par « the copious injections of aqueous and saline fluids into the veins ». Latta jeune médecin injecte avec audace et avec la seringue de Read, 3 litres d’eau additionnée de chlorure de muriate et de sous carbonate de soude afin de compenser les pertes hydroélectrolytiques. La technique va connaître un grand essor au cours des nombreuses épidémies de choléra qui touchent l’Europe tout au long du XIXe siècle. Le succès de la méthode encourage les opérateurs à l’employer avec des produits divers : lait, sucre, ammoniac, sans oublier le chloral qui permet la première anesthésie intraveineuse par le chirurgien Gabriel Oré de Bordeaux.

Le professeur Émile Laforgue à la fin du XIXe siècle, avait émis l’hypothèse selon que le rétablissement de la volémie pouvait éviter un désamorçage cardiaque particulièrement au décours des hémorragies mortelles du post-partum : « une hémorragie peut être mortelle alors qu’il reste encore dans le système circulatoire une quantité suffisante d’hématies pour entretenir la vie ; mais la masse du sang est tellement diminuée et la tension vasculaire si bas déchue, que le cœur, le contractant avide devient impuissant à maintenir en mouvement le sang restant la mort n’est pas due à la dépréciation globulaire subite, mais à l’impossibilité de la circulation. Ajouter à cette masse qui s’immobilise une quantité convenable de liquides, diluez-la avec une solution qui n’altère pas les hématies la vie redevienne possible ; vous donnez le branle au courant circulatoire stagnant, les vaisseaux se remplissent, la pression se rétablit, et le cœur reprend son travail. Une semblable transfusion n’apporte aucun élément vivant : elle n’a qu’une action simplement hydraulique »

Un an plus tard, Joliet et Laffon injectent dans des cas d’anémie aiguë une solution à cinq pour 1000 de chlorure de sodium.
Un an après, Kronecker et Sander en Allemagne préconisent l’emploi d’injections salines dans les hémorragies mortelles.
À Halle Schwatrz en 1881, confirme ces expériences et fixe à 500 ml la dose minimale à injecter chez l’homme.
Bischoff de Bâle la même année injecte de l’eau salée dans un cas d’hémorragie puerpérale grave. Il injecte par l’artère radiale 1250 g d’une solution de chlorure de sodium à six pour 1000 additionnées de potasse caustique.
En France, la solution saline la plus employée est celle qui découle de la formule de Hayem (1884) :

  • chlorure de sodium 5 g
  • sulfate de soude 10 g
  • eau distillée 1000 grammes.

En Angleterre, Ringer en 1880 enrichit ses solutions de bicarbonate de soude, de sels de chaux ou de potasse. Certaines solutions hypertonique se développent comme celle de Chéron proche de la solution de Hayem enrichie de phosphate de sodium.

Les autres indications de perfusion de sérum salé sont :

  • les traumatismes graves accidentels ou opératoires,
  • les hémorragies intestinales de la fièvre typhoïde,
  • les hémorragies de l’ulcère de l’estomac,
  • les hémoptysies de la tuberculose,
  • certaines hémorragies utérines.

Les premières injections intraveineuses de sucre sont signalées en 1872 par Moutard-Martin et Richet : « le sucre injecté dans les veines est rapidement excrétées par l’urine et provoque une polyurie intense et une sécrétion intestinale abondante » des solutés de glucose apparaissent dans le supplément de 1926 de la pharmacopée française : le soluté de glucose à 5 % qualifié d’isotonique et le soluté de glucose à 30 % hypertonique.

En 1944 les solutés glucosés à 10 % sont utilisés dans les hôpitaux militaires français puis dans les hôpitaux civils après leur importation des États-Unis. Déjà recommandés au début du XXe siècle par les docteurs Salin et Sicard dans le traitement de certains symptômes diabétiques, les solutés de bicarbonate, première solution alcaline luisante, apparaissent dans l’édition de la pharmacopée de 1937 à la concentration de 1,25 %.

À partir des années 50, la réanimation adapte l’apport électrolytique à l’état du patient : sous forme d’ampoules injectables d’ions dans les solutés de base chlorure de sodium et de glucose avant la pause de la perfusion.

En 1890, Schilmmel-Busch relate de nombreux cas d’infection dues à des solutions non stériles ou à des injections pratiquées d’une façon non aseptique. En 1893 dans son traité de chirurgie, le développement des micro-organismes dans l’eau distillée et les solutés injectables, il met en évidence et confirme la nécessité de stériliser les solutés. La stérilisation est déjà plus ou moins bien pratiquée depuis 1872. La commission du Codex publie une méthode de stérilisation dans le supplément de 1895. Ce procédé ne réalise pas encore une stérilisation parfaite puisque la température de l’ébullition à 100° Celsius maintenue pendant un quart d’heure n’est pas suffisante pour détruire les spores.

À partir de 1908 l’emploi de l’autoclave qui n’était utilisée que par l’asepsie chirurgicale améliore la technique de stérilisation. « Lorsqu’on dispose d’un autoclave il est préférable de stériliser le soluté à 110° Celsius pendant 10 minutes en prenant les mêmes précautions pour la sortie de l’air  » Des contenants en verre (de la transparence permet un contrôle facile de l’aspect du soluté, de la présence de particules insolubles et de bulle d’air) prêts à être administrés sont progressivement mis au point. Ils seront issus de l’invention des ampoules hypodermiques de Stanislas Limousin (1886). Ces ampoules d’une contenance de 60 à 1000 ml disparaîtront devant les difficultés de fabrication dont l’emploi était prépondérant jusqu’en 1946. La chambre compte goutte inventée par le Dr Haillon élève de Hayem a été incorporée au tube de caoutchouc qui prendre le nom de tubulures de perfusion. Il ne reste plus qu’à inventer le bouchon transposable étanche après perforation. La société Baxter aux États-Unis commercialise en 1931 le premier flacon pour perfusion à bouchon en caoutchouc transperçable, il sera introduit en France en 1945. La tubulure de perfusion équipée d’une prise à air est à usage unique partir de 1950 par l’emploi du polychlorure de vinyl (PVC).

En 1923, le Dr Florence Seibert à Philadelphie donne le nom de pyrogènes à des substances issues de bactéries Gram négatif qui résistent à la chaleur et qui ne sont pas retenues par tous les filtres stérilisants. La fabrication des solutés sera effectuée avec de l’eau distillée fraîchement préparée et le contrôle s’enrichit d’une recherche de pyogènes réalisée sur les produits finis. Les polymères de synthèse qui avait remplacé le caoutchouc des bouchons et les tubulures de perfusion apparaissent dans les contenants de perfusion en 1971 avec la commercialisation aux États-Unis de la poche en polychlorure de vinyle Viaflex par les laboratoires Baxter. Les différents types de poches vont apparaître : poche en éthyl-vinyl-acétate, poche multicouche, poche en polypropylène. Celles-ci vont permettre en 1990 la commercialisation des premières poches industrielles comprenant des mélanges ternaires.

 L’invention du Dr Baxter.

Chacun sait aujourd’hui ce que signifie le mot "baxter" ou le mot "perfusion". Peu de gens savent cependant qu’il fallut une grande découverte, "un moment de génie" pour rendre cette technologie possible pour le plus grand bien de la médecine.

La sérothérapie commença à être utilisée souvent au début du siècle, en particulier pour combattre la diphtérie et le tétanos. La voie sous-cutanée s’imposait pour ces nouvelles thérapeutiques. On utilisait la seringue de Roux, d’une contenance de 20 cm³, reliée à une longue aiguille par un raccord en caoutchouc.

Les premières ampoules scellées firent leur apparition, parfois utilisées sans seringue, à la manière d’une perfusion sous-cutanée. Le Manuel de l’infirmière hospitalière (Masson, 1914) nous apprend qu’il suffit de briser d’un trait de lime les deux extrémités et d’adapter la pointe inférieure au tube de caoutchouc terminé par une aiguille en platine iridié. Durant l’entre-deux-guerres, cette technique d’injection n’a pas beaucoup évolué bien qu’on ait perfusé des solutions liquidiennes en quantités de plus en plus importantes.

L’occupation allemande nous coupe alors de toute information quant aux progrès de la médecine réalisés hors d’Europe. On en reste donc à la méthode classique de perfusion décrite dans le traité de « Petite chirurgie » du médecin-général français J. Maisonnet (1942)  :

 les solutions seront introduites dans l’organisme à une température de 35–40 degrés et donc réchauffées si besoin au bain-marie,

 pour l’injection sous-cutanée de sérum, il faut une aiguille de longueur et de calibre suffisants (8 à 10 cm) adaptée à un tube en caoutchouc lui-même fixé à un récipient contenant le sérum,

 le récipient peut être soit un bloc d’Esmarch, soit un flacon à double tubulure fonctionnant comme un siphon ou par renversement. Dans ce procédé, on utilisera pour faciliter la pénétration du liquide l’augmentation de la pression de l’air d’une soufflerie de Richardson.

Le choc pyrogénique freine l’emploi des solutions aqueuses en perfusion.

Tout médecin qui voulait perfuser un patient soupirait devant la complication de la méthode. La solution à perfuser devait être préparée par le pharmacien, stérilisée, puis versée à bonne température dans un bock ou dans un flacon à double tubulure. Le contact de l’air avec le liquide perfusé et la méthode de Richardson favorisaient la dispersion des poussières aériennes dans le liquide. Les complications post-perfusionnelles sont fréquentes, la plus redoutée étant le choc pyrogénique qui survient surtout pendant la perfusion intraveineuse.

Le vocable « pyrogène » a été créé en 1924 par Seibert et désigne des substances dissoutes dans les solutions injectables, capables de produire une poussée d’hyperthermie après une injection intraveineuse. Ce phénomène a été bien étudié par le professeur Hustin, pionnier de la transfusion sanguine en Belgique. Il se manifeste par de la température, des frissons, des lombalgies, céphalées et vomissements, quelle que soit la substance pyrogénique employée ( vaccin anti-typhoïde, gonovaccin, solution de glucose, ou d’eau salée physiologique).

Les substances pyrogéniques résultent du développement de microorganismes variés, qui apparaissent même dans de l’eau distillée. La stérilisation ne les fait pas disparaître et l’examen bactériologique ne permet pas de déceler si une solution est pyrogénique ou non.

En 1942, la pharmacopée américaine a établi un test étalon pour déterminer la présence de substances pyrogènes dans une solution. C’est le test des lapins. Cinq animaux doivent être employés pour la même expérience. Après injection, un écart de température de 0,6° au moins doit être noté chez deux des lapins pour que la solution testée soit considérée comme pyrogénique.

Pour qu’une solution ne contienne pas de pyrogènes, le professeur Hustin conseille de n’employer que de l’eau fraîchement distillée, car il suffit de la maintenir quelques heures à température ambiante pour qu’elle développe des substances pyrogéniques.

On comprend que les médecins d’avant-guerre, aient longtemps restreint au maximum les perfusions intraveineuses. Et voilà que début 1940, la firme Christiaens fait paraître à ses frais un petit livre écrit par le docteur M. Ferond qui s’intitulait Le médecin devant le péril aérochimique. Ce livre contenait les premières publicités de la firme Baxter concernant ses solutions stérilisées sous vide Vacoliter. Ce système garantissait enfin au médecins des perfusions sans réaction thermique, quelle que soit la composition de la solution employée. Les photos de ce matériel révolutionnaire, dont Christiaens venait d’obtenir le monopole de distribution pour la Belgique, faisaient mesurer aux médecins l’avance prise par la technique des perfusions aux Etats-Unis. Ces premières publicités pour les solutions sous vide n’eurent cependant pas de suite immédiate car peu de temps après la guerre coupera les liens commerciaux de la Belgique avec l’Amérique. Il faudra attendre la victoire alliée pour voir la propagation de cette innovation médicale extrêmement importante.

L’inventeur des solutions sous vide : Le bon Dr Baxter.

Donald E Baxter est né à Southington (Ohio) en 1882. Après des études d’ingénieur civil, il obtient son diplôme de médecin en 1909. Engagé par la fameuse Rockefeller Fundation, il s’occupe de la mise au point des techniques de revalidation pour les victimes de la poliomyélite, puis il sert en France comme médecin militaire pendant la première Guerre mondiale. Démobilisé, il part en Chine, toujours pour le compte de la Rockefeller Fundation, afin de porter assistance aux victimes du choléra. C’est durant ce séjour qu’il aurait inventé le premier plan incliné destiné à faciliter l’accès aux bâtiments aux handicapés en voiturettes.

Atteint de tuberculose, il doit écourter son séjour et rentrer aux Etats-Unis. En 1921, il crée un laboratoire de produits médicaux à Glendale (Californie). Il y développe toute une série de produits novateurs : des bouteilles d’oxyde d’azote pour l’anesthésie, des équipements radiographiques, des produits anticonceptionnels et même des cosmétiques.

Il suit de près la littérature médicale. Son attention est attirée en 1923 par un article du Dr Seibert Florence, de l’Association Nationale contre la Tuberculose. Ce médecin décrit les graves réactions de ses patients aux substances pyrogènes contenues dans l’eau distillées, même après stérilisation. Pour le Dr Baxter, c’est le point de départ de recherches visant à mettre au point une technique qui rendrait toute solution liquide apyrogène.

En 1928, il expérimente sur lui-même en s’injectant un liquide stérilisé sous vide. La solution reste apyrogène : c’est le succès et un progrès indéniable.

Un an plus tard, il commercialise timidement ses solutions sous vide. Travaillant à très petite échelle, le succès eut été lent à venir sans sa rencontre avec les frères Falk. L’histoire de cette collaboration vaut la peine d’être contée. Harry Falk est un commerçant avisé mais malchanceux : la dernière entreprise qu’il vient de fonder – la Popatocrat – s’est engagée auprès des détaillants de l’Est du pays à leur fournir des pommes de terre d’Idaho dans un parfait état de fraîcheur. L’idée, excellente en soi, demande une logistique compliquée et le succès se fait attendre. Philosophe, en attendant que le projet mûrisse, l’homme d’affaire collabore avec le Dr Baxter pour la diffusion et la vente de ses cosmétiques. Quant il voit le chercheur se focaliser sur ses solutions apyrogènes, il se demande si de tels produits pourraient engendrer un marcher important. Il montre quelques échantillons de solution sous vide à son frère, médecin à l’hôpital St Joseph à Boise, qui les teste dans son service et dans ceux de ses confrères.

Le Dr Ralph Falk est vite convaincu à la fois par le produit et par son frère d’investir dans cette invention. La confrontation des idées d’un médecin praticien, d’un médecin théoricien et d’un commerçant avisé, débouche en octobre 1931 sur la création de la Don Baxter Intravenous Products Inc.

Les capitaux de Falk permettent à l’invention de Baxter de prendre son envol. Il est vrai qu’elle arrive au bon moment : les progrès récents en chirurgie et en thérapeutique médicamenteuse réclament des voies d’accès plus sûres au corps humain. La perfusion de liquide est de plus en plus employée comme moyen thérapeutique mais, pour éviter le choc pyrogénique, elle s’effectue par voie sous-cutanée avec une longue aiguille. La procédure requiert la surveillance par un médecin et une infirmière au chevet du malade pendant une heure ! Ce nursing limite fortement les demandes de perfusion.

En 1931, la société Baxter dépose le brevet de son Vacoliter Containent. Un an plus tard, s’étant rendu compte de la difficulté de vendre au « porte à porte » aux hôpitaux. Harry Falk parvient à conclure un contrat avec une société de distribution de produits médicaux déjà bien en place : The American Hospital Supply. La partie n’est pas encore gagnée. Il faut sans cesse améliorer le produit et arriver à produire à grande échelle. Les multiples problèmes sont résolus rapidement, sans grands moyens mais avec beaucoup d’ingéniosité. Ainsi, on s’aperçoit que de microscopiques particules de verre détachées pendant le transport peuvent rendre le liquide turpide. Le Dr Nesset, nouveau collaborateur de la jeune société, règle la chose par un traitement des flacons au dioxyde de souffre. Un autre collaborateur, le Dr Cherkan, parvient à traiter le bouchon de caoutchouc afin qu’il ne réagisse plus avec la solution. Il invente pour ce faire une huile dont la formule est toujours gardée secrète.

Du côté des hôpitaux, il faut sans cesse convaincre et ce rôle est dévolu aux premiers délégués pharmaceutiques engagés. Il faut persuader les médecins que le surcoût des solutions sous vide est compensé par un moindre coût du nursing, faire des démonstrations. Certains hôpitaux se plaignent de réactions imprévues attribuées au Valcoliter. Il s’agit bien souvent de contaminations microbiennes dues à la mauvaise désinfection de la tuyauterie en caoutchouc et de l’aiguille. Des solutions deviennent turpides sans raison apparente pendant un hiver rigoureux. Les reprenant dans sa voiture pour les faire analyser, le délégué s’aperçoit à l’arrivée qu’elles sont redevenues limpides : le froid avait simplement précipité le dextrose. On spécifie des normes de stockage.

En 1934, le Dr Baxter revend ses 40% de parts aux frères Falk. Il décède l’année suivante d’une hémorragie cérébrale, à 53 ans.

En temps de guerre comme en temps de paix.

Les opérations de la seconde Guerre mondiale ont mis en lumière la valeur de l’invention du Dr Baxter et assuré le succès de sa société. En 1939, le système de conservation du sang sous vide est breveté par la firme Baxter sous le nom de Transfuso-Vac. En 1941, c’est le plasma qui est à son tour conservé sous vide. A la fin des hostilités, 1,2 millions de Transfuso-Vac et de Plasma-Vac Container, et 4,3 millions de Valcoliter avaient été livrés à l’armée américaine. Les nouvelles techniques de transfusion ont fait leurs preuves. On estime que moins de 5% des soldats américains blessés au front perdirent la vie, alors que 10% des soldats allemands décédèrent des suites de leurs blessures.

Les liquides de perfusion stérilisés sous vide sont arrivés chez nous en 1944 avec les médecins militaires ayant appartenu aux forces belges en Grande-Bretagne. Un jeune confrère, le Dr H. Reynholt, qui opéra trois semaines comme anesthésiste en 1944, se souvient du savoir-faire remarquable qui régnait dans le Service de Santé britannique, où appareillage et produits pour transfusions et perfusions étaient disponibles à la demande. Se retrouvant plus tard à l’hôpital Longchamp à Bruxelles, il s’efforça d’obtenir des équipements tout aussi performants. On imagine les difficultés d’un jeune médecin idéaliste revenant de récentes opérations militaires, face à des chefs de service plus âgés et encore installés dans les habitudes d’avant-guerre ! Encore fallait-il aussi former le personnel paramédical aux nouvelles techniques. Le Dr Reynholt en fit l’expérience l’an dernier encore, quant il demanda à l’infirmière responsable de son service de commander un stock de sérum physiologique destiné à être perfusé. Quelque temps après, alors qu’il réclamait son stock, celle-ci ouvrit une main protégeant six ampoules de sérum physiologique et lui dit candidement : « Je crois que cela suffira pour un certain temps, docteur…  »

C’est donc avec une certaine lenteur que les perfusions au moyen de solutions stérilisées sous vide se généralisent dans nos hôpitaux. Le progrès est toutefois inarrêtable et le nombre de patients sauvés est là pour en témoigner.

Un complément sur le sujet à lire sur le toujours excellent site du CHAR

Sydney Ringer and Alexis Hartmann
Une histoire des créateurs d’un soluté très utilisé. (en anglais)

Le respirateur

En 1876, le Spirophore d’Eugène Woillez a été le premier ventilateur par application externe d’une variation de pression.

Le Pulmotor d’Henrich Dräger (1906) est l’ancêtre des ventilateurs barométriques et des modes à pression préréglée.

Pulmotor

Le concept fut inventé par Philip Drinker qui popularisa le poumon d’acier suite à l’épidémie de polyomyélite des années 1940 à 1950.

C’est au danois Bjørn Ibsen, père fondateur des soins intensifs et héros de l’épidémie de poliomyélite de Copenhague en 1952, que l’on doit le passage à un respirateur en pression positive, qui n’est pas pour autant le plus physiologique.

La spécialité de soins intensifs a commencé à Copenhague en 1952, lorsque Bjørn Ibsen a obtenu de pouvoir faire un relais mécanique de la ventilation manuelle d’un patient de 12 ans mourant de la polio.

Ibsen a travaillé comme anesthésiste indépendant car il n’y avait pas de postes disponibles !
Fils d’un vendeur, il avait été élevé à Copenhague. A l’obtention de son baccalauréat en 1933, il entre à l’Université de Copenhague, et en sort en 1940. Dans sa dernière année d’études, il a donné sa première anesthésie, en utilisant "l’équipement standard" :un sac d’éther, pince pour la langue, et un ouvre bouche.
En règle générale, les anesthésiques été délivrés sous la supervision du chirurgien par une infirmière ou un étudiant.

Dans un hôpital de la région du Jutland il a été formé en radiologie, chirurgie, pathologie et gynécologie. Pour seul équipement anesthésique, un inhalateur d’Ombredanne.
Il gagna un prix en biochimie en 1944. Il est allé au Massachusetts General Hospital en 1949 pour sa formation spécialisée en anesthésie.
Sa femme, Ingrid, une infirmière, l’a accompagné sur le voyage en bateau ; sur le bateau du retour, elle a rencontré Mogens Bjømboe, adjoint de Hans Christian Larssen, chef de l’Hôpital Blegdams Fever.
Ce fut le début de leur collaboration.

Pour autant, on associe également un autre découvreur, au concept du respirateur : Forrest Bird, inventeur des premiers respirateurs médicaux, produits de "masse" à faible coûts, fiables.

Il est né à Stoughton, Massachusetts le 9 juin 1921. Son père, un pilote de la première guerre mondiale, l’a encouragé à voler et à l’âge de 14 ans, en analogie à son nom de famille, le jeune Bird pris son premier vol en solo dans un avion. En 16 ans, il travaillait à plusieurs projets de certifications pour pilotes de haut niveau.

Quelques années plus tard, Bird entra à l’Army Air Corps et, au cours de la Seconde Guerre mondiale, il devint officier de l’air s’occupant de la formation technique. Durant cette période, les avions, volant plus haut que jamais, dépassaient l’altitude à laquelle les pilotes pouvaient respirer sans aide. Bird développa une technologie qui pourrait aider à respirer les pilotes. Après qu’un médecin de l’Air Corps lui eut présenté des manuels sur la physiopathologie des mammifères, il se passionna pou le sujet.

Bird fut assisté d’un certain nombre de facultés de médecine. Cette connaissance l’amena à développer le prototype de Bird Universal Medical, des respirateurs pour les soins cardio-pulmonaires aiguës ou chroniques.
Bird a fondé la Bird Corporation en 1954 pour commercialiser et développer son dispositif. À partir de 1958, il testa ses appareils dans les écoles de médecine, et s’appuya sur les médecins à qui il demanda de lui présenter les cas les plus graves d’insuffisants cardio-pulmonaire, qui n’avaient plus aucun espoir après échec de toutes thérapies.

Dans certains cas, les patients impliqués dans les études de Bird, moururent, mais par de nombreuses fois ils survécurent.
Son modèle respiratoire, réussi. Ses petits appareils verts s’implantèrent rapidement dans les hôpitaux à travers le monde. En 1970, Bird a présenté le "Babybird" respirateur, ce qui a réduit la mortalité infantile due à des problèmes respiratoires de 70% à moins de 10%.

Bird sera président de l’association de l’aviation civile médicale, il intègre le hall of fame des inventeurs en 1995 et membre de la loge maçonnique de Palm Springs.
Il meurt le 2 aout 2015, dans sa maison de Sagle dans l’Idaho.

De nos jours, les respirateurs sont multiples.
On peut citer parmi les plus anciens et les plus connus, sans aucun souci de publicité, le RPR (CAR 830), le bear one, le bird, le servo 900 (B,C, D), l’aestiva 7800 et 7900, le julian, l’excel 210, le SA1 et SA2, le narkomed, le kontron ABT 4100 et 4300, le cato, l’alys, le julian, le fabius, le primus, le zeus...

NB : A visiter le musée du CHU de Grenoble (pour ses iconographies et ses photos "vintage" cultes. Un must !)

Histoire de la ventilation mécanique (dr C. Chopin)
Du spirophore d’Eugène Woillez au poumon d’acier
Diaporama du Professeur Philippe Scherpereel et du Professeur Marcel Woillez retraçant l’histoire du poumon d’acier.
Un siècle d’anesthésie par inhalation et de ventilation des machines et des hommes
Un document du Professeur Philippe Scherpereel retraçant l’histoire de l’anesthésie par inhalation et de la ventilation.
Le respirateur et la ventilation en Anesthesie (dr Y Pouzeratte)
Quand la maîtrise des respirateurs par l’IADE garantit la sécurité du patient (SAINTIVES Aurelie)
TIP de l’école des IADE, CHU de Reims.
Protocole d’entretien des respirateurs
Pulmotor, l’histoire de la ventilation artificielle.( document Dräger en anglais).

La sonde d’intubation

L’anesthésie générale est aujourd’hui la forme d’anesthésie la plus souvent appliquée. Elle représente plus de 80% de l’art anesthésique des différentes spécialités chirurgicales hospitalières. La technique de l’intubation endotrachéale a déjà plus de 1000 ans. Au début de notre siècle, toutes les conditions avaient été données pour une performance largement répandue et sécuritaire de l’intubation endotrachéale. Toutefois, l’histoire s’est construite au fil des siècles, avec ses étapes les plus importantes dans le développement de cette aide essentielle à l’anesthésie :

Dans l’Antiquité Égyptienne, Grecque et Romaine, seuls de rares récits de tentatives de ranimation de personnes présumées mortes nous sont parvenus.

 Hippocrate (-460 à –377) aurait proposé, en cas de suffocation, d’insérer un petit tuyau dans la gorge du patient pour y insuffler de l’air. Pour certains ce serait la description d’une trachéotomie, pour d’autres, plutôt celle d’une intubation
On prête au médecin Persan Avicenne (980 à 1037) les premières intubations trachéales en cas de suffocation, à l’aide de canules d’or ou d’argent (Livre III du Canon de la médecine (Kitâb al-Qânoun fi al-Tibb))

 1543, Andreas Vesalius dit André Vésale (1514-1564)
Médecin flamand,
"Père de l’anatomie moderne" dans son " Humani Corpores Sanita " décrit la ventilation artificielle en pression positive à thorax ouvert sur un animal à l’aide d’un roseau introduit dans la trachée. Tombée dans l’oubli, cette méthode ne sera réinventée que 350 ans plus tard lors de la naissance de la chirurgie thoracique.

 Paracelse introduisait un soufflet dans la bouche pour ressusciter les asphyxiés.

 1667, Robert Hook démontre l’hématose et la respiration tissulaire.

 1744, publication dans " Medical Essays " ventilation avec succès par bouche à bouche chez un patient asphyxié par gaz carbonique.

 1754 Benjamin Pugh réanima les nouveaux nés avec un tuyau de 25cm et d’un diamètre de la taille d’un plume de cygne. Il l’introduisait avec les doigts dans le larynx.

 1755, invention du double soufflet de Hunter qu’il améliorera en 1776 en ajoutant une valve d’échappement.

 A partir de 1767, l’insufflation pulmonaire fait partie des moyens thérapeutiques de la ranimation des sujets en mort apparente. La création de sociétés philanthropiques (Amsterdam : 1767, Venise et Milan : 1768, Paris : 1772, Londres 1774) diffuse la technique (très discutée) par bouche à bouche, canule de PIA …

 En 1780, Chaussier invente son tube laryngé pour la réanimation des nouveaux nés en état de mort apparente

 En 1786 Nooth invente un appareil avec un cylindre de cuivre et en 1789 Gorcy invente la pompe apodopnique (qui rétablit la respiration), suivie en 1790 par celle de Heus Courtois.

 1788 Charles Kite invente un tube pour passer dans la glotte.

 1792 James Curry les instruments nécessaires au sauvetage des noyés où il apparaît un tube laryngé avec un système de blocage.

 1806 : François Chaussier qui réanimait les nouveaux nés avec un masque et de l’oxygène propose son tube trachéal qui sera par la suite modifié par Depaul en 1845 et par Ribemont en 1878.

 A partir de 1827, à la suite des travaux de Leroy d’Etiolle, après la publication d’un pneumothorax suffocant gravissime, l’insufflation va subir une terrible éclipse. Celui-ci met en évidence le danger de l’hyperpression pulmonaire. Il indique des précautions à prendre, crée un soufflet à volume réglable et veut interdire l’insufflation par des profanes. Mai interprétés, ces expériences ont jetées le discrédit sur l’insufflation pendant 50 ans

 A partir de 1845, Depaul commence à réhabiliter la ventilation chez le nouveau né.

 1848 Bouchut et Snow utilise l’intubation dans le croup et plus tard pour les anesthésies animales

L’ancêtre du poumon d’acier est le Spirophore du Dr Woillez mais il resta au stade de prototype de laboratoire.

 En 1869, Trendelenburg invente le ballonnet gonflable sur le tube trachéal

Première utilisation chez l’homme d’une canule de trachéotomie par Friedrich Trendelenburg.

 1871 Trendelenburg invente la canule de trachéotomie avec ballonnet gonflable.

 1875 : aérophore pulmonaire du Dr Gayral, l’insufflateur du Dr Pros, le tube laryngé de M. Ribemont

 1878 William Mac Ewen de Glasgow se sert de tube trachéal en cas d’œdème de la glotte.

 1880 : Première intubation orotrachéale pour l’anesthésie par William MacEwen.

 1885 Le pédiatre américain Joseph O’Dwyer (1841-1898) de New-York suit les traces de Bouchut et Snow pour les diphtéries et améliore sa canule pour le ventilateur de Fell. À l’origine, les premières intubations trachéales ont été réalisées lors des épisodes asphyxiques de la diphtérie. Jusqu’à la fin du XIXe siècle, la seule chance de salut était de réaliser une trachéotomie, alors grevée d’une lourde mortalité. O’Dwyer a inventé la méthode d’intubation qui porte son nom et qui a été publiée en 1887 dans le N. Y. Medical Journal sous le titre ", J. O’Dwyer, “Intubation Of The Larynx, With Demonstration On A Cadaver”, Transactions of the Medical Society of the State of New York‎, page 323 :, et qui fut lut à la société médicale de l’état de New York en février 1888.

« Avant de procéder à démontrer la méthode de pratiquer l’intubation du larynx sur ce cadavre peu, je vais soumettre à votre inspection quelques-unes des principales variétés de tubes conçus pour surmonter l’obstruction dans le larynx dans le croup et d’autres formes de sténose. Ils servent à montrer les différentes étapes de développement à travers lequel cette opération a passé depuis sa création en janvier 1880 à l’heure actuelle ».

L’intubation oro-et nasotrachéale a été développé comme l’une des techniques les plus importantes en anesthésiologie. A l’origine, les intubations ont été réalisées pour surmonter une obstruction aiguë diphtérique chez les enfants. A la fin du XIXe siècle, la seule chance de survie été d’effectuer une trachéotomie. Bien que la technique pour cette opération se soit bien développée, il était très souvent impossible de sauver la vie de ces patients moribonds. Le pédiatre américain Joseph O’Dwyer ré initia la technique de l’intubation et de par ses excellents résultats elle fut encouragée et pratiquée dans le monde entier, même si elle était une procédure bien connue à cette époque. En collaboration avec le chirurgien Georges Fell, O’Dwyer conçu un appareil, pour la respiration artificielle. Il a été largement utilisé dans les cas d’asphyxie, même dans ceux causés par un surdosage d’anesthésiques. D’autres développements de l’appareil permettent une ventilation à pression positive et la combinaison avec un entonnoir pour les stupéfiants a augmenté le répertoire des possibilités d’anesthésie.

 Après 1856 et durant trois décennies, Marshall Hall combattit les « méthodes de forçage" et de soufflet pour la ventilation artificielle ; la "respiration forcée humaine" (équivalent à une ventilation à pression positive intermittente) fut pratiquement abandonnée. Les diverses manœuvres de mobilisation des bras sur la poitrine se sont souvent révélées insuffisantes pour sauver la vie.

 Le médecin et ingénieur George Fell, de Buffalo (New York) (1849-1918), échoua à sauver la vie d’un patient en surdosage d’opiacés en utilisant la méthode populaire de Silvester, il résolut de tenter sa méthode de ventilation (soufflet et une trachéotomie) sur des animaux de laboratoire.
Après son premier succès en 1887, il adapta au mieux son appareil en vue de l’utilisation sur l’homme, et s’attaqua à des cas difficiles, mais fut incapable de soulever l’enthousiasme pour sa « méthode Fell" ventilatoire. Ses rapports au congrès de Washington sur des sauvetages réussis rencontrèrent la dérision et l’indifférence, bien qu’il y soit détaillé la survie de 28 vies humaines après une intoxication aux opiacés en remplaçant la trachéotomie au profit d’un masque plus simple de pratique et avec peu de complications.

Poursuivant ses « sauvetages » tout au long des années 1890, Fell obtint personnellement des résultats probants après 73,5 heures (1896), et plus de 78 heures (1899). Il fit valoir sa méthode à plusieurs reprises avec de nombreuses conférences, beaucoup de documentations, et des plaidoyers pour l’utilisation de sa méthode dans d’autres crises ventilatoires. Malgré ses efforts et les réussites, Fell a été incapable d’obtenir l’adoption généralisée de la respiration forcée, mais d’autres ont adopté ses principes.

 Joseph O’Dwyer modifia le masque-trachéotomie de Fell en incorporant un tube intralaryngée, et cet « appareil de Fell-O’Dwyer " a été utilisé pour les cas de neurochirurgie (1894), et révolutionna la chirurgie intra-thoracique (1899)

La principale distinction du Dr Joseph O’Dwyer réside dans son dévouement et ses réalisations dans la lutte contre la diphtérie laryngée chez les enfants à l’asile de NewYork Foundling, où il exerça à partir de 1872. Il a également travaillé en pratique privée au Presbyterian Hospital de New York. Certains de ses travaux furent précurseurs des méthodes de traitements de la médecine de soins intensifs. Ses réalisations comprennent :

 Introduction d’un système pratique de l’intubation intralaryngée, y compris les dessins de tubes et une technique pour les insérer, après plusieurs années d’une étude minutieuse et d’expérimentation - toujours "sans inspiration empruntée".
 L’utilisation de ses tubes chez les enfants atteints de pseudomembranes diphtérique dans le larynx, d’accroître sensiblement leurs chances de survie à un moment où une trachéotomie pour faire face à ce problème avait encore un taux d’échec élevé. Le premier patient intubé récupéré, date de novembre 1882, seulement après le port prolongé d’un tube de trachéotomie, O’Dwyer ne date pas son succès d’intubation avant le 21 mai 1884.
 Introduction de ses tubes dans la méthode de la respiration forcée Fell, avec comme résultante l’appareil de Fell-O’Dwyer pour la ventilation à pression positive intermittente.
 La démonstration que cet appareil, principalement utilisé pour sauver des vies après une intoxication aiguë aux opiacés, a également été utile à certains traumatismes intracrâniens, (1894) par William P Northrup, en particulier. Bien que l’appareil a été utilisé au-delà de New York (par exemple, à la Nouvelle Orléans par JD Bloom, surtout pour l’apnée du nouveau-né), il est difficile de trouver d’autres références.
 Prestation d’un système, que d’autres ensuite appliqueront, qui permet aux chirurgiens de surmonter le grand « problème du pneumothorax" des opérations intra thoraciques, et ainsi procéder à une chirurgie sûre (1898) à l’initiative de Rodolphe Matas, dans la prestation de l’anesthésie et le maintien de l’inflation des poumons afin de permettre une chirurgie intra-thoracique (par FW Parham).
 Développement d’une méthode d’intubation à l’aide de courtes dilatations successives pour traiter la sténose laryngée chronique, habituellement syphilitique, chez les adultes, (1885)

Tout au long de son exercice médical, O’Dwyer a été tenue en haute estime comme un altruiste, une personne compatissante à la « simplicité sincère et franche, et une bonté de caractère".
Rodolphe Matas et Bloom améliorèrent le système original d’ O’Dwyer, mais après le succès clinique de l’insufflation continue pour la chirurgie thoracique de Charles Elsberg, en 1909, les anesthésistes américains en sont venus à préférer celle-ci.

 Dès 1887, l’appareil de Fell–O’Dwyer est le premier à être utilisé en pratique chirurgicale

 1889, Head utilise des tubes trachéaux avec ballonnet gonflable pour ses expérimentations chez le chien.

 1894 : Ventilation à pression positive après une intoxication de morphine par George Fell et Joseph O’Dwyer.

 1895, Tuffier Tuffier invente un tube à ballonnet gonflable pour la ventilation en pression positive.

1895 : Description de la laryngoscopie directe par Alfred Kirstein inventeur de l’autoscope pour examiner le larynx et la trachée. Jusqu’alors, l’intubation trachéale était réalisée à l’aveugle.

 1896 Killian invente une série d’instrument pour la bronchoscopie

-1898 Le premier appareil d’intubation et d’insufflation à l’usage
quotidien est dû à Doyen pour la chirurgie pulmonaire.

 1901 : Franz Kuhn (1866-1929), un chirurgien allemand, est le premier à utiliser régulièrement l’intubation trachéale lors des anesthésies"Die intubation perorale". Mais cette pratique ne sera appliquée en routine hospitalière que bien plus tard, vers 1945

 1909 Hill invente le premier laryngoscope à lame fendue

 1911 Jackson permet l’intubation nasale sous contrôle direct, et Magill et Rowbotham préconisent l’intubation pour administrer une anesthésie. La technique se développe durant la Première Guerre mondiale dans le domaine de la traumatologie faciale avec l’utilisation de sondes en gomme.

 1913 Chevalier Jackson décrit la technique actuelle d’intubation.

 1913 Janeway invente les lames courbes.

 1920 Magill et Rowbotham invente l’intubation nasale pour les traumatismes maxillofaciaux. Magill déterminera la forme courbe de la sonde d’intubation. (voir ces noms que l’on utilise)

 1928 Flagg détermine la taille des tubes trachéaux

 1931 Gale et Waters font la première intervention sur un seul poumon.

 1943 Macintosh crée le laryngoscope actuel

 1950 Bjork et Carlens invente la sonde trachéale à poumon séparé.

Depuis les années 1950, l’American society for testing materials définit les caractéristiques des tubes et du ballonnet.

Mais c’est à Matas que l’on doit le premier ventilateur moderne

La chirurgie thoracique posait le problème du pneumothorax et avant d’arriver à la ventilation en pression positive de nombreuses machines furent construites, allant de la pression négative au niveau du thorax à la pression positive.

 Les ventilateurs modernes en réanimation commencent par l’Engström 150 créé à la suite de l’épidémie de poliomyélite de 1954 en Suède.

 En 1970, l’électronique entre dans le fonctionnement des ventilateurs avec le Servo 900

la séquence de l’intubation
  • Les sondes d’intubation sont généralement en PVC, qui est un matériau bien toléré, transparent, non toxique, sans latex et à la particularité d’être thermoplastique, en s’adaptant à la température du corps et donc à la voie aérienne, de façon à favoriser la tolérance. Par contre en cas d’intubation difficile ou plus exactement en cas d’introduction itérative, elles deviennent rapidement molles et difficilement orientables. Dans ces conditions il convient de les rigidifier avec un mandrin.
  • Silicone : beaucoup plus douce, son utilisation est recommandée pour l’intubation prolongée.
  • caoutchouc souple : il faut proscrire l’utilisation de sondes réutilisables en caoutchouc.
  • Acier inoxydable : à l’épreuve du feu, utilisé dans la chirurgie au laser .

Les ballonnets utilisés sont dits à basse pression, de façon à diminuer les risques d’ischémie muqueuse
La sonde se compose d’un tube, d’un système de connexion de diamètre standardisé appelé slip joint. Sur les sondes armées, le slip joint est solidaire de la sonde, sauf pour les sondes destinées aux Fastrach.

Les sondes à ballonnet commencent à la taille trois, les sondes standard peuvent être utilisées en oro ou naso trachéal.

Il existe une perforation latérale au delà du ballonnet que l’on appelle l’œil de Murphy qui assure le passage de l’air si le biseau est obstrué par contact avec la paroi.

Sonde d’intubation à oeil de Murphy.
  • 1. Ballonnet témoin ;
  • 2. valve de gonflage ;
  • 3. extrémité patient (distale) ;
  • 4. longueur du ballonnet ;
  • 5. angle du biseau ;
  • 6. raccord ;
  • 7. extrémité machine (proximale) ;
  • 8. graduations de longueur ;
  • 9. canal de gonflage ;
  • 10. angle de courbure ;
  • 11. repère de positionnement

Quel diamètre choisir ?

(source intubation.fr)

Le numéro associé à une sonde intubation indique son diamètre interne, par contre le diamètre externe varie en fonction de la marque et du type de sonde.
Le diamètre externe est important chez enfant, la norme veut que ce chiffre soit mentionné sur les sondes de petite taille jusque taille 6

En fonction de l’âge, la formule de calcul varie en fonction de la présence d’un ballonnet

 Prématuré

Sonde de Cole

Sonde de Cole, conçue pour l’intubation des nouveau-nés, avec un diamètre plus petit à son tiers inférieur, qui a la fonction de réduction de la résistance d’écoulement d’air lors de la ventilation mécanique.

  • <2,5 kg => taille 2,5 sans ballonnet
  • >2,5 kg => taille 3 sans ballonnet

 Puis pour les sondes sans ballonnet

  • 4 à 8 Kg => taille 3,5 sans ballonnet (3 avec ballonnet)
  • 8 à 12 kg => taille 4 sans ballonnet ( 3,5 avec ballonnet)

 Au-delà de 2 ans, choix du diamètre interne :

  • Avec ballonnet D.I. mm. = (âge en années /4) + 3
  • Sans ballonnet (D.I. mm.) = (âge en années /4) + 4

pour les sondes endotrachéales sans ballonnet, la formule retenue est
Diamètre = (age + 16) / 4

tailles des sondes sans ballonnet

 Pour les sondes à ballonnet, on peut également appliquer la formule de Khine

Taille = (age /4) + 3

 Ou la formule de Cole : DI (mm)= âge/4 + 4 chez les enfants de plus de 2 ans

 Ou la formule de Khine modifiée : DI (mm)= âge/4 + 3,5

A lire

Choix de la sonde d’intubation chez l’enfant. méthode acoustique vs la formule de Khine modifiée. Mémoire dr Audrey Cirrode

Résistance et travail respiratoire

La Sonde d’intubation représente une charge mécanique surtout en ventilation spontanée
La résistance et le travail ventilatoire sont augmentés par divers facteurs.

  • Diamètre interne (sonde et raccord)
  • Épaisseur paroi / même diamètre externe, ce rapport augmente dans les petites tailles (enfant)
  • Introduction sonde aspiration, oxygène ou fibroscope
  • Longueur : la réduction de la longueur diminue la résistance (< diamètre)
  • Configuration des lignes associées à la sonde : Coudes et raccords augmentent la résistance
  • Densité du gaz

 Les types de sonde

Traditionnelles

pour en connaître l’invention, lire eurékiade

Tube Parker (Parker médical, Englewood, CO, USA) : le Flex-Tip a un bec en forme de morphologie particulière, avec 2 trous de Murphy. L’œil de Murphy augmente le risque de traumatisme des cornets lors de l’ intubation nasale. On parle de pointe de Magill lorsque l’œil de Murphy est absent.

Les sondes avec mandrin prémonté

  • Taille > 5
  • Mandrin de taille toujours adaptée

Indication

o Pays chauds

o Systématique

Sondes préformées orales

Tube oral RAE (Ring-Adair-Elwin) : Utilisé dans les intubations orales pour chirurgie dentaire. Formé d’un " U " qui descend vers le thorax.

  • Utilisées en chirurgie faciale
  • leur insertion peut se faire avec un mandrin court pour faciliter la mise en place
  • Taille adulte et enfant

La sonde d’Oxford, conçue par Alsop en 1955. En forme de "L" et a été créée dans le but d’éviter la plicature des tubes pour effectuer des procédures chirurgicales de la tête et du cou.

Sondes préformées nasales

Tube nasal RAE : Conçu avec le même but que ci-dessus mais pour les intubations nasales, libérant ainsi la cavité buccale.

  • Utilisées en chirurgie de la bouche
  • Sondes longues à fixer sur le front
  • ne permettent pas l’aspiration endotrachéale

Sonde armée

  • Comporte une spirale métallique qui empêche la compression extrinsèque du tube
  • Slip Joint collé (sauf sonde fastrach)

• Indication

  • Risque de compression en per opératoire ou en médecine d’urgence
  • Mobilisation de la tête per opératoire
  • Intubation sous fibroscopie

Sondes bronchiques à double lumière

• Indications :

  • nécessité isoler un poumon de l’autre
  • Ventilation ou aspiration un seul poumon
  • Ventilation séparée de chaque poumon PEP unilatérale-*

• Sondes :

  • 2 tubes juxtaposées
  • Tube trachéal se termine au dessus de la carène
  • Tube bronchique cathétérise la bronche appropriée
  • Partie distale forme un angle qui s’oriente vers la bronche
  • 2 versions : droite ou gauche
  • Possibilités d’un ergot qui favorise le placement et réduit les mouvements
  • Ballonnets : au moins 2
  1. Trachéal : au dessus orifice trachéal
  2. Bronchique : au dessus de la terminaison du tube

Gonflage indépendant

 Sonde de Carlens

  • Pour intubation bronche souche gauche
  • Ergot +
  • 6 tailles : 28, 32, 35, 37, 39, 41 French
Carlens

 Sonde de White

  • Pour intubation bronche souche droite
  • Ergot +
  • 6 tailles : 28, 32, 35, 37, 39, 41 French
White

 Sonde de Robertshaw

  • Pour intubation gauche ou droite, sans ergot.
  • 6 tailles : 28, 32, 35, 37, 39, 41 French
Robertshaw

Double-Lumen Catheter Intubation - Medical Animation

 Bloqueur bronchique

EZ block (laboratoires Rüsh)

ez blocker

Atraumatique

  • mise en place rapide et sûre en association avec une sonde endotrachéale standard
  • complètement radio-opaque
  • ses 2 ballonnets distaux en polyuréthane procurent une étanchéité douce et optimale
  • évite la ré-intubation après le retrait d’EZ-Blocker en cas de ventilation post-opératoire nécessaire

Forme en Y

  • sécurité accrue : EZ-Blocker se positionne de lui-même sur la carène
  • s’apparente à la bifurcation naturelle de la trachée et réduit le risque de déplacement en cours d’intervention ou lors de re-positionnement du patient

L’EZ-Blocker est une solution qui facilite la plupart des procédures thoraciques et le traitement des pathologies pulmonaires, de la paroi thoracique et du diaphragme. Il a été conçu pour être utilisé en Chirurgie Thoracique en Vidéo-Assistée (CTVA).

EZ Blocker documentation
Instruction d’utilisation Kit bloqueur endobronchique EZ blocker

avec affaissement du poumon.

  • Papworth BiVent Tube

Le tube Papworth BiVent est un dispositif à usage unique constitué d’un matériau de caoutchouc avec deux lumières en forme de D, agencées dans une configuration côte-à-côte, séparées par une cloison centrale. Le tube a une concavité préformée postérieure unique et une seule gonflable, à haut volume, basse pression trachéale. À l’extrémité distale deux pointes forment une pointe en forme de fourche. Le tube a été conçu pour être positionné avec cette pointe fourchue assise sur la carène.

Le tube BiVent Papworth.

Papworth BIVent

Le corps principal du prototype est elliptique en section transversale avec des rayons externe de 10 et 17 mm. Les dimensions intérieures des lumières en forme de D sont 5 × 3,5 mm.

Papworth BiVent

Le tube Papworth BiVent, a été conçu pour permettre l’isolement des poumons, de façon rapide et fiable en utilisant n’importe quel bloqueur bronchique sans avoir besoin de guidage endoscopique par fibre optique.
L’intubation trachéale avec le tube Papworth BiVent s’est avéré être plus facile qu’avec un tube de lumière double classique endobronchique.
L’isolement du poumon avec le tube BiVent Papworth utilisé en combinaison avec un inhibiteur bronchique a été réalisée de manière fiable et plus rapide qu’avec un tube à une seule lumière et bloquant bronches.

The Papworth BiVent tube : a feasibility study of a novel double-lumen endotracheal tube and bronchial blocker in human cadavers
S. Ghosh1,*†, A. A. Klein1, M. Prabhu2, F. Falter1 and J. E. Arrowsmith1

Ventilating in isolation : the Papworth BiVent tube

The Papworth BiVent tube : a new device for lung isolation.

FIXATION SÉCURISÉE DE LA SONDE D’INTUBATION

Docteur Eric TORRES

  • SDIS 13 / revue@urgence-pratique.com

Docteur Eric ROYER

  • Grimp 14 / urgence.com

Les médecins amenés à intervenir dans le cadre des secours en milieu périlleux (GRIMP, secours en montagne) sont parfois confrontés au risque d’extubation accidentelle du patient lors de la réalisation de manœuvres de brancardage particulièrement longues ou techniques.

Le ballonnet de la sonde d’intubation ne sert qu’à assurer l’étanchéité entre la sonde d’intubation et la trachée (ventilation sans fuite, protection des voies aériennes contre l’inhalation accidentelle du contenu gastrique). Il n’a aucun rôle de fixation ou de maintien de la sonde en position correcte. La fixation de la sonde d’intubation doit donc être assurée par un moyen « externe » comme une « cravate » de sparadrap collée sur le maxillaire supérieur (partie fixe de la mâchoire) ou un lacs passé autour de la tête du patient. Nous nous proposons de décrire ici une technique permettant d’optimiser ces moyens de fixation afin de limiter le risque d’extubation accidentelle lorsque le patient doit être mobilisé.

  • TECHNIQUE

La technique préconisée consiste à augmenter le diamètre du lien afin de pouvoir serrer plus étroitement le dispositif contre le visage du patient sans risquer de provoquer de lésions. Pour cela les auteurs conseillent d’utiliser un lacs traditionnel (ou un lacet) introduit au travers d’une seconde sonde d’intubation dans laquelle on aura pris soin de réaliser un orifice latéralisé du côté de la concavité, dans sa courbure au niveau de sa partie médiane. Le lien sera disposé de manière à faire une boucle après le franchissement de cet orifice afin de maintenir fermement la sonde d’intubation au contact du dispositif de fixation ainsi réalisé (voir photo). L’ensemble sera solidarisé au patient par un nœud.

 VARIANTES

En fonction des habitudes de l’opérateur et des moyens dont il dispose il pourra utiliser à la place du lacs un lacet ou un autre type de lien. La sonde d’intubation servant à protéger ce lien pourra être remplacée par une portion de sonde gastrique ou par un morceau de tubulure à oxygène.

 AVANTAGES

Ce mode de fixation, particulièrement résistant, permet d’éviter à la fois l’extubation malencontreuse (traction sur la sonde) et le risque d’intubation sélective secondaire (enfoncement de la sonde). Il résiste à des tractions accidentelles de plusieurs kilos qui peuvent parfois se produire lors de la prise en charge en terrain difficile (brancardage long et technique). Cette technique est utilisable sur le sujet barbu ou en sueur (hypercapnie), contrairement à la fixation traditionnelle au sparadrap. Enfin, l’utilisation de sondes d’intubations ayant dépassé la date de péremption pour réaliser ce dispositif de fixation rend son coût pratiquement nul.

 INCONVENIENTS

Afin de ne pas perdre de temps lors de l’intervention, ce dispositif de fixation doit être préparé à l’avance. Il prendra ensuite peu de place dans le compartiment « intubation » du sac d’intervention.
Ce montage est uniquement destiné à être utilisé dans certaines situations extra hospitalières « difficiles ». Il ne doit pas être laissé en place trop longtemps pour éviter d’irriter la visage (commissures labiales, joues) de la victime. Il n’est pas destiné à être utilisé systématiquement lors des interventions en situation conventionnelle et encore moins à l’hôpital ou les méthodes de fixation classiques sont amplement suffisantes.
Enfin, cette technique ne dispense pas de la règle habituelle de prudence qui consiste à vérifier par l’auscultation la bonne position de la sonde après chaque mobilisation du patient comme le rappelle l’aphorisme :

« patient intubé et mobilisé = patient ausculté ».

 CONCLUSION

La technique décrite nous paraît simple et efficace. Elle nous semble particulièrement adaptée aux besoins de la médicalisation en milieux périlleux. Nous avons eu l’occasion de la tester à plusieurs reprises dans le cadre du secours en paroi (évacuation d’un patient sur perche Piguilhem) ou du secours sur piste (évacuation d’un patient en barquette). Dans tous les cas, elle nous a donné entière satisfaction.

Fixation sonde d’intubation SAMU 67

-LA TRACHEOTOMIE

Dr D.Rouland (Médecin Urgentiste, Spécialiste en ORL) (source smur argenteuil)

Technique chirurgicale nécessitant une grande rigueur d’exécution, la trachéotomie se pratique dans des contextes très différents et tout à fait opposés.
Nous nous attacherons donc à décrire les principes les principes de bases, communs à toutes les circonstances où son indication ne fait aucune discussion, puis nous détaillerons les modes opératoires propres à chacune.
Cependant, avant de parler de la technique elle-même, nous ferons un rappel anatomique de la région, rapide et succinct.
Enfin, nous donnerons les principales indications et nous discuterons les alternatives à ce geste qui nous sont proposées avec leurs principaux avantages et leurs inconvénients.

Rappel anatomique :

La région qui nous intéresse se situe à la face antérieure du cou, limitée en haut par la saillie du cartilage thyroïde, en bas par la fourchette manubriale, et de part et d’autre, par le chef antérieur du sterno-cleïdo-mastoïdien droit et gauche.

cartilages thyroïde et cricoïde

Il est important de connaître les rapports de l’axe aérien sur son trajet dans le secteur que nous venons de délimiter, ainsi que sa structure.

1) Structure de l’axe aérien :

Le premier élément de cet axe est le cartilage thyroïde.

Plus saillant et ouvert chez l’homme que chez la femme, la “pomme d’Adam” représente grossièrement un livre à demi ouvert vers l’arrière. La pliure est plus nette au sommet et quasi inexistante à la base. Les deux ailes sont évasées en haut.

La base s’articule avec le deuxième anneau trachéal, le cartilage cricoïde.

Dans son échancrure, il contient entièrement l’appareil vocal, lui constituant un bouclier antérieur, ainsi que la partie initiale du tube digestif - les sinus piriformes, situés de part et d’autre de l’organe vocal.

Il est important de connaître les rapports de l’axe aérien sur son trajet dans le secteur que nous venons de délimiter, ainsi que sa structure.

En avant, ses ailes reçoivent, dans leur tiers inféro-externe, les sommets des lobes de la glande thyroïde.
La structure suivante, le cartilage cricoïde, est remarquable, par rapport aux autres anneaux trachéaux, par sa hauteur, son épaisseur et par le fait qu’elle constitue un cylindre complet.
Latéralement, son bord supérieur s’articule avec le cartilage thyroïde.
En avant, il existe un hiatus d’environ 3 à 5mm entre le bord inférieur du cartilage thyroïde et le bord supérieur du cartilage cricoïde, comblé par un ligament épais et puissant, la membrane crico-thyroïdienne.
En arrière, son bord supérieur s’articule avec deux cartilage sésamoïdes, les arythénoïdes, qui participent à la phonation, eux-mêmes reçoivent les cartilages corniculés.
Le reste de la trachée est constitué de la succession de cartilages semi-cylindriques séparés de ligaments.
La paroi postérieure de la trachée est constituée par une membrane musculaire continue jusqu’aux bronches.

2) Rapports antérieurs de l’axe aérien :

Comme on l’a compris, le rapport principal est constitué par la glande thyroïde.
Elle est formée de deux lobes et d’un isthme.
L’isthme présente, de façon inconstante, un appendice aux dépends de son bord supérieur, la pyramide de Lalhouette.
Les lobes thyroïdiens, comme nous l’avons dit plus haut, viennent s’adosser au tiers inférieur des ailes du cartilage thyroïde, pour leurs pôles supérieurs et à la face externe du cartilage cricoïde, pour leurs pôles inférieurs.
L’isthme est en rapport avec la face antérieure du cartilage cricoïde. Son bord supérieur est, normalement, constamment en dessous de la membrane crico-thyroïdienne.

rapports de la thyroÏde et des deux premiers cartilages de la trachée entre eux.

La pyramide de Lalhouette, quand elle existe, vient barrer cette membrane, en dehors et à droite de la ligne blanche. Elle est suspendue à l’os hyoïde par un tractus fibreux, le ligament pyramidal.
La glande thyroïde est un organe très vascularisé.
Cette particularité va être d’une grande importance dans l’abord chirurgical de la région.
La vascularisation artérielle ne représente pas un écueil considérable. Elle est constituée par le tronc thyroïdien, première branche de la carotide externe. Il se divise en plusieurs branches et aborde la thyroïde par son pôle supérieur, longe le bord supérieur de la glande et s’y résout par la face postérieure.

vascularisation de la face antérieure du cou.

La vascularisation veineuse, par contre, riche et dense, est constituée de plexus qui parcourent, en particulier, la face antérieure de la glande, juste au-dessous de l’aponévrose, elle-même située derrière la graisse sous-cutanée, qui se résolvent dans le tronc veineux thyroïdien inférieur, la veine polaire inférieure et la veine polaire supérieure.
Par ailleurs, c’est aussi, en général, au dépend de l’isthme que se développent les goitres plongeants.
Cette pathologie va constituer un obstacle majeur lors de la trachéotomie : la glande passant alors en avant de l’axe aérien, le recouvrant entièrement et descendant dans le thorax, en arrière du manubrium sternal.
En règle générale, dans le même temps, l’axe lui-même est dévié soit d’un côté soit de l’autre de la tuméfaction.
Le rapport postérieur principal de l’axe aérien et le seul qui nous intéresse est l’œsophage.

Les techniques de la trachéotomie :

1) Principes de base, communs à toutes les techniques :

a) position idéale du malade :

De la position générale du malade, va dépendre, de façon primordiale, la suite de l’intervention.
En effet, la rectitude stricte du corps, notamment de la tête par rapport au thorax, va entraîner le positionnement correct de la ligne blanche qui, rappelons-le, constitue son axe de symétrie et une zone, ténue mais bien réelle, théoriquement a-vasculaire.
Cette rectitude est obtenue lorsque :
 l’axe du cou est perpendiculaire à la ligne passant par les moignons des épaules, lorsque les bras sont alignés équitablement de part et d’autre du corps,
 la ligne passant par les épines iliaques antérieures est parallèle à celle passant par le moignon des épaules, les membres inférieurs joints,
 l’axe sagittal de la tête, représenté par la ligne occipito-nasale, est perpendiculaire au plan du support du sujet - ce qui est réalisé quand la pyramide nasale se projette comme la bissectrice de l’angle formé par les pieds, talons joints.
La bascule franche de la tête en arrière et l’effacement des moignons des épaules, provoque l’allongement maximum du cou et la projection de l’axe aérien avec effacement.
La méthode la plus efficace pour obtenir cette position est, soit de glisser un billot sous les épaules du patient, soit de positionner la tête de celui-ci hors du plan où il est allongé, une traction symétrique étant exercée, dans les deux cas, sur les deux membres supérieurs, dans l’axe du corps.

b) Incisions :

La position qui vient d’être définie, quelques soient les circonstances, va permettre d’inciser de façon sûre.
L’incision cutanée est horizontale et s’arrête au plan graisseux. En fonction du contexte elle se fera plus ou moins haut dans l’aire définie au début de cet exposé et sera toujours limitée par le chef antérieur des sterno-cléido-mastoïdiens, de chaque côtés. En tout état de cause, on choisira, de préférence, d’inciser au niveau d’une ride horizontale du cou, par souci d’esthétique d’une part, pour limiter les effets rétractiles de la cicatrisation d’autre part.
A partir du plan graisseux et ce jusqu’à la trachée, les incisions successives seront strictement verticales et médianes sur la ligne blanche.
C’est dans l’individualisation des plans et dans la prise en compte de la position de la thyroïde que vont différer les techniques de la trachéotomie :
 pour la trachéotomie réglée, on choisira, le plus souvent, la voie trans-isthmique,
 l’extrême urgence, elle sera pratiquée, dans la mesure du possible, en sous-isthmique.
L’inclinaison de l’axe aérien - de haut en bas et d’avant en arrière - impose que les incisions successives lui soient perpendiculaires.
Ceci implique que le bistouri soit constamment incliné lame vers le haut, d’une dizaine de degrés par rapport à la verticale.
La dérogation à cette règle, entraîne un abord tangentiel de la trachée et surtout un trajet erratique vers le détroit supérieur du thorax avec le risque qu’il comporte : l’effraction de l’un des gros troncs artériels de la base du cou.

2) La trachéotomie réglée :

Elle se pratique au bloc opératoire, habillé et sous champ stérile et nécessite un opérateur et un aide qui instrumentera en même temps.

a) L’instrumentation :

Les instruments nécessaires à une trachéotomie réglée ne sont pas très différents de ceux d’une boite de “petite chirurgie” :
 badigeon,
 cupule,
 écarteur de Farabeuf,
 manche de bistouri et lame 21 ou son équivalent en matériel jetable,
 petites pinces hémostatiques de Hälstedt,
 et, seul matériel spécifique de l’intervention, un écarteur tripode.

b) l’intervention :

Après un large badigeonnage antiseptique comprenant le menton, le cou, les épaules et la partie haute du thorax, on dispose quatre champs de telle sorte que le champ supérieur longe la branche horizontale de la mandibule, les champs latéraux suivent une ligne allant de la pointe de la mastoïde au tiers interne de la clavicule. Le champ inférieur est disposé de manière à passer tangentiellement à la fourchette manubriale.

On incise la peau selon la méthode décrite au chapitre précédant à trois travers de doigt au-dessus de la fourchette manubriale, horizontalement, d’un sterno-cléïdo-mastoïdien à l’autre.
L’aide écarte la peau perpendiculairement à l’incision.

L’opérateur incise la graisse strictement le long de la ligne blanche au bistouri froid jusqu’à l’aponévrose cervicale superficielle qui recouvre l’isthme.
L’ouverture de l’aponévrose est pratiquée au bistouri électrique, alors que l’aide aura chargé le plan graisseux sur les lames des Farabeuf perpendiculairement à l’axe du cou, du bord supérieur au bas inférieur de l’isthme. C’est le temps hémorragique de l’intervention : les plexus veineux de la face antérieure de la thyroïde sont juste attenants à l’aponévrose.

Une hémostase soigneuse doit être faite à l’aide des pinces de Hälstedt et du bistouri électrique.
L’isthme est sectionné au bistouri électrique réglé en position d’électrocoagulation, là encore, strictement le long de la ligne blanche.
Les moignons de l’isthme sont chargés sur les Farabeuf et la glande et dans le même temps décollé au doigt pour dégager la trachée.
L’incision de la trachée se fait sous la forme d’un H horizontal :
 la branche supérieure du H est pratiquée au niveau du ligament inter annulaire sus-jacent,
 la branche inférieure, au niveau du ligament sous-jacent,
 le segment vertical est pratiqué par transfixion de l’anneau trachéal toujours le long de la ligne blanche.
Les Faraud sont alors remplacés par l’écarteur tripode et la canule de trachéotomie (canule armée à ballonnet avec embout destiné à la ventilation assistée) est introduite dans la trachée.

Ce temps opératoire est plus ou moins délicat selon que l’intervention se déroule sous anesthésie générale ou sous anesthésie locale :
 sous anesthésie locale, l’introduction se fait sans problème,
 sous anesthésie générale, le malade est intubé et la sonde d’intubation constitue un obstacle à l’introduction de la canule d’une part, d’autre part, l’effraction de la trachée rend la ventilation assistée inefficace - il faudra donc une collaboration étroite entre l’opérateur et l’anesthésiste, l’un introduisant la canule et gonflant rapidement le ballonnet pendant que l’autre extube le malade et réadapte le respirateur à l’orifice de la canule.

Le dernier temps de l’intervention consiste à réduire l’incision par un point cutané de part et d’autre de la canule et à fixer cette dernière par un cordonnet, non sans avoir glissé une compresse métalline prévue à cet effet sous les ailettes de la canule.
On constate que pour cette technique, tous les temps opératoires sont contrôlés par la vue.

3) La technique d’extrême urgence :

L’exposé qui va suivre n’a fait l’objet, à la connaissance de l’auteur, d’aucun article ni d’aucune systématisation dans un traité de chirurgie.
Ceci représente donc la communication de faits d’expérience et de pratique sur le terrain.
La systématisation proposée est le fruit de la compilation des interventions pratiquées par lui en extrême urgence en pré-hospitalier et de la confrontation de sa pratique opératoire réglée ainsi que de sa connaissance anatomique de la région.

a) les conditions de l’indication :

Seule l’impossibilité totale de l’accès à la glotte et donc l’impossibilité absolue de l’intubation, dans un contexte de mort imminente, peut légitimer la décision de la prise du risque de pratiquer une trachéotomie dans les conditions précaires rencontrées en pré-hospitalier.

Cette situation est exceptionnelle - elle s’est présentée trois fois en 26 ans dans la carrière de l’auteur.

Quand la décision est prise et que l’action est entamée, quoiqu’il puisse arriver, elle doit être menée à son terme, c’est à dire à l’introduction d’une canule (ou, à défaut, d’une sonde d’intubation) dans la trachée, en particulier si un saignement important ou ressenti comme tel, se produit.

b) instrumentation :

Elle est réduite à sa plus simple expression.
Il n’est pas question ici de compter sur un aide opératoire - tout au plus, un ambulancier ou un pompier pourra passer le matériel et tiendra l’aspirateur.
Il faudra préparer avant de commencer, à portée de la main :
 un nombre important de compresses,
 un bistouri jetable, lame 21,
 une aspiration de gros calibre (le tuyau d’aspiration sans sonde, est parfois nécessaire lors de forts saignements),
 une paire de gants stériles.

c) l’intervention :

L’incision sera pratiquée environ 1 cm au-dessous de celle qui est faite lors d’une trachéotomie réglée, après la palpation de la thyroïde afin de s’assurer d’être sous-isthmique.
Elle se pratiquera, comme précédemment, d’un sterno-cléïdo-mastoïdien à l’autre et sera de même strictement cutanée.
Par contre, l’incision de la graisse, si elle se fait toujours verticalement sur la ligne médiane, est accompagnée par le doigt, recouvert d’une compresse, qui fait office de guide et de décolleur.
A la palpation du plan aponévrotique, l’incision doit se faire le plus précisément possible, le plus bas possible et surtout le plus médian possible. Le doigt complètera l’ouverture vers le haut en la dilacérant et en refoulant l’isthme vers le haut. C’est à ce moment que l’hémorragie est à craindre, en effet, on peut blesser le tronc veineux thyroïdien.
Le doigt repère l’anneau trachéal à ouvrir. L’incision verticale se pratiquera en premier, les deux horizontales ensuite, en commençant par l’incision inférieure.
Dès l’ouverture complète, le doigt restant en place, on glisse la canule ou la sonde d’intubation jusqu’à l’orifice où on l’introduit.
Le ballonnet doit être gonflé le plus rapidement possible pour pratiquer une aspiration bronchique minutieuse (qui ramènera constamment du sang).
En fonction de l’hémorragie, on fera ou non un pansement semi-compressif au niveau de la plaie opératoire et on fixera solidement la canule ou la sonde (à l’aide d’un fixe sonde pour cette dernière).

4) Techniques alternatives et comparaisons avec la trachéotomie :

Toutes ces techniques ont en commun de passer au travers de la membrane crico-thyroïdienne.

a) mise en place d’un cathlon de gros calibre
 avantages : - méthode peu traumatique pour les plans sous cutanés y compris pour la thyroïde (pyramide de Lahlouette),
 facilité du geste.
 inconvénient : - l’apport en oxygène est faible et ne permet pas de délai prolongé, cependant, cette méthode, mise au point au Vietnam, a permis de sauver la vie d’un certain nombre de soldats.

b) dispositifs de cathétérisation percutanés trans-crico-thyroïdiens :
 avantages :
 lorsque la glotte est complètement obstruée, apport massif d’oxygène par rapport à la méthode précédente ainsi que la possibilité d’une ventilation assistée.
 inconvénients :
 impossibilité de ventilation assistée si la glotte est encore perméable,
 traumatique, surtout pour l’œsophage qui, s’il est lésé, donnera une fistule oeso-trachéal,
 risque, mineur, mais non nul, d’emphysème rétro œsophagien et des tissus conjonctifs du cou jusqu’au médiastin compris,
 potentiellement traumatique pour l’appareil vocal.

Par ailleurs, ces méthodes, passent toutes par la voie trans-crico-thyroïdienne, ont en commun l’inconvénient d’être le plus souvent inopérante en cas l’obstacles sous glottiques. En effet, dans ce cas, l’obstacle peut se situer plus bas que l’émergence de l’appareil dans la trachée.
Dans tous les autres cas, elles sont à discuter versus la trachéotomie vraie.
Deux principes sont à considérer cependant :
 seule la trachéotomie vraie, même en urgence, peut se contrôler par la vue au moment de l’extraction de la trachée,
 la méthode la meilleure, quand on est confronté à l’inconnu, est celle qu’on croit posséder le mieux.

Conclusion :

La trachéotomie est un acte chirurgical et, comme tel, ne devrait pas sortir du bloc opératoire et encore moins, bien sûr, de l’hôpital.
Pour opérer en toute sécurité et en toute élégance, du temps, du matériel, de l’aide, et une structure tutélaire et bienveillante sont, nous l’avons vu, nécessaires.

Il arrive cependant dans la carrière d’un urgentiste, en dehors de ce cocon douillet, dans la tourmente de l’extérieur, qu’il ait à décider si un obstacle mécanique - en fait un rien - puisse avoir raison de la vie de quelqu’un dont il a la charge et qui, par un geste qui doit rester une “curiosité”, un épiphénomène, une “histoire de chasse”, retrouverait, dans la seconde, son intégrité, ou bien de voir mourir son patient sans avoir rien tenté, avec la conscience de ne pas avoir été iatrogène et donc de ne pas risquer d’avoir maille à partir avec la justice.

Il va sans dire que les collègues qui auraient des problèmes à l’intubation, même s’ils sont doués en chirurgie, doivent oublier cet article, s’ils l’ont lu, et vite retourner au bloc opératoire pour apprendre à... intuber.

Dr D ROULAND.

La cricothyroïdotomie

La cricothyroïdotomie est une technique chirurgicale utilisée en sauvetage, donnant un accès rapide à la trachée et permettant ainsi d’assurer une ventilation efficace. C’est une technique alternative à la laryngoscopie directe dans le contexte de l’intubation difficile ou impossible en urgence.

Elle diffère de la technique de la trachéotomie par la voie d’abord : c’est la membrane cricothyroïdienne qui est incisée, et non la membrane située entre deux anneaux trachéaux. Le repère anatomique permettant de repérer cette membrane est la première dépression juste sous la pomme d’Adam.

Il existe deux techniques :

  • la technique chirurgicale proprement dite
  • la technique de Seldinger qui consiste à ponctionner la membrane, puis à insérer un guide dans la trachée qui va permettre la descente d’une sonde sans ballonnet.
La localisation d’abord est la membrane cricothyroïdienne (middle cricothyroide ligament), entre les cartilages thyroïde et cricoïde.

L’intubation rétrograde, évoquée dans l’article sur l’intubation difficile, est une technique simple mais qui doit être réalisée dans des circonstances particulières. Elle ne constitue pas une technique utilisable en routine.

ponction inter cricothyroïdienne
intubation rétrograde
Gestion de l’intubation, de l’extubation et de ses complications
Comment choisir une sonde d’intubation en réanimation
sonde d’intubation endobronchique sélective. fiche de bon usage
La ventilation unipulmonaire (Henri Rossi, Olivier Cantini, Gerard Janvier)
Anesthésie en chirurgie thoracique (Dan Thomas IADE)
Guide des sondes (document Portex)

NDLR : La pression du ballonnet est un “dada” des étudiants en anesthésie. Outre le contrôle à la seringue, en laissant revenir le piston naturellement, ou le contrôle avec le manomètre de pression, il existe un petit truc qui permet de s’affranchir définitivement de la contrainte que peut représenter cette vérification régulière, si vous introduisez du protoxyde d’azote.

Après intubation, raccorder le patient au respirateur et mettre d’emblée en circuit fermé. (La couche d’ozone vous en saura gré.) Puis au bout de 10 minutes, le temps que les concentrations s’équilibrent, dégonfler le ballonnet complètement, (l’équipe chirurgicale ne sera pas prête, et le patient ne risque pas d’être déjà en position de Trendelenbourg) prélever au niveau du filtre 10 ml de mélange gazeux et le réinjecter dans le ballonnet de la sonde d’intubation. Vérifier la pression de gonflage au manomètre, ajuster aux normes. La pression du ballonnet étant égale à celle du mélange donné, le gaz ne diffusera plus dans le ballonnet.

30 ans d’expérience valident ce "truc" de IADE qui prend 5 secondes dans le pire des cas. ( Arnaud BASSEZ)

A donf !

Oxygène

L’oxygène n’est pas une invention au sens de l’innovation, mais au sens de la découverte de son existence par Joseph Priestley en 1774.
Cependant, Carl Wilhelm Scheele semble être le premier découvreur de l’oxygène, en 1772, mais ses travaux consignés dans son seul ouvrage, Chemische Abhandlung von der Luft und dem Feuer (Traité chimique de l’air et du feu), ne seront publiés qu’en 1777, lui ôtant cette paternité apparemment indiscutable.

Joseph Priestley est né à Birstall Fieldhead, situé près de Leeds en Grande-Bretagne, le 13 mars 1733. Très tôt, il démontra des talents pour la science et le langage. Joseph reçut une éducation de la Bately Grammar School en 1752 et en 1755, il y gradua. Toujours dans la même année (1755), Joseph Priestley fut nommé prédicateur (personne qui prêche) à Needham Market, dans le Suffolk. À Nantwich, il enseigna la physique et la chimie à des enfants. En 1766, Joseph rencontra Benjamin Franklin qui l’encouragea à publier son livre Histoire de l’électricité, car Joseph découvrit entre autre que le charbon de bois conduit l’électricité. En 1767, il devint pasteur à Leeds, dans le Yorkshire. C’est à cet endroit qu’il commença à s’intéresser à la recherche sur les gaz.

En 1772, il fut élu à l’Académie des sciences et publia ses Observations sur différentes espèces d’air. Il put isoler un grand nombre de gaz, dont l’ammoniac, l’oxyde d’azote, le dioxyde de soufre et le monoxyde de carbone. C’est en 1774 que Joseph Priestley fit sa principale découverte, celle de l’oxygène. Pour la deuxième fois, il sera nommé pasteur, mais cette fois à Birmingham, en 1780. D’abord, il était calviniste, ensuite il a décidé de devenir unitaire ou socinien. Le calvinisme est une doctrine religieuse issue de la pensée de Calvin, la pensée unitaire et le socinianisme est une doctrine du réformateur italien Socin.

En 1782, il publia son livre Histoire des corruptions du christianisme. Ce traité fut brûlé en 1791 tout comme sa maison et ses biens à cause de son soutien ouvert à la Révolution française. Il émigra aux États-Unis en 1794 et il continua d’écrire jusqu’à sa mort en 1804, à l’âge de 71 ans. Ses écrits ont été rassemblés après sa mort et sont intitulés Œuvres théologiques et diverses ainsi que Mémoires et correspondance qui couvrent beaucoup de sujets dans les domaines de la politique, de la religion et de la science.

Bien que Joseph Priestley eut isolé plusieurs gaz, sa principale découverte fut celle de l’oxygène qu’il isola en 1774. Le nom donné à ce nouveau gaz par Priestley fut air déphlogistiqué en raison de l’époque où il vécut et de la théorie du phlogistique qu’il prônait. La phlogistique est un fluide imaginé par les anciens chimistes pour expliquer la combustion. Aussi, il comprit le rôle de ce gaz dans la combustion. Le nom oxygène fut donné par Antoine Lavoisier. Joseph Priestley ne se doutait pas de l’importance de sa découverte, car il ne pouvait pas savoir à son époque que l’oxygène est l’élément gazeux le plus abondant sur la Terre.

L’air comprend environ 21 % de volume d’oxygène. Avec ses éléments, ce gaz compose 49,2 % du poids de la croûte terrestre. L’oxygène est un élément essentiel dans presque toutes les combustions. Il est très réactif et est capable de se combiner avec la plupart des éléments, en particulier avec l’hydrogène ; l’eau en est le résultat. Il est un constituant de plusieurs composés organiques et aussi minéraux. Dans la nature, il est impossible de trouver un atome d’oxygène seul. Ce sont plutôt des molécules de dioxygène que l’on retrouve.

L’oxygène est le troisième élément le plus abondant que l’on puisse trouver dans le Soleil et c’est aussi un gaz vital pour respirer, bien sûr, mais aussi pour nous protéger contre les rayons ultraviolets du Soleil. C’est un constituant vital de tous les humains, animaux et plantes.

Joseph Priestley obtint de l’oxygène en décomposant de la chaux de mercure (ou oxyde HgO) au Soleil avec une lentille, le 1er août 1774. Aujourd’hui, les méthodes pour obtenir de l’oxygène ont bien changé ; on procède entre autre par l’électrolyse de l’eau.

Priestley a pu discuter avec d’autres chercheurs et chimistes sur ses découvertes. Entre autre, il a pu échanger avec ses collègues Matthew Boulton, James Keir, James Watt, William Withering et Eramus Darwin, qu’il rencontrait mensuellement dans un groupe très reconnu au Lunar Society.

Le Lunar society était un lieu de discussions où l’on cherchait à changer la façon de voir l’Angleterre socialement, matériellement et aussi culturellement en discutant de sciences pures et appliquées. Lors de ces rencontres, Joseph Priestley a pu partager des données et des échantillons avec Claude Louis Berthollet, Joseph Banks, Richard Kirwan, Peter Woulfe, et Karl Scheele.

Malgré que Priestley resta opposé aux théories de Lavoisier tout au long de sa carrière, en octobre 1774, Priestley rencontra Lavoisier et ils ont pu discuter de l’air déphlogistiqué et phlogistiqué. Antoine Lavoisier répéta les expériences pour confirmer ce que Priestley avait découvert. Il s’associa aussi avec Henry Cavendish pour montrer que l’eau est un corps composé.

Mais, toutes ces expériences chimiques dans les caves du château ne sont pas du goût de ses concitoyens qui l’accuse rapidement de sorcellerie. Il meurt à l’age de 71 ans, sans avoir pu appliquer les vertus anesthésiques chez l’homme de son autre découverte, celle du protoxyde d’azote.

Comment administrer l’oxygène en ventilation spontanée (Pr Levraut)

le stylo

Dès l’an 1000 de notre ère, on raconte qu’un calife exprimait le désir de voir fabriquer "une plume qui écrirait sans qu’un encrier soit nécessaire"... Dès son désir exprimé, il fut exaucé. Un habile artisan lui offrit un stylo d’or massif : le premier stylo à plume ? Nous n’en savons guère plus sur la technique utilisée par l’artisan.

L’idée du stylo remonterait aux Égyptiens ou aux Romains, qui savaient rouler des feuilles de bronze pour réaliser des calames de forme conique. A l’origine, réalisé dans un fût de roseau, le calame est en fait l’ancêtre du porte-plume. La plume proprement dite étant taillée directement au bout de la tige. On remarque dans la représentation des scribes de cette époque qu’ils plongeaient leur outil à écrire dans des sortes d’encriers fixés ou posés sur leur tablette de travail.

Le stylo à plume sera le fruit des efforts de bricoleurs de génie qui mirent en application des règles relativement élémentaires de la conduction du liquide par capillarité afin d’obtenir qu’une petite quantité d’encre coule lentement sur la plume au fur et à mesure que celle-ci avance sur le papier. Dans l’Encyclopédie de Diderot et d’Alembert, il est déjà fait mention d’une sorte de plume comportant une petite réserve d’encre, mais les auteurs ne s’étaient pas laissé abuser et déclaraient sans ambages qu’il s’agissait d’un "mauvais instrument" !

D’autres auteurs évoquèrent ce que nous appelons aujourd’hui le stylo à plume. L’un des plus anciens dont on ait gardé la trace remonte au XVIIIe siècle. Le premier brevet connu est déposé en 1702 par le français M. Bion fournisseur du roi de France. Aux Etats-Unis, c’est un fabriquant de chaussures du nom de Peregrin Williamson qui développe un système similaire, en 1809

 Le stylo à plume

 Lewis Edson Waterman

Tout commence par la mésaventure d’un courtier en assurances, vers 1880. Alors qu’il se préparait à faire signer un contrat très important à l’aide d’un porte-plume réservoir, Le jour de la signature, le dit stylo refuse de fonctionner et de l’encre éclabousse entièrement le document .Waterman à tout juste le temps de chercher un nouveau contrat que son client a conclu un accord avec un concurrent. Décidé à ne plus jamais se faire humilier de la sorte, Waterman commence à réfléchir à un nouveau type de stylo à plume, auquel on pourrait se fier. Il exploite pour cela un phénomène physique très simple : en creusant un petit trou dans la plume, l’encre peut s’écouler d’une manière fluide à travers le tube. Il dépose son brevet en 1884 et commence à vendre son invention derrière une boutique de cigares. Ses stylos sont garantis cinq ans.

Si les premières tentatives n’apportèrent que peu d’amélioration, il réussit après de nombreuses modifications à obtenir un modèle cylindrique constitué d’un canal de section carrée et de fines rayures situées sur le fond. Il déposa son brevet le 12 février 1884, date qui est reconnue aujourd’hui comme celle de la naissance du stylo. Ce brevet est à l’origine de la conception des conduits capillaires que l’on retrouve encore aujourd’hui sur tous les stylos à plume. Si Waterman utilisa personnellement son premier stylo pour améliorer ses performances d’assureur, il découvrit rapidement que collègues et clients voulaient aussi posséder son invention.

L’industrie du stylo allait naître.

Celle-ci commença par quelques bricolages sur une table de cuisine, qui permirent tout de même à 200 stylos en ébonite de voir le jour la première année. Puis sa production monta à 500 la deuxième année, et grâce à la publicité, les commandes dépassèrent toutes les espérances les années suivantes. La marque Waterman venait de prendre son envol.

Après plusieurs décennies de profits, le déclin s’amorça dans les années 50. L’année 1954 sera fatidique pour Waterman aux Etats-Unis. Le nom sera préservé en France par Jif-Waterman qui deviendra définitivement Waterman S.A. en 1971 en rachetant la marque américaine.
Waterman est devenu depuis le deuxième fabricant mondial.

 George Parker

George Parker connut la vocation alors qu’il était professeur de télégraphie aux Etats-Unis, en vendant des stylos John Holland à ses élèves. George Parker, qui se devait d’assurer le service après-vente, se trouva confronté au problème du flux d’encre s’arrêtant dès que l’air prenait la direction du réservoir. L’homme se mit au travail, et à l’aide d’un tour, d’une minuscule foreuse et d’une scie, fabriqua le prototype d’un stylo suffisamment stable pour ne plus avoir besoin de révisions à l’atelier. Il déposa son premier brevet en 1889. Une fois de plus il sera question d’un agent d’assurance entreprenant. Un nommé W.F. Palmer avec qui il réussit à mettre sur pied la Parker Pen Company.

Les premières années, ils déposèrent plusieurs brevets et furent à l’origine de nombreuses innovations technologiques. Les deux fils Parker prirent la succession de leur père qui mourut cinq ans après la disparition de son fils aîné Russell en 1932. Kenneth, le cadet, fut à l’origine de quelques grandes idées comme le Parker 51 pour lequel il travailla avec le designer d’inspiration Bauhaus, Moholy-Nagy.
Depuis 1986 Parker est devenu une marque anglaise.

 Walter Sheaffer

Walter A. Sheaffer est bijoutier à Fort Madison au début du XXe siècle dans l’Iowa.. Il vend des montres aux fermiers locaux et de temps en temps quelques stylos. A l’époque, ceux-ci sont munis d’un réservoir se remplissant par un système de bague amovible compressant un tuyau en caoutchouc. Walter Sheaffer eut l’idée de remplacer cet accessoire inesthétique par un levier que l’on rabattait dans le corps du stylo, ce qui le rendait presque invisible. Et surtout, on ne risquait plus de faire couler l’encre en appuyant par mégarde sur le caoutchouc. A son tour, cet artiste ingénieux se lança dans l’aventure commerciale du stylo et, en 1913 Walter Sheaffer créa sa société.

En 1919, le Traité de Versailles, mettant fin à la première guerre mondiale et signant la capitulation de l’Allemagne, est signé avec un stylo Waterman.

 Le stylo à bille

Même si certains situent l’origine du stylo à bille dans les travaux de Galilée, qui remontent au XVII ème siècle, le plus ancien document fiable date du XIX ème siècle, et concerne un produit qui servait à marquer le cuir. Cependant, c’est en 1938 que la première demande de brevet pour le stylo à bille moderne a été déposée.

Le journaliste hongrois László József Biró (Budapest, 1899 - Buenos Aires 1985), inventeur prolifique, avait observé la rapidité avec laquelle l’encre sèche sur un document imprimé. Cette observation a fait naître en lui l’idée d’améliorer les stylographes de l’époque pour les transformer à un produit « tout terrain », plus pratique.

Après avoir fait plusieurs essais, en employant de l’encre à séchage rapide utilisée pour l’impression des journaux, il est arrivé au stylo à bille moderne, qui combinait une encre de texture spéciale (qui évitait le dégouttement) située dans un espace fermé hermétiquement (de manière à ce que l’encre située à l’intérieur ne sèche pas), avec un accessoire tout aussi simple que génial : une petite bille rotatrice située à l’extrémité du stylo, qui permettait à l’encre de couler selon la pression de la bille sur le papier. Biro en eu l’idée en voyant des enfants jouer aux billes dans une flaque d’eau sale d’un caniveau, laissent des traînées noires derrière elles. Le stylo ne fait pas de tache d’encre, ne se remplit pas et ne nécessite pas de buvard.
De plus, il résout le problème de l’écriture des pilotes volant à haute altitude.

C’est ainsi que les stylos à bille ont vu le jour en 1938.

Réfugié en Argentine, José Ladislav Biro dépose un brevet en 1943 et crée avec son frère la société des stylos Biro. Il commercialise son invention sous le nom de Birome (resté en usage dans ce pays).

En 1943, Biró dépose le brevet pour une version améliorée du produit. Même si l’inventeur n’a jamais douté du succès de son instrument, le prix des premiers stylos à bille était très élevé en raison de la difficulté de fabrication.

Tandis qu’aux États-Unis les premiers stylos billes ont été vendus par Reynold’s à partir d’octobre 1945, en Europe Biro a cédé son brevet au français Marcel Bich.

Ce dernier améliore le stylo à bille en le dotant d’une bille d’un millimètre de diamètre en acier inoxydable qui tourne enfin rond et permet une écriture facile.
Il décide également de produire des stylos en grandes quantités pour réduire les coûts et proposer une pointe-bille jetable à 50 centimes.

En 1952, il lance le fameux modèle "Cristal" qui permet de suivre le niveau d’encre grâce au tube en plastique transparent. Ce modèle, dont la couleur du capuchon annonce la couleur de l’encre, a été vendu à plus de 100 milliards d’exemplaires à travers le monde.

Le thermomètre

Les premiers écrits sur la température remontent au médecin grec Galien (129 130-200 ans après J.C.) qui se fondait sur les idées du savant grec Aristote (384-322 ans avant J.C.).

L’invention du thermomètre est attribuée à Galilée en 1592 qui réalisa un thermoscope à eau . Puis vers 1610 il remplace l’eau par du vin. Ce thermoscope est dépendant de la pression atmosphérique.

Quelques années plus tard Santorio de Padoue et Gianfrancesco Sagredo continuent les travaux de Galilée et introduisent une échelle numérique.

Il semble que pour la première fois en 1632 un physicien français, Jean Rey, utilisa un liquide plutôt que de l’air dans un thermomètre en verre dont l’extrémité était ouverte et qui contenait de l’eau.

Le premier thermomètre tel que nous le connaissons serait l’œuvre de Ferdinand II, grand duc de Toscane. Il s’agissait d’un thermomètre à alcool en verre scellé construit vraisemblablement vers 1641qui présentait 50 graduations mais qui ne possédait pas de référence.

Pendant la seconde moitié du 17ème siècle, Robert Boyle (1627-1691), physicien et chimiste anglais, proposa d’adopter comme température de référence (point fixe) le point de fusion de la glace.

Dans les archives de l’Académie de Florence de 1657 on trouve traces d’expériences faites sur les thermomètres à mercure. Les académiciens conclurent que les thermomètres à alcool étaient plus commodes.

En 1664, Robert Hook fabrique un thermomètre à alcool contenant un colorant rouge. Avec son échelle, chaque degré représentait un ajout d’alcool correspondant à 1/500ème du volume de liquide total. Seulement un seul point de référence (point de congélation de l’eau) était nécessaire. Ce thermomètre fut utilisé par la société royale jusqu’en 1709.

Renaldini en 1694 imagina comme points fixes les points de congélation et d’ébullition de l’eau.

En 1702 Ole Roemer base son échelle sur 2 points fixes température de congélation et d’ébullition de l’eau. Fahrenheit s’en est inspiré par la suite.

Daniel Grabriel Fahrenheit, physicien Prussien (1686-1736), construisit en 1714 des thermomètres à mercure divisés en 180 intervalles égaux auxquels il attribua 32 au point de fusion de la glace et 212 au point d’ébullition de l’eau. Il montre que la température d’ébullition de l’eau est fonction de l’altitude.

René-Antoine Ferchault de Réaumur, physicien et naturaliste français, adopta quelques années plus tard les mêmes points fixes, mais ils reçurent les valeurs 0 et 80.

Anders Celsius (1701 1744) proposa en 1742 la division centésimale de ce même intervalle. Il montre que la température de congélation de l’eau n’est pas fonction de la latitude. Il fixe la température de congélation de l’eau à 100 C et celle d’ébullition à 0.

En 1745, Carolus Linnaeus (Suède) ou Daniel Ekström inversent l’échelle de Celsius ainsi le point de congélation de l’eau est à 0 et la température d’ébullition à 100C

En 1780, Charles, montre que pour une même augmentation de température, le volume de tous les gaz augmente de manière identique

1780 : les premiers thermomètres de précision sont construits pour Lavoisier par Mossy et Fortin.

James Six invente le thermomètre à maxima et minima

Jusque vers a fin du XVIII ème siècle, large utilisation de l’esprit de vin d’une manipulation plus facile, prix moindre que le mercure mais composition différente suivant la provenance. Les propriétés du mélange eau/alcool sont mal connues.

Existence de plusieurs règles d’étalonnage et donc pas d’unification. Les points fixes sont différents :
 Mélange glace/sel, glace/eau,
 point de congélation de l’huile essentielle d’anis,
 température des caves de l’observatoire de Paris,
 point de fusion du beurre, de la cire,
 température du corps humain, température interne des animaux, plus haute température des jours d’été en Italie, Syrie, Sénégal, plus haute température des rayons du soleil, point d’ébullition de l’eau.

Outre les thermomètres de Fahrenheit (très présent en Allemagne Angleterre Hollande) et celui de Réaumur (France) , on trouve les thermomètres de l’académie de Florence, les thermomètres de Boyle, d’Admontons, de Newton, de La Hire, de de L’Isle, de Michaelly…

Références :

Maurice DUMAS 1953 Les instruments scientifiques aux XVII et XVIII siècles PUF

Fahrenheit 1724 Philosophical Transactions

SINGER, Charles, 1959 A short history of scientific ideas to 1900

Tim McGrew Dept. of Philosophy Washington State University mcgrew@jaguar.csc.wsu.edu

Zeno G Swijtink History and Philosophy of Science Indiana University swijtin@indiana.edu

Les rayons X

Wilhelm Conrad Röntgen est celui qui a découvert les rayons X en 1895. Fils d’un commerçant en textile, il naquit à Lennep en Rhénanie (Allemagne) en 1845. Röntgen vécut pendant son enfance et son adolescence en Hollande, pays natal de sa mère. Il fit ses études en ingénierie mécanique à l’école Polytechnique fédérale de Zurich, en Suisse. Il obtint son diplôme en 1868. L’année suivante, il obtint un doctorat. C’est aussi à Zurich qu’il fit la rencontre de celle qui deviendra sa femme, Bertha. Röntgen poursuivit ses études de physique à Würzburg.

En 1872, il fut nommé professeur à l’Université de Strasbourg et en 1879, à l’Université de Giessen. En 1888, sa renommée étant faite, il fut nommé à la tête de l’Institut de physique de l’Université de Würzburg.

Le 28 décembre 1895, Röntgen publie une communication provisoire intitulée "À propos d’une nouvelle sorte de rayons" dans le bulletin de la Société physico-chimique de Würzburg. Ce travail lui vaudra le tout premier prix Nobel de physique en 1901.

À cette époque, tous les grands physiciens se passionnent pour les propriétés des rayons cathodiques découverts par Hittorf et étudiés par Crookes. Röntgen n’est pas une exception. En novembre 1895, il commence une série d’expériences qui ont pour but d’étudier la pénétration des rayons cathodiques dans le verre. Pour ne pas être dérangé par la lumière émise par le tube cathodique, il le recouvre de papier noir opaque.

Le 8 novembre 1895, Röntgen branche la haute tension. C’est alors qu’il observe qu’un écran en carton recouvert de platinocyanure de baryum, situé près du tube à rayons cathodiques, devient fluorescent. Le phénomène arrête dès que le courant est coupé. Röntgen refait l’expérience en reculant l’écran de plusieurs centimètres. Le même phénomène se produit de nouveau. Röntgen en déduit donc que cet effet ne peut pas être dû aux rayons cathodiques eux-mêmes. Il poursuit son expérience en interposant divers objets entre le tube cathodique et l’écran fluorescent : une feuille de papier, de carton, d’aluminium, du bois, du verre...

Il constate que la fluorescence persiste mais une mince feuille de plomb ou de platine fait disparaître complètement cette fluorescence. De plus, les plaques photographiques sont impressionnées. Ne sachant comment baptiser ces rayons invisibles et pénétrants, Röntgen les nomme "rayons X", du nom de l’inconnu algébrique habituel. Le physicien continue ses recherches en vue de découvrir les propriétés et la nature de ces rayons.

Il tire quatre conclusions :

- Les rayons X sont absorbés par la matière ; leur absorption est en fonction de la masse atomique des atomes absorbants.

- Les rayons X sont diffusés par la matière ; c’est le rayonnement de fluorescence.

- Les rayons X impressionnent la plaque photographique.

- Les rayons X déchargent les corps chargés électriquement.

La découverte de Röntgen donna naissance à la radiologie. La première radiographie réalisée fut celle de la main de Madame Röntgen, munie de son alliance.

Röntgen laissa son nom à l’unité de mesure utilisée en radiologie pour évaluer une exposition aux rayonnements. Le symbole des Röntgen est R.
Il a été supplanté par le coulomb par kilogramme (C/kg).

La découverte de Röntgen fit rapidement le tour de la terre. En 1897, Antoine Béclère, pédiatre et clinicien réputé, créa, à ses frais, le premier Laboratoire Hospitalier de Radiologie. Tout le monde voulait faire photographier son squelette. Mais pendant longtemps, les doses étaient trop fortes. Par exemple, Henri Simon, photographe amateur, a laissé sa vie au service de la radiologie. Chargé de prendre les radiographies, les symptômes dus aux radiations ionisantes apparurent après seulement deux ans de pratique. On lui amputa d’abord la main (qui était constamment en contact avec l’écran fluorescent) mais ensuite, un cancer généralisé se déclara.

Sa découverte changea le monde de la science. Cette nouvelle se répandit dans le monde à une vitesse incroyable. Plusieurs chercheurs voulurent reprendre les expériences de Röntgen. Ses travaux n’ont pas seulement été connus rapidement ; ils ont aussi été répétés avec une hâte inhabituelle dans le monde.

Désormais célèbre grâce à une découverte qui n’arrêtera plus d’évoluer, Wilhem Conrad Röntgen meurt le 10 février 1923. Il était alors presqu’aveugle.

Au début de la radiologie, les rayons X étaient utilisés à des fins multiples :
 dans les fêtes foraines où on exploitait le phénomène de fluorescence,
 dans les magasins où l’on étudiait l’adaptation d’une chaussure au pied des clients grâce au rayonnement
 on les utilisait pour la radiographie médicale. Encore là, on fit quelques erreurs, par exemple en radiographiant les femmes enceintes.

Avec les années, on diminua la durée des examens et les quantités administrées. Cent ans après leur découverte, on se sert encore des rayons X en radiographie moderne. Plusieurs autres techniques sont venues compléter les appareils des médecins : les ultrasons, l’imagerie par résonance magnétique nucléaire, la scintigraphie ou encore la tomographie par émission de positrons.

Le stéthoscope

L’invention du stéthoscope en 1816 est due à un médecin français, René Laennec mais il ne consistait qu’en une simple liasse de papier. Arrivant chez une patiente très belle et comme il était très pudique, Laennec hésita à faire cette auscultation. Il réfléchit, et se remémora une scène vue le matin même dans le jardin du Louvre, où des enfants jouaient avec un tronc d’arbre creux. Pendant que l’un grattait et tapait sur le tronc d’arbre, l’autre collait son oreille sur l’un des trous pour écouter le bruit amplifié par la forme creuse du tronc. Le docteur Laennec demanda un cahier, le forma en rouleau et appliqua une des extrémités sur la poitrine de la jeune malade.

Il fût aussitôt surpris d’entendre fort distinctement les battements du cœur.

Il conçut à l’instant l’utilité et le côté pratique de la méthode, non seulement pour l’étude des bruits produits par le muscle cardiaque mais encore tous ceux des divers mouvements dans la cavité de la poitrine et par conséquent l’exploration de la respiration, de la voix, du râle et, et pourquoi pas des fluctuations d’un liquide épanché dans les plèvres ou le péricarde.

L’auscultation médiate est née.

Au fil du temps, il améliore sa méthode et son cylindre, d’abord en collant et en limant le rouleau de papier, puis en utilisant un cylindre de bois.

En peu de temps, il mit au point un instrument qu’il appela " stéthoscope " (du grec stêthos (στῆθος), "poitrine", et scope du grec ancien "skopein" (σκοπεϊν), « observer »).
Il multiplia les expériences à l’hôpital Necker s’attaquant à toute la pathologie pulmonaire.

En juillet 1817, le rouleau de papier ficelé, puis collé, est remplacé par un rouleau d’un pied de longueur et formé de trois cahiers. Rapidement ce rouleau est abandonné au profit d’un cylindre plein, puis d’un creux, en l’occurrence un vieux hautbois dont il modifia successivement la longueur, la largeur, l’épaisseur, même le diamètre du canal central. Il essaya plusieurs matériaux. Finalement, il opta pour le hêtre.

Vers le début de l’année 1818, il nomma son instrument stéthoscope.

Le 15 août 1819, publication de livre "De l’auscultation médiate, ou Traité des diagnostics des maladies des poumons et du cœur fondé principalement sur ce nouveau moyen d’exploration". Il s’agissait là des bases d’une nouvelle médecine.

L’usage du stéthoscope fut introduit et diffusé en Grande-Bretagne dès 1825 par Stokes, et répandit très rapidement dans l’ensemble du monde.
Le modèle bi-auriculaire arriva en 1851 puis le stéthoscope moderne comprenant un double pavillon réversible en 1961.

L’ère moderne intervient dans la conception des stéthoscopes avec l’introduction de l’électronique qui permet une amplification sonore jusqu’à 24 fois.
La technologie Bluetooth permettant de transmettre en temps réel les sons cardiaques et pulmonaires sur un ordinateur et permet d’enregistrer les sons avec le stéthoscope, les réécouter, les visualiser sous forme graphique, les stocker, les envoyer pour avis.

Sans doute utile dans le préhospitalier.

L’oeuvre novatrice de Laennec ( Etienne Subtil, la revue du praticien)

A présent, un stéthoscope « visuel » ViScope MD affiche un phono-cardiogramme sur un écran de haute résolution.

Histoire de l’électrocardiographie

Le nom de Einthoven reste intimement lié à l’histoire de l’électrocardiographie. Née en 1887 avec les travaux de Waller, celle-ci fait réellement son entrée dans le monde médical grâce au savant hollandais. En effet, en 190, il met au point son galvanomètre à cordes, un appareil - encore utilisé de nos jours - capable de mesurer les changements de potentiel électrique dus aux contractions du muscle cardiaque et de les enregistrer graphiquement. Un an plus tard, il publie le premier électrocardiogramme obtenu avec son nouveau galvanomètre.

Par la suite, Einthoven multipliera les enregistrements de cœurs sains et malades afin d’affiner la précision de son invention et de faire progresser la connaissance de cet organe vital. Ses recherches sur l’électrocardiogramme - dont il introduit le terme pour la première fois en 1893 - lui vaudront le prix Nobel de Médecine en 1924.

Willem Einthoven naît en 1860 à Samarang, sur l’île de Java, alors colonie hollandaise. Lorsque son père médecin décède, Willem n’a que dix ans. Sa mère, seule en charge désormais de six enfants, décide de retourner en Hollande, à Utrecht, où le garçon suit une scolarité sans histoire avant d’intégrer, en 1878, l’université de la ville. Sur les traces de son père, Einthoven s’inscrit en médecine. Il montre très vite des aptitudes exceptionnelles dans des domaines divers ; on le retrouve ainsi successivement dans les laboratoires de l’ophtalmologiste Snellen, de l’anatomiste Koster et du physiologiste Donders, qui supervise sa thèse de doctorat. En 1885, Einthoven devient professeur de physiologie de l’université de Leyde ; il le restera jusqu’à sa mort en 1927.

En savoir plus sur sa vie : Ces noms que l’on utilise.

 Historique

 1842 Le physicien italien Carlo Matteucci montre que chaque contraction du coeur s’accompagne d’un courant électrique. Matteucci C. Sur un phénomène physiologique produit par les muscles en contraction. Ann Chim Phys 1842 ; 6:339-341

 1843 Le physiologiste allemand Emil Dubois Reymond décrit un potentiel d’action accompagnant chaque contraction musculaire, confirmant les travaux de Matteucci.

 1856 Rudolph von Koelliker et Heinrich Muller enregistrent un potentiel d’action.

 1869-70 Alexander Muirhead de St Bartholomew’s Hospital à Londres aurait enregistré un électrocardiogramme humain, mais cela est discuté.

 1872 Le physicien français Gabriel Lippmann invente l’électromètre capillaire. C’est un tube de verre à colonne de mercure et d’acide sulfurique. Le niveau de mercure changeant avec le potentiel d’action est visible au microscope.

 1876 Marey utilise l’électromètre pour enregistrer l’activité électrique du coeur de grenouille. Marey EJ. Des variations électriques des muscles et du coeur en particulier étudiées au moyen de l’électromètre de M Lippman. Comptes Rendus Hebdomadaires des Séances de l’Académie des sciences 1876 ;82:975-977

 1878 Les physiologistes britanniques John Burden Sanderson et Frederick Page enregistrent le courant électrique cardiaque avec l ‘électromètre capillaire et montrent qu’il est composé de deux phases (plus tard appelées QRS et T). Burdon Sanderson J. Expérimental results relating to the rhythmical and excitatory motions of the ventricle of the frog. Proc R Soc Lond 1878 ;27:410-414

 1884 John Burden Sanderson et Frederick Page publient quelques-uns de ces enregistrements. Burdon Sanderson J, Page FJM. On the electrical phenomena of the excitatory process in the heart of the tortoise, as investigated photographically. J Physiol (London) 1884 ;4:327-338

 1887 Le physiologiste britannique Augustus D. Waller de St Mary’s Medical School, à Londres, publie le premier électrocardiogramme humain. Il est enregistré sur Thomas Goswell, un technicien du laboratoire. Waller AD. A demonstration on man of electromotive changes accompanying the heart’s beat. J Physiol (London) 1887 ;8:229-234

 1889 Le physiologiste allemand Willem Einthoven démontre sa technique au Premier Congrès International de Physiologie.

 1890 GJ Burch d’Oxford imagine une correction arithmétique pour les observations de fluctuation de l’électromètre. Celui-ci permet de voir le vrai tracé de l’électrocardiogramme, mais seulement après des calculs fatigants. Burch GJ. On a method of determining the value of rapid variations of a difference potential by means of a capillary electrometer. Proc R Soc Lond (Biol) 1890 ;48:89-93

 1891 Les physiologistes britanniques, William Bayliss et Edward Starling de l’University College de Londres, améliorent l’électromètre capillaire. Ils connectent le terminal au bras droit et sur le cuir chevelu et visualisent " une variation triphasique accompagnant chaque contraction cardiaque ". Ces déflexions seront appelées plus tard P, QRS, et T. Bayliss WM, Starling EH. On the electrical variations of the heart in man. Proc Phys Soc (14th November) in J Physiol (London) 1891 ;13 and also On the electromotive phenomena of the mammalian heart. Proc R Soc Lond 1892 ;50:211-214

Ils ont aussi mis en évidence un délai d’environ 0,13 sec entre la stimulation auriculaire et la dépolarisation ventriculaire (plus tard appelé l’intervalle PR). On the electromotive phenomena of the mammalian heart. Proc Phys Soc (21st March) in J Physiol (London) 1891 ;12:xx-xxi

 1893 Willem Einthoven introduit le terme ‘ électrocardiogramme ‘ à la Dutch Medical Association. (Plus tard il reconnaît que ce terme avait d’abord été utilisé par Waller). Einthoven W : Nieuwe methoden voor clinisch onderzoek [New methods for clinical investigation]. Ned T Geneesk 29 II : 263-286, 1893

 1895 Einthoven, utilisant un électromètre amélioré ainsi qu‘une formule de correction développée indépendamment par Burch, met en évidence cinq déflexions qu’il appelle P, Q, R, S and T. Einthoven W. Ueber die Form des menschlichen Electrocardiogramms. Arch f d Ges Physiol 1895 ;60:101-123

 1897 Clément Ader, un ingénieur français en électricité apporte son système d’amplification appelé galvanomètre, utilisé pour les lignes télégraphique sous-marines. Ader C. Sur un nouvel appareil enregistreur pour câbles sous-marins. C R Acad Sci (Paris) 1897 ;124:1440-1442

 1901 Einthoven modifie cet enregistreur pour produire des électrocardiogrammes. Son appareil pèse 600 livres. Einthoven W. Un nouveau galvanomètre. Arch Neerl Sc Ex Nat 1901 ;6:625-633

 1902
Einthoven publie le premier électrocardiogramme enregistré avec cet appareil. Einthoven W. Galvanometrische registratie van het menschilijk electrocardiogram. In : Herinneringsbundel Professor S. S. Rosenstein. Leiden : Eduard Ijdo, 1902:101-107

 1903
Einthoven négocie une production commerciale de son appareil avec Max Edelmann de Munich et avec Horace Darwin de la Cambridge Scientific Intstruments Company de Londres.

 1905
Einthoven commence à transmettre des électrocardiogrammes depuis l’hôpital vers son laboratoire à 1.5 Km par câble téléphonique. Le 22 mars, le premier ‘ Télécardiogramme ‘ est enregistré sur un homme.

 1906
Einthoven publie la première classification des électrocardiogrammes. Normaux et anormaux : Hypertrophies ventriculaires gauches et droites, Hypertrophies auriculaires gauches et droites, ondes U, éléments sur le QRS, contractions ventriculaires prématurées, bigéminisme ventriculaire, flutter auriculaire et bloc auriculo-ventriculaire complet. Einthoven W. Le telecardiogramme. Arch Int de Physiol 1906 ;4:132-164 (translated into English. Am Heart J 1957 ;53:602-615.

 1908
Edward Schafer de l’Université d’Edinbourg, est le premier à acheter un galvanomètre pour une utilisation médicale.

 1909
Thomas Lewis de l’University College Hospital de Londres, en achète un, ainsi qu’Alfred Cohn de l’hôpital du Mont Sinaï de New York.

 1910
Walter James, de Columbia University, et Horatio Williams de Cornell University Medical College, à New York, publient la première revue américaine d’électrocardiographie. Ils y décrivent les hypertrophies ventriculaires, les ectopies auriculaires et ventriculaires, les fibrillations auriculaires et ventriculaires. James WB, Williams HB. The electrocardiogram in clinical medicine. Am J Med Sci 1910 ;140:408-421, 644-669

 1911
Thomas Lewis publie le livre "The mechanism of the heart beat. London : Shaw & Sons" et le dédie à Einthoven.

 1912
Einthoven décrit un triangle équilatéral formé par les dérivations standards D1, D2, D3, appelé plus tard "triangle d’Einthoven". C’est aussi la première référence anglo-saxonne dans un article à l’abréviation E.K.G. ( E.C.G). Lancet 1912(1) ;853 et suivantes.

 1920
Hubert Mann du laboratoire de cardiologie de l’hôpital du Mont Sinaï de New York, décrit la dérivation d’un ’monocardiogramme’ plus tard appelé ’vectorcardiogramme’. Mann H. A method of analyzing the electrocardiogram. Arch Int Med 1920 ;25:283-294

 1920
Harold Ensign Bennet Pardee, New York, publie le premier électrocardiogramme d’infarctus du myocarde récent chez un humain et décrit l’onde T comme agrandie : "Elle commence d’un point élevé sur la déflexion de l’onde R". Pardee HEB. An electrocardiographic sign of coronary artery obstruction. Arch Int Med 1920 ;26:244-257. Il décrit par la suite les principales anomalies du segment ST et de l’onde T.

 1924
Willem Einthoven, prix Nobel pour l’invention de l’électrocardiographe.

 1928
Ernstine et Levine rapportent l’utilisation d’un nouveau procédé d’amplification mécanique pour l’enregistreur. Ernstine AC, Levine SA. A comparison of records taken with the Einthoven string galvanomter and the amplifier-type electrocardiograph. Am Heart J 1928 ;4:725-731

 1928
La compagnie de Frank Sanborn’s (plus tard achetée par Hewlett-Packard) modifie leur électrocardiographe en une première version portable de 50 livres et fonctionnant sur une batterie automobile de 6 volts.

 1932
Charles Wolferth et Francis Wood décrivent l’utilisation médicale des dérivations précordiales. Wolferth CC, Wood FC. The electrocardiographic diagnosis of coronary occlusion by the use of chest leads. Am J Med Sci 1932 ;183:30-35

 1938
L’American Heart Association et The Cardiac Society de Grande Bretagne définissent les positions standards des dérivations précordiales V1 - V6. Barnes AR, Pardee HEB, White PD. et al. Standardization of precordial leads. Am Heart J 1938 ;15:235-239

 1942
Emanuel Goldberger ajoute aux dérivations frontales d’Einthoven aVr, aVl, aVf. Ceci lui permet, avec les 6 dérivations précordiales V1 - V6, de réaliser le premier électrocardiogramme sur 12 voies, ce qui est toujours utilisé actuellement.

 Les dérivations d’un électrocardiogramme

Il existe deux types de dérivations :

Les dérivations frontales :

Ce sont "les dérivations des membres " : D1, D2, D3, aVR, aVL, et aVF
D1, D2, D3 sont des dérivations bipolaires qui traduisent

La différence de potentiel entre deux membres :

  • D1 : entre bras droit (pôle -) et bras gauche (pôle +)
  • D2 : entre bras droit (pôle -) et jambe gauche (pôle +)
  • D3 : entre bras gauche (pôle -) et jambe gauche (pôle +)

D1,D2, et D3 décrivent le triangle d’Einthoven.

aVR, aVL, et aVF sont des dérivations unipolaires et correspondent au membre avec lequel elles sont connectées soit respectivement le bras droit, le bras gauche, et la jambe gauche. C’est la théorie de Wilson et Golberger, où l’électrode exploratrice positive correspond au membre appliqué. Le voltage est alors amplifié (d’où le préfixe a) pour obtenir un tracé de même amplitude que D1, D2, D3.

L’ensemble des dérivations uni et bipolaires projetées
géométriquement représentent un double triaxe avec un centre schématique : le cœur.

On peut déjà apercevoir que les régions explorées par ces dérivations périphériques seront :

  • D1, aVL : paroi latérale du ventricule gauche
  • D2, D3, aVF : paroi inférieure
  • aVR : intérieur des cavités du cœur.

 Le triaxe des dérivations frontales

Les dérivations précordiales

Ce sont des dérivations unipolaires fixées en des points définis sur la paroi thoracique désignés par Wilson.

On les nomme pour les dérivations standards : V1 à V6 :

  • V1 est placée sur le 4ème espace intercostal droit, au bord droit du sternum.
  • V2 est placée sur le 4ème espace intercostal gauche, au bord gauche du sternum.
  • V4 est placée sur le 5ème espace intercostal gauche, sur la ligne médioclaviculaire.
  • V3 est placée entre V2 et V4.
  • V5 est placée sur le 5ème espace intercostal gauche, sur la ligne axillaire antérieure.
  • V6 est placée sur le 5ème espace intercostal gauche, sur la ligne axillaire moyenne.

Il est important de connaître l’angle de Louis qui est un relief osseux situé à l’intersection entre le manubrium en haut et le corps du sternum en bas.

Il réalise un angle convexe d’environ 15°, saillant, facilement palpable à deux doigts, très utile pour la bonne position des électrodes précordiales. En effet, l’angle de Louis offre latéralement deux facettes pour l’articulation des deuxièmes cotes, et donc les espaces sous ces cotes sont les deuxièmes espaces intercostaux.

NB. Les écoles d’infirmières n’enseignent pas cette méthode ce qui conduit souvent au mauvais positionnement des premières électrodes V1 et V2 (trop hautes) et décalent les suivantes.

Il est possible d’utiliser trois dérivations précordiales supplémentaires pour explorer la face postérieure du cœur :

  • V7 , V8, V9 qui sont à placer sur le 5ème espace intercostal gauche, respectivement sur la ligne axillaire postérieure, sur la ligne médioscapulaire, et sur la ligne scapulo-vertébrale.

De même que pour les dérivations frontales, il est possible d’apercevoir les régions explorées par ces dérivations :

  • V1 et V2 : les parois ventriculaires droite et septale.
  • V3 et V4 : les parois antérieures du septum et du ventricule gauche.
  • V5 et V6 : la paroi latérale du ventricule gauche.

— -

Un très bon site sur l’ECG

un autre site incontournable sur le sujet

Voir également ce site de l ’ECG

D’autres informations sur le concept de base de l’ECG et les 12 dérivations standard

Naming of the Waves in the ECG, With a Brief Account of Their Genesis. J Willis Hurst
en anglais

Le téléphone

Plusieurs inventeurs revendiquent l’invention qui permit de s’affranchir des distances sur la planète et au-delà.

On peut sans doute affirmer que l’inventeur du précurseur du téléphone est Innocent Manzetti (Aoste, 17 mars 1826 - Aoste, 17 mars 1877), un scientifique et inventeur italien.

Vers 1849, l’italien Antonio Meucci un émigré italien à New York, réalise de son côté une ébauche de téléphone. C’est d’ailleurs lui qui dépose le premier le brevet téléphonique. Quelques mois après avoir appris la nouvelle de la découverte de Manzetti, il écrivit une lettre à un journal américain et déclara « Je ne peux pas nier à Monsieur Manzetti son invention », et décrivit son prototype, qui était bien moins perfectionné et pratique du modèle de l’inventeur aostois.

Mais à cause des coûts, ni l’un ni l’autre ne brevetèrent leur invention, appelée Télettrophone par Meucci et Télégraphe vocal par Manzetti. En réalité, Meucci enregistra un caveat, une réservation de brevet valable pendant deux ans aux États-Unis, mais il ne parvint pas à le confirmer.

Charles Bourseul est le fils d’un capitaine d’état-major, adjoint à l’attaché militaire près l’ambassade de France à Bruxelles qui élut domicile à Douai. Après avoir été élève d’une école privée, le jeune Charles, entra au lycée de la ville.Il en sortit bachelier ès-sciences. Il ne quitta Douai avec sa famille qu’en 1847 ou 1848, avant d’effectuer son service militaire à Alger. Sa santé l’empêcha d’entrer à l’École polytechnique. Il s’orienta dès lors vers l’administration des Télégraphes (chef de station des lignes télégraphiques de l’Ouest)

Il présente en 1854, dans un mémoire, une invention : un appareil pour converser à distance, le téléphone. Son rapport n’est pas pris au sérieux par ses supérieurs. Il lui est renvoyé, son chef hiérarchique lui recommande de se consacrer entièrement à son emploi de télégraphiste. Il n’a d’ailleurs pas les moyens matériels de réaliser son invention. Il prend toutefois la précaution de publier une communication : « Transmission électrique de la parole » dans L’Illustration (26 août 1854), sans en passer à la réalisation.

En 1860, un instituteur allemand Philippe Reiss réalise un appareil capable de transmettre des sons musicaux au moyen de l’électricité. Il prononce le mot « téléphone » le 26 octobre 1861, dans une déclaration à la Société de physique de Francfort-sur-le-Main.
Il réussi à commercialiser son " téléphone " mais la qualité de son appareil reste insuffisante et ne permet pas de transmettre la parole.
Reiss passe cependant très près de ce qui sera le vrai téléphone.
L’invention de Philippe Reiss est présentée au Etats Unis.

Deux américains, Alexander Graham Bell et Elisha Gray aboutiront à la réalisation d’appareils téléphoniques.

Le premier élabore plusieurs prototypes de transmetteurs de sons et en 1875 met au point un système de télégraphe perfectionné.

Le second travaille dans le même domaine et le 14 Février 1876, les deux hommes déposent un brevet d’invention du téléphone le même jour, le 6 mars 1876.

Alexandre Graham Bell effectue le dépôt de brevet d’invention américain (n° 174465) deux heures après Gray, sans en posséder l’antériorité ni légale ni légitime. Ce dépôt de Graham Bell sera invalidé suite au contentieux engagé par Antonio Meucci mais cependant exploité sans poursuites judiciaires suite au décès d’Antonio Meucci en cours de procédure d’invalidation de brevet.

L’histoire ne retiendra que le nom de Bell, car après bataille juridique, la paternité du téléphone est attribuée à celui-ci. Cela aboutira à la Controverse Gray et Bell sur l’invention du téléphone.

Cependant, aucun des deux appareils ne fonctionnent ; Il faudra attendre le 10 mars 1876 pour que Bell réussisse à transmettre une phrase devenue célèbre " Monsieur Watson, veuillez venir dans mon bureau, je vous prie".

En 1879 Clément Ader, pionnier de l’aviation, créa les premiers appareils français à plaques vibrantes, et s’impliqua dans les retransmissions téléphoniques de spectacles qui aboutirent à la création du Théâtrophone.

1882, au Congrès international d’électricité à Philadelphie, Graham Bell et Edison rendent hommage à Charles Bourseul, saluant en lui le génie méconnu à qui on devait une des premières approches du concept de téléphone. Ce n’est qu’en 1889, que Charles Bourseul a été reconnu par la France comme le véritable inventeur du téléphone. Il sera élevé au grade de Chevalier de la Légion d’honneur.

2002. Les institutions Américaines reconnaîtront cependant définitivement l’antériorité de l’invention et des brevets de Meucci lors de la résolution 269 du 11 juin 2002 de la chambre des représentants des États-Unis (107th CONGRESS, 1st Session, H. RES. 269, June 11, 2002].

A lire l’origine du mot Allô

l’Echographie

Le principe de l’échographie est l’application au corps humain du sonar. Une source d’ultrasons envoie un signal qui se réfléchit sur les obstacles qu’il rencontre. Le premier à utiliser les ultrasons en médecine fut l’Américain Wild, en 1952, suivi de son compatriote Leskell qui fut le premier à observer le cœur avec des ultrasons. En 1958, l’Anglais Ian Donald réalisa la première échographie de l’utérus. Cette méthode fut généralisée à partir de 1970 et, aujourd’hui, il n’y a pas un organe qui ne lui soit accessible. Son domaine de prédilection : la gynécologie et la cardiologie, sans oublier l’anesthésie avec les blocs plexiques.

Le pansement

Des produits ressemblant plus ou moins au pansement moderne étaient utilisés avant son invention officielle. On peut citer les enveloppements égyptiens, grecs ou romains. C’est Alphonse Guérin, médecin français qui inventa le pansement ouaté.
Cependant, le premier pansement commercialisé fut l’invention de Earle Dickson, un employé de l’entreprise Johnson & Johnson, en 1920. Cela faisait cruellement défaut à une certaine Josephine Dickson, sa femme.

En 1920, cette jeune mariée habitait à New Brunswick, dans le New Jersey, avec son mari Earle. Sa vie de femme mariée lui réussissait bien, sauf peut-être les tâches ménagères. Certes, Mme Dickson faisait ce que toute bonne ménagère se devait de faire, à l’époque, mais la malchance lui collait à la peau. En effet, quand Earle Dickson revenait du travail – il était acheteur de coton chez Johnson & Johnson –, il remarquait souvent que Josephine s’était coupé ou brûlé des doigts en préparant le repas. Josephine trouvait difficile de bien couvrir ses coupures. Son mari devait donc couper des morceaux de ruban adhésif et de gaze en coton, pour bander chaque plaie. Cela se produisait très très souvent – et il fallait changer souvent les pansements.

Après plusieurs semaines de petits accidents dans la cuisine, Earle Dickson eut une brillante idée. Celle de préparer des pansements prêts à utiliser en plaçant de petits carrés de gaze en coton à intervalles réguliers le long d’une bande adhésive, puis de couvrir le tout d’un tissu de type crinoline. Au besoin, tout ce que sa femme avait à faire était de couper une bande et de l’enrouler elle-même sur sa coupure. D’une certaine façon, on peut dire que c’est une mère fort occupée qui est à l’origine de l’invention des pansements adhésifs.

Earle Dickson s’est empressé de faire part de son invention à son patron et c’est ainsi que l’on commença à produire et à mettre en marché les premiers pansements adhésifs de marque Band-aid®, devenus célèbres partout dans le monde. M. Dickson a plus tard été promu vice-président de l’entreprise, poste qu’il a occupé jusqu’à sa retraite. Quant à Josephine Dickson, on ne sait pas si elle a fini par maîtriser le maniement du couteau, mais une chose est sûre : elle ne manquait pas de pansements, au cas où...

Bande Velpeau

Alfred Velpeau, né en Indre-et-Loire en 1795 et mort
en 1867, est un anatomiste et chirurgien français.

Alfred Velpeau reste connu pour une découverte qu’il n’a pas créée (c’est Bretonneau qui en est à l’origine) mais vulgarisée et perfectionnée, diffuseur du bandage de crêpe qui porte son nom, la « bande Velpeau » est un bandage compressif utiliser à des fins de pansements et de protection afin d’éviter les infections dans les plaies.

Fils d’un maréchal ferrant, il s’instruisit d’abord tout seul avant de recevoir une éducation conventionnelle tardive et de débuter des études de médecine auprès du chirurgien Pierre Bretonneau en 1816.

Il exerce ensuite comme chirurgien dans plusieurs hôpitaux parisiens. Il fut ensuite nommé professeur de chirurgie clinique (1835) et fut élu membre de l’Académie de médecine et de l’Académie des sciences (1842).

Alfred Velpeau est l’auteur de nombreuses publications sur la chirurgie, l’embryologie, l’anatomie et l’obstétrique.

Il est connu pour avoir tenté une expérience controversée sur la mémoire : il a demandé à un condamné à mort de lui faire un clin d’œil une fois que sa tête serait coupée...

La penicilline

La pénicilline fut inventée par hasard par l’Écossais Sir Alexander Fleming le 3 septembre 1928 (pénicilline G) bien qu’un médecin français Ernest Duchesne ait réalisé en 1897 une thèse de médecine intitulée Contribution à l’étude de la concurrence vitale chez les micro-organismes : antagonisme entre les moisissures et les microbes qui étudiait en particulier l’interaction entre Escherichia coli et Penicillium glaucum.

Contribution à l’étude de la concurrence vitale chez les micro-organismes : antagonisme entre les moisissures et les microbes
these de E. Duchesne

En conclusion de son opus, il écrit : On peut donc espérer qu’en poursuivant l’étude des faits de concurrence biologique entre moisissures et microbes, étude seulement ébauchée par nous et à laquelle nous n’avons d’autre prétention que d’avoir apporté ici une très modeste contribution, on arrivera, peut-être, à la découverte d’autres faits directement utiles et applicables à l’hygiène prophylactique et à la thérapeutique.

A plusieurs reprises, Duchesne propose à sa hiérarchie de poursuivre ses recherches dans cette direction. Il n’est pas écouté.
Atteint de la tuberculose, il disparaît prématurément en 1912.
Si Duchesne avait été entendu, on aurait peut-être gagné plusieurs dizaines d’années.

Il faudra attendre les travaux de Fleming et la fin de la seconde guerre mondiale pour que les antibiotiques prennent leur essor. Fleming découvrit dans des boites de pétri où il avait mis des staphylocoques en culture une moisissure autour de laquelle les bactéries semblent avoir disparues. Il approfondit alors ses recherches et publia un premier article expliquant les effets antibiotiques de la pénicilline. Là fut son génie. La pénicilline connaîtra son plein essor "grâce" à la seconde guerre mondiale, révélatrice d’infection jugulée par la nouvelle molécule salvatrice.

 La pénicilline. Découverte d’un antibiotique
 La découverte des antibiotiques

Le pacemaker

C’est en 1780 que Luigi Galvani découvre l’effet provoqué par des impulsions électriques sur les muscles. En 1788, Charles Kite, un savant anglais vivant à Gravesend, à l’embouchure de la Tamise recommanda cette solution pour ressusciter les patients. (On peut aussi dire que Charles Kite fut le précurseur de l’intubation, car en 1788 il utilise un tube trachéal pour la réanimation des noyés).

La mise en évidence de la relation entre le cœur et l’électricité aboutit in fine à la création du pacemaker.

En 1931, Albert Hyman testa un dispositif délivrant des chocs électriques par une aiguille enfoncée dans le cœur, donnant de bons résultats.

Après des études en génie électrique à l’Université du Manitoba, le Canadien John Hopps (1919-1998) rejoignit l’équipe du Conseil national de recherches du Canada à Ottawa en 1942. En 1950, il met au point le premier vrai pacemaker.

Il eut l’idée du premier pacemaker alors qu’il effectuait des recherches sur l’hypothermie : il découvrit alors qu’un cœur ayant cessé de battre à cause du froid pouvait être relancé en utilisant une stimulation électrique.
Son invention toutefois, faisait 30cm de hauteur et devait constamment rester branchée au secteur. Le premier modèle implantable est posé huit ans plus tard.

Le premier pacemaker interne fut inventé par les médecins Suédois Åke Senning et Rune Elmquist. Le concepteur de ce nouveau stimulateur cardiaque était l’Américain Wilson Greatbatch, un inventeur indépendant surdoué qui a déposé plus de 140 brevets et a reçu le prix Lemelson Mit en 1996 pour l’ensemble de ses Travaux et de ses inventions.
Le stimulateur cardiaque est sa plus célèbre invention.

Depuis les années soixante, les pacemakers ont connus plusieurs évolutions majeures avec l’apparition des sondes endocavitaires et l’invention des premiers appareils avec fonction d’écoute.

Dans les années 1970, les premiers stimulateurs programmables par un boîtier externe ont été mis au point ainsi que les premiers stimulateurs double-chambre (avec une sonde dans l’oreillette et une dans le ventricule).

De nos jours, les pacemakers cardiaques sont les organes artificiels les plus au point et les plus répandus. Quelques 30.000 stimulateurs cardiaques sont implantés chaque année en France.

NB : A voir le site sur les mystères du cœur

Le Thiopental

Le thiopental sodique a été découvert au début des années 1930 par Ernest Henry Volwiler et Donalee L. Tabern, qui travaillaient pour des laboratoires Abbott.

Sa première utilisation sur l’homme date du 8 mars 1934 dans le cadre de recherches sur ses propriétés par le Dr. Ralph M. Waters. Trois mois plus tard, le Dr. John S. Lundy commençait une étude clinique sur le thiopental à la Mayo Clinic sur la demande des laboratoires Abbott qui tirèrent un grand bénéfice financier de la découverte.

Ernest H. Volwiler (22 août, 1893-3 octobre, 1992) a passé toute sa carrière au sein des laboratoires Abbott pour en devenir le président.

Il a reçu une licence de l’ Université de Miami et une maîtrise et un pH. D. (philosophiæ doctor) en chimie de Université de l’Illinois. Il était un pionnier dans le domaine de la pharmacologie anesthésique, aidant au développement de deux drogues, le Nembutal et le Pentothal.

Volwiler a reçu des récompenses honorifiques de plusieurs Universités : Philadelphie, Memphis, Université de Coe, Université de Knox. D’autres honneurs incluent la Société chimique américaine, la Médaille de Priestley en 1958 et la médaille d’or de l’institut américain des chimistes.

Le pentothal a été utilisé pour soigner les soldats victimes de l’attaque japonaise de Pearl Harbor. La manipulation par des médecins et des infirmières non qualifiés en anesthésie et l’administration "flash" sur des patients hypovolémiques et en état de choc hémorragique, a provoqué plus de victimes que l’attaque en elle-même, selon FJ Halford (A critique of intravenous anesthesia in war surgery. Anesthesiology 1943 ; 4:67-9)

A critique of intravenous anesthesia in war surgery. Anesthesiology 1943
En anglais

Le penthotal a servi comme méthode d’interrogatoires en complément de la torture lors de La guerre d’Algérie. Henri Alleg décrit ses effets dans son livre réquisitoire La question. Il fut également utilisé pendant la guerre en Argentine afin de droguer les ennemis du régime. Il est actuellement utilisé pour l’injection létale aux USA en complément du pancuronium et du chlorure de potassium. Mis au point à la fin des années 70 par un médecin légiste d’Oklahoma, ce “protocole” comprenait jusqu’alors 3 grammes de thiopental sodique, 50 mg de bromure de pancuronium et de 240 mg de potassium.

Lu pour vous
Un document sur la peine de mort aux USA et l’injection létale qui utilise des produits anesthésiques

* Un site américain qui détaille l’attaque de Pearl Harbor et bien d’autres (passionnant).

Thiopentone at Pearl Harbor

* Arrêt de la production du pentothal (annonce de l’afssaps de juin 2011)

Les curares

Les curares étaient utilisés depuis plusieurs milliers d’années par les chasseurs primitifs des tribus indiennes d’Amérique du Sud. Le curare est un mélange d’alcaloïdes, extraits de plantes.

Le mot Curare vient d’un mot en langue indigène « ourari » qui signifie la mort qui tue tout bas. Le mot « curare » viendrait du mot caraïbe k-urary, « là où il vient, on tombe » Selon Martius, de « our » et « ar », venir et tomber en guarani.

Autre étymologie proposée mais tout à fait incertaine, la contraction en tupi du mot « oiseau  » (Uira) et du mot « liquide  » (y) pour « liquide qui tue les oiseaux ».

Le curare (Urari) varie suivant les tribus amazoniennes : il est également connu comme Bejuco de Mavacure, Ampi, Kurari, Woorari, Woorara, Woorali, Wourali, Wouralia, Ourare, Ourari, Urare, Urari (ce qui signifie en galibi : « la mort qui tue tout bas ») et Uirary, Wilalakayevi pour la liane Sciadotenia ( ce qui signifie, « branches » et « rebrousser de chemin » ou « changer de direction » car ses branches changent de direction ), Supai Hausca (corde du diable) pour la liane Strychnos et wayana Ulali , Wilali ce qui signifie « arbre »

 La découverte du curare par les Européens

« Le curare fut introduit en Europe par Sir Walter Raleigh, sous le nom d’ourari » est une des assertions les plus répétées et les plus erronées de l’histoire de la pharmacologie anesthésiologique.

Méritent en revanche d’être retenus les noms de Lawrence Keymis pour le mot ourari, José Gumilla pour le mot curare et la description de ses effets, Charles-Marie de La Condamine pour l’importation des premiers échantillons connus.

L’erreur a été initiée par Alexander von Humboldt et développée par le physiologiste Münter, élève de Johannes Müller qu’a cité Claude Bernard. La diffusion universelle des travaux de celui-ci a favorisé celle de l’erreur contenue dans la source qu’il avait citée.

Le XVIIIème siècle fut le siècle de l’observation et de la compréhension pour les Européens.

Du XVIème au XVIIIème siècle, on ne trouve dans les chroniques que deux ou trois observations qui se rapportent au curare. Des guerriers européens l’avaient emprunté aux chasseurs pacifiques à la sarbacane. En effet les Indiens ne connaissaient ni l’arc ni les flèches.

A partir du milieu du XVIIIème siècle les curares commencent à être connus en Europe grâce aux Jésuites établis en Amérique du Sud, notamment le père Gumilla. qui relate ses aventures. La compagnie de Jésus, fondée en 1534 par Ignace de Loyola avait suivi les Conquistadors pour christianiser les peuples d’Amérique du Sud.

Les explorateurs et voyageurs tels le mathématicien Charles Marie de la Condamine (1745) et surtout le savant Alexandre Von Humboldt (1803), décrivirent précisément :

  • Le mode de préparation du curare : A partir de la plante il y a macération ou lixiviation aqueuse puis concentration par la chaleur.
  • L’origine botanique qui peut être le Strychnée sur le bassin de l’Orénoque (genre Strychnos (Loganiacées) ou l’Ambihuasca ailleurs (genre Chordrodendrone (Ménispermacées)
  • Les effets toxiques du « poison qui tue tout bas  »

Les premières observations sur les curares remontent au 16ème siècle, au temps des conquistadores.

  • La première mention des flèches empoisonnées au curare se trouve en 1516 dans un ouvrage géographique de Pietro Martire d’Anghiera , De Orbe Novo : les indigènes se servaient de flèches enduites du suc « d’une herbe vénéneuse aux effets mortels » .Il mentionnait la présence d’extraits végétaux et de venins animaux.
  • 1548 Alonso Perez de Tolosa découvre un poison mortel utilisé pour les flèches par les indiens du sud du Lac Maracaïbo en Colombie et son nom reste associé à la découverte du curare . Les récits des conquistadors et de religieux, tel Las Casas, ont fait ensuite connaître ce poison.
  • 1581 Pedro de Aguado, Missionnaire franciscain et chroniqueur espagnol, parti pour le Nouveau Monde en en 1560 avec 50 religieuses. Historia de Santa Marta y del Nuevo Reino de Granada livre X, chapitre XXI, tome 2 , page 181 (1906)
  • 1596 Sir Walter Raleigh homme de guerre « conquistadore » et politique, favori de la reine Elisabeth lors d’un voyage en Guyane mentionne un poison de flèche en son livre Découverte du grand, riche, et bel empire de la Guyane et une légende veut qu’il aie rapporté en Europe des flèches empoisonnées. Mais il n’est pas certain que ce poison ait été du curare
  • vers 1596 au détour d’une expédition en Guyane Lawrence Keymis mentionne dans un tableau, un poison appelé ourari et il est associé à la rivière Curitimi et aux indiens Parawaks et Parawianni vivant sur ses berges
  • 1731 Au XVIIIe siècle, le Père José Gumilla nomme le curare et décrit ses effets. Les sud-Amérindiens en enduisent les flèches qu’ils lancent avec une sarbacane pour chasser C’est «  le plus violent poison existant à la surface de la Terre : l’homme blessé ne fût-ce que d’une égratignure comme le ferait un épingle, voit son sang se coaguler et il meurt si vite qu’il peut à peine dire trois fois le nom de Jésus. »
  • 1743 L’explorateur et voyageur Charles Marie de La Condamine en rapporte les premiers échantillons connus. En 1745 : il décrit le poison et l’emploi de la sarbacane et de flèches empoisonnées par les indiens Yameos et Ticunas en juillet 1743 ; il en fait divers expériences à son retour à Cayenne et à Leyden
  • 1769 Edward Bancroft en voyage en Guyane et décrit le poison sous le nom de Woorara
  • 1799-1804 Avec Alexander von Humboldt, Aimé Bonpland recherche la liane qui donne le curare, le fameux poison des Indiens du Rio Negro, dans toute l’Amazonie. Dans le Voyage aux régions équinoxiales du Nouveau Continent lequel a également décrit la préparation du curare, appelé Urari ou bejuco de mavacure préparé avec la liane Mavacure (Strychnos Rouhamon) et les fruits (juvias) du Bertholletia excelsa (ce qui pourrait être une erreur d’attribution).
  • 1811-1812, Benjamin Collins Brodie (1783-1862) expérimente le curare. Il est le premier à prouver que le curare ne tue pas l’animal, qui se rétablit si la respiration est maintenue artificiellement.
  • 1812 Charles Waterton (1783-1865) fait d’intéressantes découvertes sur le curare au cours d’un voyage en Guyane et en note la recette de la composition du Wourari dont un indien Macuchi lui donna la recette
  • Pendant les années 1820 Carl Friedrich Philipp von Martius voyageant dans le nord de l’Amazonie, trouve les deux sources botaniques du curare. Il nomme Urari le poison des Yugis des indiens du Rio Yupura au Brésil.
  • 1825, Charles Waterton décrit l’expérience par laquelle il a maintenu une ânesse curarisée vivante par ventilation artificielle avec un soufflet et une trachéotomie. Waterton aurait également apporté le curare à l’Europe.
  • Le botaniste Robert Hermann Schomburgk identifie la source du curare, une espèce du genre Strychnos et lui donne le nom spécifique de toxifera
  • En France les premières expériences sont menées par Jean-Baptiste Boussingault et Rollin en 1828 lesquels essaient d’isoler son alcaloïde, et sont poursuivies par Preyaz qui isole la curarine. Bohme isole un second alcaloïde qu’il appelle la curine.
  • 1838 Le missionnaire Thomas Youd voit préparer le curare, et la décrit dans une lettre. Il lui donne son nom vernaculaire, ayant appris la langue des Macuxi
  • George Harley (1829-1896) prouve en 1850 que le curare (wourali) est efficace dans le traitement du tétanos et de l’empoisonnement par la strychnine.
  • Stephan Endlicher découvre que le curare provient de deux espèces de lianes du genre Strychnos, Strychnos guianensis et Strychnos toxifera, que les indiens mélangent à du poivre, à des baies de Menispermum, coque du Levant, et à d’autres plantes âcres.
  • 1854 Alcide d’Orbigny en fait la description dans son récit de voyage mais l’attribue par erreur au bertholletia, son récit est très proche de celui de Alexandre de Humboldt
  • 1856, Claude Bernard découvre que le curare agit sur la jonction neuromusculaire, entraînant une paralysie et une baisse du tonus musculaire : sous l’effet du curare, les muscles ne fonctionnent plus, ils deviennent mous, et les poumons s’immobilisent. En raison de la paralysie respiratoire, le cerveau et les tissus ne sont plus alimentés en oxygène.
  • 1887 En 1897, R. Boehm isole deux alcaloïdes du curare : la l-curarine et la tubocurarine.
  • Le catalogue de Burroughs Wellcome cite, sous la marque « Tabloids », des comprimés de curare en grain (prix 8 shillings) pour l’usage de préparations destinées à l’injection hypodermique.
  • En 1914 Henry Hallett (1875-1968) décrit les actions physiologiques de l’acétylcholine. Après vingt-cinq ans de recherches, il prouve que l’acétylcholine est responsable de la transmission neuromusculaire, qui peut être bloquée par le curare.
  • 1935, C’est dans le laboratoire de Sir Henry Dale, que Harold King élucide la structure de la d-tubocurarine, base très active de la plante. Fondée sur les travaux de ces chercheurs, l’étude expérimentale du curare aboutit à l’utilisation de la tubocurarine en médecine chirurgicale et neurologique
  • 1930-1938 Richard Gill (expédition en Équateur )
  • En 1938, A R. McIntyre, de l’Université du Nebraska, sépara les substances toxiques présentes dans le curare végétal pour ne garder que l’ alcaloïde agissant sur les muscles
  • 1941 Richard Evans Schultes va chercher la source du curare en Amazonie. Alexandre Krukoff fait plusieurs expéditions en Guyane et en Amazonie, et est spécialiste des Strychnos
  • Les médecins ne tirent profit de toutes ces observations qu’en 1942. À cette date, un dérivé purifié, l’intocostrine, extrait de plantes à curare Chondodendron tomentosum rapportées d’Amazonie en 1938, est introduit en anesthésie. L’intocostrine, premier curarisant commercial, est lancée par E. R. Squibb & Sons, puis introduite comme relâchant musculaire dans la pratique de l’anesthésie générale en 1942 par Harold Randall Griffith (1894-1985) et Enid Johnson Macleod.
  • Dès 1943, Oscar Wintersteiner et James Dutcher isolèrent la d-tubocurarine de cette même plante
  • En 1946, Daniel Bovet et ses collaborateurs aboutirent à l’Institut Pasteur, dans le laboratoire d’Ernest Fourneau, au premier curarisant de synthèse, le 2559 F ou triiodoéthylate de gallamine, breveté sous le nom de Flaxedil, cinq fois plus actif que la tubocurarine
  • 1958 L’explorateur français Joseph Grelier (Société des explorateurs français) auteur de livres sur l’ Orénoque , popularise, le curare, en faisant paraître un article dans le Journal de Tintin : « La Vérité sur le Curare ».
  • 1965 Jean Vellard, spécialiste du curare et des poisons de chasse de l’Amérique du Sud : Histoire du curare

On raconte qu’un indien qui chassait au bord de l’Amazone avec sa sarbacane et ses dards observa un faucon qui griffait l’écorce d’une certaine liane avant de se lancer sur sa proie. Celle-ci mourut dès qu’il l’eut saisie dans ses serres. Imitant le rapace, l’homme frotta les pointes de ses dards sur la même écorce, et le gibier qu’il tua désormais tombait mort dès qu’il était touché.

Alors ses descendants préparèrent un extrait de la plante et en enduisirent leurs armes lorsqu’ils allèrent à la chasse.

Les Espagnols ont d’abord pensé que les redoutables poisons que les indigènes utilisaient pour se défendre contre la conquête appartenaient à la famille des curares.

Cette confusion vient du fait que les espagnols qui furent confrontés aux redoutables poisons de flèches des indigènes identifièrent ces poisons comme des curares, ce qui est fort peu probable pour deux raisons.

 La première est que les descriptions sur les effets des poisons de flèches utilisés contre les conquistadores ne correspondent pas aux effets que l’on attribue aujourd’hui aux curares.

 La seconde est que les indiens n’utilisent pas le curare contre l’être humain, mais pour la chasse, même au cours d’une guerre comme celle qui les exposa aux espagnols équipés d’armes à feu. Cette règle très stricte concernant l’usage du curare contre l’homme semble observée scrupuleusement par l’ensemble des tribus amazoniennes.

Les poisons utilisés contre les envahisseurs étaient différents. Les poisons de guerre étaient également d’origine végétale, mais sans antidotes, donc très efficaces, ils provoquaient des blessures qui ne guérissaient jamais. Elles étaient fatales dans les vingt-quatre heures ou provoquaient une agonie de plusieurs jours, les quelques rescapés semblaient souffrir pendant de longues années des suites de leurs blessures

Les drogues végétales utilisées pour élaborer ces poisons de guerre viennent d’une euphorbiaceae, le mancenillier (Hippomane mancinella L.), dont le latex renferme des substances hautement toxiques dont les effets sont connus depuis fort longtemps.

Ce latex était recueilli, puis concentré par chauffage et évaporation. Le poison ainsi obtenu pouvait être utilisé directement pour enduire les pointes de flèches. Cependant, l’utilisation de tels poisons reste fort rare compte tenu de la conservation difficile de ces produits, de plus, il semble que le poison devait être déposé sur la flèche juste avant utilisation pour en garantir l’efficacité, ce qui en limite grandement l’usage.

On raconte que la préparation du poison était fatale aux personnes qui le fabriquaient. On désignait pour cela trois femmes, choisies parmi les plus âgées de la tribu.
 La première commençait par faire chauffer le poison pour le concentrer, quand les vapeurs devenaient toxiques, elle mourait.
 La seconde prenait alors le relais et poursuivait la préparation jusqu’à sa mort qui devait survenir plus rapidement, signe que le poison devenait plus concentré.
 La dernière enfin devait achever la préparation du poison, la mort devant survenir très rapidement, signe que le poison était prêt et de bonne qualité. Légende ou réalité, ... Une telle toxicité ne correspond pas à celle des curares dont l’action ne peut s’exprimer que suite à une administration par voie sanguine. Les vapeurs émanant de sa décoction n’ayant aucune toxicité.

Il semble d’ailleurs que les femmes soient écartées lors de la fabrication du curare, car les indiens prétendent que leur seule présence suffit à faire rater la fabrication du précieux poison ! Contrairement à la légende qui le dit préparé secrètement, le curare était toujours préparé en public.

Le curare était en fait tout autre. Il représentait pour les indiens un don divin, car ces poisons de chasse rassemblent toutes les propriétés qui en font un allié précieux pour celui qui veut chasser aussi bien dans la jungle amazonienne que dans les savanes.

Dans la jungle c’est la sarbacane qui est utilisée pour projeter de petits dards empoisonnés, ailleurs ce sont l’arc et la flèche qui ont été adoptés, car les petites fléchettes empennées de duvet de kapok ne constituent pas un projectile assez stable pour résister au vent qui souffle dans les zones dénudées que sont les savanes.

La fabrication de la sarbacane, de son carquois et des fléchettes prend environ 12 jours. La sarbacane est l’aboutissement d’un processus de façonnage et d’assemblage complexe, avec notamment la confection d’une colle ou d’une résine qui va la rendre imperméable.

Le curare était supérieur aux armes à feux. Il possédait divers avantages :
 Tout d’abord c’est une arme silencieuse, et les chasseurs peuvent tuer plusieurs animaux dans un groupe sans effrayer les autres, tandis que le premier coup de feu aurait pour effet de tous les faire fuir immédiatement.
 L’animal touché par une petite fléchette n’y prend pas garde et ne donne pas l’alerte à ses congénères.
 La moindre blessure, si minime soit-elle peut-être fatale, alors qu’une blessure par balle ne l’est pas forcément, de plus l’animal touché par une arme à feu s’enfuira, même sérieusement blessé, pour aller mourir plus loin, hors de portée du chasseur qui rentrera bredouille. -L’animal tué par le curare est tout à fait comestible sans risque d’intoxication pour le consommateur car le poison est inactif par voie digestive, tout au plus certains indiens éliminent-ils la partie du gibier touchée par la flèche.

 Enfin, de par le mécanisme d’action des curares, l’animal touché sera paralysé et ne pourra s’agripper aux branches des arbres, il tombera à terre de lui même et le chasseur n’aura plus qu’à le ramasser, tandis que le gibier tué par balle reste souvent pendu aux branches dans les spasmes de l’agonie et ce, parfois à vingt ou trente mètres du sol.

 La préparation des curares

Il existe à travers l’immensité du bassin amazonien une quarantaine de genres de curare élaborés à partir de quelque soixante-dix espèces végétales différentes.

En marge de l’addition d’autres substances, la préparation des curares répond à certaines règles : pour fabriquer un curare à partir d’une liane du genre Strychnos (Strychnos toxifera), la liane est récoltée, l’écorce est râpée et récupérée car elle seule contient les alcaloïdes curarisants. L’écorce est ensuite placée dans un filtre formé de roseau ou de bambou et garni de feuilles.

Les Indiens lavent alors l’écorce et récupèrent un liquide rouge. Plusieurs lavages et filtrages sont nécessaires. Le liquide alors obtenu est mis à feu vif jusqu’à ébullition et maintenu en ébullition pendant dix minutes. Après transvasement, il est placé sur un feu doux durant de longues heures : c’est l’étape de concentration qui consiste à faire évaporer l’eau. Le liquide s’épaissit et devient noirâtre. Il est coulé dans un récipient destiné à sa conservation.

En se refroidissant il prendra une consistance plus ou moins solide, selon le mode de fabrication et l’origine du curare.. Il se présente à l’état final sous forme d’un extrait noir et solide, à cassures brillantes, ressemblant à de l’extrait de jus de réglisse. Il est conservé ainsi pendant de longs mois, mais il perd de son efficacité avec le temps.

 Origine et mode de fabrication

La fabrication du curare est très variable d’une zone géographique à une autre, certaines tribus ne savaient pas le fabriquer, aussi existait-t-il un marché du curare dans toute l’Amazonie. Les espèces végétales qui entrent dans la composition des poisons utilisés dans cette région du monde appartiennent à deux grands genre : les genres Strychnos (loganiacées) et Chondrodendron (ménispermacées) en fonction de l’origine géographique. Parfois les deux genres étaient utilisés.

Pendant longtemps on a classé les curares en fonctions des récipients qui les contenaient car on ignorait à peu près tout de leur origine et de leur composition. On distinguait alors trois grands types de curares

  • Les curares en tubes ou tubocurares, qui étaient conservés dans des tubes formés par des bambous.
  • Les curares en pots, conservés dans des pots en terre.
  • Les curares en calebasse conservés dans des calebasses (fruits d’une espèce de bignognacée.)

Cependant, les curares étaient rarement préparés simplement, c’est à dire à partir d’une seule plante, on y ajoutait presque toujours d’autres ingrédients, soit végétaux, soit animaux.

Les raisons sont multiples, tout d’abord les indiens ont voulu améliorer l’action de leurs poisons pour le rendre plus efficace, c’est à dire plus toxique et plus foudroyant, pour cela ils y ajoutent nombre d’ingrédients hautement toxiques ou réputés comme tels. On retrouve bien évidemment des serpents (ajoutés entiers, ou dont on prélève les crochets venimeux ou bien la tête), des crapauds (entiers ou dont on récupère le venin par raclage), des fourmis venimeuses ou encore des chenilles urticantes. A côté de ces produits on retrouve également d’autres plantes, mais aussi des ingrédients très inattendus comme de la salive ou du sang menstruel souvent considéré comme toxique par les peuples primitifs.

Il est possible que ces “accessoires” aient été parfois en usage, mais il est bien reconnu aujourd’hui qu’ils ne sont pas nécessaires, et que d’excellents curares sont obtenus exclusivement au moyen de substances végétales. D’après Justin Goudot, les tribus les plus voisines des frontières de la Nouvelle-Grenade coupent dans les bois des lianes de la famille des Strychnées, dont les tronçons laissent suinter un suc laiteux abondant et âcre. Les morceaux écrasés sont mis en macération dans de l’eau pendant quarante-huit heures, puis on exprime et on filtre soigneusement le liquide, qui est soumis à une lente évaporation jusqu’à concentration convenable. Alors on le répartit dans plusieurs petits vases de terre, qui sont eux-mêmes placés sur des cendres chaudes, sur lesquelles l’évaporation se continue avec plus de soin encore, de sorte que le poison passe peu à peu de la consistance d’extrait mou à l’état parfaitement sec.

On voit que la complexité des ces poisons peut être extrême, aussi les occidentaux ont-ils parfois regardé les indiens comme des chimistes très doués. La réalité est toute autre. Des études ont montré que les venins de serpents sont détruits à la chaleur, or les curares sont toujours préparés par cuisson : on fait bouillir le poison pendant plusieurs jours pour le concentrer. Les venins de serpents, mais aussi des arthropodes (scorpions, araignées) n’auraient donc aucune activité dans le poison fini. Les autres espèces végétales utilisées sont parfois toxiques, mais pas toujours, cependant certaines d’entre elles permettent une meilleure conservation du poison, ou bien sont des agents de consistance destinés à épaissir le poison et à en améliorer l’adhésivité sur les pointes de flèches.

D’autres espèces végétales enfin, n’exerceraient pas d’activité toxique directe, mais permettraient une meilleure diffusion du poison dans l’organisme du gibier en provoquant une vasodilatation autour de la blessure et causeraient des plaies particulièrement douloureuses, c’est notamment le cas de certaines variétés de piments dont les fruits seraient utilisés.

Seuls les venins de batraciens seraient encore capables de produire une action toxique en raison de leur grande résistance aux agents physiques (les crapauds et certaines grenouilles fabriquent des substances très toxiques regardées comme des venins, bien que ces animaux ne possèdent aucun moyen pour les inoculer, on peut les récupérer en raclant l’animal ou en massant les glandes situées à l’arrière de la tête.

Ces substances ont en fait des propriétés antibiotiques très intéressantes et seraient destinées à protéger la peau des batraciens des agents infectieux qui se développeraient sur leur peau qu’ils doivent toujours garder humide.).

Il est à noter que quelques tribus qui fabriquent des poisons extrêmement simples, c’est à dire avec peu d’ingrédients, obtiennent des poisons de très grande qualité, l’addition d’un grand nombre d’ingrédients n’apporte donc rien de plus au poison. Cette habitude fâcheuse de compliquer la préparation des poisons de flèches à eu pour conséquence de rendre difficile leur connaissance exacte par les occidentaux.

Seules des études scientifiques menées avec sérieux par des savants comme Claude Bernard ont permis d’élucider partiellement le mécanisme d’action des curares et d’isoler et de caractériser les principes actifs responsables de leur activité. On a ainsi pu établir que les substances curarisantes étaient d’origine végétale et elles ont été caractérisées chez les genres Strychnos, Chondrodendron, mais aussi Curarea, Telitoxicum...

Contrairement à ce qui se passe dans de nombreuses tribus africaines qui utilisent aussi des poisons sagittaires, (en général différents du curare : ce sont plutôt des poisons cardiaques qui sont fabriqués) il n’y a pas de secret détenu par un sorcier pour la fabrication du curare, la plupart des chasseurs savent préparer leur poison.

 Mécanisme d’action-pharmacologie des curares

Il faudra attendre Claude Bernard en 1856 pour que l’on situe le site d’action des curarisants au niveau de la jonction neuromusculaire. Les curarisants entraînent une paralysie avec relâchements musculaires, seuls les muscles striés squelettiques sont touchés, le cœur résiste très bien aux substances curarisantes et est peu affecté. Suite à l’inoculation de la substance par voie sanguine ou intradermique le curare ne manifeste ses effets qu’après un certain laps de temps qui dépend de la dose, du mode d’inoculation et de l’activité intrinsèque de la préparation utilisée. Les premiers symptômes sont en général des tremblements, puis une faiblesse musculaire avec difficulté pour se mouvoir. La paralysie s’étend lentement à tout l’organisme, le curare n’a donc pas un effet aussi foudroyant qu’on a voulu le faire croire, même si l’effet reste assez rapide. La paralysie va ensuite gagner les muscles trachéaux, la salive ne pourra plus être déglutie et coulera par la bouche, les paupières elles-mêmes sont affectées par le poison et retombent sur les yeux, mais la conscience n’est pas altérée jusqu’à la mort. Enfin la paralysie touche le diaphragme La mort survient par asphyxie en quelques minutes.

Claude Bernard a démontré que le curare bloque la jonction neuromusculaire, mais sans affecter le muscle lui même. « Si on stimule directement le muscle mécaniquement, on obtient encore une contraction chez l’animal curarisé, par contre, la stimulation du nerf ne donnera aucune réponse musculaire. De plus, l’action des curares est brève et réversible. Si on maintient artificiellement la respiration de l’animal pendant la durée d’action du poison (en général quelques minutes), l’animal pourra être sauvé, il retrouvera progressivement le contrôle de ses muscles et la respiration se rétablira alors d’elle-même »

La plaque motrice est formée d’une part d’un neurone (cellule nerveuse) et d’un ensemble de cellules musculaire striées ; il n’y a pas de contact direct entre les deux, mais un espace, la fente synaptique. Une substance l’ acétylcholine, qui est un neurotransmetteur (une substance chimique fabriquée par les cellules nerveuses et qui permet de communiquer un signal d’un neurone à un autre neurone ou d’un neurone vers une autre cellule excitable) va permettre de transmettre l’influx nerveux du neurone vers la cellule musculaire et de provoquer ainsi la contraction des cellules musculaires. L’acétylcholine est libérée dans la fente synaptique et va se fixer sur la membrane externe de la cellule musculaire au niveau de structures spécialisées, les récepteurs (ce sont des structures formées de protéines complexes regroupées en sous-unités, qui traversent la membrane externe de la cellule et qui sont capables de fixer des substances appelés ligands qui se trouvent à l’extérieur de la cellule. Quand le ligand est fixé sur son récepteur, cela va modifier l’activité de la cellule. Le récepteur permet donc de transmettre un signal chimique à la cellule afin de déclencher une réponse : une contraction, ou la fabrication d’une substance chimique par exemple.

La contraction musculaire résulte donc de la libération d’acétylcholine par le neurone et de la fixation de cette substance sur des récepteurs situés sur les cellules musculaires. L’acétylcholine va ensuite se décrocher de son récepteur (au bout de quelques millisecondes) et être dégradée dans la fente synaptique par les enzymes, les cholinestérases. Le muscle va se relaxer dès le décrochage de l’acétylcholine.

Le curarisant se fixe sur le récepteur, mais sans déclencher de contraction, et empêche donc l’acétylcholine de se fixer pour déclencher une contraction : le muscle est donc paralysé et reste relaché. Par contre si on stimule directement le muscle sans passer par la voie nerveuse qui utilise l’acétylcholine, on peut obtenir une contraction musculaire (ex : une décharge électrique appliquée sur le muscle). Le curare n’affecte donc que la conduction nerveuse entre le nerf et le muscle, mais sans affecter le nerf lui même.

On a utilisé les curares pour leurs propriétés paralysantes et relaxantes dans le traitement de la rage et du tétanos. Aujourd’hui, les curares d’origine naturelle ont été abandonnés au profit des curarisants de synthèse (tubocurarine, gallamine, atracurium, suxaméthonium, rocuronium, mivacurium, pancuronium, vécuronium, cisatracurium). Ils sont exclusivement utilisés en anesthésiologie comme adjuvants, bien qu’étant dépourvus par eux mêmes d’une action anesthésiante, mais ils permettent d’obtenir une myorelaxation qui favorise l’intubation des patients et l’acte chirurgical dans de très bonnes conditions. Leur utilisation nécessite la présence d’un médecin anesthésiste réanimateur et d’un(e) infirmier(e) anesthésiste ainsi qu’un matériel de réanimation adapté.

Le docteur Jobert a cherché à obéir aux intentions de Claude Bernard, qui regrettait que l’on n’eût pas encore envoyé en France des échantillons des plantes ayant servi authentiquement à préparer le curare, afin de les soumettre à des déterminations botaniques exactes, et s’occupe à étudier sur place l’action séparée des sucs de chacune d’elles. Il a fait confectionner devant lui, et uniquement avec des végétaux, un des meilleurs curares américains , celui des Indiens Tecunas, au Calderâo (Brésil), non loin de la frontière péruvienne.

De minces raclures de l’Urari uva, Strychnée grimpante, et de l’Eko ou Pani, Ménispermacée également grimpante, formant un mélange pétri à la main, furent épuisées par l’eau froide, qu’on reversa sept à huit fois et qui prit une teinte rouge. La liqueur fut alors portée à l’ébullition pendant six heures, et on y ajouta des fragments de diverses plantes accessoires, parmi lesquelles une Aroïdée, le Taja, puis la l’apure de trois espèces de Pipéracées. Le liquide fut ainsi amené à l’état d’extrait gommeux, puis abandonné au refroidissement, et prit l’aspect et la consistance d’un cirage épais.
Le docteur Jobert a vu que l’Urari et le Taja, expérimentés séparément, sont les principes les plus promptement actifs de ce mélange mortel, et que le Pani seul donne lieu à des phénomènes moins rapides.

Les indigènes se servent du curare pour empoisonner leurs flèches de chasse et leurs flèches de guerre, et, en outre, emportent leur provision de poison dans un des petits pots de terre cuite, ou dans une calebasse. Les flèches de chasse destinées à être lancées au moyen d’un arc, sont pourvues d’un dard mobile ; celles qui seront dardées par le souffle, à la sarbacane, sont très petites et consistent en une mince baguette de bois de fer très effilée et munie d’une pointe très aiguë qui porte le poison. Parfois celui-ci est employé très dilué ou en très faible quantité, de manière à produire sur la victime un simple engourdissement qui se dissipera peu à peu, mais qui l’arrête dans sa course ou dans son vol, ou la fait tomber de l’arbre. Par ce moyen, dit-on, on capture des singes ou des perroquets, très recherchés pour le trafic avec les marchands d’Europe. Souvent le gibier est tué par la flèche de chasse, mais peut être mangé impunément, car la dose très minime de curare mêlée dans l’estomac à une masse d’aliments est sans danger. On a reconnu, en effet, que le curare, de même que le venin de serpent et la bave du chien enragé, peut être introduit avec innocuité dans les voies digestives, si leurs muqueuses sont exemptes d’excoriations.

On a mélangé aux aliments d’un chien ou d’un lapin du curare en quantité beaucoup plus considérable qu’il ne serait nécessaire pour l’empoisonner par une plaie, et cela sans que l’animal en éprouve aucun inconvénient.

Toutefois, Claude Bernard a très bien fait voir qu’il n’y a nullement là une propriété absolue. C’est un cas commun, à des degrés divers, à beaucoup d’autres substances, médicaments ou poisons. La différence s’explique par la faculté qu’ont les substances amorphes d’être absorbées très lentement à la surface des membranes muqueuses. Chez les jeunes mammifères et oiseaux à jeun, alors que l’absorption intestinale est très active, le curare ne peut plus être impunément introduit dans l’estomac. Cela se réduit simplement à dire qu’il faut des quantités beaucoup plus grandes de curare pour agir par les voies digestives que par une piqûre sous-cutanée.

Les flèches de guerre ont un dard fixe très acéré, formé par des os d’animaux ou du silex taillé ou par du bois très dur ; quelquefois le dard est garni d’épines disposées en sens inverse, de manière à empêcher le trait de sortir de la blessure. Les pointes de ces flèches sont enduites de curare concentré et en excès, et les plaies, même légères, qu’elles produisent sont mortelles, si on n’a pas eu immédiatement le soin d’arrêter la circulation du sang en serrant le membre atteint, au-dessus de la plaie, par une forte ligature.

Le curare introduit dans les tissus vivants détermine la mort d’autant plus rapidement que le venin pénètre plus vite dans le sang ; la mort est plus prompte quand on injecte sous la peau une solution de curare que quand on laisse agir le poison sec d’une pointe de flèche. Les animaux vigoureux, à circulation rapide, sont plus faciles à empoisonner que les animaux anémiques, et, pour une même dose de poison et des sujets de même taille, les animaux à température constante meurent plus vite que ceux à température variable (Reptiles, Batraciens, Poissons), et, parmi les premiers, les Oiseaux succombent plus rapidement que les Mammifères.

Tout d’abord l’animal ne s’aperçoit pas de sa blessure, car le curare n’a aucune propriété caustique. Si les animaux sont très petits, la mort est presque foudroyante. Chez les Oiseaux et les Mammifères plus gros et chez les animaux à température variable, la mort, s’il y a excès de poison, se produit en général dans un temps qui varie entre cinq et douze minutes. Bientôt l’animal se couche, comme s’il voulait dormir, l’œil ouvert, le regard calme ; il est envahi par une paralysie progressive du mouvement, partant des extrémités pour aboutir au centre. Les muscles des mouvements respiratoires cessent d’agir les derniers et l’animal meurt par asphyxie, c’est-à-dire que la respiration ne s’opère plus.

Rien de plus calme en apparence que cette stupeur croissante ; aucune agitation, aucune expression de douleur. La bouche reste fermée, sans écume, ni salive. Dans tous les autres genres de trépas que l’on connaît, il y a toujours vers l’agonie des convulsions, des regards affreux, des cris ou des râles indiquant une souffrance et une sorte de lutte entre la vie et la mort.

Dans le curare rien de pareil ; pas d’agonie, la vie paraissant s’éteindre lentement, comme un fluide qui s’écoule.

Un des travaux de Claude Bernard, a été de déterminer exactement le mode spécial d’action du curare. L’activité vitale offre une chaîne à anneaux distincts de trois éléments organiques, hiérarchiquement subordonnés, et jouant le rôle d’excitant les uns par rapport aux autres. Le point de départ de l’action physiologique se trouve dans l’élément nerveux sensitif ou intellectuel ; sa vibration se transmet suivant son axe, et, arrivée à la cellule nerveuse, véritable relais, la vibration sensitive se transforme en vibration motrice. Cette dernière se propage à son tour dans l’élément nerveux moteur, et, arrivée à son extrémité périphérique, elle fait vibrer la fibre de l’élément musculaire, qui, réagissant en vertu de sa propriété essentielle, opère la contraction et par suite le mouvement.

Or chacun des trois éléments, sensitif, moteur et musculaire, vit et meurt à sa manière et a ses poisons qui lui sont propres ; mais les manifestations vitales exigeant le concours de ces trois activités, si l’une d’elles vient à être supprimée, les autres continuent à vivre sans doute, mais n’ont plus de sens, comme une phrase perd sa signification si un de ses membres vient à lui manquer.

Les expériences de Claude Bernard ont démontré que l’élément nerveux moteur est seul atteint par le curare et que les deux autres éléments organiques de l’animal conservent leurs propriétés physiologiques. L’intelligence n’est pas anéantie, la fibre musculaire est encore capable de contraction, et peut en effet se contracter sous les décharges électriques. La motilité est abolie seule ; si les manifestations caractéristiques de la vie ont disparu , ce n’est pas parce qu’elles sont réellement éteintes, mais parce qu’elles se sont trouvées successivement refoulées et comme envahies par l’action paralytique du poison.

Dans ce corps sans mouvement, derrière cet œil terni, avec toutes les apparences de la mort, la sensibilité et l’intelligence persistent encore tout entières : le cadavre apparent entend et distingue ce qu’on fait autour de lui ; il ressent des impressions douloureuses quand on le pince ou qu’on le brûle, il a encore le sentiment et la volonté, mais il a perdu les instruments qui servent à les manifester. Les mouvements les plus expressifs des facultés disparaissent les premiers, d’abord la voix, puis les mouvements des membres, ceux de la face et du thorax et enfin les mouvements des yeux, qui, comme chez les mourants, persistent les derniers.

Peut-on concevoir un plus affreux supplice que celui d’une intelligence assistant ainsi à la soustraction successive de tous les organes destinés à la servir, comme le dit de Bonald, et se trouvant en quelque sorte enfermée toute vive dans un cadavre. Loin de nous donc la pensée de désirer pour notre fin ce lourd et calme sommeil que semble produire le curare. Cette mort, exempte de toute douleur en apparence, est au contraire accompagnée des plus horribles souffrances que l’imagination de l’homme soit capable d’imaginer.

(Maurice Girard)

Claude Bernard avait eu, avant sa mort, l’intention de réunir en un petit volume, divers mémoires détachés et quelques leçons sur différents sujets. Les éditeurs, J. B. Baillière & fils, par un pieux souvenir d’une bien ancienne et sincère amitié, ont accompli le vœu du célèbre savant.
La Science expérimentale par Claude Bernard ; Paris, 1878. - Problèmes de la physiologie générale. - La vie, les théories anciennes et la science moderne. - La chaleur animale. - La sensibilité. - Le curare. - Le cœur. - Le cerveau.

NB : Sur la préparation du curare, voir les Comptes rendus de l’Académie des sciences, séance du 14 janvier 1878, p. 121.

En dehors des curares, il y a d’autres types de poisons. L’un des plus terrifiants et des plus puissants poisons est un alcaloïde animal qui provient d’un petit amphibien. La puissance de son venin est inversement proportionnel à sa taille. On estime qu’il est 250 fois plus puissant que le curare. Son vecteur est une grenouille de couleur vive, jaune, bleue ou rouge.

Sa couleur chatoyante pourrait dénoter dans l’univers sombre de la jungle amazonienne. Cette stratégie de se montrer paradoxalement extrêmement voyante à ses prédateurs potentiels, lui permet d’annoncer la couleur, et de clamer silencieusement "attention danger". Cette attitude de mise en garde chromatique s’appelle aposématisme. Pour que cette stratégie soit efficace, il faut un apprentissage du prédateur qui conduira à un évitement si le contact est simplement désagréable.

Si le prédateur vomit, l’évitement sera plus intense et porte le nom d’aversion gustative acquise ou effet Garcia

Les deux espèces les plus redoutables et ayant leur venin classé parmi les plus foudroyants de la planète, sont les dendrobates et les phyllobates.

 Batrachotoxine et indiens Emberà.

La plus toxique d’entre elles a été nommée Phyllobates terribilis, et elle n’a été décrite qu’en 1978. Les indiens Emberà, utilisent son poison pour chasser.

Ils manipulent sans le savoir un des produits naturels les plus toxiques au monde. La dose létale estimée chez l’humain est de 1 à 2 microgrammes/Kg. Un spécimen en contenant 1900 microgrammes.

Cet alcaloïde est neurotoxique et cardiotoxique.

Les indiens frottent leurs fléchettes contre le dos des grenouilles, là où se trouvent les glandes qui secrètent le poison. Contrairement à d’autres tribus voisines qui utilisent d’autres grenouilles que la Phylobattes terribilis, la létalité de sa toxine est telle que les Emberà n’ont pas besoin de la « torturer » pour lui faire fabriquer plus de substance. Ils la manipulent avec précaution, à travers des feuilles coupées, pour éviter de la toucher.

Charles William Myers, herpétologiste américain et Curator Emeritus du Department of Herpetology du American Museum of Natural History relate qu’un chien est mort après avoir joué avec des gants usagés ayant servi à la manipulation d’amphibiens.

Cependant, une phyllobate ou une dendrobate née et élevée en captivité ne va pas sécréter de toxine. Le mystère n’a été partiellement dévoilé qu’en 2004, ou l’on a découvert que ces grenouilles concentraient la batrachotoxine à partir d’un coléoptère de la famille des Melyridae dont elles se nourrissent, et qu’elles ne trouvent qu’en pleine jungle.

Il en va de même pour un oiseau venimeux, le Pitohui bicolore qui se délecte du même type de coléoptère qui serait donc porteur de cette batrachotoxine, appellation par conséquent impropre, car la grenouille n’en serait que le vecteur et pas le producteur.

On l’a vu l’utilisation de fléchettes empoisonnées contre d’autres hommes, au cours des guerres tribales est rare, voire mal vue. Cela explique pourquoi les chroniqueurs espagnols ne mentionnent qu’à peine leur utilisation guerrière. Mais les Emberà semblent moins choqués par cette utilisation. Charles Myers rapporte ainsi un fait-divers de 1977 au cours duquel un homme frappé par une fléchette s’est écroulé mort, après une course de quelques centaines de mètres.
Myers C.W., Daly J.W., Malkin B. : A dangerously toxic new frog (Phyllobate) used by Emberá Indians of Western Colombia, with discussion of blowgun fabrication and dart poisoning. Bulletin American Museum Nat History, New York, 1978 ; 161 : Article 2, 311-64.

A lire :

 L’article SOFIA sur les curares et les antagonistes

Pour poursuivre sur les poisons végétaux ou animaux

 La thèse de Benjamin Guillon, dr vétérinaire, sur les dendrobatidae.

Thèse du dr Benjamin Guillon, les dendrobatidae, conservation ex-situ

 Pour savoir si vous avez de charmantes grenouilles dans votre jardin

 JOHN W. DALY. The chemistry of poisons in amphibian skin. Proc. Natl. Acad. Sci. USA. Vol. 92, pp. 9-13, January 1995

The chemistry of poisons in amphibian skin
document en anglais

La poubelle

Extraits de "L’écologuide de Paris, 2002" publié chez Robert Jauze (4e trimestre 2001)

Pendant longtemps, les Parisiens ont jeté leurs déchets sur la voie publique ou dans les fossés. C’est grâce à ces déchets, qui se sont fossilisés, que l’on peut reconstituer les modes de consommation des Parisiens depuis deux mille ans. Merci les déchets, témoins du passé !

Prenons quelques instants pour tourner les pages de l’histoire de Paris, la fameuse « Ville Lumière ». Ce retour en arrière nous montre que la Capitale n’a pas toujours été aussi belle qu’on veut bien nous le faire croire.

En voici quelques exemples :

 En 1184, Philippe Auguste souhaite lutter contre la marée montante des ordures dans Paris en commandant le pavage des rues de la cité.

"Le roi se trouvant à Paris pour les affaires de l’État, habitait le palais dans la Cité. S’étant mis à une fenêtre d’où il voyait les eaux du fleuve, par laquelle il aimait à regarder, pour se distraire, les chariots qui traversaient la Cité soulevèrent une odeur si fétide de la boue amassée dans les rues, que le roi ne put la supporter ; il jugea qu’il était nécessaire d’exécuter un projet auquel avaient pensé quelques-uns de ses prédécesseurs, mais qu’ils n’avaient pas exécuté à cause de la trop grande dépense. Ayant donc convoqué les principaux bourgeois de la ville et le prévôt, il donna l’ordre de garnir de fortes pierres les rues principales".Quatre cents ans plus tard, seulement la moitié des rues est pavée. (De Gestis Philippi Augusti ; Recueil des histor. de France. Rigord. )

 En 1348, une ordonnance du prévôt de Paris prononce pour la première fois des amendes contre le défaut de nettoiement. Le roi Jean confirma l’ordonnance du prévôt : Nul ne doit nourrir pourceaux chez soi, à découvert ou en lieu caché, ni laisser pareilles bêtes errer par les rues, à peine de 60 sous d’amende et d’occision des porcs. Sont seuls exceptés, les religieux de Saint-Antoine, à cause du cochon attribut de leur patron.

 Louis XII décide, en 1506, que la royauté se chargera du ramassage des ordures et de leur évacuation. À la taxe prévue pour ce service s’ajoute celle destinée à financer l’éclairage axial des rues. La taxe prend le nom de « taxe des boues et des lanternes ». L’hostilité générale enterra cette ordonnance pour longtemps.

 En 1750, Rousseau quitte la Capitale en la saluant par un « Adieu, ville de boue ! ». Il est vrai que Paris était connu depuis longtemps sous ce vocable puisque Lutèce viendrait du latin lutum qui signifie boue. Dans ses mémoires, le Baron Haussmann rappel l’origine de "notre beau Paris". Précisant qu’il n’apprendrait "rien à personne, en rappelant ici que la Cité - l’antique Lutèce, la "ville de boue", suivant une étymologie latine, peu flatteuse, - fut le berceau de Paris".
(Mémoires du Baron Haussmann. Volume III, Grands travaux de Paris. Paris 1893.)

Cette affirmation est vivement critiquée : "Aucune étymologie scientifique n’a été proposée avec certitude ; les rapprochements avec le latin lutum "boue" ou le grec lougeion nom d’un marais, s’ils sont séduisants à cause du caractère quelque peu marécageux du site, n’ont pas de fondement philologique et ne peuvent être retenus".
(Nouvelle histoire de Paris. De Lutèce oppidum à Paris capitale de la France. Paul-Marie Duval. Diffusion Hachette. 1993.)

 Dans la seconde moitié du XVIIIe siècle, Louis Sébastien Mercier, véritable reporter parisien de l’époque, signe de belles formules dans son Tableau de Paris, exemples : « O, superbe ville ! Que d’horreurs dégoûtantes sont cachées dans tes murailles ! » Ou encore, « En général le Parisien vit dans la crasse ».

 En 1799, une ordonnance de police impose aux propriétaires et locataires parisiens de balayer chaque jour devant leur logis.

 En mars 1883 est créée une taxe spécifique « balayage ». Au même moment, les découvertes de Pasteur se révèlent décisives dans l’histoire de l’hygiène. C’est aussi la période des grands travaux, entrepris par Haussmann, qui transforment le paysage urbain parisien.

Le 24 novembre 1883, Eugène Poubelle, préfet de la Seine, signe le fameux arrêté qui oblige les propriétaires parisiens à fournir à chacun de leurs locataires un récipient muni d’un couvercle. Ainsi naissent les poubelles (voir plus bas l’histoire de l’arrêté Poubelle). Parallèlement commence le ramassage de la boîte à ordures qui prendra rapidement le nom de poubelle !

7 Mars 1884, Eugène Poubelle, Préfet de la Seine signe pour la deuxième fois, et après intervention des élus parisiens, un arrêté ayant pour titre "Enlèvement des ordures ménagères, Règlement".

Ces arrêtés posent les bases de la collecte des ordures ménagères et définissent les caractéristiques du récipient qui sera mis à la disposition des locataires des immeubles et qui deviendra la fameuse "poubelle".

Le préfet Poubelle avait tout prévu : dimension et contenance des boîtes. Il avait même imaginé la collecte sélective. Trois boîtes étaient obligatoires : une pour les matières putrescibles, une pour les papiers et les chiffons, et une dernière pour le verre, la faïence ou les coquilles d’huîtres ! Ce nouveau règlement ne fut que partiellement respecté. Concernant le tri, plus d’un siècle après, on le redécouvre...

C’est dans un article publié dans Le Figaro du 16 janvier 1884 que l’on trouve, pour la première fois, mention de la boîte poubelle. Dans cet article la mot poubelle est écrit avec un "P" majuscule. Il arrive, en fait, dans une série de citations faisant références à d’autres réalisations préfectorales.

Hermine n° 15 sur le prefet Poubelle

Il aura fallu attendre près d’un siècle entre l’invention de la poubelle et la mise en place d’une véritable collecte et de lieux de stockage des déchets.

En 1975, la loi confie aux collectivités locales la responsabilité d’organiser la collecte des déchets ainsi que leur traitement ou leur stockage dans un lieu agréé.

Devant le développement des décharges et les problèmes de pollution (des sols surtout), la loi est modifiée en juillet 1992 : les collectivités locales doivent s’organiser pour supprimer les dépôts sauvages et valoriser les déchets par le recyclage, le compostage ou l’incinération propre.

A noter : le vide-ordures date de 1919, la poubelle Vipp à pédale a été inventée au Danemark en 1939, tandis que le sac poubelle a été créé par les Canadiens Harry Wasylyk, Larry Hansen et Frank Plomp.en 1950.

Défibrillateur externe

1899 premiers essais réussis de défibrillation sur l’animal (Prevost et Batelli).

1933 Défibrillation sur l’animal (Hooker Kouwenhoven).

1947, le médecin américain Claude Beck réussit la première défibrillation – à cœur ouvert – sur un garçon de quatorze ans qui venait de subir une opération. L’appareil avait été fabriqué par un ami à lui, James Rand.

1956 premières défibrillations externes chez l’homme. Le premier défibrillateur suffisamment puissant pour être efficace sans avoir à opérer fut mis au point par le Dr. Zoll en 1956.

1962 France : L’utilisation des défibrillateurs est strictement réservée au personnel médical (Circulaire du 6 janvier 1962).

1967 Défibrillateur extrahospitalier mis en place en Angleterre (Pantridge et Geddes).

1989 France : Avis favorable du Comité d’Éthique et de l’Ordre National des Médecins pour la manipulation de ces appareils par des "non- médecins" au vu de l’expérimentation de la D.S.A. mise en place par les Docteurs Petit, Prost et Rebreyend-Colin entre les Sapeurs Pompiers de Lyon et le SAMU 69.

1993 France : premières communications des résultats montrant l’intérêt de la défibrillation semi-automatique (Revue des SAMU).
France : Autorisation du Ministère de la Santé pour la réalisation d’expérimentations à Lille et à Paris.

 Défibrillateur implantable

1969 : Test du prototype sur un chien.

1980 : Première implantation du défibrillateur sur une patiente de 57 ans.

1998 : Premier système double chambre, contrôlant l’oreillette et le ventricule droits.

1999 : Premier système triple chambre, capable de stimuler aussi le ventricule gauche.

En 1970, Michel Mirowski invente le défibrillateur implantable.

Une folie ! Voilà comment, dans les années soixante, les cardiologues qualifiaient le projet de leur collègue Michel Mirowski. Ce dernier voulait implanter un défibrillateur cardiaque directement dans le corps humain. Or, ces appareils qui devaient délivrer un choc de 400 joules, pesaient entre 13 et 18kg !

Mais le médecin de Tel Aviv (Israël) est pugnace, poussé par la certitude que le décès de son mentor, mort chez lui après plusieurs crises de tachycardie, aurait pu être évité.

Selon lui, il faudrait implanter chez les personnes présentant des risques de fibrillation, un dispositif permanent capable de détecter et de corriger toute accélération anormale du rythme cardiaque.

Émigré en 1968 aux États-Unis, plus propices à son projet, Michel Mirowski affirme qu’une impulsion électrique directement administrée sur le cœur plutôt qu’à travers la poitrine subirait moins de pertes.

Il suffirait de 20 joules et l’appareil serait donc de taille réduite. Michel Mirowski met au point en 1970 le premier défibrillateur cardiaque implantable. Il se compose d’un générateur d’impulsions, d’électrodes le reliant au cœur et d’un système de programmation. En cas de fibrillation, ou d’arrêt cardiaque, il génère une décharge qui rétablit un rythme normal dans les dix à vingt secondes.

En 1980, l’inventeur assiste à la première implantation, sur une patiente de 57 ans. Mirowski décédera en 1990, mais son œuvre continuera d’être perfectionnée. Les premiers appareils, lourds et volumineux - 300g -, étaient placés dans la paroi abdominale. Depuis 1993, ils sont assez fins pour être disposés sous la clavicule ou sous la peau.

L’ajout d’une fonction cardioverteur autorise des chocs de basse énergie. La fonction confirmation du diagnostic limite les décharges inappropriées en cas de retour spontané à un rythme normal. Et une fonction holter mémorise plusieurs cycles.

Devenus plus sûrs et plus durables, les défibrillateurs implantables sont un moyen de prévention de la mort subite, laquelle est responsable de 40 000 décès par an en France.

Le défibrillateur implantable. (American heart journal)

La réanimation cardio pulmonaire

Avant les années 1950, quand une personne subissait un arrêt cardiaque, cette mort était irrécupérable. Mais le chirurgien et médecin innovateur Peter Safar a tout changé avec le développement et la vulgarisation de la procédure dite de réanimation cardio-respiratoire ou RCP.

Peter Safar est né à Vienne, en Autriche, le 12 avril 1924 d’un père chirurgien et mère pédiatre. Il a suivi des études de médecine à l’université, où il obtient son doctorat de l’Université de Vienne en 1948. Il a ensuite étudié en oncologie et en chirurgie sur une courte période avant de se rendre à l’hôpital de Yale New Haven dans le Connecticut en 1950 pour continuer ses études. Il achève ses études à l’Université de Pennsylvanie en 1952, où il a étudié l’anesthésiologie.

De là, Safar se rend au Pérou pour superviser le département d’anesthésiologie à l’Institut national du cancer à Lima. Puis il occupa un poste similaire au City Hospital de Baltimore dans le Maryland, où il y travailla jusqu’en 1961. Safar mena des recherches sur les procédures de base des « life support », y compris le contrôle des voies aériennes respiratoires d’une personne en basculant la tête en arrière, bouche ouverte, et en utilisant le bouche-à-bouche. Il a associé ces techniques avec une procedure connue sous le nom massage cardiaque à poitrine fermée, qui deviendra la méthode de base de la RCP.

Tout au long de sa vie Peter Safar a hésité à s’arroger la paternité de la RCP.
Pour lui, il a simplement mis en lumière des procédures efficaces déjà découvertes, en les mettant ensemble dans ce qu’il a appelé « l’ABC », le maintien des voies aériennes du patient, (Airway) respiration (Breathing) et la Circulation. Il a travaillé pour vulgariser la procédure dans le monde entier et a collaboré avec une société norvégienne, Laerdal, pour créer « Resusci Anne », le premier mannequin de formation aux premiers secours.

La réputation de Peter Safar dans les domaines de l’anesthésiologie et de réanimation a continué de croître au fur et à mesure de ses travaux. Il a déménagé à l’Université de Pittsburgh en 1961 pour former un nouveau département d’anesthésiologie, qui est depuis devenu le plus grand département anesthésie universitaire des Etas-Unis. Là, il a consolidé sa place de pionnier en matière de réanimation cardio-pulmonaire et de soins intensifs, en développant la première unité de soins intensifs et un service d’ambulanciers paramédicaux.

La tragédie a frappé en 1966, lorsque sa fille de 11 ans, Elizabeth, mourut d’une crise d’asthme. Les médecins avaient été en mesure de relancer son cœur et de la ventiler, mais son cerveau subit de graves séquelles, après avoir sombré dans le coma. Ce malheur obligea Safar à se focaliser sur une méthode de réanimation cardio-respiratoire, et cérébrale. Safar a travaillé sur le « suspended animation for delayed resuscitation », une réanimation retardée en employant des techniques de refroidissement du corps pour créer une hypothermie protectrice bénéfique.

Peter Safar a aussi créé les premiers guidelines pour les services d’urgence médicale à l’échelle communautaire, il a fondé l’International Resuscitation Research Center (IRRC) à l’Université de Pittsburgh, qu’il a dirigé jusqu’en 1994, et il a été nominé trois fois pour le prix Nobel de la médecine. Il a aussi été un défenseur infatigable de ce qu’il a appelé « la médecine de la paix" et les droits de l’homme. Il a publié 1300 documents professionnels, 600 résumés, et 30 livres et manuels.

Peter Safar est décédé le 3 août 2003 à l’âge de 79 ans.

Les dernières recommandations internationales de l’ILCOR et de l’ERC inversent la procédure initiale de Safar. ABC devient CAB où l’on privilégie la Circulation (par le massage cardiaque qui doit être entrepris sans délai), la libération des voies aériennes (Airway) et la ventilation (Breathing)

À lire :
 le 1er massage cardiaque de l’Histoire
 Réanimation cardio respiratoire guidelines ILCOR-ERC 2020-2025 publiées le 20 octobre 2020. Elles font suite aux recommandations

L’appendicectomie

Certainement la plus connue du grand public, cette intervention est codifiée et banalisée de nos jours.

Claudius Amyand, est l’auteur de la première appendicectomie réalisée dans l’histoire de la médecine en 1735, à l’hôpital St George à Londres

La première description anatomique de l’appendice a été réalisée par Leonard de Vinci en 1492. Vesalius a également mentionné l’appendice dans son œuvre « De humani corporis fabrica » en 1543, mais une description plus détaillée fut publiée par Morgagni en 1719.

En 1711, Heister décrit le cas d’une appendicite aiguë perforée avec abcès, découverte à l’autopsie d’un criminel exécuté. En 1759, Mestiever draine un abcès de la fosse iliaque droite chez un patient de 45 ans. La fistule débita longtemps et après le tarissement de l’écoulement le patient décéda. L’autopsie révéla une appendicite aiguë perforée par une épingle avec abcédation.

La première intervention pour une appendicite aiguë est attribuée au chirurgien français De Garengrot en 1731. L’intervention a consisté en un drainage d’abcès inguinal qui secondairement s’est avéré être un abcès appendiculaire avec issue fatale. La première appendicectomie de la littérature a été effectuée le 6 décembre 1735 par Claudius Amyand, chirurgien chef de l’hôpital St George à Londres.

Un garçon de 11 ans y fut admis avec une hernie inguinale droite existante de longue date, mais ayant développé une fistule stercorale au niveau du scrotum droit depuis un mois. Amyand décida de tenter une opération et décrit l’intervention comme difficile dans une publication londonienne une année plus tard : « This operation proved the most complicated and perplexing I ever met with, many unsuspected oddities and events concurring to make it as intricate as it proved laborious and difficult ».

Lors de l’intervention, Amyand réalisa une incision inguinale et trouva une appendicite aiguë perforée par une épingle située au sein d’un stercolithe, elle-même dans un sac herniaire inguinal. Le chirurgien lia l’appendice, réséqua le sac herniaire et mit à plat la fistule. Cette intervention réalisée sans anesthésie fut sans doute aussi éprouvante pour le petit garçon que pour le chirurgien. Les suites opératoires furent simples et la plaie se ferma complètement en l’espace d’un mois.

John Benjamin Murphy militera pour l’ablation de l’appendice en cas d’inflammation.

Ce n’est qu’en 1889 que Mc Burney décrit le point et la voie d’abord, dit « gridiron » (dissection étoilée) en fosse iliaque droite qui a gardé son nom.

Claudius Amyand était le fils de George, d’une famille huguenote de Mornac, en Saintonge, en France, naturalisé à Westminster, le 9 Septembre 1698. Il est devenu un chirurgien à l’hôpital St George à Londres, servi dans l’armée en Flandre pendant la guerre de Succession d’Espagne et a été nommé sergent-chirurgien (chirurgien en session ordinaire) de George I en 1715, un poste qu’il a occupé par la suite sous George II pour le reste de sa vie.

Il a également prêté son nom à une maladie rare connue sous le nom de hernie Amyand, une forme rare de hernie inguinale qui survient lorsque l’appendice est contenue dans la hernie. En 1722, il a effectué l’inoculation des enfants de la Princesse Caroline. Lady Mary Wortley Montagu avait intéressé Caroline, princesse de Galles, dans la procédure : elle a organisé la fameuse expérience sur des prisonniers à Newgate Gaol avant de permettre le traitement de ses enfants.

Amyand épousa Mary Rabache le 6 Novembre 1717 à St Paul Benet’s Wharf, à Londres et ils eurent six filles et trois fils, Claude, George et Thomas. Claudius (1718-1774) est devenu gardien de la King’s (Cottonian) Bibliothèque en 1745 et en 1747 est entré au Parlement comme député pour Tregony à Cornwall, qui détenait le siège jusqu’en 1754. De 1754 jusqu’à 1756, il a été M.P. pour Sandwich. Partisan du duc de Newcastle, il devient son sous-secrétaire d’État, un poste qu’il a occupé dans les administrations successives jusqu’en 1756.

Le 26 Novembre 1761, il épouse Frances, veuve de George Compton, 6e comte de Northampton, devenant ainsi Lord du manoir de Long Sutton. Il est noté comme un résident de l’Ouest Sheen dans le Surrey. Son portrait a été peint par Thomas Gainsborough.

 En marge

Appendicite : le bistouri resterait la meilleure option
article du JIM
De moins en moins d’appendicectomies inutiles

Citons le cas d’auto appendicectomie, réalisée par un chirurgien sur lui-même. Ceci relève de l’exceptionnel.

Le premier publié est celui du Dr Kane en 1921.
(Rennie Drummond, MD, Do it to yourself section : the Kane surgery [archive], JAMA, 1987 ;257:825-6)

Un autre cas concerne le Dr Rogosov, en 1961, au cours d’une expédition dans l’Antarctique. (↑ Rogozov V, Bermel N, Auto-appendectomy in the Antarctic : case report[archive], BMJ, 2009 ;339:b4965)

Depuis septembre 1960, Leonid Rogozov était stationné sur la base russe Novolazarevskaya, nouvellement construite en Antarctique. Les 12 hommes à l’intérieur étaient coupés du monde extérieur, par l’hiver polaire. Au matin du 29 avril 1961, Rogozov alors âgé de 27 ans, commença à se sentir nauséeux, douloureux sur l’hypocondre droit, un peu fiévreux. Il compris vite la situation et fit son propre diagnostic : appendicite aigüe.

Toutes les mesures possibles de traitement conservateur furent insuffisantes. le 30 avril des signes évidents de péritonite localisée apparurent, et l’état de Rogozov s’aggrava au soir.

Mirny, la station de recherche soviétique la plus proche était à plus de 1.600 kilomètres de Novolazarevskaya. Les autres stations de recherche en Antarctique des autres pays ne disposaient pas d’un avion. Un blizzard important, empêchait tout atterrissage d’aéronefs. Rogozov était le seul médecin de la base, aussi n’eut-il pas d’autre choix que d’effectuer l’opération sur lui-même.

Il écrivit dans son journal

« Je n’ai pas dormi de toute la nuit dernière. Ça fait mal comme le diable ! Une tempête de neige transperçant mon âme, des gémissements, comme une centaine de chacals. Toujours pas de symptômes évidents que la perforation est imminente, mais un pressentiment m’oppresse… Ça y est… Je dois penser que la seule issue possible est de m’opérer moi-même… c’est presque impossible… mais je ne peux pas me croiser les bras et abandonner. »

L’opération a commencé à 22 heures, (2 heures, heure locale) le 30 Avril avec l’aide d’un mécanicien et d’un météorologue, qui ont assisté Rogozov en lui donnant les instruments et en tenant un miroir pour observer les zones non directement visibles, tandis que Rogozov était dans une position semi-allongée, à demi tourné sur son côté gauche. La visibilité dans la profondeur de la blessure n’était pas idéale, quelquefois il lui fallait lever la tête pour obtenir une meilleure vue ou d’utiliser le miroir, mais la plupart du temps, il a travaillé au toucher.

Une solution de procaïne 0,5% fut utilisée pour l’anesthésie locale de la paroi abdominale. Rogozov fit une incision 10-12 cm et se mit en quête d’exposer l’appendice malade. La faiblesse générale et des nausées survinrent environ 30-40 minutes après le début de l’opération, de sorte que de courtes pauses s’imposèrent.

À mi-parcours, Gerbovich appela Yuri Vereshchagin et lui demanda de prendre des photos de l’opération.

Rogozov

« Quand Rogozov avait fait l’incision et manipulait ses propres entrailles pour enlever l’appendice, l’intestin gargouillait, ce qui était très désagréable pour nous, il donnait envie de tourner le dos, de fuir, ne pas regarder, mais j’ai gardé la tête froide et suis resté . Artemev et Teplinsky également occupèrent leurs places, mais il s’est avéré plus tard qu’ils avaient été tous les deux, proches de l’évanouissement...
Rogozov lui-même était calme et concentré sur son travail, mais la sueur coulait sur son visage et il a souvent demandé Teplinsky pour s’essuyer le front...L’opération s’est terminée à 4h du matin, heure locale. À la fin, Rogozov était très pâle et visiblement fatigué, mais il a terminé le tout calmement.
 »

Selon Le rapport de Rogozov l’appendice présentait une perforation de 2x2 cm à la base. Les antibiotiques ont été administrés directement dans la cavité péritonéale. Vers minuit l’opération était terminée. (4 heures, heure locale).

«  J’ai travaillé sans gants. Il était difficile de voir. Le miroir peut aider, mais il gène également , après tout, c’est présenter les choses à l’envers. Je travaille principalement par le toucher. Le saignement est assez important, mais je prends mon temps, j’essaye de travailler surement. En ouvrant le péritoine, je me suis blessé l’intestin et j’ai dû le recoudre. Soudain, je pris conscience qu’il y a plus de blessures et que je ne les avais pas remarqués… Je suis de plus en plus faible, ma tête commence à tourner. Toutes les 4-5 minutes, je me repose pendant 20-25 secondes.

Enfin, le voici, le maudit appendice ! Avec horreur je vois la tache sombre à sa base. Cela signifie qu’il aurait fallu un jour de plus pour qu’il éclate et…
Au pire moment de l’ablation de l’appendice, je m’aperçois que mon cœur se bloque et ralentit sensiblement ; mes mains sont comme du caoutchouc. Eh bien, je pense que ça va mal finir. Et tout ce qui restait, était l’ablation de l’appendice… Et puis, j’ai réalisé que, au fond, j’étais déjà sauvé.
 »

L’intervention dura 1h45.

Ensuite Rogozov a montré à ses assistants comment laver et ranger les instruments et autres matériels. Une fois que tout était terminé, il prit des somnifères et se coucha pour se reposer. Le lendemain, sa température était de 38,1 ° C, il décrit son état comme « moyennement mauvais » mais dans l’ensemble il se sentait mieux. Il a continué de prendre des antibiotiques. et les signes de péritonite localisée disparurent.

Après une brève période de faiblesse postopératoire, les signes de péritonite disparurent et après quatre jours, sa fonction de défécation revint à la normale . La température est revenue à la normale au bout de cinq jours, et les points de suture ont été enlevés sept jours après l’opération. Il reprit ses fonctions régulières au bout de deux semaines.

En 1961, Rogozov reçu l’Ordre du Drapeau Rouge du Travail. Dans le musée de l’Arctique et de l’Antarctique de Saint-Pétersbourg sont exposés les instruments chirurgicaux que Leonid Rogozov utilisa pour cette opération.

Rogozov mourut le 21 septembre 2000, à l’âge de 66 ans à Saint-Pétersbourg.

Rogozov
Self operation by leonid Rogozov
Rogozov a publié une courte note de son intervention dans le Bulletin d’information soviétique Antarctique Expedition, numéro 37, pp 42-44, 1962.
Rogozov V, Bermel N, Auto-appendectomy in the Antarctic case report

L’information ci-dessus a été fournie par Alexander Zaitsev, le scientifique russe, en hiver 1977. Lorsque les bulletins ont été traduits en anglais, ils ont été compilés dans des volumes de dix numéros, les numéros 31-40 ont été mis dans le volume 4. La référence en anglais pour la note du Dr Rogozov est Rogozov KI : Self-service. Bulletin d’information soviétique Antarctique Expedition 4:223, 1964

La version longue de l’histoire de l’opération est apparue bien plus tard dans le Journal médical britannique en Décembre 2009 et un article le relata le 14 mars 2011.

Novolazarevskaya est à 70 ° S 11 ° E, La base a été édifiée en 1960-61 sur le roc (l’Oasis Shirmacher) sur la terre de la reine Maud, Elle est située à 75km de la côte et de la lisière des glaces. La base connu sous le nom de Novo a été fermé pendant quelques temps en 1992.
La piste de glace bleue également utilisée pour les activités touristiques est à quelques miles au sud-ouest.

A voir aussi ici, encore ici ou enfin .

La légende tenace qui impose au médecin d’un sous-marin d’être impérativement opérée de l’appendice, est le fruit des suites d’une évacuation d’un médecin victime d’une appendicite dans les années 1970 interrompant de fait une mission française.

Le magazine col bleu relate l’intervention d’un marin au sein d’un SNLE (sous-marin nucléaire lanceur d’engin). On retiendra surtout le temps d’anesthésie et d’intervention... « Au final, après deux heures de gestes opératoires et quatre heures d’anesthésie, un appendice bien malade rejoint son pot formolé »

A lire cet article sur le sujet

Appendicite aiguë et médecins des sous-marins

et la thèse du docteur Entine

Appendicectomie préventive avant un départ en zone isolée (thèse du dr Entine)

Dans la même veine (si je puis dire...) "Frightening Examples of Do-It-Yourself Surgery" et l’article wikipedia self-surgery

Un autre cas : Appendix Surgery on the Trail

En 2012, 83 400 appendicectomies étaient pratiquées en France. Leur nombre a fortement diminué depuis les années 1980 où il était estimé à plus de 300 000. Cette baisse n’a pas concerné les interventions pour péritonites ou abcès appendiculaires, formes graves de l’appendicite aiguë, qui sont restées stables, mais essentiellement les autres formes d’appendicite. Elle a été plus importante chez les femmes et chez les grands enfants et adolescents.

Cette évolution a débuté avant que l’échographie et le scanner deviennent des examens usuels dans la démarche diagnostique et résulterait plutôt d’un changement de perception des dangers de cette pathologie. La pratique de l’appendicectomie en France continue de baisser et s’est ainsi rapprochée de celle des autres pays, qui ont aussi connu une diminution mais de moindre ampleur.

La mortalité au cours du séjour, très faible, est essentiellement due aux formes graves survenant chez les personnes âgées. L’intervention est réalisée majoritairement par voie coelioscopique depuis 2005 et la durée de séjour a diminué même pour les formes graves.

Philippe Oberlin, Marie-Claude Mouquet, « La longue diminution des appendicectomies en France », Études et résultats, n°868, Drees, février 2014

source : drees.sante.gouv.fr

l’Aspirine

L’aspirine est un médicament de synthèse, utilisé pour lutter contre les douleurs et les fièvres, dont le principal constituant - l’acide acétylsalicylique - est extrait de l’écorce de saule blanc.

Les propriétés curatives de cet arbre étaient connues et utilisées dès l’Antiquité. En 1929, le chimiste français Pierre Joseph Leroux isola sous forme cristalline le principe actif du saule : la saliciline. Mais l’utilisation thérapeutique de l’acide salicylique n’était pas exempte de défaut, elle provoquait notamment des brûlures d’estomac.

Il fallut attendre 1853 pour que le chimiste français Charles Frédéric Gerhardt réalise la première synthèse de l’acide acétylsalicylique. Cependant, il ne réalisa pas l’importance de sa découverte et l’abandonna. Ce ne fut qu’en 1894 que Felix Hoffmann, un chimiste allemand employé au sein de la firme Bayer, redécouvrit les recherches de Gerhardt et obtint de l’acide acétylsalicylique pur.

L’histoire raconte que Felix Hoffmann (1863-1946), jeune chimiste dans les laboratoires de Bayer à Elberfeld (aujourd’hui Wuppertal), dont le père rhumatisant se soignait avec de l’acide salicylique et se plaignait de douleur à l’estomac, eut l’idée de le substituer pour la première fois à l’acide acétylsalicylique, moins agressif pour cet usage, au remède habituel. Convaincu de l’intérêt de cette découverte, il transmit ses notes à son supérieur Heinrich Dreser (1860 - 1926) qui se rendit compte immédiatement que Bayer avait mis la main sur un médicament exceptionnel.

Plus tard il sera mentionné le travail du Russe Marcellus Nencki (1847-1901), professeur à Berne, qui avait, dix ans plus tôt, pensé à introduire l’acide salicylique et le phénol dans une combinaison unique dénommé salol, comme analgésique, antipyrétique et anti rhumatismal.

Il existe cependant une autre version moins idyllique mais vraisemblable.

Spécialisée dans la fabrication des matières colorantes, la Société Bayer, fondée en 1881, décidait vers 1895 de s’intéresser aux produits pharmaceutiques. Elle avait fait appel au pharmacologue Heinrich Dreser et au Dr Arthur Eichengrün (1867-1949), plus spécialement chargé de la chimie thérapeutique. Hoffmann faisait partie de l’équipe de chimistes recrutés à cette même occasion.

Parmi les sujets de travail proposés figurait l’obtention de nouveaux dérivés de l’acide salicylique qui n’auraient pas les inconvénients déjà signalés. Dreser chargé de tester l’éventuel intérêt des nouveaux produits attachait beaucoup d’importance à un test mesurant l’activité des sels sur le coeur de grenouille.

Eichengrün et Dreser occupaient des positions hiérarchiques sensiblement identiques, mais ne pouvaient pas se supporter. Le premier était convaincu de l’innocuité de l’acide acétylsalicylique tandis que le second était persuadé qu’il était un véritable poison cardiaque. Eichengrün prit la folle décision de poursuivre ses essais sur l’aspirine à titre privé.

Il expédia quelques grammes à Goldmann représentant Bayer à Berlin pour les confier à des médecins amis afin qu’ils réalisent des essais en secret. Plusieurs d’entre eux confirmèrent rapidement l’efficacité du médicament dans le traitement des rhumatismes. Goldmann envoya au siège un rapport qui fit quelques bruits.

Il est impossible de breveter un produit pharmaceutique qui a fait l’objet de publications antérieures. Bien qu’ayant découvert les propriétés thérapeutiques de l’acide acétylsalicylique, aucun brevet allemand ne pourra protéger cette " invention ", seule une " marque déposée " assurera une propriété industrielle à la société Bayer. Finalement le 1er février 1899, Bayer déposait en Allemagne la marque qui devait devenir célèbre, puis quelques mois plus tard, en France et au Bureau International de Berne. Elle obtint le brevet aux Etats-Unis pour l’aspirine avec Felix Hoffmann comme seul inventeur.

Dans ce mot nouveau, Aspirine®, le "A initial" n’était autre que le a d’acétyle, tandis que le " milieu SPIR " rappelait Spiraea ulmaria (la reine-des-prés, ou spiré ulmaire) d’où l’on peut extraire une substance apparentée à l’acide salicylique, la "fin INE " est celle attribuée à tous les médicament de l’époque comme morphine, adrénaline, etc.

Le succès de la marque Aspirine® de Bayer fut tel qu’un codicille du traité de Versailles imposait à l’Allemagne vaincue de céder ce nom pour désigner ce produit dans les pays vainqueurs. En fait le brevet américain était tombé dans le domaine public en 1917. La branche américaine de la société Bayer a racheté en 1994 les droits sur sa marque aux USA.

Soeur Marie Thérèse des Batignoles Maester

NB Historique de la découverte de l’aspirine : la nature

Le réfrigérateur

Avant l’invention des réfrigérateurs, on stockait la glace découpée l’hiver sur les étangs dans une glacière. Il s’agissait d’un trou fermé par un couvercle isolant dans lequel on alternait des couches de paille et de glace. Comme l’air froid descend, le trou restait froid et la glace se conservait jusqu’à l’été.

Des inventeurs tentèrent de fabriquer de la glace à la fin du XVIIIe siècle et au début du XIXe. Edmond Carré invente, en 1850, le réfrigérateur à eau et acide sulfurique.

Mais la première véritable tentative d’utilisation industrielle de la réfrigération date de 1851 : James Harrison, un imprimeur écossais émigré en Australie, avait acheté une entreprise de presse. Alors qu’il nettoyait des caractères à l’éther, il remarqua que le liquide refroidissait fortement le métal en s’évaporant. L’éther est un liquide à faible point d’ébullition. Harrison eut l’idée de comprimer l’éther gazeux avec une pompe pour le transformer en liquide, puis de laisser l’éther liquide revenir à l’état gazeux en provoquant un refroidissement.

Il mit ce système en œuvre dans une brasserie australienne où le gaz froid d’éther était pompé dans des tuyaux qui circulaient dans le bâtiment. Harrison utilisa le même principe pour fabriquer de la glace en faisant passer dans de l’eau les tuyaux refroidis par l’éther gazeux. Mais il fit faillite en 1860 : la glace naturelle qu’on importait par bateau d’Amérique restait moins chère.

Le réfrigérateur domestique a été inventé en 1876 par Carl von Linde. Mais d’autres inventeurs s’attribuent cette paternité, parce que cette technologie a mis du temps à se développer. Une des premières utilisations de la réfrigération domestique a eu lieu au domaine de Biltmore à Asheville, Caroline du Nord, États-Unis, autour de 1895.

Le premier réfrigérateur fabriqué industriellement est le Domelre, en 1913 par Fred W. Wolf de Chicago.

Le réfrigérateur à absorption de gaz, utilisé dans les maisons qui ne sont pas reliées au réseau électrique et dans des camping-cars, qui se refroidit par l’utilisation d’une source de chaleur, a été inventé en Suède par Baltzar von Platen en 1922.

La marque frigidaire fit son apparition en 1919. L’engin était encore bruyant.

La fabrication industrielle commença en 1931 avec Electrolux à Stockholm et Serval aux États-Unis.

En 1939 apparut le premier réfrigérateur à deux températures.
Il permettait de conserver les aliments congelés dans un des compartiments.

Indispensable de nos jours, il est présent chez plus de 90 % des ménages de France.

Le four à micro ondes

Durant la Seconde Guerre Mondiale, l’ingénieur américain Percy Le Baron Spencer, travaille pour la société Raytheon, un des leaders mondiaux dans les équipements de radars, sur la mise au point de radars pour l’armée. En 1945, après avoir testé un nouvel appareil, il remarque qu’une barre de chocolat a quasiment fondu dans sa poche. D’autres sources évoquent qu’il aurait constaté que sa « gamelle » posée à côté de l’antenne émettrice était chaude. On cite également des pigeons qui tombaient "cuits" après être passés à proximité des antennes des premiers radars anglais. (Cela mérite toutefois d’être vérifié, car la vitesse du vol semblerait suffisante pour ne pas avoir à subir les ondes trop longtemps).

Spencer fait rapidement la relation avec le radar et renouvelle l’expérience avec du pop-corn, puis un œuf. Il met plus de deux ans à concrétiser son idée d’un four fonctionnant aux micro-ondes.

Le premier appareil de cuisson aux micro-ondes, fut appelé "Radarange". Dans un premier temps, son invention n’est utilisée qu’au sein des collectivités, car elle demeure trop encombrante et trop cher pour s’intégrer dans les foyers. C’est la société Amana, filiale de Raytheon qui mit au point le premier four à micro-ondes ménager.

Un accord commercial avec une compagnie spécialisée dans les appareils de cuisson, signé en 1952, permet de réduire la taille du four et de rendre un usage domestique plus adapté.

Ce n’est qu’après 1965, que l’on pu faire entrer dans les cuisines ce qui deviendra un accessoire essentiel de notre quotidien. Les derniers fours en date, mélangeant le four traditionnel avec celui à micro-onde, ajoutant des fonctions crisp ou chaleur tournante, pyrolyse et autre, rendant le four polyvalent.

La cafetière

En 1802, lors d’une visite de Jean Chaptal et d’Antoine de Fourcroy à leur ami François-Antoine Descroizilles, pharmacien à Rouen, ce dernier leur montre son invention, la cafetière, faite de deux récipients superposés et séparés par un filtre. Descroizilles appelle son invention « caféolette ».

On attribue aussi l’invention vers 1800, au français Jean Baptiste de Belloy, archevêque de Paris, qui invente le système de la percolation du café et de la première cafetière (appelée aussi le dubelloire ou la débelloire). La cafetière est composée de deux récipients empilés, séparés au milieu par un compartiment où l’on place le café. On verse l’eau bouillante dans la partie supérieure de la cafetière ; le café s’infuse lentement et passe dans le récipient inférieur.

*(Auteur : Jean-Paul Coudeyrette)

Le mot « café », apparu vers 1600 sous diverses formes, est emprunté au turc qahve, lui-même repris à l’arabe qahwa qui, selon Littré, désigne la boisson, non la graine, et signifierait à l’origine « liqueur apéritive ».
Le mot se rencontre d’abord dans le latin des savants sous la forme caoua (1592 Alpinus, De Plantis Aegypti Liber) et sous la forme chaonae (1599, chez le savant hollandais Paludanus), littéralement francisée en chaone (1610) et donnée comme provenant des îles Maldives (au sud de Ceylan).
Ces formes ne sont pas passées dans l’usage (sauf emprunt populaire de caoua, 1863, par les soldats en Algérie), non plus que cavé (1612), caué (1633), cahvé (1654) et kaoah (1637), mentionnés dans des relations de voyages en Arabie, Turquie, Perse et Syrie.

La forme actuelle « café » (1665) apparaît sous les graphies cafeh (1651) puis caphé (1671 Dufour, De l’usage du caphé, du thé et du chocolate, ouvrage qui connut un grand retentissement). La forme dominante du mot hésite alors entre « café » et « caphé » ; la première l’emporte à la fin du XVIIe siècle.

On appelle « café » les graines du caféier, qui, torréfiées puis moulues, permettent la fabrication de la boisson du même nom.

 Le caféier

Le caféier est un arbuste du genre « coffea » (même famille que les gardénias, quinquinas et garances).

Il existe plus d’une centaine d’espèces de caféier sauvage, mais 10 seulement sont cultivées dont 4 principales :

Arabica

L’arabica (coffea arabica), originaire des forêts des montagnes d’Abyssinie (Ethiopie), fut longtemps cultivé au Yémen (Arabie Heureuse) d’où il fut exporté vers l’Europe par le port de Moka (1683).
L’arabica est cultivé dans les régions montagneuses d’Afrique et d’Inde mais surtout en Amérique latine (Hauts plateaux d’Amérique latine, dans les vallées abritées, entre 600 et 2 000 m, Colombie, Mexique, Brésil, etc.).
Ses principales variétés sont le bourbon, le cattura, le maragogype et le munconovo.

En Amérique du Sud, les variétés sont subdivisées en brésils et en légers.
Les brésils se décomposent principalement en santos, parana et rio, du nom des ports d’où ils sont expédiés.
Les légers sont identifiés par le nom du pays ou du district où ils ont poussé, comme medellin (très réputé), armenia et manizales pour les cafés de Colombie.

Robusta et kouillou

Le robusta et le kouillou sont originaires des forêts d’Afrique équatoriale chaude et humide. Ils sont cultivés, notamment en plaine, en Afrique, à Madagascar, en Inde, Indonésie, Océanie.
La culture du robusta, une variété de l’espèce coffea canephora, est développée en Côte d’Ivoire principalement et en Extrême-Orient (notamment au Viêt-Nam).
Le robusta est plus riche en caféine que l’arabica (2 à 3 % contre 1 à 1,5 %) ; il convient bien pour le café soluble.

Arabusta

L’arabusta est un hybride encore au stade expérimental.

L’arabica et le robusta fournissent les neuf dixièmes de la production mondiale.
Sont cotés à la bourse des matières premières : les arabicas lavés (venant surtout d’Amérique centrale), les non lavés (du Brésil), les milds (arabicas lavés, d’un goût suave, de Colombie ou Kenya) et les robustas.

Le caféier (3 à 15 m de haut, 2 à 3 m dans les plantations) fructifie au bout de 3 ans jusqu’à 30 ans. Il vit de 60 à 100 ans.
Il demande une chaleur de 18-23° C (arabica) ou de 22/26°C (robusta), 1,50 à 2 m d’eau par an et des engrais.
Il donne en moyenne 2,5 kg de « cerises » par an (fruit contenant 2 grains de café) qui fournissent 0,5 kg de café vert, soit 0,4 kg de café grillé [de quoi faire 40 tasses de café à 8/10 g de café moulu par tasse, soit 1 cuillerée à soupe pleine à dos d’âne (législation : 7 g au minimum)].

 Le café

La fève renferme un mélange complexe de divers composants. La dégradation partielle de la fève lors de la torréfaction entraîne l’apparition d’un certain nombre de produits, notamment des composés aromatiques.

On classe les constituants du café en deux catégories :
 les composants gustatifs, non volatils, qui sont la caféine (0,8 à 2 % du poids total dans les variétés sauvages), la trigonelline, l’acide chlorogénique et les acides phénoliques, les acides aminés, les glucides et les minéraux ;
 les composants volatils, dont les principaux sont les acides organiques, les aldéhydes, les cétones, les esters, les amines et tous les composés sulfurés connus sous le nom de mercaptans.

Récolte et séchage

Le caféier produit des fleurs blanches, puis des fruits rouges, appelés cerises, qui renferment deux graines, ou fèves.
Ces fèves sont récoltées encore vertes, selon deux méthodes : l’une est fondée sur la cueillette sélective, l’autre consiste à secouer l’arbre pour en faire tomber les fruits.
Les fèves cueillies de façon sélective sont ensuite ramollies à l’eau, débarrassées mécaniquement de leur pulpe, mises à fermenter dans de grands bassins, lavées à nouveau, puis séchées à l’air libre ou dans des cylindres rotatifs chauffants.
La technique dite sèche, généralement appliquée aux fèves récoltées selon la deuxième méthode, se résume à leur séchage au soleil pendant trois semaines et à l’élimination de leur enveloppe.
Dans les deux cas, le café vert est ensuite trié, puis calibré et mis en sac.
100 kg de fèves fraîches fournissent 20 kg de café vert.

Torréfaction

La torréfaction du café (effectuée dans le pays importateur) assure la fragmentation du tanin et la suppression de l’huile, et libère l’arôme des fèves.
Cette torréfaction s’effectue en deux temps : tout d’abord, les fèves sont grillées pendant 12 à 15 min ; les températures s’échelonnent de 193°C pour une torréfaction légère à 205°C pour une torréfaction moyenne et jusqu’à 218°C pour une torréfaction poussée.
Ensuite, les fèves torréfiées sont rapidement refroidies. La couleur brune des fèves ainsi obtenue est due à la carbonisation de la cellulose et du sucre.
Dans la plupart des cas, plusieurs variétés de café vert sont mélangées et torréfiées ensemble, de façon à produire les goûts et les arômes chers aux buveurs de café.
Il faut 20 kg de café vert pour obtenir 1,5 kg de café torréfié.
Les fèves torréfiées sont ensuite soit emballées et expédiées telles quelles dans les commerces de détail, ou bien moulues avant expédition.

Le café moulu perd son parfum en moins d’une semaine s’il n’est pas emballé de façon adéquate. Les emballages associant papier et plastique assurent au mieux sa protection. Scellés hermétiquement sous vide d’air, les paquets conservent la fraîcheur du café pendant trois ans.

Principaux torréfacteurs en France : Kraft Jacobs Suchard (KJS), Sara Lee, Legal.

Cafés solubles et décaféinés

Le café soluble ou instantané, est un produit phare de l’industrie du café. Il est obtenu par déshydratation d’extraits de café selon deux méthodes différentes, l’atomisation et la lyophilisation.

L’atomisation permet de sécher à chaud les extraits de café.

Lors de la fabrication du café lyophilisé, dont l’arôme est meilleur que celui du café obtenu par atomisation, l’extrait de café est congelé, et l’eau éliminée par sublimation. Le produit obtenu est emballé sous vide d’air dans des récipients scellés.

Le café décaféiné est obtenu par traitement des fèves vertes avec des solvants aux hydrocarbures chlorés, qui a pour effet d’emporter la caféine. Ce n’est qu’après élimination de ces solvants que les fèves sont torréfiées. Des méthodes de décaféination non chimiques ont vu le jour au cours des années quatre-vingt.

Substituts du café

L’utilisation de substituts du café est limitée.
Le principal est la chicorée, habituellement utilisée comme agent de coupage. Dans la plupart des pays, l’addition de chicorée ou de toute autre substance doit être clairement mentionnée sur l’étiquette du produit.

 La caféine

Teneur (en mg) : par tasse : robusta fort 200 à 250, arabica fort 80 à 100, café soluble 50 à 100, café décaféiné 2 à 10, thé 30 à 60, chocolat 10 à 40, boisson au cola 20 à 30 (pour 33 cl). Selon la variété : arabica 0,8 à 1,5 %, canephora (robusta, kouillou) 1,5 à 2,7 %, arabusta 1,5 à 2 %.
Un café décaféiné ne doit pas contenir + de 0,1 % de son poids de caféine (0,3 % pour les cafés solubles).

Pour 100 g d’aliments aromatisés au café : Ovomaltine café : 156 mg, bonbons Ricqlès café : 70, pâtisserie éclair : 11.

 Effets de la caféine sur la santé :

Au-dessus de 900 mg de caféine par jour (10 à 15 tasses), il y a risque d’intoxication chronique caractérisée par tremblements, palpitations, insomnies, nervosité, anxiété, irritabilité.
Le café entraîne une augmentation du rythme cardiaque (si les doses ingérées sont importantes) et de la pression artérielle chez les buveurs occasionnels.

Le café au lait est plus difficile à digérer : les tanins du café précipitent la caséine du lait au contact acide de l’estomac, il se forme des « grumeaux » inattaquables par les sucs gastriques.
La caféine agit comme stimulant du système nerveux et peut entraîner des effets physiologiques importants. Son abus peut entraîner une intoxication appelée caféisme. Durée de vie de la caféine : 8 h avec une pointe à 5 h.

Cependant, il est possible d’éliminer la caféine ; le café ayant subi ce traitement s’appelle « décaféiné ». Pour décaféiner, on a longtemps utilisé des solvants, puis l’eau et les charbons actifs. L’extrait décaféiné (teneur en caféine maximale : 0,1%) est réincorporé aux grains traités préséchés.
La caféine est utilisée en pharmacie ; elle aide à l’effort, à la digestion, combat la migraine, aiguise les activités intellectuelles et la mémoire et améliore la mémoire déficiente dans la maladie d’Alzheimer.
Le café peut faire maigrir : une dose de 100 mg de caféine augmente les dépenses énergétiques de 16 % en 2 h.

 Les antioxydants

Le café contient plusieurs sources d’antioxydants ; au premier rang, les fameux polyphénols qu’on retrouve aussi dans le vin.
Les polyphénols du café sont essentiellement : l’acide chlorogénique, caféique et quinique. Ils ont l’avantage d’être très bien assimilés par l’organisme et possèdent un pouvoir antioxydant très puissant.
Les autres antioxydants sont le Kahwéol et le Cafestol. Ils agiraient notamment au niveau du foie ou des reins.

Selon une étude menée par le docteur Esther Lopez-Garcia de l’université de Madrid, les antioxydants du café diminueraient, jusqu’à 25%, le risque de mourir de maladies cardiovasculaires.

 Chronologie historique

Le café est africain. On trouve à l’état spontané plusieurs espèces de caféier dans une vaste zone qui occupe les régions tropicales et équatoriales de l’Afrique, de part et d’autre de l’Equateur.

Cependant le caféier d’Arabie, originaire des hautes vallées de l’Ethiopie (notamment à Kaffa où, avec les fruits entiers encore verts ou leur pulpe séchée, on faisait une farine mêlée à de la graisse animale et consommée en boulettes ou galettes), est l’espèce grâce à laquelle le café, en tant que fruit à boisson, a connu en Europe et dans le monde entier une fortune sans égale.

La boisson offerte par David à Abigaïl aurait été du café. D’autres pensent que c’est de cette substance que parle Homère dans son Odyssée sous le nom de népenthès.

  • L’an 656 de l’hégire, le calife Omar, réfugié avec ses disciples dans les montagnes d’Ousab, n’y aurait trouvé à manger que du café…
  • La culture du café remonterait au VIIe siècle av. J.-C., époque à laquelle il est produit en Arabie, au bord de la mer Rouge, et utilisé comme médicament (infusion de feuilles et fruits).

La légende veut que ses vertus excitantes aient été découvertes par le chevrier d’un couvent musulman du Yémen dont les bêtes, ayant brouté les fruits rouges d’un arbuste qu’elles affectionnaient particulièrement, ne pouvaient dormir les nuits suivantes : « Un gardien de chèvres se plaignit à des moines que ses chèvres veillaient et sautaient toute la nuit contre leur ordinaire. Le prieur les observa dans l’endroit où elles paissaient, et, ayant remarqué qu’elles mangeaient des fruits de certains arbres, il fit bouillir de ces fruits dans l’eau, et éprouva qu’en buvant de cette eau elle excitait à veiller. Il en donna à ses moines pour les empêcher de dormir pendant les offices de nuit.  » [Gemaleddin Dhabhani (1420)]

  • Rhazès, médecin arabe du IXe siècle, est le premier à faire mention du café et de certaines de ses propriétés.
  • Mais il faut arriver au XIe siècle et au grand Avicenne, autre médecin musulman dont la renommée parvint jusqu’au monde savant de notre Moyen Age, pour disposer d’une étude complète.
  • Après quoi, avec l’intensification de sa culture, l’usage du café va se répandre et atteindre La Mecque. La curiosité pique les pèlerins venus embrasser la pierre noire de la Kaaba ; ils rentrent chez eux avec le goût du café à la bouche, et l’Islam tout entier, du Caire à Alep, de Damas à Bagdad et à Téhéran, se met au breuvage noir.
  • À partir du XVe siècle, cette culture s’étend au Yémen (où le port de Moka est un important centre de commerce), puis se développe dans l’Orient tout entier.
  • 1420 : Présence du café à Aden.
  • 1450 : maisons à café à Aden puis à La Mecque.
  • 1511 : la consommation de café est interdite par le sultan de La Mecque et le bey du Caire.
  • En 1554, le café prend pied sur le rivage européen du Bosphore : à Constantinople s’ouvrent deux établissements, sous le nom de « cahué », qui deviennent très vite le rendez-vous des poètes, des cadis et des hauts dignitaires de l’Empire turc. Le café devient boisson nationale en Turquie (règne de Soliman II). La tasse du précieux breuvage est vendue 1 aspre, monnaie d’argent valant 0,025 franc-or.
  • A peu près à la même époque (seconde moitié du XVIe siècle) on entend parler du café pour la première fois en Europe.
  • Prospero Albini, professeur de botanique à Padoue, rencontre le caféier en Egypte et le décrit scientifiquement.
  • Puis l’humaniste Pietro della Valle boit son premier « cahué » à Constantinople.
  • Enfin, sir Thomas Herbert, en mission officielle en Perse, insiste sur la popularité que cette boisson connaît partout dans le Proche-Orient.
  • 1582 : Léonard Rauwolf (médecin d’Augsbourg en Allemagne), revenant d’Alep, écrit un livre sur le café et mentionne le « breuvage noir comme de l’encre et fort utile en divers maux, dont ceux de l’estomac en particulier ».
  • On commence à boire du café en Italie en 1640, en France vers 1643, en Grande-Bretagne en 1652 (à Oxford, un certain Jacob, juif venu de Turquie, ouvre une maison à café).
  • 1644 : Louis XIV boit son premier café.
  • 1645 : Venise, première maison à café d’Europe.
  • 1646 : révolte des vignerons de Marseille contre le café (importé en 1644 par Pietro della Valle).
  • Au cours du XVIIe siècle, la consommation de café augmentant progressivement en Europe, les Hollandais commencent à le cultiver dans leurs colonies [Java (1650), Ceylan].
  • 1656 : le grand vizir Köprülü interdit la consommation du café.
  • En 1660, un voilier venu d’Egypte débarque à Marseille un premier chargement de balles de café (toute sa cargaison), laquelle est répartie aussitôt entre les apothicaires de la ville.
  • Et c’est le départ d’une longue discussion entre médecins, qui va durer deux cents ans. Le café est-il un remède ou un poison ? Secoue-t-il « l’apathie du corps » ou s’attaque-t-il aux « corpuscules du cerveau » ? La faculté d’Aix le condamne, mais Dufour, médecin lyonnais, explique pourquoi ses effets sont tonifiants.
  • C’est vers cette époque aussi que Mme de Sévigné, citant la Faculté (« le café précipite le sang »), conseille à sa fille de s’en tenir aux fruits et à l’eau de Vichy. « Racine passera comme le café », aurait-elle dit, selon la petite histoire.
  • 1664 : ouverture du premier café français à Marseille.
  • 1669 : Soliman Aga, ambassadeur de Turquie, présente le café à la cour de Louis XIV. L’Empire ottoman souhaite une alliance avec la France, contre l’Autriche. L’ambassadeur du Grand Turc multiplie les réceptions mondaines. Le café qu’il fait servir délie les langues et l’Aga apprend que le roi de France ne lèverait pas le petit doigt pour son maître.
  • Un Anglais ouvre, en 1677, la première maison de café à Hambourg.
  • En 1683, l’immense armée de Kara Mustafa met le siège devant Vienne. Louis XIV ne réagit pas. Charles de Lorraine et Jean Sobieski volent au secours des Viennois affamés. La jonction s’opère grâce à l’exploit de Kulczyski (un Polonais installé dans la capitale autrichienne et naguère interprète à Constantinople où il a appris à aimer le café... turc) qui réussit à traverser les lignes ennemies et à transmettre un message des assiégés à Charles de Lorraine.
  • Deux cent mille Osmanlis lèvent le camp, abandonnant munitions et provisions, dont un stock de 500 sacs de grains noirs dont la municipalité viennoise, en signe de reconnaissance, fait cadeau à Kulczyski en même temps qu’elle l’autorise à ouvrir le premier café, à deux pas de la cathédrale. Ainsi, ayant fait quinze ans plus tôt la conquête de Paris, le café étend son empire sur l’Europe centrale. Mais les Viennois sont d’abord vignerons et buveurs de vin, et le marc de café turc n’est guère à leur goût. Kulczyski a alors une idée géniale : il filtre le marc et ajoute trois cuillers de lait au breuvage ainsi obtenu. Allant jusqu’au bout de sa profanation, le Polonais demande au plus proche boulanger de lui confectionner des petits pains briochés en forme de croissant qui rappelleront aux Autrichiens le souvenir de leur victoire sur les hérétiques. Cette fois, il obtient l’adhésion unanime de sa clientèle. Le café viennois est né.
  • En 1686, le sicilien Francesco Procopio dei Coltelli ouvre à Paris, rue des Fossés Saint-Germain, au numéro 13, face à la Comédie Française, le premier établissement qui prend le nom de « café » : le « café Procope » (le premier café parisien « Maison de Caoué » avait été ouvert à la foire de la place Sainte-Geneviève par l’arménien Pascal vers 1670-1672). Le Procope est toujours en activité à ce jour et est un des cafés les plus réputés de la capitale française..
  • En 1692, Pasqua Rosée, Arménien ou Grec, ouvre le premier café londonien, dans Saint Michael’s Alley, Cornhill.
  • La cafédomancie, art divinatoire consistant à lire dans le marc de café, apparaît pour la première fois en Europe à la fin du XVIIe siècle dans un traité du florentin Thomas Tamponelli. En Orient elle est pratiquée couramment dans les harems. L’interprétation des tâches laissées par des boissons comme le café ou des infusions comme le thé est coutumière en Asie.
  • 1710 : quelques caféiers sont confiés au Jardin d’Amsterdam.
  • 1712 : un pied de caféier est confié par Louis XIV au Jardin des Plantes.
  • 1720 : le café Florian est ouvert à Venise.

Il existe trois cent quatre-vingts cafés à Paris (les endroits où le café est servi ont pris eux-mêmes le nom de cafés).

C’est au Procope et dans ces autres cafés que naîtront et se communiqueront les nouvelles idées et les théories subversives nées de l’esprit encyclopédique. Les Encyclopédistes se réunissaient au café Procope, les Parnassiens à la Closerie des Lilas et les Existentialistes aux Deux Magots. En ce sens, on peut dire que le café est à l’origine de la Révolution française.

  • 1723 : en allant aux Antilles, Gabriel de Clieu (officier français) sauve le seul pied de caféier (importé de Hollande) restant en partageant sa ration d’eau avec lui : il donne naissance aux plantations des Antilles françaises.

Les Anglais créent des plantations en Jamaïque, et les Espagnols font de même aux Philippines. La culture du café s’étend peu à peu à toute l’Amérique latine.

  • 1725 : le café Quadri ouvert à Venise.
  • 1727 : le café gagne le Brésil.
  • 1730 la Jamaïque.
  • 1748 Cuba.
  • 1789 : la France est le premier producteur et consommateur de café au monde.
  • XVIIIe siècle : le roi de Prusse Frédéric le Grand, limite la consommation de café pour protéger celle de la bière.
  • En 1802, lors d’une visite de Jean Chaptal et d’Antoine de Fourcroy à leur ami François-Antoine Descroizilles, pharmacien à Rouen, ce dernier leur montre son invention, la cafetière, faite de deux récipients superposés et séparés par un filtre. Descroizilles appelle son invention « caféolette ». Bien peu d’inventions ont été aussi simples dans leur principe. Bien peu, aussi, ont rencontré un tel succès.
  • En 1806, le chimiste et agronome Antoine Cadet de Vaux, auteur d’une fameuse Dissertation sur le café, crée la cafetière en porcelaine.
  • 1820 : découverte de la caféine par l’Allemand Ruge et les Français Pelletier, Carenton et Robiquet.
  • 1822 : le Français Louis-Bernard Rainait invente le percolateur, présenté en 1855 à la foire-exposition de Paris (remplit 2 000 tasses/heure).
  • 1840 : en Algérie, au poste militaire de Mazagran, 125 soldats français, assaillis pendant 3 jours par plusieurs milliers d’Arabes, ne peuvent boire leur café qu’à la va-vite dans un verre à pied. Le mot « mazagran » qui rappelle ce combat, apparaît vers 1860.
  • 1851 : production du café « Legal » (de Lemonier et Gally).
  • 1905 : Ludwig Roselius trouve le procédé qui permet d’obtenir du café décaféiné.
  • 1908 : À Dresde, Melitta Bentz et son mari Hugo Bentz inventent le filtre à café.

Longtemps dominée par les pays d’Amérique du Sud, Brésil en tête, la production de café se répand, au cours du XXe siècle, à l’Afrique (Madagascar, suivi par le Congo, le Cameroun et l’Angola) puis, dans une moindre mesure, à l’Asie (Indonésie notamment).

  • Le 7 avril 1938 commence l’agonie de la cafetière quand la société suisse Nestlé commercialise le café soluble (inventé en 1936 par Max Rudolf Morgenthaler et son équipe à l’usine Nestlé d’Orbe en Suisse) : le « café-éclair sans cafetière ».
  • 1939 : Nestlé dépose la marque Nescafé.
  • Après le « café turc », après le « café filtre », la « machine à espresso », inventée par l’Italien Achille Gaggia en 1946, renouvelle la manière de faire le café. L’expresso déborde largement les frontières de son pays natal. En Grande-Bretagne, il connaît un immense succès : passant directement de l’insipide « jus de chaussettes » à la quintessence essentielle, les Anglais vivent, avec la création du « coffee bar », une sorte de révolution effervescente et multiplicatrice qui, partie de Soho, submerge tout le Royaume. « The Moka Bar », dans Frith Street, est le premier à ouvrir.
  • Dès 1962, les principaux pays producteurs de café signent, sous l’égide de l’ONU, un accord destiné à éviter les surproductions. Renégocié en 1968, en 1976 et en 1983, celui-ci s’avère inefficace et peu respecté. La signature d’un nouvel accord échoue en 1989, puis en 1997.
  • En 1965, la naissance du café lyophilisé, donne un nouvel essor au café soluble et précipite l’agonie de la cafetière.
  • 24 septembre 1993 : création de l’Association des producteurs de café (APC) regroupant 27 pays (80% de l’offre mondiale).

Entre 2009 et 2018, le nombre des établissements appelé familièrement "cafés" a augmenté de 14 % en Ile-de-France , passant de 3.166 à 3.596, selon une étude du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc). Paris concentrant la moitié des cafés de la région.

En 2018, les principaux pays producteurs de café au niveau mondial (en milliers de sacs de 60 kilogrammes)

  1. Brésil = 61.700
  2. Vietnam = 29.500
  3. Colombie = 14.200
  4. Indonésie = 10.200
  5. Éthiopie = 7.500
  6. Honduras = 7.450
  7. Inde = 5.200
  8. Ouganda = 4.900
  9. Mexique = 4.500
  10. Pérou = 4.300

Indissociable de l’image du médecin anesthésiste, le café est à l’origine de la blague bien connue dans les couloirs des blocs opératoires de France et de Navarre.
"A quoi reconnaît-on un chirurgien d’un anesthésiste ?
Le chirurgien a des tâches de sang sur ses sabots, l’anesthésiste, des tâches de café
".

§§§

Faut-il boire encore du café ?

Bien que le café soit l’une des boissons les plus consommées dans le monde, on ne sait toujours pas s’il est bon ou mauvais pour la santé ! Jusqu’à présent, les études observationnelles montraient le plus souvent une moindre incidence de diabète, de maladies inflammatoires et d’accidents vasculaires cérébraux chez les consommateurs de café. Mais on ne retrouvait généralement pas d’effet sur la survenue de cancers et un impact nul ou légèrement négatif sur la mortalité.

La plus vaste étude examinant la relation entre la consommation de café et les décès, réalisée par ND Freedman et al., a inclus entre 1995 et 1996, 229 119 hommes et 173 141 femmes. Les analyses présentées ici correspondent à un suivi de la cohorte jusqu’à la fin de l’année 2008 (5 148 760 personnes-années, plus de 50 000 décès enregistrés). Les données médicales et les habitudes de vie ont été recueillies de façon déclarative, à l’aide d’auto-questionnaires remplis à l’entrée dans l’étude. Notamment, la consommation de café était indiquée en choisissant l’une des catégories allant de 0 à plus de 6 tasses/jour. Une information sur la nature du café généralement consommé (caféiné ou décaféiné) était également recueillie.

L’analyse ajustée sur l’âge montre qu’une consommation de café est associée à une augmentation de la mortalité : + 21 % pour "4 à 5 tasses/jour" et + 60 % pour "plus de 5 tasses/jour" (vs pas de café).

Mais cette association disparaît et s’inverse quand on tient compte des particularités des buveurs de café : ces derniers fument davantage, ils boivent plus souvent de l’alcool en excès, ils pratiquent moins d’exercice physique et consomment moins de fruits et légumes mais davantage de viande, notamment rouge, que les non-buveurs de café. Ainsi l’analyse multivariée avec ajustement pour tous ces facteurs, montre qu’au delà de cinq tasses de café par jour, l’incidence des décès est réduite de 10 % par rapport aux non buveurs de café chez l’homme et de 15 % chez la femme. Cette association ne dépend pas du type de café consommé (caféiné ou décaféiné), ni du statut tabagique ou pondéral. À l’exception de l’incidence des décès par cancer qui est légèrement plus élevée chez les hommes qui consomment le plus de café, les décès liés aux autres pathologies chroniques sont moins fréquents chez ces buveurs.

Ces résultats confirment l’association négative entre la consommation de café et le risque de décès. On est donc a priori rassurés si l’on est amateur de café ! Toutefois, même si le café contient des centaines de substances potentiellement bénéfiques pouvant expliquer les constatations épidémiologiques, les auteurs précisent avec insistance que la causalité de la relation entre la consommation de café et la réduction des maladies chroniques ne peut pas être assurée. Voilà des conclusions mesurées, conformes à ce qui peut être extrait à partir de données observationnelles puisque dans ces cas, on ne peut jamais exclure l’existence de facteurs de confusion méconnus qui n’auraient donc pas fait l’objet d’ajustements !

Dr Boris Hansel (source JIM)

Freedman ND et coll. Association of Coffee Drinking with Total and Cause-Specific Mortality. N Engl J Med., 2012 ; 366:1891-1904

L’antisepsie

C’est grâce à Joseph Lister, qui a travaillé sur le concept, suite aux publications de Pasteur, que Championnière, un médecin français introduira la méthode en France en 1869.

Histoire de l’ntisepsie (O.Traoré CHU Clermont-Ferrand 2016)
Introduction de l’antisepsie listérienne à la maternité de Paris en 1876 (Henri Stofft)

La première encyclopédie chirurgicale de l’humanité

Le papyrus Edwin Smith

La chirurgie est une technique millénaire dont on retrouve l’application très tôt dans l’histoire de l’humanité. Des fouilles archéologiques ont en effet montré que la trépanation était pratiquée au début du néolithique, c’est-à-dire il y a environ 10 000 ans. Par la suite, les Égyptiens développèrent la chirurgie, ils pratiquaient des sutures, cautérisaient des plaies et fabriquaient même des prothèses de pieds ou de mains. Au III millénaire av. JC, la pratique de la chirurgie chez les Babyloniens était risquée : en cas de décès, le praticien devait se faire couper la main !

Au Moyen Age, les écrits de l’Antiquité faisaient autorité absolue et l’Eglise interdisait la dissection : ces deux éléments bloquèrent considérablement le développement des connaissances et la chirurgie disparut. Mais les blessures sérieuses devaient toujours être soignées, et ce furent les "barbiers" qui s’en chargèrent. Ces hommes étaient le plus souvent des forgerons ou des bouchers. Ils ne savaient pas lire, ou très peu et, à l’inverse des médecins, puisaient leur savoir dans la pratique et non dans les livres.

Au XVIè siècle, tandis que de nouvelles armes comme l’arquebuse et le mousquet faisaient leur apparition, des savants comme Vésale remirent en question l’autorité de Galien et permirent la libération des recherches en anatomie. C’est dans ce contexte, en pleine Renaissance, que le Français Ambroise Paré multiplia les expériences en tant que maître barbier-chirurgien. Il élabora de nouvelles techniques comme la ligature des artères plutôt que la cautérisation à l’huile bouillante et publia, en 1545, sa Méthode de traiter les plaies faites par les arquebuses et autres bâtons à feu. Il acquit une excellente réputation sur les champs de bataille et devient, à partir de 1554, le premier chirurgien du roi François II.

De par son héritage, tant sur le développement de nouvelles techniques que sur le perfectionnement de bon nombre d’instruments, Ambroise Paré est souvent considéré comme le père de la chirurgie moderne.

NB : Histoire des chirurgiens, des barbiers et des barbiers-chirurgiens

La césarienne

Pendant très longtemps la césarienne n’était pratiquée que sur les femmes mourantes, dans le seul but de sauver le bébé. En 1500, Jacques Nufer, un châtreur de porc à Siegerhausen, en Thurgovie (Suisse), obtint l’autorisation de la magistrature locale de pratiquer une césarienne sur sa femme, Marie Alepaschin, par voie artificielle, les médecins locaux ayant déclaré l’accouchement par voie naturelle impossible. L’opération – pratiquée sans anesthésie – fut un succès, et la femme put même, par la suite, mettre au monde d’autres enfants.

La césarienne demeura une opération très risquée pendant plusieurs siècles. En 1865, plus de 80% des césariennes effectuées en Angleterre se soldaient par la mort de la mère. Les progrès de l’asepsie permirent de réduire considérablement ces risques. A partir de 1920, l’incision se pratiqua sur une partie plus basse de l’utérus et devient encore moins risquée. En 1999, le taux de mortalité maternelle était de 0,02 pour mille. En France, 20% des accouchements sont aujourd’hui effectués par césarienne.

La transfusion sanguine

 Une Histoire toute récente née d’un lointain passé

Depuis le plus haute Antiquité, l’homme a considéré le sang comme un symbole même de la Vie, la "Rivière de Vie". On lui attribuait la possibilité de ranimer un organisme épuisé par l’hémorragie, de redonner, si ce sang était "jeune et frais", force et vigueur au vieillard, ou même le bon sens au fou.

L’histoire des anciens Égyptiens et le Traité d’anatomie d’Hérophile en font mention. Au XVe siècle, le pape Innocent VIII aurait été soumis à ce traitement. Dans la plupart de ces tentatives, le sang employé était d’origine animale.

En 1492 : le pape Innocent VIII aurait subit le premier traitement de cellules vivantes en buvant le sang de trois garçons de dix ans trois fois par jour. Cela ne sauva ni le pape, ni les enfants.

William_Harvey_(_1578-1657)_Venenbild

En 1616 : William Harvey, un médecin anglais commence à parler dans ses cours de la circulation du sang. En 1628, il fait publier sa découverte : exercitato anatomica de motu cordis et sanguinis in animalibus où il y prouve que le sang sert à transporter quelque chose mais on ne sait pas encore quoi.

En 1665 : Christofer Wren s’est intéressé à un problème très utile pour la transfusion sanguine, à savoir comment arriver en pratique à injecter du liquide dans la circulation sanguine. Pour cela, il a développé des outils opérationnels, testés sur des animaux, qui seront utilisés pour les premières transfusions sanguines. Ses travaux sur ce sujet sont publiés dans les transactions de la Royal Society en 1665.

exercitato anatomica de motu cordis et sanguinis in animalibus

En 1667 : Le 15 juin 1667, Jean Baptiste Denis, un médecin français très réputé à l’époque, médecin personnel de Louis XIV, est le premier à faire injecter, de manière bien documentée, le sang d’un animal à un homme. Il injecte le sang d’un jeune agneau à un garçon d’une quinzaine d’année atteint d’une fièvre qui avait résisté à une vingtaine de saignées. Dans l’idée qu’il pouvait avoir été affaibli par ce traitement, il lui remplaça 3 onces (environ 100 mL) de sang du patient contre 9 onces (environ 300 mL) de sang artériel d’agneau. Le patient, suivant le récit, guérit aussitôt de façon définitive.

Dans cette même année de 1667, il traita 4 autres patients par la transfusion. Alors que les deux premiers survécurent à ce traitement, le troisième mourut mais le décès put aisément être attribué à une autre cause. Quant au quatrième, il fut à l’origine du premier contentieux transfusionnel.

En 1668 : On a longtemps pratiqué sur l’homme des transfusions de sang animal, avec des résultats le plus souvent catastrophiques, si bien que le Parlement de Paris, dut réglementer ces pratiques par un arrêt en date de 1668

Antoine du Mauroy, un malade qui présentait des accès de folie furieuse répétés, est transfusé par Jean Baptiste Denis avec du sang de veau à deux reprises. Il présente à la suite des symptômes aujourd’hui interprétables comme résultant d’une allergie : malaise, hématurie. Il décède suite à une tentative de troisième transfusion. Sa veuve porte plainte.

Le jugement du procès qui s’ensuit est prononcé au Châtelet à Paris le 17 avril 1668 : Jean-Baptiste Denis qui déclare n’avoir pas pu faire la troisième transfusion faute de trouver de veine, est mis hors de cause.

Madame du Mauroy est condamnée pour l’empoisonnement de son mari par l’arsenic ! Cependant, le jugement précise que « à l’avenir, aucune transfusion ne peut être autorisée qu’après approbation des médecins de la faculté de Paris ». L’expérience transfusionnelle s’arréta en France.

En 1674 : Van Leeuwenhoeck, dans le cadre de ses travaux de photo microscopique, mentionne pour la première fois le terme de globule rouge, qu’il décrit ainsi : « J’ai observé le sang de ma main et j’ai trouvé qu’il consiste en globules rouges nageant dans un liquide clair. »

En 1675, le Parlement de Paris aggrave l’interdiction en limitant la transfusion à l’expérimentation animale et en interdisant la transfusion chez l’homme sous peine de punition corporelle.

En 1676, la transfusion sanguine fut interdite en France.

En 1788 : on peut à cette date démontrer qu’un chien affaibli par une perte de sang a uniquement besoin d’une injection de sang pour être réanimé. Donc la même chose est envisageable pour les hommes. On sait aussi alors que le sang sert à transporter de l’oxygène indispensable à la vie.

Quelques tentatives artisanales continuent cependant à être effectuées ça et là. Elles ne reposent sur aucune vérité physiologique. Mais, en 1873, un premier pas est fait lorsque Landois et Muller démontrent que le sang humain mélangé à celui d’un animal s’agglutinait en amas visibles à l’oeil nu. Ces agglutinats traduisaient une incompatibilité qui entraînait la mort du sujet transfusé. A partir de cette date, on ne pratiquera plus que la transfusion d’homme à homme. Cependant, des accidents, dont la plupart étaient mortels continuaient à se produire, ou bien, à l’inverse, on assistait à des résurrections spectaculaires.

En 1818 : James Blundell publie dans la revue « The Lancet  » les premières transfusions de sang humain. Le sang des animaux n’est plus utilisé car trop de patients sont morts. On espère plus de résultats avec le sang humain. Non seulement il va utiliser du sang humain, mais surtout, l’indication retenue est l’hémorragie aiguë, car James Blundell, qui est obstétricien, espère ainsi contrôler les hémorragies du post-partum. A cette époque, le problème majeur était les conséquences de la coagulation du sang du donneur, de ce fait, les traveaux de James Blundell ne furent pas suivis par les autres scientifiques malgré les résultats encourageants (sur 10 patients transfusés, 5 on été sauvés grâce à la transfusion).

James Blundell est considéré par le monde anglo-saxon comme le premier médecin expérimentateur moderne de la transfusion sanguine. Pour certains auteurs il aurait pratiqué l’autotransfusion principalement chez la femme lors d’hémorragie de la délivrance, pour tous les historiens il a pratiqué des expérimentations d’autotransfusion chez l’animal dans des protocoles d’exsanguination-retransfusion.

Il est né à Londres le 27 décembre 1790, neveu du Dr John Haighton, anatomiste et physiologiste, il est diplômé à Edimbourg en 1813, il se forme en physiologie expérimentale et en "midwifery" soit l’art des sages-femmes avant de devenir gynécologue et obstétricien. Il intègre parfaitement la démarche du raisonnement de la physiologie expérimentale basée sur la vivisection et l’autopsie vers la médecine expérimentale (les chefs de file étant John Young en Grande-Bretagne et François Magendie puis son élève Claude Bernard en France). Il en déduit une thérapeutique (le reproche des médecins envers les physiologistes était de ne pas conduire vers un traitement) et invente des appareils pour la transfusion. Il décrit les phases cliniques qui conduisent par exsanguination l’animal jusqu’à la mort, il déduit que la mort peut être évitée par transfusion de sang de la même espèce, que le sang artériel et veineux ont les même propriétés en transfusion sanguine ; il provoque des embolies gazeuses expérimentales chez l’animal et constate qu’un bolus d’air supérieur à 18,5 ml entraîne la mort de l’animal.

En 1818, James Blundell fit une approche expérimentale de la transfusion chez le chien, analogue à celle de Lower mais dans laquelle il montra l’entité individuelle en matière de sang de chacun des animaux. En effet, tous les chiens transfusés avec leur propre sang survivaient toujours à l’expérimentation. Obstétricien, il mit en pratique, la même année, le résultat de son expérience et transfusa à une parturiente le sang épanché lors d’une hémorragie de la délivrance. Il réalisa ainsi la première transfusion autologue. Ce fut un succès.

On comprend effectivement qu’avant la découverte des groupes sanguins par Landsteiner en 1901, seule la transfusion autologue présentait une garantie réelle en matière de transfusion.

En 1820 : la transfusion avec du sang animal refait une petite apparition parce que de nombreux problèmes surviennent comme la coagulation du sang humain (beaucoup plus rapide que celle du sang animal) mais aussi de nombreuses maladies et épidémies se propagent par le sang humain.

En 1900, un autrichien karl Landsteiner, fait une découverte capitale. Il constate la possibilité d’incompatibilité entre divers sangs humains, expliquant ainsi les succès et les échecs des transfusions. Il démontre que le sang contient deux sortes de substances particulières : les agglutinogènes dans les globules rouges et les agglutinines dans le sérum. Il découvre la notion de différents groupes sanguins : ABO (le groupe AB a été découvert en 1901). O est en réalité zéro, car il n’y a pas d’agglutinines.

Karl Landsteiner obtient le prix Nobel de médecine en 1930.

En hommage à sa contribution à la transfusion sanguine, la date du 14 juin, jour de sa naissance, a été retenue par l’OMS pour célébrer la journée internationale du don de sang.

Les études de Hecktoen, de Schultz, et surtout celles de Ottenberg en 1911, démontrent qu’il faut tenir compte des groupes d’isoagglutination pour injecter du sang aux malades. Les groupes I, II, III, IV sont déterminés. Aujourd’hui, ils sont appelés AB, A, B, O.

En 1910 : Georges Woolsey décrit le premier cas de maladie transmise par transfusion : le paludisme.
Il s’agissait d’un homme de 54 ans, habitant New-York, hospitalisé en septembre 1910 pour anémie pernicieuse connue depuis 3 ans. Le lendemain d’une transfusion, un tableau clinique d’hémolyse évoquant un accident par incompatibilité ABO est observé, mais l’examen minutieux du sang montre la présence de Plasmodium falciparum. Le donneur est recontrôlé, et trouvé également porteur du parasite, mais sans signes d’hémolyse.

 Les premières transfusions médicales

Les transfusions de sang sont faites jusqu’alors de bras à bras (Transfusion sanguine directe), cette méthode de transfusion fut mise au point en 1898 par Crille, elle consiste à relier une artère du Donneur à une veine du malade, soit par une canule, soit par une suture qui entraînait pour le Donneur la perte définitive de son artère radiale. En 1902, le Français Fleig employa, pour la première fois, du sang rendu incoagulable, parce que « défribiné » pour la transfusion sanguine. Cette méthode fut abandonnée rapidement.

Le 16 Octobre 1914 eut lieu, à l’Hôpital de Biarritz, la première transfusion sanguine directe de la première guerre mondiale : Isidore Colas, un breton en convalescence à la suite d’une blessure à la jambe, sauve par le don de son sang le Caporal Henri Legrain du 45ème d’Infanterie, arrivé exsangue du Front. Leurs sangs devaient être compatibles puisque l’opération réussit. A la fin de 1914, 44 transfusions avaient été pratiquées en France selon ce procédé, avec des résultats intéressants, malgré la méconnaissance complète des groupes sanguins. Le problème de la conservation et du transport du sang avait fait l’objet, au début du siècle, des recherches d’Artus, Pages et Peckelharing.

Dès 1914, Albert Hustin, un médecin belge, utilise les propriétés anti-coagulantes du citrate de soude. Après des tests sur des animaux, Hustin réalise la première transfusion de sang humain citraté le 27 mars 1914 à l’hôpital Saint-Jean à Bruxelles. Cette technique a révolutionné les techniques d’urgences de la médecine militaire durant la Première Guerre mondiale. Il n’était plus nécessaire désormais de procéder à une transfusion d’homme à homme : il devenait possible de transporter le sang et d’en faire des réserves. Ceci a permis sur les champs de bataille de dissocier le donneur du receveur. La conservation de ce sang citraté n’était que de 4 jours.

En 1916 : Roux et Turner ont l’idée d’ajouter un sucre, le dextrose, pour augmenter la durée de conservation du sang. Mais ce sucre pose de gros problèmes lors de la stérilisation des flacons, dû à la caramélisation de celle-ci.

Au début de 1917, Hedon, médecin de Montpellier, démontre que la transfusion citratée est possible. Les 13 et 15 mai de cette année, Jeanbrau pratique avec succès les trois premières transfusions de sang conservé.
Mais de l’utilisation du sang total, les chercheurs en vinrent très vite à la possibilité d’emploi de ses éléments séparés. Dès 1916, Roux et Turner préconisaient la transfusion d’hématies isolées du plasma, lorsqu’il existe une anémie avec masse sanguine normale.

Rappelons aussi que ce sont les Français : Richet, Brodin et Saint-girons qui, les premiers, dès 1918 démontrent expérimentalement l’intérêt des injections de plasma.

Plus tard, le plasma fut utilisé dans le traitement des brûlés.
Le Docteur Arnault Tzank, mobilisé à l’ambulance chirurgicale du Professeur Gosset, y apprend les réussites de Jeanbrau et s’enthousiasme pour ses méthodes. Dès la fin de la guerre, il se consacre aux problèmes de la transfusion. Il organise en 1923 le premier centre de transfusion à l’hôpital Saint-Antoine de Paris, avec quelques donneurs de bras à bras et crée « L’oeuvre de la transfusion Sanguine d’urgence ».
Les premiers résultats qu’il obtient sont spectaculaires : en 1924 le nombre des morts par hémorragie chez les accouchées de cet hôpital diminue de douze à une.

Cet établissement, qui a pris en 1926 le nom de « Centre de Transfusion Sanguine et de Recherches Hématologiques », reçoit l’année suivante sa consécration officielle par la reconnaissance d’utilité publique.
Le pavillon Deutch de la Meurthe y ouvre ses laboratoires à la recherche systématique. Le centre réalisera 262 transfusions en 1929, 3.738 en 1932 et plus de 35.000 en 1948. Dès 1938, il étudie le problème de la conservation du sang.

Dès lors, les progrès seront possibles grâce à la ténacité et à l’abnégation des chercheurs, à l’enthousiasme et à la générosité des "donneurs" qui apporteront à la science leur contribution bénévole et efficace.
En cette année, 270 transfusions de bras à bras au moyen d’une seringue sont réalisées dans la région parisienne. Une trentaine d’années plus tard il y aura à Paris 200 000 dons de Sang. Cette progression est identique sur tout le territoire, elle débute dans les villes de facultés où se trouvent les grands services d’hématologie, plus particulièrement à Bordeaux, Lille, Lyon, Montpellier, Strasbourg où s’organisent les structures de véritables centres de Transfusion Sanguine régionaux ou départementaux comme à Auxerre, Saint-Étienne, Saint-Germain. A Bordeaux, dès 1934, Jeannerey, est le premier à préparer et à utiliser du sang conservé, avec Ringebach.

En 1936 : Norman Bethune créa la première banque de sang en Europe le 23 décembre 1936. Il invente le concept de collecte mobile (en pratique, les collectes ont lieu à l’arrière du camion). Beaucoup de voies nouvelles sont explorées, dont certaines se révèlent des impasses, telle l’utilisation de sang de cadavre en 1936.

Au début de la seconde guerre mondiale, le centre de Saint-Antoine recueille le sang de volontaires dans des ampoules citratées que l’on utilise surtout dans les grands centres chirurgicaux de l’Arrière.
En 1944, consacré " Centre National de la Transfusion Sanguine", il organise le ravitaillement en sang des organismes de réanimation du front de l’Ouest et de la première Armée Française en Alsace et dans les Vosges, où il prend le relais des centres d’Alger, de Tunis et de Rabat créés en 1943 sous l’impulsion de Benhamou aidé par Stora et Julliard. Les premières " Journées du sang ", qui sont organisées dans les grandes entreprises nationales et la population française dans les zones libérées, soulèvent un admirable élan qui unit le Front et l’Arrière : train, puis ambulance, puis Jeep, jusqu’aux postes sanitaires les plus avancés, avec, pour seul idéal, " que nul blessé ne meure faute de sang ". Il n’est alors utilisé que du sang de groupe O conservé en flacon de verre et du plasma sanguin liquide. Pendant ce temps, les Américains et les Anglais mettent au point la fabrication du plasma sec.

Entre temps, Wiener et Landsteiner ont découvert en 1940 un nouvel agglutinogène, qu’ils rendent responsable d’accidents inexpliqués de la transfusion et qu’ils appellent Facteur Rhésus, ou Rh, du nom du singe de race macaque ayant servi à l’expérience.

En 1940, Cohn met au point les techniques de fractionnement des constituants du plasma sanguin qui sont principalement : le fibrinogène, les gammaglobulines, l’albumine, permettant ainsi la préparation d’albumine, stockée, transportée et utilisée aisément sur le théâtre des opérations.

En 1943 : Loutit et Mollison mettent au point la solution de conservation (solution dite « ACD » pour Acide citrique, Citrate, et Dextrose) qui permet de conserver le sang total pendant 21 jours.

 Les Journées du Sang

Après la fin du conflit mondial, la Transfusion Sanguine connaît en France des temps difficiles.
Les nouvelles méthodes de transfusion-réanimation exigent de grandes quantités de sang. Or, le corps médical a tendance à revenir à la transfusion directe.
L’emploi du sang frais continue à avoir de nombreux partisans, celui du sang conservé n’est pas en pratique courante.
Dans les hôpitaux on manque de sang. Les donneurs de "bras à bras" sont trop souvent sollicités en urgence et l’on ne conserve en flacon de verre que le sang de quelques donneurs "occasionnels".

Comment répondre aux demandes croissantes ?

La solution naît d’un accident fortuit et douloureux.
En mars 1949, une explosion brûle gravement trois personnes dans une petite usine de Vincennes.
Elles sont traitées avec du plasma liquide en très grandes quantités. Le Maire de Vincennes, au chevet de ses administrés, apprend que le plasma provient du sang recueilli au Centre de Saint-Antoine dirigé par le Docteur A. Tzanck. Il propose que les Vincennois viennent offrir leur sang au centre de prélèvement.

Tout au contraire, il est décidé qu’ils ne se rendront pas à Paris. C’est au centre de se déplacer vers eux. Il faut qu’on établisse à l’hôtel de Ville un centre de prélèvement temporaire pour que tous les volontaires puissent venir offrir leur sang.
Par la suite, on informera largement le Grand Public par voie d’affiches, de radio, de films, de conférences et l’on encouragera la création de la toute jeune " Association des Donneurs de Sang Bénévoles ".
Cette année-là, la Transfusion Sanguine civile prendra son essor en France.

De grands centres régionaux se créent dans la plupart des villes de Facultés et avec le concours de la Caisse Nationale de la Sécurité Sociale et l’aide du Ministère de la Santé, le Centre National s’installe rue Alexandre Cabanel ( Paris Xvème).
Cet établissement devient une véritable usine de production des dérivés du sang, le plus important centre de recherches hémobiologiques, avec ses laboratoires hautement spécialisés. On y délivre un enseignement pour les médecins, futurs chefs de centres de Transfusion Sanguine.
En même temps commence à se relier le " réseau transfusionnel " Français, avec ses cabines fixes et ses équipes mobiles de collecte de sang. La Croix Rouge Française participe activement à cette action, avec les donneurs de sang bénévoles. Toute une organisation nouvelle doit être créée, un matériel spécialement adapté doit être conçu.

Par tous les temps, été comme Hiver, jour et nuit, loin de leurs foyers, sur toutes les routes de France, mais surtout poussées par un dévouement opiniâtre et sans faille, les équipes Mobiles animées du même idéal que leurs prédécesseurs, collectent en tous lieux afin que : " Nul ne meure faute de Sang ".

Après Vincennes, en 1949 ils sont des milliers de mineurs à s’être rendus à Merlebach pour y faire don de leur sang, puis cela fut le tour de ceux de l’Est, du Nord, du Pas-de-Calais, avant celui des ouvriers de la sidérurgie, de l’industrie automobile. Les grandes villes sont appelées à constituer ce que l’on va bientôt désigner sous le terme de maillon de la " chaîne du sang " : Dunkerque, la première, en 1950, puis des centaines d’autres, aux quatre coins de la France. A Abbeville, 4853 donneurs, soit 43% de la population, se présentent en trois jours.

L’élan fraternel est donné.

En 1951 : Mollison effectue la première transfusion avec du sang congelé puis décongelé.

En 1952 : Walter et Murphy décrivent la première poche à sang en matière plastique, en remplacement des flacons de verre. Cette technologie révolutionnaire à l’époque mettra plus de 20 ans à prendre sa place, mais aujourd’hui, on ne pourrait imaginer de transfusion sans elle.

En 1956 : Afin d’améliorer la sécurité transfusionnelle, il est réalisé sur les dons : les groupes sanguins ABO (et antigènes C c E e si la personne était de rhésus négatif), le dépistage de la Syphilis et la détermination de l’hématocrite.

En 1959 : Détection des Anticorps immuns anti A et B

En 1962 : le CPD est additionné avec l’adeline afin d’augmenter la conservation du sang jusqu’à 35 jours

En 1971 : Virus de l’hépatite B : Dépistage de l’antigène HBs

En 1971 : Un goupe à Boston développe la première méthode d’aphérèse semi-automatique pour le prélèvement de plaquettes

En 1978 : Mise au point de la solution SAG (Saline, Adeline, Glucose) et sera après accouplée avec du mannitol (SAG-mannitol), permettant une conservation du sang de 42 jours

En 1983 : Recherche des anticorps anti-érythrocytaires

En 1985 : Détection des anticorps anti-VIH

En 1986 : Paludisme : Détection des anticorps anti-paludéens

En 1988 : Virus des hépatites B et C, Dosage ALAT et Détection anticorps anti-HBc

En 1989 : Détection du Virus HTLV (Anti-HTLV 1-2) aux Antilles et en Guyane, en 1991 en métropole

En 1990 : Détection des anticorps anti-VHC

De 1985 à 1990 (affaire du sang contaminé) : 4400 personnes sont contaminées par le virus du sida après administration de produits sanguins.

En 1993 (janvier) : de nombreuses lois sont signées pour garantir la sécurité des donneurs et des receveurs lors du don et de la transfusion. Le gouvernement veut encourager les dons pour pouvoir sauver le maximum de vies et pour éviter une pénurie.

En 1998 (avril) : filtration systématique des prélèvements de sang (sang total, plasmas, plaquettes) afin d’éliminer les globules blancs (déleucocytation).

En 2000 (janvier) : création de l’Établissement Français du Sang, opérateur unique de la transfusion sanguine en France. Les employés ne sont pas bénévoles, ils sont salariés de l’Établissement.

En 2001 (juillet) : un dépistage systématique très sensible (dit génomique) du virus du SIDA et de l’hépatite C est fait sur chaque don. Cette recherche directe du virus par biologie moléculaire permet de dépister une éventuelle contamination du donneur avant sa séroconversion (apparition des anticorps).

En 2003 : virus de l’hépatite C : Arrêt du dosage des ALAT

En 2005 : Virus de l’hépatite B : Dépistage du génome viral unitaire du VHB dans les DOM

En 2006 : Maladie de Chagas : Dépistage Anti-T.cruzi aux DOM Antilles

En 2007 : Maladie de Chagas : Dépistage Anti-T.cruzi si séjour zone endémique

En 2008 : Dosage de l’hémoglobine et hémogramme lors du don de sang

source : tousurlatransfusion.com

§§§

James Blundell le père de l’autotransfusion

James Blundell est considéré par le monde anglo-saxon comme le premier médecin expérimentateur moderne de la transfusion sanguine. Pour certains auteurs il aurait pratiqué l’autotransfusion principalement chez la femme lors d’hémorragie de la délivrance, pour tous les historiens il a pratiqué des expérimentations d’autotransfusion chez l’animal dans des protocoles d’exsanguination-retransfusion.

Il est né à Londres le 27 décembre 1790, neveu du Dr John Haighton, anatomiste et physiologiste, il est diplômé à Edimbourg en 1813, il se forme en physiologie expérimentale et en "midwifery" soit l’art des sages-femmes avant de devenir gynécologue et obstétricien. Il intègre parfaitement la démarche du raisonnement de la physiologie expérimentale basée sur la vivisection et l’autopsie vers la médecine expérimentale (les chefs de file étant John Young en Grande-Bretagne et François Magendie puis son élève Claude Bernard en France). Il en déduit une thérapeutique (le reproche des médecins envers les physiologistes était de ne pas conduire vers un traitement) et invente des appareils pour la transfusion.

Il décrit les phases cliniques qui conduisent par exsanguination l’animal jusqu’à la mort, il déduit que la mort peut être évitée par transfusion de sang de la même espèce, que le sang artériel et veineux ont les même propriétés en transfusion sanguine ; il provoque des embolies gazeuses expérimentales chez l’animal et constate qu’un bolus d’air supérieur à 18,5 ml entraîne la mort de l’animal. En 1818, James Blundell fit une approche expérimentale de la transfusion chez le chien, analogue à celle de Lower mais dans laquelle il montra l’entité individuelle en matière de sang de chacun des animaux. En effet, tous les chiens transfusés avec leur propre sang survivaient toujours à l’expérimentation. Obstétricien, il mit en pratique, la même année, le résultat de son expérience et transfusa à une parturiente le sang épanché lors d’une hémorragie de la délivrance. Il réalisa ainsi la première transfusion autologue. Ce fut un succès.

On comprend effectivement qu’avant la découverte des groupes sanguins par Landsteiner en 1901, seule la transfusion autologue présentait une garantie réelle en matière de transfusion.

NB : En Marge

l’histoire de la saignée

Histoire de la saignée et des révolutions qu’elle a subies depuis les temps les plus reculés jusqu’à nos jours par A. Phillippe

La polyvalence thérapeutique de la saignée

Le sang a plus d’un tour dans son sac...

Prescrire des concentrés plaquettaires

Grâce à son sang, James Harrison a sauvé plus de deux millions de bébés

Parce qu’il possède un sang porteur d’un anticorps rare, l’Australien James Harrison a, tout au long de sa vie, pu sauver des millions d’enfants. Grâce au plasma sanguin que contient son sang, la fabrication d’un vaccin est rendue possible afin d’éviter aux mères pendant la grossesse de développer la maladie hémolytique du nouveau-né.

Par un acte à la fois anodin et pourtant indispensable, James Harrison est capable de sauver des millions de vie. Bien qu’il ne soit pas doté de pouvoirs surhumains, cet australien est pourtant considéré aujourd’hui comme un héros qui a permis à des millions d’enfants de voir le jour grâce à quelque chose que James est l’un des rares à posséder : un type de sang très particulier !

L’Homme au bras d’or Rentré dans le livre Guinness des records en raison de son grand nombre de donations, James Harrison a réussi, en près de 57 ans, à sauver la vie de 2.4 millions d’enfants nouveau-nés rien qu’en donnant son sang. Grâce à ce don gratuit et sans conséquences sur sa santé, cet Australien permet la fabrication d’un vaccin avec son plasma sanguin qui contient des anticorps anti-D. De puissants anticorps pouvant éviter ainsi aux femmes enceintes de développer elles-mêmes des anticorps anti-D, risquant plus tard d’entrainer chez leurs enfants la maladie hémolytique du nouveau-né. Causée pendant la grossesse, cette maladie se traduit par l’action des érythrocytes fœtaux d’anticorps provenant de la mère qui détruisent les hématies (globules rouges) de l’enfant.

Atteint d’une pneumonie à 13 ans, le don de sang l’a sauvé.

Grâce aux anticorps anti-D présents dans le plasma sanguin de James Harrison, ceux-ci évitent aux femmes enceintes de développer elles-mêmes des anticorps anti-D capables de mettre en jeu la vie de leurs bébés. Rebaptisé "l’Homme au bras d’or", James Harrison, aujourd’hui âgé de 74 ans, donne ainsi son sang de manière régulière depuis l’âge de 17 ans. Opéré lui-même à l’âge de 13 ans pour retirer un de ses poumons atteint de pneumonie métastasée, James Harrison n’a à l’époque dû son salut qu’à une transfusion de 13 litres de sang. Comprenant plus tard que c’est cette transfusion qui lui a sauvé la vie, James Harrison a fait la promesse de donner lui aussi son sang pour tenter de sauver des vies. Bien que cela fasse à présent des décennies que James donne régulièrement son sang, celui-ci ne compte toujours pas s’arrêter. Aujourd’hui ce formidable grand-père entraîne même avec lui son petit-fils Scott, qui 16 ans plus tôt, a lui-même été sauvé par James et ses anticorps anti-D après qu’un vaccin a été administré à sa mère Tracey, la propre fille de James.

Publié par Guichaoua Virginie, le 18 février 2014

NB : James Harrison fait partie de l’Ordre d’Australie (l’équivalent de l’Ordre du mérite français).

source : gentside.com

Les banques du sang

Charles Richard Drew, créateur du concept d’une banque de sang, est né à Washington, DC le 3 Juin 1904. Il a reçu un premier degré universitaire du Amherst College en 1926 où il a excellé dans les deux activités académiques et sportives. Il a ensuite obtenu un doctorat en médecine et une maîtrise en chirurgie de l’Université McGill University Medical School à Montréal en 1933. Il s’est intéressé à la recherche de sang tout en travaillant avec le professeur britannique John Beattie, médecin à Montréal, et il a poursuivi ses investigations en tant que stagiaire et résidant médecin pendant ses deux années à l’Hôpital général de Montréal.

En 1935, Drew est devenu instructeur en pathologie à l’université Howard College of Medicine. Trois ans plus tard, il a reçu une bourse de recherche par la Fondation Rockefeller, et a passé deux ans au Columbia Presbyterian Hospital, (rattaché à l’Université de Columbia) à New York. Pendant ce temps, il a également été directeur de la division plasma sanguin de l’Association de transfusion sanguine de New York. Au cours de ses recherches, il découvrit qu’en séparant les globules rouges du plasma et en les refroidissant chacun de leur côté, on pouvait préserver le sang et le reconstituer ultérieurement.

Il a publié ses conclusions dans un article intitulé « banques de sang", appelant le processus de collecte et de stockage du sang "bancaires". Son système pour l’entreposage de plasma sanguin a révolutionné la profession médicale et a contribué à sauver d’innombrables vies dans le monde entier.

Drew a obtenu son doctorat en sciences médicales degré de Columbia à l’époque de la seconde guerre mondiale, en 1940 - il fut le premier Afro-Américain à recevoir ce diplôme. Comme de nombreux spécialistes du sang américain ont commencé à explorer les moyens d’obtenir du plasma sanguin vers le front de la guerre, Drew a été choisi en tant que superviseur médical du "Sang pour la Grande-Bretagne", qui a contribué à sauver la vie de nombreux soldats blessés. Son titre officiel pour la collecte de sang a été directeur médical de la première division plasma pour transfusion sanguine.

Suite à ce succès, Charles Drew a été nommé directeur de la banque du sang de la Croix-Rouge américaine et directeur adjoint du Conseil national de recherches, en charge de la collecte de sang pour l’armée américaine et la marine. Comme Drew mis en place le personnel de la banque de sang et de formation, il s’est également prononcé contre la directive de l’armée annonçant que le sang devait être séparés en fonction de la race des donateurs. Drew savait qu’il n’y avait pas de différence raciale dans le sang.

Une fois le programme mis en place, Drew démissionna (en partie pour protester contre la directive "même race") pour accepter un poste en tant que président de chirurgie à l’Université Howard. Son travail avec le projet de plasma dans le Royaume-Uni et les banques de sang de la Croix-Rouge américaine a fourni des modèles importants pour le système généralisé des banques de sang mis en oeuvre aujourd’hui.

Drew trouva la mort dans un accident de voiture le 1 avril 1950 à 46 ans. Il a été honoré par plusieurs distinctions durant sa vie et à titre posthume. Il a reçu la Médaille Spingarn en 1944, et après sa mort, il reçu une distinction de l’Association nationale de médecine en 1950. En 1981, un timbre-poste des États-Unis a également été émis en son honneur.

Imagerie par Résonance Magnétique

Reposant sur le théorème de Radon, la scanographie (ou tomodensitométrie) a fait sa véritable apparition en 1972.

Un ingénieur britannique avait alors mis au point le premier modèle à rayons X. Cependant, la résolution des images était faible et l’ordinateur mettait deux heures et demie pour traiter chaque coupe. La technologie s’est largement améliorée dans les décennies suivantes pour atteindre les images d’aujourd’hui

C’est en 1946 que Felix Bloch et Edward Mills Purcell décrivent le principe de l’imagerie par résonance magnétique.

On attribue à Paul Lauterbur et Peter Mansfield l’invention de l’Imagerie par Résonance Magnétique, plus communément appelée IRM, en 1973. Le premier est un chimiste américain qui a pensé à utiliser l’intensité du champ magnétique pour créer une image bidimensionnelle. Mansfield, un physicien britannique, a permis de rendre la technique possible en mettant au point le traitement mathématique et informatique ad-hoc. Tous deux ont reçu le prix Nobel de médecine en 2003 pour leurs travaux.

Néanmoins, l’idée originale d’utiliser un aimant de forte intensité pour explorer le corps humain avait été énoncée en 1969, par un mathématicien et biophysicien Raymond Vahan Damadian qui avait émis l’idée d’utiliser le mécanisme dans le cadre de la médecine. Damadian se bat encore pour qu’on lui attribue la paternité de l’invention. Il est suivi par une grande partie de la communauté scientifique.

1975, Peter Mansfield produit les premières images de tissus humains puis 2 ans plus tard la première image d’un corps humain vivant est créée par Raymond Damadian

La technique est maintenant de plus en plus perfectionnée. Par l’augmentation de l’intensité du champ magnétique généré et par l’avancée de l’informatique, l’examen a gagné en résolution. Actuellement, cette technique d’imagerie médicale est utilisée lorsque la radiographie classique ou le scanner n’ont rien pu révéler. Elle permet de regarder avec précision tous les organes du corps notamment au niveau du cerveau, les articulations ou la colonne vertébrale. L’IRM fonctionnelle est également très utilisée en matière de recherche pour détecter les zones cérébrales actives à la suite d’un stimulus extérieur, et ainsi élucider les mécanismes complexes de notre cerveau.

Appelé initialement, RMN, résonance magnétique nucléaire, le terme est abandonné afin de supprimer pour le grand public, le côté "peu rassurant" de nucléaire, qui n’a pourtant aucun rapport avec l’énergie atomique.

anatomie d’un scanner

La morphine

Invention de Friedrich Wilhelm Sertürner

La morphine tire nom du dieu grec des rêves, Morphée. Pour être tout à fait exact la molécule de la morphine a été découverte par Armand Séguin, Bernard Courtois et Charles Derosne en 1804. Mais Friedrich Sertürner, pharmacien allemand, est le premier à déceler ses vertus pharmaceutiques.

La morphine est un opiacé tiré du pavot, tout comme l’héroïne. En 1850, la seringue est découverte permettant ainsi d’injecter en intra veineuse de la morphine. A partir de ce moment, elle est couramment utilisée en médecine comme traitement contre la douleur. Les infirmiers sur le front ont aussi eu recours à cette molécule afin de rendre les amputations supportables.

La morphine est une substance de forte puissance provoquant une forte addiction et des troubles du comportement. Les premiers effets ont été décrits par le corps médical dès 1871. De nombreux soldats revenant du champ de bataille développent une dépendance à la morphine, la morphinomanie. De grands noms de l’Histoire tels que Bismarck et Daudet en sont de gros consommateurs.

La morphine est cataloguée comme stupéfiant.

Les dérivés utilisés en anesthésie, ont une puissance comprise entre 15 et 1000 fois la morphine, qui reste la valeur étalon.

Les produits suivants ont été mis en service

  • Palfium 1956
  • Fortal 1964
  • Nubain 1968
  • Temgésic 1968
  • Fentanyl 1972
  • Stadol 1973
  • Alfentanyl 1984
  • Sufentanyl 1992
  • Ultiva ou remifentanyl 1994

Les lunettes

Les lunettes de vue modernes avec branches telles qu’on les connait aujourd’hui sont nées en 1746.

Si les problèmes de vision furent évoqués dès l’antiquité par Aristote, dans le problemata, en particulier la myopie et la presbytie, l’invention des lunettes fut bien plus longue à venir. Elle est, par ailleurs, précédée par une foule d’anecdotes concernant l’utilisation empirique de lentilles, ou de verres grossissants - ainsi de l’exemple, rapporté par Pline l’ancien, de Néron regardant les combats de gladiateurs à travers une émeraude, quoique l’on ignore s’il le faisait réellement pour mieux voir à cause d’une myopie ou également par la croyance en la vertu de la couleur, ou de la pierre elle-même.

A Ninive, une ancienne ville de l’Assyrie, dans le nord de la Mésopotamie, Sir Henry Layard trouva les plus anciennes lentilles en usage en 4000 ans avant JC. On pense qu’on se servait de ces pierres transparentes convexes, du cristal de roche, pour faire converger la lumière du soleil sur des points et donc brûler la zone visée. Ces "pierres à brûler" ont été décrites par la suite par Aristophane (257-180 avant JC) pour faire des trous dans les parchemins ou effacer des tablettes. Aucune action réfractive n’est évoquée.

Sénèque décrit aussi l’utilisation de globes remplis d’eau qui permettait de grossir l’image des textes.

Viennent ensuite les premières études du pouvoir optique de certains éléments, études réalisées par Euclide (280 avant JC) qui étudia le pouvoir optique de différents éléments et surtout le scientifique arabe Alhazen, à qui l’on attribue la première description du pouvoir grossissant des lentilles, dans son livre opticae thesaurus.

Avant cela, on utilisait des pierres de lecture, inventées par Abbas Ibn Firnas au IXe siècle.

Ces études sont alors purement théoriques, Alhazen ne parle pas d’une possible utilisation des lentilles pour faciliter la lecture.

Roger Bacon (1214-1294) reprit ces travaux et continua à étudier la réfraction à travers verre et cristal de roche. Cet aristocrate dévoua sa vie à la Science et à la Connaissance. Après un doctorat en théologie il étudia les langues, les mathématiques et la physique. Il étudia à Oxford et à l’Université de Paris, avant de devenir moine.Il demandait des réformes dans les sciences et l’Eglise, ce qui lui fallut la prison en 1257 à Paris, et entre 1278 et 1292. Il mourut peu après, mais avait œuvré pour l’usage des sciences expérimentales.

Thomas de Bry avec ses lunettes à fils
Thomas de Bry, un médecin de Padoue, alors mondialement connu, avec des lunettes à fils (représentation de 1581).

On ne sait pas précisément qui fut l’inventeur des lunettes. On sait seulement que les lunettes sont apparues en Italie, à la fin du treizième siècle, d’après ce que rapportent, comme par accident, certains ouvrages, tel le traité de conduite de la famille de Sandro di Popozo, écrit en 1299 : Je suis si altéré par l’âge que sans ces lentilles appelées lunettes, je ne serais plus capable de lire ou d’écrire. Elles ont été inventées récemment pour le bénéfice des pauvres gens âgés dont la vue est devenue mauvaise. Il ne s’est pratiquement trouvé aucun philosophe ou homme de science qui se soit intéressé au sens de la vue et de l’optique pour mentionner, souvent par dérision ces petites lunettes, encore appelées lentilles : ni Marsile Ficin, ni Léonard de Vinci ne leur accordent d’importance.

Des sources attribuent l’invention à Salvino degli Armati qui aurait inventé le verre correcteur qui a donné naissance aux lunettes de vue en 1285. sur une tombe datée de 1317 à Santa Maria Maggiore à Florence, Salvino degli Armati est noté en tant qu’inventeur du monocle :
QVI DIACE SALVINO D’ARMATO DEGLI ARMATI DI FIRENZE INVENTOR DEGLI OCCHIALI DIO GLI PERDONI LE PECCATA ANNO Cd MCCCXVII
(« Salvino d’Armato degli Armati se trouve ici, l’inventeur de Florence des verres d’œil. Anno Domini 1317 »), mais en 1920, le philologue Isidoro del Lungo a démontré que la prétention à l’invention des lunettes par Salvino D’Armate était une mystification due au Florentin Ferdinando Leopoldo Del Migliore sans doute mû par l’esprit de clocher. Il a fait remarquer que nulle part ailleurs "Salvino degli Armati" n’a été crédité d’être l’inventeur de lunettes, que dans le 14 ème siècle, l’épitaphe aurait dû se lire “le peccata” , pas “la peccata ” , mais le plus important, que le terme« inventeur » n’existait pas dans la langue vernaculaire florentine du 14 ème siècle. Del Lungo a également constaté qu’un " Salvino degli Armati " était mort en 1340, mais qu’il avait été un humble artisan qui n’avaient jamais fait affaire avec des lunettes.

En outre, Vasco Ronchi (1897-1988), le physicien italien qui s’est spécialisé dans l’optique, a également publié un article sur le sujet comme l’a fait l’historien des sciences, l’américain Edward Rosen (1906-1985) et le professeur italien d’ophtalmologie, Giuseppe Albertotti (1851 - 1936).

On attribue également au moine dominicain Alessandro della Spina de Pise, mort en 1313, l’invention des monocles en 1270.

On trouve trace également des monocles d’agrandissement dans l’optique du Perse Alhazen au XIe siècle.

Les lunettes se sont secrètement insinuées dans le monde, avec la plus extrême discrétion, en y entrant par la porte la moins exposée, celle de l’existence de ces pauvres gens âgés auxquels on ne prête pas attention et qui seront bientôt rejoints, mais sans même que l’on s’en aperçoive, par une bonne partie du reste du monde. La diffusion des lunettes, autant que leur invention, est à l’image de cette insinuation timide, mesurée, dans nos existences - on connaît, ainsi, l’exemple d’un italien, Allesandro Spina, qui avait fabriqué des lunettes après qu’un inconnu lui en avait appris le procédé, qui les distribuait autour de lui et diffusait son savoir à tous ceux qui s’y intéressaient.

Toujours est-il que, des rapports chirurgicaux de Bernard Gordon, en 1305, où "un collyre" est préconisé « en remplacement des lunettes », à la balade de Charles d’Orléans, au quinzième Siècle, où le poète confie qu’il utilise des lunettes qui " grossissent les lettres ", en passant par les toiles de Van Eyk, dont le chanoine van der Paele tient une paire de lunettes serrées contre son cœur, les lunettes prennent rapidement du galon et entrent dans le monde.

La gravure sur bois d’un homme avec des bésicles clouantes trouve son origine dans la "chronique du monde" de 1493 de Schedel. C’est la première fois que paraissent, dans l’histoire de la culture, des lunettes sous forme imprimée.

Au quinzième siècle, les verres concaves, correcteurs de myopie apparaissent, s’ajoutant aux verres biconvexes - on ne savait, jusqu’alors, corriger que la presbytie.

Johannes Kepler vint ensuite marquer de son nom l’histoire des lunettes, en devenant le véritable fondateur de la dioptrique actuelle ; vers 1728, on vit apparaître les montures, et l’on imagina, à la fin du dix-huitième siècle, de les faire tenir derrière les oreilles : les lunettes, et les porteurs de lunettes, avaient acquis une figure propre et immédiatement identifiable.

Enfin, Thomas Young décrivit le problème de l’astigmatisme en 1807, et l’on inventa dans le courant du siècle les lunettes capables de le corriger. Quant à l’invention des verres à double foyer, on l’attribue à Benjamin Franklin, mais sans certitude. Ce n’est que très récemment que l’on introduisit les verres progressifs, dernière étape en date de l’histoire des lunettes.

L’invention de la lentille de contact en 1887 est réalisée par le physiologiste et ophtalmologiste allemand Adolph Eugene Fick. Toutefois, Léonard de Vinci en avait eut l’idée en 1508. Elles étaient alors lourdes et inconfortables et ne se portaient que quelques heures de suite.

Mais ça, c’était avant.

Les toilettes

Les toilettes sont présentes dans la civilisation depuis longtemps. Des vestiges ont été retrouvés à Harappa, une ville située sur l’actuel territoire du Pakistan, ils dataient du XXVe siècle avant J.C.

La démocratisation des toilettes est bien plus tardive. Cet invention a été une véritable évolution par rapport aux pots de chambre, desquels le contenu était bien souvent déversé par les fenêtres, provoquant de graves problèmes sanitaires notamment par la propagation des maladies contagieuses.

La première chasse d’eau, appelée Ajax, fut inventée en 1595 par John Harington, un poète anglais, à la demande de la reine Elizabeth 1ere d’Angleterre.
Le clapet anti-retour ainsi que le siphon furent mis au point par Joseph Bramah en 1778. Des traces de chasses d’eau bien plus anciennes ont été découvertes chez les Minoens, il y a 4.000 ans, ainsi que chez les Romains et chez les Égyptiens.

À voir

 toiletzone

 baignade interdite

L’hygiène

Le savon a très probablement été inventé par les Sumériens il y a de cela 4.500 ans.
Il était fabriqué à base de graisse et de carbonate de potassium. Suivirent les savons plus doux faits à partir d’huile d’olive et de soude par les Syriens il y a 3.000 ans. Aujourd’hui, les composés chimiques sont souvent à l’usage avec notamment les tensioactifs synthétiques des gels douches.

Loi de Murphy

D’apparence discrète mais cependant éternellement présente dans notre quotidien, elle se dissimule pour parfois surgir, lorsqu’elle en a envie ou qu’elle a besoin d’un peu d’exercice. C’est alors le moment où l’on s’aperçoit si l’on gère bien la situation, si les koan zen ont quelques influences sur notre équilibre mental et si notre stock surrénalien est plein ou vide.

C’est une théorie se résumant à cet adage : « S’il y a une possibilité que quelque chose foire, alors ça foirera ». Cette constatation proviendrait d’Edward Murphy, scientifique qui travaillait dans les années 1940 pour l’US Air Force et avait la fâcheuse habitude de faire capoter toutes ses expériences.

« La loi de Murphy se vérifie toujours, sauf quand on cherche à la vérifier. »

« Quand tout baigne, il y en a forcément un qui coule. »

« Tout lavage de voiture fait pleuvoir dans l’heure. »

« Le meilleur moyen pour ralentir un cheval est de parier sur lui. »

Cette loi fondamentale et fondatrice de notre société moderne ne doit pas être confondue toutefois avec la loi de Finagle, qui dérive de Murphy et qui stipule que si quelque chose de mal peut se produire, cela se produira. Contrairement à la Loi de Murphy qui énonce plutôt que s’il y a des possibilités de faire une mauvaise manipulation en suivant une méthode, quelqu’un la fera un jour ou l’autre.

D’autres extensions sont bien entendues possibles et même fortement recommandées puisqu’elles ne peuvent être supprimées.

« Toute tentative de démonstration d’une Loi de Murphy quelconque qui échoue prouve que la loi est exacte. » Cercle vicieux de Cavey

« Le travail d’équipe est essentiel. Ça donne quelqu’un d’autre sur qui rejeter la faute. » Huitième Règle de Finagle.

« Si une expérience marche, quelque chose cloche. » Première Loi de Finagle

A lire les incroyables Ig Nobel

Et le non moins fameux paradoxe de la lévitation félino-tartinique que l’on retrouve dans sa version scientifiquement irréfutable (à moins que cela ne soit le contraire).

Cliquez sur l’image

Une autre variante du chat

Très souvent, trop même, la loi de Murphy s’accompagne d’un autre principe contre lequel il est illusoire de vouloir lutter. Le principe de Peter.

Mais cela nous entraînerait tellement loin, et les exemples foisonnant n’en finiraient pas, que le serveur de ce site planterait à coup sûr, vérifiant par le fait la loi de Murphy.

Lois et principes du travail

Le siège éjectable

N’oublions jamais que si nous sommes tous indispensables, nul n’est irremplaçable.

Envisagé dès 1918 par le colonel Holt, des projets furent étudiés plus précisément en 1939, par les allemands et les suédois.

La première expérience où l’homme remplaça le mannequin fut réalisée le 26 juin 1946 par l’anglais Bernard Lynch qui sauta d’un météor avec un siège construit par la firme britannique Martin-Baker. Il se trouvait à 2500 m d’altitude et volait à plus de 500 km/h.

siège ejectable météor

Le premier pilote sauvé par son siège éjectable fut un suédois, victime d’une collision en vol le 30 juin 1946. Mais d’autres sources rapportent qu’en 1942, Le major Wolfgang Schenk, pilote d’essai, se serait éjecter d’un Heinkel He 280 en difficulté.

En 1954, un Westland Wyver est victime d’un accident au moment où il décolle du porte-avions Albion de la Royal Navy. Le lieutenant Bruce McFarlane s’éjecte avec succès de son avion, alors qu’il se trouve à plus de 3 m sous l’eau.

La première éjection d’un pilote à vitesse supersonique eut lieu le 26 février 1955 sur un F-100 Super Sabre.

A noter que l’entreprise Martin-Baker qui est leader dans le marché du siège éjectable, offre à tout pilote qui s’est éjecté avec un de ses sièges, l’entrée à un club un peu spécial, l’Ejection Tie Club.

Ce club, fondé par Sir James Martin, récompense les pilotes qui, au cours de l’année, se sont éjectés et ont eu la vie sauve grâce à un siège de la compagnie. Ils deviennent membres à vie du club et reçoivent en récompense une cravate et une médaille. 7450 vies sauvées étaient revendiquées par la société au 24 août 2014. La dernière éjection datant du 4 août 2014, c’était un Mirage 2000B de l’armée de l’air française


CV de merde ! Bye bye le trou duc...

La dernière éjection d’un administrateur de site web date de ce jour.


Merci d’avoir lu cet article, qui je l’espère vous aura intéressé, cultivé et distrait. Si vous avez des remarques ou autre, vous pouvez m’envoyer un mail à sofianesth chez gmail.com


A lire en rapport

 Ces noms que l’on utilise

 Le premier massage cardiaque de l’Histoire

 Il y a des sites superbes. Celui-ci en fait partie.

 Du vintage à voir

Les instruments d’anesthésie et de réanimation
Par Jean-Bernard Cazalaà (ancien MAR hôpital Necher-Enfants-maldes (Paris) et Marie-Thérèse Cousin (MAR, ancien chef de service hôpital Broussais (Paris)

Arnaud BASSEZ

IADE

Formateur AFGSU

Administrateur