L'oreille numérique: Vues nouvelles sur la perception des sons 9782759803460

Les mystères de l'ouïe sont ici disséqués et analysés et devraient intéresser tous les spécialistes de notre appare

187 37 5MB

French Pages 312 [310] Year 2009

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

L'oreille numérique: Vues nouvelles sur la perception des sons
 9782759803460

Citation preview

L’OREILLE NUMÉRIQUE Vues nouvelles sur la perception des sons

Roland Carrat Lauréat de l’Académie Nationale de Médecine Médecin Directeur Hon. Centre Régional d’Audiophonologie Infantile, Tours.

17, avenue du Hoggar Parc d’activité de Courtaboeuf, BP 112 91944 Les Ulis Cedex A, France

Mise en page : Exegraph

Imprimé en France

ISBN : 978-2-7598-0098-8

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.

© EDP Sciences 2009

Table des matières

Préface ........................................................................................

13

Revisiter le concept ...................................................................... Expérimenter. Modéliser ................................................................ La pesanteur des dogmes ..............................................................

14 15 16

Chapitre 1

Un organe mystérieux pendant de nombreux siècles ........

19

L’Antiquité ................................................................................... La Renaissance ............................................................................ La période contemporaine et l’apport des mathématiciens et des physiciens ..........................................................................

19 22 25

Chapitre 2

L’oreille : une énigmatique machine .....................................

29

Un condensé sur la constitution de l’organe auditif .......................... Les voies auditives ........................................................................ Sur la mécanique du système de transmission ................................. Sur la physiologie de l’oreille interne .............................................. Un modèle schématique du système auditif ....................................

30 37 37 39 42

Chapitre 3

Du signal acoustique au signal nerveux : les théories de l’audition ......................................................... Les théories dites modernes de l’audition : où en sommes-nous ? ...... Conception actuelle de la physiologie de l’audition .......................... Les incohérences et les paradoxes de la tonotopie. Du mythe au dogme ...................................................................... Une argumentation surannée. L’observance du dogme. Un poncif académique .................................................................................

45 45 48 49 53

3

L’ OREILLE

NUMÉRIQUE

Chapitre 4

De la nécessité d’un nouveau modèle auditif .....................

55

À la recherche d’un modèle évolué de la fonction auditive ................ Qu’est-ce que modéliser ? Principe, justification .............................. Pourquoi modéliser la fonction auditive ? ........................................ Les particularités d’un modèle auditif .............................................

56 57 58 59

Chapitre 5

Les singularités de la fonction auditive ................................

63

L’oreille est un système physique résonant ...................................... La réponse de l’oreille en fonction du temps. La forme du signal acoustique ....................................................... Quelles conséquences ? Le temps et la forme du signal acoustique ...

67 67 69

Chapitre 6

Les bases de la modélisation cochléaire .............................. 1. LES

DONNÉES ANATOMIQUES (STRUCTURELLES) ...............................

Anatomie fonctionnelle auditive : le point de départ de l’information . Le réseau neurosensoriel de la cochlée : le cheminement de l’information ............................................................................ 2. NOUVELLES DONNÉES DE MÉCANIQUE COCHLÉAIRE EXPÉRIMENTALE ..... Les résultats ................................................................................ Commentaires .............................................................................. 3. AUDITION ET THÉORIE DE LA COMMUNICATION ................................. Les données du problème .............................................................. De la théorie mathématique de la communication : qu’en est-il ? ...... Comment se transmet l’information ? Signal analogique et signal numérique ...................................................................... La conversion analogique-numérique du signal. Théorème de Shannon................................................................... Échantillonnage d’un signal continu et numérisation (tableau 6.3.I) .. Échantillonnage spatial. Onde sinusoïdale spatiale........................... Multiplexage ................................................................................ Le système auditif : chaîne de communication et convertisseur analogique-numérique ...........................................

73 74 74 77 82 83 89 91 92 93 93 94 94 96 100 100

Chapitre 7

De l’oreille analogique à l’oreille numérique .......................

103

Les anciens modèles ne rendent pas compte des faits expérimentaux La fonction auditive : un maillon de la chaîne de communication ......

103 105

4

Table des matières

Chapitre 8

Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire ...........................

107

Principes fondamentaux du modèle auditif numérique .....................

108

L’échantillonnage du système cilié externe ......................................

113

Échantillonnage du système cilié interne ........................................

114

Avantages et limites de l’analyse cochléaire par échantillonnage .......

120

Chapitre 9

Numérisation du signal acoustique et transmission de l’information .........................................................................

123

Analyse et reconnaissance des formes acoustiques et traitement de l’information ............................................................................

123

L’importance de la détection et de la reconnaissance des formes acoustiques..................................................................................

125

Des formes acoustiques et membranaires remarquables : les transitoires ..............................................................................

128

L’importance des transitoires dans la transmission de l’information auditive................................................................

130

Chapitre 10

Échantillonnage cochléaire et psycho-physiologie auditive ...............................................

133

Mécanique cochléaire et conduction osseuse. Aspects expérimentaux et implications physiologiques .......................................................

133

La troisième fenêtre cochléaire ......................................................

136

L’unité fonctionnelle cochléaire ......................................................

137

L’oreille interne est un lecteur code-barres des formes acoustiques membranaires ..............................................................................

140

Chapitre 11

Échantillonnage cochléaire et psychoacoustique ...............

143

Échantillonnage cochléaire et champ auditif fréquentiel. Généralités

143

La limite fréquentielle inférieure du champ auditif ...........................

147

Commentaires ..............................................................................

149

La fréquence limite supérieure d’audibilité......................................

149

Commentaires ..............................................................................

152

Le seuil auditif au bruit blanc : nouvelle approche ...........................

153

1 000 Hz : la fréquence charnière ..................................................

157 5

L’ OREILLE

NUMÉRIQUE

La phase et le timbre d’un son complexe ........................................

159

L’énigme du fondamental absent ....................................................

162

La couleur tonale des transitoires ...................................................

162

La sensation tonale de clics répétés................................................

165

Battements et échantillonnage cochléaire .......................................

169

Commentaires ..............................................................................

170

Chapitre 12

Échantillonnage cochléaire et psychopathologie auditive

175

Théorie de l’échantillonnage cochléaire et perte auditive ..................

175

Surdités de perception et échantillonnage cochléaire .......................

180

Classification des surdités neurosensorielles : du type 1 au type 6 .....

185

Les surdités de perception avec courbe audiométrique tonale en cuvette (type 2)........................................................................

187

Traumatisme acoustique et scotome auditif .....................................

191

Seuil auditif au bruit blanc et acuité auditive ..................................

195

Les difficultés de perception de la parole avec audiogramme tonal normal .................................................................................

198

Repliement cochléaire (aliasing).....................................................

199

Échantillonnage et presbyacousie ...................................................

203

Théorie de l’échantillonnage cochléaire et prothèse auditive .............

207

Commentaires ..............................................................................

210

Surdités, formes cochléaires pathologiques, numérisation .................

213

Codage de la parole. Implants cochléaires et échantillonnage cochléaire ....................................................................................

215

Acouphènes, bruit de fond cochléaire et échantillonnage cochléaire : un modèle de chaos neuronal auditif stochastique et déterministe.....

220

Chapitre 13

Le numérique et les organes des sens. La place de l’oreille ..................................................................

223

L’ère du numérique : une évolution fulgurante .................................

223

L’universalité du numérique ...........................................................

224

6

Que sous-entendent ces termes si communs de numérique et de numérisation ? .....................................................................

224

Le codage et la transmission de l’information ..................................

226

Le numérique et la technologie ......................................................

227

Le numérique dans les sciences de la vie et les organes des sens ......

229

Le codage de l’information sensorielle ............................................

231

Table des matières

L’information auditive. Numérique, combinatoire et codage sensoriel Le transport et le traitement de l’information sensorielle................... L’information n’est pas spécifique à l’organe sensoriel périphérique ... Bionique et audition .....................................................................

232 234 235 236

Conclusion

Pour une nouvelle approche de la fonction auditive..........

239

La démarche de la connaissance .................................................... L’oreille et la complexité ................................................................ L’otologie doit muter : le fonctionnement de l’oreille est indissociable du numérique ...............................................................................

239 240

Notes et bibliographie ..............................................................

245

241

Nota : par convention, les nombres indiqués en exposant correspondent à une référence bibliographique et lorsqu’ils sont en gras à une note complémentaire.

Références bibliographiques générales ................................

297

Index............................................................................................

303

7

This page intentionally left blank

Remerciements

Aller à l’encontre des idées reçues aurait été une aventure périlleuse si je n’avais pris soin de m’appuyer sur des faits expérimentaux et sur la collaboration d’esprits éclairés et libres. C’est pourquoi j’exprime ma très sincère reconnaissance à tous ceux qui m’ont aidé matériellement, conseillé, entouré d’une critique constructive, enfin encouragé à persévérer dans la recherche d’une nouvelle approche de l’audition. Mes remerciements vont évidemment au groupe de travail de l’Institut d’Audiophonologie : Lionel Joncheray, dont j’admire au fil des ans la rigueur dans l’expérimentation et l’esprit créateur, à Max Plessis, éminent spécialiste du traitement du signal, Jean-Louis Thillier, électrophysiologiste, mon regretté ami Jack Durivault, audiométriste et audioprothésiste reconnu de ses pairs, enfin tous les membres du Centre Régional d’Audiophonologie Infantile qui m’ont entouré et apporté leur précieux concours. Je ne saurais oublier la collaboration efficace et discrète de Alain Enard et de tous ceux qui m’ont aidé au sein de l’établissement d’Éducation et de rééducation d’enfants sourds de Beau-Site à Tours. Enfin, il va sans dire que je garde en mémoire, non sans émotion, les encouragements répétés que m’a apporté au début de ma recherche mon éminent et regretté Maître le Professeur Paul Pialoux. Je remercie enfin, les éditions EDP Sciences d’avoir bien voulu, d’une part accepter la publication de cet ouvrage, bien qu’il s’écarte franchement des idées en vogue et qu’il apparaîtra quelque peu iconoclaste aux yeux de certains, et d’autre part d’avoir apporté par leurs soins et leur savoir-faire, une présentation de première qualité.

9

This page intentionally left blank

« Le raisonnement […] ne pourra conduire qu’à l’erreur toutes les fois que les notions ou les faits sur lesquels il s’appuie seront primitivement entachés d’erreur ou d’inexactitude. C’est pourquoi l’expérimentation […] est la base pratique […] de la méthode expérimentale appliquée à la médecine ». « [Les] théories et [les] idées n’étant point la vérité immuable, il faut être toujours prêt à les abandonner, à les modifier ou à les changer dès qu’elles ne représentent plus la réalité. » Claude Bernard. Introduction à l’étude de la médecine expérimentale, 1865. « On constate aujourd’hui une sorte de totalitarisme dogmatique et intolérable des tenants des théories dominantes… Si erronées qu’elles puissent être, elles finissent par acquérir par leur simple et incessante répétition le caractère de “vérités établies” qu’on ne saurait mettre en doute sans s’opposer à l’ostracisme actif des “establishments”. Le consentement universel, ou même celui de la majorité, ne peuvent être considérés comme des critères de la vérité… Le seul critère valable de la vérité est l’accord avec les données de l’expérience ». Maurice Allais (Prix Nobel d’économie), 1991, 1999.

This page intentionally left blank

Préface

Un concept bien établi L’audiologie est dans une impasse. Tout se passe comme si, à la suite de Helmholtz, on avait tenu absolument à identifier le fonctionnement de l’oreille à celui d’un système physique capable d’effectuer une décomposition des sons complexes en une série de sons purs, une sorte de spectromètre. Il a suffit pour cela d’assimiler l’oreille à une batterie de résonateurs. En d’autres termes, à calquer une fonction physiologique sur celle d’un phénomène physique. C’est ainsi que perdure le concept de la tonotopie cochléaire initialisée par von Békésy en 1928 et qui fait encore référence. Depuis des décennies, on admet, à la façon d’un dogme irréfutable, que l’oreille effectue une analyse fréquentielle des signaux acoustiques complexes, que chacun des composants possède sa propre localisation sur la membrane basilaire de la cochlée (à l’image du clavier d’un piano), et enfin que chaque fibre nerveuse auditive est le vecteur d’une fréquence donnée (FC, ou Fréquence Caractéristique). Depuis lors, du fait de la notoriété de son auteur et de ses adeptes, aucune recherche n’a pu être entreprise sans se référer à ce modèle. Sa simplicité a sans nul doute fait son succès. Elle a même engendré quantité d’élucubrations mathématiques qui ne manquent pas de rendre perplexe. Pourtant de nombreuses discordances entre la théorie et l’observation ont été relevées dans des disciplines aussi diverses que l’histologie, l’histopathologie, la psychoacoustique, l’électrophysiologie, la physiopathologie auditive, etc. À l’évidence, le dogme inébranlable de la décomposition des sons par l’oreille ne résiste pas aux théories modernes de 13

L’ OREILLE

NUMÉRIQUE

l’information et de la communication, entre autres à la numérisation du signal et à l’universalité du codage de l’information par les organes des sens. Ces derniers sont tous, sans exception, des adaptateurs de signaux physiques continus, issus de l’environnement, en des signaux discontinus, les spikes des fibres nerveuses. En langage actuel, on peut dire qu’un organe sensoriel est un convertisseur analogique-digital et on ne voit pas pourquoi la décomposition d’un son complexe par l’oreille serait un préalable nécessaire à la transmission de l’information aux centres nerveux supérieurs. Comment peut-on prétendre que des fibres nerveuses peuvent transmettre des fréquences sonores élevées quand on sait que chaque fibre ne peut répondre au-dessus de 1 000 Hz du fait de sa période de repos (dite réfractaire) ? Les spécialistes du traitement du signal auraient bien aimé concevoir et disposer d’un analyseur de fréquence aussi simple et aussi performant que celui imaginé pour l’oreille.

Revisiter le concept Tant d’observations contradictoires forcent à reconsidérer ce qui paraissait si bien établi jusqu’alors par les audiologistes, et à reprendre avec les moyens d’investigation actuels des expérimentations tenues comme princeps. On peut par exemple constater que le signal délivré par un diapason, entretenu électriquement et que l’on croyait capable de délivrer un son pur, possède en fait un spectre de bruit, ce qui modifie profondément l’interprétation des réponses obtenues avec les premiers modèles mécaniques cochléaires. On ne peut pas parler d’erreur expérimentale dans ces protocoles anciens, mais il convient évidemment d’en interpréter différemment les résultats. La révision des concepts n’est pas pour autant chose aisée. On assiste de nos jours à un confinement de la pensée lié à la balkanisation du savoir. C’est un reproche majeur que l’on peut opposer aux spécialistes de l’audition, les uns et les autres enfermés dans leur hyperspécialisation, et tous adeptes du discours dominant selon lequel elle est la garantie même du progrès scientifique. Ce choix de comportement ne permet évidemment pas de se départir des vérités établies. Pourtant il ne peut émerger de nouveaux paradigmes1 sans une convergence entre divers domaines de la pensée. Chacun sait que l’articulation de différents domaines du savoir est en effet extrêmement féconde : ainsi par exemple, l’avènement de l’informatique procède de la logique, de la théorie de l’information, de la cybernétique, de la linguistique, sans parler de la philosophie structuraliste et de la psychologie lacanienne. Il n’est pas 14

Préface

concevable que le domaine de l’audition ne puisse bénéficier lui aussi de la conjonction de la physique, de l’informatique, de la cybernétique, de l’information et de la communication, de la linguistique, des avancées dans d’autres domaines de la physiologie sensorielle, comme la vision, l’olfaction, etc. C’est ainsi, par exemple que la mise en parallèle des domaines de l’audition et de la vision révèle une étroite parenté. La mécanique de l’oreille moyenne est superposable à celle de l’accommodation, une surdité de transmission est le pendant d’une amétropie, une surdité de perception d’une atteinte rétinienne, etc. Lorsqu’on veut évaluer la perte auditive d’un sujet malentendant, pourquoi recourir à de contestables et sophistiqués calculs à partir des seuils de perception pour différentes fréquences, alors qu’en une seule mesure le seuil auditif au bruit blanc peut donner un résultat global : les oculistes ne mesurent-ils pas l’acuité visuelle par la lecture d’optotypes en lumière blanche, sans recourir à de multiples évaluations dans les différentes couleurs du spectre ?

Expérimenter. Modéliser Se poser la question implique dès lors d’en rechercher les mécanismes physiologiques sous-jacents : quelle peut bien être la forme de la réponse au seuil d’audibilité de la membrane basilaire de la cochlée lorsqu’elle est sollicitée par la multitude des fréquences sonores composantes d’un bruit blanc et sachant que l’oreille n’a pas pour toutes la même sensibilité ? Ce sont ces réflexions qui m’ont conduit à reprendre une expérimentation sur des modèles mécaniques cochléaires et à observer quelle pouvait être la réponse d’une membrane « basilaire » à un bruit aléatoire : le constat était pour le moins surprenant puisque, même pour des niveaux extrêmement faibles, la forme de la réponse restait exactement identique à elle-même, et que, plus précisément, elle intéressait la totalité de cette membrane. Ce qui remettait d’emblée expérimentalement en cause le concept de tonotopie : la sensibilité de l’oreille étant maximale aux alentours de 1-2 kHz, l’abaissement du niveau d’un bruit blanc aurait dû se traduire au voisinage du seuil par un renforcement des vibrations en une zone relativement précise de la membrane du modèle. Qu’en était-il dès lors de la réponse de mes modèles mécaniques cochléaires à des signaux de type sinusoïdal et à des transitoires ? Je devais me rendre à l’évidence : elle aussi divergeait encore du concept de la tonotopie. Il a fallu, pour retrouver les données classiques antérieures, modifier considérablement les paramètres expérimentaux (viscosité des 15

L’ OREILLE

NUMÉRIQUE

liquides remplissant les modèles, forme du signal, configuration de la membrane élastique, etc.). Au risque accepté de m’exposer à l’anathème des tenants des idées reçues, ces résultats expérimentaux m’ont conduit à formuler un concept innovant de l’audition, la Théorie dite de l’Échantillonnage Cochléaire, dont l’essentiel a été publié dans diverses revues spécialisées depuis 1973 et dans un ouvrage paru en 19862, 7. Certes, cette théorie est déstabilisante puisqu’elle oblige à changer de cadre conceptuel. Mais elle trouve sa justification dans des faits expérimentaux accessibles à tous, dans sa cohérence, et enfin dans l’élimination de multiples résultats aberrants antérieurs. L’occultation quasi systématique de la forme du signal acoustique dans nombre de recherches (simplification à l’extrême avec des sons purs entretenus, méconnaissance des transitoires introduits par des sons discontinus), l’omission de la notion de constante de temps, le rejet des théories modernes de la communication et de l’information constituent autant d’aberrations que l’on peine à comprendre. Elles ont conduit et conduisent encore à la théorisation de multiples modèles mécaniques, électriques, électroniques, mathématiques, aussi éphémères les uns que les autres.

La pesanteur des dogmes Rien d’étonnant à ce que l’audiologie paraisse autant bloquée. Le comportement des spécialistes de l’audition est particulièrement édifiant, comme en témoigne leur attachement à la scolastique békésienne, à son formalisme, à son traditionalisme. S’attaquer au dogme relève quelque peu du sacrilège. La scolastique n’accepte pas la contradiction3, 8. Il est possible, voire probable, que le contenu de cet ouvrage consacré à la psychophysiologie de l’audition, et à une vision moderniste du fonctionnement de l’oreille, puisse choquer certains esprits animés par la passion. Mais je persiste à dire que, si certaines idées ou prises de position peuvent leur sembler utopiques tant elles paraissent éloignées des « vérités établies », un minimum d’éthique personnelle impose que l’on dénonce ce qui paraît aberrant à la lumière des connaissances du moment. Ces vérités établies ne tirent en réalité leur force que de leur incessante répétition, imprégnant sournoisement les esprits comme le font les images subliminales et conduisent à une désinformation, inconsciente ou délibérée. C’est tout le problème que pose, par son colportage incessant et irréfléchi, le paradigme de la tonotopie cochléaire. 16

Préface

Chacun sait que ceux qui apportent la contradiction sont le plus souvent marginalisés. Le poids du conformisme est sans limite. Si l’establishment ne peut s’opposer ouvertement, il s’ingénie habituellement à occulter ce qui dérange l’ordre établi. Ou encore, en panne d’objections fondées, il n’hésite pas à proférer des récusations sans preuves (du genre : « la tonotopie a été mille fois démontrée »), quand ce n’est pas afficher une considération polie teintée de condescendance, de supériorité bienveillante, reléguant sans preuve des résultats expérimentaux aisément reproductibles au rang de fragiles élucubrations. Un scientifique n’a pas le droit de rejeter d’emblée et en bloc des données et observations sans les avoir lui-même reproduites au préalable, ni le droit à l’excuse s’il récuse l’évidence pour ne retenir que des données incertaines ou des assertions non fondées. Le comportement humain est à la fois universel et éternel. Il faut beaucoup de ténacité, de foi en ses idées, peut-être d’inconscience, pour aller à l’encontre des idées reçues. La résistance au changement est dans la nature des choses. Cela demande aussi une bonne dose d’abnégation4. Les vérités établies, les dogmes, la pensée unique (même en sciences) ont la vie dure, car « des gens énergiques peuvent fabriquer de la « vérité » en faisant persécuter des opinions autres que les leurs »5, 8. Fort heureusement, les idées sont soumises à l’épreuve du temps. L’avenir dira ce qu’il doit en subsister de « l’oreille numérique ». Il est possible que la vision moderniste et novatrice développée dans cet ouvrage se révèle incomplète, mais dans l’immédiat, elle me paraît cohérente, rapprochant par ses implications le fonctionnement de l’oreille des phénomènes physiques, psychoacoustiques et cliniques et son intégration dans le monde du numérique. Si comme toutes les théories scientifiques, elle doit se heurter quelque jour à une barrière infranchissable, il lui faudrait alors pour sortir de cette impasse « revenir plus ou moins en arrière et reprendre sa marche dans une direction plus ou moins différente »6. Ce n’est pas encore le cas et j’en revendique néanmoins la paternité.

17

This page intentionally left blank

Chapitre 1

Un organe mystérieux pendant de nombreux siècles

On ne sait pas très bien à quelle période de son évolution l’homme s’est aperçu que la perception des sons de son environnement était liée à la présence d’un organe spécifique, l’oreille. Il est d’ailleurs probable que, pour assurer sa survie, il s’est d’abord préoccupé du bon état de sa vision plutôt que de son audition. On ne le saura probablement jamais. Rien ne permet de dire, au travers des représentations rupestres des animaux auxquels il était confronté (antilopes, chevaux sauvages, bisons, aurochs, lions des cavernes, etc.) qu’il ait effectué il y a quelque 40 000 ans un semblant de rapprochement entre l’oreille et la fonction auditive. Par déduction, l’hypothèse est cependant vraisemblable car on est certain de l’existence d’une médecine au paléolithique : n’a-t-on pas relevé sur des crânes datant de 12 000 ans avant J.-C. des traces de trépanation1 ? Si on examine dans le détail la représentation des figures humaines de l’époque, on n’est guère mieux renseigné : les visages sont stylisés et dessinés sommairement. Plus tard, au néolithique, les céramiques sont aussi muettes, il ne semble pas y avoir de motifs humains.

L’Antiquité C’est dans les civilisations indo-orientale, mésopotamienne et égyptienne que l’on trouve les premières données historiques d’un savoir 19

L’ OREILLE

NUMÉRIQUE

biologique1. Ces données portent principalement sur la séméiologie et sur des recettes thérapeutiques, un peu sur l’anatomie, mais elles ne s’intéressent ni à la description ni au fonctionnement des organes sensoriels. Les tablettes sumériennes (5 000 ans av. J.-C.) nous apprennent cependant que l’oreille était considérée comme l’organe de la volonté, mais son rôle dans l’audition est méconnu4. L’égyptologie nous apporte beaucoup plus de renseignements. Entre le début de la première dynastie égyptienne (3 000 env. av. J.-C.) et la fin de la seconde domination perse avec la conquête de l’Egypte par Alexandre le Grand (332 av. J.-C.), donc au cours d’une civilisation exceptionnelle dans sa durée, la médecine égyptienne a pris une place considérable. Elle était soigneusement codifiée comme le prouvent les nombreux papyrus qui nous sont parvenus. À la bibliothèque universitaire de Leipzig, le papyrus d’Ebers qui remonterait à plus de 4 000 ans avant notre ère15, renferme huit cent soixante quinze prescriptions et recommande plus de cinquante drogues3, 4. Mais en regard de cette dominance des recettes thérapeutiques, et malgré le nombre impressionnant de cadavres qui furent ouverts pendant des millénaires au cours des pratiques d’embaumement, les médecins égyptiens n’ont guère approfondi leurs connaissances anatomiques. À leur décharge, il est vrai qu’ils ne participaient pas à la momification : celle-ci « était l’œuvre des paraschistes et taricheutes », disons des embaumeurs. En outre, ils ne s’intéressaient guère qu’à l’extraction des viscères, des organes facilement putrescibles. Le squelette, dont l’oreille, était maintenu indemne. La connaissance de l’anatomie animale avait de longtemps précédé celle de l’anatomie humaine. La similitude morphologique des organes était parfaitement reconnue comme en témoignent les hiéroglyphes, mais sans plus, puisque la représentation d’un certain nombre d’organes, dont l’oreille, est celle de mammifères5. En outre, « l’oreille « mesedjer » n’a pas fait l’objet de descriptions détaillées : seul, le conduit « khenou » suivi du déterminatif de la maison, signifie l’intérieur »2. La plupart des recettes traitent des inflammations et suppurations d’oreille, sans qu’il soit rapporté de surdité associée5. Parmi les affections de l’oreille, on peut reconnaître les différents stades d’une otite moyenne, ou les blessures du pavillon, traitées par boulettes, instillations et ingrédients aussi diverses qu’étranges. Il n’est fait état d’une surdité, ou plutôt d’une hypoacousie que dans le n° 764 du papyrus Ebers qui parle d’« une oreille dont l’audition est petite » et qui est traitée par des éléments minéraux ou végétaux comme 20

1 • Un organe mystérieux pendant de nombreux siècles

l’application d’huile de ben dans laquelle on a concassé de l’ocre jaune et une feuille de l’arbre – iam. »2. La perte d’audition était liée au mutisme : « un homme sourd, dit Rb. 854 e, ne peut ouvrir la bouche », à l’inverse de ce que nous pensons. L’oreille ne pouvait que recevoir une parole déifiée : « Le souffle de vie entre par l’oreille droite et le souffle de mort par l’oreille gauche » (Eb. 854 f). Les yeux et les oreilles sont interdépendants : la surdité vient de deux vaisseaux qui conduisent à la racine des yeux, et une instillation d’œil de porc dans l’oreille est recommandée pour traiter la cécité. Le papyrus Edwin Smith révèle des connaissances anatomiques avancées pour l’époque sur les traumatismes du crâne. On y « établit des rapports entre la lésion et les symptômes ». On y « décrit la surdité, le mutisme, et l’hyperacousie (S. 21) »5 (p. 53) mais il n’est point question de l’oreille en tant qu’organe. À l’âge du cuivre (env. 2000 av. J.-C.), si on peut observer dans la représentation des divinités un aspect anthropomorphe, on ne note pas d’image détaillée de l’oreille. De même, à l’âge du bronze (1800-1300 av. J.-C.), sur les divers objets qui ont été collectés (tasses, boucles, diadème…) on ne remarque que des décorations géométriques, sans représentation humaine. Vers 600 av. J.-C., Alcmeon de Crotone attribue à l’oreille une fonction respiratoire. Il faut attendre Pythagore (571-496 av. J.-C.), philosophe et mathématicien grec, pour qu’une relation soit enfin établie entre l’oreille et l’audition. Il étudie les vibrations des instruments à cordes et établit des rapports entre leur longueur et la hauteur des sensations. Ces dernières sont ensuite transmises au cerveau par d’étroits canalicules4. À la même époque, Empédocle (535-475), également philosophe grec, affirme que le son est capté par le labyrinthe, organe qu’il vient de découvrir. Hippocrate, père de la médecine, (460-375 av. J.-C.), décrit la membrane tympanique et les cavités rétro-tympaniques qu’il considère comme des caisses de résonance d’où le son serait renvoyé au cerveau. Ses nombreux aphorismes sur les affections de l’oreille n’apportent pas d’autres précisions sur les mécanismes de l’audition. Platon (426-348) n’est guère plus précis : il pense que les oreilles captent les vibrations de l’air pour les transmettre au siège de l’âme. C’est Aristote (384-322), philosophe grec et disciple de Platon, qui va réfuter l’assertion de Alcméon de Crotone, et affirmer que l’oreille est l’organe de l’ouïe15 et non celui de la respiration. Il décrit l’intérieur de l’oreille comme un limaçon, et pense que cette cavité close est remplie 21

L’ OREILLE

NUMÉRIQUE

d’air. Cette conception persistera pendant vingt siècles jusqu’à la découverte des liquides labyrinthiques par Cotugno. Vers cette même époque, (iiie siècle av. J.-C.), Erasistrate et Herophile dissèquent le nerf auditif jusqu’au cerveau. On commencera dès lors à s’intéresser de plus en plus à l’oreille : c’est ainsi que Aulus Cornelius Celsus (médecin et érudit contemporain d’Auguste) (50 av. J.-C. – 10 ap. J.-C.) signale « la flexuosité remarquable des différents canaux situés dans l’os de l’oreille », et que « Claude Galien (131-201), s’intéresse à la fois à l’oreille et aux nerfs crâniens… Il est le premier à distinguer le nerf facial du nerf auditif, le seul qui transmette les impressions sonores… Ce nerf est protégé par un os épais et dur, percé de spirales contournées à l’instar d’un labyrinthe… » Mais la physiologie de l’oreille est étrange : « l’air froid vient s’émousser peu à peu par la réfraction répétée dans ces détours sinueux… ». Après Galien, il faut attendre Oribase (326-403) pour qu’on entrevoit l’existence d’une fonction propre à l’oreille interne. La médecine médiévale ne s’intéresse pas à la physiologie. Alexandre de Tralles se préoccupe des acouphènes, et il aurait déjà remarqué que leur présence serait atténuée dans une ambiance sonore 15 (p. 11). Avec les écoles de Montpellier et de Salerne, elle a su montrer son universalité en réunissant le savoir gréco-romain, la doctrine chrétienne et l’apport oriental judéo-arabe4. Les ouvrages qui nous sont connus (Arnaud de Villeneuve, Bernard de Gordon [1303], Gugliemo da Saliceto, Guy de Chauliac [1295-1368]) sont avant tout des traités des maladies de l’oreille.

La Renaissance De la Renaissance au xixe siècle, les anatomistes vont s’imposer4, 6. Copernic s’élève contre les aristotéliciens : les organes des sens sont les voies de pénétration vers l’âme localisée profondément et non pas des instruments de l’âme. Un groupe de savants, l’école de Padoue : Vésale, Realdo Colombo, Gabrielle Fallopo, Fabricius d’Acquapendente, Julius Casserius, font une remarquable description des organes des sens et posent les prémices de la physiologie. À la même époque, Berengario da Carpi (1470-1555) découvre les osselets de l’oreille moyenne, et Vésale décrit les fenêtres et les différentes cavités du labyrinthe. Il essaie d’expliquer la transmission du son par la membrane tympanique, le marteau et l’enclume. C’est Ingrassia qui aurait découvert le troisième osselet, l’étrier, en 1546. De son côté, Gabriel Fallope, anatomiste italien 22

1 • Un organe mystérieux pendant de nombreux siècles

(1523-1563), fournit une description poussée des osselets, des cavités de l’oreille interne, du labyrinthe et du limaçon, à l’intérieur desquelles il situe les rampes vestibulaires, la lame spiroïde, et l’expansion du nerf auditif. Mais, comme Aristote, on continue toujours à penser que les cavités de l’oreille sont remplies d’air. Ainsi, Ambroise Paré (1510-1590), chirurgien à la cour d’Henri II, pense que l’air interne remplissant les cavités mastoïdiennes est l’une deux sources par lesquelles s’élabore l’audition. L’autre est extérieure et transmise par le tympan et les osselets, l’amplitude des vibrations déterminant la hauteur du son. De même, Volcher Coiter (1534-1576), anatomiste, admet lui aussi que la cochlée contient de l’air. Il assimile la conduction aérienne à la transmission des sons par la trompe décrite par Eustache4. Les xviie et xviiie siècles sont marqués par un essor important de la physiologie auditive. Gaspard Bauhin (1560-1620) pense qu’il existe une répartition spatiale des sons graves et aigus dans les parties différentes de l’oreille interne en raison soit de leurs dimensions, soit de leur forme. Wever le considérera comme le père de la théorie de la localisation des sons dans l’oreille. Claude Perrault (1613-1688), architecte du Louvre, mais aussi anatomiste, localise plus précisément dans la lame spirale l’excitation des nerfs par les vibrations. En 1683, Du Verney, dans son traité de l’organe de l’ouïe, quoique ignorant toujours la présence de liquides labyrinthiques, établit une distinction entre la transmission des sons par voie aérienne et celle par voie osseuse, et attribue à la trompe d’Eustache un rôle d’aération de la caisse du tympan. Le labyrinthe est « l’organe immédiat de l’ouïe » qu’il compare à un instrument de musique, suggérant que les sons graves sont perçus à la base et les sons aigus à son extrémité rétrécie, les canaux semicirculaires jouant le rôle de résonateurs. Concepts que von Helmholtz modifiera deux siècles plus tard, en inversant la localisation des sons et déniant tout participation auditive aux canaux semi-circulaires. C’est Antonio Valsalva (1666-1723) qui le premier distingue trois parties dans l’oreille au lieu de deux et qui signale la présence de liquide dans l’oreille interne, ce que confirmera Domenico Cotugno (17361822) qui découvre le rôle fonctionnel des liquides de l’oreille interne et met fin au concept de l’air inné (ou interne) d’Aristote. La physiologie de l’audition est véritablement née à cette époque. Il apparaît toutefois, tant en France qu’à l’étranger, qu’on a encore une conception erronée de la transmission des sons : les ondes sonores n’étant pas transmises par la 23

L’ OREILLE

NUMÉRIQUE

chaîne des osselets mais par l’air contenu dans la caisse (conception de Riolan et de Wepper15). Nicolas Le Cat (1700-1768) étudie sur des instruments de musique les vibrations des cordes et les effets de résonance, et applique ses conclusions au fonctionnement de l’oreille. C’est ainsi qu’il énonce la théorie de la résonance au niveau de l’oreille interne : « la toile arachnoïde qui forme la lame spirale et divise les rampes, offre de sa base à son sommet une suite de cordes décroissantes dans une progression insensible, propres à se mettre à l’unisson de tous les tons possibles »4. Cette conception sera retenue par tous les grands noms de l’otologie de l’époque : en premier, Jean Marie Gaspard Itard (1775-1838), médecin à l’Institut pour sourdsmuets à Paris et chirurgien, qui publie en 1821 un traité qui fera référence des maladies de l’oreille et de l’audition dans lequel il propose une classification des surdités. Il aura pour élèves des praticiens célèbres : Deleau, Bonnet, Bonnafont, Miot, Menière, Blanchet. À la même époque, en Angleterre, Yearsley établit la survenue d’une atteinte auditive à la suite de bruits intenses. Signalons encore quelques grands noms d’otologistes de l’époque : Curtis, Haller, Wollaston, Hinton, Shrapnell, Kramer, von Tröltsch, Avery, Politzer, Reissner, Corti, Deiters, Claudius, Voltoni… La physiologie de l’audition ne prendra véritablement son essor qu’au milieu du xixe siècle, grâce à l’utilisation en clinique d’instruments simples : le spéculum d’oreille, le miroir frontal perforé, le jeu de diapasons, et grâce aux ressources de la physique (électricité, optique, etc.). Les recherches seront menées simultanément dans de multiples domaines : l’anatomie, l’histologie, l’acoustique, etc. Ainsi, Pierre Flourens (1794-1867) mettra en évidence les fonctions des canaux semi-circulaires de l’oreille interne. Johannes Müller (1801-1896), génie universel, s’intéressera tout particulièrement à la physiologie des organes des sens et formulera la loi de l’énergie spécifique des nerfs. Ses élèves seront célèbres : H. Helmholtz (1821-1894)8, Du Bois-Reymond (1818-1896), Pflüger (1829-1910). (Son homonyme, Johannes Müller, dit Regiomontanus, (1436-1476), fut astronome). On est loin de l’interprétation de Fabrice d’Acquapendente du xviie siècle qui « s’était imaginé que les osselets portaient leur agitation dans l’air interne (de l’oreille) de même qu’une poutre frappée à un bout porte le coup à l’autre extrémité ; la fenêtre ronde servait au son grave et la fenêtre ovale au son aigu »4. Il aura néanmoins fallu attendre de nombreuses années (presque deux siècles) pour établir le mécanisme de la 24

1 • Un organe mystérieux pendant de nombreux siècles

transformation de l’excitation mécanique (vibrations) en influx nerveux et celui de la discrimination d’intensité sonore4. Au xxe siècle, de nombreuses hypothèses sur les mécanismes intimes de l’oreille interne verront le jour selon l’importance donnée à tel ou tel paramètre : théories dites hydrodynamiques, théories du téléphone, théories dites fréquentielles basées sur le concept d’une décomposition des sons complexes par l’oreille interne, théorie dite de la volée basée sur les propriétés physiologiques de la fibre nerveuse, théorie de l’onde propagée, etc. On retiendra les noms de G. von Békésy10, de Fletcher H. (Speach and hearing, 1929), de Stevens S.S. et Davis H (Hearing and its psychology and physiology, 1938), de Wever E.G. (Theory of Hearing, 1949). Il apparaît cependant, au travers de ces multiples théories, que leurs auteurs cherchaient surtout à donner une explication de la perception de la hauteur de sons, délaissant celle de l’intensité ou de la perception des durées.

La période contemporaine et l’apport des mathématiciens et des physiciens La période contemporaine est marquée par une explosion de nouvelles données scientifiques grâce à l’ultra-microscopie, la biochimie, l’électrophysiologie,… On pourra dès lors disposer d’une meilleure connaissance morphologique du canal cochléaire, de l’organe de Corti, de la strie vasculaire, de l’extraordinaire éventail nerveux auditif, de la mécanique cochléaire, des synapses nerveuses, de la physiologie de l’oreille moyenne, de la biochimie des liquides cochléaires, de l’audiométrie, etc. Parallèlement, en acoustique et en psychoacoustique, l’apport des mathématiciens et des physiciens a été déterminant. Si les premières bases de la physique acoustique ont été posées par Pythagore qui avait déjà reconnu la nature vibratoire du son, et par Euclide (à Alexandrie, iiie siècle av. J.-C.), les préoccupations des savants jusqu’au xviie siècle environ ont essentiellement porté sur l’anatomie et très peu sur l’exploration fonctionnelle de l’audition. On savait depuis le xviie siècle (Robert Boyle, 1660) que le son ne se propage pas dans le vide. Le père Marin Mersenne16 (1588-1648) avait même pu en mesurer la vitesse. Bien plus tard, Newton, puis le suisse Leonhard Euler (1707-1783) théorisent sa propagation dans l’air. Les français Jean Le Rond d’Alembert (1717-1783) et Joseph Louis Lagrange (1736-1813) développent à la même époque les équations des phénomènes périodiques, notamment acoustiques. 25

L’ OREILLE

NUMÉRIQUE

Plusieurs physiciens se sont quasi simultanément et brillamment illustrés. C’est Chladni (1756-1827), qui, le premier, pose les bases de l’acoustique expérimentale lorsqu’il détermine la vitesse du son à partir de tuyaux sonores et qu’il tente en 1802 de fixer une limite inférieure et supérieure à l’ouïe. Par la suite, Félix Savart (1791-1841) s’intéresse à l’étude de la propagation du son dans les solides. On doit enfin à Joseph Fourier (1768-1783)7 et à Georg Simon Ohm (1789-1854) la théorie de la décomposition des sons complexes, jetant ainsi les bases de l’acoustique physiologique et musicale. On s’intéresse alors de plus en plus à la physiologie de l’audition. L’apport du xixe siècle est déterminant. En 1827, le physicien anglais Charles Wheatstone constate que l’obturation d’un conduit auditif n’empêche pas la propagation du son. En 1860, Gustav Fechner établit les relations entre l’intensité physique du son et le degré de la sensation. Mais c’est surtout Hermann von Helmholtz (1821-1894)8 qui, avec ses résonateurs accordés, fournit la plus grande contribution sur la structure des sons. S’appuyant sur la découverte en 1851 des cellules sensorielles auditives de Corti, il formule alors en 1857 la Théorie des résonances de l’audition11. En dehors des médecins, l’acoustique suscite beaucoup d’intérêt : c’est le cas par exemple, quoique ingénieur dans un autre domaine, en 1860, de Henri Victor Regnault (1810-1878)9. L’année 1854 vit les premiers essais de téléphonie de Charles Bourseul (1829-1912). En 1875, deux Américains, Graham Bell (1847-1922) et Elisha Grey, s’intéressent à la transmission des sons par un circuit électrique : c’est alors que Graham Bell, préoccupé par la surdité de son épouse, effectue en 1876 la retentissante découverte du téléphone. On doit à cette découverte les bases de l’acoumétrie téléphonique (Blake, Politzer), et à la découverte des tubes électroniques celles de l’audiométrie moderne. Un problème est resté longtemps en suspens : celui de la transmission des sons dans la cochlée. Le plus célèbre des chercheurs reste incontestablement le physicien Georg von Békésy10 qui, en 1928, à partir de modèles mécaniques cochléaires, propose la théorie de l’onde propagée et de la localisation fréquentielle cochléaire. En 1930, deux américains, Wever et Bray, ouvrent l’ère de l’électrophysiologie auditive en découvrant l’existence d’un potentiel électrique cochléaire et la possibilité d’une transmission de la parole par le nerf auditif (d’où son appellation de microphonique cochléaire). (Galvani, il y a plus de 200 ans, avait déjà démontré l’existence d’une activité électrique des tissus biologiques.) 26

1 • Un organe mystérieux pendant de nombreux siècles

À la même date, en 1930, Hans Berger établit la preuve électrophysiologique de l’action du système auditif sur l’activité cérébrale : une stimulation sonore de courte durée modifie le rythme électroencéphalographique de repos (alpha) en provoquant la classique réaction d’arrêt. Par la suite, en 1939, Hallowell Davis17 montre que l’on peut enregistrer, par la pose d’électrodes au niveau du vertex et pendant le sommeil, une réponse évoquée diphasique ou triphasique en réponse à une stimulation sonore. C’était la base de l’audiométrie électroencéphalographique (ERA). L’électrophysiologie auditive a connu ensuite un essor extraordinaire. À partir de 1968, Yoshie au Japon, Michel Portmann et JeanMarie Aran en France mettent au point une technique d’enregistrement de l’activité globale du nerf auditif par la pose d’une électrode transtympanique (électrocochléographie). En 1970, Jewett prouve qu’il est possible d’enregistrer au niveau du vertex chez l’homme une activité évoquée comportant 5 ondes correspondant aux différents relais auditifs centraux (technique dite des potentiels évoqués auditifs). Depuis lors, l’accumulation des connaissances a permis la mise au point de techniques aussi extraordinaires les unes que les autres, allant de l’exploration de la fonction auditive par recueil de potentiels évoqués auditifs (PEA), à la réhabilitation des surdités profondes par implant électrique cochléaire ou du tronc cérébral. Parallèlement, la biophysique (acoustique) a donné naissance à d’autres avancées, allant du recueil des otoémissions acoustiques provoquées, à l’implantation de prothèses d’oreille moyenne et enfin aux prothèses électroacoustiques numériques. Au total, comme dans de nombreuses disciplines, la connaissance intime de l’oreille et la compréhension des mécanismes de l’audition ont subi une accélération extraordinaire au cours des derniers siècles, à la faveur essentiellement des grandes découvertes physiques et mathématiques, et de leurs applications technologiques. Cependant, les acquis sont encore loin de rendre compte des multiples énigmes que l’on peut encore relever en psychoacoustique, en physiologie et physiopathologie14. De nombreux domaines restent à explorer, entre autres la place de l’oreille dans celui des neurosciences.

27

This page intentionally left blank

Chapitre 2

L’oreille : une énigmatique machine

Qu’est-ce que l’oreille ? Si l’être vivant était réduit à une seule cellule, les organes des sens ne seraient jamais que des pseudopodes chargés de détecter dans un but de défense toute variation physique hostile du milieu environnant. C’est la fonction exercée par l’oreille dans un organisme évolué envers un domaine limité des phénomènes vibratoires. Pour les uns, il s’agit d’une merveilleuse machine, à la fois complexe, fine, précise, objet d’une respectueuse admiration, un don de la nature, siège de la perception du monde acoustique environnant et de sa charge informative. À l’oreille se rattache une symbolique considérable : ne dit-on pas tendre l’oreille, dormir sur ses deux oreilles, être toute oreille à l’écoute d’un discours, avoir l’oreille de quelqu’un, n’écouter que d’une oreille, etc. Pour d’autres, il s’agit d’une machine stupide, une sorte de banal microphone, uniquement capable de transformer les vibrations sonores qui nous assaillent en potentiels électriques véhiculés par le nerf acoustique, l’essentiel de la perception étant dévolue au cerveau. Il a fallu le concours, au fil des ans, d’une armée de savants : anatomistes, histologistes, biologistes, etc., pour cerner les composants d’une machinerie complexe et pour attribuer à chacun d’entre eux une fonction bien particulière.

29

L’ OREILLE

NUMÉRIQUE

Un condensé sur la constitution de l’organe auditif L’oreille est un organe extrêmement complexe, dont la constitution pourrait décourager au prime abord l’étude de ses composants et son fonctionnement. Mais très vite, se dégage un sentiment d’émerveillement dès qu’on découvre la finesse de ses éléments et ses étonnantes performances défiant toutes les machineries de laboratoire. Les anatomo-physiologistes distinguent dans l’organe auditif – tout au moins chez les mammifères – trois parties : l’oreille externe, l’oreille moyenne et l’oreille interne. Les deux premières parties ont pour fonction essentielle de capter et transmettre les sons jusqu’à l’oreille interne, partie la plus noble du système auditif, véritable transformateur des vibrations acoustiques en messages nerveux. Au-delà de ces trois organes, ces messages vont cheminer via le nerf auditif et des relais nerveux jusqu’au cortex cérébral (Fig. 2.1). L’oreille externe (pavillon auriculaire et conduit auditif externe) a pour fonction de capter et de conduire les vibrations sonores jusqu’à la membrane élastique qui en obture le fond : le tympan. On attribue au conduit auditif, d’une longueur moyenne de 25 mm, essentiellement une fonction de résonateur. La seconde partie, l’oreille moyenne, joue, grosso modo, un rôle d’amplificateur (Fig. 2.2). Il s’agit d’une une cavité osseuse, la caisse du tympan, incluse dans l’os temporal, qui est obturée sur sa face externe par la membrane tympanique, et dont la face profonde osseuse se situe en regard de la troisième partie de l’oreille, l’oreille interne. Cette cavité contient les trois plus petits os de l’organisme : le marteau, l’enclume et l’étrier, qui vont transmettre les vibrations tympaniques provoquées par les ondes sonores jusqu’à l’une des deux ouvertures de l’oreille interne, la fenêtre ovale. La paroi profonde osseuse de la caisse du tympan présente une autre ouverture, la fenêtre ronde, qui est obturée par une membrane élastique. Tympan et osselets forment un ensemble fonctionnel désigné sous le terme de chaîne tympano-ossiculaire. La caisse du tympan communique en avant avec le rhino-pharynx par un canal, la trompe d’Eustache, dont l’ouverture intermittente, lors des mouvements de déglutition, permet de maintenir un équilibre des pressions de l’air entre les deux faces du tympan. Alors que le marteau est solidaire du tympan, les osselets sont articulés entre eux, et le dernier, l’étrier, est mobile dans la fenêtre ovale. Enfin, à cette chaîne de transmission sont rattachés deux muscles, le muscle du marteau et le muscle de l’étrier, qui ont une fonction d’accommodation1. 30

2 • L’oreille : une énigmatique machine

Fig. 2.1. Représentation schématique des constituants de l’oreille (d’ap. M. Portmann et Cl. Portmann, Précis d’audiométrie clinique, Masson, Paris, 1954).

La troisième partie, l’oreille interne, est la partie noble du système auditif. Elle est chargée d’une part de la fonction d’équilibration par le saccule, l’utricule et les canaux semi-circulaires (fonction qui ne retiendra pas notre propos) et d’autre part d’assurer la fonction de l’audition par l’entremise de la cochlée (ou limaçon). Alors que les deux premiers maillons : oreille externe et oreille moyenne ont pour rôle essentiel de transmettre en les adaptant les ondes sonores (c’est le système dit de transmission), le dernier maillon, l’oreille interne, a pour fonction de convertir les ondes acoustiques, mécaniques, en influx nerveux codés qui seront transportés par les fibres du nerf auditif, et de proche en proche, jusqu’aux centres cérébraux : c’est le système de réception2. L’oreille interne a suscité et continue d’entretenir la sagacité des chercheurs. C’est une cavité osseuse, aux formes complexes qui a reçu le nom de labyrinthe osseux (Fig. 2.3). La partie réservée à l’audition se présente sous la forme d’une cavité, enroulée en spirale autour d’un cône virtuel sur deux tours et demi de spires, d’où son appellation de cochlée, ou limaçon osseux. Cette cavité osseuse est subdivisée en deux parties, d’une part dans sa portion interne par une lame osseuse également enroulée en 31

L’ OREILLE

NUMÉRIQUE

Fig. 2.2. Coupe vertico-transversale de la caisse du tympan montrant la chaîne des osselets (d’ap. Testut L. et Latarjet A. in Traité d’anatomie humaine, Doin, Paris, 1949).

Fig. 2.3. Vue d’ensemble schématique du labyrinthe osseux (d’ap. Bellocq, in Testut L. et Latarjet A. Traité d’anatomie humaine, Doin, Paris, 1949).

32

2 • L’oreille : une énigmatique machine

spirale, la lame spirale, et dans sa portion externe par une membrane élastique appelée membrane basilaire. Cette séparation n’est pas complète : il persiste à son extrémité distale, donc au sommet du limaçon, un orifice appelé hélicotréma qui assure, comme nous le verrons, une communication des liquides situés au-dessus et au-dessous de cette membrane (les liquides périlymphatiques). Les deux volumes ainsi délimités par la membrane basilaire portent le nom de rampes : l’un est fermé par la platine de l’étrier mais communique librement dans le vestibule, d’où son appellation de rampe vestibulaire, l’autre aboutit à la fenêtre ronde, laquelle est fermée par une membrane élastique ou tympan secondaire, c’est la rampe tympanique. C’est à l’intérieur de cette cavité osseuse de l’oreille interne (vestibulaire et cochléaire) que se trouvent les éléments nobles de l’audition (et de l’équilibration). Il s’agit d’une structure membraneuse baignant dans le liquide périlymphatique et comportant d’une part les éléments destinés à l’équilibration (utricule, canaux semi-circulaires, canal endolymphatique, saccule), et d’autre part, un long canal enroulé dans la rampe vestibulaire : le limaçon membraneux ou canal cochléaire, qui constitue l’organe proprement dit de l’audition (Fig. 2.4). Ce dernier repose sur la membrane basilaire et la lame spirale osseuse (avec lesquels il fait corps) : il est entièrement clos et rempli d’un liquide particulièrement riche en ions K+, l’endolymphe. Il s’ensuit que, sur une représentation en coupe de la cochlée, on peut distinguer trois canaux : la rampe vestibulaire, la rampe tympanique et le canal cochléaire (Fig. 2.5). C’est à l’intérieur de ce canal cochléaire que se déroulent les processus intimes de l’audition. Très schématiquement, on peut les résumer en considérant que la membrane élastique (dite basilaire) est le siège d’ondulations d’origine vibratoire, qu’elle supporte des capteurs de mouvement et que ces derniers ont pour rôle de convertir leur déplacement relatif en une variation de leur potentiel de surface. Dans le détail, nous voyons sur une coupe (Fig. 2.5 et 2.6) que le canal cochléaire est délimité en haut par une fine membrane dite de Reissner, en bas par la membrane basilaire et la lame spirale osseuse, en dedans par le limbe spiral et en dehors, collée sur la paroi externe, une structure richement vascularisée (la strie vasculaire qui assure l’irrigation de la cochlée) et le ligament spiral. Ce canal cochléaire, entièrement fermé sur lui-même, et rempli de l’endolymphe, contient les éléments qui vont assurer la transduction des vibrations mécaniques en impulsions nerveuses : l’organe de Corti. Il s’agit d’un ensemble de cellules différenciées reposant sur la face supérieure de la membrane basilaire, dans lequel on discerne des éléments de soutien rigides (les piliers de Corti externes et internes), et des cellules sensorielles ou cellules 33

L’ OREILLE

NUMÉRIQUE

de Corti, dont le sommet, la lame cuticulaire, porteuse de cils, est fixé à une formation perforée ou lame réticulaire. Ces cellules sensorielles ont une disposition bien caractéristique : alors que les cellules ciliées internes (CCI) sont disposées en une seule rangée, les cellules ciliées externes (CCE) sont réparties sur trois rangées et dessinent une sorte de damier (Fig. 7). On distingue enfin, sur la coupe, des cellules ayant un rôle de soutien ou un rôle trophique (telles que les cellules de Deiters, de Hensen, de Claudius), ou assurant le revêtement du reste des parois (le sillon spiral externe à la périphérie et le sillon spiral interne en dedans). Cet ensemble est surmonté par une formation hyaline, la membrane tectoriale, insérée en dedans sur le limbe spiral et qui, en emprisonnant l’extrémité des cils sensoriels, joue un rôle essentiel en micromécanique cochléaire3.

Fig. 2.4. Représentation schématique de l’oreille interne (d’après Burlet, 1920). 1. Sac endolymphatique. 2. Canal semi-circulaire postérieur. 3. Tronc commun. 4. Utricule. 5. Ampoule. 6. Étrier dans la fenêtre ovale. 7. Fenêtre ronde. 8. Rampe tympanique. 9. Dure-mère. 10. Canal semi-circulaire latéral. 11. Canal semi-circulaire supérieur. 12. Ampoule. 13. Membrane limitante. 14. Saccule. 15. Rampe vestibulaire. 16. Canal cochléaire.

34

2 • L’oreille : une énigmatique machine

Fig. 2.5. Coupe des rampes tympanique et vestibulaire et du canal cochléaire (d’après Rasmussen, in H. Davis, 1951)8.

Fig. 2.6. Coupe schématique du canal cochléaire en haut et de l’organe de Corti en bas

(d’après Rasmussen, in H. Davis, 1951)8.

35

L’ OREILLE

NUMÉRIQUE

Fig. 2.7. Microphotographie à balayage électronique des cellules ciliées du tour basal de la cochlée chez le chat mettant en évidence l’orientation réciproque des kinocils (d’ap. D.J. Williams, 1995, avec l’aimable autorisation de J.M. Hunter-Duvar, Hospital for Sick Children, Toronto).

Fig. 2.7 bis. Répartition en une seule rangée des CCI et en 3 rangées des CCE (modifié d’ap. Testut L. et Latarjet A. in Traité d’anatomie humaine, Doin, Paris, 1949).

36

2 • L’oreille : une énigmatique machine

Les voies auditives L’oreille interne est connectée aux centres cérébraux par deux groupes de fibres nerveuses : des fibres sensorielles proprement dites ou afférentes, suivies par d’autres fibres relais, et des fibres efférentes. Les premières transportent les influx nerveux de l’oreille aux centres auditifs cérébraux, les secondes acheminent les influx en sens inverse (Fig. 2.8). Dans le détail, les fibres afférentes, les plus nombreuses, et dont le groupement des corps cellulaires forme le ganglion de Corti, transportent l’influx nerveux de l’organe de Corti aux noyaux bulbaires acoustiques (le noyau acoustique latéral ou dorsal et le noyau acoustique antérieur, situé sur la partie latérale du pédoncule cérébelleux inférieur). Le deuxième neurone, ou neurone bulbo-thalamique, dont les corps cellulaires forment les noyaux cochléaires du bulbe, traverse la masse bulbaire pour rejoindre le noyau du corps trapézoïde homolatéral ou hétérolatéral (mais peut aussi emprunter la voie des stries acoustiques situées sur le plancher du quatrième ventricule). Le troisième (ou neurone thalamo-cortical dont les corps cellulaires sont situés dans le corps genouillé interne du thalamus et reliés aux tubercules quadrijumeaux postérieurs) peut emprunter trois trajets : soit hétérolatéral, soit homolatéral, soit enfin traverser directement la ligne médiane dans le CT. Le quatrième neurone va du tubercule quadrijumeau postérieur au corps genouillé interne. Enfin, le cinquième va du corps genouillé au cortex temporal, de sorte que chaque oreille est en rapport avec les deux cortex (aire auditive primaire corticale, chez l’homme le gyrus de Heschl) (aires 41 et 42 de Brodmann). Quant aux fibres efférentes, elles vont du bulbe à l’organe de Corti (Rasmussen, M. Portmann, Fernandez et H. Engström). Nées dans l’olive bulbaire homo- et controlatérale (c’est-à-dire partiellement dans le noyau du CT), elles traversent la ligne médiane et, en suivant le trajet du nerf acoustique, gagnent l’organe de Corti.

Les axones du premier neurone forment le nerf cochléaire, puis les fibres cochléaires du nerf auditif (ou VIIIe paire crânienne). Au niveau du cerveau, bien que l’on connaisse le siège des différents relais (les noyaux), les voies auditives forment un réseau extrêmement complexe du fait de l’existence de multiples voies associatives.

Sur la mécanique du système de transmission On ne peut que schématiser à l’extrême la fonction du système de transmission. Sous l’effet des ondes sonores, la membrane tympanique est le siège de vibrations complexes, de très faible amplitude puisqu’au seuil de l’audition et à 1 000 Hz, on l’évalue à 10–9 cm, soit au 1/10 du diamètre de l’atome d’hydrogène ! Ces vibrations sont transmises de proche en proche à la chaîne des osselets jusqu’à la platine de l’étier. Mais leur propagation est grevée d’une perte considérable d’énergie, par résistance (ou impédance) offerte par la chaîne ossiculaire, et par réflexion lors du passage 37

L’ OREILLE

NUMÉRIQUE

Fig. 2.8. Schéma des voies auditives (d’ap. Myers D. et al., Otologic Diagnosis and the Treatment of Deafness. Ciba Corporation, 1962). On notera que ce schéma est la traduction du concept d’une tonotopie cochléaire et d’une cartographie fréquentielle corticale, que de multiples incohérences doivent remettre en cause.

38

2 • L’oreille : une énigmatique machine

du milieu aérien au milieu liquidien de l’oreille interne (il ne passe qu’un millième de l’énergie incidente !). Fort heureusement, les propriétés du système de transmission viennent compenser cette défaillance et rétablir un passage satisfaisant des sons dans la cochlée. C’est Helmholtz, qui, le premier, en 1868, a imaginé que trois mécanismes pouvaient intervenir : – une action de levier de la membrane tympanique, réfutée par la suite, – une action de levier de la chaîne ossiculaire, – une amplification par l’intermédiaire du rapport des surfaces du tympan et de la fenêtre ovale. Cette action mécanique n’est pas passive, mais active en ce sens qu’interviennent la contraction des muscles du marteau et de l’étrier pour effectuer un ajustement réflexe de l’impédance tympano-ossiculaire6, 7. Il faut préciser enfin que la transmission correcte des sons aux liquides de l’oreille interne exige une intégrité du tympan et de la chaîne des osselets, afin que les fenêtres puissent travailler en opposition de phase (si la chaîne des osselets est détruite, les ondes sonores attaquent les fenêtres en phase : l’acuité auditive baisse considérablement par perte de l’amplification d’environ 29 dB des osselets et par entrave mutuelle à la propagation dans la périlymphe des ondes issues des deux fenêtres).

Sur la physiologie de l’oreille interne Au total, l’oreille externe et l’oreille moyenne ne font que transmettre les vibrations acoustiques sans les modifier notablement (distorsions). C’est à l’oreille interne et aux voies nerveuses de l’audition que revient le rôle de traduire et de coder le message acoustique en un langage différent propre au système nerveux4. Schématiquement, les déplacements de l’étrier dans la fenêtre ovale transmettent au liquide labyrinthique des ondes de pression qui se propagent quasi instantanément (du fait de la célérité du son dans les liquides et du peu de chemin à parcourir) jusqu’au sommet du limaçon. Elles poursuivent leur trajet au travers de l’orifice qui fait communiquer les deux rampes vestibulaire et tympanique (hélicotréma) pour cheminer dans la rampe tympanique jusqu’à la fenêtre ronde. Les liquides étant incompressibles et emprisonnés dans une boîte rigide, osseuse, ces ondes provoquent des déplacements compensateurs de la membrane élastique obturant la fenêtre ronde. Un enfoncement de la platine de l’étrier va provoquer un bombement de la membrane de la fenêtre ronde, et inversement (Fig. 2.9 et 2.10). 39

L’ OREILLE

NUMÉRIQUE

Fig. 2.9. Transmission des vibrations acoustiques du tympan vers la cochlée (d’ap. Myers D. et al., Otologic Diagnosis and the Treatment of Deafness. Ciba Corporation, 1962).

En chaque point de la membrane basilaire, les ondes de pression qui parcourent les rampes vont se trouver en opposition de phase puisque, lorsque l’étrier est enfoncé, la membrane de la fenêtre ronde est en expansion. Les ondes de pression du liquide sont alors à l’origine d’ondulations 40

2 • L’oreille : une énigmatique machine

Fig. 2.10. Transmission des sons au travers des rampes cochléaires (d’ap. Myers D. et al., Otologic Diagnosis and the Treatment of Deafness. Ciba Corporation, 1962).

de la membrane basilaire (en réalité de l’ensemble du canal cochléaire) et indirectement de déplacements des cellules sensorielles de l’organe de Corti. Il en résulte que les cils implantés au sommet de ces cellules sensorielles subissent à leur tour un déplacement relatif par rapport à 41

L’ OREILLE

NUMÉRIQUE

la membrane tectoriale, que l’on décrit comme un effet de cisaillement (Fig. 2.11). En fin de processus, la flexion de ces cils entraîne une dépolarisation des membranes cellulaires et la naissance des influx nerveux. Cette transduction mécano-électrique opérée par les cellules ciliées résulte d’échanges transmembranaires d’ions K+ et Ca2+ et sont suivis par une libération de neurotransmetteurs dans l’espace synaptique en direction des terminaisons nerveuses du nerf auditif.

Fig. 2.11. Mécanisme de cisaillement imposé aux cils des cellules sensorielles lors du mouvement ascensionnel de la membrane basilaire (modifié d’ap. H. A. Beagley, Audiology and audiological medicine, Oxford University Press, Oxford, 1981)10.

Cette micro-mécanique cochléaire comprenant les oscillations du canal cochléaire et les mouvements forcés des cils des cellules sensorielles9, constitue le phénomène mécanique fondamental de l’audition. L’énergie mécanique, acoustique, est convertie par l’organe de Corti en énergie bioélectrique, sous forme de potentiels d’action que l’on peut recueillir tout au long des voies nerveuses du système afférent.

Un modèle schématique du système auditif Pour faciliter la compréhension des mécanismes qui se succèdent dans la perception auditive, on a l’habitude de se référer à un schéma simplifié de l’oreille et des voies auditives, dans lequel on représente la cochlée par un tube déroulé et ne comportant que les deux rampes (Fig. 2.12). Bien que simplifié à l’extrême, cette représentation de la cochlée est un modèle parfaitement valide, l’oreille interne pouvant offrir des allures très différentes dans l’échelle animale : ainsi, la cochlée du cobaye présente 4 ¼ tours de spires, le gorille 2 tours5, la chauve-souris 2 à 3. Elle est globuleuse chez le lézard, presque rectiligne chez l’oiseau.

42

2 • L’oreille : une énigmatique machine

Fig. 2.12. Les mouvements de la platine de l’étrier dans la fenêtre ovale sont à l’origine d’ondes de pression qui se propagent dans le liquide périlymphatique le long de la rampe vestibulaire, puis la rampe tympanique après avoir traversé l’hélicotréma. Elles entraînent un déplacement compensateur de la membrane obturant la fenêtre ronde. Cet effet compensateur ne peut s’effectuer que parce qu’il existe une différence de pression ou de phase entre les vibrations qui attaquent la fenêtre ovale et celles plus faibles de la fenêtre ronde (d’ap. M. Portmann et Cl. Portmann, Précis d’audiométrie clinique, Masson, Paris 1954).

43

This page intentionally left blank

Chapitre 3

Du signal acoustique au signal nerveux : les théories de l’audition

Par quels mécanismes l’oreille transforme-t-elle les vibrations acoustiques, c’est-à-dire une énergie mécanique, en impulsions électriques destinées à être véhiculées par le nerf auditif et dont les séquences sont porteuses d’information ? Le problème a suscité de nombreuses théories et laisse toujours perplexe les spécialistes de l’audition35.

Les théories dites modernes de l’audition : où en sommes-nous ? À chaque époque, les données psychophysiologiques, subjectives, et les données physiques, objectives, du moment, ont permis d’élaborer un schéma général, nous dirions un modèle, de codage du message auditif. Ces théories sont donc fort nombreuses. Elles ont porté avant tout sur la perception de la hauteur des sons tout en négligeant celle des intensités. Schématiquement, on peut les répartir en deux groupes : les théories dites du téléphone et les théories dites des résonateurs cochléaires. • Les théories dites du téléphone (Rutherford1, 1880, Wrightson2) assimilaient l’oreille interne à un simple transformateur de la vibration acoustique en influx nerveux. La cochlée jouait en quelque sorte le rôle d’un microphone et les voies nerveuses celui de fils téléphoniques. Elles stipulaient que les différents secteurs de la cochlée n’étaient pas sensibles à la fréquence, et que toutes ses parties répondaient indistinctement 45

L’ OREILLE

NUMÉRIQUE

à toutes les fréquences. L’analyse des harmoniques et les mécanismes de la perception de la hauteur, du timbre, de l’intensité étaient alors relégués aux centres supérieurs. Cette théorie, négligée pendant quelques décennies, a connu un renouveau avec la découverte de Wever et Bray 3 qui avaient pu recueillir en 1930, directement sur le nerf auditif (et plus tard sur la cochlée), un potentiel microphonique cochléaire. Ce potentiel reproduisait presque exactement en fréquence, en intensité, en timbre, et en phase, la vibration sonore incidente. Mais rapidement, on s’est aperçu que ces théories étaient inadéquates. – Elles se heurtaient d’abord au phénomène de la phase réfractaire de la fibre nerveuses4 (1 ms) et à l’impossibilité de transmettre théoriquement des fréquences supérieures à 1 kHz. Comment dès lors suivre des cadences supérieures à cette valeur ? – On a ensuite constaté que la réponse disparaissait progressivement en allant du sommet vers la base de la cochlée lorsque qu’on augmentait la fréquence, ce qui était en contradiction avec les prémices, à savoir que toutes les parties de la cochlée pouvaient transmettre toutes les fréquences (phénomène qui a servi secondairement d’argument en faveur de la localisation fréquentielle cochléaire)5. – Plus tard, il s’est avéré que les potentiels microphoniques étaient des potentiels de récepteur de l’oreille, c’est-à-dire une variation locale de potentiel directement engendrée par le stimulus sur les cellules ciliées de l’organe de Corti, et non pas des courants d’action du nerf auditif. – Enfin, loin d’être de simples fils téléphoniques, les voies nerveuses modifient profondément de relais en relais la forme des messages transmis.

Il a donc fallu réviser sérieusement la théorie primitive du téléphone. Elle laissa place à celle de Wever6, connue sous le nom de théorie de la volée. Au lieu d’attribuer à chaque neurone le transport de toute l’information, la théorie de la volée impliquait l’intervention de groupes de fibres pour coder la fréquence du stimulus. Si la hauteur du son dépasse une certaine fréquence (0,8 à 1 kHz), les fibres vont travailler en groupe de telle sorte que dans la réponse globale on retrouve un spike pour chaque cycle du stimulus. Dans cette réponse complexe, les dépolarisations des neurones sont décalées entre elles. Dans la réalité, il est apparu que ces réponses étaient plus probabilistes que systémiques. • Le second groupe est celui des théories dites des résonateurs cochléaires. En 1857, Helmholtz formule la théorie dite des résonateurs cochléaires, par laquelle chaque fréquence entraîne une résonance localisée en un point précis de la cochlée. C’est la théorie de la localisation tonale cochléaire, ou tonotopie (« place theory » des auteurs anglo-saxons). 46

3 • Du signal acoustique au signal nerveux :les théories de l’audition

Dans sa forme primitive, la théorie de la résonance de Helmholtz7 assimile les fibres de la membrane basilaire à une série de résonateurs échelonnés de la base à l’apex du limaçon. Chaque segment de la membrane basilaire est capable de résonner à une fréquence propre, à la manière d’une harpe. Ainsi, un son complexe fait entrer en vibration les parties correspondant aux fréquences composantes, ce qui permet d’en effectuer une analyse harmonique. À partir de là, les résultats de cette analyse sont transmis aux centres supérieurs par des fibres nerveuses différenciées pour chaque composante fréquentielle8. Ce mécanisme de l’analyse cochléaire tel qu’il était conçu par Helmholtz était donc relativement simple. Il permettait d’associer une analyse fréquentielle à une localisation tonale cochléaire. S’il devait survenir des distorsions non linéaires (telle que des sons de combinaison en rapport avec une interaction de deux sons, ou d’harmoniques du stimulus), on les évacuait en les attribuant à une réponse non linéaire de l’oreille moyenne. Une fois produites, ces distorsions étaient alors transmises à la cochlée où elles devaient provoquer des vibrations aux zones fréquentielles correspondantes. Le produit de distorsion était donc perçu comme s’il était présent dans le signal originel. Cette théorie de la localisation a rencontré rapidement de sérieuses difficultés. – Tout d’abord, on sait que l’oreille est capable d’un discernement très fin des fréquences sonores (on dit qu’elle possède une sélectivité fréquentielle « pointue »). Il faudrait donc que la tension des différents segments de la membrane basilaire varie à la manière des cordes d’un piano, ce qui n’est pas le cas comme on a pu le montrer plus tardivement (Békésy)9. – D’autre part, les expériences sur la perception des trilles montrent que les résonateurs devraient être très amortis. Mais, objection, ils sont alors peu sélectifs, ce qui est peu compatible avec la finesse d’analyse de l’oreille10. – Enfin, cette théorie de la localisation ne peut expliquer le phénomène psychoacoustique du fondamental absent11.

Au total, on s’est aperçu que la théorie de la localisation fréquentielle ne pouvait expliquer isolément la sélectivité de l’oreille. On a imaginé alors que s’associaient peut-être un mécanisme fréquentiel lié à la périodicité concernant les basses fréquences, et un mécanisme de la localisation pour la représentation des fréquences élevées (le problème s’est alors posé de savoir où pouvait se situer le point d’articulation entre ces deux mécanismes). Interprétation peu explicite s’il en fut. • Tout en conservant le concept d’une analyse fréquentielle cochléaire, d’autres théories ont ensuite vu le jour. La plus connue est la théorie de l’onde propagée de von Békésy12 (1928), sur laquelle s’appuient 47

L’ OREILLE

NUMÉRIQUE

encore de nos jours d’innombrables travaux d’audiologie. Pour faire bref, von Békésy, à partir d’expériences conduites sur des modèles mécaniques cochléaires13, est arrivé à la conclusion qu’en réponse à des stimuli sonores, la membrane basilaire est parcourue par une onde dite propagée se déplaçant de la base à l’apex de la cochlée, et que cette onde présente un maximum d’amplitude de siège variable en fonction de la fréquence. Les sons aigus sont localisés à la base et les sons graves à l’apex, un peu comme ils le sont sur le clavier d’un piano. Là encore, le concept d’une localisation fréquentielle déterminée par une onde propagée a montré ses limites : l’étalement du maximum d’amplitude ne paraît pas compatible avec la finesse de discrimination tonale de l’oreille (qui atteint le comma, soit log de 81/80)14. Les courbes obtenues par von Békésy auraient dû être extrêmement pointues. Pour les sons graves en particulier, l’étalement des vibrations sur toute la longueur de la membrane entraîne nécessairement une stimulation de la presque totalité des fibres afférentes : que devient alors la tonotopie ? On a dès lors assisté à d’ingénieux ajustements de la théorie par d’hypothétiques mécanismes complémentaires15, qui se révèlent au final peu crédibles. Le doute s’est installé petit à petit, sans que le monde scientifique n’ose ouvertement mettre fin à un dogme. Il n’est pas, au demeurant, le seul de l’audiologie (cf. Des dogmes en audiophologie16).

Conception actuelle de la physiologie de l’audition Le concept initié par Helmholtz17 puis étayé par Békésy était simple et élégant, cela devait donc être vrai18. Les premières expérimentations semblaient leur donner raison : on n’avait pas besoin d’hypothèses alambiquées pour expliquer la perception des fréquences puisqu’elles étaient liées à la topologie. L’idée que l’oreille effectue une décomposition des sons complexes demeure encore de nos jours à la base de la physiologie de l’audition. Le système auditif périphérique est réputé capable de reconnaître et d’individualiser chacun des sons partiels qui composent une vibration complexe. Quant au timbre, on considère qu’il résulte de la superposition de ces sensations distinctes, et qu’il ne dépend que du spectre d’amplitude. Par contre, le spectre de phase n’intervient pas dans la sensation auditive. Reste une inconnue, celle de connaître précisément le siège et les modalités de cette analyse harmonique, car même en imaginant l’intervention de mécanismes complémentaires pouvant améliorer la sélectivité, on voit 48

3 • Du signal acoustique au signal nerveux :les théories de l’audition

mal comment les différentes courbes de résonance composantes d’un son complexe ne pourraient se chevaucher. Actuellement, on admet que la stimulation par un son de faible ou moyenne intensité serait à l’origine d’une succession d’événements intracochléaires (R. Pujol, 1988)19, 20 : 1. transmission de la vibration sonore à la membrane basilaire, la réponse vibratoire résultant soit d’un effet de résonance, soit de la naissance d’une onde propagée. Mais la tonotopie de base est assez peu sélective, 2. glissement relatif de la membrane tectoriale sur les cellules ciliées externes (CCE), 3. dépolarisation des CCE par cisaillement de leurs cils avec contraction cellulaire (mécanisme actif) réalisant une amplification du déplacement de la partition cochléaire dans une zone très restreinte, avec une tonotopie très fine, 4. déplacement mécanique des cils des cellules ciliées internes (CCI) par les mouvements amplifiés. L’ouverture des canaux ioniques au niveau des cils dépolarise la cellule sensorielle. 5. transmission d’un message au niveau synaptique, à la base des CCI, et conduction par les fibres nerveuses vers le système nerveux central (SNC). Les message provenant de la cochlée sont contrôlés par le système nerveux efférent latéral (feed back). Les neurotransmetteurs diffèrent d’une voie à l’autre (glutamate pour l’une, ACh, GABA, dopamine, neuropeptides (enképhalines, dynorphines et CGRP) pour l’autre (Pujol, 1988). La transduction mécano-électrique au niveau des CCE est identique à celle des CCI. Quant à leur fonction, les cellules ciliées internes (CCI) seraient chargées de traduire l’énergie acoustique en phénomène bio-électrique, alors que les cellules ciliées externes (CCE) joueraient un rôle modulateur de l’information acoustique. Chaque fibre du nerf auditif, prise isolément, est donc censée véhiculer deux informations : la fréquence et l’intensité du son.

Les incohérences et les paradoxes de la tonotopie. Du mythe au dogme On ne peut souscrire sans réticence à cette vision récente de l’audition, la principale difficulté étant de rendre compte de la sélectivité membranaire. 49

L’ OREILLE

NUMÉRIQUE

De nombreuses discordances entre la théorie et l’observation ont été relevées, dans des disciplines aussi diverses que l’histopathologie, la psychoacoustique, l’électrophysiologie, la physiopathologie auditive, etc.21, 22. Il n’est pas possible de dresser une liste exhaustive des discordances rencontrées en physiologie auditive, tant elles sont nombreuses. Citons par exemple : – en psychoacoustique, la perception paradoxale des battements, la perception du son différentiel encore appelé troisième son de Tartini (Leipp, 1977)23, les sons de combinaison, l’énigme du fondamental absent, le son de résidu de Shouten (1940)24, la persistance du caractère tonal d’un bruit blanc au voisinage du seuil d’audibilité alors qu’il devrait revêtir la coloration tonale de la zone de plus grande sensibilité de l’oreille, celle de 1 000-2 000 Hz (Chocholle R.,1971)25, le mécanisme de l’effet de masque homolatéral qui ne peut être réduit à un banal phénomène de recouvrement des zones de vibration membranaire, l’impossibilité même pour un sujet entraîné de reconnaître avec précision le spectre d’un son périodique (Leipp E., 1977)26, la coloration tonale des clics, la perception d’un battement lorsque les deux composantes sont présentées séparément, l’une à l’oreille droite, l’autre à l’oreille gauche, etc. D’une façon générale alors que l’oreille perçoit – subjectivement – un son, il est impossible, paradoxalement, de retrouver celui-ci à l’analyse spectrale – objective – des vibrations. Reconnaissons aussi que si les CCE étaient finement accordées, la perception fréquentielle devraient s’effectuer par sauts et on ne devrait pas percevoir un glissando ; – parmi les données anatomiques cochléaires : l’irrégularité des dimensions de la cochlée qui ne permet pas d’assimiler celle-ci à une série de résonateurs régulièrement couplés, l’orientation opposée des cellules ciliées internes et externes évoquant une dualité fonctionnelle (Leipp E., 1977)26, l’étalement important des dendrites des neurones afférents externes (en spirale), incompatible avec une bonne discrimination spatiale du mouvement cellulaire, la densité neuronale sensiblement identique tout le long du tube limacéen difficilement conciliable avec un resserrement de la carte fréquentielle à la base de la cochlée ; la systématisation du système nerveux auditif afférent en réseau qui va à l’encontre d’une sélectivité fonctionnelle des CCE ; – en histopathologie, les fréquentes discordances entre le siège des lésions neurosensorielles et la localisation théorique correspondant à la perte auditive tonale. Il en est ainsi dans la presbyacousie et dans les surdités neurotoxiques où l’on observe une grande variabilité quant au siège 50

3 • Du signal acoustique au signal nerveux :les théories de l’audition

des lésions, ou encore dans les traumatismes sonores (Pierson, 197727 ; Carrat R, 198128) ; – en mécanique cochléaire, la difficulté de relier la tonotopie cochléaire au gradient de rigidité membranaire29, ou encore l’inéluctable instabilité de la topographie fréquentielle en réponse aux modifications permanentes des paramètres physiques de la membrane basilaire, comme cela se produit dans tout système biologique (Husson R., 1970)30 ; – en électrophysiologie enfin, la difficulté d’attribuer au pattern nerveux spatial à la fois la discrimination de fréquence et d’intensité, le rôle prédominant de la forme du signal par rapport à son contenu fréquentiel tant dans la réponse de la fibre nerveuse isolée que dans celle du nerf, l’impossibilité de réaliser directement, sans méthode soustractive, à partir des potentiels évoqués du tronc cérébral, une audiométrie tonale objective, même à partir de clics filtrés ; – la conception irréaliste du codage complexe de la fréquence et du niveau sonore : en effet, si on attribue à chaque fibre une spécificité fréquentielle, elle ne peut coder simultanément le niveau sonore qu’au-dessous d’un certain seuil (problème de phase réfractaire). Au-delà, pour des niveaux sonores plus élevés, d’autres fibres doivent intervenir, ce qui fait disparaître ipso facto la spécificité fréquentielle de chaque fibre. On ne peut sortir de ce dilemme qu’en renonçant à la notion de spécificité fréquentielle de la fibre nerveuse auditive (à la fréquence dite caractéristique, FC) qui a été établie au vu de signaux représentatifs de transitoires et non pas de signaux sinusoïdaux entretenus ; – la cartographie cérébrale : l’organisation fonctionnelle cérébrale. La projection cartographique de la cochlée sur le cortex n’est pas nécessairement synonyme de tonotopie, mais de topographie, celle d’une projection anatomique. Dans le cortex de l’organisme adulte, les perceptions sensorielles se « projettent » selon des « cartes » c’est-à-dire des régions qui correspondent point par point à la répartition des récepteurs des organes sensoriels : un petit groupe de neurones corticaux est spécifiquement dédié à chaque terminaison sensorielle. L’ensemble de ces groupes reproduit la topographie des terminaisons nerveuses correspondantes. Chez l’homme, les cartes fonctionnelles reflètent fidèlement à la fois la topographie des organes sensoriels et l’intensité de leur utilisation (Vernier Ph.)36. Toutes ces difficultés, sur lesquelles buttent, aussi bien les théories classiques que les concepts les plus récents de l‘audition, justifient la recherche d’un autre modèle de la fonction auditive. Cette élaboration s’impose d’autant plus qu’il n’est pas possible de connaître, soit 51

L’ OREILLE

NUMÉRIQUE

par le calcul (opération de convolution)31, soit par la neurophysiologie expérimentale (discontinuité des potentiels d’action et impossibilité de recueillir simultanément et séparément la réponse de toutes les fibres du nerf auditif), l’opération effectuée par l’oreille interne. Au lieu de s’appuyer sur une démarche analogique (la méthodologie anatomo-clinique adoptée depuis le xixe siècle), il semble beaucoup plus opportun de recourir à l’application des techniques modernes de traitement du signal pour concevoir un tel modèle. De nombreuses questions restent donc posées : – y a-t-il analyse au niveau de l’oreille ? est-elle complète ou seulement partielle ? – est-elle du type de l’analyse de Fourier ou d’un autre type (Chocholle, 1971)25 ? – est-il bien nécessaire que l’oreille procède à une décomposition préalable des sons avant qu’ils ne soient reconnus par les centres cérébraux (Leipp E., 1977)26 ? Faut-il concevoir le système auditif comme un centre de métrologie et de spectrographie acoustique ? – s’applique-t-elle à tous les sons complexes ou seulement à certains d’entre eux ? – comment s’applique-t-elle par exemple à des sons complexes ayant de nombreuses composantes continuellement variables, ou de durée très brève comme les transitoires ? Peut-on extrapoler les résultats d’expériences menées à partir de sons purs ou de clics, aux mécanismes se déroulant sans cesse dans l’oreille en réponse aux innombrables sons complexes de notre environnement ? – la sensation auditive résulte-t-elle de la juxtaposition de sensations élémentaires ou n’est-elle pas au contraire une entité en elle-même ? – comment expliquer que les potentiels d’action, de forme invariable, et le nombre très restreint de fibres nerveuses puissent sans difficulté transmettre les innombrables subtilités d’une multitude de sons, de bruits, de voix ? – les potentiels d’action sont-ils les seuls éléments d’information que transmettent les voies nerveuses auditives ? – la plupart des modèles mécaniques utilisés sont-ils bien conformes à la structure réelle de la cochlée ? Selon les auteurs, les paramètres physiques sont trop divergents pour que l’on puisse obtenir des résultats concordants32. – le reproche majeur envers ces théories historiques est de s’intéresser avant tout à l’analyse fréquentielle du signal acoustique, et de négliger, voire ignorer, le mode de codage des autres paramètres d’un signal, à savoir son niveau et sa durée. 52

3 • Du signal acoustique au signal nerveux :les théories de l’audition

– pourquoi les implants cochléaires multicanalaires sont-ils à peine plus performants que les implants monocanalaires ?

Une argumentation surannée. L’observance du dogme. Un poncif académique Malgré l’abondance des résultats expérimentaux de toute nature accumulés depuis plus d’un siècle, l’insuffisance de ces théories demeure malheureusement (Bosquet J., 1977) 33. Il faut peut-être en rechercher la cause, comme nous l’avons dit plus haut, dans les cloisonnements étanches séparant chaque discipline et dans l’orientation hyperspécialisée des chercheurs : acousticiens, physiologistes, physiciens, etc., tous ayant une vue nécessairement très restrictive et analytique. Ce qui n’est pas sans contrarier le transfert de la connaissance. On ne peut qu’être surpris de voir de nombreux spécialistes continuer à soutenir, après Helmholtz, que l’oreille interne est un analyseur de sons, chaque fréquence se projetant en un point très précis de la cochlée. Il est incompréhensible et regrettable que de telles idées soient encore propagées contre toute évidence et suscitent si peu de protestations alors qu’elles sont mécaniquement insoutenables et faussent la recherche en ce domaine depuis plus d’un siècle. En fait, à bien y regarder, la plupart des expériences que l’on a montées pour les justifier sont irréalistes (en particulier dans le choix du signal) et les résultats ne sont nullement transposables à l’oreille normale. « On ne voit d’ailleurs pas en quoi une analyse des signaux pourrait être utile à l’homme dans la vie courante » (Leipp E., 1977)14, 26. Tout compte fait, on est en droit de se demander si le modèle de la tonotopie cochléaire, qui prévaut avec autant de force depuis des décennies, n’est pas réductible à une théorie indûment simplificatrice, une utopie scientifique héritée de l’avènement de la transmission des sons et de la communication téléphonique. Le malheur, c’est que loin de prendre en considération des faits récalcitrants et d’en chercher le pourquoi, on s’accroche obstinément à des interprétations34 sans rapport avec le réel. Au total, pourquoi faudrait-il adhérer à un concept qui défie la raison, certes logique dans sa forme et sa démonstration, mais irrationnel dans ses conclusions ?

53

This page intentionally left blank

Chapitre 4

De la nécessité d’un nouveau modèle auditif

Une théorie dépassée, mais solidement enracinée. Le conformisme en otologie Il ne fait pas de doute que, de Fourier à Ohm et à Helmholtz, on s’est plié au principe de la décomposition des sons complexes en une série de sons purs et accepté l’idée que l’oreille pouvait être assimilée à une batterie de résonateurs en série capables d’effectuer cette décomposition. On a eu de cesse depuis cette époque (xixe siècle), de vouloir en prouver le bien-fondé. C’est ainsi que persiste depuis plus de quatre-vingts ans le dogme békésien de la décomposition des sons complexes par l’oreille interne, concept par lequel chaque composante sonore serait détectée en une zone bien précise de l’oreille interne, comme sur une sorte de clavier d’un piano. Helmholtz, grand physicien, ne se serait-il pas fourvoyé dans le domaine de la physiologie auditive ? Ce dogme inébranlable persiste encore de nos jours. Bien que cette notion de tonotopie ait déjà soulevé à maintes reprises de solides objections, on continue obstinément de l’enseigner, la plupart des spécialistes de l’audition restant installés dans un étrange immobilisme. Le catalogue des paradoxes est pourtant impressionnant comme on l’a vu précédemment. Il faut reconnaître que le concept de l’analyse fréquentielle cochléaire séduit les esprits par sa simplicité, son apparente logique, au point qu’on n’a même jamais envisagé qu’il pût en être autrement1. Comment a-t-on pu soutenir (même au prix de mécanismes hypothétiques) que l’oreille est un véritable analyseur de fréquences quand les 55

L’ OREILLE

NUMÉRIQUE

fibres nerveuses ne peuvent transmettre des impulsions de rythme élevé au-dessus de 1 000 Hz du fait de leur période réfractaire ? Ce concept de la décomposition des sons complexes dans l’oreille, non seulement ne répond pas aux multiples objections énumérées précédemment, mais il ne s’accorde absolument pas avec les théories modernes de l’information et de la communication. Dans le domaine technologique, mais aussi dans le domaine de la biologie, des neurosciences, on assiste à des innovations fabuleuses grâce entre autres à la numérisation du signal. Le transport de l’information par les autres organes des sens ne relève-t-il pas lui aussi d’un mode unique de codage par numérisation du signal ? Pourquoi l’oreille ferait-elle exception ? Tous les organes des sens sont, sans exception, des adaptateurs de signaux physiques continus nés dans l’environnement, en des signaux discontinus, les impulsions parcourant les fibres nerveuses. Ce sont des organes de réception, alors que les centres sont chargés du traitement de l’information, c’est-à-dire de la perception. L’œil ne procède pas à l’analyse préalable des composantes d’une couleur, les récepteurs cutanés ne permettent pas de donner au degré près la température d’un corps comme le ferait un thermomètre, il est bien difficile de définir les composantes de base d’une odeur, etc. En langage actuel, un organe sensoriel n’est autre qu’un convertisseur analogique-digital et on ne voit pas pourquoi l’oreille échapperait à la règle, ni pourquoi l’analyse périphérique d’un son complexe serait un préalable nécessaire à la transmission de l’information aux centres nerveux supérieurs.

À la recherche d’un modèle évolué de la fonction auditive Les défaillances de la théorie de la localisation fréquentielle cochléaire contraignent à reconsidérer ce qui paraissait si bien établi jusqu’à ce jour par les audiologistes et imposent la recherche d’un autre modèle de la physiologie auditive. Il s’agit, non seulement de définir un concept qui englobe les théories existantes (car elles peuvent apporter des données d’expérience qu’il faut structurer)2, mais aussi d’intégrer d’autres acquisitions plus récentes, à savoir : – de mécanique cochléaire, expérimentale, – de l’organisation nerveuse auditive, – enfin, du traitement du signal, l’oreille étant un transducteur d’une forme de signal en une autre. 56

4 • De la nécessité d’un nouveau modèle auditif

Or, comme nous l’avons dit plus haut, ni le calcul (convolution), ni l’électrophysiologie (du fait de l’impossibilité de recueillir simultanément et séparément le potentiel d’action de toutes les fibres nerveuses auditives) ne permettent une approche crédible du fonctionnement intime de l’oreille interne3. Il y a donc obligation de recourir à une modélisation de l’oreille. « La modélisation aide à réduire la complexité des systèmes11. »

Qu’est-ce que modéliser ? Principe, justification La modélisation est à la fois une démarche de la pensée et un outil de recherche. Modéliser, c’est imaginer une représentation simplifiée, le modèle, d’un processus ou d’un système10, 11. Un modèle doit répondre à au moins trois exigences fondamentales : 4, 5

1. Un modèle est supposé représenter un phénomène réel (physique, économique, etc.). En biologie, modéliser, c’est concevoir un opérateur X chargé de représenter une fonction biologique ou physiologique donnée. C’est concevoir un mécanisme univoque permettant d’appréhender les phénomènes complexes survenant à l’intérieur de la boîte noire représentant une fonction physiologique ou un organe donné6, leurs relations mutuelles et leurs finalités 7. 2. Un modèle est supposé fournir une représentation simplifiée du phénomène étudié, excluant des phénomènes annexes. C’est donc une représentation plus ou moins grossière de la réalité. et ne peut donc prétendre reproduire fidèlement les lois réelles du phénomène à observer. La représentation simplifiée d’une fonction biologique peut s’exprimer sous différentes formes de modèles : mathématiques, mécaniques, électriques. 3. Un modèle doit être économique. Il doit pouvoir être manipulé aisément. S’il s’agit d’un modèle mathématique, il suffit théoriquement d’appliquer au modèle considéré des entrées caractéristiques, c’est-à-dire des fonctions mathématiques particulières, et de comparer les résultats obtenus par le calcul avec les résultats expérimentaux pour apprécier la validité de ce modèle. Les phénomènes biologiques ne se prêtent malheureusement pas aussi aisément à la modélisation que les phénomènes physiques, en raison de l’intervention d’une multitude de facteurs. La plupart du temps, les 57

L’ OREILLE

NUMÉRIQUE

résultats obtenus par le calcul diffèrent des résultats expérimentaux. Le meilleur modèle est celui qui rend compte du plus grand nombre de phénomènes cliniques nés de l’observation ou de l’expérimentation. C’est en fin de compte cette dernière qui permettra, par un ajustement progressif de ses paramètres, de cerner le modèle le plus approché de la réalité, les données expérimentales étant seules porteuses d’information.

Pourquoi modéliser la fonction auditive ? « Le but de la science, c’est de comprendre et de prévoir » (Leconte du Noüy). L’idéal serait d’élaborer un schéma général de codage du message auditif, un modèle, qui tienne compte de toutes les particularités de la perception, à la fois psychophysiologiques (subjectives) et objectives (expérimentales). Il permettrait, dans une synthèse cohérente, de se libérer d’idées reçues et de préjugés qui entravent l’intégration de nos connaissances dans le domaine des neurosciences. La persistance de nombreuses inconnues en physiologie auditive n’a pas permis jusqu’à ce jour d’élaborer la fonction de transfert, ou fonction de pondération, effectuée par l’oreille interne. A l’inverse de ce qui se passe pour un récepteur électro-acoustique, système physique exclusif, la fonction de transfert de la boîte noire constituée par l’oreille, système biologique, ne se prête pas au calcul. Si on considère par exemple la réponse électrique de sortie d’un microphone soumis à un message sonore, tel que celui de la parole, on a affaire à une source d’information continue. En d’autres termes, le signal d’entrée f (t) de l’oreille est un signal à variations d’amplitude continues en fonction du temps (la variable temps est continue). Il en est de même à la sortie du microphone. Il en va tout différemment pour la boîte noire cochléaire. En effet, les paramètres du système auditif ne sont invariants ni dans le temps, ni dans l’espace. Il s’agit d’un système biologique dont on ne peut dénombrer tous les facteurs : température, P O2 , P CO2 , facteurs enzymatiques, métaboliques, etc. Si le signal d’entrée peut être parfaitement déterminé, il n’en est pas de même pour le signal de sortie. Ce signal est constitué par les potentiels d’action de la fibre nerveuse et n’existe qu’à des instants discrets : la variable temps est discontinue. De plus, il est dispersé dans l’espace sur l’éventail des fibres du nerf auditif, et il est impossible de recueillir simultanément la réponse de toutes les fibres constituantes du nerf auditif. 58

4 • De la nécessité d’un nouveau modèle auditif

Au total, les phénomènes de non-linéarité, la variabilité des paramètres internes, le changement de type de signaux (signal continu et unique d’une part, signal discontinu et dispersé d’autre part)8, ne permettent pas d’appréhender directement par le calcul la fonction auditive (opération dite de convolution). Il n’y a donc pas d’autre possibilité que de recourir à une modélisation de l’oreille interne (Fig. 4.1).

Fig. 4.1. À la différence d’un phénomène physique, il n’est pas possible par une opération de convolution, de déterminer la fonction de transfert de l’oreille interne.

Les particularités d’un modèle auditif Il n’est pas absurde d’appliquer au système nerveux la fonction de traitement du signal réservée d’ordinaire aux systèmes de communication et d’assimiler le cerveau à un centre de traitement et de mise en mémoire de données9. Bien qu’il existe d’autres canaux de communication dans l’organisme (hormones circulantes par exemple), la plupart des informations qui arrivent et partent de cet « ordinateur » cérébral utilisent un canal de transmission privilégié, celui des fibres nerveuses. 59

L’ OREILLE

NUMÉRIQUE

C’est ainsi que l’information en provenance du monde extérieur emprunte les différents canaux d’entrée que constituent les nerfs sensoriels : olfactif, optique, auditif, etc. ; ils sont branchés sur un organe récepteur exerçant très exactement le rôle d’un périphérique spécialisé. Pour l’odorat, ce sont respectivement la muqueuse olfactive et le bulbe olfactif. Dans le cas de l’œil, il s’agit des photorécepteurs de la rétine. La rétine, qui transforme l’information, est un relais interface. Pour l’ouie, ce sont les cellules ciliées externes et internes de Corti. Il s’agit également d’un relais interface. Les cinq sens ont donc – grosso modo – le même principe de fonctionnement, même si la nature des capteurs diffère fondamentalement. Il apparaît toutefois, avec les progrès réalisés dans le domaine des neurosciences, que le fonctionnement intime de ces capteurs présente de curieuses similitudes10 (cf. Notes 7. § 4). Quel que soit le point de départ sensoriel, l’information est alors transmise le long des fibres nerveuses sous un mode unique : celui d’impulsions électriques, c’est-à-dire sous une forme binaire. En effet, la stimulation d’un récepteur engendre au niveau de la fibre nerveuse des impulsions électriques par dépolarisation membranaire, d’amplitude constante, mais dont la fréquence dépend de l’amplitude du stimulus. La transmission d’un message sensoriel s’effectue sous forme d’un codage du rythme des impulsions dans des groupes de fibres. C’est enfin au niveau du cerveau que s’effectue le décodage des séquences d’impulsions ou « mots », extrêmement riches en information (estimés de 10 000 à 1 million de bits) à la vitesse de 10 par seconde (alors qu’un ordinateur traite de tout petits mots, en général de 8 à 16 bits, mais à la vitesse de plusieurs dizaines de milliers par seconde). Pour être valide, un modèle auditif devra donc satisfaire à un certain nombre de critères : – reconnaître et expliquer le plus grand nombre possible de données de physiologie neurosensorielle et de psychoacoustique. Il doit être en mesure, par exemple, de concilier mécanique cochléaire et neurophysiologie, ou encore d’expliquer l’analyse harmonique (timbre) et l’analyse des hauteurs ; – permettre la compréhension des désordres anatomo-cliniques observés en pathologie auditive. La modélisation comporte aussi un aspect prédictif en ce qu’elle permet de prévoir les réponses d’un système complexe et de les confronter à la réalité ; – faciliter l’élaboration d’une thérapeutique préventive ou curatives de ces désordres ; 60

4 • De la nécessité d’un nouveau modèle auditif

– permettre de prévoir la réponse à une stimulation auditive, quelle que soit sa forme, afin de corriger les désordres physiopathologiques (problème des implants cochléaires par exemple) ; – situer l’audition dans une théorie générale de la communication. Elle doit donner de ce fait un schéma général du codage du message auditif. Quant à la vérification de la validité d’un tel modèle de la fonction auditive, elle ne peut reposer que sur une étroite collaboration entre le chercheur et le clinicien, en sachant que ce dernier bénéficie toutefois d’une position privilégiée, dans la mesure où il est le seul à pouvoir confronter au quotidien la théorie avec les réalités physiologiques, psychoacoustiques, ou pathologiques chez l’individu humain.

61

This page intentionally left blank

Chapitre 5

Les singularités de la fonction auditive

De l’acoustique à la psychoacoustique* L’homme évolue en permanence dans un milieu matériel élastique, dans lequel se propagent des ondes de pression et de dépression dont certaines sont à l’origine de la sensation sonore. Les sons correspondent à une forme d’énergie physique, produite par des sources vibrantes qui créent des perturbations dans l’environnement immédiat. Si on frappe l’une des branches d’un diapason, du fait de la tendance naturelle du métal à retrouver sa forme initiale après avoir été déformé, les branches vont osciller autour de leur position initiale aussi longtemps que l’énergie imprimée ne se sera pas dissipée. Elles vont perturber la pression atmosphérique (déterminée par les chocs des molécules constituantes du milieu ambiant) en provoquant alternativement des phases de compression et de dépression qui vont se propager dans le milieu environnant pour constituer l’onde sonore. Le son se propage dans les milieux élastiques, là où il existe un conglomérat de molécules. Ainsi, il ne se propage pas dans le vide. Les solides transmettent donc le son, comme les liquides, à des vitesses (célérité) toutefois différentes.

* Ce chapitre ne manquera pas de paraître particulièrement succinct et simplificateur aux professionnels de l’audition, mais constitue un préambule nécessaire aux lecteurs non avertis dans ce domaine.

63

L’ OREILLE

NUMÉRIQUE

Si on enregistre par un procédé quelconque (graphique, optique, etc.) sur un papier déroulant les déplacements de l’extrémité d’une des branches d’un diapason, on recueille un tracé d’allure sinusoïdale dont la dimension verticale correspond à l’amplitude de la vibration par rapport à sa position de repos. Pour qu’un point donné de la courbe retrouve une position identique à son point de départ, pour qu’elle effectue donc un cycle, il faut un certain temps qui définit la période. Le nombre de cycles par seconde définit la fréquence de l’onde. Terme qui est maintenant remplacé par une unité appelée Hertz. Un son de 1 000 cycles par seconde ou 1 000 hertz (Hz) a une période de 1/1 000 de seconde (1 milliseconde) par cycle. Toutes les vibrations ne produisent pas nécessairement une sensation sonore. Elle n’apparaît que si la fréquence vibratoire est comprise dans un intervalle d’environ 20 à 20 000 cycles par seconde (ou hertz). Les fréquences inférieures à 20 correspondent à des infrasons (non audibles) et les fréquences supérieures à 20 000 correspondent à des ultrasons (inaudibles également). Ce qui est vrai pour l’homme peut différer chez l’animal : on rapporte que les éléphants ont fuit à l’approche du tsunami en Indonésie en 2005, probablement parce qu’ils peuvent percevoir des infrasons. On sait aussi de longue date que les chauves-souris émettent et perçoivent des ultrasons qui leur permettent la nuit d’éviter les obstacles. Un chien peut répondre à l’appel d’un sifflet à ultrasons alors que l’oreille humaine n’entend rien. L’échelle fréquentielle n’est donc pas uniforme selon l’espèce animale. Un son dont le tracé serait purement sinusoïdal correspond à un son pur, mais il n’existe pratiquement pas dans la nature. C’est un produit de laboratoire. Il est habituellement mélangé à d’autres sons de fréquence multiple ou sous-multiple, les harmoniques, pour former un son complexe. On apprend en classe primaire que les sons perçus par l’oreille sont habituellement classés en sons musicaux et en bruits. Un son musical se définit par sa hauteur (son grave ou aigu), son intensité (forte ou faible) et son timbre (particularité simplement qualitative, qui nous permet de reconnaître l’instrument qui l’a produit). Les bruits, au contraire, peuvent être aigus ou graves, sans hauteur exactement définie. Ils sont produits par des trains d’ondes nettement séparés, et de constitution complexe. Alors qu’un son musical est toujours constitué par une vibration périodique, dont la fréquence est fixe, un bruit au contraire est dû à une vibration non périodique, de fréquence essentiellement variable. On rencontre en permanence des bruits dits aléatoires, composés d’une 64

5 • Les singularités de la fonction auditive

infinité de fréquences d’apparition chaotique et d’amplitudes fluctuantes autour d’une valeur moyenne : selon leur prédominance spectrale, on les désigne sous le terme de bruit blanc, ou de bruits colorés. La durée d’un son est extrêmement importante en acoustique physiologique. Un bruit peut être extrêmement bref, tel que le son produit par un coup de fusil, une détonation, alors qu’un son musical a une durée relativement importante. Ce caractère temporel permet de distinguer entre des sons dits transitoires1 et des sons dits entretenus. Or, tous les sons transportent une énergie qui sera absorbée par l’obstacle physique rencontré, mais la réaction de ce récepteur va différer considérablement selon sa rapidité à réagir aux vibrations, selon ce qu’il est convenu d’appeler sa constante de temps2. Un son musical est d’autant plus haut qu’il est plus aigu, d’autant plus bas qu’il est plus grave : sa hauteur croît avec la fréquence, et se mesure par la valeur de cette fréquence. L’intensité d’un son dépend de l’amplitude de la vibration sonore. L’oreille est sensible à la pression acoustique, mais sa sensibilité n’est pas uniforme : elle est maximum aux alentours de 1 000-2 000 Hz, et de moins en moins bonne en allant vers les extrémités de l’échelle fréquentielle. La sensation sonore ne se produit donc qu’à l’intérieur d’un domaine limité par les ultrasons, les infrasons, le seuil d’audibilité et enfin le seuil de la douleur : c’est le champ auditif. Le timbre d’un son est dû à la présence des harmoniques de sa fréquence fondamentale (son fondamental), qui interviennent chacun avec des intensités différentes. Les premiers expérimentateurs ont pu analyser un son complexe en recherchant les harmoniques à l’aide de batteries de résonateurs de Helmholtz, ou avec une série de diapasons. Les procédés modernes d’analyse reposent maintenant sur la technologie informatique. À partir des composants du son complexe, on peut reconstituer un son de timbre donné (piano électronique). L’onde exerce une action mécanique, une force, sur les corps qu’elle rencontre. S’il s’agit d’une onde sinusoïdale, donc périodique, elle peut provoquer un phénomène extrêmement général de résonance. Ce phénomène ne se produit que s’il existe une relation entre les dimensions du corps qui la subit et la longueur d’onde qui la produit. Un corps donné entre en résonance toujours pour une même série de fréquences dites fréquences propres. Il est essentiel en acoustique : sur cette base, on a construit des résonateurs qui, étalonnés, permettent de mettre en évidence la présence de certaines fréquences dans les sons complexes. Si la fréquence appliquée au résonateur est en accord avec la fréquence 65

L’ OREILLE

NUMÉRIQUE

propre du résonateur, ce dernier peut entrer en résonance aiguë et présenter des oscillations exagérées pouvant endommager le résonateur (tout le monde connaît la consigne qui était donnée à la troupe de rompre le pas cadencé sur un pont, ou encore les précautions prises par les concepteurs d’ouvrages suspendus pour contrecarrer les effets du vent, etc.). Par contre la résonance est utile quant à la qualité dans la production de sons musicaux instrumentaux (caisse de résonance des violons, contre-basses, etc.). Nous verrons que le système auditif est composé de résonateurs en série. On doit à Jean-Baptiste Fourier (1768-1830), le théorème dit de la décomposition en séries des phénomènes périodiques complexes. En étudiant mathématiquement les problèmes de la transmission de la chaleur, il énonça un théorème fondamental que l’on peut exprimer ainsi sous une forme très générale : toute fonction périodique (c’est-à-dire qui se reproduit identique à elle même au bout d’un certain intervalle : la période) est toujours susceptible d’être reconstruite en additionnant les unes aux autres des fonctions simples, sinusoïdales, de périodicité élémentaire (ou de pulsations), et d’amplitude bien choisies. On peut toujours reconstituer une courbe périodique en combinant les mouvements d’amplitudes plus ou moins grandes de sinusoïdes dont la période est l’unité, la moitié, le quart, le cinquième, 1/n, etc. de la période fondamentale du phénomène de départ. Il appela ces composants « harmoniques »3. La traduction graphique d’un phénomène périodique (complexe) est un tracé appelé oscillogramme, correspondant à une amplitude plus ou moins variable en fonction du temps. Selon le pôle d’intérêt de chacun, sa représentation peut toutefois différer : le mathématicien va décomposer cette courbe complexe en une somme de courbes plus simples de fréquences diverses des harmoniques, le physicien va se référer au spectre (de fréquence) et représenter des amplitudes des composantes selon la fréquence de celles-ci, l’acousticien pour lequel les phénomènes sont rarement totalement périodiques représentera plutôt dans un sonagramme l’évolution des différentes valeurs des fréquences en fonction du temps et se contentera de marquer l’intensité par l’épaisseur ou la noirceur du trait correspondant. Ces résultats peuvent être étendus aux ondes non périodiques : toute onde peut donc être décomposée en une somme d’ondes sinusoïdales.

66

5 • Les singularités de la fonction auditive

L’oreille est un système physique résonant Lorsqu’elle rencontre un obstacle matériel, l’énergie transportée par les vibrations acoustiques peut être soit réfléchie, soit absorbée par cet obstacle et, si elle n’est pas transformée en une autre forme d’énergie, la chaleur par exemple, lui imprimer à son tour des vibrations. Ces vibrations sont particulièrement nettes dans une bande de fréquences privilégiées, appelée zone de résonance. Les différents constituants de l’oreille sont eux-mêmes des systèmes physiques susceptibles d’entrer en résonance sous l’effet d’une force de stimulation vibratoire entretenue ou de durée très brève. Ils n’échappent pas à la règle. On s’est ainsi intéressé aux fréquences propres de résonance du pavillon de l’oreille, du conduit auditif externe, de la chaîne tympanoossiculaire, principalement dans le but d’une restauration d’un déficit auditif. On conçoit, par exemple, que, si on modifie les caractéristiques physiques du conduit auditif externe en l’obturant par l’embout d’une prothèse auditive on modifie le spectre de fréquence des sons injectés. Mais ce qui nous intéresse au plus haut point, c’est la réponse du résonateur cochléaire. La cochlée peut être considérée comme le maillon terminal du système de transmission de l’énergie acoustique et être assimilée à un capteur d’énergie au niveau duquel s’effectue la transformation des vibrations mécaniques en influx nerveux de nature électrique. C’est le mode de réponse vibratoire de ce capteur qui retient l’attention des chercheurs depuis un siècle environ. Comme tout système physique, ce capteur doit donc répondre dans une bande de fréquences donnée et présenter une fréquence propre de résonance. Le problème n’a guère suscité d’intérêt. Nous avons pu néanmoins, en nous appuyant sur les données cliniques apportées par les traumatismes sonores, sur nos données expérimentales de mécanique cochléaire et enfin sur le calcul, déterminer que cette fréquence correspondait au fameux scotome auditif secondaire au blast auriculaire et qu’elle se situait entre 5 et 6 kHz4.

La réponse de l’oreille en fonction du temps. La forme du signal acoustique L’oreille ne peut être assimilée à un analyseur qui enverrait aux centres cérébraux une information fréquentielle prédigérée. C’est en réalité, comme l’avons déjà dit, un système physique ayant pour fonction de capter une forme d’énergie mécanique, les vibrations acoustiques, et 67

L’ OREILLE

NUMÉRIQUE

de la convertir en une autre forme d’énergie, des impulsions électriques. Ce faisant, cette transformation ne se limite pas à un changement de nature de l’énergie (mécano-électrique), elle s’accompagne aussi d’une transformation de la forme du signal par passage d’un mode analogique en un mode impulsionnel et numérique. Alors qu’il est au départ continu, le signal devient discontinu, ou discret. Enfin, l’oreille effectue un traitement du signal acoustique et, par la voie d’un codage du rythme de ces impulsions et de leur distribution sur l’éventail des fibres nerveuses auditives, un transfert d’information. On ne peut aborder la fonction cochléaire sans considérer que l’oreille est un système physique qui présente trois caractéristiques essentielles : 1. c’est un résonateur, 2. ce résonateur est amorti, 3. il possède une constante de temps. • L’oreille est un système récepteur assimilable à une batterie de résonateurs disposés en série (l’oreille externe, le système tympanoossiculaire, la membrane basilaire, etc.). C’est un capteur d’énergie. • L’oreille est un système récepteur amorti : chaque résonateur présente son propre coefficient d’amortissement. Même s’il n’existait qu’un seul système oscillant, il est donc incapable de discerner (de sélectionner) une fréquence isolée dans un train d’oscillations d’une certaine largeur de bande. • Enfin, ce résonateur possède une constante de temps. Il est évident que, lorsqu’un son pur entretenu est communiqué à l’oreille, il va s’écouler un certain temps avant que les structures de l’oreille entrent en vibrations forcées. Cette durée permet de définir ce qu’il est convenu d’appeler la constante de temps de l’oreille. De plus, pour que ce son soit reconnu dans tous ses attributs par les centres auditifs, il s’écoulera un intervalle de temps encore plus long, appelé constante de reconnaissance du son2. Une même séquence d’un son pur sera perçue différemment selon sa durée par rapport à cette constante de temps : – soit comme un son pur si elle est suffisamment longue, avec tous ses attributs esthétiques (hauteur, niveau), – soit comme un bruit, un claquement plus ou moins sec, si sa durée est inférieure à cette constante de temps. Lorsque l’oreille est soumise à un son extrêmement bref, une impulsion, il est évident que l’énergie communiquée par ce son au récepteur cochléaire est absorbée plus ou moins rapidement, selon les caractères physiques de ce récepteur (en particulier le facteur amortissement). Ce 68

5 • Les singularités de la fonction auditive

son de durée inférieure à la constante de temps de l’oreille est appelé transitoire. On entrevoit dès lors que, pour un signal transitoire donné, la constante de temps du système joue un rôle essentiel, puisqu’elle représente le temps mis par le système récepteur pour osciller selon sa propre résonance. On comprend dès lors que la réponse de ce récepteur amorti va différer si l’installation du son est progressive ou rapide, en d’autres termes que la sensation sonore varie avec la forme du signal. Les musiciens connaissent bien l’importance de l’attaque d’une note sur la qualité de la sensation. Les exemples sont infinis. L’importance de la forme du signal a manifestement été sous-estimée en psychoacoustique et en électrophysiologie auditive. Tout se passe comme si, le plus souvent, on ne tenait compte que des seuls paramètres fréquence et intensité dans la réception des sons par l’oreille, alors que le facteur temps joue un rôle primordial. Ces considérations font ressortir l’importance du facteur temps, et en particulier celui de la constante de temps de l’oreille, dans la perception auditive. En France, quelques auteurs ont de longue date souligné l’impact majeur de ce paramètre temporel, entre autres Chocholle, Didier, Lafon, Leipp, Carrat7, etc. et à l’étranger, Brownel5, 6, Winckel, mais il n’a retenu que modérément l’attention de la majorité des chercheurs. Tout se passe comme si on se contentait de représenter l’oreille comme un système essentiellement statique et non pas dynamique, à l’image d’un banal fréquencemètre.

Quelles conséquences ? Le temps et la forme du signal acoustique Les implications de ces phénomènes : transitoires et amortissement sont extrêmement importantes tant en physiologie auditive, et en particulier en mécanique cochléaire, qu’en phonologie, et dans le transport de l’information. • En acoustique physiologique, la forme du signal revêt évidemment une importance considérable : un objet sonore8 ne doit pas être considéré uniquement dans sa partie où il se présente en régime permanent, mais encore dans ses temps d’apparition (attaque) et d’extinction où il affecte un régime transitoire, un bruit. L’observation des réponses membranaires sur des modèles mécaniques cochléaires confirme bien que la forme des réponses oscillatoires est 69

L’ OREILLE

NUMÉRIQUE

fondamentalement différente en régime entretenu et en régime impulsionnel (cf. Chapitre Mécanique cochléaire). • En électrophysiologie, la durée d’installation et de disparition du signal acoustique est primordiale. On observe en effet que le taux de décharge au niveau de la fibre nerveuse est maximum à la phase d’installation et d’extinction d’un burst (Fig. 5.1), ou encore que de la pente du signal dépend la forme de la réponse d’un potentiel évoqué9, que le spectre fréquentiel du signal n’intervient pas dans la réponse globale du nerf (Fig. 5.2)10, etc. • Dans le domaine de la reproduction électroacoustique des sons16, l’idéal est de tendre vers un système aussi peu résonnant que possible, afin de suivre suffisamment vite les variations sonores grâce une constante de temps très courte. Pour bien respecter la forme des transitoires, il faut des appareils de transmission et de reproduction de qualité quant à la bande passante, si l’on veut éviter des déformations du spectre du signal. On devine son importance dans la correction prothétique des surdités.

Fig. 5.1. La réponse de la fibre nerveuse isolée dépend de la forme de l’enveloppe d’un stimulus entretenu. Le schéma montre la forme temporelle de la réponse de la fibre nerveuse auditive isolée en fonction de la forme du stimulus. On note que la variation du rythme des influx est liée à la variation d’un paramètre du stimulus (ici l’amplitude) (schématisé d’après Harrison R.V. et Evans E. F., 197911, 12). 70

5 • Les singularités de la fonction auditive

En présence de transitoires « secs » (par exemple des sons de xylophone possédant une attaque brutale et dont la pente raide détermine la qualité du timbre), si le microphone comporte des parties mécaniques à grande inertie, fortement amorties, celles-ci ne pourront suivre l’établissement rapide du son. La transmission du son comportera des distorsions. • Dans le domaine musical, les transitoires sont en grande partie responsables du timbre d’un instrument de musique. L’expérience suivante est particulièrement probante : si sur un enregistrement sur bande magnétique on coupe le début des notes d’un instrument, il est très difficile d’identifier ce dernier. Les instruments de musique présentent généralement des résonances plus ou moins accusées : la constante de temps de la flûte est bien plus grande que celle du violon, ce qui explique qu’elle ne puisse exécuter des passages aussi rapides. Par contre, la « caisse de résonance » d’un bon piano n’a pas de résonance marquée et rayonne toutes les fréquences d’une manière sensiblement égale.

Fig. 5.2. Spectres de fréquence d’un clic (à gauche et en haut) et d’un bruit blanc de bande large (à gauche et en bas). Malgré la similitude des deux spectres, seul le clic est capable d’entraîner une réponse nerveuse au niveau du tronc cérébral (à droite) (d’après Don M. et Eggermont J.-J., 197813, 14). 71

L’ OREILLE

NUMÉRIQUE

En musique, on rencontre tous les intermédiaires entre les attaques les plus brutales et un établissement très progressif du son. D’une manière générale, le spectre sonore au cours du régime transitoire est d’autant plus restreint et les fréquences des partiels d’autant mieux définies que l’attaque dure plus longtemps. Mais ces notions ne s’appliquent pas seulement au transitoire d’attaque et d’extinction d’un signal acoustique. Elles concernent également toutes les modifications que peut subir un son : passage de la nuance piano à la nuance forte, et inversement (donc une variation d’amplitude), variation de hauteur et de timbre, c’est-à-dire d’une manière générale, toute fonction transitoire dont le calcul peut être effectué avec autant de précision que celui des transitoires d’attaque. • La forme du signal acoustique est déterminante dans le transport de l’information : ce sont les phénomènes transitoires qui transportent le maximum de l’information. Ils constituent par essence de véritables signaux. Une onde sinusoïdale de longue durée peut certes véhiculer de l’énergie, mais seules les interruptions ou les modulations de cette onde, qui s’accompagnent de phénomènes transitoires, transportent une information : signaux, parole, images. Les transitoires sont à la base de la reconnaissance des consonnes entre elles (notion de locus). Il suffit de considérer en particulier les consonnes plosives, dont le spectre de bruit est quasi identique, et qui diffèrent essentiellement par leur durée. Il est évident que, si l’attaque des plosives d, t, p, etc. était identique, elles ne pourraient être discernées les une des autres, ce qui serait la source de confusions de phonèmes et de troubles d’intelligibilité du langage. C’est le propre des surdités par trouble de sélectivité. Au total, il ressort de ces considérations acoustiques qu’on ne peut aborder l’élaboration d’un modèle de fonctionnement de l’oreille sans tenir compte, lors de l’expérimentation, des trois paramètres d’un signal sonore : son intensité, sa fréquence et sa durée. Il ne fait pas doute que les difficultés rencontrées par les théories classiques de l’audition tiennent pour une grande part au peu d’intérêt porté par les psychoacousticiens au facteur temporel du signal acoustique au profit du facteur fréquentiel15.

72

Chapitre 6

Les bases de la modélisation cochléaire

Pour répondre aux multiples difficultés soulevées par les théories classiques de l’audition, il apparaît donc nécessaire de concevoir un autre modèle de ses mécanismes. Cette démarche est d’autant plus recevable qu’il n’est pas possible de connaître directement et avec précision le mode de codage de l’oreille interne. Fort heureusement, les spécialistes de l’audition disposent actuellement d’une somme considérable de données en provenance de domaines aussi divers que celui de la mécanique cochléaire expérimentale, de la théorie de l’information et de la communication, du traitement du signal, de la micro-anatomie, de la neurophysiologie, etc. et dont le rapprochement permet de construire un modèle tout à fait original du fonctionnement cochléaire. L’élaboration d’un tel modèle cochléaire, qui se veut réaliste, doit nécessairement rejeter toute hypothèse a priori, ne reposer obligatoirement que sur des données objectives, et enfin répondre au plus grand nombre des énigmes et paradoxes persistant à ce jour. Sur quelles bases dès lors s’appuyer pour, non pas rénover une ou des théories déjà existantes, mais refonder un modèle du fonctionnement cochléaire ? Ces données de base sont de trois ordres :

73

L’ OREILLE

NUMÉRIQUE

1. structurelles : c’est-à-dire tenant compte des données anatomiques de l’oreille et du système nerveux auditif, et plus précisément du réseau formé par les fibres nerveuses cochléaires, 2. fonctionnelles, c’est-à-dire utilisant les données tirées de l’observation directe ou à défaut de la mécanique cochléaire expérimentale, 3. systémiques, enfin, c’est-à-dire intégrant le système neurosensoriel auditif dans la chaîne de communication sonore et d’une façon plus générale dans le cadre de la théorie générale de la communication.

1. LES DONNÉES ANATOMIQUES (STRUCTURELLES) Par quels micromécanismes l’information acoustique est-elle transformée en information nerveuse et par quelles voies peut-elle être acheminée vers les centres cérébraux ?

Anatomie fonctionnelle auditive : le point de départ de l’information Les variations de pression des liquides contenus dans les rampes vestibulaire et labyrinthique sont à l’origine d’oscillations du canal cochléaire et en particulier de la membrane basilaire. Cette membrane joue un rôle essentiel en mécanique cochléaire. Souple, quasi élastique, enroulée sur deux tours et demi de spire chez l’homme, elle est de largeur croissante de la base à l’apex du limaçon, alors que sa rigidité va en décroissant. Son extrémité proximale est fixe (insertion entre les deux fenêtre ovale et ronde). Par contre, son extrémité distale, en regard du cul-de-sac du canal cochléaire, est libre et son rebord délimite l’orifice de l’hélicotréma. À ce niveau, elle peut donc se déplacer au gré des mouvements liquidiens péri-lymphatiques. Sa longueur moyenne chez l’homme est d’environ 35 mm. Le non-respect de cette caractéristique anatomique sur des modèles mécaniques cochléaires a été en grande partie responsable d’observations erronées des mouvements membranaires. Sur cette membrane sont disposées les cellules auditives sensorielles dites de Corti, organes nobles du récepteur auditif. Elles sont réparties en deux groupes nettement distincts : un groupe externe comportant sur trois rangées les cellules sensorielles externes de Corti, un groupe interne 74

6 • Les bases de la modélisation cochléaire

Fig. 6.1.1. Cellule ciliée interne (d’après Lim D. J. 19865).

formé par une seule et unique rangée de cellules ciliées internes. Cette dernière est plutôt située à l’aplomb de la lame spirale osseuse que du bord interne de la membrane basilaire. Toutes ces cellules possèdent à leur sommet un paquet de cils disposés selon un ordonnancement en forme de W (très net pour les CCE, très aplati pour les CCI) et dont les extrémités se perdent dans le bloc hyalin de la membrana tectoria (Fig. 6.1.1 et 6.1.2). Cette disposition particulière des cils est mécaniquement significative. Le déplacement relatif des cellules ciliées par rapport à la membrana tectoria entraîne des mouvements de flexion alternés des cils qui sont à l’origine dans l’un des deux sens de flexion, d’une dépolarisation cellulaire et de la naissance des influx nerveux6. Lors de la flexion des cils, des trois paramètres du mouvement : déplacement, vitesse, accélération, seul ce dernier semble devoir être retenu. Cette touffe ciliaire est la structure réceptive de la stimulation sonore. 75

L’ OREILLE

NUMÉRIQUE

Fig. 6.1.2. Représentation schématique d’une cellule ciliée externe (d’après Lim D. J. 1986)5.

Les cellules ciliées de Corti sont de véritables capteurs de mouvement effectuant une transduction mécano-électrique. Leur nombre total est estimé à environ 20 000 chez l’homme. Elles forment en ce qui concerne les CCE une mosaïque serrée s’étalant régulièrement de la base à l’apex du limaçon (leur densité est régulière, sauf sur les 2 à 3 mm de chaque extrémité (tab. 6.2.II) et, en ce qui concerne les CCI, un ruban rectiligne régulier. 76

6 • Les bases de la modélisation cochléaire

Enfin, la base des cellules ciliées entre en rapport avec les terminaisons des fibres nerveuses auditives par l’intermédiaire de synapses où interviennent des neuromédiateurs2, 3 dont la nature et le nombre ne sont pas encore entièrement déterminés. Les synapses ne sont d’ailleurs pas de simples relais interneuronaux, mais des éléments actifs dans la communication interneuronale4, une information pouvant emprunter différentes voies à partir d’une synapse : c’est la plasticité synaptique. Nous verrons plus loin toute l’importance jouée par la connectivité de ces différents récepteurs avec les neurones auditifs.

Le réseau neurosensoriel de la cochlée : le cheminement de l’information Les CCE étant de loin les plus nombreuses, on a longtemps admis qu’elles entraient en relation avec la majorité des fibres du nerf auditif. L’anatomie nous démontre le contraire. On a de la sorte négligé l’importance fonctionnelle des CCI et sous-estimé le rôle majeur du contingent de fibres nerveuses associé à ces cellules dans le transport de l’information. La propagation des influx sur les fibres nerveuses auditives entre l’oreille et les centres auditifs corticaux est répartie sur deux voies, l’une centripète, l’autre centrifuge (réalisant comme nous le verrons, une boucle dite de rétroaction, ou feed-back). Deux systèmes sont donc à considérer : celui des fibres dites afférentes dont les influx se propagent de la cochlée vers les centres auditifs, et celui des fibres dites efférentes qui relient les noyaux auditifs centraux à la cochlée. Ces systèmes sont en connexion avec les deux groupes de cellules sensorielles ciliées, externes et interne (Fig. 6.1.3). Schématiquement : • en ce qui concerne le système afférent, de nombreux documents font état d'une dualité entre les système afférent interne et externe 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14 . – les CCI, les moins nombreuses (environ 3 500), entrent en connexion avec la majeure partie des fibres nerveuses afférentes (environ 35 000). Chaque fibre est connectée à une seule CCI, mais chaque CCI est en relation chez l’homme avec environ vingt terminaisons nerveuses ; – les CCE, les plus nombreuses (environ 15 000), sont à l’inverse connectées à un petit nombre de fibres afférentes (3 000 à 5 000). Chaque fibre est connectée par ses ramifications à une dizaine de CCE et chaque CCE est connectée à plusieurs fibres collatérales (Fig. 6.1.4). 77

L’ OREILLE

NUMÉRIQUE

Fig. 6.1.3. Innervation afférente et efférente de l’organe de Corti. L’information sensorielle est envoyée au noyau cochléaire (NC) par les fibres afférentes connectées aux CCI. Le système efférent comporte deux types de fibres : les efférences latérales se connectant sous les CCI et les efférences médianes se connectant directement les CCE. Ces fibres efférentes proviennent de différents endroits du complexe olivaire supérieur dans le tronc cérébral. Les efférences connectant les CCI proviennent du noyau de l’olive supérieure latérale (OSL). Les neurones efférents des CCE sont localisés dans le noyau ventro-médian du corps trapézoïde (NVMCT). Les flèches indiquent le sens de propagation de l’influx nerveux. (D’ap. Puel J.-L., et al., La physiologie cochléaire revisitée : nouvelles perspectives thérapeutiques. Rencontres IPSEN en ORL, T 3, Irvinn, Neuillys/s, 73, 20011).

• en ce qui concerne le système efférent olivo-cochléaire, le type de terminaison diffère s'il s'agit de la CCE ou de la CCI. (les terminaisons nerveuses entrent directement en contact avec la base de la cellule ciliée externe mais sont plaquées sur le côté de la fibre afférente pour la cellule ciliée interne) 15, 16, 17 (Fig. 6.1.5). Cette systématisation suggère l’existence d’un mécanisme feed-back régulateur) (de rétroaction positive ou négative) (Fig. 6.1.6). Au prime abord, les connexions peuvent apparaître extrêmement complexes. Cependant leur systématisation fait ressortir trois faits majeurs : 78

6 • Les bases de la modélisation cochléaire

Fig. 6.1.4. Systématisation du système nerveux auditif afférent : – externe : 3 à 5 000, en spirale, 1 fibre pour 10 cellules ciliées externes ; – interne : 45 000 (95 %), radiales, 9 à 10 fibres pour une cellule ciliée interne.

79

L’ OREILLE

NUMÉRIQUE

Fig. 6.1.5. Jonctions neurosensorielles auditives. On notera : – le nombre élevé de vésicules des fibres efférentes (E), – le siège différent de cette jonction pour le système cilié externe ou interne.

Fig. 6.1.6. La systématisation nerveuse auditive évoque un mécanisme rétroactif (feedback). En vert : fibres afférentes en provenance du système cilié interne, en rouge : fibres afférentes en provenance du système cilié externe, en bleu : système efférent rétro-actif18. – La voie centripète : comporte deux populations de fibres en connexion avec les CCI et les CCE. – La voie centrifuge de rétroaction permet au système nerveux central de contrôler l’activité via deux systèmes distincts : 1. le système olivo-cochléaire médian : les corps cellulaires situés dans la région du noyau ventro-médian du corps trapézoïde (NVCT) contro-latéral, innerve les CCE et exercerait un rôle inhibiteur (neurorécepteur : acétylcholine et GABA) ; 2. le système olivo-cochléaire latéral, dont les corps cellulaires se trouvent dans l’olive supérieure latérale, et à projection cochléaire ipsilatérale. Les synapses se situent au niveau de la base des CCI avec les dendrites des neurones auditifs primaires (10 synapses efférentes en moyenne pour chaque fibre du nerf auditif, mais pouvant aller jusqu’à 35, avec plusieurs neurotransmetteurs, dont la dopamine. 80

6 • Les bases de la modélisation cochléaire

Fig. 6.1.7. Connectique auditive19

– l’existence d’une part d’un circuit de rétroaction comportant une voie d’acheminement de l’information du capteur périphérique cochléaire vers les centres auditifs et une voie de retour en vue de la régulation des influx ; – d’autre part l’existence d’un maillage en réseau du système neurosensoriel externe interdisant tout sélectivité fréquentielle à ce niveau, mais particulièrement bien adapté à la détection du niveau acoustique par un mécanisme d’intégration des réponses de l’ensemble des CCE ; – enfin, et inversement, une indépendance fonctionnelle des CCI et des fibres auditives avec lesquelles elles sont connectées. 81

L’ OREILLE

NUMÉRIQUE

2. NOUVELLES DONNÉES DE MÉCANIQUE COCHLÉAIRE EXPÉRIMENTALE* Les insuffisances des théories classiques de l’audition, et tout particulièrement dans le domaine de la psychoacoustique, ont conduit à reconsidérer les données classiques de la mécanique cochléaire telles qu’elles étaient (et sont encore !) admises par la communauté scientifique. Békésy avait déjà signalé en 1928 que l’observation directe des mouvements des structures membranaires de la cochlée en réponse à des signaux acoustiques n’était pas techniquement possible. En raison de la transparence des membranes, il fallait jouer d’artifices par l’adjonction par exemple de particules opaques pour les rendre visibles au microscope. C’est pourquoi on a eu recours ensuite à des techniques indirectes, comme par exemple à l’éclairage par un faisceau laser (Kohllöffel en 1972), ou à la technique de Mössbauer, ou encore à des microsondes capacitives. Mais cette méthodologie n’est pas sans soulever à son tour de sérieuses objections, à savoir l’impossibilité d’examiner simultanément les mouvements de l’ensemble de la partition cochléaire, et l’utilisation de signaux interrompus, donc de transitoires. C’est pourquoi il paraît justifié de recourir à nouveau, comme il y a un siècle, à des modèles (ou maquettes) mécaniques pour observer l’ensemble des mouvements des membranaires cochléaires et de les soumettre à divers types de signaux bien calibrés. Ce choix se justifie d’autant plus que l’on peut alors confronter les résultats obtenus au début du xxe siècle avec ceux recueillis de nos jours avec les moyens matériels modernes performants de laboratoire. Il est d’autre part facile de modifier à la demande sur ces modèles les différents paramètres physiques pouvant intervenir sur la réponse vibratoire des membranes, entre autre le gradient de viscosité des liquides de remplissage, ou encore le mode de fixation de la membrane, le tout dans le souci de respecter au mieux sur ces reproductions mécaniques les conditions physiologiques de fonctionnement de la cochlée (Fig. 6-2.1). Ces précautions réunies conduisent à des résultats fondamentalement différents de ceux décrits depuis des décennies dans la littérature spécialisée. Ils confirment certes l’existence de mouvements oscillatoires

* Le lecteur trouvera une étude exhaustive et critique de la mécanique cochléaire dans l’ouvrage « Théorie de l’échantillonnage cochléaire ». Arnette, Paris, 1986.

82

6 • Les bases de la modélisation cochléaire

Fig. 6.2.1. Sommet du limaçon. Le tube limacéen est incomplètement divisé par la lame spirale osseuse qui « monte jusqu’au sommet de la columelle où elle se termine librement par un crochet toujours bien accusé, le bec, hamulus ou rostrum » (d’ap. Testut L. et Latarjet A. in Traité d’anatomie humaine, Doin, Paris, 1949, p. 848).

de la membrane basilaire, mais les conditions d’apparition et la forme de la fameuse onde dite propagée, sur laquelle repose la théorie de la localisation fréquentielle cochléaire1, sont très éloignées de celles décrites dans les traités. Ils contraignent à l’abandon des concepts en vigueur et à l’élaboration d’un schéma de fonctionnement de l’oreille interne très démarqué du modèle classique (Carrat R., 1974, 1975, 1976, 19792, 3, 4, 5, 6, 7).

Les résultats Sous réserve des conditions expérimentales évoquées ci-dessus, on observe sous éclairage stroboscopique la production d’oscillations membranaires qui, fait essentiel, diffèrent dans leur forme selon le type de signal utilisé (tableau 6.2.I) : 1. pour un signal sinusoïdal donné, la membrane réagit par des oscillations sinusoïdales réparties sur la totalité de la membrane et dont l’enveloppe ne présente pas de déviation maximum (contrairement à ce qui est décrit à propos de l’onde propagée). L’amplitude des vibrations augmente avec l’intensité. Lorsque la fréquence du stimulus croît, le nombre d’ondes augmente, et simultanément l’enveloppe de ces ondes se rapproche de l’axe de la membrane jusqu’à disparaître pour une fréquence limite supérieure du signal (Fig. 6.2, en haut) ; 2. pour un signal transitoire, on observe la production d’une onde propagée amortie en allant de la base vers l’apex. L’amplitude et l’étendue de cette onde propagée dépend de l’énergie du signal et de la rigidité de la membrane basilaire (Fig. 6.2.2 au milieu) ; 83

L’ OREILLE

NUMÉRIQUE

Fig. 6.2.2. Photographies des déformations membranaires d’une cochlée artificielle en réponse à diverses formes de signaux acoustiques (Carrat R., 1979). – en haut : signal sinusoïdal. On note que la membrane est le siège d’oscillations sur toute sa longueur, quelle que soit la fréquence, l’amplitude des vibrations est la même partout, et diminue lorsque la fréquence augmente ; – au milieu : signal transitoire. On observe la production d’une onde propagée pseudo-sinusoïdale qui s’amortit moins rapidement. L’amplitude des vibrations et l’étalement varient avec les paramètres du signal (I, t) ; – en bas : signaux aléatoires. Sous éclairage stroboscopique, la réponse prend une allure sinusoïdale qui varie avec la cadence de l’éclairement. L’amplitude maximum des déplacement siège à l’extrémité distale, la plus élastique (la distribution de l’énergie étant uniformément aléatoire, la réponse maximale siège en regard de la zone de moindre rigidité). Enfin la membrane a un aspect flou, comme animée de frémissements. En modifiant la cadence de l’éclairement en provenance du stroboscope, il n’apparaît pas de zone vibratoire privilégiée, alors que, si le modèle effectuait une analyse fréquentielle, on devrait observer une zone d’amplitude maximum de siège variable avec la fréquence. Ces données sont absolument incompatibles avec le concept d’une tonotopie (Carrat R., 1974, 19794, 5, 8, 9). 84

6 • Les bases de la modélisation cochléaire

3. pour un signal aléatoire, la membrane est le siège de vibrations aléatoires disséminées tout au long de la membrane. L’amplitude de ces vibrations varie en proportion directe avec l’intensité du signal et l’élasticité de la membrane. En lumière continue, la membrane revêt un aspect de flou, résultant de ces mouvements désordonnés. Le pattern de ces vibrations change avec la cadence de l’éclairement stroboscopique : il réapparaît un aspect ondulatoire de la membrane, le bord des ondes reste flou par rapport à celui d’un signal sinusoïdal pur (Fig. 6-2.2 en bas) (3). Si l’une de ces précautions expérimentales n’est pas respectée (forte viscosité, fixation de l’extrémité distale de la membrane, signal mal calibré), on retrouve alors facilement le pattern classique de l’onde propagée (Fig. 6.2.3). Au total, on n’observe une déviation maximum des réponses vibratoires membranaires que pour des signaux transitoires, et contrairement aux données classiques, on ne retrouve aucune localisation tonale pour des sons purs ou des vibrations aléatoires (Tableaux 6.2.I et 6.2.II)

Fig. 6.2.3. Reproduction de l’onde propagée décrite par von Békésy. Le remplissage des cavités du modèle (rampes) par un liquide de forte viscosité (glycérine) entraîne un amortissement considérable de l’onde propagée, même pour un signal sinusoïdal (et même si l’extrémité de la membrane élastique reste libre). Cette condition expérimentale, retenue par les premiers expérimentateurs, ne respecte évidemment pas le fonctionnement normal de la cochlée (Carrat R., 19796). À signaler qu’aucun document photographique paru dans les publications ne montre une image indiscutable d’une onde propagée en réponse à un signal sinusoïdal.

85

L’ OREILLE

NUMÉRIQUE

Tableau 6.2.I.

86

6 • Les bases de la modélisation cochléaire

Tableau 6.2.II. Différents types de signaux acoustiques.

Ces résultats expérimentaux, extrapolés au fonctionnement intime de l’oreille, conduisent à l’élaboration d’un modèle fonctionnel cochléaire fondamentalement différent de celui fourni par les données classiques : – pour des signaux parfaitement sinusoïdaux (sons purs), on ne retrouve pas de pattern qui serait en faveur d’un mécanisme d’analyse fréquentielle cochléaire, en particulier une localisation privilégiée de la réponse membranaire en fonction de la fréquence comme cela devrait se produire à partir d’une série de filtres mécaniques. Ces résultats sont par contre en parfait accord avec les données de l’hydrodynamique concernant les ondes entretenues ; – pour un signal transitoire de type impulsif, ce n’est pas tant le déplacement du maximum d’amplitude de l’enveloppe des vibrations (déplacement extrêmement limité) que l’étalement de ces vibrations à la surface 87

L’ OREILLE

NUMÉRIQUE

de la membrane qui paraît être la réponse la plus significative. Selon l’énergie du transitoire, l’onde propagée est plus ou moins vite amortie ; – pour des signaux aléatoires, la membrane est le siège de mouvements désordonnés en tous ses points (résultat concordant en première approximation avec ceux de Tonndorf J. (1960)10. En définitive, trois données essentielles sont à prendre en considération : – le pattern membranaire diffère fondamentalement selon la forme du signal acoustique : sons purs entretenus, transitoires ou sons complexes. Ce signal ne doit pas être considéré uniquement sous son aspect fréquentiel, mais encore sous son aspect énergétique et temporel ; on notera également au passage toute l’importance prise par la constante de temps du système (et donc de l’oreille) ; – l’absence d’une localisation élective de la déformation membranaire en fonction de la fréquence d’un son pur. Bien au contraire, la membrane est le siège d’oscillations sinusoïdales entretenues qui se propagent de la base de l’apex quelle que soit la fréquence. La membrane vibre toujours sur toute sa longueur. Ces ondes sont d’autant plus nombreuses et serrées que la fréquence augmente. L’image du clavier de piano est une réduction simpliste et fausse ; – pour des transitoires, une réponse vibratoire dont l’enveloppe est à décroissance exponentielle, avec un maximum d’amplitude toujours vers l’extrémité basale du modèle, et qui s’étale plus ou moins loin selon l’énergie du signal. Elle diffère donc de celle décrite par Békésy G. (1960)1 et par Tonndorf J. (1960, 1962)11, 12. Ces résultats, en tous points parfaitement reproductibles, sont objectivés par des documents photographiques (et non par des vues d’artiste comme celles qui sont abusivement rapportées dans la littérature). À l’inverse, on ne trouve aucun document photographique incontestable dans la masse des publications se rapportant à la mécanique cochléaire qui vienne corroborer l’idée d’une localisation des sons. Au total, la reproduction sur modèle mécanique de l’oreille interne montre qu’il s’agit d’un système capable de transformer un signal acoustique en des mouvements oscillatoires dont le pattern diffère suivant son énergie et sa durée. De la forme de ce signal dépend la forme de la réponse membranaire que le système neurosensoriel doit ensuite analyser en vue d’un codage tant spatial que temporel (tableau 6.2.II). L’oreille n’est pas l’analyseur de fréquence tant recherché : c’est la deuxième prémice que doit intégrer un nouveau modèle cochléaire. 88

6 • Les bases de la modélisation cochléaire

Commentaires 1. Les spécialistes du traitement du signal nous apportent de précieuses données dont il faut désormais tenir compte : c’est ainsi par exemple que le signal délivré par un diapason entretenu électriquement ne correspond pas à celui d’un son pur, mais possède un spectre de bruit, ce qui modifie profondément l’interprétation des réponses obtenues à partir des premiers modèles mécaniques cochléaires. 2. Afin de respecter les données anatomiques et physiques de la cochlée, la membrane représentative de la membrane basilaire ne doit pas être fixée à son extrémité distale, comme le montrent les préparations anatomiques de la cloison cochléaire au niveau de l’hélicotréma (Fig. 6.2.1), la viscosité des liquides doit rester sensiblement identique à celle des liquides contenus dans les rampes tympanique et vestibulaire (il faut établir un nombre de Reynolds), enfin les signaux acoustiques doivent être parfaitement calibrés (pente d’installation et de disparition de sons délivrés par séquences, sons parfaitement sinusoïdaux, etc.). Tout se passe comme si, en raison de la notoriété et de l’ascendant exercés par Helmholtz sur ses contemporains et les scientifiques des générations suivantes, on ne pouvait qu’acquiescer à sa conception sur la physiologie de l’oreille. L’observation directe des évènements mécaniques survenant dans l’oreille s’avérant impossible, on s’est rabattu, faute de mieux, vers l’expérimentation sur des modèles mécaniques : ainsi sont nées la camera acoustica de Ewald, celle de von Békésy, etc. Les premières observations ont semblé concorder avec l’hypothèse de départ : elles mettaient en évidence la production d’ondes membranaires assorties d’un maximum d’amplitude de siège variable selon la fréquence du stimulus, la fameuse onde propagée (ou travelling wave des auteurs anglo-saxons). Bien qu’imparfaite, imprécise parce que trop étalée, elle a pu satisfaire les physiologistes pendant trois quarts de siècle. Elle satisfait encore bon nombre d’auteurs. Cependant, les résultats ne sont valides que dans certaines conditions expérimentales très particulières concernant la forme du signal, un degré élevé de viscosité des liquides utilisés, et enfin une reproduction inexacte de l’anatomie de la membrane basilaire (hélicotréma). On peut toujours, en ajustant divers paramètres lors d’une quelconque expérimentation, obtenir des résultats qui concordent avec une idée préconçue. Ils ne constituent pas pour autant une preuve irréfutable de la réalité du phénomène étudié. Lorsqu’on reprend ces expériences de mécanique cochléaire, en remplissant les modèles d’un liquide de faible viscosité, ou en libérant l’extrémité distale de la membrane comme il en est naturellement au niveau 89

L’ OREILLE

NUMÉRIQUE

de l’hélicotréma, ou encore en stimulant le modèle avec des signaux véritablement sinusoïdaux et non pas des impulsions, on ne retrouve pas la fameuse onde propagée, base du dogme de l’analyse fréquentielle cochléaire. Il ne fait pas de doute que, si on s’éloigne des données anatomiques et physiques déterminantes quant au fonctionnement de l’oreille, certes, intrinsèquement parlant, il ne s’agit pas de fausses expériences, mais elles conduisent à des résultats et des interprétations erronés. Une recherche, au demeurant bien conduite, peut même recevoir a posteriori une interprétation différente de celle qu’ont voulu les auteurs. 3. Par définition, un bruit aléatoire est constitué d’une série d’impulsions qui varient au hasard en amplitude, en fréquence, en durée. Chacune de ces impulsions imprime à la membrane son propre mouvement et ces mouvements varient eux aussi de façon aléatoire (en raison des variations des paramètres du signal) dans leur amplitude, leur étalement, leur fréquence. La réponse se traduit du fait de l’inertie de la membrane, par une superposition, une sommation, des mouvements. En conséquence, à un instant donné, en chaque point de la membrane, il y a superposition des déplacements instantanés provoqués par un grand nombre (variable lui aussi) de composants simples. Mais cette superposition varie d’un instant à l’autre ; c’est une fluctuation anarchique, chaotique. L’image est à rapprocher de celle d’un mouvement brownien. L’énergie étant en fin de compte répartie statistiquement de façon uniforme en chaque point de la membrane, le déplacement serait uniforme si la rigidité de la membrane était la même partout. Comme cette dernière est plus souple à son extrémité distale, l’amplitude des mouvements est en conséquence plus importante en cet endroit. 4. On trouve dans la littérature une illustration reproduite à l’infini de l’onde propagée « békésienne » (Fig. 6.2.4 et 6.2.5). Malheureusement, il ne s’agit pas d’un document photographique objectif mais d’une schématisation d’artiste. Ce schéma est d’ailleurs identique quelle que soit la forme du signal : sinusoïdal ou transitoire, et aussi d’un auteur à l’autre pour des conditions expérimentales différentes. C’est la représentation des mouvements membranaires tels qu’on voudrait qu’ils soient.

90

6 • Les bases de la modélisation cochléaire

Fig. 6.2.4. Représentation schématique de l’onde propagée (d’après Tonndorf : The significance of shearing displacements for the mechanical stimulation of cochlea hair cells, Facts and Models in hearing, Springer-Verlag, NY, 1974, p. 70). Son principal défaut est évidemment de propager un concept erroné.

Fig. 6.2.5. Photographie en oblique de la réponse membranaire à un signal sinusoïdal de 70 cp/s dans le modèle cochléaire n° 1. On relèvera les différences du pattern objectivées par ce document irrécusable et celui de l’image d’artiste rapportée sur la figure 6.2.4.

3. AUDITION ET THÉORIE DE LA COMMUNICATION C’est le troisième volet indispensable à l’établissement d’un modèle révisionniste de l’audition Les spécialistes de la communication ont montré il y a quelques décennies que tout signal continu pouvait être représenté de manière significative par prélèvement d’éléments discrets ou échantillons, à intervalles de temps réguliers, à la condition, comme l’a énoncé Shannon 91

L’ OREILLE

NUMÉRIQUE

en 1949, que la cadence d’échantillonnage soit égale ou supérieure au double de la fréquence maximum du signal. Ce théorème de l’échantillonnage temporel d’un signal peut être également transposé à l’échantillonnage spatial d’une forme, et plus précisément, à celui des formes membranaires cochléaires. Trois grands noms font autorité dans ce domaine : Nyquist, Shannon, et Turing1, 2, 3.

Les données du problème Par quel processus l’oreille transforme-t-elle un signal continu, celui des sons, en un signal discontinu, formé d’une série d’impulsions, celui qui va cheminer le long des fibres nerveuses auditives ? Comment l’information transportée par le premier peut-elle se retrouver dans le second ? Si ce processus, qu’on appelle fonction de transfert4, peut être facilement appréhendé en ce qui concerne l’oreille externe et l’oreille moyenne, parce que les signaux d’entrée et de sortie sont de même nature (des vibrations acoustiques), il n’en va pas de même pour la fonction de transfert cochléaire qui demeure une inconnue. Il se produit en effet, au niveau de l’oreille interne, une transduction d’un signal continu (les vibrations acoustiques) en un signal discontinu (électrique, de type impulsionnel) véhiculé par les fibres nerveuses. On dit qu’il existe une conversion de l’information. L’occultation, ou l’ignorance, de cette fonction de transfert rend compte du nombre élevé des théories de l’audition qui ont été proposées pour appréhender la fonction cochléaire (et en particulier la perception de la hauteur). L’oreille interne est une boîte noire qui n’a pas livré tous ses secrets. On ne dispose guère que de deux moyens pour en saisir l’intimité : – soit adopter une démarche analogique en collectant un grand nombre de données anatomo-cliniques et en tentant d’assembler de façon logique les éléments du puzzle cochléaire ; c’est l’attitude observée depuis le xixe siècle, avec l’espoir de déchiffrer progressivement, pas à pas, ces mécanismes auditifs ; – soit adopter une démarche inverse consistant à appliquer les concepts modernes de la théorie générale de la communication et de la théorie de l’information au maillon auditif cochléaire, quitte à vérifier ensuite si les données de l’observation et de l’expérimentation sont intégrables dans ce schéma. 92

6 • Les bases de la modélisation cochléaire

C’est cette dernière démarche que j’ai cru bon de retenir, d’autant que les techniques de traitement du signal se sont révélées extrêmement bénéfiques dans d’autres domaines, en biologie moléculaire en particulier. Elle constitue une approche logique de la quantification des phénomènes biologiques sensoriels. Dérivée de la théorie mathématique de la communication, elle ne peut, en principe, que faciliter la modélisation de la fonction cochléaire.

De la théorie mathématique de la communication : qu’en est-il ? Tout est né il y a quelques décennies d’un problème pratique de téléphonie, celui posé par la transmission d’un maximum de messages au moindre coût, et au sujet duquel les recherches ont conduit à formuler une théorie mathématique de l’information et de la communication. Bien que déjà entrevue par Hartley R.W., Nyquist H., Einstein A.5, elle ne fut nettement formulée qu’en 1948 par Shannon C. E., puis par Weaver W. et Shannon C. E. en 1949. Cette théorie présuppose : – d’une part l’existence d’une chaîne de communication dont les constituants sont bien connus : émetteur, canal, récepteur, etc., – d’autre part la transformation par cette chaîne de la forme du message et de son contenu. Pour l’essentiel, quant à ses implications en biologie, la théorie mathématique de la communication démontre que tout message peut être ramené à une combinaison de signaux « tout ou rien », de 0 et de 1, et que la valeur de ce message dépend de l’imprévisibilité relative des combinaisons successives des éléments du répertoire 0 et 1 (Moles A., 1971)5. Tout signal continu peut être réduit à un système discret formé d’un certain nombre de signaux discontinus susceptibles d’être distingués et analysés.

Comment se transmet l’information ? Signal analogique et signal numérique La transmission d’une information peut s’effectuer au moyen de deux types de signaux, soit analogique, soit numérique. Un signal analogique est un signal dont la valeur varie avec le temps de manière continue (l’exemple le plus simple est celui d’un signal 93

L’ OREILLE

NUMÉRIQUE

sinusoïdal, mais il s’agit souvent d’une somme pondérée de signaux sinusoïdaux). C’est un signal simple qui se prête assez bien à la transmission, mais qui a pour inconvénient de subir facilement des distorsions (d’amplitude ou de phase). À l’opposé, un signal numérique est un signal discontinu dans le temps, caractéristique de la valeur d’une grandeur à un instant donné. Il se présente habituellement sous forme d’une suite de symboles : ainsi en système binaire, un signal est constitué d’une série de 0 et de 1 qui peut être matérialisée par absence ou présence d’impulsions. Ces symboles ne pouvant varier que par bonds, la valeur que représente ce signal est nécessairement discrète. Ce signal numérique a pour avantage d’être beaucoup moins sensible aux imperfections des systèmes de transmission (distorsion, bruit) puisqu’il suffit de détecter des impulsions pour posséder l’information.

La conversion analogique-numérique du signal. Théorème de Shannon Pour passer d’une représentation analogique d’une grandeur à sa représentation sous forme numérique, il faut effectuer un certain nombre d’opérations (filtrage éventuel, échantillonnage, quantification…). L’échantillonnage temporel est la première opération d’une conversion. Échantillonner une fonction, c’est prélever la valeur de cette fonction, pendant un certain intervalle de temps de manière périodique. C’est donc remplacer une fonction continue par une fonction discontinue obtenue par découpage de la première (Fig. 6.3.1). Encore faut-il que la cadence de ce prélèvement d’échantillon (échantillonnage temporel) soit correcte : la fréquence (la cadence) d’échantillonnage doit être égale ou supérieure au double de la fréquence maximum du signal. C’est le théorème de Shannon6.

Échantillonnage d’un signal continu et numérisation (tableau 6.3.I) Le signal ayant été découpé en tranches (temporelles) ou échantillons discrets, on peut attribuer à chacun d’eux une valeur donnée : ils sont quantifiés, représentés par des nombres. On a procédé alors à ce qu’il est convenu d’appeler une numérisation du signal. 94

6 • Les bases de la modélisation cochléaire

Fig. 6.3.1. Échantillonnage temporel. Numérisation (quantification). L’amplitude exacte d’un échantillon isolé peut avoir théoriquement une infinité de valeurs. Mais, du fait des échelons d’amplitude, ou quanta, elle est remplacée par un nombre entier d’amplitudes élémentaires, aussi proches que possible de l’amplitude réelle. C’est la quantification.

Tout l’intérêt de cette numérisation tient au fait que n’importe quel signal peut être numérisé7. En effet, le théorème de Fourier permet de considérer un signal continu réel comme formé d’un nombre fini de composants ou harmoniques, et on peut ainsi appliquer à ces signaux le traitement réservé aux signaux discrets. On transforme alors l’ensemble fini des harmoniques dont le mélange constitue le signal en un ensemble de valeurs discrètes et finies. En langage plus compact, on numérise le signal. Il est ensuite possible de transmettre l’information contenue dans un tel signal au travers d’un canal de communication en utilisant un codage binaire. Dans la réalité, tout signal physique, c’est-à-dire tout signal engendré par une source d’information matérielle, est limité à la fois dans le temps et en fréquence. Ayant un début et une fin, un signal réel est défini sur un intervalle limité de fréquences. Numériser et couper le spectre d’un signal acoustique du côté de ses hautes fréquences n’est pas un obstacle insurmontable pour une transmission fidèle de ce signal8. 95

L’ OREILLE

NUMÉRIQUE

En ce qui concerne le signal acoustique, on voit donc que sa numérisation sans perte d’information ne comporte pas d’impossibilité théorique, puisqu’il s’agit d’un signal continu et de spectre fréquentiel limité (parce que réel). Enfin, on montre que, même lors d’un échantillonnage irrégulier (avec des points d’échantillonnage non régulièrement espacés), le théorème de Shannon reste applicable (à la condition qu’il existe un échantillon dans chaque intervalle de temps de durée F/2). On peut représenter une fonction continue en convertissant cette fonction en une suite de valeurs discrètes (« time series »). Ce procédé est connu sous le terme d’échantillonnage. Pour que cette suite de valeurs représente correctement la fonction d’origine, la fréquence de l’échantillonnage doit être au moins le double de la fréquence la plus élevée des composantes du signal. Selon le théorème de l’échantillonnage développé par Nyquist (1928), il suffit de deux échantillons par cycle pour caractériser une bande limitée d’un signal. La fréquence du signal qui correspond à la cadence minimum d’échantillonnage est encore appelée fréquence de Nyquist (soit la moitié de la fréquence minimum d’échantillonnage). La durée maximum séparant les échantillons à la fréquence minimum d’échantillonnage est appelée intervalle de Nyquist. La plupart des procédés de communication ont recours à un échantillonnage, que ce soit dans le temps ou dans l’espace. Dans ce dernier cas, on détecte différents points de la forme ce qui permet de reconstruire avec des pas plus ou moins grands le pattern primitif sur une échelle ou un réseau. La conversion de la fonction continue en une suite de valeurs est appelée numérisation (quantization). Ces valeurs sont habituellement exprimées par des nombres entiers. Elles permettent le codage de l’information échantillonnée au moyen de nombres. Enfin, Shannon (1949) dans la Théorie Générale de l’Information, a montré que tout message peut être réduit à la combinaison (arrangement) de signaux binaires 1 ou 0, ou d’états on-off (il en est ainsi de la réponse tout ou rien de la fibre nerveuse).

Tableau 6.3.I. Numérisation d’un signal.

Échantillonnage spatial. Onde sinusoïdale spatiale Le théorème de l’échantillonnage, primitivement réservé à la numérisation par découpage temporel d’un signal, est également applicable à la numérisation d’une forme spatiale (Fig. 6.3.2). 96

6 • Les bases de la modélisation cochléaire

Fig. 6.3.2. Analyse spatiale d’une forme avec des résolutions décroissantes. En haut, numérisation de l’amplitude. En bas, échantillonnage d’un pattern bidimensionnel avec résolutions décroissantes. On obtient les différents patterns par application sur le modèle d’une grille de plus en plus grossière. Lorsqu’une portion du modèle tombe dans la surface d’une maille du réseau, le carré est coloré en noir dans sa totalité. Sinon il reste blanc. On peut ainsi numériser un pattern spatial, une forme, à partir d’éléments discrets, ce qui facilite le stockage, le transfert et le traitement de l’information.

La forme spatiale la plus simple est celle d’un son pur. La variation périodique d’intensité en fonction du temps est représentée par une onde sinusoïdale. Un train d’ondes sinusoïdales spatiales apparaît comme un ruban plat, comprimé en longueur de telle sorte que son profil décrit une série d’ondes sinusoïdales. À chaque demi-cycle, la déformation est inversée. Si on noircit le ruban de telle sorte que les crêtes soient noires et que les creux et les zones intermédiaires soient en blanc, on voit une succession alternée de traits noirs et blancs. L’espace séparant deux zones d’ombre constitue une période. L’amplitude de l’onde spatiale est représentée par la largeur de la crête, ou encore des zones noires du ruban, et la fréquence par le nombre de cycles (ou de traits noirs) sur une distance donnée (Fig. 6.3.3). 97

L’ OREILLE

NUMÉRIQUE

La reconnaissance d’une forme spatiale sinusoïdale par échantillonnage est relativement aisée. Il suffit de disposer d’une rangée de capteurs de niveau. Si l’amplitude d’une crête dépasse un seuil donné, elle pourra exciter le capteur situé en regard d’elle. Le problème est de déterminer l’espacement des capteurs, c’est-à-dire le pas d’échantillonnage spatial susceptible de ne pas altérer la reconnaissance de la forme sinusoïdale. Ce problème est également résolu grâce au théorème de Shannon : d’une manière générale, il suffit d’échantillonner à une fréquence égale ou supérieure au double de la fréquence spatiale la plus élevée transmise par le système physique considéré9, et dans la pratique, de disposer d’un nombre de capteurs égal ou supérieur au double de la fréquence spatiale considérée. Si on se trouve en présence d’une forme spatiale complexe, tout comme on peut décomposer un son complexe en une somme d’harmoniques, on montre qu’on peut décomposer cette forme en une combinaison d’ondes spatiales sinusoïdales. Comme elles sont bidimensionnelles, les composantes sinusoïdales spatiales ont un degré de liberté supplémentaire, à savoir leur orientation par rapport à une direction donnée du plan. L’application du théorème de Fourier permet de constater qu’il est possible de reconstruire à peu près n’importe quelle forme avec la précision voulue en superposant des ondes sinusoïdales spatiales de phases, d’amplitudes, de fréquences et d’orientations convenables.

Fig. 6.3.3. Onde sinusoïdale spatiale. 98

6 • Les bases de la modélisation cochléaire

Le spectre de fréquences spatiales nécessaires à la représentation d’une forme est la « largeur de bande » de cette forme. Il faudrait une infinité de sinusoïdes spatiales pour représenter parfaitement une forme sonore infiniment brève. En effet, un échelon de Dirac10 a un spectre de fréquence théoriquement illimité. Tout système physique se comportant comme un filtre passe-bande, la largeur de bande de cette forme sonore est nécessairement limitée, aucune des fréquences des composantes sinusoïdales ne pouvant être supérieure à une certaine limite. La superposition d’un nombre fini de composantes sinusoïdales conduit donc à une diminution de netteté de la forme. S’il s’agissait d’une forme visuelle, au lieu d’observer un contraste tranché entre noir et blanc, on obtiendrait par superposition une transition douce du noir au blanc en passant par des dégradés de gris. Cette réduction de la bande spectrale est donc théoriquement également préjudiciable à la transmission d’une information acoustique. Elle présente cependant un avantage mathématique, puisque, selon le théorème de Shannon, si on connaît la composante de fréquence la plus élevée de ce signal à bande limitée et si on échantillonne celui-ci à une fréquence double, on peut reconstituer complètement la forme originale à partir de ces seuls échantillons. Appliquée aux mouvements vibratoires cochléaires, l’analyse des formes membranaires s’avère donc a priori possible par un échantillonnage spatial convenable.

Fig. 6.3.4. Échantillonnage de l’amplitude d’une onde et sa conversion en impulsions de Dirac. 99

L’ OREILLE

NUMÉRIQUE

Multiplexage En informatique, lorsqu’on doit envoyer au calculateur (ou recevoir de celui-ci) des informations sur plusieurs voies ou canaux, on a recours par souci d’économie au procédé dit du multiplexage des voies. Cellesci sont explorées, soit cycliquement, soit selon un programme prédéterminé. Le codage des différents signaux est effectué par séquences. Ce procédé évite d’employer autant de codeurs qu’il y a de canaux à desservir (Guibert J., 1979)11.

Le système auditif : chaîne de communication et convertisseur analogique-numérique L’audition est le sens qui nous apporte des informations sur l’état du monde extérieur dans le domaine des vibrations acoustiques. Cela sousentend que ces informations sont transmise par la voie d’une chaîne de communication sonore, dont les maillons comportent : une source émettrice, un milieu dans lequel se propage le signal émis par cette source, l’adjonction possible de signaux parasites, enfin un récepteur constitué par l’ensemble du système auditif (Fig. 6.3.5). Ce récepteur n’est pas un récepteur monobloc puisqu’il comprend lui-même un certain nombre d’éléments : oreille externe, oreille moyenne, cochlée, voies auditives, cortex cérébral (Fig. 6.3.6). Mais c’est au niveau du maillon cochléaire, que s’effectue la conversion du signal sonore continu en une série de signaux discontinus. Cette conversion ne peut évidemment faire exception au processus général, nous dirions universel, d’échantillonnage du signal et se soustraire au théorème de Shannon. Nous sommes donc loin des théories d’analyse fréquentielle du signal par l’oreille, mais proches par contre d’un système dans lequel l’information arrivant dans l’oreille sous forme analogique est codée et transmise sous forme de séquences d’impulsions vers le système nerveux central. De plus, comme cette information n’est pas transportée par un seul conducteur, par une seule fibre, mais par un ensemble de fibres, le « dispatching » constitue en lui-même un autre codage (spatial).

100

6 • Les bases de la modélisation cochléaire

Fig. 6.3.5. Schéma général de la communication auditive. Les théories classiques de l’audition localisent le décodage dans le cerveau. Elles diffèrent entre elles par leur conception du codage (résonateurs cochléaires, cochlée assimilée à un microphone, etc.) et par le codage de la transmission nerveuse (courant microphonique, rythme de décharge des influx temporel ou spatial, etc.

Fig. 6.3.6. Schéma général de la communication appliqué à l’audition et modèle fonctionnel du système auditif (d’ap. Leipp E., 1977). Le système auditif forme une chaîne de communication des messages acoustiques. Il comporte différents types de maillons : mécanique (oreille externe et oreille moyenne), électronique (convertisseur analogique-digital, mémoire centrale), traitement central chargé d’identifier, de comparer et d’associer les images transmises. 101

This page intentionally left blank

Chapitre 7

De l’oreille analogique à l’oreille numérique

C’est une tâche bien ingrate pour un chercheur que de vouloir présenter au monde scientifique une théorie nouvelle, car tout a été dit par ceux qui vous précèdent. Tout au moins le pense-t-il ainsi. Il faut toujours s’attendre à n’être pas compris même lorsque l’on a pour soi « le poids de l’évidence et celui de la raison »1. À cela s’ajoute un phénomène éternel : chaque génération pense qu’elle seule a été bien formée.

Les anciens modèles ne rendent pas compte des faits expérimentaux Le modèle auditif actuel a l’apparence de la simplicité. Rappelonsnous. Les variations de pression du milieu aérien sont transmises successivement de l’oreille externe au tympan, puis aux osselets de l’oreille moyenne, et finalement aux liquides de l’oreille interne. Elles sont à l’origine d’oscillations d’une membrane élastique, la membrane basilaire, sur laquelle reposent les cellules sensorielles de Corti. Ces dernières subissent de la sorte des déplacements relatifs par rapport une membrane hyaline qui les surplombe (la membrana tectoria), provoquant à leur tour une déformation-flexion des cils implantés à leur sommet. La déformation des cils est enfin responsable de phénomènes physico-chimiques complexes cellulaires aboutissant à une dépolarisation de surface qui est à l’origine du signal transmis aux fibres auditives. Dans ce modèle fonctionnel, les oscillations provoquées par un son pur seraient prioritairement localisées 103

L’ OREILLE

NUMÉRIQUE

en une zone relativement précise de la membrane basilaire, et celles correspondant à un son complexe seraient décomposées en composantes sinusoïdales réparties tout au long de ladite membrane, des fréquences les plus élevées aux fréquences les plus basses si on va de la base à l’apex du limaçon. Ce concept est dérivé des travaux de Jean-Baptiste Fourier, mathématicien et physicien français qui, en 1822, à partir de son théorème sur la décomposition en série d’une fonction, révéla que la structure complexe des vibrations périodiques pouvait se ramener à la somme de multiples composantes sinusoïdales d’amplitudes, de phases et de fréquences différentes. Au demeurant, il ne manqua pas de plonger dans l’étonnement ses contemporains incrédules. Par la suite, on a pensé que l’analyse de Fourier pouvait s’appliquer à n’importe quelle variation d’une quantité avec le temps : le déplacement d’une corde qui vibre, la surface d’une mer agitée, la température d’un fer électrique, la tension d’un courant dans un câble téléphonique, etc. Rien ne s’opposait à ce qu’elle soit applicable en acoustique, ce que firent Ohm et Helmholtz, et par déduction qu’elle soit effectuée automatiquement par l’oreille humaine, puisque cette dernière est capable de percevoir aussi bien des sons purs que des sons complexes, musicaux par exemple. Il fallait cependant décortiquer les mécanismes intimes de cette véritable boîte noire cochléaire. On a vu que les physiologistes ont alors imaginé des maquettes, nous disons maintenant des modèles mécaniques, aussi nombreux que rudimentaires, pour tenter de reproduire au mieux le fonctionnement de l’oreille interne. Les résultats expérimentaux, à bien y regarder, n’ont pas été aussi démonstratifs que prévus, et il a fallu procéder à de nombreux ajustements des paramètres pour se rapprocher au mieux du résultat que l’on avait préalablement imaginé : c’est ainsi par exemple qu’on a rempli ces modèles de liquides à forte viscosité quand ceux de l’oreille ont la fluidité de l’eau ! Rien d’étonnant à ce que ces résultats soient fortement discordants avec la masse des paradoxes relevés dans de multiples domaines. Nous l’avons vu plus haut. Avec beaucoup plus de pondération, tout le monde s’accorde de nos jours pour dire que la cochlée peut être considérée comme un transducteur qui convertit le stimulus vibratoire, continu, en un signal discontinu (impulsionnel) adapté au système nerveux, et qu’elle est le siège d’un grand nombre de processus, tant actifs que passifs. On a pensé un temps que l’élaboration d’un modèle du fonctionnement cochléaire pouvait théoriquement reposer sur la seule application des méthodes réservées au 104

7 • De l’oreille analogique à l’oreille numérique

traitement du signal afin de définir un opérateur X chargé de représenter la fonction biologique cochléaire. On s’est aperçu malheureusement que, si on applique à un tel modèle des entrées caractéristiques, c’est-à-dire des fonctions mathématiques particulières et si on compare les résultats obtenus par le calcul avec les résultats expérimentaux, ces résultats diffèrent la plupart du temps et ne sont pas superposables. Mieux, en admettant qu’un modèle mathématique soit identifié par cette procédure, il ne pouvait apporter aucune information supplémentaire sur les mécanismes intimes du phénomène étudié.

La fonction auditive : un maillon de la chaîne de communication Seules les données expérimentales sont donc porteuses d’information. En conséquence, on est obligatoirement contraint de revenir à l’expérimentation sur des modèles approchés et de procéder à un ajustement progressif des paramètres pour les rendre réalistes. On finit par retenir comme meilleur modèle celui qui rend compte du plus grand nombre de phénomènes psychoacoustiques et cliniques nés à la fois de l’expérimentation et de l’observation. De plus, rien n’empêche d’adjoindre à cette démarche expérimentale les concepts modernes nés de la théorie de la communication et de l’information, et de considérer la fonction auditive comme un maillon de la chaîne de communication et de transmission de l’information acoustique. C’est à ce concept que je me suis rallié depuis les années 1970-1980. Bien qu’étant à la base purement mathématique, la théorie des communications est d’application très générale. Dérivée d’études pratiques des communications électriques, elle a reçu de multiples applications en technologie, psychologie, physique, cybernétique, art, etc. Elle nous indique comment représenter, ou coder de façon efficace, les messages venant d’une source donnée pour les transmettre sur un canal particulier. Elle fournit avec le « bit » une mesure universelle de la quantité d’information sous forme de choix ou d’incertitude, et permet d’éviter des erreurs de transmission. Elle a montré aussi son impact dans le domaine de l’intelligence artificielle en introduisant l’idée d’un mécanisme possible de rétroaction2. Tous les maillons constitutifs du système auditif concourent à ce processus de transmission de la communication et de l’information. La chaîne de communication est complète : source d’information située à l’extérieur de l’unité physiologique destinataire du message, transport en première partie par l’air ambiant support de l’onde sonore, signal d’entrée 105

L’ OREILLE

NUMÉRIQUE

(onde sonore) transmis à la face externe du tympan, puis à l’OM et enfin à l’OI où un codage est effectué. On a longtemps pensé que ce codage était uniquement de type analogique parce que les potentiels microphoniques cochléaires reproduisaient en continu les variations dans le temps de la pression acoustique. En réalité, il est de type impulsionnel puisque le message est converti en signaux discrets, les « spikes » qui parcourent les fibres nerveuses, et de relais en relais, sont acheminés jusqu’aux structures bulbaires et en final aux cellules de l’aire corticale auditive où s’effectue le décodage et la restitution du message3. En définitive, était-il bien nécessaire et raisonnable d’attribuer à l’oreille une fonction d’analyse préalable des sons complexes pour délivrer une information fréquentielle aux centres cérébraux ? On peut en douter, d’autant qu’on ne voit pas pourquoi l’oreille se comporterait différemment des autres organes sensoriels qui relient l’organisme au monde extérieur4.

106

Chapitre 8

Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

L’oreille est un convertisseur analogique-numérique du signal par échantillonnage des formes acoustiques membranaires et un transducteur de l’information1. L’information en provenance du monde extérieur emprunte les différents canaux d’entrée que constituent les systèmes sensoriels : olfactif, optique, auditif, etc. avant d’être acheminée au centre de traitement cérébral. Ils comportent tous un organe récepteur jouant très précisément le rôle d’un périphérique spécialisé dans un système de communication. Pour l’odorat, il s’agit respectivement de la muqueuse olfactive et du bulbe olfactif. Dans le cas de l’œil, il s’agit des photorécepteurs de la rétine. Pour l’ouie, ce sont les cellules ciliées externes et internes de Corti. Rétine et organe de Corti qui transforment l’information, sont des relais interfaces. Les mécanismes intrinsèques de ces systèmes sensoriels présentent par ailleurs une frappante similitude : par exemple entre la mécanique de l’accommodation et la mécanique adaptative de l’oreille moyenne, entre leurs circuits nerveux réflexes de type cybernétique (rétroaction), 107

L’ OREILLE

NUMÉRIQUE

ou encore entre le nombre incalculable de stimuli possibles (odeurs ou sons) ce qui élimine d’emblée toute idée de stimulation spécifique d’une cellule sensorielle (olfactive ou auditive), etc. dont le nombre est limité. Pourquoi ces mécanismes intrinsèques de base d’où naît l’information différeraient-ils d’un organe sensoriel à l’autre, alors que cette dernière est acheminée selon un mode identique par les fibres nerveuses sous forme d’impulsions strictement identiques ? Seul diffère le codage de ces impulsions, et nous devinons déjà aisément qu’il va affecter à la fois leur répartition sur l’éventail neural des fibres nerveuses et leur distribution dans le temps sur chaque fibre (plus ou moins groupées, ou en salves…). Quel modèle peut-on proposer alors pour l’oreille ?

Principes fondamentaux du modèle auditif numérique L’oreille est le siège de formes, et ces formes sont des vecteurs d’information Qu’ils soient tactiles, visuels, auditifs ou autres, les messages qui nous parviennent du monde extérieur revêtent l’aspect de formes, au sens de la « gestalt-théorie ». La forme traduit un ordre de mouvements. C’est un assemblage d’éléments ou de parties dont l’action commune est plus importante que les propriétés élémentaires. En acoustique, un son complexe évolutif présente une forme. Ainsi la forme acoustique d’un mot résulte d’un ordre de mouvement cohérent de l’appareil phonatoire. C’est une combinatoire de mouvement. Reconsidérons la chaîne de communication auditive. Il apparaît qu’au niveau de chaque maillon les vibrations sonores impriment une succession d’évènements qui sont en fait le support de l’information : oscillations du bloc tympano-ossiculaire, variations de pressions des liquides péri-lymphatiques, déformations du canal cochléaire et de la membrane basilaire, déplacement des cellules ciliées, déformation par flexion des cils, dépolarisation membranaire cellulaire avec initiation de l’influx nerveux auditif. Ces déformations mécaniques, dont celles de la membrane basilaire, sont des formes et chacune d’elle est la traduction à un instant donné d’une image sonore, nous dirions d’une forme acoustique. Mais cette forme acoustique membranaire n’est pas stable : elle se modifie sans arrêt. En effet, l’environnement sonore est la résultante d’une multitude de formes acoustiques, non pas tant celles de sons purs qui 108

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

restent exceptionnelles dans la nature, que celles de sons complexes évolutifs : plus ou moins brefs, plus ou moins riches en harmoniques, plus ou moins intenses, et qui surviennent de façon aléatoire. Les déformations de la membrane basilaire vont donc épouser une infinité d’aspects en fonction des paramètres du stimulus acoustique d’entrée. Ce sont des « formes » acoustiques assimilables aux formes acoustiques de Savart, et aux figures de Chadli. L’aspect de ce pattern se renouvelle donc sans cesse au gré des variations des paramètres temps, niveau et fréquence du signal. Cette forme membranaire cochléaire possède de plus des propriétés remarquables. – Tout d’abord, un pattern membranaire est une image en trois dimensions. Elle se présente sous l’aspect d’un relief irrégulier plus ou moins marqué occupant une surface plus ou moins étendue de la membrane basilaire (on peut la comparer à l’image 3 D du spectre d’un son). En réponse à un signal acoustique donné, la réponse vibratoire de la membrane basilaire est une forme géométrique unitaire, unique. Un même son donnera toujours la même figure, la même forme membranaire. Mais chaque son engendre une forme membranaire différente, qui sera traitée et mémorisée. La moindre variation d’un seul de ses paramètre modifie la forme. – Ensuite, du fait de la variabilité dimensionnelle de la cochlée d’un individu à l’autre, pour un même signal acoustique d’entrée, les caractéristiques de la forme vont dépendre des paramètres physiques de la cochlée : elle peut donc différer d’un individu à l’autre. Il importe peu que le pattern membranaire diffère d’un individu à un autre : ce qui compte, c’est que chez un même individu, un même son entraîne toujours le même pattern. – Enfin, c’est ce pattern membranaire, cochléaire, qui est analysé en temps réel par les cellules de Corti. Insistons bien : les modifications incessantes de ces formes sont le support de l’information.

La conversion du signal analogique en signal digital Les cellules de Corti, réparties à la surface de la membrane basilaire, sont de véritables capteurs de mouvement chargés de transformer l’énergie mécanique (acoustique) en énergie électrique (dépolarisation membranaire) (Fig. 8.1, 8.2). La cochlée a donc pour fonction de coder un signal continu, le signal acoustique, en des signaux discontinus, des impulsions, lesquels en se propageant sur les fibres nerveuses transmettent l’information aux centres corticaux. Il s’agit d’un convertisseur analogique-digital, les cellules de Corti formant le relais interface1, 2. 109

L’ OREILLE

NUMÉRIQUE

Fig. 8.1. Les cellules ciliées sont des capteurs de mouvement sensibles à l’accélération. La dépolarisation résulte de la flexion et de l’effet de cisaillement des stéréocils. Au cours de chaque cycle, la flexion des stéréocils se produit dans deux directions opposées, mais seule l’une d’elles entraîne une dépolarisation. Les cellules ciliées analysent par échantillonnage spatial les déformations de la membrane basilaire.

La répartition spatiale de ces capteurs n’est pas la même selon le système cilié considéré : alors qu’ils sont disposés sur trois rangées pour le système cilié externe et dessinent une mosaïque, un réseau, ils sont alignés sur une seule rangée pour le système cilié interne (Fig. 8.3). Comme chaque capteur n’occupe qu’une portion de surface, l’analyse de la forme membranaire cochléaire comporte un fractionnement de l’image, une fragmentation bidimensionnelle pour les CCE (mosaïque), linéaire pour les CCI (assimilable à un peigne de Dirac). En d’autres termes, l’analyse des formes membranaires, ou patterns, procède d’un découpage spatial, un échantillonnage, effectué par les cellules ciliées et les fibres afférentes correspondantes. 110

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

Fig. 8.2. L’onde de pression acoustique qui se propage dans les liquides provoque un déplacement dans les trois plans de l’espace : longitudinal (oscillations de la membrane basilaire), vertical (ascension des cellules ciliées, et radial (flexion des stéréocils).

Fig. 8.3. Le pattern, ou image, ou forme cochléaire, est composé d’éléments discrets (ou pixels) de répartition linéaire pour le système cilié interne, bidimensionnelle (spatiale) pour le système cilié externe. 111

L’ OREILLE

NUMÉRIQUE

En outre, comme ces patterns se modifient en permanence – sinon ils ne transporteraient aucune information – et comme chaque fibre nerveuse ne répond que par intervalles de temps (fenêtre temporelle), l’analyse des déformations successives de la membrane basilaire est également temporelle. Il s’agit d’un échantillonnage temporel. Au total, l’oreille est un convertisseur analogique-digital qui analyse les formes acoustiques membranaires au moyen d’un échantillonnage spatio-temporel. En corollaire, la finesse de l’analyse par l’échantillonnage spatial dépend de la densité surfacique ou linéaire des capteurs, c’est-à-dire du pas d’échantillonnage, mais il ne dépend pas de leur nombre total. « L’acuité » de l’analyse est d’autant meilleure que les capteurs sont plus rapprochés, et que le pas est plus petit. Dans le cas de l’échantillonnage temporel, la finesse de l’analyse dépend de la cadence de l’échantillonnage.

L’échantillonnage des système ciliés interne et externe Du fait de la répartition spatiale dissemblable des capteurs sensoriels, les uns en ligne, les autres en mosaïque, le mode d’échantillonnage au niveau du système cilié externe diffère de celui du système cilié interne. Certes, des arguments ont déjà été invoqués à l’appui d’une dualité fonctionnelle de ces deux systèmes : à partir par exemple de nombreuses données anatomiques et histologiques, telles que l’orientation convergente des CCI et CCE autour du tunnel de Corti, la systématisation opposée du système nerveux afférent interne et externe3, ou encore des constats anatomo-pathologiques comme la disparition sélective des CCI de la souris mutante4 (tableau 8.I). • Les cellules ciliées sont des capteurs de déplacement disposés en mosaïque pour les rangées externes, en ligne pour la rangée interne. Elles effectuent un échantillonnage de la forme acoustique membranaire. • Les cellules ciliées externes transmettent l’information de niveau. • Les cellules ciliées internes transmettent l’information fréquentielle.

Tableau 8.I.

Mais ce concept d’une dualité fonctionnelle se trouve confirmé par l’existence d’un mode de transduction acoustico-neural différent entre les deux systèmes ciliés. Il consiste, pour le premier, en une analyse linéaire de la déformation membranaire par utilisation d’un peigne d’échantillonnage. Pour le second, il s’agit d’une analyse spatiale par utilisation 112

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

d’une grille d’analyse. Le pattern cochléaire externe est comparable à celui que l’on observe en typographie : les carreaux de mosaïque, les motifs d’une broderie, les enseignes lumineuses des frontons de théâtre tracent depuis longtemps des caractères parfaitement reconnaissables à partir d’éléments discrets.

L’échantillonnage du système cilié externe Il est particulièrement bien approprié à la discrimination du niveau acoustique. En raison d’une part de l’interconnexion des CCE entre elles par les dendrites des fibres nerveuses, ce qui élargit obligatoirement le pas d’échantillonnage, et en raison d’autre part du nombre restreint de fibres nerveuses auditives afférentes (1 500 environ, alors qu’il en faudrait théoriquement de 30 à 40 000 pour transmettre les fréquences les plus élevées de l’information), l’échantillonnage externe est en conséquence inadapté à la discrimination des fréquences les plus élevées et du médium. Inversement, l’interconnexion de plusieurs CCE avec chaque fibre nerveuse afférente est parfaitement compatible avec un mécanisme de sommation spatiale, le recrutement d’un nombre de cellules (et de rangées) étant d’autant plus grand que le niveau sonore est plus élevé. (fig. 8.4, 8.5). Ce système apparaît bien adapté à la transmission de l’information du niveau sonore par échantillonnage de la forme acoustique membranaire5 (tableau 8.II). Par ailleurs, la systématisation nerveuse efférente peut être compatible avec un mécanisme régulateur rétroactif (feed-back). L’interconnexion des CCE entre elles par l’intermédiaire des nombreux dendrites des fibres nerveuses auditives externes réalise un véritable réseau. • La cochlée transforme un signal continu (analogique) en signaux discontinus (spikes) (numérique) • La cochlée est un convertisseur analogique-digital • Les cellules de Corti sont des capteurs de mouvement • Ces capteurs échantillonnent les formes membranaires, (Gestalt-théorie) • La densité des capteurs conditionne la finesse de l’analyse • La raréfaction des capteurs ne permet pas d’échantillonner correctement un signal sinusoïdal

Tableau 8.II. 113

L’ OREILLE

NUMÉRIQUE

Fig. 8.4. Systématisation de la fibre auditive afférente externe. – la distribution en spirale des fibres afférentes externes ne permet pas un échantillonnage très fin des CCE. – les connexions dendritiques d’une même fibre au niveau des trois rangées de CCE évoque un mécanisme de recrutement dans l’activation des fibres6.

Les CCE sont disposées en une grille et la connexion des dendrites des cellules nerveuses attenantes forme un réseau extrêmement dense. L’échantillonnage effectue une sommation des réponses de une à trois cellules par rangée. Comme chaque fibre nerveuse afférente externe est en connexion avec chacune des trois rangées de CCE, et statistiquement, à environ trois cellules dans chacune d’elle, elle est théoriquement capable de transmettre une information de 9 degrés de niveau (Fl, Fm, Ff, Ml, Mm, Mf, etc.) (l = léger, m = moyen, f = fort).

Échantillonnage du système cilié interne La séparation fonctionnelle de chaque CCI et la présence d’un nombre suffisamment élevé de fibres afférentes (environ 28 000) autorise l’application du théorème de Shannon. À l’inverse du système cilié externe, un échantillonnage du système cilié interne à la fois spatial et temporel rend possible une discrimination fréquentielle. 114

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

Fig. 8.5. Échantillonnage du niveau sonore.

Échantillonnage spatial Pour une réponse vibratoire membranaire de type sinusoïdal, l’échantillonnage est déterminé par l’espace séparant deux groupes de CCI stimulées simultanément (une longueur d’onde, donc deux pas). Plus cet intervalle est petit, plus la fréquence échantillonnée est élevée. À la limite fréquentielle maximum, seule une cellule sur deux est stimulée. Inversement, à la limite fréquentielle inférieure, il n’existe plus que deux groupes de cellules ciliées qui sont stimulés alternativement (Fig. 8.6, 8.7 ; tableau 8.III). 115

L’ OREILLE

NUMÉRIQUE

Fig. 8.6. Échantillonnage spatial du système cilié interne.

Fig. 8.7. Échantillonnage spatial de la hauteur. L’information de la hauteur est dévolue à l’échantillonnage du système cilié interne. Elle est complétée en outre par un échantillonnage temporel réalisé par multiplexage des fibres afférentes. 116

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

CELLULES CILIÉES INTERNES : ÉCHANTILLONNAGE SPATIAL

1. L’alignement des capteurs (cellules ciliées internes) permet un échantillonnage fréquentiel spatial. 2. La fréquence échantillonnée la plus basse dépend des dimensions de la membrane basilaire (la plus grande longueur d’onde). 3. En application du théorème de Shannon, la fréquence d’échantillonnage la plus grande est liée au plus petit pas d’échantillonnage. Elle nécessite la mise en jeu d’au moins 2 capteurs pour chaque longueur d’onde. 4. Il n’est pas nécessaire dans un échantillonnage spatial de disposer d’un nombre de capteurs égal ou supérieur au double de la fréquence à échantillonner.

Tableau. 8.III.

Analyse temporelle En raison de sa période réfractaire, chaque fibre nerveuse ne peut théoriquement transmettre plus de 1 000 impulsions par seconde (moins dans la réalité). Au-dessus de 1 000 Hz, la transmission de l’information n’est possible que par l’intervention d’un mécanisme complémentaire, celui d’un multiplexage. C’est ce même mécanisme d’activation alternée, de rotation, des fibres afférentes connectées avec chaque capteur qui a déjà été proposé par Wever en 1930 (Fig. 8.8 a et b ; tableaux 8.IV et 8.V)7. Le système cilié interne comporte 3 000 à 4 000 capteurs en ligne, auxquels sont connectés environ 35 000 fibres nerveuses auditives afférentes. Le pas d’échantillonnage intercellulaire effectue une analyse 117

L’ OREILLE

NUMÉRIQUE

spatiale de la fréquence et la période réfractaire de chaque fibre détermine le pas temporel (1 ms). À la limite fréquentielle supérieure du champ auditif (16 000 à 20 000 Hz), chaque CCI est dépolarisée 16 à 20 fois en 1 ms. En raison de la période réfractaire de toute fibre nerveuse, l’information temporelle ne peut être transmise que par activation alternée d’un groupe

Fig. 8.8a. Le codage spatio-temporel du système cilié interne est le support de l’information de fréquence.

Fig. 8.8b. Réponse temporelle par multiplexage en regard d’une cellule ciliée interne (CCI). 118

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

minimum de 16 à 20 fibres en regard de chaque cellule. Mais il ne s’agit que de l’information concernant chaque demi-cycle d’une vibration (16 à 20 impulsions). Il en est de même pour l’autre demi-cycle. Le codage de l’information d’un cycle complet nécessite donc l’intervention d’une série de 32 à 40 impulsions. Cette condition répond bien aux exigences du théorème de Shannon par lequel l’échantillonnage doit avoir une fréquence double de la fréquence échantillonnée. Au total, la disposition spatiale des capteurs sensoriels de la cochlée rend possible une analyse par échantillonnage des formes imprimées sur la membrane basilaire par le signal acoustique. De plus comme le mode de connexion assuré par les fibres nerveuses auditives entre ces capteurs de mouvement diffère d’un système cilié à l’autre, l’échantillonnage de ces formes conduit à leur attribuer une fonction différente, le niveau pour l’un, la fréquence pour l’autre. Au final, ces formes sont traduites par des séquences d’influx nerveux, de bits, dont le codage à la fois temporel et spatial des influx nerveux réalise une véritable numérisation du signal acoustique.

Le système cilié interne comporte 3 000 à 4 000 capteurs disposés en une seule rangée. Chaque capteur entre en connexion avec 16 à 20 fibres nerveuses afférentes. Le pas d’échantillonnage des capteurs conditionne l’analyse spatiale de la fréquence. La période réfractaire de la fibre nerveuse conditionne l’échantillonnage temporel (1 ms). Le couplage des CCI et des neurones détermine une analyse spatio-temporelle de la fréquence.

Tableau 8.IV.

119

L’ OREILLE

NUMÉRIQUE

CELLULES CILIÉES INTERNES ET NEURONES AFFÉRENTS ÉCHANTILLONNAGE TEMPOREL 1. Le pas d’échantillonnage au niveau de la rangée de cellules ciliées internes (intervalles entre l’axe de 2 cellules contiguës) permet d’échantillonner une vibration sinusoïdale jusqu’à 16 000 Hz en moyenne. 2. La vitesse de repolarisation de la cellule ciliée interne est très grande puisque le potentiel de récepteur suit toutes les fréquences du champ auditif (Davis). Il n’y a donc pas de filtrage fréquentiel au niveau des cellules ciliées internes. 3. Les neurones afférents, groupés par paquets en regard de chaque cellule ciliée interne, sont du fait de leur période réfractaire, assimilables à des capteurs temporels. 4. Le pas temporel de chaque capteur (neurone) est approximativement de 1 ms. 5. Au repos, le stade d’activité cellulaire des neurones a une distribution aléatoire. Les influx spontanés parcourant ces neurones ont eux-mêmes une distribution temporelle aléatoire. 6. L’excitation rythmée d’un groupe de fibres entraîne une activation par roulement de ces fibres, du fait de leurs différents stades de polarisation : c’est le processus de multiplexage. 7. À la limite fréquentielle supérieure, le nombre de fibres mises en jeu dans un cycle (2 cellules ciliées internes, et environ 30 fibres) est nécessaire et suffisant pour assurer, compte tenu du pas temporel de chaque fibre, ce multiplexage. 8. Il n’est pas nécessaire que le nombre de fibres soit identique en regard de chaque CCI mais qu’en une zone quelconque de la cochlée ce nombre reste suffisant pour permettre l’échantillonnage temporel (échantillonnage irrégulier).

Tableau 8.V.

Avantages et limites de l’analyse cochléaire par échantillonnage L’oreille interne effectue un codage en vue de la transmission d’un signal et d’une information. Elle réalise une image de l’image (pattern nerveux à partir d’un pattern membranaire). S’il s’agissait d’une transmission analogique comme le ferait un microphone, on observerait une dégradation de l’image, le fonctionnement même du transducteur introduisant des bruits qui entraînent des pertes d’information. La transmission d’un signal d’un milieu à un autre, et sa transformation d’un code à un autre, s’accompagne toujours d’une diminution d’énergie et d’une perte d’information. Elle obéit à la loi générale de l’entropie. La dégradation de l’information étant irréversible, le 120

8 • Un nouveau concept : l’oreille numérique ou la théorie de l’échantillonnage cochléaire

rapport entre l’information d’entrée et l’information de sortie ne pourrait qu’être égal ou inférieur à 1. À la différence de l’information analogique, l’information numérique, très peu sensible au bruit, n’est pas dégradée au cours de sa transmission : la seule tâche du dispositif de réception numérique qui décode et restitue l’information transmise est de distinguer 2 états du signal (1 et 0). L’analyse par échantillonnage des patterns cochléaires et la transmission neurale sous forme binaire constituent en définitive un mode particulièrement économique et fidèle (peu de distorsions) du signal acoustique. Quant aux limites de cette analyse avec conversion, elles dépendent de deux facteurs : – d’une part de la densité surfacique ou linéaire des capteurs sensoriels, – d’autre part des dimensions de la cochlée, de sa longueur (limite fréquentielle inférieure).

121

This page intentionally left blank

Chapitre 9

Numérisation du signal acoustique et transmission de l’information

La théorie de l’échantillonnage cochléaire repose sur une analyse des mouvements de la membrane basilaire, sans qu’il soit nécessaire d’imaginer une quelconque représentation du spectre de fréquence du signal à sa surface.

Analyse et reconnaissance des formes acoustiques et traitement de l’information L’oreille n’est absolument pas adaptée à la mesure directe de ces formes acoustiques, de leurs paramètres dimensionnels, mais elle est particulièrement bien adaptée à leur acquisition. Sa fonction essentielle est de les coder, de les transmettre aux centres auditifs, afin qu’elles soient enregistrées, stockées et traitées. « Le traitement consiste en des opérations de comparaison de formes différentes (corrélation), ou des opérations de comparaison d’une forme avec elle-même par décalage temporel (autocorrélation). Si l’oreille n’est pas capable de mesurer directement les dimensions d’un signal acoustique, elle possède par contre la faculté d’évaluer avec précision des rapports d’intensité, de fréquence, de temps »2. La perception d’un son repose sur deux processus successifs : sa détection puis sa reconnaissance. Ces deux fonctions sont aussi essentielles l’une que l’autre. 123

L’ OREILLE

NUMÉRIQUE

Nous avons vu que, après avoir été détectées par échantillonnage (le terme est préférable à celui d’analyse qui sous-entend une décomposition spectrale), les formes acoustiques sont codées en un nouveau signal, composé d’impulsions électriques et acheminées via les fibres nerveuses vers le ou les centres de traitement cérébraux. Les impulsions électriques composantes de ce signal ont pour caractéristiques leur répartition temporelle sur chacune des fibres et leur répartition spatiale sur l’ensemble du faisceau des fibres nerveuses. L’oreille interne exerce donc une double fonction : celle de relais d’interface mécano-électrique (les vibrations mécaniques sont transformées en énergie électrique : c’est un convertisseur mécano-électrique) et une fonction de codage de l’information lors du passage d’un signal de type analogique (acoustique) en un signal discontinu. Le second temps de la perception est celui de la reconnaissance des formes sonores par le centre de traitement cérébral, par comparaison avec les formes antérieurement mémorisées, selon un mécanisme d’autocorrélation. Si, comme on a pu le proposer, on assimile le cerveau à un centre de traitement et de mise en mémoire des données, la reconnaissance des formes, qu’elles soient visuelles, sonores, ou autres, se ramène au traitement général de l’information. La reconnaissance des formes acoustiques procède d’un même mécanisme que celle des formes visuelles2. Ainsi, la reconnaissance visuelle des formes est un acte complexe qui combine voir (détection) et regarder (comparaison). L’analyse se fait automatiquement à partir d’un catalogue (une mémorisation) de formes préalablement acquises dont la richesse va conditionner la rapidité d’exploration. La perturbation du catalogue est à la base des illusions d’optique. De même, la reconnaissance d’une forme sonore, d’une image membranaire acoustique, relève d’un double mécanisme : d’une part sa détection par les éléments neurosensoriels avec codage en une image numérique (un pattern) transmise par les voies auditives afférentes jusqu’aux centres supérieurs en un langage binaire, où elle est mémorisée, et d’autre part son traitement du point de vue informatif par des procédés de corrélation et autocorrélation (Pimonow)1, c’est-à-dire comparée à toutes les formes déjà mémorisées. On ne reconnaît bien que ce que l’on connaît déjà (Leipp)2. La perception d’une forme n’est rien d’autre que la conscience de sa prévisibilité (Moles)4.

124

9 • Numérisation du signal acoustique et transmission de l’information

L’importance de la détection et de la reconnaissance des formes acoustiques Les théories de la localisation tonale cochléaire (tonotopie) ne peuvent rendre compte d’une analyse fine des formes cochléaires car elles se heurtent inévitablement au dilemme opposant la sélectivité fréquentielle à l’amortissement de la membrane basilaire. Inversement, si on attribue à la cochlée la fonction d’un transducteur analogique-numérique chargé de coder les formes membranaires en impulsions nerveuses, sans lui conférer une fonction d’analyse fréquentielle préalable, l’incompatibilité précédente ne se pose même pas. C’est l’atout majeur de la théorie de l’échantillonnage cochléaire.

L’inutilité d’une analyse fréquentielle cochléaire L’oreille interne est un appareil à reconnaître des formes acoustiques matérialisées par des formes membranaires. Pour cela, il n’est absolument pas nécessaire qu’elles soient traduites par une configuration organisée de la cochlée, avec par exemple des composantes de basse fréquence dans un secteur déterminé et des composantes de fréquence élevée dans un autre. L’oreille n’a pas besoin de procéder à une décomposition préalable de l’onde spatiale en ses composantes. Les conformations anatomiques de la cochlée ne sont d’ailleurs pas exactement identiques d’un individu à l’autre. On conçoit dès lors que ces variations anatomiques sont nécessairement à l’origine de patterns différents en réponse à un signal acoustique identique. Ces disparités sont sans conséquence dans la communication humaine. Ce qui importe, c’est qu’un signal acoustique extérieur donné imprime sur la cochlée une configuration, un pattern, contenant autant d’information que le son lui-même. Cette configuration peut d’ailleurs être complètement « codée » et n’avoir aucune ressemblance avec la « forme » réelle du son. L’essentiel, « c’est que, pour chaque individu, un même signal acoustique produise chaque fois une configuration unique, une même forme, une même image, un même état, un même pattern, qui sera à la base du processus de corrélation »2.

La saisie d’un pattern membranaire cochléaire donné peut grandement différer en fonction du capital neurosensoriel d’un sujet à un autre Le traitement numérique, la saisie par échantillonnage du pattern cochléaire, peut varier considérablement d’un sujet à l’autre en fonction de son capital neurosensoriel. 125

L’ OREILLE

NUMÉRIQUE

La comparaison avec les techniques utilisées en typographie numérique est très instructive : elle montre que la résolution numérique a une grande importance. Une image est un série de lignes, elles-mêmes formées de segments alignés de telles sorte qu’ils forment des colonnes comme une grille de mots croisés. Plus il y a de lignes et de colonnes, plus les carrés (les pixels) sont petits, plus le grain de l’image est fin5. Mais cette image peut être polluée par un mécanisme connu sous le terme de repliement. Ce phénomène de repliement ou aliasing, est la principale source de bruit ou de distorsion dont l’importance augmente avec la grossièreté de l’échantillonnage d’une lettre. Lorsque la résolution est élevée (finesse d’échantillonnage), le phénomène de repliement ne se manifeste que par une imprécision des contours ; pour une résolution moyenne, les contours deviennent déchiquetés et, pour une faible résolution, les contours d’un caractère deviennent polygonaux. Enfin, pour une résolution encore plus faible, les différences entre les éléments droits, incurvés et diagonaux disparaissent et les caractères deviennent illisibles. Quand on convertit une lettre en un réseau de pixels à partir des échantillons, cette distorsion apparaît clairement. On entrevoit la similitude des effets pouvant apparaître lors du processus naturel d’analyse (l’échantillonnage) des formes membranaires par les capteurs cochléaires : si la densité des CCE et des CCI diminue, la netteté de l’image va diminuer : le « bruit » augmente. Autre donnée instructive apportée par la comparaison avec les techniques de typographie : le nombre de pixels d’une lettre augmente proportionnellement au carré de la résolution linéaire du dispositif d’impression. Aussi, quand la résolution linéaire double, il faut quadrupler la quantité d’information c’est-à-dire quadrupler le nombre de bits transmis (et à traiter). Reportons-nous à l’oreille : on ne peut évidemment pas améliorer le traitement de l’image par une augmentation de la densité des capteurs. Le diamètre des cellules ciliées est donné une fois pour toutes. Inversement, si dans une oreille pathologique la densité de ces capteurs est diminuée, par exemple de moitié (les CCE forment un réseau de pixels), l’information ne diminue pas de moitié, mais d’un facteur racine de 2. Le déficit fonctionnel d’une surdité croît donc avec le carré du déficit organique. Notion jusqu’alors complètement ignorée. Au total, le pattern transmis par les fibres auditives est d’autant plus informatif que l’échantillonnage spatio-temporel des formes cochléaires est plus fin. Mais l’image membranaire d’une forme acoustique n’est jamais stable. Elle est évolutive. Le temps est échantillonné, comme avec les 126

9 • Numérisation du signal acoustique et transmission de l’information

images d’un film. Chaque échantillon est une trame unique, une autre grille de mots croisés, et il suffit de les empiler et de les lire à un rythme suffisamment rapide pour produire un mouvement lisse. Ce que l’oreille réussit parfaitement. Par contre, les pixels ont tendance à utiliser beaucoup de mémoire pour leur stockage central (un écran type de 1 000 pixels sur 1000, en couleur, nécessite 24 millions de bits de mémoire).

Les distorsions du signal peuvent être atténuées au niveau central Les distorsions du signal acoustique par le système auditif de transmission sont responsables d’une perturbation des formes analogue au bruit. Cependant, cet effet est minoré par l’apprentissage lors de la reconnaissance des formes acoustiques membranaires (dès l’instant où le pattern d’un son donné est toujours le même). Le problème se complique par contre si les paramètres du système de transmission sont modifiés : c’est ce qui se produit lors du renouvellement de la prothèse auditive d’un sujet hypoacousique appareillé. Le changement nécessite le plus souvent une phase de « réadaptation », les formes sonores étant habituellement modifiées par des courbes différentes de réponse d’une prothèse à l’autre.

Autre conséquence : la réduction du choix dans un groupe de formes Une insuffisance d’échantillonnage modifie les relations de proportionnalité dans le dessin d’un caractère typographique et réduit la diversité des dessins réalisables. Il en résulte une perte d’information. De même, une insuffisance d’échantillonnage des formes cochléaires diminue le nombre de formes susceptibles d’être reconnues. Elle explique les confusions phonétiques de sons voisins de la parole, par exemple entre les transitoires (plosives).

Absence de dégradation de l’information après le codage des formes Le codage spatio-temporel des formes acoustiques apporte simultanément une information – spatiale, concernant les zones cellulaires activées (pattern neural), hauteur du stimulus, – temporelle par la fréquence des influx au niveau de chaque fibre nerveuse (niveau du stimulus). Comme en typographie lors de la numérisation des lettres, ce codage est bénéfique pour la transmission de l’information, car à la différence de 127

L’ OREILLE

NUMÉRIQUE

l’information analogique, elle est très peu sensible au bruit et n‘est pas dégradée au cours de sa transmission.

Des formes acoustiques et membranaires remarquables : les transitoires Chaque fois que le physiologiste aborde les mécanismes intimes d’un organe sensoriel, il a tendance à les calquer sur ceux de la machine. Les spécialistes de l’audition n’échappent pas à cette démarche de pensée. L’oreille est traitée comme s’il s’agissait d’une interface relevant d’un problème de conception industrielle. En effet, on lui attribue la propriété de décomposer les sons complexes à la manière d’un analyseur de fréquence, et mieux encore, on affecte à chaque composant une localisation spatiale comme sur le clavier d’un piano. Par des mécanismes acquis de pensée, tous les professionnels de l’audition, sans exception : otologistes, psychoacousticiens, techniciens du son, etc. restent fidèles à ce concept. Tout se passe comme si tous les sons qui nous entourent se réduisaient à un assemblage de sons purs. Mais on occulte une dimension essentielle, celle du temps. Nous vivons pourtant dans un environnement sonore formé de sons complexes rarement prolongés (entretenus), mais dans leur immense majorité plus ou moins brefs, transitoires. Tout le monde sait pourtant que les sons purs n’existent pas dans la nature et qu’ils ne sont que des outils de laboratoire. Ces transitoires ont pour caractéristique essentielle leur durée, inférieure par définition non seulement à la constante de temps proprement dite de l’oreille, mais aussi inférieure à la constante auditive de reconnaissance des sons encore appelée épaisseur du temps présent (cf. notes chap. 5, 1 et 2). L’oreille n’est pas physiquement en mesure d’effectuer une décomposition fréquentielle de ces signaux acoustiques, pourtant essentiels à la transmission de l’information. La parole, la musique, les sons, tous les bruits environnants, etc. sont en permanence évolutifs. Leurs paramètres évoluent sans arrêt : leur niveau, leur fréquence, leur durée. Ainsi, vont-ils nous apparaître plus ou moins secs, plus ou moins doux, plus ou moins colorés,… Tous ces signaux sont porteur d’une certaine quantité d’énergie qui, en se dissipant dans le récepteur cochléaire, provoquent l’apparition d’une onde propagée et amortie sur la membrane basilaire de la cochlée (et non pas la survenue d’une onde entretenue comme il en résulterait pour un son pur). Les oscillations sont plus ou moins amples, et surtout 128

9 • Numérisation du signal acoustique et transmission de l’information

se propagent plus ou moins loin sur la membrane basilaire. Ainsi, deux sons de niveau identique vont-ils engendrer sur cette membrane une série d’oscillations amorties qui vont s’étendre plus ou moins loin en fonction de la pente d’installation du signal transitoire, donc de sa durée. De même et inversement pour la pente de disparition du signal. Cela revient à dire que la cochlée est analyseur de temps, notion chère à J.-Cl. Lafon6 (on peut parler de densité d’énergie). L’impact des transitoires sur les éléments cochléaires est très important. Le niveau d’énergie de ces transitoires est évidemment très variable : de faible à fort, voire extrêmement élevé comme lors d’une explosion. Si le système auditif est habituellement et fort heureusement pourvu de mécanismes réflexes qui lui permettent de se protéger contre des signaux intenses et prolongés, il n’en va pas de même pour des signaux intenses et brefs de durée inférieure à la constante de temps de l’oreille. Dans de telles circonstances, les mécanismes réflexes permettant de dissiper partiellement l’énergie incidente (par une augmentation d’impédance du système de transmission des sons) n’ont pas le temps d’entrer en action. La boucle de rétroaction du réflexe stapédien est inefficace7. On conçoit dès lors que, privée de ce mécanisme réflexe protecteur, l’oreille interne reçoit la quasi-totalité de l’énergie acoustique d’entrée, et que du fait de l’amplitude anormale des oscillations membranaires, les limites d’élasticité normale des structures mobiles peuvent être dépassées. Il en résulte alors des lésions mécaniques, pour la plupart d’entre elles irréversibles : déchirures membranaires, arrachement de cils des cellules sensorielles, etc. C’est bien le problème posé par le scotome auditif secondaire à un blast. On ne voit pas comment un signal très bref, de spectre très étendu, donc théoriquement très largement représenté sur le « clavier » cochléaire, pourrait ne provoquer que des lésions prétendument localisées à 4 kHz ! Au total, la conception traditionnelle du fonctionnement cochléaire réduite à une décomposition des sons complexes en une série de sons purs, entretenus, est évidemment trop restrictive. La prise en compte des réponses cochléaires à des transitoires est primordiale et ne peut se concevoir que par une analyse spatio-temporelle des déformations membranaires, par un échantillonnage des formes acoustiques membranaires. Seul, ce concept d’un échantillonnage cochléaire (que nous défendons depuis trois décennies), assorti d’une numérisation du signal acoustique par l’oreille interne, permet de concilier à la fois l’analyse des sons entretenus et celle des transitoires. 129

L’ OREILLE

NUMÉRIQUE

L’importance des transitoires dans la transmission de l’information auditive8 L’information contenue dans les transitoires est considérable ; en effet, ce qui est important, c’est ce qui change dans le temps (Leipp)3. L’information, c’est ce qui bouge, pourrait-on dire de façon concise. Une onde sinusoïdale de longue durée peut certes transporter de l’énergie, mais seules les interruptions ou les modulations de cette onde, qui s’accompagnent de phénomènes transitoires, transportent une information. L’information est transmise par la variation, l’apparition ou la disparition du son. Les phénomènes transitoires constituent par essence de véritables signaux (ce qui ne veut pas dire que tout transitoire contribue à la transmission d’une information)1, 9 Ces données ne signifient pas que le régime périodique est inutile dans le domaine de la transmission des messages : la durée ou la fréquence de ce phénomène périodique qui suit ou précède le phénomène transitoire peut être le support d’une information : le phonème / ta / diffère de / to /. L’état de repos, ou le phénomène périodique peuvent eux-mêmes constituer une limite vers laquelle tend le phénomène transitoire mais où cesse pratiquement l’information3. Au total, l’information transmise par une vibration est portée par sa partie transitoire et aussi par la limite donnée par l’état permanent vers laquelle tend ce transitoire. Cependant les phénomènes transitoires peuvent se succéder sans passer par l’état de repos ou de phénomène périodique. Mais dans tous les cas, l’information est liée à la présence du transitoire. La disproportion existant entre le faible niveau énergétique des « transitoires » support de l’information et l’importance de leurs effets caractérise ce type de vibrations. Leur efficacité est limitée à l’énergie qui vient s’ajouter à l’énergie déjà emmagasinée dans le récepteur (analogie avec le déclenchement d’un relais électromagnétique). Les transitoires déclenchent une action qui se développe ensuite aux dépens de l’énergie déjà existante dans le récepteur (polarisation des systèmes sensitifs et sensoriels et des différents relais de l’ensemble du système nerveux et du système neuromusculaire). Il n’est pas nécessaire de souligner toute l’importance d’un échantillonnage correct de ces formes particulières que sont les phénomènes transitoires pour la transmission de l’information, que ce soit au travers de la parole, ou encore dans les séquences d’impulsions sur la fibre nerveuse, ou encore lors de la correction prothétique des surdités (Fig. 9.1). 130

9 • Numérisation du signal acoustique et transmission de l’information

Fig. 9.1. Spectre 2D de la phrase « le chat, la belette et le petit lapin ». Le spectrogramme 2D montre que les plosives b, p, t, ont un spectre de bruit très étalé qui dépasse de loin le champ auditif fréquentiel utile à la compréhension de la parole. Seule varie la largeur des traits c’est-à-dire la durée, donc l’énergie transmise par ces transitoires. S’il existait une tonotopie, on ne voit pas très bien quelles fréquences devraient être retenues par l’oreille.

131

This page intentionally left blank

Chapitre 10

Échantillonnage cochléaire et psycho-physiologie auditive

Le modèle de l’échantillonnage cochléaire permet d’aborder sous de nouveaux aspects de nombreux problèmes restés jusqu’alors en suspens, tant dans le vaste domaine de la psychoacoustique que dans celui de la physiologie auditive. Il rend possible, par exemple, de formuler un nouveau concept de la conduction osseuse, ou encore de concevoir de nouvelles fonctionnalités de l’oreille, telles que la troisième fenêtre cochléaire ou l’unité fonctionnelle cochléaire. À la réflexion, on s’aperçoit que, curieusement, la nature a encore une fois devancé nos techniques modernes d’information : n’est-il pas étrange que les mécanismes intimes de la saisie des formes sonores membranaires de la cochlée offrent une telle similitude avec la lecture de documents par le système des codes-barres ?

Mécanique cochléaire et conduction osseuse. Aspects expérimentaux et implications physiologiques Les données issues de l’expérimentation sur des modèles mécaniques cochléaires sont à la base de la théorie de l’échantillonnage cochléaire2. Elles apportent une solution au problème de la conduction des sons par voie osseuse, sur lequel les chercheurs butent depuis des décennies ; au 133

L’ OREILLE

NUMÉRIQUE

point que les ouvrages qui prétendent faire une synthèse de la physiologie de la cochlée occultent complètement le problème3. La transmission des sons de notre environnement procède de deux voies : l’une dite aérienne, c’est-à-dire par l’intermédiaire de la chaîne tympano-ossiculaire, l’autre directement par voie osseuse. Cette dernière est connue et exploitée de longue date : on rapporte que van Beethoven, qui présentait une surdité de transmission, serrait entre ses dents une règle de bois dont il appuyait l’autre extrémité sur la caisse de son piano. La perception des sons par voie osseuse est à la base des tests acoumétriques et audiométriques quotidiennement utilisés par les otologistes. Pourquoi percevons-nous des sons transmis par voie osseuse et de fréquences variées alors que les vibrations atteignent quasi simultanément toutes les parties de l’oreille interne, et sans intervention préalable d’un quelconque mécanisme qui serait à l’origine d’une localisation membranaire pour chacune d’elles ? Les interprétations, au demeurant peu nombreuses, sont demeurées assez obscures. On admet classiquement que la transmission des sons tant par voie aérienne que par voie osseuse est à l’origine de différences de pression entre les rampes tympanique et vestibulaire, elles-mêmes responsables de mouvements membranaires sous forme d’ondes propagées identiques dans l’un et l’autre cas. Trois facteurs interviendraient dans la transmission osseuse : l’inertie ossiculaire, la déformation de la capsule osseuse labyrinthique et une composante tympano-ossiculaire. Toute la difficulté rencontrée par les théories classiques de l’audition était de montrer comment, par deux voies de transmission fondamentalement différentes, l’oreille pouvait répondre mécaniquement de façon identique, c’est-à-dire par la production d’une onde propagée et par une localisation tonale cochléaire. Schématiquement, pour expliquer l’existence de la sélectivité fréquentielle par CO, on a fait appel à deux arguments : – d’une part aux propriétés physiques de la MB : la diminution de son gradient de rigidité provoquerait un déplacement du maximum d’amplitude selon la fréquence. Il se situerait près de la base pour les fréquences élevées et vers l’apex pour les fréquences les plus basses ; – d’autre part, aux idées anciennes de Müller qui attribuent une spécificité fréquentielle à chaque fibre du nerf auditif. Idée reprise au cours des dernières décennies par laquelle chaque fibre posséderait une fréquence dite caractéristique (FC). La réponse de chaque fibre serait « en accord » avec la fréquence du son stimulant (tuning curves des fibres isolées et leur CF). 134

10 • Échantillonnage cochléaire et psycho-physiologie auditive

Fig. 10.1. La tonalité d’un bruit blanc au seuil auditif. Lorsqu’on diminue le niveau sonore d’un bruit blanc, aussi bien par voie aérienne que par conduction osseuse, jusqu’à la limite d’audibilité, sa tonalité ne change pas, alors qu’elle devrait progressivement se rapprocher de celle d’une bande fréquentielle centrée autour de 1 000 – 2 000 Hz.

Ces interprétations soulèvent immédiatement une série d’objections irréductibles, entre autres celles-ci : – si l’inertie de la chaîne tympano-ossiculaire est à l’origine des mouvements liquidiens et membranaires, les sujets atteints d’otospongiose (blocage de l’étrier) ne devraient pas avoir de perception sonore par voie osseuse, ce que contredisent les observations cliniques ; – le concept d’une spécificité fréquentielle des neurones auditifs n’est absolument pas compatible avec les données de la neurophysiologie. Comme un neurone ne peut guère transmettre plus de 1 000 spikes par seconde, compte tenu de sa période réfractaire (environ 1 ms), on ne comprend pas comment une fibre nerveuse pourrait transmettre des sons de fréquence supérieure à 1 000 Hz, ni pourquoi le neurone auditif ferait exception aux lois de physiologie générale, – la tonalité d’un son pur transmis par CO ne change pas si on augmente son intensité, alors qu’elle devrait changer, en accord avec les théories classiques, et devenir celle d’une bande de bruit en raison de l’élargissement de la zone mécaniquement stimulée sur la membrane basilaire, – inversement, comme il en est pour une stimulation par voie aérienne, la tonalité d’un bruit blanc transmis par voie osseuse ne change pas quand son intensité décroît, alors qu’au voisinage du seuil d’audibilité, elle 135

L’ OREILLE

NUMÉRIQUE

devrait selon ces mêmes théories, prendre celle d’un bruit coloré centré autour de 1000-2000 Hz (voir la courbe de Wegel, Fig. 10.1). – enfin l’expérimentation sur modèles mécaniques cochléaires montre que, si le signal acoustique est transmis par l’intermédiaire du châssis du modèle (situation similaire à celle d’une CO), les modalités de la réponse membranaire sont identiques à celles observées lors d’une transmission par la fenêtre ovale (voie aérienne) : absence de localisation fréquentielle en réponse à un son pur, production d’une onde propagée en réponse à un signal transitoire. Le blocage d’une fenêtre entraîne la disparition des ondes membranaires, mais, fait essentiel, l’ouverture d’une nouvelle fenêtre, en un endroit quelconque du modèle, provoque une réapparition des ondes membranaires (en accord avec les constatations de von Békésy). Ces données expérimentales montrent que : – le mécanisme de la CO n’est pas possible sans la participation d’au moins deux fenêtres fonctionnelles cochléaires, – lors du blocage de l’une des fenêtres (comme dans l’otospongiose), on doit admettre l’existence d’une troisième fenêtre fonctionnelle cochléaire, nécessaire et suffisante pour assurer une réponse cochléaire par voie osseuse.

La troisième fenêtre cochléaire L’oreille ne peut pas mécaniquement fonctionner sans l’intervention simultanée d’au moins deux fenêtres « d’expansion » des liquides endocochléaires. L’expérimentation conduite sur des modèles mécaniques cochléaires montre en effet que les mouvements de la membrane basilaire ne sont observables que si les deux orifices représentant les fenêtres ovale et ronde sont fonctionnels. Inversement, le blocage de l’une des deux fenêtres provoque une disparition des ondes membranaires. Les oscillations réapparaissent en ouvrant une troisième fenêtre en n‘importe quel point du modèle. Ces résultats expérimentaux montrent bien que la transmission acoustique par voie osseuse n’est possible que s’il existe au moins deux fenêtres fonctionnelles, et cela quel que soit leur emplacement au niveau de la capsule osseuse. Si, d’autre part, le signal acoustique d’entrée, excitateur, n’est plus appliqué à l’une de ces deux fenêtres, mais directement sur le bâti du modèle mécanique, de la même façon qu’il le serait pour un test audiométrique en conduction osseuse, on n’observe là encore une réponse membranaire que si ces mêmes fenêtres sont restées fonctionnelles. On comprend mieux dès lors la physiopathologie des surdités de transmission. Dans ce type d’hypoacousie, par exemple en rapport avec un blocage ossiculaire (otospongiose, certaines malformations congénitales d’oreille, etc.), on note une élévation du seuil auditif aux sons purs par voie aérienne, alors que le seuil 136

10 • Échantillonnage cochléaire et psycho-physiologie auditive audiométrique par voie osseuse reste normal. En conséquence, la persistance d’une sensation sonore normale en conduction osseuse ne peut se concevoir sans l’intervention d’une troisième fenêtre cochléaire. Ce rôle peut être attribué à l’un quelconque des orifices de la capsule osseuse cochléaire : aqueduc cochléaire, canal endolymphatique, ou méat auditif interne (Fig. 10.2).

Au total, ce concept d’une troisième fenêtre cochléaire ne peut être séparé de celui concernant la CO. Bien qu’il ait été déjà entrevu, il n’avait jamais reçu à ce jour de confirmation expérimentale.

Fig. 10.2. Schématisation de la troisième fenêtre cochléaire. Lorsque la platine de l’étrier n’est plus mobile, chaque orifice de la capsule otique, à l’exception de la fenêtre ronde, peut être assimilé à une fenêtre fonctionnelle. Il en est ainsi du canal endolymphatique relié au sac endolymphatique (1), du foramen situé à l’extrémité du méat auditif interne (2), enfin de l’aqueduc cochléaire (3) (in Carrat R, Carrat X., Cochlear sampling theory and auditory pathophysiology. Présence Graphique. Tours. 1997).

L’unité fonctionnelle cochléaire La physiologie oculaire et la physiologie cochléaire présentent d’étroites similitudes. Il en est ainsi de l’angle séparateur minimum dans la vision de deux points (l’angle limite) et le pas minimum d’échantillonnage cochléaire. En ce qui concerne la vision, on ne peut distinguer deux points séparément au-dessous d’un angle minimum, appelé angle limite. Si l’angle de vision est plus faible (inférieur à 30’’), les plages lumineuses paraissent 137

L’ OREILLE

NUMÉRIQUE

homogènes et fusionnées. Helmholtz émit l’hypothèse que la vision séparée de deux points rapprochés n’était possible que si la stimulation lumineuse s’exerçait sur deux récepteurs rétiniens distincts séparés par un troisième récepteur non stimulé. En d’autres termes, l’unité fonctionnelle visuelle ne devait comporter pas moins de trois cellules sensorielles rétiniennes. Cette hypothèse fut confirmée par des données histologiques, psychophysiques et pratiques (reproduction graphique par numérisation). En effet, on trouve par le calcul, à partir de l’angle minimal de vision distincte, que le diamètre de l’élément rétinien est identique à celui donné par l’histologie (approximativement 2 μm au centre de la tache jaune (Strohl)1. D’autre part, les techniques modernes de reproduction graphique par numérisation (pixels) ont également apporté une confirmation de l’hypothèse d’Helmholtz en montrant que, pour obtenir une composition numérique de bonne qualité, il faut échantillonner les fréquences spatiales jusque au moins 120 périodes par degré, c’est-àdire que chaque période doit correspondre à au moins 30’’, c’est-à-dire à l’angle limite. Au-dessous de cette valeur, les motifs ne peuvent être distingués les uns des autres, ce qui signifie à nouveau que l’excitation de deux cellules visuelles contiguës est insuffisante pour obtenir deux impressions lumineuses distinctes : il faut disposer d’au moins trois capteurs contigus pour définir l’angle limite de la vision. En ce qui concerne l’audition, à la limite fréquentielle supérieure du champ auditif, le pas minimum d’échantillonnage spatial fait intervenir obligatoirement trois cellules ciliées internes contiguës lors de chaque demi-période, la cellule intermédiaire n’étant pas stimulée. Pour une fréquence plus élevée, l’échantillonnage spatial n’est plus possible (les dents du peigne fusionnent). L’hypothèse d’Helmholtz peut donc s’appliquer également à l’oreille interne. Nous pouvons formuler qu’une unité fonctionnelle auditive doit comporter au moins trois cellules sensorielles de Corti. Il convient toutefois de préciser que cet échantillonnage limite ne concerne que le système cilié interne (analyse fréquentielle) et qu’il n’est efficient que si le système neural associé à chaque capteur est susceptible de transmettre l’information (au moins une fibre en regard de chaque cellule lors de chaque cycle). Plus précisément, du fait de la période réfractaire des fibres nerveuses, cette condition sous-entend l’intervention d’un nombre suffisant de fibres pour que puisse s’exercer une rotation fonctionnelle par multiplexage (Fig. 10.3). 138

10 • Échantillonnage cochléaire et psycho-physiologie auditive

Fig. 10.3. L’unité anatomo-fonctionnelle cochléaire. À la fréquence maximum audible, le codage par échantillonnage spatial à partir de deux cellules ciliées internes contiguës est impossible (théorème de Shannon). Il le devient par contre à partir de trois cellules adjacentes, à la condition que la transmission nerveuse associée à chaque capteur soit efficiente. L’unité anatomo-fonctionnelle correspond au plus petit pas d’échantillonnage spatial.

Ainsi, l’unité anatomo-fonctionnelle cochléaire est obligatoirement une unité neurosensorielle qui comporte non seulement trois cellules sensorielles, mais simultanément trois fibres nerveuses fonctionnelles. On a prétendu définir l’unité fonctionnelle cochléaire en s’appuyant sur la répartition spatiale des cellules de Corti : en effet chaque CCI paraît en alignement (oblique) avec une CCE de chacune des 3 rangées. Une unité comporterait alors 139

L’ OREILLE

NUMÉRIQUE

3 CCE et une CCI. Cette conception simpliste est physiologiquement irrecevable. Elle comporte une double erreur : d’une part elle sous-entend qu’à chaque alignement correspond une fréquence en vertu de la localisation fréquentielle cochléaire (ce que dément la théorie de l’échantillonnage cochléaire), et d’autre part qu’en regard d’une CCI, les 3 CCE situées dans l’alignement ne seraient connectées qu’à une seule fibre nerveuse auditive, ce qui est en contradiction absolue avec la connectique neurale (les fibres forment un réseau étalé en spirale et chaque fibre est connectée à au moins 9 à 10 CCE).

L’oreille interne est un lecteur code-barres des formes acoustiques membranaires Les formes acoustiques membranaires sont infiniment variées, puisqu’elles reflètent l’infinie variété des sons complexes qui nous entourent. Elles sont à l’origine de dépolarisations des capteurs cellulaires ciliés dont le pattern se modifie sans arrêt. Ce changement permanent est à la base même de l’information4. La cochlée est en fin de compte assimilable à un système de lecture des configurations dessinées par les cellules activées lors des mouvements de la membrane basilaire. Son fonctionnement est comparable à celui d’un système de lecture code-barres couramment utilisé en informatique commerciale. Le problème posé est celui de la lecture d’images, de formes, et de sa traduction en un langage binaire. Un code-barres5 est formé par une suite de modules de largeur constante, qui peuvent être de couleur claire : 0, ou foncée : 1 (Fig. 10.4 A). La combinaison de ces modules de base forme des barres claires ou foncées de largeur variable qui symbolisent un message écrit en langage binaire composé de 0 et de 1. La zone du pourtour, claire, est appelée zone de silence. Le décodage de la configuration est réalisé par un système de lecture optique qui traduit les variations d’intensité d’un faisceau lumineux réfléchi en signaux électriques (par exemple, soit par balayage d’un faisceau laser, ou par une série de faisceaux de laser contigus) (Fig. 10.4 B)6. Le système cilié peut être assimilé à un appareil de lecture de codebarres, même si la disposition des éléments constitutifs de l’oreille interne est apparemment inverse de celle des systèmes habituels. La fonction est strictement identique. En effet, si dans l’appareil du commerce c’est le système de lecture qui se déplace alors que la forme reste fixe, dans l’oreille c’est l’appareil de lecture qui est fixe (le réseau de cellules ciliées) alors que le pattern est mobile7. Mais dans les deux cas, l’information est toujours traduite par l’ordonnancement des passages successifs d’un état 140

10 • Échantillonnage cochléaire et psycho-physiologie auditive

Fig. 10.4. L’oreille interne est assimilable à un lecteur code-barres des patterns membranaires.

à un autre : lumière ou absence de rayon lumineux, dépolarisation ou absence de dépolarisation… Dans le détail, comment fonctionne ce lecteur code-barres des formes membranaires ? On peut considérer que chaque cellule ciliée interne correspond à un module de ce système, et que chaque cellule peut basculer entre deux états, un état de repos (0), ou un état de 141

L’ OREILLE

NUMÉRIQUE

dépolarisation (1). La lecture de la configuration acoustique membranaire, des formes membranaires (patterns), est réalisée grâce au déplacement relatif des cellules ciliées par rapport à la membrane tectoria, déplacement qui correspond à celui du faisceau lumineux dans le décryptage traditionnel (c). Selon la position de la cellule ciliée par rapport à une onde membranaire, la flexion des cils s’effectue dans un sens ou dans un sens opposé, entraînant ou non sa dépolarisation (état 0 ou 1). Il en résulte un codage binaire des formes acoustiques membranaires, codage lui -même transmis également sous forme binaire par les fibres nerveuses auditives (d). Le balayage des formes membranaires du système cilié interne est indépendant de celui du système cilié externe (comme la systématisation neuroanatomique). La disposition des CCI en une seule rangée fait que le système cilié interne est nécessairement soumis à un balayage linéaire. Par contre, le système cilié externe est soumis à un balayage du type trame, bidimensionnel. Chaque élément de la mosaïque de ce système ne participe que partiellement au champ du balayage ; c’est la sommation des réponses de l’ensemble des mosaïques rattachées à un même neurone afférent qui rend le signal de sortie proportionnel à la surface couverte par la forme à identifier. Ce mécanisme est comparable à celui d’un panneau photovoltaïque constitué d’un grand nombre de cellules photosensibles et reliées en série. On conçoit que le système cilié externe est particulièrement bien adapté à l’information de niveau sonore. L’oreille possède donc deux systèmes code-barres : en 1D et en 2D. Alors que le système cilié interne effectue un codage de l’information par une lecture code-barres dénommé 1D, le système cilié externe est à l’origine d’un message sous forme d’un code 2D, une sorte de code-barres sans les barres ayant l’allure d’une mosaïque en noir et blanc ou d’un labyrinthe de petits pavés et qui contient beaucoup plus d’informations que le code à barres proprement dit8.

142

Chapitre 11

Échantillonnage cochléaire et psychoacoustique

La théorie de l’échantillonnage cochléaire apporte une réponse à un grand nombre d’énigmes ou de paradoxes de la psychoacoustique que ne pouvaient résoudre les théories de l’analyse fréquentielle cochléaire. Sans prétendre à une revue exhaustive, on peut citer en particulier : – les limites fréquentielles supérieures et inférieures du champ auditif, – le fondamental absent, – l’absence de couleur tonale d’un bruit blanc au voisinage du seuil, – la coloration tonale des clics, – la sensation tonale de clics répétés, – les échelons de niveau sonore, etc. Elle permet enfin de rapprocher entre elles nombre de données éparses relevant de divers domaines : mécanique cochléaire expérimentale, histologie, psychoacoustique, et surtout d’intégrer l’audition dans le domaine de la communication, via l’universelle numérisation des signaux.

Échantillonnage cochléaire et champ auditif fréquentiel. Généralités Sur l’échelle des vibrations matérielles captées par les sens, la fonction auditive humaine n’occupe qu’une place très restreinte. Nous ne percevons pas les infrasons, quand les pachydermes les ressentent, et 143

L’ OREILLE

NUMÉRIQUE

au-dessus de 15 000 à 20 000 Hz, nous sommes totalement sourds, alors que les chauves-souris les captent facilement jusqu’à 100 000 Hz ! D’où proviennent ces différences ? En quoi notre capteur cochléaire est-il déficient ? La mécanique cochléaire n’échappe pas aux données de la physique sur la propagation des vibrations matérielles, et on ne peut les ignorer lorsqu’on aborde la psychoacoustique. Quelles données retenir ? Tout d’abord, la membrane basilaire est le siège de vibrations transversales : elle vibre perpendiculairement à la direction de la propagation des oscillations. Une déformation imprimée à une extrémité de la membrane se propage le long de celle-ci, comme on peut observer sa propagation sur la corde d’un fouet. Chaque point matériel vibre sur place. L’étude des cordes vibrantes montre que la vitesse de propagation de cette déformation, ou célérité, définie par V = d/t, est une grandeur constante qui ne dépend pas de la forme ni de la grandeur de l’ébranlement initial, mais de la nature du milieu. La célérité croît avec la tension F de la corde. Elle diminue si la masse μ de la corde par unité de longueur est plus grande : V = √ F/μ, μ traduit l’inertie qui s’oppose au mouvement. Si au lieu d’un choc unique, la source continue de vibrer un certain temps, on observe un train d’ondes qui se propagent selon la même loi que précédemment. Dans le cas d’une source animée d’un mouvement vibratoire périodique, la distance parcourue par la vibration pendant une période T définit la longueur d’onde λ : λ=V.T Exprimée en fonction de la fréquence N de la source, λ = V/N La longueur d’onde dépend donc de la source et du milieu de propagation. Deux points M et M’du milieu, distants d’une longueur d’onde, ont, à chaque instant, même élongation et même vitesse V. Ils vibrent en phase. La longueur d’onde λ caractérise ainsi la périodicité du phénomène dans l’espace puisque, quand on se déplace d’une longueur d’onde, on retrouve au même instant un état vibratoire identique. La réponse vibratoire de la membrane diffère donc selon la forme du signal incident : – pour des sons transitoires, cette réponse consiste en oscillations pseudosinusoïdales qui s’amortissent plus ou moins rapidement selon les paramètres physiques du signal ; 144

11 • Échantillonnage cochléaire et psychoacoustique

– pour des signaux sinusoïdaux (sons purs entretenus), il s’agit d’oscillations d’allure sinusoïdale qui se propagent toujours jusqu’à l’apex du modèle (Fig. 11.1 b).

Fig. 11.1. Schéma simplifié des états de la membrane basilaire : – a : au repos – b : soumise à un signal entretenu – c : soumise à un signal transitoire 145

L’ OREILLE

NUMÉRIQUE

Ensuite, ajoutons que : – les vibrations engendrent des frottements mécaniques. L’énergie vibratoire s’affaiblit donc au fur et à mesure de la propagation : l’amplitude diminue. Il se produit un amortissement du mouvement vibratoire (cas des transitoires) ; – l’extrémité distale du système oscillant (membranaire) étant libre, si la vibration possède une énergie suffisante pour atteindre celle-ci, il y a réflexion sur un milieu déformable. Il n’y a pas de changement de signe des élongations et la célérité, au signe près, est conservée. Il se produit des ondes stationnaires avec à l’extrémité distale, un ventre de vibration (comme nous l’avons dit plus haut, on peut schématiquement comparer la MB à la corde d’un fouet dont l’extrémité distale conserve sa liberté de mouvement en regard de l’hélicotréma) ; – en première approximation, malgré la variation des dimensions de la membrane basilaire et des rampes tympanique et vestibulaire, la célérité est à peu près constante ; – l’oreille possède les particularités physiques d’un résonateur. Le canal cochléaire (rampe vestibulaire, hélicotréma, et rampe cochléaire) est assimilable à un tuyau sonore ouvert, replié sur lui-même, en deux parties. Son contenu liquidien est le siège d’ondes de pression qui vont entraîner des déformations de la cloison cochléaire et en particulier, de la membrane basilaire, cette membrane qui supporte une mosaïque de capteurs de mouvement. Au total, les caractéristiques physiques de la cochlée sont déterminantes quant à la forme de la réponse vibratoire et au champ de réponse fréquentiel. Dans ce système vibratoire de longueur finie, les oscillations ne peuvent apparaître qu’entre deux limites fréquentielles aisément prévisibles : – une limite fréquentielle inférieure dépendante de la longueur de la membrane basilaire (avec L = 1 + ½ cycle, ou L = λ + λ/2), – une limite fréquentielle supérieure qui dépend elle-même essentiellement de deux facteurs : d’une part des propriétés mécaniques de la membrane, et d’autre part du diamètre des capteurs sensoriels (CCI) lequel détermine le pas minimum d'échantillonnage. Au-dessous de cette valeur, l'analyse d'oscillations de longueurs d’onde plus courtes n'est plus possible (même si le ruban membranaire cochléaire est mécaniquement susceptible de vibrer sur une très large échelle fréquentielle).

146

11 • Échantillonnage cochléaire et psychoacoustique

La limite fréquentielle inférieure du champ auditif Elle est déterminée par la largeur maximum du pas d’échantillonnage spatial réalisé au niveau du ruban des CCI. L’expérimentation sur modèle mécanique cochléaire montre que, lorsqu’on diminue la fréquence du signal sinusoïdal d’entrée, les ondes membranaires sont de moins en moins nombreuses, et que, simultanément, chacune d’elles est de plus en plus étalée. À la limite, la réponse vibratoire membranaire est comparable à celle d’une vibration sonore produite dans un tube dit ouvert (1). Il n’existe plus qu’un seul nœud qui se situe à l’extrémité fermée du tube. En se rapportant à l’oreille, on conçoit qu’avec l’élargissement des longueur d’onde, les CCI de l’OI sont stimulées par groupes de plus en plus larges (Fig. 11.2). La théorie de l’échantillonnage montre que la limite fréquentielle inférieure est atteinte lorsque le pas de l’échantillonnage spatial est maximum : le pattern est alors composé de trois demilongueurs d’onde. En deçà, l’échantillonnage n’est plus possible. En définitive, – le pattern neurosensoriel reste identique quelle que soit la phase du signal, – mais d’un cycle à un autre, on note un glissement de ce pattern, – dans chaque cycle, il n’existe qu’une seule et unique bande de stimulation. Sans la présence d’un troisième demi-cycle de longueur d’onde, en accord avec la théorie, un échantillonnage spatial ne serait pas possible, – lorsque le premier demi-cycle correspond à une phase de réfaction avec dépolarisation cellulaire, les spikes du nerf apparaissent plus tôt que dans la phase de compression de ce même demi-cycle. (Ce mécanisme de réfaction est utilisé en électrophysiologie auditive depuis des années.) (2) À la limite fréquentielle la plus basse, la longueur d’onde obtenue par le calcul concorde avec les données de l’anatomie. En effet, en admettant que la vitesse d’une onde propagée sur la MB est d’environ 0,5 m/s (données de Pimonow, 1967) et que la fréquence audible la plus basse est de 20 Hz, on trouve par le calcul que la longueur d’onde correspondant à la limite fréquentielle inférieure d’audibilité est de : λ = V/N = 0,5 m/s/20 c/s, soit 23,3 mm. Or cette valeur correspond sensiblement aux 2/3 de la longueur de la MB (valeur moyenne de 35 mm), ce qui confirme que l’échantillonnage spatial est bien effectif à partir d’une longueur et demie d’onde (3). 147

L’ OREILLE

NUMÉRIQUE

Fig. 11.2. Fréquence limite inférieure du champ auditif. Lorsque la fréquence du signal acoustique (un son pur) décroît, les ondes réparties sur la MB sont de moins en moins nombreuses et de plus en plus étendues. Le pattern cellulaire dessine des bandes de plus en plus larges. À la limite inférieure de l’échelle fréquentielle, il y a seulement trois demi-cycles, ce qui permet à partir de la longueur totale de la MB de déterminer par le calcul la longueur d’onde correspondante.

On peut évidemment, par un raisonnement inverse, retrouver la fréquence limite inférieure d’audibilité : sachant que la membrane basilaire mesure environ 35 mm de longueur et que l’échantillonnage nécessite au minimum une longueur d’onde et demie : L ⫻ 2/3 = 23,3 mm N = V/λ = 0,5 m/0, 0233 m = 21 c/s 148

11 • Échantillonnage cochléaire et psychoacoustique

Commentaires (1) La réponse vibratoire membranaire est comparable à celle d’une vibration sonore produite dans un tube dit ouvert, c’est-à-dire ouvert à l’une de ses extrémités et fermé à l’autre. À l’extrémité fermée se trouve un nœud, et à l’extrémité ouverte un ventre. Dans cette situation limite, il n’existe plus qu’un seul nœud qui se situe à l’extrémité fermée du tube, et en ce qui concerne la cochlée, à la base de celle-ci. D’une façon imagée, les oscillations de la MB sont assez comparables à celles d’une corde ou d’un fouet. (2) Les groupes cellulaires dépolarisés ne sont pas les mêmes. Si le premier demi-cycle correspond à la phase de réfaction, la dépolarisation est plus précoce que dans le cas inverse. (3) Les données rapportées par L. Pimonow concernant la vitesse de l’onde propagée sur la membrane basilaire correspondent en fait à celles d’un transitoire. On peut cependant considérer que la longueur d’onde des oscillations est quasi identique en régime transitoire ou en régime entretenu.

La fréquence limite supérieure d’audibilité En application de la théorie de l’échantillonnage cochléaire, on voit que la fréquence supérieure limite du champ auditif dépend de deux paramètres : – d’une part, d’un échantillonnage spatial des cellules supportées par la MB et déterminé par le plus petit intervalle ou pas d’échantillonnage. Cet intervalle correspond à l’espace compris entre trois CCI consécutives, ou deux CCI travaillant en phase (1) ; – d’autre part d’un échantillonnage temporel déterminé par la période réfractaire des fibres nerveuses (1 ms). Les dépolarisations ne peuvent théoriquement dépasser 1 000 Hz pour chacune d’elles. Par un mécanisme de multiplexage, la dépolarisation par « rotation » des 16 à 18 fibres connectées à chaque capteur est suffisante pour transmettre une information de 16 à 18 kHz. Il s’ensuit que (Fig. 11.3 et 11.4) : – au cours d’un cycle vibratoire, deux cellules adjacentes sont stimulées alternativement (chacune des cellules étant associée à l’une des deux phases) ; – à la limite, deux cellules activées simultanément (en phase) ne sont plus séparées que par une cellule inactive en cours de repolarisation. Cette configuration du groupe cellulaire minimum peut être appelé unité anatomo-physiologique fréquentielle, ou unité cochléaire fonctionnelle ; – comme l’espace occupé par trois cellules consécutives correspond à la longueur d’onde minimale, on peut déterminer par le calcul la fréquence 149

L’ OREILLE

NUMÉRIQUE

Fig. 11.3. Limite supérieure des fréquences audibles. Cette fréquence limite supérieure d’audibilité est déterminée par le plus petit pas anatomo-fonctionnel de l’échantillonnage effectué dans l’OI, c’est-à-dire par l’espace occupé par trois cellules sensorielles contiguës : on notera qu’à chaque demi-longueur d’onde correspond une seule cellule, et que chaque longueur d’onde met en jeu deux cellules adjacentes. Cette fréquence limite supérieure dépend également de l’échantillonnage temporel inhérent à la période réfractaire des fibres nerveuses.

150

11 • Échantillonnage cochléaire et psychoacoustique

limite supérieure de l’oreille normale. Il suffit de connaître par ailleurs la vitesse déplacement d’une onde à la surface de la MB (2). Compte tenu que chaque cellule occupe un espace moyen de 9 μ et trois cellules 27 μ, et en admettant (Pimonow L.)1 que la vitesse de l'onde propagée est d'environ 0,5 m/s (3) Nsup = V/λ = 0,5/27 . 10– 6 # 18 500 Hz résultat en parfaite concordance avec les données de la psychoacoustique (4). Il faut noter de plus que le pattern de stimulation des CCI n’est pas modifié par un changement de phase, et que l’information de la hauteur reste exactement la même. Il y a seulement un glissement du pattern d’une demi-longueur d’onde. Cette donnée permet de comprendre pourquoi le changement de phase d’un son pur ne modifie pas la sensation de hauteur (on a signalé de longue date que l’oreille était insensible à la phase). La fréquence supérieure audible est aussi sous la dépendance de l’échantillonnage temporel, lequel dépend lui-même du nombre de fibres auditives en connexion avec chaque CCI. Il va sans dire que plus le nombre de fibres sera élevé, plus le multiplexage sera performant sur le plan fréquentiel. On comprend mieux pourquoi, avec un éventail de CCI approximativement le même chez l’homme et le chat, le doublement du nombre de fibres afférentes du chat (environ 60 000) est associé à un doublement de la fréquence audible maximale (environ 35 000 Hz).

Fig. 11.4. La limite fréquentielle supérieure du champ auditif est définie par le plus petit pas d’échantillonnage anatomo-fonctionnel de l’oreille interne, c’est-à-dire par l’intervalle occupé par trois capteurs sensoriels.

151

L’ OREILLE

NUMÉRIQUE

On est en présence d’un échantillonnage mixte, à la fois spatial et temporel : – échantillonnage spatial : la fréquence limite supérieure est déterminée par le plus petit pas d’échantillonnage, c’est-à-dire par l’espace séparant trois cellules ciliées internes (et non pas par deux cellules contiguës), – échantillonnage temporel : la fréquence limite supérieure est dépendante de la période réfractaire de la fibre nerveuse (1 ms) et ne peut donc dépasser théoriquement 1 000 Hz pour chacune d’entre elles. En ce qui concerne l’échantillonnage spatial, à la fréquence limite supérieure d’audibilité (environ 16 000 Hz), chaque cycle fait intervenir deux capteurs de mouvement. Mais comme ces capteurs ne sont sensibles que dans une seule direction, ils ne répondent pas simultanément mais alternativement en opposition de phase. Il en résulte que le pas d’échantillonnage (intervalle entre deux cellules simultanément excitées) ne correspond pas à l’intervalle séparant deux capteurs (deux dents du peigne), mais à l’intervalle séparant trois capteurs (trois dents du peigne). Du point de vue temporel, comme aucune des fibres ne peut répondre à une fréquence supérieure à 1 000 Hz, la stimulation par rotation d’un paquet de 15 à 16 fibres (mécanisme de multiplexage) est suffisante pour transmettre une information de 15 000 à 16 000 Hz en regard de chaque capteur.

Tableau 11.I. Fréquence limite supérieure et théorie de l’échantillonnage.

Commentaires (1) On sait que la dépolarisation de la cellule de Corti résulte de la flexion des stéréocils et que cette flexion n’est opérante que dans une seule direction. Cela signifie que, au cours du mouvement vertical et alternatif de la cellule, seule l’une des deux phases d’un cycle vibratoire (compression ou réfaction) est efficace. Si on considère maintenant plusieurs cycles vibratoires, on constate que seules les cellules qui se trouvent en phase sont excitées. Au fur et à mesure que la fréquence augmente (ou encore que la longueur d’onde diminue), l’intervalle séparant ces cellules décroît progressivement. À la limite, une cellule sur deux se trouve ainsi excitée. À cette longueur d’onde spatiale limite correspond la fréquence spatiale supérieure d’audibilité (Fig. 11.4). (2) On peut retenir qu’il s’agit de la vitesse de propagation d’une onde membranaire résultant d’un transitoire acoustique idéal de Dirac. (3) La vitesse de propagation de l’onde propagée membranaire (d’un transitoire) (0,5 m/s) ne doit pas être confondue avec la vitesse de l’onde de pression sonore dans les liquides labyrinthiques (1 487 m/s). (4) Autre mode de calcul de la fréquence limite supérieure d’audibilité : en admettant que la vitesse de propagation de l’onde propagée sur la membrane basilaire est de l’ordre de 0,5 m/s (Pimonow), et qu’une cellule ciliée occupe un espace moyen de 9 μ, la fréquence limite supérieure de l’oscillation sinusoïdale résultante serait de : 152

11 • Échantillonnage cochléaire et psychoacoustique λ = C . T = C/f, f = C/λ f = 0,5 m/9 μ = 55 555 Comme l’unité fonctionnelle cochléaire nécessite la mise en jeu d’au moins trois capteurs, la longueur d’onde ne pourra dépasser : f = 55 555/3 =//= 18 500

Le seuil auditif au bruit blanc : nouvelle approche Si on stimule l’oreille par un bruit blanc, on peut constater : – d’une part que la sensation de hauteur est constante (le pitch) quel que soit le niveau sonore, – d’autre part que l’oreille est extrêmement sensible à ce type de stimulus. Le seuil auditif peut être déterminé au dB près, alors que le niveau sonore des fluctuations s’écarte largement de cette valeur. Ces caractéristiques psychoacoustiques très particulières de la sensation sonore au bruit blanc sont d’interprétation difficile si on se réfère aux théories classiques de l’audition. Par contre, elles reçoivent une explication cohérente si on a recours à la théorie de l’échantillonnage cochléaire.

L’inadaptation des théories fréquentielles aux signaux aléatoires Qu’appelle-t-on bruit blanc ? Dans la littérature, le bruit blanc ou « white noise » des auteurs anglo-saxons, porte encore le nom de bruit désordonné, ou bruit aléatoire, ou bruit de fluctuation (l’agitation des électrons dans les résistances et dans les tubes électroniques servant à sa production habituelle)1. Par analogie avec la lumière blanche dont le spectre contient toutes les couleurs du visible, le bruit blanc est un son complexe dont le spectre s’étend sur un grand intervalle de fréquences : il contient non seulement toutes les fréquences audibles mais il déborde les limites du champ auditif sur les infrasons et les ultrasons. Mais il peut prendre une « coloration » particulière en fonction de la prédominance de telle ou telle bande de fréquences et revêtir ainsi, par exemple, une tonalité plus ou moins aiguë. De cette façon, le bruit rose se définit par son spectre qui décroît, de 3 Hz à 20 kHz, selon une pente de 3 dB/octave, la prédominance des sons graves correspondant à la prédominance de la partie gauche du spectre coloré, c’est-à-dire du rouge. Mais cette conception s’éloigne de la définition du bruit blanc idéal, dont toutes les fréquences ont une énergie moyenne égale d’une manière statistique. 153

L’ OREILLE

NUMÉRIQUE

La sensation auditive d’un bruit blanc est comparable à un bruit de jet de vapeur, à un chuintement. Elle n’a guère retenu l’attention des physiologistes de l’audition. Il faut reconnaître que les théories de la décomposition fréquentielle des sons complexes par la cochlée et le dogme de la cartographie tonale sur la membrane basilaire s’accordent en effet difficilement avec la nature physique des signaux aléatoires en général. Pour satisfaire aux conceptions classiques de la physiologie cochléaire, Il faudrait admettre que l’oreille effectue une décomposition permanente des sons complexes, et qu’elle est le siège non pas d’une mais de plusieurs ondes propagées simultanées, donc de plusieurs maximums, ou encore que le maximum d’amplitude de cette onde propagée se déplace de façon anarchique, aléatoire, à des vitesses extraordinairement élevées, ce que la constante de temps de l’oreille n’autorise pas. L’absence de modification du caractère tonal du bruit blanc au voisinage du seuil, alors que théoriquement sa tonalité devrait s’approcher de 1 à 2 kHz, montre bien que cette décomposition fréquentielle n’a pas le temps de s’effectuer. Le concept de la tonotopie est foncièrement irréaliste en regard de la nature physique des signaux aléatoires.

L’apport de la mécanique cochléaire expérimentale Un bruit blanc, bruit aléatoire par définition, est constitué d’une succession de transitoires qui varient au hasard, en amplitude, en fréquence, en durée. C’est un son complexe qui possède des caractères très particuliers : – une distribution au hasard de l’ensemble des fréquences du champ auditif ; ainsi on peut sauter de 50 à 2000 Hz, puis à 30 Hz, etc. à un instant donné. Mais pour un intervalle de temps suffisamment long, toutes les fréquences étant représentées, son spectre est continu ; – pour chaque fréquence, à un instant donné, l’énergie est elle aussi aléatoire (niveau d’énergie instantané aléatoire). Mais si on considère un intervalle de temps t suffisamment long, on s’aperçoit que, pour une même fréquence, la répartition énergétique est gaussienne et que la moyenne énergétique devient la même pour toutes les fréquences. D’où l’allure rectiligne du niveau du spectre. On ne dispose que de peu de données expérimentales sur la réponse de modèles mécaniques cochléaires à des signaux transitoires. Celles qui ont été apportées par Tonndorf (1962) peuvent être réfutées par les mêmes objections que celles formulées à l’encontre des expérimentations menées avec des sons purs. 154

11 • Échantillonnage cochléaire et psychoacoustique

Si on reprend l’expérimentation en respectant les différents paramètres précisés plus haut (anatomiques, viscosité, forme du signal acoustique), on observe que la réponse oscillatoire de la membrane du modèle à un signal aléatoire est caractérisée par des élongations erratiques, des mouvements désordonnés, répartis sur la totalité de sa surface. Alors qu’un transitoire isolé d’énergie définie donne naissance à une onde propagée d’amplitude dégressive et d’étalement donné, un signal aléatoire (bruit blanc) donne naissance à des mouvements désordonnés en tous les points de la membrane. Cette superposition des mouvements dont l’amplitude varie en chaque point d’un instant à l’autre, cette fluctuation anarchique, lui donne un aspect diffus de flou sous éclairage continu. Sous éclairage stroboscopique, on note un aspect d’ondes sinusoïdales entretenues dont l’amplitude et la longueur d’onde varient avec la cadence lumineuse, mais dont les bords sont beaucoup moins nets qu’avec des signaux sinusoïdaux. Au total, on peut considérer qu’un signal aléatoire, un bruit blanc, est composé de transitoires d’énergies aléatoires, et qu’il est à l’origine de vibrations aléatoires tant du point de vue énergétique que de leur distribution spatiale sur la membrane basilaire. Même filtré en bandes passe-haut ou passe-bas, il est impossible de retrouver une tonotopie, contrairement à ce que les théories de la localisation fréquentielle laissaient prévoir.

Bruit blanc et théorie de l’échantillonnage. En extrapolant, on peut considérer qu’un tel signal, quel que soit son niveau, entraîne une stimulation aléatoire du système neurosensoriel cochléaire, tant spatiale que temporelle. • Une stimulation aléatoire spatiale : le pattern membranaire désorganisé interdit tout échantillonnage régulier des déformations membranaires (le pas d’échantillonnage est aléatoire). La sollicitation mécanique chaotique des cellules ciliées est de même responsable d’une dépolarisation totalement aléatoire. Elle concerne les deux systèmes ciliés. – En ce qui concerne le système cilié externe, la distribution neurosensorielle est celle d’un réseau. En effet, chaque fibre nerveuse afférente externe est sous la dépendance d’un paquet de CCE. Comme le nombre de cellules dépolarisées dans chaque groupe est lui aussi aléatoire, cette systématisation conduit à une sommation, une intégration de l’ensemble des réponses sensorielles, et non pas à un échantillonnage. Si chaque CCE n’était reliée qu’à une seule fibre, il existerait nécessairement de grandes fluctuations du taux de décharge de la fibre, donc de grandes variations de sensation d’intensité. L’oreille est en définitive un intégrateur de niveau.2 155

L’ OREILLE

NUMÉRIQUE

– En ce qui concerne le système cilié interne, la largeur aléatoire du pas d’échantillonnage rend le pattern également aléatoire, ce qui exclut la reconnaissance d’une quelconque tonalité et sensation de hauteur. • Temporelle : la dépolarisation anarchique des fibres nerveuses auditives afférentes issues du système cilié interne ne permet pas l’émergence d’un pattern neural organisé, et rend impossible une quelconque reconnaissance centrale de la hauteur.

Aspects psychoacoustiques du bruit blanc et échantillonnage cochléaire Cet aspect aléatoire des oscillations membranaires et de leur échantillonnage, et la différence de fonction des deux systèmes ciliés (codage du niveau sonore pour l’un et codage de la hauteur pour l’autre), rendent aisément compte des caractéristiques psychoacoustiques du bruit blanc : – l’égale sensation de hauteur (le pitch) quel que soit le niveau sonore, – la persistance de cette même sensation de hauteur au voisinage du seuil, – l’extrême sensibilité de l’oreille, au dB près. 1. Lorsqu’on soumet l’oreille à un bruit blanc (ou à un bruit rose), la tonalité de ce son complexe ne change pas si on fait varier son niveau sonore. Il est facile de constater que la sensation de hauteur reste identique à elle-même lorsqu’on approche du seuil d’audibilité. Pourtant, le seuil d’audibilité à des sons purs n’est pas uniforme : il est plus bas au voisinage de 1-2 kHz et plus élevé aux deux extrémités du champ auditif où il nécessite plus de pression sonore. Comme le spectre d’un bruit blanc est continu et régulier en fonction de la fréquence, l’oreille devrait percevoir, s’il existait une analyse de Fourier, une variation de la hauteur lorsqu’on diminue son niveau. Bref, la tonalité au seuil devrait devenir celle d’une bande de fréquence centrée autour de 1 000 – 2 000 Hz (Fig. 11.5 bA). 2. L’absence de couleur tonale d’un bruit blanc au voisinage du seuil est un phénomène de psychoacoustique qui ne trouve pas d’explication si on s’appuie sur le concept de l’analyse fréquentielle cochléaire. La sensation tonale très particulière de « jet de vapeur » de ce bruit blanc devrait donc varier avec le niveau puisque, à faible intensité, seule une petite bande fréquence est directement concernée. On sait qu’il n’en est rien et que la sensation du bruit blanc persiste identique à elle-même jusqu’à sa disparition complète. Ces données d’apparence paradoxales ne peuvent s’expliquer que par une stimulation aléatoire du système neurosensoriel interne, quel que soit le niveau du signal, à la fois dans le domaine spatial et le domaine temporel. En effet, la largeur aléatoire du pas d’échantillonnage est 156

11 • Échantillonnage cochléaire et psychoacoustique

responsable d’un pattern neural également aléatoire du signal acoustique. Il en résulte une dépolarisation chaotique de l’éventail des fibres nerveuses auditives afférentes internes et une impossibilité d’une quelconque reconnaissance centrale de la hauteur. En d’autres termes, le pattern neural ne change pas avec le niveau sonore du bruit aléatoire. Ce phénomène remarquable de la psychoacoustique constitue l’une des objections majeures à la théorie de la localisation fréquentielle cochléaire. 3. L’oreille est extrêmement sensible aux variations de niveau d’un bruit blanc. Le seuil auditif est très précis et peut être déterminé à 1 dB près, bien que le tracé oscillographique du bruit blanc montre d’importantes variations d’amplitude autour d’un niveau moyen. C’est une des raisons pour lesquelles ce signal avait été retenu dans le dépistage des surdités infantiles. (Fig. 11.5 a). C’est un signal particulièrement réactogène. La conception de la mécanique cochléaire classique ne rend pas compte de cette efficacité sensorielle du bruit blanc relative à la sensation de niveau (sonie). Il faut s’orienter vers une approche plus réaliste et considérer que le système cilié externe est soumis à une stimulation aléatoire temporo-spatiale, qu’en aucune zone la membrane basilaire ne présente de pattern stable et que les décharges neurales sont aléatoires dans le temps. Comme chaque cellule est en connexion avec plusieurs cellules d’une même rangée, et avec celles des autres rangées, le rythme de décharge des fibres correspond à une sommation des dépolarisations dont la valeur oscille nécessairement autour d’une valeur moyenne pour chaque niveau acoustique. Avec l’augmentation de la pression acoustique, l’amplitude du déplacement de la MB et la densité des cellules stimulées s’accroissent, ainsi que la densité (moyenne) des spikes sur l’éventail neural. À cette densité moyenne constante correspond un niveau de sensation sonore, et pour qu’une variation de niveau puisse être intégrée au niveau central, l’augmentation de la pression acoustique doit être au minimum de 1 dB. C’est le seuil différentiel d’intensité du bruit blanc

1 000 Hz : la fréquence charnière La fréquence 1 000 Hz est une fréquence singulière. Si chaque CCI n’était connectée qu’à un seul neurone auditif, le codage de l’information ne pourrait pas dépasser 1 000 Hz, compte tenu de la période réfractaire de la fibre nerveuse. À partir de 1 000 Hz, en référence au théorème de Shannon et toujours du fait de cette période réfractaire, le codage impose

157

L’ OREILLE

NUMÉRIQUE

Fig. 11.5. Le seuil auditif au bruit blanc. a. La distribution d’amplitude d’un bruit blanc. b. Le seuil auditif au bruit blanc nécessite un niveau d’énergie minimum A : pour un sujet normo-entendant, B : pour un sujet malentendant. A. On peut définir un bruit aléatoire, tel qu’un bruit blanc, comme un son dont les amplitudes instantanées sont réparties en fonction du temps selon une courbe de distribution normale (gaussienne) Un tel signal acoustique aléatoire est à l’origine de vibrations aléatoires sur la membrane basilaire de la cochlée. B. Sur une représentation graphique du seuil auditif normal, on voit que la courbe affecte une forme curviligne, en cuvette, ce qui traduit une sensibilité de l’oreille différente de l’oreille selon la zone fréquentielle considérée : maximale autour de 1 000-2 000 Hz, elle devient de moins en moins bonne en s’éloignant de la zone centrale vers les sons les plus graves et les sons les plus aigus. Si par ailleurs on représente sur ce même graphique le spectre continu d’un bruit blanc, on voit que la droite horizontale correspondant au niveau de ce signal vient couper la courbe précédente en deux points qui vont se rapprocher au fur et à mesure que le niveau d’intensité décroît. À la limite, elle devient tangente au sommet de la courbe. La sensation tonale très particulière de « jet de vapeur » de ce bruit blanc devrait donc varier avec le niveau puisque, à faible intensité, seule une petite bande fréquence est directement concernée. On sait qu’il n’en est rien et que la sensation du bruit blanc persiste identique à elle-même jusqu’à sa disparition complète. S’il existait une localisation tonale cochléaire, comme le soutiennent les tenants de la tonotopie, la perception d’un bruit blanc au voisinage du seuil devrait prendre la coloration d’une bande sonore centrée autour de 1 000 – 2 000 Hz.

158

11 • Échantillonnage cochléaire et psychoacoustique

la participation d’au moins deux fibres, donc d’au moins deux cellules ciliées lors de chaque cycle. Au-delà de 1 000 Hz, le codage implique un nombre encore plus élevé de fibres nerveuses. Au-dessous de cette fréquence, le codage n’est pas limité par la fenêtre temporelle de la fibre nerveuse et le pattern membranaire est aisément détectable tout le long de la MB par chaque fibre coup par coup. Ce codage est spatial, de type sensitif (comme pour la peau). À partir de 1 000 Hz, la fibre nerveuse ne peut plus répondre au coup par coup à toutes les vibrations. Le codage n’est possible que par l’intervention d’un mécanisme de multiplexage dans des groupes de fibres. Le codage devient spatio-temporel, à la fois de type sensitif et sensoriel. 1 000 Hz est donc une fréquence pivot, à partir de laquelle bascule le type de codage. Au-dessous de 1 000 Hz, deux mécanismes de codage peuvent donc coexister, l’un par échantillonnage spatial sur la MB, l’autre par réponse au coup par coup sur une même fibre. La reconnaissance de l’un ou l’autre suppose donc chez le sujet normo-entendant un apprentissage spontané préalable. Au-dessus, seul subsiste le codage spatial. On entrevoit dès lors pourquoi, chez le sourd profond dont le reliquat auditif est limité aux fréquences les plus basses du champ auditif, le seuil auditif est d’obtention souvent si difficile puisqu’il ne peut pas définir précisément si la perception est celle d’un son avec tous ses attributs ou celle d’une sensation de type tactile sans véritable perception sonore. Seule la répétition des tests, par un véritable apprentissage, permet d’affiner les seuils. On s’explique mieux aussi (en dehors des difficultés liées à l’étroitesse de la bande passante et à l’exclusion d’éléments informatifs essentiels de la parole) le peu d’efficience de la prothèse auditive amplificatrice sans rééducation chez ces mêmes sourds profonds : réponse de type tactile ou sensorielle ?

La phase et le timbre d’un son complexe On démontre qu’un son complexe est déterminé par le nombre, la fréquence, l’amplitude et la phase des sons purs composant ce signal. Le tracé oscillographique, le pattern, de cette onde complexe change si on modifie l’un des paramètres de ses composants Il en est ainsi si on intervient sur les rapports de phase existant entre les composants du son complexe. 159

L’ OREILLE

NUMÉRIQUE

Logiquement, cette modification physique devrait retentir sur la qualité du son perçu. Or, il n’en est rien : dans la réalité, la phase n’intervient pas dans la perception de la hauteur. À titre d’exemple, le tracé de deux sons complexes résultant de la modulation d’amplitude d’un son pur de 1 000 Hz par un autre son pur de 200 Hz est différent si les deux stimuli sont en phase ou en opposition de phase (180°) (le deuxième son complexe est une version opposée du premier). Malgré la différence de leurs tracés, on ne note pas de différence de hauteur en écoutant l’un ou l’autre de ces sons. Aussi, bien que physiquement différents, on est en droit de conclure que la perception subjective identique de ces deux sons implique une identité d’analyse cochléaire. Si l’oreille effectuait une décomposition fréquentielle, on devrait percevoir une différence de hauteur. Par contre, le principe d’un échantillonnage des formes cochléaires permet d’interpréter cette perception auditive apparemment paradoxale : pour les deux signaux la configuration du codage est identique. On note seulement un glissement de la configuration des capteurs sollicités, ce qui ne modifie en rien l’information transmise par les voies neurales (Fig. 11.6).

Échantillonnage d’un son complexe périodique La théorie de l’échantillonnage cochléaire montre comment l’oreille peut décomposer un son complexe périodique sans qu’il soit nécessaire de procéder à une analyse spectrale comme le ferait un banc de filtres dans un analyseur physique. Elle montre que : – l’analyse est d’autant plus fine que le pas d’échantillonnage est plus étroit. Si les dents du peigne se rapprochent, de nouveaux harmoniques supérieurs peuvent être détectés. Et inversement. – la destruction d’un segment du peigne d’échantillonnage ne nuit pratiquement pas à la détection de l’ensemble des harmoniques (il faudrait qu’elle soit très étendue pour entraîner la disparition du fondamental). Le spectre de fréquences spatiales nécessaires à la représentation d’une forme est la « largeur de bande » de cette forme. Il faudrait une infinité de sinusoïdes spatiales pour représenter parfaitement une forme sonore infiniment brève. En effet, un échelon de Dirac a un spectre de fréquence théoriquement illimité. L’oreille se comportant comme un filtre passe-bande, la largeur de bande de cette forme sonore sera limitée, aucune des fréquences des composantes sinusoïdales ne pouvant être supérieure à une certaine limite. La superposition 160

11 • Échantillonnage cochléaire et psychoacoustique

Fig. 11.6. Le changement de phase du signal acoustique ne modifie pas le pattern sensoriel obtenu par échantillonnage au niveau du système cilié interne. L’oreille est insensible à la phase d’un son pur. Il y a translation du pattern, sans modification de sa forme, ni de changement dans sa reconnaissance par mémorisation.

d’un nombre fini de composantes sinusoïdales conduit donc à une diminution de netteté du son (tout comme, s’il s’agissait d’une forme visuelle, on obtiendrait par superposition une transition douce du noir au blanc, en passant par des dégradés de gris, au lieu d’un contraste tranché noir et blanc). 161

L’ OREILLE

NUMÉRIQUE

Cette réduction de la bande spectrale de la forme sonore est donc préjudiciable à la transmission de l’information dans les voies acoustiques. Elle présente cependant un avantage mathématique puisque, selon le théorème de Shannon, si on connaît la composante de fréquence la plus élevée de ce signal à bande limitée, et si on échantillonne celuici à une fréquence 2 fois supérieure à la fréquence la plus élevée, on peut reconstituer complètement la forme originale à partir de ces seuls échantillons.

L’énigme du fondamental absent Si on réalise un son complexe périodique par addition de sons purs de 700, 800, 900 et 1 000 Hz, la plupart des sujets perçoivent un son de 100 Hz (la fréquence fondamentale). Inversement, si on soustrait au moyen de filtres acoustiques la fréquence fondamentale de ce son complexe périodique, l’oreille continue de percevoir cette fréquence comme si elle était encore physiquement présente. Cet étrange phénomène de psychoacoustique pose le problème dit du « fondamental absent ». Les théories de la localisation tonale cochléaire ne peuvent expliquer ce qui est resté une énigme. On a suggéré qu’il pouvait s’agir d’un processus non linéaire entre les vibrations tympaniques et la stimulation des neurones du nerf auditif. D’autres études ont émis l’hypothèse que le cerveau pouvait effectuer une analyse de Fourier. La théorie de l’échantillonnage cochléaire est en mesure par contre d’apporter une explication plausible à ce phénomène en montrant que le pattern neurosensoriel ne change pas si on soustrait le fondamental du son complexe périodique, et que ce pattern est déterminé par l’harmonique le plus élevé. La reconnaissance sonore étant liée à la mémorisation des formes, les centres cérébraux ne peuvent évidemment pas différencier l’information transmise par les voies nerveuses puisque le résultat de l’échantillonnage est exactement le même (Fig. 11.7 a et b).

La couleur tonale des transitoires La sensation auditive d’un transitoire varie considérablement d’un signal à un autre. Théoriquement, comme la durée d’un transitoire est inférieure à celle de la constante de temps d’oreille (de 10 à 60 ms), ce type de signal acoustique ne devrait pas être affecté d’une tonalité. Pourtant, des tone-bursts (de durée pouvant varier de 5 à 20 ms) ont malgré 162

11 • Échantillonnage cochléaire et psychoacoustique

Fig. 11.7a. Pour une forme acoustique complexe donnée, les fréquences spatiales basses correspondent à la fréquence fondamentale du son. Les fréquences spatiales élevées correspondent aux harmoniques supérieures de ce son.

Fig. 11.7b. Le phénomène du fondamental absent. Le pattern neurosensoriel ne change pas si on soustrait la fréquence fondamentale d’un son complexe périodique. 163

L’ OREILLE

NUMÉRIQUE

tout une coloration tonale. Il en est de même pour des clics qui apparaissent plus ou moins « secs », mais encore « colorés ». Même des transitoires ne comportant qu’une seule oscillation sinusoïdale, et de niveaux identiques, engendrent encore une sensation tonale qui diffère de l’un à l’autre1. De tous les paramètres possibles, le contenu fréquentiel d’un transitoire n’intervient certainement pas à lui seul dans la perception psychoacoustique. L’enveloppe du signal, et plus particulièrement les temps d’installation et de disparition sont très importants. Un transitoire très bref sonne comme un claquement. Inversement, pour des temps de montée et de disparition soigneusement choisis, le transitoire d’attaque et de disparition peut ne plus être perçu (par exemple les MESP ou messages élémentaires de sons purs décrits par Korn T.S. et Bosquet J.3, 4, 5. Ces données expliquent pourquoi les musiciens accordent tant d’importance à l’attaque et l’extinction d’une note6. D’une manière générale, plus la pente de l’enveloppe du signal s’élève, plus le signal se rapproche d’un échelon de Dirac, et plus le spectre de fréquence s’élargit. La forme du signal importe autant, sinon plus, que son contenu. Les expériences sur modèles mécaniques cochléaires montrent qu’un transitoire génère une onde propagée pseudo-sinusoïdale. En fonction de son énergie et de sa pente d’installation, l’onde se propage plus ou moins loin et est le siège d’oscillations plus ou moins nombreuses et plus ou moins serrées. Comme le seraient des ondes sinusoïdales pures, ces ondes sont également soumises à un échantillonnage spatial, ce qui rend compte de la sensation paradoxale de hauteur des transitoires. En effet, plus le transitoire est bref, plus le pas d’échantillonnage est étroit, plus la coloration tonale sera aiguë (Fig. 11.8). La tonalité d’un transitoire acoustique peut être expliquée par l’échantillonnage de l’onde propagée pseudo-sinusoïdale sur la MB. Le pas de cet échantillonnage est sensiblement identique à celui d’une onde sinusoïdale. En acoustique physiologique, la forme du signal revêt évidemment une importance considérable et malheureusement souvent négligée : un objet sonore ne doit pas être considéré seulement dans sa partie où il se présente en régime permanent, mais encore dans ses phases d’apparition (attaque) et d’extinction où il affecte un régime transitoire.

On notera que l’échantillonnage n’intéresse pas la totalité de la cochlée mais qu’il est nécessairement limité à sa portion basale, voire moyenne. Ceci ne conforte pas pour autant les théories de la tonotopie, 164

11 • Échantillonnage cochléaire et psychoacoustique

Fig. 11.8. Pattern neurosensoriel des transitoires.

car plus le signal est bref, plus son spectre de fréquence s’élargit, et devrait dès lors intéresser une zone beaucoup plus étendue de la cochlée s’il existait une décomposition fréquentielle.

La sensation tonale de clics répétés La sensation auditive provoquée par la répétition de transitoires varie avec la cadence de ces derniers. Lorsqu’ils sont très espacés, l’oreille perçoit des claquements isolés, plus ou moins secs, selon leur durée et leur forme (attaque et extinction). 165

L’ OREILLE

NUMÉRIQUE

Avec l’augmentation de la cadence, l’oreille continue de percevoir des clics de plus en plus rapprochés, mais encore distincts les uns des autres. La sensation devient ensuite imprécise, et les impulsions composant ce stimulus acoustique ne peuvent plus être distingués séparément. La sensation devient progressivement celle d’un son de tonalité grave au départ, puis de plus en plus aiguë. À la sensation de claquements nettement espacés fait suite la sensation bien connue d’une crécelle ou de la roue dentée de Savart, puis approximativement celle d’un son pur. On attribue actuellement cette variation de sensation à la variation de périodicité du stimulus, sans bien en préciser le mécanisme. Cette interprétation n’explique évidemment pas pourquoi il apparaît une sensation tonale alors que les transitoires ont un spectre de fréquence très étendu. Par contre, si on retient les concepts de l’échantillonnage cochléaire, il suffit de considérer la réponse mécanique de la membrane basilaire en fonction de la cadence des impulsions pour trouver une explication à cet étrange phénomène de psychoacoustique. Pour un signal transitoire isolé à un niveau d’énergie convenable, la membrane réagit par un phénomène oscillatoire, l’onde propagée, qui parcourt celle-ci de sa partie fixe basale à son extrémité libre apicale (Fig. 11.9). Le phénomène reste identique pour des transitoires répétitifs et suffisamment espacés dans le temps : en effet l’onde propagée a disparu lorsque survient l’impulsion suivante. Mais si la cadence augmente encore, il arrive un moment où la seconde impulsion se produit alors que la première n’a pas terminé sa course le long de la membrane basilaire. Puis les ondes sont de plus en plus rapprochées jusqu’à une limite supérieure où elles deviennent contiguës. L’échantillonnage spatial de ces différentes réponses membranaires se traduit évidemment par des sensations auditives variées : – si l’impulsion membranaire est isolée, la sensation sera celle d’un clic avec coloration tonale dépendante du nombre d’oscillations contenues dans cette impulsion et du pas d’échantillonnage cochléaire (la forme de l’impulsion dépendant de la pente du signal et de son énergie) ; – si deux ou plusieurs impulsions persistent simultanément, sur la membrane, un échantillonnage spatial devient alors possible avec perception d’une sensation tonale, grave pour le pas le plus large, de plus en plus aiguë lorsque le pas diminue. 166

11 • Échantillonnage cochléaire et psychoacoustique

Fig. 11.9. Analyse cochléaire impulsionnelle. Psychoacoustique de clics répétitifs. En réponse à un transitoire unique, la sensation psychoacoustique est celle d’un clic affecté d’une couleur tonale qui dépend du nombre d’oscillations contenues dans le déplacement membranaire et du pas d’échantillonnage neurosensoriel. Si on considère une série de clics, un échantillonnage spatial cochléaire devient possible. La sensation de clics distincts les uns des autres fait place à une sensation de hauteur qui dépend de la périodicité. On note alors que la hauteur est celle d’un son grave pour le pas d’échantillonnage le plus large (périodicité allant de 50 à 60 ms correspondant à 20 Hz), et qu’elle s’élève lorsque le pas d’échantillonnage décroît. Cependant pour la périodicité la plus courte (1,14 ms environ), on observe une fusion tonale en raison de la période réfractaire de la fibre nerveuse (même problème que pour la stimulation électrique de la fibre par implant cochléaire).

167

L’ OREILLE

NUMÉRIQUE

Cette interprétation est en accord avec les données de la psychoacoustique concernant la périodicité. En effet, comme pour les sons purs, la périodicité la plus grande (de l’ordre de 50 à 60 ms) correspond au pas le plus large, et permet de retrouver la limite inférieure tonale (20 Hz) (Fig. 11.10). Par contre, la périodicité la plus faible, qui correspond au pouvoir séparateur de l’oreille (1,14 ms)1, et au-dessous de laquelle il se produit une sensation de fusion sonore, ne permet pas de définir la limite fréquentielle supérieure du champ auditif. Cette valeur correspond en effet à la limite des possibilités temporelles de la fibre nerveuse (période réfractaire), bien que les impulsions mécaniques ne soient pas encore fusionnées au niveau de la membrane basilaire. Cette situation est exactement superposable à celle observée lors de l’excitation de la cochlée par un train d’impulsions électriques (implants cochléaires). Dans les deux cas, à la limite « fréquentielle » supérieure (observée aux alentours de 800 coups par seconde) il se produit une dépolarisation quasi simultanée de l’ensemble des fibres pour chaque impulsion. Nota : Le pouvoir séparateur de l’oreille doit être distingué du phénomène de rémanence décrit par J.-Cl. Lafon. 1. Pouvoir séparateur de l’oreille (Lafon, Guichard J.) (succession de clics) Le pouvoir séparateur de l’oreille est représenté par la plus petite durée permettant de percevoir séparément deux impulsions sonores. Au-dessous, on a une sensation de fusion des impulsions. En générant au moyen d’un ionophone des impulsions très brèves, proches d’un signal de Dirac (30 μs), Lafon et coll. ont montré que le pouvoir séparateur chez des sujets très entraînés avait une valeur moyenne de 1,4 ms. On trouve couramment des valeurs plus élevées : 2 ms à 10 ms, probablement selon le type d’impulsion utilisé. Cette valeur de 1,14 ms correspond à la période d’un son ayant une fréquence de 800 Hz. Elle est sensiblement équivalente à la durée de la période réfractaire de la fibre nerveuse. 2. Rémanence cochléaire (J.-Cl. Lafon) (masquage) Cette dernière correspond à l’effet de masquage d’une impulsion sonore sur une autre impulsion sonore. Elle repose sur une conception mécaniste de la physiologie cochléaire. La rémanence correspondrait à la durée pendant laquelle la cochlée reste ébranlée à la suite d’une impulsion sonore. Une seconde impulsion ne peut être perçue comme un deuxième son que si elle émerge de l’impulsion précédente, c’est-à-dire si son énergie est suffisante pour engendrer une sensation sonore. Si le niveau de cette seconde impulsion est trop faible, elle apporte certes une certaine quantité d’énergie à l’ensemble mais elle n’engendre pas de sensation sonore (l’oreille n’est sensible qu’au logarithme de cette énergie). En pratique, on envoie une impulsion de niveau déterminé suivie d’une impulsion de niveau variable. On note alors pour chaque niveau de cette seconde impulsion l’intervalle de temps nécessaire à son émergence, c’est-à-dire le temps nécessaire à la perception de 2 impulsions séparées. 168

11 • Échantillonnage cochléaire et psychoacoustique

60

Intervalle

60

10

100

ms

0,060 ms

1000 Hz

16.000

champ fréquentiel

Fig. 11.10. Des impulsions de pression sonore de même niveau (90 dB) qui se succèdent avec un écart supérieur à 50 ms ne se mélangent pas mais sont perçues isolément. Si elles se rapprochent, elles engendrent une sensation de hauteur. 50 ms est la valeur limite pour qu’une sensation de hauteur résulte de la périodicité de 2 phénomènes successifs. 50 ms correspond aussi à la période d’une fréquence sonore de 20 Hz, limite inférieure de l’échelle fréquentielle du champ auditif. On explore ainsi les différents temps de masque de la deuxième impulsion. Les résultats expérimentaux permettent de tracer une courbe de masque de la deuxième impulsion qui serait, selon J-Cl Lafon, la traduction de la courbe d’amortissement de la cochlée. Les sons fondamentaux très graves de fréquence inférieure à 20 Hz perdent leur caractère sonore et acquièrent une certaine rugosité due à la perception séparée des maximum de pression. Cette rugosité provient de ce que les harmoniques du spectre se succèdent à moins de 20 Hz : intervalle limite où un son se transforme en bruit.

Battements et échantillonnage cochléaire Lorsqu’on superpose deux sons purs de fréquence voisine, ils se renforcent et s’atténuent mutuellement pour donner naissance à un nouveau son dont l’amplitude fluctue au cours du temps. Ce son est appelé battement tant par les physiciens que par les psychoacousticiens. Les battements sont périodiques : leur fréquence correspond au nombre de fluctuations d’amplitude par seconde et est égale à la différence en Hz des deux fréquences composantes du son complexe. Ainsi, 169

L’ OREILLE

NUMÉRIQUE

la superposition de deux sons f et f’ de 504 et 500 Hz (ou deux sons de 496 et 500 Hz) va donner naissance à 4 battements par seconde. Si l’amplitude des 2 sons primaires est identique, il se produit successivement une annulation (c’est-à-dire le silence) puis un renforcement (soit un doublement de l’amplitude résultante) du son résultant (leurs rapports de phase sont alors respectivement de 180° et 0°). Les battements sont alors maximums. Au fur et à mesure que la différence de fréquence des sons diminue, la fréquence du battement ralentit. Pour f = f’ il disparaît, ce qui permet d’apprécier l’égalité de hauteur (unisson) des deux sons, avec une précision d’une fraction de hertz pour les sons graves, de quelques hertz pour les sons aigus (phénomène bien connu et utilisé par les musiciens pour accorder leurs instruments). En dépit de l’accumulation de données émanant de modèles de mécanique cochléaire, ou de modèles dérivés (électriques, analogiques, mathématiques), aucune explication satisfaisante n’a pu être apportée à ce jour sur la perception du phénomène psychoacoustique des battements, alors que les mécanismes de production du phénomène physique sont connus de longue date. À la lumière de la théorie de l’échantillonnage cochléaire, le phénomène psychoacoustique du battement est plutôt déterminé par un phénomène d’interférence (temporelle) des spikes issus des fibres cochléaires, dont l’origine peut se situer aussi bien au niveau cochléaire que supracochléaire. Si le battement dépasse lui-même une certaine cadence, on peut imaginer qu’après chaque relais, ces interférences d’impulsions peuvent se heurter à leur tour à la barrière de la période réfractaire de la fibre supérieure, et donner naissance à un battement de battement, le troisième son de Tartini (Fig. 11.11).

Commentaires La production et la perception des battements n’est pas la résultante exclusive d’une stimulation acoustique monaurale : ils peuvent aussi apparaître par la combinaison des différentes voies de stimulation : uni ou bilatérale, par conduction aérienne et/ou osseuse, directe ou croisée. On peut les percevoir : – si on délivre simultanément l’un des sons à une oreille, et l’autre son à l’oreille opposée, – si l’un des sons est délivré par voie aérienne d’un côté et par CO de l’autre, (après s’être évidemment assuré de l’absence inopportune d’un transfert transcrânien, ce qui 170

11 • Échantillonnage cochléaire et psychoacoustique

Fig. 11.11. En haut, la superposition de deux ondes Ω et Ω’ de fréquences voisines génère un signal formé d’un train d’ondes (d’ap. Fleury P, Mathieu J. P., Vibrations mécaniques. Acoustique. 1955, Eyrolles édit. Paris.) En bas, la superposition de deux modulations d’impulsions mais présentant un léger décalage de cadence est à l’origine d’un signal périodique dont la fréquence est égale à la différence des fréquences des modulations originelles. La sensation psychoacoustique de battement correspond à l’interférence des modulations d’impulsions neurales.

élimine l’origine tympano-ossiculaire du battement prétendument relié à des phénomènes non linéaires). Il n’est donc pas possible d’attribuer la perception de battements (phénomène psychoacoustique) à la production exclusive intra-cochléaire d’un phénomène physique de battement (modulation d’amplitude) comme le prétendait Helmholtz. Le modèle basé sur une localisation tonale cochléaire et sur une spécificité fréquentielle des fibres auditives est fondamentalement inadapté à l’explication des battements. À l’opposé, le modèle reposant sur un échantillonnage des formes membranaires cochléaires apporte une réponse cohérente quant au mode et au siège de production des battements (intra- ou supra-cochléaire). En effet on peut concevoir un codage neurosensoriel du pattern des battements auditifs, en se rappelant que : – le codage de la fréquence est déterminé par le pas d’échantillonnage (c’est-à-dire par la distribution spatiale des fibres stimulées), et le codage du niveau sonore par la cadence des spikes ; 171

L’ OREILLE

NUMÉRIQUE

– les fibres nerveuses auditives, comme toutes les fibres nerveuses de l’organisme, répondent sur un mode unique (spikes) et sont soumises à des périodes d’inexcitabilité (phase réfractaire). En termes de mécanique cochléaire, un son pur est à l’origine d’oscillations membranaires affectant une allure sinusoïdale, et la superposition de deux sons purs à l’origine d’oscillations périodiques réparties sur la membrane, avec modulation d’amplitude. C’est l’image d’un battement tel qu’on le représente sur un oscillogramme. Le pattern neurosensoriel correspondant à un battement diffère évidemment selon qu’il s’agit d’une stimulation monaurale ou binaurale. – Monaurale : on conçoit qu’un battement, c’est-à-dire une modulation d’amplitude de la sensation sonore (une variation du niveau), ne peut être codé que par une modulation de cadence des spikes sur les fibres nerveuses auditives et que le pattern neural reproduit l’image (spatiale) membranaire. De là, l’information neurale représentative du battement gagne les noyaux cochléaires ; – Binaurale : l’origine des battements ne peut se situer qu’à la jonction des voies sensorielles, c’est-à-dire au niveau des noyaux cochléaires où la superposition de messages va se produire. Dans ce cas de figure, le pattern neurosensoriel issu de chaque oreille est celui d’un son pur, à la différence près qu’il correspond à des fréquences différentes. Les messages sont de nature identique (les spikes), mais les taux de récurrence sont différents. Au point de jonction des fibres (les noyaux), les patterns sont légèrement différents. Leur superposition est à l’origine de phénomènes d’interférence, et d’un renforcement en certains points du taux des spikes. À un échelon plus élevé des voies auditives, ces interférences vont se traduire par une variation cyclique du rythme des décharges nerveuses et, sur le plan perceptif, cette modulation est reconnue par une sensation de battement. Si le taux de décharge était au départ identique dans les fibres efférentes, on observerait seulement un doublement de la cadence des spikes, sans modification de leur rythme, ce qui se traduirait par une augmentation de la sonie, sans sensation de fluctuation du niveau. La modulation de cadence des spikes détermine la modulation d’amplitude du son perçu.

Ce mécanisme peut être abordé sous une autre forme. Considérons le cas limite et simplifié d’une fibre nerveuse isolée en provenance de chaque oreille et leur jonction synaptique au niveau d’un relais nucléaire commun. 1er cas : si on délivre le même stimulus sonore à chaque oreille, c’est-à-dire avec la même fréquence, le même niveau et en phase, on peut admettre que le pattern membranaire et le taux de décharge des spikes au niveau des fibres nerveuses sont identiques (l’amplitude des oscillations membranaires est identique). Au point de rencontre des fibres nerveuses (les noyaux cochléaires), la densité des spikes va doubler. La sensation de niveau sonore (sonie) par les centres supérieurs est donc augmentée. 2e cas : si la fréquence des sons est différente. Supposons que l’une des fréquences sonores incidentes augmente légèrement : la théorie de l’échantillonnage cochléaire nous indique que le pattern neural se 172

11 • Échantillonnage cochléaire et psychoacoustique

modifie par diminution du pas d’échantillonnage alors que, le niveau sonore restant le même, le taux de décharge des influx relevé sur chaque fibre ne se modifie pas. Il n’y a plus coïncidence temporelle des spikes correspondants à chaque cycle. Les patterns des spikes sont décalés. Leur superposition engendre un phénomène d’interférence, avec alternativement des zones d’augmentation et de raréfaction de la densité des spikes (Fig. 11.9). La densité des spikes évolue cycliquement, avec en définitive, une périodicité de la sensation de niveau, c’est-à-dire un battement. Considérons enfin le codage de l’information véhiculée par un paquet de fibres au-delà du premier relais des noyaux cochléaires. Dans l’hypothèse d’un battement lié à une stimulation sonore binaurale, chaque fibre nerveuse doit véhiculer une sommation des influx en provenance des fibres bilatérales. Comme pour toute fibre nerveuse, la dépolarisation est suivie d’une période réfractaire. Si deux spikes incidents sont simultanés, elle répond obligatoirement (loi du tout ou rien). Par contre, si les spikes incidents sont progressivement décalés, il survient un moment au cours duquel elle ne répondra qu’au premier d’entre eux, le second restant sans effet lorsqu’il survient pendant la période réfractaire. Comme l’ensemble des fibres ne répond pas simultanément mais travaillent de façon aléatoire, selon un mécanisme de multiplexage, la transmission de l’information de niveau est conservée. Par contre il persiste une distribution spatiale des fibres activées et des fibres inactives qui peut expliquer la survenue du son de Tartini.

173

This page intentionally left blank

Chapitre 12

Échantillonnage cochléaire et psychopathologie auditive

Le modèle du fonctionnement numérique de l’oreille, défini par la théorie de l’échantillonnage cochléaire, ouvre des horizons inédits dans le domaine de la pathologie auditive, si l’on accepte de se démarquer du mythe érigé en dogme de la tonotopie cochléaire. Il suffit, à partir d’un phénomène de psychoacoustique ou de physiopathologie donné, d’en comparer les mécanismes intrinsèques et les implications à la lumière de l’un ou l’autre concept pour s’en convaincre. Ce chapitre en apporte quelques exemples.

Théorie de l’échantillonnage cochléaire et perte auditive Exception faite des surdités liées à une pathologie de la conduction nerveuse, atteinte systémique d’étiologie extrêmement variée : troubles métaboliques, intoxications, anoxie, anesthésiques, dégénérescence nerveuse par maladies auto-immunes, dysfonctionnement de la jonction nerveuse par perturbations des neurotransmetteurs, etc. et dont l’ensemble constitue le groupe des surdités centrales, on peut schématiquement répartir les surdités de perception périphériques en 3 groupes : – la surdité par atteinte sensorielle pure, au niveau de l’organe de Corti, qu’elle soit anatomique ou seulement fonctionnelle ; – la surdité par atteinte isolée des neurones auditifs le plus souvent de type destructif ; 175

L’ OREILLE

NUMÉRIQUE

– la surdité par atteinte neurosensorielle périphérique mixte, la plus courante, l’atteinte sensorielle étant habituellement suivie du point de vue chronologique d’une dégénérescence secondaire des neurones auditifs. Ces surdités comportent du point de vue anatomo-pathologique une multitude d’aspects lésionnels : destruction isolée de cellules ciliées, destruction et raréfaction plus ou moins systématisées de neurones afférents, atteinte conjuguée des cellules ciliées et des neurones, lésions éparses ou au contraire localisées, le plus souvent d’ailleurs à la base de la cochlée, etc. On peut même observer des atteintes auditives sans lésions apparentes du système neurosensoriel. Quoiqu’il en soit, la théorie de l’échantillonnage cochléaire permet de considérer que ces surdités neurosensorielles sont la résultante d’un élargissement du pas d’échantillonnage, soit spatial par atteinte des cellules de Corti, soit temporel par atteinte des neurones, soit conjugué spatio-temporel.

Troubles de la perception d’un son complexe périodique Considérons un son complexe périodique composé d’un fondamental F0, et de ses harmoniques F1, F2 et F3, F3 étant situé à la limite supérieure de l’échantillonnage (Fig. 12.1). Si le peigne d’échantillonnage formé par la rangée de CCI est complet, (ce qui sous-entend que l’échantillonnage est réalisé à partir d’un nombre de capteurs double de la fréquence, soit F3 ⫻ 2), toutes les fréquences F0, F1, F2 et F3 seront détectées. Inversement, si on considère maintenant que ce même peigne d’échantillonnage a subi des destructions telles par exemple qu’une dent sur deux a disparu, ou s’il est partiellement détruit par une raréfaction aléatoire des capteurs, on voit que le pas d’échantillonnage est élargi et que F3 ne peut plus être échantillonnée. Ne pourront être détectées que F0, F1, et F2. Pour une destruction encore plus importante, F2 disparaît à son tour, et ainsi de suite. Au total, plus le pas s’élargit, qu’il soit spatial ou temporel, c’està-dire sensoriel ou neural, plus l’amputation des fréquences élevées est importante. L’exemple le plus convaincant est celui de la presbyacousie, ou des lésions cochléaires par ototoxicité) où on note d’une part un éclaircissement de l’éventail neurosensoriel et d’autre part, un abaissement de la limite fréquentielle supérieure d’audibilité. Alors que les sons graves sont bien perçus, l’audition des sons aigus est très altérée. D’autres mécanismes interviennent également dans la presbyacousie : difficulté de perception des transitoires, ralentissement de la conduction neurale. 176

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.1. Échantillonnage d’un son complexe périodique. Lorsque le nombre des capteurs (CCI) diminue, le pas d’échantillonnage s’élargit et la fréquence limite supérieure décroît. Le son complexe s’appauvrit en perdant ses harmoniques les plus élevés.

Troubles de la perception d’un transitoire Notre environnement sonore est infiniment plus chargé de sons brefs et évolutifs, de transitoires, que de sons purs entretenus. Sur le plan physique, un signal est dit transitoire si sa durée est inférieure à la constante de temps du récepteur chargé de l’intégrer, en l’occurrence de l’oreille. Cette durée ne permet pas l’installation d’un régime permanent, entretenu. Par extension, toute variation d’un son, aussi bien 177

L’ OREILLE

NUMÉRIQUE

en ce qui concerne le niveau que la hauteur, pourvu qu’elle soit suffisamment rapide, constitue une fonction transitoire. Si, au cours de régime transitoire, on détermine son spectre sonore, on s’aperçoit qu’il est d’autant moins étalé et que les fréquences des partiels sont d’autant mieux définies que sa durée est plus grande. Nous avons vu que les transitoires jouent un rôle primordial dans la communication. L’attaque et l’extinction d’un son sont en effet considérablement chargées d’information : elles constituent l’essentiel du support sémantique de la parole et sont indispensables en musique à la reconnaissance du timbre, indépendamment du spectre. Appliqué au résonateur cochléaire, un transitoire est à l’origine de vibrations forcées de la membrane basilaire, se présentant sous la forme d’une onde propagée composée d’oscillations pseudo-sinusoïdales qui s’amortissent plus ou moins rapidement selon l’impédance de chaque oreille. Comme pour des oscillations membranaires sinusoïdales qui apparaissent en réponse à un son pur, ces oscillations pseudo-sinusoïdales secondaires à un transitoire peuvent être soumises à un processus d’échantillonnage par les cellules ciliées (Fig. 12.2). Si ces oscillations sont resserrées, leur codage effectif nécessitera un pas d’échantillonnage suffisamment petit. Si au contraire, ces oscillations sont étalées, les dents du peigne d’échantillonnage peuvent être plus espacées. La théorie de l’échantillonnage permet ainsi de rendre compte de la couleur tonale plus ou moins grave ou plus ou moins aiguë d’un clic ou de tout signal transitoire. Inversement, pour une vibration pseudo-sinusoïdale donnée de la membrane, on s’aperçoit que l’échantillonnage sera plus ou moins parfait selon la finesse du peigne d’échantillonnage. Si le pas est au moins égal au double d’une pseudo-longueur d’onde de l’oscillation, la vibration pourra être intégralement détectée et codée. Si au contraire, le pas d’échantillonnage est insuffisant, tous les pics de la vibration ne pourront être détectés. Un certain nombre d’entre eux échapperont à l’analyse. Le résultat de l’échantillonnage sera identique à celui qui serait obtenu à partir d’une oscillation pseudo-sinusoïdale correctement échantillonnée et comportant un nombre équivalent de pics efficaces. On comprend dès lors pourquoi, sur le plan psychoacoustique, un sourd présentant des altérations neurosensorielles diffuses peut cependant percevoir encore un transitoire. Ce dernier est modifié dans sa forme et perçu en définitive comme une vibration plus amortie qu’elle ne l’est en réalité. 178

12 • Échantillonnage cochléaire et psychopathologie auditive

Ce phénomène est comparable au processus de repliement (aliasing) obtenu avec des vibrations sinusoïdales. La perception des transitoires subit donc un phénomène de distorsion. Comme il s’agit de signaux qui transportent la plus grande partie de l’information sémantique de la parole, on comprend pourquoi la plupart des surdités neurosensorielles sont accompagnées de graves troubles de l’intelligibilité. La difficulté d’échantillonnage des transitoires rend mieux compte de ces troubles que l’absence de détection des fréquences les plus élevées du spectre sonore (tableau 12.I).

Fig. 12.2. Échantillonnage d’un transitoire (onde pseudo-sinusoïdale). L’élargissement du pas d’échantillonnage modifie, à la réception, les paramètres du transitoire échantillonné : diminution d’amplitude, disparition d’ondes, augmentation de la longueur d’onde. Il en résulte, sur le plan acoustique, une sensation de diminution de niveau, un décalage de la couleur tonale vers les sons graves (repliement). (Pour rendre la figure plus explicite, on a supposé que l’échantillonnage était réalisé au moyen du peigne n° 4.) 179

L’ OREILLE

NUMÉRIQUE

Surdités de perception et échantillonnage cochléaire L’otologiste est confronté en pratique quotidienne à trois formes de surdités de perception d’origine cochléaire : – d’une part la surdité de perception proprement dite, caractérisée par une élévation du seuil auditif pour l’ensemble des fréquences du champ auditif et se traduisant sur l’audiogramme par un décalage des deux courbes liminaire aérienne et osseuse. Il suffit d’augmenter le niveau du signal acoustique pour que le message soit intégralement perçu : voix forte ou criée du locuteur, ou encore adaptation d’une prothèse amplificatrice, peu ou pas sélective ; – d’autre part la surdité par distorsion auditive, rencontrée dans le groupe extrêmement vaste des malentendants. Il s’agit de sujets dont la courbe audiométrique tonale est à l’inverse peu ou pas modifiée, quelquefois normale, mais qui présentent néanmoins ce qu’il est convenu d’appeler des troubles de l’intelligibilité du langage. De nombreux tests auditifs ont été proposés pour mesurer cette distorsion de la perception : ils font appel à la reconnaissance de phénomènes transitoires, le plus souvent de sons vocaux, signifiants ou non. On exprime alors le score de reconnaissance par le pourcentage de réponses justes par rapport au nombre total d’essais. Ce sont des sujets qui répètent inlassablement : « j’entends mais je ne comprend pas » ; – enfin la surdité avec distorsion de la perception, « composite ». Cette déficience auditive associe une élévation du seuil tonal à des troubles de la reconnaissance des phénomènes transitoires, en particulier de la parole. L’amplification linéaire du signal acoustique, si elle ne met pas en jeu des processus de mémorisation ou un canal de communication parallèle (lecture visuelle, labiale par exemple), ne redonne que rarement un score normal de 100 %. Ce sont des sourds qui non seulement n’entendent pas le niveau moyen normal de la voix mais aussi ne comprennent pas le sens du message. Du point de vue anatomo-pathologique, les lésions neurosensorielles peuvent être également classées en trois catégories : – une disparition éparse, aléatoire, des cellules ciliées, tant internes qu’externes et du système neural afférent. Les préparations montrent un éclaircissement homogène de l’éventail neurosensoriel, sans qu’une zone membranaire quelconque soit plus particulièrement atteinte ; – une raréfaction très importante voire une disparition complète du système neurosensoriel cochléaire en une zone bien localisée, le plus souvent basale, et pouvant intéresser la moitié ou même les trois quarts du tour basal. L’éventail sensoriel est par contre bien conservé au-delà. 180

12 • Échantillonnage cochléaire et psychopathologie auditive

TYPE DE TRANSITOIRE

MEMBRANE BASILAIRE NORMALE

MEMBRANE BASILAIRE PATHOLOGIQUE

VARIATION DE I → MELODIE Information esthétique

Recrutement spatial ± grand de CCE

Élévation du seuil (niveau)

VARIATION DE F → TIMBRE Information sémantique

Modification du pas d’échantillonnage des CCI

Abaissement de la limite fréquentielle supérieure du champ auditif Difficulté de perception des transitoires les + brefs

Tableau 12.I. Influence du type de transitoire sur la réponse de la membrane basilaire normale et pathologique.

Il existe habituellement une frontière franche entre cette zone muette et le reste de l’éventail cochléaire ; – enfin l’association des deux types de lésions précédentes comportant à la fois une ou des zones de destruction totale et des lésions éparses sur le reste de la membrane basilaire. On ne retrouve habituellement pas de correspondance franche entre la localisation des lésions et la perte auditive tonale théorique dans l’hypothèse d’une tonotopie. Il en est ainsi pour les lésions expérimentales par traumatisme sonore. De même, les constatations histologiques post mortem effectuées sur des sujets dont on possédait un audiogramme sont très souvent en contradiction avec la notion de tonotopie. Les différentes formes de surdité neurosensorielles dépendent de la localisation des lésions cochléaires. Une atteinte dispersée des CCI entraîne une perte de sélectivité commençant par les fréquences les plus élevées. Une destruction des cellules ciliées internes de la base de la MB est responsable d’un abaissement du score maximum d’intelligibilité. On entrevoit dès lors l’existence d’une multitude de variétés d’hypoacousie selon l’importance respective des ces deux formes de lésions sensorielles : par exemple une intelligibilité normale avec une perte de sélectivité des sons les plus élevés ou encore une diminution de l’intelligibilité alors que la courbe audiométrique tonale est strictement normale, mais encore une grande variété de surdités de degrés intermédiaires.

Par contre, les données cliniques et histopathologiques sont aisément reliées entre elles par le concept de l’échantillonnage cochléaire. On peut alors retenir trois groupes de surdité. Groupe 1 : caractérisé par une raréfaction aléatoire des éléments neurosensoriels, elle-même responsable d’un élargissement du peigne d’échantillonnage. Il s’ensuit un abaissement de la limite fréquentielle 181

L’ OREILLE

NUMÉRIQUE

supérieure d’audibilité avec courbe tonale plongeante vers les aigus, une difficulté de reconnaissance uniquement des transitoires les plus brefs. L’intelligibilité est donc peu perturbée. On note seulement une légère inflexion de la courbe d’intelligibilité vocale (Fig. 12.3 a et 12.4). Groupe 2 : caractérisé par une zone basale histologiquement muette, désertique, avec conservation de l’éventail neurosensoriel au-delà. L’échantillonnage n’est donc plus possible à la base alors qu’il reste normal ailleurs. L’échantillonnage de la fréquence limite supérieure restant possible, la courbe audiométrique tonale est normale. La détection des transitoires est par contre impossible, sauf pour les transitoires les plus énergétiques dont les oscillations les plus éloignées atteignent la zone indemne. Les phénomènes transitoires de la parole ne sont donc que partiellement détectés, ce qui entraîne d’importants troubles de l’intelligibilité avec une courbe audiométrique vocale d’allure très écrasée (Fig. 12.3 b et 12.5). Groupe 3 : ou « mixte » comportant l’association d’une zone histologiquement muette basale et d’une raréfaction des capteurs des zones mésiales et apicales. Cette association est responsable d’une absence d’échantillonnage à la base, donc de détection des transitoires, et d’un élargissement du peigne d’échantillonnage ailleurs avec abaissement de la limite fréquentielle supérieure d’audibilité. Les courbes audiométries tonales et vocales sont l’une et l’autre altérées. C’est le problème

Fig. 12.3. Corrélation entre anatomopathologie et audiométrie des surdités neurosensorielles cochléaires. 182

12 • Échantillonnage cochléaire et psychopathologie auditive

rencontré dans la presbyacousie, à des degrés divers selon l’importance respective de ces deux paramètres (Fig. 12.3 c). Au total, la répartition spatiale des lésions neurosensorielles conditionne le type et le degré de déficience auditive. Des lésions éparses entraîneront surtout un abaissement de la limite fréquentielle supérieure d’audibilité et peu de distorsion dans la perception des transitoires. A l’inverse, des lésions denses et très localisées se traduiront principalement par une difficulté de détection des transitoires, c’est-à-dire du support principal de l’information véhiculée par la parole.

Fig. 12.4. Surdité de perception avec élévation du seuil audiométrique tonal, sans troubles notables de l’intelligibilité. Ce type d’audiogramme est en faveur d’une atteinte diffuse du système cilié interne, sans atteinte prédominante de la base de la cochlée. L’analyse correcte des transitoires rend compte des bons résultats aux tests d’intelligibilité. Une telle discordance entre les courbes audiométriques tonale et vocale est loin d’être exceptionnelle. 183

L’ OREILLE

NUMÉRIQUE

Fig. 12.5. Les surdités caractérisées par des troubles de l’intelligibilité sans atteinte appréciable de la sélectivité fréquentielle s’expliquent par une difficulté d’échantillonnage des transitoires à la base de la cochlée alors que l’échantillonnage des sons purs n’est pas perturbé au-delà. L’environnement sonore étant essentiellement composé de bruits transitoires, de multiples contraintes mécaniques sont imprimées à la partie basale de la cochlée. Il en résulte chez la plupart des individus une destruction privilégiée des cellules sensorielles de cette zone.

Tous les sons du langage parlé, mis à part la voyelle chantée, ont une structure de vibrations transitoires. Toute l’information de la parole est portée par ces parties transitoires entourées par les états de repos des phénomènes périodiques ou des bandes découpées de bruit blanc (Pimonow L., 1962, p. 259). Ces variations périodiques (intensité) ou mélodique (hauteur), particulièrement riches d’information, sont encore appelées indices ou traits acoustiques, et transmettent un grand nombre de bit/s. Même si les destructions cellulaires internes (CCI) sont importantes, la partie restante de la membrane basilaire peut suffire pour donner une information fréquentielle. En effet s’il s’agit d’une raréfaction cellulaire aléatoire, d’une diminution de la densité des cellules, on observera un abaissement de la limite fréquentielle supérieure audible, par élargissement du pas d’échantillonnage. La destruction très localisée à la base de la cochlée n’est pratiquement pas suivie d’effet (elle augmenterait théoriquement la limite inférieure d’audibilité). Par contre, la diminution globale du nombre d’influx (potentiel d’action global du nerf) entraînera une diminution de la sonie (élévation du seuil).

L’absence ou l’insuffisance d’échantillonnage de ces transitoires expliquent ainsi le degré plus ou moins grand des troubles de l’intelligibilité des malentendants. 184

12 • Échantillonnage cochléaire et psychopathologie auditive

On comprend mieux pourquoi : – certains sujets, dont l’audiogramme tonal montre une baisse de l’acuité pour les sons aigus, n’éprouvent malgré tout qu’une gêne sociale très légère ; – des sujets à audiogramme tonal quasi-normal ont une compréhension du langage très difficile ; – par association à des degrés variables de ces deux troubles, on peut observer une infinie variété de déficiences auditives.

Classification des surdités neurosensorielles : du type 1 au type 6 Alors que les théories actuelles de l’audition, au seul vu des tracés audiométriques, ne permettent pas de répertorier les surdités neurosensorielles, le concept de l’échantillonnage cochléaire permet d’établir une classification cohérente de ces déficits auditifs et de relier le pattern audiométrique au type de lésions cochléaires. Pour cela, il faut considérer : – d’une part que les différentes formes de lésions de la cochlée (perte de cellules ciliées, atrophie de la strie vasculaire, perte de neurones, modifications des caractéristiques physiques du canal cochléaire) sont à l’origine de déficits fonctionnels spécifiques ; – d’autre part que ces différentes formes de lésions peuvent être associées. En conséquence, le pattern audiométrique diffère nécessairement en fonction de ces diverses modifications pathologiques, et si plusieurs formes de lésions coexistent, la courbe audiométrique résultante naît de la combinaison des différents tracés propres à chacune d’elles. Inversement, c’est à partir de ces différents patterns, de courbes audiométriques anormales, que la théorie de l’échantillonnage cochléaire va permettre de les rapporter à un déficit fonctionnel propre à chaque partie en cause du système auditif. La pratique de l’audiométrie clinique montre que l’on peut réduire à six profils de base les courbes tonales aux sons purs* (Fig. 12.6).

* Statistique personnelle sur une cohorte de 1 236 audiogrammes tout venant, dont 30 non exploitables. Non publié.

185

L’ OREILLE

NUMÉRIQUE

Fig. 12.6. Théorie de l’échantillonnage et classification des surdités neurosensorielles.

186

12 • Échantillonnage cochléaire et psychopathologie auditive

À chacun d’eux, la théorie de l’échantillonnage permet d’associer six types de déficit auditif neurosensoriel : Type 1 : courbe régulièrement décroissante vers les fréquences élevées en rapport avec une atteinte neurosensorielle pure (perte de CCI, presbyacousie, surdité par atteinte ototoxique) (71,2 %). Type 2 : courbe en cuvette centrée sur 2 kHz lors de lésions du système neurosensoriel externe (caractéristique d’une atteinte des CCE, des surdités héréditaires, des surdités congénitales) (20,1 %). Type 3 : courbe horizontale ou courbe légèrement descendante, correspondant à une atteinte striée (hypotension, drogues sclérosantes, hypoxie…)1 (4,31 %). Type 4 : courbe descendante abrupte à partir de 1 kHz (lésions méningitiques) (0,08 %). Type 5 : scotome à 4 kHz (traumatisme acoustique, succédant à une réponse vibratoire excessive du résonateur cochléaire)2 (1,49 %). Type 6 : courbe ascendante observée dans les atteintes de transmission endocochléaires (dysplasie osseuse, maladie de Ménière,…) (2,65 %). Tous ces types peuvent se conjuguer pour donner une courbe audiométrique tonale composite. (Fig. 12.9 a et b).

Les surdités de perception avec courbe audiométrique tonale en cuvette (type 2) On découvre très fréquemment en pratique audiométrique clinique de curieuses courbes tonales dites en cuvette ou en cuiller. On les remarque avec une fréquence toute particulière chez l’enfant sourd à la suite d’accident pré- ou néo-natal : infection rubéolique, anoxie néo-natale, ictère nucléaire, prématurité (Fig. 12.7). Chez l’adulte, il peut s’agir d’une découverte : – soit fortuite à l’occasion d’un examen audiométrique systématique. La perte auditive ne porte que sur la partie médiane de l’échelle fréquentielle et serait restée méconnue sans la mise en œuvre de ce dépistage ; – soit à l’occasion d’une baisse apparemment rapide de l’acuité auditive. En réalité, il suffit qu’à l’atteinte préexistante des sons du médium vienne s’ajouter une atteinte, même modérée, des sons aigus, soit par presbyacousie, soit par intoxication endogène ou exogène, pour qu’on croit découvrir une surdité particulièrement évolutive. La courbe audiométrique 187

L’ OREILLE

NUMÉRIQUE

tonale, au départ en cuvette, est ensuite amputée au niveau des sons aigus et présente donc souvent un ressaut assez paradoxal autour de 4 kHz, lui donnant ainsi cette allure dite en cuiller. Ces sujets, qui perçoivent fort longtemps les sons aigus, ceux de la montre en particulier, et qui souvent compensent spontanément les troubles de l’intelligibilité du langage par la lecture labiale, sont habituellement considérés comme des normo-entendants. La physiopathogénie de ces surdités est restée un mystère. On imagine mal par quelle mécanique l’oreille pourrait effectuer un quelconque filtrage précisément centré sur les fréquences du médium. Une hypothétique atteinte sélective, selon la conception tonotopique, des cellules sensorielles supportées par la portion médiane de la membrane basilaire n’a jamais pu être confirmée par l’anatomopathologie.

Fig. 12.7. Audiogramme tonal et vocal d’une surdité congénitale, avec presbyacousie débutante. 188

12 • Échantillonnage cochléaire et psychopathologie auditive

Au demeurant, il est difficile d’admettre, par exemple, qu’une anoxie cochléaire ne pourrait entraîner de lésions qu’au niveau d’une zone très localisée de la cochlée, alors que les échanges d’O2 se font par diffusion dans l’ensemble de la cochlée. Il est donc nécessaire de dépasser le plan anatomoclinique pour se placer sur un plan purement fonctionnel et de vérifier si la théorie de l’échantillonnage cochléaire pourrait apporter une explication pathogénique à ce type de surdité. Comme on se trouve en présence d’une part d’une élévation de seuil et d’autre part d’une atteinte sélective fréquentielle, on peut avancer que les lésions portent : – soit sur le système neurosensoriel interne responsable de la hauteur, – soit sur le système neurosensoriel externe auquel est dévolu le niveau, – soit simultanément sur les deux systèmes, et que dans chacune de ces deux hypothèses, il peut s’agir de lésions : – soit purement sensorielles, – soit purement neurales, – soit enfin mixtes, neurosensorielles. Dans la forme pure de ces surdités, c’est-à-dire avec une atteinte exclusive du médium : – il ne peut s’agir de lésions du système neurosensoriel interne. En effet la théorie montre que l’échantillonnage spatial (au niveau des CCI), et temporel (assuré par les fibres nerveuses auditives afférentes internes), est conservé puisque les fréquences élevées sont correctement perçues. Les courbes audiométriques en cuvette ne peuvent s’expliquer ni par une atteinte isolée du système sensoriel cilié interne, ni par celle des fibres de ce même système, ni enfin par leur atteinte conjuguée ; – l’atteinte exclusive du système neurosensoriel externe est la plus vraisemblable (Fig. 12.8). En appliquant la théorie de l’échantillonnage cochléaire au système cilié externe, on voit que la réponse sera maximale lorsque, pour une rangée de CCE, les 3 ou 4 cellules reliées à une même fibre seront simultanément excitées. Cela revient à dire que le pas d’échantillonnage est élargi (espace occupé par 3 ou 4 cellules) et que la limite fréquentielle supérieure ne pourra guère dépasser 4 000 à 6 000 Hz. Mais il ne faut pas oublier que les CCE des trois rangées correspondant à une même fibre nerveuse afférente externe ne se trouvent 189

L’ OREILLE

NUMÉRIQUE

pas à l’aplomb les unes des autres, mais qu’elles présentent au contraire un décalage entre elles. Cette distribution spirale élargit donc encore le pas d’échantillonnage, doublant pratiquement celui-ci. Ce qui réduit en conséquence la limite fréquentielle supérieure à environ 2 000-3 000 Hz. Or, en ce qui concerne le rôle des fibres afférentes issues des CCE, il est vraisemblable qu’il s’agit d’un système facilitateur puisque l’augmentation de niveau des vibrations sonores (et du déplacement de la

Fig. 12.8 a et b. L’interconnexion des cellules ciliées externes est responsable d’un élargissement du pas d’échantillonnage. 190

12 • Échantillonnage cochléaire et psychopathologie auditive

membrane basilaire) entraîne, par recrutement progressif, la stimulation d’un nombre de plus en plus grand de cellules ciliées, et au niveau de la fibre une augmentation du nombre d’influx nerveux. En raison d’un nombre sensiblement identique de fibres afférentes externes et de paquets de fibres afférentes internes, tout se passe comme si chacune d’elles commandait par un système feed-back le rythme des influx parcourant les fibres afférentes internes (et la sensation de hauteur). La théorie montre que la sensation de hauteur dépend donc au total d’un codage spatio-temporel et la sensation de niveau par le rythme de décharges au niveau du système interne. On peut donc penser que la diminution du nombre de CCE et de fibres afférentes externes se traduira par une diminution du nombre des influx au niveau des fibres afférentes internes, donc un abaissement de la sensation de sonie. Si l’atteinte isolée ou localisée de ces fibres ne peut en aucune manière entraîner de différence de niveau selon la fréquence considérée puisqu’il n’y a pas de localisation fréquentielle, par contre leur atteinte diffuse, en élargissant le pas d’échantillonnage du système neurosensoriel externe, altérera la sensation de niveau pour une bande optimale de 2 000-3 000 Hz. Au total, l’application de la théorie de l’échantillonnage cochléaire plaide en faveur d’une atteinte isolée du système neurosensoriel externe dans les surdités de perception en cuvette. Si les lésions débordent sur le système neurosensoriel interne, on observera, en plus de l’élévation du seuil, une atteinte associée plus ou moins importante des fréquences les plus élevées (Fig. 12.9 a et 12.9 b).

Traumatisme acoustique et scotome auditif Chacun sait que l’exposition prolongée à des niveaux de bruit d’intensité moyenne est à l’origine d’une baisse progressive de l’acuité auditive. Mais on sait aussi qu’une seule et unique exposition à un son de niveau très élevé (ou à des bruits de courte durée et répétés) peut également entraîner une perte auditive : on est alors en présence d’un traumatisme acoustique. On admet que l’exposition à un bruit impulsionnel provoque une destruction partielle voire totale du canal cochléaire, que l’on attribue à des déplacements probablement d’amplitude extrêmement élevée de l’onde propagée. Les études effectuées sur l’oreille humaine montrent que les lésions siègent dans une zone étendue approximativement sur 5 à 10 mm à partir de la fenêtre ovale1. Parallèlement, les 191

L’ OREILLE

NUMÉRIQUE

Fig. 12.9a. De nombreuses courbes audiométriques sont en réalité des courbes composites : En 1 : élévation du seuil tonal par atteinte du système neurosensoriel externe. En 2 : perte associée des fréquences sonores élevées correspondant à l’atteinte du système neurosensoriel interne. Il en résulte une difficulté d’échantillonnage des transitoires les plus brefs et des troubles de l’intelligibilité du langage. En bas, courbe composite résultante avec un pic apparemment paradoxal sur 4 kHz et pour lequel il n’a jamais été apporté d’explication plausible.

192

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.9b. Évolution des courbes audiométriques en cuvette. L’atteinte primitive du système cilié externe est responsable de la perte auditive du médium (partie en cuvette de la courbe). Secondairement, la raréfaction progressive des cellules ciliées internes et des neurones auditifs internes rend de plus en plus difficile l’échantillonnage des fréquences élevées : à l’amputation des sons du médium s’ajoute donc une amputation progressive des sons aigus. Cliniquement, les sujets décrivent une aggravation très rapide de leur audition alors que la perte du médium était jusqu’alors bien compensée. 193

L’ OREILLE

NUMÉRIQUE

audiogrammes révèlent une élévation du seuil d’audibilité au voisinage de 4 kHz. Si l’oreille est soumise à de nouvelles expositions traumatisantes, le scotome auditif à 4 kHz peut progresser et devenir à la fois plus large et plus profond. Il n’en demeure pas moins que les mécanismes pathogéniques du trauma acoustique et de ses conséquences psychoacoustiques sont demeurées assez confuses (Fig. 12.6, type 5), un scotome sur 4 kHz ne succédant pas nécessairement à un son traumatisant sur cette fréquence. Les données de mécanique cochléaire expérimentale et la théorie de l’échantillonnage cochléaire donnent à penser que deux mécanismes pathogéniques sont systématiquement confondus – d’une part, la survenue de lésions mécaniques directes siégeant à la partie basale de la membrane basilaire à la suite d’un bruit très bref et de forte intensité. Comme tout transitoire, il déclenche une onde propagée dont l’amplitude des oscillations dépasse les limites mécaniquement acceptables (cf. note 3.16.1) ; – d’autre part, en réponse à cet impact de forte intensité, la production de vibrations forcées du tube cochléaire, qui se comporte physiquement comme un résonateur, et dont la fréquence de résonance se situe à environ 6 kHz (tableau 12.II). Ces oscillations forcées peuvent ellesmêmes entraîner des lésions des cellules ciliées, visibles ou non à l’examen microscopique, et réparties sur l’ensemble de la membrane basilaire, ce qui entrave l’échantillonnage de la fréquence 6 kHz. En faisant intervenir ces deux mécanismes, on est en mesure d’expliquer d’une part la quasi-constance de lésions siégeant à la base de la cochlée, et d’autre part la présence du scotome auditif autour de 4 kHz. Il n’est pas nécessaire de souscrire à une relation de cause à effet entre le siège des premières et le constat psychoacoustique de l’autre. À l’appui de cette interprétation, il faut souligner que tout transitoire, quel que soit son spectre de fréquence, peut provoquer un déficit auditif à la fréquence de résonance de la cochlée, c’est-à-dire au voisinage de 6 kHz (on notera qu’on obtient par le calcul la valeur de 5 357 Hz). En effectuant habituellement une recherche des seuils par octave, et en particulier la détermination du seuil à 4 kHz, les cliniciens occultent la fréquence de la mi-octave. Il serait donc judicieux d’effectuer une exploration systématique de cette portion du champ fréquentiel pour un dépistage beaucoup plus précoce des traumatismes sonores2.

194

12 • Échantillonnage cochléaire et psychopathologie auditive

En référence à la loi de Bernouilli, la fréquence de résonance d’un tube semiouvert est donnée par la formule : f=

C 4L

Si on assimile l’oreille interne à un tube semi-ouvert dont la longueur L totale déroulée (rampe vestibulaire, hélicotréma et rampe tympanique) est de 70 mm, et sachant que la vélocité C d’un son se propageant dans l’eau est d’environ 1 500 m/s, on trouve que la fréquence propre de résonance de ce tube est de : f ⬇ 5 000 Hz (5 357 Hz) Quelle que soit la fréquence du signal d‘entrée, et plus particulièrement pour un transitoire dont le spectre de fréquence est nécessairement très large, la fréquence propre de résonance du système reste toujours la même.

Tableau 12.II.

Seuil auditif au bruit blanc et acuité auditive L’expérience montre que l’oreille est très sensible aux variations de niveau d’un bruit blanc. C’est une des raisons pour lesquelles ce signal avait été retenu dans le dépistage des surdités infantiles. Bien que le tracé oscillographique du bruit blanc montre d’importantes variations d’amplitude autour d’un niveau moyen, le seuil auditif est très précis et peut être déterminé à 1 dB près (cf. chapitre 11 p. 153). Comme nous avons pu le montrer1, on ne trouve pas de corrélation significative entre le seuil auditif au bruit blanc et la répartition des pertes fréquentielles d’une surdité. Le seuil auditif au bruit blanc est approximativement identique à celui d’un son de 1 kHz, quelle que soit l’allure de la courbe audiométrique tonale. Il donne en une seule mesure la perte moyenne d’une audition en dB. La détermination du seuil au bruit blanc vient compléter l’audiométrie tonale et vocale lors de l’appréciation d’un handicap auditif au cours d’une expertise (confrontation des résultats et épreuve de véracité des réponses).

195

L’ OREILLE

NUMÉRIQUE

Fig. 12.10. Modèle pathogénique de l’atteinte auditive par traumatisme sonore. Les lésions traumatiques procèdent de deux mécanismes qui se conjuguent : – d’une part un effet destructeur du transitoire à la partie basale de la membrane basilaire, – d’autre part un mécanisme de résonance forcée de l’ensemble du tube cochléaire à l’origine de lésions éparses sur la membrane basilaire. D’un point de vue acoustique A. Le spectre théorique d’un transitoire est continu (dans la réalité, il s’étale sur une très large bande fréquentielle). B. Mais paradoxalement, la perte auditive ne concerne pas la totalité des fréquences du champ auditif. Au contraire, la perte maximum de sélectivité fréquentielle se situe aux alentours de 4-6 kHz. Elle résulte, en accord avec la théorie de l’échantillonnage cochléaire, de lésions éparses sur la membrane basilaire secondaires à un mécanisme de résonance forcée du tube cochléaire.

196

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.10. Modèle pathogénique de l’atteinte auditive par traumatisme sonore (suite). Du point de vue de la mécanique cochléaire C. Le bruit transitoire provoque une onde propagée d’amplitude excessive à l’origine de lésions qui se situent majoritairement à la partie basale de la membrane basilaire. D. Mais il provoque aussi simultanément une résonance du tube cochléaire avec des oscillations forcées de forte amplitude (destructrices) à sa fréquence propre et réparties sur l’ensemble de la membrane basilaire. La localisation basale des lésions de la membrane est responsable de difficultés d’échantillonnage des transitoires, et plus précisément de ceux de la parole. Il en résulte une diminution du score maximum d’intelligibilité dans l’identification des mots. La répartition diffuse des autres lésions rend compte de l’élévation du seuil au niveau du scotome.

197

L’ OREILLE

NUMÉRIQUE

Les difficultés de perception de la parole avec audiogramme tonal normal De nombreux sujets, dont l’acuité auditive est normale au vu de l’audiogramme tonal, se plaignent néanmoins d’une difficulté de perception de la parole, en particulièrement dans une ambiance sonore bruyante. Ce dysfonctionnement auditif ne s’accompagne pas d’une élévation du seuil de perception de la parole dans le bruit, et les tests centraux tels que le test de discrimination dichotique ou le test de perception de la parole filtrée sont par ailleurs normaux1. On a pensé que cette régression phonémique pouvait être liée chez ces patients à une perte de neurones auditifs. Mais si on a pu établir l’existence d’une corrélation significative entre les troubles de discrimination des mots et la perte de neurones auditifs de la base de la cochlée (zone comprise entre 15 et 22 mm de la base), il n’en a rien été pour les autres régions de la cochlée 2. En admettant le concept d’une localisation fréquentielle cochléaire, on ne rend donc pas compte de la discordance paradoxale existant entre l’atteinte des cellules ciliées de la base et l’absence de déficit tonal pour les sons aigus. À l’inverse, la théorie de l’échantillonnage cochléaire est en mesure de relier les données anatomopathologiques et les troubles auditifs présentés par ces sujets. En effet, la localisation des lésions à la base de la cochlée fait que l’échantillonnage spatial (des CCI) est déficient à la base, et qu’il demeure par contre normal au niveau des autres parties de la membrane basilaire. L’échantillonnage pour les fréquences les plus élevées restant possible, la courbe audiométrique tonale ne montre aucune anomalie. Par contre, la détection par échantillonnage des transitoires (qui apparaissent normalement à la base de la cochlée) n’est pas possible, à l’exception des signaux transitoires les plus énergétiques dont les oscillations membranaires propagées peuvent atteindre en s’amortissant les parties intactes de la cochlée (Fig. 12.11). Comme les signaux acoustiques transitoires transportent la plus grande partie de l’information de la parole, l’absence totale ou partielle d’échantillonnage de ces transitoires est en mesure d’expliquer la diminution du score de reconnaissance des mots. Notre environnement acoustique est essentiellement composé de transitoires. Ces transitoires, par leur répétition, soumettent la base de la cochlée à d’innombrables contraintes mécaniques responsables d’atteintes sensorielles à ce niveau. À noter que les vibrations forcées en rapport avec des transitoires de très fort niveau n’entraînent pas nécessairement 198

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.11. Une perte auditive caractérisée par des troubles de l’intelligibilité sans atteinte fréquentielle sélective significative traduit une difficulté d’échantillonnage des transitoires alors que l’échantillonnage des sons purs reste possible. En 1 : difficulté de détection des transitoires et de l’information sémantique ; En 2 : détection tonale par échantillonnage et information esthétique possibles.

une lésion des cellules les plus proches de la base de la cochlée (les oscillations membranaires les plus précoces survenant après délivrance du signal transitoire étant de moindre amplitude), ce que confirment les données histologiques relevées sur la cochlée après traumatisme acoustique.

Repliement cochléaire (aliasing) Le concept de repliement cochléaire n’a jamais été évoqué en physiologie auditive, et pour cause, puisqu’il s’agit d’un corollaire de la numérisation du signal, superbement ignorée par les tenants de la tonotopie. Il n’est concevable que si on se rallie à la théorie de l’échantillonnage des formes cochléaires. Il est pourtant riche d’enseignement et source d’applications pratiques dans le domaine de la réhabilitation prothétique des malentendants en particulier. Le terme de repliement est la traduction française de l’anglo-américain aliasing1. Il désigne une anomalie du traitement numérique du signal. Au niveau de l’oreille, le repliement cochléaire est responsable de troubles de la reconnaissance des formes cochléaires.

Le mécanisme du repliement Le phénomène de repliement (ou aliasing des Anglo-Saxons ; alias, ou autre ; ex. : J-B Poquelin, alias Molière)2, est la résultante d’un échan199

L’ OREILLE

NUMÉRIQUE

tillonnage incorrect d’un signal continu, plus précisément lorsque cet échantillonnage est effectué à une cadence insuffisante par rapport à la fréquence du signal (ou de la fréquence de la composante supérieure d’un signal complexe). Les valeurs échantillonnées sont alors représentatives de fréquences plus basses que la fréquence échantillonnée, bien qu’elles n’existent pas à l’origine (Fig. 12.12).

REPLIEMENT (aliasing) Alias, du latin, autrement : – propre au traitement numérique du signal, – apparition d’une fréquence anormale, – cause : échantillonnage insuffisant, – repliement identique possible à partir de 2 fréquences différentes, – possibilité de sons de combinaison (battements) entre une composante du signal complexe primitif et la fréquence de repliement.

Tableau 12.II.

Lorsque l’échantillonnage porte non plus sur un signal pur, sinusoïdal, mais sur un signal continu complexe résultant de composantes de diverses fréquences, les fréquences les plus élevées qui ne seront pas correctement échantillonnées seront représentées par une ou plusieurs fréquences d’ordre inférieur, alors qu’elles n’existent pas dans le signal primitif 3. Outre l’apparition de fréquences « fantômes », l’échantillonnage incorrect d’un signal complexe peut être source de sérieux problèmes par interférence de composantes fréquentielles de hautes et basses fréquences4, 5. En acoustique, la numérisation incorrecte d’un son pur pourra donc faire apparaître un autre son de fréquence moins élevée et, lors de l’échantillonnage incorrect d’un son complexe, des fréquences sonores erronées ou des bruits de coloration variable. De plus, le repliement peut être la source de sérieux problèmes par interférence entre les composantes fréquentielles de hautes et basses fréquences.

200

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.12. Le mécanisme du repliement. Sur un graphique représentant une fonction sinusoïdale, on voit qu’il est possible de faire coïncider par les points obtenus par échantillonnage une ou plusieurs courbes de longueur d’onde différente. L’analyse par échantillonnage d’un signal peut être source d’erreur par introduction d’un signal intercurrent. Si la fréquence d’échantillonnage (SR : sampling rate) du signal d’entrée (IS) est inférieure au double de la fréquence échantillonnée (ou de la fréquence la plus élevée des composantes d’un signal complexe), la fonction (le signal) cesse d’être correctement représentée. Il se produit alors une translation, un repliement, des composantes de fréquences les plus élevées en fréquences plus basses (A1 ou A2) (théorème de Cl. Shannon, 1943).

201

L’ OREILLE

NUMÉRIQUE

Le repliement cochléaire ou échantillonnage imparfait des formes cochléaires L’échantillonnage cochléaire réel est certainement moins bon que ne le laisse prévoir la théorie en raison : – de l’impossibilité de prélèvement d’échantillons à des intervalles rigoureusement égaux. Le diamètre des cellules formant la trame basilaire est évidemment variable autour d’une valeur moyenne. De même, la largeur du ruban membranaire n’est pas constante : le tube limacéen n’est pas régulier, mais présente de nombreuses irrégularités osseuses ; – de la largeur spectrale du son incident, évidemment très variable, les fréquences les plus élevées pouvant dépasser les limites de l’échantillonnage cochléaire ; – de la capacité fonctionnelle du système nerveux (densité des fibres, métabolisme, etc.) ; – des lésions neurosensorielles possibles (toxiques, traumatiques, sénescence, etc.) Quoi qu’il en soit, lorsque l’oreille échantillonne insuffisamment une forme sonore membranaire, c’est-à-dire à une fréquence spatiotemporelle inférieure à deux fois la fréquence de la composante sinusoïdale la plus élevée, les échantillons ne caractérisent plus de façon absolue la forme membranaire. Cette insuffisance de l’échantillonnage est inévitablement à l’origine d’une disparition d’une partie de l’information. Les composantes de fréquence la plus élevée sont alors remplacées par des composantes de fréquence plus basse ne figurant pas dans le spectre originel. Il en résulte, après codage, neural de ces échantillons, la transmission et la reconnaissance de formes erronées par les centres auditifs. Cette distorsion aboutit à une reconnaissance de plus en plus difficile de la forme au fur et à mesure que se détériore l’échantillonnage. Ce phénomène de substitution, source de bruit ou de distorsion dans la transmission du signal ou repliement, aboutit à la perception d’une fréquence « fantôme ». On conçoit dès lors que l’oreille d’un sourd profond dont le reliquat auditif est habituellement réduit à la perception des sons les plus graves, n’est pas en mesure d’échantillonner correctement les fréquences les plus élevées du spectre audible normal. Ce sourd pourra par contre percevoir des fréquences sonores erronées obtenues par repliement qui peuvent lui être utiles puisqu’elles constituent un codage naturel par transposition des fréquences non perçues. Néanmoins, elles sont nécessairement peu porteuses d’information et sources de confusion puisqu’une même 202

12 • Échantillonnage cochléaire et psychopathologie auditive

fréquence obtenue par repliement peut provenir de plusieurs fréquences élevées. Le bénéfice ne peut donc qu’être occasionnel. Le mécanisme de repliement cochléaire apporte une explication satisfaisante à de nombreux phénomènes psychoacoustiques apparemment paradoxaux, entre autres le fondamental absent, les difficultés de correction prothétiques du presbyacousique, l’existence d’une perception sonore chez le sourd profond après amplification d’une fréquence pure théoriquement inaudible (dans ce cas d’espèce, il ne paraît pas justifié d’adjoindre un filtre passe-bande ni de déterminer une fréquence de coupure dans la prothèse), etc.6

Échantillonnage et presbyacousie La presbyacousie : position du problème La perte auditive liée à l’âge a fait l’objet d’études innombrables. Le tableau clinique du presbyacousique est bien connu : difficulté progressive de perception des sons aigus et de compréhension de la parole dans différentes situations : en groupe, au théâtre, dans un milieu bruyant, dans des réunions, ou encore au téléphone… La gêne en milieu bruyant est la plainte la plus fréquente. Ce handicap est habituellement rapporté à diverses causes : – une élévation du seuil auditif, un pincement de la dynamique, objectivée à l’examen audiométrique tonal ; – une perte auditive spécifique sur les fréquences sonores élevées, « une atteinte des aiguës dans le jargon spécialisé », qui serait responsable des troubles de la discrimination, en groupe par exemple ; – l’existence fréquente d’un recrutement ; – des difficulté d’intégration, se traduisant par des troubles de l’intelligibilité aux épreuves audiométriques vocales ; – divers facteurs acoustiques intercurrents comme l’éloignement de la source sonore, la réverbération, la résonance de volume architecturaux. Le principal handicap du presbyacousique est avant tout un trouble de la communication parlée avec difficulté de reconnaissance des éléments signifiants, particulièrement dans le bruit et aggravée par une éventuelle hypoacousie préexistante. La plainte concernant la perception de la musique est à l’inverse plutôt rare. Toutes les causes invoquées n’éclairent en rien les mécanismes intrinsèques du phénomène. 203

L’ OREILLE

NUMÉRIQUE

Les études anatomo-pathologiques mettent constamment en évidence que l’altération du système auditif peut intéresser tous les échelons de la voie auditive à des degrés divers pour chacun d’entre eux, et que les atteintes sensorielles ne prédominent pas nécessairement en des zones particulières de la cochlée (études histopathologiques remarquables de Schucknecht, 1976 et Johnsson – Hawkins, 1972). La perte des cellules sensorielles s’observe très précocement ; elle est certaine après 20 ans. Elle est diffuse et s’accentue avec l’âge. Peuvent être en outre associées : – une perte plus localisée, sur quelques millimètres au niveau de la base de la cochlée, voire étendue au tour basal de la cochlée, – une perte au niveau de l’apex (Bredberg, 1967 ; Charachon, 1978), – ou encore des dégénérescences circonscrites en une zone quelconque du ruban cochléaire, pas nécessairement basales ou apicales. Chez le sujet très âgé, ces altérations peuvent être isolées ou combinées. Elles concernent aussi le système auditif central1. De toute façon, on est loin de retrouver une coïncidence systématique entre le siège des altérations cellulaires et l’emplacement théorique que laisserait supposer l’audiogramme s’il existait une véritable tonotopie. Certes, si, chez le sujet âgé, on observe une raréfaction des cellules sensorielles et des fibres nerveuses cochléaires principalement à la base de la cochlée, elle n’en existe pas moins jusqu’à l’apex alors que la perception des sons graves est parfaitement conservée. Les cytocochléogrammes montrent aussi qu’une perte relativement importante de cellules sensorielles au niveau de la base de la cochlée n’est pas incompatible avec une bonne conservation des sons aigus. Il suffit qu’une portion de la membrane basilaire soit intacte pour que l’audiogramme reste pratiquement normal (elle peut suffire à un bon échantillonnage des fréquences élevées).

Presbyacousie et échantillonnage cochléaire La presbyacousie pure est l’exemple type de la difficulté d’échantillonnage sensorielle cochléaire et des troubles associés de la transmission neurale auditive. Comme pour tout déficit neurosensoriel, la raréfaction des cellules sensorielles de Corti, même si elle n’est pas régulièrement distribuée sur l’éventail cochléaire, est responsable d’un élargissement du pas d’échantillonnage des formes acoustiques membranaires de la cochlée, et l’amenuisement du paquet des fibres afférentes de troubles du multiplexage. Il s’ensuit deux formes de déficit selon qu’il s’agit de sons purs, entretenus, ou de transitoires, à savoir : 204

12 • Échantillonnage cochléaire et psychopathologie auditive

– d’une part, un abaissement de la limite fréquentielle supérieure du champ auditif, – d’autre part une distorsion dans l’analyse des transitoires de la parole : un certain nombre d’oscillations ne sont pas échantillonnées. Dans le détail, un transitoire est à l’origine de vibrations forcées se présentant sous la forme d’une onde propagée composée d’oscillations pseudo-sinusoïdales qui s’amortissent plus ou moins rapidement selon l’impédance de chaque oreille. Comme pour les oscillations sinusoïdales qui apparaissent en réponse à un son pur, les oscillations pseudo-sinusoïdales secondaires à un transitoire sont soumises à un processus d’échantillonnage par les cellules ciliées : plus ces dernières (capteurs) sont resserrées, plus l’échantillonnage est précis. Si le pas d’échantillonnage est élargi par disparition de cellules ciliées (le peigne est plus grossier), un certain nombre d’oscillations contenues dans l’onde propagée ne peuvent être détectées. Le résultat de l’échantillonnage est alors identique à celui qui serait obtenu à partir d’une réponse pseudo-sinusoïdale correctement échantillonnée et comportant un nombre équivalent d’oscillations (Fig. 12.2). Le pattern d’un transitoire long prend l’aspect d’un transitoire plus court, un transitoire bref peut même être escamoté. Cette distorsion dans l’analyse des formes membranaires explique pourquoi, malgré l’existence de lésions neurosensorielles éparses, un malentendant peut encore percevoir un transitoire. Mais ce dernier est modifié dans sa forme : il est codé comme s’il était plus amorti qu’il ne l’est en réalité.

Cette transformation du pattern rend compte des modifications subjectives de perception de ces signaux acoustiques, et de la difficulté de leur reconnaissance : ils diffèrent de ceux qui ont été antérieurement mémorisés. Des patterns différents lors de leur mémorisation peuvent ultérieurement devenir identiques. Différentes plosives sont ainsi confondues : t, p, k, etc. Comme il s’agit de signaux qui transportent la plus grande partie de l’information sémantique de la parole, on comprend pourquoi la plupart des surdités neurosensorielles, dont la presbyacousie, sont accompagnées de graves troubles de l’intelligibilité. La difficulté d’un échantillonnage correct des transitoires rend mieux compte de ces troubles que l’absence de détection des fréquences les plus élevées du spectre sonore. Ce phénomène de distorsion lié à un échantillonnage insuffisant des transitoires est comparable au phénomène du repliement observé lors d’un échantillonnage insuffisant de vibrations sinusoïdales. Par ailleurs, on comprend dès lors pourquoi des courbes tonales identiques peuvent s’accompagner de troubles plus ou moins sévères de l’intelligibilité : il suffit que les lésions sensorielles soient majorées à la base de la cochlée, rendant difficile voire impossible l’échantillonnage des transitoires générés à ce niveau. 205

L’ OREILLE

NUMÉRIQUE

Il va sans dire qu’à cette difficulté d’analyse par échantillonnage des transitoires, vient s’ajouter chez le sujet âgé une diminution du nombre des neurones auditifs et un allongement des temps de réponse du système nerveux (allongement des temps de conduction). Le handicap perceptif des presbyacousiques ne résulte pas seulement d’une amputation dans le champ auditif des fréquences élevées (sons entretenus), mais aussi d’une difficulté d’échantillonnage des transitoires. 1. La compréhension des troubles décrits par les presbyacousiques, en particulier la perte de discrimination des sons de la parole dans le bruit, est facilitée si on considère, sur le graphique habituellement utilisé par les psychoacousticiens, les effets conjoints du bruit et de la perte auditive sur le signal de la parole (Fig. 12.13). En effet, si on superpose les spectres d’un bruit (aléatoire) et d’une hypoacousie sur celui de la parole, on voit d’une part que les formants caractéristiques du signal de la parole émergent de plus en plus difficilement au fur et à mesure que le niveau du bruit augmente, et d’autre part qu’ils sont amputés de leurs pics les plus aigus. La réduction du spectre de la parole entraîne évidemment une difficulté de reconnaissance de certains phonèmes, dont les voyelles (sons entretenus, à forte dominance esthétique). 2. Mais la reconnaissance de la parole ne se limite pas à la perception de sons entretenus, comme ceux des voyelles. Or ce sont les transitoires qui supportent la plus grande partie de l’information sémantique. Ces éléments acoustiques ont pour caractères d’être brefs et de faible niveau. Ils subissent une distorsion de leur pattern dès l’instant où le pas d’échantillonnage est élargi. Comme il ne correspondent plus aux patterns déjà mémorisés, leur reconnaissance par les centres nécessite de plus longs délais (d’où l’intérêt pour le presbyacousique d’une bonne articulation qui ralentit le débit de la parole). Cela explique les difficultés de reconnaissance des différentes consonnes plosives entre elles et les confusions de mots qui s’ensuivent. Au total, la presbyacousie, indépendamment de facteurs plus généraux (temps de réaction nerveuse) et des facteurs centraux (constante de temps), est liée à un échantillonnage imparfait des formes cochléaires associées aussi bien aux sons entretenus qu’aux transitoires de la parole, et d’autant plus marqué qu’il survient dans le bruit 2.

206

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.13. Représentation graphique du spectre de la parole à un instant donné en présence d’un bruit aléatoire chez un presbyacousique sévère. On voit que, chez ce sujet, la perte auditive résulte : – d’une part de l’absence de perception des fréquences les plus élevées (pas de perception des formants de fréquence élevée), – d’autre part d’une amputation plus ou moins importante des pics formantiques selon le niveau du bruit (I1, I2 ou I3). Cette absence de détection des bandes de fréquence élevée est responsable d’une confusion dans la reconnaissance des voyelles de timbre aigu et de troubles de la perception de consonnes (sifflantes, chuintantes, etc.). On estime que la reconnaissance d’une voyelle nécessite la perception d’au moins deux formants à un instant donné. (La représentation de la pente du spectre du bruit aléatoire tient compte sur ce graphique du passage de l’échelle linéaire à une échelle logarithmique.)

Théorie de l’échantillonnage cochléaire et prothèse auditive Objectifs de la réhabilitation prothétique Le rétablissement de la communication sonore par le port d’une prothèse auditive doit répondre à deux objectifs : – d’une part élever le niveau sonore du signal acoustique afin de l’amener au-dessus du seuil d’audition liminaire du déficient auditif. Cette 207

L’ OREILLE

NUMÉRIQUE

fonction d’amplification devrait permettre à un sourd léger de percevoir à nouveau la voix chuchotée, alors qu’il ne l’entendait plus, à un sourd moyen de réentendre la voix haute de niveau moyen, etc. Même un sourd profond devrait, théoriquement, à la condition de posséder un reliquat sur toutes les fréquences du champ auditif, percevoir le signal après amplification suffisante. Cet aspect qualitatif du rôle de la prothèse auditive (puisqu’il concerne la perception de la hauteur et du niveau) est techniquement facile à obtenir. On l’apprécie en déterminant le gain prothétique ; – d’autre part augmenter le débit informatif du message acoustique. En effet la prothèse ne doit pas seulement renforcer le niveau du signal sonore, mais aussi redonner à un sujet sourd la possibilité de communiquer avec ses semblables. Elle doit être capable de transmettre les éléments informatifs du message sonore, et tout particulièrement ce qu’il est convenu d’appeler les indices acoustiques de la parole, et être en mesure de les adapter aux reliquats auditifs du sourd. Il s’agit là de l’aspect quantitatif de l’appareillage que l’on pourrait exprimer, comme tout débit d’information, en bits/s. Sur le plan pratique, l’appréciation du bénéfice apporté par la prothèse peut être déterminée en comparant, à partir de listes de mots, signifiants ou non, ou encore de listes de phrases, les taux d’intelligibilité obtenus avec et sans prothèse. Cette fonction de la prothèse, visant à redonner la compréhension du message, est certainement la plus importante, mais aussi la plus difficile à réaliser. Le terme de prothèse auditive qui prévaut en France est évidemment moins bien approprié que celui d’aide auditive (hearing aid) retenu par les Anglo-Saxons, puisqu’il ne s’agit pas, au sens strict, d’un remplacement de l’organe auditif.

Performances et limites de la prothèse auditive 1. Les aides auditives actuelles sont capables de transmettre une large bande de fréquences sonores entretenues, même à des niveaux sonores relativement élevés. Elles apportent donc toute satisfaction dans le cas des hypoacousies par trouble de la transmission sonore, si on prend soin d’ajuster la courbe de réponse de la prothèse à la perte fréquentielle de l’oreille. Cette correction d’une élévation isolée du seuil auditif concerne donc les hypoacousies dites de transmission : rigidité tympano-ossiculaire, ankylose stapédo-vestibulaire, augmentation de rigidité membranaire, etc. 2. Par contre, ces mêmes prothèses rencontrent toujours de sérieuses difficultés dans la transmission des transitoires, en raison même des modifications du signal acoustique apportées par la prothèse : 208

12 • Échantillonnage cochléaire et psychopathologie auditive

– les unes en rapport avec le retard que subit le signal par son passage au travers des divers constituants de l’appareil, et qu’on ne peut guère abaisser au-dessous de 7 à 10 ms ; – les autres inhérentes aux distorsions imprimées par la prothèse (constante de temps des différents composants de la prothèse : micro et écouteur surtout). Il se produit donc au total : – un décalage temporel préjudiciable sur le plan neurologique si l’autre oreille ne subit pas le même retard (d’où l’intérêt de l’appareillage stéréophonique) ; – un étalement des transitoires dans le temps (distorsion). En modifiant la forme des transitoires, la prothèse peut même s’opposer au transfert des phénomènes sonores les plus brefs, en particulier ceux de la parole. Ces derniers peuvent être totalement supprimés, lorsque survient, par exemple, un transitoire sonore alors que le traînage du précédent transitoire n’a pas entièrement disparu. Paradoxalement, certaines prothèses peuvent donc augmenter la difficulté de reconnaissance des transitoires phonétiques, alors qu’il s’agit des éléments les plus pertinents du langage, c’est-à-dire chargés de la plus grande information sémantique. Ces difficultés sont particulièrement ressenties dans la correction des surdités neurosensorielles. Loin de les compenser, un appareil de conception médiocre peut même significativement diminuer le pourcentage d’intelligibilité. On comprend ainsi les difficultés d’adaptation prothétique de certains sujets, voire le rejet de la prothèse, alors que les temps de réaction du système nerveux ne sont pas nécessairement allongés et que les courbes audiométriques tonales ne montrent pas de troubles importants de la discrimination fréquentielle.

Prothèse auditive et échantillonnage cochléaire Il n’en demeure pas moins que, après transduction du message sonore au travers d’une prothèse auditive, et quel que soit le mode de traitement du signal, analogique ou numérique, l’intelligibilité du langage, dépend en dernier ressort, de la capacité d’analyse du signal par le récepteur neurosensoriel, et plus précisément des transitoires. Cette évidence est trop souvent oubliée : rien ne sert d’amplifier un signal s’il ne peut être ensuite correctement analysé (échantillonné) par le récepteur cochléaire. Tout dépend du type de lésions cochléaires. 209

L’ OREILLE

NUMÉRIQUE

– Si on se trouve en présence de lésions neurosensorielles dispersées sur l’éventail cochléaire, l’amplification par la prothèse d’un son pur ne change évidemment en rien le pas d’échantillonnage cochléaire, mais augmente la stimulation du système facilitateur cilié externe, améliorant ainsi la perception des fréquences susceptibles d’être échantillonnées. Quant aux transitoires, tout dépend de la qualité (des performances) de la prothèse. Si on pouvait disposer d’une prothèse idéale, la forme échantillonnée par l’oreille devrait être équivalente à celle d’un transitoire de durée d’établissement plus longue (en raison de l’élargissement du pas d’échantillonnage) et être encore perçue par l’oreille. Dans les faits, la transmission est responsable d’un traînage, donc d’une augmentation de la durée du transitoire, d’un étalement plus large sur la membrane basilaire. Si chaque oscillation est alors plus facilement échantillonnée (malgré l’élargissement des dents du peigne), tous les transitoires ne pourront être échantillonnés. Le bénéfice est inconstant. – Si les lésions neurosensorielles prédominent à la base, soit parce que le sujet a été soumis dans son existence à des sons traumatisants, soit parce que les transitoires habituels de notre univers quotidien ont petit à petit entraîné des lésions de la base de la cochlée, lésions favorisées par une possible fragilisation préalable (héréditaire, toxique, métabolique), les transitoires les plus brefs, donc les moins étalés sur la membrane basilaire, ne peuvent évidemment pas être échantillonnés. Ne peuvent être pris en compte que les transitoires les plus lents, s’étendant au-delà des destructions sensorielles ou ceux qu’une prothèse de mauvaise qualité rend perceptibles du fait du traînage. Encore faut-il : – qu’au niveau de la zone restant soumise à l’analyse, la densité des capteurs soit encore suffisante, – qu’il ne survienne pas de nouveaux transitoires, dont la superposition ne pourrait être discriminée. Même avec le secours de la prothèse, la perception des transitoires dans ce type de déficience auditive, malheureusement le plus fréquent, ne peut être que médiocre, voire nulle, expliquant la persistance des troubles de l’intelligibilité du langage.

Commentaires Les concepteurs de prothèses auditives se sont largement inspirés des techniques modernes de transmission et d’amplification du signal de 210

12 • Échantillonnage cochléaire et psychopathologie auditive

la parole (téléphonie, radio, TV, etc.). En adaptant ces technologies, on s’est efforcé de reconstituer à la sortie des transducteurs un signal acoustique de spectre fréquentiel le plus large possible (Hi-Fi), en accentuant au besoin l’amplification de certaines bandes de fréquence (equalizers). Mais pour que l’application de ces procédés à la prothèse soit recevable, il faudrait évidemment que l’oreille de l’auditeur soit normale. Or il n’est nullement tenu compte de l’incapacité fonctionnelle de l’oreille du sourd, laquelle se comporte comme un filtre vis-à-vis du signal acoustique d’entrée. La déformation volontaire du spectre du signal vocal ne peut qu’aggraver les phénomènes de distorsion déjà présents dans l’oreille. L’amplification des fréquences déficitaires ou perdues ne provoque pas pour autant une régénération des capteurs neurosensoriels manquants (tout au plus la perception d’harmoniques inférieurs). En termes de communication, cette procédure technologique aboutit à une surcharge d’information au niveau du signal de sortie alors que le débit d’information acceptable par le récepteur est diminué. La logique serait, inversement, non pas de transmettre un signal de très large spectre avec compensation du déficit auditif par une amplification sonore sélective, mais de procéder à une adaptation du signal à la capacité du récepteur (l’oreille), en effectuant une analyse de la parole puis la synthèse d’un nouveau signal codé compatible avec le canal auditif du sujet, en d’autres termes de réduire le flux d’information pour l’adapter au débit du canal auditif. La perception optimale de la parole suppose donc une adaptation du flux informatif au débit du canal auditif de l’auditeur (réduction), en sachant que : 1. L’oreille reste intrinsèquement source de distorsions du signal acoustique d’autant plus marquées que l’échantillonnage est plus défectueux. 2. Lorsque certaines fréquences ont disparu du champ auditif, une amplification sélective même surpuissante ne peut redonner une sensation sonore dans la bande considérée, l’oreille interne n’étant plus physiquement capable d’échantillonner le signal acoustique : s’il se produit une perception sonore, elle ne peut correspondre qu’à des fréquences « fantômes » générées par repliement. C’est une erreur de considérer que l’amplification du signal acoustique redonne à l’oreille les capacités d’analyse d’une oreille normale. Exception faite des surdités de transmission, l’efficience du capteur neurosensoriel n’est en rien modifiée par l’appareillage. 211

L’ OREILLE

NUMÉRIQUE

3. Si on décide de conserver la totalité du spectre du signal, il n’est pas justifié d’amplifier les fréquences déficitaires : l’amplification peut être la source de phénomènes d’intolérance (par distorsions d’harmoniques et d’intermodulation), principalement lorsque les signaux sont de niveau élevé (repliement). Une exception toutefois : celle de surdités sévères dans lesquelles les fréquences par repliement réalisent une transposition utile au sourd. 4. L’amplification a pour effet d’augmenter l’écart de niveau entre voyelles et consonnes, aux dépens de ces dernières, alors qu’elles sont essentielles dans le transport de l’information sémantique. Même bien conduit, l’appareillage prothétique est très souvent accompagné d’une détérioration du message vocal objectivée par une diminution du score d’intelligibilité de la parole et par une sensation de distorsion de la hauteur des sons. 5. Des perturbations inhérentes au « hardware » de la prothèse sont inévitables : – distorsions linéaires dues au micro et à l’écouteur, – effet de traînage perturbant la transmission des transitoires, pourtant indispensables à la reconnaissance des diphonèmes et des plosives, – modification du timbre du signal secondaire à la réactivité de la prothèse aux transitoires. 6. Le problème majeur et tenace auquel se heurte la prothèse auditive est celui de l’extraction de la parole contaminée par le bruit. Les sujets appareillés se plaignent en effet dans leur majorité d’une difficulté de compréhension de la parole dans le bruit ou en groupe conversationnel, ou de multiples formes d’intolérance. Le tout avec un sentiment d’insatisfaction pouvant conduire à l’abandon pur et simple de leur prothèse, ou à une attitude de résignation envers leur handicap. Le problème persiste malgré divers algorithmes de traitement du signal : extraction et soustraction par filtrage sélectif des fréquences dominantes dans le spectre du bruit, filtrage temporel en s’appuyant sur le fait qu’un bruit perturbateur est relativement stable dans le temps, division empirique du spectre en plusieurs bandes, recours à plusieurs microphones, multi-programmes, etc. Il en résulte que la correction prothétique d’une surdité par amplification sans traitement préalable du signal acoustique, est illogique puisque : – l’amplification ne modifie pas le rapport S/B : le bruit croît en même temps que le signal (la parole), 212

12 • Échantillonnage cochléaire et psychopathologie auditive

– l’amplification des fréquences absentes ne modifie pas les troubles de sélectivité, – l’amplification de fréquences absentes est illusoire : quelle que soit la théorie de l’audition retenue, ces fréquences ne peuvent être échantillonnées par le capteur cochléaire puisque les cellules neurosensorielles de Corti ne sont plus fonctionnelles ou sont détruites, – il ne sert à rien de transmettre des fréquences non porteuses d’information sémantique : ce sont des porteuses de bruit. Au total, sans traitement préalable, le signal acoustique est inadapté à un récepteur cochléaire déficient, dont on ne sait pas (à ce jour) augmenter le nombre de capteurs sensoriels ni celui des fibres nerveuses dévolues au transport du message.. Reste la solution consistant d’une part à modifier les paramètres du signal acoustique de la voix afin de l’ajuster aux capacités fonctionnelles de l’oreille déficiente, et d’autre part renforcer les traits acoustiques de la parole par rapport au bruit de fond, en somme privilégier le contraste des formes acoustiques. Le choix d’un renforcement des formants de la parole, associé à une soustraction des bandes de bruit non informatives et à une préservation maximale des transitoires de la parole (pas de compression, ni d’écrêtage) est une voie particulièrement intéressante. La réalisation de ce type de prothèse « à formants » est loin d’être une impossibilité technique. Elle donne des résultats remarquables, tout particulièrement dans la correction de surdités neurosensorielles avec courbes tonales en cuvette (Fig. 12.14).

Surdités, formes cochléaires pathologiques, numérisation L’acuité auditive peut être rapportée à la capacité par l’oreille de discriminer les formes cochléaires. Elle d’autant meilleure que l’échantillonnage permet de reconnaissance de formes de plus en plus fines, un peu comme le nombre de pixels par unité de surface dans la reconnaissance des images visuelles1. On peut définir l’acuité auditive par la capacité de percevoir le plus petit phonon possible, chaque phonon, ou objet sonore élémentaire, étant déterminé par les seuils différentiels d’intensité ΔI, de fréquence ΔF et de temps ΔT. Ainsi pour un champ auditif normal, l'acuité sera d'autant meilleure que les phonons seront plus petits (faibles ΔI, ΔF et ΔT) et plus nombreux. 213

L’ OREILLE

NUMÉRIQUE

Fig. 12.14. Spectres acoustiques de la phrase « l’analyse et la synthèse de la parole » avant (en haut) et après traitement du signal (en bas). On note la disparition de bandes de bruit et un renforcement très net du contraste des formants. (Carrat R., Carrat X., Durivault J., Coderch M., Bourraud J.-CI., Présentation d’un traitement du signal de la parole dans le bruit. Résultats préliminaires. Rev. Off. de la Soc. Franç. ORL. 2000, 63, 5, 33-38.)

214

12 • Échantillonnage cochléaire et psychopathologie auditive

À l'inverse, si le champ auditif est rétréci (hypoacousie) ou si les phonons sont de plus grande taille que la normale (troubles de la discrimination), l'acuité sera d'autant plus altérée que les phonons seront moins nombreux. Actuellement, la détermination du ΔT n'étant pas entrée en pratique courante, la reconnaissance de l'objet sonore est réduite à la reconnaissance d'une forme à 2 dimensions. Une forme sonore peut donc être représentée par un graphe à 2 dimensions dans lequel chaque pixel (carré blanc en l'absence d'information, carré noir s'il existe une information sonore) correspond à un phonon. Selon le degré de la surdité quant au niveau (légère, moyenne, sévère ou profonde) et selon l'atteinte fréquentielle (rétrécissement du champ ou trouble de la sélectivité), les contours de cette forme sonore sont de plus en plus grossiers et ses contrastes de plus en plus flous, pouvant aller jusqu'à l'absence totale de reconnaissance (Fig. 12.15). La reconnaissance d’une forme sonore dépend de la capacité de discriminer les formes élémentaires qui la composent. Mis à part la mesure du ΔT qui reste délicate et peu pratiquée, on peut représenter une forme sonore par un assemblage de formes élémentaires définies par deux dimensions ΔI et ΔF. En ce qui concerne les surdités de transmission (dont les ΔI et ΔF ne sont pas modifiés), il suffit d'amplifier le niveau sonore pour reconnaître les formes sonores élémentaires composant la forme globale. Le contraste est maintenu, et de plus il est accentué. À l'inverse, dans les surdités de perception, les formes élémentaires sont de plus grande dimension (ΔI, ΔF et ΔT sont augmentés). Les pixels sont plus grands et moins nombreux. L'amplification n'est pas en mesure d'améliorer ni le contraste, ni la capacité de discrimination de la forme sonore. Comme le pas d'échantillonnage (de l'oreille interne) n'est pas modifié par la prothèse, la forme sonore reste floue (Fig. 12.16).

Codage de la parole. Implants cochléaires et échantillonnage cochléaire La fonction de convertisseur analogique-numérique intrinsèque à la cochlée a été confirmée de façon éclatante au cours des dernières décennies par la technique dite des implants cochléaires. Il s’agit d’un procédé de réhabilitation de la surdité profonde, qui consiste à implanter un générateur d’impulsions électriques codées à partir du signal acoustique 215

L’ OREILLE

NUMÉRIQUE

Fig. 12.15. Degrés de surdité et formes sonores.

(parole ou autre), afin de stimuler les reliquats nerveux auditifs du sourd non appareillable. Depuis la première tentative de Eyries et Djourno pratiquée à Paris en 1957, de nombreuses équipes d’otologistes de par le monde se sont penchées sur ce problème1. Les recherches ont abouti à la mise au point de techniques chirurgicales parfaitement codifiées, à la fabrication de divers types de prothèses techniquement remarquables par la miniaturisation de la partie implantée ou par la réalisation d’électrodes multicanaux. En dehors de problèmes d’ordre anatomique, psychologique et social posés par l’implantation, et de la nécessité de s’appuyer sur une 216

12 • Échantillonnage cochléaire et psychopathologie auditive

Fig. 12.16. La correction des surdités et la reconnaissance des formes sonores.

équipe multidisciplinaire compétente lors de la rééducation, un grand nombre d’exigences doivent être respectées : 1. la prise en compte des données de l’électrophysiologie2 : 2. l’analyse des signaux acoustiques, dont celui de la parole3 3. le codage électrique de ces signaux4. Pratiquement, toutes les écoles ayant abordé le problème des implants d’électrodes intra-cochléaires traitent le signal acoustique de la parole par analyse fréquentielle au moyen d’un banc de filtres, et retiennent le niveau de chaque bande sonore, c’est-à-dire l’enveloppe à la façon du Vocoder à canaux5. 217

L’ OREILLE

NUMÉRIQUE

Suivant la conception classique de la localisation fréquentielle cochléaire sur la MB (concept de la tonotopie), on attribue une électrode de stimulation à chaque bande de fréquence du champ auditif. Dans ce type de codage, on admet que le support majeur de l’information de la parole est d’ordre fréquentiel, et qu’il existe également une tonotopie cochléaire électrique (chaque localisation membranaire est supposée réagir électriquement par une sensation de hauteur différente). Enfin, on postule qu’en augmentant le nombre d’électrodes implantées on augmente corrélativement le débit d’information. En rétablissant une fonction auditive, et en parvenant à sortir le sourd profond du monde du silence, les résultats sont saisissants. En ce qui concerne la compréhension du langage, ils sont de degré très variable, les uns quasi immédiats, spectaculaires, d’autres très relatifs et nécessitant une prise en charge rééducative complémentaire prolongée, orthophonique en particulier. Il a été d’ailleurs bien difficile de confronter les résultats obtenus en raison, le plus souvent, de la diversité des tests retenus, d’une louable inclinaison de chaque groupe de travail à présenter des sujets stars et à défendre ses choix techniques. La prothèse multicanal recueille maintenant la totalité des suffrages6. De multiples paramètres entrent certainement en jeu. Les sujets « stars » qui ont une compréhension quasi immédiate de la parole après implantation possèdent manifestement une capacité de reconnaissance « centrale » exceptionnelle. Par ailleurs, on ne connaît pas très exactement le type de surdité neurosensorielle de ces sujets et le degré relatif de l’atteinte des systèmes ciliés externes ou internes. Il est évident qu’une perte sévère du nombre des capteurs sensoriels externes (donc une surdité sévère) peut ne pas s’accompagner nécessairement d’une perte aussi dense des capteurs internes (donc d’une capacité résiduelle potentielle de codage de fréquence non négligeable). Tout en reconnaissant l’immense bénéfice apporté par cette technique aux handicapés auditifs profonds, on peut émettre quelques réserves quant au codage du signal acoustique. La démarche commune des différents groupes de recherche repose sur les postulats suivants : – le support de l’information est fréquentiel, – il existe une tonotopie cochléaire, aussi bien acoustique qu’électrique, – en augmentant le nombre de bandes fréquentielles, de canaux et d’électrodes, on devrait augmenter la finesse de l’analyse, le débit informatif et la qualité du message transmis. 218

12 • Échantillonnage cochléaire et psychopathologie auditive

Dans les faits, en ce qui concerne la parole, ce type de codage privilégie l’information esthétique (les fréquences), la mélodie, aux dépens de l’information sémantique. Cela explique les résultats immédiats satisfaisants obtenus dans la reconnaissance d’airs musicaux, mais le plus souvent la nécessité d’un apprentissage pour la reconnaissance des mots. On peut en outre objecter que l’information de la parole supportée par les phénomènes transitoires et les phénomènes évolutifs en général ne sont pas suffisamment pris en compte. Le rôle des constantes de temps des filtres est en fait primordial. D’autre part, l’augmentation du nombre des électrodes, malgré les prouesses techniques (Clarke, Charachon) est nécessairement limitée. En diminuant leurs intervalles au niveau de la membrane basilaire, elle aboutit rapidement et inévitablement à un chevauchement des champs électriques. Enfin, les « images » électriques obtenues (assimilables à des formes de Savart) sont nécessairement grossières, peu précises en comparaison des formes acoustiques membranaires. Elles sont particulièrement infidèles. En retenant le principe du Vocoder à canaux, c’est-à-dire une analyse fréquentielle par bandes avec détection de l’enveloppe dans chacune d’elles, le codage cochléaire d’un même mot varie obligatoirement en fonction du niveau de la voix chez un même locuteur, et aussi en fonction du registre vocal du locuteur. Les canaux initiés pour un même mot ne sont pas identiques s’il s’agit d’un locuteur homme, femme, ou enfant. Il en résulte que, pour une même information de la parole, ces deux variables (intensité et timbre variables) vont se traduire par un nombre très élevé de configurations du codage électrique, et rendre difficile l’apprentissage, la mémorisation et la reconnaissance de ce qui constitue un nouveau langage7. Fort heureusement, l’étonnante plasticité cérébrale parvient en partie à corriger ce défect avec la rééducation. Enfin les techniques d’implantation reposent sur le postulat que la cochlée effectue une analyse spatio-fréquentielle du signal. En fait, il semble bien que ce type de codage effectue une conversion de la hauteur en une cartographie complètement différente du codage physiologique sur la cloison cochléaire. Après apprentissage, on aboutit à une reconnaissance spatiale de la zone stimulée (de la même manière qu’on reconnaît bien le siège d’un point de piqûre cutanée). À signaler les récentes tentatives de réhabilitation auditive par adjonction à une stimulation cochléaire par implantation d’électrodes d’une stimulation acoustique conventionnelle, dans l’optique de stimuler des zones différentes de la cochlée. Il s’agit là d’un non-sens physiolo219

L’ OREILLE

NUMÉRIQUE

gique, d’une part parce que la localisation fréquentielle dans la cochlée est un mythe, et que les deux modes de codage ne sont pas identiques. On ne peut aboutir qu’à un chaos informationnel.

Acouphènes, bruit de fond cochléaire et échantillonnage cochléaire : un modèle de chaos neuronal auditif stochastique et déterministe On évalue entre 17 et 30 % le nombre de sujets qui présentent ou ont présenté dans leur vie des épisodes de bourdonnements d’oreille, proportion qui augmente avec l’âge. Dans la majorité des cas, ces bruits anormaux d’oreille, ou acouphènes, ont un début habituellement insidieux, mais ils peuvent aussi succéder à des causes bien précises : bruit, ototoxiques…

Une physiopathologie obscure La hauteur ou le timbre des acouphènes est très variable : plutôt de tonalité grave au cours de surdités de transmission et habituellement aiguë pour les surdités neurosensorielles. Dans ces derniers cas, les sujets évoquent un bourdonnement d’insecte, le murmure du vent, un chuintement, ou encore un sifflement. Parfois, ils présentent un caractère pulsatile, en particulier au cours des surdités de transmission. Quelquefois, lorsqu’ils revêtent un caractère continu comme dans les surdités de perception, ils peuvent avoir une répercussion psychologique de type obsessionnel. Leur intensité est également très variable : de faible à très forte. S’ils sont toujours signalés dans le silence, ils peuvent être masqués par les bruits ambiants. Ils ne sont que rarement perçus par l’examinateur : dans la majorité des cas, ils sont purement subjectifs. L’étiologie des acouphènes n’est pas toujours discernable. Ils peuvent, certes, survenir à la suite d’une lésion traumatique du système auditif (traumatisme sonore, traumatisme crânien), ou à la suite d’une atteinte toxique endogène ou exogène de l’oreille, ou au cours de la banale presbyacousie. Mais ils peuvent aussi se manifester sans aucune perte auditive ni subjective, ni objective à l’examen audiométrique tonal. En l’absence de cause locale évidente, ils sont la plupart du temps bilatéraux. Enfin, les nombreux traitements qui ont été proposés sont généralement peu efficaces, voire sans effet (masking, médications, stimulation électrique). Au point qu’ils justifient quelquefois le recours à une prise en charge psychothérapique. 220

12 • Échantillonnage cochléaire et psychopathologie auditive

À signaler enfin que, si on isole un sujet normo-entendant, ne se plaignant pas d’acouphènes, dans un milieu silencieux (cabine insonore, chambre sourde), il ressent rapidement un chuintement d’oreille. Cette sensation auditive, appelée « bruit de fond cochléaire » est un bruit physiologique. En dépit de nombreuses hypothèses, la physiopathologie des acouphènes (d’origine neurosensorielle) reste obscure. Ni le modèle de Jastreboff1 dérivé de la théorie du Gate Control et qui prévaut actuellement, ni ses variantes (1960), ne peuvent expliquer la tonalité constante de timbre élevé, tant des acouphènes que du bruit de fond physiologique cochléaire.

Un nouveau modèle pathogénique : les acouphènes sont l’expression d’un échantillonnage chaotique neuronal auditif de type déterministe. Néanmoins, en s’appuyant sur le concept de l’échantillonnage cochléaire d’une part, et d’autre part sur la théorie du chaos2 (du fait du caractère incontrôlé des influx nerveux chez les acouphéniques), on peut proposer un modèle pathogénique qui intègre trois groupes de données : la production de spikes spontanés au niveau des fibres nerveuses, un dysfonctionnement du système nerveux feed-back auditif, et enfin l’absence de localisation fréquentielle cochléaire (de tonotopie). 1. Comme pour n’importe quelle fibre nerveuse de l’organisme, les neurones auditifs au repos sont le siège de dépolarisations spontanées discontinues, se traduisant sur les tracés électrophysiologiques par la survenue de spikes (pics) de cadence relativement lente, sans aucune synchronisation entre eux. À la suite d’un stimulus sonore, le rythme des décharges au niveau de chaque fibre augmente, et devient rythmique si le signal est périodique. 2. La systématisation nerveuse auditive efférente est celle d’un système anatomique formant une boucle de rétroaction négative (feedback). Elle suggère, sur le plan fonctionnel, l’existence d’un mécanisme régulateur de type freinateur du rythme des spikes qui, après des relais successifs, vont gagner les aires auditives corticales (feed-back négatif). L’atteinte de ce système feed-back libère en conséquence la cadence de ces spikes (configuration comparable au Gate Control concernant la douleur médullaire). 3. Si on retient la théorie de la localisation tonale cochléaire (tonotopie), il faudrait admettre qu’un acouphène de timbre aigu est l’expression de lésions et de dépolarisations spontanées des cellules et des fibres 221

L’ OREILLE

NUMÉRIQUE

nerveuses strictement localisées à la base de la cochlée. Or cette hypothèse n’est compatible ni avec les dires d’un sujet qui ne ressent aucun déficit auditif, ni avec des constats audiométriques absolument normaux. Inversement, la théorie de l’échantillonnage cochléaire démontre que, pour percevoir un son entretenu quelconque, le pattern de l’excitation neurosensorielle doit être réparti sur l’ensemble de la membrane basilaire. Avec un pas d’échantillonnage très étroit et synchrone, la perception correspond à celle d’un son très aigu. Si ce même échantillonnage des cellules et des fibres est désynchronisé, la perception devient alors celle d’un bruit blanc. On est donc en droit de penser que les acouphènes décrits souvent par ces sujets comme un chuintement correspondent à une dépolarisation spontanée et aléatoire, chaotique, des fibres du nerf auditif, dépolarisation non régulée par un dysfonctionnement du système afférent rétroactif. De plus, en fonction de la densité des fibres dépolarisées, ce bruit aléatoire pourra revêtir un timbre plus ou moins aigu. L’adjonction d’un son pur au signal nerveux spontané aléatoire redonne une certaine synchronisation des décharges nerveuses (émergence du signal sur le fond, selon la gestalt-théorie). Enfin, ce concept de décharges spontanées aléatoires tant du point de vue temporel sur chaque fibre que du point vue spatial sur l’éventail des fibres nerveuses auditives constitue un modèle original au bruit de fond cochléaire physiologique. L’origine de cette dérégulation du système efférent rétroactif reste encore obscure : insuffisance ou excès de médiateurs chimiques synaptiques, rôle du système nerveux sympathique intra-cochléaire ?

222

Chapitre 13

Le numérique et les organes des sens. La place de l’oreille

L’ère du numérique : une évolution fulgurante L’histoire de l’humanité procède par bonds. Elle est jalonnée de découvertes qui ouvrent une ère nouvelle, séparées les unes des autres par des intervalles pouvant aller de millénaires à des siècles, ou seulement à quelques décennies, au fur et à mesure qu’on se rapproche des temps modernes. Toutes caractérisent une civilisation et s’empilent les unes sur les autres. On parle de la découverte du feu, de l’âge de la pierre, du fer, etc. ou encore du calcul des Sumériens, de l’astronomie babylonienne et égyptienne, de la géométrie des Grecs, autant de jalons plantés sur l’échelle du temps. Plus on se rapproche de notre temps, plus leur nombre grandit : l’imprimerie, les lois célestes, l’électricité, l’ère pastorienne, la chimie, l’atome, pour n’en citer que quelques-unes. Nous sommes entrés brusquement, il y a seulement quelques décennies, dans l’ère extraordinaire du numérique. La révolution numérique a envahi notre civilisation, nos vies. Son avènement bouleverse tous les secteurs, y compris et surtout ceux de la culture et de la communication. Elle signerait une seconde mutation de la condition humaine, la première ayant eu lieu pour G. Charpak et R. Omnès au début du néolithique1. Cette dernière révolution est née de l’ouverture d’esprit de grands noms 223

L’ OREILLE

NUMÉRIQUE

que la science honore avec juste raison : entrevue par Einstein, Nyquist et Hartley, elle fait suite aux idées géniales de Shannon, Weaver, Wiener, pères de la théorie générale de l’information et de la communication, et de celles de Alan Turing, John von Neumann, Konrad Zuse, qui jetèrent les bases de l’informatique.

L’universalité du numérique Le numérique est quelque chose de naturel, qui va de soi. Les jeunes générations l’ont spontanément adopté. Il est universel et unificateur. Universel si on considère la place considérable prise par la communication dans notre vie sous de multiples manifestations : on communique des informations, des renseignements, des vœux, des ordres, des motions, des sentiments, des états d’esprit, de la chaleur, du mouvement,… Tous ces évènements procèdent du numérique, d’un langage unique, commun, alors qu’ils n’ont aucune similitude physique. Il est aussi unificateur là où des disciplines, des activités, étaient restées jusque-là très cloisonnées. Le numérique ne fait que reproduire la nature. Il est partout et depuis toujours. « Les lois de la nature sont transcendantes : la science ne les invente ni ne les construit, mais elle les découvre »1. Le numérique n’a pas besoin d’être inventé : il était et il est là. Il est presque de nature génétique4. Comme Monsieur Jourdain faisait de la prose sans le savoir, nous l’ignorions superbement. Nous redécouvrons ce que la nature a toujours utilisé. On pourrait penser que l’avènement de l’ère de l’information et de la communication risque de conduire à un accroissement de la complexité des organisations, des réseaux, des systèmes. Rien n’est moins sûr si on considère que la théorie de l’information et de la communication offre au contraire une vision plus simple, plus synthétique, plus universelle des systèmes qui gouvernent le monde, aussi bien les sociétés, l’économie, que les organismes, les fonctions sensorielles, etc.5

Que sous-entendent ces termes si communs de numérique et de numérisation ? Dans l’esprit de beaucoup de nos concitoyens, le numérique relève d’une technologie, comme celles de la mécanique, de l’électronique, etc., sans bien imaginer ce qui se cache derrière cette appellation. Les plus avertis en connaissent cependant la signification. 224

13 • Le numérique et les organes des sens. La place de l’oreille

Pour faire simple, les informations en provenance de notre environnement prennent les apparences les plus variées : lumière, son, chaleur, pression… Chacun de ces phénomènes physiques survient en continu, avec des gradations infinies. Ce sont des signaux dits « analogiques » parce qu’ils sont analogues à ce qui se passe dans la réalité. Il s’agit par exemple des fluctuations d’un son qui, capté par un microphone, est à l’origine d’une variation de la tension électrique à sa sortie. Mais on peut aussi imaginer de découper ce signal ininterrompu, continu, mais variable, en de petites tranches de courte durée, et de donner une valeur à chacune de ces tranches. Plus elles seront fines et nombreuses, plus leur forme globale se rapprochera de celle du signal original. On dit qu’il s’agit de signaux discrets. Au travers de ce découpage, on a effectué un échantillonnage et on a numérisé les échantillons de ce signal. En d’autres termes, on voit donc que la numérisation correspond à la transformation d’un signal continu (dit analogique : température, pression, courant, vitesse, force, etc.), en un signal discontinu, dit numérique, représenté par des valeurs discrètes (c’est-à-dire séparées) et qu’elle comporte deux activités parallèles : l’échantillonnage (en anglais sampling) et la quantification. La représentation d’un signal analogique est donc une courbe, tandis qu’un signal numérique peut être visualisé par un histogramme (une image en escalier). Cette transformation est encore appelée conversion analogiquenumérique. On devine d’emblée que la qualité de cette transformation dépend de la finesse du découpage : si on prélève des échantillons à des intervalles très rapprochés, la numérisation peut fournir une reproduction d’apparence parfaite. Toutefois, pour être représentative et pour éviter tout risque d’erreur, cette conversion doit être effectuée à des intervalles suffisamment rapprochés – au moins deux fois la vitesse de la fréquence la plus haute du signal7, 5. C’est le théorème de Shannon. En quoi ce mode de transformation des signaux de notre environnement peut-il nous intéresser, et nous faire entrevoir son impact sur les organes des sens ? Pour illustrer ce propos, on rapporte habituellement les deux exemples suivants8. Lorsqu’on filme une séquence cinématographique, on transforme une scène continue et animée en une suite d’images fixes. Il suffit de projeter ces dernières à une cadence suffisamment élevée pour que notre œil retrouve une sensation de continu. S’il s’agit d’un courant électrique recueilli à la sortie d’un microphone, on peut de même représenter ses variations d’intensité par une succession de valeurs de la tension prélevées à des intervalles réguliers : elles sont d’autant plus représentatives qu’elles se succèdent à des instants plus rapprochés. En 225

L’ OREILLE

NUMÉRIQUE

donnant une valeur à chaque fraction du signal, on l’a numérisé. Par un mécanisme inverse, on peut à partir de ces valeurs reproduire un son dit numérique de qualité d’autant meilleure que la numérisation aura été plus fine9. Dans un CD audio, par exemple, le son est échantillonné 44 100 fois par seconde. « L’onde sonore (niveau de pression du son mesuré en volts) est enregistré sous la forme de nombres précis (eux-mêmes transformés en bits). Lues 44 100 fois par seconde, ces chaînes de séquences restituent la musique originale en un son d’apparence continu. Les mesures successives et précises sont tellement rapprochées dans le temps qu’on ne les perçoit pas comme une succession de sons séparés, mais comme une continuité sonore »5.

Le codage et la transmission de l’information Le signal numérisé, c’est-à-dire quantifié par des nombres la suite des valeurs, doit être codé en vue de sa transmission ou de son stockage. Le codage de ces valeurs numériques représentatives du signal peut revêtir de multiples aspects : par exemple sous forme d’alternances d’éclairs lumineux et d’obscurité, de passage ou non d’un courant, etc. « L’idée d’utiliser uniquement deux symboles pour coder des informations n’est d’ailleurs pas récente. Les tam-tams de certaines tribus africaines transmettent des messages sous forme de notes aiguës ou graves. Le morse, plus proche de nous, est également un code à deux symboles, le trait et le point. Les aborigènes d’Australie comptent par deux et d’autres ethnies nomades, en Nouvelle-Guinée ou en Amérique du Sud notamment utilisent l’arithmétique de la même façon » 6. Le langage informatique utilise le 0 et 1, l’électronique le + et le –, la fibre nerveuse la présence ou l’absence d’impulsion, etc. Ce langage réduit à deux possibilités est dit binaire. La transmission de l’information par un signal binaire ou bit (contraction de binary digit) a un caractère universel. « Un bit n’a ni couleur, ni taille, ni poids, et il peut voyager à la vitesse de la lumière. C’est le plus petit élément de l’information. C’est un état : branché ou débranché, vrai ou faux, haut ou bas, dedans ou dehors, noir ou blanc, etc. Pour des raisons pratiques, nous considérons qu’un bit est un 1 ou un 0 ». « Les bits ont toujours été l’élément de base du calcul numérique ». Ce langage universel permet de traiter tous les types d’informations . Dans la pratique, l’homme a instinctivement exprimé les valeurs par le système décimal (compter sur ses dix doigts), système relativement 10

226

13 • Le numérique et les organes des sens. La place de l’oreille

compliqué puisqu’il nécessite dix chiffres. Mais il y a plus simple : la numération binaire, qui n’utilise que deux signes. Inventée par Leibniz, elle est restée dans l’oubli pendant deux siècles ! C’est pourtant un système particulièrement simple puisqu’il suffit de deux positions : oui ou non, 1 ou 0, ouvert ou fermé pour un relais, pour un flux d’électrons, pour une lampe d’éclairage, pour une cellule nerveuse, etc. pour matérialiser une grandeur. Notre cerveau lui-même est constitué d’un ensemble de cellules obéissant à un tel mécanisme élémentaire, la loi du tout ou rien28. Ainsi numérisé et porteur d’information, le signal est alors transmis au moyen d’un support, un canal, de nature très diverse (fil du téléphone, onde de radio, câble…). Sa qualité reste parfaite, à la différence du signal analogique qui se dégrade plus facilement, et son stockage est moins onéreux. Toutefois, la transmission de l’information est limitée par le nombre de bits que peut débiter un canal par seconde, par sa largeur de bande. Ce nombre ou cette capacité doit s’ajuster au nombre de bits nécessaires pour reproduire un type précis de données (voix, musique, vidéo) : 64 000 bits/s est plus que confortable pour une voix de haute qualité ; 1,2 millions de bits par seconde est plus que suffisant pour de la musique haute fidélité et 45 millions de bits par seconde convient à merveille pour reproduire la vidéo » 3. Ce flux de « bits » d’information sera en fin de course traité, comme par exemple en télécommunications par n’importe quel ordinateur6. Au total, les bits constituent un moyen d’échange de l’information, du message, quel que soit son vecteur : le langage, les mots, et ce qui nous intéresse le plus, le système nerveux… L’information, c’est le message quel qu’il soit (alors que la communication, processus infiniment plus complexe concerne la relation [rarement complémentaire] entre l’émetteur, le message et le récepteur).

Le numérique et la technologie Depuis l’énoncé de la théorie mathématique des communications par Shannon (1948)11, le traitement du signal a pris une importance considérable dans le monde de la science et de la technologie, au point d’être devenu une science à part entière. Grâce à la numérisation du signal et la compression des données, la technologie dérivée du numérique a ouvert d’immenses possibilités dans la réception, le stockage, le traitement et la diffusion de l’information6. La numérisation, nous l’avons vu, permet de traiter les informations (son, image, texte, logiciels) avec un même langage unique, universel. 227

L’ OREILLE

NUMÉRIQUE

Quant à la compression des données, c’est le moyen de faire circuler dans des réseaux déjà installés des quantités beaucoup plus importantes d’informations. Elle se fonde sur le fait qu’un signal contient un grand nombre d’informations inutiles ou redondantes (répétitives). Par exemple, les blancs dans un texte, les silences dans une conversation, les parties fixes d’une séquence vidéo. Les différents niveaux d’information sont échantillonnés, « comprimés », et envoyés sous forme numérique. En bout de chaîne, les séquences animées ou les sons sont reconstitués par des logiciels de décompression. En considérant les bits dans le contexte du temps, ou de l’espace, ou des deux à la fois, la compression de la forme numérique brute permet de supprimer les redondances et les répétitions3, « ce qui est important quand on délivre de l’information par le biais d’un canal coûteux ou bruyant »6. On peut considérer que la technologie du numérique a véritablement débuté dans les années 1970, par ses applications téléphoniques, et qu’elle a progressivement conquis tous les domaines de la communication. Les applications au cours de ces dernières décennies ont été et sont innombrables. « On a pu numériser de plus en plus de types d’information, en les réduisant à une chaîne semblable de 1 et de 0 »5. Elle a ainsi donné naissance en 1981 à l’audiodisque numérique (Compact Disc Audio) et à la même date, dans le sillage de la microinformatique, permis le passage du traitement analogique à la forme numérique des images destinées à la télévision2. Certes, on savait de longue date qu’on pouvait reproduire des lettres par des suites de points noirs et blanc, transmettre des images (le belinographe), mais on ne soupçonnait guère les performances que pouvait apporter la numérisation. On a pu constater combien la qualité de l’image télévisée dépendait du nombre de lignes et de pixels, comment la reproduction de la musique restait excellente sans que l’utilisation répétée de son support ne la détruise, comment nous pouvions recevoir les images des mondes lointains cosmiques, etc. Le proche futur du numérique est déjà esquissé avec ses technologies de pointe : la TV à super écran plat, le téléphone mobile Wi-Fi, le courrier électronique, le mobile guide, le livre électronique, les lecteurs de DVD, MP3, clés USB, eBooks, la mémoire flash des petits composants (en attendant les spintroniques), la reconnaissance vocale en vue de la dictée numérique etc., le baladeur numérique (IPod) avec de nouveaux usages sociaux, culturels, éducatifs (podcasts) et consuméristes. C’est un langage commun qui a envahi le monde des affaires, de la technologie, du commerce et de l’industrie. Le numérique s’est mondialisé. Il connaît une évolution accélérée. Et nul ne sait s’il doit s’arrêter un jour de progresser 228

13 • Le numérique et les organes des sens. La place de l’oreille

car il « possède des qualités qui lui permettent de triompher : c’est une force décentralisatrice, mondialisatrice, harmonisatrice et productrice de pouvoir »3.

Le numérique dans les sciences de la vie et les organes des sens Le numérique s’est imposé dans tous les domaines des sciences de la vie. Il est venu assurer la jonction des diverses disciplines scientifiques, car la recherche monodisciplinaire cède progressivement la place à la multidisciplinarité en raison de la complexité de plus en plus grande des questions. C’est ainsi que la quantification des phénomènes biologiques a largement pénétré le champ d’investigations cliniques : traitement de signaux et d’images, investigation en profondeur des problèmes physiologiques ou physiopathologiques12. Chacun sait que le concept de la théorie de l’information a permis des avancées extraordinaires dans la connaissance de la transmission de l’information génétique (biologie moléculaire)13,14. Le numérique a rejoint le moléculaire et le mécanique pour s’ouvrir en biologie à des technologies avancées12. Il s’est imposé en physiologie sensorielle. Nous ne devons pas oublier que l’individu n’est jamais qu’un agrégat de cellules vivantes qui luttent pour maintenir un degré de négentropie, car la nature a tendance à l’uniformisation spontanée des énergies, ce qu’on a appelé la tendance à l’entropie, c’est-à-dire la mort. Cet individu est plongé dans un monde environnemental hostile et la nature véritable des choses lui échappe en grande partie : les radiations atomiques, un champ très large de radiations électro-magnétiques, des vibrations infra ou ultrasoniques, etc., et pour survivre, il doit ajuster en permanence son métabolisme, ses comportements. L’évolution l’a heureusement et progressivement doté de mécanismes qui lui permettent de détecter le danger, de réagir, et de parer à sa disparition totale de l’univers15. Ces merveilleux détecteurs, dont les capacités fonctionnelles sont malheureusement limitées, (ils ne nous font apparaître le monde extérieur qu’au travers d’une étroite fenêtre), sont nos organes des sens. Nous les connaissons tous depuis l’école primaire : du toucher, du goût, de l’odorat, de la vue et, en ce qui concerne notre propos, de l’ouïe. Comment fonctionnent-ils ? On a beaucoup glosé depuis des siècles sur la question, et on ne fait qu’entrevoir leur machinerie. Le principe général est d’apparence relativement simple : un détecteur adapté à la nature du stimulus, un récepteur pour analyser et coder le signal, une 229

L’ OREILLE

NUMÉRIQUE

transmission par des câbles électriques ou par des messagers chimiques, pouvant déclencher par voie de retour des mécanismes d’adaptation ou de fuite. Un stimulus n’est jamais qu’une forme d’agression dans un domaine donné : tout dépend de sa nocivité intrinsèque et de son intensité. Ces mécanismes font l’objet de la physiologie neurosensorielle, par essence science de la communication. Rien de surprenant à ce que la théorie de l’information se soit imposée en neurophysiologie. Un système quelconque, vivant ou non, ne fournit une certaine quantité d’information qu’au travers de messages évolutifs dans le temps. Mais ces messages n’ont de sens que s’ils sont transmis à un destinataire chargé de les réceptionner. À cette fin, ils doivent donc être codés, c’est-à-dire que les éléments qui les constituent doivent être mis sous une forme énergétique adaptée au canal de transmission emprunté. Au final, il appartient au destinataire de traiter l’information qui lui a été transmise. Bien qu’il existe dans l’organisme d’autres canaux de communication : hormones circulantes, paramètres physiques et chimiques des liquides circulants (thermorécepteurs, chémo- récepteurs), c’est le système nerveux qui constitue le canal de communication privilégié. Quand on stimule l’extrémité d’un nerf, on déclenche des impulsions qui vont cheminer le long de la fibre avec une amplitude constante, mais dont la fréquence est fonction de l’amplitude du stimulus. Il est donc logique d’appliquer au système nerveux un mode de fonctionnement calqué sur celui des systèmes de communication, dans lequel le cerveau est l’équivalent d’un centre de traitement et de mise en mémoire des données, et les fibres nerveuses l’équivalent de canaux de transmission reliés aux autres parties du corps. Dans ce système, la transmission de l’information le long des fibres se fait sous forme binaire : on a pu dire que la fibre nerveuse est une autoroute de l’information. Comme le montrent les applications technologiques de ce type de codage, ce mode de transmission de l’information (par modulation en fréquence d’impulsions) est particulièrement avantageux, économique. Certes, il a l’inconvénient de ne pas se prêter au multiplexage en temps : la forme et la position exacte d’une impulsion sur une fibre nerveuse ne sont pas très importantes et la perte d’une impulsion n’est pas trop gênante, car elle n’affecte le comptage total que d’une unité (à l’inverse d’une impulsion de poids élevé en modulation ou impulsions codées) 13. Par contre, il s’adapte fort bien à la répartition spatiale de l’information (répartition spatiale des zones stimulées). Nous rejoignons ici le concept d’un codage mixte, temporo-spatial des voies afférentes du nerf auditif que nous avons développé plus haut. 230

13 • Le numérique et les organes des sens. La place de l’oreille

Le codage de l’information sensorielle Nos organes des sens sont des détecteurs d’information. Nous savons que les organes des sens ont une spécificité propre : détection de la variation thermique, de la pression, de la lumière, du pH, de molécules odorantes, de vibrations acoustiques. L’information naît d’un changement d’état. Quelle communauté entre eux ? Si ce n’est qu’ils sont tous chargés de détecter un signal de nature spécifique propre à sa nature physique (ou chimique) et de transmettre ensuite ce signal sous une forme codée unique, binaire, que ce soit au travers de séquences de pics de dépolarisation sur les fibres nerveuses, ou de la délivrance ou non de médiateurs chimiques. Il n’y a au total que deux états possibles : plus ou moins, positif ou négatif, oui ou non, tout ou rien. Les organes des sens sont des transducteurs chargés de convertir des messages de type analogique en messages de type numérique, puisqu’au final, ils sont codés sous forme d’impulsions nerveuses. C’est la base de l’information sensorielle. D’un organe sensoriel à l’autre, le codage du stimulus est identique : il est réalisé sous forme d’impulsions électriques véhiculées par les fibres nerveuses selon une répartition à la fois spatiale sur l’ensemble des fibres et temporelle sur chacune d’elles. Les mécanismes du traitement de l’information par les organes des sens sont superposables les uns aux autres. Nous avons vu que cette conversion analogique-digitale est une des propriétés remarquables de l’oreille puisqu’elle convertit les sons de nature continue en des signaux discontinus, les spikes des fibres nerveuses auditives. La question essentielle est de savoir si une analyse périphérique préalable du stimulus par l’organe sensoriel est nécessaire à sa reconnaissance. Est-ce la placode olfactive qui décompose un mélange d’odeurs ou le cerveau qui sait reconnaître séparément chacun des composants ? Est-ce l’oreille qui décompose un son complexe périodique ou le cerveau qui a appris à reconnaître séparément les composantes sonores ? On a longtemps attribué cette analyse à l’organe périphérique, mais on doit reconsidérer la question : la réponse est négative. Pourquoi ? On est immédiatement frappés par la disproportion existant entre l’infinie variété des messages analogiques : l’infinie variété des odeurs, la multitude des sons pouvant être perçus, l’extrême variabilité de la pression ou de la chaleur exercée sur la peau, etc., alors qu’à la sortie du récepteur sensoriel le nombre de fibres nerveuses chargées de transmettre le message codé est relativement faible. 231

L’ OREILLE

NUMÉRIQUE

Il n’est pas possible d’attribuer à chaque fibre olfactive une odeur bien précise, ni à chaque fibre du nerf auditif une fréquence sonore bien déterminée, etc. Elles ne seraient pas assez nombreuses. Comment le petit nombre de cellules olfactives pourrait-il traduire la perception d’une quantité infinie de substances odorantes complexes, ou celui des cellules de Corti la multitude des sons générés dans un glissando ? Le bon sens s’y oppose. Si on considère le problème de la perception auditive, on s’aperçoit que 95 % des 35 000 à 40 000 fibres auditives existantes sont regroupées dans un nombre très restreint de 1 500 paquets connectés aux cellules ciliées internes, et que ces paquets de fibres sont fonctionnellement indépendants entre eux. Mieux encore, les 5 % de fibres restantes sont certes connectées au plus grand nombre de cellules ciliées, mais comme elles sont interconnectées, il est impossible que chacune d’entre elles soit sélective. Elles forment un maillage dont la fonction est en réalité celle d’un réseau. Ces cellules sensorielles et ces fibres nerveuses, anatomiquement et physiologiquement semblables, ne peuvent nécessairement assumer leur fonction que par un travail partagé, nous dirions par commutation, selon une logique combinatoire.

L’information auditive. Numérique, combinatoire et codage sensoriel Chez les êtres supérieurs, le message auditif ne se résume évidemment pas à un simple avertissement sur la présence ou non d’un stimulus sonore dans l’environnement. Il est aussi porteur d’une information sur les paramètres qui le caractérisent : la fréquence de la vibration, son intensité, son caractère simple ou complexe, sa localisation dans l’espace, etc. L’oreille n’est pas un simple dispositif d’alerte, c’est aussi un capteur d’information signifiante. Depuis plus d’un siècle, les chercheurs, et avant tout les biophysiciens, se sont efforcés de décrypter les mécanismes qui président au fonctionnement du système auditif. Il s’agissait de comprendre comment l’oreille capte une forme extrêmement spécialisée de l‘énergie, les vibrations acoustiques, et comment elle effectue la conversion de cette énergie en un message sensoriel porteur d’information. Le problème a suscité, nous l’avons dit, un nombre considérable de recherches dans de multiples domaines : expérimentales sur des modèles d’oreille de toutes sortes (mécaniques, électriques, mathématiques…), électrophysiologiques, psychoacoustiques, etc. Il a conduit à de nombreuses théories qui, toutes, attribuent à l’oreille une fonction de décomposition des sons complexes, 232

13 • Le numérique et les organes des sens. La place de l’oreille

mais au prix de multiples remaniements et entorses à la logique. Si on décortique l’évolution des idées, on comprend aisément cette unanimité, dans la mesure où elles s’appuient unanimement sur le concept de la décomposition physique des sons complexes périodiques. On a imprudemment transposé des phénomènes physiques au domaine physiologique. Le domaine de l’inerte n’est pourtant pas transposable sans précautions à celui du vivant. Le nombre de paramètres, l’intrication des situations, font que le choix des facteurs n’est jamais objectif. Le physique n’est pas le physiologique, même s’il peut lui venir en aide. On continue néanmoins, sans discernement, et en dépit de la persistance de nombreuses énigmes et paradoxes, de considérer que le message élaboré par un organe aussi mystérieux que l’oreille, doit être nécessairement analysé avant d’être transmis sous une forme adaptée, aux centres cérébraux. La numérisation et les données modernes de la transmission de l’information montrent pourtant qu’une telle analyse préalable n’est pas justifiée. L’oreille n’est jamais qu’un maillon dans la chaîne de communication acoustico-auditive et les physiologistes doivent se résoudre à rendre compatible l’accumulation des données avec les concepts modernes de l’information et de la communication. Sur quelles bases ? Tout d’abord sur la similitude de fonctionnement des organes des sens. Certes, ce sont des capteurs de signaux qui diffèrent dans leur structure (adaptée au type de stimulus venu du monde extérieur), mais tous communiquent directement avec les centres de traitement cérébraux par des circuits identiques d’un sens à l’autre. Ces organes sensoriels possèdent en outre la faculté de traduire en une perception identique des formes très différentes de signaux : la pression sur le globe oculaire donne une sensation lumineuse, un courant galvanique sur l’oreille une sensation auditive, etc. Ils ont pour caractéristique d’être réceptifs à la variation du stimulus, donc de capter l’information. L’information, c’est ce qui change19. Ensuite sur leur mode similaire de détection de l’information en provenance de notre environnement : aucun de nos capteurs sensoriels ne présente de zones bien délimitées qui seraient dévolues à une qualité donnée. Il n’y a pas de zone de la rétine attribuée à telle ou telle couleur. De même, en ce qui concerne le goût, la division de la surface de la langue en zones très spécifiques ayant chacune la capacité de détecter certaines caractéristiques comme le sucré, ou le salé, relève du mythe. En fait, ainsi que l’a bien démontré Linda Bartoschuk22, de l’Université 233

L’ OREILLE

NUMÉRIQUE

de Yale, cette cartographie linguale simpliste est une vue de l’esprit. Il y a perception gustative potentielle partout où existent des papilles gustatives23. De même pour l’olfaction. Il n’existe pas d’endroit précis de la plaque olfactive affecté à telle ou telle odeur. On n’a jamais imaginé qu’il puisse exister une cellule olfactive spécifique propre à la réception de chacune des milliers de molécules odorantes. Il a fallu attendre l’année 1991 pour que Linda Buck et Richard Axel (Nobel 2004) fournissent une explication rationnelle aux mécanismes de l’olfaction. Ils ont en effet montré que chaque cellule sensorielle ne répondait pas spécifiquement à une molécule odorante, mais inversement qu’une molécule pouvait être acceptée par plusieurs neurones, et qu’un neurone pouvait accepter plusieurs molécules. De la combinatoire pouvait naître une infinité de représentations au niveau central. Pourquoi au demeurant les mécanismes de l’audition se différencieraient-ils de ceux des autres organes sensoriels ? Les cellules ciliées ne sont pas assez nombreuses pour que l’on puisse attribuer à chacune d’elle une fréquence sonore précise. Pourquoi existerait-il une localisation fréquentielle cochléaire ? Une décomposition périphérique des sons complexes est non seulement contestable, mais aussi impossible. Seul un échantillonnage des formes membranaires de la cochlée permet, par un mécanisme combinatoire, de représenter la multitude des formes acoustiques issues de l’environnement et de les transmettre par codage impulsionnel aux centres auditifs.

Le transport et le traitement de l’information sensorielle Pour tous les systèmes sensoriels, immédiatement après chaque premier neurone, l’information est « dispatchée », chaque neurone pouvant entrer en relation avec les dendrites issues des neurones suivants. Ces neurones sont reliés entre eux par des zones de contact discontinu ou synapses, où peuvent intervenir de nombreux intermédiaires chimiques. Par une sorte d’aiguillage de proche en proche, l’information va cheminer jusqu’aux centres bulbaires et cérébraux dans un réseau très complexe sur lequel se penchent actuellement les chercheurs en neurosciences16. Sachant que l’encéphale est composé d’environ cent milliards de neurones, et qu’on peut estimer à 10 000 le nombre de synapses par cellule nerveuse, il y aurait un nombre total de synapses de l’ordre de 1015. Il est donc bien difficile de démêler le cheminement de l’information jusqu’à son terme. 234

13 • Le numérique et les organes des sens. La place de l’oreille

Un modèle toutefois mérite d’être rapporté en complément du modèle de l’échantillonnage des formes des stimulus périphériques : c’est celui des réseaux d’automates cellulaires30 qui viendra peut être au secours des recherches en neurosciences, parce qu’il se réfère au numérique31. N’importe quel espace peut être simulé, au moins de manière approchée, par de tels réseaux d’automates. Certaines configurations ont la propriété de se déplacer, d’autres s’étendent indéfiniment, elles peuvent même se replier comme dans un tore, d’autres simulent le hasard, etc. On conviendra que la complexité des relais synaptiques, les imprévisibles et innombrables jonctions dendritiques fonctionnelles (que l’on pourrait croire relevant du hasard) pourraient fort bien relever de ces réseaux des automates cellulaires. Et que le système pourrait fonctionner du point de départ sensoriel jusqu’au centres corticaux. Le moins qu’on puisse dire, c’est qu’intervient en final et en chaque point le transfert d’une information par mode binaire. Cette hypothèse rejoint les théories de la complexité, les technologies informatiques, la recherche sur les ordinateurs quantiques. Du désordre apparemment total peut naître l’ordre à partir d’un programme très simple, des résultats organisés où le hasard est rarement dominant (on connaît l’image des singes programmeurs attribuée à Emile Borel, lesquels, à force de taper au hasard sur le clavier d’une machine à écrire, finissent par rédiger le texte d’un ouvrage). Au-delà des premiers relais des noyaux auditifs, on ne peut que théoriser sur le cheminement de l’information auditive et sur les processus conduisant à la reconnaissance des sons.

L’information n’est pas spécifique à l’organe sensoriel périphérique Fait remarquable, l’information peut emprunter un canal sensoriel qui ne lui est pas primitivement destiné. Elle peut résulter d’un transfert, d’une substitution d’un organe sensoriel à l’autre. Les sensations se redéfinissent chaque fois que nous utilisons une nouvelle interface. Les informations qui arrivent au cerveau sont miscibles en toutes proportions. Finalement, la représentation consciente des objets est une synthèse de toutes les représentations sensorielles, mais non pas une simple juxtaposition17. Les réseaux neuronaux sont libres d’aller chercher l’information dans les différentes sphères du monde sensoriel puis de les transmettre ou non à n’importe quelle zone du cerveau. 235

L’ OREILLE

NUMÉRIQUE

On a ainsi imaginé sur cette base, afin de compenser un handicap sévère ou profond, des dispositifs de codage de l’information par transposition d’un organe sensoriel à l’autre : codage visuo-tactile24, codage visuo-auditif 25. Dans le domaine de l’audition, on a imaginé de coder la parole chez les sourds-profonds par des variations de pression sur la peau au moyen de vibrateurs portés au poignet.

Bionique et audition Le codage de l’information peut ne pas se limiter à son transfert d’un organe sensoriel à l’autre. Grâce au numérique, nous sommes entrés dans une ère hybride de la transmission de l’information, à la fois biologique, mécanique, électronique et informatique. Ainsi est née une nouvelle discipline, la bionique (contraction des mots biologie et électronique) dans les années 1950-1960, à la suite des travaux de Humberto Maturana, Walter Pitts, Warren et McCulloch du MIT, qui s’efforçaient de copier les organes du corps grâce à l’électronique, et énoncée par J. de Rosnay26. Au lieu de chercher à obtenir par des machines construites de main d’homme les mêmes résultats que ceux produits par les mécanismes de la nature (cybernétique), la bionique procède d’une méthode inverse consistant à obtenir ces résultats par l’observation et le respect minutieux des dispositions existant dans la nature. C’est une démarche très ancienne consistant à rechercher chez le vivant des modèles en vue d’une réalisation technique. Elle a pour but de comprendre la nature quand la technologie vise à la maîtriser. Elles sont complémentaires l’une de l’autre29. La bionique a trouvé une place de choix dans la reproduction des fonctions biologiques, intégrées à l’utilisateur, en particulier dans les domaines de la réhabilitation des déficits locomoteurs et des handicaps sensoriels. En ophtalmologie par exemple, les recherches de pointe s’orientent vers une stimulation directe au niveau de la rétine des cellules nerveuses du nerf optique par l’intermédiaire d’une puce électronique implantée, l’implant pouvant être subrétinal (sur la face externe de la rétine) ou épirétinal (sur la face interne de la rétine au contact des photorécepteurs). Cet œil bionique, lors de dégénérescence de la macula (rétinite pigmentaire), permet de retrouver des sensations lumineuses, de distinguer les contrastes, de voir des objets ou des personnes en mouvement. Une autre voie consiste stimuler directement le nerf optique par un neurostimulateur (après capture de l’image lumineuse et codage par un ordinateur). 236

13 • Le numérique et les organes des sens. La place de l’oreille

L’otologie n’est pas en reste. Depuis plus de trois décennies, les surdités neurosensorielles profondes peuvent bénéficier de la technique extraordinaire des implants cochléaires. Dans ce type de handicap, les aides auditives habituelles ne sont d’aucun secours, l’amplification acoustique ne compensant pratiquement pas l’incapacité de l’oreille interne à générer des influx nerveux. Comme il persiste cependant la plupart du temps un petit reliquat de fibres auditives (environ 5 %), l’innovation technique a consisté à stimuler directement ce reliquat nerveux par un générateur d’impulsions électriques implanté chirurgicalement. L’implant cochléaire est en somme un substitut électronique qui capte les ondes sonores et les transforme en impulsions électriques qui à leur tour stimulent les cellules nerveuses auditives27. C’est l’oreille bionique (cf. chapitre 12, Codage de la parole). Ce procédé de réhabilitation des surdités profondes est venu confirmer la persistance d’une information malgré un transfert de la stimulation sensorielle puisque le codage passe du mode acoustique au mode électrique, et que d’autre part le codage spatial des vibrations acoustiques cochléaires est profondément modifié. Si on considère par exemple le codage d’un son pur, le pattern vibratoire normalement réparti sur la totalité de la membrane basilaire est transformé en un pattern très localisé déterminé par la stimulation électrique de l’électrode correspondante21. D’où la nécessité d’un apprentissage des nouvelles formes sensorielles. L’essentiel, pour que leur mémorisation soit correcte, est que les éléments de ce codage ne soient pas représentatifs de plusieurs patterns. Il est à prévoir que cette technologie, qui s’est installée progressivement de façon quelque peu empirique, progressera encore. L’unanimité ne s’est pas encore faite sur les modalités de la stimulation électrique de la cochlée. On est frappé par la diversité des codages retenus, et aussi par le fait qu’ils ne peuvent prétendre reproduire finement la conversion effectuée normalement par l’oreille interne : le plus performant d’entre eux ne possède que 25 bandes de fréquences et encore ne sont-elles pas toutes fonctionnelles. On constate aussi que, malgré la diversité des procédures, les résultats sont quasi identiques, ce qui laisse à penser que d’autres paramètres ne sont pas pris en compte. Quelle doit-être la place de la mélodie par rapport à la sélectivité fréquentielle ? On est contraint d’admettre en définitive que la pauvreté du codage est fort heureusement compensée par l‘aptitude extraordinaire du cerveau à créer une nouvelle lecture du codage imposé : c’est la plasticité cérébrale. Il est vraisemblable que d’autres progrès seront accomplis en modifiant le concept du codage du message sonore sur les électrodes 237

L’ OREILLE

NUMÉRIQUE

de l’implant. Ils le seront aussi grâce aux développements prévisibles de biotechnologies et à leur convergence avec l’informatique, qui permettront de « concevoir des biomatériaux, des appareils, des relais, des amplificateurs permettant de créer de (nouvelles) interfaces… Ce sera une ère nouvelle pour la bioélectronique et les machines à traiter l’information6 ».

238

Conclusion

Pour une nouvelle approche de la fonction auditive

La démarche de la connaissance Notre avons une vision disciplinaire du monde et dans chaque domaine, nos connaissances de nature encyclopédique s’empilent les unes sur les autres de manière anarchique. Le savoir suit une évolution exponentielle, il est en constante accélération. Cependant, il n’est utile, effectif, que si les données dont nous disposons ne restent pas dispersées au hasard, que si elles forment un tout réfléchi. Les éléments d’un jeu de puzzle ne deviennent significatifs que lorsqu’ils sont convenablement organisés pour dessiner une forme, une image, qui existait virtuellement mais que l’on ne discerne pas au prime abord. Un tas de briques ne devient une maison que si elles ont été ordonnées, agencées selon une forme significative. L’ordonnancement a un sens, une signification. Il est porteur d’information1. C’est le sens du message exprimé par Thomas Kuhn, philosophe des sciences américain, lorsqu’il écrit que « la science ne se construit pas et n’évolue pas par simple accumulation de connaissances, mais par des changements de la façon de concevoir et de traiter les problèmes scientifiques9 ». Les données accumulées depuis près de deux siècles en otologie et en psychoacoustique ne doivent pas être considérées comme des éléments immuables d’un puzzle qu’il suffit de disposer convenablement pour 239

L’ OREILLE

NUMÉRIQUE

élargir la connaissance : nombre des éléments sont devenus obsolètes, voire inexacts, inutilisables pour la reconstruction de l’image, sans compter que nous pouvons procéder différemment pour les agencer. Qu’est-ce que l’oreille : une batterie de résonateurs, une harpe, un séparateur de sons, un microphone, un tube rempli de liquides avec des tourbillons, un palpeur de l’environnement physique téléprojeté du système nerveux central, un réseau de communication ? Que n’a-t-on dit ? Autant d’hypothèses, d’interprétations, souvent en fonction des modes du moment et du poids de leurs promoteurs.

L’oreille et la complexité Ce que l’on a toujours su, c’est que l’oreille était tellement complexe et opaque qu’elle a été assimilée à une boîte noire, c’est-à-dire à un système dont connaît les entrées et les sorties, mais dont on ne sait comment il fonctionne en son intérieur. On s’est donc efforcé depuis le milieu du XIXe siècle, pas à pas, et avec les moyens de chaque époque, d’en percer les mystères. Cette recherche s’est historiquement appuyée sur une logique de pensée, celle de la démarche analytique. Initiée par Descartes, elle procède du plus simple au plus complexe, « pour monter peu à peu, comme par degrés, jusques à la connaissance des plus composés2 ». Elle a fait éclater la complexité en de multiples disciplines : « diviser chacune des difficultés que j’examinerais, en autant de parcelles qu’il se pourrait, et qu’il serait requis pour mieux les résoudre2 ». Mais une telle démarche n’est pas sans risque car, en fragmentant les problèmes, « elle mène parfois au simplisme3 ». La connaissance devient une juxtaposition d’éléments parcellaires, de même niveau, sans qu’il soit tenu compte de leurs interdépendances4. En raison de son caractère statique, cette approche analytique fait douter de sa capacité à comprendre le fonctionnement intime du système auditif. C’est pourquoi elle doit être complétée par une vision dynamique, accordant une place à des rétroactions, à des équilibres, à une autoorganisation. Elle doit s’inspirer de la vision moderne des systèmes complexes, celle dite de l’approche systémique4. (la complexité n’est pas synonyme de complication). L’oreille est en réalité un système dynamique, en ce que les éléments constitutifs interagissent entre eux, se combinent pour former des ensembles complexes, et font émerger de nouvelles propriétés que l’analyse ne peut soupçonner. On ne peut occulter l’interdépendance des voies 240

Conclusion • Pour une nouvelle approche de la fonction auditive

afférentes et efférentes, les mécanismes régulateurs feed-back, ou encore nos connaissances limitées des échanges synaptiques. Macroscopiquement, l’oreille est un système complexe, comme le sont également certains de ses éléments microscopiques, tels que la cellule ciliée. Il est vain de rassembler dans une démarche de synthèse les diverses fonctions élémentaires des constituants de l’oreille, car l’analyse fait perdre en route des propriétés émergentes1 totalement imprévisibles. L’approche la plus réaliste du système est celle de la modélisation. L’accumulation exponentielle de données éparses reposant sur l’approche analytique inspirée du XIXe siècle n’a fait que renforcer la complexité, et opacifier de plus en plus la compréhension de la physiologie cochléaire. Les spécialistes de l’audition sont prisonniers de concepts inspirés d’une vision statique des mécanismes auditifs et font preuve d’un étonnant immobilisme de la pensée. Sur la foi de textes écrits il y a plus d’un siècle, ils s’arc-boutent sur des « vérités établies », comme celle de la décomposition fréquentielle cochléaire, dont ils ne savent se démarquer même quand les faits les contredisent5, 6. Les psychoacousticiens continueront donc de s’attarder dans des discussions byzantines : la résolution (décomposition fréquentielle), la sélectivité fréquentielle, la localisation fréquentielle cochléaire, etc. tant qu’ils ne s’ouvriront pas au numérique.

L’otologie doit muter : le fonctionnement de l’oreille est indissociable du numérique Reprenons les prémices du problème. L’oreille est un capteur dont la fonction est de coder les variations de pression acoustique en un langage impulsionnel. Personne ne conteste que l’oreille – essentiellement la cochlée – est un transducteur qui convertit le signal acoustique en impulsions électriques transmises par les fibres du nerf auditif. Plus précisément, elle code un signal continu en séquences de signaux de type impulsionnel, tous de morphologie identique. Point n’est besoin que l’oreille effectue au préalable cette conversion par une analyse fréquentielle. E. Leipp l’a dit et redit combien de fois. L’oreille n’est pas un appareil de mesure, un fréquencemètre, mais un système physique dont la fonction essentielle est de capter une énergie mécanique du domaine acoustique. Cette énergie qui provient de notre environnement sous forme de bruits, ou de vibrations plus élaborées telles que celles de la parole, a pour caractère essentiel d’être instable, en permanence évolutive. À l’exception des sons purs de laboratoire, il s’agit 241

L’ OREILLE

NUMÉRIQUE

de sons complexes qui fluctuent constamment en intensité et en durée. Ils se traduisent sur un oscillogramme par un tracé compliqué, à dentelures d’allure chaotique, plus ou moins amples et plus ou moins serrées. Ces sons complexes sont à l’origine d’ondes de pression transmises dans les liquides péri-lymphatiques, qui vont à leur tour générer des déformations des structures molles de l’oreille, canal cochléaire et membrane basilaire. Ce sont ces formes membranaires, elles aussi évolutives, que le système sensoriel doit analyser et coder. C’est là qu’interviennent les cellules de Corti, véritables microcapteurs de mouvement sensibles à l’accélération, et qui sont à l’origine des influx nerveux auditifs. Le mode de cheminement de ces influx, leur densité et leur répartition sur l’éventail des fibres est déterminant pour la transmission de l’information. En effet, les propriétés de la fibre nerveuse auditive ne diffèrent pas de celles d’une fibre quelconque de l’organisme. Chaque fibre est le siège, pendant son fonctionnement, d’une dépolarisation de surface qui se propage de proche en proche. Ce phénomène est soumis à deux lois générales : la loi du tout ou rien, et la loi de la période réfractaire. Le codage de l’information délivrée par la cochlée ne peut donc jouer que sur la distribution temporelle des influx sur chaque fibre et sur leur distribution spatiale sur l’éventail des fibres du nerf auditif. On est bien loin du modèle de la localisation fréquentielle cochléaire : il faut savoir en faire le deuil. Reconnaissons que la méthode analytique a permis de dénombrer les composants du système (mouvements membranaires, micro-mécanique ciliaire, physiologie cellulaire, transmission synaptique, etc.). Il n’en demeure pas moins nécessaire de la compléter par une démarche systémique si on veut démystifier la complexité de l’oreille. On verra alors émerger de nouvelles structures (grilles d’échantillonnage), des fonctions différenciées (systèmes ciliés externe et interne), des réseaux neuronaux, etc. La théorie de l’échantillonnage cochléaire relève d’une telle association. Pour illustrer ce propos, prenons quelques exemples. Le premier concerne l’assimilation de l’oreille interne à un convertisseur analogique-digital. La transformation d’un signal continu, analogique, en un signal discontinu, impulsionnel, rejoint le mode de transmission général de l’information. Le codage par impulsions est le mode unique de transmission nerveuse de l’information sensorielle, le langage de l’interconnexion entre cellules sensorielles, neurones et centres de traitement cérébraux. 242

Conclusion • Pour une nouvelle approche de la fonction auditive

La systémique permet aussi de modéliser les fonctions réciproques des systèmes ciliés interne et externe. Alors que le premier procède à l’analyse des formes membranaires de la cochlée par un échantillonnage spatial linéaire et permet le codage de la fréquence des sons, le second, par sa connectivité en un réseau, effectue une intégration des déplacements ciliaires qui permet le codage du niveau du signal acoustique. Par ailleurs, on est conduit à adopter le modèle d’un fonctionnement cybernétique du système cochléaire. Dans ce système, le capteur de mouvement (le système cilié externe de niveau) intervient par une boucle de rétroaction sur le flux d’impulsions délivrées par l’échantillonneur fréquentiel (le système cilié interne) qui vont emprunter les voies afférentes du nerf auditif, véritable autoroute de l’information. Il s’agit d’un système asservi dont le dérèglement pourrait rendre compte de syndromes pathologiques encore obscurs tels que les acouphènes, l’hyperacousie, etc. Autre ouverture : la modélisation des signaux de type aléatoire, comme un bruit blanc. Lorsque la membrane basilaire est soumise à des déplacements chaotiques, le système cilié externe et le système cilié interne sont, eux aussi, nécessairement soumis à des fluctuations aléatoires. Pour le système cilié externe, le taux de dépolarisation des cellules, qui dépend du niveau du bruit, va déterminer par sommation le niveau de sensation sonore. Quant au système cilié interne, la dépolarisation aléatoire des cellules est responsable d’un pattern spatial flou, désordonné, des fibres auditives. Cette nouvelle approche de la complexité n’est pas étrangère à la théorie du chaos [cf. notes chapitre 12]. Il ne fait pas de doute que la conception d’une analyse fréquentielle des sons par la cochlée, pour autant qu’elle paraisse encore aujourd’hui logique, voire « évidente » pour certains, sera aberrante demain. L’accumulation de connaissances en provenance du monde entier pendant ces trente dernières années est loin de répondre aux interrogations posées par la physiologie auditive. Est-on bien sûr que la stimulation électrique des implants cochléaires corresponde à un codage fréquentiel plutôt qu’à un codage cartographique ? Puisqu’en n’importe quel point de la cochlée les fibres peuvent répondre à une cadence de stimulation jusqu’à théoriquement 1 kHz, la réponse à une stimulation de cadence plus élevée ne correspond-elle pas à un repliement ? Pourquoi ne peut-on réaliser une audiométrie objective par potentiels évoqués à partir de l’ensemble des fréquences du champ auditif ? Pourquoi la réponse obtenue par OEAP ne concerne-t-elle que la zone de 2 kHz ? Pourquoi un scotome auditif se produit-il toujours aux alentours de 4 kHz alors qu’il peut succéder 243

L’ OREILLE

NUMÉRIQUE

à un bruit de n’importe quelle fréquence, voire à un bruit plosif dont le spectre couvre tout le champ auditif ? Pourquoi perçoit-on un battement lorsque les sons incidents sont délivrés séparément à chaque oreille ? D’où provient le fondamental absent s’il n‘existe pas sur la partition cochléaire ? etc. Un aggiornamento s’impose. Un stock d’informations ne signifie pas qu’on l’utilise au mieux. Comme en informatique, il faut sélectionner, sauvegarder, vider la corbeille. L’otologie doit muter, accepter les idées modernes de l’information et de la communication. Elle doit se libérer de dogmes obsolètes, remplacer le paradigme de la théorie de la décomposition fréquentielle des sons qui a dominé dans tout le XXe siècle par le concept moderne de la transmission et du traitement du signal et l’universalité du numérique. Elle doit changer de modèle et s’intégrer dans une vision plus moderne de la physiologie sensorielle, comme cela a déjà été fait dans les domaines de l’olfaction et de la vision. C’est la condition du progrès.

244

Notes et bibliographie

Préface 1. paradigmes : ensemble des théories, des connaissances, des valeurs et des techniques partagées par un groupe scientifique. Au sens psychologique : procédure méthodologique qui constitue un modèle de référence (Larousse). 2. Carrat R., Théorie de l’Échantillonnage Cochléaire. Arnette, Paris, 1986. 3. Claude Bernard. Leçons sur la physiologie et la pathologie du système nerveux. Baillière, 1858. 4. Maurice Allais (Prix Nobel de Sciences économiques en 1988), L’Europe face à son avenir. Robert Laffon, Clément Juglar, Paris, 1991. « Mon activité scientifique et ma vie de citoyen ont toujours été dominées, quoi qu’il ait pu m’en coûter, par la recherche de la vérité, ce qui implique une remise en cause incessante des « vérités établies », et cela dans tous les domaines. Mais qui recherche la vérité, qui met en cause les « vérités établies » s’expose à la puissante hostilité de tous ceux qui fabriquent une prétendue vérité et qui ne tolèrent pas qu’on puisse la contester en quoi que ce soit ». « Peut-être est-ce une folie, comme le disait La Rochefoucauld, que de vouloir être sage tout seul ! Mais tôt ou tard sous la pression irrésistible de l’expérience (et des faits), les idées fausses finissent par reculer. En tout cas, j’ai toujours considéré comme un devoir de combattre les préjugés établis dès lors qu’ils me paraissent nocifs, et que ceux qui les défendent ne sont en réalité que des fossoyeurs du progrès ». 5. Bertrand Russel in Essais sceptiques (1933). 6. Lapicque Louis. La machine nerveuse. Flammarion 1943. 7. Si la théorie de l’échantillonnage cochléaire a pu retenir passagèrement l’attention par son originalité, la communauté des otologistes est vite revenue au dogme antérieur : « tout le monde est maintenant d’accord (en 2006) pour dire 245

L’ OREILLE

NUMÉRIQUE

que l’oreille effectue une décomposition fréquentielle, etc., etc. ». Dans la réalité, il n’a rien été publié sur le sujet, de même qu’aucune controverse n’a été soulevée publiquement. Cette absence de confrontation directe montre plutôt combien ses opposants redoutent inconsciemment le changement et se réfugient dans un conformisme de la pensée. Preuve qu’il n’est pas bon, même si on est convaincu de la justesse de ses idées, de s’opposer ouvertement à la pensée correcte académique. Le milieu devient vite hostile, réticent, plutôt masqué que franchement déclaré. Une procédure d’ostracisme n’est pas loin. Les blocages corporatistes français ne datent d’ailleurs pas d’aujourd’hui. Il est frappant de constater que la psychoacoustique est de ce fait en situation de blocage. 8. Il est difficile pour un chercheur d’aller à l’encontre de ses pairs qui lui sont hiérarchiquement supérieurs, d’aller contre les certitudes du pouvoir s’il veut publier (la censure des comités de lecture), de s’opposer aux idées reçues s’il veut obtenir un crédit de recherche, ou plus prosaïquement pour conserver son poste dans un organisme. La façon dont la recherche est financée pousse à avoir des résultats spectaculaires pour qu’on s’intéresse à ses activités. Autre frein : la frilosité du monde scientifique français. Chercheurs et cliniciens sont particulièrement méfiants de leurs concitoyens et la préférence est facilement accordée à tout ce qui vient de l’étranger, des États-Unis en particulier. Aussi une idée née en France peut elle traverser l’océan et revenir au pays trente ans après, auréolée du génie d’outre atlantique. Nul n’est prophète dans son pays, c’est bien connu. 9. Les idées neuves sont d’autant plus combattues qu’elles sont mal comprises et d’autant plus mal comprises qu’on ne veut pas les entendre. Les chercheurs préfèrent désormais le consensus à la critique et font passer l’opinion avant la connaissance. « Les notions simples se heurtent, le plus souvent, à une forte résistance parce que les gens n’aiment pas changer d’opinion, et considèrent comme humiliantes les notions simples qu’ils n’ont pas découvertes et comment pourraient-ils les découvrir puisqu’ils mettent déjà longtemps à les assimiler ? La responsabilité des milieux médicaux dirigeants est lourde car ils ont systématiquement freiné les découvertes nouvelles, surtout à Paris : l’exemple des Pasteur, des Claude Bernard, etc. pourrait être (encore) cité à l’appui, si besoin était » (M. Cara. in Cahiers d’anesth. n° 4, sept. 1953).

Chapitre 1 1. Roland Platel. Les sciences de la vie. In Histoire des sciences, Tallandier, Paris, 2004. 2. Leca A.-P., La médecine égyptienne au temps des pharaons. Éd Roger Dacosta, Paris, 1971, p. 301. 3. Portmann G. in préface de Guerrier et Mounier Kuhn 4. 4. Guerrier Y., Mounier-Kuhn P., Histoire des maladies de l’oreille, du nez et de la gorge. Roger Dacosta, Paris, 1980, p. 34, 35, 42, 52, 57, 80. 5. Ghalioungui P. La médecine des pharaons. Robert Laffont, 1983, p. 53. 246

Notes et bibliographie

6. Starobinski Jean. Histoire de la médecine. Editions Rencontre, 1963. 7. Fourier Jean-Baptiste Joseph (1768-1830), né à Auxerre, professeur de mathématiques dans cette même ville, suivit Bonaparte en Égypte en 1798 où il séjourna pendant trois ans. Alors qu’il était préfet de l’Isère en 1802, il prépara un premier mémoire sur la propagation de la chaleur (1807) et mit sur pied la série de Fourier, par laquelle on peut développer toute fonction f (x) définie sur un intervalle fini en une série de fonctions sinus et cosinus, séries généralisées plus tard, et qui constituent depuis un outil d’une importance considérable, d’usage très répandu en mathématiques et dans leurs applications. Il publia en 1822 son œuvre maîtresse : Théorie analytique de la chaleur. Destitué sous la Restauration, il finit grâce à l’intervention de l’un de ses élèves, par être nommé directeur du Bureau de Statistique de la Ville de Paris12, 13. 8. Helmholtz Hermann von, Ludwig Ferdinand, (1821-1894) naquit à Postdam. Docteur (1848) de l’Académie de Berlin (1857), élève de Johannes Müller (18011858) qui lui enseigna la psychophysique12. Il fut successivement médecin à l’Hôpital de Postdam, puis dans l’armée, puis enseignant au muséum d’anatomie de Berlin. En 1847, il présente un mémoire à la Société de physique posant le problème de la thermodynamique, intitulé « Sur la conservation de la force », (les différentes formes d’énergie). Il poursuit dès lors une fulgurante ascension professionnelle : professeur d’anatomie et de physiologie (à Koenigsberg, Bonn, Heidelberg). Avec Émile Du Bois-Raymond (1818-1896), il définit l’influx nerveux et en 1850 en mesure la vitesse de propagation (1). Savant omniscient, il s’attaque à tous les domaines : mathématiques, hydrodynamique, électricité, physiologie, psychologie, météorologie, optique physiologique, et fit paraître en 1863 son Traité physiologique de musique qui marquait une étape dans l’histoire de l’acoustique. Il apportait une explication du timbre en imaginant la théorie de la superposition des harmoniques. Il fut promus directeur de l’Institut physicotechnique de Berlin en 18711, 12. 9. Michel Crozon. La physique, in Histoire des sciences, Tallandier, 2004. 10. Békésy von Georg (1899-1972), physiologiste, Prix Nobel de médecine en 1960. Américain d’origine hongroise, il s’est consacré à la physiologie cochléaire. L’ensemble de ses travaux a été rassemblé dans un ouvrage : Experiments in Hearing, paru en 1960 (Mc Graw-Hill Book Company, Inc.) 11. L’hypothèse des résonateurs cochléaires n’a pas tenu : une bonne sélectivité suppose que les différents segments de la membrane basilaire soient finement accordés et qu’ils répondent à une étroite bande de fréquences. Or un tel système étroitement accordé doit avoir un très faible amortissement et sa réponse persiste après l’arrêt du stimulus pendant un temps relativement long. En d’autres termes, si les résonateurs étaient étroitement accordés le long de la membrane basilaire, leur réponse persisterait longtemps après la fin du stimulus. Cette situation provoquerait un interminable écho dans notre oreille, empêchant toute audition fonctionnelle. Inversement, si les résonateurs étaient moins bien accordés, ce problème n’existerait pas mais ils seraient incapables de satisfaire à de fines discriminations fréquentielles. 12. Rousseau Pierre. Histoire de la science. Fayard, Paris, 1954. 247

L’ OREILLE

NUMÉRIQUE

13. Mashaal Maurice. Les mathématiques, in Histoire des sciences, Tallandier, 2004). 14. Carrat R., Théorie de l’échantillonnage cochléaire. Arnette édit. Paris. 1986. 15. XVIe siècle av. J.-C. pour d’autres auteurs (Ballester M. et Geoffray B. in Acouphènes et hyperacousie. Rapport Soc. Fr d’ORL, 2001, sous la direction de B. Meyer), p. 11, 14. 16. Le Père Marin Mersenne, philosophe et scientifique français, condisciple de René Descartes au Collège des Jésuites de La Flèche, est considéré comme le père de l’acoustique. Auteur de Harmonie Universelle (1637). 17. Hallowell Davis, physiologiste, professeur associé à Harvard, puis directeur du Central Institute for the Deaf à Saint Louis (Missouri).

Chapitre 2 1. Le système de transmission ne s’arrête pas intrinsèquement parlant à la fenêtre ovale, puisque les milieux liquidiens de l’oreille interne transmettent eux aussi les vibrations sonores. Il peut donc exister une pathologie de la transmission acoustique intra-cochléaire. 2. L’oreille peut exceptionnellement percevoir des sons sans qu’ils passent par le système de transmission tympano-ossiculaire (par conduction osseuse) ou par l’intervention d’un autre mode de stimulation, comme dans l’audition électrique. 3. On a polémiqué sur l’inclusion ou non de l’extrémité des cils dans la structure hyaline de la membrana tectoria. Débat de peu d’intérêt puisque la dépolarisation cellulaire est un fait. Cependant, l’inclusion est vraisemblable en raison de la similitude d’action de ces cellules auditives et des cellules du vestibule dont l’extrémité des cils est incluse dans les otolithes. Ce dont on est certain. 4. Grémy F. Biophysique. Flammarion, Paris, 1966. 5. Werner Cl. F. Das Gehörorgan der Wirbeltiere und des Menschen. Veb Georg Thieme Leipzig, 1960, p. 78 et p. 134, fig. 74. 6. Leipp E. Un modèle fonctionnel de la « machine à écouter ». Rev. Acoust., 1977,10, 42, p. 261-262. 7. Leipp E. La machine à écouter. Essai de psychoacoustique. Masson Édit., Paris, 1977. 8. Davis H., Psychophysiology of Hearing and Deafness. Handbook of Experimental Psychology, J. Wiley & Sons, N.Y. 1951. 9. Les CCE disposeraient d’un pouvoir de contractilité qui interviendrait dans la micro-mécanique cochléaire, et qui serait responsable d’une modulation du signal acoustique de retour obtenu au niveau du CAE après stimulation acoustique de durée très brève (clics ou tone-bursts courts). Ces oto-émissions acoustiques 248

Notes et bibliographie

provoquées (OEAP) ont été appelées « KEMP écho », P. T. KEMP ayant été le premier à en prouver l’existence (1978). 10. Le mécanisme de cisaillement est certainement plus complexe qu’il n’apparaît sur ce schéma classique. Nous pensons, en effet, qu’au niveau de chaque onde, la déformation de la membrane basilaire est doublement curviligne, tant sur le plan transversal que longitudinal. Le degré d’inclinaison des cils varie nécessairement d’une rangée des CCE à l’autre et du ventre au nœud pour une même oscillation, ce qui pourrait expliquer la disposition selon un W des cils des CCE. Par cet arrangement, la sensibilité est conservée quelle que soit la direction du déplacement.

Chapitre 3 1. Rutherford W., A new theory of hearing. J. Anat. Physiol., 21, p. 166-168 (1886). 2. Wrightson Th., The Analycal Mechanism of the Internal Ear, London, MacMillan & Co., Ltd, 1918. 3. Wever E.G. et Bray C.W., Action currents in the auditory nerve in response to acoustical stimulation. Proc. nat ; Acad. Sci., Wash., 1930, 16, p. 344-350. 4. Phase ou période réfractaire de la fibre nerveuse : immédiatement après la pointe du potentiel d’action, l’excitation de la fibre reste inefficace quelle que soit son intensité pendant 1 à 2 ms. L’existence de cette période réfractaire absolue limite la fréquence maximale des potentiels d’action que la fibre peut transmettre. Pour une période réfractaire de 1 ms, cette fréquence ne peut dépasser 1 000 par seconde. 5. Davis, Tasaki et Legouix. Hallowell Davis fut successivement professeur associé de physiologie à la Harvard Medical School, directeur de recherche à l’Institut Central de la Surdité, St-Louis (Missouri), professeur de physiologie et d’otolaryngologie à l’Université de Washington. Neurophysiologiste, il a largement contribué à l’essor de l’électrophysiologie auditive ; il a formé de nombreux élèves (dont Tasaki et le Français Legouix). Auteur de nombreuses communications et publications, dont un ouvrage de référence en collaboration avec S.S. Stevens intitulé : Hearing, its psychology and physiology (N.Y., Wiley, 1938). 6. Wever E.G., Theory of Hearing. Dover, N.Y., 1949. 7. Helmholtz H., Die Lehre von dem Tonempfindugen als physiologische Grundlage für die Theorie der Musik. Brunswick, Germany, Vieweg-Verlag, 1863. V. aussi note 1.8. 8. Cette théorie dérivait à la fois de la loi d’Ohm auditive et de la loi de Müller concernant l’énergie spécifique nerveuse. La première, la loi d’Ohm, précise que l’oreille effectue une analyse de Fourier des sons complexes périodiques, plus précisément qu’elle effectue la décomposition d’une onde complexe en ses composantes sans tenir compte de leur phase. (Le problème posé par la loi d’Ohm est qu’elle exclue une analyse temporelle). 249

L’ OREILLE

NUMÉRIQUE

Quant à la seconde, la loi de Müller, elle se réfère à la spécificité des différents sens et des fibres nerveuses : un signal arrivant à l’oreille, que ce soit un son, ou un choc sur le crâne, est toujours interprété comme étant un son. 9. Békésy G. La membrane basilaire ne semble pas se comporter comme une membrane sous tension (Experiments in Hearing. 1960 ; McGraw-Hill Book Company. New York. Cochlear Mechanics, p. 472). Il n’existe pas de fibres transversales nettement individualisées, ni de tension ; enfin de fines sections de la membrane n’entraînent pas d’écartement des berges. 10. cf. note 11 du chapitre 1. 11. Le phénomène dit du fondamental absent : si à partir d’un son complexe ayant un fondamental de 100 Hz on élimine par filtrage le fondamental et conserve par exemple les harmoniques 2 et 3, l’oreille continue de percevoir le fondamental de 100 Hz comme s’il était encore physiquement présent. Seul le timbre est altéré. Le son est plus grêle, plus maigre. « Cette observation infirme la théorie classique, qui soutient que la sensation de hauteur est donnée par la fréquence du fondamental » (E. Lippe, Acoustique et musique. Masson, 1980, p. 126). 12. L’onde propagée (travelling wave). Pour Békésy, la cochlée est le siège d’une onde de déplacement transversale qui se propage de l’étrier vers le sommet, d’abord très vite, puis plus lentement, et dont l’amplitude croit progressivement, passe par un maximum, décroît très vite et s’annule à l’extrémité apicale. Le déplacement maximum siège d’autant plus près de la base (de l’étrier) que la fréquence est plus élevée. Cette localisation fréquentielle porte encore le nom de tonotopie L’unique document photographique obtenus sur modèle mécanique par Békésy est difficilement interprétable (cf. Békés G. von. Experiments in Hearing. 1960 ; McGraw-Hill Book Company. New York p. 422). Il n’en demeure pas moins que les innombrables représentations de l’onde propagée parues dans la littérature spécialisée sont des dessins d’auteurs et n’ont aucunement valeur de preuve expérimentale (on notera au passage la fixité de l’extrémité distale de la membrane). 13. Il est pour le moins surprenant que Békésy ait pu obtenir des résultats concordants à partir de modèles mécaniques « cochléaires » de plus en plus rudimentaires : d’abord à partir d’une camera acoustica drivée par un diapason électrique (1928), puis avec un modèle extrêmement simplifié (p 439) comportant deux lames de rasoir fixées sur le tranchant de deux lames de verre habituellement utilisées en microscopie et entre lesquelles est tendue une pellicule de dissolution de caoutchouc (en 1942), enfin sur une série de pendules suspendus ou de plaques-verges fixées à leur base sur un support vibrant (1956). Le modèle le plus étonnant est celui appliqué sur la peau (1955). 14. Le comma : unité spécifique à l’acoustique musicale concernant les intervalles musicaux (comme l’octave, le demi-ton, le savart, etc.) (in Leipp E. Acoustique et musique, Masson, 1980, p. 17) 15. De nombreux ajustements sont venus compléter la théorie fréquentielle : Citons l’hypothèse d’un phénomène d’inhibition latérale, la théorie du second 250

Notes et bibliographie

filtre, l’hypothèse d’une rétroaction mécanique cochléaire, etc., tout cela en particulier parce qu’une analyse des signaux de basse fréquence n’est pas possible (Beagley H.A. Audiology and Audiological Medicine. Oxford University Press, N.Y., 1981, p. 114), ou encore en raison de la phase réfractaire des fibres nerveuses, ou encore de l’aspect différent des courbes de l’onde propagée et des courbes d’accord (tuning curves) obtenues directement sur la fibre nerveuse et évoquant l’intervention d’un second filtre, etc. 16. Des dogmes en audiophonologie : cf. notes 7 et 8 in Préface. Tous persistent sous l’effet de la répétition. Citons par exemple : 1. Le dogme du niveau sonore nocif pour l’oreille. Grosso modo au-dessus de 100 dB, habituellement complété par le prétendu effet traumatisant des sons de tonalité élevée (ce qui, sous-entendu, expliquerait le fameux scotome auditif à 4 kHz), alors que la nocivité du bruit n’est pas exclusivement liée au niveau sonore, ni à son contenu fréquentiel, mais aussi et surtout à la durée d’exposition, à sa « densité temporelle ». En effet : – tous les sons, purs ou complexes, sont capables d’entraîner des lésions d’oreille interne dès l’instant où leurs niveaux dépassent les limites acceptables de résistance mécanique et d’élasticité des éléments mobiles de l’oreille, – la durée d’exposition au son traumatisant est le facteur essentiel. Un son bref, tel que la détonation d’une arme à feu, est beaucoup plus nocif qu’un son entretenu. Son spectre de fréquence, par nature très large, n’est à l’évidence pas en cause : il n’explique pas un scotome. En fait, la prédominance des lésions à la base de la cochlée peut être rapportée aux fortes amplitudes des premières oscillations membranaires suivant un transitoire, oscillations qui dépassent les limites de l’élasticité des structures (comme le montre l’expérimentation sur modèles mécaniques cochléaires). Quant à la perte auditive autour de 4 kHz, on doit la rapporter aux effets nocifs de résonance aiguë du tube limacéen, abusivement attribuée aux lésions de la base (n’importe quelle fréquence peut entraîner cette résonance aiguë du tube limacéen) (cf. chapitre 12.5). Les normes préconisées par la législation ne paraissent pas particulièrement adaptées à la protection contre le bruit puisqu’il conviendrait dans un but préventif de tenir compte, non seulement du niveau moyen du bruit (justifié quant à la prévisibilité de la fatigue auditive que l’on sait réversible (TTH : temporary threshold hearing), mais aussi et surtout des facteurs crêtes, un niveau excessif unique pouvant entraîner des dégâts irréversibles. La protection par casque ou par bouchons antibruit est au demeurant toute relative : elle ne peut dépasser 30 dB puisque, pour des niveaux supérieurs, la transmission acoustique court-circuite l’oreille externe et l’oreille moyenne et emprunte directement la voie osseuse. Si elle se justifie pour atténuer la perception de sons de niveau moyen relativement stable, elle reste insuffisante contre l’effet nocif des transitoires, et d’autant plus qu’à quantité égale d’énergie la durée d’exposition est plus brève. Elle ne doit donc pas être abordée en termes de modification du contenu spectral du bruit, mais sous son angle strictement mécanique, puisqu’il s’agit en fait d’atténuer l’énergie transportée par l’impulsion, afin d’en limiter les effets mécaniques destructeurs. C’est pourquoi la proposition de porter des bouchons d’oreilles comportant un micro-orifice jouant le rôle de 251

L’ OREILLE

NUMÉRIQUE

filtre mécanique (et une cavité ayant une fréquence propre de résonance proche de celle de l’oreille interne) (A Dancer) constitue l’approche la plus logique de prévention des blasts. 2. Le dogme des leviers ossiculaires. En plus d’un effet de déphasage des vibrations acoustiques à leur arrivée sur les fenêtres ovale et ronde, et d’un rôle d’adaptateur d’impédance (système mécanique asservi), on attribue surtout au système tympano-ossiculaire un rôle d’amplificateur des pressions compte tenu du rapport des surfaces du tympan et de la platine de l’étrier (effet de levier d’un rapport évalué à 27). Il s’agit en fait d’une mécanique beaucoup plus complexe que celle d’un levier simple car elle comporte en réalité trois leviers couplés, la forme des articulations est difficile à préciser, les surfaces en contact sont mobiles, enfin la platine de l’étier est incrustée dyssymétriquement et ne fonctionne pas comme un piston mais comme un système travaillant en torsion (Leipp. E., Réflexions sur la mécanique et l’acoustique de l’oreille moyenne. Bull. GAM n° 49. 26.6.1970, p. 1-20) et Leipp E. 1977). Cette modélisation est trop restrictive car le système ossiculaire est le siège de deux types de mouvements distincts : d’une part des mouvements macroscopiques, les déplacements du tympan pouvant être de l’ordre du millimètre (sous l’action des muscles accommodateurs du marteau et de l’étrier, les points d’articulation entre les osselets ne sont pas fixes mais se déplacent, ce qui modifie la longueur des bras de leviers), d’autre part, des mouvements submicroscopiques, en rapport avec les vibrations acoustiques, et pratiquement inaccessibles à toute observation directe (l’amplitude des mouvements vibratoires au seuil de perception tourne autour du diamètre de la molécule d’hydrogène (10 –7mm). Les montages cinématographiques (animés) ne traduisent évidemment pas la réalité et ne font qu’entretenir une idée fausse, mais satisfont les adeptes du dogme. 3. Le dogme inébranlable de la tonotopie. Depuis plus de 70 ans, on souscrit à l’idée reçue que l’oreille effectuerait la décomposition d’un son complexe en ses composantes, des sons purs, et qu’à chaque fréquence correspondrait une localisation bien précise des vibrations de la membrane basilaire. La représentation imagée de ce concept est celle du clavier d’un piano, ou encore celle d’une harpe dont chaque corde résonne pour un son donné. Aussi simpliste et irréaliste soitil, ce concept continue d’inspirer la démarche des cliniciens de l’audition, en particulier lors de la réhabilitation de l’audition par implants cochléaires. L’évolution des idées a suivi une apparente logique, passant du domaine mathématique à celui de la physique, puis de la psychoacoustique. Déjà pressentie par Daniel Bernouilli, on doit à Joseph Fourier (1768-1830) la théorie mathématique dite des séries de Fourier qui précise que l’on peut développer n’importe quelle fonction f (x) définie sur un intervalle donné en une série de fonctions sinus et cosinus, théorie complétée plus tard par Peter Gustav Lejeune-Dirichlet et par Bernhard Riemann. Les séries de Fourier et leur généralisation (les intégrales de Fourier, pour les fonctions définies sur l’axe réel tout entier et non plus sur un intervalle fini) constituent un outil d’une importance considérable, d’usage très répandu en mathématiques et dans leurs applications. 252

Notes et bibliographie

C’est à partir de cette théorie mathématique que la théorie de la décomposition des sons complexes (Georg Simon, 1789-1854) et la loi d’Ohm ont été formulées, lois précisant que : a) on peut toujours décomposer une fonction périodique de fréquence n, telle qu’un son complexe périodique, suivant une série de Fourier. Cette fonction est la somme de fonctions sinusoïdales de fréquences n, 2n ; b) inversement, quel que soit le son complexe périodique, on peut toujours le reproduire à l’aide de sons simples simultanés de fréquences n, 2n… pris avec des amplitudes et des phases convenables7. À partir de ces prémisses, on est passé du domaine de la physique à celui de la physiologie, agrémentée d’hypothèses. Comme l’oreille d’un sujet exercé est capable d’entendre distinctement les sons simples que la série de Fourier décèle dans un son complexe périodique (son musical), Ohm, aidé par Helmholtz, a postulé que cette loi pouvait s’appliquer à la perception auditive et que l’oreille jouait le rôle d’une série de résonateurs pour les sons simples » (loi d’Ohm)8. Afin d’effectuer une analyse des sons complexes, Hermann von Helmholtz (1821-1894) imagina d’utiliser une batterie de résonateurs et de repérer ceux d’entre eux qui entraient en résonance en observant l’intensité de la flamme d’un gaz régulé par une capsule manométrique ou qui accentuaient la perception d’un son par l’oreille. D’après Bouasse H., cette théorie de l’audition dite de la résonance de Helmholtz serait en fait « l’aboutissement de travaux antérieurs nombreux (Mersenne, Rameau, Sauveur… qu’il a su raccorder avec beaucoup de talent, de génie si l’on veut ». Le raisonnement de base avait toute l’apparence de la logique. Par la suite, on a donc cherché expérimentalement à confirmer la réalité physique de cette décomposition des sons par l’oreille, à la fois sur des modèles mécaniques de la cochlée et sur des préparations anatomiques. Ewald (1903), puis, aux alentours de 1928, Georg von Békésy (1899-1972) (Nobel 1960) se sont particulièrement illustrés dans cette recherche. Contrairement à la représentation que s’était faite Helmholtz de la forme de la vibration de la membrane basilaire (celle d’un très grand nombre de résonateurs différentiés), « Békésy n’observa pas d’ondes stationnaires, mais des ondes de propagation » naissant à la base de la cochlée et présentant un maximum d’amplitude en un endroit donné. Depuis cette date, tous les modèles de fonctionnement de l’oreille qui ont été proposés se sont constamment alignés sur cette conception de l’onde propagée, qu’il s’agisse de modèles mécaniques (Tonndorf), de modèles mathématiques, ou de modèles électroniques. Pourtant, de sérieuses restrictions ont été formulées contre ce modèle dit de la tonotopie cochléaire et nombre d’auteurs se sont interrogés sur sa validité. En France, citons Husson, Chocholle, Leipp, etc. Pour ma part, je n’ai pu retrouver sur des modèles mécaniques cochléaires identiques à ceux de Békésy un pattern de localisation fréquentielle qu’en introduisant des paramètres expérimentaux fort éloignés de la réalité physiologique. Il faut reconnaître qu’en raison de sa simplicité, ce concept satisfait pleinement l’esprit. Il a été érigé en un véritable dogme. Tout se passe comme si les audiologistes refusaient obstinément de rejeter le schéma réducteur de la décomposi253

L’ OREILLE

NUMÉRIQUE

tion fréquentielle des sons par l’oreille. Aussi, a- t-on sans cesse procédé à des ajustements de la théorie, en imaginant par exemple l’intervention d’un second filtre, ou encore en se réclamant de la découverte récente de la contractilité des cellules sensorielles. Le concept de la tonotopie a tous les caractères d’un dogme 1. Les objections sont toujours restées sans écho (Bouasse, en 1926, en bon physicien, souligne la difficulté de concilier l’amortissement important d’une membrane avec une localisation précise d’un pic de résonance, et le chevauchement inévitable de ces pics. « La continuité de l’audition supposerait un nombre infini de résonateurs… » Autre difficulté : celle de l’audition des trilles. Ces difficultés n’avaient d’ailleurs pas échappé à Helmholtz puisqu’il s’était ensuite appuyé sur la théorie des énergies spécifiques des fibres nerveuses par Muller. 2. L’esprit critique est absent. On continue d’affirmer que la localisation fréquentielle cochléaire relèverait des propriétés mécaniques de la membrane basilaire, étroite et rigide à la base, large et flexible à l’apex alors que de nombreux arguments d’ordre physique vont à l’encontre de ce concept : l’irrégularité de diamètre du tube cochléaire donc de la variabilité de longueur des « cordes », la différence de hauteur des liquides selon la section considérée, l’absence de variation de la tension de la membrane d’un point à l’autre, la variabilité de l’élasticité membranaire selon l’état physiologique du sujet ou son âge. La prétendue spécificité fréquentielle (FC : fréquence caractéristique) des fibres auditives est incompatible avec la physiologie de la fibre nerveuse : en raison de sa période réfractaire, aucune fibre de l’organisme ne peut transmettre de séquences supérieures à 1 000 Hz. On argumente encore que Békésy aurait montré sur le cadavre l’existence d’une localisation tonale. En réalité, les expériences en cause concernaient la mesure de l’amplitude des vibrations de la membrane basilaire en un seul point, et non pas sur la totalité de la membrane. Ce qui ne prouvait en rien la réalité d’une tonotopie. D’autre part, il s’avère que le mode de production des signaux délivrés sur ses modèles mécaniques et l’oreille de cadavre étaient fondamentalement différents (diapason et moteur de HP). 3. Le refus, plus ou moins inconscient, de se remettre en cause, par respect sacro-saint des vérités établies, en dépit du nombre des paradoxes générés par le concept, ou en raison de la notoriété et la crédibilité des premiers expérimentateurs. Les adeptes font preuve d’une rigidité d’esprit caractéristique par conservatisme, sectarisme, voire paresse d’esprit. Situation scolastique stérilisante qui bloque toute évolution. Les nombreuses objections à la survie du dogme, loin de semer le doute, devraient plutôt inciter à un ajustement de la théorie en cause. L’establishment sauve la face en jouant sur les mots. C’est ainsi qu’on parle maintenant de cartographie cochléaire et de sa projection cérébrale, façon de trouver un substitut au mécanisme d’analyse fréquentielle sans se déjuger. 4. L’analyse fréquentielle cochléaire est bien un dogme, une construction de l’esprit, comme l’a dénoncé E. Leipp (1977). « Pour des raisons physiques (irrégularité des sections des rampes), il est de toute façon exclu que la configuration inscrite sur la cochlée puisse présenter une allure systématique, similaire à un « spectre » classique de décibels-hertz, où les composantes seraient alignées par 254

Notes et bibliographie

ordre de fréquence, du grave (du côté de l’hélicotréma) vers l’aigu (du côté de la fenêtre ovale). Bref, contrairement à ce que l’on continue à répéter depuis Helmholtz et indépendamment du fait qu’on ne voit pas comment un organe aussi amorti que l’oreille interne pourrait être sélectif, il ne peut se produire d’analyse fréquentielle au niveau de la cochlée. La meilleure preuve en est que personne à notre connaissance n’a jamais su définir la place et les intensités relatives des 20 ou 30 composantes (cas très habituel) d’un son normal de notre environnement. L’oreille n’est pas une machine à analyser les sons. Cette analyse ne nous serait pas très utile dans la vie courante… Par contre, c’est un appareil à reconnaître des formes… Ce qui est important, c’est qu’un certain signal acoustique extérieur donne sur la cochlée une configuration, une « image » contenant autant d’information que le son lui-même. Cette image peut être complètement « codée » et n’avoir pas davantage de ressemblance avec la « forme » réelle du son qu’il n’y a de ressemblance entre le mot « chat » écrit en lettres quelconques et la forme de l’animal réel. Le tout est d’avoir appris le code. La forme codée n’est pas le signal acoustique, mais elle le représente. Ce qui est important, c’est que le même signal acoustique produise chaque fois sur la cochlée la même « forme », la même « image », le même état. Dès lors nous pouvons reconnaître les signaux extérieurs, moyennant apprentissage, même si nous en ignorons complètement la structure physique ». Cette prise de position n’est pas éloignée de celle de J.-Cl. Risset (Son musical et perception auditive. Pour la science, nov. 1986, p. 40), pour qui l’oreille ne se comporte pas comme un analyseur physique de fréquence. Il ne s’agit pas d’un appareil de mesure capable de donner d’emblée le contenu spectral des sons. « L’oreille est insensible aux relations de phase entre composantes harmoniques, mais elle évalue la cohérence vibratoire des sons simultanés pour les fusionner ou les différencier… Elle est moins sensible au spectre qu’à certaines variations du spectre. » Il n’en demeure pas moins que les dogmes ont la vie dure : « on ne saurait espérer d’ailleurs que des idées contraires aux dogmes classiques… puissent se répandre très vite »… « Les idées scientifiques qui régissent l’âme des savants de chaque époque ont toutes la solidité des dogmes religieux. Fort lentes à s’établir, elles sont très lentes aussi à disparaître. Des vérités scientifiques nouvelles qui ont pour base l’expérience et le raisonnement, n’ont de chance de se propager que par le prestige, quand elles sont énoncées par des savants auxquels leur situation officielle donne du prestige aux yeux du public scientifique. Or c’est justement cette catégorie de savants qui, non seulement ne les énonce pas, mais use de son autorité pour les combattre… Des vérités d’une importance aussi capitale que la loi d’Ohm, qui domine toute l’électricité, et la loi de conservation de l’énergie, qui domine toute la physique, furent accueillies, à leurs débuts, avec indifférence ou mépris et restèrent sans action, jusqu’au jour où elles furent énoncées de nouveau par des savants doués d’influence »… Ces lois auraient dû frapper tous les esprits par leur merveilleuse simplicité et leur imposante grandeur. Non seulement elles ne frappèrent personne, mais les savants les plus éminents de l’époque ne s’en occupèrent pas, sinon pour tâcher de les couvrir de ridicule (Le Bon G. L’évolution de la matière. Flammarion, 1906). De nos jours, après 255

L’ OREILLE

NUMÉRIQUE

avoir fait quelquefois une première traversée d’ouest en est, la crédibilité vient plutôt d’outre-Atlantique… 17. Les analyseurs, constitués par les fibres transversales de la membrane basilaire seraient échelonnés tout au long de la partition cochléaire et, du fait de leur tension, entreraient en résonance aiguë avec les sons auxquels ils sont accordés. 18. Se non è vero, è ben trovato (si cela n’est pas vrai, c’est bien trouvé). 19. Pujol R. Le traitement du son dans l’oreille interne. Pour la Science, 1990, n° 154, p. 20-29. 20. Pujol R. Physiologie et physiopathologie cochléaires : données récentes. Propos Biopharma, 1989, suppl. ORL n° 2, 2-14. 21. Carrat. R., Audition et théorie de l’information : application à l’analyse cochléaire. Ann. Oto-Laryng. Paris, 1985, 102, p. 337-343. 22. Carrat R., Théorie de l’échantillonnage cochléaire. Arnette édit. Paris. 1986. 23. Leipp E., Un modèle fonctionnel de la « machine à écouter ». Rev. Acoust., 1977,10, 42, p. 261-262. 24. Schouten, J.F., p. 286-294.

The perception of pitch. Philips Tech. Rev., 1940, 5,

25. Chocholle R., Les sons complexes. Aspect sensoriel. Rev. Acoust., Paris, p. 3-11 (1971). 26. Leipp E., La machine à écouter. Essai de psychoacoustique. Masson Edit., Paris, 1977. 27. Pierson A., Déficits auditifs produits par certaines stimulations sonores. Rev. Acoust., Paris, 1977 ; 9 : 301-318 ; 10 : p. 147-158. 28. Carrat R., Traumatisme sonore et scotome auditif : proposition d’un modèle pathogénique. Rev. Acoust., Paris, 1981 ; 14, p. 110-114. 29. Il n’est pas possible de relier le gradient de rigidité membranaire à la tonotopie. Cf. note 9. 30. Husson R., La physiologie de la phonation, du langage oral et de l’audition, de Helmholtz à nos jours. Rev. Soc. Fr. Études correction audit., 1970 ; 14, p. 19-32. 31. Une opération de convolution exprime la réponse à un signal quelconque à partir de la réponse à un signal type (réponse impulsionnelle) ; la réponse dépend du filtre et de l’histoire du signal (in Fr Cottet, Traitement du signal, Dunod, Paris 2005). Le transfert d’un signal S dans un récepteur subit nécessairement une déformation. La fonction de transfert de ce récepteur ne peut être connue par une opération de convolution que si les signaux d’entrée et de sortie restent dans le même domaine. Une telle opération ne peut s’appliquer à l’oreille, la transformation du signal continu en un signal discontinu modifiant le domaine temporel. 256

Notes et bibliographie

32. Carrat R., Influence des paramètres expérimentaux sur la réponse de modèles mécaniques cochléaires. Implications dans la physiologie de l’audition. Rev. Acoust. (Paris), 12, p. 189-196, 1979. 33. Bosquet J., Un modèle synthétique linéaire de la fonction auditive monaurale. Rev. Acoust., 1977 ; 42, p. 209-225. 34. Il est pour le moins stupéfiant que des spécialistes de l’audition aient recours à des arguments plus polémiques que scientifiques pour justifier leur position arcboutée sur la théorie d’une décomposition fréquentielle cochléaire. On avance par exemple : – que la tonotopie a été mille fois démontrée, ce qui n’est pas une preuve objective scientifique, mais un faux fuyant évitant de vérifier soi-même si les données sont objectivement vérifiables et acceptables ; – que la pratique de l’implant cochléaire basée sur une répartition fréquentielle des électrodes vient confirmer cette décomposition fréquentielle, alors qu’il s’agit d’une distribution spatiale des stimuli à l’origine d’un nouveau codage nerveux que le cerveau, après apprentissage, est en mesure de décoder ; – que la projection cartographique de la cochlée au niveau du cortex temporal vient confirmer cette décomposition fréquentielle : argument regrettable qui relève d’un pur syllogisme. S’il s’agit bien en effet d’une projection spatiale des neurones auditifs, cela ne veut pas dire qu’il s’agit pour autant d’une projection fréquentielle ; – que dans la presbyacousie, il y a perte des sons aigus parce qu’il existe une localisation des lésions à la base la cochlée, là où les fréquences aiguës seraient sélectionnées. Il suffit d’ouvrir le magnifique ouvrage de H. Schuknecht (Pathology of the Ear, Harvard Un. Press, 1974) pour ne trouver aucune relation évidente entre les deux ; – que pour compenser une perte auditive sélective des sons aigus, il faut évidemment renforcer l’amplification des fréquences élevées : raisonnement aberrant si la sélectivité fréquentielle est attribuée à des cellules et des neurones spécifiques qui ont disparu ! 35. On trouvera une relation détaillée des théories classiques de l’audition dans l’ouvrage : Théorie de l’échantillonnage cochléaire (Carrat R., Arnette édit. Paris. 1986, p. 13-38). Importante bibliographie. 36. Vernier Ph., Le développement et l’évolution du système nerveux. Pour la Science, 2002, 302, p. 50-56.

Chapitre 4 1. Sensibles au poids des institutions et aussi par corporatisme (groupements, associations, sociétés scientifiques, etc.), les intervenants dans le domaine de l’audition finissent par neutraliser tous les déviants du dogme, en les contraignant au silence par crainte d’être marginalisés, voire de subir l’opprobre des pairs, peut être aussi par lassitude, ou remise en question de leur situation matérielle. 257

L’ OREILLE

NUMÉRIQUE

À l’évidence, en s’écartant du prêt à penser du modèle physiologique, on court le risque mettre bas un certain confort de raisonnement. Ce refus, conscient ou involontaire, de remettre en cause une démarche de pensée est évidemment répréhensible, dès lors qu’il contribue à un malthusianisme volontaire de la production scientifique. On le relève dans toutes les équipes du monde entier, mais la France est loin d’être la dernière. Il s’oppose à la seule démarche véritablement scientifique, cartésienne, de ne vouloir tenir pour vrai que ce qui est vérifiable et reproductible. Comment au pays de Descartes et de Claude Bernard peut-on s’éloigner de la méthode expérimentale ? Cet immobilisme est à la base de l’enseignement d’idées fausses même si elles paraissent vraisemblables. « La démarche scientifique repose sur la notion que toutes les manifestations dans l’Univers sont explicables en termes naturels… C’est un postulat, une hypothèse de travail que l’on doit être prêt à abandonner si l’on se trouve confronté à des faits qui défient toute explication naturelle. Beaucoup de scientifiques, pourtant, ne se donnent pas la peine de faire cette distinction, extrapolant tacitement de l’hypothèse à l’affirmation. » (Ch. de Duwe. À l’écoute du vivant. Odile Jacob. 2005, p. 395). 2. Rien n’interdit d’utiliser les données qui ont résisté au temps, tout comme les théories de Kepler et de Galilée avaient constitué le matériau de base pour Newton. 3. L’oreille étant soumise à des phénomènes de non linéarité, on ne peut par une opération de convolution connaître à partir d’un signal d’entrée donné, le signal de sortie. (Cf. note 31, chapitre 3, et note 8 ci-dessous). 4. Mathelot P., L’information. PUF, Paris, 1980. 5. Goldbeter A., Leloup J-C. La modélisation des rythmes du vivant. Pour la Science, 2003, 314, p. 70. 6. Les termes de modèle et de modélisation connaissent une dérive quant à leur signification. On ne devrait parler de modèle que si on connaît les deux fonctions d’entrée et de sortie du système à étudier. Or on ne connaît pas la fonction de sortie de l’oreille interne (les données ne concernent que la réponse globale du nerf ou celle d’une fibre isolée, mais pas celle de toutes les fibres simultanément). De même lorsqu’on étudie les mouvements membranaires sur une reproduction de la cochlée, on ne devrait pas parler de modèles mécaniques, mais de maquettes cochléaires. 7. Perrin J., Brocas J., Fonroget J., Bases élémentaires du traitement du signal. Masson édit., Paris, 1976. 8. Le transfert d’un signal S dans un récepteur subit nécessairement une déformation. La fonction de transfert de ce récepteur ne peut être connue par une opération de convolution que si les signaux d’entrée et de sortie restent dans le même domaine. Une telle opération ne peut s’appliquer à l’oreille, la transformation du signal continu en un signal discontinu modifiant le domaine temporel. NB : ne pas confondre convolution avec conversion, opération au cours de laquelle l’énergie passe d’une forme à une autre (exemple : énergie cinétique en énergie calorifique). 258

Notes et bibliographie

9. Le modèle du cerveau ordinateur est contestable dans la mesure où l’un des traits caractéristiques de la machine cérébrale fait intervenir à la fois un codage topologique de connexions et un codage d’impulsions électriques ou chimiques (J.-P. Changeux, L’homme neuronal, Fayard, Paris, 1983, p. 161). 10. Les cinq sens qui nous relient au monde extérieur n’ont pas la même importance : on estime la part respective des acquisitions sensorielles qui règlent le comportement d’un adulte à 1 % pour le goût, 1,5 % pour le toucher, 3,5 % pour l’odorat, 11 % pour l’ouïe et 83 % pour la vue. Surdité et cécité sont donc de graves infirmités. Les mécanismes intimes du codage de l’information visuelle et de l’information olfactive font appel à partir d’un nombre relativement restreint d’éléments sensoriels à une infinité de combinaisons qui permettent de rendre compte de l’extrême richesse des nuances de couleurs ou d’odeurs. On verra que le nombre limité de cellules de Corti permet néanmoins de coder et de reconnaître une grande variété de combinaisons sonores à partir de la hauteur et du niveau. 11. Dans le domaine de la recherche, la modélisation est tout à la fois un outil de description formelle, se substituant à l’outil mathématique, une technique expérimentale simplifiant l’observation du monde réel, enfin une méthode d’exploration d’hypothèses concurrentes. La modélisation n’est pas destinée à reproduire exactement la réalité, ce qui n’aurait aucun intérêt. Selon les objectifs de ses concepteurs, un même système sera modélisé différemment. La modification pas à pas des paramètres d’entrée entraîne des comportements les plus inattendus mais aussi les plus instructifs. Ce qui impose de nécessaires révisions. « La question est, non pas de savoir si un modèle est correct ou non, mais d’apprécier son apport dans un processus de compréhension progressive du système et de ses comportements, motivé par un ensemble de questions initialement explicitées. Un bon modèle est un modèle utile. » (Delahaye J.-P. et Rechenmann F., La simulation par ordinateur change-t-elle les sciences ? Pour la Science, dossier n° 52, p. 2-6, 2006).

Chapitre 5 Notes 1. Régime transitoire acoustique. L’existence des transitoires est liée à l’inertie des masses matérielles qui entrent en vibration. Lors du passage d’un état à un autre, de l’état de repos à l’état vibratoire, ou inversement d’un état vibratoire à l’état de repos, le changement n’est pas instantané, et nécessite toujours un certain temps. Un délai d’établissement infiniment court n’existe pas dans la nature, ce phénomène dure toujours un certain temps T. La distinction entre ces deux états permet de classer les sons en sons continus (dont l’oscillation est complexe, mais régulière) et les (sons) transitoires dont l’oscillation est complexe mais irrégulière. Ces derniers correspondent à la période d’établissement ou d’extinction d’un son pur avant qu’il n’atteigne ou fasse suite à son régime permanent. La définition s’étend également à toute modification 259

L’ OREILLE

NUMÉRIQUE

d’intensité, de hauteur, de timbre d’un son complexe. Ils sont les plus difficiles à reproduire correctement. Ils ne sont pas décomposables en série de Fourier. Toute modification apportée à une courbe sinusoïdale, que ce soit en amplitude, ou en fréquence, se traduit, en plus de sa fréquence f0 , par un étalement, une dispersion du spectre en une multitude de fréquences voisines. Ce phénomène est désigné sous le vocable général de processus transitoire. En acoustique physiologique, il est perçu sous forme d’un bruit. Est transitoire toute variation d’un (ou de plusieurs) paramètres physiques dans le temps susceptible d’entraîner une variation du spectre d’un son. Exemples : le transitoire lié à la variation de fréquence d’un son de niveau constant, ou encore celui lié à la variation du niveau d’un son sinusoïdal, ou encore la frappe d’une note de piano, d’une percussion (coup de cymbale ou de grosse caisse), le début d’audition, son arrêt brusque, la voix humaine parlée (les consonnes par exemple : p, d, t, l…, les bruits… Certains signaux sonores se réduisent à leur seule période transitoire : percussions, consonnes explosives, comme le b, t, k… (impulsions). Ordre de grandeur des périodes transitoires : consonne non vocale 6 ms, consonne vocale 100 ms ; trompette 20 ms, clarinette 50 ms, flûte : 200 ms, orgue : 800 ms6. En conséquence, le choix d’un signal en psychoacoustique et en physiologie auditive doit impérativement tenir compte non seulement de la partie où il présente un régime permanent, mais aussi de son début (attaque) et sa fin (extinction), là où il comporte un régime transitoire. 2. Constante de temps τ de l’oreille et constante de temps auditive. L’estimation de la valeur de la constante de temps auditive est très variable d’un auteur à l’autre : entre 20 et 140 ms. Ces écarts sont probablement liés à de fréquentes confusions entre la constante de temps de l'oreille proprement dite, celle du récepteur physique cochléaire, et la constante de temps qualifiée d'auditive, ou physiologique, relative à la reconnaissance du son, et dans laquelle intervient évidemment le facteur neurologique central, psychoacoustique. La constante de reconnaissance d’un son est relativement faible : de 4 à 10 ms, laquelle change suivant que l'on reconnaît intensité ou hauteur ou timbre, etc. (Matras). La constante de temps de reconnaissance d’un son diffère de la constante de reconnaissance auditive, ou temps de reconnaissance, (ou épaisseur du présent des psychologues français, ou perception time smear des auteurs anglo-saxons) (Joos), dont la durée est évaluée à 50 ms (soit 1/20 s). Ce temps de reconnaissance conditionne la nature de la perception et n’est pratiquement pas déterminé par la bande passante Δf = 16 kHz, mais par le système nerveux. La valeur de cette constante de temps auditive (50 ms à 60 ms) semble d’ailleurs correspondre à la valeur moyenne de l’ensemble des constantes de temps de l’organisme, qui serait d’environ 1/18 de seconde, soit 55 ms. Elle trouve une explication partielle si on considère que chaque relais nerveux introduit un retard dans la conduction nerveuse qui, cumulé jusqu’au cortex, dépasserait 10 ms. 260

Notes et bibliographie

3. Partiels et harmoniques : on peut décomposer certaines vibrations complexes non périodiques en une somme de vibrations sinusoïdales, appelées partielles (cas des diapasons pendant les premières secondes après leur mise en vibration, cloches, membranes, etc.). La partielle de fréquence la plus basse f1 est souvent appelée fondamentale. En classant les partielles par ordre de fréquences croissantes f1, f2, … , fn, et en portant normalement à l’axe des abscisses gradué en fréquences, des ordonnées proportionnelles aux amplitudes A1, A2, …, An, de la partielle correspondante, on obtient le spectre de la vibration. Par harmonique, on sous-entend que la fréquence d’une composante est un multiple entier du fondamental. Les harmoniques sont donc considérés comme des partiels particuliers. Avec l’ordre de l’harmonique (harmonique 1, 2, 3…), son intensité décroît en général. Les partiels d’un tuyau ne forment jamais une série rigoureusement harmonique ; cependant le son est musical au sens des physiciens quand les partiels forment à peu près une série harmonique (Bouasse, H.). 4. Cette conception de phénomènes de résonance des différents éléments du système auditif trouve une implication majeure dans les domaines de l’exploration auditive, exploration par la technique des OEAP, des potentiels évoqués auditifs, et dans le domaine de la correction prothétique des surdités. 5. Brownell W.E., Observations on a motile response in isolated outer hair cells. In : Webster W.R., Aitk L.M., Eds. Mechanisms of Hearing. Clayton, Australia : Monash University Press, 1983, p. 5-10. 6. Brownell W.E., Microscopic observation of cochlear hair cell motility. Scann. Electron. Microscopy. 1984 ; III, p. 1401-1406. 7. Carrat R., Mécanique cochléaire : nouvelles données expérimentales. Ann. Oto-Laryngol., Paris, 1979 ; 96, p. 23-48. 8. Une séquence sonore possède comme un objet matériel trois dimensions : un niveau, une fréquence et une durée. 9. En électrophysiologie auditive clinique (ECoG, BERA, ERA), c’est la forme du signal, et en particulier les temps de montée et de disparition (rise-fall time) qui détermine la réponse globale du nerf (Harrison R.V. et Evans E. F., 1977)12 ou celle des voies auditives (BERA). (Kodera K. et coll., 1979)17, Lane R.H., Kupperman G.R. et Goldstein R., 1971)18 et non pas son contenu fréquentiel. 10. L’existence même d’une fréquence caractéristique Fc de la fibre nerveuse19 qui répondrait préférentiellement à la fréquence centrale d’un tone-burst est abusive, irréaliste et invraisemblable parce qu’elle porte à croire que la fréquence du burst est le seul paramètre en cause alors que d’autres paramètres, la pente d’installation et de disparition, sont occultés. À l’évidence, l’augmentation de niveau de chaque burst modifie cette pente. Du fait de l’origine différente de chaque fibre, la réponse à une onde propagée ayant même forme et même énergie ne peut qu’être différente. Il est plus logique d’attribuer la différence de réponse à la répartition spatiale des fibres plutôt qu’à une différence de sensibilité fréquentielle. 11. Harrison R.V., Evans E.F., Some aspects of temporal coding by single cochlear fibres from regions of cochlear hair cell degeneration in the guinea pig. Arch. Oto-Rhino-Laryngol., 1979, 244, p. 71-78. 261

L’ OREILLE

NUMÉRIQUE

12. Harrison R.V., Evans E.F., The effects of hair cell loss (restricted to outer hair cells) on the threshold and tuning properties of cochlear fibres in the guinea pig. In Biologie de l’oreille interne, Portmann M. et Aran J.M., édit., INSERM, 1977, 68, p. 105-124. 13. Don M, Eggermont J.J., Analysis of the click-evoked brainstem potentials in man using high-pass noise masking. J. Acoust. Soc. AM., 1978, 63, p. 10841092. 14. Le spectre fréquentiel du signal n’intervient pas dans la réponse globale du nerf. Le spectre de fréquence d’un bruit blanc et celui d’un clic sont pratiquement identiques (plus un transitoire est bref, plus son spectre de fréquence est large : à la limite, le spectre d’un échelon de DIRAC s’étend théoriquement à l’infini (Fig. 5.2). Or, la réponse électrophysiologique au niveau du tronc cérébral (BERA), est absolument opposée : alors que le bruit blanc donne un tracé quasiment plat, le clic permet l’extraction de réponses électriques significatives (ondes I à VII). Le spectre fréquentiel n’intervient donc pas, mais la durée du signal, puisque l’un est continu et l’autre bref et répété. Pour des niveaux d’énergie spectrale identiques, c’est en fin de compte la répartition temporelle de cette énergie qui intervient, c’est-à-dire la forme du signal. 15. Les spécialistes de l’audition ont l’habitude d’assimiler l’oreille à un analyseur de fréquence, sans guère tenir compte d’un facteur fondamental, celui du temps. Or l’oreille est un système récepteur qui ne peut déroger aux lois physiques auxquelles sont soumis tous les corps matériels sous l’effet d’une force extérieure. La réponse vibratoire d’un tel système dépend de la durée d’application de cette force et de ses caractéristiques physiques, lesquelles vont lui permettre de répondre plus ou moins rapidement à la sollicitation. Plus précisément, le système auditif comporte un ensemble de résonateurs montés en série, caractérisés par leur constante de temps, et dont la forme des réponses oscillatoires varie selon qu’il s’agit de signaux transitoires ou entretenus. Appliqué au résonateur cochléaire, ce concept s’avère fondamental quant à l’interprétation des données de mécanique cochléaire et dans de multiples phénomènes psychoacoustiques, le plus important concernant le signal de la parole. 16. En raison des phénomènes transitoires d’attaque (et d’extinction) d’importance décisive en musique malgré la brièveté de leur état (les 20 premières ms), la composition spectrale d’un même son évolue au cours du temps (ce qui ôte toute valeur à la définition traditionnelle du timbre qui est lié classiquement à la proportion relative des divers harmoniques obtenus par décomposition de Fourier) (Balibar F., Musique pour ordinateur à Beaubourg. La Recherche 1975, 6, n° 57, p. 565-568). 17. Kodera K., Hink R.F., Yamada O., Suzuki J.I., Effects of rise-time on simultaneously recorded auditory- evoked potentials from the early, middle and late ranges. Audiol., 1979, 18, p. 395-402. 18. Lane R., Kupperman G.L., Goldstein R., Early components of the averaged electroencephalography response in relation to rise-decay time and duration of pure tones. J. of Speech and Hearing. 262

Notes et bibliographie

19. Evans E.F., The Frequency Response and other properties of single fibres in the Guinea Pig cochlear nerve. J. Physiol., Londres, 1972, 226, p. 263-287.

Chapitre 6 1. Les données anatomiques Anatomie fonctionnelle auditive 1. Pujol R., Neuroactive substances in the cochlea. 1988, 1er Congr. Européen d’ORL. Paris. 2. Les neurotransmetteurs permettent le fonctionnement des structures nerveuses centrales d’après un logiciel tel que nous le connaissons aujourd’hui en informatique. Ils transportent l’information d’une cellule à l’autre dans le « one way system » selon le mécanisme bien connu : stockage dans la structure pré-synaptique, libération lors de l’impulsion nerveuse, franchissement de l’espace synaptique, modification de la configuration des récepteurs post-synaptiques. Selon leur constitution chimique, la quantité et éventuellement le lieu d’action, les neurotransmetteurs inhibent ou inversement activent les cellules concernées et éventuellement les voies de conduction. Au niveau des voies cochléo-vestibulaires, ces médiateurs qui interviennent dans la transmission ont une activité diverse : histaminergique, cholinergique, GABAergique et dopaminergique. Concernant l’oreille interne elle-même, interviendraient : – au niveau du système afférent un mécanisme de transmission acetylcholinergique, – au niveau du système efférent un mécanisme de transmission aspariginique et glutaminergique. (Claussen C.F., À propos d’une méthode systématique d’examen et de traitement des vertiges. Cahiers d’ORL, 1986, 21, 8, p. 567-583). 3. Le concept de la neurotransmission est actuellement en voie de révision depuis qu’on a mis en évidence la participation dans le couple synaptique classique, terminaison nerveuse présynaptique et élément post-synaptique, d’un troisième élément, la cellule gliale. « Elle détecte le signal synaptique, l’intègre puis y répond en libérant des substances actives, les « gliotransmetteurs », telle la D-sérine. Cette relation serait indispensable au fonctionnement des récepteurs du glutamate de type NMDA (N-méthyl-D-aspartate). » Ainsi les cellules gliales ne joueraient pas seulement un rôle de soutien et d’apport énergétique, mais participeraient activement aux processus de mémoire synaptique. Par un mécanisme de rétraction, elles diminueraient la quantité de D-sérine libérée dans la fente synaptique et réduiraient en conséquence le nombre de récepteurs NMDA susceptibles d’être activés à l’arrivée de l’influx nerveux (la liaison entre la molécule de glutamate sur son récepteur et la D-sérine déclenche le passage de l’influx d’un neurone à l’autre) (Benzadon G. La cellule gliale, troisième larron de la synapse. QM., n° 7965, 23/5/06 ; André L. Des connexions enrobées, Pour la Science, 2006, 345, p. 28). 263

L’ OREILLE

NUMÉRIQUE

4. « Le réseau neuronal n’est pas une structure déterminée une fois pour toutes. Il est au contraire soumis à un changement permanent. En effet, les synapses, sites des transferts d’information entre les neurones, sont constamment remodelées au gré de l’expérience : c’est ce qu’on appelle la plasticité synaptique. L’activité simultanée de neurones interconnectés renforce les connexions synaptiques entre ces neurones, tant sur le plan structurel que fonctionnel : la forme et la taille des synapses changent, et de nouvelles synapses se forment ». Certaines de ces modifications sont en relation directe avec les informations sensorielles qui leur ont donné naissance, auditive entre autres. « C’est sur elles que reposent les phénomènes de mémorisation. » (Ansermet Fr. et Magistretti P. L’inconscient au crible des neurosciences. La Recherche, 2006, 397, p. 36-39). 5. Lim D.J. in Effects of noise and ototoxic drugs at the cellular level in the cochlea. Am. J. Otolaryngol. 1986, 7, p. 73-99. 6. Constante de temps de la membrane des CC inférieure à 200 μS (Flock A., Neurobiology of hair cells and their synapses. In Facts and models in Hearing. Ed by Z wicker E et Terhardt E., Springer Verlag Berlin. NY 1974 p. 37). Le réseau neurosensoriel de la cochlée : le cheminement de l’information 1. Puel J.-L., Puel J., Guitton M., Pujol R., La physiologie cochléaire revisitée : nouvelles perspectives thérapeutiques. Rencontre IPSEN en ORL, 2001, Solal éditeur, Marseille, 71-82. 2. Morrison D., Schindler R.A., Wersall J., A quantitative analysis of the afferent innervation of the organ of Corti in guinea pig. Acta Otolaryngol., (Stockh.), 1975 ; 79, p. 11-23. 3. Nomura Y., Nerve fibers in the human organ of Corti. Acta Oto Laryngol. (Stockh.), 1976 ; 82, p. 317-324. 4. Spoendlin H., The Organization of the Cochlear Receptor. Karger S., Basel, 1966. 5. Spoendlin H., Ultra structure and peripheral innervation pattern of the receptor in relation to the first coding of the acoustic message. Hearing Mechanisms in vertebrates. J & A. Churchill LTD, London, 1968 p. 89-118. 6. Spoendlin H., Innervation pattern in the organ of Corti of the cat. Acta Otolaryngol., (Stockh.), 1969, 67, p. 239-254. 7. Spoendlin H., Innervation densities of the cochlea. Acta Otolaryngol., (Stockh.), 1972, 73, p. 235-248. 8. Spoendlin H., Neuroanatomy of the Cochlea. In Facts and Models in Hearing, Springer Verlag, Berlin, 1974, p. 18-36. 9. Spoendlin H., Retrograde degeneration of the cochlear nerve. Acta Otolaryngol., (Stockh.), 1975 ; 79, p. 226-275. 10. Spoendlin H., Neuroanatomical Basis of cochlear coding mechanisms. Audiology, 1975, 14, p. 383-407. 264

Notes et bibliographie

11. Spoendlin H., Organization of the auditory receptor. Rev. Laryngol., Bordeaux, 1976 ; 97, p. 453-462. 12. Pujol R., Physiologie et physiopathologie cochléaires : données récentes. Propos Biopharma, 1989, suppl. ORL n° 2, p. 2-14. 13. War W. B., Guinan J.J., Efferent innervation of the organ of Corti : two separate systems. Brain Res., 1979, 173, p. 152-155. 14. Collet L., Physiologie cochléo-vestibulaire : données nouvelles. Médecine/ Sciences, 1994, n° spécial, p. 68-71. 15. Iurato S., Efferent fibbers to the sensory cells of Corti’s organ. Exp. Cell. Res., 1962 ; 27, p. 162. 16. Kimura R.S., Wersall J., Termination of the olivocochlear bundle in relation to the outer hair cells of the organ of Corti in guinea pig. Acta Otolaryngol., (Stockh.), 1962 ; 55, p. 11-32. 17. Smith C.A., Rasmussen G.L., Recent observation on the olivocochlear bundle. Ann. Otol. Rhinol. Laryngol., 1963 ; 72, p. 489-505. 18. Whitfield I.D., Centrifugal control mechanisms of the auditory pathway. In : Hearing Mechanisms in Vertebrates. Churchill LTD edit., London, 1968, 246-258, cf. discussion p. 298-309. 19. Le système auditif est un système complexe fonctionnant sur le modèle de réseaux multicouches. Cette architecture est capable de générer des superformes responsables en retour de mécanismes actifs de type automates. La digitalisation du signal cochléaire, la modélisation de la fibre nerveuse en neurone formel, la connectivité des couches en réseaux, l’existence de circuits neuronaux de type cybernétique, autorisent d’appliquer au fonctionnement de ce système sensoriel les concepts du connexionnisme.

2. Nouvelles données de mécanique cochléaire expérimentale Bibliographie succincte 1. Békésy G. von. Experiments in Hearing. 1960 ; McGraw-Hill Book Company. New York. 2. Carrat R., Réponse d’une membrane dans un modèle mécanique cochléaire à des sons purs, transitoires ou bruit blanc. C.R. LXXI Congres. Fr. Oto-rhinolaryng., Paris, 1975 ; Arnette édit., Paris, 1976, p. 189-197. 3. Carrat R., Thillier J.L., Réponse d’une membrane dans un modèle cochléaire à des sons entretenus et à des transitoires. C.R. Soc. Biol., 1976 ; 170 : p. 900-903. 4. Carrat R., Mécanique cochléaire. Comm. XIII Congr. Intern. Audiol., Florence, 1976 (non publié). 5. Carrat R., Influence des paramètres expérimentaux sur la réponse de modèles mécaniques cochléaires. Implications dans la physiologie de l’audition. Rev. Acoust. (Paris), 1979 ; 12, p. 189-196. 265

L’ OREILLE

NUMÉRIQUE

6. Carrat R., Mécanique cochléaire : nouvelles données expérimentales. Ann. Oto-Laryngol., Paris, 1979 ; 96, p. 23-48. 7. Carrat R., Théorie de l’échantillonnage cochléaire. Arnette édit. Paris. 1986. 8. Carrat R., Durivault J., Cochlée et bruit blanc : approches expérimentales. Comm. 12° Ass. Nat. Proth. Audit., Tours, 1974. 9. Carrat R., Thillier J.L., Réponse d’une membrane dans un modèle cochléaire à des sons entretenus et à des transitoires. C.R. Soc. Biol., 1976 ; 170, p. 900-903. 10. Tonndorf J., Response of cochlear models to aperiodic signals and to random noises. J.A.S.A., 1960 a, 32, 10, p. 1344-1355. 11. Tonndorf J., Dimensional analysis of cochlear models. J. Acoust. Soc. Amer., 1960 b, 32, 4, p. 493-497. 12. Tonndorf J., Time-frequency analysis along the partition of cochlear models : a modified place concept. J. Acoust. Soc. Amer., 1962, 34, 8, p. 1337-1350.

3. Audition et théorie de la communication Notes 1. En 1924, Harry Nyquist, aux laboratoires Bell, fut chargé d’étudier le problème de la vitesse de transmission des signaux. De son côté, R.W.L. Hartley, ingénieur spécialiste de questions radiotechniques, s’intéressa au problème de la mesure de la transmission de l’information, et à celui de la largeur de bande. Pendant la guerre, deux chercheurs, A.N. Kolmogoroff et Norbert Wiener se préoccupèrent du problème de la transmission de signaux parasités. Enfin, Claude E Shannon sous l’influence des idées de Norbert Wiener, créa les bases de la théorie mathématique des communications en synthétisant les travaux épars remontant au début de l’ère des télécommunications. Avec Wiener, il étudia le problème posé non par un seul signal, mais par n’importe quel signal appartenant à un groupe ou un ensemble de signaux (problème du codage efficace). Shannon a donné au terme information un sens précis en exprimant mathématiquement la « quantité » d’information transmise par un message. L’information, c’est la mesure de la réduction de l’incertitude qu’il peut y avoir au sujet de l’état d’un système par l’intermédiaire d’un message. Elle est mesurée statistiquement en bits, c’est-à-dire en questions binaires, par le nombre de questions auxquelles il faut répondre soit par oui soit par non, l’un et l’autre étant également probables a priori pour le récepteur (A Moles, La communication, Retz, Paris, 1971). 2. Shannon Claude (1916-2001), mathématicien, théoricien des communications au MIT, quelque peu fantasque (il s’est amusé à inventer une étrange boîte noire dont le mécanisme, en se mettant en marche, fait surgir une main verte qui s’empresse d’appuyer sur le bouton d’arrêt) (Bergamini D., Les mathématiques, Time Life, 1965). Élève de Robert Wiener, le créateur de la cybernétique, il a utilisé l’algèbre de Boole pour calculer des circuits téléphoniques à commutation. On lui doit la « Théorie mathématique des communications », encore appelée théorie de l’information et le théorème célèbre sur l’échantillonnage d’un signal. 266

Notes et bibliographie

Il a également mis au point une souris électronique capable de sortir toute seule d’un labyrinthe. Il est à la base de tout le système moderne de communication, des ordinateurs et de l’immense révolution du numérique (Cl Allègre, Dictionnaire amoureux de la science, Plon-Fayard, Paris, 2005). Le concept d’information transgresse les frontières des disciplines scientifiques : informatique, physique, neurosciences, génomique, linguistique, psychologie. Il apparaît comme l’un des principes les plus universels et fondamentaux. 3. Alan Turing, mathématicien britannique (1912-1954), par ses travaux sur les notions de calculateurs et de calculabilité (théorie des fonctions calculables), annonce l’informatique théorique. Connu pour ses travaux sur le décodage, pendant la guerre, des messages secrets allemands, il participa à la conception d’un calculateur puissant opérationnel en 1950. Ses théories mathématiques ont reçu des applications en biologie : par exemple la théorie de la morphogenèse par ruptures de symétrie. Personnage excentrique, préoccupé par le problème de l’intelligence artificielle, par les rapports entre les lois physiques et le milieu biologique auto-organisé, et par des problèmes personnels, il fut arrêté et condamné à un suivi psychanalytique et médical. En 1954, à l’âge de 41 ans, il se suicida par absorption de CNK. 4. Une fonction de transfert est une description mathématique de la façon dont cet élément transmet le signal, compte-tenu des bruits caractéristiques et des distorsions qu’il entraîne (Montforte J., 1985). 5. Moles A., La communication. Retz édit., Paris, 1971. 6. La représentation significative d’un signal continu par prélèvement d’échantillons dépend en fait d’un seul paramètre, celui de la période d’échantillonnage. C’est le théorème de l’échantillonnage, ou théorème de C.E. Shannon (1949), qu’on peut énoncer ainsi : « un signal temporel f (t) ne contenant pas de fréquences supérieures à Fmax Hz, peut être complètement déterminé par ses valeurs prises à des intervalles égaux ou inférieurs à 1 / 2 Fmax seconde ». L’intervalle de temps maximal ainsi défini = 1 / 2 FM est appelé intervalle de Nyquist. En effet, pour tout signal de durée finie T, le spectre d’amplitude est nécessairement limité. Il est nul au-dessus d’une fréquence limite supérieure F max. La fonction représentative de ce signal ne peut changer beaucoup de valeur dans un intervalle de temps court, puisque la vitesse maximale de variation est limitée par la fréquence la plus élevée du spectre (Rosie A.M., 1971). Il suffit donc de prélever la valeur du signal en 2 F points chaque seconde, ou encore si la durée du signal est T, de prélever 2 FT points pendant toute la durée du signal, pour obtenir toute l’information contenue dans le signal, c’est-à-dire la représentation exacte du signal. 7. Tout signal continu, périodique ou non (comme les sons complexes qui nous entourent) peut être considéré comme la superposition d’une somme infinie d’harmoniques (sinusoïdales) (analyse de Fourier), et synthétisé à partir de ces composants fréquentiels (intégrale de Fourier ou transformée de Fourier). 267

L’ OREILLE

NUMÉRIQUE

8. Tout système de transmission de communications a une bande passante limitée, non infinie, au-delà de laquelle il ne peut pas assurer la transmission. Il en est ainsi, par exemple, du téléphone dont la fréquence supérieure de la bande passante est limitée à 4 000 Hz, ou de l’oreille normale qui ne perçoit guère au-delà de 16 000 Hz. 9. On dit encore qu’on se trouve en présence d’une « fonction peigne » ou d’une série de fonctions discontinues de Dirac. L’intervalle séparant deux dents consécutives du peigne représente le pas d’échantillonnage spatial. On peut en outre quantifier le paramètre amplitude au niveau de chaque dent par l’émission d’un nombre variable d’impulsions, c’est-à-dire une densité de Dirac (Fig. 6-3.4). 10. Paul Adrien Maurice Dirac (1902-1984) physicien britannique prix Nobel en 1933, a participé, avec d’autres célèbres physiciens (Louis De Broglie) à l’élaboration d’un ensemble de théories où les électrons de l’atome deviennent des manifestations d’une fonction d’onde qui définit la probabilité de leur présence et son évolution au cours du temps. Dirac a décrit le comportement d’un électron dans le champ d’un noyau, et élaboré la théorie de champ quantique. 11. Guibert J., La parole. Compréhension et synthèse par les ordinateurs. PUF Paris.1979. Références bibliographiques Atlan H., L’organisation biologique et la théorie de l’information. Seuil, 2006. Cottet Fr., Traitement des signaux et acquisition de données. Dunod, Paris, 1997. Cullmann G., Codage et transmission de l’information. Eyrolles édit., Paris, 1971. Escarpit R., Théorie générale de l’information et de la communication. Hachette Université. Partis.1976. Guibert J., La parole. Compréhension et synthèse par les ordinateurs. P.U.F. Paris.1979. Lienard J.S., Les processus de la communication parlée. Masson édit., Paris, 1977. Lifermann J., Théorie et applications de la transformation de Fourier rapide. Masson édit., Paris, 1979. Lifermann J., Les méthodes rapides de transformation du signal : Fourier, Walsh, Hadamard, Haar. Masson édit., Paris, 1980. Loriferne B., La conversion analogique-numérique. Edition de l’Usine nouvelle Paris, 1981) Max J. et coll., Méthodes et techniques de traitement du signal et applications aux mesures physiques. Masson édit., Paris, 1981. Moles A., La communication. Retz édit., Paris, 1971. Montforte J., La reproduction numérique du son. Pour la Science, 1985, 88, p. 22-29. Perrin J., Brocas J., Fonroget J., Bases élémentaires du traitement du signal. Masson édit., Paris, 1976. 268

Notes et bibliographie

Peterson A.P.G., Gross E.E., Handbook of noise measurement. General Radio Company, edit. Concord, 1972. Pierce J-R., Symboles, signaux et bruit. Introduction à la théorie de l’information. Masson édit., Paris, 1966. Riviere J.-P., Eléments de théorie de l’information. Foucher. Paris. 1970. Rosie A.M., Théorie de l’information et de la communication. Dunod. Paris. 1970. Shannon C.E., A mathematical theory of communication. Bell Syst. Tech. J., 1948 ; 27 : 379-343, p. 623-656. Shannon C.E., Weaver W., The Mathematical Theory of Communication. Urbana, University of Illinois Press, 1949. Tamine J., La cybernétique. Feynerolles édit., Bruxelles, 1970. Weaver W., Shannon C.E., Théorie mathématique de la communication. Retz CEPL., Paris, 1975.

Chapitre 7 Notes 1. Gl de Gaulle (1964). 2. L’intelligence artificielle, fer de lance de l’informatique, est née de la recherche sur des machines d’un comportement intelligent. En 1948, Norbert Wiener (professeur au MIT) et Bigelow mettent au point le principe dit de contrôle rétroactif, et lui attribuent une portée beaucoup plus générale, la rétroaction étant par exemple le moyen utilisé par tous les êtres vivants pour s’adapter à leur environnement et atteindre leurs buts. Wiener désigne alors cette approche sous le terme de « cybernétique ». À la même époque, McCulloch, neurophysiologiste, et Walter Pitts font le rapprochement avec le fonctionnement cérébral. Ils avancent l’hypothèse, schématiquement, que les neurones peuvent être considérés comme des systèmes utilisant des nombres binaires. Ce sont précisément ces nombres binaires, les chiffres un et zéro, qui sont utilisés dans le système de logique mathématique imaginé au XIXe siècle par George Boole. Ce dernier avait en effet montré que les propositions logiques pouvaient être codées sous forme de 1 et 0, correspondant à vrai ou faux, puis manipulés comme des nombres ordinaires. C’est Claude Shannon qui a ensuite l’intuition, au cours des années 1930, de faire correspondre les chiffres 1 et 0 à l’état ouvert/fermé d’un circuit électrique. McCulloch et Pitts réalisent de véritables réseaux électroniques de neurones simplifiés et montrent comment ces systèmes peuvent accomplir tout traitement numérique ou logique. Ils avancent même que de tels réseaux peuvent apprendre, reconnaître des formes, et se livrer à des généralisations. 3. Perrin J., Bases élémentaires du traitement du signal. A l’usage des biologistes et des médecins. Masson, 1976. 4. Une analyse périphérique du stimulus n’est pas nécessaire à la perception sensorielle. Les mécanismes du traitement de l’information par les organes des sens sont superposables les uns aux autres : ils ne diffèrent vraiment qu’au niveau 269

L’ OREILLE

NUMÉRIQUE

des capteurs situés au contact du monde extérieur, à l’interface entre l’individu et son environnement. Ainsi, dans le domaine de l’olfaction, les découvertes réalisées par Linda Buck et Richard Axel en 1991 (Nobel 2004), ont montré qu’à chaque molécule odorante ne répondait pas une cellule sensorielle spécifique, mais qu’une molécule pouvait être acceptée par plusieurs neurones, et qu’un neurone pouvait accepter plusieurs molécules. La perception de milliers d’odeurs différentes ne met en œuvre qu’un nombre limité de récepteurs, nombre bien inférieur à celui des molécules perçues. Elle implique en conséquence une combinatoire qui repose sur la connectique des neurones olfactifs et permet un codage de l’information au niveau du bulbe. La répartition de la stimulation au niveau du premier relais neuronal (bulbe olfactif pour l’olfaction, ganglion spiral pour le nerf acoustique) réalise une cartographie qui se modifie sans cesse du fait des variations permanentes du stimulus ; le signal est représenté par une « forme », un pattern. Ces découvertes viennent confirmer l’inutilité d’une représentation tonotopique des sons dans la cochlée. À chaque fréquence sonore ne correspond pas une cellule de Corti bien définie (contrairement à ce que prétend la tonotopie), alors qu’une cellule de Corti réagit à un grand nombre de fréquences. En fait, le codage de l’information procède d’une combinatoire des réponses unitaires des capteurs sensoriels. De même que l’organisation neuronale combinatoire permet de coder des milliers d’odeurs, de même la connectique neurale auditive permet de coder des milliers de formes acoustiques membranaires en des milliers d’assemblages de neurones afférents. Il n’y a pas de cellule auditive ni de voie auditive dévolue spécifiquement à telle ou telle fréquence : elles sont miscibles en toutes proportions. Au-delà des capteurs, les circuits qui mènent jusqu’à la conscience sont identiques d’un organe sensoriel à l’autre. La représentation corticale résultante de chaque stimulus (olfactif ou acoustique) ne semble pas spécifique. Il n’y a pas de représentation réaliste de l’objet, mais des représentations abstraites qui relèvent de la reconnaissance de formes (Mac Leod). Il suffit d’un nombre limité de points pour identifier une perception. Quant à la cartographie corticale, elle ne peut que différer d’un individu à l’autre pour les deux fonctions sensorielles. Si chaque individu sent toujours la même odeur de la même façon, chaque individu va la percevoir d’une manière différente que son voisin (polymorphisme) (Mac Leod) ; de même, pour un son donné, la forme membranaire acoustique résultante va différer d’un individu à l’autre, deux cochlées n’étant jamais parfaitement identiques : l’essentiel, comme l’avait souligné E. Leipp, est que cette représentation soit toujours la même chez cet individu, et qu’il y ait une constance des formes. Références bibliographiques Buck L, Axel R., A Novel Multigene Family may Encode Odorant Receptors : a Molecular Basis for Odor Recognition, Cell, 1991,65 p. 175-87. Mac Leod. Vin et sensorialité. Communication. Groupe Entendre 9 /4/2005. 270

Notes et bibliographie

Montmayeur J-P. , Quand le cerveau a du nez. La Recherche, 2005, 382, p. 58-59 Pernollet J.-Cl., Récents progrès en olfaction. Com. Acad. Agriculture de France, 11 mai 2005. Purves D. et al., Les sens chimiques. In Neurosciences, de Boeck Université, Bruxelles, 2005, p. 337-354. Eloit C et Trotier D., Fonction olfactive du nez. Rapport Soc. Fr. d’ORL, 2006, p. 17-21

Chapitre 8 Notes 1. L’oreille est à la fois un convertisseur analogique-numérique du signal par échantillonnage des formes acoustiques membranaires et un transducteur de l’information. • Elle est chargée de traduire des « images acoustiques » membranaires en un signal adapté au fonctionnement de la fibre nerveuse, en vue de leur transmission aux centres cérébraux. Pour qu’un message soit transmis jusqu’aux centres de traitement cérébraux, les signaux doivent être adaptés au fonctionnement de chaque élément du canal de transmission. De la chaîne tympano-ossiculaire aux cellules ciliées de l’oreille interne, les messages sont transmis sous forme de vibrations mécaniques, acoustiques. Au-delà, ces mêmes messages sont codés pour cheminer dans les voies nerveuses sous forme de signaux électriques et chimiques. Il y a donc passage d’un mode de codage des signaux en un autre mode de codage. Alors que les signaux acoustiques, de par nature continus, sont de type analogique, ceux du système nerveux, comme pour la plupart des systèmes biologiques, sont de nature discontinus, binaires, puisque l’alphabet se limite à 2 symboles 0 et 1. Le codage fonctionne sur le dilemme « ouvert-fermé », passage de courant ou non, dépolarisation ou phase réfractaire. L’oreille interne se comporte au total comme un transducteur capable de transformer un signal continu, analogique, en un signal discontinu, de type numérique composé de séquence 0 et 1., les spikes, adapté au fonctionnement de la fibre nerveuse. C’est un convertisseur analogique-digital. Elle a pour fonction de ne pas interrompre le canal de transmission des messages informatifs malgré le passage d’un support à un autre. • L’oreille interne code simultanément le signal en un pattern informatif. Le récepteur cochléaire est loin d’être un simple transducteur d’énergie. C’est aussi un codeur de la forme sonore détectée en un pattern neural, c’est-à-dire des séquences de bits porteuses d’information. Ce pattern est ensuite transmis par les voies auditives afférentes sous la forme du signal binaire jusqu’aux centres supérieurs, où il est comparé à toutes les formes possibles mémorisées, si on assimile le cerveau à un centre de traitement et de mise en mémoire des données (Leipp E., La machine à écouter. Masson, Paris, 1977). 271

L’ OREILLE

NUMÉRIQUE

C’est ce processus de reconnaissance d’une forme, d’un pattern cochléaire, c’està-dire la possibilité de distinguer des éléments individualisés dans un groupe de formes sonores, qui constitue la fonction auditive. Par ce codage binaire, l’information peut être véhiculée sur de longs trajets avec le maximum d’économie), sans perte notable de la quantité d’information transmise (Escarpit R. Théorie générale de l’information et de la communication. Hachette, Paris, 1976, p. 101 ; théorie de Jean Cloutier). 2. L’analogie cerveau/ordinateur, aussi commode soit-elle, serait une vision trop simpliste du fonctionnement neuronal. « Certes le cerveau reçoit des informations du monde extérieur, les enregistre, les code, les traite, les analyse, puis réagit à son tour à ces impulsions. Il utilise une fonction de mémoire, des règles de « calcul », un code et un décodage, c’est-à-dire un véritable langage interne » comme le ferait un ordinateur individuel (Allègre Cl., Dictionnaire amoureux de la science, Plon, 2005). Il présente cependant de nombreuses différences : – la vitesse de transmission de l’information n’est pas comparable (quelques milliers de km/s pour l’ordinateur et à peine 100 m/s sur la fibre nerveuse), – le processus de reconnaissance par le cerveau est par contre beaucoup plus rapide, – le cerveau ne possède pas de programme pré-établi : les connexions sont changeantes, – la mémoire du cerveau n’est pas stockée comme dans celle de l’ordinateur sous forme de 0 et de 1. La cartographie ne montre pas de zones de stockage de l’information, – enfin le réseau de neurones n’est pas fixe, mais évolue au cours de la vie. 3. Spoendlin H., Neuroanatomy of the Cochlea. In Facts and Models in Hearing, Springer Verlag, Berlin, 1974, p. 18-36. 4. Deol M. S., Gluecksohn-Waelsch S., The role of inner cells in hearing. Nature, 1979 ; 278, p. 250-252. 5. Échantillonnage cochléaire externe et échelons de niveau sonore. On a remarqué que les musiciens, placés dans un bruit de fond, ne reconnaissent pas plus de 7 échelons de niveau sonore. Dans de bonnes conditions d’écoute, la perception de l’intensité ne dépasserait guère 10 échelons (Leipp E., 1980, p 113). Certes, il est possible de reconnaître des différences plus subtiles de niveau sonore, le dB, mais on pense que sa détermination fait alors intervenir un facteur de prévisibilité, c’est-à-dire des mécanismes auditifs centraux de mémorisation et de reconnaissance. Au total, dans le bruit, l’échelon de niveau est plus proche du Bel que de ses sous-multiples, le dB (Leipp E.). Cette étrange donnée de la psychoacoustique est difficilement explicable par les théories classiques de l’audition. Par contre, si on attribue au système cilié externe exclusivement la discrimination de niveau, on peut appréhender les limites de cette reconnaissance. En effet, les données histologiques concernant l’innervation des cellules ciliées externes montrent que, par ses dendrites, chaque fibre nerveuse afférente externe se distribue à un groupe de 9 à 10 cellules sensorielles, ce qui fait évoquer un mécanisme de recrutement spatial lors de son excitation. On peut avancer l’hypothèse que l’augmentation progressive du niveau sonore 272

Notes et bibliographie

entraîne la dépolarisation d’un nombre de plus en plus grand de cellules ciliées externes, ce qui se traduit par une augmentation du taux des pics véhiculés par la fibre nerveuse correspondante. La similitude du nombre d’échelons psychoacoustiques de niveau sonore et du nombre de CCE dépendant de chaque fibre constitue un argument de présomption en faveur de cette hypothèse. À l’inverse, l’impossibilité d’un échantillonnage convenable de la hauteur par le système cilié externe (en raison de la distribution dendritique en éventail de chaque neurone) constitue un argument a contrario. Au total, la sommation spatiale de la réponse des cellules ciliées externes correspondant à chaque fibre apporte une explication plausible des échelons de sensation de niveau sonore. 6. Recrutement : dans le sens d’une mise en jeu d’un nombre plus ou moins élevé de fibres, à ne pas confondre avec le phénomène psychoacoustique du « recruitment ». 7. On n’a pas manqué de m’objecter que Wever avait déjà pressenti la participation des fibres auditives par groupes, en une sorte d’activation des fibres par alternance afin de contourner le problème posé par la période réfractaire de chacune d’elle. C’est méconnaître la genèse des idées. En réalité, la théorie de la volée (1930) ne concerne qu’un codage grossier et exclusif de la hauteur, et fait l’impasse totale sur le codage du niveau. Elle n’apporte aucune explication quant aux limites fréquentielles supérieure et inférieure de l’audition. Enfin elle ne concerne que les sons sinusoïdaux, et ignore les autres formes de signaux qui peuvent être délivrés à l’oreille : les transitoires et les signaux aléatoires, dont on connaît néanmoins la place et l’importance dans le monde des sons. Par ailleurs, Wever ne pouvait se référer à la théorie générale de l’échantillonnage de Shannon, celle-ci n’ayant été énoncée qu’en 1949 ! Enfin il ne disposait d’aucune donnée sur la dynamique cellulaire et ciliaire, sur la systématisation neurosensorielle fine obtenue par la microscopie électronique, sur la séparation fonctionnelle des cellules ciliées externes et internes, sur le fonctionnement synaptique, etc.

Chapitre 9 1. Pimonow L., Vibrations en régime transitoire. Analyse physique et physiologique. Dunod, Paris, 1962. 2. Leipp E., La machine à écouter. Masson, Paris, 1977. 3. Leipp E. Acoustique et musique. Masson, Paris, 1980. 4. Moles A., La communication. Retz, Paris, 1971, p. 241. 5. Un pixel est la molécule du graphique (pixel : contraction de picture et élément). 6. Lafon J.-Cl., Message et Phonétique. PUF, Paris, 1961. 7. La contraction réflexe du muscle de l’étrier, ou réflexe stapédien, entraîne en temps normal un blocage plus ou moins serré de la platine de l’étrier, et une limi273

L’ OREILLE

NUMÉRIQUE

tation de l’amplitude de vibrations. Par un mécanisme inverse, le système réflexe du muscle du marteau se comporte plutôt comme un adaptateur d’impédance pour des niveaux sonores peu intenses. 8. L’oreille étant capable de recevoir les 2 types de signaux, elle ne peut de toute évidence que réagir de manière dissemblable à un signal permanent ou à un signal transitoire. Alors que les sons purs donnent à la sensation auditive sa qualité affective, esthétique, les transitoires véhiculent la plus grande partie de l’information auditive. Ils constituent le support du message dans la communication parlée ou dans l’audition d’éveil. Un son pur continu n’est le support d’aucune information. Si le ciel était bleu en permanence, la météorologie n’aurait pas sa raison d’être. Si toutes les maisons d’une rue étaient strictement identiques, on ne saurait reconnaître son domicile. Seule la discontinuité est informative. Ainsi toute modulation sonore, soit de fréquence, soit d’intensité, peut transporter un message : par exemple les langues sifflées, la voix chuchotée (qui module des bandes de bruit blanc), etc. Sa sensibilité aux variations physiques du signal la rend assimilable à un capteur de mouvement sensible aux variations de vitesse, à un accéléromètre. C’est donc en fait un analyseur de temps. De plus, le signal acoustique, fondamentalement de nature complexe, entraîne au niveau de la membrane basilaire des déformations variables avec les paramètres physiques du signal, et en nombre infini. Ces formes, ces images, seront ensuite mémorisées. Au total, la fonction auditive peut être ramenée à un processus de conversion temporo-spatiale. Il apparaît dès lors que la physiologie auditive ne peut être réduite aux concepts trop restrictifs d’une théorie dite fréquentielle ou d’une théorie dite impulsionnelle. 9. Un son entretenu, même de courte durée comme un burst, n’est jamais d’installation ou de disparition instantanée : il présente trois parties : un temps d’installation, un plateau (régime permanent), un temps de disparition. Pour être reconnu avec toutes ses qualités physiologiques, la durée du plateau du signal ne peut être inférieure à la constante de temps du système, (car une variation plus rapide exige un spectre plus large que Δf et l’information ne serait plus suivie par le système. Cette valeur constitue donc une limite inférieure de la durée du transitoire). En physiologie auditive, cette durée a également une limite supérieure à partir de laquelle le transitoire perd ses propriétés d’information (elle a été estimée pour un son de 800 Hz à un niveau de 80 dB à 20 à 60 s par phone). Pratiquement, pour qu’un mot conserve un minimum d’intelligibilité, on ne peut guère dépasser le triple de la durée du transitoire (Pimonow1 p. 23).

Chapitre 10 Notes 1. Strohl A., Précis de physique médicale. Masson édit., Paris, 1963. 2. Carrat R., Théorie de l’échantillonnage cochléaire. Arnette édit., Paris, 1986. 274

Notes et bibliographie

3. Physiologie de la cochlée et La Psychoacoustique publiées par l’INSERM à Paris (1988 et 1989). 4. Un système stable ne transmet pas d’information : si toutes les maisons de ma rue étaient identiques, sans aucun repère, je ne saurais retrouver la mienne. Si le ciel était bleu en permanence, la météorologie n’existerait pas. 5. Code-barres. En français : « code à barres ». Mis au point après la guerre (vers 1946), le procédé effectue un codage de chiffres par combinaisons de barres claires et foncées. La lecture du code est assurée soit par rayon laser, sur une ligne, avec « douchette » ou pistolet, soit par scanner. L’information est portée par le changement de contraste entre les barres foncées et les espaces clairs. Un système code à barres a pour caractéristiques sa diversité et sa fiabilité car il réduit le nombre d’erreurs possibles. Divers types de code à barres ont vu le jour : RSS 14, RSS Limited (code unique dans le monde. Universel), EAN 128… Chaque code-barres émet des données : c’est un émetteur passif. 6. Un processus de balayage existe même s’il n’y a pas de balayage réel par un organe physique. La reconnaissance des formes par une machine (marchandises, tri postal) se fait le plus souvent par balayage linéaire au moyen d’un élément photosensible délivrant à chaque instant une tension de sortie qui est fonction de la quantité de lumière reçue. C’est l’objet (une lettre par exemple) qui se déplace dans la machine sous un rayon lumineux fixe. 7. Martin G., Le code-barre, des zébrures qui racontent le produit. La Recherche, 360, p. 96-97, 2003. 8. Une fente ne peut mesurer la hauteur d’un objet que dans une seule dimension. Tant que la largeur de la ligne de balayage dans un balayage en ligne demeure suffisamment faible (CCI) ou tant que la zone élémentaire observée lors de l’examen par un quadrillage demeure peu étendue (CCE), on ne perd aucune quantité notable d’information. Le système code à barres 2D entre dans la technologie des portables : il permettra de supprimer par exemple la réservation traditionnelle sur papier (billet). Il suffira de présenter l’écran de téléphone à un scanner, une borne interactive ou une « douchette » qui décryptera la réservation et fera office de sésame. Le codage 2D propose un nombre extrêmement élevé de combinaisons.

Chapitre 11 Le seuil auditif au bruit blanc Notes 1. Les fluctuations de ce bruit semblent liées au hasard. Pour B. Mandelbrot, la plupart des phénomènes aléatoires suivent une distribution de Gauss. C’est ce qu’il qualifie de hasard bénin (exemple du bruit thermique blanc). La notion de hasard est cependant multiforme. On peut aussi parler de hasard dit sauvage (illustré par le relevé des crues du Nil qui montre que les moyennes calculées sur 275

L’ OREILLE

NUMÉRIQUE

des périodes relativement courtes ou longues sont différentes), et d’une troisième forme dite du hasard lent qui conduit à la longue à la même régularité non aléatoire que le hasard bénin (B. Mandelbrot, Pour la Science, Le hasard, p. 12-17, avril 1996). 2. Après le mathématicien suédois Lindeberg (1922), Turing a démontré en 1927 le théorème de la limite centrale, théorème qui justifie le caractère de courbe en cloche d’une distribution de probabilité (dite de Gauss). Quand une somme de variables aléatoires tend vers l’infini, cette somme converge vers une variable aléatoire ayant l’apparence d’un événement physique. « C’est la réitération suffisamment prolongée du nombre des évènements qui permet par convergence d’approcher de façon déterministe la singularité d’un événement dont l’apparition relève de causes qui physiquement, ne sont pas pleinement déterminables. La réitération est la clé déterminante pour réduire l’aléatoire tel qu’il se manifeste dans le monde physique » (Lassègue J.). Le niveau « moyen » d’un bruit blanc résulte bien de la « convergence » d’un grand nombre de niveaux d’impulsions distribuées au hasard. L’amplitude « moyenne » du mouvement de la membrane basilaire résulte elle aussi de la convergence des déplacements de tous ses points. De même la dépolarisation globale » des CCE est la résultante, la convergence, de la dépolarisation « au hasard » des CCE. Références bibliographiques Carrat R., Cara M., Une technique simplifiée d’appréciation de la perte auditive par l’utilisation de bruits blancs. 1er Congrès International d’Electronique Médicale, Tours, 1967, 6p. Carrat R., Intérêt de la recherche du seuil auditif au bruit blanc. VIII Assises Nationales de la Prothèse Auditive, Le Mans, 1970. Carrat R., Thillier J.-L., Durivault J., Le seuil auditif au bruit blanc. Ann. Otolaryngol., (Paris), 1975, 92, 10-11, p. 585-600. Carrat R., Thillier J.-L., La mesure de l’acuité auditive par le bruit blanc. Ann. Otolaryng. (Paris), 1976, 93, 487-500. (Bibliographie.) Lassègue J. Turing, Et l’informatique fut. Pour la Science, n° 29, nov. 2006, p. 46-49. Max J., Les principales méthodes de traitement du signal (corrélation, analyse spectrale) et leurs applications aux mesures physiques. Rapport CEA-R-4018. Saclay. 1970. Veit P., Bizaguet G., Ubersfeld A., Contrôle de l’adaptation de la prothèse auditive du jeune enfant sourd, avant l’acquisition du langage. Intern. Audio-laryng. Vol. VII, n° 1, 1968, p. 142-147. Tonndorf J., Time-frequency analysis along the partition of cohlear models : a modified place concept. J. A. S. A., 1962, 34, 8, p. 1337-1350.

Le fondamental absent Références bibliographiques Bosquet J., La sélectivité des fibres cochléaires comparée au masquage psychophysique : essai de calcul. Acustica, 1981, 47, 3, p. 248-252. 276

Notes et bibliographie

Hawkins J. E., Johnsson L.-G., Patterns of Sensorineural Degeneration in Human Ears Exposed to Noise, in Effects of Noise on Hearing. Edit. by Henderson D., Raven Press, New York, 1976, p. 91-110. Leipp E., Acoustique et musique. Masson édit., Paris, 1980, p. 113. Pimonow L., Vibrations en régime transitoire. Dunod édit., Paris, 1962. Strohl A., Précis de physique médicale. Masson édit., Paris, 1963.

La couleur tonale des transitoires Notes 1. On admet que la hauteur tonale d’un son pur ne peut-être parfaitement définie qu’à partir de 4 à 5, voire 6 sinusoïdes (Pimonow L1), (Hunt R. S2). Théoriquement, un clic ne devrait donc pas avoir de couleur tonale. S’il en est ainsi des clics extrêmement brefs qui sont habituellement ressentis comme un éclat sec, dur, rapidement douloureux lorsqu’on augmente leur niveau ou leur cadence, on observe cependant qu’un clic formé d’un seul cycle d’une sinusoïde peut avoir une couleur tonale selon sa durée. Un tel transitoire possède une certaine « couleur tonale ». L’expérience est aisément réalisable en délivrant à l’oreille un son bref formé d’un seul cycle d’une oscillation sinusoïdale pour diverses fréquences à des niveaux électriques identiques. Lors de cette manipulation, on modifie en fait un seul paramètre, l’attaque de ce transitoire. Plus le son est bref, plus l’attaque est forte. Il a suffi de modifier l’attaque de ces mêmes clics pour lui reconnaître assez rapidement une couleur tonale. L’oreille ne pouvant apprécier la durée de ce transitoire (inférieure à la milliseconde, 1,14 ms pour Lafon7), cet aspect esthétique ne peut guère s’expliquer que par la quantité d’énergie transportée, quantité différente d’un transitoire à l’autre (représentée par la surface sous les courbes sinusoïdes). En fonction de la pente du signal, d’autant plus raide que le signal est plus bref, l’onde propagée à la surface de la membrane basilaire a un parcours différent. Plus le signal est bref, plus l’étalement vibratoire est court, et inversement. On se retrouve devant le problème de l’échantillonnage spatial d’une série d’ondes pseudo-sinusoïdales provoquées et du pas d’échantillonnage représentatif de la hauteur. Rapportée à la mécanique cochléaire, ces impulsions sont responsables d’oscillations pseudo-sinusoïdales plus ou moins serrées selon la brièveté du signal et échantillonnées comme le seraient des ondes sinusoïdales entretenues. Ce phénomène est à rapprocher du phénomène de la roue dentée de Savart. Une impulsion suivie d’un temps d’arrêt, puis de nouveau une impulsion, etc. entraînent une sensation de hauteur tonale en fonction de la périodicité. Puisque l’onde propagée est toujours identique à elle même, on ne peut retenir l’intervention d’une tonotopie pour expliquer la variation de hauteur. Seule intervient la périodicité, le rythme des ondes propagées. Ce phénomène reçoit une interprétation plausible si on admet qu’en augmentant la cadence des impulsions, on diminue en conséquence la durée de chacune d’entre elles. Il s’ensuit une réponse oscillatoire membranaire variable avec la durée de chacun des transitoires, et 277

L’ OREILLE

NUMÉRIQUE

la survenue d’ondes de résonance pseudo-sinusoïdales interprétées à la suite de l’échantillonnage comme des ondes sinusoïdales pures (avec une sensation de hauteur). Références bibliographiques 1. Pimonow L., Vibrations en régime transitoire. Analyse physique et physiologique. Dunod édit., Paris, 1962. 2. Hunt R.S., Damping and selectivity of the inner ear. J. Acoust. Soc. Amer., 1942, 14, p. 50-57. 3. Bosquet J., Un modèle synthétique linéaire de la fonction auditive monaurale. Rev. Acoust., 1977, p. 42 : 209-225. 4. Korn T.S., La notion de la fréquence du son. Acoustica, 1968 ; 20, p. 55-61. 5. Korn T.S., Theory of audioinformation. Acoustica, 1969-1970 ; 22, p. 336-344. 6. Winckel F.,Vues nouvelles sur le monde des sons. Dunod édit., Paris, 1960. 7. Lafon J.-Cl., Étude microtemporelle de l’audition. Bull. Audiophonol., 1976 ; 6, p. 75-78. 8. Lafon J.-Cl., Impulsion et cochlée. Soc. Fr. O.R.L., Paris, 1963, Arnette édit.

Battements et échantillonnage cochléaire Bibliographie 1. Winckel F., Vues nouvelles sur le monde des sons. 1959, Dunod, Paris. 2. Fleury P, Mathieu J. P., Vibrations mécaniques. Acoustique. 1955, Eyrolles édit. Paris. 3. Licklider J.C.R., Basic Correlates of the Auditory Stimulus. In Handbook of Experimental Psychology. 1951, John Wiley & Sons, NY, p. 985-1039. 4. Bouasse H., Acoustique générale. Ondes aériennes. 1926. Delagrave. 5. Lehmann R. 1969. Eléments de physio et de psychoacoustique. 1969, Dunod, Paris. 6. Helmholtz von H., On the sensation of tone as a physiological basis for the theory of music. (First American ed. Of the second English ed. Of the fourth German ed.) 1954. Dover, NY. (Références in B. Voroba). 7. Békésy G. von. Experiments in hearing. 1960 ; Mc Graw-Hill Book Company, NY. 8. Woodworth R. S., Psychologie expérimentale, PUF Paris 1949. 9. Botte M.C. et al., Psychoacoustique et perception auditive. 1989. Inserm, Paris. 10. Tonndorf J., Beats in cochlear models. J. Acoustic. Soc. Am., 1959, 31, p. 608-619. 11. Gelfand St., A. Hearing. 1990, Dekker inc, NY. 278

Notes et bibliographie

12. Feeny MP. Dichotic beats of mistuned consonances. J. Acoust. Soc. Am. 1997 ; 102 (4), p. 2333-42. 13. Lafon J.-Cl., La perception neurosensorielle du temps. Bull. Audiophon. 1977, 7, 4, p. 75-90. 14. Lafon J.-Cl., et al., L’audition impulsionnelle. Jl. Fr. Oto-Rhino-Laryngol., 1978, 27, 3, p. 193-196. 15. Kemp D.T., Otoacoustic emissions, travelling waves and cochlear mechanisms. Hearing Res. 1986, 22, p. 95-104. 16. Carrat R., Théorie de l’échantillonnage cochléaire. 1986. Arnette, Paris.

Chapitre 12 Classification des surdités neurosensorielles Références bibliographiques 1. Schuknecht H.F., Gacek M.R., Cochlear pathology in presbycusis. Ann. Otol. Rhinol. Laryngol., 1993 ; 102 : supp 158. 2. Carrat R., Traumatisme sonore et scotome auditif : proposition d’un modèle pathogénique. Rev. Acoust., Paris, 1981 ; 14, p. 110-114.

Traumatisme acoustique et scotome auditif Références bibliographiques 1. Hawkins J. E, Johnsson L-G., Patterns of Sensorineural Degeneration in Human Ears Exposed to Noise, in Effects of Noise on Hearing. Edit. by Henderson D., Raven Press, New York, 1976, p. 91-110. 2. Evans, E.F., Wilson, J.-P., The frequency selectivity of the cochlea. Basics Mechanisms in Hearing. A.R. Moller. Academic Press, New York, 1973, p. 519-554.

Échantillonnage cochléaire Références bibliographiques 1. Carrat R., Thillier J-L., La mesure de l’acuité auditive par le bruit blanc. Ann. Oto-Laryng., Paris, 1976 ; 93, p. 487-500.

Les difficultés de perception de la parole 1. Ferman L., Vershuure J., Van Zanten B., Impaired Speech Perception in Noisein Patients with a Normal Audiogram. Audiology, 1993 ; 32, p. 49-54. 2. Schuknecht H.F., Gacek M.R., Cochlear pathology in presbycusis. Ann. Otol. Rhinol. Laryngol., 1993 ; 102 : supp 158. 279

L’ OREILLE

NUMÉRIQUE

Repliement cochléaire Notes 1. Aliasing : terme couramment employé en électronique qui se rapporte à l’introduction d’erreur dans l’analyse de Fourier au cours de l’échantillonnage discret d’une valeur continue. Lorsque les composantes fréquentielles sont trop élevées pour être analysées avec un intervalle d’échantillonnage donné, il apparaît des composantes de fréquence plus basses dites aliases (qui n’existent pas dans le signal complexe originel) (d’ap. Electronics Learning Dictionary 1). Deux fréquences sont dites des aliases si les sinusoïdes de ces fréquences ne peuvent pas être distinguées l’une de l’autre par les valeurs obtenues par échantillonnage (Noise Measurement, p. 2562). 2. J.-B. Poquelin, alias Molière. Alias, du latin, une autrefois, dans un autre endroit, autrement. (Dict. Le Robert : autrement appelé. Harraps : alias, autrement dit, autrement nommé. Pluriel : aliases.) 3. Les fréquences des composantes fréquentielles « aliases » sont reliées entre elles par l’équation + f = f + k féchant 1

2

équation dans laquelle f et f sont les fréquences de repliement (aliases) et féchant 1 2 la fréquence d’échantillonnage. 4. Le phénomène de repliement est bien connu des électroniciens lorsqu’on procède à la numérisation imparfaite d’un signal. Pour éviter ce piège, on peut avoir recours : – soit à un échantillonnage de cadence plus élevée du signal de sortie du microphone (respect du théorème de Shannon), – soit au traitement du signal par un filtre passe-bas afin de réduire les amplitudes des composantes de fréquences élevées et de les rendre sans effet. Ces filtres, qui permettent d’échantillonner à une fréquence moins élevée, sont dits filtres anti-aliasing ou plus simplement filtres aliasing. C’est pourquoi ce mécanisme de repliement ne peut être retenu dans la survenue d’un gain prothétique paradoxal. 5. Le repliement ou aliasing, est la forme la plus courante de bruit, c’est-à-dire de signal parasite, produit lors de l’échantillonnage. Quand on échantillonne l’amplitude d’une onde, on perd une partie de l’information contenue dans la courbe. Pour reconstruire l’onde à partir de points d’échantillonnage, il faut interpoler les valeurs des points situés entre les points d’échantillonnage. Pour ce faire, on recherche les composantes sinusoïdales dont la superposition coïncide avec ces points. Si la fréquence d’échantillonnage de l’onde originale est inférieure au double de la fréquence composante la plus élevée, la fréquence la plus élevée de la reconstruction sera inférieure à celle de l’onde originale. C’est la fréquence de repliement (ou fréquence alias). En d’autres termes, de fausses composantes de basse fréquence remplacent les vraies fréquences élevées (Bigelow3). 6. L’analyse des déplacements vibratoires d’une membrane par des capteurs régulièrement espacés mais dont la densité est insuffisante aboutit au même 280

Notes et bibliographie

phénomène de repliement que s’il s’agissait de l’échantillonnage insuffisant d’un tracé graphique. En électronique, on peut éviter leur apparition en effectuant un échantillonnage à une cadence suffisamment élevée (ou par adjonction d’un filtre passe-bas). À l’inverse, en ce qui concerne l’échantillonnage cochléaire, on ne peut évidemment pas intervenir et augmenter la densité des capteurs de Corti, ni le nombre des fibres nerveuses auditives. On peut donc voir apparaître des fréquences « fantômes » qui n’existent pas en réalité dans le signal d’entrée acoustique. Ces fréquences constituent un élément de bruit qui peut provoquer des difficultés de reconnaissance des patterns membranaires. Elle rend compte de l’apparition rapide de phénomènes d’intolérance dès que le niveau sonore augmente chez les sujets presbyacousiques (« inutile de crier, je ne suis pas sourd »). Références bibliographiques 1. Graf R., Electronics Learning Dictionary. H. W. Sams & Co., Indianapolis, 1977. 2. Peterson A.P.G., Gross E.E., Handbook of Noise Measurement. Gen. Radio Company, Concord, Mass., 1972. 3. Bigelow Ch., Day D., La typographie numérique. Pour la Science, 1983, n° 72, p. 48-62. 4. Carrat R., Théorie de l’échantillonnage cochléaire. Arnette édit Paris, 1986. 5. Rosie A.M., Théorie de l’information et de la communication. Dunod, Paris, 1971. 6. Russel I.J., Sellick P.M., Tuning properties of cochlear hair cells. Nature, 1977, 1967, p. 858-860. 7. Shannon C.E., A mathematical theory of communication. Bell Syst. Tech. J., 1948, 27, p. 379-343, p. 623-656. 8. Weaver W., Shannon C.E., Théorie mathématique de la communication. Retz édit, C.E.P.L. Paris, 1975.

Échantillonnage et presbyacousie Notes 1. On a relevé des atteintes étagées des voies auditives (noyau cochléaire, noyau olivaire supérieur, lemniscus latéral, colliculus inférieur, corps géniculé médian, cortex auditif) (Kirikae et al., 1964 ; Corso, 1977). Elles sont caractérisées par une diminution du nombre et de la taille des cellules ganglionnaires, une diminution du nombre des axones myélinisés, une irrégularité dans la forme des cellules nerveuses (Jerger S., et Jerger J.). 2. Le cerveau est un comparateur de formes entre le message en mémoire ancien et le message altéré récent : – la reconnaissance est d’autant plus longue que le message est plus altéré ; 281

L’ OREILLE

NUMÉRIQUE

– le temps de réaction auditive augmente (dT) alors que les temps de latence de la fibre nerveuse ne paraissent pas se modifier avec l’âge (intérêt de recueillir les BERA du sujet âgé) ; – le sujet âgé n’est pas trop gêné par le bruit en tant que masque mais par la surcharge d’information (dans les conversations de groupe) et de l’impossibilité de discrimination des transitoires trop rapprochées d’où intérêt des tests audioprothétiques en présence de locuteurs de nombre croissant et de localisations diverses, au moyen par exemple des tests de Lafon qui permettent d’obtenir d’emblée le taux d’intelligibilité (quantification) et de déterminer ainsi le plus petit pouvoir séparateur vocal.

Surdités, formes cochléaires pathologiques Références bibliographiques 1. Carrat R., Carrat X., Enard A., Durivault J., La correction prothétique des surdités et la reconnaissance des formes sonores. Comm. LXXXVIII Congr. Fr. d’Oto-Rhino-Laryngol., Paris, 1991.

Codage de la parole et implants cochléaires Notes 1. Il n’est pas possible de citer le nom des pionniers de cette technique sans prendre le risque d’en oublier beaucoup. Retenons les noms de Doyle (1964), Simmons (1964 et 1985), Michelson (1971), House (1972) aux États-Unis, Ried (1974) à Santiago du Chili, Banfai à Cologne, Burian à Vienne, Clark à Melbourne, Bosch J. à Barcelone, et dès le début en France Chouard Cl.-H. (1974), Charachon (1977), Morgon (1983), Freysse à Toulouse. 2. La prise en compte des données de l’électrophysiologie. Elles sont multiples : – la réponse de la fibre nerveuse obéit à la loi du tout ou rien (le stimulus électrique doit avoir une intensité suffisante) ; – la réponse de la fibre est univoque : c’est une dépolarisation membranaire se traduisant par un spike sur l’écran du moniteur ou sur les tracés d’enregistrement ; – la cadence des spikes ne peut dépasser théoriquement 1 000 c/s, en raison de la période réfractaire de la fibre nerveuse ; – le stimulus électrique ne doit pas détériorer les tissus par électrolyse : il faut donc prévoir une phase électrique positive après chaque phase de dépolarisation ; malheureusement cette phase positive augmente la durée de la période réfractaire ; – chaque électrode est à l’origine d’un champ électrique relativement large. En conséquence, ce champ n’entraîne pas la stimulation d’une seule fibre, mais d’un groupe de fibres ; – il n’est pas possible de cloisonner électriquement le canal cochléaire en regard de chaque électrode, les tissus et les liquides se comportant comme des conducteurs ; 282

Notes et bibliographie

– la jonction électrode-fibre nerveuse n’est pas aussi fine que la synapse neurosensorielle ; – le nombre limité d’électrodes (10 à 20 au maximum) ; au-dessus, l’augmentation de leur nombre entraîne un chevauchement des champs électriques. 3. L’analyse de la parole : – du point de vue acoustique, la parole est un continuum sonore. Sur le plan informatif, c’est un signal acoustique redondant ; – elle transporte simultanément deux types d’information : une information esthétique et une information sémantique, la plus importante ; – le débit moyen d’information est d’environ 100 bits/s (Pimonow L. Vibrations en régime transitoire. Dunod édit., Paris, 1962). Il peut être réduit cependant à 50 bits/s sans entraîner de perte d’intelligibilité du message (Guibert J., La parole. Compréhension et synthèse par les ordinateurs. PUF, Paris,1979). Mais ce débit est encore trop élevé par rapport aux possibilités de transport de l’information par les fibres restantes (environ 5 à 50 bits/s) ; – l’analyse de la parole doit extraire les éléments les plus signifiants et rejeter les autres. Il serait illogique de vouloir faire passer toute l’information de la parole dans un canal de communication rétréci ; – les procédés d’analyse-synthèse de la parole ont montré que la plus grande partie de l’information sémantique est supportée par les formants F1, F2, F3, par leur variation fréquentielle et par les rapports fréquentiel qui les unissent entre eux (Leipp E., Lienard S.) ; – actuellement, les techniques d’analyse de la parole reposent sur le principe d’une décomposition fréquentielle du signal par une série de bancs de filtres selon le principe du VOCODER ; dans d’autres techniques, on ne retient que F2 ou F0 ; – mais dans tous les cas, on privilégie l’information esthétique (les fréquences), ces choix étant guidés par le concept békésien du fonctionnement de l’oreille, concept basé sur l’existence d’une tonotopie cochléaire à la fois acoustique et électrique. 4. Le codage électrique de la parole : – le signal acoustique de la parole n’étant plus capté par l’oreille interne mais délivré directement sous forme d’impulsions électriques aux reliquats neurosensoriels, il est nécessaire d’effectuer une conversion de l’information acoustique en information électrique ; – le codage électrique doit se rapprocher au mieux de la transduction acoustique physiologique : conversion du signal mécanique membranaire en signal électrique neurosensoriel ; – deux paramètres physiques peuvent être conjointement retenus en vue de ce codage : - la cadence des stimuli électriques, dont on sait que le maximum ne peut dépasser 600 à 700 coups par seconde, - le siège de la stimulation électrique, qui dépend du nombre d’électrodes implantées. 283

L’ OREILLE

NUMÉRIQUE

– Si on retient le rythme de décharges sur les fibres pour coder l’intensité, il suffit de concevoir un codage spatial sur la MB. – pour effectuer ce codage spatial, suivant la conception classique de la localisation fréquentielle cochléaire sur la MB (théorie de la tonotopie), on attribue une électrode de stimulation à chaque bande de fréquence du champ auditif. Dans ce type de codage, on admet que le support majeur de l’information de la parole est d’ordre fréquentiel, et qu’il existe également une tonotopie cochléaire électrique (chaque localisation membranaire est supposée réagir électriquement par une sensation de hauteur différente). Enfin, on en déduit qu’en augmentant le nombre d’électrodes implantées on augmente corrélativement le débit d’information. 5. House et Urban, Michelson et Merzenich aux Etats-Unis, Chouard et Mac Leod, Charachon et Acoyer en France, Boch en Espagne, Burian en Autriche, etc. Seul le groupe de travail de Clark effectue une analyse formantique en extrayant F2. 6. le bénéfice a pu quelque temps être mis en doute en comparaison avec la prothèse monocanal (pas plus de 20 % de reconnaissance des phrases en listes ouvertes et sans lecture labiale pour Dowell et coll., 1985). 7. Ainsi dans un système à 12 canaux, un même phonatome pourra être représenté par l’excitation électrique au travers de 1, 2, 3, 4, … , 8 et plus électrodes au niveau cochléaire. L’analyse combinatoire montre qu’on peut obtenir de 1 à 924 combinaisons ou formes électriques pour une même image acoustique selon son niveau ! Si on tient compte en outre du fait que les pics d’un même phonatome se déplacent dans le champ fréquentiel selon le registre vocal du locuteur, le nombre de représentations électriques devient considérable.

Nombre de combinaisons ou formes électriques obtenues à partir de l’analyse fréquentielle à 12 canaux selon le niveau d’un phonatome (nombre de pics retenus). 284

Notes et bibliographie

1) À la limite, lorsque tous les canaux fonctionnent simultanément, il n’existe plus qu’une seule forme électrique possible d’un phonatome. 2) Il ne suffit pas de coder la variation du niveau de chaque bande par une variation de la densité d’impulsions au niveau de l’électrode correspondante. Il persistera en effet une multitude de représentations électriques d’un même phonatome selon le registre du locuteur et d’importantes difficultés d’apprentissage. 3) Même si l’apprentissage d’un phonatome ne nécessite pas la reconnaissance de la totalité des formes possibles (4095), du fait par exemple de l’utilisation d’un niveau sonore moyen, la mémorisation des principaux diphonèmes de la langue française (environ 500 sur 900), reste pratiquement impossible. Et cela pour un même locuteur.

Acouphènes Notes 1. Le modèle de Jastreboff 3 intègre un certain nombre de concepts nés avec le développement des neurosciences : – la circulation de l’information sous forme de patterns de décharges, – la comparaison des patterns de décharges avec des patterns préalablement stockés dans la mémoire auditive, – l’intervention des conditionnements réflexes de type pavlovien, – la mise en place de mécanismes d’habituation aboutissant à une abstraction des stimuli non pertinents, à l’inverse d’un stimulus jugé important par comparaison avec les patterns mémorisés qui sera perçu et focalisera l’attention, – enfin des données récentes de neurophysiologie, à savoir la participation possible de n’importe quelle voie auditive centrale2, (par hyperactivité du noyau cochléaire dorsal4, ou par activation du cortex auditif associatif temporopariétal)1, 14, mais aussi du rôle possible des cellules gliales (astrocytes, oligodendrocytes, cellules microgliales, cellules épendymaires). Le modèle de Jastreboff permet de comprendre pourquoi, en l’absence d’action directe et ciblée sur les neuromédiateurs, les tentatives thérapeutiques médicamenteuses restent inefficaces et pourquoi, en raison le plus souvent de leur effet inhibiteur sur les voies associatives, l’administration de sédatifs ne se justifie pas. Il rend compte en outre de l’action bénéfique transitoire des incitations sensorielles par délivrance d’un bruit blanc ou par neurostimulation électrique en introduisant dans le pattern des décharges des dépolarisations neuronales transitoires. De même, se justifient la rééducation par musicothérapie (sons complexes qui vont faciliter la création de nouveaux circuits neuronaux : réafférentation), la Tinitus Retraining Therapy, (TRT) pour faciliter une habituation5, enfin l’adaptation prothétique par son effet de masquage6. 2. Un nouveau concept : les acouphènes sont l’expression d’un chaos neuronal auditif à la fois stochastique et déterministe En quoi la science du chaos et du désordre peut-elle aider à la compréhension des acouphènes ? À l’évidence, parce qu’elle s’intéresse à la nature des phénomènes 285

L’ OREILLE

NUMÉRIQUE

instables, désordonnés ou turbulents, irréguliers7, 8, 9. Sous le terme de chaos, on entend qu’un état d’ordre est gravement perturbé : les signaux d’apparence chaotique sont l’empreinte du désordre. C’est bien le cas des patterns neuronaux auditifs des acouphéniques. En s’appuyant sur la théorie du chaos élaborée essentiellement à la suite des travaux de Edward Lorentz en 19639, 10 ,11 ,12 ,13 ,16, et sur le modèle de l’échantillonnage cochléaire (Carrat, 1986), il est par contre possible de proposer un modèle pathogénique capable d’intégrer les trois groupes de données précédentes et de répondre aux problèmes posés par le timbre et l’intensité des acouphènes. 1) Le pattern des influx spontanés est de nature chaotique stochastique L’activité métabolique de toute cellule est un phénomène fluctuant, responsable au niveau de la membrane cellulaire de modifications locales de polarité, avec une alternance de phases de dépolarisation et de repolarisation. Ces variations du potentiel de surface sont objectivés sur les tracés obtenus lors du recueil électrophysiologique par des pics (de dépolarisation). À l’état normal, et en l’absence de stimulation extérieure, on note sur la fibre nerveuse auditive la survenue de salves de décharges reflétant l’existence d’une activité spontanée15 (un bruit endogène). On a pensé que l’expérimentation sur l’animal d’un modèle acouphénique induit par l’administration de salicylates pourrait apporter, à partir des enregistrements électrophysiologiques de fibres unitaires du nerf, de précieux renseignements sur la nature des acouphènes. Il n’en a rien été, car l’anesthésie affecte l’activité spontanée de ces fibres et on ne peut étudier à la fois qu’un petit nombre de fibres. On doit donc s’orienter vers d’autres techniques, en particulier à un enregistrement de l’activité spontanée globale du nerf, mais on n’obtient alors qu’un spectre moyen de cette activité, et là encore, l’activité unitaire reste inconnue. Par contre, les données électrophysiologiques obtenues chez l’homme devenu acouphénique par administration de salicylés sont beaucoup plus probantes car elles sont comparables à celles obtenues après stimulation sonore par un bruit haute fréquence de large bande. De même que ce type de bruit stimule de façon aléatoire l’ensemble des capteurs sensoriels, de même l’action toxique diffuse du salicylate ne peut s’exercer que de façon aléatoire sur l’ensemble du système neurosensoriel, sans action spécifique sur telle ou telle fibre (s’il existait une atteinte localisée et une tonotopie, les acouphènes devraient présenter une infinité de tonalités). On est donc en droit d’avancer l’hypothèse que l’activité spontanée des fibres relevée sur ces modèles acouphéniques traduit une dépolarisation spontanée aléatoire du système neurosensoriel, chaotique, désordonnée, et qu’elle est à la fois temporelle et spatiale : – temporelle, car l’activité spontanée de chaque fibre est déjà aléatoire, sans préjuger d’une augmentation probable du taux des décharges spontanées, – spatiale, par atteinte toxique aléatoire des éléments de l’éventail neural (fibres ou jonctions synaptiques), dont les fibres efférentes du système feed-back. Le taux global des influx est une valeur moyenne qui détermine le niveau sonore de l’acouphène : il s’agit donc d’un chaos de nature stochastique. 286

Notes et bibliographie

Un acouphène est la traduction d’une émergence d’ordre au niveau collectif à partir du désordre neuronal (un son à partir du désordre de l’activation des fibres), d’une information née d’un signal dépourvu a priori de toute structure cohérente. Du désordre des influx neuronaux naît un ordre macroscopique. Ce phénomène s’observe dans d’autres domaines. Par exemple, celui de l’agitation thermique de molécules : d’un désordre microscopique naît un ordre macroscopique, la température d’un corps) ; ou encore celui de l’écoulement turbulent d’un fluide. On rapprochera évidemment les déplacements chaotiques de la membrane basilaire sous l’effet d’un bruit blanc, avec en chaque point statistiquement une amplitude « moyenne ». 2) Mais ce chaos neuronal est aussi déterministe L’activation spontanée des fibres du nerf auditif n’est pas seulement temporelle, mais aussi spatiale : elle est désordonnée, en ce sens qu’elle se produit sur toutes les fibres de manière aléatoire, et cela en n’importe quel étage des voies auditives. L’émergence d’une sensation sonore continue, uniforme, d’une régularité à partir de ce désordre neuronal auditif correspond au total à un chaos à la fois dynamique et déterministe : – dynamique parce que le processus fait émerger du désordre neural auditif une structure globalement stable et ordonnée, un son, l’acouphène, ou un bruit continu ; – déterministe, parce que le dysfonctionnement neural n’est pas localisé à un seul et unique relais des voies auditives, mais est un phénomène plus diffus, une anomalie de la transmission pouvant intéresser plusieurs maillons de la chaîne auditive. Le dysfonctionnement de l’un quelconque des maillons suffit à déterminer l’acouphène. Le résultat final dépend de l’information apportée par le noyau-relais qui précède (de même qu’à partir de pendules montés en série on n’observe pas des oscillations régulières mais des mouvements chaotiques). Références bibliographiques sur les acouphènes 1. Collet L., Chéry-Croze S., Les acouphènes, une perception fantôme. Pour la Science, 2003 ; n° HS : 74-76. 3. 2. Ohresser M., L’acouphène chronique, www.otoneuro.com/documents. 2004. 3. Meyer B. et al., Acouphènes et hyperacousie. Rapport Soc. Fr. d’ORL, 2001. Bibliographie exhaustive. 4. Romand R, Burette A., Le rôle du noyau cochléaire dans le codage de l’information auditive. Rencontres IPSEN en ORL, T 3, IRVINN Neuilly S/S, 1999, p. 57-74. 5. Englebert A., La tinnitus retraining therapy (TRT). Otoneuro. com/documents, 2004. 6. Bizaguet E, Ohresser M., La prise en charge prothétique du patient acouphénique. Otoneuro. com/documents, 2004. 7. Ruelle D., Hasard et chaos. Odile Jacob. 1991. 287

L’ OREILLE

NUMÉRIQUE

8. Bernot M.-Th., L’homme par qui le chaos arriva. La Recherche, 365, p. 56-57, 2003. 9. Gleick J., La théorie du chaos. Albin Michel, 1989. 10. Ouayoun M, Chouard C.H., Meyer B., ORL, fractale et chaos. Comm. Soc. Fr. de Laryngol., Paris, 21/03/1998. 11. Crutchfield J., Farmer D., Packard N., Shaw R., Le chaos. In L’ordre du chaos, Belin, 1997, p. 34-51. 12. May M., Le chaos en biologie. La Recherche, 232, p. 588-598, 1991. 13. Croquette V., Déterminisme et chaos. In L’ordre du chaos, Belin, Paris, 1997, p. 64-87. 14. Chéry-Croze S., Norena A., Imagerie et acouphènes. Rencontres IPSEN en ORL, T 4, Irvinn Neuilly S/S, 2000, p. 47-59. 15. Cazals Y., Luciano M., Horner K., Spectre moyen d’activité spontanée du nerf auditif et modèles de pathologies auditives avec acouphènes. Rencontres IPSEN en ORL, T 5, Irvinn, Neuilly S/S, 2001, p. 83-87. 16. Ekeland Ivar. Le chaos. Flammarion, 1995.

Chapitre 13 Le numérique et les organes des sens 1. Charpak G et Omnes R., Soyez savants, devenez prophètes Odile Jacob, 2005. 2. Wallstein R., Cotarmanac’h Echevarria A., La nouvelle télévision. Encyclopedia Universalis, 2006. 3. Negroponte Nicholas, L’homme numérique, Robert Laffont, 1995, p. 281. On est en droit de se demander si l’existence d’une période réfractaire sur le plan de l’excitabilité de la fibre nerveuse ne réalise pas une compression naturelle du rythme des influx. 4. id, p. 284. 5. id, p.180. 6. de Rosnay J., « L’homme symbiotique » Seuil, Paris, 2000, p. 88. 7. Weaver, W., Shannon C.E., Théorie mathématique de la communication. Retz édit., Paris, 1975. 8. On me reprochera certainement le caractère simpliste et vulgarisateur de cette approche, mais tous les lecteurs n’ont pas nécessairement la culture scientifique des spécialistes… 9. L’échantillonnage consiste à prélever périodiquement des échantillons d’un signal analogique. La quantification consiste à affecter une valeur numérique à chaque échantillon prélevé. 288

Notes et bibliographie

La qualité du signal numérique va dépendre de deux facteurs : – la fréquence d’échantillonnage ou taux d’échantillonnage) : plus la fréquence est grande (les échantillons sont prélevés à de petits intervalles de temps), plus le signal numérique est fidèle à l’original ; – le nombre d’échelons (de bits) sur lequel on code les valeurs (appelé résolution) : il s’agit en fait du nombre de valeurs différentes qu’un échantillon peut prendre. Plus ce nombre est élevé, meilleure est la qualité. La numérisation permet de garantir la qualité d’un signal. On peut cependant la réduire volontairement afin de diminuer le coût de stockage, le coût de la numérisation, et le temps de traitement, selon l’application et les limitations matérielles. 10. de Rosnay J., « L’homme symbiotique » Seuil, Paris, 2000, p. 88. 11. Shannon C.E., A mathematical theory of communication. Bell Syst. Tech. J., 1948. 12. de Rosnay Joël. www.ledevoir.com/2002/ 13. Rosie A.M., Théorie de l’information et de la communication. Dunod édit. Paris, 1971. 14. « Il est maintenant communément admis que l’information génétique est liée à la structure de l’ADN (acide désoxyribonucléique, ou DNA). La molécule d’ADN présente une forme en double hélice et chaque hélice est composée d’une suite de blocs dont chacun contient : une molécule d’acide phosphorique, une molécule de dioxyribose et une molécule de l’une des 4 bases : adénine, guanine, thymine ou cytosine. La fonction de la double hélice est de faciliter la reproduction de la molécule durant la division cellulaire – les deux hélices se séparent et chacune sert de modèle pour reconstruire une double hélice – et comme chacune contient la même information génétique, on n’en considère habituellement qu’une. L’information dans les molécules d’ADN est portée par le schéma de distribution des 4 bases A, C, G, T, comme par exemple par la séquence TGTAACTGGAGT… Le problème qui se posa aux chercheurs était de trouver la manière dont cette information était utilisée pour guider la croissance des molécules de protéines géantes qui forment les cellules, les membranes… car elles ont aussi une forme hélicoïdale et comportent des suites de 20 acides aminés. La synthèse des protéines à partir de l’information de l’ADN se ramenait à un problème de codage, impliquant le passage d’un code à 4 niveaux à un code de 20 niveaux. Comme les trois chiffres du premier code permettent de décrire 64 objets (ou messages) différents (64 = 43), une suite de 3 bases d’ADN est apparue suffisante pour décrire chaque acide aminé d’une protéine. Selon ce modèle, une suite de bases dans la molécule d’ADN correspond à l’analogue d’une suite de chiffres binaires. Pour indiquer où finit et où commence un mot, on a considéré que la suite des bases se lisait d’un point de départ fixe par groupes de trois (cela signifie que si le point de départ est faux, tout le décodage suivant l’est également). Enfin, on a déterminé la correspondance réelle existant entre les acides et les triplets de bases (rosie). 289

L’ OREILLE

NUMÉRIQUE

La théorie de l’information a permis une autre avancée dans le domaine de la biologie : il existe une analogie entre l’effet du bruit sur les systèmes de transmission et l’effet des mutations sur la reproduction des cellules (par exemple sous l’effet des rayons X qui réalisent une substitution de certaines bases à d’autres dans la molécule d’ADN), donc perturbe le signal (rosie). 15. Risset J.-Cl., Illusions musicales, Pour la Science n° HS, p. 66-73, avriljuin 2003. 16. Changeux J-P. et Connes A., Matière à pensée. Odile Jacob, Paris, 2000, p. 127. 17. Mac Leod. Vin et sensorialité. Communication. Groupe Entendre. 9 /4/2005. 18. Delahaye Jean-Paul. Concevoir l’univers comme un ordinateur ? Pour la Science, 2006, 349, p. 90-95. 19. Il en est de même des processus d’adaptation : l’exposition continue à une odeur ou à un goût provoque la diminution de la sensitivité à cette odeur ou à ce goût. Un exemple d’adaptation olfactive est celle de la perception d’odeurs de cuisine en entrant dans une pièce, odeurs disparaissant rapidement. De même pour un parfum, on n’en perçoit plus l’odeur après quelques minutes. Les molécules odorantes sont pourtant bien présentes mais le cerveau se protège d’une information redondante, ne traite plus ces afférences. Ce phénomène d’adaptation se retrouve évidemment dans le monde sonore : les musiciens connaissent toute l’importance de l’attaque et de la disparition des sons, les électrophysiologistes l’afflux des spikes sur la fibre nerveuse lors de l’installation et de l’extinction d’un tone-burst, etc. 20. Auvray M. et O’Regan K., Voir avec les oreilles, Pour la Science n°Hors Série, avril-juin 2003, p. 30-35). 21. Même avec la théorie de la tonotopie, la localisation fréquentielle très sélective d’une fréquence devient une bande de fréquence. 22. Bartoshuk L.M. Comparing sensory experiences across individuals : recent psychophysical advances illuminate genetic variation in taste perception. Chem Senses, 25 (4), p. 447-60, 2000). 23. Ballester M., (Dijon) La psychologie de la qualité d’un vin : le rôle des organes des sens. In Vin et Audio, suppl. QM 3/10/2005, p. 14-15). 24. Les expériences de substitution visuo-tactile sont particulièrement démonstratives. En 1963, Paul Bach-y-Rita de l’Université du Wisconsin, a mis au point une prothèse de substitution transformant une image visuelle en une image tactile. Dans sa version moderne, ce dispositif comporte une caméra vidéo reliée à une plaque de stimulation tactile hérissée de picots mobiles ou portant des électrodes qui envoient des impulsions électriques. Ce stimulateur, en contact avec une partie du corps (bas du dos, index ou abdomen), reçoit et convertit les images enregistrées par la caméra en stimulations tactiles. Cette expérience a d’abord échoué, jusqu’à ce que le sujet s’aperçoive qu’en bougeant la caméra il perçoive des informations. En déplaçant lui-même la caméra le sujet établit des 290

Notes et bibliographie

liens indispensables entre ses actions et les sensations qui en résultent. Après fixation à des lunettes, le sujet après une phase d’apprentissage relativement courte de 5 à 15 heures en moyenne oublie les stimulations sur la peau et perçoit les objets comme étant à l’extérieur, distingue des formes tridimensionnelles, statiques ou en mouvement. De nombreux systèmes ont par la suite été commercialisés avec d’autres localisations du codage (langue). 25. Il existe d’autres dispositifs de substitution sensorielle, visuo-auditifs par exemple, qui donnent une idée de la direction, de la hauteur, de la taille, de la distance et de la texture des objets : là encore, l’apprentissage s’effectue en quelques heures. Les sujets n’ont plus besoin d’interpréter l’information fournie par le son (plus ou moins grave, plus ou moins fort, etc.), ils perçoivent directement et automatiquement les éléments constitutifs de l’environnement. Il y a accès direct à l’information. 26. Le mariage, la coévolution en cours : l’information (la communication) et l’informatique souvent appelée révolution du numérique systémique. Elle se différencie de la biotique (terme créé en 1981 par Joël de Rosnay), pour identifier une nouvelle discipline née du mariage de la biologie et de l’informatique, et qui concerne les systèmes associant circuits et mémoires provenant de l’électronique moléculaire, avec des matériaux compatibles avec les systèmes vivants (Joël de Rosnay, L’homme symbiotique. Seuil, Paris, 2000, p. 143). 27. Un implant cochléaire comporte une partie externe (microphone et microprocesseur) qui transmet le signal au travers des tissus cutanés par radiofréquence à la partie implantée (récepteur, stimulateur et porte-électrodes inséré par la fenêtre ronde dans la rampe tympanique). Le processeur vocal extrait, après compression, par numérisation et filtrage les composantes spectrales des sons, et par des circuits électroniques additionnels utilise les informations obtenues pour délivrer une stimulation électrique sur le faisceau d’électrodes selon un codage de stimulation préalablement choisi (mode et cadence). Au départ, le traitement du signal retenu est identique pour tous les procédés : celui d’une analyse en fréquence par bancs de filtres. La stratégie du codage électrique diffère ensuite : soit extraction des 6 fréquences de plus grande énergie et codage par séquences d’ondes carrées, soit extraction du signal par 8 filtres et impulsions aux différentes électrodes, soit enfin stimulation par ondes sinusoïdales distribuée de façon simultanée aux différentes électrodes. Dans tous les cas, les fréquences sonores sont représentées de façon tonotopique, étant postulé que le positionnement des électrodes permet de stimuler électriquement le nerf d’une manière qui mime partiellement la décomposition spectrale naturelle effectuée par la cochlée. Si les résultats obtenus chez individus devenus sourds (post-linguaux) sont la plupart du temps remarquables, ils sont moins spectaculaires dans les surdités prélinguales. La méthodologie a été étendue par implantation d’électrodes au niveau du tronc cérébral avec stimulation des noyaux cochléaires lorsque les deux nerfs auditifs sont totalement endommagés. (Purves et al., Neurosciences, de Boeck, 2005, 290 ; Mondain et al., Les implants cochléaires chez l’enfant et l’adulte sourd profond ou sévère. Monographies du CCA Groupe, 2002, p. 75-86.) 28. Moles A., La communication. Retz édit., Paris, 1971, p. 414. 291

L’ OREILLE

NUMÉRIQUE

29. On cite en exemple l’invention du sonar, inspiré du système de navigation de la chauve-souris, ou encore celle du Velcro® inventé par Georges de Mestral et imité des fruits de la bardanne. 30. Delorme M., Mazoyer J., La riche zoologie des automates cellulaires. Pour la Science, 2003, 314, p. 40-45. 31. Les automates cellulaires. Inventés dans les années 1940 par Stanislas Ulam et John von Neumann, ces réseaux sont basés sur l’idée, reprise et développée par Konrad Zuse et par Edward Fredkin, que la physique ultime du monde se ramène à un calcul discret et local. Ces réseaux d’automates cellulaires sont le modèle de calcul discret le plus simple qu’on puisse imaginer. En quoi consistent-ils ? « Dans ce modèle des automates cellulaires, l’espace (de dimension 1, 2, 3 ou même plus) est divisé en cases dénommées cellules, par exemple un pavage par des carrés ou des cubes. Chaque case ou cellule est occupée par un automate qui peut prendre deux états différents (disons 0 pour vide et 1 pour occupé) ou plus, et qui, d’une étape à l’autre – d’un instant au suivant – change d’état en tenant compte de ses voisins – par exemple ses 8 voisins si nous sommes dans un plan divisé en cellules carrées. À chaque pas de l’évolution du réseau, chaque automate, partant de son état présent et de son environnement proche, détermine son nouvel état en appliquant des règles fixées une fois pour toutes, règles qui sont les mêmes pour toutes les cellules du réseau… Dans un tel monde, le temps est discret, l’espace est discret et l’évolution se fait localement en opérant un calcul élémentaire décrit par un calcul fini identique pour toutes les cases… Tout y est granulaire et borné » (Jean-Paul Delahaye)18. Les automates cellulaires « sont des sociétés de cellules élémentaires dont chacune se transforme, étape après étape, en l’un des quelques états possibles déterminé en fonction des états d’un nombre réduit de cellules voisines. Pour définir un automate cellulaire, on donne la disposition de ses cellules (son espace), quelles cellules voisines ont un effet sur une cellule (son voisinage), et les règles qui définissent son évolution. Ces règles locales, qui ne mettent en jeu qu’un nombre fini de voisines d’une cellule, ont un effet global : elles déterminent la dynamique de la société de cellules toute entière ». Les automates cellulaires modélisent des phénomènes variés. « Ils permettent de simuler les effets des nombreux phénomènes qui s’auto-organisent » : comportement des gaz, cristallisation des liquides, écoulement du sable, turbulence au sein d’un liquide, etc. Leur usage réduit la complexité de la situation à ce qui est nécessaire pour engendrer la dynamique du phénomène » (Delorme M., Mazoyer J., La riche zoologie des automates cellulaires. Pour la Science, 2003, 314, p. 40-45).

Conclusion Références bibliographiques 1. De Rosnay J., L’homme symbiotique, Seuil, Paris, 2000. 2. René Descartes. Discours de la méthode. 1637. Edit. Gallimard, 1932, p. 23. 292

Notes et bibliographie

3. J.P. Changeux. L’homme neuronal, Arthème Fayard, 1983, p. 49. 4. Les expériences de mécanique cochléaire nous ont montré à quelles discordances pouvait aboutir la moindre modification d’un paramètre physique, comme par exemple la viscosité des fluides du modèle. 5. D’une manière générale, les élites n’aiment pas ce qui dérange, mais les situations consolidées, les noyaux durs, les grands organismes, le modèle ancien sanctifié. 6. « La science, voie royale de la connaissance, est elle aussi soumise à des jeux de pouvoir qui jettent une ombre sur l’intégrité de sa démarche. Volonté de domination, foi dans la raison triomphante, attrait de la sphère marchande faussent parfois les résultats et conditionnent souvent les esprits » De Rosnay J., L’homme symbiotique, Seuil, Paris, 2000, p. 373. 7. Leipp E. La machine à écouter. Essai de psyschoacoustique. Masson, Paris, 1977. 8. Zwirn H. La complexité, science du p. 28-29.

XXIe

siècle. Pour la Science, 2003, 314,

9. Ricard J., La complexité biologique. Pour la Science. 2003, 314, p. 30-33. 10. Delahaye J-P., La complexité mesurée. Pour la Science, 2003, 314, p. 37 : « le travail scientifique/serait/une version algorithmique du principe du rasoir d’Occam. Celui-ci affirme qu’on doit toujours préférer les explications simples aux explications complexes… ». 11. Delorme M., Mazoyer J., La riche zoologie des automates cellulaires. Pour la Science, 2003, 314, p. 40-45. 12. Libchaber A., Information et complexité du vivant. Pour la Science, 2003, 314, p. 64-69. « Le monde vivant fait partie du monde physique : il est hors d’équilibre, traversé en permanence par des flux d’énergie et de matière, mais il est aussi traversé par des flux d’information, ce qui le distingue des systèmes physiques12. » 13. « Un système complexe peut se définir comme un ensemble de parties qui interagissent de façon non linéaire. Dans ce cas, le comportement du système est plus complexe que celui de la somme des parties et il n’est pas simple d’en déduire les propriétés12 ». Ensemble d’un grand nombre de constituants agissant entre eux. 14. Atlan H., L’organisation biologique et la théorie de l’information. Seuil, 2006. Notes 1. Les interactions des composants sont non linéaires et font souvent appel à des boucles de rétroaction. 2. Cependant, il est souvent difficile « de construire un bon modèle ou de savoir comment choisir les valeurs des paramètres pour que le programme se déroule correctement ». L’intuition, le bon sens, la perspicacité de l’observateur sont des facteurs de réussite. Lorsque les résultats du modèle sont satisfaisants et 293

L’ OREILLE

NUMÉRIQUE

suffisamment réalistes, on peut alors s’interroger « sur les conditions qui permettent au système de fonctionner le plus efficacement possible, ce qui ressort de l’optimisation ». 3. La complexité biologique. L’étude des systèmes dynamiques complexes a révélé de fréquentes oscillations périodiques. Il est probable que, dans certains cas, les oscillations sont produites par un phénomène d’organisation floue, impliquant l’interaction d’un processus métabolique et de son environnement. Si un cycle métabolique par exemple se déroule à l’interface d’un milieux aqueux et d’une membrane ou d’une paroi chargée, les phénomènes d’interaction électrique qui s’exercent entre les charges fixes de la membrane et les ions présents dans le milieu sont de nature non linéaire et peuvent créer des dynamiques périodiques. (9. Ricard J., La complexité biologique. Pour la Science. 2003, 314, p. 30-33). 4. Née dans les années 50, l’approche systémique est issue de la cybernétique, de la théorie de l’information et de la biologie. Elle se consacre à l’étude des systèmes, c’est-à-dire à des ensembles d’éléments interactifs et organisés en vue du maintien de leur structure. À l’inverse de la méthode analytique, elle procède à une recomposition d’un tout à partir de ses divers éléments en tenant compte de leurs interdépendances. Il s’agit d’une démarche de la pensée d’application très générale. La systémique s’attache par exemple à l’étude des réseaux de communication, comme les systèmes de transport, les réseaux de télécommunication, etc. Elle s’intéresse également aux réseaux de régulation au sein desquels des informations sont renvoyées à un système pour lui permettre de s’adapter aux contraintes extérieures (rétroaction positive ou négative). Elle agit sur lui en intervenant par un processus combinatoire sur ses différents éléments, tout en maintenant leur interdépendance. Mais la systémique ne s’adresse pas seulement à la matière inerte : elle concerne aussi la biologie, le système nerveux, le système immunitaire. Lorsqu’on a recours à la modélisation d’une fonction organique, on effectue une synthèse d’un ensemble d’éléments reliés de façon fonctionnelle sous la forme d’un système1. La systémique fait apparaître les propriétés bien spécifiques des systèmes complexes. En premier lieu, « un système complexe a un comportement holistique, c’està-dire global : il ne résulte pas de la combinaison des comportements des différents composants, mais possède un comportement global émergent qui lui est propre. Il a la propriété de s’auto-organiser, et de faire ressortir « des propriétés globales qu’il est difficile voire impossible d’anticiper à partir des interactions des composants. Le comportement global surpasse les capacités propres à chacun des constituants8. De nombreux philosophes et penseurs, depuis Aristote, ont maintes fois affirmé que « le tout est plus que la somme de ses parties 9 « et que des propriétés nouvelles peuvent émerger dans un système 1 ». En second lieu, ces systèmes sont adaptatifs, « c’est-à-dire qu’ils ne réagissent pas passivement aux évènements externes » mais se réorganisent en permanence. Cette faculté d’adaptation est une caractéristique essentielle. Il en est ainsi par exemple du cerveau dont les connexions neurales se recomposent en réaction aux modifications de l’environnement. 294

Notes et bibliographie

Il est évident que les méthodes analytiques classiques ne permettent pas de prévoir l’émergence du comportement d’un système. C’est pourquoi on doit le plus souvent user d’un stratagème, en ayant recours à la simulation au moyen d’un modèle composé des différents éléments, soit par construction d’un modèle expérimental, soit à partir d’un programme sur ordinateur. La modélisation aide à réduire la complexité des systèmes, car si le modèle ou le programme sont corrects, le déroulement de la manipulation reproduit fidèlement le comportement du système réel. La modélisation paraît être la méthode la plus appropriée à la description du comportement dynamique des systèmes biologiques9,12, 2. Troisième caractéristique : un système complexe ne possède pas nécessairement un nombre élevé de composants interactifs : « des systèmes apparemment très simples peuvent être le siège de phénomènes d’émergence, et l’on ne doit pas assimiler complexité et complication9 » Il suffit qu’un paramètre change pour que la dynamique du système change radicalement, passant d’un régime stable à un régime chaotique. La complexité dépend seulement de changements minimes de la valeur d’un paramètre3. Pendant longtemps, physiologistes et biologiques ont admis qu’il était possible, par la méthode analytique cartésienne, « de réduire la complexité apparente à des structures et à des processus plus simples9 ». Mais le biologique ne se plie pas aussi aisément à l’analyse qu’un système physique pur. Le complexe a sa réalité propre qu’il n’est pas possible de réduire à la simple addition des fonctions composantes. La complexité biologique est liée à la notion d’émergence et s’applique à tous les domaines de la vie3. Comment fonctionne le cerveau, ou le système immunitaire ?

295

This page intentionally left blank

Références bibliographiques générales

1. Békésy G. von. Zur Theorie des Hörens. Die Schwingungsform der Basilarmembran. Physic. Z., 1928 ; 29 : 793-810. 2. Békésy G. von. Experiments in Hearing. 1960 ; McGraw-Hill Book Company. New York. 3. Békésy G. von., Rosenblith, W.A. The Mechanical Properties of the Ear. Handbook of Experimental Psychology. John Wiley & Sons, New York. 1951 ; 1075-1115. 4. Bosquet J. Un modèle synthétique linéaire de la fonction auditive monaurale. Rev. Acoust., 1977 ; 42 : 209-225. 5. Brownell W.E. Microscopic observation of cochlear hair cell motility. Scann. Electron. Microscopy. 1984 ; III : 1401-1406. 6. Brownell W.E. Observations on a motile response in isolated outer hair cells. In : Webster W.R., Aitk L.M., Eds. Mechanisms of Hearing. Clayton, Australia : Monash University Press, 1983 : 5-10. 7. Carrat R. Réponse d’une membrane dans un modèle mécanique cochléaire à des sons purs, transitoires ou bruit blanc. C.R. LXXII Congr. Fr. Oto-rhinolaryng., Paris, 1975 ; Arnette édit., Paris, 1976, 189-197. 8. Carrat R. Influence des paramètes expérimentaux sur la réponse de modèles mécaniques cochléaires. Implications dans la physiologie de l’audition. Rev. Acoust. (Paris), 1979 ; 12 : 189-196. 9. Carrat R. Mécanique cochléaire : nouvelles données expérimentales. Ann. Oto-Laryngol., Paris, 1979 ; 96 : 23-48. 10. Carrat R. Traumatisme sonore et scotome auditif : proposition d’un modèle pathogénique. Rev. Acoust., Paris, 1981 ; 14 : 110-114. 297

L’ OREILLE

NUMÉRIQUE

11. Carrat R. Analysis and Synthesis of Speech Regarding Cochlear Implant. Acta Otolaryngol (Stockh) 1984 ; Suppl. 411 : 85-94. 12. Carrat R. Théorie de l’échantillonnage cochléaire. Arnette édit. Paris. 1986. 13. Carrat R, Carrat X., Enard A., Durivault J. La reconnaissance des formes sonores dans les surdités de perception. Comm. LXXXVIII Congr. Fr. d’OtoRhino-Laryngologie. Paris, 1991. 14. Carrat R., Carrat X., Enard A., Durivault J. La correction prothétique des surdités et la reconnaissance des formes sonores. Comm. LXXXVIII Congr. Fr. d’Oto-Rhino-Laryngol., Paris, 1991. 15. Carrat R., Durivault J. Cochlée et bruit blanc : approches expérimentales. Comm. 12° Ass. Nat. Proth. Audit., Tours, 1974. 16. Carrat R., Durivault J. Influence des conditions expérimentales sur le signal délivré par un diapason à un modèle mécanique cochléaire. Rev. Acoust., 1978 ; 11 : 22-24. 17. Carrat R., Thillier J.L. Réponse d’une membrane dans un modèle cochléaire à des sons entretenus et à des transitoires. C.R. Soc. Biol., 1976 ; 170 : 900-903. 18. Carrat R., Thillier J-L., Durivault J. Le seuil auditif au bruit blanc. Ann. Oto-Laryng., Paris, 1975 ; 92 : 585-600. 19. Carrat R., Thillier J-L. La mesure de l’acuité auditive par le bruit blanc. Ann. Oto-Laryng., Paris, 1976 ; 93 : 487-500. 20. Chocholle R., Botte M.C., Da Costa L. Largeurs de bande nécessaires pour une perception non déformée du caractère tonal d’un bruit blanc à divers niveaux de ce dernier. Audiology, 1974 ; 13 : 140-146. 21. Deol M. S., Gluecksohn-Waelsch S. The role of inner cells in hearing. Nature, 1979 ; 278 : 250-252. 22. Escarpit R. Théorie générale de l’information et de la communication. Hachette Université. Partis.1976. 23. Evans, E.F. Place and Time coding of frequency in the peripheral auditory system : some physiological pros and cons. Audiology, 1978 ; 17 : 369-420. 24. Evans, E.F., Wilson, J.-P. The frequency selectivity of the cochlea. Basics Mechanisms in Hearing. A.R. Moller. Academic Press, New York, 1973 ; 519-554. 25. Ferman L., Vershuure J., Van Zanten B. Impaired Speech Perception in Noisein Patients with a Normal Audiogram. Audiology, 1993 ; 32 : 49-54. 26. Flanagan J.L. Speech Analysis Synthesis and Perception. Springer-Verlag. New York. 1983. 27. Flock, A., Brestcher A., Weber, K. Immuno-histochemical localization of several cytoskeletal proteins in inner ear sensory and supporting cells. Hearing Res., 1982 ; 7 : 75-89. 298

Références bibliographiques générales

28. Gold, T. Hearing II. The physical basis of the action of the cochlea. Proc. Roy. Soc., 1948 ; B 135 : 492-498. 29. Goldstein, J.L. Mechanisms of signal analysis and pattern perception in periodicity pitch. Audiology, 1978 ; 17 : 421-445. 30. Guibert J. La parole. Compréhension et synthèse par les ordinateurs. P.U.F. Paris.1979. 31. Hawkins J. E, Johnsson L-G. Patterns of Sensorineural Degeneration in Human Ears Exposed to Noise. in Effects of Noise on Hearing. Edit. by Henderson D., Raven Press, New York, 1976 ; 91-110. 32. Huggins, W.H. Phase principle for complex-frequency analysis and its implications in auditory theory. J. A. S. A., 1952 ; 24 : 582-589. 33. Husson R. La physiologie de la phonation, du langage oral et de l’audition, de Helmholtz à nos jours. Rev. Soc. Fr. Etudes correction audit., 1970 ; 14:19-32. 34. Iurato S. Efferent fibers to the sensory cells of Corti’s organ. Exp. Cell. Res., 1962 ; 27 : 162. 35. Kemp D.T. Stimulated acoustic emissions from the human auditory system. J. Acoust. Soc. Am., 1978 ; 64 : 1386-1391. 36. Kemp, D.T. Otoacoustic emissions, travelling waves and cochlear mechanisms. Hearing Res., 1986 ; 22 : 95-104. 37. Kimura R.S., Wersall J. Termination of the olivocochlear bundle in relation to the outer hair cells of the organ of Corti in guinea pig. Acta Otolaryngol., (Stockh.), 1962 ; 55 : 11-32. 38. Korn T.S. La notion de la fréquence du son. Acoustica, 1968 ; 20: 55-61. 39. Korn T.S. Theory of audioinformation. Acoustica, 1969-1970 ; 22 : 336-344. 40. Lafon, J. Cl. Sur la théorie impulsionnelle de la phonation et de l’audition. Bull. Audioph., 1962 ; 6: 3-16. 41. Lafon J-Cl. Etude microtemporelle de l’audition. Bull. Audiophonol., 1976 ; 6 : 75-78. 42. Leipp E. La machine à écouter. Essai de psyschoacoustique. Masson Edit., Paris, 1977. 43. Loeb G. Le remplacement des organes fonctionnels de l’oreille. Pour la Science, 1985 ; 90 : 32-39. 44. Mercier J. Traité d’acoustique. PUF Paris, 1962. 45. Moles A. La communication. Retz édit., Paris, 1971. 46. Morrison D., Schindler R.A., Wersall J. A quantitative analysis of the afferent innervation of the organ of Corti in guinea pig. Acta Otolaryngol., (Stockh.), 1975 ; 79 : 11-23. 299

L’ OREILLE

NUMÉRIQUE

47. Nomura Y. Nerve fibers in the human organ of Corti. Acta Oto Laryngol. (Stockh.), 1976 ; 82 : 317-324. 48. Osborne, N.P., Comis, S.D., Pickles, J.O. Morphology and cross-linkage of stereocilia in the guinea pig labyrinth examined without the use of osmium as a fixative. Cell tissue res., 1984 ; 237 : 43-48. 49. Pierson A. Déficits auditifs produits par certaines stimulations sonores. Rev. Acoust., Paris, 1977 ; 9 : 301-318 ; 10 : 147-158. 50. Pimonow L. Vibrations en régime transitoire. Dunod édit., Paris, 1962. 51. Pujol, R. Neuropharmacology of the cochlea and tinnitus. Tinnitus 91, Proc. of the Fourth Intern. Tin. Sem., Kugler Pub. Amsterdam/New York., 1992 ; 103-107. 52. Russel, I.J., Sellick, P.M. Intracellular studies of hair cells in the mammalian cochlea. J. Physiol., 1971 ; 284 : 261-290. 53. Schouten, J.F. The perception of pitch. Philips Tech. Rev., 1940 ; 5: 286-294. 54. Schuknecht H.F., Gacek M.R. Cochlear pathology in presbycusis. Ann. Otol. Rhinol. Laryngol., 1993 ; 102 : supp 158. 55. Shannon C.E. A mathematical theory of communication. Bell Syst. Tech. J., 1948 ; 27 : 379-343, 623-656. 56. Shannon C.E., Wever W. The Mathematical Theory of Communication. Urbana, University of Illinois Press, 1949. 57. Smith C.A., Rasmussen G.L. Recent observation on the olivocochlear bundle. Ann. Otol. Rhinol. Laryngol., 1963 ; 72 : 489-505. 58. Spoendlin H. The Organization of the Cochlear Receptor. Karger S., Basel, 1966. 59. Spoendlin H. Ultra structure and peripheral innervation pattern of the receptor in relation to the first coding of the acoustic message. Hearing Mechanisms in vertebrates. J & A. Churchill LTD, London, 1968 ; 89-118. 60. Spoendlin H. Innervation pattern in the organ of Corti of the cat. Acta Otolaryngol., (Stockh.), 1969, 67 : 239-254. 61. Spoendlin H. Innervation densities of the cochlea. Acta Otolaryngol., (Stockh.), 1972, 73 : 235-248. 62. Spoendlin H. Neuroanatomy of the Cochlea. In Facts and Models in Hearing, Springer Verlag, Berlin, 1974 ; 18-36. 63. Spoendlin H. Retrograde degeneration of the cochlear nerve. Acta Otolaryngol., (Stockh.), 1975 ; 79 : 226-275. 64. Spoendlin H. Neuroanatomical Basis of cochlear coding mechanisms. Audiology, 1975 ; 14 : 383-407. 65. Spoendlin H. Organization of the auditory receptor. Rev. Laryngol., Bordeaux, 1976 ; 97 : 453-462. 300

Références bibliographiques générales

66. Spoendlin H, Gacek R. Electron microscopic studies on the efferent and afferent innervation of the organ of Corti in the cat. Ann. Otol. Rhinol. Laryngol., 1963 ; 72 : 660-684. 67. Tonndorf J. The mechanism of hearing loss in early cases of endolymphatic hydrops. Ann. Otol., 1957 ; 66 : 766-784. 68. Walby A.P., Barrera A., Schucknecht H.F. Cochlear Pathology in chronic suppurative otitis media. Annals of Otol. Rhinol. Laryngol., 1983 ; 92 : 2, suppl. 103. 69. Weaver, W., Shannon C.E. Théorie mathématique de la communication. Retz édit., Paris, 1975. 70. Wever, E.G. Theory of hearing. John Wiley & Sons, New York, 1949. 71. Wever, E.G., Bray, C.V. Present possibilities for auditory theory. Psychol. Rev., 1930 ; 37 : 365-380. 72. Wightman, F.L. The pattern transformation model of pitch. J. Acoust. Soc. Am., 1973 ; 54 : 406-416. 73. Winckel F. Vues nouvelles sur le monde des sons. Dunod, Paris, 1960. (French traduct. of Klangwelt unter der Lupe, Verlag, Berlin).

301

This page intentionally left blank

Index

A acouphènes 220 acoustique 63 Acquapendente d’, F. 22 acuité auditive 213 aide auditive 208 algorithmes 212 aliasing 126 Allais, M. 245 amplitude 64 analyse – de Fourier 52 – spatiale 112 approche systémique 240 aqueduc cochléaire 137 Aran, J.-M. 27 Aristote 21 Atlan, H. 268, 293 autocorrélation 124 automates cellulaires 235 Avery 24 Axel, R. 234

B balayage – du type trame 142 – linéaire 142 bande de fréquences 67

battements 50, 169 Bauhin, G. 23 Beethoven 134 Békésy von G. 13, 25, 247 Bell, G. 26 Berger, H. 27 Bernard, Cl. 245 Bernot, M-Th. 288 Bernouilli, D. 252 Bigelow, Ch. 281 binary digit 226 bionique 236 biotique 291 bits 60 Bizaguet, E. 287 Bizaguet, G. 276 Blake 26 Blanchet 24 Bonnafont 24 Bonnet 24 Bosquet, J. 53, 164 Botte, M.C. 278 Bouasse, H. 253, 278 Bourraud 214 Bourseul, C. 26 Boyle, R. 25 Bray 26 Bredberg 204 Brownel 69 303

L’ OREILLE

bruit 64 – aléatoire 15, 153 – blanc 15, 65 – coloré 65 – de fluctuation 153 – désordonné 153 – dit aléatoire 64 – rose 153 Buck, L. 234 Burette, A. 287 burst 70

C camera acoustica 89 canal – de communication 230 – endolymphatique 137 capsule osseuse cochléaire 137 capteurs de mouvement 33, 76 Cara, M. 246 Carrat, R. 69, 214, 248 Carrat, X. 69, 214, 282 cartographie – cérébrale 51 – cochléaire 254 Casserius, J. 22 Cazals, Y. 288 célérité 144 cellules – ciliées externes 34 – ciliées internes 34 Celsus, A.C. 22 chaîne – de communication 105 – – auditive 108 – tympano-ossiculaire 30 champ auditif 65, 208 – fréquentiel 143 Changeux, J.-P. 259, 290 chaos neuronal 285 Charachon 204 Charpak, G. 223 Chéry-Croze, S. 288 Chladni 26 304

NUMÉRIQUE

Chocholle 50, 69 circuit de rétroaction 81 Claudius 24 clics 50, 164 cochlée 15, 31, 42 codage – binaire 142 – sensoriel 232 code-barres 140 Coderch 214 coefficient d’amortissement 68 Coiter, V. 23 Collet, L. 265, 287 Colombo, R. 22 combinatoire 232, 270 comma 250 complexité biologique 294 compression des données 227 conduction osseuse 133 conformisme 55, 246 Connes, A. 290 consonnes 72 constante – de reconnaissance du son 68 – de temps 65, 68 convergence 276 conversion – de l’information 92 – du signal 109 convertisseur analogique-digital 109 corrélation 124 Corti 24 Cottet, Fr. 268 Cotugno 22 couleur tonale 156 courbe – de Wegel 136 – tonale en cuvette 187 Croquette, V. 288 Crotone de, A. 21 Crozon, M. 247 Crutchfield, J. 288 Cullmann, G. 268 Curtis 24

Index

D Davis, H. 25, 27, 248, 249 débit informatif 208 de Duwe, Ch. 258 Deiters 24 Delahaye, J.-P. 293 Deleau 24 Delorme, M. 292, 293 démarche analytique 240 Deol, M.S. 272 dépolarisation – chaotique 157 – membranaire 60 de Rosnay, J. 236, 288 Descartes, R. 292 détection 123 de Tralles 22 diapason 64 Didier 69 discrimination – fréquentielle 114 – tonale 48 distorsion 47, 205 dogmes 16, 53, 251 Don, M. 262 données anatomiques 50 Du Bois-Reymond 24 Durivault, J. 214, 282 Du Verney 23

E échantillonnage 94 – du système cilié externe 113 – du système cilié interne 114 – irrégulier 96 – pas d’ 98, 112 – peigne d’ 112 – spatial 96, 115 – temporel 112 échelon – de Dirac 99 – de niveau sonore 272 effet de masque 50

Eggermont, J.J. 262 égyptologie 20 Ekeland, I. 288 électrophysiologie 51 Empédocle 21 Enard, A. 282 Englebert, A. 287 entropie 229 Erasistrate 22 Escarpit, R. 268 espace synaptique 42 Euclide 25 Euler, L. 25 Evans, E.F. 261, 279 Eyries et Djourno 216

F Fechner, G. 26 feed back 49 Feeny, M.P. 279 fenêtre – ovale 30 – ronde 30 Ferman, L. 279 fibres – afférentes 37 – efférentes 37 – nerveuses 56 Fletcher, H. 25 Fleury, P. 278 Flourens, P. 24 fonction de transfert 58 fondamental absent 50, 162 formants 207, 213 forme – acoustique 108 – acoustique membranaire 107 – du signal 67 Fourier, J. 26, 247 fréquence 64 – caractéristique 51, 254 – charnière 157 – fondamentale 65 – propre 65 305

L’ OREILLE

G Gabriel Fallope 22 Galien, C. 22 Gate Control 221 Gelfand, St. 278 Ghalioungui, P. 246 Gleick, J. 288 glissando 50 Goldbeter, A. 258 gradient de rigidité 134 Grémy, F. 248 Grey, E. 26 grille d’analyse 113 Guerrier, Y. 246 Guibert, J. 268

H Haller 24 harmoniques 46, 65 Harrison, R.V. 261 hauteur 46 Hawkins, J.E. 279 hearing aid 208 hélicotréma 33 Helmholtz, H. 13, 247, 249 Herophile 22 Hertz 64 Hinton 24 Hippocrate 21 histopathologie 50

I idées reçues 246 implants cochléaires 53, 215 impulsions 56 – électriques 60 indice 184 influx nerveux 42 information auditive 232 infrasons 64 Ingrassia 22 306

NUMÉRIQUE

inhibition latérale 250 intégrateur de niveau 155 intégration 81 intensité 46, 65 Itard, J.M.G. 24 Iurato, S. 265

J Jewett 27 Johnsson – Hawkins 204

K Kemp, D.T. 279 Kimura, R.S. 265 Kodera, K. 261 Kohllöffel 82 Korn, T.S. 164 Kramer 24 Kuhn, Th. 239

L labyrinthe osseux 31 Lafon 69 Lagrange, J.L. 25 lame – cuticulaire 34 – spirale 33 Lane, R.H. 261 Lapicque, L. 245 Le Bon, G. 255 Leca, A.-P. 246 Leconte du Noüy 58 Lehmann, R. 278 Leipp, E. 69, 248 Le Rond d’Alembert, J. 25 leviers ossiculaires 252 Libchaber, A. 293 Licklider, J.C.R. 278 Lienard, J.S. 268 limbe spiral 33

Index

limite fréquentielle – inférieure 146 – supérieure 118, 146 liquides périlymphatiques 33 localisation tonale 46 Loriferne, B. 268

M Mac Leod 270, 290 maillage en réseau 81 Mandelbrot, B. 276 Martin, G. 275 Mashaal, M. 248 Mathelot, P. 258 Max, J. 268 May, M. 288 Mazoyer, J. 292, 293 méat auditif interne 137 mécanique cochléaire 51, 82 membrane – basilaire 15, 33 – dite de Reissner 33 – tectoriale 34 Menière 24 Mersenne, M. 25, 248 MESP 164 Meyer, B. 248, 287 Miot 24 modèle 56 – auditif 59 – mathématique 57 – mécanique 15 modélisation 57 Moles, A. 267, 268 Montforte, J. 268 mosaïque 110 Mössbauer 82 Müller, J. 24 multiplexage 100, 117

N Negroponte, N. 288

nerf auditif 37 neurotransmetteurs 42 neurotransmission 263 Newton, I. 25 niveau acoustique 113 nocivité du bruit 251 nombre de Reynolds 89 noyaux – auditifs centraux 77 – cochléaires 172 numérisation 94, 227

O odorat 60 œil 60 Ohm, G.S. 26 Ohresser, M. 287 olfaction 270 Omnès, R. 223 onde sinusoïdale spatiale 96 oreille – bionique 237 – externe 30 – interne 30, 31, 39 – moyenne 30 – numérique 17 organe de Corti 33 Oribase 22 oscillogramme 66 otolithes 248 otospongiose 135 Ouayoun, M. 288

P paradigmes 245 paradoxes 49 Paré, A. 23 partiels 261 pattern 87 – membranaire 109, 155 – neurosensoriel 147 peigne de Dirac 110 307

L’ OREILLE

pente du signal 70 perception d’un transitoire 177 période 64 – réfractaire 56 – – de la fibre nerveuse 249 périodicité 47 Perrault, C. 23 Perrin, J. 258, 268 perte auditive 175 Peterson, A.P.G. 269 phase 48, 151 phonons 213 physiologie sensorielle 229 Pierce, J-R. 269 Pierson, A. 256 Pimonow, L. 149, 273 pitch 156 pixels 127 place theory 46 plasticité synaptique 77 Platel, R. 246 Platon 21 plosives 205 Politzer 24, 26 Portmann, G. 246 Portmann, M. 27 potentiel – d’action 42, 52, 58 – évoqué 51 – microphonique cochléaire 46 pouvoir séparateur de l’oreille 168 presbyacousie 50, 203 pression acoustique 65 prothèse – « à formants » 213 – auditive 207 psychoacoustique 50, 63, 143 psychopathologie auditive 175 Puel, J.-L. 264 Pujol, R. 49, 256 Pythagore 21 308

NUMÉRIQUE

R rampe – tympanique 33 – vestibulaire 33 Rasmussen, G.L. 265 récepteur neurosensoriel 209 reconnaissance 123 – des formes sonores 124 recrutement 203, 273 réflexe stapédien 129 régime permanent 69 Regnault, H.V. 26 Reissner 24 relais interface 109 rémanence 168 repliement 126 réseau 155 – neuronal 264 résonance 65, 66 résonateur cochléaire 67 rétroaction mécanique cochléaire 251 Ricard, J. 293 Riolan 24 Risset, J.-Cl. 255, 290 Riviere, J.-P. 269 Romand, R. 287 Rosie, A.M. 269 roue dentée 166 Rousseau, P. 247 Ruelle, D. 287 Russel, B. 245 Russel, I.J. 281 Rutherford, W. 45, 249

S sampling 225 Savart, F. 26 Schuknecht, H.F. 204, 279 scotome auditif 67, 129, 191 second filtre 250 sélectivité 47 Sellick, P.M. 281

Index

seuil différentiel d’intensité 157 Shannon 91 Shrapnell 24 signal – aléatoire 85 – analogique 93 – continu 93 – d’entrée 58 – de sortie 58 – discontinu 93 – numérique 94 – sinusoïdal 83 – transitoire 83 Smith, C.A. 265 son – complexe 52, 64, 159 – de combinaison 50 – de résidu de Shouten 50 – différentiel 50 – entretenu 65 – musical 64 – pur 64 – transitoire 65 sonagramme 66 sonie 172 sourd profond 159 spécificité fréquentielle 51, 134 spectre de fréquence 66 Spoendlin, H. 264 Starobinski, J. 247 Stevens, S.S. 25 strie vasculaire 33 Strohl, A. 274 substitution visuo-tactile 290 surdité – avec distorsion de la perception 180 – de perception 180 – infantile 157 – neurosensorielle 181 – neurotoxique 50 – par distorsion auditive 180 surdité de perception 15 surdité de transmission 15

systématisation neuroanatomique 142 système – de transmission 37 – feed-back 221

T Tamine, J. 269 Tasaki 249 temps – d’apparition 69 – d’extinction 69 théorie – de la communication 91 – de l’audition 45 – de la volée 46 – de l’échantillonnage cochléaire 16, 133 – de l’information 92 – de l’onde propagée 47 – dite des résonateurs cochléaires 46 – dite du téléphone 45 – du chaos 221 – générale de la communication 92 timbre 46, 65 Tonndorf, J. 88 tonotopie 15, 46 traitement du signal 56 traits acoustiques 184 transducteur 56 transduction mécano-électrique 76 transitoires 15 traumatisme – acoustique 191 – sonore 51, 67 travelling wave 89 troisième fenêtre 136 troisième son de Tartini 170 Tröltsch 24 trouble de sélectivité 72 tuning curves 134 309

L’ OREILLE

tuyau sonore ouvert 146 tympan 30

U Ubersfeld, A. 276 ultrasons 64 unité fonctionnelle cochléaire 137, 149

V Valsalva, A. 23 Veit, P. 276 vérités établies 16 Vernier, Ph. 257 Vésale 22 vitesse de l’onde de pression 152 Vocoder à canaux 219 voies auditives 37 Voltoni 24

310

NUMÉRIQUE

W War, W.B. 265 Weaver, W. 269, 288 Wepper 24 Werner, Cl. 248 Wever, E.G. 25, 26, 249 Wheatstone, C. 26 white noise 153 Whitfield, I.D. 265 Winckel 69 Wollaston 24 Woodworth, R. 278 Wrightson, Th. 45, 249

Y Yoshie 27

Z Zwirn, H. 293