L’appareil auditif du futur est un ‘hearable’
Entretien avec Sarah Verhulst, professeure à l’UGent
Sur le campus technologique de Zwijnaarde, la professeure Sarah Verhulst (UGent) et son groupe de recherche travaillent sur les prothèses auditives du futur.
Le but de ces appareils est de compenser autant que possible non seulement les dommages causés aux cils vibratiles de l’oreille, à l’instar des appareils actuels, mais aussi les dommages causés aux synapses qui transmettent les signaux au cerveau. À plus long terme, cette technologie pourrait être intégrée aux hearables ou écouteurs sans fil devenus très à la mode.
Professeure Sarah Verhulst, UGent
Qui est Sarah Verhulst?
Sarah Verhulst est ingénieure industrielle en électronique (Group T, à présent KU Leuven) et dispose d’un master en ingénierie acoustique (obtenu à l’Université technique du Danemark). Après avoir obtenu son doctorat au Danemark, Sarah est partie travailler un an et demi aux États-Unis (Université de Boston et Université de Harvard) avant de devenir professeure adjointe en Allemagne (Université d’Oldenburg).
‘Au début de ma formation, je m’intéressais principalement à l’acoustique environnementale et à l’acoustique des bâtiments. Peu à peu, je me suis de plus en plus orientée vers la psychoacoustique, les troubles de l’audition et la conception des appareils auditifs. La recherche et l’innovation dans ce domaine ont encore de la marge. J’ai toujours approfondi mes connaissances auprès d’experts, au Danemark et aux États-Unis. À Oldenburg, j’ai travaillé au sein d’un ‘cluster d’excellence’ où dix professeurs mènent des recherches interdisciplinaires sur les technologies auditives, la neuroscience de l’audition et les troubles auditifs. Ce fut une expérience formidable de participer à ces recherches en tant qu’assistante, de construire un réseau et de développer des partenariats’.
D’où vient votre intérêt pour le son et l’acoustique?
‘Je ne suis pas musicienne, mais j’étais et je suis toujours très intéressée par la musique, les festivals, les concerts. Ce travail me permet en fait d’allier l’aspect loisirs et l’aspect professionnel. Il nous arrive parfois même de procéder à des mesures du bruit lors de festivals et concerts. C’est ce qui s’appelle joindre l’utile à l’agréable.’
Pourquoi êtes-vous revenue en Belgique il y a six ans?
‘J’ai obtenu une bourse (l’ERC Starting Grant) du Conseil européen de la Recherche (European Research Council). Il s’agit des bourses de recherche européennes les plus prestigieuses. Je pouvais rester à Oldenburg et recruter d’autres collaborateurs ou créer ma propre société de recherche et mon propre laboratoire ailleurs. L’université de Gand a mis en place un programme qui, au travers de bourses super intéressantes, permet d’attirer des professionnels et de leur proposer un poste de professeur. J’ai commencé à travailler ici en tant que chargée de cours avant d’être promue professeure titulaire au début de cette année. J’enseigne à des ingénieurs civils, je travaille beaucoup avec les professeurs et les médecins de l’UZ et je dirige un groupe de recherche sur le campus technologique de Zwijnaarde. Je me sens vraiment dans mon élément ici. Entre-temps, la bourse de l’ERC a pris fin, elle était valable pendant cinq ans. Mais depuis lors, nous bénéficions de plusieurs bourses de recherche européennes, fédérales et flamandes’.
Dans quels domaines précisément le groupe de recherche est-il actif?
‘Nous travaillons sur deux axes: le diagnostic des troubles de l’audition et le développement d’algorithmes pour la prochaine génération d’appareils auditifs.’
Pouvez-vous nous donner des précisions sur la première piste de recherche?
‘Lorsque je travaillais États-Unis il y a dix ans, nous avons découvert que les lésions auditives apparaissent bien avant d’avoir pu être diagnostiquées par un audiogramme. L’audiogramme est l’examen classique: vous portez un casque et devez lever la main lorsque vous entendez un signal sonore. Ce test constitue l’examen standard depuis 1920 pour diagnostiquer des troubles de l’audition. Mais de nombreuses personnes se rendent compte qu’elles commencent à moins bien entendre, par exemple dans une pièce où il y a beaucoup de monde et de bruit, alors que l’audiogramme présente des résultats encore parfaitement normaux. Les cils vibratiles et l’amplification du son dans l’oreille interne fonctionnent donc toujours correctement, mais il y a quelque chose d’autre qui se passe et qui fait que les gens souffrent de troubles auditifs plus tôt. D’après les recherches menées aux États-Unis, ce ne sont pas les cellules ciliées qui se dégradent en premier lieu, mais leurs connexions synaptiques chargées de transmettre le son au cerveau. Ces dernières meurent en premier avec l’âge ou les lésions auditives. Et moins il y a de synapses, plus la transmission du son au cerveau est difficile. C’est la forme de dommages auditifs permanents qui apparaît en premier’.
‘Après cette découverte, plusieurs groupes de recherche se sont attelés à essayer de trouver une technique permettant d’identifier les dommages causés aux synapses. Nous avons réussi à mettre au point une technique d’EEG auditif qui permet de diagnostiquer les lésions des synapses à un stade précoce. Des études de suivi menées dans différentes universités ont démontré depuis lors la fiabilité du diagnostic. Que ressort-il de ces études? Les mesures que nous avons effectuées auprès de 120 personnes d’âges différents nous ont permis d’observer de manière évidente les lésions synaptiques liées à l’âge avant même qu’elles ne soient diagnostiquées par l’audiogramme. Aux alentours de la cinquantaine, nous avons déjà perdu près de la moitié de nos synapses. Cela fait partie du processus de vieillissement normal. Cette technique peut être également utilisée pour voir si les personnes exposées à d’importants niveaux de bruit présentent déjà des lésions. Elle permet donc un diagnostic beaucoup plus précoce et c’est important! D’après l’Organisation Mondiale de la Santé, la détection et le traitement précoces sont les meilleurs moyens de limiter les préjudices économiques et sociaux liés aux troubles de l’audition’.
La technique peut-elle être déjà utilisée dans les hôpitaux, en plus de l’audiogramme traditionnel?
‘L’UGent a breveté la technique et l’utilise au niveau de la recherche. Pour l’appliquer au patient, il faut un dispositif médical. L’agrément est réglementé de manière très stricte en Europe, et la procédure coûte excessivement cher. Nous disposons d’un prototype. Notre objectif à présent est de suivre toute la procédure pour pouvoir obtenir le marquage CE. Toute une partie de ce parcours, au même titre qu’un essai clinique sur de nombreux patients, peut être effectuée ici à l’université, en collaboration avec l’UZ Gent. À mon avis, cela prendra encore deux ans. La demande effective d’un marquage CE ne peut être introduite que par une entreprise et devra donc passer obligatoirement par une spin-off. Mais je pense que, d’ici trois ans, les hôpitaux seront équipés d’un appareil de diagnostic de la synaptopathie ou des lésions synaptiques.’
Les troubles auditifs apparaissent bien avant de pouvoir être diagnostiqués par un audiogramme.
Le deuxième domaine de recherche consiste à développer des algorithmes pour une nouvelle génération d’appareils auditifs. En quoi cela consiste-t-il?
‘Aujourd’hui, un appareil auditif s’efforce de compenser autant que possible la perte des cils vibratiles en amplifiant le son qui pénètre dans l’oreille. Pour ce faire, il divise le son en plusieurs bandes de fréquences. Chaque bande est plus ou moins amplifiée, en fonction du résultat de l’audiogramme. Cette amplification du son n’est toutefois pas idéale si vous avez déjà perdu beaucoup de synapses. La nouvelle génération d’appareils auditifs intégrera aussi cette synaptopathie. Mais il n’est pas facile d’amplifier le son tout en stimulant de manière optimale les synapses restantes. Nous utilisons des techniques d’apprentissage automatique pour parvenir à la solution la plus idéale. Cette solution varie d’un individu à l’autre; il faut créer un algorithme personnel, qui ajuste le son entrant de manière à faire fonctionner les synapses nerveuses de manière optimale. Notre technique a, entre-temps, été brevetée.’
Où en est la recherche?
‘L’algorithme que nous entraînons actuellement est le logiciel. Autre grande étape à accomplir: appliquer cette technologie aux puces futures. Vous connaissez certainement les systèmes de reconnaissance vocale automatique Siri et Alexa. Leur fonctionnement n’est pas optimal en présence de bruits de fond importants. L’homme, en revanche, a une excellente capacité à écouter et à entendre, même lorsqu’il y a beaucoup de bruit. Nous intégrons donc le fonctionnement de l’oreille humaine dans les technologies de réduction du bruit. Et le résultat est là! Aujourd’hui, nous disposons d’algorithmes beaucoup plus efficaces pour éliminer le bruit, car ils reproduisent le fonctionnement de l’oreille humaine et permettent donc à Siri et à Alexa d’entendre mieux.
Mais bien sûr, ces systèmes peuvent perdre pas mal de puissance de calcul et de puces. Un appareil auditif est très petit en comparaison. Nous cherchons maintenant à optimiser l’algorithme pour qu’il puisse fonctionner sur une prothèse auditive sans trop de décalage. En effet, un appareil auditif doit traiter tous les sons entrants en moins de dix millisecondes. Si nous y parvenons, nous pourrons nous tourner vers l’industrie. Bien entendu, notre objectif n’est pas d’inciter les cinquantenaires souffrants de légers problèmes auditifs dus à des lésions synaptiques à se doter d’un appareil auditif. En même temps, combien de personnes n’utilisent pas déjà, à l’heure actuelle, des ‘hearables’, ces écouteurs sans fil. Les fabricants de ces hearables, entre autres, sont pour nous une source d’inspiration lorsque nous songeons aux appareils auditifs du futur. Je ne sais pas quand cette nouvelle génération sera sur le marché, mais ce n’est qu’une question de temps.’