Le laboratoire est impliqué, avec le concours de Catherine Marquis-Favre, dans le projet de recherche RIBEolH (Recherche des Impacts du Bruit EOLien sur l’Humain : son, perception, santé) financé par l’ANR.
Ce projet comporte deux études :
Une étude épidémiologique visant à évaluer les effets sur la santé du bruit émis par les éoliennes, en particulier en basse fréquence audible (BF), et dans les infrasons (IF).
Une étude psychoacoustique et physiologique pour mieux comprendre 1) les mécanismes auditifs associés à la perception des IF et des BF du bruit des éoliennes, et leur lien avec la gêne, 2) les effets des IF sur l’oreille interne ou le système nerveux central.
Le laboratoire est impliqué dans l’étude psychoacoustique dédiée à mieux comprendre les mécanismes perceptifs associés à la gêne due au bruit des éoliennes.
Un Monde de bruit. Dossier acoustique. Journal du CNRS, version complète, N° 317, octobre 2024.
Dans nos sociétés industrielles, le bruit est de plus en plus présent, occasionnant gêne mais aussi risques pour la santé. L’acoustique, la science du son, voit son influence s’étendre à des domaines toujours plus larges.
PAR MARIE PRIVÉ ET LAURE CAILLOCE ILLUSTRATIONS STÉPHANE SOULARUE
À l’intérieur de nos maisons, dans les rues de nos villes, dans les forêts ou même sous les mers, le son est partout… Cette profusion de sons extrêmement divers et complexes, c’est le domaine de l’acoustique, une science dont les premiers résultats expérimentaux remontent au XVIIe siècle, avec l’étude des vibrations des cordes de violon, qui donnèrent lieu un siècle plus tard à la toute première équation décrivant un phénomène physique, l’équation de D’Alembert. « L’acoustique, c’est l’ana-lyse physique de ce phénomène ondulatoire qu’est le son : com-ment une onde sonore est générée, comment elle se propage et interagit avec les différents obstacles qu’elle peut rencontrer au cours de sa propagation, et comment elle est reçue par le récepteur – qu’il s’agisse d’un microphone ou de notre système auditif », explique Adrien Pelat, enseignant-chercheur au Laboratoire d’acoustique de l’université du Mans1.Aujourd’hui, l’acoustique s’avère fondamentale dans de nombreux domaines, de la santé à l’environnement en passant par les télécommunications et l’art : « L’acoustique est utilisée en médecine pour les outils d’auscultation et d’imagerie, en ingénierie pour l’insonorisation d’un bâtiment, en traitement du signal pour l’identification des sources sonores en présence, en géophysique pour la propagation des ondes sismiques, en biologie pour comprendre la communication animale… », énumère Judicaël Picaut, directeur de l’Unité mixte de recherche en acoustique environnementale2 (Umrae), co-organisateur avec Adrien Pelat du congrès international d’acoustique InterNoise qui s’est tenu fi n août 2024 à Nantes.
Si la nature elle-même peut se révéler très bruyante – les orages ou le tumulte d’un torrent en sont une bonne illustration –, les technologies modernes ont multiplié les sources de bruit d’origine anthropique. « En dehors de l’industrie, les principales sources de bruit en extérieur proviennent des transports routiers, aériens et ferroviaires, précise Judicaël Picaut. Ces bruits peuvent avoir des composantes basse fréquence qui pénètrent également à l’intérieur des bâtiments et s’ajoutent aux nuisances sonores engendrées par les appareils domestiques et les bruits de voisinage. »
Ces bruits basse fréquence, les plus difficiles à atténuer, sont un défi pour les acousticiens. « Les méta-matériaux, ces nouveaux matériaux auxquels on confère des propriétés physiques particulières, pourraient changer la donne en acoustique.
Ainsi, les scientifiques travaillent aujourd’hui sur des matériaux capables de filtrer des fréquences défi nies, de les masquer ou au contraire de les guider, explique Adrien Pelat. Utilisés dans les transports ou dans la construction d’habitats collectifs, ils pourraient s’avérer précieux alors que la densification des villes risque d’occasionner toujours plus de bruit. » Des risques pour la santé D’autres innovent pour limiter le bruit émis par les parcs éoliens, appelés à se multiplier en France dans le cadre de la transition énergétique. « Le bruit éolien, particulièrement riche en basses fréquences et en infrasons, provient avant tout de l’écoulement de l’air autour des pales, explique David Écotière, directeur adjoint de l’Umrae. Dans le cadre du projet Pibe ( « Prévoir l’impact du bruit des éoliennes », lire aussi p. 25), un nouveau type de solutions ont été testées en soufflerie à l’aide de modèles réduits de pales, avec un réel effet de réduction du bruit généré. La première est déjà étudiée dans le milieu aéronautique : il s’agit d’ondulations bioinspirées (que l’on trouve notamment sur le bord des nageoires des baleines à bosse), qui agissent sur les fréquences créées par le bord d’attaque de la pale. Pour le bord de fuite, un dispositif inspiré des ailes des rapaces nocturnes dont le vol est particulièrement silencieux grâce aux plumes plus longues situées au bout de leurs ailes – et déjà déployé dans certains parcs éoliens – a confirmé son efficacité. » Très prometteurs, ces deux dispositifs présentent l’avantage de pouvoir être installés sur des éoliennes déjà en fonctionnement. Car le bruit n’est pas qu’un simple désagrément. Il constitue un risque majeur pour la santé selon l’Organisation mondiale de la santé : parmi les facteurs de risques environnementaux, il s’agit de la deuxième cause de morbidité en Europe derrière la pollution atmosphérique, occasionnant pertes d’audition, acouphènes, troubles du sommeil, stress, mais aussi maladies cardiovasculaires et, plus surprenant, baisse des performances cognitives. « On sait aujourd’hui qu’un enfant soumis à une exposition au bruit relativement importante – que ce soit à l’école, chez lui, ou à l’extérieur – peut développer des troubles de l’apprentissage », signale Judicaël Picaut.
Avec l’essor du numérique, des affections inédites apparaissent, occasionnées notamment par le recours excessif aux plateformes de visioconférence. « Face aux troubles auditifs signalés par un certain nombre d’interprètes travaillant presque exclusivement en ligne suite à la crise du Covid, des chercheurs ont découvert que l’écoute intensive de sons très compressés pouvait entraîner des dommages auditifs irréversibles, explique ainsi Jean-Dominique Polack, professeur d’acoustique à Sorbonne Université et président de la Société française d’acoustique. La plateforme Zoom a réagi à cette annonce en proposant depuis quelques mois un son amélioré. » Les humains ne sont pas les seuls à être impactés par le bruit. La biodiversité souffre elle aussi d’un environnement de plus en plus sonore (lire p. 26), à terre comme en mer où le transport maritime est identifié comme une source majeure de bruit. « La construction des parcs éoliens off shore constitués de centaines de machines occasionne des nuisances majeures lors du battage des pieux, impactant l’activité de la biodiversité sous-marine, notamment en matière de reproduction et de recherche de nourriture pour les mammifères marins », poursuit Judicaël Picaut. Mais l’acoustique peut aussi venir en aide aux écosystèmes. Depuis quelques années, elle se révèle une auxiliaire précieuse pour réaliser des inventaires de biodiversité, en mettant littéralement les écosystèmes sur écoute. Le nom de cette toute nouvelle discipline : l’éco-acoustique.
1. Unité CNRS/Le Mans Université.
Quel est le point commun entre une éolienne, la houle océanique et une éruption volcanique ? Toutes trois sont émettrices d’infrasons, des sons dont la fréquence est inférieure à 20 hertz. Connues pour se propager sur de longues distances, ces ondes acoustiques réputées, à tort, inaudibles suscitent de plus en plus de recherches.
PAR LAURE CAILLOCE
Indonésie, 26 août 1883. Le Krakatoa se réveille dans une puissante explosion. L’onde acoustique générée par le volcan est si intense qu’elle est enregistrée par les baromètres des stations météorologiques londoniennes à plus de 10 000 kilomètres de là. « C’est la première mesure infrasonore jamais réalisée, relate François Coulouvrat, physicien spécialiste d’acoustique à l’Institut Jean le Rond d’Alembert 1. À Londres, l’onde sera d’ailleurs enregistrée deux fois, ce qui signifie qu’elle a fait au moins deux fois le tour de la Terre. » Une vingtaine d’années plus tard, en 1908, l’entrée dans l’atmosphère de la grande météorite de Sibérie et sa formidable déflagration, mille fois plus puissante que celle de la bombe d’Hiroshima, est à nouveau détectée à des milliers de kilomètres. Ainsi naît l’intérêt des scientifiques pour les ondes infrasonores : des ondes acoustiques de très basses fréquences, inférieures à 20 hertz (Hz), capables de se propager sur de grandes distances. Nulle magie à cela. Une onde acoustique est une onde de pression, une onde mécanique donc 2, qui se propage de manière longitudinale en faisant osciller les molécules d’oxygène et d’azote de l’air, créant de légères surpressions et dépressions à son passage. La longueur d’onde correspond à la distance entre deux maximums (ou entre deux minimums) de pression. Or plus la fréquence d’une onde sonore est petite, comme c’est le cas dans les très basses fréquences, plus sa longueur d’onde est grande et plus l’onde voyagera loin. Elle aura également tendance à être « aveugle » aux obstacles plus petits que sa longueur d’onde. Inversement, plus une fréquence est haute (sons plus aigus), plus sa longueur d’onde sera petite, et plus rapidement elle sera absorbée par l’atmosphère et affectée par les obstacles. Cette relation entre fréquence et longueur d’onde s’incarne dans une équation simple :
Longueur d’onde (en mètres) = vitesse du son (340 mètres par seconde au niveau du sol) / fréquence (en hertz).
Des sources naturelles et industrielles« Tous les phénomènes géophysiques sont émetteurs d’infrasons : éruptions volcaniques, séismes, chutes de météorites, tornades, éclairs, aurores boréales… », confirme Roberto Sabatini, enseignant-chercheur au Laboratoire de mécanique des fluides et d’acoustique de Lyon 3. Une explosion volcanique générant dans la partie basse de son spectre sonore des ondes d’une fréquence de 1 millihertz (0,001 Hz) aura une longueur d’onde de 34 km, plus ou moins équivalente à la taille de l’objet émetteur. La houle océanique, source permanente d’infrasons, génère des ondes autour de 0,5 Hz, ce qui correspond à une longueur d’onde de l’ordre du kilomètre.» À noter que si la fréquence et la longueur d’onde sont liées, l’intensité des ondes sonores produites dépend de la nature et de la puissance de la source. Mais l’émission d’infrasons n’est pas cantonnée aux seuls phénomènes géophysiques. « On sait aujourd’hui que de nombreuses sources artificielles produisent des ondes acoustiques infrasonores : les explosions nucléaires ou chimiques, le bang des avions supersoniques, mais aussi tous types d’installations industrielles susceptibles de mettre l’air en mouvement », poursuit Roberto Sabatini. Pompes, systèmes de ventilation, générateurs… et autres éoliennes émettent des infrasons dans des gammes de fréquences qui auront tendance à être plus proches du seuil des 20 Hz. Une autre propriété des ondes très basses fréquences a très tôt intrigué les scientifiques : leur propension à « jouer les Arlésiennes ». « Durant la Première Guerre mondiale, l’état-major de l’armée française a mobilisé des scientifiques pour l’aider à localiser les énormes batteries allemandes, en calculant la direction des tirs, leur temps d’arrivée, etc., poursuit François Coulouvrat. C’est ainsi qu’on a fait une drôle de découverte : à proximité des batteries, on entendait les tirs, puis plus rien quand on s’éloignait de plusieurs dizaines de kilomètres, puis les tirs se faisaient entendre à nouveau…De sorte que le fracas de la guerre était audible jusque sur les côtes anglaises, sans que les habitants comprennent d’où ces bruits sourds pouvaient bien provenir. » Brisons tout de suite un mythe : il n’y a pas que les éléphants ou les baleines qui entendent les infrasons. Réputées inaudibles par l’humain, les ondes infrasonores sont bel et bien perceptibles par chacun d’entre nous, à condition d’atteindre des niveaux d’intensité suffisamment forts (lire plus loin). « Le grondement du tonnerre qu’on entend à plusieurs kilomètres de l’éclair n’est autre que la partie infrasonore du spectre sonore produit par l’éclair : les fréquences les plus hautes ayant été absorbées, il ne reste que les fréquences les plus basses », explique François Coulouvrat.
“Comment une onde acoustique peut-elle se faire entendre, puis sembler disparaître, pour être à nouveau audible à mesure que la distance grandit ?”
Mais comment une onde acoustique peut-elle se faire entendre, puis sembler disparaître, pour être à nouveau audible à mesure que la distance grandit ? La fin du XXe siècle a vu un regain d’intérêt de la recherche pour le domaine des infrasons, qui a permis de mettre en évidence un deuxième phénomène, essentiel pour comprendre pourquoi les ondes infrasonores semblent varier en intensité sur de grandes distances : la réfraction avec l’altitude. Une propagation jusqu’à 100 kilomètres d’altitude« Si le bang supersonique du Concorde 4, riche en infrasons, a suscité pas mal d’études, le vrai bond dans la recherche sur les infrasons vient du réseau mondial de stations de surveillancedéployé suite à la signature en 1996 du Traité d’interdiction des essais nucléaires (Tice), explique Roberto Sabatini : au total, 60 stations d’enregistrement infrasonores (l’une des dernières en date a été mise en service enGuadeloupe en 2020), sont capables de détecter les essais nucléaires clandestins n’importe où sur la planète grâce aux infrasons que ceux-ci émettent. » Grâce à la quantité d’observations accumulées – les stations infrasonores, qui enregistrent en continu, détectent également tous les phénomènes géophysiques cités plus haut –, les chercheurs ont mis en lumière le rôle des différentes couches de l’atmosphère dans la propagation des infrasons. Explications. Quand une source située au sol émet une onde acoustique, celle-ci part dans
toutes les directions, proches du sol, mais aussi vers le ciel, où elle peut monter jusqu’à une altitude d’une centaine de kilomètres pour les fréquences les plus basses. En voyageant dans l’atmosphère, les ondes infrasonores rencontrent un milieu non homogène, où la température et le régime des vents varient en permanence. Ainsi, jusqu’à 11 km d’altitude (troposphère), la température diminue, puis augmente à nouveau entre 11 et 50 km d’altitude (stratosphère) avant de diminuer à nouveau dans la mésosphère, pour réaugmenter brutalement à partir de 90 km (thermosphère). Or, la température agit directement sur la vitesse de propagation du son, mais aussi sur sa direction. « Quand l’air se réchauffe, cela augmente la vitesse du son et le dévie vers la verticale, explique François Coulouvrat. Quand il se refroidit, cela diminue la vitesse du son et le rapproche de l’horizontale. Le vent aussi a son influence : suivant qu’il est porteur ou contraire, il va accélérer ou ralentir l’onde sonore, et dévier sa trajectoire. » Résultat : à force de changements de direction, une partie des ondes sonores envoyées vers l’atmosphère finissent ainsi par retomber vers le sol.
“Quand l’air se réchau ffe, cela augmente la vitesse du son et le dévie vers la verticale, quand il se refroidit, cela diminue la vitesse du son et le rapproche de l’horizontale.”
« On peut parler de paquets d’ondes sonores, explique Roberto Sabatini. À 250 km de la source, une distance caractéristique pour les infrasons émis dans l’atmosphère, on va
d’abord recevoir l’onde acoustique directe, puis un paquet d’ondes venues de la stratosphère (50 km), suivi d’un paquet d’ondes renvoyées de la thermosphère (100 km). » D’où des
émergences plus fortes du son à des distances clefs. Les infrasons comme alerte aux tsunamis Si le phénomène de réfraction avec l’altitude explique les variations d’intensité sonore dans l’espace et dans le temps, il ouvre aussi à des applications inattendues. « Le signal qu’on reçoit à une station infrasonore particulière va dépendre de la source et des caractéristiques de l’atmosphère, explique Roberto Sabatini. Or chaque source a unesignature acoustique particulière. Donc si l’on connaît la source, telle éruption volcanique ou tel séisme par exemple, on va pouvoir en déduire des informations sur les caractéristiquesde l’atmosphère – notamment la vitesse et la direction des vents stratosphériques, des vents qu’on ne sait pas aujourd’hui mesurer directement et qui sont capitaux pour améliorer les modèles climatiques. » Les informations infrasonores reçues par les stations du réseau Tice pourraient également permettre une meilleure caractérisation des séismes et, même, constituer des signaux d’alerte. «Dans le cas des tremblements de terre sous-marins susceptibles de générer des tsunamis, on sait que l’onde du tsunami va moins vite que l’onde sonore dans l’atmosphère, cette dernière pourrait donc être détectée avant que le tsunami ne touche les côtes, ce qui permettrait de prévenir les habitants de l’imminence de la vague, poursuit le scientifique. En réalité, nous commençons à peine à explorer toutes les exploitations possibles de ces signaux infrasonores… »
Mais si les infrasons constituent un outil de recherche prometteur pour les physiciens spécialistes de l’atmosphère, ils génèrent aussi des inquiétudes sur la terre ferme, alors que la multiplication des sources industrielles potentiellement émettrices – et notamment l’essor de l’éolien – pose la question de la perception par l’humain des ondes infrasonores, mais aussi celle de leurs effets potentiels sur la santé.
Un dispositif pour étudier la perception humaine Un terme, notamment, fait régulièrement irruption dans les médias planétaires depuis une vingtaine d’années : le « hum », mystérieux vrombissement que seule une fraction de la population percevrait. « Des confrères ORL me contactent parfois pour des patients se plaignant d’entendre à leur domicile des bruits basse fréquence dont ils n’arrivent pas à identifier l’origine et que rien ne semble arrêter, pas même l’usage de bouchons d’oreille », rapporte Paul Avan, médecin, directeur du Centre de recherche et d’innovation en audiologie humaine de l’Institut Pasteur (Ceriah).
À ce jour, il existe peu d’études sur la perception des infrasons par l’être humain, mais il est au moins un fait formellement établi par les scientifiques : contrairement à ce que leur nom laisse supposer (le préfixe « infra » prend pour référence l’audition humaine), les infrasons peuvent bel et bien être perçus par l’oreille humaine. « Il est couramment admis que l’humain entend dans une bande de fréquences comprise entre 20 Hz et 20 000 Hz, avec une sensibilité extrême aux alentours de 100-200 Hz correspondant à la fréquence fondamentale de la voix humaine et jusqu’à 4000 Hz, explique Sabine Meunier, spécialiste de psycho acoustique au Laboratoire de mécanique et d’acoustique de Marseille(5) (LMA). Mais ces seuils ont été établis à une époque où on savait peu de choses sur les très basses fréquences. En réalité, nous pouvons tous entendre les fréquences au- dessous de 20 Hz, à des niveaux relativement forts qu’on rencontre rarement dans la vie courante, notre oreille étant beaucoup moins sensible dans les très basses fréquences. »
“Des confrères ORL me contactent parfois pour des patients se plaignant d’entendre à leur domicile des bruits basse fréquence dont ils n’arrivent pas à identifier l’origine.”
Paul Avan, directeur du Ceriah
Nous faisons l’expérience dans la cabine infrasonore dont l’équipe de Sabine Meunier vient tout juste de terminer la construction à Marseille, dans le cadre du projet Ribeolh (Recherche des impacts du bruit des éoliennes sur la santé humaine). Cette « boîte » de 40 mètres cubes, tapissée de haut-parleurs du sol au plafond, a été spécialement conçue pour reproduire des bruits très basses fréquences de forte intensité, jusqu’à 110 décibels. « En tout, 72 haut-parleurs ont été installés, qui peuvent diffuser sur 36 canaux en simultané des fréquences allant de 4 Hz à 3 000 Hz », détaille Ossen El Sawaf, post-doctorant au LMA. « Grâce à ce dispositif, nous allons pouvoir diffuser des bruits d’éoliennes, qu’on sait très riches en infrasons(6) , et plus largement approfondir nos connaissances fondamentales sur la perception des très basses fréquences », explique Sabine Meunier.
Pour l’heure, ce sont trois infrasons purs qui nous sont diffusés, à 20 Hz, 12 Hz, et 8 Hz, à différents niveaux d’intensité. La sensation est surprenante : à ces fréquences, très basses, on ne perçoit plus un son continu (une « tonalité », disent les acousticiens), juste un battement régulier. « Pour qu’un infrason soit audible, il faut qu’il ait une intensité minimum, ce qu’on appelle le seuil d’audibilité, explique Sabine Meunier. Ce seuil se situe à 88-90 décibels (dB) pour un son de 20 Hz, à 100 dB pour 12 Hz, et à 110 dB pour 8 Hz… » Des niveaux d’intensité qui seraient perçus comme très forts par l’oreille pour des sons émis dans de plus hautes fréquences : 110 dB, c’est par exemple le bruit ressenti dans le cockpit d’une voiture de course !
Autre particularité que nous expérimentons dans la cabine : dans la gamme infrasonore, il suffi t de quelques décibels à peine pour passer d’un son à peine audible à un son perçu comme très fort. « Dans la gamme de fréquences que l’oreille humaine entend le mieux, un son sera perçu comme faible à 20 dB et très fort à 80 dB. Mais à 20 Hz, il suffira de passer de 90 dB à 100 dB pour avoir cette impression de forte augmentation », poursuit Sabine Meunier. Grâce à la cabine et à la trentaine de volontaires qu’elle s’apprête à recevoir, la chercheuse espère en apprendre davantage sur les mécanismes auditifs liés à la perception des infrasons.
Des personnes plus sensibles que d’autres
Partie prenante du projet Ribeolh, Paul Avan cherche, lui, à comprendre la réaction du système auditif lorsqu’il est exposé aux infrasons. « Je vais mesurer les changements physiologiques qui pourraient se produire dans l’oreille interne après une exposition aux infrasons. Aussi bien dans le vestibule, l’organe chargé d’assurer notre équilibre, que dans la cochlée dédiée à l’audition. » Pour rappel, la cochlée, c’est l’organe en forme de spirale logé derrière le tympan, sur lequel se trouvent les cellules auditives : les cellules ciliées externes chargées d’amplifier le son reçu, et les cellules ciliées internes qui le transforment en signal électrique, transmis au cerveau. « La cochlée, c’est un peu comme un piano. Les sons aigus vont exciter seulement le bas de la cochlée, quand les sons graves, les basses fréquences, vont l’exciter sur toute sa longueur, soit deux tours et demi de spire chez l’humain », explique Paul Avan, qui cherche notamment à établir si un infrason reçu par l’oreille interne, mais resté inaudible, excite la cochlée de la même façon qu’un infrason entendu par le sujet(7).
(5). Unité CNRS/Aix-Marseille Université/Centrale Méditerranée. (6). Le bruit éolien est un bruit à large bande de fréquences, qui va de moins de 10 Hz à plus de 3 000 Hz. C’est un bruit « rose », qui a plus d’intensité dans les infrasons et les basses fréquences que dans les hautes fréquences. (7). Dans le cadre du projet Ribeolh, une étude de gêne et une étude épidémiologique seront également conduites afin de déterminer si le bruit éolien a un impact sur la santé.
Le médecin prévoit, dans un deuxième volet de l’étude, de se focaliser sur les personnes plus sensibles aux infrasons, celles dont on pense que le seuil d’audibilité est un peu plus bas que la moyenne de la population, et qui ressentent une gêne quand d’autres n’entendent tout simplement rien. « Nous aimerions identifier les facteurs à l’origine de cette différence de perception : une particularité anatomique, par exemple une cochlée un peu plus longue, en est-elle la cause ? Une perturbation de l’endolymphe, le liquide qui baigne l’oreille interne, pourrait aussi expliquer cette plus grande sensibilité », avance le scientifique.
Mieux prédire le bruit des installations industrielles
Problème : les infrasons sont aujourd’hui l’angle mort de la réglementation sur le bruit dans de nombreux pays, dont la France. « En France, le bruit environnemental est essentiellement mesuré en décibels “pondérés” A (dB A). Ce système de pondération permet de tenir compte de la plus grande sensibilité de l’oreille à certaines fréquences, en leur donnant un plus grand poids, afin d’évaluer la gêne réelle occasionnée par des bruits comme le trafic routier, la circulation des trains, un concert… Or cette pondération A n’est pas adaptée aux fréquences situées au-dessous de 125 Hz, car elle applique un filtre qui les atténue fortement », explique David Ecotière, directeur adjoint de l’Unité mixte de recherche en acoustique environnementale(8) (Umrae) et spécialiste de la propagation du son en milieu extérieur. « Généralement, quand nous, chercheurs, faisons des mesures d’infrasons, nous présentons nos résultats en décibels non pondérés.» Le scientifique pointe également le matériel souvent inadapté des bureaux d’étude sollicités pour réaliser les études de bruit environnemental, qui n’a pas la sensibilité requise dans les très basses fréquences.
Autre maillon faible, selon le scientifique : la variabilité des niveaux sonores est mal prise en compte lors des études préalables à l’implantation de nouvelles installations industrielles, notamment les parcs éoliens. « Or on sait combien la topographie du lieu, mais aussi les conditions atmosphériques locales, vent, gradient de température, et enfin la nature du sol (dur ou pas, mouillé ou pas…), peuvent influer sur le niveau de bruit perçu par les riverains de ces installations.» Et de citer l’exemple de ce circuit de karting, où une mission d’expertise a été conduite : des mesures faites chez un riverain habitant à 800 m du circuit ont mis en évidence une différence de 15 dBA en fonction des conditions de vent et de température, à émission sonore équivalente.
« Le vent contraire a tendance à dévier les ondes sonores vers le ciel, quand un vent porteur les rabattra vers le sol et augmentera le niveau de bruit. Le gradient de température, c’est-à-dire la différence de température ente le sol et l’air, sons, celles dont on pense que le seuil d’audibilité est un peu plus bas que la moyenne de la population, et qui ressentent une gêne quand d’autres n’entendent tout simplement rien. « Nous aimerions identifier les facteurs à l’origine de cette différence de perception : une particularité anatomique, par exemple une cochlée un peu plus longue, en est-elle la cause ? Une perturbation de l’endolymphe, le liquide qui baigne l’oreille interne, pourrait aussi expliquer cette plus grande sensibilité », avance le scientifique.
Mieux prédire le bruit des installations industrielles Problème : les infrasons sont aujourd’hui l’angle mort de la réglementation sur le bruit dans de nombreux pays, dont la France. « En France, le bruit environnemental est essentiellement mesuré en décibels “pondérés” A (dB A). Ce système de pondération permet de tenir compte de la plus grande sensibilité de l’oreille à certaines fréquences, en leur donnant un plus grand poids, afin d’évaluer la gêne réelle occasionnée par des bruits comme le trafic routier, la circulation des trains, un concert… Or cette pondération A n’est pas adaptée aux fréquences situées au-dessous de 125 Hz, car elle applique un filtre qui les atténue fortement », explique David Ecotière, directeur adjoint de l’Unité mixte de recherche en acoustique environnementale(8) (Umrae) et spécialiste de la propagation du son en milieu extérieur.
« Généralement, quand nous, chercheurs, faisons des mesures d’infrasons, nous présentons nos résultats en décibels non pondérés. » Le scientifique pointe également le matériel aura aussi pour effet de dévier l’onde sonore ou au contraire de la rabattre », détaille David Ecotière. Ainsi la nuit, propice aux inversions thermiques entre le sol et l’air, a généralement pour effet de rabattre les sons vers le sol et d’augmenter le niveau de bruit autour de la source sonore. « Cela vaut pour les hautes fréquences comme pour les infrasons », précise le scientifique.
Avec leurs pales de 50 m de long – soit une envergure totale de 100 m – les éoliennes se trouvent dans un cas particulier : du fait de ses dimensions, un dispositif de ce type peut se trouver simultanément exposé à des conditions de vent et de température différentes, ce qui rend les modèles de prédiction de bruit particulièrement difficiles à établir, témoigne le scientifique, qui coordonne depuis 2019 un vaste projet sur le bruit éolien : Pibe (pour Prévoir l’impact du bruit des éoliennes). « Nous avons enregistré en continu un champ de huit éoliennes durant 410 jours, à différentes distances, et dans toutes les configurations atmosphériques possibles », raconte le chercheur. Une base de données unique au monde, qui va notamment permettre de mieux prévoir le niveau de bruit d’un projet éolien, en y intégrant la notion de variabilité (tel niveau sonore envisagé, à + ou – tant de décibels) 9, et sera également mise à disposition de toute la communauté scientifique.
(8). Unité Université Gustave Eiff el/Cerema. (9). Un outil sera prochainement mis en ligne sur le site du projet Pibe (https://www.anr-pibe.com/) pour estimer la variabilité sonore d’un projet éolien.
“S’il s’avérait que les infrasons ont un impact sur la santé, alors la législation sur le bruit et les normes en vigueur devraient fortement évoluer.”
Avec leurs pales de 50 m de long – soit une envergure totale de 100 m – les éoliennes se trouvent dans un cas particulier : du fait de ses dimensions, un dispositif de ce type peut se trouver simultanément exposé à des conditions de vent et de température différentes, ce qui rend les modèles de prédiction de bruit particulièrement difficiles à établir, témoigne le scientifique, qui coordonne depuis 2019 un vaste projet sur le bruit éolien : Pibe (pour Prévoir l’impact du bruit des éoliennes). « Nous avons enregistré en continu un champ de huit éoliennes durant 410 jours, à différentes distances, et dans toutes les configurations atmosphériques possibles », raconte le chercheur. Une base de données unique au monde, qui va notamment permettre de mieux prévoir le niveau de bruit d’un projet éolien, en y intégrant la notion de variabilité (tel niveau sonore envisagé, à + ou – tant de décibels) 9, et sera également mise à disposition de toute la communauté scientifique. En attendant, ces enregistrements réalisés in situ ont été fournis à Sabine Meunier et ses collègues, et seront diffusés dans la cabine infrasonore du LMA à Marseille afin de faire progresser la connaissance sur la perception des infrasons et très basses fréquences. Et d’y voir plus clair sur ces ondes acoustiques trop peu étudiées. « Les infrasons suscitent beaucoup de fantasmes. On ne les voit pas, la plupart du temps on ne les entend pas, et leur propagation sur de longues distances rend l’identification de leur source parfois difficile, résume David Ecotière. Mais s’il s’avérait qu’ils ont un impact sur la santé, alors la législation sur le bruit et les normes en vigueur devraient fortement évoluer. »
Du parc national des Pyrénées au parc naturel régional de la Baie de Somme, en passant par les forêts du Doubs ou d’Armorique, des micros fixés aux arbres enregistrent depuis le mois de mars les sons de 101 forêts protégées en France. Oiseaux, mammifères, insectes… mais aussi tronçonneuses, voix humaines, moteurs d’avions : aucun son ne peut leur échapper ! Objectif de ces enregistrements, réalisés dans le cadre du projet Sonosylva1 : dresser un inventaire des espèces animales présentes en forêt et en suivre l’évolution sur le temps long, mais aussi évaluer le niveau de pollution sonore d’origine humaine et son impact sur ces écosystèmes.
Alors que la biodiversité d’un territoire est traditionnellement évaluée à partir d’observations visuelles, ou en capturant (pour les relâcher ensuite) les différentes espèces qui y vivent, Jérôme Sueur, chercheur à l’Institut de systématique, évolution, biodiversité2 et initiateur du projet, part de l’hypothèse que la complexité sonore d’un paysage est le reflet de sa biodiversité : plus un enregistrement est riche en sons, plus on peut supposer que le nombre d’espèces animales présentes est important. Avantage de ces enregistrements sur les méthodes plus classiques de recensement : « Ils permettent de dépasser les observations très informatives mais souvent ponctuelles des inventaires classiques de la biodiversité, explique Jérôme Sueur, et offrent des possibilités de suivi des écosystèmes sur un temps plus long et des territoires plus vastes. Non invasifs, ils permettent d’observer sans perturber le milieu. »
101 magnétophones installés
Le scientifique est l’un des pionniers en France de l’écoacoustique, une discipline récente qui, comme la bioacoustique, étudie les manifestations sonores des animaux, mais qui à la différence de celle-ci ne se focalise pas sur une seule espèce : « Par exemple, quand la bio- acoustique enregistre uniquement les sons produits par le pinson, l’écoacoustique prendra en compte toute la “forêt” du pinson, c’est-à-dire l’ensemble des sons présents dans son environnement.» Les 101 magnétophones installés – un par forêt, donc – enregistrent une minute de son tous les quarts d’heure, un jour sur deux, de mars à septembre, trois saisons d’enregistrement étant prévues entre 2024 et 2026.
Centré à la fois sur les sons de la nature et ceux d’origine humaine, le projet Sonosylva devra notamment confirmer l’impact de la pollution sonore sur les écosystèmes écoutés. Les enregistrements seront ainsi classés parmi quatre grandes catégories de sons : la « biophonie », qui regroupe les sons émanant du vivant (chant des oiseaux, stridulations des insectes), la « géophonie », qui comprend les sons naturels non liés à des corps vivants (vent, pluie…), la « technophonie », qui correspond aux sons produits par les activités humaines (transports, agriculture…), et enfin « l’anthropophonie », qui rassemble les voix humaines, que les chercheurs rendront inintelligibles par souci d’anonymisation.
C’est que la pollution sonore n’est pas sans conséquence pour les espèces animales. Les chants d’oiseaux, les stridulations d’insectes, les coassements de grenouilles et autres vocalisations émises sont essentielles à leur survie. Or, les bruits d’origine humaine brouillent les messages en cassant les modulations d’amplitude, de temps et de fréquence. « Briser la communication, c’est potentiellement rompre un lien de survie entre des parents et des jeunes affamés, c’est empêcher la reproduction, nuire aux liens familiaux et sociaux », explique Jérôme Sueur. Pour déterminer si, et comment le bruit d’origine humaine perturbe les espèces dans les forêts étudiées par Sonosylva, les chercheurs devront traiter les informations contenues dans les milliers d’heures d’enregistrements réalisées. Undéfi en soi, qui fait partie intégrante des objectifs scientifiques du projet, les logiciels de traitement de l’information sonore étant aujourd’hui encore balbutiants.
À chaque espèce sa niche acoustique
Plusieurs indices acoustiques seront tout particulièrement traqués dans les enregistrements. Calculée en décibels, la dose de bruit totale reçue sur un temps déterminé permettra ainsi d’estimer le nombre de sources sonores. « Plus elle est élevée, plus il y a de sources sonores dans l’enregistrement, et inversement, indique Sylvain Haupert, écoacousticien du projet Sonosylva. On peut calculer cet indice pour différentes gammes de fréquences. Par exemple, on sait qu’entre 0 hertz et 1 000 hertz, on trouvera surtout des sons de la technophonie (moteurs de voiture, d’avion,) ou de la géophonie (bruit du vent, de la pluie…) alors que dans les fréquences plus aigües, au-delà de 1 000 hertz, on retrouvera des sons de la biophonie comme les chants d’oiseaux. »
Le spectre des fréquences enregistrées sera aussi examiné avec attention. « Plus le nombre d’espèces augmente, plus le spectre des fréquences sur les enregistrements est large », explique Sylvain Haupert. Une dispersion fréquentielle liée à l’hypothèse de la « niche acoustique », théorisée par l’acousticien américain Bernie Krause : chaque espèce occuperait un canal de communication qui lui est propre et se placerait sur des fréquences plus ou moins aiguës ou graves, permettant de ne pas brouiller le signal des espèces voisines. Établis pour chaque minute d’enregistrement, ces divers indices permettront de réaliser des cartes sonores faisant apparaître le nombre d’espèces présentes et leur niveau sonore, ainsi que la pollution sonore due aux activités humaines, et d’effectuer des comparaisons entre forêts. Mais il faudra attendre encore avant de pouvoir identifier formellement chaque espèce. « L’application BirdNET développée par l’université de Cornell (États-Unis) et l’université technologique de Chemnitz (Allemagne) répond en partie à ce besoin, explique Sylvain Haupert. Elle permet d’identifier environ 6 000 espèces animales, oiseaux essentiellement, mais elle n’est pas totalement fiable. » C’est pourquoi un outil d’intelligence artificielle est en cours de développement par le scientifique et son équipe, qui devrait permettre de discriminer les quatre grandes catégories de sons – biophonie, géophonie, technophonie, anthropophonie – et de distinguer des sous-groupes à l’intérieur de chacune.
Couplées aux données météo fournies par Météo-France, les cartes établies par le projet devraient enfin permettre de voir comment les conditions climatiques, crues, canicules, tempêtes, etc., affectent les espèces animales forestières. Une donnée cruciale à l’heure du bouleversement climatique .
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou la personne utilisant le service.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.