W jaki sposób nasz słuch rozróżnia kierunki?

Zastanawialiście się kiedyś, jak to jest, że kiedy usłyszycie jakiś hałas, od razu wiecie, w którą stronę obrócić głowę, żeby sprawdzić, co się stało? Albo jak to w ogóle działa, że słuchając muzyki z dwóch głośników słyszymy instrumenty z różnych miejsc pomiędzy nimi? A teraz posłuchajcie, ale koniecznie w słuchawkach, inaczej nie zadziała. Bez nich może będzie interesująco, ale to nie będzie to.

Karmienie psa, przez psy nazywane również „sypaniem granulatu”

Suszarka

Supermarket

A tutaj nagranie z krakowskiego Rynku dwiema metodami. Jedna to tzw. XY, czyli dwa mikrofony w tym samym miejscu, ale ustawione pod innym kątem, a druga to metoda, którą opiszę na końcu.

Brzmi bardzo przestrzennie, prawda? Zwróćcie uwagę na jedną rzecz. Kiedy słuchacie przez słuchawki typowych nagrań, to jeśli mielibyście powiedzieć, skąd dobiega dźwięk, np. głos wokalisty, stwierdzicie najpewniej, choć brzmi to absurdalnie, że dobiega ze środka głowy. To dziwne, ale sprawdźcie sami na dowolnej piosence (np. na tej, traktującej zresztą o tym, co w głowie jest lub nie ma).  Na nagraniach, których słuchaliście przed chwilą, jest inaczej. A dlaczego? To wyjaśnię pod koniec.

Teraz jak najkrócej wyjaśnię, czym jest dźwięk, a potem opiszę, jak nasze uszy i mózg potrafią dowiedzieć się, skąd go słyszą.

Czym jest dźwięk?

Dźwięk to coś, co słyszymy – najprościej mówiąc. Ale żebyśmy mogli cokolwiek usłyszeć, musi zadziałać kilka rzeczy. Po pierwsze – dźwięk nie będzie rozchodził się w próżni. Jest falą mechaniczną, czyli związaną z poruszaniem się materii, a żeby taka mogła się się przemieszczać, coś musi falować. Dlatego, w przeciwieństwie do tego, jak to przedstawia wiele filmów science fiction, w kosmosie nie usłyszymy wybuchu.

Kiedy jakiś przedmiot drga, wprawia w ruch powietrze, a powietrze poruszone w jednym miejscu, popycha to, które jest kawałek dalej. W ten sposób powstaje fala kolejnych zagęszczeń i rozrzedzeń powietrza. Cząsteczki w niektórych miejscach są ściśnięte bardziej, a w innych mniej, dokładnie jak na tej animacji.

Taka fala rozchodzi się w powietrzu, w typowych warunkach z szybkością 340 m/s, czyli aż 1224 km/h.

To szybko, ale duuuużo dużo dużo wolniej od światła. Mniej więcej 880 tysięcy razy wolniej. I dzięki temu nasz mózg jest w stanie zauważyć, że do jednego ucha dźwięk dociera czasem szybciej niż do drugiego.

Co robi ucho?

Żeby wyjaśnić, w jaki sposób działa słyszenie kierunkowe, napiszę krótko w jaki w ogóle sposób działa nasz słuch.

Kiedy dźwięk dociera do ucha, najpierw spotyka małżowinę, czyli takie dziwnie pofalowane coś ze skóry i chrząstek, potem musi zmieścić się w kanale słuchowym, czyli po prostu w tej mniejszej “rurce”, która prowadzi w głąb głowy. Nie dochodzi on (na szczęście) jednak do samego środka mózgu, ale zakończony jest błoną bębenkową, która ma rolę podobną jak membrana mikrofonu.

Błona bębenkowa, poruszona przez drgania powietrza, wprawia w ruch jedne z najmniejszych kości w naszym organizmie, czyli młoteczek, kowadełko i strzemiączko. Te trzy kości razem ważą zaledwie ok. 60 mg! Są mechaniczną przekładnią, która odpowiada za to, by jak najskuteczniej przekazać drgania błony bębenkowej do kolejnej części ucha, czyli ślimaka.

Ślimak, mieszkający w naszym uchu, rzeczywiście jest mocno z wyglądu podobny do typowego ślimaka, którego możemy spotkać gdzieś w trawie albo na francuskim stole.

Źródło: wikipedia.org: Anatomy_of_the_Human_Ear.svg: Chittka L, Brockmannderivative : M•Komorniczak -talk-Anatomy_of_the_Human_Ear.svg, CC BY 2.5, Link

I w tym ślimaku dzieje się kluczowy dla naszego słyszenia proces – drgania mechaniczne są zamieniane na impulsy nerwowe. Dla zmysłu wzroku analogicznym elementem jest siatkówka. Impulsy nerwowe ze ślimaka są potem przekazywane do mózgu, ale o tym nie będę się tu rozpisywał.

Do meritum, czyli po co nam dwoje uszu?

W 1917 r. takie urządzenia wykorzystywano, żeby poprawić zdolność lokalizacji słuchu i umożliwić dokładne określenie kierunku, z jakiego nadlatują samoloty. Tutaj więcej na ten temat.

No dobra. Mamy ucho. Ucho słyszy. A skoro jedno ucho słyszy, to po co nam jeszcze drugie? Mogłoby być przecież jedno wielkie ucho na czubku głowy. Albo na czole.

No to dlaczego mamy ich dwoje? Jeśli jedno nam się zepsuje, zachoruje albo pobawimy się w van Gogha, to zawsze będzie jeszcze zapasowe. Ale to nie jedyny powód. Z uszami działa to podobnie jak z oczami. Mamy dwoje oczu, żeby widzieć nie tylko dwa, ale trzy wymiary. A dwoje uszu mamy po to, żeby słyszeć nie tylko głośność i wysokość dźwięku, ale też wiedzieć, z jakiego kierunku ten dźwięk dobiega. A jak to się dzieje?

Zmysł słuchu, żeby określić kierunek, z którego dochodzi dźwięk, używa dwóch mechanizmów. Po pierwsze – różnicy w głośności między lewym a prawym uchem. To dość intuicyjne, prawda? Jeśli ktoś krzyknie z naszej prawej strony, głośniej usłyszymy to w prawym niż w lewym uchu. Ale w takim przypadku dźwięk w jednym i w drugim uchu będzie różnił się czymś jeszcze… I na to troszkę trudniej wpaść.

Załóżmy, że ktoś gra na gitarze gdzieś z naszej lewej strony. Dźwięk sobie z tej gitary leci, leci i dociera najpierw do lewego ucha. I jeszcze trochę mu od tej chwili zostało, żeby dotrzeć do prawego. Będzie tam więc ułamek ułamka sekundy później. Świadomie nie jesteśmy w stanie zarejestrować tak krótkiej chwili. Zmysł słuchu robi to jednak na nieświadomym poziomie i tej różnicy czasu używa – oprócz różnicy głośności między lewym a prawym uchem – do określenia kierunku, z którego dochodzi dźwięk.

Jeśli chcemy być precyzyjni, to nasz mózg zauważa nie tyle różnicę w czasie dotarcia dźwięku do jednego i drugiego ucha, ale tak zwaną różnicę fazy. Jeśli za przykład weźmiemy jakiś najprostszy dźwięk, który możemy przedstawić jako sinusoidę (roboczo nazwijmy ją „taką falką”), to w danej chwili falka w lewym uchu będzie “w innym miejscu” niż w prawym. Ponieważ taka falka przy odpowiednim przesunięciu może wyglądać identycznie jak i bez niego (to trochę, jakby obrócić się o 360 stopni) to czasem sprawa się komplikuje. Ale tutaj chcę jednak wyjaśnić samą istotę mechanizmu.

Faza to (tu nie będziemy precyzyjni) jakieś konkretne, powtarzające się “miejsce” w takiej fali. Na przykład takie jak to w takiej sinusoidzie.

Mimo tego, że mózg używa dwóch rodzajów informacji, żeby rozróżnić kierunki, z których dobiega do nas dźwięk, na świadomym poziomie nie wiemy, czy w danej sytuacji opiera się on w większym stopniu na różnicy głośności czy czasu.

Trochę tak jakby, np. kiedy ktoś woła nasze imię, siedziała w głowie pani z otwartym kalkulatorem i sobie wyliczała: – W prawym uchu było go słychać o dwa decybele głośniej niż w lewym, więc wychodziłoby na to, że jest gdzieś na godzinie pierwszej. Ale do prawego ucha dźwięk dotarł nie tylko głośniejszy, ale był w nim wcześniej o 0,2 milisekundy. No to po wzięciu obu rzeczy pod uwagę, wychodzi mi, że to będzie gdzieś na godzinie trzeciej. Łomatko, znowu będzie trzęsło, bo będzie głowę obracał.

Jak się do siebie mają różnice głośności i czasu?

Badaczom przyszło do głowy, że skoro nasz mózg bierze pod uwagę i różnice głośności i czasu dotarcia dźwięku, to może warto sprawdzić, czy da się te rzeczy zrównoważyć. I spróbowali czegoś, co w naturalnym środowisku nie występuje, czyli przez słuchawki odtwarzali badanym dźwięk, który wcześniej docierał do lewego ucha (wydawał się dobiegać z lewej strony), ale w prawej słuchawce ten dźwięk odtwarzano nieco głośniej. I okazało się, że odpowiednia różnica głośności jest w stanie zrównoważyć różnicę czasu i dźwięk słyszany był tak, jakby jego źródło znajdowało się naprzeciwko nas.

O ile udało się uzyskać przy konkretnych dźwiękach taki efekt, czyli różnicę czasu zniwelować różnicą głośności, nie uzyskano żadnego konkretnego przelicznika. Jedne badania wykazywały, że aby zrównoważyć różnicę głośności 1 dB, wystarczy aby dźwięk dotarł do drugiego ucha 1,7 µs wcześniej, w innych badaniach wyniki dochodziły aż do 150 µs na 1 decybel. Sytuacja wyglądała też różnie w zależności od rodzaju dźwięku i jego głośności.

Okazało się też, że słuchacze, których słuch został odpowiednio wytrenowany, czyli badanie powtarzali dostatecznie wiele razy, byli w stanie słyszeć dwa niezależne “obrazy” dźwiękowe, czyli w zależności od tego, na czym się skupili, jakieś konkretne źródło dźwięku postrzegali albo w jednym miejscu, w oparciu o różnicę czasu albo w innym, kiedy korzystali z różnicy głośności.

Babciu, a dlaczego masz takie pofałdowane ucho?

No bo w sumie czemu ucho nie jest jakąś płaską taflą, która pomaga nam po prostu lepiej słyszeć? Po co te dziwne zawijasy?

Henry Vandyke Carter and one more author – Henry Gray (1918) Anatomy of the Human Body Gray’s AnatomyPlate 904

Otóż dla dźwięków o wyższych częstotliwościach, dla których długość fali jest porównywalna z tymi wszystkimi usznymi fałdami (jeśli fala ma długość znacznie większą niż przedmiot, który spotyka, to ten zwyczajnie nie robi na niej wrażenia), te odbicia i rezonanse, które powstają w samej małżowinie mają bardzo duży wpływ na słyszenie kierunków.

Kiedy mierzono czasy echa powstającego przy odbiciach dźwięku od małżowiny (użyto do tego modelu małżowiny w skali 5:1, wyobrażacie sobie, jak to musiało wyglądać?), okazało się, że w zależności od tego, pod jakim kątem dźwięk padał na wielkie ucho, powodowało to powstawanie echa o opóźnieniach rzędu kilku do nawet kilkuset mikrosekund [1]. Potem okazało się, że jeśli dźwięki zostaną nagrane mikrofonem umieszczonym w modelu małżowiny, a później odtworzone ludziom przez słuchawki, będą oni mogli dość dobrze zlokalizować źródło dźwięku.

A jak słyszymy, czy coś jest blisko czy daleko?

Zastanawialiście się kiedyś, na jakiej podstawie na sam słuch możemy określić, czy dźwięk dobiega z bliska czy z daleka? Bo przecież czasem, nawet jeśli nie widzimy, co jakiś hałas z siebie wydaje, to mniej więcej wiemy, czy jest zaraz za naszym ramieniem, czy raczej gdzieś za siedmioma lasami. Czym w takim razie dźwięk z daleka różni się najbardziej od dźwięku z bliska? Z reguły głośnością, brzmieniem i pogłosem.

Sytuacja trochę różni się w zależności od skali. Inaczej więc będziemy określać odległość dźwięków, które słyszymy w pomieszczeniach, a inaczej na zewnątrz.

Jeśli jesteśmy w otwartej przestrzeni i słyszymy dźwięk, który znamy (np. odkurzacz albo szczekający pies), nasz słuch będzie opierał się głównie na głośności (im dalej pies, tym ciszej będziemy go słyszeć) i na tym, że powietrze tłumi mocniej wysokie częstotliwości niż niskie. Dobrze słychać to na przykładzie grzmotu: ten bliski jest dźwiękiem dosyć ostrym, natomiast ten kilka kilometrów od nas słyszymy raczej jako niski i stłumiony.

A jak sytuacja wygląda w zamkniętych pomieszczeniach? Wyobraźmy sobie pokój, taki zwykły o czterech ścianach. Stoimy sobie na środku, a w kącie gra sobie z głośnika muzyka. Skąd dźwięk dociera do naszych uszu? “Z głośnika” – odpowiecie. Ale nie tylko, bo oprócz tego słyszymy też dźwięk, który po drodze odbije się od ścian i dopiero wtedy do nas dotrze. Można więc wyróżnić w takiej sytuacji dwa rodzaje dźwięku: bezpośredni i odbity.

W pomieszczeniu proporcja pogłosu docierającego do naszych uszu w stosunku do dźwięku bezpośredniego, bardzo zmienia się z odległością. Pogłos to oczywiście nie tylko dźwięk raz odbity od ściany, ale głównie to, co pomiędzy ścianami odbija się wielokrotnie.

A teraz weźmy ten głośnik z kąta i postawmy 10 cm od ucha. Dźwięku odbitego będzie do nas docierać dalej mniej więcej tyle samo, ale ten bezpośredni będzie znacznie głośniejszy.

Im bliżej źródło dźwięku, tym więcej dźwięku, który słyszymy bezpośrednio z jego źródła w stosunku do tego, który dociera po odbiciu od innych przedmiotów (pogłosu). I w pomieszczeniach to głównie na tej podstawie naszym słuchem  “wyczuwamy”, czy coś jest blisko czy daleko.

W dodatku, jeśli źródło dźwięku jest bardzo blisko głowy, pojawi się duża różnica w głośności między lewym a prawym uchem (trochę tak jakby działała tylko jedna słuchawka) i w przypadku takich dźwięków ta informacja też zostanie wykorzystana przez nasz mózg, żeby stwierdzić, że ten bzyczący komar jest tak blisko, że zaraz ugryzie nas w policzek (potem próbujemy go zabić, plask, ale wiadomo – nie trafiamy w komara, za to walnęliśmy się w twarz).


*** Uwaga, uwaga, ciekawostka ***

Pogłos i odczucie odległości od źródła dźwięku jest bardzo istotne podczas oglądania filmów. W postprodukcji trzeba wykonać sporo pracy, żeby to, co widzimy było spójne z tym, co dociera do naszych uszu. Dźwięk rozmów aktorów nagrywany z bliska musi współgrać z tym, że kamera na scenę patrzy z pewnej odległości. W sytuacji, kiedy pogłos jest zbyt mały w stosunku do tego, co widzimy, mowa jest mniej zrozumiała. Mimo że bez obrazu byłoby odwrotnie. [1]

*** koniec ciekawostki ***


A teraz wyjaśniam tajemnicę nagrań z pierwszego akapitu.

Dżwięki, których wysłuchaliście na początku to nagrania wykonane techniką binauralną, czyli mikrofonami, które umieszcza się w uszach. Takie mikrofony na pierwszy rzut oka nie różnią się od dousznych suchawek.

Zestaw mikrofonów binauralnych firmy Soundman

Cała idea opiera się na tym, że dla każdego ucha „łapiemy dźwięk” w miejscu, gdzie ma on już nałożony wpływ wszystkich elementów, o których mówiliśmy, czyli różnicy czasu, tego, jak tłumi głowa i tego, jaki wpływ na dźwięk w zależności od jego kierunku ma małżowina uszna i odbicia od części ciała.

Potem dźwięk odtwarzamy w dokładnie tym miejscu, gdzie go złapaliśmy, czyli wprost do ucha. Taka technika pozwala wiernie odwzorować przestrzenny obraz dźwięku tylko przy odtwarzaniu przez słuchawki.

Słyszenie przestrzenne to temat łączący ze sobą akustykę, psychologię i neurobiologię. To niesamowicie skomplikowany proces, który tutaj poznaliśmy w bardzo dużym uproszczeniu i uogólnieniu. Jeśli chcecie zanurzyć się głębiej w tę wiedzę, polecam książki, o których wspominam o tutaj ⬇️

Bibliografia:

[1] Kleczkowski Piotr (2013) Percepcja dźwięku, Wydawnictwa AGH, Kraków

[2] Brian C.J. Moore (1999) Wprowadzenie do psychologii słyszenia, Wydawnictwo Naukowe PWN, Warszawa-Poznań

Nagrania „Suszarka” i „Supermarket” udostępnione przez Mateusza Romanowskiego

Obrazek w nagłówku: Icons8_team z Pixabay

Skomentuj