Wybieramy aparat słuchowy. Cz. 1 – Prolog, czyli aparat słuchowy to cud techniki

Napisanie artykułu dotyczącego właściwego wyboru aparatu słuchowego to nie lada wyzwanie. Jest to bowiem temat niezwykle obszerny.  Na proces wyboru składa się mnóstwo czynników , tak obiektywnych jak i subiektywnych, a także mnogość indywidualnych sytuacji życiowych.

Autor, chcąc przybliżyć to zagadnienie zwykłemu “Kowalskiemu” co chwilę przystaje i zastanawia się, czy dany aspekt drążyć do dna, przedstawiając wszelkie możliwe niuanse i odcienie szarości, czy też raczej rzucić na niego jedynie snop światła, tak aby zaistniało w świadomości czytelnika i ewentualnie rozwinąć je obszerniej w odrębnym artykule.

aparat słuchowy to cud techniki

Podjąłem zatem tutaj trud wypośrodkowania powyższych racji tak, aby całość nie zamieniła się w dysertację naukową, a była popularyzatorskim ujęciem tematu.

Poniższym tekstem inauguruję niniejszym cykl 6 artykułów pod nadrzędnym tytułem “Wybieramy aparat słuchowy”. Artykuły te będą zarysem lub – bardziej literacko – podróżą pociągiem przez krainę aparatów słuchowych. I jak to w podróży, większość rzeczy szybko mignie nam przed oczami, a tylko raz na jakiś czas zatrzymamy się dłużej na jakiejś stacji.

Ten cykl będzie składał się z następujących części.

Wybieramy aparat słuchowy, cz. 1Prolog czyli aparat słuchowy to cud techniki.
Wybieramy aparat słuchowy, cz. 2 – Najpierw wybierz swojego protetyka
Wybieramy aparat słuchowy, cz. 3 – Rodzaje aparatów słuchowych (budowa i wygląd)
Wybieramy aparat słuchowy, cz. 4 – Klasy aparatów słuchowych (możliwości techniczne)
Wybieramy aparat słuchowy, cz. 5 – Epilog. Informacje Uzupełniające
Wybieramy aparat słuchowy, cz. 6 – Sequel czyli systemy FM.

Najpierw garść uwag i zastrzeżeń

Uwaga 1

Jak zawsze, uczulam na fakt iż często używam pewnych terminów w ich potocznym znaczeniu, które może być inne od terminologii fachowej. Informacje tu zawarte mają charakter pojęciowy i nie stanowią porady medycznej. Znajduje się tu wiele uproszczeń i uogólnień tak żeby treść była możliwa do przyswojenia dla osób nie mających wiedzy specjalistycznej.

Dołożyłem wszelkich starań, aby niniejszy artykuł był wolny od błędów i nieścisłości, jednak może się zdarzyć że zawiera on pomyłki. Czytelnik musi zatem sam zdecydować czy zawarte tu informacje mają zastosowanie w jego sytuacji. Opierając się na zawartych tu informacjach podczas podejmowania decyzji, robisz to na własną odpowiedzialność. (patrz regulamin).

Nie poruszyłem tu wszystkich aspektów zagadnienia w związku z czym ostatecznej oceny w indywidualnych przypadkach powinien dokonać lekarz specjalista – otolaryngolog lub audiolog lub dyplomowany protetyk słuchu.

Uwaga 2 – Drogę do zakupu musisz przejść sam.

Zdecydowałem się przyjąć generalną zasadę, iż w komentarzach i mailach nie będę analizował indywidualnych przypadków i udzielał konkretnych porad (np. co do modelu itd). Jako nadrzędną zasadę przyjmuję, iż nie ma ogólnych odpowiedzi (szczególnie na podstawie szczątkowych informacji) i tylko systematyczna współpraca z lekarzem i z protetykiem może zaowocować wyborem odpowiedniego aparatu słuchowego. Tej właśnie idei poświęcam niniejszy cykl.

I jakkolwiek znajdziesz tu informacje nt. diagnostyki oraz działania aparatów słuchowych, to moim zamysłem jest raczej naszkicowanie mapy. Możesz tej mapy użyć, aby lepiej się orientować w temacie, jednak do celu musisz dojść sam.

Odpowiadanie na konkretne pytania co do modelu itd. stałoby w sprzeczności z tym do czego będę przekonywał, tj. tylko dogłębna analiza / metoda prób i błędów / rozmowa i współpraca z lekarzem i protetykiem oraz wgląd w wyniki różnych badań, mogą dać odpowiedzi na pytanie czego tak naprawdę potrzebujesz.

Uwaga 3 – Artykuł raczej nie dotyczy dzieci (dopasowań aparatów dzieciom)

Prezentowane przeze mnie informacje zasadniczo NIE DOTYCZĄ DOPASOWANIA APARATÓW SŁUCHOWYCH DZIECIOM. Są to raczej informacje dla początkujących i świadomych dorosłych czyli ludzi, którzy zaczynają dostrzegać u siebie problemy z niedosłuchem i szukają informacji od czego by tu zacząć.

Dopasowanie aparatów słuchowych dzieciom to bardzo ważny i delikatny proces wymagający ogromnego profesjonalizmu i doświadczenia.

W przeciwieństwie do mózgów dorosłych, mózgi dzieci nie zapoznały się jeszcze ze światem dźwięków i nie miały szansy się rozwinąć. W przypadku dzieci zatem nie mówimy o przywróceniu słyszenia, lecz o zainicjowaniu słyszenia. Musi się to odbyć w taki sposób, aby mózg dziecka rozwijał się prawidłowo (m.in aby dziecko nauczyło się prawidłowo mówić).

Wymaga to odrębnego podejścia, choć oczywiście rodzice dzieci niedosłyszących – czytając niniejsze artykuły – mogą w jakiejś mierze oswoić się z tematyką niedosłuchu i aparatów słuchowych.

Uwaga 4

Może się zdarzyć, że chwilami nie będziesz wiedział do czego ja właściwie zmierzam. Zachęcam, abyś w takich sytuacjach czytał dalej. Zazwyczaj na koniec wszystko się spina w logiczną całość – opinia osób które były “testowymi” czytelnikami :).

Aparat słuchowy to cud techniki i basta

Mogłoby się wydawać, że aparaty słuchowe nie są “bohaterami” ani zbyt wdzięcznymi ani zbyt porywającymi, lecz kto wyruszy ze mną we wspomnianą podróż po ich krainie, przekona się że jest zupełnie inaczej. To niepozorni tytani, małe cuda techniki, prawdziwe centra dowodzenia upakowane w nieprawdopodobnie małej obudowie.

 Nie twierdzę oczywiście, że wszystkie aparaty wszystkich producentów są jednakowo zaawansowane i bogate w funkcje.  Absolutnie! Pomiędzy różnymi modelami aparatów występują kolosalne wręcz różnice. Na opisywanie tych różnic przyjdzie jednak jeszcze czas. Póki co staram się jedynie zwrócić Waszą uwagę na to, jak ciekawym i skomplikowanym urządzeniem jest, nawet całkiem przeciętny, aparat słuchowy i jak wielką pracę musi wykonywać w każdej sekundzie swojego działania.

Choć zajmuję się tym tematem od lat, nieustannie zdarza mi się przystanąć w zdumieniu podziwiając po pierwsze to, jak niesamowitym zmysłem jest słuch, a po drugie ludzką myśl techniczną i rozum, który temu zmysłowi się przygląda i – wykazując niezwykłą wręcz inwencję – stara się go naśladować materializując się w postaci aparatu. A jak się przekonacie jest to zadanie arcytrudne. Zapraszam do czytania!

Jakim wyzwaniom muszą sprostać aparaty słuchowe.

Omówię poniżej trzy wybrane wyzwania z jakimi muszą mierzyć się aparaty słuchowe. Te trzy wyzwania nie wyczerpują w żadnej mierze tematu jednak są dobrym punktem wyjścia do tego aby wyobrazić sobie jak wydajne i sprawne są to urządzenia. Aparat słuchowy to nie jest gadżecik mający sprawić że “będzie głośniej”. To coś znacznie bardziej skomplikowanego. Zaznaczam że moim celem nie jest dokładne opisanie konkretnych funkcji. Na początek chcę tylko uzmysłowić Wam z czym aparaty słuchowe muszą się mierzyć.

Wyzwań jest oczywiście znacznie więcej niż 3 ale myślę że na początek wystarczy.

Wyzwanie 1 – Nie wystarczy “zrobić głośniej”

Pierwsze co może nam, przyjść do głowy to “A co w tym takiego wielkiego? Skoro możemy podgłośnić fonię w telewizorze to, na takiej samej zasadzie, wzmocnijmy po prostu dźwięk poprzez układ mikrofon – wzmacniacz – głośniczek i po sprawie.”

I zapewne wiele osób tak właśnie wyobraża sobie działanie aparatu słuchowego. Zatrzymajmy się zatem na chwilę i rozważmy, czy faktycznie jest to takie proste.

Aparat słuchowy jest przeznaczony dla niedosłyszących

Po pierwsze musimy pamiętać, że aparaty słuchowe są projektowane z myślą o osobie z ubytkiem słuchu w celu zrekompensowania tegoż ubytku. Nie są projektowane dla osób z prawidłowym słuchem. Dlaczego jest to ważne rozróżnienie? Aby to zrozumieć musimy tu wprowadzić pojęcie “dynamiki słuchu”.

Dynamika słuchu to zakres od progu słyszalności do progu dyskomfortu. Prawidłowy słuch ma przeogromną dynamikę. Między innymi dlatego słuch “opisuje się” w skali logarytmicznej, lub inaczej: decybele są wynikiem logarytmowania.

Gdybyśmy operowali na wartościach podstawowych czyli np. na ciśnieniu akustycznym, mierzonym w Pascalach, musielibyśmy używać gigantycznych liczb – tak bardzo różni się ciśnienie akustyczne wytwarzane przez dźwięki ciche, od tego wytwarzanego przez dźwięki głośne. Dość powiedzieć, że ciśnienie akustyczne wytwarzane przez dźwięki głośne jest milion (lub więcej) razy większe niż ciśnienie akustyczne wytwarzanego przez dźwięki bardzo ciche.

Skala logarytmiczna (czyli decybele) nam to – matematycznie – “ściska” w taki sposób że możemy poruszać się w dość łatwo wyobrażalnych granicach czyli od 0 do 120 dB, bo tyle właśnie wynosi dynamika prawidłowego słuchu ( wg. Innych źródeł 130 dB). Nieco więcej o tym napisałem tutaj.

Uwaga – dB HL a dB SPL.

Dosyć długo nad tym deliberowałem, ale ostatecznie zdecydowałem się świadomie zrezygnować z rozróżniania pomiędzy tymi dwoma rodzajami decybeli.

Część sytuacji opisuje się przy pomocy dB HL (np wartości na audiogramie) zaś inne przy pomocy dB SPL. Uznałem (być może mylnie i jeśli tak to w przyszłości ten artykuł przeredaguję), że dla osób nie siedzących w temacie, jest już wystarczająco trudne poukładanie sobie tego wszystkiego w głowie. W związku z tym, zamiast kurczowo trzymać się właściwych jednostek prościej będzie wszędzie używać gołych dB jako pewnego kwantyfikatora głośności.

Wydaje mi się, że dzięki temu łatwiej będzie ułożyć sobie poniższe koncepcje w głowie. Po dogłębnym wgryzieniu się w temat, te sprawy stają się oczywiste ale nie piszę dla specjalistów tylko dla przeciętnego człowieka.

Przykładowo, podczas dodawania lub odejmowania decybeli nie ma sensu rozróżnianie pomiędzy dB HL a dB SPL. W takich wypadkach używa się po prostu “gołych” dB. Jednak mogłoby to sprawić że zaczęlibyście się zastanawiać “Dlaczego tam były dB HL a tu już nie?”.

Uznałem, że jeśli z tego zrezygnuję, to ogólne idee będą nadal do uchwycenia, a unikniemy zamętu jednostkowego. Nieco więcej o db HL SPL możesz przeczytać tutaj

Za tymi decybelami – podkreślam ponownie – kryje się jednak ogromna rozpiętość ciśnień akustycznych (a co za tym idzie stopni głośności).

To że układ słucchowy jest w stanie przetwarzać tak ogromną rozpiętość ciśnień akustycznych (czyli głośności) świadczy o tym, że jest fenomenalnie wręcz pojemny i wydajny. Efekt końcowy jest taki, że osoba ze zdrowym słuchem jest w stanie usłyszeć zarówno dźwięk tak cichy, jak delikatny szelest liści (przy którym błona bębenkowa drga niewiele więcej niż wynosi średnica atomu wodoru), a jednocześnie wytrzymywać dźwięki tak głośne jak młot pneumatyczny (oczywiście długotrwałe przebywanie w takim hałasie jest bardzo szkodliwe i może słuch uszkodzić, jednak jednorazowe przejście ulicą, gdzie akurat trwają roboty drogowe, powinno być dla układu słuchowego “do wytrzymania”)

Zatem powtórzmy – dynamika prawidłowego słuchu zawiera się pomiędzy 0 a 120 dB czyli wynosi 120 dB. Na audiogramie, mogłaby wyglądać np. tak:

Dynamika prawidłowego słuchu
rys.1 Dynamika prawidłowego słuchu

Dynamika słuchu osoby niedosłyszącej.

Dla ułatwienia naszych rozważań przyjmijmy na razie, że mamy do czynienia z niedosłuchem (a właściwie z audiogramem) płaskim. Płaskim czyli takim, w którym ubytek słuchu dla wszystkich częstotliwości jest mniej-więcej taki sam: słuch pogorszył się dla każdej częstotliwości o mniej-więcej tę samą wartość np. 50 dB.

Jest to sytuacja dosyć rzadka i ten przykład jest nieco sztucznym tworem, potrzebnym mi na tym etapie po to, żeby na razie skupić się na samej głośności bez podziału na częstotliwości.

Najczęściej słuch pogarsza się bardziej dla wysokich częstotliwości niż dla niskich. Przejdę do tego nieco dalej ale póki co przeanalizujmy taki uproszczony, modelowy przypadek.

Niedosłuch odbiorczy a próg dyskomfortu oraz Objaw Wyrównania Głośności

Na początek bardzo ważna rzecz. Niedosłuchy typu odbiorczego (czuciowo nerwowego) charakteryzują się tym, że pogarsza się jedynie próg słyszalności natomiast próg dyskomfortu (UCL) pozostaje bez zmian a nawet obniża się!

Dygresja: obniżanie czy podwyższanie?

W przypadku audiogramu używanie sformułowania “obniża się” jest sprzeczne z intuicją. Bo choć “obniżenie” informuje nas, że wartości stają się mniejsze (czyli obniżają się np. ze 100 dB do 90 dB), to na audiogramie takie obniżenie skutkuje tym, że de facto krzywa podnosi się do góry (bo wartości decybelowe zmniejszają się ku górze).

Stąd jest spore pole do nieporozumień – czy gdy ktoś mówi że “próg słyszalności obniżył się”, ma na myśli to, że teraz ten próg jest lepszy (bo obniżyła się wartość w dB) czy ma na myśli że się pogorszył (bo obniżyła się krzywa progowa).

Ustalmy zatem:
Kiedy piszę “podwyższenie” – mam na myśli zwiększenie nominalnej wartości w dB.
Np. 40 dB w porównaniu do 10 dB jest “podwyższone” o 30 dB. Idąc tym tropem “podwyższony” próg słyszalności będzie (w domyśle) oznaczał wyższy od normowego.

Analogicznie, kiedy piszę “obniżenie” – mam na myśli zmniejszenie nominalnej wartości w dB. Stąd, gdy napisałem “próg UCL obniża się” oznaczało to, że jego wartość jest mniejsza, mimo iż de facto krzywa UCL na audiogramie powędrowała do góry.

Pełno tych zawiłości, koniec dygresji!

Takie obniżenie progu dyskomfortu (UCL), może być skutkiem tzw. Objawu Wyrównania Głośności (OWG+ zaś po angielsku recruitment). O samym tym zjawisku można by napisać książkę, więc po prostu przyjmijmy na tę chwilę, że jest ono często występujące przy niedosłuchach odbiorczych (które stanowią zdecydowaną większość wszystkich niedosłuchów) i związane jest z uszkodzeniem komórek słuchowych ślimaka. Swoisty zatem paradoks tego zjawiska sprowadza się do tego, że dźwięki, które osoby prawidłowo słyszące jeszcze tolerują, są już zbyt głośne dla osoby niedosłyszącej.

W naszym przykładzie, u osoby z płaskim ubytkiem odbiorczym wszystkie dźwięki o wartości np. 100 dB będą już za głośne! (w przeciwieństwie do osób z prawidłowym słuchem, które jak wspomniałem, tolerują nawet 120 dB)

Audiogram takiej osoby (audiogram płaski) wyglądałby zatem np tak.

Dynamika słuchu osoby niedosłyszącej
rys.2 Dynamika słuchu osoby niedosłyszącej

Dynamika słuchu wynosi, w tym przykładowym przypadku, z grubsza 50 dB (plus minus 5 dB) dla wszystkich częstotliwości. Zastanówmy się, jakie rodzi to wyzwanie jeśli chodzi o to, jak aparat słuchowy powinien takiej osobie wzmacniać dźwięk.

Zmniejszona dynamika słuchu a wzmacnianie dźwięku

Cały ambaras w tym, aby osoba niedosłysząca odbierała świat dźwięków realistycznie. Czyli dźwięki ciche mają brzmieć jak ciche, średnio głośne jak średnio głośne, zaś głośne jak głośne. Albo inaczej: dźwięki ciche mają być słyszalne, dźwięki średnio głośne mają brzmieć komfortowo, a głośne nie powodować dyskomfortu.

Konkludując, musimy ogromną rozpiętość otaczających nas stopni głośności (jakie osoba z prawidłowym słuchem jest w stanie percypować dzięki dużej dynamice słyszenia), “upakować” w zawężoną dynamikę słyszenia osoby niedosłyszącej. Mówiąc obrazowo, musimy jakoś “upchać” 120 dB w 50 dB

Skompresowana dynamika słyszenia
rys.3 Skompresowana dynamika słyszenia

Wróćmy tutaj zatem do mylnego przekonania z początku artykułu, że wystarczy “zrobić głośniej” (tak jak w telewizorze). Czyżby miało to oznaczać, że do każdego dźwięku dodamy taką samą “porcję” decybeli? Przeanalizujmy krok po kroku, co by się stało gdybyśmy tak postąpili.

Gdybyśmy po prostu “zrobili głośniej”…

Po pierwsze, za dźwięk cichy uznajmy taki, który osoba ze zdrowym słuchem słyszy powiedzmy na poziomie 20 dB (np. szept czyli mowa szeptana).

Gdybyśmy chcieli wdrożyć tę hipotetyczną strategię, że po prostu “robimy głośniej”, to przyjmijmy, że taki cichy szept wzmacniamy na tyle, aby użytkownik aparatu słyszał go również na poziomie 20 dB ponad swoim progiem słyszalności (który w naszym przykładzie wynosi 50 dB). Czyli musiałby ten dźwięk usłyszeć na poziomie 70 dB.

OK w porządku, ale co w przypadku dźwięków średnio głośnych np. takich o poziomie 40 dB (zwykła rozmowa). Gdyby zastosować dla nich takie samo wzmocnienie jak w przypadku cichych, czyli 50 dB, to otrzymamy: 40 dB + 50 dB = 90 dB.

Czyli nie dość, że nie odzwierciedlamy takiej osobie dźwięku jako średnio głośnego, to jeszcze praktycznie ocieramy się o próg dyskomfortu (który w naszym przykładzie wynosi 100 dB).

A jeśli pojawi się dźwięk jeszcze głośniejszy, np. 60-70 dB (odkurzacz, płacz dziecka, szczekanie psa) a my dodamy do tego 50 dB, to próg dyskomfortu już zdecydowanie przekroczymy (70 dB + 50 dB = 120 dB)!

Wniosek: Musimy zastosować większe wzmocnienie dla dźwięków cichych, mniejsze dla średnio głośnych i jeszcze mniejsze (lub wcale) dla głośnych. W naszym przykładzie moglibyśmy to zrealizować np. tak:

– Do dźwięków cichych dodajemy 50 dB
– Do dźwięków średnio głośnych dodajemy 30 dB
– Do dźwięków głośnych dodajemy 10 dB

Zatem…

WYZWANIE 1.a – aparat słuchowy musi ocenić, czy dobiegający do niego dźwięk jest cichy, średnio-głośny czy głośny i na tej podstawie zdecydować ile decybeli wzmocnienia do niego dodać? 50? 30? 10? A może 0?

I aparat to robi! A odbywa się to dzięki tzw. kompresji.

Kompresja to zdolność aparatu do zmniejszania wzmocnienia w miarę wzrostu głośności dźwięku wejściowego.

WYZWANIE 1.b:

Ale to nie wszystko. Choć omawiamy dopiero pierwsze wyzwanie, to już pojawiają się schody.
Wreszcie dochodzimy do tego, o czym pisałem wcześniej. Sytuacja, w której ubytek słuchu jest taki sam dla wszystkich częstotliwości jest niezmiernie rzadka (wprowadziłem ją tylko po to, żeby na początek skupić się na samej głośności bez mieszania w to częstotliwości).

Znacznie częściej niedosłuch powiększa się wraz ze wzrostem częstotliwości (wysokości). Innymi słowy próg słyszalności jest gorszy dla wysokich częstotliwości niż dla niskich.

W takim wypadku audiogram mógłby wyglądać np. Tak:

Niedosłuch wysokoczęstotliwościowy
rys.4 Niedosłuch wysokoczęstotliwościowy

Przeanalizujmy, jak bardzo komplikuje to nasze pierwsze wyzwanie (WYZWANIE 1.a). Aparat nie dość, że musi rozrożniać czy dźwięk jest głośny czy cichy, to jeszcze musi odróżniać, czy jest wysoki czy niski i w zależności od tego (znowu) zdecydować ile dodaje wzmocnienia. Innymi słowy musi nadal kompresować wzmocnienie ale jeszcze dodatkowo musi to robić uwzględniając różny niedosłuch dla różnych częstotliwości. W obszarze niskich częstotliwości niedosłuch jest mały a co za tym idzie występuje tu duża dynamika słyszenia więc kompresować trzeba niewiele. Jednak w obszarze wysokich niedosłuch jest duży czyli zmniejsza się dynamika i trzeba kompresować bardziej.

Przykładowo, jeśli dotrze do aparatu dźwięk cichy i niski (np 250 Hz) to aparat musi go wzmocnić np. jedynie o 10 dB (bo niedosłuch dla niskich dźwięków jest niewielki) ale jeżeli dobiega do niego dźwięk cichy i wysoki (np. 4000 Hz) to już musi wzmocnić dużo bardziej i dodać 55 dB bo niedosłuch dla wysokich dźwięków jest znaczny.

Gdyby aparat uwzględniał tylko głośność (WYZWANIE 1.a) – bez uwzględniania różnych niedosłuchów dla różnych częstotliwości – to albo do dźwięków niskich dodawałby za dużo wzmocnienia albo do wysokich dodawał go za mało. Stąd potrzeba dodatkowej “mądrości” aparatu która pozwoli mu podejść odrębnie do tych dwóch wariantów.

Słyszę ale nie rozumiem – czyli praktyczna strona WYZWANIA 1.a i 1.b

Mogłoby się wydawać, że powyższe rozważania są trochę oderwane od rzeczywistości. Ostatecznie coś tam opowiadam o głośnościach i częstotliwościach ale jakie to ma przełożenie na zwykłe życie?

OK zejdźmy zatem na ziemię i przeanalizujmy przypadek, w którym różnorodność głośności oraz częstotliwości jest bodaj najbardziej wyrazista, a który jednocześnie jest jednym z najważniejszych obszarów życia jaki aparat słuchowy ma za zadanie przywrócić czyli oczywiście…mowa!

Dynamika mowy (nie mylić z dynamiką słyszenia)

O tym zagadnieniu już nieco powiedziałem w artykule “Czy ja w ogóle potrzebuję aparatu słuchowego”. Mowa ludzka jest przebogatą mieszaniną dźwięków następujących blyskawicznie jedne po drugich. Poszczególne głoski (fonemy) różnią się pomiędzy sobą zarówno częstotliwością jak i głośnością (energią, natężeniem).

Głoski dźwięczne (np. wszystkie samogłoski czyli a, e, o itd) są głośniejsze niż bezdźwięczne. Gdy porównamy np. “p” i “a”, to od razu zauważymy że “a” jest głośniejsze.

A jeśli chodzi o skład częstotliwościowy to np. “a” i “s” różnią się zarówno głośnością jak i częstotliwością. “S” składa się praktycznie tylko z wysokich częstotliwości, natomiast “a” w większym stopniu składa się z niskich.

Przywołam tu przykładowe zdanie ze wspomnianego artykułu – „Liście szeleszczą na wietrze”. Osoba z niedosłuchem wysokoczestotliwościowym usłyszałaby to zdanie jako coś w rodzaju „li__e _ele_czą na wiet_e”. Oczywiscie nie usłyszałaby tego jako zdania z wyczuwalnymi “dziurami” ponieważ dzieje się to zbyt szybko.

Po prostu taki ktoś usłyszałaby to zdanie jako niewyraźną wypowiedź. Stąd często osoby wzbraniają się przed założeniem aparatu mówiąc np. “Ja słyszę ale nie rozumiem!” albo “po prostu ludzie niewyraźnie mamroczą”.

A żeby jeszcze to wszystko skomplikować to nawet w ramach jednej grupy fonemów występują pomiędzy nimi bardzo ulotne różnice pod względem składu częstotliwościowego. Przykładowo skład częstotliwości “cz” i “ć” jest bardzo podobny. I tylko niesłychanie subtelne niuanse w składzie częstotliwości pozwalają nam je odróżnić.

Anegdota

W tym momencie przypomina mi się anegdota usłyszana kiedyś w telewizji o tym, jak pewien Włoch żartował, że musi wyjechać z Polski, bo nie jest w stanie żyć w kraju w którym “Ja sze szesze” i “Ja sze szesze” to dwa różne zdania :-).

Chodziło mu oczywiście o “Ja się cieszę” i “Ja się czeszę” ale świadczy to o tym, że te różnice są tak subtelne, że nawet dobrze słyszące ale niewprawne (bo wytrenowane w innym języku) ucho nie jest w stanie ich usłyszeć.

Wyzwanie 1 – konkluzja końcowa

Jak widzisz wzmacnianie dźwięków tak aby prawidłowo odzwierciedlić krajobraz akustyczny osobie niedosłyszącej, nie jest wcale sprawą prostą. Aparat słuchowy musi, w czasie rzeczywistym, oceniać zarówno głośność jak i skład częstotliwościowy danego dźwięku i natychmiast podejmować decyzje co do tego jak ten dźwięk przetworzyć zgodnie z indywidualnym rodzajem niedosłuchu danej osoby.

Dzieje się to nieustannie i bardzo szybko. Procesor aparatu nie może sobie pozwolić na “myślenie” (tak jak często pozwalają sobie nasze laptopy czy tablety). On musi działać bez zakłóceń, błyskawicznie i non stop – ocenia, przetwarza, puszcza dalej. Biorąc pod uwagę to, że jesteśmy (nomen omen) po uszy zanurzeni w dźwiękach, jest to zadanie bardzo trudne i wymagające wielkich mocy obliczeniowych.

Zastrzeżenia do WYZWANIA 1:

Zdarzają się takie sytuacje, gdzie możemy “zrobić głośniej” czyli dodawać do wszystkich dźwięków takie samo wzmocnienie. Jest to tzw “wzmocnienie liniowe” i jest często stosowane w przypadku niedosłuchów przewodzeniowych. Najczęściej jednak mamy do czynienia z jakąś kompresją.

WYZWANIE 2 Skąd dźwięk dobiega i czy jest (pożądaną) mową?

W poprzednim wyzwaniu skupiliśmy się ogólnie na głośności i częstotliwości wrzucając wszystko do jednego worka. Czyli skoncentrowaliśmy się tylko na fizycznych parametrach dźwięków i zastanawialiśmy się jak je przetwarzać, aby mieściły się w dynamice słyszenia danej osoby.

Życie jednak jest znacznie bardziej skomplikowane. Nie wystarczy przecież określić czy dźwięk jest głośny, czy cichy, wysoki czy niski. Bardzo ważne jest określenie czy jest to dźwięk pożądany czy niepożądany!

No tak, łatwo powiedzieć. Osoby dobrze słyszące nie muszą się specjalnie nad takimi rzeczami zastanawiać. Niewiarygodna wręcz sprawność układu słuchowego (pod tym pojęciem mam na myśli również mózg) pozwala im radzić sobie w różnych sytuacjach.

Wyłuskiwanie mowy z hałasu

Przykładowo, kiedy osoba z prawidłowym słuchem stoi na przystanku autobusowym, w pobliżu ruchliwej ulicy i z kimś rozmawia, to nie ma większych problemów z “wyłuskaniem” rozmowy, mimo iż hałas uliczny jej to w jakimś stopniu utrudnia.

Dzieje się tak m.in dzięki dużej redundancji mowy (o redundancji pisałem więcej tutaj). Mowa jest tak bogata w informacje, że nawet jeśli część konwersacji jest zagłuszona przez przejeżdżające samochody, to nadal dociera do takiej osoby wystarczająco dużo, aby mózg na bieżąco te luki “łatał” i taki ktoś mógł normalnie rozmawiać.

Mowa na tle hałasu (współczynnik SNR)

Musimy tu wprowadzić kolejne fachowe pojęcie – współczynnik SNR.

SNR (ang. Signal to Noise Ratio, czyli stosunek sygnału użytecznego do hałasu) określa o ile sygnał użyteczny (w tym wypadku mowa) jest głośniejszy od otaczającego hałasu. Osoba dobrze słysząca, radzi sobie nawet gdy SNR jest słaby. Słaby czyli taki, w którym mowa NIE JEST dużo głośniejsza od hałasu. Albo – bardziej obrazowo – mowa nie odcina się wyraźnie na tle hałasu.

Inaczej to jednak wygląda w przypadku osoby niedosłyszącej. W takim wypadku, SNR musi być znacznie lepszy. Czyli mowa musi wyraźnie odcinać się na tle hałasu.

Nie rozwodząc się specjalnie nad tym i nie wchodząc za głęboko w argumentacje zapamiętajmy tyle: Osoba niedosłysząca ma ograniczone zasoby słuchowe. W sytuacji trudnej akustycznie (hałas na przystanku) nie dość, że nie słyszy wielu głosek (np. wysokoczęstotliwościowych: “s”, “sz” itd) z powodu swojego niedosłuchu, to jeszcze to, co mogłaby usłyszeć i co pomogłoby mózgowi te luki załatać (czyli wykorzystać redundancję mowy i zrozumieć swojego rozmówcę), jest teraz zagłuszane przez hałas. Dla mózgu robi się za trudno i osoba taka przestaje rozumieć mowę.

Nie wystarczy określić czy dźwięk jest głośny, czy cichy, wysoki czy niski. Bardzo ważne jest określenie czy jest to dźwięk pożądany czy niepożądany!

Aby poprawić jej słyszenie, musimy więc wykorzystywać każdą możliwość jaką dysponujemy. W tym wypadku, aby podtrzymać rozumienie mowy musimy zrezygnować ze wzmacniania dźwięków które nie są rozmową (samochody, roboty drogowe itd)

Mowa jest priorytetem (a przynajmniej tak zakładamy)

I znowu, łatwo powiedzieć! Ty jestes czlowiekiem i wiesz, że w danym wypadku chcesz słuchać rozmowy, a inne dźwięki ignorować ale aparat słuchowy to urządzenie techniczne. Bardzo zaawansowane ale jednak.

Aparat nie myśli. Do niego tylko docierają różne częstotliwości i głośności. Jak mu “wytłumaczyć”, że akurat część z tych częstotliwości układa się w mowę i to właśnie te częstotliwości są w tym momencie najważniejsze a pozostałe są niepotrzebne!?

Kierunkowość

Aby to przemyśleć, po raz kolejny wyjdźmy od tego, jakim cudem jest słyszenie. Osoba dobrze słysząca z naszego przykładu (rozmowa na przystanku autobusowym) zbędne dźwięki samochodów ignoruje “mentalnie” koncentrując się na rozmowie. Zauważmy, te dźwięki nie stają się przez to cichsze, po prostu mózg ich nie przetwarza świadomie – stają się tłem.

Osoba niedosłysząca (i korzystająca z aparatu) musi sobie jednak albo pomóc sama poprzez aktywowanie odpowiedniego programu (przełącznikiem na aparacie lub z przy pomocy smartfona / pilota), względnie – w nowocześniejszych rozwiązaniach – aparat musi taką decyzję podjąć sam. W obu tych przypadkach jednak, po aktywowaniu programu (manualnym czy automatycznym), aparat musi wiedzieć co ma robić z dźwiękami niepożądanymi czyli tymi które nie są mową. A konkretnie że ma ich nie wzmacniać.

Jedną z najskuteczniejszych metod w takiej sytuacji jest zmiana charakterystyki kierunkowej mikrofonów.

Charakterystyka kierunkowa.

Charakterystyka kierunkowa mówi o tym, z których kierunków dźwięki są przez aparat słuchowy przetwarzane (wzmacniane), a którym aparat mówi stop.

Musimy jednak nieustannie pamiętać, że aparat jest sumą różnych założeń, które odzwierciedlają najbardziej standardowe sytuacje w życiu. Codzienność jednakże przynosi scenariusze, które w te założenia się nie wpisują.

W tym przypadku założeniem może być np. to, że użytkownik aparatu stanie przodem do swojego rozmówcy, a co za tym idzie aparat powinien “przepuszczać” (czyli wzmacniać) dźwięki dobiegające z przodu zaś zatrzymywać (czyli nie wzmacniać) dźwięki dobiegające z tyłu i z boków. Czyli musi zmienić swoją charakterystykę z wszechkierunkowej na kierunkową-przednią lub – bardziej fachowo – na kardioidalną.

Poniższy rysunek przedstawia wybrane rodzaje charakterystyk kierunkowych.

Wybrane rodzaje charakterystyk kierunkowych mikrofonów
rys.5 Wybrane rodzaje charakterystyk kierunkowych mikrofonów

I znowu, o samym tym zagadnieniu można by napisać książkę więc po prostu na tę chwilę zapamiętajmy tyle: wybór odpowiedniej charakterystyki kierunkowej pomaga poprawić SNR i jest jedną z najskuteczniejszych metod poprawy zrozumiałości mowy w hałasie.

W jaki sposob realizowana jest w aparatach kierunkowość:

Choc pomiędzy producentami panuje istny “wyścig zbrojeń” w obszarze tego ile wycisnąć z dostępnych możliwości obliczeniowych, mój uproszczony podział tego jak realizowana jest kierunkowość sprowadza się do następujących rozwiązań:

1 kierunkowość 1 mikrofonowa
2 kierunkowość wielomikrofonowa manualna
3 kierunkowosc wielomikrofonowa adaptacyjna
4 ekosystem mikrofonów na dwóch aparatach

Nie jest to oficjalna nomenklatura (a przynajmniej nie w całości) a raczej moje własne nazwy roboczo-pomocnicze :-).

Omówimy je pokrótce ale najpierw dygresja psychoakustyczna..

Dygresja psychoakustyczna – skąd znamy kierunek z którego dobiega dźwięk czyli różnica czasowa

Inżynierowie projektujący aparaty słuchowe wykorzystali, w celu kształtowania charakterystyki kierunkowej mikrofonów, podobny mechanizm jaki wykorzystuje nasz mózg, w celu określenia kierunku z którego dobiega dźwięk.

Opiszmy sobie to zjawisko ponieważ będzie ono dobrą analogią do tego, jak działa kierunkowość w aparatach słuchowych.

Jak to się dzieje że wiesz skąd dobiega dźwięk?

Zastanówmy się nad pewnym, oczywistym dla nas faktem. Faktem, na który prawdopodobnie nie zwracasz na co dzień uwagi. Mam na myśli to, że osoba z prawidłowym słuchem jest w stanie określić kierunek, z którego dobiega dany dźwięk. Nawet z zamkniętymi oczami, nawet w kompletnych ciemnościach może stwierdzić czy dźwięk dobiegł ze strony prawej czy z lewej, z tyłu czy z przodu, z góry czy z dołu.

Czy zastanawiałeś się kiedyś, jak to się dzieje?

Na tę zdolność wpływa wiele subtelnych czynników, jednak my przyjrzymy się bliżej jednemu z najistotniejszych – różnicy czasowej.

Zerknijmy na poniższy rysunek

Wybrane rodzaje charakterystyk kierunkowych mikrofonów
rys.6 Różnica czasowa pozwala nam określić kierunek z którego dobiega dźwięk

Na rysunku 6 źródło dźwięku (np rozmówca) znajduje się po lewej stronie słuchacza.
W związku z tym, dźwięk ma trochę bliżej do lewego ucha niż do prawego, a co za tym idzie najpierw dotrze do ucha lewego a odrobinkę później do prawego.

Ta różnica w czasie pozwala mózgowi zorientowac sie, z której strony dobiega dźwięk. Są to różnice naprawdę minimalne, rzędu kilku milisekund, a jednak nasz mózg potrafi kalkulować to na bieżąco. Co więcej jest w stanie “wyczuć” różnicę w położeniu rzędu kilku stopni. Pomagają mu w tym i inne czynniki jak “ekranowanie” głowy (czyli zmiana składu częstotliwościowego dźwięku spowodowana tym, że aby dojść do tego dalszego ucha musi “okrążyć” głowę) jednak różnica czasowa gra tu dużą rolę.

Koniec dygresji wracamy do mikrofonów kierunkowych.

Jak realizowana jest kierunkowość w mikrofonach

Wymieniłem już sposoby realizowania kierunkowości w aparatach ale, dla ustalenia uwagi, powtórzmy:

1 kierunkowość 1 mikrofonowa
2 kierunkowość wielomikrofonowa manualna
3 kierunkowość wielomikrofonowa automatyczna (lub adaptacyjna)
4 ekosystem mikrofonów na dwóch aparatach

Wszystkie te rozwiązania wykorzystują również mechanizm różnicy czasowej. Przyjrzyjmy się im pokrótce:

Kierunkowość jednomikrofonowa

W tej metodzie wykorzystywany jest jeden mikrofon z dwoma – oddalonymi od siebie – wejściami. Dźwięk dobiega do jednego z tych wejść szybciej niż do drugiego – czyli występuje tu różnica czasowa. Na tej podstawie aparat słuchowy “wie” skąd dobiega dźwięk i odpowiednio kształtuje charakterystykę kierunkową. Jest to rozwiązanie już obecnie przestarzałe. Nie będę się nawet tutaj nad tym specjalnie rozwodził. Poprzestanę tylko na stwierdzeniu, że kierunkowość uzyskiwana przy pomocy jednego mikrofonu (z dwoma wejściami) jest rozwiązaniem znacznie słabszym niż kierunkowość uzyskiwana przy pomocy dwóch (lub więcej) mikrofonów.

Wspominam jednak o tym ponieważ może się zdarzyć że jakiś aparat jest w bardzo korzystnej cenie m.in z powodu tego, że wykorzystana jest w nim kierunkowość jednomikrofonowa – powinna nam się w takim momencie zapalić czerwona lampka “oho, przestarzałe rozwiązanie!”

Kierunkowość wielomikrofonowa manualna

W tym rozwiązaniu stosowane są dwa oddzielne mikrofony wszechkierunkowe. I ponownie, wykorzystywana jest tutaj różnica czasowa – dźwięk dociera szybciej do jednego mikrofonu niż do drugiego i na tej podstawie aparat “wie” skąd ten dźwięk dobiegł, więc procesor aparatu może stworzyć optymalną charakterystykę kierunkową.

Czyli kalkuluje, które dźwięki wzmacnia a których nie. W naszym przykładzie (rozmowa na przystanku) byłaby to prawdopodobnie kardioida czyli “przepuszczanie” dźwięków z kierunku przedniego i zatrzymywanie dźwięków z tyłu i z boków.

W omawianej wersji (manualnej) użytkownik musi sam przełączyć aparat na odpowiedni program. Oczywiście zwykły Kowalski nie musi wiedzieć o jakichś tam charakterystykach kierunkowych (no chyba że jest zajadłym czytelnikiem słuchologii 🙂 ) i prawdopodobnie pamięta tylko, że aby poprawić słyszalność mowy w hałasie musi się przełączyć np. na program nr 2.

Przykład:

Pan Henio ma aparat z zaprogramowanymi dwoma programami – 1 i 2. Na programie 1 aparat jest zaprogramowany tak, że obydwa mikrofony tworzą charakterystykę wszechkierunkową, czyli przetwarzają jednakowo dźwięki ze wszystkich kierunków.

Pan Henio stoi więc na przystanku, ma aparat włączony na program 1. Słyszy samochody na ulicy, szczekanie psa z tyłu oraz jakieś roboty drogowe z boku.

W pewnym momencie do Pana Henia podchodzi jego kolega Romek i zaczyna do niego mówić. Pan Henio zwraca się twarzą do kolegi i przełącza aparat na program nr 2. Na tym programie aparat jest zaprogramowany tak, żeby mikrofony tworzyły charakterystykę kardioidalną przez co hałas samochodowy, pies i roboty drogowe (przy założeniu że dobiegają z kierunków bocznych i tylnego) nie są wzmacniane.

Kierunkowosc wielomikrofonowa automatyczna (lub adaptacyjna)

W tym rozwiązaniu wszystko jest tak samo jak w poprzednim, z tym, że decyzja o tym czy zmienić charakterystykę kierunkową podejmowana jest automatycznie przez aparat. Niezwykle zaawansowane algorytmy pozwalają bowiem aparatowi ocenić czy pojawiła się mowa czy nie (temat rzeka).

Kiedy zatem aparat wykryje mowę, podejmie decyzję np. o automatycznym przełączeniu się na program 2. I tutaj znowu otwiera się ogromny temat ponieważ różni producenci różnie realizują automatyczność. U jednych automatyczność polega na tym, że automatycznie przerzucają aparat na inny program, zaś inni po prostu automatycznie włączają lub wyłączają odpowiednie funkcje, np w tym wypadku aktywują charakterystykę kardioidalną.

W omawianym rozwiązaniu zatem kierunkowość jest adaptacyjna ponieważ zmienia się automatycznie (adaptuje) do zmieniającego się otoczenia akustycznego.

Tutaj pewna uwaga – charakterystyka kierunkowa jest prawdopodobnie najważniejszym ale nie jedynym czynnikiem poprawiającym SNR. Wspomagająco działają również inne układy tłumienia hałasu, lecz nie będę tego w tym miejscu omawiał. Ten podrozdział poświęcony jest temu, aby uzmysłowić Wam jak ciekawym i zaawansowanym urządzeniem jest aparat słuchowy jednak na opisanie wszystkich co do jednej funkcji przyjdzie jeszcze czas.

Ekosystem mikrofonów na dwóch aparatach

To rozwiązanie najnowsze i najbardziej zaawansowane. Wymagałoby zupełnie odrębnego omówienia. Na tę chwilę opiszę je ogólnie. W tym przypadku współpracują ze sobą dwa aparaty z których każdy wyposażony jest w dwa mikrofony. Czyli każdy z tych aparatów wykorzystuje dwumikrofonową kierunkowość.

Obydwa aparaty komunikują się ze sobą bezprzewodowo, w związku z tym wykorzystywane są każdorazowo informacje z 4 mikrofonów. Nazwałem sobie to roboczo “ekosystemem”, ponieważ to rozwiązanie stwarza wielkie możliwości co do kierunku, z którego użytkownik chce odbierać dźwięki. Może zdecydować (np przy pomocy smartfona lub pilota) że interesują go dźwięki dokładnie z prawej strony

Uwaga: żeby nam się wszystko nie pomieszało muszę zaznaczyć pewną bardzo ważną rzecz. Prosze nie mylić kierunkowości aparatów z rozróżnianiem przez nas kierunku z którego dobiega dźwięk. Są to dwie różne sprawy choć w obydwu przypadkach wykorzystywany jest mechanizm różnicy czasowej.

Piszę o tym dlatego, że dosyć ważną sprawą podczas wybierania aparatu słuchowego jest to czy kupujemy jeden aparat czy dwa. Pomijając oczywiście kwestie finansowe, należy bez wątpienia dążyć do tego, aby były to dwa aparaty. Między innymi właśnie dlatego że zastosowanie dwóch aparatów wydatnie przyczynia się do poprawy lokalizacji dźwięku (przez nasz mózg).

Jeden aparat słuchowy (nawet wyposażony w kierunkowość) dostarcza naszemu mózgowi tylko informacje z jednego ucha. Dopiero kiedy mózg otrzymuje informacje z obydwu uszu jest w stanie określić kierunek.

Reasumując, jakkolwiek pojedynczy aparat słuchowy wykorzystuje zjawisko różnicy czasowej do kształtowania swojej charakterystyki kierunkowej, to dopiero dwa aparaty (na obydwu uszach) dostarczają mózgowi wystarczająco dużo informacji, aby z kolei mózg mógł uruchomić “swój” mechanizm różnicy czasowej, i dzieki temu prawidłowo określał kierunek z którego dobiega dźwięk.

OK, czy ja czasem nie wylewam dziecka z kąpielą!? Bo właśnie się połapałem, że tak ugrzązłem w tych kierunkach i charakterystykach, że już prawie zapomniałem co właściwie chciałem wykazać. Niech zatem dobrze wybrzmi podstawowa zaleta jaką jest zastosowanie kierunkowości. Tą zaletą jest poprawa SNR – co jest potężnym orężem w polepszeniu zrozumiałości mowy w hałasie.

ZASTRZEŻENIA do Wyzwania 2

Zastrzeżenie 1 – Tak jak wspomniałem aparat słuchowy, pomimo swych ogromnych możliwości – jest wciąż jednak sumą różnych założeń. Dotyczy to również kierunkowości. Nawet w tym przykładzie, który podałem jej zastosowanie nie musi być czymś dobrym. To co jest istotą kierunkowości (czyli wyciszanie wybranych kierunków) jest bowiem jednocześnie problematyczne.

Przykładowo, jeśli pan Henio nie przełączy się z powrotem na mikrofon wszechkierunkowy, to może nie usłyszeć dźwięku klaksonu samochodowego (jeżeli przy okazji jest roztargniony i nie rozejrzał się wchodząc na pasy).

Zastrzeżenie 2 – Kierunkowość może również nie być wskazana u małych dzieci, które muszą obcować z całym dostępnym bogactwem dźwięków, w możliwie najmniej przetworzonej formie. Nie chcę tego jednak definitywnie twierdzic, bo z drugiej strony mogę sobie wyobrazić, że kierunkowość jest czasowo włączana w ramach jakiejś formy treningu słuchowego – to kwestie bardzo indywidualne i decydować tu musi specjalista prowadzący.

WYZWANIE 3 – telefony w Twojej głowie, czyli współpraca aparatów z urządzeniami zewnętrznymi

Pierwsze dwa wyzwania dotyczyły “tradycyjnego” świata dźwięków. Czyli dźwięków rozchodzących się w powietrzu na drodze akustycznej (drgania powietrza więcej tutaj).

Nowoczesna rzeczywistość, to przecież jednak również cała masa urządzeń – komputery, telewizory a przede wszystkim smartfony i tablety. Każdy użytkownik aparatu chce móc w pełni z nich korzystać.

Niestety korzystanie z nich w taki sposób, w jaki robią to osoby dobrze słyszące jest znacznie utrudnione w przypadku użytkowników aparatów słuchowych.

Najprostsza rzecz, odebranie telefonu od razu nastręcza wielu trudności: raz że rozmowa telefoniczna już jest w jakimś stopniu rozmową przetworzoną przez komponenty infrastruktury telefonicznej (słuchawki, mikrofony, przesył danych), dwa, że jest relatywnie cicha (nawet osoba z prawidłowym słuchem musi przyłożyć słuchawkę bezpośrednio do ucha żeby ją usłyszeć) a trzy, zbliżanie czy przyciskanie telefonu do ucha może powodować różnego rodzaju zakłócenia.

Jakkolwiek rozmawianie przez telefon “tradycyjnie” jest oczywiście możliwe w przypadku osób ze stosunkowo niewielkimi ubytkami, to nie jest to rozwiązanie efektywne. Zresztą, coraz bardziej otaczająca nas technologia nie ogranicza się przecież tylko do rozmów telefonicznych. Na swoich smartfonach chcemy słuchać muzyki, audiobooków, oglądać filmy czy video na youtube. Chcemy również rozmawiać przez komunikatory typu skype i wiele wiele innych.

W takich przypadkach rozwiązaniem efektywniejszym niż tradycyjne dostarczenie dźwięku do aparatów drogą akustyczną jest dostarczenie ich bezpośrednio na drodze bezprzewodowej.

Nadajnik i odbiornik

Jest to wielki temat, ale w gruncie rzeczy cała idea sprowadza się do tego, żeby ominąć etap akustyczny. Krótko mówiąc, w tym rozwiązaniu dźwięk (a właściwie sygnał audio, np. rozmowa telefoniczna) jest nadawany do aparatu z jakiegoś nadajnika, zaś aparat słuchowy wykorzystuje jakiś rodzaj odbiornika aby ten dźwięk odebrać i odtworzyć. To dosyć duże uproszczenie, ale zależy mi tylko na tym, żebyście uchwycili ogólną ideę.

Bo jakkolwiek na przestrzeni lat technologia nadajników i odbiorników w aparatach słuchowych szalenie się rozwinęła, to koncepcja jest wciąż ta sama: ominąć drogę akustyczną i nadać dźwięk (bezprzewodowo) bezpośrednio do aparatu. Tak jak radiostacja (RMF, Radio Zet czy Program 3 PR) nadaje ją do naszych domowych odbiorników radiowych.

Redukcja “przejść” akustyczno-elektrycznych

Można by zapytać po co właściwie to robić? Może spróbujmy tak: Rozwiązanie to pozwala uzyskać nam czystszy dźwięk poprzez zredukowanie ilości zamian (przejść) sygnału akustycznego na elektryczny i z powrotem.

Zauważmy. W sytuacji, kiedy aparat słuchowy wzmacnia przykładowo mowę podczas zwykłej rozmowy twarzą w twarz, to tylko jeden raz zamieniamy sygnał akustyczny na elektryczny i z powrotem. Taka sekwencja wygląda wtedy tak:

Sygnał akustyczny (głos rozmówcy) dociera do mikrofonu aparatu. Tam zamieniany jest na sygnał audio-elektryczny, przechodzi przez wszelkie układy elektroniczne, procesor itd. a następnie dociera do słuchawki aparatu (czyli małego głośniczka) i ponownie jest zamieniany na sygnał akustyczny, który wreszcie dociera do błony bębenkowej użytkownika.

Gotowy sygnał audio

Zwróćmy jednak uwagę, że w przypadku urządzeń elektronicznych (jak smartfon) musielibyśmy takich przejść (zamian) wykonać więcej. Oto dlaczego.

W przypadku takich urządzeń od razu, na dzień dobry mamy gotowy sygnał audio-elektryczny (sygnał audio). Gdybyśmy chcieli ten sygnał dostarczyć do aparatu słuchowego tradycyjnie (czyli drogą akustyczną) to sekwencja zamian (przejść) musiałaby wyglądać następująco:

Najpierw sygnał audio-elektryczny (czyli np rozmowę telefoniczną) musielibyśmy zamienić na sygnał akustyczny (czyli musiałby wybrzmieć w słuchawce telefonu). Następnie, już jako sygnał akustyczny, dotarłby – przenosząc się w powietrzu – do mikrofonu aparatu słuchowego. Tam ponownie byłby zamieniony na sygnał audio-elektryczny (układy elektroniczne, procesor itd), dotarł do słuchawki (głośniczka) aparatu i ponownie był zamieniony na sygnał akustyczny który wreszcie dotrze do błony bębenkowej.

A skoro mamy piękny i gotowy sygnał audio-elektryczny, to lepiej, prościej i czyściej (czyli bez zakłóceń) jest etap akustyczny wyeliminować i “nadać” ten sygnał bezprzewodowo od razu do aparatu (do odbiornika w aparacie). Z tego odbiornika sygnał poleci już dalej poprzez procesor, prosto do słuchawki (oczywiście słuchawki w aparacie słuchowym a nie słuchawki w telefonie, niestety nazewnictwo stwarza tu ogromne pole do nieporozumień).

Zapamiętajmy sobie zatem tę ogólną ideę. Technologia bezprzewodowa w aparatach słuchowych sprowadza się do tego, że dźwięk pochodzący z jakiegoś urządzenia audio, jest “nadawany” bezpośrednio do aparatu, tak jak radiostacja nadaje dźwięk do naszych domowych odbiorników radiowych.

Analogia pomiedzy radiostacja a nadjnikiem
rys.7 Analogia pomiedzy radiostacja a nadjnikiem

Różne technologie “nadawania”

Technologie tego “nadawania” ewoluowały. Powstawały też hybrydy łączące jedne rozwiązania z drugimi. Jednak gdybyśmy chcieli to sprowadzić do jakichś kategorii, to na przestrzeni lat kształtowało się to mniej więcej następująco:

Kategoria 1 – Cewki indukcyjne – wykorzystanie indukcyjnej fali elektromagnetycznej. Nadajnikiem (radiostacją) jest pętla indukcyjna (np. w specjalnym telefonie), zaś odbiornikiem cewka indukcyjna w aparacie.

Sygnał audio-elektryczny (np. rozmowa telefoniczna) jest “nadawany” bezpośrednio do cewki indukcyjnej (w aparacie słuchowym) drogą elektromagnetyczną. Omija w ten sposób drogę akustyczną i trafia bezpośrednio do cewki w aparacie, skąd jest dalej transmitowany poprzez procesor aż do do słuchawki (głośniczka).

Kategoria 2 – System FM – wykorzystanie fali radiowej.
Urządzenie audio (np. smartfon) jest podłączone do niewielkiego nadajnika FM. Nadajnik zamienia sygnał audio-elektryczny na falę radiową i nadaje go do odbiornika FM wbudowanego (bądź podłączonego) do aparatu słuchowego.

Jak widać, tutaj analogia do radiostacji jest wręcz dosłowna. Sygnał audio omija drogę akustyczną i falami radiowymi dociera bezpośrednio do aparatu.

Zamarkuję w tym miejscu, iż systemy FM to przeogromny temat. Są niezastąpionym (choć wciąż chyba niedocenianym) sprzymierzeńcem w sytuacjach, w których sam aparat słuchowy nie daje sobie rady.

Dygresja: Systemom FM poświęcę sequel niniejszego cyklu artykułów (przepraszam za ten makaronizm, ale wydaje mi się tu najtrafniejszy. Dla tych, którzy nie wiedzą: “sequel” to z angielskiego nowa opowieść wykorzystująca jednak pewne wątki oryginalnej opowieści).

Systemy FM to znacznie więcej niż łączność ze smartfonami. To wielka pomoc w edukacji, biznesie i wielu wielu innych sytuacjach życiowych.

Kategoria 3 – Bluetooth

To rozwiązanie najnowocześniejsze i wciąż rozwijające się. Jak łatwo się domyślić, w tej technologii wykorzystywana jest transmisja danych bluetooth.

Czyli urządzenie audio (np. smartfon) nadaje bluetoothem, zaś aparat słuchowy ma odbiornik Bluetooth, który ten sygnał odbiera.

Zaryzykowałbym stwierdzenie, że jakkolwiek jakieś elementy wykorzystujące Bluetooth są obecne w wielu aparatach słuchowych, to pełna komunikacja Bluetooth jest póki co dostępna tylko w nielicznych modelach (poniżej wyjaśniam co mam na myśli przez “pełną komunikację”). Nie chcę się w to specjalnie zagłębiać, więc ograniczę się tylko do krótkiego opisu.

Pełny bluetooth a rozwiązania hybrydowe

Dużym wyzwaniem w technologii Bluetooth jest pobór mocy. Stąd, jakkolwiek od dłuższego czasu była ona obecna w aparatach słuchowych, to odbywało się to przy pomocy jakiegoś urządzenia pośredniczącego. Z braku laku nazwijmy takie pośredniczące urządzenie np. przekaźnikiem.

I tak: użytkownik aparatu zakłada taki przekaźnik na szyję i nosi pod ubraniem. Przesył audio odbywa się wtedy następująco: smartfon nadaje Bluetoothem do przekaźnika, zaś przekaźnik nadaje dalej do aparatu słuchowego w jakiejś innej technologii (np. FM).

Taka hybryda była konieczna, ponieważ jak wspomniałem, umieszcznie odbiorników bluetooth bezpośrednio w aparatach stwarzało zbyt dużą barierę technologiczną, z uwagi na duży pobór mocy baterii. Dopiero stosunkowo niedawno nastąpił w tym obszarze postęp i najnowsze aparaty potrafią już odbierać sygnał bluetooth bez udziału przekaźnika (czyli bezpośrednio ze smartfona).

Jednak nawet w ramach tych, które to potrafią, nadal występują spore różnice. Przykładowo jakieś aparaty mogą odbierać sygnał stereo a inne tylko mono. Albo np. jakieś aparaty odbierają sygnał bluetooth ale tylko z konkretnych urządzeń itd.

Oczywiście druga strona medalu jest taka że te, które mają większe możliwości mogą być droższe, a co za tym idzie, możemy uznać, że mono nam w zupełności wystarczy. Albo w ogóle możemy uznać, że OK mogę sobie nosić przekaźnik (bo to będzie pewnie tańsze), tak bardzo mi to nie przeszkadza. Dlatego nie wchodzę nawet głębiej w ten temat, ponieważ wymaga oddzielnego opracowania.

Podsumowanie

Tym trzecim wyzwaniem kończymy prolog. W następnym odcinku cyklu przejdziemy do opowieści właściwej, czyli tego jak wybieramy odpowiedni aparat słuchowy. Chciałem jeszcze raz mocno podkreślić że w powyższym tekscie nie było moim celem opisywanie konkretnych funkcji, a tylko uzmysłowienie Wam, jak przeogromną pracę musi w każdej sekundzie wykonywać aparat słuchowy.

Nowoczesne aparaty słuchowe wykonują nawet ok 500 mln kalkulacji na sekundę. Wyobraźcie sobie, jak potężne moce obliczeniowe pracują w tych niepozornych urządzeniach, które jak gdyby nigdy nic spoczywają sobie w- lub na uchu. Jest to całkowicie porównywalne z tym, co odbywa się w naszych komputerach! Z tym że komponenty komputera zajmują kilkadziesiąt razy więcej miejsca. Warto się nad tym zadumać i nieco aparaty słuchowe docenić!

Bibliografia:

1) Materiały własne

2) Hearing Aids – Harvey Dillon, wydawnictwo Thieme, 2012

3) Audiogram of familiar sounds – https://www.jtc.org/audiogram-of-familiar-sounds/

4) Basics of Sound, the Ear, and Hearing – https://www.ncbi.nlm.nih.gov/books/NBK207834/

5) Phones and hearing aids – https://journals.lww.com/thehearingjournal/fulltext/2005/10000/Phones_and_hearing_aids__Issues,_resolutions,_and.7.aspx

6) Directional Hearing aids – https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4168924/

Źródła zdjęć / Images attribution

rys. 5 microphone patterns – https://commons.wikimedia.org/wiki/File:Cardioidpattern.svg (and related)

rys. 7 radio icon – https://www.iconfinder.com/icons/3669279/ic_radio_icon
rys. 7 radio tower – https://www.iconfinder.com/icons/298855/radio_tower_icon
rys. 7 smarfphone – https://www.iconfinder.com/icons/476326/call_handheld_iphone_mobile_phone_smartphone_telephone_icon

  • odpowiedz Grzegorz_Łódź ,

    Witam
    Z niecierpliwością czekam na cz.2 i bardzo dziękuję za tyle informacji w jednym miejscu.Sam stoję przed decyzją i zarazem wyborem aparatów słuchowych, dlatego często tu zaglądam z nadzieją na kolejną podróż pociągiem przez krainę…

    • odpowiedz Lech Wasilewski ,

      Witam serdecznie, cz. 2 jest w przygotowaniu. Początkowo chciałem cały temat zamknąć w jednym artykule ale okazało się to niemożliwe. Niestety jeśli chce się faktycznie temat gruntownie wyjaśnić to wymaga to rozpisania się.

    Dodaj komentarz