Muzyka Pink Floyd odczytana z mózgowych fal


Ludzie słuchali muzyki, a uczeni zarejestrowali ich fale mózgowe i ustalili na tej podstawie, czego słuchano. Że „muzyka brzmi w eterze”, choć żadnego eteru nie ma, to oczywista oczywistość. Jak jednak muzyka brzmi w mózgu, jest nadal niekoniecznie jasne. Wiemy, jak działa aparat słuchowy, a nawet, dzięki badaniom opisanym w październiku ubiegłego roku, klarownym się stało, jak fala dźwiękowa zamienia się w impuls elektryczny. Mechanizm słyszenia jest zatem poznany, aczkolwiek gdy dźwięk w formie elektrycznego impulsu z nerwu słuchowego „wjeżdża” do mózgu, dzieją się rzeczy nadal okryte mgłą tajemnicy. Pełne zrozumienie tych spraw teoretycznie powinno doprowadzić do zdolności rozkodowywania usłyszanych treści za pomocą obrazów aktywności mózgu przy pracy. Skoro bowiem zrozumiemy, jak dźwięk wchodzący do mózgu jest tam obrabiany, powinniśmy być w stanie zrobić czynność odwrotną – dosłownie wyjąć muzykę z mózgu, do którego została włożona. To właśnie osiągnęli neurobiolodzy pod kierunkiem Ludovica Belliera z Uniwersytetu Kalifornijskiego w Berkeley.Jak doniósł w drugiej połowie sierpnia Eurrekalert, a za nim inne portale i media, od Phys.org po New York Times’a, wykazali oni, że rozpoznawalne wersje utworu Pink Floyd „Another Brick in the Wall, Part 1” można zrekonstruować na podstawie aktywności mózgu zarejestrowanej podczas słuchania tej klasyki rocka przez ludzi. Byli to, jak to bywa w tego typu badaniach neurologicznych, cierpiący na oporną na leczenie epilepsję pacjenci z umieszczonymi w mózgu licznymi elektrodami służącymi zasadniczo lekarzom w diagnostyce przypadłości i znalezieniu na nią remedium. Natomiast przy okazji osoby takie bardzo często godza się być „królikami doświadczalnymi” w różnych badaniach neurologicznych, oczywiście zaaprobowanych przez stosowne komisje etyczne. Jak na łamach „PLOS Biology” piszą autorzy kierowani przez Roberta Knighta: „Muzyka jest podstawą ludzkiego doświadczenia, jednak dokładna dynamika neuronów leżąca u podstaw percepcji muzyki pozostaje nieznana. Przeanalizowaliśmy unikatowy zestaw danych elektroencefalografii wewnątrzczaszkowej (iEEG) 29 pacjentów (z 2668 elektrod łacznie – przyp. MK-S), którzy słuchali piosenki Pink Floyd i zastosowaliśmy metodę rekonstrukcji bodźca wykorzystaną wcześniej w domenie mowy. Z powodzeniem zrekonstruowaliśmy rozpoznawalną piosenkę z bezpośrednich nagrań neuronowych i określiliśmy ilościowo wpływ różnych czynników na dokładność dekodowania”. No, no, no… przy takich wynikach aż dziwne, że praca poszła tylko do „PLOS Biology”, a nie znacznie wyżej notowanych czasopism. Zwracam bowiem uwagę, że mowa nie tylko jest obrabiana w zupełnie innych centrach korowych niż muzyka, ale w dodatku w innych także niż dźwięki, które nie są za muzykę przez mózg uznane (zwłaszcza odgłosy natury, maszyn przy pracy etc.). Tu można posłuchać, jak wyszła rekonstrukcja znanych dla wielu z nas dźwięków utworu Pink Floyd dekodowana z aktywności konkretnych obszarów mózgu podczas słuchania.Czy Mozarta albo Bacha dałoby się tak samo? Nie widzę przeciwwskazań formalnych. Badaczom z Kalifornii udało się także ustalić, że przynajmniej u ich epileptycznych pacjentów w percepcji muzyki dominuje prawa półkula, a podstawową rolą odgrywa górny zakręt skroniowy (STG). 
 

Do rytmu muzycznego dostraja nas nowoodkryty funkcjonalny podregion STG, zaś trwałe i pierwsze reakcje na elementy muzyczne wynikają z działania osi przednio-tylnej STG. Istotne są również kora czuciowo-ruchowa i dolny zakręt czołowy. Z neurologicznego na polski oznacza to, że wiemy, gdzie dokładnie mózg analizuje muzykę, rozpoznawszy, że to muzyka a nie mowa czy dźwięki natury.Oznacza to także, że choć na razie tych danych jest olbrzymia ilość i możliwości obliczeniowe pozwalają dekodować/modelować z działania elektrycznego mózgu jedynie krótkie fragmenty muzyczne, to wylano właśnie fundament pod kolejny – tym razem jak najbardziej muzyczny – interfejs mózg-maszyna, będący protezą słuchu. Chcę zauważyć, że to oznacza dla osób niesłyszących, że będą kiedyś mogły zachwycać się pięknem muzyki tak jak osoby słyszące, a przynajmniej taka możliwość została relanie dla nich otwarta na przyszłość. To nietrywialne, bo – przynajmniej jeśli chodzi o języki indoeuropejskie (gdzie dla znaczenia wyrazów nie jest istotna np. wysokość tonu) – ilość danych jest dla dekodowania mowy nieporównywalnie mniejsza, niż ma to miejsce w przypadku muzyki. A zatem i zbudowanie z danych neurologicznych modelu predykcyjnego słuchania z mowy jest prostsze, niż z danych pochodzących ze słuchania muzyki. Ta bowiem zawiera takie elementy jak wysokość tonu, melodia, harmonia i rytm.Oczywiście, skoro poważnie myśli się już, pracuje nad, a nawet ma prototypy „dekodera mózgu”, który docelowo ma „czytać w myślach”, to element muzyczny powinien tam się znaleźć. Wszak nierzadko myślimy muzyką, jest ona częścią bardzo ważnych wspomnień, marzeń czy snów, a też niekoniecznie ja werbalizujemy czy umiemy nazwać, gdy jednocześnie lepiej lub gorzej potrafimy zanucić. Dostarczono nam właśnie wgląd w neuronowe podstawy percepcji muzyki. Ni mniej, ni więcej. Słuchajmy muzyki. Podobno łagodzi obyczaje i odmładza mózg. Niestety, Pink Floyd, znany ostatnio z utworu wspierającego Ukrainę w jej walce z imperializmem rosyjskim „Hey, hey! Rise up!”, powstałym w ewidentnym konflikcie z dawnym wokalistą i basistą grupy Rogerem Watersem, z mojej wiedzy nie wydał żadnego oświadczenia w tej sprawie. A warto było, bo opisane tu przeze mnie wydarzenie przeniosło zespół niewątpliwie zasługujący na kilka stron w każdej encyklopedii muzyki, do podręczników historii nauki. Ktoś jednak przekroczył tę ścianę. Źródło: journals.plog.org

Komentarze