Audiel perception beskrives bedst på basis af en signalrepræsentation, der afviger ganske kraftigt fra, hvordan man normalt tænker på lyd. Vi ser her i nogen detalje på, hvordan akustisk information behandles af øret, og betragter nogle forhold omkring hjernens videre bearbejdning af den tilvejebragte information ...
Hørelsen er vel nok den af menneskets sanser, der er mest subtil. Man kunne gætte på, at om ikke mennesket var udstyret med
denne sans, havde vi aldrig opdaget, at der er systematiske svingninger i lufttryk, som andre organismer kan udnytte til at begå sig i omgivelserne med. Den akustiske energimængde, der skal til, for at vi opfanger en lyd, er nemlig ualmindelig lille. På den anden side gælder der noget fuldstændig tilsvarende for synssansen; vi var aldrig kommet på, at der skulle være nogle dyr, der kunne opfatte elektromagnetiske svingninger, hvis vi selv var blinde.
Et eksempel på denne lidt banale problematik leveres af flagermus. Slår man op under disse dyr i et leksikon fra 30erne, får man side op og side ned om føde- og forplantningsbiologi, men ikke et ord om, at der skulle være noget mærkværdigt ved deres evne til at manøvrere i omgivelser, hvor f.eks. ugler, der jo er kendt for deres gode nattesyn, er aldeles hjælpeløse, til trods for at flagermus’ øjne er på størrelse med knappenålshoveder og sidder uheldigt placeret, hvis de skal bruges til tredimensional navigation. I et tilsvarende encyklopædisk værk fra 60erne vil man se, at føde- og forplantningsbiologien har måttet vige pladsen for begejstrede fremstillinger af dyrenes evne til at ekkolokalisere vha. ultralydspulser, altså lyd ved frekvenser, der ligger uden for menneskets normale høreområde. Dette er et ikke ringe eksempel på, at opdagelser ikke kommer, før vi så at sige er klar til at fatte dem. Ultralyd kan naturligvis ikke høres. Det kræver tekniske hjælpemidler, der ikke var til almindelig rådighed før 1940erne, hvorfor den evidens for flagermus’ specielle sansesystem, der faktisk har været kendt siden 1600-tallet, ikke er blevet brugt til at drage den konklusion, der nu er almindelig kendt. Heraf kan man med nogen rimelighed slutte sig til rigtigheden af den ovenfor fremførte påstand, at vi ikke kan erkende andre væseners sansesystemer, hvis vi ikke, evt. indirekte vha. teknik, selv besidder evnen.
Men nu kan de fleste af os altså godt høre. Vi skal derfor i denne artikel se på, hvordan lufttryksvariationer med visse frekvenser bliver til det, vi opfatter som lyd. Beskrivelsen vil indtil videre dække pattedyr generelt. Først til allersidst vil der blive omtalt visse særheder, som er specifikke for mennesker eller primater, og disse kan lokaliseres til selve hjernen.
Det ydre øre og mellemøret
Processen har, som det sikkert vil være den gennemsnitlige læser bekendt, at gøre med øret. Lydbølger, der finder ind til øregangen, meatus, vandrer, stadig væk i luft, ind til trommehinden, som begynder at svinge i takt med trykvariationerne, der jo udgør lyden. Denne bevægelse kommunikeres videre via tre meget små knogler, malleus, incus og stapes (hammeren, ambolten og stigbøjlen). Disse fungerer som en mekanisk forstærker og er placeret i mellemøret. Stapes overfører herefter den mekaniske energi, der er til stede i det vibrerende system, til det indre øre, nærmere bestemt cochlea, sneglen. Dette sker via det ovale vindue, der er en af to elastiske åbninger fra cochlea ud mod mellemøret. Bortset herfra er cochlea indkapslet i et forbenet materiale, der ikke umiddelbart giver efter for trykændringerne. Dette er essentielt for funktionen. Med stapes’ påvirkning af det indre øre skifter det medium, lydsvingningerne foregår i, til et vandigt medium, nemlig den væske, der omgiver membranerne inde i cochlea.
Det indre øre
At cochlea har form som en snegl, er af pladshensyn. Det er en stor fordel at have en lang cochlea, men det kan hovedet desværre ikke rumme. Derfor er der hos fugle og pattedyr blevet opfundet den kompakte løsning med en sammenrulning. Der kan umiddelbart være visse vanskeligheder forbundet med at skulle visualisere geometrien af sanseorganet, men det hjælper lidt mentalt at folde den ud – så kan man altid krølle den sammen igen, når man har forstået funktionen.
Cochlea er delt i tre rum eller scalae, hvilket bedst tydeliggøres, når man ser et tværsnit gennem sneglen. Man kan dog sagtens forsvare at betragte de to af disse rum, nemlig scala vestibuli og scala tympani, som ét rum, idet de er forbundne. Scala vestibuli kigger ud gennem det ovale vindue, mens scala tympani har udsigt til mellemøret via det runde vindue. Mellem disse to rum, der altså kan anses for ét rum med to navne, strækker sig scala media, der afgrænses fra den øvrige cochlea ved to membraner, Reissners membran og basilarmembranen. Af disse er basilarmembranen afgjort af størst vigtighed for forståelsen af denne sansemodalitet, idet den huser selve sansecellerne, der altså er det medium, i hvilket den mekaniske energi, lyden udgør, omdannes til en forskydning af en elektrisk ladningsfordeling hen over en cellemembran. Denne ladningsforskydning afstedkommer elektriske signaler, der kan vandre i neurale udløbere. I disse celler giver den oprindelige lyd altså anledning til signaler, der er kompatible med et nervesystem, hvilket ikke er en uvæsentlig evne at have, når man er sansecelle.
Når stapes presser imod det ovale vindue, giver dette anledning til en trykændring, der forplanter sig op igennem cochlea. Funktionen af det runde vindue er at muliggøre dette, eftersom en væske jo ikke umiddelbart kan komprimeres. Den tilvejebragte trykbølge får membranerne til at bevæge sig, hvorved sansecellerne stimuleres. Man kan derfor kalde selve sansecellerne mekanoreceptorer, idet det er den mekaniske energi i disse bevægelser, der direkte stimulerer dem. Vi skal senere gå mere i detalje med, hvordan dette sker.
Det er dog ikke alle celler i basilarmembranen, der er lige ivrige efter at råbe »lyd«, når man hører en bestemt tone som f.eks. fjernsynets prøvesignal. Hvorfor, forsøger man traditionelt at give den indledende forståelse af vha. en historisk forklaringsmodel, der sådan set er forkert, men dog ikke langt fra.
Tell a little truth with many lies
I sidste århundrede fremsatte Herman von Helmholz en teori om, hvordan øret fungerer, som kan illustreres vha. en klaveranalogi. Hvis læseren går hen og giver sit piano et ordentligt los, samtidig med at hun holder pedalen nede, vil resultatet blive ganske kakofonisk, eftersom alle strengene bliver påvirket af denne behandling (man kan også gøre det med sin harpe, hvis man ikke har et klaver). Dette vil ikke være tilfældet, hvis man i stedet for denne lidt ublide behandling anvender en vibrator, som man holder ind på rammen (for at det skal have den ønskede effekt, bør man benytte en af industriel styrke). En sådan vil nemlig have en bestemt frekvens, ved hvilken den svinger. Dette vil medføre, at kun de strenge, der så at sige passer til den svingningsfrekvens, apparatet har, vil svinge med, og et kort stykke tid efter, at man har slukket vibratoren, vil man derfor kunne høre klaveret spille denne tone. Dette fænomen kaldes resonans, i dette eksempel mekanisk resonans. I den tilhæftede basale del af basilarmembranen, der vender ind mod mellemøret, er denne smallere end den frie ende, apex. Ligesom de lange strenge på et klaver har den laveste resonansfrekvens, kunne man altså forestille sig, at den brede, apicale del af basilarmembranen var resonant ved lavere frekvenser end den basale del. Derved kunne man forklare evnen til at skelne toner, idet den del, der vibrerer, når en dyb tone er til stede, ville være en anden end den, der svinger ved høje frekvenser. Neuralt set også meget praktisk, idet sanseceller på den apicale del af basilarmembranen så at sige ville bære betydningen »dyb tone«, hvilket kunne leveres videre op i systemet.
Denne teori om mekanisk resonans er på mange måder korrekt. Ved høje frekvenser svinger den basale del af basilarmembranen faktisk mere end den apicale og omvendt. Teorien kan blot ikke forklare, at vores evne til at skelne toner er så god, som den er, for ved stimulering med lave frekvenser vil hele basilarmembranen blive sat i svingninger, blot mest i den apicale del. På samme måde vil en høj frekvens også medføre bevægelser af en stor andel af den del af membranen, der ligger mere apicalt end det sted, hvor den maksimale amplitude er. Så hvordan kan man afgøre, når man hører en bestemt tone, at der ikke er tale om et væld af toner ved alle mulige frekvenser, hvor blot en af dem er kraftigst – den, der svarer til den maksimale amplitude på basilarmembranen? For at kunne besvare dette, må vi se på en modifikation af modellen, eller rettere en udbygning af den. Dette kræver, at vi i nogen detalje kigger på den måde, hvorpå den mekaniske energi, der er til stede, når basilarmembranen svinger, bliver omsat til elektrisk energi i form af en ændring af ladningsfordelingen på de to sider af en cellemembran i en sansecelle.
Stedhypotesen
Ud over de to nævnte membraner, den Reissnerske og basilarmembranen, findes der yderligere en struktur, der ligger mellem disse to. Denne tectorialmembran, som den kaldes, er en gelatinøs sag, der ligger ind over basilarmembranen. På basilarmembranen sidder hårcellerne, som er de sanseceller, der varetager energiomdannelsen. »Hårene«, der selvsagt ikke er egentlige hår, stikker så op og forankres i tectorialmembranen. I dette arrangement forskubbes hårene på sansecellerne, når membranerne i cochlea skubbes op og ned, hvilket medfører, at cellernes elektriske potentiale ændres. Dette er hemmeligheden bag det at høre noget. For hvert punkt langs basilarmembranen findes der celler, der »siger til« – i form af en elektrisk potentialeændring – når den stimuleres ved en bølge, der bevæger sig gennem cochlea. Eftersom forskellige dele af basilarmembranen bevæges ved forskellige frekvenser, svarer hver enkelt eller få af de sanseceller, der sidder i denne, til en bestemt frekvens. Man taler her om stedhypotesen.
Dette system er blot den neurale udnyttelse af det forhold, at forskellige dele af basilarmembranen har forskellig mekanisk resonans. Vi sidder stadig og spørger os selv, hvordan vi overvinder problemet med, at alt for store dele af systemet vibrerer ved en given frekvens.
Elektrisk resonans
En vigtig del af svaret på dette spørgsmål er givet ved, at hårcellerne selv har en resonans. Denne er ikke mekanisk, men derimod elektrisk. Når hårcellernes »hår« bevæges den ene vej, medfører det en potentialeændring i én retning, og når de bevæges den anden vej tilsvarende en potentialeændring i den modsatte retning. Disse potentialeændringer er styret af en serie af signalstoffer inde i cellen, som tager del i en cyklus. Denne cyklus kan have forskellig varighed, og hermed sættes der en øvre og nedre grænse for, hvor hurtigt potentialet kan skifte op og ned. Dette vil kunne ses som en resonans. Den elektriske resonans passer praktisk nok til den mekaniske, således at den del af basilarmembranen, der svinger mest ved en given frekvens, også huser hårceller med netop denne elektriske resonansfrekvens. Herved forstærkes begrænsningen af aktiviteten ved en given tonestimulus til færre sanseceller. Dette er ikke hele forklaringen, men det er en del af den.
Ud af øret
Sansecellerne, altså de indre hårceller, kommunikerer potentialeændringerne til neuroner, som de til formålet har synapser med. Disse neuroner udgør den del af den 8. kranialnerve, der fører signaler op til hjernen. Hovedparten af de neurale udløbere i dette nervebundt fører dog signaler den anden vej! Denne trafik ender i de ydre hårceller på basilarmembranen og stammer fra områder i hjernestammen. Man mener, at formålet med disse forbindelser er at ændre basilarmembranens mekaniske egenskaber for så at sige at muliggøre en fokusering på dele af lydbilledet. Vi skal ikke komme nærmere ind på dette her, men det skal dog nævnes, at mens der kun findes én række af de indre hårceller, findes der hele tre rækker af de ydre. Informationsretningen hjerne ® sanseorgan er altså ikke ligefrem underprivilegeret mht. materiel.
Lyd på en anden måde
Før vi går helt ind i hjernen, vil det måske være fordelagtigt, om vi brugte lidt tid på at diskutere, hvilken »form« de akustiske signaler til hjernen har, når de bliver sendt videre op i systemet. Eller rettere: Hvilken repræsentation af et akustisk signal kan fungere som model for det materiale, hjernen har at arbejde med? Her kan der naturligvis kun blive tale om en hjælp til at visualisere dette output fra høreorganet.
Først og fremmest må vi konstatere, at de enkelte hårceller på basilarmembranen ser ud til at være specielt placeret og indrettet til at isolere de enkelte frekvenser i et lydsignal. Så hvert afferent (med retning mod centralnervesystemet) neuron i den 8. nerve leverer oplysninger om et bestemt, ganske snævert frekvensområde, som det rapporterer om tilstedeværelsen af akustisk energi i. Men dette er ikke alt, idet en tone, jeg hørte i går, aldeles er holdt op med at give anledning til nogen ændring i aktiviteten i min hørenerve. Der er altså, ganske som vi må forvente det, et tidselement i rapporteringen. Ydermere vil intensiteten af det signal, der når øret og den enkelte hårcelle, være indkodet i tætheden af nerveimpulser i disse neuroner.
Der er mange måder at repræsentere den samme information på. Dette gælder også for akustiske signaler. For disse er det mest almindelige en afbildning af trykudsving som funktion af tid. Det er denne type afbildning, man ser, hvis man sætter en mikrofon til et oscilloskop. Men ifølge den nødtørftige beskrivelse ovenfor kan man se, at dette ikke er en type repræsentation, der ser ud til at passe særlig godt på hårcellerne. Hver enkelt hårcelle ser jo kun på et snævert bånd af frekvenser og ikke på alle de trykvariationer, der udgør et givet signal. Et alternativ til tryk/tidsrepræsentationen, som vi kalder tidsdomænet, af et signal er det såkaldte spektrum. Dette fremkommer i praksis ved, at man undersøger, hvor godt hver enkelt frekvens korrelerer med signalet. I det tilfælde, hvor vi har en ren tone, hvilket vi har benyttet os af ovenfor, vil signalets spektrum blive en enkelt »pind« ud for den x-akseværdi, der har signalets frekvens som pålydende. Alle andre frekvenser giver nul, når korrelationen beregnes for disse. I den anden grøft vil en »pind« – en impuls i tidsdomænet – give et spektrum, hvor man får den samme værdi for alle frekvenser, eftersom sinosoidale funktioner (»toner«) ved alle frekvenser har en korrelationsværdi forskellig fra nul med et sådant signal. Denne repræsentation er tydeligvis tættere på den måde, høresystemet op til dette niveau kan opfattes på. Hvis man nemlig arrangerer de afferente neuroner i hørenerven som punkter på x-aksen af et spektrum og med impulstætheden i dem som den afhængige variabel, vil man kunne se, at hårcellernes specificitet for enkelte frekvenser netop vil gøre, at disse for et spektrum karakteristiske egenskaber vil fremkomme.
Men visse ting er der dog galt med blot at beskrive øret som en spektrumanalysator. For meget korte akustiske stimuli er det en god beskrivelse, men som det blev nævnt ovenfor, er der et tidselement. En kort stimulus giver en kort serie af nerveimpulser, mens en lang stimulus giver en lang serie. Vi kan også sagtens høre, i hvilken rækkefølge to korte toner med forskellig frekvens kommer. Det kan et spektrum ikke. Et spektrum beskæftiger sig ikke med tid overhovedet, selv om tid har en afgørende indflydelse på, hvordan et spektrum kan se ud. Vi er derfor nødt til at tænke på en lidt anden måde. Både tryk/tidsrepræsentationen og spektret er todimensionale afbildninger af signalet. For at få tiden med ind i foretagendet er vi nødt til at tilføje en tredje dimension. Nu forestiller vi os, at vi laver spektre af en stump af signalet med en vis »passende« varighed og placerer dette spektrum på en x-akse således, at det, der var spektrets x-akse, bliver til den tredimensionale afbildnings y-akse. Spektrets y-akse, der jo fortæller os om styrken af de forskellige frekvenser i signalet, bliver dermed til det nye systems z-akse. For hvert af de følgende punkter på x-aksen af denne repræsentation placerer vi nu de spektre, der svarer til det tidspunkt, dette blev beregnet på. Man kalder en sådan afbildning for et sonagram. Det kan anbefales, at man konsulterer illustrationerne til dette afsnit.
De fleste, der beskæftiger sig med dette emne, anser en sådan repræsentation af et akustisk signal for at være rimelig god, når man skal visualisere det materiale, hjernen får at arbejde med fra øret. Dette må selvfølgelig ikke få nogen til at tro, at der dannes et spektrogram i hjernen. Derudover er der ting, der ikke er plads til i denne model, f.eks. signalets fase, som pattedyr kan udnytte til retningsbestemmelse ved frekvenser op til nogle få kHz, hvilket vil blive uddybet nedenfor.
Op i hjernen
Hørenerven har forbindelse til hjernen i de cochleare nuclei, af hvilke vi har to, en for hvert øre. Herfra bliver forbindelserne via mellemstationer ledt op imod den inferiøre colliculus, som vi også har to af. Det har vi af alle strukturerne i signalvejen, så fremover vil dette ikke blive pointeret. Undervejs til dette relativt høje niveau i signalbearbejdningen er der interaktioner i andre strukturer, som tilsyneladende først og fremmest har til opgave at medvirke til bestemmelse af lydkildens position. Dette kan ske på tre måder: 1) Ved detektion af faseforskelle mellem de lavfrekvente dele af lyden ved de to ører. 2) Ved sammenligning af amplituden af de højfrekvente dele af lyden ved de to ører. Hovedet »skygger« for noget af lyden, så hvis lydkilden f.eks. befinder sig til venstre, vil venstre øre modtage det kraftigste signal, hvilket kan omsættes til en positionsparameter. 3) Ved sammenligning af ankomsttidspunktet for lyden ved de to ører. Eftersom lydens hastighed i luft ikke er så ualmindelig høj (ca. 340 m/s), og da menneskets hoved som regel ikke er så lille endda, vil et signal, hvis kilde ikke er netop ret fremme eller umiddelbart bagved en, ankomme tidsmæssigt forskudt til de to ører. Så hvis der er tale om et kort signal, kan hjernen anvende forskellen i ankomsttidspunktet til at placere det rumligt.
Det er det samme, der gør sig gældende for udnyttelsen af fasen, som nævnt under punkt 1: Når et signal ankommer tidsmæssigt forskudt til det ene øre i forhold til det andet, vil de sinosoidale komponenter, det kan opfattes som sammensat af, være forskellige steder i cyklus, når de opfattes. Så hvis man kan holde styr på dette, kan det bruges som tidsmarkør.
Alle disse metoder til lokalisation udnyttes i specialiserede centre i hjernestammen.
Det siger sig selv, at for at kunne foretage disse opgaver må neuronerne på dette niveau have input fra begge cochleare nuclei, hvilket da også kan konstateres. I modsætning til, hvad vi så i synssystemet (se artiklen »Verden i øjet«, Faklen nr. 8), sker denne overkrydsning ikke kun i forbindelse med én struktur (kommisur), men derimod flere gange undervejs.
Den information, der er blevet bearbejdet i disse centre i hjernestammen, afleveres altså sammen med mere råt materiale, der kun har været involveret i få synaptiske forbindelser på vejen, til den inferiøre colliculus. Denne for hørelsen meget vigtige struktur har siden input til et område i thalamus, der fungerer som en slags relæstation for alt sanseinput til storhjernens cortex. Dette område kaldes den mediale geniculate nucleus.
Cortex
Herfra er der altså kun cortex tilbage. Her taler man hos pattedyr i reglen om to områder. Disse er Brodmanns område 41 og 42 eller a1 og a2 (auditorisk cortex 1 og 2), og de ligger klods op ad hinanden. Begge disse to corticale områder befinder sig på den øvre del af temporallappen, hvilket, i modsætning til hvad man skulle tro, ikke er en anatomisk betinget placering, eftersom den 8. nerve jo ender i hjernestammen. Man kan også give sig til at gætte på, hvorfor den primære visuelle cortex befinder sig i baghovedet, hvilket signaltrafikalt set ikke synes specielt snedigt, men i det audielle tilfælde ligner det en tanke, at cortex rent fysisk ligger tæt på det sanseorgan, det modtager input fra. Det er det nok bare ikke.
En tidlig observation fra disse områder er den, at der optræder såkaldt tonotopisk organisation, hvilket dækker over, at neuronerne ligger ordnet efter den frekvens, ved hvilken de giver den kraftigste respons på stimulering af cochlea. Dette svarer ganske til observationen fra den primære visuelle cortex, hvor neuronernes præference mht. placeringen i rum af en stimulerende kontrast ligger ordnet, hvilket blot hedder visuotopisk.
Ud over disse tilsyneladende simple, ordnede kort over cochleas hårceller, hvad man må formode, de er, rummer specielt a2 mange mere specialiserede neuroner, der varetager opfattelsen af sådanne parametre som amplitude, frekvensændringshastighed, rumlig position m.m. Nogle af disse neuroner indgår også i nogenlunde tonotopisk organiserede strukturer.
Som vi så det i forbindelse med synet, er de perceptuelle egenskaber ved et akustisk signal lokaliserbare til anatomisk set adskilte områder – dog ikke spredt ud over cortex i nær samme grad. Men i modsætning til, hvad der er tilfældet med den visuelle sans, er der sjovt nok ikke den store forundring i dette tilfælde mht., hvordan disse egenskaber forenes til et samlet percept. Ingen spekulerer tilsyneladende i nær samme grad over, hvordan man kan vide, at den fugl, der synger højt, er den fugl, der er lidt ude til venstre, og at det er en solsort. Men dette spørgsmål er for så vidt lige så interessant, som spørgsmålet om, hvordan man kan vide, at det, der er rødt, er placeret et bestemt sted i synsfeltet, og at det er en bold. Dette problem, the binding problem, har fået stor opmærksomhed, i modsætning altså til det tilsvarende audielle, der vel bør betegnes ved det samme navn.
Absolut gehør
Det er på en måde en anelse overraskende, at mennesker som hovedregel ikke har absolut gehør. Som det ses af den ovenstående udredning, er der intet som helst til hinder for dette. Hver af de indre hårceller kunne sagtens have en relativt ubearbejdet »linje« til et neuron i cortex, der kunne indeholde den frekvens eller tone, der var hårcellens foretrukne. Mange dyr vides da også at have denne evne. De kan trænes til at respondere på en bestemt tone og ikke på en anden, selv om det er længe siden, de hørte nogen af dem. Men hvorfor har vi den som hovedregel ikke? Et meget nærliggende svar kunne være, at det for os er en irrelevant parameter for den opgave, vores og ingen andre dyrs audielle system synes indrettet til, nemlig opfattelsen af talt sprog. Absolut gehør kan i den kontekst anskues som en »sygdom«, hvis man er sådan skruet sammen, at man hæfter dette prædikat på alle anomalier. En for de mennesker, der lider heraf, ofte ret nyttig sygdom, som vi andre »normale« kan misunde dem i det skjulte.
Fonemer
Specielt for mennesket er det de særlige audielle områder, Wernickes område, der har at gøre med sprogperception. Dette område får sit input fra en anden højereordens audiel del af cortex, den angulære gyrus, på grænsen mellem parietal- og temporallappen. Her findes neuroner, der specialiserer sig i opfattelsen af ganske specifikke sproglige lyde, fonemer. Man kan tænke på disse som små stykker sonagram, altså frekvensfordeling mod tid, som de enkelte neuroner er tunet til at opfatte. Dog med den ovennævnte undtagelse, at dette mønster mere eller mindre frit kan flyttes op og ned ad y-aksen, så det ikke er nødvendigt at have en uendelig mængde neuroner for at kunne opfatte alle tænkelige stemmelejers ytringer. Med andre ord er det ligegyldigt for opfattelsen, om det er Barry White eller Prunella Scales, der fortæller en noget.
En pudsig, måske velkendt observation vedrørende audiel perception er den, at vi opfatter ord som distinkte lyde, der deler en sætning op; vi kan godt høre mellemrummene mellem ordene. De er der bare ikke. Dette kan man forvisse sig om ved at betragte tryk/tidsrepræsentationen af en rimelig velformuleret sætning. I stedet er det nærmere antallet af tryk i en sætning, der hjælper os til at separere de enkelte ord. Grunden til, at det ikke er så ligetil at danne et ord med to (hoved)tryk, er, at det uvægerlig kommer til at lyde som to separate ord. Det er trykket, der danner det perceptuelle mellemrum. Det er særdeles nærliggende at antage, at denne illusion stammer fra analogien med det skrevne sprog, hvor vi jo er vant til at se dem. Det kunne derfor være interessant, hvis det var muligt, at forhøre en græker fra den periode, hvor mellemrummet ikke benyttedes, for at få at vide, hvorvidt også han hørte mellemrum, eller om han blot hørte ord.
Dette leder naturligt hen til den observation, enhver kan gøre sig, nemlig den, at når man hører en person tale et sprog, man behersker meget godt, er det ikke lyde, artikulationer eller sekvenser af bogstaver, man hører. Medmindre man koncentrerer sig bevidst om noget andet, er det kun betydningen af det sagte, man hører.
Hjernens lydbillede
Som nævnt er informationsretningen fra hjernen til øret ganske prominent, og det lydbillede, vi oplever, er resultatet af en række komplekse operationer i øret såvel som i hjernen. Det kan bemærkes, at dette giver mulighed for en løkke, der på en morfologisk meget synlig måde tillader de højere cerebrale processer at influere på det sanseorgan, de modtager input fra. Dette er ikke noget dårligt eksempel på, at det lydbillede, vi oplever, er resultatet af en række komplekse operationer i øret såvel som i hjernen, der ikke nødvendigvis umiddelbart kan relateres til den oprindelige stimulus.
Som for andre sanseorganers vedkommende må vi også om øret konstatere, at det ikke administrerer en en-til-en gengivelse af et ydre »verdensbillede«, men at det i samarbejde med bl.a. cortex konstruerer et sammenhængende hele af perceptioner. Lydbilledet opstår således egentlig først i menneskets hjerne. Måske det kan anskueliggøres ved en analogi til det forrige afsnits overvejelser angående sprogperception.
Ligesom lydbilledet fra det talte ord som oftest består af den betydning, der opstår i cortex, snarere end af artikulationer (medmindre vi lytter til et ubekendt sprog), således består heller ikke lydbilledet, perceptet, som sådan af den akustiske information, der når trommehinden, men netop af betydningen af og bevidstheden om f.eks. fuglekvidren, tale, musik eller støj osv.
Betragter vi det »nøgne« signal, trykvariationerne, er disse hverken identiske med eller direkte oversættelige til det endelige lydbillede, eftersom signalet er blevet transformeret, ændret og modereret igen og igen i både øret, hjernestammen og cortex, før vi bliver bevidst om nogen lyd.
Verdens lydbillede opstår bl.a., men langtfra udelukkende, på baggrund af signaler fra øret. Det, vi hører, er det lydbillede, som vores hjerne konstruerer, og ikke umiddelbart det, vores ører hører.
cand. scient. Kristian Beedholm