I hvilket format er det bedre at lytte til musik, og hvorfor er alt subjektivt
I hvilket format er det bedre at lytte til musik, og hvorfor er alt subjektivt
Anonim

Vi har allerede nævnt, at begrebet "kvalitetslyd" og "kvalitetsudstyr" er meget relativt. Hvorfor findes der ikke et perfekt musikinstrument?

I hvilket format er det bedre at lytte til musik, og hvorfor er alt subjektivt
I hvilket format er det bedre at lytte til musik, og hvorfor er alt subjektivt

Det primære lydindhold, der afspilles i dag, er digitalt i et af de tabsgivende komprimeringsformater.

For komprimeret lyd er konceptet med den psykoakustiske model meget vigtigt - videnskabsmænds og ingeniørers ideer om, hvordan en person opfatter lyd. Øret modtager kun akustiske bølger. Hjernen behandler signaler. Desuden er det hjernens arbejde, der gør det muligt at skelne fra hvilken side lyden kommer, med hvilken forsinkelse bølgerne ankommer i forhold til hinanden. Det er hjernen, der giver os mulighed for at skelne mellem musikalske intervaller og pauser. Og som ethvert andet job har han brug for særlig uddannelse. Hjernen indsamler skabeloner, korrelerer ny information og bearbejder den ud fra, hvad der allerede er blevet akkumuleret.

Og selve rygtet er ikke så enkelt. Officielt er det menneskelige hørbare område mellem 16 Hz og 20 kHz. Øret ældes dog ligesom andre organer, og ved 60-års alderen er hørelsen næsten halveret. Derfor er det generelt accepteret, at den gennemsnitlige voksen ikke er i stand til at opfatte lyd over 16 kHz. Frekvenser op til 16 Hz og efter 16 kHz opfattes dog ganske af ørets væv (ja, berøring spiller en rolle her, ikke hørelse). Derudover skal du tage højde for, at det ikke er nok at høre – du skal være opmærksom på, hvad du hører. En person kan ikke lige opfatte alle lydens komponenter på samme tid. Faktum er, at øret modtager lyd af specielle celler. Der er mange af dem, hver designet til at opfatte lydbølger i et bestemt område. Cellerne er således opdelt i grupper, der opererer i deres eget område. Der er omkring 24 sådanne områder, og inden for deres grænser genkender en person kun det generelle billede. Et begrænset antal toner (lyde eller toner) skelnes inden for hvert område. Derfor er hørelsen diskret: en person kan kun skelne 250 toner ad gangen.

Perfekt. For det kræver træning. Og antallet af celler, der registrerer akustiske bølger, er forskelligt for alle. Det værste af alt er, at hos en enkelt person er deres antal i højre og venstre øre forskelligt. Samt opfattelsen af venstre og højre øre generelt.

Høringen er en ikke-lineær ting. Hver lydfrekvens opfattes kun ved en bestemt lydstyrke. Dette fører til flere interessante særheder. Den udbredte bølge høres ikke, før bølgeamplituden (lydvolumen) når en vis værdi og aktiverer den tilsvarende celle. Så afløses stilheden af en skarp og ret tydelig lyd, hvorefter en person kan høre en lidt mere stille lyd. Derudover, jo lavere lydstyrkeniveauet er, jo lavere er opløsningen - antallet af sorterede lyde falder. På den anden side, når lydstyrken sænkes, opfattes de høje frekvenser bedre, og når lydstyrken øges, opfattes lave frekvenser. Og de supplerer ikke, men erstatter hinanden, selvom personen ikke er klar over det.

En anden lille bemærkning: På grund af alle funktionerne i høreapparatet opfatter en person praktisk talt ikke lyde under 100 Hz. Mere præcist kan han føle, at røre ved lave frekvenser med sin hud. Og at høre - nej. Med mere eller mindre passende volumen, selvfølgelig. Det, der gør dem hørbare, er, at akustiske bølger reflekteres i øregangen, hvorved der dannes sekundære bølger. Det er dem, personen hører.

Strengt taget, når man spiller musik, opfatter en person ikke nogle lyde og koncentrerer sin opmærksomhed om andre. Bemærk, at når musikeren begynder at spille en solo, især når lydstyrken er skruet op, skifter opmærksomheden næsten fuldstændigt til den. Men alt kan være omvendt, hvis lytteren elsker trommer – så lyder begge instrumenter næsten på samme niveau. Men kun én og den generelle lydscene vil være tydeligt hørbar. I en videnskab kaldet psykoakustik kaldes sådanne fænomener forklædninger. En af mulighederne for at maskere en del af den opfattede lyd er ekstern støj, der kommer fra bag hovedtelefonerne.

Interessant nok, når man lytter til musik, spiller typen af akustik også en rolle. Fra et fysiks synspunkt giver de forskellige opfattelses- og lydartefakter. Øre- og øretelefoner kan for eksempel forveksles med en såkaldt punktkilde, da de giver et næsten ikke-allokeret lydbillede. On-ear hovedtelefoner og andre større systemer distribuerer allerede lyd i hele rummet. Begge metoder til udbredelse af lydbølger skaber mulighed for gensidig overlejring af lydbølger på hinanden, deres blanding og forvrængning.

Takket være det store arbejde, der er udført, vurderer moderne psykoakustiske modeller nøjagtigt menneskelig hørelse og står ikke stille. Faktisk, på trods af forsikringer fra musikelskere, musikere og audiofile, for den gennemsnitlige, utrænede hørelse, har MP3 i maksimal kvalitet næsten ekstreme parametre.

Der er undtagelser, de kan ikke andet end at eksistere. Men de er ikke altid let mærkbare med blind lytning. Og de følger ikke længere fra høremekanismerne, men fra algoritmerne til behandling af lydinformation af hjernen. Og her spiller kun personlige faktorer ind. Alt dette forklarer, hvorfor vi elsker forskellige modeller af hovedtelefoner, og hvorfor de numeriske karakteristika for lyd ikke entydigt kan bestemme lydkvaliteten.

Anbefalede: