Normalisointi.
- « Edellinen
- 1
- 2
- 3
- Seuraava »
Mä arvasin, että tulee sanomista heti kun suuni avaan :)
Ei aiheessa mitään, eikä keskustelussa muuten, mutta mun mielestä on vähän surkuhupaisaa jos jonkun mielestä joku digitaalinen särö, jota on lähes (tai ehkä jopa täysin) mahdotonta kuulla, pilaisi biisin. Mä odotan innolla koska tämä hifistely menee kvanttifysiikan puolelle :D
Jos tämä hifistely ei ole susta tärkeää, niin ei sun varmaan tarvitse tulla sitä tänne kertomaan, koska tämä on se paikka, jossa siitä nimenomaan keskustellaan. Tämä ei varmaan ole se isoin asia musiikintekemisessä, mutta keskustelutopikki on nimeltään "normalisointi" ja mun mielestä on kehittävää keskustella siitäkin. Musiikki on kuitenkin oikeastaan sarja oikeanlaisia nyansseja ja ne on ne yksityiskohdat, mitkä musassa kolahtaa ja kunnollinen viimeistely on yksi niistä. Masterointi itsessään on hiton vaikeaa ja on ehkä parempi julkaisuvaiheessa jättää niille jotka sen oikeasti osaa, mutta kun toimitaan harrastajatasolla, niin kaikki tehdään itse ja asiasta on kiva tietää kaikenlaista.
--------------
Teinpä testin 16-bittisellä tiedostolla:
Vähensin normalisoidun biisin äänenvoimakkuutta 5 dB ja tallensin sen uudella nimellä. Tämän jälkeen avasin tiedoston ja normalisoin sen ja tallensin taas. Tämän jälkeen suljin audiotiedostot ja kävin poistamassa Wavelabin gpk-filut (Wavelab 5 on vähän turhan fiksu tämänkaltaiseen temppuiluun) ja avasin sekä alkuperäisen, että vaimennetun ja uudelleen normalisoidun tiedoston. Sitten käänsin toisen vaiheen ja summasin tiedostot yhteen. Jälki on tämännäköistä:
http://users.tkk.fi/~jaoinone/1/Normalisointiero.jpg
Saattaa tuntua tuollaiset desibelin osat aika vähäisiltä eroilta, mutta informaatiota on tossakin rätinässä niin paljon, että biisin tunnistaa. Wavelabin audio file comparekin kertoi seuraavaa:
The two files are different!
12989898 differences have been found.
Jos pääasiallinen levityskanava biiseille on netti ja tavara liikkuu mp3-tiedostoina, niin tolla normalisointiasialla ei ole mitään väliä, koska ero (320kbps!) mp3-tiedoston ja alkuperäisen välillä on ihan käsittämätön:
http://users.tkk.fi/~jaoinone/1/MP3-ero.jpg
Itseasiassa ero on niin älytön, että jouduin tarkistamaan, ettei mitään ole mennyt niinsanotusti vituiksi, mutta eroa on oikeasti desibelitolkulla. Kohdistin vielä vaiheetkin tasan kohdalleen (mp3-koodaus teki jostain syystä on-site prosessoinnillakin framen mittaisen 1152 samplen tauon alkuun), mutta silti jälki on aika hurjaa.
Jos tämä hifistely ei ole susta tärkeää, niin ei sun varmaan tarvitse tulla sitä tänne kertomaan
Johan mä myönsin, että ei nämä mitään turhia juttuja ole. Ainoa asia mitä kritisoin oli se, että joskus mennään mun mielestä vähän liiallisuuksiin, enkä mä edes ilmaissut itseäni mitenkään epäasiallisesti. Vai sanoinko nyt jotenkin tosi pahasti?
Mikä hitto siinä nyt on jos joku on eri mieltä asian tärkeydestä? Mä en ymmärrä noita "älä tuu tänne selittää, jos et tykkää" -kommentteja. Etkö muka itse tulisi kommentoimaan jotain mun postausta, jossa mun kommentit olisivat sun mielestä täysin absurdeja?
WTF :confused:
Löysätkääs pipojanne kun on joulukin tulossa :heart:
Mistäs sitten puhuttaisiin? Biisien taiteellisesta puolesta kun on hieman vaikea keskustella faktatasolla :) Ja jos foorumin nimi on "audio TECH" niin kaipa viilaamisesta saa puhua. Pakko myöntää, että tämä on kuitenkin about paras kotimainen elektronisen musiikin tekijöiden foorumi, ja itseäni ainakin kiinnostaa lukea (ja välillä myös keskustella) myös pilkunviilaamisesta. Kun verrataan esim. Klubituksen tai herranjumala vaikka Posse.fi:n keskusteluihin, niin noissa lähinnä puhutaan "onkx fruity parempi ku reason, mikä on MPC?" -tasolla. Jonkun Gearslutz.com:in keskustelut ovat mielenkiintoisia, mutta sen tason ammattilaiset jotka siellä jauhaa ovat kiinnostuneita lähinnä vertailemaan tuhansien eurojen etuasteiden soundia keskenään. Ja tohon ei sattumalta ole itsellä varaa :) Joten jos keskustelua syntyy vaikkapa sitten normalisoinnin teknisistä vaikutuksista, niin why not?
Eikä "pilkunviilaamisen", tai pikemminkin hyvän teknisen tietämyksen, ole pakko luovuutta tappaa. Ei normalisoinnin vaikutuksista tarvitse kuitenkaan biisiä kirjoittaessa välittää, samoin kuin hyvä tekninen äänittäminen ja miksaaminen tulevat yleensä villeimmän luomisvaiheen jälkeen.
Myönnettäköön, että tämä kyseinen keskustelu nyt on jo aika hifistelyä, mutta ihan hyvää läppää anyway.
Mäkin olen tässä koittanu katella vähän muitakin foorumeita, mutta tekkipuolella Platinum ja Stealthunit on kyllä aika ykkösiä suomalaisilta foorumeilta. Findance on melkeen kuollut ja joku Klubitus tosiaan on vähän mitä on. Ja slsx:n jäykästä olemuksesta en muuten vaan pidä ja aika hiljaista sielläkin on. Muusikoiden.nettiä tulee selailtua, mutta se on vähän turhan rokkipainotteista, joten siitä ei saa ihan kaikkea hyötyä irti.
Ulkomaisissa onki sitten paremmin valinnanvaraa. Toi Gearslutz oli muuten mulle uus tuttavuus, kiitoksia linkistä. :)
Teinpä testin 16-bittisellä tiedostolla:
Vähensin normalisoidun biisin äänenvoimakkuutta 5 dB ja tallensin sen uudella nimellä. Tämän jälkeen avasin tiedoston ja normalisoin sen ja tallensin taas. Tämän jälkeen suljin audiotiedostot ja kävin poistamassa Wavelabin gpk-filut (Wavelab 5 on vähän turhan fiksu tämänkaltaiseen temppuiluun) ja avasin sekä alkuperäisen, että vaimennetun ja uudelleen normalisoidun tiedoston. Sitten käänsin toisen vaiheen ja summasin tiedostot yhteen. Jälki on tämännäköistä:
http://users.tkk.fi/~jaoinone/1/Normalisointiero.jpg
Siis kertoisitko nyt uudestaan mitä niille sampleille teit? Vähensit siis äänenvoimakkuutta ja sitten lisäsit sitä ja sitten vertasin alkuperäiseen? Nostit siis kohinatasoa, joka ei suoranaisesti liity itse normalisointiin vaan kohinatason nostoon(! omg että joutuu edes selittämään tällaista).
Kun käytät ensin desibelimittaista vähennystä ja sen jälkeen normalisointia amplitudi voi olla eri kuin lähtökohta mikäli lähtökohta ei ole normalisoitu samoin. Tällä kertaa se ilmeisesti sattui kohdalleen koska sait oikean näköistä tavaraa ulos. Ensimmäinen kokeesi on siis "melkein" oikein tehty mutta se mitä sait tulokseksi ei liity siihen mitä aloit tutkia.
Opiskeletko muuten ihan oikeasti tkk:lla?
Mp3 pakkaus muuttaa soundia monilla tavoin, joita ihmiskorva ei kuule musiikin SEASTA(!!!). Tietenkin saat invertoimalla alkuperäisen suhteen erilaiset mp3 pakkauksen aiheuttamat amplitudin modulaatioeroavuudet ja taajuusleikkaukset esiin, mutta se ei kerro paljoakaan siitä miltä se tiedosto oikeasti kuulostaa. Dynamiikkaerot ym ym vaikuttaa kuultavaan materiaaliin.. tähänhän mp3-pakkauksen yksi datanvähennysalgoritmi perustuu. 320kbps mp3 pakkaus leikkaa myös todella paljon yli 16khz materiaalia ja vain voimakkaimmat korkeat äänet tulevat pakkauksen läpi. Hiljaisempia et muutenkaan edes kuulisi. Se mitä sait pihalle hakemalla mp3 filen ja wavin eroja on JOKO se mitä mp3:sta puuttuu suhteessa waviin tai mitä siinä on lisää suhteessa waviin tai mikä siinä on hieman eri volumella tai eri vaiheessa suhteessa waviin. Jos yrität oikeasti tutkia mitä eroja wavilla ja mp3:lla on tarvit muunlaiset tutkimistyökalut kuin invertoinnin(tai sit voisit lukea mpeg-1 layer 3 specsit.. jota mä en kyllä jaksa).
Mutta tämäkään ei liity mitenkään normalisointiin. Olisi kiva kuulla jos jollakin täällä olisi oikeasti tietoa normalisoinnin haitoista? Mulle ainakin vielä hieman tuntematon aihe... ja tähän mennessä kaikille muillekkin täällä kirjottaneille.
Siis kertoisitko nyt uudestaan mitä niille sampleille teit? Vähensit siis äänenvoimakkuutta ja sitten lisäsit sitä ja sitten vertasin alkuperäiseen? Nostit siis kohinatasoa, joka ei suoranaisesti liity itse normalisointiin vaan kohinatason nostoon(! omg että joutuu edes selittämään tällaista).
Kun käytät ensin desibelimittaista vähennystä ja sen jälkeen normalisointia amplitudi voi olla eri kuin lähtökohta mikäli lähtökohta ei ole normalisoitu samoin. Tällä kertaa se ilmeisesti sattui kohdalleen koska sait oikean näköistä tavaraa ulos. Ensimmäinen kokeesi on siis "melkein" oikein tehty mutta se mitä sait tulokseksi ei liity siihen mitä aloit tutkia.
Alkukohta oli huipputasoltaan tasan 0dB, jota vaimensin 5dB ja sitten lisäsin normalisoinnin, jolloin huipputaso on jälleen 0dB. Tämän jälkeen käänsin lopputuloksen vaiheen ja summasin sen alkuperäisen tiedostoon ja lopputuloksena on digitaalisen äänenvoimakkuuden muutosten aiheuttama särö.
Biisi on muuten alunperin normalisoitu jostain -7dB tasosta, eli ensin on signaalia ja kohinaa voimistettu sen verran (SNR pysyy samana), sitten vaimennettu 5dB (SNR pysyy edelleen samana) ja sitten taas voimistettu (SNR on vieläkin sama). Esimerkin tarkoituksena oli demonstroida särön muodostumista käytettäessä digitaalista tasonmuutosta.
Ja koska oikean volyymin hakemisen voi hoitaa aivan yksinkertaisesti miksausvaiheessa (melkeen kaikkien nykysekkareiden mikserit toimivat vähintään 32-bit floating point-domainilla), miksi pitää tehdä masteriin muutoksia, koska jokaikinen muutos, analoginen tai digitaalinen, huonontaa äänenlaatua? Tällöinhän saadaan paras mahdollinen SNR, kun ei jätetä normalisointia sinne masterin jälkeiseen prosessiin, koska silloin vahvistetaan signaalin lisäksi myös kohinaa.
Toi MP3-juttuhan ei liittynyt millään muulla tavalla aiheeseen kuin sillä, että osoitin sen avulla, että koko normalisointiasia säröineen on vähäpätöinen verrattuna mp3-pakkauksen tekemiin muutoksiin, koska mm. master bator kertoi sen olevan musiikkinsa päälevitysformaatti.
Opiskeletko muuten ihan oikeasti tkk:lla?
Opiskelen tällä hetkellä siltaopintoja tkk:lla elektroniikan ja sähkötekniikan koulutusohjelmassa, jossa valitsin pääaineeksi akustiikan ja äänenkäsittelyn, jota opettelenkin tässä pikkuhiljaa. Onko tämä sitten "oikeaa" opiskelua kun teen tätä harrastuksena duunien ohessa, siitä voi toki olla montaa mieltä.
Mitään kiirettä valmistumiselle ei ole ja hoitelenkin ton noin 150 opintopisteen kakun varmaan noin kolmessa-neljässä vuodessa. Mikähän kohta mun opinnoissa sua kiinnostaa kun tuollaista kysyt?
Mulle ainakin vielä hieman tuntematon aihe... ja tähän mennessä kaikille muillekkin täällä kirjottaneille
Ilmeisesti olen ilmaissut itseäni jotenkin epäselvästi. Mielestäni ymmärrän periaatteen ja haitat aika selkeästi.
Otetaan vaikka yksinkertaisuuden vuoksi 8-bittinen sample, jonka kaksi vierekkäistä samplea ovat positiivisissa arvoissa 125 ja 126. Suurimman mahdollisen arvon ollessa 127, voidaan normalisintia suorittaa yhden bitin verran (suurin arvo siis voi kasvaa 126->127))
Normalisoitaessa arvo 126 muuttuu arvoksi 127 ja desibelimuutos on
20*log(127/126)=0,068663516767879 desibeliä.
Samalla muutoksella kun 126 muuttui arvoksi 127, arvo 125 haluaisi mennä samalla muutoksella lukuun 125,992063492063. Koska käytössä on vain tasalukuja, 125 muuttuukin tasan 126:ksi, eli säröä tulee, koska joudutaan pyöristämään ja vierekkäiset samplet eivät saaneetkaan ihan samaa vahvistusta.
Jos jälkiprosessoinnissa tarvitaan normalisointia, haittana on siis kaksi seikkaa: alkuperäisessä miksauksessa ei ole käytetty kaikkea mahdollista dynamiikkaa hyväksi, joten signaali-kohinasuhde ei ole paras mahdollinen. Toisekseen normalisoinnista syntyy säröä. Molempien merkitys on hyvin vähäinen, etenkin kun nykyään prosessointi on käytännössä 32-bit ja yli.
Alkukohta oli huipputasoltaan tasan 0dB, jota vaimensin 5dB ja sitten lisäsin normalisoinnin, jolloin huipputaso on jälleen 0dB. Tämän jälkeen käänsin lopputuloksen vaiheen ja summasin sen alkuperäisen tiedostoon ja lopputuloksena on digitaalisen äänenvoimakkuuden muutosten aiheuttama särö.
Biisi on muuten alunperin normalisoitu jostain -7dB tasosta, eli ensin on signaalia ja kohinaa voimistettu sen verran (SNR pysyy samana), sitten vaimennettu 5dB (SNR pysyy edelleen samana) ja sitten taas voimistettu (SNR on vieläkin sama). Esimerkin tarkoituksena oli demonstroida särön muodostumista käytettäessä digitaalista tasonmuutosta.
Ja koska oikean volyymin hakemisen voi hoitaa aivan yksinkertaisesti miksausvaiheessa (melkeen kaikkien nykysekkareiden mikserit toimivat vähintään 32-bit floating point-domainilla), miksi pitää tehdä masteriin muutoksia, koska jokaikinen muutos, analoginen tai digitaalinen, huonontaa äänenlaatua? Tällöinhän saadaan paras mahdollinen SNR, kun ei jätetä normalisointia sinne masterin jälkeiseen prosessiin, koska silloin vahvistetaan signaalin lisäksi myös kohinaa.
En nyt haluais olla pilkun viilaaja, mut toi sun "normalisoinnin aiheuttama särö" on ihan normaalia mittaustarkkuuden rajan kohinan nostamista ylemmäs. Sä siis teet saman kun jos nauhottaisit matskun kasetille(jossa siis huonompi mittaustarkkuus) ja katot sitten invertoimalla minkälaisen kohinan se aiheuttaa.. mutta teet sen digitaaliselle signaalille. Okei kutsu sitä sit säröksi jos haluat, mutta kohinatasoksi sen olen itse oppinut tuntemaan(myös digitaalisessa ympäristössä sellainen on.. eli en puhu analogisen audiosignaalin SNR:stä johon pakonomasesti kokoajan palaat).
Eli joo ehkä aika samasta asiasta puhuttiin. En vaan miellä sitä mitenkään normalisoinnin aiheuttamaks maagiseks säröks joka pilaa totaalisesti äänen :scared:
Toi MP3-juttuhan ei liittynyt millään muulla tavalla aiheeseen kuin sillä, että osoitin sen avulla, että koko normalisointiasia säröineen on vähäpätöinen verrattuna mp3-pakkauksen tekemiin muutoksiin, koska mm. master bator kertoi sen olevan musiikkinsa päälevitysformaatti.
Tosin et ottanut huomioon miten mp3-pakkaus vaikuttaa siihen kohinaan. Siis uskon kyllä ettei mp3 pakkaus kaikkein hiljaisimpia kohinoita tallenna(eli alle -90db missä digikohinat normaalisti sijaitsevat), mutta oma invertointiproseduuris ei todista yhtään mitään yhtään mihinkään suuntaan... muuta kuin että mp3 on erilainen kun wav :)
Opiskelen tällä hetkellä siltaopintoja ja valitsin pääaineeksi akustiikan ja äänenkäsittelyn, joita opettelen tässä pikkuhiljaa. Onko tämä sitten "oikeaa" opiskelua kun teen tätä harrastuksena duunien ohessa, siitä voi toki olla montaa mieltä.
Mitään kiirettä valmistumiselle ei ole ja hoitelenkin ton noin 150 opintopisteen kakun varmaan noin kolmessa-neljässä vuodessa. Mikähän kohta mun opinnoissa sua kiinnostaa kun tuollaista kysyt?
Ok. Kyselin vain kun et mittaustarkkuuden rajoituksia tiennyt. Aika perusasiaa...
Jos jälkiprosessoinnissa tarvitaan normalisointia, haittana on siis kaksi seikkaa: alkuperäisessä miksauksessa ei ole käytetty kaikkea mahdollista dynamiikkaa hyväksi, joten signaali-kohinasuhde ei ole paras mahdollinen. Toisekseen normalisoinnista syntyy säröä. Molempien merkitys on hyvin vähäinen, etenkin kun nykyään prosessointi on käytännössä 32-bit ja yli.
Juu. Asia kunnossa. Varmistit just mukavasti omat tietoni ja sen ettei tolla asialla oo oikeasti yhtään mitään merkitystä edes 16bit tarkkuudella.....
......joo ellet sit vispaa aplitudia 60db eestaas...
Edit: ja juu testasinpas sitten äkkiä miltä toi sun testi kuulostaa jos sen tekee toisinpäin. Lisää ensin 20db volumea ja sitten vähentää samat 20db, jollon siis sinun mukaasi säröä pitäis tulla niin että ääni menee ihan paskaks. Kah.. eipä menny. Ulostulo oli tasan täsmälleen sama kun lähtökohta. Hassu juttu... Se että tutkit normalisointia sai sut löytämään vaan digitaalisen kohinatason ihmeet.
Ja jotta tää ei kuulostas vaan tyhmältä(kun se -20db:hän poistaa kaiken häiriön kun volat lasketaan alas) vedin ton saman nostamalla ensin 20db sitten vähentämällä 5db ja invertoimalla sen alkuperäseen jota on nostettu 15db. Vieläkö pysyt kärryillä? Lopputuloksena kohinaa joka edelleen alle -90db. Hassu juttu. Tohon kun vielä lisää 16bit ditheröinnin koko "häiriö" katoaa ditheröintikohinan alle. Ja tää on siis aika maksimaalinen normalisointi.. jota kukaan tuskin ikinä tulee edes tekeen.
Ei kai tässä muuta voi sanoa kun että volumekontrolleri on pahin äänen tuhoaja!!
jollon siis sinun mukaasi säröä pitäis tulla niin että ääni menee ihan paskaks.
Nyt menee kiitos jo niin rankaksi paskanjauhamiseksi, että tämä on viimeinen kerta kun kommentoin nimimerkin "whuf." sanomisia.
Mä olen kahteen kertaan käyttänyt termiä "ilmavuus", puhunut erojen pienuudesta ja erojen marginaalisesta olemuksesta. Lisäksi olen puhunut erojen hyvin vähäisestä merkityksestä etenkin suuribittisellä prosessoinnilla. Kaukana siis siitä, että "ääni menee ihan paskaks".
Eipä ole muuta sanottavaa enää, kuin suora lainaus:
It's also a myth that normalization improves sound quality of a recording; in fact it can only degrade it. Technically speaking, normalization only adds one more degrading calculation and resulting quantization distortion. And since the material has already been mixed, it has already been quantized, which predetermines its signal to noise ratio.
...
Let me repeat: Raising the level of the material will not change its inherent signal to noise ratio but will only add quantization distortion in an unnecessary step.
LOL
Tää on aina niin hauskaa...
Bulk vs. whuf.
Jokaikisessä topicissa :D
LOL
Tää on aina niin hauskaa...
Bulk vs. whuf.
Jokaikisessä topicissa :D
Nojaa, mun mielestä tää taas ei ole kovin hauskaa. Whuf. jaksaa väitellä loputtomiin ihan sama onko oikeassa vai väärässä...
edit. ok, vedetään hieman takaisin. En lukenut aivan kaikkia posteja ylempää. Näköjään rankkaa vääntöä suuntaan jos toiseen. Jatkakaa... :hah:
Sen enempää menemättä johonkin noihin teknisiin juttuihin (ei kiinnosta niin paljon), niin pitää sanoa, et kyl toi normalisointi tekee ihan helvetillistä jälkeä tietyissä tapauksissa. Joskus aikoinaa normalisoin Wavelabilla (muistaakseni 4) biisejä joissa oli särökitara aika suuressa osassa, niin semmonen alta desbelin nosto veti biisit aika pitätkälti kuuntelukelvottomaan kuntoon, ilmeisesti just noitten pienten heittojen takia eri taajuuksilla. Empä ole sitten sitä normalisointia käyttänytkään. Olen huomannut et toi särökitara on aika tosi herkkä noille vääristymille (128kbps:n pakattu mp3 muuttuu täysin mössöksi, ja sinne tulee ihan käsittämättömiä tajuus kertautumiä korkeisiin tajuuksiin, muutos jossain trance biisissä on aika pientä verrattuna tohon).
LOL
Tää on aina niin hauskaa...
Bulk vs. whuf.
Jokaikisessä topicissa :D
Jep. Aika huvittavaa.. mut minkäs sille mahtaa :excellent:
vetää vielä soppaan mukaan henkilökohtaisuuksiakin, jos ei muuten tahdo pärjätä. Ihme jos saa lukee jotain asiallista tekstiä. :)
Haha. Just yritän välttää kaikenlaisia henkilökohtasuuksia koska ne ei väittelyihin tai foorumeille musta kuulu. Joskus toki saa kysyä jotain toisen tietämyspohjaan liittyen?
No mut pahottelut silti Bulkille jos loukkasin sen tunteita.. varsinkin näin joulun alla.
Sit vielä jatkoa aiheeseen että en jaksa uskoa volumen nostamisen vaikutusta suuremmaks kitaralla kun jollain muulla soittimella. Jotkin ohjelmat saattaa kaikenlisäks tehdä asioita väärin.. kuten esim Cubase ja näytteenottotaajuuden muutos(ainakin vst5 ja sx1) -> ihan täyttä kuraa.. oikeasti pilaa koko soundin. Olis tietenkin mielenkiintosta kuulla se normalisoinnin vaikutus kitaraan jos se on niin vahva kun annetaan ymmärtää. Ite en ole havainnut että sillä olis mainittavaa vaikutusta jollei nosta volumea ihan tolkuttomasti.
Noissa volumeiden muuttamisissa kannattaa muistaa se että Kaikki digitaalinen audio on approksimaatiota alkuperäisestä. Se että volumen nostaminen digitaalisesti aiheuttaa approksimaatioiden epätarkkuutta(bulkin esimerkki 8bit soundilla.. tulee puolikkaita arvoja yms jotka pitää pyöristää) ei ole niinkään vakava asia koska saman epätarkkuuden teet nostamalla volumea analogisesti ennen a/d muunnosta. Eikö vaan? Se että normalisoit biisin(esim 10db) ei vähennä dynamiikkaa mihinkään, sillä ainoastaan "siirrät" signaalin amplitudin suuremmaksi. Mutta se osa joka aiemmin oli tyhjää(esim 16bit signaalissa 0 -> -10 db) siirtyy periaatteessa pohjakohinaksi(-86 -> -96 db). Mitään ei katoa ja saat lisää kohinaa vain näennäisesti. Koko toimenpide on käänteisesti peruttavissa, eli -20db amplitudin lisäyksen tuomat haitat voidaan poistaa -20db vähennyksellä.
Ongelma on siis signaalin kohinatason(tässä tapauksessa digitaalisen) nostamisessa ja pätee kaikkiin tunnettuihin audio-, kuva-, ja tiedonsiirtoformaatteihin.. ei mitenkään erityisesti digitaaliseen audioon tai sen normalisointiin. Musta siis jotenkin turhaa kieltää normalisointi audiotyöskentelyssä koska samalla voisikin sitten kieltää volumen käytön ja 16 bittiset tiedostomuodot.
Joo ihan turhaahan tää selittäminen on, mut ajattelin vaan kirjotella aiheesta joka itseänikin nyt hetken sattui kiinnostamaan ja josta löysin muutamia mielenkiintoisia puolia. Ehkä jollekkin on näistä apua jos vaan viitsii lukea ja testailla ilman ennakkoluuloja.
Onhan se tasojen säätäminen yms tärkeää, mutta mun mielestä se ei kyllä sais mennä sen itse musan edelle. Niin monesti on tullut esim. demo trackseista kuunneltua erittäinkin hyvin tuotettuja biisejä, joista on puuttunut vain yksi asia: sisältö. Sen sijaan on paljon useammin tullut kohdalle sellaisia biisejä, jotka eivät kuulosta ihan miljoonastudiossa väännetyiltä, mutta ideaa löytyy. Tietysti parastahan se olis jos molemmat puolet olis hanskassa, mutta aika usein se tuntuu menevän vähän joko tai. Mulla nyt ei ole hanskassa kumpikaan, mutta ei puhuta siitä :D
vähän off-topiccia:
Kuuntelin juuri sun Mbarin live-setin ja hyvältä se kuulosti. Mun mielestä aika kerpeleesti sisältöä! Tasoja yms. en nyt tässä kommentoi sen enempää, muttei ainakaan mitään häiritsevää osunut korviin.
RAUHALLISTA JOULUA KAIKILLE.
vähän off-topiccia:
Kuuntelin juuri sun Mbarin live-setin ja hyvältä se kuulosti. Mun mielestä aika kerpeleesti sisältöä! Tasoja yms. en nyt tässä kommentoi sen enempää, muttei ainakaan mitään häiritsevää osunut korviin.
RAUHALLISTA JOULUA KAIKILLE.
Aika offtopic joo, mutta kiitti nyt kuitenkin :)
- « Edellinen
- 1
- 2
- 3
- Seuraava »