Negli ultimi trent'anni, il modo in cui accediamo alla musica ha subito cambiamenti radicali. Con l'avvento dei servizi di streaming digitale e della tecnologia di elaborazione del segnale digitale (DSP), la normalizzazione audio standard è diventata parte integrante di questo processo.
Ma cosa significa normalizzazione audio e come è possibile eseguire questo processo con i propri file audio digitali? Vediamo cos'è la normalizzazione del suono e perché è una fase fondamentale nella creatività musicale moderna.
Il sequencer online Amped Studio offre una lista completa di funzionalità per la normalizzazione audio completa, che consente di elaborare in modo professionale le vostre tracce.
Che cos'è la normalizzazione audio?
Durante il processo di normalizzazione audio, si applica un guadagno specifico a un file audio digitale, che lo porta a un'ampiezza o a un livello di volume specifico, mantenendo la gamma dinamica delle tracce.
La normalizzazione audio viene spesso utilizzata per massimizzare il volume di un clip audio selezionato e garantire la coerenza tra diversi clip audio, come in un album o un EP che contiene più tracce.
È importante notare che le composizioni con un'ampia gamma dinamica possono essere più difficili da normalizzare in modo efficace. Durante il processo di normalizzazione possono verificarsi problemi quali appiattimento o distorsione dell'ampiezza di picco.
Pertanto, ogni clip audio richiede un approccio individuale durante la normalizzazione. La normalizzazione audio è parte integrante dell'elaborazione della registrazione digitale, ma non esiste un approccio unico valido per tutti i casi.
Prima e dopo la normalizzazione audio
Perché è necessario normalizzare il suono?
Perché è così importante normalizzare i file audio? Ecco alcuni scenari in cui la normalizzazione del volume è indispensabile:
Preparazione al lavoro con i servizi di streaming
I servizi di streaming impostano automaticamente un livello di volume standard per tutti i brani nelle loro librerie, evitando la necessità di regolare il volume durante l'ascolto. Ogni piattaforma ha i propri LUF target per garantire un suono coerente:
• Spotify : -14 LUFS;
• Apple Music : -16 LUFS;
• Amazon Music : da -9 a -13 LUFS;
• Youtube : da -13 a -15 LUFS;
• Deezer : da -14 a -16 LUFS;
• CD : -9 LUFS;
• Soundcloud : da -8 a -13 LUFS.
Sebbene ogni tecnico del suono possa avere un approccio diverso nel determinare il livello di volume target per il mastering, questi standard sono linee guida importanti per garantire una riproduzione musicale coerente su tutte le piattaforme.
Raggiungere il volume massimo
L'uso della normalizzazione audio consente di raggiungere il livello di volume massimo per ogni file audio. Ciò è particolarmente utile quando si importano tracce in programmi di editing audio o per aumentare il volume di un singolo file audio.
Creazione di un singolo livello tra più file audio
È anche possibile condizionare i file audio allo stesso livello di volume, il che è importante per processi come il mastering, dove è necessario impostare livelli audio appropriati per la successiva elaborazione.
Inoltre, dopo aver completato un progetto musicale come un album o un EP, è possibile normalizzare e modificare i file audio. Poiché si desidera che l'atmosfera e il suono dell'intera registrazione siano coerenti, potrebbe essere necessario tornare indietro e regolare i livelli di volume in modo che si adattino a tutte le canzoni.
Due tipi di normalizzazione del suono
A seconda dei diversi scopi di utilizzo delle registrazioni audio, vengono utilizzati diversi metodi di normalizzazione del suono. Di solito si tratta di due tipi principali: normalizzazione di picco e normalizzazione del volume.
Normalizzazione dei picchi
Il processo di normalizzazione dei picchi è un metodo lineare in cui viene applicato un aumento uniforme al segnale audio per ottenere un livello corrispondente all'ampiezza massima della traccia audio. La gamma dinamica rimane la stessa e il nuovo file audio suona più o meno allo stesso modo, tranne per il fatto che il livello del volume può essere più alto o più basso. Questo processo determina il valore PCM più alto o il valore di modulazione del codice a impulsi in un file audio. L'essenza della normalizzazione dei picchi è quella di elaborare l'audio in base al limite superiore di un sistema audio digitale, che in genere corrisponde a un picco massimo di 0 decibel. L'effetto della normalizzazione dei picchi si basa esclusivamente sui livelli audio di picco e non sul volume percepito della traccia.
Normalizzazione del volume
Il processo di normalizzazione del volume è più complesso perché tiene conto delle caratteristiche della percezione umana del suono. L'orecchio umano è in grado di distinguere diversi livelli di volume e ampiezza dei singoli suoni, con alcune limitazioni soggettive. Questa elaborazione è spesso denominata determinazione del volume EBU R 128.
Ad esempio, i suoni riprodotti per un lungo periodo allo stesso livello di volume possono sembrare più forti dei suoni riprodotti in modo intermittente o momentaneo, anche se i livelli di volume sono gli stessi. Ciò si verifica a causa del modo in cui l'orecchio umano percepisce il suono. Pertanto, quando si normalizza il volume, è necessario tenere conto di queste caratteristiche percettive.
Alcune persone trovano che la musica più forte sia più attraente. È stata questa idea a dare origine alla "guerra del volume" prima dell'avvento dei servizi di streaming, con i musicisti che cercavano di massimizzare il volume di picco delle loro registrazioni per creare un suono più prominente e colorato. Tuttavia, grazie alla normalizzazione del suono, questo fenomeno appartiene al passato e ora la transizione tra i brani non è accompagnata da improvvisi cambiamenti di volume.
I LUF vengono utilizzati per misurare i livelli di volume in modo da avvicinarsi maggiormente alla percezione umana del suono. Questo standard è ampiamente utilizzato nei film, in televisione, alla radio e nei servizi di streaming. Come per la normalizzazione dei picchi, 0 dB rimane lo standard.
La curva di Fletcher-Munson, come indicato sopra, può aiutare a spiegare le differenze prese in considerazione nella normalizzazione del volume in LUF.
Gli standard di volume variano a seconda della regione e dell'applicazione
14 LUFS: Spotify, YouTube e altre piattaforme di streaming.
Determinazione del volume quadratico medio
Se non si intende normalizzare i canali stereo utilizzando la normalizzazione del livello di picco, probabilmente si utilizzerà la normalizzazione del volume, ma vale anche la pena menzionare un'altra tecnica di elaborazione del volume, il volume RMS.
Il processo di normalizzazione è simile alla normalizzazione del volume in LUF, ma vengono utilizzati i livelli RMS. Il valore quadratico medio (RMS) misura il volume medio di una sezione o dell'intera durata di un clip.
Tuttavia, proprio come la normalizzazione basata sul picco più alto, la normalizzazione RMS non tiene conto dell'udito umano. Questo è il motivo per cui i tecnici di masterizzazione lavorano tipicamente con LUF e processi di normalizzazione come standard. La masterizzazione non consiste solo nell'assicurarsi che i volumi siano coerenti in tutto il progetto. È anche importante fare un passo indietro e considerare la dinamica, la percezione umana e l'equilibrio tra ogni traccia.
Quando utilizzare la normalizzazione
Ora che avete compreso cos'è la normalizzazione audio, discutiamo quando e come dovrebbe essere utilizzata.
Masterizzare la tua musica
La normalizzazione audio è uno strumento fondamentale nel processo di masterizzazione delle tracce.
Durante il mastering, è importante mantenere un livello di volume costante nelle tracce.
Ciò consente agli ascoltatori di godersi la musica senza dover regolare costantemente il volume.
Normalizzando le tracce, ad esempio quando si crea un post-mix/master per un album, è possibile ottenere un suono professionale e raffinato.
Un suono che soddisfa gli standard di rilascio commerciale ed è pronto per la distribuzione.
A proposito di masterizzazione, se stai cercando i migliori plugin di masterizzazione, siamo qui per aiutarti a trovarli.
Preparazione per i servizi di streaming
I servizi di streaming hanno requisiti di volume specifici che devono essere presi in considerazione quando si scarica la musica.
La normalizzazione può aiutarti a soddisfare questi requisiti, fornendo un'eccellente qualità audio su queste piattaforme.
Normalizzando i file in modo che corrispondano al livello target del servizio di streaming, garantisci una qualità di riproduzione costante per i tuoi fan.
Tuttavia, se non esegui tu stesso questo processo, i servizi di streaming possono farlo per te utilizzando la compressione, la limitazione e altre tecniche.
Ciò può causare gravi problemi alla qualità audio.
Ricordati sempre di controllare le raccomandazioni sul volume per ogni specifico servizio di streaming, poiché i requisiti possono variare.
Lavorare con vari file audio
Quando si lavora con più file audio in un progetto, è importante mantenere lo stesso livello di volume per tutti.
Ciò è particolarmente importante se i file audio provengono da fonti diverse o sono registrati a volumi diversi.
Ciò è particolarmente importante se i file audio hanno origini diverse o sono registrati a volumi diversi.
Ciò è particolarmente importante se i file audio hanno origini diverse o sono registrati a volumi diversi.
Idee sbagliate comuni sulla normalizzazione audio
Penso che sia molto importante considerare alcuni malintesi comuni prima di andare avanti, soprattutto per chi è alle prime armi.
1. La normalizzazione del suono e la compressione sono due cose diverse
Alcune persone confondono la normalizzazione con la compressione, ma hanno scopi completamente diversi.
Mentre la normalizzazione regola il livello di volume complessivo di un file audio, la compressione riduce la gamma dinamica del file.
La compressione può aiutare a creare un livello di volume più stabile all'interno di un file audio, ma non aumenta necessariamente il livello di volume complessivo del nuovo file audio.
A meno che non sia questo il vostro obiettivo, ovviamente.
La compressione viene tipicamente utilizzata per la correzione dinamica e il miglioramento del suono, mentre la normalizzazione è più una funzione utilitaristica.
Se stai cercando i migliori plugin di compressione per questo processo, non cercare oltre.
2. La normalizzazione del suono non risolve tutto
È importante ricordare che la normalizzazione dei picchi non risolve tutti i problemi audio.
Se hai problemi con il rapporto segnale/rumore, la distorsione o altri artefatti audio, la normalizzazione da sola non risolverà tali problemi.
In questi casi, è necessario affrontare le cause alla radice del problema e utilizzare altre tecniche di elaborazione audio come l'equalizzatore o la riduzione del rumore per ottenere il suono desiderato.
Se si verifica una situazione del genere, abbiamo i migliori plugin equalizzatori del 2023.
3. La normalizzazione del suono non aumenta le riserve di potenza
Quando si normalizzano i file audio, è importante mantenere un headroom di volume sufficiente nei mix e nelle registrazioni.
Il margine è la differenza tra il punto più forte del file audio e il livello di volume massimo che il sistema audio digitale è in grado di gestire.
Se normalizzi l'audio in modo troppo aggressivo, rischi distorsioni e clipping, che possono influire negativamente sulla qualità della tua musica.
Ricorda che, indipendentemente dal DAW o dal sistema che utilizzi, è importante monitorare tutto ciò che supera il valore di 0 dB.
Questo perché evitare le restrizioni e avere un margine sufficiente consente di evitare distorsioni.
Ad esempio, mi piace considerare -16dB come mio obiettivo di headroom e per qualsiasi valore superiore utilizzo un limiter (solo per mantenere un headroom adeguato).
Questo aiuta anche a compensare eventuali modifiche di volume necessarie durante la fase di masterizzazione.
Processo di normalizzazione del suono
Ora che abbiamo trattato i malintesi più comuni sulla normalizzazione audio, approfondiamo il processo stesso.
Analizza i tuoi file audio
Prima di normalizzare i file audio, è importante analizzarli e determinare i livelli di volume attuali.
Questa analisi può essere effettuata utilizzando gli strumenti integrati nella tua DAW o utilizzando un software di analisi audio dedicato.
Comprendendo i livelli di volume attuali dei tuoi file, puoi prendere decisioni informate sul processo di normalizzazione audio.
Selezionare un obiettivo di normalizzazione audio
Dopo aver analizzato i file, puoi scegliere l'obiettivo di normalizzazione più adatto alle tue esigenze.
I fattori da considerare nella scelta di un metodo di normalizzazione includono:
Tipo di materiale audio;
Livello di volume desiderato;
Tipo di elaborazione eseguita;
Piattaforma di destinazione per la tua musica.
Ogni livello di normalizzazione ha i suoi punti di forza e di debolezza, quindi è importante scegliere quello che fornirà i risultati migliori per la tua situazione specifica.
In situazioni di missaggio . Rimanete nella fascia bassa delle doppie cifre, idealmente da -18 a -12 dB;
Per scopi di masterizzazione . Un'opzione sicura sarebbe qualsiasi valore compreso tra -8 e -3 dB.
In alcuni servizi di streaming e in alcune situazioni potrebbe verificarsi una situazione in cui è garantito -0 dB, quindi assicuratevi semplicemente che non superi questo valore, poiché è proprio al limite.
Nota. Durante il processo di mixaggio, è importante prestare molta attenzione alle impostazioni di guadagno e determinare il volume RMS per stabilire la quantità di guadagno necessaria per ogni traccia.
L'uso del controllo del guadagno della clip può aiutare a ottenere un controllo preciso dei livelli di volume, garantendo un mix ben bilanciato.
Normalizzazione del suono
Dopo aver selezionato l'obiettivo di normalizzazione appropriato, è possibile modificare i file audio utilizzando una DAW o un software di editing audio dedicato.
La maggior parte delle DAW e dei software di editing audio dispongono di strumenti di normalizzazione integrati che li rendono facili da usare.
In genere, è sufficiente evidenziare l'audio e premere il comando, oppure selezionare semplicemente "Normalizza" dal menu a tendina.
Assicurati di monitorare i risultati del processo di normalizzazione per garantire che i nuovi livelli di volume soddisfino le tue aspettative e non causino artefatti o problemi indesiderati.
Compressione vs normalizzazione
Quando si parla di normalizzazione, spesso viene paragonata al processo di compressione. Comprendere le differenze e scegliere il giusto metodo di elaborazione audio sono competenze fondamentali per un produttore musicale, quindi esaminiamo la questione più da vicino.
La compressione e la normalizzazione sono due tecniche di elaborazione audio separate, ciascuna con i propri obiettivi specifici.
La normalizzazione ha lo scopo di regolare il livello di volume complessivo di un file audio;
la compressione, invece, riduce la gamma dinamica all'interno del file.
È importante ricordare che la compressione rende più forti le parti più silenziose di un file audio e più deboli quelle più forti. Sebbene entrambi i metodi possano essere utilizzati per ottenere un livello di volume più uniforme, influenzano il suono in modo diverso e possono avere effetti diversi sul materiale.
Sì, la compressione può rendere il suono più forte, ma il suo scopo principale è un altro.
Quando utilizzare la compressione
La normalizzazione è un processo utile quando è necessario equalizzare il livello di volume complessivo di un file audio o di un gruppo di file. Come abbiamo discusso in precedenza, ciò è particolarmente utile quando si masterizza una traccia audio o si prepara la musica per i servizi di streaming. A differenza della compressione, la normalizzazione non influisce sulla gamma dinamica di un file audio, rendendolo un metodo di elaborazione più trasparente e meno invasivo. Inoltre, non implica alcun obiettivo, significato o proprietà dinamica, correttiva o migliorativa.
Quando utilizzare la normalizzazione del volume
La normalizzazione è uno strumento che dovrebbe essere utilizzato quando si desidera equalizzare il livello di volume complessivo di un file audio o di un gruppo di file. Come discusso in precedenza, ciò è particolarmente importante quando si masterizza una traccia audio o si prepara la musica per i servizi di streaming. A differenza della compressione, la normalizzazione non modifica la gamma dinamica del file audio, rendendolo più neutro e meno invadente per il suono. Inoltre, non ha lo scopo di correggere o migliorare le caratteristiche dinamiche di un file audio.
Dinamica e orecchio umano
Il sistema uditivo umano è un meccanismo complesso che risponde a una varietà di frequenze e livelli di volume. La nostra percezione del suono non è lineare: i cambiamenti nei livelli di volume e nelle frequenze vengono percepiti in modo diverso.
È importante tenere conto di questa natura non lineare della percezione quando si normalizzano i file audio, poiché può influenzare il modo in cui gli ascoltatori percepiscono la musica.
Le curve di uguale intensità sonora, o curve di Fletcher-Munson, descrivono come l'orecchio umano risponde all'intensità sonora a diverse frequenze. Esse mostrano che l'udito è più sensibile a determinate gamme di frequenza, in particolare da 2 a 5 kHz, e meno sensibile alle frequenze molto basse e molto alte.
Conoscere queste curve può aiutare a prendere decisioni informate sulla percezione umana e sulla normalizzazione dei file audio, fornendo un audio più coerente su diverse frequenze.
Che cos'è la gamma dinamica?
La gamma dinamica è definita come la differenza tra le parti più silenziose e quelle più rumorose di un file audio e svolge un ruolo chiave nella produzione musicale, modellando l'impatto complessivo e l'emozione di un brano.
Una gamma dinamica più ampia aiuta a creare un senso di spazio e profondità nella registrazione, mentre una gamma dinamica più ridotta rende il suono più ricco e rivelatore.
È necessario trovare un equilibrio tra il mantenimento di un livello di volume costante e il mantenimento della dinamica del materiale audio. Una normalizzazione eccessiva o una compressione eccessiva possono comportare una perdita di gamma dinamica, rendendo la musica piatta e priva di emozioni.
Per mantenere la dinamica, è importante scegliere metodi e impostazioni di normalizzazione dei picchi che rispettino la dinamica naturale del materiale, mantenendo al contempo il volume desiderato (ampiezza di picco).
Guerra del volume
Nell'industria musicale moderna esiste una tendenza interessante chiamata "guerra del volume". Questo termine descrive la tendenza ad aumentare i livelli di volume complessivi della musica registrata negli ultimi decenni. Si ritiene che i brani più rumorosi possano attirare maggiormente l'attenzione degli ascoltatori o suonare meglio.
Se stai cercando i migliori campioni audio da incorporare nella tua musica, è importante dare un'occhiata ai migliori pacchetti di campioni gratuiti del 2023. Questo ti permetterà di selezionare gli elementi sonori più adatti alla tua creatività.
Tuttavia, aumentare il volume delle registrazioni audio ha delle conseguenze negative. Ciò può comportare una perdita della gamma dinamica e una scarsa qualità del suono della musica. Molti artisti, produttori audio e ascoltatori si stanno opponendo a questa tendenza, chiedendo registrazioni audio più dinamiche e naturali.
Date queste preoccupazioni, molti servizi di streaming come Spotify e Apple Music hanno iniziato a implementare la normalizzazione del volume. Ciò consente di mantenere una qualità del suono costante durante l'ascolto e riduce la necessità di un volume eccessivo durante la creazione della musica. Questo cambiamento enfatizza la conservazione della gamma dinamica e dà priorità alla qualità del suono rispetto al volume.
Normalizzazione vs compressione: qual è la differenza?
Molte persone credono erroneamente che la normalizzazione e la compressione siano la stessa cosa, ma questo è lontano dalla verità. La compressione mira ad aumentare il livello minimo di volume di una traccia e ad abbassare il livello massimo di volume, creando un livello di volume complessivo più uniforme. Al contrario, la normalizzazione imposta il punto più alto come picco della traccia audio.
L'amplificazione proporzionale viene quindi applicata al resto del suono, mantenendo la dinamica, ovvero la differenza tra i suoni più forti e quelli più deboli. Ciò aumenta efficacemente il volume percepito in base al livello di picco, mantenendo la qualità naturale del suono.
Svantaggi della normalizzazione audio
È importante notare che la normalizzazione audio presenta alcuni svantaggi. Di solito viene utilizzata solo nelle ultime fasi della creazione di materiale audio. Questo perché la normalizzazione spesso spinge il livello audio al picco massimo consentito dal limite digitale, limitando le opzioni di editing successive.
Non è consigliabile normalizzare singole tracce audio che devono ancora essere mixate nel contesto di una registrazione multitraccia. Se ogni componente è già livellato al limite digitale, potrebbero verificarsi clipping durante la riproduzione congiunta.
Inoltre, la normalizzazione audio può avere alcune conseguenze dannose. Quando si normalizza l'audio, l'elaborazione digitale viene incorporata nella traccia audio, rendendo le modifiche permanenti. Pertanto, è importante applicare la normalizzazione nel contesto giusto e al momento giusto, di solito dopo che i file audio sono già stati elaborati come desiderato.
Author
Patrick Stevensen
Published
May 20, 2024
DAW techniques
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.