W ciągu ostatnich trzech dekad sposób, w jaki korzystamy z muzyki, przeszedł radykalne zmiany. Wraz z pojawieniem się cyfrowych serwisów streamingowych i technologii cyfrowego przetwarzania sygnału (DSP) standardowa normalizacja dźwięku stała się integralną częścią tego procesu.
Ale co oznacza normalizacja dźwięku i jak można przeprowadzić ten proces w przypadku własnych plików audio? Przyjrzyjmy się, czym jest normalizacja dźwięku i dlaczego jest ona kluczowym etapem współczesnej twórczości muzycznej.
Sekwencer online Amped Studio posiada pełną listę funkcji umożliwiających kompleksową normalizację audio, co pozwala na profesjonalną obróbkę utworów.
Czym jest normalizacja dźwięku?
Podczas procesu normalizacji audio stosuje się określone wzmocnienie do cyfrowego pliku audio, co powoduje osiągnięcie określonego poziomu amplitudy lub głośności przy zachowaniu zakresu dynamicznego ścieżek.
Normalizacja audio jest często stosowana w celu maksymalizacji głośności wybranego klipu audio i zapewnienia spójności między różnymi klipami audio, na przykład w albumie lub EP zawierającym wiele utworów.
Należy pamiętać, że kompozycje o szerokim zakresie dynamicznym mogą być trudniejsze do skutecznej normalizacji. Podczas procesu normalizacji mogą wystąpić problemy, takie jak spłaszczenie lub zniekształcenie amplitudy szczytowej.
Dlatego też każdy klip audio wymaga indywidualnego podejścia podczas normalizacji. Normalizacja audio jest integralną częścią cyfrowego przetwarzania nagrań, ale nie ma jednego uniwersalnego podejścia do tego procesu.
Przed i po normalizacji dźwięku
Dlaczego trzeba normalizować dźwięk?
Dlaczego normalizacja plików audio jest tak ważna? Oto kilka scenariuszy, w których normalizacja głośności jest koniecznością:
Przygotowanie do pracy z serwisami streamingowymi
Serwisy streamingowe automatycznie ustawiają standardowy poziom głośności dla wszystkich utworów w swoich bibliotekach, dzięki czemu nie ma potrzeby regulowania głośności podczas słuchania. Każda platforma ma swoje własne docelowe wartości LUF, aby zapewnić spójny dźwięk:
• Spotify : -14 LUFS;
• Apple Music : -16 LUFS;
• Amazon Music : od -9 do -13 LUFS;
• Youtube : od -13 do -15 LUFS;
• Deezer : od -14 do -16 LUFS;
• CD : -9 LUFS;
• Soundcloud : od -8 do -13 LUFS.
Chociaż każdy inżynier dźwięku może mieć inne podejście do określania docelowego poziomu głośności podczas masteringu, standardy te stanowią ważne wytyczne zapewniające spójne odtwarzanie muzyki na różnych platformach.
Osiągnięcie maksymalnej głośności
Normalizacja dźwięku pomaga osiągnąć maksymalny poziom głośności dla każdego pliku audio. Jest to szczególnie przydatne podczas importowania utworów do programów do edycji dźwięku lub zwiększania głośności pojedynczego pliku audio.
Tworzenie pojedynczej warstwy między wieloma plikami audio
Możliwe jest również dostosowanie plików audio do tego samego poziomu głośności, co jest ważne w przypadku procesów takich jak mastering, gdzie konieczne jest ustawienie odpowiednich poziomów audio do dalszego przetwarzania.
Dodatkowo, po ukończeniu projektu muzycznego, takiego jak album lub EP, można znormalizować i edytować pliki audio. Ponieważ chcesz, aby atmosfera i brzmienie całego nagrania były spójne, może być konieczne powrót do plików i dostosowanie poziomów głośności do wszystkich utworów.
Dwa rodzaje normalizacji dźwięku
W zależności od celu wykorzystania nagrań audio stosuje się różne metody normalizacji dźwięku. Zazwyczaj sprowadzają się one do dwóch głównych rodzajów: normalizacji szczytowej i normalizacji głośności.
Normalizacja szczytowa
Proces normalizacji szczytowej jest metodą liniową, w której do sygnału audio stosuje się jednolite zwiększenie, aby osiągnąć poziom odpowiadający maksymalnej amplitudzie ścieżki audio. Zakres dynamiczny pozostaje taki sam, a nowy plik audio brzmi w przybliżeniu tak samo, z wyjątkiem tego, że poziom głośności może być wyższy lub niższy. Proces ten określa najwyższą wartość PCM lub wartość modulacji impulsowej w pliku audio. Istotą normalizacji szczytowej jest przetwarzanie dźwięku w oparciu o górną granicę cyfrowego systemu audio, która zazwyczaj odpowiada maksymalnemu szczytowi przy 0 decybelach. Efekt normalizacji szczytowej opiera się wyłącznie na szczytowych poziomach dźwięku, a nie na postrzeganej głośności ścieżki.
Normalizacja głośności
Proces normalizacji głośności jest bardziej złożony, ponieważ uwzględnia cechy ludzkiej percepcji dźwięku. Ludzkie ucho jest w stanie rozróżniać różne poziomy głośności i amplitudy poszczególnych dźwięków, z zastrzeżeniem pewnych subiektywnych ograniczeń. Przetwarzanie to jest często określane jako określanie głośności EBU R 128.
Na przykład dźwięki odtwarzane przez długi czas z tą samą głośnością mogą wydawać się głośniejsze niż dźwięki odtwarzane sporadycznie lub chwilowo, nawet jeśli poziomy głośności są takie same. Dzieje się tak ze względu na sposób, w jaki ludzkie ucho postrzega dźwięk. Dlatego podczas normalizacji głośności konieczne jest uwzględnienie tych cech percepcyjnych.
Niektórzy uważają, że głośniejsza muzyka brzmi bardziej atrakcyjnie. To właśnie ta koncepcja dała początek „wojnom głośności” przed pojawieniem się serwisów streamingowych, w których muzycy dążyli do maksymalizacji szczytowej głośności swoich nagrań, aby uzyskać bardziej wyrazisty i barwny dźwięk. Jednak dzięki normalizacji dźwięku zjawisko to należy już do przeszłości, a obecnie przejścia między utworami nie towarzyszą nagłe zmiany głośności.
LUF służą do pomiaru poziomów głośności, aby lepiej dopasować je do ludzkiej percepcji dźwięku. Standard ten jest szeroko stosowany w filmach, telewizji, radiu i serwisach streamingowych. Podobnie jak w przypadku normalizacji szczytowej, standardem pozostaje 0 dB.
Krzywa Fletchera-Munsona, jak wspomniano powyżej, może pomóc wyjaśnić różnice brane pod uwagę podczas normalizacji głośności w LUF.
Standardy głośności różnią się w zależności od regionu i zastosowania
24 LUFS: ATSC A/85 (telewizja amerykańska), NPRSS, radio PRX;
23 LUFS: tłumaczenie EBU R 128;
-19 do -16 LUFS: podcasty PRX;
14 LUFS: Spotify, YouTube i inne platformy streamingowe.
Określanie średniej wartości kwadratowej głośności
Jeśli nie zamierzasz normalizować kanałów stereo za pomocą normalizacji poziomu szczytowego, prawdopodobnie użyjesz normalizacji głośności, ale warto również wspomnieć o innej technice przetwarzania głośności, czyli głośności RMS.
Proces normalizacji jest podobny do normalizacji głośności w LUF, ale zamiast tego stosuje się poziomy RMS. Średnia kwadratowa (RMS) mierzy średnią głośność fragmentu lub całego klipu.
Jednak podobnie jak normalizacja oparta na najwyższym szczycie, normalizacja RMS nie uwzględnia ludzkiego słuchu. Dlatego inżynierowie masteringu zazwyczaj pracują standardowo z LUF i procesami normalizacji. Mastering to nie tylko zapewnienie spójności głośności w całym projekcie. Ważne jest również, aby cofnąć się o krok i wziąć pod uwagę dynamikę, ludzką percepcję i równowagę między poszczególnymi ścieżkami.
Kiedy stosować normalizację
Teraz, gdy już wiesz, czym jest normalizacja audio, omówmy, kiedy i jak należy ją stosować.
Mastering muzyki
Normalizacja audio jest kluczowym narzędziem w procesie masteringu utworów.
Podczas masteringu ważne jest utrzymanie stałego poziomu głośności utworów.
Dzięki temu słuchacze mogą cieszyć się muzyką bez konieczności ciągłego regulowania głośności.
Normalizując utwory, na przykład podczas tworzenia post-mixu/masteringu albumu, można uzyskać profesjonalny, dopracowany dźwięk.
Brzmienie, które spełnia standardy komercyjne i jest gotowe do dystrybucji.
Jeśli chodzi o mastering, to jeśli szukasz najlepszych wtyczek do masteringu, chętnie pomożemy Ci je znaleźć.
Przygotowanie do serwisów streamingowych
Serwisy streamingowe mają określone wymagania dotyczące głośności, które należy wziąć pod uwagę podczas pobierania muzyki.
Normalizacja może pomóc w spełnieniu tych wymagań, zapewniając doskonałą jakość dźwięku na tych platformach.
Normalizując pliki, aby dopasować je do poziomu docelowego serwisu streamingowego, zapewniasz swoim fanom stałą jakość odtwarzania.
Jeśli jednak nie przeprowadzisz tego procesu samodzielnie, serwisy streamingowe mogą zrobić to za Ciebie, stosując kompresję, limitowanie i inne techniki.
Może to prowadzić do poważnych problemów z jakością dźwięku.
Zawsze pamiętaj, aby sprawdzić zalecenia dotyczące głośności dla każdej konkretnej usługi strumieniowej, ponieważ wymagania mogą się różnić.
Praca z różnymi plikami audio
Podczas pracy z wieloma plikami audio w projekcie ważne jest, aby poziom głośności był taki sam dla wszystkich.
Jest to szczególnie ważne, jeśli pliki audio pochodzą z różnych źródeł lub zostały nagrane z różną głośnością.
Jest to szczególnie ważne, jeśli pliki audio pochodzą z różnych źródeł lub zostały nagrane z różną głośnością.
Jest to szczególnie ważne, jeśli pliki audio pochodzą z różnych źródeł lub zostały nagrane z różną głośnością.
Typowe nieporozumienia dotyczące normalizacji dźwięku
Uważam, że przed przystąpieniem do dalszych działań należy wziąć pod uwagę kilka powszechnych błędnych przekonań, zwłaszcza w przypadku osób dopiero rozpoczynających pracę w tej dziedzinie.
1. Normalizacja dźwięku i kompresja to dwie różne rzeczy
Niektórzy mylą normalizację z kompresją, ale mają one zupełnie różne cele.
Normalizacja dostosowuje ogólny poziom głośności pliku audio, natomiast kompresja zmniejsza zakres dynamiki pliku.
Kompresja może pomóc w uzyskaniu bardziej stabilnego poziomu głośności w pliku audio, ale niekoniecznie zwiększa ogólny poziom głośności nowego pliku audio.
O ile oczywiście nie jest to Twoim celem.
Kompresja jest zazwyczaj stosowana do korekcji dynamiki i poprawy jakości dźwięku, podczas gdy normalizacja ma bardziej praktyczne zastosowanie.
Jeśli szukasz najlepszych wtyczek kompresora do tego procesu, nie musisz już dłużej szukać.
2. Normalizacja dźwięku nie rozwiązuje wszystkich problemów
Należy pamiętać, że normalizacja szczytowa nie rozwiązuje wszystkich problemów związanych z dźwiękiem.
Jeśli masz problemy ze stosunkiem sygnału do szumu, zniekształceniami lub innymi artefaktami audio, sama normalizacja nie rozwiąże tych problemów.
W takich przypadkach należy zająć się podstawowymi przyczynami problemu i zastosować inne techniki przetwarzania dźwięku, takie jak korektor lub redukcja szumów, aby uzyskać pożądany dźwięk.
Jeśli taka sytuacja ma miejsce, mamy najlepsze wtyczki korektora z 2023 roku.
3. Normalizacja dźwięku nie zwiększa rezerw mocy
Podczas normalizacji plików audio ważne jest, aby zachować wystarczający zapas głośności w miksach i nagraniach.
Headroom to różnica między najgłośniejszym punktem w pliku audio a maksymalnym poziomem głośności, jaki może obsłużyć cyfrowy system audio.
Jeśli zbyt agresywnie znormalizujesz dźwięk, ryzykujesz zniekształcenia i przesterowania, które mogą negatywnie wpłynąć na jakość muzyki.
Pamiętaj, że niezależnie od używanego programu DAW lub systemu, ważne jest monitorowanie wszystkiego, co przekracza poziom 0 dB.
Wynika to z faktu, że unikanie ograniczeń i posiadanie wystarczającego marginesu pozwala uniknąć zniekształceń.
Na przykład, lubię traktować -16 dB jako docelowy headroom, a dla wszystkiego powyżej tej wartości używam limiter (tylko po to, aby utrzymać odpowiedni headroom).
Pomaga to również skompensować wszelkie niezbędne zmiany głośności na etapie masteringu.
Proces normalizacji dźwięku
Teraz, gdy omówiliśmy najczęstsze nieporozumienia dotyczące normalizacji dźwięku, przejdźmy do głębszej analizy samego procesu.
Analiza plików audio
Przed normalizacją plików audio ważne jest, aby je przeanalizować i określić aktualne poziomy głośności.
Analizę tę można przeprowadzić za pomocą narzędzi wbudowanych w program DAW lub za pomocą dedykowanego oprogramowania do analizy audio.
Zrozumienie aktualnych poziomów głośności plików pozwala podjąć świadomą decyzję dotyczącą procesu normalizacji dźwięku.
Wybór celu normalizacji audio
Po przeanalizowaniu plików możesz wybrać cel normalizacji, który najlepiej odpowiada Twoim potrzebom.
Czynniki, które należy wziąć pod uwagę przy wyborze metody normalizacji, obejmują:
Rodzaj materiału audio;
Pożądany poziom głośności;
Rodzaj wykonywanego przetwarzania;
Platforma docelowa dla muzyki.
Każdy poziom normalizacji ma swoje mocne i słabe strony, dlatego ważne jest, aby wybrać ten, który zapewni najlepsze wyniki w konkretnej sytuacji.
W sytuacjach miksowania . Pozostań w zakresie niskich wartości dwucyfrowych, najlepiej od -18 do -12 dB;
W przypadku masteringu . Bezpieczną opcją będzie dowolna wartość między -8 a -3 dB.
W niektórych serwisach streamingowych i sytuacjach może wystąpić sytuacja, w której gwarantowana jest wartość -0 dB, więc upewnij się, że nie przekracza ona tej wartości, ponieważ znajduje się ona na granicy limitu.
Uwaga. Podczas procesu miksowania ważne jest, aby zwracać szczególną uwagę na ustawienia wzmocnienia, a także określić poziom głośności RMS, aby ustalić ilość wzmocnienia potrzebną dla każdego utworu.
Korzystanie z kontroli wzmocnienia klipu może pomóc w precyzyjnej kontroli poziomów głośności, zapewniając dobrze zbalansowany miks.
Normalizacja dźwięku
Po wybraniu odpowiedniego celu normalizacji można edytować pliki audio za pomocą programu DAW lub dedykowanego oprogramowania do edycji audio.
Większość programów DAW i oprogramowania do edycji audio ma wbudowane narzędzia do normalizacji, które są łatwe w użyciu.
Zazwyczaj wystarczy zaznaczyć plik audio i nacisnąć klawisz polecenia lub po prostu wybrać opcję „Normalizuj” z menu rozwijanego.
Pamiętaj, aby monitorować wyniki procesu normalizacji, aby upewnić się, że nowe poziomy głośności spełniają Twoje oczekiwania i nie powodują niepożądanych artefaktów lub problemów.
Kompresja a normalizacja
Jeśli chodzi o normalizację, najczęściej porównuje się ją do procesu kompresji. Zrozumienie różnic i wybór odpowiedniej metody przetwarzania dźwięku to kluczowe umiejętności dla producenta muzycznego, więc przyjrzyjmy się temu bliżej.
Kompresja i normalizacja to dwie odrębne techniki przetwarzania dźwięku, z których każda ma swoje unikalne cele.
Normalizacja ma na celu dostosowanie ogólnego poziomu głośności pliku audio;
Kompresja natomiast zmniejsza zakres dynamiki w pliku.
Należy pamiętać, że kompresja sprawia, że cichsze fragmenty pliku audio stają się głośniejsze, a głośniejsze fragmenty stają się cichsze. Chociaż obie metody mogą być stosowane w celu uzyskania bardziej spójnego poziomu głośności, wpływają one na dźwięk w różny sposób i mogą mieć różny wpływ na materiał.
Tak, kompresja może zwiększyć głośność dźwięku, ale jej głównym celem jest coś innego.
Kiedy stosować kompresję
Normalizacja to proces, który przydaje się, gdy trzeba wyrównać ogólny poziom głośności pliku audio lub grupy plików. Jak wspomnieliśmy wcześniej, jest to szczególnie przydatne podczas masteringu ścieżki audio lub przygotowywania muzyki do serwisów streamingowych. W przeciwieństwie do kompresji, normalizacja nie wpływa na zakres dynamiki pliku audio, co czyni ją bardziej przejrzystą i mniej inwazyjną metodą przetwarzania. Co więcej, nie wiąże się ona również z żadnymi dynamicznymi, korygującymi lub poprawiającymi celami, znaczeniami lub właściwościami.
Kiedy stosować normalizację głośności
Normalizacja jest narzędziem, które należy stosować, gdy chcesz wyrównać ogólny poziom głośności pliku audio lub grupy plików. Jak wspomniano wcześniej, jest to szczególnie ważne podczas masteringu ścieżki audio lub przygotowywania muzyki do serwisów streamingowych. W przeciwieństwie do kompresji, normalizacja nie zmienia zakresu dynamicznego pliku audio, dzięki czemu jest bardziej neutralna i mniej inwazyjna dla dźwięku. Ponadto nie ma na celu korygowania ani poprawiania charakterystyki dynamicznej pliku audio.
Dynamika a ludzkie ucho
Ludzki układ słuchowy jest złożonym mechanizmem, który reaguje na różne częstotliwości i poziomy głośności. Nasze postrzeganie dźwięku jest nieliniowe: zmiany poziomu głośności i częstotliwości są postrzegane w różny sposób.
Ta nieliniowa natura percepcji jest ważna do uwzględnienia podczas normalizacji plików audio, ponieważ może wpływać na to, jak słuchacze odbierają muzykę.
Krzywe równej głośności, czyli krzywe Fletchera-Munsona, przedstawiają reakcję ludzkiego ucha na głośność przy różnych częstotliwościach. Pokazują one, że słuch jest bardziej wrażliwy na określone zakresy częstotliwości, zwłaszcza od 2 do 5 kHz, a mniej wrażliwy na bardzo niskie i wysokie częstotliwości.
Znajomość tych krzywych może pomóc w podejmowaniu świadomych decyzji dotyczących ludzkiej percepcji oraz podczas normalizacji plików audio, zapewniając bardziej spójny dźwięk w różnych częstotliwościach.
Czym jest zakres dynamiczny?
Zakres dynamiczny definiuje się jako różnicę między najcichszymi i najgłośniejszymi fragmentami pliku audio. Odgrywa on kluczową rolę w produkcji muzycznej, kształtując ogólny efekt i emocje utworu.
Większy zakres dynamiczny pomaga stworzyć wrażenie przestrzeni i głębi w nagraniu, podczas gdy mniejszy zakres dynamiczny sprawia, że dźwięk jest bogatszy i bardziej wyrazisty.
Należy znaleźć równowagę między utrzymaniem stałego poziomu głośności a zachowaniem dynamiki materiału audio. Zbyt duża normalizacja lub nadmierna kompresja może spowodować utratę zakresu dynamicznego, przez co muzyka będzie brzmiała płasko i pozbawiona emocji.
Aby zachować dynamikę, ważne jest, aby wybrać metody i ustawienia normalizacji szczytowej, które uwzględniają naturalną dynamikę materiału, jednocześnie zachowując pożądaną głośność (amplituda szczytowa).
Wojna głośności
W współczesnej branży muzycznej istnieje interesujący trend zwany „wojną głośności”. Termin ten opisuje tendencję do zwiększania ogólnego poziomu głośności nagrywanej muzyki w ciągu ostatnich kilku dekad. Uważa się, że głośniejsze utwory mogą przyciągać większą uwagę słuchaczy lub brzmieć lepiej.
Jeśli szukasz najlepszych próbek audio do wykorzystania w swojej muzyce, warto zapoznać się z najlepszymi darmowymi pakietami próbek z 2023 roku. Pozwoli to wybrać elementy dźwiękowe najlepiej pasujące do Twojej twórczości.
Jednak zwiększanie głośności nagrań audio ma swoje negatywne konsekwencje. Może to skutkować utratą zakresu dynamiki i słabą jakością dźwięku muzyki. Wielu artystów, producentów dźwięku i słuchaczy sprzeciwia się tej tendencji, domagając się bardziej dynamicznych i naturalnych nagrań dźwiękowych.
Biorąc pod uwagę te obawy, wiele serwisów streamingowych, takich jak Spotify i Apple Music, zaczęło wdrażać normalizację głośności. Pozwala to zachować stałą jakość dźwięku podczas słuchania i zmniejsza potrzebę stosowania nadmiernej głośności podczas tworzenia muzyki. Zmiana ta kładzie nacisk na zachowanie zakresu dynamiki i priorytetowe traktowanie jakości dźwięku nad głośnością.
Normalizacja a kompresja: jaka jest różnica?
Wiele osób błędnie uważa, że normalizacja i kompresja to to samo, ale jest to dalekie od prawdy. Kompresja ma na celu podniesienie minimalnego poziomu głośności utworu i obniżenie maksymalnego poziomu głośności, tworząc bardziej równomierny ogólny poziom głośności. Natomiast normalizacja ustawia najwyższy punkt jako szczyt ścieżki audio.
Następnie do pozostałej części dźwięku stosuje się proporcjonalne wzmocnienie, zachowując dynamikę, czyli różnicę między najgłośniejszymi i najcichszymi dźwiękami. Skutecznie zwiększa to postrzeganą głośność w oparciu o poziom szczytowy, zachowując jednocześnie naturalną jakość dźwięku.
Wady normalizacji audio
Należy pamiętać, że normalizacja audio ma swoje wady. Zazwyczaj stosuje się ją tylko na ostatnich etapach tworzenia materiału audio. Wynika to z faktu, że normalizacja często podnosi poziom audio do wartości szczytowej w granicach limitów cyfrowych, ograniczając możliwości dalszej edycji.
Nie zaleca się normalizacji poszczególnych ścieżek audio, które nie zostały jeszcze zmiksowane w kontekście nagrania wielościeżkowego. Jeśli każdy element jest już wyrównany do cyfrowego pułapu, mogą one zacząć się przesterowywać podczas wspólnego odtwarzania.
Ponadto normalizacja dźwięku może mieć pewne szkodliwe konsekwencje. Podczas normalizacji dźwięku przetwarzanie cyfrowe zostaje zapisane w ścieżce dźwiękowej, co sprawia, że zmiany stają się trwałe. Dlatego ważne jest, aby stosować normalizację w odpowiednim kontekście i we właściwym czasie – zazwyczaj po przetworzeniu plików audio zgodnie z oczekiwaniami.
Author
Patrick Stevensen
Published
May 20, 2024
DAW techniques
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.