Au cours des trois dernières décennies, notre façon d'accéder à la musique a radicalement changé. Avec l'avènement des services de streaming numérique et de la technologie de traitement numérique du signal (DSP), la normalisation audio standard est devenue partie intégrante de ce processus.
Mais qu'est-ce que la normalisation audio et comment pouvez-vous mettre en œuvre ce processus avec vos propres fichiers audio numériques ? Voyons ce qu'est la normalisation du son et pourquoi elle constitue une étape clé dans la création musicale moderne.
Le séquenceur en ligne Amped Studio dispose d'une liste complète de fonctionnalités pour une normalisation audio complète, qui vous permet de traiter vos pistes de manière professionnelle.
Qu'est-ce que la normalisation audio ?
Au cours du processus de normalisation audio, vous appliquez un gain spécifique à un fichier audio numérique, ce qui lui confère une amplitude ou un niveau de volume spécifique tout en conservant la gamme dynamique des pistes.
La normalisation audio est souvent utilisée pour maximiser le volume d'un clip audio sélectionné et assurer la cohérence entre différents clips audio, par exemple dans un album ou un EP contenant plusieurs pistes.
Il est important de noter que les compositions avec une large gamme dynamique peuvent être plus difficiles à normaliser efficacement. Des problèmes tels que l'aplatissement ou la distorsion de l'amplitude maximale peuvent survenir pendant le processus de normalisation.
Par conséquent, chaque clip audio nécessite une approche individuelle lors de la normalisation. La normalisation audio fait partie intégrante du traitement de l'enregistrement numérique, mais il n'existe pas d'approche unique pour ce processus.
Avant et après la normalisation audio
Pourquoi faut-il normaliser le son ?
Pourquoi est-il si important de normaliser les fichiers audio ? Voici quelques scénarios dans lesquels la normalisation du volume est indispensable :
Préparation au travail avec les services de streaming
Les services de streaming définissent automatiquement un niveau de volume standard pour toutes les pistes de leurs bibliothèques, ce qui évite d'avoir à régler le volume pendant l'écoute. Chaque plateforme a ses propres LUF cibles pour garantir un son cohérent :
• Spotify : -14 LUFS ;
• Apple Music : -16 LUFS ;
• Amazon Music : de -9 à -13 LUFS ;
• Youtube : de -13 à -15 LUFS ;
• Deezer : de -14 à -16 LUFS ;
• CD : -9 LUFS ;
• Soundcloud : de -8 à -13 LUFS.
Bien que chaque ingénieur du son puisse avoir une approche différente pour déterminer le niveau de volume cible pour le mastering, ces normes constituent des lignes directrices importantes pour garantir une lecture musicale cohérente sur toutes les plateformes.
Atteindre le volume maximal
La normalisation audio vous aide à atteindre le niveau de volume maximal pour chaque fichier audio. Cela est particulièrement utile lors de l'importation de pistes dans des programmes d'édition audio ou pour augmenter le volume d'un fichier audio individuel.
Création d'une couche unique entre plusieurs fichiers audio
Il est également possible de conditionner les fichiers audio au même niveau de volume, ce qui est important pour des processus tels que le mastering, où il est nécessaire de définir des niveaux audio appropriés pour le traitement ultérieur.
De plus, après avoir terminé un projet musical tel qu'un album ou un EP, vous pouvez normaliser et éditer les fichiers audio. Comme vous souhaitez que l'ambiance et le son de l'ensemble de l'enregistrement soient cohérents, vous devrez peut-être revenir en arrière et ajuster les niveaux de volume pour qu'ils conviennent à toutes les chansons.
Deux types de normalisation du son
Selon l'utilisation que vous souhaitez faire des enregistrements audio, différentes méthodes de normalisation du son sont utilisées. Il existe généralement deux types principaux : la normalisation des crêtes et la normalisation du volume sonore.
Normalisation des pics
Le processus de normalisation des pics est une méthode linéaire dans laquelle une augmentation uniforme est appliquée au signal audio afin d'obtenir un niveau correspondant à l'amplitude maximale de la piste audio. La gamme dynamique reste la même et le nouveau fichier audio a un son approximativement identique, sauf que le niveau de volume peut être plus élevé ou plus faible. Ce processus détermine la valeur PCM ou la valeur de modulation par impulsions codées la plus élevée dans un fichier audio. L'essence de la normalisation des crêtes consiste à traiter l'audio en fonction de la limite supérieure d'un système audio numérique, qui correspond généralement à une crête maximale de 0 décibel. L'effet de normalisation des crêtes est basé uniquement sur les niveaux audio de crête et non sur le volume perçu de la piste.
Normalisation du volume
Le processus de normalisation du volume sonore est plus complexe, car il tient compte des caractéristiques de la perception humaine du son. L'oreille humaine est capable de distinguer différents niveaux de volume et d'amplitude des sons individuels, sous réserve de certaines limitations subjectives. Ce traitement est souvent appelé « détermination du volume sonore EBU R 128 ».
Par exemple, les sons qui sont joués pendant une longue période au même niveau de volume peuvent sembler plus forts que les sons qui sont joués de manière intermittente ou momentanée, même si les niveaux de volume sont identiques. Cela est dû à la façon dont l'oreille humaine perçoit le son. Par conséquent, lors de la normalisation du volume sonore, il est nécessaire de prendre en compte ces caractéristiques perceptives.
Certaines personnes trouvent que la musique plus forte est plus attrayante. C'est cette idée qui a donné naissance à la « guerre du volume » avant l'avènement des services de streaming, les musiciens cherchant à maximiser le volume maximal de leurs enregistrements afin de créer un son plus proéminent et plus coloré. Cependant, grâce à la normalisation du son, ce phénomène appartient désormais au passé, et la transition entre les pistes ne s'accompagne plus de changements soudains de volume.
Les LUF sont utilisés pour mesurer les niveaux de volume sonore afin de mieux correspondre à la perception humaine du son. Cette norme est largement utilisée dans le cinéma, la télévision, la radio et les services de streaming. Comme pour la normalisation des pics, 0 dB reste la norme.
La courbe de Fletcher-Munson, comme indiqué ci-dessus, peut aider à expliquer les différences prises en compte lors de la normalisation du volume sonore en LUF.
Les normes de volume varient selon les régions et les applications
14 LUFS : Spotify, YouTube et autres plateformes de streaming.
Détermination du volume moyen quadratique
Si vous ne normalisez pas les canaux stéréo à l'aide de la normalisation du niveau de crête, vous utiliserez probablement la normalisation du volume sonore, mais il convient également de mentionner une autre technique de traitement du volume sonore, le volume sonore RMS.
Le processus de normalisation est similaire à la normalisation du volume sonore en LUF, mais on utilise à la place les niveaux RMS. La valeur efficace (RMS) mesure le volume sonore moyen d'une section ou de la durée totale d'un clip.
Cependant, tout comme la normalisation basée sur le pic le plus élevé, la normalisation RMS ne tient pas compte de l'audition humaine. C'est pourquoi les ingénieurs de mastering travaillent généralement avec les LUF et les processus de normalisation comme norme. Le mastering ne consiste pas seulement à s'assurer que les volumes sont cohérents tout au long du projet. Il est également important de prendre du recul et de tenir compte de la dynamique, de la perception humaine et de l'équilibre entre chaque piste.
Quand utiliser la normalisation
Maintenant que vous comprenez ce qu'est la normalisation audio, voyons quand et comment l'utiliser.
Masteriser votre musique
La normalisation audio est un outil essentiel dans le processus de mastering des pistes.
Pendant le mastering, il est important de maintenir un niveau de volume constant sur vos pistes.
Cela permet à vos auditeurs de profiter de leur musique sans avoir à régler constamment le volume.
En normalisant vos morceaux, par exemple lors de la création d'un post-mixage/mastering pour votre album, vous pouvez obtenir un son professionnel et raffiné.
Un son qui répond aux normes de commercialisation et qui est prêt à être distribué.
En parlant de mastering, si vous recherchez les meilleurs plugins de mastering, nous sommes là pour vous aider à les trouver.
Préparation pour les services de streaming
Les services de streaming ont des exigences spécifiques en matière de volume qui doivent être prises en compte lors du téléchargement de musique.
La normalisation peut vous aider à répondre à ces exigences, en offrant une excellente qualité audio sur ces plateformes.
En normalisant les fichiers pour qu'ils correspondent au niveau cible du service de streaming, vous garantissez une qualité de lecture constante à vos fans.
Cependant, si vous ne passez pas vous-même par ce processus, les services de streaming peuvent le faire pour vous en utilisant la compression, la limitation et d'autres techniques.
Cela peut entraîner de sérieux problèmes de qualité audio.
N'oubliez pas de toujours vérifier les recommandations en matière de volume pour chaque service de streaming spécifique, car les exigences peuvent varier.
Travailler avec différents fichiers audio
Lorsque vous travaillez avec plusieurs fichiers audio dans un projet, il est important de conserver le même niveau de volume pour tous.
Ceci est particulièrement important si les fichiers audio proviennent de sources différentes ou ont été enregistrés à des volumes différents.
Ceci est particulièrement important si les fichiers audio proviennent de sources différentes ou ont été enregistrés à des volumes différents.
Ceci est particulièrement important si les fichiers audio proviennent de sources différentes ou ont été enregistrés à des volumes différents.
Idées reçues courantes sur la normalisation audio
Je pense qu'il est très important de prendre en compte certaines idées reçues avant d'aller plus loin, en particulier pour ceux qui débutent.
1. La normalisation et la compression du son sont deux choses différentes
Certaines personnes confondent normalisation et compression, mais ces deux processus ont des objectifs complètement différents.
Alors que la normalisation ajuste le niveau de volume global d'un fichier audio, la compression réduit la plage dynamique du fichier.
La compression peut aider à créer un niveau de volume plus stable dans un fichier audio, mais elle n'augmente pas nécessairement le niveau de volume global du nouveau fichier audio.
À moins que ce ne soit votre objectif, bien sûr.
La compression est généralement utilisée pour la correction dynamique et l'amélioration du son, tandis que la normalisation est plutôt une fonction utilitaire.
Si vous recherchez les meilleurs plugins de compression pour ce processus, ne cherchez pas plus loin.
2. La normalisation du son ne résout pas tout
Il est important de garder à l'esprit que la normalisation des pics ne résout pas tous les problèmes audio.
Si vous rencontrez des problèmes de rapport signal/bruit, de distorsion ou d'autres artefacts audio, la normalisation seule ne suffira pas à les résoudre.
Dans de tels cas, vous devez vous attaquer aux causes profondes du problème et utiliser d'autres techniques de traitement audio telles que l'égaliseur ou la réduction du bruit pour obtenir le son souhaité.
Si une telle situation se présente, nous avons les meilleurs plugins d'égaliseur de 2023.
3. La normalisation du son n'augmente pas les réserves de puissance
Lors de la normalisation de fichiers audio, il est important de conserver une marge de volume suffisante dans vos mixages et enregistrements.
La marge est la différence entre le point le plus fort de votre fichier audio et le niveau de volume maximal que votre système audio numérique peut supporter.
Si vous normalisez votre audio de manière trop agressive, vous risquez de provoquer une distorsion et un écrêtage, ce qui peut nuire à la qualité de votre musique.
N'oubliez pas que quel que soit le DAW ou le système que vous utilisez, il est important de surveiller tout ce qui dépasse la marque de 0 dB.
En effet, éviter les restrictions et disposer d'une marge suffisante permet d'éviter les distorsions.
Par exemple, je considère que -16 dB est ma marge cible, et pour tout ce qui dépasse cette valeur, j'utilise un limiteur (juste pour maintenir une marge suffisante).
Cela permet également de compenser les changements de volume nécessaires pendant la phase de mastering.
Processus de normalisation du son
Maintenant que nous avons abordé les idées reçues les plus courantes sur la normalisation audio, approfondissons le processus lui-même.
Analysez vos fichiers audio
Avant de normaliser des fichiers audio, il est important de les analyser et de déterminer les niveaux de volume actuels.
Cette analyse peut être effectuée à l'aide des outils intégrés à votre DAW ou à l'aide d'un logiciel d'analyse audio dédié.
En comprenant les niveaux de volume actuels de vos fichiers, vous pouvez prendre des décisions éclairées concernant le processus de normalisation audio.
Sélectionner une cible de normalisation audio
Après avoir analysé les fichiers, vous pouvez choisir la cible de normalisation qui correspond le mieux à vos besoins.
Les facteurs à prendre en compte lors du choix d'une méthode de normalisation sont les suivants :
Type de matériel audio ;
Niveau de volume souhaité ;
Type de traitement effectué ;
La plateforme de destination de votre musique.
Chaque niveau de normalisation a ses propres forces et faiblesses, il est donc important de choisir celui qui donnera les meilleurs résultats dans votre situation spécifique.
Dans les situations de mixage . Restez dans les doubles chiffres bas, idéalement entre -18 et -12 dB ;
À des fins de mastering . Une option sûre serait toute valeur comprise entre -8 et -3 dB.
Dans certains services de streaming et certaines situations, il peut arriver que -0 dB soit garanti, alors assurez-vous simplement de ne pas dépasser cette valeur, car elle se situe juste à la limite.
Remarque. Pendant le processus de mixage, il est important de prêter une attention particulière aux réglages de gain et de déterminer le volume RMS afin de déterminer le gain nécessaire pour chaque piste.
L'utilisation du contrôle de gain du clip peut vous aider à contrôler précisément les niveaux de volume, garantissant ainsi un mixage bien équilibré.
Normalisation du son
Après avoir sélectionné la cible de normalisation appropriée, vous pouvez modifier les fichiers audio à l'aide d'un DAW ou d'un logiciel d'édition audio dédié.
La plupart des DAW et des logiciels d'édition audio disposent d'outils de normalisation intégrés qui les rendent faciles à utiliser.
En général, il suffit de sélectionner l'audio et d'appuyer sur la commande, ou simplement de sélectionner « Normaliser » dans le menu déroulant.
Veillez à contrôler les résultats du processus de normalisation afin de vous assurer que les nouveaux niveaux de volume répondent à vos attentes et ne provoquent pas d'artefacts ou de problèmes indésirables.
Compression vs normalisation
En matière de normalisation, celle-ci est le plus souvent comparée au processus de compression. Comprendre les différences et choisir la bonne méthode de traitement audio sont des compétences essentielles pour un producteur de musique, alors examinons cela de plus près.
La compression et la normalisation sont deux techniques de traitement audio distinctes, chacune ayant ses propres objectifs.
La normalisation vise à ajuster le niveau de volume global d'un fichier audio ;
La compression, quant à elle, réduit la plage dynamique du fichier.
Il est important de garder à l'esprit que la compression rend les parties les plus silencieuses d'un fichier audio plus fortes et les parties les plus fortes plus silencieuses. Si les deux méthodes peuvent être utilisées pour obtenir un niveau de volume plus homogène, elles affectent le son différemment et peuvent avoir des effets différents sur votre matériel.
Oui, la compression peut rendre le son plus fort, mais son objectif principal est tout autre.
Quand utiliser la compression
La normalisation est un processus utile lorsque vous devez égaliser le niveau de volume global d'un fichier audio ou d'un groupe de fichiers. Comme nous l'avons vu précédemment, cela est particulièrement utile lors du mastering de votre piste audio ou de la préparation de musique pour les services de streaming. Contrairement à la compression, la normalisation n'affecte pas la plage dynamique d'un fichier audio, ce qui en fait une méthode de traitement plus transparente et moins intrusive. De plus, elle n'implique aucun objectif, signification ou propriété dynamique, corrective ou améliorative.
Quand utiliser la normalisation du volume
La normalisation est un outil qui doit être utilisé lorsque vous souhaitez égaliser le niveau de volume global d'un fichier audio ou d'un groupe de fichiers. Comme nous l'avons vu précédemment, cela est particulièrement important lorsque vous masterisez votre piste audio ou préparez de la musique pour des services de streaming. Contrairement à la compression, la normalisation ne modifie pas la gamme dynamique du fichier audio, ce qui la rend plus neutre et moins intrusive pour le son. De plus, elle n'a pas pour but de corriger ou d'améliorer les caractéristiques dynamiques d'un fichier audio.
La dynamique et l'oreille humaine
Le système auditif humain est un mécanisme complexe qui réagit à une variété de fréquences et de niveaux de volume. Notre perception du son n'est pas linéaire : les changements de niveau de volume et de fréquence sont perçus différemment.
Il est important de tenir compte de cette nature non linéaire de la perception lors de la normalisation des fichiers audio, car elle peut affecter la façon dont les auditeurs perçoivent la musique.
Les courbes d'égale intensité sonore, ou courbes de Fletcher-Munson, illustrent la façon dont l'oreille humaine réagit à l'intensité sonore à différentes fréquences. Elles montrent que l'ouïe est plus sensible à certaines gammes de fréquences, en particulier de 2 à 5 kHz, et moins sensible aux fréquences très basses et très hautes.
La connaissance de ces courbes peut aider à prendre des décisions éclairées sur la perception humaine et lors de la normalisation des fichiers audio, en fournissant un son plus cohérent sur différentes fréquences.
Qu'est-ce que la gamme dynamique ?
La plage dynamique est définie comme la différence entre les parties les plus silencieuses et les plus fortes d'un fichier audio. Elle joue un rôle clé dans la production musicale, car elle façonne l'impact global et l'émotion d'un morceau.
Une plage dynamique plus large contribue à créer une sensation d'espace et de profondeur dans l'enregistrement, tandis qu'une plage dynamique plus réduite rend le son plus riche et plus révélateur.
Il faut trouver un équilibre entre le maintien d'un niveau de volume constant et le maintien de la dynamique de votre matériel audio. Une normalisation excessive ou une compression trop importante peut entraîner une perte de gamme dynamique, rendant votre musique plate et dépourvue d'émotion.
Pour préserver la dynamique, il est important de choisir des méthodes et des paramètres de normalisation des crêtes qui respectent la dynamique naturelle de votre matériel tout en conservant le volume souhaité (amplitude de crête).
La guerre du volume
Il existe une tendance intéressante dans l'industrie musicale moderne appelée « guerre du volume ». Ce terme décrit la tendance à l'augmentation du volume global des enregistrements musicaux au cours des dernières décennies. On pense que les chansons plus fortes peuvent attirer davantage l'attention des auditeurs ou offrir un meilleur son.
Si vous recherchez les meilleurs échantillons audio à intégrer à votre musique, il est important de consulter les meilleurs packs d'échantillons gratuits de 2023. Cela vous permettra de sélectionner les éléments sonores les plus adaptés à votre créativité.
Cependant, l'augmentation du volume des enregistrements audio a des conséquences négatives. Cela peut entraîner une perte de gamme dynamique et une mauvaise qualité sonore de la musique. De nombreux artistes, producteurs de son et auditeurs s'opposent à cette tendance et réclament des enregistrements sonores plus dynamiques et plus naturels.
Compte tenu de ces préoccupations, de nombreux services de streaming tels que Spotify et Apple Music ont commencé à mettre en œuvre la normalisation du volume. Cela vous permet de maintenir une qualité sonore constante pendant l'écoute et réduit le besoin d'un volume excessif lors de la création musicale. Ce changement met l'accent sur la préservation de la gamme dynamique et donne la priorité à la qualité sonore plutôt qu'au volume.
Normalisation ou compression : quelle est la différence ?
Beaucoup de gens croient à tort que la normalisation et la compression sont la même chose, mais c'est loin d'être le cas. La compression vise à augmenter le niveau de volume minimum d'une piste et à réduire le niveau de volume maximum, créant ainsi un niveau de volume global plus uniforme. En revanche, la normalisation fixe le point le plus élevé comme le pic de la piste audio.
Une amplification proportionnelle est ensuite appliquée au reste du son, ce qui permet de conserver la dynamique, c'est-à-dire la différence entre les sons les plus forts et les plus faibles. Cela augmente efficacement le volume perçu en fonction du niveau de crête tout en conservant une qualité sonore naturelle.
Inconvénients de la normalisation audio
Il est important de noter que la normalisation audio présente des inconvénients. Elle n'est généralement utilisée qu'aux dernières étapes de la création d'un matériel audio. En effet, la normalisation pousse souvent le niveau audio à un pic dans la limite numérique, ce qui limite les options d'édition ultérieures.
Il n'est pas conseillé de normaliser des pistes audio individuelles qui n'ont pas encore été mixées dans le cadre d'un enregistrement multipiste. Si chaque composant est déjà nivelé au plafond numérique, ils peuvent commencer à s'écraser lorsqu'ils sont lus ensemble.
De plus, la normalisation audio peut avoir des conséquences néfastes. Lorsque vous normalisez l'audio, le traitement numérique est intégré à la piste audio, rendant les modifications permanentes. Il est donc important d'appliquer la normalisation dans le bon contexte et au bon moment, généralement après que les fichiers audio ont déjà été traités comme souhaité.
Author
Patrick Stevensen
Published
May 20, 2024
DAW techniques
Make Music Now.
No Downloads, Just
Your Browser.
Start creating beats and songs in minutes. No experience needed — it's that easy.