Sollten Sie Audio normalisieren? (Wann zu und nicht zu normalisieren)

Sollten Sie Audio normalisieren? (Wann zu und nicht zu normalisieren)

Das Normalisieren von Audio ist ein ziemlich einfaches Konzept, aber seine Anwendungen werden nicht immer vollständig verstanden. Ist Normalisierung immer notwendig, nie notwendig oder nur auf bestimmte Situationen anwendbar? Finden wir es heraus.

Sollten Sie Audio normalisieren? Das Normalisieren von Audio ist eine effektive Strategie, um Samples zu erstellen, und der Gesang nimmt vor / während des Mischens eine konsistentere Lautstärke an und sogar als Methode für das Mastering, um eine Gruppe von endgültigen Musik-, Podcast- oder Fernsehmischungen auf ein konsistentes Niveau zu bringen. Das Normalisieren von Audio sollte auf der Masterspur oder während des Pre-Master- oder Master-Bounce-Downs vermieden werden, um Intersample-Peaks zu vermeiden.

In diesem Artikel besprechen wir, was Audionormalisierung ist und welche zwei Arten von Normalisierung gelten. Wir werden die Vor- und Nachteile sowie die typischen und effektiven Anwendungen dieses Prozesses betrachten.


Was ist Normalisierung?

Normalisierung ist der Prozess des Hinzufügens oder Subtrahierens einer bestimmten Verstärkung oder Verstärkung, um eine Audioaufnahme auf ein Zielniveau zu bringen, das auch als „Norm“ bezeichnet wird. Es ist ein ziemlich einfaches Konzept zu verstehen. Eine ordnungsgemäße Normalisierung wirkt sich nicht auf den Dynamikbereich des Audios aus. Es addiert oder subtrahiert einfach Verstärkung vom Audio, um es lauter bzw. leiser zu machen.

Normalisierung als Idee kann auf analoges Audio angewendet werden. Als Prozess handelt es sich jedoch eindeutig um digitales Audio, das leicht lesbare Informationen (durch digitale Systeme) und klar definierte Grenzen aufweist.

Normalisierung wurde zur gängigen Praxis, als digitale Audio-Workstations in den 1990er Jahren begannen, die Aufnahmeindustrie zu dominieren. Heute wird Normalisierung in der Audiowelt oft negativ bewertet und verliert gegenüber anderen, weniger invasiven Techniken an Boden.

Davon abgesehen kann es, wenn es klug eingesetzt wird, ein großartiger Verbündeter bei der Audiobearbeitung, dem Mischen und der konsistenteren Audiowiedergabe sein. Es hat Anwendungen in Musik, Fernsehen, Rundfunk, Podcasting und mehr. Darüber hinaus kann die Normalisierung der Lautstärke von Dialogen und Podcasts deren wahrgenommene Qualität erheblich verbessern.

Alles in allem erfolgt die Normalisierung auf eine von zwei Arten:

Spitzennormalisierung

Die erste Methode, allgemein bekannt als Peak-Normalisierung, ist kein komplexer, sondern ein linearer Prozess. Es wird erreicht, indem der höchste Peak in der Wellenform genommen und zusammen mit dem Rest des Clips proportional auf die Norm gebracht wird. Wenn Sie also die gleiche Verstärkung auf der ganzen Linie anwenden, wird die Dynamik respektiert, und Sie erhalten eine Wellenform, die dem Original nahe kommt, nur lauter (oder leiser).

Der Peak-Normalisierungsprozess findet effektiv den höchsten PCM-Sample-Wert einer Audiodatei und wendet die Verstärkung an, um die Spitze typischerweise auf 0 dBFS (Dezibel Full-Scale) zu bringen, was die obere Grenze eines digitalen Audiosystems ist. Beachten Sie, dass diese Normalisierung auch verwendet werden kann, um das Audio herunterzufahren und den Spitzenpegel nicht unbedingt auf 0 dBFS einstellen muss (obwohl dies am häufigsten der Fall ist).

Beachten Sie, dass die Spitzennormalisierung nur die Erkennung der Spitze des Audiosignals betrifft und in keiner Weise die wahrgenommene Lautstärke des Audiosignals berücksichtigt. Dies bringt uns zur nächsten Art der Normalisierung.

Normalisierung der Lautstärke

Die zweite Methode wird als Loudness-Normalisierung bezeichnet und beinhaltet eine viel komplexere Verarbeitung.

Der Grund, warum viele Menschen diese zweite Methode wählen, ist die menschliche Wahrnehmung von Lautstärke. Bei gleichen dBFS-Werten (und letztlich Schalldruckpegeln) werden anhaltende Geräusche als lauter wahrgenommen als transiente Geräusche.

Betrachten wir zum Beispiel die Normalisierung eines 2-Sekunden-Clips einer Rechteckwelle und eines 2-Sekunden-Clips eines Snare-Drum-Treffers auf 0 dBFS. Die Rechteckwelle, die aufrechterhalten wird, wird als viel lauter wahrgenommen als der Snare-Treffer, obwohl beide auf einen Spitzenwert von 0 dBFS normalisiert werden.

Die Normalisierung der Lautstärke hingegen passt die Lautstärke der Aufnahme an die wahrgenommene Lautstärke an. Dazu wird eine andere Messung namens LUFS (Loudness Unit Full Scale) oder LKFS (Loudness, K-Weighted, Relative To Full Scale) verwendet. Dies ist ein komplexeres, fortgeschrittenes Verfahren, und die Ergebnisse werden vom menschlichen Ohr als lauter wahrgenommen.

Beachten Sie, dass LKFS und LUFS zwar unterschiedliche Namen haben, aber identisch sind. Sie sind beide Standard-Lautheitsmessgeräte, die für die Audionormalisierung in Rundfunk, Fernsehen, Musik und anderen Aufzeichnungen verwendet werden.

RMS-Werte könnten auch verwendet werden, um den „durchschnittlichen“ Audiopegel zu ermitteln, obwohl RMS nicht direkt damit zusammenhängt, wie wir Schall wahrnehmen. Der hörbare Bereich für das menschliche Gehör beträgt 20 Hz bis 20.000 Hz, obwohl wir für bestimmte Frequenzen empfindlicher sind (TeilB. im Bereich von 200 Hz bis 6.000 Hz). LUFS/LKFS berücksichtigt dies für die „wahrgenommene Lautstärke“, während RMS-Werte dies nicht tun.

Dieser Prozess arbeitet mit der EBU R-128 Lautstärkeerkennung, um die „durchschnittliche“ wahrgenommene Lautstärke einer Audiodatei zu finden und die insgesamt wahrgenommene Lautstärke entsprechend anzupassen. Dieser Normalisierungsprozess könnte verwendet werden, um das Gesamtniveau je nach den Umständen nach oben oder unten zu bringen.


Normalisierung vs. dynamische Komprimierung

Wie bereits erwähnt, sind Dynamikbereichskomprimierung und Normalisierung ähnlich, aber unterschiedlich. Es ist ein häufiger Fehler, Normalisierung mit dynamischer Komprimierung zu verwechseln. Es gibt jedoch einen großen Unterschied zwischen diesen Prozessen.

Dynamikbereichskompression ist der Prozess der Verringerung des Dynamikumfangs eines Audiosignals (der Amplitudenunterschied zwischen dem höchsten und niedrigsten Punkt). Die Kompression tut dies, indem die Signalamplitude über einen festgelegten Schwellenwert gedämpft wird und eine Make-up-Verstärkung bereitgestellt wird, um die verlorenen Pegel auszugleichen.

Bei der Normalisierung ist, wie bereits erwähnt, die Verstärkung für die gesamte Aufzeichnung konsistent, und daher bleibt der Dynamikbereich erhalten. Dies bedeutet, dass das resultierende Audio das gleiche wie das Original ist, nur lauter (oder leiser).


Die Vor- und Nachteile der Audio-Normalisierung

Nun, da wir verstehen, was Normalisierung ist, lassen Sie uns die Vor- und Nachteile der Audionormalisierung diskutieren.

Audio-Normalisierungsprofis

Volume-Konsistenz: Der erste Profi ist gängige Praxis, nivelliertes Audio, das unter verschiedenen Bedingungen und an verschiedenen Orten aufgenommen wurde. Zum Beispiel, um die Spuren in einem Datensatz oder die Episoden in einem Podcast zu nivellieren.

Vermeiden Sie Spitzen über 0 dBFS: Bei ausreichend hohen Abtastraten wird das Audio durch Normalisieren einer Spur, um maximale Lautstärke zu erreichen, auf oder unter dem digitalen Maximum gehalten, wodurch digitales Clipping/Verzerrung vermieden wird. Beachten Sie, dass Limiter auch das gleiche Ergebnis liefern, obwohl sie, wie die Komprimierung, dies tun, indem sie den Dynamikumfang des Audios beeinflussen.

Nachteile der Audionormalisierung

Normalisierung ist oft destruktiv: Obwohl DAWs in den meisten Fällen bis zu 999 Undo-Level bieten, kann nicht jeder Prozess rückgängig gemacht werden. Tatsächlich werden die meisten Programme Sie auffordern, eine neue Version der Datei zu erstellen, um sie zu normalisieren. Wenn Sie das ursprüngliche, unverarbeitete verwerfen oder verlieren, können Sie den Normalisierungsprozess nicht rückgängig machen und bleiben mit dem Ergebnis zurück.

Peaks zwischen den Stichproben: Wenn die Abtastrate zu niedrig ist, können die 0 dBFS bei der Normalisierung während des Bounce-Downs tatsächlich überschritten werden. Wie der Name schon sagt, geschieht dieses Clipping, wenn das digitale Audio als analoges Audio rekonstruiert wird und die resultierenden kontinuierlichen Wellenformclips zwischen zwei oder mehr digitalen Samples entstehen, die zu nahe an der 0-dB-Grenze lagen.


Wann Audio normalisiert werden sollte

Das Normalisieren einer Aufnahme hat also Vor- und Nachteile, aber wann ist es besser, die Audionormalisierung zu verwenden? Werfen wir einen Blick auf einige Szenarien:

Proben: Das Normalisieren von Audio-Samples gibt Ihnen die Möglichkeit, dass Sie beim Mischen die Pegel nicht berühren müssen, um Konsistenz zu erzielen. Daher ist es eine großartige Idee, jede Probe zu normalisieren, bevor sie in den Mix geht.

Normalisierung der Albumassembly: Beim Zusammenstellen einer Sammlung von Aufnahmen kann die Lautheitsnormalisierung verwendet werden, um sicherzustellen, dass es keine Lautstärkesprünge von Track zu Track gibt. Der gleiche Prozess kann auf Episoden in einem Podcast oder Fernsehprogramm angewendet werden.

Um Unterschiede in einem Vocal Take auszugleichen: Ein einfacher Studiotrick besteht darin, eine Gesangsaufnahme zu normalisieren, sie in ihre Stücke zu zerlegen und Ihre Ohren als Leitfaden zu verwenden. Wenn Sie die Normalisierung nur für die Abschnitte mit geringer Lautstärke durchführen, wird die Lautstärke nur dort erhöht, wo Sie denken, dass sie fehlt, und eine konsistentere Aufnahme erstellt. Hüten Sie sich davor, diese Methode zu missbrauchen, weil Sie die Stimmdynamik töten könnten, also lassen Sie Ihre Ohren Ihr Führer sein.


Wann Sie die Normalisierung von Audio vermeiden sollten

Wenn Sie Ihren Track hüpfen: Ein häufiger Fehler besteht darin, dem Masterbus beim Bouncing ein Normalisierungs-Plug-In hinzuzufügen. Wie bereits erwähnt, kann es zu Peaking zwischen den Samples kommen, was zu Verzerrungen und Artefakten im endgültigen Track führt, die in der Session nicht vorhanden waren.

Ein Pre-Mastering-Track: Wenn Sie im Begriff sind, einen Track zum Mastering zu senden, von dem Sie denken, dass das Volumen der Abschnitte mit geringerer Lautstärke aufgepumpt werden muss, kann das Normalisieren helfen. Andernfalls, wenn Sie es bereits mit Gain-Staging vorangetrieben haben, wird das Normalisieren den Spielraum für den Mastering-Ingenieur abschneiden, um seine Arbeit zu erledigen.


Ein Hinweis zu modernen Streaming-Diensten

Einige Streaming-Dienste wie Spotify und YouTube normalisieren Audio, sodass Sie die Lautstärke nicht von einem Song zum nächsten anpassen müssen, wenn Sie sich in einer Wiedergabeliste befinden. KnDank dieser Informationen können Sie sich auf die Normalisierung verlassen und bei den Spring- oder Mastering-Prozessen darauf verzichten.

In Bezug auf Streaming-Dienste finden Sie hier eine kurze Liste der Lautheitsnormalisierung pro beliebter Streaming-Plattform:


Streaming-Dienst Normalisierung der Lautstärke
Amazon Musik -9 bis -13 LUFS
Apple Musik -16 LUFS
Soundcloud -8 bis -13 LUFS
Spotify -13 bis -15 LUFS
Flut -14 LUFS
Youtube-Videos -13 bis -15 LUFS

Eine Anmerkung zur Rolle der Normalisierung im Loudness War

Der Loudness War ist ein Trend, der die wahrgenommene Lautstärke in aufgenommener Musik und Audio auf Kosten des Dynamikumfangs und der Gesamtqualität erhöht.

In den 1980er Jahren, als Compact Discs (CDs) populär wurden, war es üblich, Audio auf 0 dBFS zu normalisieren.

In den 1990er Jahren begann der Loudness War, als Mastering-Ingenieure begannen, die wahrgenommene Lautstärke in ihren digitalen Aufnahmen zu optimieren.

Der Loudness-Krieg wurde in den 2000er Jahren weit verbreitet und gipfelte 2008 in dem berüchtigten Death Magnetic-Album von Metallica.

Das Erreichen dieser Lautstärke hatte weniger spezifisch mit Normalisierung als vielmehr mit übermäßig aggressiver Dynamikbereichsverarbeitung zu tun.

In den 2010er Jahren begann sich der Lautheitskrieg abzukühlen. Die Leute hatten die Nase voll von der Lautstärke-über-Qualität-Denkweise. Dynamische Musik klingt einfach besser.

Ein weiterer großer Teil der Abkühlung des Lautheitskrieges ist die Popularität von Streaming-Diensten, die wir oben besprochen haben. Als Streaming-Dienste begannen, das Audio selbst zu normalisieren, wurde die zusätzliche Lautstärke, die durch die Dynamikbereichskomprimierung erreicht wurde, gemildert. Mit anderen Worten, die lautesten Lieder des Lautheitskrieges verloren ihren Vorteil, lauter zu sein als der Rest. Dennoch behielten sie die negative Konsequenz einer verringerten Dynamik und einer erhöhten Verzerrung und Pumpung bei.

In dieser Hinsicht können wir Normalization dafür danken, dass sie dazu beigetragen hat, den Trend von Lautstärke über Qualität in modernen Musikaufnahmen zu reduzieren und sogar umzukehren.


Was ist der Unterschied zwischen Audiokomprimierung und -begrenzung? Dynamikbereichskompression und -begrenzung funktionieren beide nach dem gleichen Prinzip der Reduzierung des Dynamikbereichs eines Audiosignals. Begrenzend ist die Kompression mit einem sehr hohen (oft unendlichen) Verhältnis. Kompressoren reduzieren die Signalpegel über einen festgelegten Schwellenwert um ein Verhältnis. Limiter sind so konzipiert, dass sie einen maximalen Ausgangspegel einstellen.

Was ist Aufwärtskompression? Die Aufwärtskomprimierung ist eine Art der Dynamikbereichskomprimierung, bei der die Amplitude eines Audiosignals unter einen bestimmten Schwellenwert angehoben wird, während die Amplitude über dem Schwellenwert gehalten wird. Die Aufwärtskompression ist in digitalen Plugins und über parallele Kompression mit Hard- oder Software verfügbar.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert