Mixing: What Is Phase & Why Is It So Important To Get Right?

Mischen: Was ist Phase und warum ist es so wichtig, richtig zu werden?

Die Phasenkohärenz einzelner Kanäle in einem Mix ist entscheidend für einen starken Mix, aber es ist ein oft übersehener Aspekt des Mixens. Wenn Sie auf diesem Artikel gelandet sind, fragen Sie sich wahrscheinlich, wie und warum Phase ein so wichtiger Teil des Mischens ist. Ich bin hier, um es Ihnen zu sagen.

Was ist Phase und warum ist es so wichtig, beim Mischen richtig zu sein? Phase ist die Position eines Zeitpunkts in einem Wellenzyklus, bezieht sich jedoch beim Mischen auf die Ausrichtung positiver und negativer Amplituden zwischen nicht identischen Wellenformen. Eine „bessere Phase“ bedeutet eine bessere Ausrichtung und weniger zerstörerische Interferenzen zwischen den Spuren, was zu besseren Mischergebnissen führt.

In diesem Artikel werden wir die Phase ausführlicher, ihre Bedeutung im Mix und die Verbesserung der Phasenbeziehungen in unseren Mischungen für optimale Ergebnisse besprechen.


Was ist Phase?

In periodischen Wellenformen (wie Audiosignalen) bezieht sich Phase auf die Position eines Zeitpunkts in einem Wellenzyklus, gemessen in Grad. Der Anfang einer Wellenform beginnt bei 0º und wiederholt sich alle 360º.

In einer Sinuswelle beginnen wir im Allgemeinen bei einer Amplitude von 0 bei 0º. Wir arbeiten uns bis zur maximalen Amplitude bei 90º hoch und gehen auf dem Weg zur maximalen negativen (oder minimalen) Amplitude bei 270º wieder auf 0 Amplitude bei 180º zurück. Wir kehren dann bei 360º zu 0 zurück, wo sich der Zyklus wiederholt.

Dieser Zyklus und diese Phase können in der folgenden Grafik visualisiert werden:

Die Umkehrung der Phase einer zyklischen Sinuswelle würde dies umkehren, so dass die maximale negative (minimale) Amplitude bei 90º und die maximale Amplitude bei 270º liegen würde.

Eine invertierte Sinuswelle würde so aussehen:

Wenn wir ein Signal duplizieren und beide Kopien wiedergeben, erhalten wir eine Verdoppelung des Signalpegels (+6 dB):

Wenn wir jedoch die Phase einer Kopie umkehren, heben sich die beiden vollständig auf und geben kein Ausgangssignal:

Während reale Audiosignale selten zyklisch sind (selbst bei Synthesizer-Signalen), können wir sie immer noch in Bezug auf die Phase betrachten, wenn auch eher als Konzept als als harte Wissenschaft.

Vielmehr haben wir in der realen Welt nicht das gleiche exakte Audio auf zwei Spuren, es sei denn, wir kopieren das Audio genau. Audiosignale sind komplex und die Aufnahme von zwei perfekt phasengleichen Audiospuren ist nahezu unmöglich. Dies gilt für Multi-Miked-Aufnahmen, doppelspurige Instrumente und geschichtete Samples.

Wenn wir also die Phase im Zusammenhang mit dem Mischen diskutieren, sprechen wir wirklich über die allgemeine Ausrichtung oder Ähnlichkeit zwischen den Wellenformen der Kanäle. Dies gilt sowohl für einzelne Spuren in der Session als auch für die mehreren Ausgangskanäle in Mehrkanalmischungen (z. B. den linken und rechten Kanal eines Stereomixes).

Je mehr zwei Signale/Wellenformen in Bezug auf Amplitude und Zeit übereinstimmen, desto mehr können wir sagen, dass sie „in Phase“ miteinander sind.

Wenn zwei oder mehr Signale mehr in Phase miteinander sind, werden sie zu einer gesunden, konstruktiven Ausgabe kombiniert. Wenn die Signale phasenverschobener zueinander sind, stoßen wir auf Probleme mit destruktiven Interferenzen, die letztendlich das Ausgangssignal ausdünnen.


Warum sind Phasenbeziehungen im Mix wichtig?

Ich habe bereits darauf hingewiesen, aber die Sicherstellung der richtigen Phasenbeziehungen im Mix ist ein großer Teil davon, einen starken, kraftvollen Mix zu erhalten.

Eine gute Phasenkohärenz zwischen unseren Tracks ermöglicht es ihnen, im Mix und nicht gegeneinander zu arbeiten (sich gegenseitig aufzuheben).

Wenn wir zum Beispiel eine Snare-Top- und eine Snare-Bottom-Mikrofonspur im Mix haben, werden sie während der Snare-Hits wahrscheinlich weitgehend phasenverschoben sein. Dies liegt daran, dass sie dieselbe Quelle erfassen und aufeinander gerichtet sind.

Angenommen, die anfänglichen Snare-Transienten werden als negative Amplitude in der oberen Mikrofonspur und positive Amplitude im unteren Mikrofon angezeigt. In diesem Fall heben sich diese beiden Wellenformen meist gegenseitig auf, auch wenn sie nicht perfekt ausgerichtet sind. Das Umdrehen der Phase eines dieser Mikrofone während der Aufnahme oder das Umdrehen der Phase der Spur während des Mischens ermöglicht es diesen beiden Snare-Spuren, synergistisch zu arbeiten, um eine stärkere, präsentere Snare im Mix zu erzeugen.

Low-End-Frequenzen sind auch anfällig für Ausdünnung, wenn die Phasenbeziehungen nicht auf dem Punkt sind. Wenn Sie beispielsweise mehrere Kick-Samples so ausrichten, dass ihre Transienten und das untere Ende ihrer Wellenformen (die längeren Wellenlängen) so „phasennah“ wie möglich sind, wird dies zu einem stärkeren Ergebnis führen, als wenn sie weitgehend phasenverschoben zueinander liegen.

Über die einzelnen Spuren hinaus sollten wir uns Gedanken über die Monokompatibilität unserer Stereomischungen machen und darüber, wie „phasenverschoben“ oder „phasenverschoben“ der linke und der rechte Kanal zueinander sind.

NatürlichEs sind diese Unterschiede zwischen dem linken und rechten Kanal, die uns den Stereoeffekt geben. Wenn der linke und der rechte Kanal identisch wären, hätten wir effektiv Mono-Audio (bei dem das gleiche Signal an alle Lautsprecher gesendet wird).

Monokompatibilität ist vielmehr die Praxis, unwesentliche Änderungen des Frequenzinhalts sicherzustellen, wenn eine Mehrkanalaufnahme (typischerweise Stereoaufnahme) zu Mono summiert wird. Mono-Kompatibilität ist wichtig, da einige Wiedergabesysteme, wie PA-Systeme, Smartphones und Bluetooth-Lautsprecher, Audio in Mono wiedergeben.

Wir müssen hier also einen schmalen Grat gehen. Wir wollen die Breite und Direktionalität, die Stereo-Mixing zu bieten hat, dank der Unterschiede zwischen dem linken und rechten Stereokanal. Wir wollen jedoch den linken und rechten Kanal nicht zu weit „phasenverschoben“ und eine starke Phasenunterdrückung verursachen, wenn der Mix zu Mono summiert wird.

Phasenkorrelationsmessgeräte sind gute Werkzeuge, um uns zu zeigen, wie der linke und rechte Kanal phasenweise ausgerichtet sind. Moderne digitale Audio-Workstations, die ihr Geld wert sind, werden mit einem Stock-Phasenkorrelations-Metering-Plugin geliefert.

Phasenkorrelationsmessgeräte reichen kontinuierlich von -1 bis +1 oder von 180º bis 0º. Sie können auf Stereospuren oder dem Stereo-Mix-Bus platziert werden, um die Phasenbeziehung zwischen den linken und rechten Stereowellenformen zu messen.

Bei +1 haben wir eine 100%ige Korrelation zwischen den Kanälen (sie sind genau gleich).

Bei 0 haben wir die „größte zulässige Links/Rechts-Divergenz“ oder das breiteste zulässige Stereobild.

Ideal ist es, wenn sich das Mix-Bus-Korrelationsmessgerät zwischen 0 und 1 bewegt. Kleinere Variationen bedeuten geringere Unterschiede in der Breite.

Bei -1 sind unser linker und rechter Kanal völlig phasenverschoben und heben sich gegenseitig vollständig auf.

Mix-Bus-Korrelationsmesswerte zwischen -1 und 0 bedeuten, dass signifikante Phasenprobleme vorliegen, die das Stereo-Audio und definitiv das summierte Mono-Audio beeinträchtigen.

Am besten bewegen Sie den Mauszeiger zwischen 0 und +1. Wir möchten jedoch, dass unsere Mischungen etwas näher an +1 liegen, um bessere Phasenbeziehungen zwischen dem linken und rechten Kanal und damit eine bessere Monokompatibilität zu gewährleisten.

Ich spreche über die Bedeutung des periodischen Mischens in Mono während der gesamten Mischung in Dieses Video.


So verbessern Sie die Phasenbeziehungen zwischen Spuren in einem Mix

Wir verstehen die Verwendung der Phase und des Begriffs beim Mischen sowie die Bedeutung der richtigen Phasenbeziehungen zwischen den Kanälen unseres Mixes, einschließlich der einzelnen Audiospuren und der Kanäle von Stereo- und anderen Mehrkanalmischungen.

Wenden wir uns nun den praktischen Schritten zu, die wir unternehmen können, um die Phasenbeziehungen zwischen den Tracks in unseren Mixen zu verbessern!

Erstens, wenn wir auch mit der Aufnahme beauftragt sind, sollten wir uns dafür entscheiden, unsere Aufnahme so einzurichten, dass unser Audio so „in-phase“ wie möglich aufgenommen wird. Dies bedeutet in der Regel eine sorgfältige Mikrofonplatzierung und Polaritätsumschaltung, wo dies erforderlich ist.

Um genauer auf den Mischprozess einzugehen, werden wir in diesem Abschnitt die folgenden Strategien und Tipps besprechen:

Umdrehen der Polarität

Polarity Flipping oder fälschlicherweise „Phase Flipping“ (als eine Frage der Semantik) wird typischerweise über eine einfache Schaltfläche oder einen Schalter erreicht und dient dazu, die Polarität einer Wellenform umzukehren. Die positiven Amplituden werden negativ und umgekehrt.

Polarity Flipping/Inverting ist eine einfache Möglichkeit, Audiowellenformen zu korrigieren, die fast völlig phasenverschoben sind. Wenn Sie eine Spur umdrehen, wird sie an der anderen ausgerichtet.

Die vielleicht häufigste Situation, in der die Polarität umgedreht werden muss, ist, wenn sich zwei Mikrofone gegenüberstehen, um dieselbe Quelle zu erfassen. Ich habe den Fall eines oberen und unteren Snare-Drum-Mikrofons bereits erwähnt, da dies einer der häufigsten Fälle ist, in denen Polaritätsflipping gerechtfertigt ist.

Wir können jedoch auch Fälle haben, in denen Mikrofone so voneinander entfernt sind, dass sie ihre Quelle in einer schlechten Phase erfassen. Während diese Probleme am besten in der Aufnahmephase angesprochen werden, müssen wir sie möglicherweise im Mix ansprechen.

Wir können auch von der Polaritätsumkehrung profitieren, wenn wir mit Proben mischen oder produzieren. Wenn zwei Samples zusammen spielen und weitgehend phasenverschoben sind, können wir uns dafür entscheiden, die Polarität des einen zum anderen umzukehren.

Berücksichtigen Sie bei der Entscheidung, welche Spur die Polarität ändern soll, die anderen Spuren im Mix und wählen Sie diejenige, die am besten zu jeder anderen berücksichtigten Wellenform passt. Drehen Sie beispielsweise die Phase des unteren Snare-Mikrofons (nach oben zeigend) statt des oberen Snare-Mikrofons (das zusammen mit den Tom-Mikrofonen, Overheads und Becken-Spot-Mikrofonen nach unten zeigt) um.

Audio-Nudging

In den meisten Fällen wird ein einfacher Polaritätswechsel unsere Phasenprobleme nicht vollständig lösen. Vielmehr ist es oft der Fall, dass wir in unseren Phasenanpassungen chirurgischer vorgehen sollten, um den Mix zu unterstützen.

Audio-Nudging auf Makroskala verändert das Timing von Spuren im Mix. Obwohl dies notwendig sein mag, ist es nicht das, was wir hier diskutieren.

Vielmehr schreibe ich darüber, die Audioclips einzelner Spuren so leicht anzustoßen, dass sie besser zu den anderen Spuren im Mix passen.

Ein gutes Beispiel hierfür ist die Ausrichtung der Overhead-Drum-Mikrofone (nehmen wir ein rechtes und linkes Mikrofon an) am oberen Snare-Mikrofon. In diesem Fall haben wir drei Mikrofone, die alle effektiv den Klang der Snaredrum einfangen, aber in unterschiedlichen Abständen von der Snare Drum.

Indem wir jede Overhead-Spur so anstoßen, dass die Snare-Transienten zwischen allen drei Mikrofonen ausgerichtet sind, können wir die allgemeine Klarheit und den Punch der Snaredrum verbessern, wenn wir die verschiedenen Signale in Phase näher bringen.

Proben-/Zeitdehnung

In einigen besonderen Fällen kann es notwendig sein, eine bestimmte Spur zeitlich zu dehnen oder zu komprimieren, um in die Phase mit den anderen Spuren des Mixes zu passen. Dies ist im Allgemeinen Samples vorbehalten, die konsistent sind (und konsistent geändert werden können) und ausgelöst werden (im Gegensatz dazu, dass ein vollständig aufgenommener Audioclip zeitlich gestreckt werden muss).

Diese Strategie wird selten verwendet, aber ich dachte, ich sollte sie erwähnen, da sie wiederum in sehr speziellen Fällen effektiv sein kann. Zum Beispiel, zwei oder mehr problematische Kick-Drum-Samples dazu zu bringen, synergistisch im Mix zusammenzuarbeiten.

Phasenrotation

Die Phasenrotation ist ein leistungsfähiges Werkzeug für die Phasenausrichtung. Es funktioniert, indem es die Phase jeder einzelnen Frequenz um den gleichen Betrag und nicht die gesamte Wellenform verschiebt.

Die Phasenrotation verzerrt technisch die Wellenform (sie ändert die Wellenform), ohne den wahrgenommenen Klang oder den Pegel des Audios zu verändern (wie es bei einem typischen Verzerrungseffekt der Fall wäre).

Während wir die Wellenform formen, können wir das Audiosignal so formen, dass es phasenweise besser an die anderen Spuren im Mix angepasst wird.

Wenn wir die Phasenrotation verwenden, müssen wir uns auf unsere kritischen Hörfähigkeiten verlassen, um zu hören, wie der Effekt einen Unterschied zum Besseren macht. Wenn wir feststellen, dass es hilft, können wir immer das betroffene Audiosignal abprallen lassen und die zurückgeprallte Wellenform gegen die Wellenformen der anderen Spuren im Mix lesen.

Zusätzlich zur Unterstützung der Phasenausrichtung kann uns die Phasenrotation helfen, asymmetrische Wellenformen symmetrischer zu machen. Die Erhöhung der Symmetrie senkt die Spitzenpegel (der positiven oder negativen Spitzen), ohne die wahrgenommene Lautstärke oder den Klang des Signals zu verändern. Indem das Signal symmetrischer wird, erhöht die Phasenrotation auch den Gesamtspielraum der Spur und oft den Mix als Ganzes.

Das Phase Rotate by x42 (Link zum Auschecken unter x42-plugins) ist eine großartige Phasenrotator-Plugin-Option.

Ich habe ein Video, das dir hilft, die besten Phasenbeziehungen zwischen deinen Tracks vor dem Mischen zu finden. Schau es dir unten an:

Weitere Tipps zur Verbesserung der Phasenbeziehungen im Mix

Ich werde noch einmal betonen, dass Phasenprobleme die längeren Wellenformen von Low-End-Frequenzen überproportional beeinflussen. Während Phasenprobleme im High-End oft vernachlässigbar sind (und ohnehin praktisch unmöglich zu bewältigen sind), sollten wir unseren Basselementen besondere Aufmerksamkeit schenken.

Aus diesem Grund können Hochpassfilterrauschen und unmusikalische Low-End-Informationen enorm dazu beitragen, die Low-End-Solidarität des Mixes zu verbessern. Zunächst einmal entfernen wir Rauschen. Zweitens reduzieren wir die Anzahl potenzieller Phasenbeziehungen im Low-End, die die Subbass- und Bassfrequenzen wirklich durcheinander bringen können, erheblich.

Ich sollte auch hinzufügen, dass, während Hochpassfilter ausgezeichnete Werkzeuge sind, um Low-End-Rauschen in Tracks zu beseitigen, EQ einen Nebeneffekt der frequenzabhängigen Phasenverschiebung hat.

Filter höherer Ordnung, die steiler oder schmaler sind, haben mehr reaktive Komponenten (d. H. Kondensatoren) und verursachen eine größere Phasenverschiebung.

Je steiler oder schmaler sich also der EQ bewegt, desto größer ist die Phasenverschiebung.

Typischerweise verursachen Hochpassfilter eine positive Phasenverschiebung bei und unter der Eckfrequenz.

Tiefpassfilter verursachen eine negative Phasenverschiebung bei und über der Eckfrequenz.

High-Shelf-Boosts und Low-Shelf-Cuts verursachen eine positive Phasenverschiebung bei ihrer Eckfrequenz, während High-Shelf-Cuts und Low-Shelf-Boosts eine negative Phasenverschiebung bei ihrer Eckfrequenz verursachen.

Bell-EQ-Bänder verursachen sowohl positive als auch negative Phasenverschiebungen um die Mittenfrequenz.

Achten Sie also auf die Frequenz-dehängende Phasenverschiebung durch EQ (insbesondere bei aggressiven EQ-Bewegungen) und mischen entsprechend.

Ich habe ein Video, das den Nebeneffekt des EQ der Phasenverschiebung beschreibt. Schaut es euch hier an:

Wenn Sie Probleme mit der Phasenverschiebung im EQ haben (es ist normalerweise nicht so schlimm), können Sie sich immer für einen linearen Phasen-EQ entscheiden, der so konzipiert ist, dass er keine Phasenverschiebung erzeugt, jedoch auf Kosten einer erhöhten CPU-Last und des Potenzials für Vorläutungsartefakte.


Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert