Audio Technologien Vortagsdokumentation Simon Egli Simon Egli Audio Technologien 1
Inhaltsverzeichnis Inhaltsverzeichnis... 2 Schall Was hören wir?... 3 Infraschall... 3 Hörschall... 3 Ultraschall... 5 Hyperschall... 5 Geschichte... 5 Phonograph... 6 Grammophon... 6 Einfluss von Musik und Tönen... 7 Audio Hardware... 8 Audio Software... 9 Beschallungstechnik... 11 Abbildungsverzeichnis Abbildung 1: Räumliches hören von tiefen Frequenzen... 4 Abbildung 2: Räumliches Hören von hohen Frequenzen... 5 Abbildung 3: Phonograph... 6 Abbildung 4: Grammophon... 7 Abbildung 5: Regieraum eines Tonstudios... 8 Abbildung 6: Aufnahmeraum eines Tonstudios... 9 Abbildung 7: Cubase Screenshot... 11 Abbildung 8: Bühnenaufbau... 12 Simon Egli Audio Technologien 2
Schall Was hören wir? Infraschall Unter Infraschall verstehen wir alle Schallwellen die einen niedrigeren Frequenzbereich als 16-20Hz haben. Das menschliche Gehör kann Schallwellen in diesem Bereich nicht mehr wahrnehmen. Doch Elefanten, Giraffen und Blauwale nutzen diese niedrigen Frequenzen wahrscheinlich um zu kommunizieren. Dies hat einen grossen Vorteil. Denn Infraschallwellen breiten sich extrem weit aus. Auch unter Wasser haben sie eine extreme Reichweite. Auch wenn unser Gehör den Infraschall nicht wahrnehmen kann, ist er bei hohem Schalldruck spürbar. Besondern tiefer gelegene Infraschall Vibrationen sind manchmal gut spürbar. Manche behaupten, Infraschall kann auf uns Menschen eine schädigende Wirkung haben (Gehör, Gleichgewichtsorgane, Lunge oder innere Organe). Dies konnte jedoch bei einem Schalldruck von 170dB noch nicht nachgewiesen werden. Bei 185-190dB zerplatzt uns dann aber das Trommelfell. Ein solcher Wert bedeutet den halben Atmosphärendruck. Hörschall Als Hörschall bezeichnen wird den Frequenzbereich der für das menschliche Gehör hörbar ist. Dieser reicht von 16-20Hz bis zu 20kHz. Hier möchte ich ein bisschen näher auf den ganzen Vorgang, genannt hören (Das Gehör ist übrigens unser schnellster Sinn), eingehen. Wir wissen sicherlich fast alle noch von der Schule her, dass der Schall auf unser Trommelfell prallt, dort Schwingungen verursacht, die dann weiter zu den Gehörknöchelchen gelangen. Auch bereits da gibt es Unterschiede wie die beiden Sachen wackeln. Das Trommelfell wackelt heftig, aber mit wenig Kraft, die Gehörknöchelchen wackeln dann aber nur noch sehr wenig, aber mit viel Kraft. Diese Kraft braucht es auch, denn im Innenohr ist ja nur noch Wasser. Und wie Sie sicherlich auch wissen braucht es viel mehr Kraft, Wasser zum schwingen zu bringen, als Luft hin und her zu fächern. Sind die Gehörknöchelchen überwunden, geht s ins Innenohr. Dieses ist unser analog, digital Wandler. Das heisst aus Schwingungen werden Impulse gemacht. Das ganze geschieht in der Gehörschnecke. Diese hat 2.5 Windungen. In unserer Gehörschnecke befindet sich eine Membrane. Diese Wackelt. Aber logischer Weise nur für die uns Hörbaren Frequenzen. Über dieser Membrane befinden sich Zellen. An diesen Zellen befinden sich ganz winzig kleine Haare. Diese werden zum Schwingen gebracht. Wenn diese Härchen schwingen, führt dies zu einem Ionenaustausch zwischen innerem und äusserem Zellraum. Wie das aber genau funktioniert weis man noch nicht. Aber genau diese Ionenflüsse sind dafür verantwortlich dass aus analogen Schwingungen (Schall), digitale Impulse entstehen. Die Impulse verlassen das Innenohr in Richtung Gehirn. Dort werden diese dann verarbeitet. Jetzt bleibt nur noch zu erklären wie wir hören können von wo ein Ton herkommt. Dafür besitzen wir zwei Mechanismen. Der eine ist für den Frequenzbereich bis zu ca. 2500Hz verantwortlich, der andere für den Frequenzbereich ab ca. 3000Hz. Dazwischen überschneiden sich die beiden Arten. Zuerst zur Technik um tiefe Frequenzen zu erkennen: Schall ist ca. 340m/s schnell. Das heisst er schafft in einer Millisekunde 0.5m. Da tiefe Frequenzen sich gleichmässig und gleich laut in Räumen ausbreiten (zum Beispiel Basstöne), können wir also nicht mit der Lautstärke erkennen von wo der Ton kommt. Aber genau diese kleine Millisekunde, die der Schall benötigt um Simon Egli Audio Technologien 3
unseren Kopf zu umfahren, ist entscheidend. Unser Gehör erkennt also, an welchem Ohr der Schall zuerst ankam. Dieser Vorgang passiert tatsächlich noch im Ohr und nicht im Hirn. Wenn in der Gehörschnecke Impulse aus dem Schall erstellt wurden, werden diese weiter an verschiedene Nervenstationen weitergeleitet. Zuerst die erste dann die zweite dann die dritte, und so weiter. Aber keine dieser Zellen wird aktiv. Eine Zelle wird erst aktiv, und reagiert auf die Impulse, wenn die Impulse von beiden Ohren an derselben Zelle angekommen sind. Nun weis unser Gehirn genau, diese Zelle hat reagiert, der Ton kommt vom Partygänger rechts hinten im Raum mit der dumpfen Pauke. Abbildung 1: Räumliches hören von tiefen Frequenzen Kommen wir nun zu den Frequenzen ab 3000Hz. Diese Frequenzen bedeuten dass es sich um hohe Töne handelt. Anders als bei den tiefen Tönen verteilen sich die hohen nicht überall im Raum. Sie kommen auch unterschiedlich laut an unsere Ohren. Nicht so wie die tiefen. Und genau das ist der Punkt. Wenn zum Beispiel vorne rechts im Blickfeld von uns ein Ton entsteht, erreicht dieser unser Ohr an der rechten Seite lauter als auf der linken Seite. Dies ist so weil die hohen Töne sehr direkt sind. Also haben wir auf dem linken Ohr eine arten Schallschattenseite. Auch so kann nun unser Gehirn genau bestimmen von wo ein Ton kommt. Simon Egli Audio Technologien 4
Abbildung 2: Räumliches Hören von hohen Frequenzen Ultraschall Als Ultraschall werden Frequenzen zwischen 20kHz und 1GHz bezeichnet. Diese Töne sind also für das menschliche Gehör nicht mehr hörbar. Viele kennen den Ultraschall Wahrscheinlich vom Arzt her, um zum Beispiel Embryos im Mutterleib zu untersuchen. Der Übergang von Luftschall in Festkörper oder Flüssigkeiten erfolgt nur, wenn die Schallwellen in unmittelbarer Nähe abgestrahlt werden oder ein Koppelmedium angepasster akustischer Eigenschaften sowie bestimmter Dicke dazwischen ist. Ultraschall wird je nach Material eines Hindernisses an diesem reflektiert oder absorbiert (gedämmt, verschluckt). Hyperschall Hyperschall ist mit einer Frequenz von über 1GHz extrem Hoch. So hoch das er sich nicht mehr in der Luft ausbreiten kann. Hyperschall tritt oft in festen Körpern auf. Geschichte Die Geschichte der Musik ist schwierig zu erklären. Manche Forscher sagen das bereits mit dem ersten einander zurufen der Menschen der Grundstein gelegt wurde. Manche sagen mit den ersten Gesängen (gregorianische Choräle). Man kann sich darüber streiten. jedenfalls die Geschichte des kontrollierten aufnehmen und wiedergeben steht fest: Simon Egli Audio Technologien 5
Phonograph Im Dezember 1877 stellte Thomas Alva Edison seinen ersten Phonographen zur Aufzeichnung und Wiedergabe von Schall vor. Musik, Sprache oder Geräusche wurden über einen konischen Trichter, auf eine steife, dünne Membran geleitet, die, unter dem wechselnden Schalldruck in Vibration versetzt, einen geschliffenen Stichel auslenkte. Dieser Stichel übertrug das Schallereignis als Tiefenschrift fortlaufend auf einen sich drehenden Zylinder. Nutzte Edison zunächst als Aufzeichnungsmedium Zinnfolie, so verbesserte er später das Verfahren durch die Verwendung von Hartwachswalzen. Diese neue Technik der Tonaufnahme und -wiedergabe wurde ab ca. 1900 von Wissenschaftlern an der Berliner Friedrich-Wilhelms-Universität, der heutigen Humboldt-Universität, für innovative Forschungsvorhaben aus den Bereichen Phonetik, Psychologie und Musikwissenschaft angewendet. Grammophon Abbildung 3: Phonograph Das Grammophon ist im Gegensatz zum Phonographen mit einer runden Platte (Schallplatte) ausgestattet, auf der die Töne mechanisch aufgezeichnet werden; Edisons Phonograph verwendete noch eine Walze. Emil Berliners Schallplatte bestand aus einer flachen, wachsbeschichteten Zinkscheibe als Tonträger; jede Platte musste bei diesem Verfahren einzeln hergestellt werden. Zur Aufnahme wurde die Schalldose über eine Spindel spiralförmig über die Schallplatte geführt, durch den Trichter bewegte der Schall selbst eine Membran, an der wiederum über ein Hebelsystem die Nadel befestigt ist. Dadurch wurde im Wachs ein Abdruck des Schalls erzeugt. Nach einem Säurebad blieb diese so entstandene Rille im Zink zurück, das Wachs konnte entfernt werden. Von dieser "Mutter" genannten Simon Egli Audio Technologien 6
Schallplatte konnten im galvanischem Wege per Elektrolyse eine Kopie gefertigt werden. Diese wiederum diente als Matrize zur Herstellung von Schallplatten. Normale Grammophone waren allerdings - im Gegensatz zum Phonographen - nicht für die Aufnahme von Schallplatten vorgesehen. Dadurch entfiel die Spindel zur Führung der Schalldose, die Nadel wurde durch die Rille selbst geführt. Zur Wiedergabe bewegte in umgekehrtem Mechanismus zur Aufnahme die Form der Rille die Nadel, welche wiederum über ein Hebelsystem die Schwingung an die Membran übertrug. Zur Verstärkung wurde ein Trichter eingesetzt. Den Beginn der Schallplattenvervielfältigung kann man im Jahr 1892 ansetzen, als erstmals nickelüberzogene Kupfernegativplatten aus vulkanisiertem Gummi gepresst wurden. Schellack wurde ab 1895 als Grundstoff für Schallplatten eingesetzt. Eine Schellackplatte besteht nicht wirklich aus Schellack, sondern aus einer Mischung von Gesteinsmehl, Kohlenstaub und Tierhaaren. Der Schellack wurde hierbei als Bindemittel eingesetzt. Die ersten Schallplatten hatten einen Durchmesser von ca. 12 Zentimeter, später setzten sich allgemein Größen von 25 cm oder 30 cm durch. Auch waren die ersten Schallplatten lediglich einseitig bespielt, es dauerte bis nach der Jahrhundertwende, dass die ersten Platten auch beidseitig bespielt wurden. Abbildung 4: Grammophon Einfluss von Musik und Tönen Haben Sie sich schon einmal darüber Gedanken gemacht, wie uns Musik, Töne und Geräusche beeinflussen können? Ein sehr gutes Beispiel hierfür sind Filme. Traurige Simon Egli Audio Technologien 7
Filme, deren Musik die ganze Szene noch viel dramatischer erscheinen läst. Handkerum witzige und aufstellende Musik in Komödien die zum totlachen sind. Die richtige Musik am richtigen Ort, zur richtigen Zeit, kann Menschen sehr bewegen. Genau so ist es auch bei der Aufnahme selbst. ein richtiger Mix kann die Musik Gefühlsmässig sehr hervorheben. Und dafür ist der Tonmeister zuständig. Klar, der beste Tonmeister ist machtlos gegen unmusikalische Artisten. Manche behaupten auch das dies gefährlich sein kann. Das zum Beispiel Rock und Metal Musik depressiv macht und bis hin zu Selbstmord führen kann. ich glaube jedenfalls nicht daran das dies möglich ist. Doch wehr weiss, vielleicht werde ich eines Tages eines besseren Belehrt. Ich hoffe es nicht. Audio Hardware Hier kommen wir zum wesentlichen Teil dieses Dokuments. Es geht darum, wie wir professionell Musik und Töne aufnehmen und verarbeiten. Das ganze erfordert drei Schritte. In einem ersten Teil wird die Musik, oder die Sprache aufgenommen. Danach wird die Rohfassung mit Hilfe eines Equalizers bearbeitet. Mit einem Equalizer werden alle Spuren (bei der Musik zum Beispiel, Gesang, Gitarre, Schlagzeug Bass) aufeinander abgestimmt. Das heisst, jedes einzelne Instrument wird lauter oder leiser gestellt. So kann ein erstes Gesamtklangbild erstellt werden. Im letzten Teil wird das Aufgenommene noch gemastert. Das bedeutet, alle Frequenzen werden mit einander gleichgesetzt. Nun sollte jedes Instrument herausgehört werden können, und das Gesamtklangbild ist gut. Auch die Lautstärke wird noch einmal hochgeschraubt. Jetzt das ganze noch ein bisschen genauer. Wenn wir in ein gut eingerichtetes Studio gehen, befinden sich dort zwei Räume. Diese Räumlichkeiten heissen Aufnahmeraum und Regieraum. Im Aufnahme Raum spielt der Artist, und im Regieraum sitzt der Tontechniker und startet und stoppt die Aufnahme. Er selbst kann ebenfalls mithören was der/die Artisten spielen. Wenn wie wieder einmal die standart Zusammenstellung einer Band nehmen (Gesang, Gitarre, Bass und Schlagzeug) lässt sich ein solcher Studiobesuch relativ gut erklären. Als erstes wird die Schlagzeugspur aufgenommen. Um dies sauber und im Takt zu bewerkstelligen, benötigt man ein Metronom das den Takt angibt. Mit dem Schlagzeuger zusammen spielt der Rest der Band, damit dieser weis wie er spielen muss. Das ganze Schlagzeug wird mit Hilfe von Mikrofonen abgenommen und aufgenommen. Nun, wenn jetzt aber der Rest der Band auch mitspielt, haben wir ein Problem. Denn dann ist plötzlich die Schlagzeugspur voller Gitarrengedresche, weil das Schlagzeug mit Mikrofonen abgenommen wird. Auch dies stellt kein Problem dar. Abbildung 5: Regieraum eines Tonstudios Simon Egli Audio Technologien 8
Die Gitarrenverstärker (AMPs) stehen ausserhalb des Aufnahmeraums. Abgeschlossen und Schallsicher in kleinen Räumen. Was die Gitarre, und der Bass dann spielen, hört die ganze Band über Kopfhörer. Nun fehlt nur noch der Gesang. Der Sänger oder die Sänger stehen im Regieraum oder sonst in einem Nebenraum und singen ein wenig mit. Auch das hört die ganze Band über die Kopfhörer. Nun wird solange gespielt, bis die Schlagzeugspur perfekt vorhanden ist. Ist dies der fall, geht der Rest der Band ans Werk. Das heisst, zuerst die Gitarre und der Bass. Diese spielen einzeln oder zu zweit je nach belieben noch einmal oder mehrer mahl ihr bestes. Sind auch diese Spuren gut, kommt zu guter letzt der Gesang in den Aufnahmeraum. Dies ist so weil sonst auch wieder der Gesang der ja nicht leiser gemacht werden kann, auf der Schlagzeugspur aufgezeichnet werden kann, oder das Schlagzeug auf das Gesangsmikrofon gelangt. Abbildung 6: Aufnahmeraum eines Tonstudios Ist dann jedes Bandmitglied mit seinen Leistungen zufrieden, beginnt die Arbeit für den Tonmeister. Das heisst wir wechseln in den zweiten Schritt. Als erstes muss er alle Spure aufeinander abstimmen. Bei jeder einzelnen Liedpassage muss er dies oder jenes hervorheben oder unterdrücken. Auch Effekte (zum Beispiel ein hallender Gesang) werden in diesem Schritt hinzugefügt. Er kann auch den gesamten Gitarrenklang zum Beispiel noch verändern. Hierbei muss noch gesagt werden, dass die Gitarre nicht direkt auf den Verstärker geht. sondern zuerst noch auf eine sogenannte DABox. Diese ist zwischen der Gitarre und dem Verstärker eingebaut. Dank dieser DABox kann der Tonmeister die cleane, reine und saubere Gitarrenspur aufnehmen. Dann geht das Signal weiter auf den Verstärker. Nun kann er auch noch das verstärkte Signal aufnehmen. Er hat also in einmal spielen, eine reine und eine verstärkte Spur zur Verfügung. Damit kann nun sehr viel eingestellt und abgemischt werden. Ist die Band mit der Arbeit des Tonmeisters zufrieden, geht es weiter in den dritten Schritt. Hier wird das ganze noch gemastert. Alle Frequenzen werden also gleich laut gemacht. Auch Stereoeffekte werden in diesem Schritt noch einmal hervorgehoben. Ziel des masterings ist es, die Qualität des Tonmaterials noch einmal zu steigern und das frisch aufgenommene Werk für möglichst viele Abspielstationen kompatibel zu machen. Erst wenn dieser Schritt erledigt ist, tönt das ganze wie eine CD im Handel. Audio Software Zur Verarbeitung von Aufnahmen wird in der heutigen Zeit eigentlich immer ein Computer eingesetzt. Dazu wird meistens das Audio Bearbeitungsprogramm Cubase genutzt. Da dieses Programm Kostenpflichtig ist und ich es nicht selber ausprobieren kann, habe ich Wikipedia gefragt, was Cubase genau ist. Wir wurde folgende Antwort gegeben: Simon Egli Audio Technologien 9
Cubase ist ein MIDI-Sequenzer und digitales Audiobearbeitungsprogramm und wird von der Firma Steinberg seit 1989 entwickelt. Ein weiterer oft gebrauchter Ausdruck für Software dieser Art ist Audio/MIDI-Sequenzer. Die Software wird häufig in Tonstudios eingesetzt, aber auch in kleinen, privaten Heimstudios hat sie ihren Platz gefunden. Cubase SX oder Nuendo bilden dort meist die Zentrale einer Produktionsumgebung. Das wesentlich teurere Nuendo bietet - neben allen Features von Cubase SX - noch erweiterte Funktionen für die Synchronisation zu Filmmaterial und wird daher nur für die Video-Post-Production, nicht aber für reine Musikaufnahmen benötigt. Um sinnvoll arbeiten zu können, benötigt der Rechner, auf dem Cubase SX läuft, Schnittstellen nach außen. Für die Aufnahme und Wiedergabe von Audiomaterial wird eine Sound- oder Audiokarte, möglichst mit schnellem ASIO-Treiber, benötigt. Für die Aufnahme von MIDI-Daten muss ein entsprechendes Interface am Rechner angeschlossen sein. Über MIDI können dann externe Klangerzeuger (z. B. Synthesizer) sowie MIDI-Eingabegeräte (in der Regel Klaviatur/Keyboard, aber auch MIDI-Gitarre, MIDI-Controller o. ä.) verbunden sein. Ursprünglich war Cubase als Werkzeug konzipiert, mit dem ausschließlich MIDI- Daten aufgenommen, bearbeitet und abgespielt werden konnten. Außerdem war - zumindest in den teureren Versionen - die Aufbereitung der Daten als gedruckte Notation möglich. Funktionen zur Aufnahme von Audio wurden später hinzugefügt und schließlich mit Einführung der VST-Schnittstelle erweitert. Cubase wurde zunächst für den Atari ST geschrieben und später auf den Apple Macintosh und Microsoft Windows portiert. Für die zuletzt genannten Betriebssysteme ist Cubase bis heute erhältlich, und damit eines der wenigen Programme seiner Art, das nach wie vor plattformübergreifend verfügbar ist. Die Cubase SX-Familie (Cubase SX, Cubase SL, Cubase SE, Nuendo) nutzt DirectMusic, einen Bestandteil von DirectX, für die MIDI-Kommunikation. Steinberg entwickelte darüber hinaus eine eigene Technologie namens LTB, bei der MIDI- Daten mit Zeitstempeln versehen werden, und vom intelligent programmierten MIDI- Interface zum exakt richtigen Zeitpunkt an die angeschlossenen MIDI-Klangerzeuger ausgeliefert werden. Dadurch ist mit Cubase VST 5.x und den Programmen der Cubase SX Familie ein äußerst genaues MIDI-Timing erreichbar. LTB funktioniert allerdings nur mit den von Steinberg vertriebenen MIDI-Interfaces Midex3 und Midex8. So gut wie alle Versionen von Cubase benutzen, um eine unberechtigte Weitergabe der Programme zu unterbinden, Dongles als Kopierschutz, was manchmal zu technischen Problemen führt. Bis Cubase VST 5.1 wurden die Kopierschutzstecker an den Druckerport LPT angeschlossen. Cubase SX, SL und SE sowie Nuendo benutzen USB-Dongles der deutschen Firma Syncrosoft. Für den Heimgebrauch gibt es jeweils eine günstigere Version. Bei Cubase VST hieß sie noch Cubasis, in der neuen Cubase SX Familie gibt es Cubase SL oder Cubase SE. Bezüglich der Dateiformate herrscht generell Aufwärtskompatibilität. Das bedeutet: Ein mit einer der kleinen Cubase-Versionen erstelltes Projekt lässt sich auch in den großen Versionen (Cubase SX, Nuendo) problemlos öffnen, allerdings gilt dies leider in den meisten Fällen nicht umgekehrt. Simon Egli Audio Technologien 10
Abbildung 7: Cubase Screenshot Beschallungstechnik Die ganze Beschallungstechnik ist im Prinzip ähnlich wie das Aufnehmen im Studio. Am einfachsten ist es, eine gute Beschallung zu erklären, wenn wir wieder eine Band benötigen. Wenn wir von Beschallungstechnik sprechen, reden wir davon einen Haufen von Leuten zu Beschallen. Dies funktioniert wie gesagt auf der Bühne ähnlich wie im Studio. Allerdings haben wir hier ein kleines Problem. Denn die ganze Band spielt nun plötzlich zusammen. Das heisst wir müssen verhindern, dass Gitarrenklänge auf die Schlagzeugmikrofone kommen usw. Bewerkstelligen können wir das mit einer Klugen Aufstellung von Monitoren, Boxen und AMPs. Monitore dienen dem gleichen Zweck wie die Kopfhörer im Studio. Damit der Artist sich selbst und seine Mitspieler hören kann. Sie denken jetzt sicherlich, an Konzerten ist es laut genug, damit sich die Artisten Hören können. Nein eben nicht. hier setzt die intelligente Aufstellung von allem ein. wie dies aussieht, zeigt am besten diese Grafik: Simon Egli Audio Technologien 11
Abbildung 8: Bühnenaufbau Ganz vorne an der Bühne stehen die grossen Subwoofer und Boxen die für das Publikum da sind. Diese sind das lauteste des ganzen Equipments. Doch der Grund wieso diese ganz vorne stehen ist nicht nur des Publikums wegen. Gerade weil diese Boxen so Laut sind würde der Schall der aus ihnen kommt direkt in die Mikrofone gehen. Die Mikrofone geben das wieder auf die Boxen, von den Boxen wieder in die Mikrofone. Der Schall der dann hin und her gegeben wird steigert seine Frequenz immer weiter bis hin zu einem extrem lauten ohrenbetäubenden Pfeifen. Genau davor muss auch bei den Mikrofonen und den Monitoren aufgepasst werden. Bei den AMPs spielt das nicht so eine grosse Rolle. Diese werden sowieso meistens mit einem Mikrofon abgenommen. Aber dies ist ein spezielles Mikrofon das dazu verwendet wird und leider nicht für Gesänge geeignet ist. Simon Egli Audio Technologien 12