fit 2001 >
Digitales Audio >
Interaktivität |
Überblick |
|
Einleitung, Einführung in die Interaktivität |
Die Entwicklung neuer Technologien in allen Bereichen des Lebens schreitet in immer schnelleren Rhythmus voran; es werden fast täglich neue Techniken und Erfindungen entwickelt; auch im Bereich "digitales Audio" fehlen diese nicht. Dabei spielt "das Neue" eine ziemlich große Rolle. Ohne den Begriff "das Neue" würde die Wissenschaft und die Technologie nicht existieren; und es würden keine Neuerungen geschaffen werden. Neu kann vieles sein: Etwa die Weiterentwicklung von etwas Bestehendem oder eine komplette Innovation, die Entwicklung von etwas noch nie dagewesenen. Im Bereich digitales Audio hat es in den letzten Jahren eine rasante Entwicklung gegeben: Von den ersten Ansätzen in den Anfängen der Computertechnologie bis zur heutigen Zeit gab es enorme Neuerungen. Angefangen hat alles mit "beep" und dem PC-Speaker; es folgten ausgereiftere Entwicklungen mit C64 und Amiga und im Bereich der AD/DA-Konverter. Die >Datenformate wurden immer leistungsfähiger; von MOD-Files über MIDI und WAV bis hin zu MP3 und anderen psychoakustischen Verfahren und MPEG-Standards war es ein weiter Weg. Audio- und Kompositionssoftware wurde ebenfalls ständig verbessert. In der heutigen "Napster" – Zeit aber stellen sich noch dazu andere Frage, z.b. die des Kopierschutzes und Entwicklung eigener Formate zur Unterbindung illegalen Datenaustauschs. Heutzutage wird aber von digitalem Audio viel mehr verlangt als nur hohe qualitative Wiedergabe mit wenig Ressourcenverbrauch; Audio wird nun in Multimedia und Interaktiven-Systemen integriert, wobei die Rolle des digitalen Audios neben der digitalen Bildverarbeitung oft nicht so sehr zum Vorschein kommt. Im Folgenden werden einige Multimedia – Anwendungen und Interaktive Systeme von digitalem Audio beschrieben; dazu gehören >DVD-Audio, digitale Musikproduktionen, Audiokonferenzen und Teleteaching mit Stimmübertragung über das Netz (Komprimierung, Bidirektionale Übertragung oder ein Kanal), sowie 3D – Sound wie Dolby Surround/stereo und THX. Interaktivität In einem Artikel zum Thema Interaktivität definieren die beiden Erziehungswissenschaftler Joachim Wendekind und Werner Walser den Begriff Interaktivität und sein Umfeld. Interaktivität wird definiert als "Zusammenspiel von Nutzereingaben und Programmreaktionen". Interaktion zwischen Mensch und Maschine "Der Begriff Interaktion, abgeleitet vom Lateinischen inter = zwischen und agere = handeln, kennzeichnet in den Sozialwissenschaften die gegenseitige Beeinflussung, die gegenseitige Abhängigkeit und das "Miteinander-in-Verbindung-Treten" zwischen Individuen und sozialen Gebilden. Dieser ursprüngliche Verwendungszusammenhang wurde allerdings in verschiedene Richtungen erweitert, so auch in den achtziger Jahren auf den Bereich der Mensch-Computer Interaktion." ([Johannes Haack 1995], S. 152) |
Rolle der Interaktivität im Bereich "digitales Audio" |
Die Interaktivität spielt in multimedialen Anwendungen eine zunehmend größere Rolle. Im Zeitalter des Internets und Multimedia wachsen mehrere Bereiche (Video, Digitale Bildverarbeitung, Audio, Hypertext,... ) zu einem einzigen großen Bereich zusammen. Neue Entwicklungen im Audiobereich kommen fast immer gekoppelt mit neuen Bildverarbeitungs- und Videoverarbeitungstechniken und neuen Hypertextstandards. In Zukunft wird sich dieser Bereich immer mehr verbinden und zwar unterteilbar in die einzelnen Komponenten sein, eine getrennte Sichtweise der Einzelkomponenten nur mehr beschränkt möglich, d.h. wenn man multimediale Audio – Themen anschneidet, gehört meistens auch der gesamte multimediale Kontext dazu, in dem das Thema steht. 3D-Sound Seit der Entwicklung des digitalen Audio wurden viele Versuche unternommen, das menschliche dreidimensionale Hörerlebnis nachzuahmen. Dazu gibt es mehrere Ansätze. Alle basieren auf dem Schema des menschlichen Hörens (Erklärung Artikel: Grundlagen des Hörens). Kurze Zusammenfassung der geschichtlichen Entwicklung: Die Anfänge des 3D-Sounds bestanden in der Vierkanaltechnik, der Quadrofonie, in der 4 Kanäle separat aufgenommen und über vier verschiedene Schallquellen (Boxen) wiedergegeben wurden. Dieses Verfahren konnte sich aber nie etablieren. Statt dessen setzte sich Dolby Surround durch, und war bald in allen Kinos und auch im Homevideobereich ziemlich verbreitet. Dolby Surround basiert auf einer analogen Technik mit einem Stereokanal für die Frontlautsprecher und einem Surroundkanal. Es folgte Dolby Pro Logic; mit einem zusätzlichen vierten Kanal (dem Center-Lautsprecher), und einer neuen dynamischen Lautstärkeanpassung. Weiter folgt Dolby Digital, ein digitaler Surround Standard mit fünf regulären Kanälen und einem Subbass-Kanal; dieses verbreitete sich ebenfalls sehr stark besonders wieder im Kino und Homevideobereich. Dolby Digital hat ein mp3-ähnliches Konzept und gehört zu den psychoakustischen Verfahren. Auf einen 35 mm Film befinden sich mehrere Tonspuren für Dolby Digital und zwar eine digitale Aufzeichnung und zusätzlich noch Surround Spuren. Dolby Digital ist zur Zeit dominierendes Audioformat für >DVDs und in Kinoproduktionen. Neben diesen Dolby – Verfahren gibt es auch andere 3D-Soundcodierungen: DTS (Digital Theater Soundsystem) das 1993 mit Steven Spielbergs "Jurassic Park" eingeführt wurde.(Für diesen Film wurden mehrere Tausend Kinos adaptiert und mit DTS-Abspielgeräten ausgestattet). Die Besonderheit von DTS ist, dass der Sound im DTS – Format synchron von mehreren CDs kam, und im 35 mm Film selber ein Timecode integriert war der Bild und CD-Sound synchronisiert. Bei Ausfällen kann auch auf die Standard Analogspur des Films zugegriffen werden. Die Kodierung kann in bis zu 8 Kanälen bis zu 24 Bit Samplerate vorgenommen werden. THX Dolby Digital und THX werden häufig als konkurrierende Formate dargestellt, sind aber rein technisch gesehen sich ergänzende Systeme. Dolby Digital beschreibt die Aufteilung der Signale und ihre Codierung/Decodierung; THX ist für die Lautsprecher und Raumakustik zuständig. THX (ist eine Zertifizierung) ist also auf Dolby Digital aufgebaut. Daher sind Dolby-Digital-Kinoprozessoren THX zertifiziert. Ein weitverbreiteter Standard ist der Lucasfilm THX Standard, welcher die Raumparameter (Nachhallzeit, Absorption bestimmter Frequenzen,...) festlegt. Die Anordnung und Daten der Boxen und Leistungsparameter der verwendeten Endstufen werden beschrieben. Dadurch wird gewährleistet dass in verschiedenen THX Kinos immer der gleiche Sound zur Verfügung steht. THX ist also kein eigenes Audio-Format sondern Richtlinien für die Klangabstimmung. Das THX Logo, kann nur bei Erfüllung aller Anforderungen verwendet werden. Für Musikwiedergabe ist THX-Klang weniger geeignet. Weiter zu erwähnen sind Dolby Digital Surround EX (Erweitertes Dolby Digital Verfahren, mit 6. Kanal zur Mittenortung des Surround Kanals) und verschiedene Techniken für DVDs und Musik-DVDs (MPEG und LPCM (3D Soundformat mit 96kHz Abtastrate und unkomprimierter Speicherung)). Von diesen allen Surround Varianten wird in großen Kinos und Heimkinos heute vor allem Dolby Digital und zusätzlich THX eingesetzt. Die anderen Verfahren konnten sich nie richtig durchsetzen, dies liegt unter anderem auch an der guten Marketingstrategie von Dolby sowie auch am Erfolg der DVD, die fast ausschließlich auf Dolby Digital aufsetzt. |
HiFi- und Kino-3D-Sound: Grundlagen |
Grundlagen des Hörens Das räumliche Hören entsteht durch Intensitäts- und Laufzeitunterschiede des Schalls von der Quelle zu den Ohren. Damit lässt sich der Winkel, in dem sich die Schallquelle zum Hörer befindet, sehr genau bestimmen. Intensitätsunterschiede einer Schallquelle lassen sich sehr einfach durch eine Rechts/Links-Ortung darstellen. Befindet sich die Schallquelle näher am linken Ohr, ist dort die Intensität des Geräusches und damit das subjektive Schallpegelempfinden höher als am rechten Ohr. Wir stufen die Quelle dann als "weiter links" ein. Dieser Effekt lässt sich sehr einfach an der heimischen Stereoanlage mittels des Balancereglers nachempfinden. Durch die Veränderung der Balance von rechts nach links scheint eine Quelle zwischen den Boxen zu wandern. Die Laufzeitunterschiede des Schalls helfen auch mit, die Tiefeninformation zu transportieren. Wird eine Schallquelle sowohl für das rechte als auch für das linke Ohr gleichmäßig leiser, scheint sie sich gerade von uns wegzubewegen. Doch damit ist erst eine unvollständige Lokalisation möglich. Kommt noch ein Hallanteil hinzu, ist die räumliche Tiefe geradezu perfekt auszuloten. Doch Hall ist nicht gleich Hall. Unterschiedliche Raumformen und Materialien spielen eine große Rolle, da so unterschiedliche Effekt auftreten. Die Dämpfung bestimmter Frequenzen im Hallanteil und die Nachhallzeit sind deshalb ein wichtiger Faktor bei der Lokalisation einer Schallquelle in der Tiefe eines Raumes. In den Anfängen der Stereofonie Ende der 50er-Jahre ging man davon aus, dass sich das Prinzip der "zwei Ohren" komplett umkehren lasse, dass also mittels zweier Lautsprecher die komplette Rauminformationen naturgetreu wiedergegeben werden kann. Aber mit der Stereotechnik lassen sich Tiefeninformationen nur äußerst rudimentär wiedergeben. Denn Lautsprecher sind keine ideale physikalische Quelle. Sie produzieren frequenzabhängige Phasenverschiebungen und Sekundärreflexionen, die das Ohr irritieren. Daher kam es in den 70er-Jahren zu den ersten kommerziellen Quadrofonie-Systemen (Vierkanaltechnik). Von der Quadrofonie zu Dolby Digital Die HiFi-Quadrofonie basiert auf einer durchgängigen Aufzeichnung von vier unabhängigen Kanälen. Das bedeutet, dass herkömmliche Stereo-LPs (oder heute CDs) nicht den gewünschten Quadro-Genuss bringen können. Aus diesem Grund konnte sich Quadrofonie nie richtig durchsetzen. Ein spezieller Tonabnehmer im Plattenspieler, ein Vierkanalverstärker sowie vier Boxen waren Pflicht, um eine ansprechende Raumdarstellung zu erhalten. Dolby Surround Der nächste Schritt auf dem Wege zum Raumklang wurde durch Dolby Surround eingeleitet. Mit immer größerer Verbreitung von Videorecordern in den 80er-Jahren gewann im Heimvideobereich die analoge und anfänglich dreikanalige Codierung von Videosound immer mehr an Bedeutung. Im Gegensatz zur Quadrofonie verwendet Dolby Surround das Kanalcodierungsschema Rechts - Links - Surround. Surround enthält das kombinierte Signal hinten links und rechts. Der Surround-Kanal wird phasenverschoben in die beiden vorderen Kanäle codiert. Das hat den Vorteil, dass man nur zwei Kanäle übertragen muss und mit einem normalen Stereoverstärker eine gute Stereowiedergabe erzielen kann. Mit einem analogen Dolby Surround Decoder kann das Surroundsignal extrahiert und ein Raumklang erzeugt werden. Der Nachteil ist, dass sich die codierte Information nicht wieder vollständig rekonstruieren lässt. Um diese "Fehler" zu kaschieren, ist das Surroundsignal in den Höhen gedämpft. Da das menschliche Ohr Geräusche mit steigender Frequenz besser orten kann, werden durch die fehlenden hohen Anteile die Unzulänglichkeiten nicht so stark wahrgenommen. Eine verzögerte Wiedergabe des rückwärtigen Signals verstärkt den Raumeindruck zusätzlich. Dolby Pro Logic Der nächste Schritt zur Verbesserung des Dolby Surround Sound war die Einführung des Dolby Pro Logic-Decoders. Dieser bringt zusätzlich einen vierten Kanal mit ins Spiel - den Center-Lautsprecher - und nimmt eine dynamische Lautstärkeanpassung vor: Wenn er feststellt, dass ein Kanal lauter ist als die anderen, werden die leiseren Kanäle noch etwas in der Lautstärke abgesenkt, um die Kanaltrennung scheinbar zu verbessern. Der Begriff scheinbar wird dem Effekt am ehesten gerecht, weil diese Pegelanpassung nichts mit dem ursprünglichen Lautstärkeverhältnis zu tun hat. Einen handfesten Vorteil bietet der zusätzliche Center-Lautsprecher, der gerade bei Dialogen die Positionierbarkeit der Sprecher verbessert. Durch die Codierung aller vier Kanäle in die zwei Stereospuren ist aber auch bei Dolby Pro Logic der Raumeindruck nicht optimal. Dolby Digital Endgültig Schluss mit der Codierung mehrerer Kanäle in nur zwei Stereospuren macht die aktuelle digitale 5.1-Codierung, allgemein auch als Dolby Digital oder, nach dem benutzten Kompressions-verfahren, auch als AC 3 bezeichnet. Im professionellen Kinobereich heißt das Verfahren Dolby Surround Digital, welches auf eine größere Anzahl von Surround-Lautsprechern zugreift, aber nicht mehr Kanalinformationen bietet. Das Dolby-Digital-Verfahren ist für private Anwender an die DVD gebunden. Sie ist zurzeit das einzige verbreitete Medium, das acht unabhängige Tonkanäle zur Verfügung stellt. Dolby Digital ist das verbreitetste Surround-System auf DVD. Es beinhaltet fünf voneinander getrennte Kanäle für Raumklang-Informationen: Vorn rechts - Mitte (Center) - vorn links - hinten rechts - hinten links. Zusätzlich steht ein weiterer Kanal mit Bassinformationen zur Verfügung. Dieses Signal kann an einen zusätzlichen Subwoofer angeschlossen werden, der das Bassfundament unterstützt. Er trägt auf Grund der mangelnden Positionierbarkeit tieffrequenter Signale nicht zur Ortbarkeit bei. Auf Grund der getrennten Kanäle für alle Rauminformationen hat Dolby Digital gegenüber dem analogen Surround einen deutlichen Vorsprung. Es lassen sich wesentlich präzisere Effekte realisieren und ein größerer Frequenzumfang ausschöpfen. Durch den höheren Signalrauschabstand fällt das Grundrauschen bei Zimmerlautstärke auch nicht mehr ins Gewicht. Dolby Digital - Technische Daten Die technischen Eckdaten für das Dolby-Digital-Format sehen folgendermaßen aus: Die Hauptkanäle können in einem Frequenzumfang von 3 Hz bis 20 kHz codiert werden und für den Sub-Kanal stehen 3 Hz bis 120 Hz zur Verfügung. Die Untergrenze von 3 Hz ist dabei nicht realistisch, da die meisten Decoder bei rund 20 Hz einen Filter aufschalten, der Verstärker und Lautsprecher vor der Überlastung durch Infraschall- Signale schützen soll. Üblich sind Abtastfrequenzen von 44,1 kHz oder 48 kHz. Beide werden von gängigen Decodern unterstützt. Außerdem besteht die Möglichkeit, ein Stereosignal zu extrahieren, sodass Kompatibilität zu bestehenden Stereosystemen ermöglicht wird. Nahezu alle aktuellen PC-DVD-Laufwerke verfügen über einen digitalen Ausgang, an dem das Dolby Digital 5.1 Signal anliegt. Wer eine Soundkarte mit digitalem S/PDIF-Eingang besitzt, mag in Versuchung kommen, dieses Digitalsignal direkt in die Soundkarte einzuspeisen. Doch Vorsicht! Da der Dolby-Digital-Ausgang ein codiertes Signal abgibt, wird über einen normalen S/PDIF-Eingang nur ein Rauschen mit vielen hochfrequenten Anteilen wiedergegeben, das bei höherer Lautstärke leicht die Hochtöner der angeschlossenen Boxen ins jenseits befördert. Es ist unbedingt ein externer Decoder oder Verstärker mit Decoder erforderlich. Dann steht auch dem DVD-Genuss über einen PC mit eingebautem DVD-ROM nichts mehr im Wege. Filter: Die generelle Aufgabe eines Filters ist die Selektion von Frequenzen oder Bitmustern aus einem Nachrichtenstrom bzw. das Ausblenden nicht gewünschter Informationen. Filter selektieren die gewünschten Frequenzen aus einem breiten Frequenzspektrum. THX und DTS Neben Dolby Digital gibt es noch weitere 3D-Soundcodierungen. DTS Das Digital Theater Soundsystem (DTS) wurde erstmals 1993 mit Erscheinen von Stephen Spielbergs Jurassic Park eingeführt. Dazu mussten damals mehrere Tausend Kinos mit DTS-Abspielgeräten ausgestattet werden. Die Besonderheit an DTS war, dass der 35mm-Film den analogen optischen Ton-Track integriert hatte, aber der Sound im DTS-Format synchron von mehreren CDs kam. Im Film ist ein Timecode untergebracht, der Bild und CD-Sound synchronisiert. Setzt die Synchronisation mit dem CD-Player kurzzeitig aus, wird auf die Standard-Analogspur des Films zugegriffen. DTS entspricht von der Kanalverteilung her dem Dolby Digital 5.1. Durch eine höhere Datenrate verspricht es aber eine noch bessere Klangqualität. Während Dolby Digital nur 640 KBit/s vorsieht, ist DTS für 4096 KBit/s spezifiziert. Das Verfahren erlaubt eine Kodierung von maximal 8 Kanälen bei einer Samplerate von bestenfalls 24 Bit. Die Abtastfrequenzen liegt zwischen 8 und 192 kHz. THX Dolby Digital und THX werden häufig als konkurrierende Formate dargestellt. Rein technisch gesehen sind es aber zwei sich ergänzende Systeme. Während Dolby Digital die Aufteilung der Signale und ihre Codierung/Decodierung beschreibt, ist THX für die Lautsprecher und Raumakustik zuständig. THX setzt also auf Dolby Digital auf. Das geht so weit, dass Dolby-Digital-Kinoprozessoren sogar THX-zertifiziert sind. Der Lucasfilm THX-Standard legt zum einem die Raumparameter wie die Nachhallzeit oder die Absorption bestimmter Frequenzen fest. Zum anderen werden die Anordnung und die Daten der Boxen sowie die Leistungsparameter der verwendeten Endstufen genau beschrieben. Dadurch soll gewährleistet sein, dass in den verschiedenen THX-Kinos immer der gleiche Sound zur Verfügung steht. Dolby Digital Surround EX und SDDS Ein erweiterter Dolby Digital-Standard ist Dolby Digital Surround EX. Dabei wird dem Digital 5.1 System noch ein weiterer Surround-Kanal hinzugefügt. So stehen dann für die hinteren Lautsprecher nicht nur die Rechts/Links-Informationen zur Verfügung, sondern auch ein hinterer Surround-Center-Kanal. Die Ortbarkeit des Surround-Signals wird so noch einmal verbessert. Gegenwärtig ist Surround EX allerdings nur für Kinos verfügbar. Sony Dynamic Digital Sound Sony Dynamic Digital Sound (SDDS) ist ein eigenständiger Standard, der zurzeit nur in entsprechend ausgerüsteten Kinos verwendet werden kann. SDDS setzt auf acht getrennte Kanäle für Toninformationen. Diese werden digital auf einen 35-mm- Kinofilm optisch aufgebracht. Ähnlich der Pits auf einer CD sind die Soundspuren durch verschieden lange, mikroskopisch kleine Balken auf den Randspuren des Films aufgebracht. Sie werden von einem digitalen SDDS-Decoder im Projektor ausgelesen und idealerweise einer Achtkanal-Audioanlage zugeführt. Für den Heimbereich gibt es keine Möglichkeit, SDDS zu decodieren oder SDDS-codierte Bildträger zu bekommen. LPCM und MPEG Für reine Musik-DVDs ist LPCM im Gespräch. Dieses Format ist unkomprimiert und unterstützt Abtastfrequenzen bis 96 kHz, was dem heutigen Studiostandard entspricht. Der Nachteil liegt in der immensen Datenmenge, die hierbei anfällt. Für die Videodatei auf der DVD wäre wohl kaum noch ausreichend Platz, um einen Abend füllenden Film unterzubringen. Daher könnte das Format nur einmal für absolute Highend-Tonaufnahmen mit Surround-Effekten interessant werden. MPEG Grundlagen für die Standardisierung digitaler Musik und Filme schafft die MPEG. Dies ist eine Organisation der ISO (International Standard Organisation), ein Zusammenschluss weltweiter Industriefirmen zur Schaffung von Normen. Seit 1988 legt die MPEG Standards zur Codierung fest. Der erste, MPEG1, ist der Standard, auf dem Video-CD und MP3s basieren. MPEG2 ist die Grundlage für Set-Top-Boxen (digitales Fernsehen) und DVDs. Multimedia auf Webpages wird im Standard MPEG4 beschrieben. Die aktuelle Ausgabe ist MPEG7, der als Multimedia Content Description Interface angeführt wird. Dahinter verbirgt sich ein einheitlicher Code für multimediale Inhalte auf verschiedenen Hardwareplattformen. Mit MPEG7 soll ein einheitliches Datenformat für die verschiedensten Anwendungen geschaffen werden. So sollen zum Beispiel 3D-Audioformate auf unterschiedlicher Hardware immer die gleichen Effekte bringen. Auf der anderen Seite soll MPEG7 Anwendungsschnittstellen definieren, die sich neben Audio und Video auch auf Webinhalte, Spiele und andere Applikationen beziehen. Fazit Von den verschiedenen Surround-Varianten, die in "Lichtspielhäusern" und Heimkinos eingesetzt werden, sind heute hauptsächlich Dolby Digital und zusätzlich THX im Einsatz. Die anderen Surround-Verfahren sind zweitrangig, da sie nie richtig Fuß fassen konnten. Das liegt zum einen am guten Marketing von Dolby. Zum anderen liegt es am >Erfolg der DVD, denn sie setzt fast ausschließlich auf Dolby Digital. |
3D Sound in Computerspielen |
Den interaktivsten Einsatz hat >3D-Sound sicher in Computerspielen. Besonders in 3D-Shooter-Spielen wie "Unreal", "counter-strike" und "Quake 3" hat sich 3D Sound sehr etabliert. Der Spieler bewegt sich dann als Spielfigur in einem dreidimensionalen Raum mit allen möglichen Geräuschquellen: Jeder Gegner ist eine 3D Schallquelle (Schritte, Waffen, Gespräche, ...), die Umgebung besitzt ebenfalls Schallquellen (Türen, Fabrikgeräusche, ...). Dazu kommen Schallquellen für Waffen und Explosionen. Da diese Geräuschquellen statisch sind, kann das menschliche Gehirn keine räumlichen Informationen hineininterpretieren. Daher wurde versucht das akustische Raumempfinden des Menschen nachzuahmen indem die Geräuschquellen einzeln berechnet und über die Boxen dem menschlichen Geräuschempfinden ähnlich ausgeben. So z.B. wird die Entfernung der Geräuschquellen zur Position des Spielers im virtuellen Raum berechnet und dementsprechend leiser ausgegeben bzw. sobald sich der Spieler nähert wird die Geräuschquelle lauter. U.ä. Wenn dies nicht softwaremäßig und in Echtzeit vom Prozessor mitberechnet werden (Hardware-Emulation in Software) kann bedarf es entsprechender Hardware, und zwar einer >3D-Soundkarte. (Soundblaster live!) Es gibt auch APIs zur 3D – Audioverarbeitung; z.B. DirectSound von Microsoft; sie dient als Ersatz für direkte SB16 Registerprogrammierung, sie ermöglicht das Abspielen und Mischen von beliebig vielen .wav Quellen. Wenn notwendig, geschieht die Hardware - Emulation in Software; sonst werden vorhandene Hardwarefunktionen automatisch erkannt. Diese API ist hauptsächlich für Spiele entwickelt worden und ist für Profianwendungen (Tonstudios) weniger geeignet. Eine Erweiterung zu DirectSound ist EAX (Creative Labs "Environmental Audio Extensions") und verfügt über entscheidende Verbesserung der Audioqualität und diverse Einstellungen und Parameter (Ton- und Halleffekte, Modellierung der akustischen Umgebung (Reflektionen,...)) 3D-Sound-Enhancement Nun gibt es verschiedene Wege, 3D-Sound vom PC zu erhalten. Traditionelle Technologien wie QSound, Spatializer oder SRS versuchen, das originale Hörerlebnis zu reproduzieren, indem sie den aufgenommenen Klang künstlich erweitern. Eine von Creative Labs entwickelte neue Technologie geht andere Wege: der Klang wird nicht beim Abspielen künstlich erweitert, sondern manipuliert noch bevor er aufgenommen wird. Das klingt komplex und kaum vorstellbar, ist aber denkbar einfach. Während traditionelle Techniken zur Stereo-Erweiterung in der Postproduktion Originalklang herstellen, haben Creative Labs und E-mu Systems eine ganz spezielle Präproduktions-Technologie entwickelt. Vor allem Spiele-Entwickler nutzen diese neuartige Technologie, um zum Beispiel Klänge zu erzeugen, die es in Wirklichkeit gar nicht gibt. So ist es derzeit nicht möglich, aufzunehmen, wie ein Raumschiff an einem explodierenden Asteroiden vorbeifliegt. Creative Labs erzeugt daher synthetisch einen 3D-Klangraum und gibt so Spielentwicklern die Kontrolle über voneinander unabhängigen Geräuschen oder Stimmen. Um nun hören zu können, wie das klingt, müssen drei Dinge erfüllt werden: Spiele, die diese Special Effects nutzen, müssen sich an diese technologischen Spezifikation anlehnen, der Rechner, auf dem das Spiel abläuft, muss ein Sound Blaster-Board mit 3D-Soundeigenschaften enthalten, wie zum Beispiel die AWE 32, und der Lautsprecher muss in der Lage sein, diesen speziellen Effekt auch akustisch umzusetzen. Ein Spielentwickler, der die neue Technologie von Creative Labs und deren Tochterunternehmen E-mu Systems nutzt, verfolgt die x-, y- und z-Koordinaten einer Figur und das von ihr erzeugte Klangbild im 3D-Raum. So kann er zum Beispiel den Orchester-Geiger am ersten Pult hinter dem Zuhörer platzieren. Damit nicht genug: Spiele, ausgestattet mit dieser Raumklang-Technologie von Creative Labs, können viele verschiedene Objekte enthalten, die sich um den Zuhörer herum bewegen - alles in Echtzeit und vom Joystick gesteuert. Diesen Effekt beherrschen traditionelle Stereo-Enhancement-Systeme nicht. Zusammenfassung und Abschätzung der weiteren Entwicklung Der momentane Status im Bereich 3D-Audio: 3D Musikaufnahmen sind bisher kaum erhältlich; SACD und DVD - Audio stehen gerade in der Markteinführung. Videoclips werden zunehmend mit AC3 - Ton produziert. Im Kino ist der Mehrkanalton nicht mehr wegzudenken; auf DVDs wird er ebenfalls unverzichtbar bleiben. Die führenden Formate sind: Dolby Digital, DTS (Digital Theatre Soundsystem) und MPEG-2. Mehrkanalsoundkarten etablieren sich (z.B. SBlive 5.1 mit 6 analogen Ausgängen). Software wird erweitert; es stehen schon erste 3D APIs zur Verfügung, insbesondere DirectSound von Microsoft und EAX (Creative Labs "Environmental Audio Extensions"). |
Telefonieren via Internet |
Einführung Die klassischen Dienste des Internet -- Mail, News, Telnet, IRC, FTP, Gopher und WWW -- sind grundsätzlich textorientiert; das WWW war ursprünglich konzipiert als Medium, dessen komplettes inhaltliches Potential mittels eines textorientierten Browsers (»Lynx«) erschlossen werden konnte; so war es möglich, den Inhalt von WWW-Seiten in Braille-Schrift oder über Sprachsynthese auszugeben (vgl. Ausführungen des W3C: Access for the Disabled). Andererseits gehörten hypermediale Elemente ebenfalls von Anfang an zum Konzept des World Wide Web: Einbindung von Grafiken, Tönen und Animationen. Für alle Medientypen galt dasselbe Grundprinzip: Die Client-Software (der Web-Browser) forderte beim Host (Web-Server) eine Datei an, die dann übers Internet übertragen wurde; je nach Dateigröße und Kapazität der Internet-Anbindung kam es dann zu spürbaren Wartezeiten. Nach Beendigung der Übertragung wurde dann auf dem Client-Rechner eine Helper Application gestartet, welche die Wiedergabe der jeweiligen Datei erledigte. In modernen Browsern sind die Medientypen stärker integriert (Inlining), am Grundprinzip änderte sich jedoch nichts: Eine Datei muss komplett auf den Client-Rechner heruntergeladen werden, um weiterverarbeitet (gespeichert, abgespielt) werden zu können. Mit dem Aufkommen von Echtzeit-Audio via Internet änderte sich dieses Paradigma. Neue Übertragungsformen und Dateiformate erlaubten es, längere Audiosequenzen in einem kontinuierlichen Datenstrom über das Netz zu übertragen; bereits nach Übertragung eines Bruchteils der Gesamtdatenmenge beginnt die abspielende Applikation mit der Wiedergabe. Dieses Echtzeit-Audio (real-time audio) erlaubt erstmals das Bereitstellen kompletter Hörfunkprogramme im Internet, da das Programm quasi in Echtzeit transferiert werden kann. Computer-Telefon-Integration Als Computer-Telefon-Integration (CTI) bezeichnet man die Verbindung eines Computers bzw. eines LANs mit einer TK-Analge oder einem Telefon. Zu den Pionieren der Computer-Telefon-Integration gehört IBM; das Unternehmen brachte bereits Ende der 80er Jahre Produkte auf Basis der proprietären CallPath Services Architecture (CSA) heraus, mit denen beispielsweise Anwendungen wie Telebanking per Telefon realisierbar sind. Im Mai 1994 lieferte Novell die erste Version der ebenfalls proprietären Netware Telephony Services heraus, die auf Novells TSAPI (Telephony Services Applications Programming Interface) basiert. AT&T bietet ebenfalls eine proprietäre Telefonie-Software an unter der Bezeichnung PassageWay Telephony Services Solution; ein vergleichbares, ebenfalls zu den übrigen Lösungen inkompatibles Produkt vertreibt DEC unter der Bezeichnung CIT (Computer Integrated Telephony Architecture). Weitere Produkte werden u.a. von SNI (TELA, Telephone Application System) und Hewlett-Packard (ACT, Applied Computerized Telephony) angeboten. Um die Interoperabilität der unterschiedlichen Produkte zu gewährleisten, starteten Apple Computer, AT&, IBM und Siemens im September 1994 eine Inititiative, die einen offenen (plattformunabhängigen) Standard zur Computer-Telefon-Integration erarbeiten sollte. Das Ergebnis der Initiative ist das Versit TSAPI (Versit: Cooperation for Diversit), das u.a. Novells TSAPI und IBMs CSA integriert. Bei den auf CSA, TSAPI oder Versit TSAPI basierenden CTI-Systemen wird ein LAN bzw. ein Computer mit einer Telekommunikationsanlage verbunden; diese Architektur wird als Third-Party-Call-Control bezeichnet. Die Funktionalität der TK-Analge kann jedoch auch von einem PC übernommen werden, der mit zusätzlicher Hardware ausgestattet ist und die Signale des Telefons empfangen und erzeugen kann; diese Architektur wird als First-Party-Call-Control bezeichnet. Das Verfahren wird beispielsweise in dem von Microsoft und Intel entwickelten TAPI (Telephony Applications Programming Interface) verwendet. Telefonieren übers Internet: Grundlagen Seit Frühjahr 1995 gibt es Programme, mit deren Hilfe Sprache so stark komprimiert werden kann, dass es mit verhältnismäßig geringem Aufwand möglich ist, über da Internet zu telefonieren. Konzeptionell ähnelt Internet-Telefonie der Echtzeitübertragung von Audiodaten; bei einem Telefongespräch muss es beispielsweise möglich sein, den Gesprächspartner in Echtzeit zu unterbrechen, ohne auf die Beendigung der Übertragung eines Datenpakets warten zu müssen. Im Gegensatz zur unidirektionalen Datenübertragung von Server zu Client ist der Kommunikationsfluss bei einem Telefongespräch im Normalfall bidirektional; dies setzt u.a. eine vollduplexfähige Hardware voraus. Eine Halbduplex-Telefoniesoftware unterstützt jeweils nur in einer Richtung das Sprechen (Talk) oder das Hören (Listen). Die Benutzung von Telefonie-Software ist relativ einfach; im Internet kann die jeweilige (meist proprietäre) Software als Demoversion bezogen werden, in der Software werden Benutzername und einige weitere Einträge konfiguriert; ein Internet Phone Server wird angewählt, der meist auch ein weltweites Verzeichnis mit anderen registrierten Benutzern der Software bereitstellt. Anschließend kann die Verbindung zum jeweiligen Partner hergestellt werden, vorausgesetzt, dieser verfügt über dieselbe Telefonie-Software und ist online erreichbar. Probleme der Internet-Telefonie Zur Zeit gibt es noch eine Reihe gravierender Schwierigkeiten bei der Internet-Telefonie:
Die zur Zeit verfügbare erste Generation der Internet- Telefonie-Software ist i.d.R. nur zu sich selbst kompatibel. Dies hat zur Folge, dass beide Partner das gleiche Produkt einsetzen müssen. Eine Ausnahme bilden Gateway-server (siehe unten). aufgrund der geringen verfügbaren Bandbreite im Internet sehr begrenzt Interessenverbände der internationalen Telefon-Firmen versuchen, ein Verbot der Internet-Telefonie durchzusetzen. Beide Teilnehmer müssen mit der entsprechende Hard- und Software ausgestattet sein, beide Teilnehmer müssen Online- bzw. Providergebühren zahlen. Standardisierung Im Internet-Standard RFC 1789 über »INET Phone...« wird mit der Standardisierung begonnen. Weitere Bemühungen gehen von der Genfer International Telecommunications Union (ITU) aus, die den H.323-Standard erarbeitet hat. Speziell für die Echtzeitübertragung von Audio und Video wurde das Realtime Transfer Protocol (RTP) entwickelt. Gateways - Übergänge zwischen Telefonnetz und Internet Über Gateway-Server können Telefon-Verbindungen aus dem Internet in das konventionelle Telefonnetz geroutet werden. Dabei muss der Server die paketvermittelte Verbindung in eine leitungsvermittelte (und umgekehrt) umwandeln. Ausblick Derzeit gibt es keine wirklichen Anzeichen, dass Internet-Telefonie das konventionelle Telefonieren in absehbarer Zeit ersetzen wird; falls es überhaupt jemals zu einer Ablösung kommen wird, dann handelt es sich um einen Vorgang, der sich über mehrere Generationen erstrecken wird; in hohem Maße etablierte, preisgünstige und zuverlässige Einrichtungen wie das Telefonnetz lassen sich nicht kurzzeitig durch neue Techniken ablösen, es sei denn, dies geschieht für den Benutzer unmerklich. |
Computergestützte Musikplanung |
Einleitung Der Umgang mit Musik in Radiostationen hat sich sehr verändert. Noch vor wenigen Jahren wurden die meisten Musikprogramme 'in Handarbeit' von einzelnen MusikredakteurInnen erstellt: Titel für Titel persönlich mit Hilfe von Karteikarten ausgesucht und dann zu einer Programmabfolge zusammengefügt. Heute ist dieses Verfahren schon bald anachronistisch. In fast allen Stationen werden Computer mit entsprechender Software für die Musikplanung eingesetzt. Auch wenn die Reaktionen von HörerInnen auf die Umstellung der Musikprogrammerstellung gering sind, dürfen die Folgen nicht unterschätzt werden. Ein deutliches Zeichen hierfür sind die mit der Einführung von Musikplanungssoftware erfolgten Umstrukturierungen im musikredaktionellen Bereich und die damit verbundenen senderinternen Auseinandersetzungen. Musikplanungssoftware ist Ursache und Konsequenz eines gewandelten Umgangs mit Musik, der weit über den Radiobereich hinausweist. An den Möglichkeiten, die sie bereitstellt, wie auch an denen, die eben nicht möglich sind, weil sie als nicht wünschenswert angesehen werden, oder weil sie, aus welchen Gründen auch immer, nicht machbar sind, lässt sich dieser Wandlung ablesen. Nach einer kurzen Skizzierung der heutigen Radiolandschaft soll dies anhand einer Funktionsanalyse von Musikplanungssoftware und der Darstellung der Diskussion um sie innerhalb und außerhalb des Radios verdeutlicht werden. Dabei geht es nicht darum, das Spezifische einer bestimmten Software in Vergleich zu anderen Programmen herauszuarbeiten, sondern einige grundlegende Funktionsaspekte dieser Art von Software zu diskutieren." Musik im heutigen Radio Radio ist spätestens seit dem Aufkommen des Fernsehens in den 50er Jahren ein 'Nebenbeihör-Medium'. Mit geringer bewusster Aufmerksamkeit, aber deswegen nicht weniger intensiv emotional gehört, wächst der schon immer hohe Anteil von Musik am Programm weiter. Zumeist dominiert die Magazinform, die durch ihren steten Wechsel von Musik und Wort die musikalische Grundversorgung sicherstellt. Dabei jedem Programm ein eigenes Format durch eine unverwechselbare Wort/Musik/Geräusch-Mixtur zu geben, gilt heute als Voraussetzung für den kommerziellen Erfolg. Nur so bleibe das Programm für die HörerInnen berechenbar und habe einen hohen Wiedererkennungswert. Die Musiktitel, die in Programmen mit großen Hörerzahlen zum Einsatz kommen, werden dafür immer strikter unter das Diktat der Massenpopularität gestellt. In den meisten Stationen gibt es spezielle Abhörkommissionen für die Musik, an denen auch die Programmleitung beteiligt sein kann. Nur was sich 'erwiesenermaßen' bei der anvisierten Zielgruppe als populär darstellt, hat eine Chance, von diesen Gremien ausgewählt zu werden. Als Entscheidungskriterien dienen u.a. die Verkaufszahlen von Tonträgern, Ergebnisse der hausinternen Musikforschung, der Einsatz von Musiktiteln in anderen Radiostationen. Ergänzend kommt immer noch das eigene Gespür für Hits und Nieten hinzu. Zur Umsetzung der Formatvorgaben hat sich auch die Produktionsseite erheblich verändert, wobei zwei technologische Innovationen den Umstrukturierungsprozess besonders gefördert haben: Die digitale Produktion und Speicherung aller Programmelemente und die Vernetzung von Arbeitsplätzen und Archiven. Der Entwicklungstrend ist klar, auch wenn er bisher aus Kostengründen nur in wenigen Stationen realisiert wird. Jede(r) MitarbeiterIn soll jederzeit auf alle Elemente zugreifen können, um seinen/ihren Beitrag auf den entsprechenden Kontext abzustimmen. Die klassische Aufteilung eines Senders in verschiedene Ressorts, die relativ unabhängig voneinander planen und produzieren, verschwindet: 'Format- statt Kästchendenken'. In manchen Sendern sind die traditionellen redaktionellen Aufteilungen nach verschiedenen Ressorts inzwischen durch interdisziplinäre Arbeitsgruppen ersetzt worden. All dies markiert jedoch nicht das Ende, sondern den Anfang eines Umbruchprozesses, dessen weitere Entwicklung dann kaum mehr abschätzbar ist. Computergestützte Musikplanung Seit Ende der 70er Jahre wird in den USA Musikplanungssoftware entwickelt und eingesetzt. Mitte der 80er Jahre beginnen auch in Europa (Deutschland) vereinzelt öffentlich-rechtliche Sender, eigene Programme zu entwickeln, um senderinterne Abläufe zu rationalisieren. Ab Mitte der 80er Jahre werden privat-rechtliche Sender lizenziert. Sie orientieren sich stärker als die bis dahin konkurrenzlosen öffentlich-rechtlichen Sender an den Senderstrukturen und Programmformen des us- amerikanischen Radiomarkts. So kommt bei ihnen auch us-amerikanische Musikplanungssoftware zum Einsatz. Besonders weit verbreitet ist dabei aufgrund seines Erfolgs in den USA das Programm 'Selector'. Der erhöhte Konkurrenzdruck durch die 'Privaten' veranlasst dann auch viele 'Öffentlich-Rechtliche', ihrerseits Musikplanungssoftware einzuführen, ein Prozess, der bis jetzt nicht abgeschlossen ist. Neben kommerziellen Angeboten gibt es verschiedene hausinterne Entwicklungen. Musikplanungsplanungssoftware ermöglicht heute:
Dafür sind in der Software zwei Arbeitsschritte notwendig:
Das Kategoriensystem Kategoriensysteme für Datenbanken müssen möglichst eindeutig sein, um Zuordnungsprobleme gering zu halten. Bei einer zu feingliedrigen Unterscheidung geht aber leicht der Überblick verloren. Musikplanungsprogramme machen hierfür insoweit Vorgaben, als dass sie die Zahl der möglichen Kategoriekomplexe und ihrer hierarchischen Abstufungen festlegen. Die Archivierung der Musiktitel in der Datenbank ist eine weitgehend manuelle Arbeit, die einen nicht geringen Teil musikredaktioneller Arbeit ausmacht. Der/die BearbeiterIn trifft jeweils die kategoriale Zuordnung, lediglich bei den BPMs (Beats per Minute) helfen manche Programme. Die Festlegung von Titelabfolgen Die Gestaltung großflächiger Klangflächen durch die Zusammenfügung einzelner, in sich abgeschlossener Musiktitel, die dann in ihrer Gesamtheit eine neue Einheit ergeben sollen, ist so alt wie die Musik selbst. Dass nur ein einzelnes Musikstück dargeboten wird, ist sicher die Ausnahme. Eine gute Tanzkapelle weiß nicht nur, welche Titel sie zu spielen hat, sondern vor allem wann und in welcher Reihenfolge, um optimalen Erfolg zu erzielen. Gleiches gilt für die Zusammenstellung eines Konzertabends, den Aufbau einer Sonate oder einer Oper usw. Die Erfindung von Tonträgern erweitert diese Möglichkeiten enorm. Repertoirebeschränkungen fallen weg, blitzschnelle Umstellungen und Entscheidungen darüber, wie ein bestimmtes Klangereignis in Reaktion auf eine aktuelle Situation fortgeführt werden soll, werden möglich. Typische Berufsfelder, die diese Möglichkeiten in kreativer Weise nutzen, sind die DiscJockeys in den Discotheken oder die DJs im Technobereich. Wohl kaum jemand bestreitet die Kunstfertigkeit dieser 'Musiker', aus einem Arsenal von Tonträgern live ein neues großflächiges Klangereignis zu schaffen. In der Sprache der Datenbanken bezeichnet die Festlegung musikdramaturgischer Regeln die Definition von Recherchefiltern, die dann eine bestimmte Ergebnismenge produzieren. Es ist jedoch auch möglich, hier im Sinne des eben Ausgeführten von der Festlegung von Kompositionsregeln sprechen, um die Zielsetzung dieses Prozesses zu unterstreichen. Für die Festlegung von Titelabfolgen können in der Musikplanungssoftware allgemeine Verknüpfungsregeln definiert werden, die bei allen Titelabfolgen unabhängig von ihrem speziellen Sendeplatz gelten sollen. Da der Übergang zwischen zwei Musiktiteln ein besonders heikler Moment ist, sollen schon so bestimmte unerwünschte Verbindungen ausgeschlossen werden, z.B. dass ein sehr schneller und ein sehr langsamer Titel direkt aufeinander folgen, was einen sehr krassen Tempowechsel ergeben würde. Zudem kann definiert werden, wo automatische Blenden zu Beginn oder am Ende eines Titels einsetzen sollen. Zur Steuerung der Rotation von Musiktiteln können Titel- und Interpretensperren definiert werden. So wird vermieden, dass z.B. innerhalb kürzester Zeit der gleiche Titel von einem anderen Interpreten zum Einsatz kommt, oder dass ein anderer Titel mit dem gleichen Interpreten von der Software ausgewählt wird. Außerdem kann definiert werden, wie die Recherche für die Auswahl erfolgt. Entweder wird der erste passende Titel oder der am längsten nicht mehr genutzte Titel herausgesucht. Falls durch die Fülle der Festlegungen ein bestimmter Sendeplatz nicht mehr entsprechend den gewählten Bedingungen besetzt werden kann, sind 'Ausweichregeln' festlegbar. Das Ergebnis dieses Prozesses liegt dann entweder als Papierliste vor, die ans Archiv, die Sendeleitung usw. weitergegeben wird, oder die Informationen werden in digitalisierten Stationen an andere Programme übergeben. |
Weiterführende Informationen |
Uni Hamburg – Digitale Audioverarbeitung: http://tech-www.informatik.uni-hamburg.de/lehre/ws2000/vl-audioverarbeitung/ (Uni Darmstadt – Seminarvortrag Ralf Stuckert:) http://www.darmstadt.gmd.de/mobile/courses/digitalvideo/ss97/seminar/reports/ralf.stuckert/ AUDIOMEDIA: DVD-Audio Deutsche Ausgabe: http://www.audiomedia.com/archive/features/Germany_winter/amg_wint_dvdaudio/amg_wint_dvdaudio.htm TEC - Channel http://www.tecchannel.de/multimedia/470/index.html Uni Dortmund - Interaktivitätsbegriff in der Erziehungswissenschaft: http://www.ikarus.uni-dortmund.de/datennetze/publish/spezifik/ep0054.htm THX www.thx.com SkywalkerSound http://www.skysound.com/site.html Dolby www.dolby.com/tech zu Telefonieren via Internet: CTI im Internet:
http://www.cselt.it/mpeg/ MPEG Pointers and Resources http://www.mpeg.org/MPEG/MPEG-content.html The MPEG Audio Web Page http://www.tnt.uni-hannover.de/project/mpeg/audio/ MPEG-7 http://www.darmstadt.gmd.de/mobile/MPEG7/ |
Verweise auf Arbeiten anderer Gruppen |
|
>Entstehung | Ausbreitung | Verlierer | Vergleich | Sicherheit | Veränderung | Auswirkungen | Interaktiv | Zukunft |