fit 2001 >
Digitales Video & Photo > Entstehung |
Entstehung |
Von analog zu digitalWir beschäftigen uns in diesem Dokument mit der digitalen Fotografie und dem digitalen Video. Dabei ist uns wichtig zu klären, auf welche Technologie diese beiden Arten der Bildverarbeitung aufbauen, deshalb wollen wir uns zu Anfang ein paar Gedanken über die Digitalisierung machen. Die analoge TechnologieDie Umwandlung von Lichteindrücken in elektrische Signale ist im Prinzip schon lange bekannt. Immerhin flimmerten bereits Anfangs der fünfziger Jahre die ersten Fernsehbilder in die damals noch wenigen, mit einem Empfangsgerät ausgestatteten Wohnzimmer. Schon damals zeigte sich ein interessantes Phänomen, das sich rund dreißig Jahre später beim Aufkommen der elektronischen Bildverarbeitung wiederholen sollte: Das Umwandeln eines Bildes in elektronische Signale bereitete anfänglich weniger Probleme als seine dauerhafte Speicherung auf einem nicht-optischen Träger. Während fast zehn Jahren konnten Fernsehbilder nur in Form von Filmaufzeichnungen ab Monitor festgehalten werden - so lange dauerte es, bis die Analogaufzeichnung auf Magnetband die Qualität der damaligen Live-Bilder erreichte. Digitalisierte Bilder lassen sich zwar recht einfach speichern – Bilddaten unterscheiden sich technisch nicht vom Datenmaterial aus einer Textverarbeitung oder einer Datenbank. Hingegen bereitet die Menge der Daten erhebliches Kopfzerbrechen. Die konventionellen und weitverbreiteten Magnetplattenspeicher sind aus Kapazitäts- und Stabilitätsgründen eigentlich wenig für diesen Zweck geeignet. Die Zukunft wird sicher den optischen Speichermedien gehören. Die Photo-CD von Kodak zeigt, in welche Richtung die Entwicklung geht. Das klassische Fernsehen (mit Ausnahme moderner, digitaler HDVS-Systemen) und alle frühen Versuche der elektronischen Stehbildfotografie (z.B. Mavica) arbeiten weitgehend mit analogen Signalen. Da der Unterschied zwischen analoger und digitaler Verarbeitung auch für das Verständnis und die Beurteilung moderner Bildverfahren von entscheidender Bedeutung ist, wollen wir uns kurz etwas mit den physikalischen Grundlagen befassen. Analoge Bildwandler bestehen aus einem (oder mehreren) lichtempfindlichen Röhren- oder Halbleiterbauteilen und einer Steuerelektronik. Das Resultat am Ausgang des Wandlers ist eine elektrische Spannung, deren Grösse von der Beleuchtungsstärke in der Auffangebene des lichtempfindlichen Elementes abhängt. Üblicherweise wird das Bild von einem Bildwandler zeilenweise abgetastet, wodurch die Spannung am Ausgang synchron zur Helligkeit der abgetasteten Bildpunkte schwankt. Diese Schwankungen kann man elektronisch verstärken und damit zum Beispiel ein bewegtes Band mit magnetisch empfindlicher Oberfläche magnetisieren. Die Stärke der Magnetisierung entlang der Bewegungsrichtung entspricht dabei exakt der Helligkeit der dazugehörenden Bildpunkte. Somit ist die Bildinformation also dauerhaft gespeichert. Durch Ablesen der Magnetisierung kann das Bild auf einem Monitor wieder sichtbar gemacht werden, was ja letztlich der Zweck einer jeden Bildaufzeichnung ist. Die analoge Bildaufzeichnung hat zwei prinzipielle Vorteile:
Diese Nachteile sind derart gravierend, dass heute praktisch die gesamte Bildbearbeitung in digitaler Form erfolgt. Selbst dort, wo noch analoge Umwandlungs- und Speicherverfahren zur Anwendung kommen, bedient man sich zur Bearbeitung der Aufnahmen einer digitalen Zwischenstufe. Typische Beispiele für die analoge Bildübertragung sind das Fernsehen und der Bereich der privaten Videographie. Beim Fernsehen läuft Studio-intern bereits vieles digital und auch bei der Übertragung zum Endverbraucher steht die Digitalisierung vor der Tür. Schliesslich handelt es sich auch bei modernen Computerbildschirmen um analoge Geräte. Dies hat hier den Vorteil, dass verschiedene Auflösungen und beliebig viele Grau- oder Farbstufen wiedergeben werden können. Dadurch lassen sich die gleichen Monitore mit sehr unterschiedlichen Computergeräten und -Programmen betreiben. Die Umwandlung der digitalen Computersignale in analoge Signale übernimmt eine sogenannte Bildschirm- oder Grafikkarte. Digitale Bilder - eine Flut von Zahlen
Die digitale Umsetzung von optischen Eindrücken unterscheidet sich grundlegend von der analogen Verarbeitung. Anstatt einer synchronen Änderung der Ausgangsspannung eines Bildwandlers zur Helligkeit der abgetasteten Bildpunkte, sind nur noch eine genau festgelegte Anzahl Sprünge möglich. Dabei wird die Spanne zwischen Schwarz und Weiß in eine begrenzte Anzahl Grautöne zerlegt. Zwischenwerte sind nicht möglich. Liegt die Helligkeit eines Punktes zwischen zwei erlaubten Werten, so wird entweder auf- oder abgerundet. Dieses abgestufte Signal ist in dieser Form allerdings noch nicht zur Weiterverarbeitung geeignet. Die Höhe der einzelnen Stufen könnte immer noch von eventuellen Spannungs-schwankungen oder anderen Störungen beeinträchtigt werden. Außerdem weiß ein Computer mit einem solchen Signal nichts anzufangen. Was ein Rechner braucht, sind Zahlen - nichts als Zahlen. Der Weg von der Treppenkurve zu den Zahlen ist im Prinzip sehr simpel: die Stufen werden einfach durchnumeriert. Das heisst: jeder Stufe wird eine Zahl zugeordnet, die der Höhe der Stufe (und somit dem Helligkeitswert des dazugehörenden Bildpunktes) entspricht. Eine achtstufige Kurve (siehe Skizze) könnte man also mit Nummern von 0 bis 7 belegen. Die Null entspräche dabei völligem Schwarz, die Sieben dem hellsten Weiss. Dazwischen verbleiben noch 6 Stufen von 1 bis 6, welche 6 Grautöne repräsentieren. Was wir in der Praxis einem Computer einfüttern, ist also letztlich nichts anderes, als eine mehr oder weniger lange Reihe von Zahlen. Im Falle unseres Beispieles sähe diese Reihe so aus: 0,1,2,3,4,5,6,7,6,5,4,3,2,1,0. In seinem tiefsten Innern ist einem Computer aber auch das noch zu kompliziert. Dort, wo das Wesentliche passiert, arbeitet er sogar nur mit Kombinationen aus Einsen und Nullen. Mit der Umwandlung der uns vertrauten Dezimalzahlen in Binärwerte, die nur aus 1 und 0 bestehen, haben wir zum Glück nichts zu tun. Das Wissen um diese - auf das Allereinfachste reduzierte - digitale Zahlenwelt hilft uns aber, die entscheidenden Vorteile dieser Technik zu verstehen. Elektrisch werden die Zahlen Eins und Null durch die beiden Zustände «Spannung vorhanden» beziehungsweise «keine Spannung vorhanden» dargestellt. Bei der in Computern häufig verwendeten Arbeitsspannung von 5 Volt bedeutet dies: 0 Volt = Null; 5 Volt = Eins. Das Wichtigste dabei: die Elektronik, welche die Zahlen auswertet, ist so aufgebaut, dass sie grosszügig auf- oder abrundet. Konkret: auch 1,5 Volt gelten noch als Null und schon etwa 3,5 Volt werden als «1» akzeptiert und entsprechend weitergeleitet. Bei der Analogtechnik hingegen würden derartige Abweichungen zwangsläufig eine gewaltige Verfälschung des Resultates bewirken! Die lichtempfindlichen Wandlerelemente selbst (Aufnahmeröhre, CCD-Chip etc.) arbeiten allerdings nach wie vor analog. Die Digitalisierung erfolgt durch eine spezielle Elektronik, die unmittelbar hinter den Bildwandler geschaltet ist. Da der Wandler und die dazugehörende Elektronik eine elektrische (und oft auch konstruktive) Einheit bilden, kommt der Anwender in der Praxis dennoch nur mit den digitalisierten Signalen in Kontakt. Aus den erwähnten Eigenschaften digitaler Signale ergeben sich folgende Vorteile:
Trotz dieser Nachteile (die bald überwunden sein werden), hat die Digitaltechnik im Bereich des elektronischen Stehbildes alle analogen Verfahren weit hinter sich gelassen. Dennoch stehen wir erst am Anfang einer interessanten Entwicklung. Das noch junge Alter des neuen Mediums und der rasante technische Fortschritt bringen es mit sich, dass so mancher Interessent zur Zeit ziemlich ratlos zwischen zwar preiswerten, aber schon bald veralteten Geräten und den neusten High-End-Entwicklungen zu stolzen Preisen steht. Einsatz der DigitalisierungKommunikation über Bilder ist heute genauso selbstverständlich wie die Kommunikation über Text und Sprache. Die rasante Entwicklung rund um digitale Bildaufzeichnung und Bildspeicherung macht es möglich. Immer einfacher, schneller und kreativer heißt die Devise. Im Internet, per Email, zur Illustration von Druckerzeugnissen: Bilder werden in Zukunft viel intensiver genutzt werden. Nun wollen wir einen kleinen Blick hinter die Kulissen der digitalen Fotografie und des digitalen Videos werfen. Die Entwicklung der digitalen FotografieNun könnte man bei diesem Thema schon bei den Anfängen der Fotografie beginnen, aber wir haben uns entschlossen, dass wir ab dem Einsetzen der „Digitalisierungswelle“ mit unserer Arbeit beginnen. Für den geneigten Leser sei aber der Link auf die >[Geschichte der Fotografie] sehr zu empfehlen. Die erste Phase der digitalen Bildbearbeitung setzte ungefähr am Anfang der 90er Jahre ein. Ursprünglich wurde nämlich die Möglichkeit der digitalen Bildbearbeitung für die Printmedien entwickelt, die effektive Möglichkeiten benötigten, um ihre diversen Drucke einfach und doch ästhetisch gestalten zu können. Im Laufe der Jahre entwickelte sich aus dieser Richtung für den privaten Gebrauch nützliche Dinge. Dies hatte zur Folge, dass es immer mehr Leute die Möglichkeit hatten ihre Bilder digital zu bearbeiten. Ein Wehrmutstropfen blieb, aber dass die Qualität der Ausdrucke der Bilder nicht mit der am Monitor zu vergleichen war. Dieser Umstand gab sich aber bald, da es nun auch möglich wahr, Drucker mit spezieller Fotodruckoption um einen erschwinglichen Preis zu erstehen. Damit war es möglich, sich Bilder selber zu digitalisieren, selber zu bearbeiten und auch auszudrucken. Ein interessantes Faktum bei meiner Recherche auf dem Gebiet der digitalen Fotos war, dass ich herausgefunden hatte, dass schon 1981 durch die Firma >[SONY] die ersten digitalen Kameras vorgestellt wurden. Diese Technologie der digitalen Bildaufzeichnung aber in einen „Dornröschenschlaf“ verfiel und sich erst wieder Mitte der 90er Jahre durchsetzen konnte. Ab diesem Zeitpunkt war aber auch der Siegeszug durch die Anwendungsbereiche in Heim und Haus nicht mehr aufzuhalten. Die digitale Fotografie machte der konventionellen chemigrafischen Fotografie seit ca. 1998 ernsthaft Konkurrenz. Die Geräte werden immer leistungsfähiger und billiger. Bei digitalen Kameras entfällt das Digitalisieren der Bilddaten, denn das übernimmt die Kamera. Die aufgenommenen Bilder können sofort auf den Computer übertragen, und dort weiterverarbeitet werden. Diesen Generationswechsel im Bereich der Fotografie findet man im >[Text von Jürgen Albrecht] sehr gut beschrieben, denn er lässt auch seine eigenen Erlebnisse in diesen einfließen. Jürgen Albrecht hat in einem Text aus dem Jahre 1999 über die >[Vor- und Nachteile] bei der digitalen Fotografie folgende Punkte herausgestrichen. Vorteile:
Diese Punkte können als eine Erklärung dafür herangezogen werden, warum sich die digitale Fotografie steigender Beliebtheit erfreut. Es bleibt aber auch anzumerken, dass die neue Technologie zu dieser Zeit, so um 1999, nicht nur positive Seiten aufzeigte. Nachteile zu dieser Zeit waren:
Diese Auflistung von Nachteilen zeigt sehr deutlich, in welche Richtung die Technik zu dieser Zeit zu gehen hatte und auch jetzt noch geht. Zum Beispiel ist der Punkt, dass man einen Computer haben muss, damit man digitale Fotos verarbeiten kann schon veraltet. Hewlett Packard bietet einen Drucker an, der direkt an die Kamera angeschlossen werden kann und somit gleich die Bilder von der Digitalkamera drucken kann. Der Punkt, dass die Qualität der digitalen Fotos für hochwertige Druckvorlagen nicht ausreicht, führte auch dazu, dass immer bessere Datenkomprimierungsverfahren erfunden wurden. Ebenso steigerten sich die Auflösungen der Drucker und die Kapazitäten der verschiedenen Speichermedien. Hier ist vor allem die Einführung der >[KODAK] >[Foto-CD] zu erwähnen. Aber auch andere >[Innovationen] stammen von dieser Firma. Ein interessantes Essay über die Anwendungen der digitalen Fotografie Anfang der 90er Jahre bis 1996 findet man in der Einleitung zu einem >[Symposium] von Katrin Eismann, einer Imaging- Insidern aus Los Angeles. Dabei vergleicht sie die ersten digitalen Geräte mit denen, die es dann in späterer Folge zu erwerben galt. Sehr interessant ist auch ihre Einschätzung der Lage der digitalen Fotografie. Dabei merkt man sehr bald, dass es, wie bei leider fast allem auf dieser Welt, nur auf den Preis ankommt. Ein weiterer >[Text] aus dem Jahr 1994 befasst sich ebenfalls mit der Technik, die bei der digitalen Fotografie eingesetzt wird. Aber der Autor geht hier sehr viel mehr ein, was diese neue Technologie für den Fotografen bewirkt, denn die Änderungen in der Technik betreffen auch den Menschen, der mit ihr umgehen lernen muss. Die Entwicklung des digitalen VideosEinen genauen >[Überblick] über die Verfahren, die bei der Digitalisierung von Videosignalen genutzt wird und wie das ganze benutzt wird findet man hier: Auf die Frage, wieso man sich mit digitalem Video beschäftigen sollte, findet man [hier] eine Antwort. TechnologienDie Entwicklung im Bereich der digitalen Bearbeitung von Fotos und Videos hat auch sehr stark andere Bereiche von Technologien beeinflusst, ja wäre ohne diese heute wohl kaum denkbar. Hier wollen wir vor allem die softwaretechnischen Entwicklungen und den Hardwarebereich genauer untersuchen. Die SpeichermedienEinen guten Überblick über >[Technologien], die im Zusammenhang mit digitalem Video in Verbindung stehen findet man auf der >[Uni Passau]. Weitere Details findet man unter: >[Formate] Wir wollen in diesem Dokument nur kurz auf zwei Medien eingehen: Die Laserdisc und die DVD (Digital Versatile Disc). Laserdisc (LD)Einführung Schon in den frühen 70ern machten sich Techniker Gedanken darüber, wie man bewegte Bilder und Ton auf einer LP-ähnlichen Scheibe speichern könnte. Das Ergebnis der Forschungen wurde erstmals 1972 !) auf der Funkausstellung in Berlin gezeigt: Die Bildplatte. Eine Scheibe der Größe einer LP, die von einem Laser abgetastet wurde und damit eine Bild- und Tonqualität bot, die jenseits terrestrischer Fernsehausstrahlung lag. Die Entwicklung wurde unter verschiedenen Namen vorangetrieben, »Bildplatte«, »Laserdisc« und »LaserVision« sind nur einige davon. 1980 fand dann die offizielle - und ziemlich erfolglose – Markteinführung statt. Den Hauptgrund für den geringen Erfolg kann man darin sehen, dass zeitgleich verschiedene Magnetband-Videosysteme auf den Markt kamen, mit denen auch Aufnahmen angefertigt werden konnten. Deutlich später (1992) wurde eine HD-LD (High Densitiy Laserdisc) zum Verkauf freigegeben, die Bilder in HDTV-Qualität bietet. Da HDTV-Fernseher nur in Japan zum Kauf angeboten werden - und auch dort relativ erfolglos -, weiß man auch nur dort etwas von HD-LD. Die TechnikDie Laserdisc sieht aus wie eine große Musik-CD; wie die Musik-CD ist die LD nur einseitig nutzbar, deshalb wurden von Anfang an immer zwei LDs zu einer doppelseitigen LD zusammengeklebt. Bild und Ton sind auf der LD analog (!) gespeichert; daher sind LDs wesentlich anfällig was Kratzer und andere Beeinträchtigungen der Oberfläche betrifft. Mit dem Aufkommen der Musik-CD (1982) hat man Laserdiscs ebenfalls mit digitalem Ton (44,1 kHz, 16 Bit, Stereo) ausgestattet. Das Bild ist aber bis heute noch immer analog gespeichert. Laserdiscs kennen zwei Aufzeichnungsformate: * CAV (Constant Angular Velocity) und * CLV (Constant Linear Velocity), später CAA CAV ist vom Prinzip her wie die gute alte Schallplatte, d.h. die Scheibe dreht sich immer gleich schnell (konstante Winkelgeschwindigkeit); setzt man sich gedanklich auf die Leseeinheit (bzw. beim Plattenspieler auf den Tonabnehmer) und betrachtet die unter sich vorbeiziehende »Landschaft«, so fliegt man weiter außen deutlich schneller über sie hinweg, als weiter innen. Da Laserdiscs von innen nach außen gelesen werden, nimmt die Lineargeschwindigkeit also immer mehr zu. CAV-Laserdiscs drehen sich mit 1800 UpM (NTSC) bzw. 1500 UpM (PAL); das entspricht genau 30 bzw. 25 Umdrehungen je Sekunde. Eine Umdrehung hält also genau ein Frame (Einzelbild). Jedes Frame ist auch genau ein Kreis, wie die einzelnen Tracks einer Diskette oder Festplatte; d.h. nach jeder Umdrehung springt der Laser zur nächsten Spur, um das nächste Bild wiedergeben zu können. Möchte man ein perfektes Standbild sehen, springt der Laser nicht weiter, sondern bleibt auf der aktuellen Spur und zeigt somit immer wieder das gleiche Frame (wohlgemerkt mit beiden Halbbildern). Für Zeitlupe bzw. Zeitraffer und auch Suchläufe in verschiedenen Geschwindigkeiten werden einzelne Spuren mehrmals gezeigt bzw. übersprungen. In CAV hält eine Seite einer Laserdisc 30 (NTSC) bzw. 36 (PAL) Minuten Film. Nicht sonderlich viel, wenn man bedenkt, daß Spielfilme eineinhalb oder zwei Stunden dauern. Deshalb gibt es noch den CLV-Modus: CLV-Laserdiscs sind genauso beschrieben wie Musik-CD bzw. CD-ROMs, d.h. mit einer Schneckenspur von ganz innen nach ganz außen. Die einzelnen Frames sind ohne Beachtung des aktuellen Drehwinkels nacheinander auf dieser Spur aufgezeichnet - bei konstanter Lineargeschwindigkeit. D.h. CLV-LDs müssen sich, wie CDs, unterschiedlich schnell drehen, je nach dem, wo sich die Leseeinheit gerade befindet. Ganz innen braucht ein Frame ziemlich genau eine Umdrehung, ganz außen passen bis zu drei Frames auf eine Umdrehung, d.h. CLV-LDs drehen sich mit 1800 bis 600 (NTSC) bzw. 1500 bis 500 (PAL) Umdrehungen pro Minute. Aufgrund dieses Aufzeichnungsverfahrens ist es bei CLV-LDs unmöglich, Standbilder, Zeitlupe, Zeitraffer oder einen perfekten Suchlauf zu bieten. Dafür hält eine CLV-Laserdisc 60 (NTSC) bzw. 72 (PAL) Minuten Film je Seite. [Tatsächlich sind fast alle neueren »CLV«-Laserdiscs im Format CAA gepreßt. CAA-LDs halten in PAL nur ca. 64 Minuten.] Selbstverständlich müssen Vorder- und Rückseite einer LD nicht im gleichen Format sein, da es sich sowieso nur um zwei zusammengeklebte einseitige LDs handelt. Heutige Laserdisc-Player zeigen bei CLV-LDs üblicherweise die abgelaufene Zeit an, während sie bei CAV-Schreiben die einzelnen Frames/Spuren im Display zählen. Digital Versatile Disc (DVD)Einführung DVD ist ein neues, Anfang 1997 eingeführtes Speichermedium für Bild- und Tondaten, das langfristig die Nachfolge sowohl der altbekannten AudioCD, als auch der Laserdisc antreten soll. Im wesentlichen ist die DVD - Digital Versatile Disc oder auch Digital Video Disc -eine verbesserte Variante der CD mit höherer Kapazität, und wie die CD besteht die DVD aus einer 12 cm durchmessenden, 1,2 mm dicken Polycarbonatscheibe mit aufgedampften Reflexionsschichten, mit dem Unterschied, dass diese Scheibe aus zwei je 0,6 mm dicken Teilen besteht. Im Gegensatz zur CD kann die DVD sowohl doppelseitig sein, als auch auf jeder Seite zwei Datenschichten haben, so dass die Kapazität zwischen 4,7 (dezimalen) Gigabyte (= 4,38 binäre GByte) für eine einseitige, einlagige, und 17 Gigabyte (15,9 GByte binär) für eine zweiseitige, zweilagige DVD variiert. Das entspricht einer Laufzeit von über 2 bis zu 8 Stunden, wobei der Hersteller die Wahl hat, zugunsten einer besseren Qualität die Laufzeit zu verkürzen und umgekehrt. Automatische Wendemechanismen wie bei der Laserdisc sind noch nicht üblich, aber auch nicht unbedingt notwendig, da sämtliche Filme problemlos auf eine Seite passen. Zweiseitige DVDs werden vorwiegend dazu benutzt, einen Film zweimal in verschiedenen Formaten (Pan & Scan, Letterbox) aufzuzeichnen. Eine Mischung aus DVD und CD, bei der eine Seite im DVD-Format und die andere Seite im CD-Format ist, ist ebenfalls möglich. Zum Vergleich: Die Kapazität einer CD beträgt nur etwa 0,65 GByte. Die DVD wurde primär zur qualitativ hochwertigen Aufzeichnung von Videodaten geschaffen, nachdem der Versuch, die VideoCD als Consumermedium zu etablieren, in Europa und den USA an Qualitätsmängeln gescheitert war: Die Qualität war nicht wesentlich besser als die von VHS-Video, dafür fehlte die Aufzeichnungsmöglichkeit. Die theoretisch mögliche Bildqualität der DVD übersteigt die der Laserdisc und selbst des PALplus - Systems um einiges, und auch die Tonqualität kann um einiges besser sein, als die von TV-Übertragungen. DVD-ROMDie DVD-ROM ist die primär für den Personalcomputereinsatz gedachte Variante der DVD, die mit einem Filesystem aufwarten kann und pro Seite knapp 8 GB Daten speichern kann, genug selbst für aufwendige Multimedia-Applikationen, die zur Zeit noch auf mehreren CDs verteilt werden müssen. Die technischen Parameter sind identisch und DVD-ROM-Laufwerke können die DVD lesen. DVD-ROM-Laufweke können auch CD-ROMs lesen, jedoch können nur neuere Laufwerke CD-Rs (einmal beschreibbare CDs) lesen, da das rote Laserlicht, mit dem das Laufwerk die Datenträger abtastet, von den auf das Infrarotlicht der CD-ROM-Laufwerke ausgelegten Farbstoffen der CD-Rs absorbiert wird. Die Laufwerke benötigen daher einen zusätzlichen infraroten Laser mit derselben Wellenlänge wie CD-Laser. Beide Formate sollen von normalen DVD-Laufwerken gelesen werden können, dies scheitert aber momentan noch daran, daß die DVD-RAMs ein Gehäuse besitzen, das nicht in derzeitige DVD-ROM-Player hinein paßt. DiVX Pay-per-ViewDiVX war ein Pay-per-View-Verfahren für DVDs, das im Frühjahr 1998 in den USA den Probebetrieb aufgenommen hat und am 16. Juni 1999 wieder eingestellt wurde, weil das Verfahren (zum Glück) zu wenig Kunden fand. ( Nicht zu verwechseln mit dem gleichnamigen DIVX MPEG4 Codec von >[ProjectMayo] ) In den folgenden Absätzen ist das jetzt tote System kurz beschrieben. Durch eine geänderte Verschlüsselung (Triple-DES) kann eine DiVX-DVD nicht von einem normalen Player (»Open DVD«-Player) abgespielt werden, wohl aber können (US$ 100-200 teurere) DiVX-Player Open DVDs abspielen. Jede einzelne Disc ist mit einer individuellen Seriennummer versehen. Nach dem Kauf einer (billigeren) DiVX-DVD kann man diese vom Zeitpunkt des ersten Einlegens an 48 Stunden lang abspielen, danach muß jeder 48-Stunden-Zeitraum nochmals bezahlt werden. Der Player ist hierzu ans Telefonnetz angeschlossen und tauscht in regelmäßigen Abständen die Abrechnungsinformationen über eine gebührenfreie Nummer mit der Zentrale aus. Will man sich die pay-per-View-Zahlungen ersparen, kann man für einen höheren Betrag die DVD nur für einen Player unbegrenzt freischalten - falls der Hersteller dies für den jeweiligen Titel erlaubt. Am 16. Juni 1999 hat DiVX offiziell die Einstellung des Geschäftsbetriebs verkündet. Neue Kunden werden nicht mehr angenommen, alte DiVX-Scheiben können, im Rahmen einer zweijährigen Auslaufphase, noch bis zum 30. Juni 2001 genutzt werden. Käufer, die vor dem 16. Juni 1999 einen DiVX-Player gekauft haben, bekommen auf Antrag den Aufpreis für die DiVX-Funktionalität des Players, immerhin 100 US$, zurückerstattet. Als Grund fuer die Einstellung wurde mangelnde Unterstützung durch die Filmindustrie genannt, das Interesse der Kunden sei ungebrochen groß gewesen. Die Einstellung von DiVX bedeutet für die Betreiber einen Verlust von über 100 Mio. US$. Die Komprimierung der DatenQuelle: Fachhochschule Worms, Joachim Schwarz und Guido Sörmann, >[Kompressionsalgorithmen] Komprimierungsverfahren für digitale VideosDabei wollen wir vor allem uns einmal mit den Verfahren die von >[MPEG] (=Moving Pictures Experts Group), einer Unterorganisation der ISO, die wiederum für die International Standards Organisation steht. Auf der Web-Site der Universität in Linz findet man interessante Details über die >[technischen Umsetzungen] von Videodatenkompressionsverfahren. Dabei ist auch festzustellen, dass mit der Standardisierung der Videokompression auch ein Standard in punkto Audio bei MPEG-Formaten festgelegt wurde. Divx CodecEin 90-Minuten-Spielfilm belegt im MPEG2- Format 3 bis 4 GB Speicher. Um ihn auf 650 MB zu komprimieren, damit er auf eine CD-R(W) passt, benötigt man einen leistungsstarken Codec (Coder / Decoder). Der derzeit beste Codec ist die englischsprachige Freeware Divx von >[Project Mayo]. Quelle: >[PC-Welt]: So machen Sie Ihren PC zum digitalen Videorecorder (05/2001 S182) Komprimierungsverfahren für digitale FotosQuelle: TU-Wien, Skript zu >[Computergrafik I], Werner Purgathofer & Eduard Gröller Nicht verlustbehaftete (Reversible) KomprimierungDarunter versteht man die Reduktion der Bilddaten bei der Speicherung. Bei der späteren Darstellung des Bildes werden diese Daten wieder so expandiert, dass sie mit den ursprünglichen Bilddaten identisch sind. Das GIF-Dateiformat etwa bedient sich der >[LZH-Komprimierung], die auch verschiedene Packprogramme wie LHA, PKZIP oder ARJ verwenden. Neben anderen unterstützen die Dateiformate BMP und IFF die weit verbreitete >[RLE-Codierung] (run-length encoded). Dieses verfahren erzielt einen hohen Wirkungsgrad bei Bildern mit großen einfärbigen Flächen. Das Prinzip von RLE ist dabei recht einfach: Anstatt den gleichen Farbwert für aufeinanderfolgende Pixel immer wieder hintereinander in die Datei zu schreiben, wird nur einmal der Farbwert und die Anzahl, wie oft dieser vorkommt, gespeichert. Beispiel: Statt in die Datei !Eh 1Eh 1Eh 1Eh 1Eh zu schreiben, wird nur 05h 1Eh geschrieben (5mal der Farbwert 1Eh). Verlustbehaftete (Irreversible) KomprimierungIn Echtfarbbildern (16,7 Millionen Farben – Fotoqualität) kommen häufig Farbverläufe vor, bei denen die Farbabstufungen so gering sind, dass sie vom menschlichen Auge praktisch nicht mehr wahrgenommen werden. Bei der verlustbehafteten Komprimierung werden diese aufeinanderfolgenden, einander stark ähnelnden Farbwerte durch einen interpolierten Farbwert ersetzt. Anschließend kann z.B. >[RLE-Codierung] werden. Je nach Bild kann mit diesem Verfahren ein recht hoher Kompressionsgrad erreicht werden. Das >[JPEG-Format] verwendet solche Kompressionstechniken. >Von analog zu digital Beschreibung der Technologien >Einsatz der Digitalisierung wann alles anfing >Technologien Entwicklung in Software und Hardware |
Weiterführende Informationen |
|
Verweise auf Arbeiten anderer gruppen |
|
>Entstehung | Ausbreitung | Verlierer | Sicherheit | Veränderung | Auswirkungen | Interaktiv | Zusammenfassung |