Christoph Meinel · Harald Sack
Digitale Kommunikation Vernetzen, Multimedia, Sicherheit
123
Prof. Dr. Christoph Meinel Hasso-Plattner-Institut f¨ur Softwaresystemtechnik GmbH Prof.-Dr.-Helmert-Str. 2–3 14482 Potsdam Germany
[email protected]
Dr. Harald Sack Hasso-Plattner-Institut f¨ur Softwaresystemtechnik GmbH Prof.-Dr.-Helmert-Str. 2–3 14482 Potsdam Germany
[email protected]
ISSN 1439-3107 ISBN 978-3-540-92922-2 e-ISBN 978-3-540-92923-9 DOI 10.1007/978-3-540-92923-9 Springer Dordrecht Heidelberg London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet u¨ ber http://dnb.d-nb.de abrufbar. c Springer-Verlag Berlin Heidelberg 2009 Dieses Werk ist urheberrechtlich gesch¨utzt. Die dadurch begr¨undeten Rechte, insbesondere die der ¨ Ubersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielf¨altigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielf¨altigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zul¨assig. Sie ist grunds¨atzlich verg¨utungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten w¨aren und daher von jedermann benutzt werden d¨urften. Einbandabbildung: K¨uenkelLopka GmbH, Heidelberg Printed on acid-free paper Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort
Was eigentlich immer noch zum Staunen ist, scheint heute im Alltag vielen schon ganz selbstverst¨andlich: Der alte, die ganze Menschheitsentwicklung antreibende Traum von einer Mobilit¨at u¨ ber die Grenzen von Zeit und Raum hinweg hat sich in den letzten Jahrzehnten in einem Maße verwirklicht, wie nie zuvor in der Menschheitsgeschichte. Und dabei wurde kein einziges physikalisches Gesetz gebrochen. Der Mensch hat vielmehr gelernt, mit unerwartet vielen Dingen des Lebens in einer entmaterialisierten, virtuellen Form umzugehen. Entmaterialisiert in dem Sinne, dass anstelle mit den Dingen selbst lediglich mit ihren digitalen Schatten“ umge” gangen wird, also mit Beschreibungen, kodiert in Form von Nullen und Einsen, die u¨ ber elektromagnetische Signale mit Lichtgeschwindigkeit transportiert und an jedem Computer bearbeitet werden k¨onnen. Zwei technologische Entwicklungen machen das m¨oglich: Computer bieten den Kosmos, in dem diese digitalen Schatten ihr Dasein entfalten, in dem sie neu gesch¨opft, bearbeitet, verkn¨upft und abgelegt werden k¨onnen; das Internet bietet die M¨oglichkeit, diese digitalen Schatten fast mit Lichtgeschwindigkeit an jeden Ort der Welt zu transportieren, damit sie in einem Computer am anderen Ende der Welt ihre Wirkung entfalten k¨onnen. Tats¨achlich z¨ahlen Computer und Internet zu den ganz wenigen technologischen Entwicklungen in der Geschichte der Menschheit, die das Leben und Handeln der Menschen wirklich grundlegend ver¨andert haben. Nachdem die industrielle Revolution des 19. und 20. Jahrhunderts unsere physische Mobilit¨at dramatisch steigern konnte – Autos, Flugzeuge, Raumschiffe erweiterten den k¨orperlichen Aktionsradius des Menschen betr¨achtlich –, so erweitern Computer- und Internet-Technologien als Treiber der digitalen Revolution unsere gedankliche Mobilit¨at in einem bisher unvorstellbaren Maße und befreien unseren geistigen Aktionsradius von (fast) jeglicher k¨orperlicher Beschr¨ankung. W¨ahrend selbst modernste Fortbewegungsmittel wohl immer viele Stunden brauchen werden, um einen Menschen von einem Kontinent zum anderen zu bringen, kann er diese Entfernung mit Hilfe des Internets fast augenblicklich u¨ berwinden. Empfindungen, Gedanken und Anweisungen lassen sich unmittelbar u¨ bermitteln, sekundenschnell kann auf die W¨unsche und Anforderungen weit Entfernter reagiert werden - und das anders als im Bereich der physischen Mobilit¨at ohne nennenswerte Kosten. Aufgrund der noch sehr jungen Geschichte – das Internet ist gerade einmal Vierzig, das WWW vor kurzem vollj¨ahrig geworden – und da die rasante Entwicklung der Computer- und Netzwerk-Technologien ungebrochen anh¨alt, lassen sich die durch die digitale Revolution ausgel¨osten Ver¨anderungen in Gesellschaft, Wirtschaft und im privaten Bereich erst in allerersten Umrissen absehen. Um so interessanter ist es daher, hinter die Kulissen dieser Entwicklung zu schauen und die technischen Grundlagen zu verstehen, wie Internet und WWW eigentlich funktionieren. Genau dazu will das vorliegende Buch Digitale Kommunikation“ zusammen mit den ” beiden nachfolgenden B¨anden, Internetworking“ und Web-Technologien“, ein ” ” V
VI
Vorwort
verst¨andiger, umfassender und vertrauensw¨urdiger, lehr- und detailreicher F¨uhrer sein. Der vorliegende Band ist den Grundlagen der digitalen Kommunikation gewidmet und bietet einen ausf¨uhrlichen R¨uckblick auf die Geschichte der Kommunikation und ihre technischen Hilfsmittel. Er behandelt die Grundlagen der Kommunikation in Rechnernetzen, stellt die Vielfalt der digitalen Medien, ihre Auspr¨agungen und ¨ Kodierung dar, und gibt einen Uberblick zur Sicherheitsproblematik in der neuen digitalen Welt. Die mehrdimensionale Gliederung des Materials – allgemeinverst¨andliche Beschreibungen werden durch zahlreiche ins technische Detail gehende Exkurse erg¨anzt, Glossare bieten kapitelbezogene, kommentierte Indizes, und Literaturhinweise laden zum Nachschlagen und Weiterlesen ein – soll dem geneigten Leser den Zugang zur F¨ulle des behandelten Stoffes soweit wie m¨oglich erleichtern und ihm eine interessen- bzw. themenbezogene Auswahl erm¨oglichen. Auf Basis dieses Buches werden dann in den beiden nachfolgenden B¨anden In” ternetworking“ und Web-Technologien“ die Internet- und Web-Technologien um” fassend und im Detail vorgestellt, also die aktuellen Rechnernetzwerktechnologien, die verschiedenen Schichten des Internets, die TCP/IP-Protokollsuite, das WWW, sowie die verschiedenen Web-Technologien, wie URL, HTTP, HTML, CSS, XML, Web-Programmierung, Suchmaschinen, Web2.0 und Semantic Web. Wir haben uns große M¨uhe gegeben, um Sie, verehrte Leser, als interessierte Laien durch die Lekt¨ure unseres Buches anzustecken mit der Faszination der neuen digitalen Welt, um Ihnen als fleißige und Anstrengungen nicht scheuende Studenten ein brauchbares und umfassendes Lehrbuch vorzulegen, und Ihnen als gestandene Profis ein zuverl¨assiges Nachschlagewerk an die Hand zu geben, mit dem Sie Ihre Spezialgebiete leicht und sicher in den Kontext des riesigen Gesamtkomplexes der digitalen Kommunikation einordnen k¨onnen. Dank zu sagen gilt es dem Springer-Verlag in Person von Hermann Engesser und Dorothea Glaunsinger f¨ur das Vertrauen in das Gelingen dieses Buchprojekts und die Unterst¨utzung bei seiner Realisierung, und bei Euch, Ivana und Anja, f¨ur den Langmut und die Toleranz, mit der ihr uns habt w¨ahrend zahlloser Wochenenden und Ferientage in unsere Arbeitszimmer verschwinden lassen, und die uns auch dabei begleitende Liebe. Potsdam, im Januar 2009
Christoph Meinel Harald Sack
Inhaltsverzeichnis
1
Prolog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Digitale G¨uter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Digitale Kommunikation und ihre Grundlagen . . . . . . . . . . . . . . . . . 1.3 Wegweiser durch die digitale Kommunikation . . . . . . . . . . . . . . . . . 1.4 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 1 8 13 15
2
¨ Geschichtlicher Ruckblick ..................................... 2.1 Entwicklung der Schrift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 1: Die Entwicklung der Sprache . . . . . . . . . . . . . . . . . . . . . . 2.2 Erste Kommunikationsnetzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Die Entwicklung des Buchdrucks . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Entstehung des Zeitungswesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Telekommunikationssysteme und Elektrizit¨at . . . . . . . . . . . . . . . . . . 2.5.1 Optische Telegrafie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Elektrische Telegrafie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Der Vormarsch der Individual-Telekommunikation . . . . . . . . . . . . . . 2.6.1 Telefon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2 Vom Phonograph zum Grammophon . . . . . . . . . . . . . . . . . . . 2.6.3 Fotografie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen . . . . . . . . 2.7.1 Funktelegrafie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.2 Rundfunk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.3 Film und Kino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.4 Fernsehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.5 Analoge und digitale Aufzeichnungsverfahren . . . . . . . . . . . 2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9 Die untrennbare Geschichte von Internet und WWW . . . . . . . . . . . . 2.9.1 Das ARPANET – wie alles begann... . . . . . . . . . . . . . . . . . . . 2.9.2 The Internet goes public . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9.3 Das WWW revolutioniert das Internet . . . . . . . . . . . . . . . . . .
19 19 21 28 34 41 44 44 47 50 50 52 54 57 57 59 61 63 66 68 75 75 79 81
VII
VIII
3
4
Inhaltsverzeichnis
2.9.4 Web 2.0 und Semantic Web – Die Zukunft des WWW . . . . 2.10 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85 88
Grundlagen der Kommunikation in Rechnernetzen . . . . . . . . . . . . . . . 3.1 Grundbegriffe und -konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Kommunikation und Daten¨ubertragung . . . . . . . . . . . . . . . . . 3.1.2 Klassifikationen von Kommunikationssystemen . . . . . . . . . . 3.2 Rechnernetze und Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Klassische Punkt-zu-Punkt Verbindung . . . . . . . . . . . . . . . . . 3.2.2 Leitungsvermittelte Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Von der Leitungsvermittlung zur Paketvermittlung . . . . . . . 3.2.4 Das Prinzip der Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . 3.2.5 Vorteile der Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.6 Paketheader . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.7 Nachteile der Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . . . 3.2.8 Verbindungslose und verbindungsorientierte Netzwerkdienste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.9 Dienstparadigmen von Rechnernetzen . . . . . . . . . . . . . . . . . . 3.2.10 Fehlererkennung und Fehlerkorrektur . . . . . . . . . . . . . . . . . . Exkurs 2: Fehlererkennende und fehlerkorrigierende Codes . . . . . . 3.3 Leistungskennziffern von Rechnernetzen . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Benutzerbezogene Kenngr¨oßen . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Qualitative Leistungskriterien . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Quality of Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 3: Verz¨ogerung in paketvermittelten Netzwerken . . . . . . . . 3.4 Kommunikationsprotokolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Protokollfamilien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Schichtenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 4: Das ISO/OSI-Schichtenmodell . . . . . . . . . . . . . . . . . . . . . 3.4.3 Das Internet und das TCP/IP-Schichtenmodell . . . . . . . . . . . 3.4.4 Protokollfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93 93 93 98 103 103 105 106 107 109 111 112
Multimediale Daten und ihre Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Medienvielfalt und Multimedia - eine Formatfrage . . . . . . . . . . . . . . 4.2 Information und Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Information und Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Redundanz – Mehrwert oder Verschwendung? . . . . . . . . . . . 4.3 Text - Datenformate und Komprimierung . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Textkodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 5: Der Unicode Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Textkomprimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 6: Einfache Verfahren der Datenkomprimierung . . . . . . . . . 4.4 Grafik - Datenformate und Komprimierung . . . . . . . . . . . . . . . . . . . . Exkurs 7: Was ist Farbe? – Farbe und Farbsysteme . . . . . . . . . . . . .
161 161 164 164 166 168 168 174 177 179 182 185
113 114 117 119 125 126 126 128 131 134 136 136 142 146 152 155
Inhaltsverzeichnis
5
IX
4.4.1 Varianten der Laufl¨angenkodierung f¨ur Grafikdaten . . . . . . . 4.4.2 LZW-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 GIF-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 8: GIF – Dateiaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4 PNG-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.5 JPEG-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 9: JPEG – Komprimierung und JPEG – Dateiformat . . . . . 4.5 Audio – Datenformate und Komprimierung . . . . . . . . . . . . . . . . . . . . 4.5.1 Analog-Digital-Umwandlung . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Unkomprimierte Audio-Datenformate . . . . . . . . . . . . . . . . . . 4.5.3 Audiokomprimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4 MPEG Audiokodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 10: MPEG-1 Audiokodierung . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 11: MP3 – Dateiaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.5 Weitere Audio-Komprimierungsverfahren . . . . . . . . . . . . . . . 4.5.6 Streamingtechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Video und Animation - Datenformate und Komprimierung . . . . . . . 4.6.1 Digitale Videokodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 Komprimierung von Videosignalen . . . . . . . . . . . . . . . . . . . . 4.6.3 Bewegungskompensation und Bewegungsvorhersage . . . . . 4.6.4 MPEG Komprimierung: Sch¨usselprobleme . . . . . . . . . . . . . . 4.6.5 MPEG Komprimierung: Prinzipielles Vorgehen . . . . . . . . . . 4.6.6 MPEG-2 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 12: MPEG – Datenformat . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.7 MPEG-4 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.8 MPEG-7 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.9 MPEG-21 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 13: Andere Videodatenformate und -komprimierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
191 192 193 195 199 200 203 213 216 222 224 230 232 238 244 247 248 249 255 258 260 262 269 273 280 287 293
Digitale Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Grundlagen der Sicherheit in Rechnernetzen . . . . . . . . . . . . . . . . . . . 5.1.1 Sicherheitsziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Kryptografische Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Vertraulichkeit und Verschl¨usselung . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Symmetrische Verschl¨usselungsverfahren . . . . . . . . . . . . . . . Exkurs 14: Einfache historische Verschl¨usselungsverfahren . . . . . . Exkurs 15: Data Encryption Standard (DES) und Advanced Encryption Standard (AES) . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Asymmetrische Verschl¨usselungsverfahren . . . . . . . . . . . . . . Exkurs 16: Das RSA Public-Key-Verfahren . . . . . . . . . . . . . . . . . . . 5.2.3 Authentifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Digitale Signaturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Datenintegrit¨at und Authentizit¨at . . . . . . . . . . . . . . . . . . . . . .
307 307 309 313 317 317 318
296 299
323 327 330 332 336 338
X
Inhaltsverzeichnis
5.3.2 Message Digest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 17: Kryptografische Hashfunktionen . . . . . . . . . . . . . . . . . . 5.4 Public Key Infrastrukturen und Zertifikate . . . . . . . . . . . . . . . . . . . . . 5.4.1 Zertifizierungsstelle (CA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Vertrauensmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
340 342 347 348 351 353
Epilog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
Personenregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 ¨ Abkurzungen und Akronyme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 Bildnachweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Kapitel 1
Prolog
Das Geist-Erschaffene ist lebendiger als die Materie.“ ” – Charles Baudelaire (1821–1867)
Das dritte Jahrtausend ist angebrochen und neue Formen der Kommunikation, wie z.B. das Internet sind in k¨ urzester Zeit zu einem festen Bestandteil des t¨ aglichen Lebens, unserer Kultur und der grundlegenden Infrastruktur der modernen Gesellschaft geworden. Das World Wide Web, im Alltag heute oft f¨ alschlicherweise mit dem Internet selbst identifiziert, versorgt uns mit Informationen und Diensten aller Art. Die neuesten Nachrichten, der aktuellste B¨ orsenbericht, wichtige Reiseinformationen und Flugbuchungen, Wissen aus allen nur denkbaren Bereichen ist nur noch einen Mausklick entfernt. Jedermann kann heute im eigenen Weblog weltweit publizieren, unterschiedlichste Dienste k¨ onnen ¨ uber das Internet in Anspruch genommen werden, Interessengruppen schließen sich in Diskussionsforen zusammen, um Informationen uber ihre gemeinsamen Themen auszutauschen, Wissenschaftler aller Fachgebiete ¨ treiben die Forschung mit Hilfe der elektronischen Kommunikation voran und wir k¨ onnen online Geschenke ordern und Geburtstagsgl¨ uckw¨ unsche an unsere Liebsten versenden. Dieses Kapitel ist dem ersten Band Digitaler Kommunikation“ unserer Trilogie Di” ” gitalen Kommunikation“, Internetworking“, Web-Technologien“ als Prolog voran” ” gestellt und bietet einen kurzen Abriss ¨ uber den alle Bereiche der Gesellschaft grundlegend ver¨ andernden Vormarsch entmaterialisierter, digitaler G¨ uter, die ihre Verbreitung ¨ uber neue digitale Kommunikationskan¨ ale nehmen, ohne die unsere moderne Zivilisation nicht mehr vorstellbar w¨ are.
¨ 1.1 Digitale Guter Die moderne Zivilisation ist ohne Computer, Mobiltelefone, Internet und World Wide Web (WWW) nicht mehr vorstellbar. Neue Maschinen zur Informationsverarbeitung in einer f¨ur den Menschen unvorstellbaren Geschwindigkeit, neue Kan¨ale des Informations- und Datenaustauschs haben ganz neue Perspektiven f¨ur die weitere C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 1,
1
2
1 Prolog
Entwicklung der menschlichen Gesellschaft er¨offnet. Die neuen Technologien haben es m¨oglich gemacht, die elementaren Grenzen von Raum und Zeit in einem Maße zu u¨ berwinden, wie es vormals ganz unm¨oglich erschien. Dabei sind nicht etwa physikalische Gesetze gebrochen worden, sondern der Mensch hat gelernt, mit vielen Dingen unseres Lebens in entmaterialisierter Form umzugehen. Entmaterialisiert in dem Sinn, das anstelle mit den Dingen selbst in vielen Zusammenh¨angen lediglich mit ihren digitalen Beschreibungen umgegangen wird, die aus Informationen kodiert in Form elektromagnetischer Signale bestehen und dabei mit Lichtgeschwindigkeit transportiert und bearbeitet werden k¨onnen. Die Generation unserer Kinder wuchs bereits in einer neuen Welt mit Computerspielen, SMS, E-Mail und anderen modernen Kommunikationstechnologien auf, und bringt den Segnungen der digitalen Welt“ ein ganz selbstverst¨andliches Grundvertrauen entgegen. Die ¨ ” aber begegnen dieser hochkomplexen Technologie oft mit kritischer Distanz Alteren und auch mit gewachsenem Misstrauen. Waren die ersten Computer in der Mitte des 20. Jahrhunderts gerade einmal in der Lage, einfache arithmetische Operationen durchzuf¨uhren, wobei Sie die Standfl¨ache einer Turnhalle in Anspruch nahmen, zur Berechnung oft mehrere Stunden Rechenzeit ben¨otigten, und Anschaffungskosten in Millionenh¨ohe voraussetzten, ist Rechenkapazit¨at heute dank des exponentiellen Wachstums der Rechenleistung und der im gleichen Maße fallenden Hardwarekosten nahezu unbegrenzt und extrem kosteng¨unstig verf¨ugbar. IT-Systeme sind heute pervasiv, d.h. allgegenw¨artig und fester Bestandteil unserer Umwelt. Autos, Flugzeuge, Fernseher und Haushaltsger¨ate sind alle softwaregetrieben und die Geschwindigkeit des Wandels von reinen (elektro-)mechanischen Konstruktionen hin zu immer intelligenteren“ computer” gesteuerten Konstruktionen ist atemberaubend. Die um sich greifende Digitalisierung von Informationen und Waren, die es erlaubt, Texte, Bilder, Videos, Reisetickets, Abonnements, Finanztransaktionen und andere Informationen ohne Qualit¨atsverlust und mit rasanter Geschwindigkeit zu erzeugen, anzuzeigen, zu bearbeiten, zu kopieren, zu u¨ bertragen und auszuf¨uhren, ist die Grundlage der neuen digitalen Welt und ihrer Handels- und Gesch¨aftsprozesse – der sogenannten Internet Economy (oder Net Economy) [135]. Aber auch die Gesch¨aftsprozesse im Umfeld klassischer Wirtschaftsg¨uter finden heute bereits zu weiten Teilen entmaterialisiert in der digitalen Welt statt: Electronic Business (E-Business), Electronic Commerce (E-Commerce) und Electronic Procurement (E-Procurement) sorgten in den vergangenen zwei Jahrzehnten f¨ur Euphorie und Goldgr¨aberstimmung“, die kurzzeitig nach der Jahrtausendwende durch das Plat” zen der sogenannten Dotcom-Blase etwas gebremst wurde, aber auch heute trotz aktueller Finanzkrise weiter anh¨alt (siehe Abb. 1.1). Kein Wunder, verheißt doch das elektronische, genauer das digitale Gesch¨aftsumfeld ungeahnte Potenziale. Angefangen mit der Optimierung von Wertsch¨opfungsketten, u¨ ber die Kostenreduktion im Gesch¨aftsverkehr, der Erschließung neuer M¨arkte, neuen Wegen der Produktgestaltung, bis hin zur Individualisierung des Marktes reichen die Versprechungen ¨ dieser neuen, digitalen Okonomie. Die um sich greifende Digitalisierung hat die Welt drastisch beschleunigt. Waren es zuerst Transportmittel und elektrische Kommunikationsmedien, die im 19. Jahrhun-
1.1 Digitale G¨uter
3
Begriffserkl¨ arungen E-Business: Als Electronic Business werden alle Aktivit¨ aten zur Unterst¨ utzung von Gesch¨ aftsprozessen und Beziehungen zu Gesch¨ aftspartnern (Business-to-Business, B2B) oder von Mitarbeiter und Kunden (Business-to-Customer, B2C) eines Unternehmens bezeichnet, die mit Hilfe digitaler Medien abgewickelt werden. E-Commerce: Als Electronic Commerce wird derjenige Teil des Electronic Business bezeichnet, der auf Vereinbarung und Abwicklung rechtsverbindlicher Gesch¨ aftstransaktionen zwischen Gesch¨ aftspartnern (B2B) und Kunden (B2C, C2C) beruht. E-Commerce umfasst dabei u ¨blicherweise die drei Transaktionsphasen Information, Vereinbarung und Abwicklung. E-Procurement: Als Electronic Procurement werden alle Aktivit¨ aten bezeichnet, die im direkten Umfeld und zur Unterst¨ utzung von Beschaffungsvorg¨ angen (Einkauf) mit Gesch¨ aftspartnern und Lieferanten (B2B) stattfinden und Bestandteil des Electronic Business sind.
E-Procurement
Unternehmen
E-Commerce
Internet
Intranet
Internet
Geschäftspartner Lieferanten
Mitarbeiter
(B2B)
Kunden (B2B, B2C, C2C)
Weiterf¨ uhrende Literatur: T. Kollmann: E-Business – Grundlagen elektronischer Gesch¨ aftsprozesse in der Net Economy, 3., u ¨berarb. und erw. Aufl., Gabler, Wiesbaden (2009)
Abb. 1.1 E-Business – Gesch¨aftsprozesse und Beziehungen
dert im Zuge der industriellen Revolution die Ausdehnung unserer Welt schrumpfen ließ und die Entfernungen r¨aumlich wie zeitlich zu verk¨urzen begannen, sorgt die Digitalisierung heute f¨ur nahezu verzugslose Kommunikationsm¨oglichkeiten rund um den Globus und ist damit Schrittmacher und Taktgeber der allgemeinen Globalisierung und des weltweiten elektronischen Handels. Tats¨achlich k¨onnen im elektronischen Handel auf vielf¨altige Art und Weise Geld verdient werden: Einerseits unterst¨utzt er traditionelle Warengesch¨afte (Verkauf von Produktionsg¨utern), indem Gesch¨afts- und Kundenbeziehungen auf elektronischem Wege angebahnt werden
4
1 Prolog
(Offline Transaktionen). Andererseits findet aber bereits ein signifikanter Anteil der Warengesch¨afte (Verkauf von Produkten und Informationen) bereits direkt online im Internet statt (Online Transaktionen) und tr¨agt so zum wirtschaftlichen Gesamterl¨os bei. Nat¨urlich r¨ucken dabei immaterielle G¨uter immer mehr in den Fokus. So erwirtschaftet etwa der Suchmaschinenbetreiber Google1 als Musterbeispiel“ ei” nes global agierenden Großunternehmens der Net Economy das Gros seiner Erl¨ose direkt aus der Vermarktung immaterieller G¨uter. Generell bietet der elektronische Handel vielf¨altige Kostenvorteile f¨ur die Unternehmen: Transaktionskosten, d.h. Kosten, die im Zusammenhang mit einer Gesch¨aftstransaktion stehen, lassen sich um Gr¨oßenordnungen senken, da elektronische Vermarktung Einsparpotenziale und h¨ohere Markteffizienz verspricht. Selbst die im Vorfeld der gesch¨aftlichen Transaktion anfallenden Transaktionsanbahnungskosten k¨onnen durch die damit verbundene Beschaffung notwendiger Informationen aus dem WWW drastisch gesenkt werden. Transaktionsanbahnungskosten z¨ahlen zu den Kommunikationskosten, die ebenfalls Kundenunterst¨utzung (Customer-Support) oder Produktinformationen umfassen, die sich ebenfalls durch die Nutzung digitaler Medien reduzieren lassen. Neben sinkenden Kosten kommt es zu einer kolossalen Zeitersparnis durch die Beschleunigung der einzelnen Gesch¨aftsprozesse [208]. Die stetige Weiterentwicklung der Informationstechnik und die damit verbundene wachsende Bedeutung innovativer Informationstechnologien haben zu einem gesellschaftlichen Strukturwandel gef¨uhrt. Das Informationszeitalter und die mit ihm verbundene Informationswirtschaft geleiten uns in eine Informationsgesellschaft, in der insbesondere der Begriff der Virtualit¨at“ eine besondere Stellung einnimmt. ” Virtuell“ im Gegensatz zu gegenst¨andlich“ bezeichnet dabei etwas real nicht ” ” Vorhandenes, etwas Scheinbares. Der Brockhaus definiert virtuell“ als der Anlage ” ” ¨ nach als M¨oglichkeit vorhanden; nicht wirklich, aber echt erscheinend“ [30]. Uber der realen Ebene mit ihren physikalisch vorhandenen Produkten und Dienstleistungen entsteht eine digitale Ebene mit virtuellen Handelsbeziehungen und Produkten, die ausschließlich aus digitalen Informationsinhalten bestehen, die sogenannten di¨ gitalen Guter. Hinter dem Begriff der digitalen G¨uter verbergen sich immaterielle ” Mittel zur Bed¨urfnisbefriedigung, die sich mit Hilfe von Informationssystemen entwickeln, vertreiben und anwenden lassen. Digitale G¨uter k¨onnen mit Hilfe elektronischer Medien (wie z.B. dem Internet oder Mobilfunknetzen) u¨ bertragen und mit Hilfe von Informationssystemen dargestellt und angewendet werden“ [224]. Zu den digitalen G¨utern z¨ahlen zu allererst (auch historisch) jegliche Form der Software und alle digitalisierten Medien, wie z.B. Musik, Filme, B¨ucher, Zeitungen. Inzwischen aber auch Tickets und Reservierungen, Geldkarten, Kreditkarten, Aktien, Formulare, Antr¨age, Vertr¨age, Briefe, Akten, SMS oder Telefonate. Vergleicht man Marktmodelle der Net-Economy, in der digitale G¨uter eine entscheidende Rolle spielen, mit traditionellen Marktmodellen, fallen sehr schnell signifikante Unterschiede ins Auge. Das Duplizieren und Vervielf¨altigen digitaler G¨uter ist mit verschwindend niedrigeren Kosten anzusetzen, als die Produktion materieller G¨uter. Eine digitale Kopie, vertrieben u¨ ber digitale Informationskan¨ale, verursacht 1
http://www.google.com/
1.1 Digitale G¨uter
5
so gut wie keine Kosten. W¨ahrend ein traditionelles, materielles Produkt mit der Zeit durch den Gebrauch an Wert verliert, unterliegen digitale G¨uter keinen Verschleißerscheinungen und k¨onnen sogar noch mit ihrer Nutzung an Wert gewinnen. Ein materielles Gut verliert an Wert, wenn man es teilt. Ein digitales Gut dagegen unterliegt bei seiner Teilung (Vervielf¨altigung und Weitergabe an Dritte) keinem Wertverlust. Im Gegenteil gewinnt es an Wert f¨ur den individuellen Benutzer, je mehr Benutzer sich ein digitales Gut teilen. Popul¨ares (historisches) Beispiel ist der K¨aufer des allerersten Fax-Ger¨ates bzw. E-Mail-Systems. Da niemand diese Technologie mit ihm teilte, konnte er daraus nur wenig Mehrwert sch¨opfen. Der Wert der Technologie f¨ur ihren Benutzer steigt, je mehr Benutzer die Technologie verwenden und am Fax- bw. E-Mail-Dienst teilnehmen, einfach weil die Zahl der potenziellen Kommunikationspartner steigt. Dieser Effekt wird auch als Netzwerkeffekt bezeichnet. Je mehr Anwender ein Softwaresystem benutzen, desto gr¨oßer sind die M¨oglichkeiten, Informationen und Erfahrungen dar¨uber auszutauschen, ganz zu schweigen von den fallenden Anschaffungskosten. Jedes Softwaresystem gewinnt daher an Attraktivit¨at, je mehr Benutzer dieses verwenden. Digitale G¨uter sind immaterielle G¨uter. Logistik und Distribution k¨onnen u¨ ber digitale heute meist elektronische Informationskan¨ale nahezu kostenfrei erfolgen. Materielle G¨uter ben¨otigen dagegen eine spezifische und meist kostenintensive Distributions-Infrastruktur. Betrachtet man den Wert, den ein Gut repr¨asentiert, l¨asst sich dieser bei materiellen G¨utern auch ohne Ber¨ucksichtigung des Produktionsprozesses leicht bestimmen und daraus ein Preis ermitteln. Immaterielle, digitale G¨uter m¨ussen anhand des Aufwands f¨ur ihren Herstellungsprozess beurteilt werden. F¨ur sich alleine betrachtet, erh¨alt ein digitales Gut seinen Wert durch den Nutzen, den es f¨ur seinen Eigent¨umer darstellt. Ber¨ucksichtigt man, dass keine Kosten f¨ur Vervielf¨altigung und Distribution anfallen, sinkt der Preis des digitalen Gutes stetig mit steigender Verbreitung (siehe Tabelle 1.1). Die Differenz zwischen Entwicklungskosten (Fixkosten) und Vervielf¨altigungskosten (variable Kosten) f¨ur digitale G¨uter ist enorm. In der Produktionsplanung f¨ur traditionelle, materielle G¨uter ergibt sich bei der Ermittlung der St¨uckkosten u¨ blicherweise eine parabel¨ahnliche Kurve: Mit steigender Produktion f¨allt der St¨uckpreis bis zu einem Minimum und steigt bei fortlaufender Steigerung der Produktionszahlen wieder an, da zu diesem Zweck neue Produktionskapazit¨aten geschaffen werden m¨ussen. Bei digitale Produkten dagegen sinken die St¨uckkosten stetig mich wachsender Zahl an hergestellten (vervielf¨altigten) Produkten (siehe Abb 1.2). Diese M¨oglichkeit der nahezu kostenlosen und unverz¨uglichen Vervielf¨altigung machen aus dem digitalen Gut ein Massengut. Nicht umsonst wird deshalb zur Zeit ein nennenswerter Teil der Entwicklungskosten eines digitalen Gutes in Mechanismen zur Gew¨ahrleistung eines Kopierschutzes investiert. Es existieren unterschiedlichste Modelle des Digital Rights Management“. Digitale G¨uter sollen an einen ” einzelnen Benutzer oder ein bestimmtes digitales Ger¨at gebunden werden, um so eine unzul¨assige Weitergabe und Vervielf¨altigung zu unterbinden. Dabei besteht ein st¨andiger Wettstreit zwischen der Industrie, die einen m¨oglichst sicheren Kopierschutz entwickeln m¨ochte, und den Hackern“ (Crackern), die versuchen, die ak” tuellen Sicherungsmaßnahmen zu umgehen und aufzubrechen. Wurde ein Kopier-
6
1 Prolog
Tabelle 1.1 Eigenschaften materieller und digitaler G¨uter im Vergleich Materielle G¨ uter
Digitale G¨ uter
Hohe Vervielf¨ altigungskosten
Niedrigere Vervielf¨ altigungskosten
Wertverlust durch Gebrauch
Wertgewinn durch Gebrauch
Individueller Besitz
Vielfacher Besitz m¨ oglich
Wertverlust durch Teilung
Wertgewinn durch Teilung
Identifikations- und Schutzm¨ oglichkeiten
Probleme des Datenschutzes und der Datensicherheit einfache Verbreitung
Schwierige Verbreitung (Logistik und Distribution) Wert / Preis leicht identifizierbar
Wert / Preis nur subjektiv bestimmbar
Kosten leicht identifizierbar
Kosten nur schwer identifizierbar
Preisbildungsmechanismus bekannt
Preisbildungsmechanismus weitgehend unbekannt Bestandsbewertung problematisch
Bestandsbewertung m¨ oglich
Materielle Produkte
Theorien und Modelle kaum vorhanden
Stückkosten
Stückkosten
Wirtschaftswissenschaftliche Theorien und Modelle eingef¨ uhrt und verf¨ ugbar
Digitale Produkte
min Optimale Anzahl
Anzahl
Anzahl
Abb. 1.2 Produktionskosten f¨ur materielle und digitale Produkte im Vergleich
schutz erst einmal gebrochen, setzt ein rasanter Prozess ein, der darin m¨undet, dass das zuvor gesch¨utzte, digitale Gut tats¨achlich eine massenhafte, illegale Verbreitung findet. Ein typisches Beispiel daf¨ur ist die Musikindustrie, die dieses Ph¨anomen f¨ur ihre Umsatzeinbußen in den vergangenen Jahren verantwortlich macht. Seit der Einf¨uhrung der Compact Disc (CD) vor fast 30 Jahren wird Musik fast ausschließlich nur noch in digitaler Form vertrieben. Nachdem die ersten CD-Aufnahmeger¨ate f¨ur den Heimanwender in den 90er Jahren zu erschwinglichen Preisen verf¨ugbar waren, setzte eine bis heute anhaltende Welle des illegalen Kopierens und Vervielf¨altigens ein, die sich durch das Aufkommen moderner Audiokompressionsverfahren und schneller Internetverbindungen virulent verst¨arkt hat.
1.1 Digitale G¨uter
7
Digitale G¨uter werden auf digitalen Datentr¨agern gespeichert und aufbewahrt oder werden u¨ ber das Internet verf¨ugbar gemacht. Zu ihrer Weiterverarbeitung und Darstellung sind elektronische Ger¨ate notwendig, deren Kernst¨uck u¨ blicherweise ein Computer ist, auch wenn dieser heute nicht immer als solcher zu erkennen ist. Betrachten wir zun¨achst das digitale Gut Software. Software im Sinne von Anwendungsprogrammen kann nur nutzbringend eingesetzt werden, wenn diese auf einem Computer zur Ausf¨uhrung gelangt. Anwendungsprogramme veranlassen den Computer zur Ausf¨uhrung vorab definierter Funktionen. Die Spannbreite reicht dabei vom Betriebssystem als Basissoftware jedes Computers bis hin zu Computerspielen, Textverarbeitung oder E-Mail. Oft bietet Software heute aber auch nur“ reine ” Informationssammlungen zur Eingabe in ein Anwendungsprogramm. Die Routenplaner auf dem Navigationsger¨at nutzen geographische Daten und Straßennetzkarten zur Berechnung des k¨urzesten Weges zwischen vorab festgelegten Endpunkten. Da sich Straßenverl¨aufe ver¨andern, werden periodisch neue Straßendaten ben¨otigt, um jederzeit eine zielsichere Navigation zu gew¨ahrleisten. Digitale Texte haben schon seit geraumer Zeit ihren festen Platz in unserem Alltag erobert. Zwar gelang es dem neuen Medium Internet“ bislang nicht, traditionel” le Printmedien vollst¨andig zu verdr¨angen, dennoch sicherte sich auch die Verlagsund Zeitungsbranche ihre digitalen Marktpl¨atze. Jede renommierte Tageszeitung unterh¨alt ein mehr oder weniger ausf¨uhrliches digitales Pendant zu ihrer Printausgabe, die uns stets aktuell und verzugslos mit den neuesten Nachrichten versorgt. E-Mail, Instant Messaging und Weblogs sind zum festen Bestandteil unseres textbasierten, elektronischen Kommunikationskanons geworden. Die digitale Textflut, der wir Tag f¨ur Tag ausgesetzt sind, hat die traditionellen Formen der Publikation vom umgesetzten Informationsvolumen her betrachtet l¨angst u¨ berfl¨ugelt. Selbst Unterhaltungsliteratur kann heute komfortabel auf sogenannten eBooks“, mit elek” tronischen Texten beladbare, buch¨ahnliche elektronische Ger¨ate im Taschenformat mit innovativer und bequem zu lesender Anzeigetechnik, unabh¨angig von Zeitpunkt und Ort u¨ berall gelesen werden. Digitale Musikaufzeichnungs- und -wiedergabetechnologie verdr¨angte bereits in den fr¨uhen 80er Jahren die etablierten Medien (Vinyl-)Schallplatte und Magnetband. Neuartige Kodierungs- und Komprimierungstechnologien schrumpfen das di¨ gitale Audiodatenvolumen auf ein Maß herab, dass eine Ubertragung dieser digitalen Daten im Internet m¨oglich und rentabel wird. In Massen vervielf¨altigt und u¨ ber (anfangs illegale) Tauschb¨orsen verbreitet sah (sieht sich) die Musikindustrie einer ernst zu nehmenden Bedrohung ausgesetzt. Die Wiedergabeger¨ate dieser komprimierten digitalen Audiodaten wurden selbst klein genug, um zu einem st¨andigen Begleiter im Alltag und sogar beim Sport zu werden. Dem traditionellen Rundfunk erw¨achst neue Konkurrenz in Form von Internet-Radios, die ihren H¨orern eine weitaus individuellere Gestaltung des konsumierten Programms gestatten. Digitalisierung und Komprimierung erfasste auch Film und Fernsehen. Unkomprimierte, digitale Videodaten erfordern immense Speicherkapazit¨aten und verhinderten anfangs eine Weitergabe von urheberrechtlich gesch¨utzten Material auf elektronischem Wege. Doch moderne Videokompressionstechnologien erm¨oglichen auch den verzugslosen und rentablen Austausch von Bewegtbildern u¨ ber das Medium In-
8
1 Prolog
ternet. Verfahren der Videokomprimierung erfordern einen hohen Aufwand an Berechnungskapazit¨at, die nur durch die st¨andige Weiterentwicklung der Computerhardware m¨oglich wurde. Digitales Fernsehen, Internet-TV und Video-on-Demand sorgen f¨ur eine wachsende Popularit¨at der elektronischen Datenverbindungen. Konventionelle, analoge Aufzeichnungs- und Distributionsverfahren werden durch moderne, digitale Aufzeichnung und den Vertrieb u¨ ber elektronische Kommunikationsmedien mehr und mehr ersetzt. Computerhardware wird best¨andig leistungsf¨ahiger bei einem gleichzeitig zu beobachtenden Preisverfall. Besaß noch vor 30 Jahren eine Universit¨at oder ein Großbetrieb gerade einmal einen Computer, dessen Speicherkapazit¨at und Rechenleistung heute bereits von einfachen Mobiltelefonen weit u¨ bertroffen wird, schreitet die Miniaturisierung weiter voran. Aus dem teuren wissenschaftlichen Instrument Com” puter“ ist ein billiges Massenprodukt geworden. Informationsverarbeitung ist heute popul¨arer als jemals zuvor. Mit erstaunlicher Pr¨azision trifft auch heute noch das nach Gordon Moore benannte Mooresche Gesetz (Moore’s Law) zu, das besagt, dass sich die Anzahl der auf einem Mikrochip integrierbaren elektronischen Schaltelemente alle 18 bis 24 Monate verdoppelt [165]. Popul¨ar ausgedr¨uckt, verdoppelt sich die Leistungsf¨ahigkeit von Mikroprozessoren damit etwa alle 18 Monate bei gleichzeitiger Verkleinerung und Preisverfall – und das bereits seit fast 40 Jahren. Dieser Trend scheint sich zwar langsam abzuschw¨achen, wird aber bestimmt noch 10 bis 15 Jahre anhalten. Die immense Verbreitung, die digitale G¨uter in unserer modernen Welt heute gefunden haben, liegt in ihrer immateriellen Natur und der M¨oglichkeit begr¨undet, sie nahezu unbeschr¨ankt, kostenfrei und verzugslos zu vervielf¨altigen. Aber ohne ein geeignetes elektronisches Transportmedium, das diese G¨uter von einer physikalischen Existenz außerhalb des Computers entbindet, h¨atte diese Verbreitung niemals so rasch erfolgen k¨onnen. Internet und World Wide Web sind hier zum Inbegriff der modernen, digitalen Kommunikationstechnik geworden. Nahezu alle traditionellen, analogen Medien, wie z.B. Post, Telefon, Zeitung, Rundfunk oder Fernsehen treten dort in modernen Varianten (E-Mail, Voice-over-IP, News, Internet-Radio, InternetTV, etc.) ihr digitales Erbe an. Die digitale Kommunikationstechnik hat u¨ ber die Jahre hinweg gewaltige Fortschritte gemacht und verzeichnet stetig h¨ohere Datenu¨ bertragungsraten und -volumina. Besonders wichtig ist die M¨oglichkeit des unmittelbaren Zugangs zu pers¨onlicher, digitaler Information mit Hilfe der drahtlosen Kommunikation. Mobilfunknetze der dritten Generation und WLAN-Netze gelten heute bereits als Standard, neue Technologien, wie z.B. Ultra Wide Band (UWB) und ZigBee stehen in den Startl¨ochern und versprechen noch h¨ohere Daten¨ubertragungsraten bei gleichzeitig fortschreitender Miniaturisierung der ben¨otigten Endger¨ate.
1.2 Digitale Kommunikation und ihre Grundlagen Wir sind Zeugen des Beginns eines neuen Zeitalters, das durch die zentrale Stellung digitalen G¨uter und Ihrer Bedeutung f¨ur Wirtschaft, Wissenschaft und Gesell-
1.2 Digitale Kommunikation und ihre Grundlagen
9
schaft gekennzeichnet ist. Information in jeder nur denkbaren Auspr¨agungsform, ob in Wort, Bild oder Ton dargestellt, ist heute u¨ berall und jederzeit unabh¨angig von Zeit und Raum u¨ ber digitale Distributionskan¨ale verf¨ugbar. Dabei spielen Internet und WWW eine zentrale Rolle. Ohne sie k¨onnten digitale G¨uter ihre omnipotente Bedeutung gar nicht entfalten. Deshalb spielt die digitale Kommunikation auf dem Weg in dieses neue Zeitalter eine klassische Doppelrolle. Einerseits ist sie Triebkraft und Katalysator f¨ur eine Vielzahl von Ver¨anderungen, die wir derzeit erleben und die uns noch bevorstehen. Andererseits hilft sie uns aber auch dabei, uns in dieser neuen Epoche zurechtzufinden, die durch extreme Beschleunigung, Flexibilisierung und Dynamisierung gekennzeichnet ist, und hilft uns, diese als Chance zu begreifen und zu nutzen. Ein weltumspannender Zusammenschluss der verschiedenartigsten Computer-Netzwerke, Firmennetze, Wissenschaftsnetze, milit¨arische Netze, Netze kommunaler oder u¨ berregionaler Betreiber basierend auf den unterschiedlichsten Tr¨agermedien, wie z.B. Kupferkabel, Glasfasern oder Funkwellen, und Netzwerktechnologien: sie alle zusammen sind Bestandteil dessen, was wir heute als das Internet“ be” zeichnen, die Infrastruktur unserer virtuell vernetzten Welt. Nur drei Jahrzehnte hat es gedauert, bis aus einem nur vier Rechner umfassenden Versuchsnetz im Jahr der Mondlandung 1969 ein hunderte von Millionen Rechnern umfassendes Geflecht aus vielen verschiedenen Netzwerken und Computern entstehen konnte, das uns Dank der dahinter verborgenen Internet-Technologien wie ein einziges weltumspannendes Netzwerk erscheint. Die als Internetworking bezeichnete Technologie ist in der Lage, mit einem festen Regelwerk von Kommunikationsprotokollen, den sogenannten Internetprotokollen, u¨ ber eine Vielzahl unterschiedlicher und an sich nicht kompatibler Netzwerke hinweg grenzenlose digitale Kommunikation zu erm¨oglichen. Internet-Technologie ist in der Lage, Details der verwendeten physikalischen Netz-Hardware vollst¨andig zu verbergen, so dass die angeschlossenen Rechner unabh¨angig von ihrer jeweiligen physikalischen Anbindung an das Internet miteinander kommunizieren k¨onnen. Einer der Gr¨unde, die zu der immensen Verbreitung des Internets gef¨uhrt hat, ist dessen offene Systemarchitektur. Offen, da alle notwendigen Internet-Spezifika˙tionen im Gegensatz zu denen der propriet¨aren Netze bestimmter Anbieterfirmen o¨ ffentlich verf¨ugbar und f¨ur jeden zug¨anglich sind. Das gesamte Design der Internet-Kommunikationsprotokolle ist daraufhin ausgelegt, die unterschiedlichsten Computer und Netzwerke miteinander zu vernetzen, unabh¨angig von den von ihnen genutzten unterschiedlichen Betriebssystemen und Anwendungsprogrammen. Um die M¨oglichkeiten der digitalen Kommunikation ausloten zu k¨onnen, muss man ihre Grundlagen und ihre Funktionsweise verstehen. Betrachten wir zun¨achst die Kommunikation und den mit ihr verbundenen Kommunikationsprozess an sich, bevor wir n¨aher auf ihre digitale Form n¨aher eingehen. Kommunikation bezeichnet den Vorgang eines wechselseitigen Austauschs von Information zwischen zwei oder mehreren Kommunikationspartnern. Beteiligte Kommunikationspartner k¨onnen dabei sowohl Menschen als auch technische Systeme sein. Die Kommunikationspartner kodieren die auszutauschende Information in Form einer Nachricht. In unserer Alltagskommunikation formuliert ein Mensch zum Beispiel aus einem Gedanken
10
1 Prolog
¨ eine lautsprachliche Außerung, die bestimmten Regeln einer gemeinsamen Syntax und Semantik gehorchen muss, damit der Kommunikationspartner die Nachricht verstehen“, also aus den akustischen Signalen den inhaltlichen Gedanken rekon” struieren kann. Bei unserer Betrachtung der digitalen Kommunikation werden wir einen Bogen spannen angefangen von der (digitalen) Kodierung der Information bis hin zur technischen Ebene des (digitalen) Kommunikationskanals. Unterschiedliche wissenschaftliche Disziplinen tragen dazu ihren Teil bei: Die eigentlich zu u¨ bermittelnde Information liegt meist in analoger Form vor. Daher muss zun¨achst eine Analog-Digital-Wandlung (AD-Wandlung) dieser Information vorgenommen werden, bei der Methoden aus der Physik, der Mathematik und der Informatik zum Einsatz kommen. Danach geht es um eine effiziente Kodierung der digitalen Daten, die sich sowohl an den Eigenheiten der medialen Daten als auch an der Beschaffenheit des Kommunikationskanals orientiert. Die zu u¨ bermittelnden Nachrichten m¨ussen dabei nach einer festgelegten Syntax konstruiert sein, die die jeweiligen Kommunikationsprotokolle vorgeben. Unter der Syntax einer Sprache versteht man das Regelwerk, das entscheidet, ob eine Folge von Zeichen korrekte W¨orter und S¨atze einer Sprache bilden. Die Syntax wird dabei entweder mit einer vollst¨andigen Aufz¨ahlung aller g¨ultigen W¨orter und S¨atze spezifiziert oder mit einer Mischung generativer Regeln, der sogenannten Grammatik, oder einer Mischform aus beiden [40]. Aufbauend auf der Syntax legt dann die Semantik (Bedeutungslehre) die inhaltliche Bedeutung der mit Hilfe der Syntax korrekt konstruierten W¨orter und S¨atze fest. Die Regeln der Semantik bestimmen dabei, wie sich aus der Bedeutung einfacher Zeichen(ketten) die Bedeutung komplexer, zusammengesetzter Zeichen¨ ketten ableiten l¨asst. Uber die Semantik hinaus legt die Sprachwissenschaft noch einen pragmatischen Aspekt der Sprache fest (Pragmatik), der sich auf die Bedeutung eines Zeichens oder einer Zeichenkette im Rahmen eines bestimmten Kontexts und eines Handlungszusammenhangs bezieht. Dabei ist die Grenze zwischen Semantik und Pragmatik fließend. Im weiteren Verlauf werden daher Semantik und Pragmatik stets gemeinsam behandelt. Die Nachricht wird vom Sender zum Empf¨anger u¨ ber einen Kommunikationskanal u¨ bertragen. Der Kommunikationskanal fungiert dabei als Tr¨ager der zu u¨ bermittelnden Nachricht. In seiner jeweils konkreten Auspr¨agung – im Falle der laut¨ sprachlichen Außerung ist dies die Luft zwischen den beiden Kommunikationspartnern, u¨ ber die die Sprache in Form von Schallwellen vom Sender zum Empf¨anger u¨ bertragen wird – spricht man von einem Kommunikationsmedium. Erreicht die Nachricht den Empf¨anger u¨ ber den Kommunikationskanal, muss der Empf¨anger die Nachricht dekodieren, um an die darin kodierte Information zu gelangen. Die Schallwellen erreichen das Ohr des Empf¨angers und werden von dessen Wahrneh¨ mungssystem als lautsprachliche Außerungen des Kommunikationspartners erkannt und gem¨aß den Regeln von Syntax und Semantik interpretiert. War die Interpretation erfolgreich, hat der Empf¨anger die Nachricht verstanden. Abb. 1.4 zeigt eine schematische Darstellung dieses Kommunikationsvorgangs, dem das informationstheoretische Sender-Empf¨anger-Modell der mathematischen Theorie der Kommunikation (Informationstheorie) zugrundeliegt, die 1949 von Claude E. Shannon
1.2 Digitale Kommunikation und ihre Grundlagen
11
¨ (1916–2001) zu dem Zweck entwickelt wurde, die technische Ubertragung von Signalen zu verbessern [212, 214].
Sender
Empfänger
Nachricht
Nachricht
Kommunikationskanal
Kodierung
Dekodierung
Information
f rmation Info
Abb. 1.3 Modell der Kommunikation aus Sicht der Informationstheorie
Wie eine Nachricht allerdings von einem Empf¨anger interpretiert wird, ist vom Kontext der Nachricht abh¨angig. Eine sprachliche Nachricht in einem Gespr¨ach wird zus¨atzlich von nonverbaler Information, wie z.B. Mimik, Gestik und K¨orperhaltung des Sprechers begleitet. Der Sprecher kann fl¨ustern, stottern oder schreien, er kann seinem Gegen¨uber dabei in die Augen schauen oder w¨ahrend des Sprechvorgangs err¨oten. Gem¨aß dem Psychologen Friedemann Schulz von Thun wird jedes pers¨onliche Gespr¨ach zus¨atzlich zur sprachlich u¨ bermittelten Sachinformation begleitet von einer Selbstoffenbarung des Sprechers, einen Hinweis auf die Beziehung zwischen den Gespr¨achspartnern und einem Appell an den Empf¨anger der Nachricht [236]. Digitale Kommunikation bewegt sich im Schnittfeld zwischen Kommunikationswissenschaften und Informatik. Sie ist dadurch gekennzeichnet, dass die Kommunikation durch den Austausch von Signalfolgen erfolgt, die aus lediglich zwei verschiedenen Grundsignalen, typischerweise symbolisiert durch 0 und 1, aufgebaut sind. Digitale Kommunikation ben¨otigt f¨ur den Kommunikationsvorgang lediglich einen digitalen Kommunikationskanal, u¨ ber den Folgen dieser beiden Grundsignale ¨ u¨ bertragen werden k¨onnen, wie z.B. das Internet. Informationen werden zur Ubertragung u¨ ber den digitalen Kommunikationskanal von ihrer urspr¨unglichen analogen Auspr¨agung in ein digitales Nachrichtenformat u¨ bersetzt (kodiert). Je nach Medienauspr¨agung (Text, Bild, Ton, Video, etc.) kommen dabei unterschiedliche spe-
12
1 Prolog
zialisierte Kodierungsverfahren und Mediendatenformate zum Einsatz. Abh¨angig vom eingesetzten Kommunikationskanal kommen spezielle Kommunikationsprotokolle zum Einsatz, die die zul¨assigen Formate der kommunizierten Inhalte und den Ablauf der Kommunikation steuern. Den meisten Benutzern des Internet ist u¨ berhaupt nicht klar, welche technologische Herausforderung zu meistern ist, um z.B. eine simple E-Mail per Mausklick ans andere Ende der Welt zu bef¨ordern, und welche Anwendungsprogramme dazu n¨otig sind – hier der so genannte E-Mail-Client, der dem Benutzer als das E-Mail-Programm“ auf seinem eigenen Rechner erscheint, ” die vielf¨altigen Zwischensysteme die den Weg der E-Mail hin zum Empf¨anger steuern und dort der E-Mail-Server, der meist auf einem entfernten Rechner installiert verantwortlich ist f¨ur die korrekte Verteilung und Zustellung der ein- und ausgehenden E-Mail-Nachrichten. Damit sich die verschiedenen Zwischensysteme und E-Mail-Server verstehen, benutzen sie ein gemeinsames Kommunikationsprotokoll, also einen standardisierten Satz von syntaktischen und semantischen Regeln und Mechanismen zur wechselseitigen Kommunikation, nach dem sich alle Kommunikationspartner und die beteiligten Systeme zu richten haben. Protokolle beschreiben detailliert Nachrichtenformate und definieren, wie sich ein Rechner bei Eingang einer Nachricht oder im Falle eines aufgetretenen Fehlers zu verhalten hat. Die digitale Kommunikation o¨ ffnet uns das Tor in die neuen, virtuellen“ Welten. ” Virtualit¨at bezeichnet hier den Gegensatz zur Materialit¨at der nichtdigitalen Welt, Grenzen in Raum und Zeit spielen keine bestimmende Rolle mehr. Diese Form der Kommunikation existiert ausschließlich aufgrund eines Zusammenschluss von Datenstr¨omen in digitalen Kommunikationskan¨alen. Die Virtualit¨at erm¨oglicht eine Entkopplung der Kommunikation von Zeit und Raum, d.h. die digitale Kommunikation ist nicht mehr wie die physische Kommunikation an einen bestimmten Ort gebunden und kann jederzeit auch zwischen r¨aumlich entfernten Kommunikationspartnern stattfinden. Digitale Kommunikation ist ubiquit¨ar“, d.h. allgegenw¨artig ” m¨oglich. Die Kommunikation mit anderen Menschen ist nicht mehr eine Frage der r¨aumlichen Distanz, sondern lediglich eine Frage der Ausgestaltung der virtuellen Kommunikationsm¨oglichkeiten. Virtuelle Kommunikationsm¨oglichkeiten sind heute kaum einer Beschr¨ankung unterworfen. F¨ur eine Vielzahl unterschiedlichster Medientypen, wie z.B. Text, Bild, Audio oder Video stehen unterschiedliche Mediendatenformate zur Verf¨ugung. Diese Vielfalt an Medientypen l¨asst das digitale Netzwerk zu einem Multimedium“ ” werden, dessen mediale Auspr¨agungsformen daher auch als Multimedia bezeichnet werden. Gegen¨uber den traditionellen eindimensionalen“ Medien gelingt es ” durch die simultane Nutzung sich erg¨anzender Medienbausteine komplexe Inhalte effizienter und leichter verst¨andlich darzustellen und zu vermitteln. Die durch den Einsatz von Multimediatechnologie erzielte Kommunikationswirkung ist dadurch eine h¨ohere, und resultiert in einer generellen Verbesserung der Informations¨ubermittlung. Obwohl virtuell und immateriell wird der Informationsaustausch auf eine anschaulichere, intuitiv leichter erfassbare Ebene transformiert, die virtuellen Kommunikationsbeziehung k¨onnen so mindestens so intensiv sein, wie die traditionellen, an den Kontext von Raum und Zeit gebundenen.
1.3 Wegweiser durch die digitale Kommunikation
13
Zeit Ort
gleich
verschieden vorhersehbar
verschieden nicht vorhersehbar
gleich verschieden vorhersehbar
überall / jederzeit
verschieden nicht vorhersehbar
Abb. 1.4 Virtuelle Kommunikation
Allerdings reißt diese neue digitale Kommunikation auch eine Kluft auf zwischen den Menschen. Die Verheißungen der potenziellen Verbundenheit u¨ ber die Grenzen von Raum und Zeit hinweg erf¨ullt sich nur f¨ur diejenigen, die finanziell und aufgrund ihrer Vorbildung in der Lage sind, sich an der neuen Informations- und Kommunikationskultur zu beteiligen. Zwischen Arm und Reich z.B. kann sich so eine digitale Kluft“ (Digital Divide, auch Digital Gap) aufspannen, die die Menschen ” trennt in diejenigen, die keinen Zugang zum Netz besitzen und diejenigen, die selbst Teil des Netzes sind. Die Chancen eines Netzzugangs sind weltweit ungleich verteilt und stark von sozialen Faktoren abh¨angig. Diese Chancenunterschiede verst¨arken ihrerseits gesellschaftliche Entwicklungen, d.h. wer Zugang zu modernen Kommunikationstechniken hat, hat bessere soziale und wirtschaftliche Entwicklungschancen. Die digitale Kluft besteht sowohl innerhalb unserer Gesellschaft, in dem Sinne, dass Wohlhabende mehr M¨oglichkeiten als Arme besitzen bzw. junge Menschen das Internet h¨aufiger nutzen als Alte, als auch auf internationaler Ebene, d.h. Industriel¨ander besitzen im Gegensatz zu den Entwicklungsl¨andern bessere M¨oglichkeiten. ¨ Zur Uberbr¨ uckung dieses Grabens sind zahlreiche Initiativen auf den Plan getreten (z.B. Bridging the digital divide2“, One Laptop per Child3“) [47, 211]. In diesem ” ” Buch wird die digitale Kluft nicht weiter thematisiert, vielmehr wird die optimistische Sichtweise vertreten, dass sich diese Kluft erfolgreich u¨ berbr¨ucken l¨asst.
1.3 Wegweiser durch die digitale Kommunikation Um die M¨oglichkeiten der im vorliegenden Buch thematisierten digitalen Kommunikation auszuloten, gilt es als erstes, ihre Grundlagen und ihre Funktionsweise zu 2 3
http://www.digitaldivide.net/ http://www.laptop.org/
14
1 Prolog
verstehen. Wir haben bereits dazu den Begriff der Kommunikation selbst erl¨autert und u¨ ber den mit ihr verbundenen Kommunikationsprozess nachgedacht. Im Rahmen dieses Buches werden wir uns anschließend der Kommunikation zun¨achst aus historischer Sicht widmen und die Entwicklung der Kommunikationsmedien von den ersten H¨ohlenmalereien bis hin zum Internet der Zukunft Revue passieren lassen. Dabei wird auf das kulturtragende Medium der Schrift n¨aher eingegangen und ihre durch die Erfindung des Buchdrucks ausgel¨oste massenhafte Verbreitung hin zum ersten Massenmedium“ geschildert. Telekommunikation ” ist nicht erst eine Erfindung des vergangenen Jahrhunderts. Ihre Urspr¨unge reichen zur¨uck bis in die Antike. Botenstaffetten und Feuerzeichentelegrafie erm¨oglichten es bereits den R¨omern ihr Weltreich effektiv zu verwalten. Die elektrische Telegrafie und das Telefon sorgten im Zuge der industriellen Revolution des 19. Jahrhunderts f¨ur eine ungeahnte Beschleunigung des menschlichen Alltags, die sich im Informationszeitalter des 20. Jahrhundert mit der Entwicklung des Computers und des weltumspannenden digitalen Internets fortsetzte. Als Transportmedium und Kommunikationskanal digital kommunizierter Information dienen heute Computernetzwerke angefangen von Piconetzwerken, die Kleinger¨ate im unmittelbaren Umfeld einer Person miteinander vernetzen bis hin zum allgemeinen, weltumspannenden Internet. Grundprinzipien der Rechnervernetzung, angefangen von der klassischen Punkt-zu-Punkt Verbindung, u¨ ber die Grundlagen paketvermittelter Netzwerke, bis zu den vielf¨altigen Kommunikationsprotokollen des Internets, ihre Aufgaben und Organisation, bilden daher den Schwerpunkt des Folgekapitels. Kommunizierte Information wird zum Zweck des Transports und der Aufbewahrung kodiert. Diese Kodierung erfolgt in Abh¨angigkeit der Modalit¨at der transportierten Information, d.h. je nach transportierten Medientyp (Text, Bild, Audio, Video, etc.) kommen unterschiedliche, spezialisierte Datenformate zum Einsatz. Diese digitalen Mediendatenformate stehen im Fokus eines weiteren Kapitels. Ausgehend von den allgemeinen Grundlagen der Kodierung, bei denen vor allem der Redundanzbegriff im Vordergrund steht, wird gezeigt, wie sich dieser f¨ur den eigentlichen Inhalt unwichtige Anteil einer Nachricht mit einer geeigneten Kodierung minimieren l¨asst, um so die urspr¨unglichen Daten zu komprimieren. Moderne Komprimierungsverfahren gehen sogar noch einen Schritt weiter. Dabei machen sie sich die Unzul¨anglichkeiten unseres menschlichen Wahrnehmungsapparates zu nutze und entfernen dazu absichtlich Details von Bildern oder Audiodaten, deren Fehlen von uns kaum wahrgenommen werden kann. Auf diese Weise leisteten z.B. die JPEG-Bildkodierung, die MP3-Audiokodierung oder die MPEG-Videokodierung einen wichtigen Beitrag zur Popularit¨at der modernen Datennetze und des Internets. Durch ihre kompakte Kodierung wurde es in den 1990er Jahren erstmals m¨oglich, Bilder, Musik oder sogar Videos u¨ ber die damals noch beschr¨ankten Ressourcen des Internets zu u¨ bertragen. Viel st¨arker und in einer h¨oheren Dimensionalit¨at und Dramatik als in der traditionellen analogen Kommunikation steht bei der digitalen Kommunikation der Aspekt der Sicherheit im Zentrum des allgemeinen Interesses. Das ubiquit¨are Netz
1.4 Glossar
15
erm¨oglicht anonymen Zugang zu Informationen und bietet zahlreiche M¨oglichkeiten zur Manipulation und zum Betrug. Das globale Internet ist ein offenes Netz. Offen, also nicht begrenzt und f¨ur jedermann zug¨anglich. Niemand wird ausgeschlossen, jeder kann Zugang zum Netz der Netze erhalten. Diese Offenheit des Internets, die grundlegende Voraussetzung f¨ur die große Popularit¨at war, die das Internet in den vergangenen Jahrzehnten erlangen konnte, hat allerdings auch ihren Preis: Es gibt keine zentrale Kontrolle, die unbefugten Dritten Einblick in die Kommunikation verwehren und damit die Privatsph¨are der Internetnutzer sch¨utzen w¨urde. Um dennoch Vertraulichkeit und den Schutz der Privatsph¨are zu bieten, m¨ussen Techniken aus der Kryptografie eingesetzt werden, die Nachrichten verschl¨usseln und deren Unversehrtheit sicherstellen. Ebenfalls mit Verfahren der Kryptografie kann die Identit¨at der Kommunikationspartner nachgewiesen werden, damit keine Betr¨uger, die eine falsche Identit¨at vorspiegeln, im Internet ihr Unwesen treiben k¨onnen. Denn Kommunikationspartner stehen sich hier nicht mehr pers¨onlich gegen¨uber, so dass sie sich anhand ihrer a¨ ußeren Erscheinung identifizieren k¨onnten, sondern befinden sich m¨oglicherweise auf verschiedenen Seiten des Globus. Die Verfahren der Kryptografie, die uns auch im Internet eine sichere und zuverl¨assige Kommunikation erm¨oglichen, sind schließlich Gegenstand des abschließenden Kapitels dieses Buches, das den ersten Band einer Trilogie zur Behandlung von Internet und World Wide Web darstellt. Der Epilog am Ende des Buches gibt einen kurzen Ausblick auf die beiden Folgeb¨ande der Trilogie. Band 2 widmet sich dem Thema Internetworking“ und f¨uhrt ” ein in die grundlegenden Technologien des weltumspannenden Internets. Band 3 bildet den Abschluss der Trilogie und fasst unter dem Titel Web-Technologien“ ” die technischen Grundlagen des World Wide Webs und die wichtigsten WebAnwendungen zusammen.
1.4 Glossar digital: (digitus=[lat.] Finger), Bezeichnung f¨ ur Technologien/Verfahren, die nur diskrete unstetige, d.h. stufenf¨ ormige arithmetische Gr¨ oßen verwenden. Grundlage der Digitaltechnik ist das bin¨ are (zweistufige) Zahlensystem, das lediglich die zwei Zust¨ ande wahr“ ” und falsch“ bzw. die Zahlenwerte 1“ und 0“ beinhaltet. Diese bin¨ aren Zahlenwerte ” ” ” werden als Bit (Binary Digit) bezeichnet und stellen die kleinstm¨ oglichen Informationseinheiten dar. Digitale G¨ uter: Unter digitalen G¨ utern versteht man immaterielle Mittel, die sich mit Hilfe von digitalen Informationssystemen entwickeln, darstellen, vertreiben und anwenden lassen. Digitale G¨ uter k¨ onnen mit Hilfe elektronischer digitaler Medien (wie z.B. dem Internet oder Mobilfunknetzen) u ¨bertragen und mit Hilfe von Informationssystemen dargestellt und angewendet werden. Digitale Kluft (auch Digital Divide): Hinter dem Begriff der digitalen Kluft steht die bereits Mitte der 90er Jahre ge¨ außerte Bef¨ urchtung, dass insbesondere zwischen Arm und Reich die Chancen auf den Zugang zum Internet und anderen (digitalen) Informationsund Kommunikationstechniken ungleich verteilt, stark von sozialen Faktoren abh¨ angig sind und Chancenunterschiede verursachen.
16
1 Prolog
Digitale Kommunikation Digitale Kommunikation bezeichnet den Austausch digitaler Nachrichten u ur spezialisierte digitale Kommunikationskan¨ ale. Das Datenformat ¨ber daf¨ der Nachricht bestimmt der jeweilige Medientyp (Text, Bild, Audio, Video, etc.). Die Nachricht wird nach den Maßgaben der dazu eingesetzten Kommunikationsprotokolle u ¨ber einen digitalen Kommunikationskanal (z.B. Internet oder WWW) u ¨bermittelt. Dotcom Blase: Der Begriff Dotcom-Blase ist ein durch die Medien gepr¨ agter Kunstbegriff f¨ ur ein weltweites Ph¨ anomen, das im Zusammenhang mit der im M¨ arz 2000 geplatzten B¨ orsenspekulationsblase steht, die insbesondere die so genannten Dotcom-Unternehmen betraf und vor allem in den Industriel¨ andern zu erheblichen Verlusten f¨ ur Kleinanleger f¨ uhrte. Als Dotcom-Unternehmen werden dabei Technologieunternehmen bezeichnet, deren Gesch¨ aftsumfeld im Bereich der Internet-Dienstleistungen steht. Der Name leitet sich aus den auf die Silbe .com“endenden Domainnamen dieser Unternehmen ab, wurde ” zuerst im B¨ orsenjargon gepr¨ agt und dann von den Medien u ¨bernommen. Electronic Business (auch E-Business): Unter dem Begriff Electronic Business werden alle Aktivit¨ aten zur Unterst¨ utzung von Gesch¨ aftsprozessen und Beziehungen zu Gesch¨ aftspartnern, Mitarbeiter und Kunden eines Unternehmens bezeichnet, die mit Hilfe digitaler Medien abgewickelt werden. Electronic Commerce (auch E-Commerce): Als Electronic Commerce wird derjenige Teil des Electronic Business bezeichnet, der auf Vereinbarung und Abwicklung rechtsverbindlicher Gesch¨ aftstransaktionen beruht. E-Commerce umfasst dabei u ¨blicherweise die drei Transaktionsphasen Information, Vereinbarung und Abwicklung. Electronic Procurement (auch E-Procurement): Als Electronic Procurement werden alle Aktivit¨ aten bezeichnet, die im direkten Umfeld und zur Unterst¨ utzung von Beschaffungsvorg¨ angen (Einkauf) stattfinden und Bestandteil des Electronic Business sind. Internet: Das Internet ist das weltweit gr¨ oßte virtuelle Computernetzwerk, das aus vielen miteinander u ¨ber die Internetprotokolle verbundenen Netzwerken und Computersystemen besteht. Zu den wichtigsten Angeboten des Internets – man spricht auch von Diensten“– z¨ ahlen die elektronische Post (E-Mail), Hypermediadokumente (WWW), ” Dateitransfer (FTP) und Diskussionsforen (Usenet/Newsgroups). Popul¨ ar geworden ist das globale Netz haupts¨ achlich durch Einf¨ uhrung des World Wide Webs (WWW), das nicht selten mit dem Internet gleichgesetzt wird, tats¨ achlich aber nur einer von mehreren Diensten des Internets ist. Kommunikation: Unter Kommunikation versteht man den Prozess ein- oder wechselsei¨ tiger Abgabe, Ubermittlung und Aufnahme von Informationen durch Menschen oder technische Systeme. Kommunikationsprotokoll: Ein Kommunikationsprotokoll (auch einfach Protokoll) ist eine Sammlung von Regeln und Vorschriften, die das Datenformat von zu u ¨bermittelnden ¨ Nachrichten sowie die Art und Weise ihrer Ubertragung festlegen. Sie enthalten Vereinbarungen u ¨ber die zu versendenden Datenpakete, den Auf- und Abbau einer Verbindung zwischen den Kommunikationspartnern sowie u ubert¨ber die Art und Weise der Daten¨ ragung. Medium: Auspr¨ agung eines Transportkanals zur Nachrichten¨ ubermittlung zwischen Sender und Empf¨ anger. Um Information u onnen, muss diese zwischen Sender ¨bertragen zu k¨ und Empf¨ anger u agermedium ausgetauscht werden. ¨ber ein Tr¨ Multimedia: Kommen bei der Darstellung von Information mehrere, verschiedenartige Medien zum Einsatz, wie z.B. Text, Bild und Ton, so spricht man von einer multimedialen Darstellung der Information. Netzwerkeffekt: Netzwerkeffekte treten auf, wenn der Nutzen eines Gegenstandes davon abh¨ angt, wie viele andere Individuen oder Organisationen diesen Gegenstand verwenden. Ein typisches Beispiel f¨ ur Netzwerkeffekte sind digitale G¨ uter, wie z.B. Softwaresysteme, deren Nutzen mit wachsender Anwenderzahl steigt.
1.4 Glossar
17
Semantik: Als Semantik wird ein Teilgebiet der Sprachwissenschaft (Linguistik) bezeichnet, die Bedeutungslehre. Sie besch¨ aftigt sich mit dem Sinn und der Bedeutung von Sprache und sprachlichen Zeichen. Im Mittelpunkt steht die Frage, wie Sinn und Bedeutung komplexer Begriffe aus denen von einfacheren Begriffen abgeleitet werden k¨ onnen. Die Semantik st¨ utzt sich auf die Regeln der Syntax. World Wide Web: Englische Bezeichnung f¨ ur das weltweite Datennetz“ (auch WWW, ” 3W, W3, Web). Gemeint ist der erfolgreichste Dienst im Internet, der sich durch hohe Benutzerfreundlichkeit sowie seine multimedialen Elemente auszeichnet. WWW bezeichnet eigentlich eine Technologie, die ein verteiltes, Internet-basiertes HypermediaDokumentenmodell implementiert. Internet und World Wide Web (WWW) werden heute oft synonym verwendet, obwohl es sich beim WWW nur um einen speziellen Dienst im Internet handelt, der mit dem HTTP-Protokoll u ¨bertragen wird.
Kapitel 2
¨ Geschichtlicher Ruckblick
Wer nicht von 3000 Jahren weiß sich Rechenschaft zu geben, ” bleibt im Dunklen unerfahren, mag von Tag zu Tage leben.“ – Johann Wolfgang von Goethe (1749–1832)
Wohl nichts hat die Entwicklung des Menschen so sehr vorangebracht, wie die F¨ ahigkeit, miteinander zu kommunizieren und Informationen auszutauschen. Das Knowhow, Kommunikationsinhalte festzuhalten, weiterzugeben und auch u ¨ber große Distanzen zu transportieren, gab menschlichen Gemeinschaften einen entscheidenden ¨ Vorteil, sicherte ihnen das Uberleben und zementierte ihre Vormachtstellung. Die Entwicklung der Schrift und des Papiers als transportabler Kommunikationstr¨ ager f¨ uhrte schon bald zur Einrichtung von regul¨ aren Botendiensten und ersten Postsystemen. Daneben entstanden bereits in der Antike optische Telegrafiemedien wie Rauch- oder Fackeltelegrafie, die Botschaften mit Hilfe von Relaisstationen ¨ uber weite Entfernungen sehr schnell transportieren konnten. Die industrielle Revolution und das dadurch gesteigerte Informations- und Kommunikationsbed¨ urfnis der Menschen beschleunigte die Entwicklung der optischen, wie auch der zur selben Zeit aufkommenden elektrischen Telegrafie. Waren diese Fernkommunikationsmedien anfangs nur Milit¨ ar, Verwaltung und Wirtschaft zug¨ anglich, gewann die private Kommunikation auch in diesen Bereich immer mehr an Bedeutung. Die Entwicklung des Telefons l¨ oste eine enorm anwachsende Nachfrage nach pers¨ onlicher Kommunikation auch uber weite Entfernungen hinweg aus und f¨ uhrte zu einem rapiden Wachstum. Im 19. ¨ und 20. Jahrhundert gewann die Entwicklung enormen Schwung dank der Erfindung von Phonograph und Grammophon, Fotografie und Film, Rundfunk und Fernsehen. Die Massenmedien entstanden und pr¨ agten fortan unsere Gesellschaft. Auf dem Weg zur totalen Vernetzung wird die Welt zum globalen Dorf: Europa, Amerika und Asien sind im WWW nur noch einen Mausklick voneinander entfernt.
2.1 Entwicklung der Schrift Um zu verstehen, was so spektakul¨ar an der digitalen Kommunikation und ihren M¨oglichkeiten ist, lohnt es sich, einen Blick in die Geschichte der KommunikatiC. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 2,
19
20
2 Geschichtlicher R¨uckblick
on und ihrer Medien zu werfen: vom Homo sapiens zum Homo surfiens. F¨ur die Geschichte der Kommunikation und ihrer Medien gibt es bereits etwa 30.000 Jahre alte Zeugnisse, wie z.B. die H¨ohlenmalereien aus fr¨uhgeschichtlicher Zeit. War die Sprache (mehr dazu in Exkurs 1) das ureigene Mittel der direkten und unmittelbaren Kommunikation zwischen den Menschen, so war das menschliche Ged¨achtnis zun¨achst das einzige Hilfsmittel, die kommunizierte Information festzuhalten und zu fixieren. Doch auch schon damals war das menschliche Ged¨achtnis kein dauerhafter und auch kein zuverl¨assiger Speicher. Der fr¨uhe Mensch trat erst aus dem geschichtlichen Dunkel heraus, als er damit begann, seine Sinneseindr¨ucke in der Form von bildhaften Darstellungen festzuhalten. Felszeichnungen und -malereien sind, sofern sie vor Witterungseinfl¨ussen gesch¨utzt waren, ebenso wie Felsgravuren und Reliefs bis heute erhalten. Neben der kultischen und religi¨osen Bedeutung dieser pr¨ahistorischen Zeichnungen hatten diese vor allem auch einen kommunikativen Zweck, n¨amlich auf visuelle Art und Weise Botschaften zu konservieren. Obwohl es sich um bildhafte Darstellungen aus der Lebenswelt unserer Vorfahren handelt, sind es doch keine reinen Abbilder, die die Wirklichkeit zu treffen suchten, son¨ dern vielmehr Ged¨achtnisst¨utzen f¨ur m¨undliche Uberlieferungen [146]. Nach Vorstellung der australischen Ureinwohner, die bis heute diese Kultur erhalten haben, halten die Felsenbilder die Seelen der dargestellten Wesen fest. Durch das Malen, die Ber¨uhrung der Malereien oder durch Kulthandlungen in den H¨ohlen werden die Seelen zu neuer Verk¨orperung und Fruchtbarkeit angeregt. Daneben hatten die H¨ohlenmalereien auch einen Informationswert f¨ur die Menschen. Sie warnten vor in der Gegend lebenden gef¨ahrlichen Tieren, gaben Informationen u¨ ber Jagdbeute oder lieferten sogar Anleitungen zur Jagd. Heute werden diese Zeugnisse vom Leben der vorgeschichtlichen, nomadisierenden J¨ager auch als Petroglyphen bezeichnet, wenn auch dem heutigen Betrachter der eigentliche Sinn dieser Bilder meist verschlossen bleibt, da ihm der kulturelle Hintergrund in dessen Kontext die Bilder entstanden sind schlicht fehlt. H¨ohlenmalereien sind auf allen Kontinenten zu finden, wobei in Europa die zahlreichsten Fundorte in Frankreich, Spanien und Italien liegen. Jeder, der die Bilder betrachtete, erhielt inhaltlich dieselbe Botschaft, auch wenn sie nicht immer mit dem gleichen Wortlaut wiedergegeben werden konnte. Um die Information im Ged¨achtnis des Betrachters aufzufrischen, mussten die Bilder lediglich erneut betrachtet werden. Gemeinschaften, die Fakten in Form von Zeichnungen festhalten konnten, waren wettbewerbsf¨ahiger als solche, die das nicht vermochten. Allerdings konnten Bilder auch nur bildliche Informationen festhalten, die uns zeigen, wie etwas aussieht. Sinneseindr¨ucke, wie etwa den Duft einer Blume oder gar abstrakte Sachverhalte, wie z.B. der Inhalt von Gesetzen, konnten nicht gezeichnet werden. Um diese festzuhalten, bedurfte es der Entwicklung der Sprache, die es dem Menschen erm¨oglichte, sich vom Hier und Jetzt einer Situation unabh¨angig zu machen, und auch u¨ ber Vergangenes und Zuk¨unftiges zu sprechen oder u¨ ber das zu sprechen, was an einem anderen Ort geschieht. Diese Grundleistung menschlicher Sprache wurde mit der Entwicklung der Schrift perfektioniert. Der entscheidende Schritt von den Bildzeichen der Symbolschrift zum phonetischen Sprachzeichen, wie wir es heute kennen, ist erst dann vollzogen, wenn die
2.1 Entwicklung der Schrift
21
zu u¨ bermittelnde Informationen mit Hilfe von optisch-skripturalen Zeichen festgehalten werden, die nicht mehr nur rein abbildenden Charakter besitzen, sondern direkt auf die Sprache der Schriftbenutzer bezogen sind. Die Schriftzeichen sollen also nicht nur auf eine Bedeutung verweisen, sondern auch auf die Lautung des Gegenstandes, den sie bezeichnen, wie z.B. Worte, Silben oder Einzellaute (siehe Abb. 2.1). Vom Piktogramm zum Lautzeichen - die formale Entwicklung der Schriftzeichen
• Piktogramme: Bildzeichen, die zur Bezeichnung von Gegenst¨ anden, Personen oder Tieren verwendet wurden. Auch heute noch werden Piktogramme als Hinweis- oder Verkehrszeichen eingesetzt, so kennzeichnet z.B. das stilisierte Abbild eines Mannes eine Herrentoilette oder Messer und Gabel ein Restaurant. Einfache Bildzeichen sind der Ausgangspunkt f¨ ur die n¨ achste Stufe der Schriftentwicklung. • Ideogramme: Bildzeichen oder Kombinationen von Bildzeichen, die zur Kennzeichnung von nichtgegenst¨ andlichen Begriffen verwendet werden. Dabei kann es sich z.B. um T¨ atigkeiten, abstrakte Begriffe oder aber auch um Gef¨ uhle handeln. Im Gegensatz zu Piktogrammen erschließt sich die Bedeutung von Ideogramme nicht von selbst, sondern muss erlernt werden. Ideogramme werden innerhalb eines Kulturkreises stets im Rahmen eines stringenten formalen Systems verwendet. Heute finden sich Ideogramme z.B. in der Kartografie, um Straßen oder Sehensw¨ urdigkeiten auszuweisen. • Rebus: Die Rebus-Schreibweise nutzt die Existenz von Homonymen, also sprachlich gleich oder sehr ¨ ahnlich klingender W¨ orter aus, f¨ ur die anschließend dasselbe Zeichen verwendet werden kann. Dadurch reduziert sich die Anzahl der eingesetzten Zeichen. Heute findet die Rebus-Schreibweise z.B. noch in Bilderr¨ atseln Verwendung. Ausgehend von rebusartigen Schreibweisen entwickelte sich direkt die Verwendung von Lautzeichen. • Phonogramme (Lautzeichen): Phonogramme stehen nicht mehr direkt f¨ ur einen Begriff, sondern lediglich f¨ ur eine bestimmte Lautung. Bis zur Entwicklung eines vollst¨ andigen Alphabets wurden Phonogramme oftmals in Verbindung mit ¨ alteren Bildzeichen verwendet, wie z.B. im Fall der ¨ agyptischen Hieroglyphen.
ABC
Abb. 2.1 Vom Piktogramm zum Lautzeichen
Exkurs 1: Die Entwicklung der Sprache Die bildliche Darstellung ist ¨ alteren Datums als die auf einem h¨ oheren Abstraktionsniveau stehende Sprache. Anschauung und Imagination stehen entwicklungsgeschichtlich vor dem
22
2 Geschichtlicher R¨uckblick
Begreifen und Erz¨ ahlen. Anders als andere Lebewesen k¨ onnen sich Menschen mit Hilfe von Sprachen verst¨ andigen. Kulturell gesehen ist es jedoch die Sprache, die f¨ ur die menschliche Kommunikation eine herausragende Bedeutung besitzt. Die Sprache ist dabei nicht nur Mittel f¨ ur die reine Verst¨ andigung, sondern bef¨ ordert auch das Entstehen von Normen und die Tradierung von Werten und Kulturinhalten. Die Sprache gilt deshalb als Voraussetzung jeglicher kultureller Entwicklung. Die Bildung menschlicher Gemeinschaften und das Entstehen eines Netzwerks kultureller Beziehungen unter diesen Gemeinschaften basiert auf der sprachlichen Kommunikation ihrer Mitglieder. Schon seit alters her gilt die Sprache als conditio humana“ schlechthin, die den Menschen vom Tier unterscheidet. ” Was die Urspr¨ unge der Entstehung der Sprache betrifft, sind wir weitgehend auf Vermutungen angewiesen. Selbst Sprachen, die von der Sprachwissenschaft als primitiv angesehen werden, besitzen bereits ein h¨ ochst komplexes Regelwerk aus Syntax und Semantik und befinden sich offensichtlich bereits in einem fortgeschrittenen Entwicklungsstadium, gemessen an den gewaltigen Zeitspannen der menschlichen Entwicklungsgeschichte. Unser ganzes Denken und jegliche Weitergabe von Gedachtem nutzt das Werkzeug Sprache. Der Mensch, so Johann Gottfried Herder (1744-1803), ist ein Sprachgesch¨ opf“. Die Sprache dient ihm ” als Mittel zur Welterschließung, indem er Objekte seiner Wahrnehmung in Begriffe und Zeichen fasst, mit denen er die Welt erkl¨ art. Die Urspr¨ unge der Sprache liegen im Dunkel der fr¨ uhen Menschheitsgeschichte verborgen. Erst seit der Erfindung der Schrift (siehe Kap. 2.1) ist es u oglich, Sprache zu ¨berhaupt m¨ konservieren und so in die Evolution der Sprache Einblick zu erhalten. Aber gerade deswegen herrscht an Hypothesen zur Entstehungsgeschichte der Sprache kein Mangel. Anatomen ¨ versuchen anhand von Abg¨ ussen des Sch¨ adelinneren fossiler Uberreste unserer Vorfahren aus Druckspuren l¨ angst verwester Hirnrinde die Existenz des Sprachzentrums im Gehirn nachzuweisen. Neurobiologen versuchen u ¨ber einen Vergleich verschiedener Hirnareale bei Menschen und Menschenaffen etwas u ahigkeit unserer Urahnen zu ergr¨ unden ¨ber die Sprachf¨ und Linguisten versuchen sich an der Rekonstruktion einer Ursprache“ aus den heute ” bekannten Sprachen und Sprachfamilien. Pal¨ aoanthropologen spalten sich bei der Frage der Sprachentstehung in zwei Lager: eine Fraktion z¨ ahlt die Sprache zu einem sehr alten Merkmal in der Geschichte der Menschwerdung, das sich bereits vor u ahrend ¨ber einer Million Jahre herausgebildet haben soll, w¨ die andere Sprache f¨ ur ein sehr junges, vor ca. 100.000 Jahren in einer pl¨ otzlichen krea” tiven Explosion“ aufgetauchtes Ph¨ anomen halten. Ausgehend von den anatomischen Voraussetzungen zur Entwicklung einer Lautsprache sehen viele Wissenschaftler eine Parallele zwischen Sprachevolution, fr¨ uhen technologischen Entwicklungen (Werkzeuggebrauch) und Sozialentwicklung des Menschen. Die Fertigung komplexer Werkzeuge setzt Planung und Organisation von Arbeitsabl¨ aufen sowie eine Vorstellung vom endg¨ ultigen Produkt voraus. Die Weitergabe derartiger Techniken bedingt mit zunehmender Komplexit¨ at zus¨ atzlich zur bloßen Nachahmung auch eine sprachliche Unterweisung zur Planung des Fabrikationsablaufs (siehe auch Abb. 2.2). Sprache erfordert dabei von unserem Gehirn und Sprechapparat H¨ ochstleistungen. Variationsreiche Kombinationen von Grundlauten m¨ ussen in Millisekunden erzeugt und verstanden werden. Der genaue Wortlaut des Gesprochenen verbleibt dabei u ur kurze Zeit im Ged¨ achtnis. ¨blicherweise nur f¨ Die Suche nach den Urspr¨ ungen der Sprache legt die Frage nach einer ersten, gemeinsamen Ursprache nahe. Durch einen linguistischen Vergleich lebender Sprachen, der Suche nach ahnlichen grammatischen Merkmalen und Konstruktionen, lassen sich Verwandtschaften ¨ erkennen, die auf einen gemeinsamen historischen Ursprung schließen lassen. Schritt f¨ ur Schritt l¨ asst sich so eine Art Sprachstammbaum entwickeln. Im Vergleich mit dem genetischen Stammbaum der heutigen V¨ olker lassen sich daraus auch R¨ uckschl¨ usse auf Wanderungsbewegungen und Ausbreitung des Menschen ziehen. Heute z¨ ahlt man weltweit mehr als 6.000 verschiedene lebende Sprachen, die etwa 20 großen, unterschiedlichen Sprachfamilien zugeordnet werden k¨ onnen. Ihre Verteilung u ¨ber die einzelnen Kontinente ist jedoch sehr heterogen. So leben in Europa etwa 12% der mittlerweile mehr als 6 Milliarden Menschen, sie sprechen aber nur ca. 3% aller Sprachen. In Asien leben
2.1 Entwicklung der Schrift Theorien zur Entstehung der Sprache Wundertheorie: Gott hat die Sprache erfunden und dem Menschen gegeben. Entweder gleich bei seiner Erschaffung oder nach einer sprachlosen Zeit. Die Beurteilung dieser Theorie ger¨ at zur religi¨ osen Frage. Erfindungstheorie: Die Menschen haben die Sprache erfunden. Irgendwann erwies sich Sprache als notwendig und es kam zu einer entsprechenden Vereinbarung. Das Problem an dieser Theorie ist ihre Selbstbez¨ uglichkeit: Unabdingbare Voraussetzung f¨ ur die Erfindung der Sprache ist die Bedingung, dass der Mensch bereits sprechen kann. Nachahmungstheorie: Der Mensch ahmt die Ger¨ ausche seiner Umgebung nach (z.B. das Bellen eines Hundes, das Rauschen des Windes, etc.), um die damit verbundenen Sachverhalte zu bezeichnen. Bis heute haben sich derartige lautmalende W¨ orter in unseren Sprachen erhalten. Sie werden als Onomatopoetika bezeichnet. Allerdings unterscheiden sich die Onomatopoetika vieler Sprachen, obwohl sie denselben Gegenstand bezeichnen. Dar¨ uberhinaus l¨ asst sich aus ihnen nicht das Lautinventar unseres Wortschatzes erkl¨ aren. Naturlauttheorie: Der Mensch produziert spontane Ausrufe, Interjektionen. Diese bilden den Ausgangspunkt sinnerf¨ ullter Lauterzeugnisse. Gegen diese Theorie spricht – ebenso wie bei den Onomatopoetika der Nachahmungstheorie – dass sich Interjektionen in verschiedenen Sprachen deutlich voneinander unterscheiden. Reaktionstheorie: Auf Reize der Umgebung wird spontan, im weitesten Sinne nachbildend, reagiert. So soll z.B. das Wort Mama“ auf die Lippenbewegung des S¨ aug” lings vor dem Stillen zur¨ uckzuf¨ uhren sein. Hier greift dieselbe Kritik, die auch gegen die Naturlauttheorie spricht. Kontakttheorie: Sprache basiert auf einem allgemeinen Kontaktbed¨ urfnis. Dieses f¨ uhrt automatisch zum Zuruf, zur Liebesbekundung oder zum gemeinsamen Gesang. Arbeits- und Werkzeugtheorien: Sprache ist aus rhythmischen Lautierungen bei der gemeinsamen Arbeit entstanden (b¨ urgerliche Variante). Werkzeugherstellung und Werkzeuggebrauch bedingen Arbeitsteilung und Tradierung, folglich auch Sprache. Die Entwicklung des Werkzeugs ist nicht von der Entwicklung der Sprache zu trennen. Keine der genannten Theorie ist in der Lage, Linguisten und Anthropologen vollst¨ andig zu u upft man Reaktions-, Kontakt- und Werkzeugtheorie, so l¨ asst ¨berzeugen. Verkn¨ sich zumindest eine Art stimmiges Gesamtbild gestalten, aus dem sich ein m¨ ogliches Szenario zur Entstehung der Sprache herleiten l¨ asst. Weiterf¨ uhrende Literatur: Gessinger, J., v. Rahden, W. (Hrsg.): Theorien vom Ursprung der Sprachen, de Gruyter, Berlin - New York (1989)
Abb. 2.2 Theorien zum Ursprung der Sprache
23
24
2 Geschichtlicher R¨uckblick
60% der Weltbev¨ olkerung, etwa ein Drittel aller Sprachen werden dort gesprochen. Dagegen leben auf den Inseln des Pazifikraumes nur knapp 1% aller Menschen, sie sprechen aber fast 20% aller Sprachen. Mandarin-Chinesisch wird von ann¨ ahernd einer Milliarde Menschen gesprochen. In Europa sprechen eine einzelne Sprache etwa drei Millionen Menschen, die ca. 850 Sprachen Neu-Guineas werden dagegen von durchschnittlich nur 4.000 Menschen gesprochen. Die H¨ alfte aller Sprachen haben heute kaum mehr als 50 Sprecher und sind damit vom baldigen Aussterben bedroht. Die Mehrheit der Linguisten und Sprachwissenschaftler geht heute davon aus, dass die menschliche Sprechf¨ ahigkeit in irgendeiner Art angeboren ist, so dass Sprache nicht wirklich erlernt, sondern vielmehr instinktiv erworben wird. Jedes gesunde Kind kann unabh¨ angig vom sozialen Umfeld und seiner Intelligenz seine Muttersprache perfekt und in geradezu atemberaubenden Tempo erlernen. Als Erwachsener ist eine vergleichbare Leistung beim Erlernen einer Fremdsprache nie mehr in dieser Geschwindigkeit, Perfektion und scheinbaren Leichtigkeit m¨ oglich. Weiterf¨ uhrende Literatur: Bußmann, H.: Lexikon der Sprachwissenschaft. Alfred K¨ orner Verlag, Stuttgart (1983) Cavalli-Sforza, L.: Gene, V¨ olker und Sprachen. Die biologischen Grundlagen unserer Zivilisation. Carl Hanser Verlag, M¨ unchen (1996) Gessinger, J., v. Rahden, W. (Hrsg.): Theorien vom Ursprung der Sprachen, de Gruyter, Berlin - New York (1989) Kuckenburg, M.: ...und sprachen das erste Wort. Die Entstehung von Sprache und Schrift. Eine Kulturgeschichte der menschlichen Verst¨ andigung. Econ Verlag, D¨ usseldorf (1996) Stetter, C.: Schrift und Sprache. Suhrkamp Verlag, Frankfurt a. M. (1999)
Die Auseinanderentwicklung von Bildzeichen und Schriftzeichen l¨asst sich in einer damit verbundenen zunehmenden linearen Anordnung des verwendeten Zeichenmaterials ausmachen. Als Begr¨undung f¨ur diesen Wandel wird die Notwendigkeit angef¨uhrt, rechnerische Vorg¨ange, die zur Verwaltung der sich entwickelnden Gesellschaften wichtig waren, zu erfassen und festzuhalten [108]. W¨ahrend das Bildzeichen prinzipiell noch von allen gelesen werden konnte, trennte sich das Schriftzeichen vom kollektiven Ged¨achtnis und konnte nur noch von dem verstanden werden, der die Technik des Lesens und Schreibens beherrschte. Als Wiege der Schriftkulturen gilt nach wie vor der alte Orient – Mesopotamien, das Land zwischen den Str¨omen Euphrat und Tigris. Auch wenn neuere Funde bereits auf a¨ ltere Schriftzeugnisse hinweisen, wie z.B. die der alteurop¨aischen Donaukultur im 6. Jahrtausend v. Chr., kann die Erfindung der Keilschrift in Mesopotamien um 3500 v. Chr. als der wichtigste Durchbruch in der Entwicklung der Schrift betrachtet werden. Die Keilschrift gilt als das fr¨uhste vollst¨andige Schriftsystem, entwickelt durch das Volk der Sumerer, die seit dem 4. Jahrtausend v. Chr. in S¨udmesopotamien lebten. Anfangs verwendeten sie eine reine Bilderschrift (Piktogramme), die sich bereits ab 3000 v. Chr. bei weitgehender Phonetisierung zu v¨ollig abstrakten Formen umbildete. Im 4. Jahrtausend v. Chr. entstanden die ersten Stadtstaaten im Zweistromland. Gottesk¨onigtum und straff organisierte, hierarchische Tempelb¨urokratie grenzten deren Kultur deutlich ab von den u¨ brigen. Zun¨achst nur eingesetzt in der Tempeladministration erlangte die Schrift als effektives Instrument im Dienste des Steuerwesens schnell an Popularit¨at. Allerdings darf man bei der Schriftkultur
2.1 Entwicklung der Schrift
25
des Altertums nicht davon ausgehen, dass entsprechend unseren heutigen Verh¨altnissen die Kenntnis und der Gebrauch der Schrift der breiten Masse offenstand. Die Schrift stand in allen archaischen Kulturen zun¨achst nur den Eliten zur Verf¨ugung und fand auch nur f¨ur spezielle Zwecke Gebrauch, wie z.B. im rituellen und religi¨osen Bereich (siehe Abb. 2.3) [37].
Abb. 2.3 Sumerische Keilschrift, Zylinder mit einer Inschrift des K¨onigs Nabonidus aus Ur, 555-539 v. Chr.
Um 2700 v. Chr., als die Akkader in das Gebiet der Sumerer vordrangen und deren Wort- und Silbenschrift ihrer eigenen semitischen Sprache anpassten, entstanden keilf¨ormige Zeichen, die senkrecht, waagrecht und querschief zu Gruppen geordnet eine neue Schrift ergaben. Diese Keilschrift, von den Assyrern und Babyloniern weiter ausgebildet und abgewandelt, verbreitete sich rasch und wurde zur Verkehrsschrift im gesamten alten Orient. Ebenso schnell wandelte sich das funktionale Spektrum der Schrift. Praktische Zwecke, wie z.B. Kaufvertr¨age, Urkunden aber auch literarische und wissenschaftliche Werke standen jetzt im Mittelpunkt des Schriftgebrauchs. Ab dem 8. Jahrhundert v. Chr. wurde die Keilschrift allm¨ahlich durch andere Schriftsysteme, wie die griechische oder ph¨onizische Lautschrift verdr¨angt [74, 79, 95]. Als Schreibmaterial f¨ur die Keilschrift dienten Tontafeln, Stein, und ab 1000 v. Chr. auch Wachstafeln. Die Kenntnis der Keilschrift ging sp¨ater verloren und erst 1802 gelang dem deutschen Philologen Georg Friedrich Grotefend (1775–1853) der erste Schritt zu ihrer Entzifferung. Durch die Kombination von Bildern und Schriftsymbolen war es nun m¨oglich geworden, neben visueller Information auch andere Sinneseindr¨ucke festzuhalten. ¨ Uberfl¨ ussig wurden Symbole mit der Einf¨uhrung der phonetischen Schrift aber noch lange nicht. Auf ihre immanent m¨achtige Aussagekraft wird auch heute noch z.B. in Piktogrammen oder in der Werbung gesetzt. Die bemerkenswerteste Eigenschaft der Schrift ist es jedoch, Sprache vergegenst¨andlicht speichern und fehlerfrei u¨ bertragen zu k¨onnen. Eine a¨ hnliche Entwicklung wie die Keilschrift durchlief auch die alt¨agyptische Hieroglyphenschrift (hieros=[griech.]heilig, glyphein=[griech.]einmeißeln). Diese Bilderschrift, die aus Wort-, Silbenzeichen und Einzelkonsonanten bestand, geht ebenfalls auf eine Zeit bis um 3000 v. Chr. zur¨uck. Ihren uns heute noch gel¨aufigen Namen erhielten die Hieroglyphen bereits im Altertum von griechischen Besuchern. ¨ In ihrer eigenen Sprache bezeichneten die Agypter ihre Schrift als medu netjer“, ” was u¨ bersetzt soviel wie die Worte Gottes“ bedeutete. Mit dem Meißel in Stein ge”
26
2 Geschichtlicher R¨uckblick
hauen schm¨uckten sie zun¨achst Monumentaldenkm¨aler, Grabkammern und andere meist sakrale Kultst¨atten (siehe Abb. 2.4). Auf Gef¨aßen oder Wandfl¨achen wurden sie mit einem Pinsel geschrieben, auf Papyrusrollen verfassten angesehene Berufsschreiber Dokumente mit Hilfe einer Rohrfeder. Aus den urspr¨unglich nur kultisch genutzten Zeichen entwickelte sich ab ca. 2500 v. Chr eine vereinfachte, leichter schreibbare, eigenst¨andige Profanschrift. Die Hieroglyphen selbst erfuhren u¨ ber die ¨ Jahrtausende ihres Gebrauchs keine Ver¨anderung, da sie den Agyptern als heilig galten. Sie existierten bis in das 4. Jahrhundert n. Chr., bis sich die griechische Schrift, ¨ die seit dem 2. Jahrhundert v. Chr. auch in Agypten Verwendung fand, vermischt mit Resten der demotischen Schrift als koptische Schrift durchsetzte [8, 67, 200]. In
Abb. 2.4 Alt¨agyptische Hieroglyphenschrift
der r¨omischen Kaiserzeit ging die Kenntnis der Hieroglyphenschrift verloren und erst mit der Entdeckung des ber¨uhmten Steins von Rosette (1799) durch Napoleon ¨ Bonapartes (1769–1821) Expeditionskorps in Agypten gelang dem franz¨osischen ¨ Agyptologen Jean Francois Champolion (1790–1832) im Jahre 1822 deren Entzifferung. Vorallem war es jedoch die griechische Schrift, deren Urform auf die Schrift der Ph¨onizier zur¨uckgeht, die unsere abendl¨andische Denkkultur entscheidend gepr¨agt hat und in deren Nachfolge und Weiterentwicklung sich die lateinische Schrift entwickelte, die wir geringf¨ugig erg¨anzt und modifiziert noch heute verwenden. Erste Zeugnisse dieser phonetischen Alphabetschrift finden sich in Inschriften auf Tonscherben und Bronzestatuetten aus dem 8. Jahrhundert v. Chr. Der entscheidende Entwicklungsschritt bei der griechischen Schrift war es, Vokale zwischen die bei den Ph¨oniziern noch lediglich aus 22 Konsonanten bestehenden Schriftzeichen einzuf¨ugen. Vokale selbst waren bereits zuvor in der mesopotamischen Keilschrift bzw. in der mykenisch-minoischen Linear B“ Schrift enthalten, jedoch trennten ” die Griechen als erste Vokale von reinen“ Konsonanten. Dadurch vereinfacht sich ” das Lesen – also das Dekodieren der Schriftbotschaft – drastisch, da sich der Leser auf eine strikt lineare Aufeinanderfolge der Schriftzeichen st¨utzen kann, die eine eindeutige schriftliche Wiedergabe von Sprechger¨auschen erm¨oglicht. Mit der griechischen Schrift erbl¨uhte vom 5. Jahrhundert v. Chr. an eine reiche Literatur, deren kulturelles Erbe das Abendland antrat und das uns bis heute in Teilen erhalten geblieben ist (siehe Abb. 2.5) [74, 79, 95]. Außerhalb unseres europ¨aischen kulturellen Erbes und unabh¨angig davon entwickelten sich auch in Asien fr¨uhe Schriftkulturen. Auf die Zeit um 1.400 v. Chr. gehen die fr¨uhesten Zeugnisse der chinesischen Schrift zur¨uck. Diese Schrift der Shang-Dynastie findet sich haupts¨achlich eingeritzt in sogenannten Orakelknochen und diente vornehmlich kultischen und zeremoniellen Zwecken. Als Orakelkno-
2.1 Entwicklung der Schrift
27
Abb. 2.5 Ph¨onizische und altgriechische Schrift
chen wurden Schildkr¨otenbauchpanzer oder die flache Seite eines Rinderschulterblattes verwendet. Diese wurden zum Zweck von Wahrsagungen mit einem gl¨uhenden Bronzestift erhitzt, bis sich Risse und Furchen im Knochenmaterial zeigten, die anschließend von einem Priester ausgedeutet wurden. Dazu wurden sowohl die Fragestellung als auch die Interpretation der Risse und Furchen zus¨atzlich schriftlich auf dem Orakelknochen fixiert [248]. Aus diesen ideografischen Zeichen entwickelte sich die mehr als 10.000 Zeichen umfassende chinesische Schrift. Ein großes Hindernis auf dem Weg der Entstehung der Schrift stellte die erst sehr sp¨at einsetzende Entwicklung und Ausgestaltung der Grammatik dar. Die Grammatik als Sprachlehre und Wissenschaft entstand etwa im 6. Jahrhundert v. Chr im indogermanischen Raum unabh¨angig voneinander in Indien und in Griechenland [225]. Die erste wissenschaftliche Besch¨aftigung mit der Sprache und damit die a¨ lteste u¨ berlieferte Grammatik u¨ berhaupt geht auf den indischen Grammatiker Panini zur¨uck, der im 5. Jahrhundert v. Chr. sein Grammatikwerk Ashtadhyayi“ ” (=[Sanskrit] Acht B¨ucher grammatischer Regeln) verfasste, das gut 4000 Regeln zur Wortbildung und genaue phonetische Beschreibungen des Sanskrits enthielt. Bei den Griechen berichtete als erster Platon (427–348 v. Chr.) in seinem Dialog Kratylos oder u¨ ber die Richtigkeit der Worte“ u¨ ber den Ursprung der Sprache und ” stellt dabei deren Wesen und Bedeutung zur Diskussion [180]. Seit dem Mittelalter gilt die Grammatik als Bestandteil der sieben freien K¨unste (Grammatik, Rhetorik, Dialektik, Arithmetik, Geometrie, Astronomie und Musik) und als Grundlage allen Wissens. Diese sp¨ate Ausbildung der Grammatik als strukturelles Regulativ der Sprache im Vergleich zu dem im geschichtlichen Dunkel liegenden Ursprung der Sprache l¨asst sich verstehen, wenn man dazu eine Analogie aus der Technik heranzieht. Auch zwischen dem Entstehen moderner Technologien zur Zeit der industriellen Revolution im 18. und 19. Jahrhunderts und dem Aufkommen von durch internationale Regelwerke normierte Standards klafft eine Wartezeit bis zur Mitte des 20. Jahrhunderts, bis mit der 1946 gegr¨undeten ISO (International Standardization Organisation) ein entsprechendes Standardisierungsgremium entstand. Da anfangs nur sehr wenige Menschen lesen und schreiben konnten – u¨ ber mehr als tausend Jahre hinweg waren B¨ucher und Schriftrollen z.B. im Christentum zug¨anglich f¨ur die Geistlichkeit und sp¨ater dem h¨oheren Adel – , war ein spontanes Festhalten von Gedanken bzw. ein ebenso spontanes Nachlesen nur einigen wenigen Auserw¨ahlten vorbehalten. Von einem Massenmedium konnte noch lange Zeit keine Rede sein. Die Entwicklung neuer Medien wie der Schrift hatte enorme Auswirkungen auf die Gesellschaft und wurde dadurch auch zum Gegenstand der Kritik. Der griechische
28
2 Geschichtlicher R¨uckblick
Philosoph Platon z.B. berichtete in seinem Dialog Phaidros“ die folgende Ge” schichte, die Sokrates (470–399 v. Chr), ein vehementer Kritiker des Schreibens, der selbst auch keine schriftlichen Zeugnisse hinterlassen hat, erz¨ahlte: ¨ Thamus, dem K¨onig von Agypten hatte der Gott Thot mit allen anderen Wissenschaften auch die Kunst des Schreibens u¨ berbracht, die den Menschen in die Lage versetze, Gedanken zu konservieren, die ansonsten bald wieder vergessen w¨urden. Aber der Pharao (alias Sokrates) war alles andere als zufrieden. Das Ged¨achtnis, so der Pharao, sei eine wunderbare Gabe, die nur dadurch am Leben erhalten werden k¨onne, wenn man sich best¨andig in ihr u¨ be. Mit der neuen Erfindung nun br¨auchten die Menschen sich ihrer gar nicht mehr zu bedienen, denn anstelle sich selbst anzustrengen, m¨ussten sie sich fortan nur noch der neuen Erfindung bedienen. Schreiben sei deshalb gef¨ahrlich, da es die Geisteskraft schw¨ache im Austausch f¨ur ein in Stein gemeisseltes Ged¨achtnis [181].
Wer sich also der Schrift bedient, um etwas zu notieren, ist eigentlich nur zu tr¨age, sein Erinnerungsverm¨ogen zu bem¨uhen. Die Klage gegen das Schreiben, die uns ironischerweise nur deshalb bekannt ist, da sie vom Sokrates-Sch¨uler Platon aufgeschrieben wurde, erinnert uns verbl¨uffend an die Klage der moderne Medienkritiker gegen das Fernsehen, das die aktiven F¨ahigkeiten der Menschen verk¨ummern lasse. Heute wissen wir nat¨urlich, dass B¨ucher selbstverst¨andlich nicht an unserer Stelle denken und Entscheidungen treffen. Im Gegenteil, B¨ucher fordern den menschlichen Geist heraus, sich weiter zu vervollkommnen und narkotisieren ihn nicht [68]. Allerdings fand sich die sokratische Warnung vor allzu blindem Vertrauen in das geschriebene Wort nur allzu bald best¨atigt, als im Jahre 48 v. Chr. in den Kriegen von Gaius Julius C¨asar (100-44 v. Chr.) die Bibliothek von Alexandria (siehe auch Abb. 2.6), die mit einem Bestand von ca. 700.000 Buchrollen gr¨oßte Bibliothek des Altertums, in einem Brand zerst¨ort wurde und damit ein Großteil des dort angesammelten Wissens der damaligen Zeit endg¨ultig verloren ging. Das wenig Verbliebene wurde dann von christlichen Eiferen in der Anfangszeit des Christentums zerst¨ort. So ging nahezu das gesamte Wissen der Antike verloren und die lange Epoche des dunklen Mittelalters“ nahm ihren Anfang [174]. ”
2.2 Erste Kommunikationsnetzwerke Die Vielfalt der Beschreibstoffe, die der Mensch zur Weitergabe von Informationen in Schriftform im Laufe der nahezu 7.000-j¨ahrigen Schriftgeschichte verwendete, scheint unbegrenzt. Neben anorganischen Materialien, wie Stein, Ton, Metall oder gar Kunststoff wurde eine Vielzahl organischer Stoffe, wie Knochen, Muscheln, Holz, Leder, Palmbl¨atter, Papyrus, Papier oder Textilien benutzt. Die a¨ ltesten Spuren menschlichen Kulturschaffens finden sich in Stein geritzt, geschlagen oder auch gemalt. Erste Zeugnisse von Schriftzeichen finden sich auch in gebrannten Tontafeln und in aus Ton gebrannten Siegeln. Waren die Tontafeln gebrannt, waren sie zudem weitgehend f¨alschungssicher. Anders als die fr¨uhen Beschreibmaterialien Papyrus oder Pergament widerstanden sie der Vernichtung durch Br¨ande. Manche Arch¨aologen gehen sogar davon aus, dass die Mehrzahl der erhaltenen Tontafeln
2.2 Erste Kommunikationsnetzwerke Die Bibliothek – Aufgabe und Geschichte Der Begriff der Bibliothek“ wurde erstmals vom griechischen Kom¨ odiendichter Kra” tinos (520–423 v. Chr.) verwendet und bezeichnet eine Sammlung von Schriften. Das Mittelalter pr¨ azisierte den Begriff als B¨ uchersammlung und auf das Geb¨ aude, in dem die gesammelten B¨ ucher aufbewahrt werden. Im Gegensatz zum Archiv“, dessen Ar” beitsschwerpunkt sich auf die Dokumentation von Schriftst¨ ucken mit politischem und wirtschaftlichem Inhalt konzentriert, l¨ asst sich die Aufgabe von Bibliotheken heute in drei Gebiete unterteilen: die Erwerbung von B¨ uchern und Schriftdokumenten, die Archivierung und Katalogisierung der Buchbest¨ ande (deren Nachweis erfolgt u ¨ber eine Bibliographie) sowie die Verf¨ ugbarmachung der gesammelten Best¨ ande im Rahmen der Bildungs- und Informationsvermittlung. ¨ In Agypten ließ Pharao Ramses II. (um 1290–1224 v. Chr) um 1250 v. Chr. eine erste Bibliothek als Teil seines Grabmals einrichten, die etwa 20.000 Schriftrollen umfasst haben soll. Als ¨ alteste Bibliothek der Weltgeschichte gilt die um ca. 650 v. Chr. begonnene u onigs Assurbanipal (ca. ¨ber 20.000 Tontafeln umfassende Sammlung des Assyrerk¨ 669–627 v. Chr.) in Ninive. Jede Tontafel dieser Bibliothek war mit einem Besitzvermerk des K¨ onigs versehen und ein Heer von Kopisten fertigte Abschriften assyrischer, sumerischer und akkadischer Werke an. Als bedeutendste B¨ uchersammlung des Altertums gilt die 288 v. Chr. gegr¨ undete große Bibliothek von Alexandria. Divergierenden Quellen zur Folge wird ihr gesammelter Bestand mit 400.000 bis 700.000 Schriftrollen angegeben. Mit dem Auftrag versehen, alle Schriften der damaligen Welt zu sammeln war sie zentraler Treffpunkt f¨ ur Wissenschaftler und Gelehrte. Ihr angegliedert war das Museion“, ein den Musen geweihtes, ” einzigartiges Forschungsinstitut, in dem Wissenschaftler und deren Sch¨ uler ein ideales Umfeld fanden, um u ¨ber das damalige Wissen zu diskutieren und zu lernen. Um so tragischer ist es f¨ ur uns heute, dass die Bibliothek zerst¨ ort wurde und ihr Schriftgut verloren ging. Der genaue Hergang ihrer Zerst¨ orung ist bis heute noch immer umstritten. Antike Quellen sprechen von einem Feuer bei C¨ asars Eroberung Alexandrias im Jahre 48 v. Chr. Es folgten weitere r¨ omische Angriffe auf Alexandria im 3. Jahrhundert n. Chr. unter Kaiser Aurelian (214–275 n. Chr.), bei der die Geb¨ aude der Bibliothek nach und nach zerst¨ ort wurden. Danach wurde die weiter im Stadtinneren gelegene Tochterbibliothek, das sogenannte Serapeion“ genutzt, in dem ca. 40.000 Schriftrollen verwahrt wurden. ” Auf Befehl des christlichen Kaisers Theodosius I. (346–395 n. Chr.) hin ließ im Jahre 391 n. Chr. Theophilus (†412), der Patriarch von Alexandria, alle heidnischen Tempel und mit ihnen auch das Serapeion zerst¨ oren. Damit endete eine fast 700-j¨ ahrige Epoche der Bibliotheksgeschichte. Die Araber unter Kalif Omar von Damaskus (592–644) eroberten Alexandria im Jahre 642, die große Bibliothek von Alexandria bestand bereits nicht mehr. Die weitverbreitete Version von der Zerst¨ orung durch die Araber hatte ihre Wurzeln in der mittelalterlichen Kreuzzugspropaganda. Die alexandrinische Bibliothek gilt als das antike Vorl¨ aufermodell der modernen Nationalbibliothek, die mit der 1536 durch den franz¨ osischen K¨ onig Franz I. (1494–1547) eingerichteten Biblioth` eque du Roi“ ihren Anfang nahm. Per Dekret wurden alle ” Buchh¨ andler verpflichtet, ein obligatorisches Exemplar jedes in Frankreich ver¨ offentlichten Werkes an die Bibliothek des K¨ onigs abzuliefern. Auch heute noch haben Nationalbibliotheken als zentrale staatliche Bibliotheken die Aufgabe, ausgestattet mit dem Recht auf ein Pflichtexemplar eines jeden erschienenen Buches, s¨ amtliche B¨ ucher eines Landes zu archivieren und zu katalogisieren. Weiterf¨ uhrende Literatur: Gantert, K., Hacker, R.: Bibliothekarisches Grundwissen, 8. Aufl., Saur, M¨ unchen (2008) Jochum, U.: Kleine Bibliotheksgeschichte, 3. Aufl., Reclam, Stuttgart (2007)
Abb. 2.6 Eine kurze Geschichte der Bibliothek
29
30
2 Geschichtlicher R¨uckblick
durch unabsichtliche Feuer gebrannt wurden und nicht durch bewusstes Brennen im Ofen. Zudem war ihre Herstellung ausgesprochen billig. Je dauerhafter Information in Form von Schrift konserviert wurde, desto schwieriger war es, diese Information u¨ ber gr¨oßere Distanzen auszutauschen und zu transportieren. So dauerhaft Felszeichnungen, H¨ohlenmalereien und Felsgravuren auch sind, ihre Botschaften konnten ausschließlich u¨ ber den Umweg des oft unzuverl¨assigen Ged¨achtnisses des Betrachters weitertransportiert werden. Einfacher gestaltete sich der Transport von beschrifteten Stein-, Ton- oder sp¨ater auch Wachstafeln, doch auch in diesem Fall waren dem Umfang der transportierten Botschaft stets enge Grenzen gesetzt. Den ersten Schritt in Richtung eines flexiblen und leicht zu trans¨ portierenden Informationstr¨agers machten die Agypter mit der Entwicklung des Papyrus, ein aus dem Mark der Sumpfgraspflanze Cyperus Papyrus hergestellter Beschreibstoff, dessen Herstellungsverfahren lange geheim gehalten worden ist [148]. ¨ Zur Beschriftung entwickelten die Agypter eine schwarze Tusche, die aus Ruß und einer L¨osung von Gummi arabicum bestand und die mit einem Pinsel aus Binsen aufgetragen wurde. Das Pergament wurde in der griechischen Antike etwa im 3. Jhd. v. Chr. als Schreibmaterial erstmals erw¨ahnt. Als Grundstoff f¨ur das Pergament dienen in Kalklauge eingelegte Tierh¨aute, die durch Abschaben von Fleisch und Haarresten gereinigt und anschließend in Rahmen aufgespannt getrocknet wurden. Gegen¨uber dem Papyrus barg das Pergament den Vorteil, dass man es beidseitig beschreiben und Fehler durch Abschaben wieder korrigieren konnte. Im Gegensatz zu Papyrus war Pergament – obwohl in der Herstellung teurer – vorallem in feucht-heißen Klimazonen haltbarer und best¨andiger und entwickelte sich so zum wichtigsten Beschreibstoff der Antike [197]. Der entscheidende Schritt in der Entwicklungsgeschichte der Beschreibstoffe hin zu einem billigen, einfach und in großen Mengen herzustellenden Medium gelang dann den Chinesen mit der Erfindung des Papiers um etwa 105 n. Chr., zur Zeit der o¨ stlichen Han-Dynastie. Im Jahr 794 nahm in Bagdad die erste Papierm¨uhle der arabischen Welt ihren Betrieb auf. So erreichte das Papier Ende des 8. Jahrhunderts ¨ auch Agypten, wo es das seit Jahrtausenden verwendete Papyrus rasch verdr¨angte. Die Araber h¨uteten das Geheimnis der Papierherstellung f¨ur fast f¨unf Jahrhunderte. Sie betrieben einen regen Papierhandel, so dass auch die abendl¨andischen Europ¨aer diesen Beschreibstoff u¨ ber das von den Arabern besetzte Spanien schnell kennenlernten [199, 239]. Diese Schl¨usselrolle der islamischen Kultur in der Herstellung und Verbreitung des Beschreibstoffes Papier kann heute immer noch an dem Wort Ries“ abgelesen werden, das Einheiten von 500 Blatt Papier bezeichnet. Die ersten ” europ¨aischen Papierm¨uhlen sind 1144 im spanischen Valencia und 1276 im italienischen Fabriano nachgewiesen. Erst im Jahre 1390 nahm auch in Deutschland eine erste wasserkraftbetriebene Papierm¨uhle ihren Betrieb auf, die Gleism¨uhle an der Pegnitz. Nur 200 Jahre sp¨ater wurden alleine in Deutschland 190 Papierm¨uhlen betrieben, meist in N¨ahe eines fließenden Gew¨assers, da die Papierherstellung einen enormen Wasserbedarf hatte und zudem die Wasserkraft eine ideale Kraftquelle darstellte [228].
2.2 Erste Kommunikationsnetzwerke
31
Abb. 2.7 Der Papierma” cher“, (Holzschnitt von Jost Amman, 1568), [6]
Leicht zu transportierende Informationstr¨ager waren eine Voraussetzung f¨ur die zuverl¨assige Kommunikation u¨ ber große Distanzen. Die Nachteile einer memorierten m¨undlichen Botschaft, die durch einen Boten u¨ berbracht wird, sind offensicht¨ lich: geringe Ubertragungsgeschwindigkeit, geringe Reichweite und mangelnde Zuverl¨assigkeit der u¨ bermittelten Nachricht. Auch die Antwort auf eine Botschaft ließ entsprechend lange auf sich warten, wenn sie denn u¨ berhaupt kam. Missverst¨andnisse und Fehler beim Interpretieren der Botschaft waren – und sind es u¨ brigens auch heute noch – an der Tagesordnung. ¨ Doch die Ubermittlung von Botschaften u¨ ber große Distanzen hat bereits eine l¨ange¨ re Geschichte. Bereits die Agypter nutzen den Nil als Hauptverkehrsader, um Nachrichten durch Schiffsreisende zu u¨ bermitteln. Zus¨atzlich entsandten die a¨ gyptischen Pharaonen zahlreiche Fußboten, um den Kontakt mit weit entlegenen Provinzen zu pflegen. Diese mussten in der Lage sein, weite Strecken in m¨oglichst kurzer Zeit zur¨uckzulegen. Trotzdem kann von einem geordneten Postwesen im heutigen Sinn ¨ noch keine Rede sein. Erst im Neuen Reich ab ca. 1.500 v. Chr. gab es in Agypten auch offizielle Briefboten, sowohl Fußboten als auch berittene Briefboten. Neben der akustischen Telekommunikation, wie sie z.B. in Form von Rufpostensystemen im antiken Griechenland und Persien bereits in der Antike u¨ berliefert sind, gab es die Trommeltelegrafie, die auch heute noch bei Naturv¨olkern anzutreffen ist. Insbesondere in Afrika entstanden und verbreiteten sich regelrechte Trommelsprachen, bei denen die u¨ bermittelten Nachrichten in Anlehnung an Rhythmus und Silbentonh¨ohe der nat¨urlichen Sprache nachgetrommelt“ werden. ” Wohlorganisierte Botenstaffetten gab es nachweislich bereits im 5. Jhd. v. Chr im Perserreich und sp¨ater auch bei den R¨omern. Wie der griechische Geschichtsschrei-
32
2 Geschichtlicher R¨uckblick
ber Herodot (ca. 484–424 v. Chr.) berichtete, ließ K¨onig Kyros II. (550–529 v. Chr.) eigene Poststationen in regelm¨aßigen Abst¨anden auf den wichtigsten Verkehrsrouten des persischen Weltreiches einrichten, die alle etwa eine Pferdetagesreise voneinander entfernt lagen und den Boten als Zwischenstationen dienten. Im antiken Griechenland gab es dagegen auf Grund der zahllosen, zum Teil miteinander zerstrittenen Stadtstaaten zun¨achst kein eigenes Postwesen. Allerdings gab es Fußbo¨ ten, sogenannte Hemerodrome, die zur Ubermittlung von Nachrichten eingesetzt wurden, die bedingt durch die geographische Beschaffenheit Griechenlands oft sogar schneller waren als berittene Boten. Der ber¨uhmteste dieser Boten ist Pheidippides, der im Jahr 490 v. Chr. in zwei Tagen die Strecke von Athen nach Sparta (ca. 240 km) zu Fuß zur¨uckgelegt haben soll, um dort um Hilfe f¨ur die bevorstehende Schlacht bei Marathon zu bitten. Der cursus publicus des R¨omischen Reichs, ein vermittels von Reiterstaffetten betriebener Nachrichten¨ubermittlungsdienst, der sich entlang der Straßen des r¨omischen Imperiums erstreckte – von Britannien bis Nordafrika und von Spanien bis Arabien und ans Schwarze Meer – wird oft als Urform der heutigen Post angesehen. Zur Zeit seiner gr¨oßten Ausdehnung soll der cursus publicus ein sich u¨ ber 90.000 km erstreckendes Straßennetz genutzt haben, auf denen in Abst¨anden von etwa 7 bis 14 km Stationen f¨ur den Pferdewechsel der berittenen Boten eingerichtet waren. Dieser unter Kaiser Augustus (31.v.Chr.–14 n.Chr.) im Jahre 15 v. Chr. institutionalisierte Botendienst bot allerdings lediglich eine Kommunikationsinfrastruktur im Dienste der Verwaltung und des Milit¨ars f¨ur die damalige F¨uhrungselite dar [216]. Als das r¨omische Imperium in den Wirren der V¨olkerwanderung unterging, zerfiel auch dieser Vorl¨aufer des Postdienstes mehr und mehr, bis er schließlich im 6. Jahrhundert v¨ollig zum Erliegen kam. F¨ur die Bef¨orderung von privater Post musste man im r¨omischen Reich andere Wege w¨ahlen, wie z.B. reisende Freunde und Bekannte, denen man private Post mit gab. Waren nur k¨urzere Distanzen zu u¨ berbr¨ucken schickte man als R¨omer eigens zu diesem Zweck gehaltene Sklaven, die am Tag bis zu 75 km zu Fuß zur¨ucklegen konnten. Eine regelm¨aßige Nachrichtenbef¨orderung war unzertrennbar mit einem Ausbau des Verkehrs- und Transportwesens verbunden. Ohne Verkehr gab es keinen Nachrichtenfluss – und mit dem Verkehr entstand das Bed¨urfnis, wie Waren auch Neuigkeiten u¨ ber gr¨oßere Distanzen hinweg auszutauschen. So gab es bereits vor dem gewaltigen Straßennetz des r¨omischen Imperiums im Europa der Bronzezeit die sogenannte ¨ Bernsteinstraße, die von Italien u¨ ber Osterreich nach D¨anemark verlief, und in China f¨uhrten aus dem Reich der Mitte u¨ ber die Seidenstraße Karawanen ihre kostbaren G¨uter in den Westen. Im Mittelalter folgten eine Reihe von unterschiedlichen, zumeist sozial verankerten Botensystemen: Klosterboten, Boten des Deutschen Ritterordens, Kaufmanns-, St¨adte- und Universit¨atsboten und, speziell im s¨uddeutschen Raum die sogenannten Metzgerboten. Das Handwerk des Metzgers machte es erforderlich, u¨ ber Land von Viehmarkt zu Viehmarkt zu ziehen. So war es naheliegend und zudem eine brilliante Gesch¨aftsidee, diesen auf ihren Reisen auch Briefe zur Bef¨orderung mitzugeben. Diese mehr oder weniger organisierten Botendienste u¨ berbrachten, entweder als Ein-Mann-Post oder als Staffettensystem, sowohl Briefe als auch memorier-
2.2 Erste Kommunikationsnetzwerke
33
te Botschaften. Die Postkurse folgten dabei jeweils den bereits existierenden wirtschaftlichen und politischen Verbindungswegen. Die Klosterboten dagegen hielten die Nachrichtenverbindung zwischen den einzelnen Kl¨ostern und Rom aufrecht. Dabei handelte es sich bei den Boten meist um M¨onche, die die Nachrichten mit auf ihre Reisen nahmen. ¨ Auch der Einsatz von Brieftauben, die bereits von den Agyptern vor 5000 Jahren domestiziert wurden, muss hier Erw¨ahnung finden. Ihre Flugt¨uchtigkeit (durchschnittliche Fluggeschwindigkeit ca. 60 km/h, Spitzengeschwindigkeiten bis zu 120 km/h und Reichweiten von bis zu 1000 km) und ihr hervorragender Orientierungssinn waren verantwortlich daf¨ur, dass sie schon fr¨uh zum Zwecke der Nachrichten¨ubermittlung eingesetzt wurden. Aufgrund von Eisenmineralien im Schnabel k¨onnen sich Tauben am Erdmagnetfeld orientieren und so ihre geografische Position ¨ bestimmen. In Agypten und anderen L¨andern des mittleren Ostens bereits um 1000 v. Chr. eingef¨uhrt, unterhielten auch Griechen und R¨omer Tauben zur Bef¨orderung von Briefnachrichten. Nur-Ed Din (1118–1174), Emir von Damaskus, begann als erster mit dem Auf- und Ausbau einer systematischen Brieftaubenpost f¨ur Staats¨ zwecke, mit deren Hilfe er sein in langen K¨ampfen erfochtenes Reich von Agypten bis in das iranische Hochland verwaltete [24]. In Europa fanden Brieftauben erst ab dem 16. Jahrhundert Verwendung, wo sie bis zur Mitte des 19. Jahrhunderts, also bis zum Aufkommen der Telegrafie ein sehr wichtiges Kommunikationsmedium blieben. Der Legende nach soll der Londoner Bankier Nathan Mayer Rothschild (1777– 1836) die Nachricht u¨ ber Napoleons Niederlage bei Waterloo u¨ ber eine Brieftaube erhalten haben. Rothschild gelang es mit Hilfe dieser Nachricht an der Londoner B¨orse einen beachtlichen Gewinn zu erzielen und legte so den Grundstein zu seinem Verm¨ogen [251]. Bis 1851 bef¨orderte die Nachrichtenagentur Reuters zwischen Br¨ussel, Aachen und K¨oln B¨orsenkurse mit Hilfe von Brieftauben. Die Schweizer Armee unterhielt sogar noch bis 1997 einen eigenen Brieftaubendienst. Der erste moderne Postkurs wurde 1490 von K¨onig Maximilian I. (1459–1519) zwischen seinem Hof in Innsbruck und Mecheln in den burgundischen Niederlanden eingerichtet und von der Familie Thurn und Taxis (fr¨uhere Schreibweise Thassis) unterhalten. Die Notwendigkeit, die Maximilian dazu veranlasste war die Verwaltung seines sehr weit auseinanderliegenden Herrschaftsgebietes: Einerseits die habsburgischen Erblande in Tirol zusammen mit der Steiermark und andererseits die durch seine Heirat (1477) mit Maria, der Erbtochter Karls des K¨uhnen von Burgund (1432–1477), erlangten Gebieten im heutigen Belgien. Bereits im 15. Jahrhundert waren wiederholt Angeh¨orige des lombardischen Geschlechts Thassis, das aus Bergamo in Oberitalien stammte, im p¨apstlichen Kurierdienst t¨atig und schon 1451 richtete Roger de Thassis im Auftrag Friedrich III. in Tirol und in der Steiermark f¨ur Heer und Verwaltung eine u¨ ber Zwischenstationen organisierte Briefbef¨orderung ein. Als Maximilians Sohn Philipp 1504 K¨onig von Kastilien wurde, erweiterte sich der unter der F¨uhrung von Franz von Taxis (1459–1517) installierte Postkurs bis nach Spanien. In dem 1516 zwischen Maximilian I. und Franz von Taxis festgelegten Postvertrag wurden erstmals Bef¨orderungszeiten festgelegt, die je nach Jahreszeit unterschiedlich ausfallen konnten. So betrug die Bef¨orderungszeit f¨ur einen Brief zwischen Br¨ussel und Toledo im Sommer 12 und im Winter 14 Tage.
34
2 Geschichtlicher R¨uckblick
Schnell entwickelte sich ein europaweites, kostenpflichtiges Nachrichten¨ubermittlungssystem, das einen regelm¨aßig verkehrenden und zuverl¨assigen Service anbot und bereits ab dem beginnenden 16. Jahrhundert auch f¨ur private Post offenstand. Der straff organisierte Reiter- und Pferdewechsel an eigens eingerichteten Poststationen erm¨oglichte einen durchschnittlichen t¨aglichen Postweg von 166 km. Aus den Reiseberichten des venezianischen Kaufmannsohns Marco Polo (1254–1324) ist bekannt, dass China bereits im 13. Jahrhundert ein hervorragend ausgebautes Postsystem unterhielt. Entlang der Hauptstraßen des chinesischen Reiches war ein gut durchorganisiertes System von Herbergen und Stallungen f¨ur berittene Boten installiert, das ann¨ahernd 10.000 Stationen umfasst haben soll. 1597 erhob Kaiser Rudolf II. von Habsburg (1552–1612) das deutsche Postwesen zum kaiserlichen Hoheitsrecht, dessen alleinige Nutzung auf der Basis eines erblichen Vasallenverh¨altnisses dann 1615 der in den Reichsgrafenstand erhobenen Familie Taxis u¨ bertragen wurde. Die Post wurde quasi verstaatlicht, was in letzter Konsequenz die allgemeinen Postbef¨orderung f¨ur Jedermann erm¨oglichte. Im Laufe der Zeit und Dank des vererblichen Sonderrechts – des sogenannten Privilegs – entwickelt sich die Thurn-und-Taxis-Post schnell zu einer Art europ¨aischer Staatspost, die Ende des 16. Jahrhunderts bereits ein Heer von 20.000 Kurieren besch¨aftigte [228]. Das Geschlecht der Thurn und Taxis war in der Lage, sich u¨ ber die Jahrhunderte so unentbehrlich zu machen, dass sie ihr Postsystem erst im Jahre 1867 auf Grund der Zersplitterung des deutschen Reiches in unz¨ahlige Kleinstaaten an Preußen u¨ bergeben mussten. Artikel 10 der Bundesverfassung des Norddeutschen Bundes, dem Vorg¨anger des Deutschen Reichs, beseitigte dann die Thurn- und Taxissche Post. Auch Wasserwege wurden zur Postbef¨orderung genutzt. Der erste Schiffspostdienst in Europa wurde 1633 in England f¨ur die Postbef¨orderung zwischen Dover und Calais, sowie nach Dublin eingerichtet.
2.3 Die Entwicklung des Buchdrucks Sorgte die Einrichtung moderner Postsysteme f¨ur die schnellere Bef¨orderung von Nachrichten u¨ ber große Distanzen, blieben diese doch beschr¨ankt auf individuelle Nachrichten f¨ur den Kommunikationsfluss zwischen (einem) Sender und (einem) Empf¨anger. Um eine Nachricht schnell und in großer Zahl verbreiten zu k¨onnen, musste diese m¨oglichst einfach vervielf¨altigt werden k¨onnen. Dem manuellen Abschreiben l¨angerer Nachrichten waren dabei mengen- und zeitm¨aßige Grenzen gesetzt. Dies a¨ nderte sich grundlegend mit der Entwicklung des Buchdrucks. Die Geschichte der Druckkunst l¨asst sich bis in das 9. Jahrhundert nach China zur¨uckverfolgen. Der a¨ lteste erhaltene Druck stammt aus den buddhistischen M¨onchsh¨ohlen Dun-Huang im westchinesischen Turkestan. Er wurde im Jahre 868 hergestellt, 100 Jahre nachdem man schon in Japan (heute verschollene) B¨ucher gedruckt hat. Allerdings sind h¨olzerne Druckst¨ocke aus China bekannt, die bereits aus dem 6. Jahrhundert stammen. Sie wurden von buddhistischen Priestern hergestellt, die religi¨ose Darstellungen in Holz schnitten, einf¨arbten und auf Seide oder Hadernpapier
2.3 Die Entwicklung des Buchdrucks
35
druckten. Als Stempel dienten dabei h¨olzerne W¨urfel oder T¨afelchen. Diese Technik des Holzschnitts (Xylographie) z¨ahlt zu den Hochdruckverfahren und gilt als das a¨ lteste grafische Druckverfahren. Punzen, Stempel und Siegel k¨onnen dabei als weitaus a¨ ltere Vorl¨aufer des Drucks betrachtet werden. So fanden sich auf mesopotamischen Tonziegeln Stempelabdr¨ucke, die auf das 3. Jahrtausend v. Chr. datiert werden. In der chinesischen Tang-Zeit (615–906) kam man im 9. Jahrhundert erstmals auf die Idee, ganze B¨ucher zu drucken. Der Druck mit beweglichen, aus Ton geformten Lettern geht auf den chinesischen Alchemisten und Drucker Bi Sheng (†1052) zur¨uck, der in den Jahren 1041–1049 seine Kunst aus¨ubte. Er kam auf die Idee, einen Schriftsatz aus Standardtypen zu entwickeln, die sich seriell herstellen ließen. In der westlichen Welt wird die Entwicklung des Buchdrucks oft als initiales Ereignis gewertet, das den Menschen in eine Epoche der f¨ur jedermann zug¨anglichen und massenhaft verbreiteten Information f¨uhrte. Seine Auswirkungen lassen sich kaum untersch¨atzen. So sahen es bereits die Zeitgenossen, insbesondere die kirchlichen und weltlichen Machthaber, als ausgemachte Sensation, Information tausendfach und in Windeseile zu vervielf¨altigen. Dem Kaufmannssohn Johannes Gensfleisch zum Gutenberg (1397–1468), einem sinnreichen Goldschmied, der den Hof zum Gutenberg in Mainz bewohnte, gelang mit seiner Erfindung eines Gießverfahrens f¨ur bewegliche Lettern die dazu notwendige Normierung der Schrift. Bei seiner T¨atigkeit als b¨ucherkopierender Verlagsschreiber lernte er die sogenann¨ ten Blockbucher kennen, die in einem einfachen, auf dem Holzschnitt beruhenden Stempelverfahren hergestellt wurden. Allerdings erforderte die Produktion jeder einzelnen Seite einen gewaltigen Aufwand und war daher der traditionellen Kalligrafie, die von ganzen Hundertschaften von Schreibern ausgef¨uhrt wurde, unterlegen. Gutenberg betrachtete das Problem der mechanischen Vervielf¨altigung von Schriftgut mit dieser Drucktechnik analytisch und erkannte, dass wenn man die Bl¨ocke in hinreichend kleine Einzelteile zerlegte, man alles, was der menschliche Geist mit Hilfe von Worten auszudr¨ucken vermag, lediglich mit den 24 bekannten lateinischen Buchstaben und ein paar Satzzeichen darstellen konnte. Gutenbergs bahnbrechende L¨osung des Druckproblems bestand dann darin, gleichartige Stempel f¨ur Einzelzeichen in großer Zahl und mit der notwendigen geringen Fehlertoleranz zu produzieren, die nach einer Drucklegung immer wieder und in neuer Zusammenstellung f¨ur weitere Drucke verwendet werden konnten. So gelang es ihm, Texte mechanisch in identischer Form und in – verglichen mit der Zahl handschriftlich kopierter Exemplare – gewaltiger Menge zu produzieren: das erste Massenmedium war geboren. Um 1445 gelang es Gutenberg, seine ersten Drucklettern mit einer Legierung aus Blei, Antimon und Zinn mit einem Zusatz aus Wismut zu gießen. Da keine Drucktypen aus Gutenbergs Zeit erhalten sind, ist das genaue Mischungsverh¨altnis unbekannt. Die erzielte Mischung zeichnete sich aber durch schnelles Aush¨arten aus und erm¨oglichte so die z¨ugige Produktion gleichf¨ormiger Typen. Gutenbergs Handgießinstrument war in der Lage, st¨undlich bis zu 100 Satzlettern in gleichbleibender Qualit¨at zu produzieren. Zur gleichen Zeit entstand auch der erste ihm zugeschriebene Druck, der nur in einem kleinem Fragment erhalten geblieben ist: ein Gedicht
36
2 Geschichtlicher R¨uckblick
Abb. 2.8 Der Buchdrucker“, ” (Holzschnitt von Jost Amman, 1568), [6]
vom Weltgericht in deutscher Sprache nach einem um 1360 in Th¨uringen verfassten Sibyllenbuch. Sein erstes repr¨asentatives Druckwerk, das ihn weit bis u¨ ber seinen Tod hinaus ber¨uhmt machen sollte – die 42-zeilige lateinische Bibel – entstand in den Jahren 1452–1456 in einer Auflage von 185 Exemplaren, von denen heute noch 49 Exemplare, wenn auch teils nur noch als Fragment, erhalten sind1 . Zwar kann die Gutenberg-Bibel als das erste Massenprodukt der Drucktechnik gelten, doch war sie alles andere als ein billig produziertes und massenhaft verbreitetes Druckwerk. Gutenbergs Ziel war es wohl vielmehr gewesen, mit der Produktion seiner Prachtbibel die Handwerkskunst der Kalligrafen und Kopisten zu u¨ bertreffen, indem er nicht nur erstklassige Bucherzeugnisse herstellte, sondern diese auch noch in gleichbleibender Qualit¨at zu liefern verstand. Jede seiner Bibeln bestand aus zwei B¨anden mit jeweils 648 und 643 Seiten, wobei etwa 30 Exemplare auf Pergament gedruckt waren [107]. H¨atte Gutenberg die Gesamtauflage auf Pergament drucken lassen, w¨aren dazu die H¨aute von bis zu 50.000 K¨albern n¨otig gewesen [255]. Auch waren die deutschen Papierm¨uhlen um 1450 nicht in der Lage, die zum Druck notwendige Menge an Papier zu produzieren, das gr¨oßtenteils aus Italien importiert werden musste. Gutenberg hat die Druckkunst zwar nicht erfunden und seine Bibel unterscheidet sich f¨ur den heutigen Betrachter kaum von einer zeitgen¨ossischen Handschrift, aber durch die Kombination damals bereits bekannter Techniken in Verbindung mit seinem ingenieurstechnisch meisterlichen neuen Gießverfahren wurde er zum Begr¨under eines neuen Wirtschaftszweiges. 1
1987 wurde eines dieser B¨ucher zum Kaufpreis von 9,75 Millionen DM (rund 5 Mio. Euro) verkauft, der h¨ochste, je f¨ur ein Druckwerk erzielte Preis.
2.3 Die Entwicklung des Buchdrucks
37
Die Vervielf¨altigung von Texten war vor der Erfindung der Druckerkunst eine m¨uhselige Handarbeit, die vor allem die M¨onche in den Kl¨ostern besch¨aftigte, deren Rolle in der Bewahrung und R¨uck¨ubersetzung der antiken Schriften aus dem Arabischen nicht untersch¨atzt werden darf. Studenten und Gelehrte brauchten enorm viel Zeit zum Abschreiben von Texten – sicher ein Grund daf¨ur, dass die Wissenschaft in dieser Zeit nur sehr langsam Fortschritte machte. In den Universit¨atsst¨adten entwickelte sich eine regelrechte Schreibindustrie. So waren im 15. Jahrhundert die Schreiber der Universit¨at von Angers in der Lage, zu relativ niedrigen Preisen binnen eines Monats Abschriften der Vorlesungen anzufertigen, wobei es manchmal sogar gelang, diese Manuskripte bereits vor Beginn der Vorlesungen auszugeben. Zur Zeit, als Gutenberg seine ersten typographischen Versuche anstellte, gab es allein in seiner Heimatstadt Mainz neben den M¨onchen und Studenten 40 Lohnschreiber. W¨ahrend aber mittelalterliche M¨onche f¨ur die handschriftliche Kopie eines Buches mindestens ein Jahr ben¨otigten, konnte Gutenberg mit seiner innovativen Technologie bis zu 300 Seiten pro Tag drucken. Auch wenn Gutenbergs Rolle eher als die eines geschickten Verfahrenstechnikers denn als die des genialen Erfinders einzusch¨atzen ist, so leitete seine Erfindung des Buchdrucks im ganzen Abendland ein neues Zeitalter ein: W¨ahrend vor 1456 weltweit nur ungef¨ahr 5.000 handgeschriebene Bibeln existierten, waren es 50 Jahre sp¨ater schon fast 10 Millionen gedruckte Exemplare. Zwar konnte zur damaligen Zeit nur eine Minderheit der Bev¨olkerung lesen, doch je mehr B¨ucher auf dem Markt waren, desto gr¨oßer wurde auch das Interesse daran. Der Gebrauch der Schrift wurde dank Gutenbergs Druckerpresse zum Allgemeingut. Gutenberg selbst gelang es allerdings nicht, Kapital aus seiner Entwicklung zu schlagen. Er starb 1468, erblindet und bankrott durch einen Prozess gegen seinen Finanzier, den Mainzer Bankier Johannes Fust (1400–1466), der das verliehene Geld zur¨uckforderte und schließlich Gutenbergs Druckerei u¨ bernahm und damit auch die Rechte an seinen Werken. Schon sehr fr¨uh wurde die gerade erst entwickelte Drucktechnik auch zum Zwecke politischer Propaganda eingesetzt. So erschien 1455 eine Flugschrift, der sogenannte T¨urkenkalender ( Eine Mahnung der Christenheit wider die T¨urcken“), in dem zu ” einem Kreuzzug gegen die T¨urken aufgerufen wurde, die kurz zuvor 1453 Konstantinopel erobert hatten. Ein besonders zahlungskr¨aftiger Auftraggeber f¨ur auflagenstarke Kleinpublikationen war die katholische Kirche mit den von ihr ausgegebenen Ablassbriefen. Durch den Verkauf dieser Schriftst¨ucke besserte die Kirche im 15. Jahrhundert ihre Finanzkasse auf, indem Sie gegen die Zahlung einer individuellen Geb¨uhr den Ablass (die Vergebung) der begangenen S¨unden versprach und mit dem offiziellen Ablassbrief besiegelte. Diese Praxis stellte einen der Hauptkritikpunkte der Reformatoren – allen voran Martin Luther (1483–1546) – dar. Der Ablassbrief selbst war vorgedruckt, lediglich der Name des S¨unders sowie Datum und Unterschrift des Ablassverk¨aufers wurden nachtr¨aglich von Hand eingesetzt. Somit war dieses Schriftst¨uck geradezu ideal f¨ur eine massenhafte Vervielf¨altigung geeignet und erreichte Auflagen von mehreren Tausend bis hin zu u¨ ber Hunderttausend. Die im 15. Jahrhundert gedruckten B¨ucher, also in einer Zeit, als sich der Buchdruck noch in den Kinderschuhen befand, werden als Inkunabeln (Wiegendrucke) bezeichnet. Das Jahr 1500 wurde dabei aus rein aus bibliografischen Gr¨unden als
38
2 Geschichtlicher R¨uckblick
Ende der Inkunabelzeit festgelegt. Man geht davon aus, dass in dieser Zeit etwa 30.000 Titel mit einer Gesamtauflage von 9-10 Millionen B¨ucher gedruckt wurden, von denen heute noch ca. 500.000 erhalten sind [84]. Durch den vorwiegenden Druck in lateinischer Sprache erschloss sich diesen Druckerzeugnissen ein europaweiter Markt, der nicht durch regionale Sprachgrenzen eingeschr¨ankt wurde. Neben Flugbl¨attern, Moritaten, kirchlichen und weltlichen Kalendern z¨ahlen politisch, aufr¨uhrerische Reden oder Theologica zum Inhalt der ersten Druckwerke. Zu einem europaweiten Umschlagplatz f¨ur die neuen Druckerzeugnisse aus Deutschland, Frankreich, Italien und den Niederlanden entwickelte sich die Frankfurter Messe. Verkauft wurden dabei vorwiegend Rohdrucke, d.h. ungebundene bedruckte Papierb¨ogen, die von den Druckwerkst¨atten in F¨assern lagernd transportiert und ausgeliefert wurden. Das Buchbinden sowie die k¨unstlerische Ausgestaltung des Druckes mit Rubrizierungen und Illuminationen oblag anschließend dem K¨aufer. Zun¨achst wurden fast ausschließlich großformatige Folianten gedruckt, die f¨ur den Gebrauch in der kirchlichen Liturgie oder f¨ur Universit¨aten bestimmt waren. Erst ab 1480 setzte eine deutliche Verkleinerung der Druckformate ein. War es bislang u¨ blich, Handschriften wie Druckwerken am Ende ein Kolophon mit den Angaben zu Schreiber bzw. Drucker und Druckort hinzuzuf¨ugen, wurden diese Angaben aus praktischen Gr¨unden zusammen mit dem Titel des Buches nach vorne auf ein separates Titelblatt gezogen. In dieser Zeit kam auch die Verwendung von Seitenzahlen (Pagnierung) auf, ebenso wie erste gedruckte Werbeplakate zum Verkauf von B¨uchern. Die Wirkung des Buches als massenhaft produzierbarer Datentr¨ager u¨ bte einen ungeheueren Einfluss auf die Modernisierung in allen Bereichen der Wissenschaft, Verwaltung, Erziehung, Religion und Kunst aus. Das gesellschaftliche Wissen“ ” wurde verschriftlicht, aufgezeichnet und in einem bis dato nicht dagewesenem Ausmaß ver¨offentlicht. Allerdings setzte sich das neue Medium anfangs nur zaghaft durch. Erst im 16. Jahrhundert emanzipierte sich der Buchdruck zusehends von der bis dato vorherrschenden Handschriftenkultur. Die schwarze Kunst“– abgeleitet ” einerseits wortw¨ortlich aus der Druckerschw¨arze, andererseits aber auch Anspielung auf das dahinter stehende Geheimwissen – breitete sich rasant aus. Als neues Handwerk unterlag die Buchdruckerkunst im Gegensatz zu den traditionellen Z¨unften anf¨anglich keinerlei Beschr¨ankungen. Wandernde Buchdruckergesellen konnten sich dort niederlassen, wohin es sie gerade verschlug. Um 1500 gab bereits in 60 deutschen St¨adten insgesamt 300 Druckereien, in Italien 150. Kaum dass der Buchdruck f¨ur eine erste massenhafte Verbreitung von Ideen sorgte, entstand die Furcht, dass unliebsame bzw. gef¨ahrliche Gedanken allzuweite Verbreitung erfahren k¨onnten. So f¨uhrte Berthold von Henneberg (1441–1504), Erzbischof und Kurf¨urst von Mainz als erster deutscher F¨urst mit seinem Edikt vom 22. M¨arz 1485 f¨ur alle aus dem Griechischen, Lateinischen oder einer anderen Sprache“ ins ” Deutsche u¨ bersetzten B¨ucher die Zensur ein mit dem Ziel, bestimmte Kenntnisse und nur unter Gelehrten diskutierte Meinungen nicht popul¨ar zu machen. Zudem forderte der Bischof 1485 den Frankfurter Stadtrat auf, alle auf der Fr¨uhjahrsmesse ausgestellten, gedruckten B¨ucher auf ihren Inhalt zu pr¨ufen und in Zusammenarbeit mit den kirchlichen Beh¨orden gegebenenfalls zu verbieten. Zu diesem Zweck
2.3 Die Entwicklung des Buchdrucks
39
Tabelle 2.1 Meilensteine in der Geschichte der Kommunikationsmedien 30.000 3.500 3.200 3.000 3.000 3.000 1.500 1.400 1.000 9. Jhd. um 650 6. Jhd. 6. Jhd. 6. Jhd. 5. Jhd.
v. v. v. v. v. v. v. v. v. v. v. v. v. v. v.
450 3. Jhd. 288 1. Jhd. 63 105
v. v. v. v. v. n. 8.
Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr.
Chr. Chr. Chr. Chr. Chr. Chr. Jhd. 794 1041 12. Jhd. um 1440 1455 1485 1490 1502 1536 1571 1633 1647 1650 1710 1764 1796
H¨ ohlenmalereien, erste Bildzeichen und Proto-Schriftzeichen altsumerische Inschriften auf ungebrannten Tontafeln in Uruk Keilschrift in Mesopotamien ¨ Agypter entwickeln die Hieroglyphenschrift in Babylon wird der Abakus als erste Rechenmaschine verwendet ¨ in Agypten wird der Papyrus als Vorl¨ aufer des Papiers eingesetzt ugaritische (phonetische) Keilschrift mit 27 Hauptzeichen Orakelknochen, erste Zeugnisse der chinesischen Schrift ¨ Verwendung von Brieftauben in Agypten und im Mittleren Osten erste Zeugnisse der griechischen Schrift Assurbanipal gr¨ undete in Ninive die erste große Bibliothek erste Grammatik in Indien und Griechenland persisches Boten-Postsystem unter K¨ onig Kyros II. Perserk¨ onig Dareios I. unterh¨ alt Rufpostensysteme Telegrafie mittels vorher verabredeter Feuerzeichen im Peloponesischen Krieg Fackeltelegrafie f¨ ur frei formulierbare Botschaften in Griechenland Pergament wurde als Beschreibstoff erfunden Gr¨ undung der Bibliothek von Alexandria durch Ptolemaios II. Cursus publicus“, Staffettendienst im R¨ omischen Imperium ” Acta diurna“, erste Zeitung des Abendlandes in Rom ” die Chinesen erfinden das Papier Holzschnitt als erstes Druckverfahren in China entwickelt erste Papierm¨ uhle in Bagdad erster Druck mit beweglichen Lettern aus Ton in China Nur-Ed-Din, Emir von Damaskus, richtete staatliche Brieftaubenpost ein Johannes Gensfleisch zum Gutenberg entwickelte den Buchdruck mit beweglichen Lettern erste gedruckte Flugschrift zum Zweck der politischen Propaganda erste staatlich verordnete Buchzensur durch Berthold von Henneberg, Erzbischof und Kurf¨ urst von Mainz Maximilian I. richtete den ersten modernen Postdienst ein, der von der Familie Thurn und Taxis unterhalten wird die Newe Zeitung“, eine Vorform der heutigen Tageszeitung ” erscheint Gr¨ undung der Bibliot` eque du Roi“, Vorl¨ aufer der modernen ” Nationalbibliothek durch Franz I. erstes Zeitungskorrespondentenb¨ uro in Augsburg – die Nouvellanten erster Schiffspostdienst zwischen Dover und Calais erstes Kaffeehaus Europas in Venedig erste regelm¨ aßig erscheindende Tageszeitung in Leipzig Jakob Christof Le Blon entwickelte den 4-Farb-Druck Pierre Simon Fournier normierte die Typographie Aloys Sennefelder schuf mit der Lithographie die Grundlage f¨ ur den modernen Offsetdruck
40
2 Geschichtlicher R¨uckblick
gr¨undete das Kurf¨urstentum Mainz und die Freie Reichsstadt Frankfurt 1486 ge¨ meinsam die erste weltliche Zensurbeh¨orde. Ebenso wurde eine Ubersetzung der Bibel vom Lateinischen in die Volkssprache unterdr¨uckt, da – so Henneberg – die ” ¨ Ordnung der heiligen Messe“ durch die Ubersetzung ins Deutsche gesch¨andet“ ” w¨urde. Papst Leo X. (1475–1521) best¨arkte 1515 dieses Verbot, da er eine wild wuchernde Verbreitung von Glaubensirrt¨umern“ bef¨urchtete. W¨urde auf einmal jeder ” die Bibel lesen k¨onnen, werde diese entweiht und die alleinige Vormachtstellung des Klerus zur Auslegung der heiligen Schrift gef¨ahrdet. Aus der Erkenntnis von Staat und Kirche heraus, dass durch den Buchdruck unliebsame oder gef¨ahrlich erscheinende Ideen schnell und weit verbreitet werden k¨onnen, wurde die Zensur bald schon etwas allt¨agliches. Pr¨aventivzensur, die eine eingehende Pr¨ufung der Schriftst¨ucke bereits vor der Drucklegung durch die Zensurbeh¨orde vorsah, als auch Repressivzensur, die sich auf bereits gedruckte Schriftst¨ucke konzentrierte und deren weitere Verbreitung per Verbot oder Beschlagnahmung untersagte, wurden durch p¨apstliche Bullen bereits durch Papst Innozenz VIII. (1432–1492) und Papst Alexander VI. (1430–1503) institutionalisiert. Zu diesem Zweck musste jedes von der katholischen Kirche genehmigte Buch mit einer Imprimatur (=[lat.] es darf gedruckt werden) der kirchlichen Beh¨orden versehen sein. Zuwiderhandlungen wurden mit drakonischen Strafen – Exkommunikation und sehr hohen Bußgeldern, sowie Berufsverbot – bedroht. 1559 erschien erstmals der ber¨uhmte Index librorum prohibitorum, die schwarze Liste verbotener B¨ucher, der tats¨achlich noch bis in das Jahr 1967 existierte, bis er durch das 2. Vatikanische Konzil offiziell aufgehoben wurde. Aber auch im Zuge der Entwicklung des Buches zum Massenmedium wurde schon fr¨uh Kulturkritik ge¨außert. Der franz¨osische Dichter Victor Hugo (1802-1885), der die Druckkunst das gr¨oßte Ereignis der Menschheitsgeschichte“ nennt, l¨asst in ” seinem Roman Notre Dame de Paris“ den Priester Claude Frollo auftreten, der ” mit seinem Finger zuerst auf ein Buch und dann auf die T¨urme und Malereien seiner geliebten Kathedrale deutet und spricht Ceci tuera cela“, das Buch bedeutet ” das Ende der Kathedrale. Die Geschichte spielt im 15. Jahrhundert, kurz nach der Erfindung des Buchdrucks. Handschriften zu lesen war das Vorrecht einer kleinen elit¨aren F¨uhrungsschicht. Der breiten Bev¨olkerung stand nur die M¨oglichkeit offen, u¨ ber die Malereien und Reliefs in der Kathedrale, der sogenannten Armenbibel“ ” (Biblia pauperum), Informationen und Kenntnis u¨ ber die Geschichten der Bibel, u¨ ber moralische Prinzipien, aber auch u¨ ber geschichtliche oder geografische Gegebenheiten zu erlangen. Papst Gregor II. (669–731), der den Streit um die Bildverehrung in der katholischen Kirche schlichtete – auf Grund des Bibelzitats Du sollst kein Bildnis von ” mir machen“ verbat der ostr¨omische Kaiser Leo III. (685–741) im Jahr 726 jegliche Bilderverehrung in seinem Reich – ersann dazu die raffinierte Kompromissformel: Die Bilder sind f¨ur die Laien, was die Schrift f¨ur die Lesekundigen“. Das Buch ” dagegen w¨urde die Massen dazu anstacheln, sich von ihren wichtigsten Tugenden abzuwenden und die Schriften der Bibel wohlm¨oglich frei zu interpretieren oder gar ungesunde Neugier zu entwickeln [68].
2.4 Entstehung des Zeitungswesen
41
2.4 Entstehung des Zeitungswesen Eine Urform der Zeitung ist in den r¨omischen Annalen, den Jahrb¨uchern, in denen der Vorsitzende des Priesterkollegiums – der Pontifex Maximus – die wichtigs¨ ten Begebenheiten zu H¨anden der Offentlichkeit aufzeichnete. Der Pontifex Maximus war vor der Zeit Julius C¨asars auch der Verantworliche f¨ur den Kalender. Die Bestimmung des Kalenderdatums, das nachwievor auch heute noch die ers” te“ Nachricht jeder Zeitung darstellt, war in der Zeit vor Einf¨uhrung des julianischen Kalenders eine recht komplizierte Angelegenheit. Der hohe Priester musste zur Anpassung des verwendeten Mondjahres, das sich gegen¨uber den Jahreszeiten permanent verschob, immer eine bestimmte Anzahl von zus¨atzlichen Schalttagen bekannt geben. Mit dem Amtsantritt von Julius C¨asar im Jahr 63 v. Chr. entstanden in Rom die ersten o¨ ffentlichen Anzeiger, die sogenannten acta diurna“ oder ac” ” ta urbis“. Diese Vorl¨aufer unserer heutigen Zeitung erschienen eingeritzt auf Steinoder Metallplatten bereits, bevor das Papier u¨ berhaupt erfunden war. C¨asar ließ die Protokolle der Sitzungen des r¨omischen Senats stenographisch festhalten, die direkt im Anschluss noch am selben Tag redigiert und ver¨offentlicht wurden. Urspr¨unglich gab es drei solcher amtlicher Anzeiger, die Senatsakten (acta senatus), die vor C¨asars Amtsantritt nicht o¨ ffentlich zug¨anglich waren, die Volksakten (acta populi) und die Stadtakten (acta urbana), die oft auch die zus¨atzliche Bezeichnung diurna (t¨aglich) trugen, obwohl sie noch nicht streng periodisch erschienen. Von der o¨ ffentlich auf einer weißen Tafel dargestellten offiziellen Version der Nachrichten auf dem Forum Romanum zirkulierten Abschriften in ganz Rom und in den Provinzen. Dieser Vorl¨aufer der Zeitung erschien bis in das Jahr 235 n. Chr., wobei es eine strenge Periodizit¨at u¨ ber das Jahr hinweg nicht gab. Das Zeitungswesen mit seinen bereits angesprochenen Urspr¨ungen in der Antike ist bereits im 16. Jahrhundert vor der Entstehung der eigentlichen Presse zu finden. So existierten geschriebene Zeitungen in Form von handschriftlich notierten Neuigkeiten als Anh¨ange an Gesch¨afts- und Privatbriefe, wie z.B. die sogenannten Fuggerzeitungen“ zwischen 1568 und 1605, eine Sammlung von handschrift” lichen Nachrichten, die das Augsburger Handelshaus Fugger aus seiner Korrespondenz und anderen Quellen zusammenstellen lies. Da die Fuggerschen Gesch¨aftsbeziehungen weit in Europa und der Welt verstreut waren, organisierten sie einen ersten Nachrichtendienst und waren so stets u¨ ber das politische Geschehen informiert. Jeremias Crasser und Jeremias Schiffle gr¨undeten als berufsm¨aßige Nachrichtenh¨andler, auf deren Dienste das Handelshaus Fugger ebenfalls gerne zugriff, 1571 das erste Zeitungskorrespondenzb¨uro in Augsburg und nannten sich die Nou” vellanten“. Der Handel mit Nachrichten als Ware war bereits im 14. Jahrhundert aufgekommen zwischen italienischen St¨adten mit Venedig als Hauptzentrum des Nachrichtenumschlages. Korrespondenten und Nachrichtenh¨andler waren meist in erster Linie diplomatisch-politische oder kaufm¨annische Gesch¨aftstr¨ager, die ihren Berichten besondere Nachrichtenbriefe zur allgemeinen Information anf¨ugten. Mit der Erfindung des Buchdrucks kamen auch politisch oder kommerziell motivierte, ereignisbezogene Einblattdrucke, sogenannte Flugbl¨atter auf. Meist dienten diese Flugbl¨atter aber weniger der politischen Agitation im Sinne des heutigen Protest-
42
2 Geschichtlicher R¨uckblick
Flugblattes, sondern waren eine Handelsware, angeboten von Marktschreiern und fahrenden H¨andlern auf Jahrm¨arkten und Kirchent¨uren. Die Verfasser der Flug-
Abb. 2.9 Flugblatt gegen den Ablass (16. Jhd.), aus [189]
bl¨atter blieben meist anonym. Große Illustrationen, meist als Holzschnitt produziert, nahmen einen dominanten Platz auf dem Flugblatt ein, einerseits um zu dessen Kauf anzuregen, andererseits um den Inhalt breiteren, nicht alphabetisierten Bev¨olkerungsschichten zug¨anglich zu machen. Neben politischen, religi¨osen oder milit¨arischen Nachrichten brachten sie auch oft schon reine Sensationsmeldungen, beispielsweise u¨ ber Teufelsaustreibungen, Kometen, Missgeburten oder Ketzerverbrennungen. Das Flugblatt gilt als das erste Massenkommunikationsmittel. Als direkter Vorl¨aufer unserer heutigen Tageszeitung gelten unperiodisch erscheinende Flugschriften, die im Gegensatz zum Flugblatt aus mehrere Druckseiten bestand. Der Begriff Zeitung tauchte als zidunge“ mit der Bedeutung Kunde“ oder Nach” ” ” richt“ im Raum K¨oln bereits am Anfang des 14. Jahrhunderts auf und wurde als Bezeichnung f¨ur m¨undliche und schriftliche Botschaften verwendet. Die sogenannte Newe (neue) Zeitung“ taucht dann als Titel eines am 4. Dezember 1501 nieder” geschriebenen und verdeutschten Berichts des Dogen Leonhard Lauredan (1459– 1516) auf und entwickelte sich schließlich zum Gattungsnamen f¨ur unperiodisch erscheinende Flugbl¨atter und -schriften des 16. und 17. Jahrhunderts. Zeitungen als periodisch erscheinende Druckform mit aktuellem Inhalt kamen erst Anfang des 17. Jahrhunderts in Mode, so etwa die erste deutschsprachige Wochenzeitung Aviso, ”
2.4 Entstehung des Zeitungswesen
43
Relation oder Zeitung“ 1609 in Wolfenb¨uttel. Da die Verbreitung der Zeitung auf die vorhandenen Boten- und Bef¨orderungsdienste angewiesen war, erschienen sie zun¨achst in der Regel nur w¨ochentlich. Erw¨ahnenswert ist, dass der Ursprung vieler Zeitungen mit der gerade zur selben Zeit entstandenen Kaffeehaus-Kultur einherging, die im ersten europ¨aischen Kaffeehaus in Venedig 1647 ihren Ausgangspunkt hatte. Neben dem Kaffee-Genuss dienten die fr¨uhen Kaffeeh¨auser auch der Lekt¨ure und der Debatte. Kaufleute machten hier Gesch¨afte, Intellektuelle hinterfragten verkrustete Strukturen und alten Aberglauben, Reisende tauschten Informationen u¨ ber Ereignisse in fernen L¨andern aus. Die gerade in der Entstehung begriffenen Zeitungsredaktionen nutzten daher das Kaffeehaus als Redaktionslokal und Nachrichtenb¨orse.
Abb. 2.10 Titelseite einer der ersten Zeitungen (Relation aller F¨urnemmen und gedenckw¨urdigen Historien), 1609
Am 1. Juli 1650 erschien die erste deutschsprachige Tageszeitung, zugleich die erste Tageszeitung der Welt in Leipzig, mit sechs Ausgaben pro Woche, herausgegeben von Timotheus Ritzsch (1614–1678) mit dem Titel Neu-einlauffende Nachricht von ” Kriegs- und Welt-H¨andeln“. Bis zum Ende des 17. Jahrhunderts entstanden alleine in Deutschland bereits 170 Tageszeitungen. Doch die Tageszeitung blieb zun¨achst nur eine Randerscheinung. Ihre interessanteste Funktion gewann sie vor dem 19. Jahrhundert mit dem seit 1702 in London erscheinenden Daily Courant“ mit der ” Rolle als Veranstaltungskalenders der Großstadt. Der Dreißigj¨ahrige Krieg (1618–1648) warf Deutschland wirtschaftlich weit zur¨uck, Frankreich und England wurden fortan zu Pionierl¨andern der Presse. Dort entstan-
44
2 Geschichtlicher R¨uckblick
den auch die ersten Zeitschriften, zun¨achst nur f¨ur Gelehrte, dann auch f¨ur spezielle Fachbereiche und Themengebiete oder auch f¨ur Frauen. Riesige Auflagen (bis zu 300.000) erreichten die Kalender, die bis heute noch eine wichtige und risikoarme Einnahmequelle f¨ur viele Druckereien darstellen. Die Zahl der gedruckten B¨ucher gewann immer gigantischere Ausmaße. Bis gegen Ende des 16. Jahrhunderts wuchs die Anzahl der gedruckten Exemplare auf u¨ ber 200 Millionen [162]. Im 19. Jahrhundert entstand, beg¨unstigt durch die technische Weiterentwicklung der Druckerpressen, die Massenpresse. 1812 wurde die Schnellpresse erfunden, 1845 die Rotationsmaschinen und 1884 die moderne Linotype-Setzmaschine. Zudem stieg das Interesse der breiten Bev¨olkerung an Informationen aus Politik und Gesellschaft. Das staatliche Anzeigenmonopol wurde aufgehoben und durch den Anzeigenverkauf erschloss sich f¨ur das Zeitungswesen eine neue, wichtige Einnahmequelle. Die Zeitung selbst konnte dadurch preisg¨unstiger verkauft werden, was zu einer wesentlich gr¨oßeren Verbreitung f¨uhrte. Im gleichen Maße stieg auch die Alphabetisierungsrate in Deutschland. Lag diese um 1750 noch bei gerade einmal 10%, stieg sie bis 1871 auf u¨ ber 88% an, so dass die Zeitung jetzt f¨ur einen gr¨oßeren Leserkreis interessant wurde. Auch die Pressezensur wurde gelockert und in der Paulskirchenverfassung wurde in Deutschland 1848 die Pressefreiheit gesetzlich verankert. Ende des 19. Jahrhunderts gab es in Deutschland schließlich ca. 3.500 Zeitungen. Die Presse gilt als das a¨ lteste publizistische Massenmedium. Wie beim Aufkommen jedes neuen Massenmediums war sie Gegenstand heftiger kulturkritischer Auseinandersetzungen. Auch die erste in Buchform erschienene Kritik ließ nicht lange auf sich warten: In dem 1678 in Jena erschienenen Diskurs u¨ ber den Gebrauch und ” Missbrauch von Nachrichten, die man Newe Zeitung nennt“ wurde gegen die Zei” tungssucht“ zu Felde gezogen und diese als eitle, unn¨otige, unzeitige und daher ” arbeitst¨orende“ Besch¨aftigung charakterisiert [81].
2.5 Telekommunikationssysteme und Elektrizit¨at 2.5.1 Optische Telegrafie Rauch- und Feuerzeichen gelten als Ausgangspunkt der optischen Telekommunikation, mit der sich im Altertum gr¨oßere Distanzen einfacher u¨ berbr¨ucken ließen als mit Botenstaffetten. Die Technik der optischen Signal¨ubertragung mittels Relaisstationen fand bereits in der griechischen Antike Verwendung. Der Dichter Aischylos (525–456 v. Chr.) berichtete in seiner Trag¨odie Agamemnon“, dass der griechi” ¨ sche Heerf¨uhrer Agamemnon zur Ubermittlung der Nachricht u¨ ber den Fall Trojas (1184 v. Chr) an seine Gattin Klytemnestra eine Feuerzeichenpost versendet h¨atte, die u¨ ber 9 Relaisstationen bis ins 555 km entfernte Argos gelangte [5]. Vom griechischen Geschichtsschreiber Thukydides (460–399 v. Chr.) stammen erste genauere Aufzeichnungen u¨ ber die Anwendung von vorher verabredeten Feuerzeichen im
2.5 Telekommunikationssysteme und Elektrizit¨at
45
Peloponnesischen Krieg 431–404 v. Chr [235]. W¨ahrend Rauchzeichen keine frei formulierbaren Botschaften erlauben, berichtet der griechische Geschichtsschreiber Polybios (200–120 v. Chr.) von der Erfindung der Fackeltelegrafie um 450. v. Chr., mit deren Hilfe sich aus einzelnen Buchstaben des Alphabets geformte Nachrichten u¨ bertragen ließen. Dazu standen zwei Telegrafisten“ hinter einem großen Schild ” und positionierten entsprechend dem zu sendenden Buchstaben Fackeln an einer bestimmten Stelle rechts oder links neben dem Schild. Die R¨omer richteten entlang der Grenzen ihres Reiches Ketten von Signal- und Wacht¨urmen ein, die u¨ ber Feuerzeichen miteinander kommunizierten, wie z.B. in Germanien entlang des Limes vom Rhein bis an die Donau. Der r¨omische Schriftsteller Vegetius Renatus (um 400 n. Chr.) beschrieb, wie bewegliche Balken an hohen T¨urmen angebracht wurden, um durch unterschiedliche Stellung der Balken verschiedene, zuvor verabredete Nachrichten zu signalisieren. Mit dem Niedergang des r¨omischen Imperiums verlor die optische Telegrafie zun¨achst an Bedeutung, wurde aber insbesondere in den Kriegszeiten des Mittelalters in unterschiedlichen Varianten wiedererfunden. Eine wesentliche Verbesserung sollte die optische Telegrafie erst in der Neuzeit erfahren. Ausgel¨ost durch die beginnende industrielle Revolution, sowie tiefgreifende gesellschaftliche Ver¨anderungen, die mit der franz¨osischen Revolution in Europa ihren Ausgang nahmen, brach gegen Ende des 18. Jahrhunderts die große Zeit der optischen Telegrafensysteme an. Eine wichtige Rolle dabei spielte die Entwicklung des Fernrohrs im Jahre 1608 durch den holl¨andischen Brillenmacher Jan Lipperhey (um 1570–1618), das den Menschen in die Lage versetzte, die optische Reichweite seiner Wahrnehmung zu vervielfachen. Bereits 1684 trug der Engl¨ander Robert Hooke (1635–1703), der u¨ brigens auch als der europ¨aische Erfinder des Schnur” telefons“ gilt – das allerdings bereits auf den chinesischen Philosophen Kung-Foo Whing im 10. Jahrhundert zur¨uckgehen soll – der Royal Society in London seine ¨ Ideen zur Ubermittlung von Gedanken u¨ ber weite Entfernungen“ vor [94]. Deren ” technische Umsetzung, einzelne Buchstaben auf großen beschriebenen Tafeln zu u¨ bertragen, die mit Hilfe von Seilz¨ugen auf einem Mastsystem in der N¨ahe Londons aufgebaut werden sollten und mit denen u¨ ber eine Relaiskette von gleichartigen Installationen bis nach Paris telegrafiert“ werden sollte, erwies sich allerdings noch ” nicht wirklich als praktikabel. Erst dem franz¨osischen Physiker Claude Chappe (1763–1805) gelang in den Wirren der franz¨osischen Revolution ein praktikabler Ansatz: ein Zeichen¨ubermittlungssystem mit schwenkbaren Signalarmen, der Semaphor bzw. optische Fl¨ugeltelegraf, und Fernrohren. Chappes Erfindung beruhte auf den Ideen des tauben Physikers Guillaume Amontons (1663–1705), der bereits 1695 die langsam kreisenden Fl¨ugel einer Windm¨uhle in Belleville nutzte, an deren Enden er große, auf Tuch geschriebene Buchstaben heftete und wieder austauschte, und die im entfernten Meudon bei Paris mit einem Fernrohr gelesen werden konnten. Zwar entwickelte der britische Politiker, Erfinder und Schriftsteller Richard Lovell Edgeworth (1744–1817) bereits 1767 einen optischen Telegrafen, der zwischen Newmarket und London zum priva” ten“ Gebrauch betrieben wurde. Doch erst 30 Jahre sp¨ater, bereits nachdem Claude Chappe sein Telegrafiesystem in Frankreich erfolgreich vorgestellt und eingef¨uhrt hatte, bot Edgeworth seinen Telegrafen der britischen Admiralit¨at an [43].
46
2 Geschichtlicher R¨uckblick
Claude Chappe pr¨asentierte seinen Telegrafen, bestehend aus einem f¨unf Meter hohen Mast mit einem zweiarmigen Querbalken, an dessen beiden Enden ebenfalls schwenkbare Balken befestigt waren, erstmals im M¨arz 1792 der gesetzgebenden Nationalversammlung, die sofort den Bau einer ersten 70 km langen Versuchslinie zwischen Pelletier St. Fargau und St. Martin de Thetre beschloss. Nach mehreren erfolgreichen Versuchsreihen, in denen Chappe nachweisen konnte, dass sein Apparat ausreichend robust und einfach zu bedienen war, konnte 1794 eine erste regul¨are Telegrafenlinie zwischen Paris und Lille eingerichtet werden. Ein Buchstabe konnte die 270 km lange und mit 22 Stationsh¨auschen versehene Strecke konnte innerhalb von nur 2 Minuten durchlaufen. Von dieser Geschwindigkeit beeindruckt und den milit¨arischen Nutzen vor Augen wurde schnell beschlossen, dieses Telegrafiesystem auf ganz Frankreich auszuweiten. Chappe wurde zur Einrichtung seiner Telegrafenlinien dazu erm¨achtigt, nach Belieben und Zweckm¨aßigkeit jeden Turm oder Kirchturm f¨ur seine Telegrafen zu nutzen und jegliche Sichthindernisse zu beseitigen. Napoleon Bonaparte (1769–1821) nutzte das System und f¨uhrte es auf seinen Feldz¨ugen in einer mobilen Version mit sich. Dies erm¨oglichte es ihm, seine Truppenteile und seine Logistik besser und u¨ ber gr¨oßere Distanzen zu koordinieren als jede andere Armee.
Abb. 2.11 Ein ChappeFl¨ugeltelegraf am Parise Louvre
Ein Nachteil des Semaphors bestand darin, dass die Signalmasten von jedermann gesehen werden und auch Unbefugte und Spione die milit¨arischen Nachrichten lesen konnten. Dieses Problem wurde durch die Verwendung von Verschl¨usselungsverfahren u¨ berwunden. Bis 1845 entstand ein landes¨ubergreifendes, von Paris ausgehendes, sternf¨ormiges Netz, das die Hauptstadt mit allen wichtigen St¨adten Frankreichs verband. Die Fl¨ugeltelegrafen standen je nach Gel¨andebeschaffenheit und Sichtverh¨altnissen in Abst¨anden von neun bis zw¨olf Kilometern, so dass man mit
2.5 Telekommunikationssysteme und Elektrizit¨at
47
einem Fernrohr die Zeichen der Nachbarstation zweifelsfrei erkennen konnte. In jeder Station arbeiteten zwei Telegrafisten“, die die Zeichen einer der beiden Nach” barstationen ablasen und an die gegen¨uberliegende Station weitergaben. Die Einsatzf¨ahigkeit dieser optischen Telegrafiesysteme bleib trotz ihrer Vorz¨uge sehr beschr¨ankt. Zwar konnte ein einzelnes Zeichen sehr schnell u¨ ber eine große Distanz u¨ bertragen werden – so ben¨otigte 1834 ein Zeichen f¨ur die 600 km lange ¨ Strecke Berlin-Koblenz nur 15 Minuten – aber die Ubertragung eines vollst¨andigen Textes nahm sehr viel Zeit in Anspruch – so dass die Kapazit¨at der o.g. Telegrafenstrecke auf nurmehr zwei Telegramme pro Tag beschr¨ankt blieb. Dazu sorgten schlechte Witterungsbedingungen f¨ur unregelm¨aßigen und unzuverl¨assigen Betrieb. Diese Unzul¨anglichkeiten, sowie das Aufkommen der elektrischen Telegrafie waren daf¨ur verantwortlich, dass bereits 1853 die letzte optische Telegrafenlinie Frankreichs wieder aufgegeben wurde.
2.5.2 Elektrische Telegrafie Einschneidend f¨ur die weitere Entwicklung der Telekommunikation erwies sich die Erforschung und Nutzbarmachung der Elektrizit¨at im beginnenden 18. Jahrhundert. Bis dahin wurden elektrische Ph¨anomene oft nur als Kuriosa und Salonkunstst¨ucke abgetan. Bereits der griechische Naturphilosoph Thales von Milet (ca. 640–546 v. Chr.) hatte die anziehende Wirkung der statischen Elektrizit¨at beschrieben. Er beobachtete, dass ein St¨uck Bernstein, wenn es mit einem Fell gerieben wird, Federn anzieht. Elektron ist der griechische Name des Bernsteins und ist seither f¨ur alle im Zusammenhang mit Elektrizit¨at stehenden Effekte in Gebrauch. Arch¨aologische Funde deuten darauf hin, dass Elektrizit¨at bereits in der Antike zum galavanischen Vergolden von Metallen ausgenutzt wurde. Doch bis zur allgemeinen praktischen Nutzbarmachung der Elektrizit¨at war es noch ein langer Weg. 1730 erst konnte der britische Physiker Stephen Gray (1666–1736) nachweisen, dass sich Elektrizit¨at entlang eines Drahtes fortpflanzen kann: die Idee der elektrischen Nachrichten¨ubertragung war geboren. Mit Hilfe leitender Materialien konnten schon bald gr¨oßere Distanzen u¨ berbr¨uckt werden und mit der Entwicklung der Leidener Flasche um 1745, einer Urform der modernen Batterie, des holl¨andischen Physikers Petrus van Musschenbroek (1692–1761) konnte Elektrizit¨at von nun an auch gespeichert werden. In einem mit C. M.“ unterzeichneten Brief, der 1753 im ” Scot’s Magazine publiziert wurde, schlug der Schreiber erstmals eine Vorrichtung ¨ zur elektrischen Ubertragung von Nachrichten vor, bestehend aus 26 den Buchstaben des Alphabets zugeordneten Dr¨ahten2 . F¨ur eine praktische Umsetzung dieses neuen elektrischen Kommunikationsmittels fehlte allerdings noch eine wirklich zuverl¨assige und konstante Stromversorgung. Erst im Jahre 1800 gelang es dem italienischen Physiker Alessandro Volta (1745– 1827), eine konstante Stromquelle herzustellen, die nach ihm benannte ber¨uhmte 2
Die wahre Identit¨at des Autors konnte nie gekl¨art werden. Indizien weisen darauf hin, dass es sich um den im schottischen Greenock lebenden Chirurgen Charles Morrison handelte [227].
48
2 Geschichtlicher R¨uckblick
Voltasche S¨aule. Selbst mit dieser Stromquelle dauerte es allerdings noch weitere 20 Jahre, bis der D¨ane Christian Oerstedt (1777–1851) die Wirkungsweise des Elektromagnetismus entdeckte und bis auf diese aufbauend der Franzose Andr´e Marie Amp`ere (1775–1836) 1820 den ersten elektromagnetischen Nadeltelegrafen entwickelte. Bereits zuvor hatte der spanische Arzt und Naturwissenschaftler Francisco Salva y Campillo (1751–1828) 1804 (einigen Quellen zur Folge bereits 1795) ¨ einen Elektrolyt-Telegrafen konstruiert, der zur Ubertragung 26 einzelne Leitungen benutzte, an deren Enden sich jeweils ein Glasr¨ohrchen befand, in dem sich bei einem Stromstoß die darin befindliche Fl¨ussigkeit zersetzte und Gasbl¨aschen aufstiegen. Obwohl es dem deutschen Anatom und Physiologen Samuel Thomas von S¨ommering (1755–1830) gelang, diese Technik 1809 in ihrer Reichweite noch zu verbessern, fand solcherart elektrischer Telegrafie kaum Verbreitung, war doch das Erkennen der u¨ bertragenen Zeichen eine langwierige und unzuverl¨assige Angelegenheit. Erste wirklich praktische Bedeutung erlangte der 1833 von Carl Friedrich Gauss (1777–1855) und Willhelm Weber (1804–1891) erfundene Zeigertelegraf, der auf der Verwendung von nur zwei Dr¨ahten und der Einf¨uhrung eines bin¨aren Kodiersystems f¨ur die Buchstaben des Alphabets basierte. Im selben Jahr gelang ihnen die erste telegrafische Nachrichten¨ubertragung vom Physikgeb¨aude bei der Paulinerkirche in der G¨ottinger Innenstadt zur G¨ottinger Sternwarte. Der durch die Vielfalt der neuen M¨oglichkeiten befl¨ugelte Erfindergeist brachte in der Folgezeit eine Vielzahl von weiteren Erfindungen im Bereich des Zeigertelegrafen hervor. Der Durchbruch zur weltweiten Verbreitung gelang allerdings nur dem 1837 vorgestellten schreibenden Telegrafen von Samuel Morse (1791–1872), der 1840 mit der Einf¨uhrung des von seinem Assistenten Alfred Vail (1807–1859) entwickelten Morse-Alphabets 1840 seinen Siegeszug antrat. Die Leistung des seinerzeit als Portraitmaler sehr bekannten Morse bestand haupts¨achlich in der bestechenden Einfachheit seiner Erfindung, die in der Handhabung 1845 mit der Einf¨uhrung der nach ihm benannten Morse-Taste noch weiter verbessert wurde. Die Legende berichtet, dass Morse im Jahr 1825 gerade an einem Portrait General Lafayettes in Washington arbeitete, als seine Frau schwer erkrankte und starb. Die Nachricht ihrer Krankheit erreichte Morse aber erst nach Ablauf von 7 Tagen, so dass er sie nicht mehr lebend wiedersah. In seiner Trauer soll in ihm zum ersten mal der Gedanke aufgekommen sein, ob es nicht m¨oglich w¨are, diese Zeitbarriere f¨ur die Bef¨orderung von Nachrichten mit Mitteln der modernen Technik – der Elektrizit¨at – zu durchbrechen, damit niemals mehr ein Mensch daran gehindert w¨are, in Zeiten der Not einen geliebten Men¨ schen zu benachrichtigen. Wahrscheinlicher aber ist die Uberlieferung, dass Morse 1829 w¨ahrend eines Studienaufenthalts in Paris w¨ahrend seiner h¨aufigen Besuche des Louvre immer wieder fasziniert war von dem optischen Telegrafen, den Claude Chappe dort vor u¨ ber 20 Jahren bereits auf dem Dach des Geb¨audes hatte anbringen lassen (siehe Abb. 2.11) [75]. Neben der bestechenden Einfachheit seiner Erfindung u¨ berzeugte die Morse-Tele¨ grafie zus¨atzlich durch ihre hohe Ubertragungsleistung und ihre witterungsunabh¨angigen Betriebssicherheit. Eine erste 64 km lange Versuchslinie zwischen Baltimore und Washington stellte den Ausgangspunkt des bald um sich greifenden
2.5 Telekommunikationssysteme und Elektrizit¨at
49
Abb. 2.12 Samuel F. B. Morses erster Telegraf, aus [241]
¨ Telegrafie-Fiebers“ dar, die im Mai 1844 mit der Ubermittlung des Bibelzitats ” What Hath God Wrought!“ feierlich er¨offnet wurde. Bereits 1845 wurden mehr ” als 1400 km Telegrafenlinien quer durch die USA verlegt. Da die Regierung der USA einen Ankauf des Patents von Morse ablehnte – man war der Meinung, dass ein solches Unternehmen keinen Gewinn abwerfen w¨urde – erfolgte der Ausbau der Telegrafennetze in den USA durch privatwirtschaftliche Betreiber. Am 1. Januar 1847 wurde zwischen Bremen und Bremerhaven die erste Telegrafenstrecke innerhalb Europas in Betrieb genommen. Schnell verbreiteten sich Telegrafennetze entlang der neuen Eisenbahnstrecken. Der Hauptanteil der telegrafierten Nachrichten wurde zun¨achst nur von Handel, Schifffahrt, der B¨orse und dem Zeitungswesen genutzt und die Vorz¨uge der Telegrafie wurden f¨ur diese Sparten schnell unverzichtbar. Nachrichten wurden zur Handelsware mit extrem kurzen Verfallsdatum. Erste Nachrichtenagenturen, wie z.B. Associated Press in New York (1848) oder Reuters in London (1851) entstanden und verdanken ihre Gr¨undung dem Siegeszug des Telegrafen. Morses System wurde laufend verbessert und bald vom direkt lesbaren Fernschreiber, dem Ticker, einer Erfindung des Musikprofessors David Hughes (1831–1900) abgel¨ost, mit dem eine ¨ Ubertragungsgeschwindigkeit von 150 Buchstaben pro Minute erreicht wurde und der seit 1873 auf allen bedeutenden Telegrafenlinien zum Einsatz kam. Der optische Telegraf, kaum wenige Jahre in Betrieb, wurde von einer technischen Innovation u¨ berrollt, die in ihren M¨oglichkeiten den gestiegenen Bed¨urfnissen und Anspr¨uchen an die Kommunikation der durch die industrielle Revolution ge¨ pr¨agten Gesellschaft entgegenkam. Die Steigerung der Ubertragungskapazit¨ at und ¨ ¨ der Ubertragungsgeschwindigkeit, sowie die Freigabe f¨ur die Offentlichkeit sind dabei wohl als die entscheidenden Faktoren zu sehen, die den Siegeszug der elektri-
50
2 Geschichtlicher R¨uckblick
schen Telegrafie begr¨undeten. Gerade die Freigabe der Telegrafie f¨ur den individuellen, privaten Nachrichtenverkehr sorgte auch hier f¨ur eine gewaltige Expansion. Vor allem in Bezug auf ihre Reichweite er¨offnete die elektrische Telegrafie v¨ollig neue Dimensionen. So wurde 1851 das erste Kabel zwischen England und dem Kontinent verlegt, geographische durch das Meer gesetzten Grenzen wurden u¨ berwunden. Der erste Versuch, ein Seekabel zwischen Europa und Nordamerika zu verlegen, gelang dem US-amerikanischen Unternehmer Cyrus W. Fields (1819–1892) im Jahre 1858. Jedoch blieb dieses erste Kabel nur wenige Wochen in Betrieb und musste nach kurzer Zeit als unbrauchbar aufgegeben werden. Erst 1866 gelang es nach zahlreichen weiteren, kostspieligen Fehlschl¨agen eine zuverl¨assige Telegrafenverbindung quer durch den Atlantik zwischen Neufundland und Irland aufzubauen. Dann dauerte es nicht mehr lange, bis sich die Telegrafienetze um die ganze Welt ausgebreitet hatten.
2.6 Der Vormarsch der Individual-Telekommunikation 2.6.1 Telefon Wurde die Telegrafie lediglich in besonderen Lebenssituationen zum Zwecke der Individualkommunikation genutzt, so entstand doch besonders im Bereich der privaten Kommunikation im ausgehenden 19. Jahrhundert der Wunsch und das Bed¨urfnis, die neuen Kommunikationsformen auch f¨ur die private Kommunikation zu nutzen. W¨ahrend bei der Telegrafie eine kodierte Daten¨ubertragung in nur eine Richtung stattfand, kam jetzt die Idee auf, mit Hilfe der Elektrizit¨at auch Sprache u¨ ber große Entfernungen zu transportieren, um so die M¨oglichkeit zu einem echten Dialog zu er¨offnen. Eine Voraussetzung dazu lag in der Erkenntnis, dass der Schall, den das menschliche Ohr empf¨angt, nichts anderes ist, als eine periodisch an- und ¨ abschwellende Anderung des Luftdrucks – also eine Welle. Der Wellencharakter des Schalls war bereits im Altertum bekannt, schon der r¨omische Architekt Marcus Vitruvius Pollo (1. Jhd. v. Chr) verglich die Ausbreitung des Schalls mit den Wellen des Wassers. Diese Kenntnis ging allerdings im Mittelalter wieder verloren und erst der englische Physiker Isaac Newton (1643–1727) stellte auf Grund der von ihm entwickelten Wellentheorie einen Zusammenhang zwischen der Schallgeschwindigkeit und dem Luftdruck her. Einen ersten Apparat zur Reproduktion von T¨onen aller Art“, der dem mensch” lichen Ohr nachempfunden war, konstruierte der Physiklehrer Phillip Reis (1834– 1874). Ihm gelang es 1861 in einem ersten o¨ ffentlichen Versuch, ein Waldhornsolo eher schlecht als recht mit dem von ihm entwickelten Apparat elektrisch zu u¨ bertragen. Im Gegensatz zu Reis, dessen Schall¨ubertragungsverfahren auf der Unterbrechung eines Stromkreises durch die Schwingung einer Membrane beruhte, machte sich der US-amerikanische Physiologe Alexander Graham Bell (1848–1922) die von Michael Faraday (1791–1867) entdeckte elektromagnetische Induktion zu Nutze, um Sprache zu u¨ bertragen. Mr. Watson, kommen sie mal her, ich brauche Sie“, ”
2.6 Der Vormarsch der Individual-Telekommunikation
51
Abb. 2.13 Das Telefon von Philipp Reis (1863)
soll dann auch einer historischen Anekdote zufolge der Inhalt des ersten Telefongespr¨achs am 10. M¨arz 1876 in Bells eigenem Haus in Boston gewesen sein. Watson folgte der Aufforderung Bells, d.h. das Telefon hatte tats¨achlich funktioniert. Dieser Geschichte verdankt Thomas A. Watson, der handwerklich sehr begabte Assistent von Graham Bell, noch heute seine Bekanntheit. Sie zeigt jedoch auch, dass sich die Technik-Forschung verlagerte, weg von der Einzelperson des Wissenschaftlers, hin zu Forschergruppen, die in Teams versuchten, die technische Innovation voranzutreiben. Bells Telefon wurde am 25. Juni 1876 im Rahmen der Jahrhundertfeier der amerikanischen Unabh¨angigkeit in Philadelphia erstmals o¨ ffentlich vorgef¨uhrt. Nach weiteren Verbesserungen hatte Bell im Mai 1877 die endg¨ultige und dabei denkbar einfachste Form seines Telefons gefunden: Sender und Empf¨anger waren eins, jeder, der ein Telefongespr¨ach f¨uhren wollte, musste Bells Ger¨at abwechselnd zum Sprechen an den Mund und zum H¨oren ans Ohr halten. Zeitgleich mit Graham Bell reichte Elisha Gray (1835–1901) das Patent eines von ihm erfundenen Telefons im Washingtoner Patentamt ein, allerdings bestimmte die Geschichtsschreibung Graham Bell auf Grund einer Entscheidung des US-Supreme Courts nach elfj¨ahrigem Rechtsstreit als den Erfinder des Telefons [72]. Bell soll seinen Patentantrag knappe 2 Stunden vor Gray eingereicht haben. Die zur Ausnutzung der Bell’schen Patente gegr¨undete Bell Telephone Association nutzte das durch das Patent erteilte Recht r¨ucksichtslos aus und unterdr¨uckte als Monopolist lange Zeit jegliche anderweitige Herstellung von Telefonen. Aus ihr ging 1885 die American Telephone and Telegraf Company (AT&T) als die gr¨oßte private Telefongesellschaft der Welt hervor. Bereits ein Jahr nach Bells Erfindung wurde 1877 in Boston das erste Telefonnetz mit gerade 5 Anschl¨ussen in Betrieb genommen, deren Eigent¨umer allesamt Bankiers waren. Das Telefon diente also zun¨achst demselben Zweck wie der Telegraf, hatte aber den Vorteil gr¨oßerer Schnelligkeit und umf¨anglicherer Leistungsf¨ahigkeit. 1879 standen noch 294 der 300 in Pittsburgh angeschlossenen Telefonapparate
52
2 Geschichtlicher R¨uckblick
in Gesch¨aftsr¨aumen, w¨ahrend die restlichen 6 Anschl¨usse auf Unternehmer angemeldet waren, die ihre Fabrik auch von zu Hause aus erreichen wollten. Doch bereits im Jahre 1910 verf¨ugte schon ein Viertel aller Privathaushalte in den USA u¨ ber einen Telefonanschluss. Bis 1925 wuchs dieser Anteil sogar auf 40% an. Das Telefon war nun nicht mehr nur im Wirtschaftsleben von Bedeutung sondern spielte auch f¨ur die innerfamili¨are Kommunikation und Geselligkeit eine tragende Rolle. Bis sich das Telefonnetz zu einem weltumspannenden Netzwerk ausbreiten konnte, mussten aber noch viele technische Probleme gel¨ost werden. Lange Zeit verhinderten etwa ungel¨oste Probleme in der Signald¨ampfung den Bau von noch l¨angeren Telefonleitungen. W¨ahrend in der Telegrafie ein quasi digitales, bin¨ares“ Signal ” u¨ bertragen wurde, musste beim analogen Telefongespr¨ach ein ganzes Frequenzspektrum von Signalen u¨ bertragen werden. Der Grad der D¨ampfung eines elektrischen Signals in einem Kabel h¨angt von der Frequenz des Signals ab, d.h. verschiedene Frequenzen werden unterschiedlich stark ged¨ampft und mit fortschreitender Kabell¨ange wird das urspr¨ungliche Signal bis zur Unkenntlichkeit verzerrt. Der amerikanische Elektroingenieur Michael Idvorsky Puppin (1858–1935) entwickelte ¨ 1899 die nach ihm benannte Selbstinduktionsspule zur Verbesserung der Ubertragungsleistung von Fernsprechleitungen. Puppinspulen, in regelm¨aßigen Abst¨anden in die Telefonleitungen eingebaut, erm¨oglichten Ferngespr¨ache u¨ ber einige hundert Kilometer hinweg bei einem wirtschaftlich noch tragbaren Kabeldurchmesser. Die immer noch vorhandene Reichweitenbegrenzung konnte erst mit Einf¨uhrung der Elektronenr¨ohre beseitigt werden. So konnte die Verbindung New York – San Franzisko erst 1914 er¨offnet werden, w¨ahrend das erste Telefon-Transatlantikkabel sogar noch bis 1956 auf sich warten ließ. Ferngespr¨ache u¨ ber den Atlantik waren aber bereits seit 1927 m¨oglich, indem Funkverbindungen zwischengeschalten wurden [113]. Anfangs konnte die geringe Zahl der Telefonteilnehmer noch problemlos manuell durch das vielzitierte Fr¨aulein vom Amt“ u¨ ber Steckverbindungen vermit” telt werden. Die wachsende Zahl der Telefonteilnehmer aber machte die Entwicklung von automatischen Vermittlungsstellen, der sogenannten Selbstw¨ahlvermittlung notwendig. 1889 wurde dem Bestattungsunternehmer Almon Brown Strowger (1839–1902) dazu das erste Patent erteilt, doch konnte seine Erfindung erst nach dem Auslaufen der Patente von Bell 1893 ihren Siegeszug antreten, als auch kleinere, weniger schwerf¨allige Telefongesellschaften auf den Plan traten und den Markt belebten [232]. 1892 nahm die erste vollautomatische Telefonvermittlung der Welt in La Porte, Illinois, ihren Betrieb auf. 1896 entwickelten Mitarbeiter Strowgers dann das erste W¨ahlscheibentelefon.
2.6.2 Vom Phonograph zum Grammophon Etwa zeitgleich mit dem Aufkommen des Telefons kam es zur Entwicklung von Ger¨aten zur permanenten Aufzeichnung und Konservierung von T¨onen und Sprache, welche die beliebige Wiederholbarkeit eines akustischen Ereignisses m¨ogli-
2.6 Der Vormarsch der Individual-Telekommunikation
53
chen machten. 1876 richtete Thomas A. Edison (1847–1931) sein ber¨uhmtes Forschungslabor in Menlo Park ein, in dem er zusammen mit 15 Mitarbeitern an Problemen der Telegrafie und Telefonie arbeitete. 1877 entwickelte er das Kohlemi¨ krophon, das die Ubertragungsqualit¨ at des Telefons erheblich verbesserte und die Grundlage zum Bau des Phonographen, eines Ger¨ats zur Schallaufzeichnung lieferte. Drei Tage bevor Edison am 6 Dezember 1877 die legend¨ar gewordenen Kinderverse Mary had a little lamb“ auf seinem Phonographen abspielte, wurde in ” der Pariser Akademie der Wissenschaften ein Umschlag mit Pl¨anen des Franzosen Charles Cross (1842–1888) ge¨offnet, die dessen Sprachaufzeichnungs- und Wiedergabemaschine, des Pa(r)leophons“ beschrieben und die er bereits am 30. April ” desselben Jahres eingereicht hatte. Allerdings fehlten Cross die finanziellen Mittel, um seine Erfindung patentieren zu lassen [206]. Edisons Phonograph, im englischen auch als Speaking Machine“ bezeichnet, be” stand im Wesentlichen nur aus einer mit Staniolpapier umwickelten Metallwalze, die mit einer Handkurbel gedreht wurde. Tonaufnahme und -wiedergabe waren getrennt. Ein Schalltrichter lenkte den Schall auf eine Aufnahmemembran, die dadurch zu Schwingungen angeregt wurde. Diese Schwingungen wurden mit Hilfe einer Stahlnadel als spiralf¨ormige Rille in unterschiedlich tiefen Eindr¨ucken als wellenf¨ormige Erh¨ohungen und Vertiefungen auf der Walze aufgezeichnet. F¨uhrte man die Walze mit der gleichen Geschwindigkeit wieder unter der Nadel durch, so bewegte die aufgezeichnete Tonspur u¨ ber die Nadel die Membrane, und die aufgezeichneten Schwingungen wurden im Trichter wieder h¨orbar. Kopien einer Aufzeichnung konnten nicht erstellt werden, jede Walze musste einzeln besprochen bzw. bespielt werden. Dabei wirkte der aufgezeichnete Ton blechern und flach. Ab 1888 ersetzte Edison die Staniolpapierwalze durch einen Wachszylinder, wodurch die Klangqualit¨at erheblich verbessert werden konnte.
Abb. 2.14 Edison mit einem fr¨uhen Phonographen, um 1878
54
2 Geschichtlicher R¨uckblick
Anfangs war der Phonograph zun¨achst nur als Diktierger¨at f¨ur den Gesch¨aftsbereich gedacht. Edison versuchte sogar seinen Phonographen als den ersten Telefonanrufbeantworter zu positionieren, allerdings ohne Erfolg. Aufgrund der aufw¨andigen Verarbeitung, notwendig f¨ur die einigermaßen gute Pr¨azision bei der Selbstaufnahme, und des zum Antrieb erforderlichen Elektromotors war der Edison’sche Phonograph zun¨achst noch sehr kostspielig. Weitere Verbreitung fand der Phonograph erst, als preisg¨unstigere Ger¨ate mit Federantrieb auf den Markt kamen. Der entscheidende Nachteil des Phonographen bestand aber vor allen Dingen darin, dass ein praxistaugliches Kopierverfahren f¨ur die bespielten Walzen fehlte [87]. 1887 pr¨asentierte Emil Berliner (1851–1929), ein amerikanischer Elektrotechniker deutscher Herkunft, den ersten auf Edisons Aufnahmetechnik basierenden Musikautomaten, das Grammophon. Das Grammophon war anders als der Phonograph von Anfang an als reines Unterhaltungsmedium konzipiert, das durch seinen einfacheren Aufbau viel preiswerter als der Phonograph angeboten werden konnte. Dieses Ger¨at war allerdings ausschließlich zur Wiedergabe und nicht zur Aufzeichnung geeignet, wobei die im großen Maßstab nur schwer herzustellende Edison’sche Walze der viel einfacher zu vervielf¨altigenden Schallplatte weichen musste. Das Grammophon trat mit dem Einzug in die Privatsph¨are rasch seinen Siegeszug an. Die Schallplatte wurde zum Massenprodukt. Plattenfirmen sch¨utteten in den Jahren vor dem ersten Weltkrieg sagenhafte Dividenden von bis zu 70 Prozent aus und 1907 gab es bereits u¨ ber 100 verschiedene Plattenmarken ( Labels“), darunter auch Emil Berliners ” legend¨arer Hund Nipper, der vor dem Trichter eines Grammophons der Stimme seines Herrn ( His Masters Voice“) lauschte. 1913 stellte Edison die Produktion von ” Zylinder-Phonographen ein und stieg auf das Plattengesch¨aft um.
2.6.3 Fotografie Viel fr¨uher bereits begann die Entwicklung der Fotografie, der authentischen Aufzeichnung eines realen Bildes. Bereits um 900 hatten arabische Gelehrte die Lochkamera als astronomisches Ger¨at zur Beobachtung von Sonnen- und Mondfinsternissen verwendet, deren Prinzip bereits in der Antike entdeckt und von Aristoteles (384–322 v. Chr) dargelegt worden war. Beschrieben wurde die Lochkamera vom arabischen Physiker und Mathematiker Ibn Al-Haitham (965–1040). Ab dem 16. Jahrhundert wurde sie dann ausgestattet mit einer Linse zur Camera Obscura (=[lat.]dunkle Kammer) weiterentwickelt. Die Camera Obscura war nichts weiter als ein von innen geschw¨arzter Kasten, auf dessen transparenter R¨uckwand (der Mattscheibe) ein auf der Vorderseite befindliches Loch oder eine Sammellinse von einem Gegenstand außerhalb der Camera ein verkleinertes, auf dem Kopf stehendes und seitenverkehrtes Bild erzeugte. Der th¨uringer Jesuitenpater und Naturforscher Athanasius Kircher (1601–1680) kam als erster auf die Idee, eine Linse in die Camera Obscura einzubauen. So konnte er nachts mit Hilfe von Kerzen Bilder auf die Papierfenster eines gegen¨uberliegenden Hauses projizieren. Er belustigte und erschreckte seine Zuschauer, indem er furchterregende Teufel oder riesig vergr¨oßerte
2.6 Der Vormarsch der Individual-Telekommunikation
55
Fliegen an die W¨ande projizierte. Daher wurde seine Entwicklung im Volksmund als Zauberlampe – Laterna Magica – bekannt [170].
Abb. 2.15 Das Prinzip der Camera Obscura (1646), aus [131]
Bis ins 19. Jahrhundert wurde die Camera Obscura auch als Hilfsmittel von K¨unstlern benutzt, um m¨oglichst naturgetreue Zeichnungen anzufertigen. Der f¨ur seine Stadtansichten ber¨uhmte Maler Antonio Canaletto (1697–1768) beispielsweise fertigte seine ersten Skizzen einer Stadtansicht jeweils mit Hilfe einer tragbaren Camera Obscura an. Was aber zur Fotografie noch fehlte, war eine Methode, dieses Bild auf der Mattscheibe dauerhaft festzuhalten. Bereits im 17. Jahrhundert war bekannt, dass sich zahlreiche Substanzen, wie z.B. Silberverbindungen im Sonnenlicht verf¨arben bzw. schw¨arzen. Aber erst der deutsche Arzt Heinrich Schulze (1687–1744) entdeckte 1727 in Halle an der Saale, dass nicht die Sonnenw¨arme die Ursache f¨ur dieses Ph¨anomen war, sondern die Lichtenergie f¨ur die Ver¨anderung verantwortlich ist. Ihm gelang die Herstellung erster, allerdings noch nicht dauerhaft haltbarer Lichtbilder [169]. 1802 erschien ein Artikel Thomas Wedgewoods (1771–1805) in London, der die wichtigsten Ideen zur Technik der Fotografie vollst¨andig beschrieb. 15 Jahre sp¨ater gelang es dann dem franz¨osischen Offizier und Privatgelehrten Nic´ephore Niepce (1765–1833) mit der von ihm entwickelten Heliographie, diese Ideen zum ersten Mal in die Tat umzusetzen und dauerhafte Bilder zu entwickeln. Der Pariser Schausteller Louis Jacques Mand´e Daguerre (1787–1851), ein u¨ beraus t¨uchtiger Gesch¨aftsmann machte sich zu seinem Partner und setzte nach Niepce’s Tod dessen Arbeiten fort. Er entwickelte die Technik weiter zur nach ihm benannten Daguerreotypie, Jodsilberplatten von hoher Pr¨azision, die sich allerdings nicht vervielf¨altigen ließen, sondern immer nur Unikate blieben. 1839 bat er den renommierten franz¨osischen Wissenschaftler Francois Dominique Arago (1786–1853), seine Erfindung der Pariser Akademie der Wissenschaft vorzutragen. Arago gelang es tats¨achlich, das neue Verfahren wissenschaftliche zu rechtfertigen – Daguerre wurde als Nichtakademiker in diesem Kreis nicht ernst genommen – und motivierte die
56
2 Geschichtlicher R¨uckblick
franz¨osische Regierung dazu, Daguerre das Verfahren f¨ur einen enormen Geldbetrag abzukaufen. Dieser allerdings hatte bereits f¨unf Tage zuvor f¨ur das Verfahren in London einen Patentantrag gestellt [10]. Ein erstes Positiv-Negativ-Verfahren f¨ur Papierbilder, mit dem man Bilder beliebig oft vervielf¨altigen konnte, die Kalotypie, wurde 1839 vom Engl¨ander William Fox Talbot (1800–1877) entwickelt. Seine geniale Idee bestand darin, statt eines einmaligen Positivs ein Negativ herzustellen, von dem aus man beliebig viele Positivabz¨uge machen konnte. Dazu presste er ein bereits einmal belichtetes und ein unbelichtetes Papier unter einer Glasscheibe zusammen und setzte beide dem Sonnenlicht aus. So konnten sich dunkle Gegenst¨ande auf dem zweiten Papier auch dunkel abzeichnen und das im Gegensatz zu den bisherigen Verfahren auch seitenrichtig [1]. Dieses Verfahren wird in a¨ hnlicher Weise auch heute noch als sogenannte Kontaktkopie angewandt. In den folgenden Jahren weitete sich der Markt f¨ur Fotografie rasch aus, allerdings war neben den k¨unstlerischen F¨ahigkeiten des Fotografen immer auch seine handwerkliche Geschicklichkeit gefragt, da jeder Fotograf sein Fotomaterial selbst herstellen musste, was einer weitl¨aufigeren Verbreitung im Wege stand. Im Zuge der Weiterentwicklung der Fototechnologie gelang es, die n¨otige Belichtungszeit zu verk¨urzen. Waren bei Ni´epce noch mehrere Stunden notwendig, verk¨urzte Daguerre bereits die Belichtungszeit auf wenige Minuten. Der englische Bildhauer Frederick Scott Archer (1813–1857) entwickelte 1851 ein auf Kollodiumplatten basiertes Nassverfahren, das die Belichtungszeit sogar auf wenige Sekunden reduzierte und die Daguerrotypie zur veralteten Technik werden ließ. Bei Kollodium ¨ handelt es sich um eine z¨ahfl¨ussige L¨osung von Nitrozellulose in Alkohol und Ather, die u¨ blicherweise in der Medizin zum Schließen von offenen Wunden Verwendung fand. Allerdings mussten Archers Kollodiumplatten noch vor Ort und direkt vor der Belichtung angefertigt und nass (daher der Name des Verfahrens) in die Kamera gelegt werden [10]. Die Technik wurde weiter verbessert durch den englischen Arzt Richard Leach Maddox (1816–1902), der im Jahr 1871 Archers Kollodium erstmals durch Gelatine, versetzt mit Bromsilber als lichtempfindliche Schicht ersetzte. Die auf dieser Basis entwickelten Bromsilberpapiere lieferten in Sekundenschnelle Abz¨uge von Negativen und bildeten die Grundlage des heute noch u¨ blichen Verfahrens. Im Gegensatz zu Archers Kollodiumplatten mussten die mit Gelatine u¨ berzogenen Platten nicht sofort verarbeitet werden, sondern konnten vor der eigentlichen Belichtung monatelang gelagert werden [1]. Der Durchbruch der Fotografie f¨ur Jedermann gelang erst, als der Amerikaner George Eastman (1854–1932), ein ehemaliger Sparkassenangestellter, neben dem flexiblen und einfach handhabbaren Rollfilm im Jahr 1888 eine komplette Infrastruktur, angefangen von der Kamera bis zum Entwicklungs- und Vergr¨oßerungs-Service unter dem selbsterfundenen Namen Kodak“ auf den Markt brachte. Eastmans ” Kodak-Box“ Kamera wurde zusammen mit dem bereits darin befindlichen Film zu ” einem Preis von nur 25 US-Dollar angeboten. Waren alle 100 Bilder des Films abfotografiert, wurde die komplette Kamera an das Kodak-Werk eingeschickt, in dem dann die Bilder entwickelt und die Kamera mit einem neuen Film best¨uckt nach nur wenigen Tagen wieder an den Kunden zur¨uckgesandt wurde. Durch die Trennung der beiden Vorg¨ange des eigentlichen Fotografierens und der anschließenden
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen
57
chemischen Filmentwicklung konnte man jetzt auch ohne spezielle Ausbildung und Vorkenntnissen zum Amateurfotografen werden. Mit seinem Slogan You press the ” button, we do the rest“ ebnete Eastman der Fotografie den Weg zum Massenkonsum [169]. Der Weg vom analogen Film zum digitalen Bild war dann ein kurzer. Er begann ¨ zwischen 1960 und 1970, als im Zuge des US-Raumfahrtprogramms erste Uberlegungen angestellt wurden, aus Gruppen von diskreten Sensorelementen Standbilder und bewegte Videobilder zu gewinnen. Der Durchbruch in der Entwicklung der Digitalfotografie gelang 1973 mit einem von der Firma Fairchild entwickelten CCDBildsensor (Charge-Coupled Device), einem hochaufl¨osenden Sensor, der Lichtimpulse in elektrische Signale umzuwandeln vermochte. Steven Sasson (*1950), Entwicklungsingenieur bei Eastman Kodak, konstruierte damit 1975 den ersten Prototypen einer digitalen Kamera, die Schwarz-Weiß-Aufnahmen auf einer zugeh¨origen Bandkassette abspeichern konnte. Die Aufl¨osung der Kamera betrug gerade einmal 10.000 Bildpunkte (0.01 Megapixel). Sie wog knapp 4 kg und ben¨otigte 23 Sekunden um ein einzelnes Bild aufzunehmen. Ende der 1990ger Jahre erschienen die ersten preiswerteren Amateur-Digitalkameras auf dem Markt und der Siegeszug der Digitalfotografie begann, die heute die alte Analogfotografie beinahe vollst¨andig verdr¨angt hat.
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen 2.7.1 Funktelegrafie In Bezug auf ihren historischen Ursprung – der Telegrafie – steht die Entwicklung der Funktelegrafie und des Rundfunks in einem engen Zusammenhang mit der Telefontechnik. Aus der großen Zahl der Pioniere des Rundfunks ragen – abgesehen von Michael Faraday, James Clerk Maxwell (1831–1879), Heinrich Hertz (1857–1895) und Eduard Branly (1846–1940), deren Arbeiten die Grundlage der Funktechnik bildeten – zwei große Pers¨onlichkeiten heraus, die Ende des 19. Jahrhunderts zu Wegbereitern der drahtlosen Nachrichten¨ubertragung wurden: der russische Schiffsbauingenieur Alexander Stephanowitsch Popow (1858–1906) und der italienische Ingenieur und Physiker Guglielmo Marconi (1874–1934). Maxwell postulierte 1865 als erster die Existenz elektromagnetischer Wellen, die entstehen, wenn elektrische und magnetische Felder rasch ihre St¨arke ver¨andern und schuf mit seinem 1873 publizierten Aufsatz A Dynamical Theory of the Electroma” gnetic Field“ die theoretische Grundlage f¨ur eine neue, bislang v¨ollig unbekannte M¨oglichkeit der Kommunikation u¨ ber praktisch unbegrenzte Distanzen hinweg – die Radiotechnik [154]. Hertz gelang 1885 in seinem Labor in Karlsruhe der praktische Nachweis der von Maxwell postulierten Wellen. Er bewies, dass elektromagnetische Wellen tats¨achlich alle Eigenschaften physikalischer Wellen besitzen und sich nur durch ihre Frequenzen unterscheiden. Allerdings sah er noch keinen prak-
58
2 Geschichtlicher R¨uckblick
tischen Nutzen f¨ur seine Entdeckung. Den n¨achsten Schritt zum Radioempf¨anger machte der franz¨osische Physiker Branly im Jahre 1890. Ihm gelang es, die elektromagnetischen Wellen in elektrische Impulse umzuwandeln. Er entdeckte, dass sich Eisensp¨ane, die normalerweise schlechte elektrische Leiter sind, unter dem Einfluss von elektromagnetischen Wellen zu einem koh¨arenten – also gleichgerichteten, zusammenh¨angenden – B¨undel ausrichten und entwickelte daraus die erste Radior¨ohre der Welt, den Koh¨arer [179]. Popow pr¨asentierte bereits 1895 einen kompletten Empf¨anger f¨ur elektromagnetische Wellen. Da es aber noch an einem ad¨aquaten Sendeger¨at mangelte, konstruierte Popov auf Basis des von Branly entwickelten Koh¨arers einen Gewitter-Detektor, der durch Blitzentladungen in der Atmosph¨are verursachte elektromagnetische Wellen empfangen konnte. Im darauffolgenden Jahr gelang es ihm an der Universit¨at in Sankt Petersburg mit Hilfe eines von ihm konstruierten Sendeger¨ats, drahtlose Signale u¨ ber eine Entfernung von 250 Metern zu u¨ bertragen. Noch im selben Jahr konnte Popow vermittels einer von ihm entwickelten speziellen Ballonantenne nachweisen, dass auch Weitverkehrs-Signal¨ubertragungen u¨ ber eine Distanz von mehr als 30 Kilometern m¨oglich waren [70]. Zu den ersten Einsatzgebieten der neuen Funktelegrafie z¨ahlte der Schiffsfunk, auf den auch die ersten Experimente Marconis ausgerichtet waren. F¨ur die Kombination der Arbeiten von Popow (Antenne, Relais und Klingel), Hertz (Hochfrequenzerzeuger) und Branly (Koh¨arer) erhielt Marconi 1896 ein Patent, das zur Grundlage seiner weiteren Versuche wurde, die Fernwirkung von Funksignalen zu erh¨ohen. Wurden bislang elektromagnetische Wellen mit Hilfe einer Funkenstrecke erzeugt, so verlegte der deutsche Physiker und Funkpionier Karl Ferdinand Braun (1850–1918) die Funkenstrecke in einen Schwingkreis und koppelte ihn mit einer Antenne. Durch diesen 1898 patentierten gekoppelten“ Sender war es m¨oglich, Funkwellen in eine ” bestimmte Richtung zu lenken und gr¨oßere Reichweiten zu erzielen [91]. Am 12. Dezember 1901 gelang Marconi die erste Funk¨ubertragung zwischen England und Neufundland u¨ ber den Atlantik und bereits 1907 wurde der erste kommerzielle transatlantische Funktelegrafiedienst eingerichtet. Die Forderung der Milit¨ars nach Erbringung schriftlicher Belege f¨ur Nachrichten war dann aber ein wesentlicher Grund, dass sich die neue Technik gegen¨uber der bereits bew¨ahrten, drahtgest¨utzten Morse-Telegrafie nur z¨ogerlich durchzusetzen begann. Dennoch kam die neue Funktechnik bereits im ersten Weltkrieg auf beiden gegnerischen Seiten bei Heer und Marine zum Einsatz. Mit dem Untergang der Titanic in der Nacht vom 14. auf den 15. April 1912 erschien die neue Funktechnik pl¨otzlich in einem ver¨anderten Licht: Sie wurde zu einem Medium, mit dem sich Rettungsarbeiten auf hoher See koordinieren ließen. Das modernste Schiff der Welt ging unter, aber noch im Untergang erm¨oglichte es die neue Technik, Verbindung mit dem Festland aufzunehmen. Der Untergang der Titanic hatte insofern weitreichende Konsequenzen, als nur wenige Monate sp¨ater auf der dritten internationalen Funkkonferenz in London, der sogenannten Titanic-Konferenz“ – beschlossen wurde, dass zuk¨unftig alle Reeder ” ihre Schiffe mit Funktechnik auszur¨usten hatten. Zus¨atzlich wurde die Einf¨uhrung einer internationalen Seenotfrequenz und die Verwendung des SOS“-Notsignals ” beschlossen [70, 91].
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen
59
Abb. 2.16 Portrait des Funkpioniers Guglielmo Marconi (1874–1937)
Mit der Einf¨uhrung der Drei-Elektroden-Vakuumr¨ohre mit Metallgitter, der Triode, ¨ gelang 1908 dem Amerikaner Lee De Forest (1873–1961) und dem Osterreicher Robert von Lieben (1878–1913) der Durchbruch in der Verst¨arkertechnik, die bislang auf dem Branly-Koh¨arer basierte. Von nun an bis zur Einf¨uhrung des Transistors (1947) bildet die Trioden-R¨ohre die Grundlage f¨ur die Rundfunktechnik.
2.7.2 Rundfunk Die erste Rundfunk¨ubertragung der Geschichte fand am 25. Dezember 1906 statt: Die Funker auf den Schiffen vor der K¨uste Neuenglands waren sicherlich erstaunt, als sie an diesem Weihnachtstag zwischen dem gew¨ohnlichen Piepsen der Morsezeichen pl¨otzlich eine Stimme h¨orten, die aus dem Evangelium nach Lukas las, gefolgt von einer Violin-Interpretation des Weihnachtsliedes Stille Nacht“. Reginald ” Fesseden (1866–1932), kanadischer Ingenieur und Erfinder war f¨ur diese erste ex¨ perimentelle Ubertragung verantwortlich [179]. Bereits 1900 gelang Fesseden und seinem Assistenten die erste Sprechfunk¨ubertragung mit Hilfe eines von ihm entwickelten Modulationsverfahrens. Die Idee eines Rundfunks f¨ur alle“ und wie dieser eine tragf¨ahige wirtschaftli” che Basis erhalten k¨onnte, geht auf David Sarnoff (1891–1971), einen Radiotechniker Marconis und sp¨ateren Vizedirektor der American Marconi Company zur¨uck. Sarnoff erhielt bereits zuvor Ber¨uhmtheit, da er der Funker war, der 1912 die Signale der sinkenden Titanic auf Nantucket Island in Massachussetts empfing und w¨ahrend 72 Stunden ununterbrochen die Namen der Geretteten notierte und weiterleitete. Er hatte bereits 1916 ein Memorandum an Marconi gerichtet, in dem er die
60
2 Geschichtlicher R¨uckblick
Idee der Radio Music Box“ als einem h¨auslichen Konsumartikel, a¨ hnlich wie das ” Klavier oder der Phonograph, vorstellte. Zun¨achst als verr¨uckte Idee verworfen, die angesichts der andauernden Patentkriege zwischen den verschiedenen Funkpionieren wenig aussichtsreich erschien, legte er 1920 seinen hinsichtlich der wirtschaftlichen Aspekte erg¨anzten Plan erneut vor und und diesmal mit Erfolg: der Rundfunk war aus der Taufe gehoben. Angesichts des immer noch herrschenden Kriegsrechts kontrollierte die amerikanische Regierung noch alle Patente. Dadurch wurde die Bildung einer gesamtamerikanischen Radiogesellschaft m¨oglich gemacht, der Radio Corporation of America (RCA), die in der Folge zum weltgr¨oßten Hersteller von Radioger¨aten werden sollte. Die erste auf kommerzieller Basis, regelm¨aßig arbeitende Rundfunkstation, der amerikanische Sender KDKA, der im Oktober 1920 eine Sendelizenz erteilt bekam, startete seine Sendungen am 2. November 1920 in Pittsburgh. Er arbeitete im Mittelwellenbereich und sendete unterhaltsame und informative Programme. Hervorgegangen ist diese erste Rundfunkstation aus den Aktivit¨aten eines fr¨uhen Hobbyfunkers. Der ehemalige Marineoffizier und Angestellte der Telegrafenfirma Westinghouse, Frank Conrad, (1874–1941) begann zwischen 1918 und 1919 zun¨achst zu Testzwecken Grammophonplatten und Klavierst¨ucke von seiner Garage aus u¨ ber Funk abzuspielen und bat benachbarte Funkamateure um eine R¨uckmeldung bzgl. der erzielten Sendequalit¨at. Schnell entwickelte sich diese stets freitagabends abge¨ spielten Atherkonzerte“ zu einem beliebten Freizeitereignis [70]. Conrad begann ” mit dem Ausbau eines Senders. Den Auftakt der ersten o¨ ffentlichen Rundfunk¨ubertragung bildete eine Live¨ubertragung der Ergebnisse der amerikanischen Pr¨asidentschaftswahl. Innerhalb weniger Monate entstanden zahlreiche weitere Sender, und Firmen der unterschiedlichsten Branchen begannen in Eigenverantwortung, Shows und Programme zu Werbezwecken auszusenden. Zur selben Zeit vollzog sich in Deutschland die Entwicklung eines o¨ ffentlichen Rundfunks. Am 19. November 1919 zeigte der Funkpionier Hans Bredow (1879– 1959) in einer o¨ ffentlichen Demonstration die Wirkungsweise des Unterhaltungsrundfunks, wobei er zwei Jahre sp¨ater in einem Vortrag erstmals auch den Begriff Rundfunk“ pr¨agte. Ausschlaggebendes Ereignis f¨ur die Entwicklung des Medi” ums war der sogenannte Funkerspuk“: Am 9. November 1918 besetzten nach russi” schem Vorbild revolution¨are Arbeiter die Zentrale des deutschen Pressenachrichtenwesens und verk¨undeten irrt¨umlich den Sieg der radikalen Revolution in Deutschland. Daraufhin entstanden erste Kontrollgesetze, um den Missbrauch des neuen Mediums zu verhindern. 1919 wurde ein Hoheitsrecht des deutsche Reiches verabschiedet, dass die Einrichtung und den Betrieb von Sende- und Empfangsanlagen genehmigungspflichtig machte. Ab 1922 war Privatleuten der Empfang von Funksendungen sogar untersagt, jedoch wurde das Gesetz bereits im Folgejahr wieder fallengelassen und statt dessen eine Geb¨uhrenordnung verabschiedet. Als Geburtsstunde des deutschen Rundfunks gilt der 29. Oktober 1923, an dem die erste Runfunk-Unterhaltungssendung aus dem Vox-Haus in Berlin-Tiergarten, nahe dem Potsdamer Platz in Berlin ausgestrahlt wurde [91]. Der Schritt des Rundfunks zum Massenmedium war schnell vollzogen und auch Politiker erkannten die ungeheueren M¨oglichkeiten dieses drahtlosen Kommuni-
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen
61
kationsmediums. Der Missbrauch des Rundfunks zur manipulierenden Propaganda vollzog sich sp¨atestens mit dem ab 1933 durch die deutschen Nationalsozialisten propagierten Einheitsradio, dem sogenannten Volksempf¨anger“. Der erste ” billige Volksempf¨anger, der ber¨uhmte VE301 (die Zahl 301 wies auf den Tag der Macht¨ubernahme durch die Nationalsozialisten in Deutschland hin) wurde millionenfach produziert, war unpf¨andbar und konnte sinnigerweise keine ausl¨andischen Sender empfangen. Am 23. Dezember 1947 demonstrierten die Amerikaner John Bardeen (1908–1991), Walter House Brattain (1902–1987) und William Shockley (1910–1989) in den Bell Laboratories/New York den ersten Transistor f¨ur den sie 1956 gemeinsam mit dem Nobelpreis ausgezeichnet wurden. Zu Demonstrationszwecken entfernten sie aus einem herk¨ommlichen R¨ohrenradio alle Vakuumr¨ohren und ersetzten diese durch Transistoren: das Transistorradio war geboren. Die Bell-Telefongesellschaft, die einen ungeheueren Personalaufwand betrieb, um ihre Telefon-Netzwerke zu warten, hatte die Aufgabe gestellt, einen zuverl¨assigeren und widerstandsf¨ahigeren Schalter als die fehleranf¨allige Vakuumr¨ohre zu entwickeln. Nach unz¨ahligen Versuchen gelang es dem Team um Shockley aus halbleitenden Materialien den ersten Transistor als Schaltelement zu entwickeln. Niemand konnte damals die Auswirkungen dieser Entdeckung auch nur erahnen, die sich sehr schnell in allen Bereichen der Elektronik als von Bedeutung erwies. Weil die Bell Laboratories die Patente gegen Zahlung von Lizenzgeb¨uhren freigeben mussten, konnten sich von Anfang an viele Produzenten an der weiteren Nutzbarmachung des Transistors beteiligen. Das erste kommerzielle Transistorradio brachte 1954 die amerikanische Firma Texas Instruments auf den Markt. Ein wichtiger Vorteil f¨ur die Hersteller von Radioger¨aten bestand nun darin, dass der Transistor die Konstruktion von leichteren und mobilen Ger¨aten gestattete, was zu ihrer explosionsartigen Verbreitung f¨uhrte.
2.7.3 Film und Kino Der Film oder das mit optischen bzw. mechanischen Mitteln erzeugte Bewegungsbild, begann nicht mit Aufnahmen aus der realen Welt, sondern mit von Menschenhand geschaffenen Zeichnungen und Bildern. Das zu Grunde liegende Prinzip macht sich ein als Netzhauttr¨agheit bezeichnetes Ph¨anomen zu Nutze, das bereits im Altertum von Ptolem¨aus von Alexandria (85–165 n. Chr.) im 2. Jahrhundert beschrieben wurde: Ein Bild der Gesichtswahrnehmung bleibt auf der Netzhaut des menschlichen Auges f¨ur ca. 1/16 Sekunde erhalten, bevor es wieder verlischt. Erst im 19. Jahrhundert wurde dieses Ph¨anomen wiederentdeckt und erste mechanische Apparate zum Betrachten von Bewegtbildern wurden entwickelt, die in schneller Folge eine Sequenz von Stroboskopbildern zeigten und dadurch den Eindruck eines Bewegungsablaufes vermittelten. Ausgehend von Entwicklungen wie dem photo” ´ graphischen Gewehr“ (1882) des franz¨osischen Physiologen Etienne Jules Marey (1830–1904), reichte Thomas A. Edison 1889 ein Patent auf den Kinematographen ein, dem 1894 das Kinematoskop als Vorf¨uhrger¨at f¨ur das neue Medium folgte.
62
2 Geschichtlicher R¨uckblick
Beide Apparate folgten demselben Prinzip, indem Zelluloidfilmstreifen mechanisch an einem Objektiv vorbeitransportiert und dabei belichtet bzw. betrachtet werden konnten. Allerdings konnte das Kinetoskop immer nur von einer einzelnen Person benutzt werden. Da Edison die Bedeutung des Films in diesem Kontext untersch¨atzte, unternahm er keine Anstrengungen, das Kinetoskop zu einem Projektionsger¨at weiterzuentwickeln, wie es naheliegend gewesen w¨are [1]. Dies bewerkstelligten erst die Gebr¨uder Louis Jean Lumi`ere (1864–1948) und Auguste Lumi`ere (1862–1954) mit dem von ihnen 1895 entwickelten, ausgereiften kinematografischen Verfahren. Am 28. Dezember 1895 f¨uhrten sie ihren ersten Film einem gr¨oßeren – und auch zahlendem – Publikum im Grand Caf`e auf dem Bou¨ des Kinos hatte begonnen. Bereits zwei levard des Capucines in Paris vor: die Ara Monate vor dem Erfolg der Br¨uder Lumi`ere f¨uhrten die beiden deutschen Schausteller Max und Emil Skladanowsky (1863–1939 und 1859–1945) ihre ersten Filme mit dem von ihnen entwickelten Vorf¨uhrger¨at, dem Bioskop, im Berliner Variet´e Wintergarten vor und verbl¨ufften ihr Publikum. Da die Gebr¨uder Lumi`ere als Fabrikanten u¨ ber das n¨otige Kapital und Kontakte zur Wirtschaft verf¨ugten, aber auch da der von ihnen entwickelte Cin´ematographe sowohl Filmkamera, Kopierger¨at und Filmprojektor zugleich war, konnte sich ihre Erfindung in den Folgejahren durchsetzen. Die Lumi`eres verliehen und verkauften ihre Apparate an Schausteller, die zun¨achst auf Jahrm¨arkten, sp¨ater dann als Wanderkinobetreiber Kurzfilme vorf¨uhrten. Mit wachsender Bekanntheit und Popularit¨at des Films entstanden erste ortsfeste Kinos – in Deutschland als Kintop“ und in den USA als Nickelodeon“ bezeichnet. Um Be” ” sucher anzulocken, waren diese Kinos st¨andig auf neues Filmmaterial angewiesen. Da die Lumi`eres den Film nur als reine Erweiterung oder Erg¨anzung zur Fotografie sahen, beschr¨ankten sie sich auf die Dokumentation realer Ereignisse. Der franz¨osische Theaterbesitzer Georges M`eli´es ist der erste Filmproduzent, der das narrative (erz¨ahlende) Potenzial der bewegten Bilder erkannte und ab 1896 ausschließlich inszenierte Filme drehte – die Filmindustrie war geboren [170]. Schon gleich zu seiner Geburt versuchte man den Film mit dem Edisonschen Phonographen zu kombinieren, doch die notwendige Synchronisation der beiden Medien stellte ein großes Problem dar, das es zu l¨osen galt. Besonders deutlich wurde dieses Problem, wenn sprechende Menschen gezeigt wurden, da hier Unregelm¨aßigkeiten in der Synchronisation sofort wahrgenommen werden. Es musste also ein Weg gefunden werden, Bild und Ton auf ein gemeinsames Medium zu bannen. Doch wirklich stumm war der Kinofilm nie. Von Anfang an wurde in den Kinos¨alen f¨ur musikalische Begleitung gesorgt, die meist von Klavierspielern, sogenannten Tap” peuren“ u¨ bernommen wurde. Bei Premierenfeiern oder in großen Kinos wurden Filme sogar von ganzen Orchestern begleitet. Ein praktikables Tonfilmverfahren konnte erst unter Ausnutzung des sogenannten Photoeffekts entwickelt werden, der bewirkt, dass sich die Leitf¨ahigkeit bestimmter Substanzen bei unterschiedlichen Lichtbedingungen ver¨andert. Eine Tonspur kann mit diesem als Lichttonverfahren bezeichneten Verfahren synchron zusammen mit dem Bild auf dem optischen Filmtr¨agermedium gespeichert werden. 1922 gelang dem polnischen Ingenieur J`ozef Tykoci`nski-Tykociner (1877–1969) in den USA die erste technische Umsetzung des Lichttonverfahrens. Unabh¨angig davon entwickelte
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen
63
Abb. 2.17 Kinematograph um 1917, aus [45]
auch der deutsche Ingenieur Hans Vogt (1890–1979) ein Lichttonverfahren und am 17. September 1922 konnte im Berliner Filmtheater Alhambra am Kurf¨urstendamm ¨ der erste kurze Lichttonfilm der Offentlichkeit vorgef¨uhrt werden [125]. Allerdings blieb der Erfolg in Deutschland zun¨achst aus, so dass die Tonfilm-Patente in die USA an William Fox (1879–1952) verkauft wurden, der den Tonfilm ab 1928 zu Weltgeltung bringen sollte. Am 6. Oktober 1927 fand die Premiere des von den Warner-Brothers produzierten abendf¨ullenden Tonfilms The Jazz Singer“ mit Al ” ¨ war endg¨ Jolson in der Hauptrolle statt, und die Tonfilm-Ara ultig angebrochen. Mittlerweile existieren digitale Lichttonspuren, wie Dolby Stereo SR-Digital, das heute am weitesten verbreitete digitale Tonverfahren. Dabei wird im Gegensatz zum analogen Lichttonverfahren der Ton nicht analog auf den Film kopiert, sondern in Form digitaler Informationen, die von einer Fotozelle erfasst und anschließend in einem Dekoder in Tonsignalen verwandelt werden. Digitale Lichttonspuren erlauben eine h¨ohere Dynamik und damit eine bessere Klangqualit¨at, mehr Kan¨ale f¨ur bessere r¨aumliche Abbildung des Tons und eine gesteigerte Rauschunterdr¨uckung.
2.7.4 Fernsehen Ebenso wie beim Film nutzt Fernsehen das Ph¨anomen der Netzhauttr¨agheit. Das ¨ Fernsehen als elektromagnetische Ubertragung von Bewegtbildern beruht auf dem
64
2 Geschichtlicher R¨uckblick
Prinzip, das Bild in einzelne Zeilen und Punkte aufzul¨osen, die bei der Reproduktion hinreichend schnell wieder zum urspr¨unglichen Bild zusammengesetzt werden. Beim Fernsehen wird so bereits bei der Wiedergabe jedes Einzelbildes die Netzhauttr¨agheit ausgenutzt, damit dieses u¨ berhaupt als ein Gesamtbild erkannt werden kann. Ausgehend von der systematischen Abtastung einer Szene zur Signalgewinnung entwickelte der Ingenieur Paul Nipkow (1860–1940) eine nach ihm benannte Lochscheibe mit spiralf¨ormig angeordneten L¨ochern, die zur Aufnahme einer Szene in Rotation versetzt wird und die er bereits 1884 patentieren lies [1]. Auf der Aufnahmeseite wird die aufzunehmende Szene zeilenweise mit Hilfe der Nipkowscheibe abgetastet, wobei das r¨aumliche Nebeneinander der einzelnen Bildpunkte, d.h. deren Helligkeitswerte mit Hilfe einer lichtempfindlichen Selenzelle in ein zeitliches Nebeneinander unterschiedlicher Spannungswerte umgesetzt wird. Auf der Wiedergabeseite wird das Bild demselben Prinzip folgend wieder zusammengesetzt. Nipkow nannte seine Erfindung noch elektrisches Teleskop“. Sein Patent ” verfiel jedoch bereits 1885 aus Geldmangel und diente zahlreichen weiteren Fernsehpionieren als Arbeitsgrundlage. Das deutsche Wort Fernsehen ist erst um 1890 herum entstanden, w¨ahrend das Wort Television“ erst nach der Jahrhundertwende ” in Frankreich und den USA in Gebrauch kam. Zusammen mit der 1897 von Karl Ferdinand Braun erfundenen und nach ihm benannten Elektronenstrahlr¨ohre, die zuerst von dem deutschen Physiker Max Dieckmann (1882–1960) und dem russischen Physiker Boris Iwanowitsch Rosing (1869– 1933) als Wiedergabeger¨at 1906/1907 benutzt wurde, konnte das erste elektromechanische Fernsehsystem der Welt geschaffen werden. Allerdings ließ die erste o¨ ffentliche Fernseh¨ubertragung noch bis 1925 auf sich warten. Sie fand dann jedoch nahezu zeitgleich in drei L¨andern statt: in Deutschland durch August Karolus (1893–1972), in Großbritannien durch John Logie Baird (1888–1946) und in den USA durch Charles Francis Jenkins (1867–1934). Die erste, elektromechanische Epoche des Fernsehens endete 1928/1929. Es standen bereits 60-zeilige Abtastinstrumente zur Verf¨ugung und in den USA wurden die ersten regelm¨aßigen“ Fern” sehsendungen ausgestrahlt. Die erste vollelektronische Fernsehkamera, das Ikonoskop wurde von Vladimir K. Zworykin (1889–1982), der heute als der eigentliche Vater des modernen Fernsehens gilt, 1923 zum Patent angemeldet. Die erste elektronische Bildr¨ohre – das Kinoskop – folgte 1929. Zu Beginn konnte Zworykin mit seiner neuen Methode nur ein einfaches Fadenkreuz u¨ bertragen, so dass die Firma, bei der er besch¨aftigt war, die Westinghouse Electric Corporation in Pittsburgh, kein besonderes Interesse an der Neuentwicklung zeigte. 1929 gelang es Zworykin den Radiopionier David Sarnoff von RCA mit einer verbesserten Version seiner Entwicklung zu u¨ berzeugen, der ihn bei RCA als Direktor f¨ur elektronische Forschung besch¨aftigte. 1939 erhielt Zworykin das Patent auf ein vollelektronisches Fernsehsystem auf Basis von Ikonoskop und Kinoskop. In Deutschland startete 1935 das erste regelm¨aßige Fernsehprogramm, das allerdings nur f¨ur ein halbes Jahr in Betrieb gehen sollte und auf einem 180-zeiligen Verfahren beruhte. Die 1922 gegr¨undete British Broadcasting Corporation (BBC) betrieb von 1936–1939 bereits einen hochaufgel¨osten 405-zeiligen Fernsehdienst, der
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen Tabelle 2.2 Meilensteine in der Geschichte der Kommunikationsmedien (2) 1184 v. Chr. 150 n. Chr. 1608 1684 1690 1730 1745 1794 1809 1816 1819 1820 1831 1833 1838 1840 1845 1851 1856 1860 1877 1877 1886 1888 1889 1889 1893 1893 1896 1901 1919 1924 1927 1935 1935 1962 1973 1982 1995 2002 2008
der Fall Trojas wird mit Fackelzeichen nach Griechenland telegrafiert der Effekt der Netzhauttr¨ agheit wird beschrieben das Fernrohr wird in Holland erfunden Robert Hookes Mittel zur Mitteilung der eigenen Gedanken u ¨ber ” weite Entfernungen“ Guillaume Amontons erste Experimente mit dem Semaphor Stephen Gray zeigt, dass sich Elektrizit¨ at entlang eines Drahts fortpflanzt mit der Leidener Flasche l¨ asst sich Elektrizit¨ at erstmals speichern erste regul¨ are optische Telegrafenlinie zwischen Paris und Lille Samuel Thomas S¨ ommerring verbessert den Elektrolyt-Telegraf Nic` ephore Niepce entwickelt die Fotografie Christian Oerstedt entdeckt den Elektromagnetismus Andr` e Marie Amp´ ere’s elektromagnetischer Nadeltelegraf Michael Faraday entdeckt die elektromagnetische Induktion Carl Friedrich Gauss und Wilhelm Weber entwickeln den Zeigertelegrafen Samuel Morses schreibender Telegraf tritt seinen Siegeszug an Einf¨ uhrung des Morse-Alphabets sternf¨ ormiges optisches Telegrafennetz in ganz Frankreich erstes Unterseetelegrafenkabel zwischen England und dem Kontinent das erste Transatlantik-Telegrafenkabel wird verlegt James Maxwell entwickelt eine einheitliche Theorie f¨ ur Elektrizit¨ at und Magnetismus Alexander Graham Bell und Elisha Gray entwickeln das Telefon Thomas A. Edison stellt den ersten Phonographen vor Heinrich Hertz entdeckt die elektromagnetischen Wellen George Eastman entwickelt das Fotografieren f¨ ur jedermann Almon B. Strowger entwickelt die automatische Telefonvermittlung ¨ des Kinos ein Thomas A. Edisons Kinematograph l¨ autet die Ara in den USA werden erste Selbstw¨ ahlvermittlungsstellen f¨ ur Telefongespr¨ ache eingerichtet Louis und Auguste Lumi` ere f¨ uhren ihren ersten Film ¨ offentlich vor Alexander Popow gelingt die erste drahtlose Nachrichten¨ ubertragung Guglielmo Marconi f¨ uhrt die erste Funk¨ ubertragung u ¨ber den Atlantik durch Hans Bredow propagiert den Rundfunk f¨ ur alle“ ” August Karolus gelingt die erste Fernsehbild¨ ubertragung The Jazzsinger“, der erste Tonfilm kommt in die Kinos ” erster regelm¨ aßiger Fernsehprogrammdienst in Berlin erstes Tonbandger¨ at mit elektromagnetischer Aufzeichnung von AEG erste Fersehdirekt¨ ubertragung via Satellit zwischen USA und Europa erster digitaler Bildsensor (CCD) f¨ ur digitale Fotokameras Philips und Sony f¨ uhren die digitale Audio Compact Disc (CD) ein Einf¨ uhrung der Digital Versatile Disc (DVD) als Datenspeicher Spezifikation der Blu-ray Disc und der HD DVD das terrestrische analoge Fernsehen wird in Deutschland durch das digitale DVB abgel¨ ost
65
66
2 Geschichtlicher R¨uckblick
im allgemeinen als der erste moderne Fernsehdienst der Welt angesehen wird. Der BBC Fernsehdienst beruhte auf einem von Isaac Shoenberg (1880–1963) entwickelten System, einer Weiterentwicklung von Zworykins Verfahren, das Ultrakurzwellen zur Signal¨ubertragung nutzte. Die BBC hielt bis 1962 am Schoenberg-System (405 Zeilen, 25 Bilder pro Sekunde) fest. 1953 wurde das amerikanische NTSCFarbfernsehverfahren (NTSC=National Television System Committee) freigegeben, nachdem die amerikanische Firma CBS bereits 1940 ein erstes, technisch allerdings noch nicht ausgereiftes Farbfernsehsystem vorgestellt hatte. Langsamer als erwartet stellte das Publikum allerdings von seinen Schwarzweiß-Empf¨angern auf die neuen Farbapparate um. Das NTSC-System war zu hastig entwickelt worden, um wirklich eine optimale Farbgebung garantieren zu k¨onnen. So wurde NTSC schnell als Never The Same Color“ verspottet ( Niemals dieselbe Farbe“ ). Schließlich konn” ” te sich das NTSC-Farbfernsehsystem gegen¨uber dem damals noch vorherrschenden Schwarzweiß-Fernsehen aufgrund seiner Kompatibilit¨atseigenschaften durchsetzen. Farbfernsehsendungen konnten mit Schwarzweiß-Empf¨angern ohne Sch¨arfeverlust betrachtet werden und Schwarzweiß-Fernsehsendungen konnten in Farbfernsehempf¨angern ebenso betrachtet werden wie mit Schwarzweiß-Empf¨angern [245]. Die in Frankreich entwickelte Norm SECAM ([franz.] S´equence a´ M´emoire) folgte 1957 und in Deutschland entwickelte Walter Bruch (1908–1990) aufbauend auf den Erfahrungen mit NTSC und SECAM 1963 die PAL Farbfernseh¨ubertragungstechnik ([engl.] Phase Alternation Line). 1983 wurde in Japan die erste hochaufl¨osende Fernsehtechnik HDTV (High Definition TeleVision) vorgestellt, auf die in Abschnitt 4.6.1 detaillierter eingegangen wird.
2.7.5 Analoge und digitale Aufzeichnungsverfahren Die M¨oglichkeit der auf elektromagnetischen Verfahren beruhenden Aufzeichnung von Bild und Toninhalten reicht zur¨uck in das 19. Jahrhundert. Ausgehend von ersten Entwicklungsvorschl¨agen, wie etwa von Paul Janet (1863–1937), der bereits 1887 die magnetische Tonaufzeichnung auf Stahldraht vorschlug, oder dem von Kurt Stille (1873–1957) 1918 vorgestellten Diktierger¨at Dailygraph“, dessen ex” trem d¨unner Draht mit 4400 Metern L¨ange eine Aufzeichnungskapazit¨at von bis zu 2 Stunden erm¨oglichte, gelang der Magnetaufzeichnungstechnik der große Durchbruch erst mit der Entwicklung des Magnetbandes. 1928 wurde von Fritz Pfleumer (1897–1945) ein Magnetbandverfahren auf Papierbasis patentiert, das kurz darauf 1935 durch ein Magnetband auf Kunststoffbasis von den Firmen AEG und BASF ersetzt wurde. 1935 wurde das erste Tonbandger¨at der Welt, das Magnetophon ” K1“ auf der Berliner Funkausstellung o¨ ffentlich vorgestellt [87]. Anf¨anglich nur im professionellen Bereich genutzt, erlebt die Tonbandtechnik nach dem zweiten Weltkrieg, nach dem Totalverlust des deutschen Patentbesitzes einen weltweiten Aufschwung und 1947 wurde das erste Heimger¨at von der amerikanischen Firma Brush Development Co. auf den Markt gebracht. Erste technisch realisierbare Verfahren
2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen
67
f¨ur die magnetische Aufzeichnung von breitbandigen Fernseh-Signalen gelangen erst 1956 durch Einf¨uhrung eines neuen Frequenzmodulationsverfahrens f¨ur Bildsignale durch den bei der Firma Ampex arbeitenden Ingenieur Charles P. Ginsburg (1920–1992). Die Abl¨osung der analogen Speichermedien und somit der Einzug digitaler Speicher¨ und Reproduktionstechniken hat ihren Ursprung in der Ubertragung von Telefonaten u¨ ber Weitverkehr-Funkstrecken. Alec A. Reeves (1902–1971) entwickelte 1938 das Pulsecode-Modulationsverfahren (PCM), das ein analoges frequenz- oder amplitudenmoduliertes Signal in eine rasche Serie einzelner Pulse von konstanter Amplitude u¨ bertr¨agt. Das zu u¨ bertragende diskrete Signal kann dabei mit Hilfe eines bin¨aren Codes repr¨asentiert werden. Da die gespeicherte Information nicht von der Pulsamplitude abh¨angt, d.h. ein Rauschen die kodierte Information nicht ver¨andert, sind PCM-Signale im Vergleich zu herk¨ommlichen Modulationsverfahren nahezu st¨orungsfrei [136]. PCM-Audiorecorder waren seit Ende der 60er Jahre im Gebrauch und 1979 brachten Philips und Sony die digitale Audio Compact Disc (CDDA) zur Marktreife. Dieses plattenf¨ormige Speichermedium besitzt einen Durchmesser von 11,5 Zentimetern (¨ubrigens dieselbe Gr¨oße wie Emil Berliners erste Schallplatte) und bot (vorerst) einen Speicherplatz von 74 Minuten oder 650 MB. Eine Compact Disk ist eine mit einer Aluminiumschicht bedampfte 1,2 mm dicke Polycarbonat-Scheibe, in die digitale Informationen eingepresst werden, bevor sie mit einem Schutzlack versiegelt wird. Im Gegensatz zur spiralf¨ormigen Rille der analogen Audio-Schallplatte liegt die Information auf der CD in Form von mikroskopisch kleinen, l¨anglichen Vertiefungen (sogenannter Pits“) vor, die von einem ” 780-Nanometer-Laserstrahl ber¨uhrungsfrei abgetastet und von der Elektronik des Abspielger¨ats wieder in akustische Signale umgesetzt werden. Die von innen nach außen verlaufende Spur der Pits weist dabei eine L¨ange von nahezu sechs Kilome¨ tern auf (bei einer Breite von 0,6 µm). Dabei repr¨asentiert ein Ubergang von Pit zur h¨oher gelegenen Umgebung (dem sogenannten Land“) bzw. vom Land zum Pit ” ¨ eine logische Eins, w¨ahrend ein Ubergang von Pit zu Pit bzw. Land zu Land eine logische Null darstellt [183]. Nachdem man sich nach langem Streit um einen einheitlichen Standard und um Methoden des Kopierschutzes endlich geeinigt hatte, erschien 1995 die erste Digital Versatile Disc (DVD). Sie bot im Vergleich zur CD eine eine vielfache Speicherkapazit¨at (bei Verwendung mehrerer optischer Schichten und beider Seiten der DVD bis zu 17 GB) und fand zun¨achst Verwendung in der digitalen Speicherung von komprimierten Videodaten. Doch die Entwicklung digitaler Speichermedien strebte zu noch h¨oheren Speicherkapazit¨aten, wie man sie z.B. f¨ur die Aufzeichnung des hochaufgel¨osten Fernsehstandards HDTV (High Definition TeleVision) ben¨otigt. Anfangs gab es in diesem Bereich zwei konkurrierende Standards, die Blu-ray Disc und die federf¨uhrend von Toshiba entwickelte HD DVD (High Density DVD). Die Blu-ray Disc, deren Name sich von dem zu ihrer Abtastung eingesetzten blau-violetten, kurzwelligen Laserstrahl herleitet, besitzt mit 25 GB (Single Layer) bis 50 GB (Dual Layer) eine h¨ohere Speicherkapazit¨at als die HD DVD, die 15 GB bzw. 30 GB Speicherkapazit¨at besitzt. Ab dem Februar 2008 konnte sich
68
2 Geschichtlicher R¨uckblick
die Blu-ray Disc auf dem Mark durchsetzen, nachdem Toshiba bekannt gab, die Weiterentwicklung und Fertigung der HD DVD aufzugeben.
2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager Der Computer wird heute oft als das Leitmedium“ der Zukunft angesehen und hat ” das Fernsehen in seiner Eigenschaft als solches bereits abgel¨ost. Dabei wird h¨aufig u¨ bersehen, dass der Computer in seiner historischen Entwicklung vom technischen Begriff betrachtet eigentlich gar kein Medium im Sinne der Funktion des Aufneh¨ mens, Speicherns, Ubertragens und Reproduzierens von Information war. Die Entwicklungen der letzten 25 Jahre versetzten den Computer in die Lage, analoge akustische oder optische Informationen zu verarbeiten, aber erst mit dem Aufkommen von Internet und WWW tritt seine Funktion als Medium, das einen integrativen Transport multimedialer Information gestattet, in den Vordergrund. Die Urspr¨unge des Computers als Instrument zur Durchf¨uhrung automatischer Berechnungen reicht bis in die Antike zur¨uck. In Griechenland und Rom gab es bereits im 3. Jahrhundert v. Chr. Rechenbretter aus Holz, Metall oder Stein – Abakus genannt –, die in der Gr¨oße einer Postkarte bereits leicht transportabel und weitverbreitet waren. Die Rechensteine des Abakus werden claviculi oder calculi genannt – woher sich auch das Wort Kalkulation ableitet – und werden vom Rechenmeister – dem calculator – auf dem Brett verschoben zur Ausf¨uhrung der vier Grundrechenarten [187]. In China ist der Gebrauch eines dem Abakus sehr a¨ hnlichen Recheninstruments – des Suan-pan – bereits im 1. Jahrhundert v. Chr. nachzuweisen. Um komplizierte Multiplikationen leichter ausf¨uhren zu k¨onnen, entwickelte der schottische Mathematiker John Napier (1550–1617) 1617 den ersten Rechenschieber, eine einfache Multiplikationstafel aus beweglichen St¨aben, die auf dem von Napier 1614 eingef¨uhrten Logarithmus und dem Dezimalpunkt basiert. Bereits zuvor entwarf 1494 Leonardo da Vinci eine erste mechanische Uhr mit einem Pendel, wobei die Konstruktion einer korrekt arbeitenden Pendeluhr noch gut 200 Jahre auf sich warten ließ. Die dazu notwendige Feinmechanik allerdings bildete auch die Grundlage f¨ur die Entstehung der ersten mechanischen Rechenmaschinen. Im 17. Jahrhundert bem¨uhten sich vorallem Willhelm Schickard (1592– 1635), Blaise Pascal (1623–1662) und Gottfried Wilhelm Leibniz (1646–1716) um die Konstruktion komplexer Rechenmaschinen. Schickard konstruierte 1623 die erste zahnradgetriebene Rechenmaschine, um seinem Freund, dem Astronomen Johannes Kepler (1571–1630) langwierige Berechnungen bei der Bestimmung von Planetenpositionen zu erleichtern. Kepler erhielt diese Maschine aber nie, da sie noch im halbfertigen Zustand bei einem Brand zerst¨ort wurde. Schickards Maschine beherrschte die vier Grundrechenarten, wobei Multiplikation und Division auf manuelle Unterst¨utzung bei der Berechnung von Teilprodukten mit Hilfe von Rechenst¨aben angewiesen waren, und besaß eine sechsstellige Dezimalanzeige. Seine Erfindung geriet aber in Vergessenheit, so dass der franz¨osische Mathematiker
2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager
69
Abb. 2.18 Die personifizierte Rechenkunst (Arithmetica) mit Pythagoras (links) und Boethius (rechts), die einen Wettstreit zwischen Rechenbrett und dem Rechnen mit modernen arabischen Zahlen austragen (1504)
Blaise Pascal 1642 die zahnradgetriebene Rechenmaschine erneut erfand und noch jahrhundertelang als Erfinder der mechanischen Rechenmaschine galt. Um seinem Vater, einem k¨oniglichen Steuerbeamten, bei seiner Arbeit zu helfen entwickelte der 19-j¨ahrige Pascal diese Rechenmaschine. Sie erlaubte die beiden Grundrechenarten Addition und Subtraktion und wurde u¨ ber 50 mal gebaut, wobei allerdings nur wenige Exemplare verkauft wurden. Eine erste mechanische Rechenmaschine, die auch eine direkte Multiplikation, basierend auf wiederholter Addition erlaubte, konstruierte der deutsche Mathematiker Gottfried Wilhelm Leibniz [153]. Um die Multiplikation mit einer großen Zahl durchf¨uhren zu k¨onnen, muss im Gegensatz zur einfachen Addiermaschine der Multiplikand gespeichert werden und das Einstellwerk gegen¨uber dem Ergebniswerk verschiebbar sein, um eine mehrfache stellenrichtige Addition durchf¨uhren zu k¨onnen. Leibniz verwendete hierzu die sogenannte Staffelwalze, eine Anordnung von achsparallelen Zahnrippen gestaffelter L¨ange. Je nach Position eines zweiten verschiebbaren Zahnrades wurde dieses bei einer Umdrehung der Staffelwalze um null bis neun Z¨ahne weitergedreht. Zu Lebzeiten konnte er aber nie das Problem des Zehner¨ubertrags u¨ ber mehrere Stellen l¨osen, so dass seine Maschine erst 1894 zur einwandfreien Funktion gebracht werden konnte, als die Feinmechanik weiter fortgeschritten war. 1679 entwickelte Leibniz unter anderem auch das bin¨are Zahlen- und Rechensystem, das die Grundlage zur Konstruktion moderner Computer werden sollte. Mit der Lochkarte tauchte um 1805 erstmals ein wichtiges Element zur Speicherung und Verrechnung von Information auf, als Joseph-Marie Jacquard (1752– 1834) den Musterwebstuhl erfand. Er trennte als erster die Software – also das Steuerprogramm in Gestalt von Lochkarten oder -streifen – von der Hardware – der eigentlichen Maschine, die nach den durch die L¨ocher in der Karte vorgegebenen Instruktionen arbeitete. Je nach Lochkarte oder Programm war die Maschine
70
2 Geschichtlicher R¨uckblick
in der Lage, ein Gewebe mit einem durch die Lochkarte vorgegebenen Muster und vorgegebenen Farben mechanisch herzustellen. Mit der Lochkarte f¨uhrte Jacquard das bis heute die Grundarchitektur aller datenverarbeitenden Maschinen und Computer bestimmende bin¨are System in den Maschinenbau ein: Wo die Nadel, die die Lochkarte abtastete, auf ein Loch, eine Eins, traf, da fand eine Ver¨anderung statt. Wo sie jedoch auf Pappe, also eine Null stieß, blieb der Zustand unver¨andert [71]. 1822 fand die Lochkarte erstmals Verwendung in einer mechanischen Rechenmaschine: in der Difference Engine“ von Charles Babbage (1791–1871). Babbage ” war als Mathematikprofessor aufgefallen, dass die Erstellung mathematischer Tabellen oft nur auf der einfachen mechanischen“ Wiederholung bestimmter Arbeits” schritte beruhte, wobei sich die Ersteller solcher Tabellen aber sehr oft verrechneten. Seine Forschungen richteten sich folglich auf die maschinelle Umsetzung mathematischer Probleme und deren L¨osung. Die von ihm 1822 vorgeschlagene Difference Engine sollte dampfgetrieben und von der Gr¨oße einer Lokomotive in der Lage sein, Differentialgleichungen zu l¨osen und die Ergebnisse direkt auszudrucken. Nachdem er zehn Jahre lang an dieser Maschine gearbeitet hatte, kam ihm pl¨otzlich die Idee zu einer frei programmierbaren Rechenmaschine, die in der Lage war, beliebige vorgegebene Berechnungen auszuf¨uhren, der Analytical Engine“ , die vom Konzept ” her bereits alle Elemente eines modernen Computers aufwies: einen Zahlenspeicher f¨ur f¨unfzigstellige Dezimalzahlen, der mit Hilfe 50.000 einzelner Zahnr¨ader realisiert werden sollte, einem Rechenwerk und eine Steuereinheit zur Steuerung des gesamten Programmablaufs einschließlich der Rechenoperationen und des Datentransports. Babbage’s Assistentin, Augusta Ada King, Countess of Lovelace (1815– 1842), die Tochter des englischen Dichters Lord Byron, trug maßgeblich zum Design der Maschine bei. Als eine der wenigen Menschen, die in der Lage waren, die M¨oglichkeiten der Analytical Engine einzusch¨atzen, entwickelte sie bereits erste Programmroutinen, die so fortschrittliche Konzepte, wie logische Verzweigungen, Programmschleifen und Sprunganweisungen enthielten und somit eine zyklische Durchf¨uhrung von Rechenanweisungen erm¨oglichten. Babbage’s Denken u¨ ber das mechanisierte Rechnen war seiner Zeit weit voraus. Er scheiterte an der mangelnden Pr¨azision der Feinmechanik, die nicht in der Lage war, eine so komplexe Maschine herzustellen [120]. Erst zwischen 1989 und 1991 konnte im London Science Museum ein voll funktionsf¨ahiger Nachbau von Babbages Difference Engine fertiggestellt werden. Ebenso wie Babbage setzte der amerikanische Erfinder Hermann Hollerith (1860– 1929) Lochkarten ein, um mit Hilfe einer ersten funktionsf¨ahigen Datenverarbeitungsanlage die amerikanische Volksz¨ahlung zu unterst¨utzen. Die Auswertung der vormals in den USA durchgef¨uhrten Volksz¨ahlung, die noch ohne maschinelle Unterst¨utzung auskommen musste, nahm ann¨ahernd sieben Jahre in Anspruch. In Anbetracht des raschen Bev¨olkerungswachstums und der Menge an Fragen, die gestellt wurden, bef¨urchteten die Beh¨orden, dass bei einer neuen Volksz¨ahlung diese Zeit auf u¨ ber zehn Jahre anwachsen k¨onnte, so dass ein entsprechender Ausweg gefunden werden musste. 1890 erhielt Hollerith das Patent auf eine Lochkartenz¨ahlmaschine, die im Gegensatz zu Babbages Maschine die Lochkarten zur Speicherung von Daten und nicht zur Steuerung des Rechenablaufs benutzte. Holleriths Loch-
2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager
71
Abb. 2.19 Entwurfskizze zur Difference Engine von Charles Babbage (1833)
karte war ein hochflexibles Speichermedium, das in Verbindung mit elektromechanischen Lesevorrichtungen bereits M¨oglichkeiten der heutigen Datenverarbeitung vorwegnahm: Datenbankeinrichtung, Z¨ahlung, Sortierung und Suchl¨aufe nach beliebigen Kriterien. Mit Holleriths Maschine wurde es m¨oglich, die Auswertung der 11. US-amerikanischen Volksz¨ahlung anstelle in der projektierten Zeit von zehn Jahren in nur sechs Wochen durchzuf¨uhren. Der erste betriebsf¨ahige, programmgesteuerte Rechenautomat wurde schließlich 1937 von Konrad Zuse (1910–1995) konstruiert, die noch vollkommen mechanisch realisierte Z1“, die auf den Prinzipien der von George Boole (1815–1864) ein” gef¨uhrten Bin¨arrechnung beruhte. 1941 baute Zuse nach Auftr¨agen des Reichsluftfahrtministeriums einen ersten elektromechanischen Computer, die Z3“, die logi” sche Schaltverbindungen auf Basis von elektromechanischen Relais benutzte [256]. Neben Zuse befassten sich Ende der 30er Jahre noch zahlreiche andere Wissenschaftler mit der Realisierung von frei programmierbaren Rechenmaschinen. Der amerikanische Mathematiker Howard H. Aiken (1900–1973) begann 1939 an der Harvard Universit¨at mit der Konstruktion eines Großrechners, dem Harvard Mark ” I“, der neben Lochkarten-Baugruppen auch aus elektromechanischen Relais und R¨ohren aufgebaut war, und 1944 fertiggestellt werden konnte. Die Kriegsanstrengungen und die neuen M¨oglichkeiten des milit¨arischen Geheimfunks, wie etwa die Verschl¨usselung alphanumerischer Information durch die deutsche Chiffriermaschine Enigma“ oder die Vorausberechnung von Geschossflugbahnen trieben die Ent” wicklung automatisierter Rechenanlagen voran. 1942 begann in England der Bau einer Rechenanlage unter dem Decknamen Colossus“, die ab 1943 einsatzbereit ”
72
2 Geschichtlicher R¨uckblick
war und zur Dechiffrierung der geheimen Funkspr¨uche der deutschen Wehrmacht genutzt wurde. Der erste vollelektronische, ausschließlich aus Elektronenr¨ohren aufgebaute Universalrechner, der 1945 an der University of Pennsylvania von John P. Eckert (1919–1995), John W. Mauchly (1907–1980), Herman H. Goldstine (*1913) und John von Neumann (1903–1957) konstruierte ENIAC“ (Electronic Numerical In” tegrator and Calculator), beinhaltete die damals unglaubliche Anzahl von 18.000 Elektronenr¨ohren und ben¨otigte zu seinem Betrieb eine Leistung von 160 Kilowatt elektrischen Strom. Anders als seine Vorg¨anger Colossus“ und Mark I“ war der ” ” ENIAC“ ein richtiger, frei programmierbarer Computer, der zudem bedingt durch ” seine vollelektronische Bauweise Berechnungen bis zu 1.000-mal schneller als diese durchf¨uhren konnte. 1951 begann mit der Fertigstellung von UNIVAC I“ der ” Firma Sperry der serienm¨aßige Bau von Universalrechnern. Die Erfindung des Transistors 1947 durch die Amerikaner John Bardeen (1908– 1991), Walter House Brattain (1902–1987) und William Shockley (1910–1989) in den Bell Laboratories in New York ver¨anderte die Entwicklung der Computer maßgeblich. Die sehr aufw¨andige R¨ohrenbauweise, die einen extrem hohen Wartungsaufwand verursachte, konnte durch den wesentlich kleineren und zuverl¨assigeren Transistor als Schaltelement in v¨ollig neue Dimensionen vorstoßen. Ausgehend vom ersten Transistorrechner TRADIC“ der Bell Telephone Laboratories 1955 trat ” der Transistor gemeinsam mit der Entwicklung des Magnetplattenspeichers 1956 durch IBM seinen Siegeszug an. Erstmalig konnte auch die komplizierte Programmierung der Computer, die bislang auf eine jeweils eigene im Bin¨arcode verfasste Maschinensprache, die auf die Architektur der unterschiedlichen Rechner maßgeschneidert war durch einfacher zu erlernende Hochsprachen – Programmiersprachen auf einem h¨oheren Abstraktionsniveau – ersetzt werden, wie dem kommerziell orientierten COBOL (Common Bussiness Oriented Language) oder dem wissenschaftlichen FORTRAN (Formula Translator). Diese Hochsprachen erm¨oglichten die Gestaltung von komplexeren Programmabl¨aufen und vereinfachten die Ausbildung und die Entwicklungsarbeit der Programmierer. Schon im Lauf der 50er Jahre war die Tendenz zur stetigen Verkleinerung der Transistoren sp¨urbar. 1958 gelang es Jack S. Kilby (1923–2005) bei Texas Instruments erstmals, mehrere Bauteile einer Schaltung, bestehend aus Widerst¨anden, Transistoren und Kondensatoren auf einem Kristallpl¨attchen aus Germanium als Tr¨ager zu integrieren: der integrierte Schaltkreis (Integrated Circuit, Chip) war geboren. Die stetige Verkleinerung der Schaltelemente f¨uhrte zu Beginn der 60er Jahre zur Entstehung einer neuen Gr¨oßenklasse von Computern, den Minicomputern. Der erste Minicomputer, der mit den kleiner gewordenen Schaltelementen ausgestattet war, ist der PDP-1“ der Firma Digital Equipment, der 1960 auf den Markt kam und ” erstmals weniger als eine Million Dollar kostete. Die PDP-1“ war kein Univer” salcomputer, sondern auf Aufgaben der Prozesssteuerung eingeschr¨ankt. Die neuen Minicomputer f¨uhrten allerdings mit ihren spezialisierten Arbeitsbereichen in den 60er und 70er Jahren zu einem beispiellosen Automatisierungsschub. Ab 1961 wurden integrierte Schaltkreise erstmals großmaßst¨ablich industriell gefertigt und der n¨achste Schritt in der Verkleinerung der Schaltelemente gelang 1970 mit der
2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager Die f¨ unf Generationen moderner Computer 1. Generation (1945–1956) Zu Beginn des zweiten Weltkrieges begann die Entwicklung moderner Computer aus dem Bestreben der einzelnen Regierungen heraus, sich dadurch einen potenziellen und strategischen Vorteil zu verschaffen. Computer dieser ersten Generation waren dadurch gekennzeichnet, dass die verwendeten Maschinenbefehle und Arbeitsinstruktionen speziell f¨ ur den Zweck entworfen wurden, f¨ ur den der betreffende Rechner konzipiert war. Jeder Rechner besaß einen unterschiedlichen Befehlssatz (Maschinencode), der auf unterschiedliche Weise bin¨ ar kodiert wurde und verantwortlich daf¨ ur war, dass die Programmierung zu einer aufw¨ andigen und langwierigen Angelegenheit wurde. Basistechnologie der Computer der ersten Generation waren Elektronenr¨ ohren, Lochkarten und der magnetische Trommelspeicher. 2. Generation (1956–1963) Der 1947 entwickelte Transistor revolutionierte das Design und die Entwicklung der Computer. Auf Transistorbasis aufgebaute Rechner waren zuverl¨ assiger, energieeffizienter und kleiner als ihre R¨ ohrenvorg¨ anger. Mit der zweiten Generation der Computer hielten Programmiersprachen wie COBOL oder FORTRAN ihren Einzug. Die Programmierung gestaltete sich wesentlich einfacher im Vergleich zum kryptischen Maschinencode. Die Computer gestatteten nur einen sogenannten Stapelbetrieb (Batchbetrieb), d.h. die zu erledigenden Jobs konnten nur einzeln, nach einander erledigt werden. Mit seinen deutlich gesunkenen Kosten hielt der Computer Einzug in die Wirtschaftswelt. Zur Einund Ausgabe wurden weiterhin Lochkarten, aber auch Magnetb¨ ander verwendet. 3. Generation (1964–1971) Obwohl Transistoren bereits deutliche Vorteile gegen¨ uber der R¨ ohrentechnik aufwiesen, war die von ihnen erzeugte Abw¨ arme oft doch so groß, dass Computer dadurch besch¨ adigt wurden. Im n¨ achsten Schritt der Miniaturisierung und der Einf¨ uhrung des integrierten Schaltkreises konnte eine weitaus gr¨ oßere Anzahl von Schaltelementen auf dazu noch kleinerem Raum verbaut werden, bei einer gleichzeitigen energie-effizienteren Umsetzung. Als Konsequenz daraus wurden die Computer leistungsf¨ ahiger, kleiner und auch preiswerter. Gleichzeitig setzte die Entwicklung von Betriebssystemen ein, die einen Mehrfachprogrammbetrieb gestatteten, d.h. verschiedene Jobs konnten zeitgleich abgearbeitet werden und die Ressourcen des Computers benutzen. 4. Generation (1971 – heute) Seit der Entwicklung des ersten Mikroprozessors schreitet die Miniaturisierung zusehends voran. Die Hochintegration (VLSI – Very Large Scale Integration) zu Beginn der 80er Jahre und die anschließende ULSI (Ultra Large Scale Integration) bringt Millionen von Transistoren auf einem einzigen integrierten Schaltkreis unter. Unter dem zunehmenden Preisverfall verbreitet sich der Computer mit dem PC bis in die Privathaushalte. Dies erm¨ oglichen vor allem auch einfach zu bedienende graphische Benutzeroberfl¨ achen, die es auch dem Nichtfachmann erm¨ oglichen, einen Computer zu bedienen. Internet und lokale Netze halten Einzug in die Computerwelt. 5. Generation (heute – ) Gegen Ende der 80er Jahre wurde der Auftakt f¨ ur die f¨ unfte Computergeneration mit Weiterentwicklungen auf den Gebieten der k¨ unstlichen Intelligenz und dem Aufkommen der Supercomputer gesehen. Zunehmende Parallelisierung der Berechnungen in Mehrprozessorsystemen in Verbindung mit Spracherkennung und nat¨ urlichem Sprachverstehen kennzeichnen diese Entwicklung.
Abb. 2.20 Die f¨unf Generationen moderner Computer
73
74
2 Geschichtlicher R¨uckblick
Abb. 2.21 ENIAC – der erste rein elektronische digitale Universalrechner
Entwicklung des Mikroprozessors, als erstmals alle Bestandteile eines Universalrechners – das Rechenwerk, das Steuerwerk, der Datenbus und die verschiedenen Register – auf einem einzigen Chip, dem Intel 4004, untergebracht werden konnten. Doch bis 1976 wurden Mikroprozessoren nur als Komponenten von Minicomputern und in der Prozesssteuerung eingesetzt. Die Idee, den Mikroprozessor zum Kernst¨uck eines eigenen Universalrechners zu machen, entstand abseits der großen Computerfirmen unter Studenten. Zur Gruppe dieser jungen Leute z¨ahlten Steve Jobs (*1955) und Stephen Wozniak (*1950), die 1976 die Firma Apple gr¨undeten, und wenige Jahre sp¨ater mit dem Apple II“ ” den ersten erfolgreichen Personalcomputer entwickelten. IBM brachte 1981 seinen ersten Personalcomputer (PC) f¨ur den Einsatz in B¨uro, Schule und Heim auf den Markt und der Siegeszug der neuen Rechner begann. Jedes Jahr erschienen neue, leistungsf¨ahigere und immer kleinere Mikroprozessoren auf dem Markt, die zu stetig g¨unstigeren Preisen angeboten wurden. Der PC erhielt grafische und akustische Ausgabef¨ahigkeiten und mit der Einf¨uhrung fensterbasierter grafischer Benutzeroberfl¨achen 1984 auf dem Apple Macintosh vereinfachte sich die Bedienung, so dass der PC letztendlich den Massenmarkt eroberte. Bill Gates (*1955) gr¨undete 1975 zusammen mit Paul Allen die Firma Microsoft, die ihren Erfolg mit der Bereitstellung des Betriebssystems MS-DOS f¨ur den IBM PC begr¨undete und in den 1990er Jahren mit dem grafische Betriebssystem Microsoft Windows und der B¨uro-Software Microsoft Office, zum Marktf¨uhrer wurde. ¨ Mit der Einf¨uhrung lokaler Netzwerke und der Freigabe des Internet f¨ur die Offentlichkeit, er¨offneten sich f¨ur den PC ungeahnte M¨oglichkeiten als universelles Kommunikationsmedium. Ausgestattet mit der benutzerfreundlichen Bedienschnittstelle des Browsers war jedermann in der Lage, das Internet – oder genauer das World Wide Web – als neues Kommunikationsmedium zu nutzen, das die M¨oglichkeit bietet, Informationen in jeglicher Auspr¨agungsform, sei es Text, Sprache, Musik, Grafik oder Video, also multimedial auszutauschen.
2.9 Die untrennbare Geschichte von InternetundWWW
75
Tabelle 2.3 Historische Entwicklung des Computers 30.000 v. Chr. Verwendung von primitiven Zahlenzeichen 3.000 v. Chr. erste abstrakte Zahlbegriffe in Mesopotamien auf Basis des Sexagesimalsystems 3. Jhd. v. Chr. die Griechen verwenden den Abakus um 500 Einf¨ uhrung des arabischen Dezimalzahlensystems 1494 Leonardo da Vinci konstruiert die erste Pendeluhr 1617 John Napier entwickelt einen Rechenschieber 1623 Willhelm Schickard konstruiert erste mechanische Rechenmaschine f¨ ur Addition und Subtraktion 1642 Blaise Pascal konstruiert ebenfalls eine mechanische Rechenmaschine f¨ ur Addition und Subtraktion 1675 Gottfried W. Leibniz konstruiert eine mechanische Rechenmaschine f¨ ur alle vier Grundrechenarten 1679 Gottfried W. Leibniz f¨ uhrt das bin¨ are Zahlensystem ein 1805 Joseph Marie Jacquard f¨ uhrt eine Lochkarte zur Steuerung von mechanischen Webst¨ uhlen ein 1822 Charles Babbage konstruiert die Differential Engine, eine mechanische Rechenmaschine zur L¨ osung von Differentialgleichungen 1832 Charles Babagge skizziert die Analytical Engine, den ersten frei programmierbaren mechanischen Computer, seine Assistentin Ada Augusta King entwickelt erste Computerprogramme 1890 Herman Hollerith entwickelt eine Lochkartenz¨ ahlmaschine f¨ ur die Volksz¨ ahlung in den USA 1937 Konrad Zuse konstruiert die Z1, den ersten programmgesteuerten und tats¨ achlich einsatzbereiten mechanischen Computer 1941 Zuse konstruiert die Z3, den ersten elektromechanischen und frei programmierbaren Computer 1943 in England wird der Großrechner Colossus fertiggestellt zur Dechiffrierung deutscher geheimer Funkspr¨ uche 1944 der erste amerikanische Großrechner, der Harvard Mark I wird fertiggestellt 1945 der erste vollelektronische Computer ENIAC wird an der Universit¨ at von Pennsylvania fertiggestellt 1947 der Transistor wird erfunden 1951 der erste in Serie gebaute Computer: UNIVAC von Sperry 1955 der erste Computer aus Transistoren: TRADIC von den Bell Labs 1956 IBM entwickelt den Magnetplattenspeicher 1958 Jack S. Kilby entwickelt den integrierten Schaltkreis 1960 der erste Minicomputer: die DEC PDP-1 1969 das ARPANET als Vorl¨ aufer des Internet wird gestartet 1971 der erste Mikroprozessor, der Intel 4004, kommt auf den Markt 1977 der erste Personal Computer, der Apple II kommt auf den Markt 1981 IBM bringt den ersten IBM PC heraus 1984 Apple stellt den ersten benutzerfreundlichen Macintosh Computer vor.
2.9 Die untrennbare Geschichte von Internet und WWW 2.9.1 Das ARPANET – wie alles begann... Die Urspr¨unge des Internet reichen weit zur¨uck in die Zeit des kalten Krieges. Mit der kolportierten Absicht ausfallsichere und zuverl¨assige Kommando- und Kommu-
76
2 Geschichtlicher R¨uckblick
nikationsverbindungen zu gew¨ahrleisten, die selbst einen Atomschlag u¨ berstehen, wurde die Idee eines paketvermittelten Kommunikationsdienstes entwickelt, der in der Lage sein sollte, unterschiedlichste Rechnernetze zu u¨ berbr¨ucken – das ARPANET, benannt nach seinem Sponsor, der amerikanischen Regierungsbeh¨orde ARPA. Verschiedene amerikanische Universit¨aten wurden von Anfang an in die Grundlagenforschung miteinbezogen und so spaltete sich das 1969 gestartete ARPANET schon bald in ein rein milit¨arisch genutztes Teilnetz und einen zur wissenschaftlichen Kommunikation genutzten zivilen Teilbereich auf. Der zivile Teilabschnitt entwickelte sich immer rasanter, vor allem nachdem die National Science Foundation (NSF) ein eigenes Hochgeschwindigkeitsnetzwerk zwischen den amerikanischen Universit¨aten und Forschungseinrichtungen zu unterst¨utzten begann (NSFNET). Das urspr¨ungliche ARPANET verlor daraufhin zusehends an Bedeutung und wurde schließlich 1989 deaktiviert. Die Idee der Paketvermittlung, ein Grundpfeiler der Internet-Technologie, ohne die eine sichere Kommunikation in einem unsicherem, fehleranf¨alligen Netzwerk nur schwer vorstellbar ist, wurde bereits zu Beginn der 60er Jahre von Paul Baran bei der amerikanischen RAND Corporation, Donald Davies am britischen National Physical Laboratory (NLP) und Leonard Kleinrock am Massachussetts Institute of Technology (MIT) entwickelt. Bei einem Treffen der ARPA Forschungsdirektoren im Fr¨uhjahr 1967 brachte das Information Processing Techniques Office (IPTO oder nur IPT) unter der Leitung ¨ von Joseph C. R. Licklider und Lawrence Roberts erstmalig das Thema der Uberbr¨uckung heterogener Netzwerke, also den Zusammenschluss von nicht kompatiblen Computernetzwerken auf die Tagesordnung. Bereits im Oktober 1967 konnten die ersten Spezifikationen diskutiert werden f¨ur die Interface Message Processors (IMP), dezidierten Minicomputern, a¨ hnlich den heute eingesetzten InternetRoutern, die den u¨ ber Telefonverbindung zu koppelnden Rechnern vorgeschaltet werden sollten. Die Entscheidung zur Verwendung standardisierter Verbindungsknoten zur Koppelung propriet¨arer Hardware zu einem Kommunikations-Subnetz (vgl. Abb. 2.22), vereinfachte die Entwicklung der notwendigen Netzwerkprotokolle, da die Software-Entwicklung f¨ur die Kommunikation zwischen IMP und den propriet¨aren Rechnern dem jeweiligen Kommunikationspartner u¨ berlassen werden konnte. Auch brauchte man sich nicht mit dem Problem herumschlagen, dass die in den 60er und 70er Jahren eingesetzten Computer keiner standardisierten Architektur folgten. Weder das auf diesen eingesetzte Betriebsystem, noch die verwendete Hardware verf¨ugte u¨ ber gemeinsame Schnittstellen, so dass f¨ur jede Kommunikationsverbindung zwischen zwei Rechnern eine eigene Schnittstelle h¨atte entwickelt werden m¨ussen. Bei der Verwendung eines Kommunikations-Subnetzes, bei dem die eigentliche Kommunikation speziell dazu vorgesehenen Kommunikationsrechnern obliegt, musste lediglich jeweils eine spezielle Schnittstelle zwischen Host-Rechner und Kommunikations-Rechner geschaffen werden. Die Anzahl der neu zu schaffenden Schnittstellen wuchs in diesem Fall nur linear zur Anzahl der unterschiedlichen Rechnerarchitekturen und war daher wirtschaflich wesentlich effizienter. Ende 1968 konnten dann basierend auf den Arbeiten des Stanford Research Institutes (SRI) die endg¨ultigen Spezifikationen der IMPs festgeschrieben werden. Um
2.9 Die untrennbare Geschichte von InternetundWWW
77
Subnetz IMP
IMP
Host
Host IMP IMP
Host
Host
Abb. 2.22 ARPANET – Netzwerkmodell mit Kommunikations-Subnetz
sich mit dem Kommunikations-Subnetzwerk zu verbinden, kommunizierten die jeweiligen Host-Rechner u¨ ber eine bitserielle Hochgeschwindigkeits-Schnittstelle mit den vorgeschalteten IMPs. Das Design der IMPs basierte auf Vorschl¨agen von Larry Roberts und wurde von der Firma Bolt, Beranek & Newman (BBN) auf der Basis von Honeywell DDP-516 Minicomputern implementiert. Die IMPs selbst kommunizierten miteinander via Modems, die u¨ ber permanent geschaltete Telefonleitungen verbunden waren, um Datenpakete zwischenzuspeichern und weiterzuleiten (Storeand-Forward Packet Switching). Die ersten vier zu verbindenden Netzwerkknoten des ARPANETs geh¨orten zu universit¨aren Forschungseinrichtungen der Universit¨aten Los Angeles (UCLA, Sigma-7), Santa Barbara (UCSB, IBM-360/75), Stanford (SRI, SDS-940) und Utah (DEC PDP-10). Am 29. Oktober 1969 war es dann soweit: die ersten vier IMPs waren erfolgreich sowohl untereinander, als auch mit ¨ des Internet begann, auch wenn der Netzihren Hostrechnern verbunden und die Ara werkknoten der UCLA beim ersten Login-Versuch bei der Eingabe des Buchstaben G von LOGIN abst¨urzte [103]. Im M¨arz 1970 erreichte die Ausdehnung des neuen ARPANET erstmals die Ostk¨uste der USA und im April 1971 waren bereits 23 Hosts u¨ ber 15 Knotenpunkte miteinander verbunden. Die erste prominente“ Anwendung des neuen Netzwerks war eine ” Software zum Transfer von Textnachrichten, das erste E-Mail Programm, das 1971 von Ray Tomlinson von BBN entwickelt wurde. Im Januar 1973 wuchs die Anzahl der Rechner im ARPANET auf 35 Knoten an. Ab Mitte 1973 kam dann auch Rechner in England und Norwegen als erste internationale Knoten mit hinzu. Im selben Jahr wurde auch die erste Anwendung zum Dateitransfer, das File Transfer Protocol (FTP) implementiert. Ab 1975 wurden die außerhalb der USA liegenden Netzwerkknoten u¨ ber eine Satellitenverbindung angeschlossen. Die Zahl der Rechner im Netz wuchs mit 111 angebundenen Hostrechnern im Jahr 1977 auf u¨ ber 500 Hosts im Jahr 1983 an. Eine erste sehr erfolgreiche o¨ ffentliche Demonstration des Internetworking erfolgte im November 1977, als u¨ ber spezielle Gateway-Rechner das ARPANET mit einem der ersten Funkdatennetze, dem Packet Radio Network und einem Satellitennetzwerk, dem Atlantic Packet Satellite Network zusammengeschaltet wurde. Das
78
2 Geschichtlicher R¨uckblick
Jahr 1983 wurde dann zum großen Wendepunkt in der Geschichte des ARPANET: die Kommunikationssoftware aller angeschlossenen Rechensysteme wurde vom alten Network Control Protocol (NCP) auf die 1973 unter der Leitung von Vinton Cerf (Universit¨at Stanford) und Robert Kahn (DARPA) entwickelte Kommunikationsprotokollsuite TCP/IP umgestellt. Diese vom Department of Defense initiierte Umstellung auf das TCP/IP-Protokoll wurde notwendig, da es unter NCP nur eingeschr¨ankt m¨oglich war, eine Kommunikation u¨ ber heterogene Netzwerke hinweg zu gew¨ahrleisten. Die Umstellung war eine entscheidende Voraussetzung f¨ur die weltweite Verbreitung, die dieses Netz der Netze schließlich fand. Entscheidend f¨ur die Entwicklung eines Internets, also eines Netzverbundes von Netzen unterschiedlichster Kommunikationsnetzwerkarchitekturen, war die L¨osung der Fragestellung, wie eine Kommunikation zwischen Rechnern an Endpunkten von Netzwerken unterschiedlicher Technologie organisiert werden kann, ohne dass die beteiligten Rechner wissen, was auf der Kommunikationsstrecke zwischen ihnen geschieht. 1983 wurde das ARPANET aufgespalten in einen milit¨arisch (MILNET) und einen zivil zu nutzenden Bereich. Verwaltungs- und betriebstechnisch gab es jetzt zwei verschiedene Netzwerke, doch weil Gateways sie verkn¨upften, bemerkten die Nutzer nichts von dieser Auftrennung. Das ARPANET war zu einem ausgewachsenem Internet geworden. Immer mehr eigenst¨andige lokale Netze wurden an das ARPANET angebunden, so dass in der ersten H¨alfte der 80er Jahre das Internet einem Stern glich mit dem ARPANET in der Mitte und den verschiedenen Netzwerken, die sich um dieses Zentrum herum gruppierten. Ende der 80er Jahre wandelte sich dann dieses Bild. Das Anfang der 80er Jahre in das ARPANET integrierte CSNET (Computer Science Network) der amerikanischen National Science Foundation (NSF) verband immer mehr amerikanische Universit¨aten. Schließlich erm¨oglichte es dessen Nachfolger, das NSFNET, das alle Universit¨aten u¨ ber einen eigens dazu geschaffenen Hochgeschwindigkeits-Backbone verbinden sollte, dass jeder CollegeStudenten zum Internet-User werden konnte. So entwickelte sich das NSFNET sehr schnell zum eigentlichen R¨uckgrat des Internet, und das nicht nur, weil dessen Leitungen mehr als 25 mal schneller waren als die des alten ARPANET. Neben der wissenschaftlichen Nutzung etablierte sich u¨ ber das NSFNET auch die wirtschaftliche Nutzung, die im urspr¨unglichen ARPANET streng untersagt war. Anfang der 90er Jahre u¨ bertraf die Zahl der weltweit u¨ ber das NSFNET vernetzten Computer bei weitem diejenige im ARPANET. Das DARPA-Management – die ARPA war mittlerweile in Defense Advanced Research Project Agency umbenannt worden – entschied im August 1989 anl¨asslich des 20-j¨ahrigen Bestehens des ARPANET, dass dieses sich mittlerweile selbst u¨ berlebt habe und es nun an der Zeit sei, das ARPANET stillzulegen. Das NSFNET und die regionalen Netzwerke, die daraus hervorgegangen waren, wurden zum neuen, zentralen Backbone, zum Internet wie wir es heute kennen.
2.9 Die untrennbare Geschichte von InternetundWWW
79
¨ Tabelle 2.4 Vom ARPANET zum Internet – Ubersicht (1957 – 1989) 1957 Start des ersten sowjetischen Satelliten Sputnik und Gr¨ undung der ARPA 1960 Paul Barans, Donald Davies’ und Leonard Kleinrocks erste Arbeiten zum Packet Switching 1962 die IPTO wird als Abteilung der ARPA ins Leben gerufen 1965 die ARPA unterst¨ utzt die Grundlagenforschung an den amerikanischen Universit¨ aten 1967 erstes Treffen der ARPA-Manager zum Thema ARPANET 1968 Spezifikation der IMP-Kommunikationsrechner abgeschlossen 29.10.1969 die ersten 4 Knoten des ARPANET werden zusammengeschaltet 1970 ALOHANET, das erste Funknetz zur Verbindung der Hauptinseln Hawaiis nimmt den Betrieb auf 1971 Ray Tomlinson versendet die erste E-Mail 1972 ARPA wird umbenannt in Defense Advanced Research Projects Agency (DARPA), von Larry Roberts organisierte erste ¨ offentliche Demonstration des ARPANET 1973 das ARPANET umfasst 35 Knoten Vinton Cerf und Robert Kahn entwickeln das TCP-Protokoll, Robert Metcalfe erarbeitet Ideen zur Ethernet-Technologie (LAN) 1973 das Dateitransferprogramm FTP wird implementiert 1975 Satellitennetzverbindung Hawaii, US-Festland, London via Intelsat 1 1975 ARPA gibt den Betrieb des ARPANET an die DCA ab 1977 erste ¨ offentliche Demonstration des Internetworking 1983 die Standardisierungsorganisation ISO verabschiedet das OSIKommunikationsschichtenmodell 1983 Aufspaltung des ARPANET in einen zivil genutzten und einen milit¨ arisch genutzten Teilbereich (MILNET), Umstellung des gesamten ARPANET auf TCP/IP 1984 das Supercomputer Programm der National Science Foundation (NSF) schließt Aufbau und Wartung eines Hochgeschwindigkeitsnetzwerks mit ein (NSFNET, 56kbps Backbone) 1986 NSFNET nimmt den Betrieb auf 1988 erster Internetwurm bef¨ allt das Netz, 10% der bis dato 60.000 Hosts sind betroffen 1989 150.000 Hosts sind im Internet vernetzt. Die Stillegung des alten ARPANET wird beschlossen
2.9.2 The Internet goes public F¨ur den Siegeszug des Internet als Massenkommunikationsmedium sind wohl haupt¨ s¨achlich zwei Gr¨unde ausschlaggebend: die Offnung des neuen Mediums f¨ur die Allgemeinheit und die Bereitstellung einer einfachen Benutzerschnittstelle, dem WWW-Browser, die auch den Nichtfachmann in die Lage versetzt, das Medium Internet und die im Internet angebotene Dienste wie WWW oder E-Mail sehr leicht zu nutzen. Die Geburtsstunde des eigentlichen Internets wird oft gleichgesetzt mit der am 1. Januar 1983 erfolgten Umstellung des ARPANET vom bis dato g¨ultigen Netzwerk-
80
2 Geschichtlicher R¨uckblick
protokoll NCP auf die neue Protokollfamilie TCP/IP mit ihren drei Basisprotokollen IP (Internet Protocol), TCP (Transmission Control Protocol) und ICMP (Internet Control Message Protocol), die bereits 1981 in Form von RFCs (Request for Comments), als Internetstandards festgelegt und ver¨offentlicht worden waren. Durch die Verwendung der TCP/IP Protokollfamilie wurde erstmals eine gemeinsame Zusammenschaltung unterschiedlicher Netzwerktechnologien auf einfache und effiziente Weise m¨oglich. Die neue Technik wurde schnell von der Wissenschaftlergemeinde angenommen, da sie den wissenschaftlichen Kommunikationsprozess immens vereinfachte und beschleunigte. Interessant ist, dass Weiterentwicklung und Ausgestaltung des Internet auch immer wieder durch den Spieltrieb der angeschlossenen Teilnehmer neue Impulse erhielt. So gab es bereits zwischen 1973 und 1975 erste w¨ochentliche Net” Meetings“ , zu denen sich Teilnehmer aus einer Vielzahl der angeschlossenen Forschungseinrichtungen virtuell“ verabredeten, um gemeinsam STAR TREK“ , ein ” ” einfaches, verteiltes Computerspiel basierend auf der gleichnamigen Fernsehserie zu spielen. Auch die Entwicklung und Verbreitung des Betriebssystem UNIX hatte einen wichtigen Anteil an der Verbreitung von TCP/IP und damit an der Popularit¨at des Internet, insbesondere die Entwicklung des frei verf¨ugbaren Betriebssystems BSDUNIX an der University of California in Berkeley. Der ARPA war es von Anfang an daran gelegen, Forschern und Wissenschaftlern an den Universit¨aten die Nutzung des Internet schmackhaft zu machen. Ein Großteil der Informatik-Institute an den amerikanischen Universit¨aten setzte damals UNIX, insbesondere BSD-UNIX als Betriebssystem f¨ur ihre Rechner ein. Die ARPA unterst¨utzte auf der einen Seite BBN bei der z¨ugigen Implementierung der TCP/IP-Protokolle und auf der anderen Seite Berkeley, damit die TCP/IP-Protokolle mit in deren BetriebssystemDistribution aufgenommen wurde. Damit gelang es der ARPA, u¨ ber 90% der Informatik-Abteilungen der amerikanischen Universit¨aten zu erreichen, und das zur rechten Zeit. Die ersten entstehenden Informatik-Abteilungen waren n¨amlich gerade dabei, ihre Rechner zu kaufen und diese in einem lokalen Netzwerk zu verbinden. Dabei kamen die neuen Kommunikationsprotokolle gerade recht. Das urspr¨ungliche ARPANET wurde 1989 schließlich stillgelegt, da der unter ziviler F¨orderung entstandene NSFNET Netzwerkverbund als Backbone technologisch u¨ berlegen war und eine wesentlich h¨ohere Bandbreite zur Verf¨ugung stellte. Die Zahl der am Internet angeschlossenen Computer war 1989 bereits auf u¨ ber 150.000 angestiegen. Als am Abend des 2. November 1988 der erste Internetwurm, ein sich selbst reproduzierendes Programm, sagenhafte 10% der damals 60.000 an das Internet angeschlossenen Rechner lahmlegte, erregte dieser Vorfall großes Aufsehen ¨ in der Offentlichkeit. Direkt betroffen waren Computer vom Typ VAX und SUN3, auf denen verschiedene Versionen des weit verbreiteten Berkeley BSD-UNIX Betriebssystems liefen, die wiederum als Ausgangspunkt f¨ur den Angriff auf weitere Computer benutzt wurden. Innerhalb weniger Stunden hatte sich das Programm u¨ ber das Gebiet der gesamten USA ausgebreitet, hatte Tausende von Computern befallen und diese, auf Grund der Systemlast, die seine Aktivit¨at erzeugte, außer Betrieb gesetzt. Die Bedeutung, die Datennetze wie das Internet f¨ur das o¨ ffentliche
2.9 Die untrennbare Geschichte von InternetundWWW
81
Internet Design Prinzipien Im Jahr 1974 ver¨ offentlichen Vinton Cerf und Robert Kahn Architekturprinzipien, die sie als Open Network Architecture bezeichneten, und die heute noch die Grundlage des Internets bilden: Minimalismus und Autonomie: Ein Netzwerk sollte in der Lage sein, alleine und eigenst¨ andig zu arbeiten. Um mit anderen Netzwerken vernetzt zu werden, sollen keine ¨ internen Anderungen notwendig sein. Bestm¨ oglicher Service: Miteinander vernetzte Netzwerke sollen einen bestm¨ oglichen Service von einem Endger¨ at zum anderen bieten. Um eine zuverl¨ assige Kommunikation zu gew¨ ahrleisten, werden fehlerhafte oder verlorengegangene Nachrichten erneut vom Sender u ¨bertragen. Zustandslose Vermittlungsrechner: Die Vermittlungsrechner in vernetzten Netzwerken sollen keine Angaben dar¨ uber speichern oder verarbeiten, in welchem Zustand sich eine bestehende Netzwerkverbindung befindet. Dezentralisierte Kontrolle: Es soll keine globale Kontrolle u ¨ber die einzelnen vernetzten Netzwerke geben, die Organisation erfolgt dezentral. Weiterf¨ uhrende Literatur: Cerf, V., Kahn, R.: A Protocol for Packet Network Interconnection, in IEEE Transactions on Computing, vol. COM-22, pp. 637–648 (1974)
Abb. 2.23 Internet Design Prinzipien von V. Cerf und R. Kahn
Leben inzwischen erlangt hatten, und die zunehmende Abh¨angigkeit von diesen, ließen solche Angriffe zu einer direkten Bedrohung f¨ur das o¨ ffentlichen Leben werden, die – im Extremfall – inzwischen sogar ein ganzes Land und seine Wirtschaft in ein Informationschaos st¨urzen k¨onnen. Als Reaktion auf diesen Angriff wurde das Computer Emergency Response Team (CERT) mit seinem Sitz an der Carnegie Mellon Universit¨at in Pittsburgh vom amerikanischen Verteidigungsministerium ins Leben gerufen. Die Aufgabe des CERT besteht darin, eine hohe Expertise zum Thema Internet-Sicherheit aufzubauen, um die Schwachstellen bisheriger Internet-Installationen und Anwendungen herauszufinden und um Empfehlungen auszusprechen, nach denen sich die Benutzer und Betreiber des Internet richten sollen. Sicherheitszwischenf¨alle werden an das CERT gemeldet, das versucht, diese aufzukl¨aren und Vorsorge zu treffen, a¨ hnliche Vorf¨alle in Zukunft zu vermeiden bzw. die Verantwortlichen zur Rechenschaft zu ziehen. Dabei ist das CERT eine reine Forschungseinrichtung ohne jegliche polizeiliche, bzw. staatliche Gewalt und kann nicht selbst gegen eine Bedrohung oder deren Verursacher vorgehen.
2.9.3 Das WWW revolutioniert das Internet Schließlich verhalfen das World Wide Web (WWW) und seine einfach zu bedienende Benutzerschnittstelle, der Browser, dem Internet zu seinem sagenhaften Erfolg
82
2 Geschichtlicher R¨uckblick
und der weltweiten Verbreitung. Die Tatsache, dass der Browser in der Lage ist, als integrative Schnittstelle den Zugriff auf viele verschiedenartige Internetdienste wie E-Mail oder Filetransfer zu vereinen, vereinfachte die Nutzung des neuen Mediums derart, dass es zum bedeutenden Massenkomunikationsmittel wachsen konnte. Grundlage des World Wide Web ist die Vernetzung von Einzeldokumenten u¨ ber so genannte Hyperlinks. Ein Hyperlink ist dabei nichts anderes, als der explizite Verweis auf ein anderes Dokument im Web bzw. auf eine andere Stelle innerhalb des selben Dokuments. Solange es sich dabei um textbasierte Dokumente handelt, spricht man von untereinander vernetzten Hypertext-Dokumenten. Die zugrundeliegende Idee des Verweises auf eine andere Textstelle oder ein anderes Textdokument ist keine Erfindung des Computerzeitalters. Bereits die j¨udische Gesetzessammlung des Talmud, deren Urspr¨unge bis in das 1. Jahrhundert unserer Zeitrechnung zur¨uck reichen, enthielt derartige Querverweise. Ein weiteres prominentes, historisches Beispiel eines Hypertextdokumentes ist die große franz¨osische Enzyklop¨adie (Encyclop`edie, ou dictionnaire raisonn`e des sciences, des arts et des m`etiers), die zwischen 1751 und 1766 von Jean le Rond d’Alembert und Denis Diderot herausgegeben wurde. Allerdings beginnt die Geschichte des elektronischen Hypertexts erst im 20. Jahrhundert. Der US-amerikanische Ingenieur Vannevar Bush ver¨offentlichte 1945 in der Zeitschrift Atlantic Monthly“ einen Artikel ” unter dem Titel As We May Think“, in dem er ein von ihm als Memex bezeichne” tes Ger¨at vorschl¨agt, das auf elektromechanische Weise auf Mikrofilm vorliegende Dokumente miteinander vernetzen und in Beziehung setzen sollte, um so das Wissen eines Menschen abzubilden und dessen Ged¨achtnis zu unterst¨utzen [34]. Bush gilt heute als Vision¨ar und Vorbote des World Wide Web. Obwohl viele Experten das Memex nicht als echtes Hypertextsystem anerkennen, beeinflusste Bush durch seinen Artikel die Arbeit der ihm folgenden WWWPioniere. Ted Nelson pr¨agte bereits 1965 die Begriffe Hypertext“ und Hyperme” ” dia“ und arbeitete 1968 mit an der Entwicklung des Hypertext Editing Systems (HES) an der Brown Universit¨at in Providence, Rhode Island. Douglass Engelbart entwickelte von 1962 bis 1968 das NLS (oNLine System), ein Hypertextsystem das unter anderem als erstes Computersystem u¨ berhaupt eine fensterbasierte Benutzerschnittstelle und eine Maus als Eingabeger¨at aufwies. In den 80er Jahren erreichten Hypertext und Hypermedia mit Apples HyperCard den Personal Computer. 1989 formulierte Tim Berners Lee im Schweizer Kernforschungsinstitut CERN einen Vorschlag Information Management: A Proposal“, in dem er ein verteil” tes Hypertext-basiertes Dokumenten-Managementsystem vorschlug, mit dem Dokumentation und Forschungsdaten, die im CERN in riesigen Mengen anfielen, verwaltet werden sollten. Im Folgejahr erhielt er gr¨unes Licht, um seine Idee zusammen mit Robert Cailliau auf einem NeXT-Computersystem in die Tat umzusetzen. Bereits im November 1990 war der erste WWW-Server lauff¨ahig, dem Tim Berners Lee den Namen WorldWideWeb gab, im M¨arz 1991 folgte dann der erste WWWBrowser. Einige Monate sp¨ater, im September 1991, besuchte der amerikanische Physiker Paul Kunz vom Stanford Linear Acceleration Center (SLAC) das CERN und lernte dort das WWW kennen. Begeistert von der Idee nahm er eine Kopie des Program-
2.9 Die untrennbare Geschichte von InternetundWWW
83
Tabelle 2.5 Die Geschichte des World Wide Web 1945 Vennevar Bush beschreibt Memex, das erste Hypertextsystem 1965 Ted Nelson pr¨ agt als erster das Wort Hypertext auf der ACM-Jahreskonferenz 1968 Doug Engelbart entwickelt ein Hypertext-basiertes Prototypensystem NLS und erfindet zu diesem Zweck die Maus als Eingabeger¨ at 1980 Tim Berners-Lee schreibt ein erstes Notizbuch-Programm (ENQUIRE) mit Hypertextlinks 1989 Tim Berners-Lee verfasst ein erstes Memorandum zu seinem HypertextDokumentenverwaltungssystem am Kernforschungszentrum CERN 1990 zusammen mit Robert Cailliau entwickelt Tim Berners-Lee den ersten WWWServer und WWW-Browser: die Geburtsstunde des WorldWideWeb 1993 NCSA Mosaic, der erste WWW-Browser mit grafischer Benutzeroberfl¨ ache erscheint 1994 Netscape wird gegr¨ undet 1994 Gr¨ undung des World Wide Web Consortiums (W3C) 1995 Microsoft liefert sein Betriebssystem Windows95 zusammen mit dem Internet Explorer als WWW-Browser aus 1998 Netscape wird as AOL verkauft, Ende der Browser-Kriege 2004 Dale Daugherty und Tim O’Reilly pr¨ agen den Begriff des Web 2.0 und sprechen von einer Wiedergeburt des WWW
mes mit zur¨uck und schon im Dezember 1991 ging der erste WWW-Server der USA am SLAC ans Netz. Der Aufbau neuer Server oblag haupts¨achlich der Eigeninitiative von Universit¨atsangeh¨origen. W¨ahrend 1992 gerade einmal 26 WWW-Server existierten, hatte sich bis Anfang 1993 die Zahl der weltweit betriebenen WWWServer auf fast 50 St¨uck verdoppelt. Mit dem ersten WWW-Browser mit grafischer Benutzeroberfl¨ache, dem NCSA Mosaic von Marc Andreesen f¨ur das X-Windows System, war es ab Ende 1993 dann endlich auch dem Nichfachmann m¨oglich, das WWW zu nutzen, insbesondere da die NCSA kurz darauf Versionen f¨ur IBM PC und Apple Macintosh ver¨offentlichte. Ende 1993 war die Anzahl der WWW-Server bereits auf 500 gestiegen und das WWW verursachte etwa 1% des weltweiten Internet-Datenverkehrs. 1994 sollte dann das eigentliche Jahr des WWW werden: Die erste internationale World-Wide-Web Conference wurde im Mai 1994 am CERN abgehalten. Eigentlich hatten sich weit mehr als die 400 teilnehmenden Forschern und Entwickler angemeldet, doch war der vorhandene Platz einfach zu beschr¨ankt f¨ur das große Interesse, das dem WWW entgegengebracht wurde. Berichte u¨ ber das WWW gelangten in die Medien und im Oktober startete eine zweite Konferenz in den USA, an der bereits 1300 Personen teilnahmen. Durch die Verbreitung des zum Netscape Navigator weiterentwickelten Mosaic Browsers und seines Markt-Konkurrenten, dem Microsoft Internet Explorer, der jedem verkauften Microsoft Betriebssystem seit 1995 beilag, erfuhr das World Wide Web eine ungebremste Popularit¨at. Lag die Wachstumsrate bisher bei einer j¨ahrlichen Verdoppelung der angeschlossenen Computer, so verdoppelte sie sich nun alle drei Monate. Explosionsartig verbreitete sich das WWW u¨ ber den ganzen Globus und hielt Einzug in B¨uros und Privathaushalte.
84
2 Geschichtlicher R¨uckblick
Abb. 2.24 WorldWideWeb – der erste Web-Browser f¨ur das WWW Tabelle 2.6 Das WWW – wie alles begann Erster WWW-Server der Welt: nxoc01.cern.ch Erste WWW-Seite der Welt: http://nxoc01.cern.ch/hypertext/WWW/TheProject.html
In Anlehnung an das Internet und seine regulativen Institutionen sah Tim BernersLee die Notwendigkeit, auch die Entwicklung und das Wachstum des WWW durch eine unabh¨angige Instanz regeln zu lassen. Standards sollten ebenfalls nur von einem unabh¨angigen Gremium und nicht durch die Industrie alleine definiert werden, um die Entstehung von Monopolen zu verhindern. So begann Lee zusammen mit Michael Dertouzos, dem Leiter des Laboratory of Computer Science am MIT, Mittel f¨ur die Einrichtung eines World Wide Web Consortiums (W3C) einzuwerben. 1994 konnte das W3C dann ins Leben gerufen werden mit Unterst¨utzung des MIT, des Institute National de Recherche en Informatique et en Automatique (INRIA) in Europa, der DARPA und der Europ¨aischen Kommission mit dem Ziel, die weitere Entwicklung der WWW-Protokolle zu u¨ berwachen und die Interoperabilit¨at des WWW zu f¨ordern. E-Commerce wurde dann ab 1995 zum Begriff: Wirtschaft und Handel entdecken das WWW und seine M¨oglichkeiten. Erste Internet-Shopping-Systeme wurden eingerichtet und Firmen wie Amazon.com oder Google.com entstanden aus dem Nichts und wurden u¨ ber Nacht zu B¨orsenriesen. Die Registrierung von Internetadressen und Namen wurde zu einem kostenpflichtigen Service und die großen Firmen ließen sich die rechtliche Absicherung ihrer Namen im WWW oft eine Menge Geld kosten. Ein regelrechter Hype entstand und riss die gesamte Wirtschaft mit sich. In den Medien wurde unter dem Begriff der New Economy“ euphorisch ” ein neues Internet-basiertes Wirtschaftsmodell gefeiert. Das amerikanische Silicon Valley wurde zur Brutst¨atte der dot-coms, so bezeichnet nach dem Adress-Suffix
2.9 Die untrennbare Geschichte von InternetundWWW
85
.com ihrer WWW-Adressen, die meist mit einer simplen Gesch¨aftsidee eines Webbasierten Dienstes und der Hilfe von Venture-Kapital und Investoren meist in nur wenigen Monaten aufgebaut wurden, bevor sie – im Erfolgsfall mit astronomischen Gewinn – von einem gr¨oßeren Konkurrenten aufgekauft wurden. Der reale Gewinn allerdings, den diese Firmen projektierten, blieb in den meisten F¨allen aus. Auch der Konsument blieb, was das Online-Shopping angeht, zaghaft, zumindest solange noch keine einheitlichen und sicheren Transaktionsmechanismen zur Verf¨ugung standen. In der Jahresmitte 2000 brach dieser Markt dann schlagartig zusammen – die so genannte Dotcom-Blase“ platzte. Dem alten B¨orsengesetz folgend kam ” nach dem u¨ berschw¨anglichen Hype erst einmal eine lange Talfahrt, bevor der Markt langsam wieder zur¨uck zu einer realen Bewertung fand. Anzahl installierter Web-Server 200.000.000 180.000.000 160.000.000 140.000.000 120.000.000 100.000.000 80.000.000 60.000.000 40.000.000 20.000.000 0 08 20 07 20 06 20 05 20 04 20 03 20 02 20 01 20 00 20 99 19 98 19 97 19 96 19 95 19 94 19 93 19 92 19
Abb. 2.25 Wachstum des World Wide Web
2.9.4 Web 2.0 und Semantic Web – Die Zukunft des WWW Die zweite Dekade des WWW neigt sich ihrem Ende entgegen, doch ist ein Ende der Entwicklung des WWW noch nicht abzusehen. Zum Einen entwickelt sich das WWW zusehends weiter mit den M¨oglichkeiten der neuen Zugriffsger¨ate. Schon gegen Ende der 90er Jahre versuchten erste Initiativen das WWW auch auf mobile Endger¨ate und Mobiltelefonen verf¨ugbar zu machen. Allerdings konnte sich diese Variante des WWW-Datenverkehrs zun¨achst nur langsam durchsetzen, was auch auf die mangelnde Qualit¨at der jeweiligen mobilen Benutzerschnittstelle zur¨uckzuf¨uhren war. Mobile Endger¨ate bieten per se nur ein relativ kleines Display, auf
86
Internet Wachstum
2 Geschichtlicher R¨uckblick
1.000.000.000 100.000.000 10.000.000 1.000.000 100.000 10.000 1.000 100 10 1
08 20 7 0 20 6 0 20 5 0 20 4 0 20 3 0 20 2 0 20 1 0 20 0 0 20 9 9 19 8 9 19 7 9 19 6 9 19 5 9 19 4 9 19 3 9 19 2 9 19 1 9 19 0 9 19 9 8 19 8 8 19 7 8 19 6 8 19 5 8 19 4 8 19 83 19 2 8 19 1 8 19 9 7 19 7 7 19 4 7 19 3 7 19 2 7 19 1 7 19 0 7 19 9 6 19
Abb. 2.26 Anzahl der an das Internet angeschlossenen Hosts
dem WWW-Inhalte dargestellt werden k¨onnen. Andererseits setzten schmale Bandbreiten und unausgereifte Display-Technik dem mobilen WWW-Datenverkehr enge Grenzen. Fortschreitende Miniaturisierung und schnelle Mobilfunknetze der 3. Generation erm¨oglichen heute jedoch ein ann¨ahernd gleichwertiges Arbeiten auch im mobilen Bereich. Zudem erm¨oglichen Satellitenortungssysteme (Global Positioning System, GPS) die geografische Erfassung des jeweiligen Browserstandortes und damit das Angebot spezieller, standortabh¨angiger Dienste, wie z.B. Auskunfts- und Navigationssysteme. Seit seiner Geburtsstunde im Jahre 1990 hat sich das WWW auch inhaltlich sehr ver¨andert. Zun¨achst nur ein u¨ ber Hyperlink vernetztes Dokumentenmanagementsystem, das lediglich einer kleinen Zahl von Nutzern zur Verf¨ugung stand, sollte es sich in den folgenden Jahren zum gr¨oßten verteilten Informationssystem aller Zeiten entwickeln. Mit dem Aufkommen des E-Commerce verschob sich der Fokus des WWW weg von dem pers¨onlichen Kommunikations- und Publikationsmedium f¨ur Spezialisten, hin zu einem Medium der Massenkommunikation: Informationsproduktion und Informationskonsumption bleiben strikt getrennt. Lediglich der Spezialist war in der Lage, eigene Inhalte im WWW online zustellen. Die breite Masse konsumierte das Informationsangebot der gleich einem traditionellen BroadcastMedium agierenden kommerziellen Informationsanbieter. Die Interaktion der Nutzer beschr¨ankte sich lediglich auf das Lesen von Webseiten, das Online-Bestellen von Waren und Konsumg¨utern, sowie das Anklicken von Werbebannern. Doch das WWW ver¨anderte sich weiter. Neue Technologien wurden entwickelt, die es auch dem Laien erm¨oglichen, Informationsinhalte auf einfache Art und Weise selbst zu publizieren. Weblogs, Chatrooms, Tauschb¨orsen, Tagging Systeme und Wikis eroberten das WWW und er¨offnen dem Anwender auf breiter Basis den Weg zu echter
2.9 Die untrennbare Geschichte von InternetundWWW
87
Interaktion und Partizipation in der digitalen Welt. Als der Medienunternehmer und Netzpionier Tim O’Reilly im Oktober 2004 diese Ver¨anderung des WWW einem reinen Fachpublikum unter dem Namen Web 2.0 vorstellte, war noch nicht abzusehen, dass diese Renaissance des WWW“ derart um sich greifen w¨urde. Das In” ternet hatte sich von einem reinen Broadcast-Medium zu einem echten interaktiven Marktplatz gewandelt, der Nutzer ist Informationskonsument und Informationsproduzent zugleich. Diese neue Interaktivit¨at erm¨oglicht direkt und indirekt auch die Entstehung neuer sozialer Netzwerke. Neben dieser evolution¨aren Entwicklung des WWW wuchs die angebotene Informationsf¨ulle weiter u¨ ber alle Maßen. Um sich in diesem Informationsuniversum zurecht zu finden wurden Suchmaschinen, wie z.B. Google entwickelt, die den Nutzer auf seinem Weg durch das WWW leiten. Google verwaltet zu diesem Zweck einen gigantischen Index, der auf die Eingabe eines Suchbegriffes hin einen sekundenschnellen umf¨anglichen Zugriff auf die relevanten Webdokumente bietet. Das funktioniert aufgrund der schieren Gr¨oße des WWW nur mit Hilfe automatischer Verfahren zur Indexerstellung, die mit statistischen Methoden alle Begriffe innerhalb eines Webdokuments auswerten, indizieren und die jeweiligen Dokumente so bzgl. eines bestimmten Schlagworts in eine Rangreihenfolge bringen. Doch bereits die Menge an zur¨uckgelieferten Suchergebnissen ist f¨ur den Anwender nicht mehr nachvollziehbar. So liefert etwa eine Anfrage nach dem Suchbegriff Web 2.0“ mehr als 74 ” Millionen Ergebnisse (Stand 10/2008). Allerdings finden sich in den Ergebnislisten nur Dokumente, die diesen Begriff auch wortw¨ortlich enthalten. Umschreibungen und Synonyme k¨onnen auf diese Weise nicht gefunden werden. Ebenso muss ein Dokument, das den gesuchten Begriff enth¨alt, nicht notwendigerweise auch thematisch diesen Begriff in den Mittelpunkt stellen. Vollst¨andigkeit und Genauigkeit der Suchergebnisse k¨onnen daher alleine aufgrund der problematischen Interpretation der nat¨urlicher Sprache nie auch nur ann¨ahernd erreicht werden. Dazu w¨are eine systematische Erg¨anzung der Webdokumente mit entsprechend aussagekr¨aftigen zus¨atzlichen Daten (sogenannten Metadaten) notwendig. Ein derart mit Metadaten erg¨anztes Webdokument m¨usste zusammen mit jedem f¨ur dieses Dokument relevanten Begriff einen Verweis auf ein diesen Begriff beschreibendes Konzept enthalten. Diese konzeptuellen Beschreibungen – so genannte Ontologien – k¨onnten in einer maschinenlesbaren, standardisierten Form hinterlegt werden und von einer Suchmaschine zus¨atzlich ausgewertet werden, um die Trefferquote der pr¨asentierten Suchergebnisse zu erh¨ohen. Das f¨ur die Standardisierung des WWW zust¨andige WWW-Consortium (W3C) hat bereits die dazu notwendigen Grundlagen in Form von Ontologiebeschreibungssprachen, wie z.B. RDF, RDFS oder OWL geschaffen. Semantisch annotierte Webseiten erm¨oglichen es autonom agierenden Agenten, zielgerichtet Informationen zu sammeln, um darauf aufbauend selbstst¨andig Entscheidungen im Sinne ihres Auftraggebers zu treffen und Transaktionen u¨ ber das WWW zu initiieren. Dieses semantische Netzwerk (Semantic Web) stellt die n¨achste Evolutionsstufe des WWW dar und soll schon in naher Zukunft Realit¨at werden.
88
2 Geschichtlicher R¨uckblick
2.10 Glossar Alphabet: Geordnete Folge von Buchstaben (Lautzeichen) einer Sprache, leitet sich ab von [lat.]alphabetum, [griech.]alphabetos, zu Alpha (α ) und Beta (β ), den beiden ersten Buchstaben des griechischen Alphabets. Etwa ab dem 3. Jhd. v. Chr. dient die Bezeichnung als zusammenfassender Name aller griechischen Buchstaben. Erstmals wurde das Wort alphabetum“ vom in lateinischer Sprache schreibenden fr¨ uhen christlichen Dichter ” Tertullian (ca. 160–220 n. Chr.) verwendet. Die deutsche Schrift basiert auf dem lateinischen Alphabet, das sich aus einer Linie des ph¨ onizischen Alphabets entwickelt hat. Das deutsche Alphabet besteht aus je 26 Großbuchstaben (Majuskeln) und Kleinbuchstaben (Minuskeln) sowie Buchstabenkombinationen mit Umlauten und Akzentzeichen. analog: (ana logum=[griech.] im richtigen Verh¨ altnis), Bezeichnung f¨ ur Technologien/Verfahren, in denen kontinuierlich stetige, d.h. stufenlose physikalische Gr¨ oßen verwendet werden. ARPANET (Advanced Research Projects Agency Net): Erstes paketvermittelndes Datennetz und Vorl¨ aufer des Internet, ins Leben gerufen von der DARPA, einer Forschungsinitiative des amerikanischen Verteidigungsministeriums. Der erste Netzknoten (Interface Message Processor, IMP) war am 30. August 1969 einsatzbereit und das ARPANET wurde nahm Dezember 1969 mit 4 IMPs in Stanford, Santa Barbara, Los Angeles und Utah den Betrieb auf. Es umfasste in seiner Bl¨ utezeit mehrere Satellitenverbindungen, darunter von der West- zur Ostk¨ uste der USA, nach Hawaii, Großbritannien, Norwegen, Korea und Deutschland. Das ARPANET stellte seinen Betrieb im Juli 1990 ein. Blockbuch: Werden mehrere Einzelblattdrucke zu einem kleinen Buch gebunden, entsteht ein so genanntes Blockbuch, wobei die Texte und Bilder der Einzelblattdrucke in Holz geschnitten werden (Holzschnitt). digital: (digitus=[lat.] Finger), Bezeichnung f¨ ur Technologien/Verfahren, die nur diskrete unstetige, d.h. stufenf¨ ormige arithmetische Gr¨ oßen verwenden. Grundlage der Digitaltechnik ist das bin¨ are Zahlensystem, das lediglich die zwei Zust¨ ande wahr“ und un” ” wahr“ bzw. die Zahlenwerte 1“ und 0“ beinhaltet. Diese bin¨ aren Zahlenwerte werden ” ” als Bit (Binary Digit) bezeichnet und stellen die kleinstm¨ ogliche Informationseinheit dar. Flugblatt: Als Flugbl¨ atter werden politisch oder kommerziell motivierte, ereignisbezogene Einblattdrucke bezeichnet. Urspr¨ unglich dienten Flugbl¨ atter weniger der politischen Agitation, sondern waren eine Handelsware, angeboten von Marktschreiern und fahrenden H¨ andlern mit meist anonymem Verfasser. Das Flugblatt gilt als das erste Massenkommunikationsmittel. Flugschrift: Flugschriften gelten als Vorl¨ aufer unserer heutigen Tageszeitung. Sie erschienen aber nur unperiodisch und umfassten im Gegensatz zum Flugblatt meist mehrere, beidseitig bedruckte Seiten. Grammatik: Beschreibung der Struktur und der Regeln einer Sprache als Teil der Sprachwissenschaft (morphologische und syntaktische Regularit¨ aten einer nat¨ urlichen Sprache). Im Vergleich zur Sprach- und Schriftentwicklung bildete sich das feste Regelsystem der Grammatik zur Festlegung des Sprachgebrauchs erst sp¨ at in geschichtlicher Zeit (ab dem 5. Jahrhundert v. Chr.) heraus. Die Philologie sieht in der Grammatik ein Hilfsmittel der Sprachanalyse zur Erfassung der historischen Entwicklung der Sprache. ¨ Hochdruck: Altestes Verfahren der Drucktechnik, bei dem die Druckfarbe auf die erhabenen Teile des Druckstockes aufgebracht und direkt auf den zu bedruckenden Stoff abgerieben wird. Im spiegelverkehrten Bild auf dem Druckstock m¨ ussen zuvor die nichtdruckenden Teile mit Messern vertieft werden. Holzschnitt: Variante des Hochdrucks auf Papier. Nach Anbringen einer Vorzeichnung auf dem Holzstock werden die nichtdruckenden Teile eingetieft, die u ¨brig gebliebenen Stege werden eingef¨ arbt und auf einen befeuchteten Papierbogen gedruckt, der u ¨ber
2.10 Glossar
89
den eingef¨ arbten Holzstock gelegt und mit einem Stoffballen abgerieben wird. Da die Druckfarbe meist durch das Papier durchschlug, wurde oft nur einseitig gedruckt. Eine Holzschnitt-Druckvorlage konnte mehrere hundert Male verwendet werden. Homonym: W¨ orter, die die gleiche Lautung besitzen, aber unterschiedliche Dinge bezeichnen bzw. unterschiedlichen Sinn haben, z.B. sieben“ (Zahlwort und Verb). ” Ideogramm: Bildzeichen oder Kombinationen von Bildzeichen, die zur Kennzeichnung von nichtgegenst¨ andlichen Begriffen verwendet werden, wie z.B. T¨ atigkeiten, abstrakte Begriffe oder Gef¨ uhle. Die Bedeutung von Ideogramme erschließt sich nicht von selbst, sondern muss erst entsprechend des durch den jeweiligen Kulturkreis festgelegten formalen Systems erlernt werden. Illuminieren: K¨ unstlerische Hervorhebung und bildliche Ausschm¨ uckung von Initialen (Satz- und Kapitelanf¨ angen) und Hinzuf¨ ugen von weiteren schm¨ uckenden Beiwerk (meist Ranken) zu einer Handschrift oder einem fr¨ uhen Druckwerk. Je nach Bedeutung eines Abschnitts wurde f¨ ur die Ausgestaltung der Initialen zwischen zwei und zehn Zeilen freigehalten. Imprimatur: ([lat.]=es darf gedruckt werden) Kirchliche Erlaubnis zum Druck eines Werkes. P¨ apstliche Bullen durch Papst Innozenz VIII. (1432–1492) und Papst Alexander VI. (1430–1503) institutionalisierten eine erste Druckzensur. Ohne die entsprechende kirchliche Erlaubnis durfte ein Buch nicht erscheinen. Inkunabeln: Fr¨ uhe Druckerzeugnisse ( Wiegendrucke“), die in der Zeit zwischen 1450 ” und 1500 entstanden sind. Der Name leitet sich von incunabula“, dem lateinischen ” Wort f¨ ur Windel“ ab. Das ber¨ uhmteste zu den Inkunabeln z¨ ahlende Werk ist die von ” Gutenberg gedruckte 42-zeilige Prachtbibel, von deren urspr¨ unglich 185 Exemplaren heute noch 48 – manche davon nur in Teilen – erhalten sind. Internet: Das Internet ist das weltweit gr¨ oßte Computernetzwerk, das aus vielen miteinander verbundenen Netzwerken und auch einzelnen Ressourcen besteht. Zu den wichtigsten Leistungen des Internets – man spricht auch von Diensten“– z¨ ahlen die elektronische ” Post (E-Mail), Hypermediadokumente (WWW), Dateitransfer (FTP) und Diskussionsforen (Usenet/Newsgroups). Popul¨ ar geworden ist das globale Netz haupts¨ achlich durch Einf¨ uhrung des World Wide Webs (WWW), das nicht selten mit dem Internet gleichgesetzt wird, tats¨ achlich aber nur eine Untermenge – also einen von mehreren Diensten – des Internets darstellt. Kolophon: ([griech.]=Zielpunkt, Endpunkt) Angaben u ¨ber Drucker, Ort und Zeitpunkt am Ende einer Druckschrift bzw. Angaben zum Schreiber einer Handschrift. Kommunikation: Unter Kommunikation versteht man den Prozess ein- oder wechselsei¨ tiger Abgabe, Ubermittlung und Aufnahme von Informationen durch Menschen oder technische Systeme. Onomatopoetika: W¨ orter, die einen Begriff auf lautmalerische Weise oder klangnachahmend beschreiben, z.B. grunzen“. ” Medium: Auspr¨ agung eines Transportkanals zur Nachrichten¨ ubermittlung zwischen Sender und Empf¨ anger. Netzhauttr¨ agheit: Ein Bild der Gesichtswahrnehmung bleibt auf der Retina des menschlichen Auges f¨ ur ca. 1/16 Sekunde erhalten, bevor es wieder verlischt. Bereits im Altertum von Ptolem¨ aus von Alexandria (85–165 n. Chr.) beschrieben, bildet die Netzhauttr¨ agheit die Grundlage f¨ ur die Entwicklung von Film und Fernsehen. Werden Einzelbilder schnell genug hintereinander folgend dargestellt, so entsteht bei einer Abfolge ab 15 Bilder pro Sekunde der Eindruck einer kontinuierlichen Bewegung. Pergament: Pergament ist ein Beschreibstoff tierischen Ursprungs, der bereits im Altertum entwickelt wurde. Zu seiner Herstellung dienten in Kalklauge eingelegte Tierh¨ aute, die durch Abschaben von Fleisch und Haaren gereinigt und anschließend in Rahmen aufgespannt getrocknet wurden.
90
2 Geschichtlicher R¨uckblick
Petroglyphen: In Stein geritzte bzw. auf Stein gemalte Zeichnungen vorgeschichtlicher, nomadischer J¨ ager. Photoeffekt: Unter dem Photoeffekt (auch photoelektrischen Effekt, Hallwachs-Effekt oder lichtelektrischer Effekt) versteht man das Freisetzen von Elektronen aus einer Metalloberfl¨ ache, die von elektromagnetischer Strahlung, also insbesondere von Licht getroffen wird. Der Photoeffekt ist die Grundlage von lichtempfindlichen Sensoren, wie z.B. CCD-Sensoren in der Digitalfotografie. Piktogramm: Bildzeichen, die zur Bezeichnung von Gegenst¨ anden, Personen oder Tieren verwendet werden, z.B. als Hinweis- oder Verkehrszeichen. Piktogramme gelten als fr¨ uhe Stufe in der Schriftentwicklung. Pulse Code Modulation (PCM): Methode der Analog-Digital Umwandlung, die auf der Abtastung eines analogen Signals mit anschließender Diskretisierung der gewonnenen Abtastwerte beruht. Die Abtastung (Sampling) zerlegt den kontinuierlichen, zeitlichen Verlauf eines Signals in diskrete Einzelzeitpunkte und erfasst die gerade vorliegenden Momentan-Werte eines Analogsignals zu jeweils diskreten Zeitpunkten (AbtastZeitpunkt). Diese exakten Abtastwerte werden zur anschließenden bin¨ aren Kodierung innerhalb vordefinierter Quantisierungsintervalle gerundet. Semantic Web: Als Semantic Web wird eine Erweiterung des bestehenden World Wide Web bezeichnet. Dabei erh¨ alt jede im Semantic Web repr¨ asentierte Information eine wohldefinierte und maschinenlesbare Bedeutung zugeteilt, die es autonom agierenden Programmen erm¨ oglichen soll, den Inhalt der Informationen zu interpretieren und darauf aufbauend Entscheidungen treffen zu k¨ onnen. Das Konzept des Semantic Web beruht auf einem Vorschlag des WWW-Begr¨ unders Tim Berners-Lee. Semantik: Als Semantik wird ein Teilgebiet der Sprachwissenschaft (Linguistik), die Bedeutungslehre bezeichnet. Sie besch¨ aftigt sich mit dem Sinn und der Bedeutung von Sprache und sprachlichen Zeichen. Im Mittelpunkt steht dabei die Frage, wie sich Sinn und Bedeutung komplexer Begriffe aus denen von einfacheren Begriffen abgeleitet werden k¨ onnen. Die Semantik st¨ utzt sich dabei auf die Regeln der Syntax. Sprache: Als Sprachen werden in der Sprachwissenschaft die lautbasierten Kommunikationsformen des Menschen bezeichnet. Dabei handelt es sich nicht um eine im Instinkt ¨ wurzelnde Methode zur Ubermittlung von Gedanken, Gef¨ uhlen und W¨ unschen mittels eines Systems von frei geschaffenen Symbolen. Synonym: W¨ orter, die eine unterschiedliche Lautung besitzen, aber denselben Gegenstand bezeichnen bzw. denselben Sinn haben, z.B. Raumpflegerin“ und Putzfrau“. ” ” Web 2.0: Als Web 2.0 wird eine scheinbar“ neue Generation Web-basierter Dienste be” zeichnet, die in besonderem Maße durch eine einfache M¨ oglichkeit der Partizipation und Interaktion im WWW auch f¨ ur den Nicht-Fachmann gekennzeichnet ist. Typische Beispiele f¨ ur diese Dienste sind Wikis, Weblogs, Bild- und Videoportale oder Tauschb¨ orsen. World Wide Web: Englische Bezeichnung f¨ ur das weltweite Datennetz“ (auch WWW, ” 3W, W3, Web). Gemeint ist der j¨ ungste und zugleich erfolgreichste Dienst im Internet, der sich durch hohe Benutzerfreundlichkeit sowie multimediale Elemente auszeichnet. WWW bezeichnet eigentlich eine Technologie, die in der Lage ist, ein verteiltes, Internetbasiertes Hypermedia-Dokumentenmodell zu implementieren. Internet und World Wide Web (WWW) werden heute oft synonym verwendet, obwohl es sich beim WWW nur um einen speziellen Dienst im Internet handelt, der mit dem HTTP-Protokoll u ¨bertragen wird. WWW-Server: Prozess auf einem Computer mit der Funktionalit¨ at, auf Anfragen von Browsern u ¨ber das WWW zu antworten. Aus technischer Sicht kann auf jedem Computer, der an das Internet angeschlossen ist, ein WWW-Server betrieben werden.
2.10 Glossar
91
Zeichen: Bezeichnung f¨ ur etwas“, das f¨ ur etwas anderes ( Bezeichnetes“) steht. Die ” ” Beziehung zwischen Zeichen und bezeichnetem Objekt ist stets eine direkte. Die Beziehung der Zeichen untereinander, wie sie miteinander zu neuen Begriffen kombiniert werden k¨ onnen wird durch die Syntax festgelegt.
Kapitel 3
Grundlagen der Kommunikation in Rechnernetzen
Wenn alle Menschen nur dann redeten, wenn sie ” etwas zu sagen haben, w¨ urden die Menschen sehr bald den Gebrauch der Sprache verlieren.“ – William Shakespeare, (1564 – 1616)
¨ Digitale Kommunikation, also die Ubermittlung digitaler Nachrichten und G¨ uter braucht Rechnernetze. Doch wie gelangen Informationen in Form von digitalen Daten von einem Rechner zum anderen? Wieso kann eine E-Mail ¨ uberhaupt korrekt zugestellt werden? Wie kann unter der Vielzahl der Kommunikationsteilnehmer im weltumspannenden Internet der Richtige herausgefunden werden – und das millionenfach? Das folgende Kapitel stellt die Grundlagen der Rechnerkommunikation vor und hilft, diese technischen Vorg¨ ange in einem Rechnernetz wie dem Internet und das Zusammenspiel seiner vielf¨ altigen Komponenten zu verstehen. Mit Hilfe eines sogenannten Schichtenmodells werden die zahlreichen Teilprobleme, die zur erfolgreichen und effizienten Daten¨ ubertragung in einem Rechnernetz zu l¨ osen sind, geb¨ undelt hierarchisch angeordnet und die jeweiligen Teill¨ osungen zu einem funktionsf¨ ahigen Ganzen zusammengef¨ ugt. Das Prinzip der Paketvermittlung bietet dabei einen erfolgreichen Ansatz zur L¨ osung des Problems der Kommunikation: Die effiziente und sichere Kommunikation vieler Kommunikationsteilnehmer ¨ uber ein fehleranf¨ alliges, gleichzeitig gemein¨ sam genutztes Ubertragungsmedium. Sicher wird diese Kommunikation durch den Einsatz von Fehlererkennungs- und Fehlerkorrekturverfahren, die eine zuverl¨ assige Kommunikation ¨ uberhaupt erst erm¨ oglichen.
3.1 Grundbegriffe und -konzepte 3.1.1 Kommunikation und Datenubertragung ¨ Kommunikation (communicare = [lat.] teilen, mitteilen, teilnehmen lassen) ist der ¨ Austausch, die Bereitstellung, Ubermittlung und Aufnahme von Nachrichten – im Falle der digitalen Kommunikation von digitalen Daten – zwischen zwei oder meh-
C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 3,
93
94
3 Grundlagen der Kommunikation in Rechnernetzen
reren Kommunikationspartnern. Basiskomponenten jeglicher Form von Kommunikation, sei es Alltagskonversation oder digitaler Datenaustausch zwischen Computern, bilden die zu u¨ bertragenden Nachrichten selbst, deren Sender und Empf¨anger, sowie das Medium, u¨ ber das die Nachrichten u¨ bertragen werden, das sogenannte Kommunikationsmedium (siehe auch Kap. 1.2 Digitale Kommunikation und ih” re Grundlagen“). Schallwellen sind z.B. das Kommunikationsmedium f¨ur unsere allt¨agliche Konversation, u¨ ber das die sprachlichen Nachrichten mit Hilfe akustischer Signale ausgetauscht werden. M¨oglich sind aber auch andere Medien, wie z.B. Radiowellen oder elektrische Signale. Damit Kommunikation stattfinden kann, m¨ussen folgende Bedingungen erf¨ullt sein: 1. Die Nachricht muss in einem zur Kommunikation tauglichen Zeichensystem dargestellt werden (z.B. Laute, Schrift, bin¨are Kodierung, etc.), 2. die Zeichen m¨ussen in physikalische Signale (z.B. Schallwellen, elektrische Impulse, Radiowellen, etc.) transformiert werden, und 3. der Empf¨anger muss die empfangenen Signale deuten und durch Interpretation die vermittelte Bedeutung der Nachricht erschließen k¨onnen. Außerdem sollte es m¨oglich sein, eventuelle Fehler, die w¨ahrend der Nachrichten¨ubertragung auftreten k¨onnen, zu erkennen und gegebenenfalls sogar zu korrigieren. Handelt es sich bei den beteiligten Kommunikationspartnern um Computer, so ¨ spricht man von einer Datenubertragung. Unter einer Daten¨ubertragung versteht man den Austausch von Informationseinheiten (Daten), zwischen zwei oder mehreren, r¨aumlich voneinander getrennten Rechnern, die die Nachricht ausmachen. ¨ Die Kommunikation l¨auft dabei u¨ ber geeignete Ubertragungsmedien – sogenannte Datenverbindungen ab. Die miteinander verbundenen Rechner bilden ein Rechner¨ ¨ netz, oder kurz ein Netz, das System der Ubertragungsleitungen bildet das Ubertragungsnetz oder Netzwerk. Die beteiligten Rechner m¨ussen bei einer Daten¨ubertragung bis ins kleinste Detail festgelegten Vorschriften folgen – den sogenannten Kommunikationsprotokollen – um die Daten so senden bzw. empfangen zu k¨onnen, dass der jeweils andere Rechner die Daten korrekt auffassen und weiterverarbeiten kann. In der DIN 44302 wird das Prinzip der Daten¨ubertragungssysteme definiert [64]: Je¨ des Datenubertragungssystem wird von (mindestens) zwei Datenstationen (Rech¨ nern) gebildet, die durch einen Ubertragungsweg, allgemeiner eine Kommunikati¨ onseinrichtung, miteinander verbunden sind. Jeder an ein Ubertragungsnetz ange¨ schlossener Rechner ben¨otigt zwei Komponenten: die Datenubertragungseinrichtung (Data Circuit Transmission Equipment, DCE), die direkt an die (meist o¨ ffentli¨ che) Ubertragungsstrecke angebunden ist, und die mit der als Datenendeinrichtung (Data Terminal Equipment, DTE) bezeichneten Recheneinheit kommuniziert. Dabei verwandelt die DCE die zu u¨ bertragenden Daten zum Senden in elektrische Signale bzw. die empfangenen elektrischen Signale wieder in (meist bin¨ar kodierte) Daten zur¨uck (siehe Abb. 3.1). Zwischen DTE und DCE existiert eine standardisierte Schnittstelle (Interface), deren allgemeine Funktion in DIN 66020 und DIN 66021 festgelegt wird [65, 66].
3.1 Grundbegriffe und -konzepte
95
Die Schnittstelle sorgt daf¨ur, dass auch Ger¨ate verschiedener Hersteller miteinan¨ der kommunizieren k¨onnen. Die Ubertragung betreffende Aufgaben von DTE und ¨ DCE ergeben sich aus dem jeweils verwendeten Ubertragungsverfahren. Unter ei¨ nem Ubertragungsweg versteht man die Verbindung von zwei Datenstationen u¨ ber einen Kanal, auf dem kodierte Informationen als elektrische oder optische Signale oder durch elektromagnetische Wellen u¨ bermittelt werden.
Rechner 1
DTE
DCE Übertragungsstrecke
Schnittstelle (Interface)
Schnittstelle (Interface)
Rechner 2
DTE
DCE
Abb. 3.1 Modell der Daten¨ubertragung nach DIN 44302
Die Aufgabe der Datenendeinrichtung (DTE) besteht im Senden (Datenquelle = Ursprung der Daten) und Empfangen (Datensenke = Bestimmungsort der Daten) von Daten. Eine DTE enth¨alt eine oder mehrere der nachfolgenden Komponenten: • • • • •
Eingabewerk (Input Processing Unit), Ausgabewerk (Output Processing Unit), Rechenwerk (Arithmetic Logical Unit, ALU), Steuerwerk (Control Unit) und Speicher (Memory).
¨ Die Datenubertragungseinrichtung (DCE) ist im Rechensystem f¨ur die folgenden Aufgaben zust¨andig: ¨ • Transformation der zu sendenden Daten in f¨ur das Ubertragungsmedium geeignete Signale und der empfangenen Signale in f¨ur die DTE verst¨andliche Daten (Signalumsetzung), • Auf- und Abbau von Datenverbindungen, • Erzeugung und Aufrechterhaltung eines konstanten Sende- und Empfangtaktes zwischen den beteiligten DCEs und ¨ • Erkennen und Beheben von Ubertragungsfehlern. Beispiele f¨ur Daten¨ubertragungseinrichtungen sind etwa ein Modem zum Anschluss an das Telefonnetz oder ein Transceiver zum Anschluss an ein Ethernet-Netzwerk. DCEs sind damit Bestandteil des eigentlichen Kommunikationssubsystems.
96
3 Grundlagen der Kommunikation in Rechnernetzen
¨ Sind in einem Ubertragungsnetzwerk die DCEs unmittelbar durch Leitungen miteinander verbunden, ohne dass zus¨atzliche Komponenten dazwischengeschaltet sind, die z.B. Entscheidungen u¨ ber den weiteren Weg der Daten treffen oder diese anderweitig ver¨andern, so spricht man von einer direkten Verbindung, anderenfalls von einer indirekten Verbindung. Zum Zweck der Daten¨ubertragung k¨onnen Rechner in einer Vielzahl von Anordnungen miteinander verbunden werden. Dabei k¨onnen die unterschiedlichen Netze nach ihrer r¨aumlichen Ausdehnung und nach ihrer Topologie, d.h. der Form der Verteilung und Verbindung der einzelnen Rechnerknoten klassifiziert werden. Die einfachste und a¨ lteste Art der Vernetzung ist die Punk-zu-Punkt Verbindung zwischen zwei Rechnern. Teilen sich dagegen mehrere Rechner ein gemeinsames ¨ Ubertragungsnetz, sind die Rechner also lediglich indirekt miteinander verbunden, so spricht man – in Abh¨angigkeit von der dabei u¨ berbr¨uckten Distanz – von einem lokalen Netzwerk (Local Area Network, LAN) bzw. einem Weitverkehrsnetzwerk (Wide Area Network, WAN). An das Netzwerk angeschlossene Endger¨ate und Rechner werden allgemein auch als Hosts bezeichnet. Wird das Netzwerk aus topologischer Sicht betrachtet, so bilden die daran angeschlossenen Rechensysteme die Netzknoten. Werden verschiedene Netze miteinander verbunden, entsteht ein Netzwerkverbund bzw. ein Internet. Zwei Rechner, die in diesem Internet die Endpunkte einer gerade stattfindenden Kommunikation sind, werden als Endsysteme bezeichnet, w¨ahrend alle Rechner entlang des Verbindungsweges zwischen diesen beiden Endsystemen als Zwischensysteme bezeichnet werden. Sind diese Zwischensysteme in mehrere Kommunikationsverbindungen eingebunden und mit verschiedenen anderen Zwischensystemen des Internets direkt verbunden, so m¨ussen sie bei der Weiterleitung jeder Nachricht entscheiden, u¨ ber welche Kommunikationsverbindung sie die Nachricht verschicken. Dieser Entscheidungsprozess wird Routing genannt, die Zwischensysteme, die diese Entscheidung treffen, heißen Vermittlungsstelle, Vermittlungsrechner oder Router. Die wichtigsten Grundbegriffe der Netzwerktechnik sind in Abb. 3.2 kurz zusammengestellt. Zwischen den Endsystemen eines Computernetzwerks k¨onnen verschiedene Beziehungs- bzw. Verkehrsarten unterschieden werden. Je nachdem, ob Nachrichten an einen, an mehrere oder an alle Endsysteme des Netzwerkes verschickt werden sollen, spricht man von Unicast, Multicast oder Broadcast (siehe Abb. 3.3). UnicastDatenverkehr stellt dabei die nat¨urliche Form der Kommunikation in Computernetzwerken zwischen zwei Endsystemen dar. Multicast-Datenverkehr wird z.B. zur Auslieferung von Multimediadatenstr¨omen an mehrere gleichzeitig adressierte Endsysteme eingesetzt, um dadurch die Netzwerkbelastung zu reduzieren. Auch die zur Steuerung der Netzwerkkommunikation unter den Zwischensysteme auszutauschenden Nachrichten werden als Multicast versendet. Broadcast-Datenverkehr schließlich kommt in Computernetzwerken nur selten zum Einsatz, da dies eine erhebliche Belastung der verf¨ugbaren Ressourcen nach sich zieht. Die Betriebsart der Nachrichten¨ubertragung gibt an, in welcher Richtung Nachrichten zwischen zwei Endsystemen ausgetauscht werden k¨onnen. Man unterscheidet Simplex-Betrieb, bei dem Nachrichten unidirektional, d.h. in einer Richtung
3.1 Grundbegriffe und -konzepte
97
Internet Endsystem Rechner A
Verbindung
Netzwerk 3
Netzwerk 1 Zwischensystem Vermittlungsstelle
Endsystem Rechner B Netzwerk 2
Abb. 3.2 Wichtige Grundbegriffe im Netzwerk Verkehrsarten Die Verkehrsart gibt an, an wieviele der an das Netzwerk bzw. an den Netzwerkverbund angeschlossenen Empf¨ anger ein Sender seine Nachricht schickt. Grunds¨ atzlich unterscheidet man:
• Unicast: Ein Sender sendet eine Nachricht an einen einzelnen Empf¨ anger (Punkt-zu-Punkt ¨ ¨ Ubertragung). Beispiel f¨ ur eine Unicast Ubertragung ist ein Telefongespr¨ ach oder eine pers¨ onliche E-Mail. • Multicast: Ein Sender sendet eine Nachricht an eine Gruppe von Empf¨ angern (Punkt-zu-Gruppe ¨ ¨ Ubertragung). Beispiel f¨ ur eine Multicast Ubertragung ist eine Telefonkonferenz mit mehreren Teilnehmern oder eine E-Mail, die an einen E-Mail-Verteiler gesendet wird. • Broadcast: Ein Sender sendet eine Nachricht an alle Empf¨ anger eines Netzwerkes (Punkt-zu-alle ¨ ¨ Ubertragung). Beispiel f¨ ur eine Broadcast Ubertragung sind klassische Massenmedien, wie z.B. Zeitung, Rundfunk und Fernsehen. Abb. 3.3 Verkehrsarten in Kommunikationsnetzwerken
98
3 Grundlagen der Kommunikation in Rechnernetzen
u¨ bertragen werden, vom Duplex-Betrieb, bei dem ein bidirektionaler Nachrichtenaustausch, d.h. also ein Nachrichtenaustausch zwischen zwei Endsystemen in beide Richtungen m¨oglich ist. Beim Duplex-Betrieb unterscheidet man noch die beiden Varianten Halbduplex, bei der Nachrichten in beiden Richtungen nur sequentiell, d.h. abwechselnd nacheinander zwischen den beteiligten Endsystemen ausgetauscht werden k¨onnen, und Vollduplex, bei dem dies gleichzeitig in beiden Richtungen m¨oglich ist (siehe Abb. 3.4).
Endsystem
Zeit
Endsystem
Zeit
Simplex-Betrieb
Endsystem
Zeit
Endsystem
Zeit
Halbduplex-Betrieb
Endsystem
Endsystem
Zeit
Zeit
Vollduplex-Betrieb
Abb. 3.4 M¨ogliche Betriebsarten bei der Kommunikation im Rechnernetz
3.1.2 Klassifikationen von Kommunikationssystemen Rechner-Kommunikationssysteme lassen sich nach verschiedenen Gesichtspunkten klassifizieren. Im Hinblick auf den praktischen Einsatz von Computernetzwerken sind folgende Kriterien von Bedeutung: • • • • • •
die r¨aumliche Ausdehnung des Netzwerkes, die Art der Rechnervernetzung (direkte oder indirekte Vernetzung), die jeweilige Einsatzcharakteristik f¨ur die das Netzwerk ausgelegt ist, den Grad der Homogenit¨at der beteiligten Komponenten, die anvisierte Benutzergruppe (¨offentlicher oder nicht¨offentlicher Zugang), ¨ die Ubertragungskapazit¨ at (Bandbreite) des Netzwerkes (Schmalband vs. Breitband), ¨ • das technische Ubertragungskonzept des Netzwerks (Broadcast-Netzwerk oder Punkt-zu-Punktverbindung) und
3.1 Grundbegriffe und -konzepte
99
• der Art des Netzwerkbetreibers (privat oder o¨ ffentlich). Unterschiedliche Distanzen zwischen den zu vernetzenden Rechnern bzw. Prozessoren erfordern den Einsatz unterschiedlicher Technologien, die f¨ur die jeweils zu u¨ berbr¨uckende Distanz und f¨ur die Erf¨ullung der jeweiligen Anforderungen am geeignetsten sind. ¨ Tabelle 3.1 gibt einen Uberblick u¨ ber die M¨oglichkeiten zur Zusammenschaltung von mehreren Endsystemen, geordnet nach ihrer r¨aumlichen Distanz. An oberster Position in der Tabelle stehen Mehrprozessorsysteme, Parallelrechner und RechnerCluster, also Prozessoren, die u¨ ber sehr schnelle und kurze Systembusse miteinander verbunden sind. Die im eigentlichen Sinne als Netzwerk bezeichneten KommuTabelle 3.1 Klassifikation der Rechnernetze nach ihrer r¨aumlichen Ausdehnung Distanz Ordnungseinheit Beispiel 0,1 m Platine 1 m System 10 m Raum
Multiprozessorsystem Multiprozessor-Cluster Personal Area Network
100 m Geb¨ aude 1 km Campus
Local Area Network
10 km Stadt
Metropolitan Area Network
100 km Land 1.000 km Kontinent 10.000 km Planet
Wide Area Network Internet
nikationssysteme finden sich erst auf der nachfolgenden Stufe der Gr¨oßenordnung. Personal Area Networks (PAN) Unter einem Personal Area Network versteht man ein Netz, das u¨ blicherweise zwischen Kleinger¨aten, wie z.B. PDAs (Personal Digital Assistants) oder Mobiltelefonen und deren Peripherie ad hoc auf- und wieder abgebaut werden kann. PANs erstrecken sich lediglich u¨ ber eine r¨aumliche Ausdehnung von wenigen Metern und ¨ u¨ berbr¨ucken die Arbeitsumgebung eines Nutzers an dessen Arbeitsplatz. Als Ubertragungstechnologien kommen sowohl verschiedene drahtgebundene Techniken, ¨ wie z.B. USB (Universal Serial Bus) oder FireWire, als auch drahtlose Ubertragungstechniken, wie z.B. IrDA (Infrared Data Association) oder Bluetooth zum Einsatz. Bluetooth basierte PANs werden auch als Piconets, drahtlose PANs als Wireless PANs (WPAN) bezeichnet. PANs k¨onnen sowohl zur Vernetzung von Kleinger¨aten untereinander, aber auch zum Anschluss an ein gr¨oßeres Netzwerk dienen (Uplink). Lokale Netze (Local Area Networks LAN) Die Ausdehnung von lokalen Netzwerken kann sich von einzelnen R¨aumen, u¨ ber ganze Etagen bis hin zu mehreren Geb¨audekomplexen erstrecken, wobei selten mehr als ein einzelnes Grundst¨uck mittels einer LAN-Technologie vernetzt wird. Die Reichweite von LANs erreicht maximal einige wenige Kilometer und ihr
100
3 Grundlagen der Kommunikation in Rechnernetzen
Haupteinsatzgebiet liegt in der Vernetzung von Personal Computern und deren Peripherie in Organisationen, Unternehmen und zu Hause. Man unterscheidet drahtgebundene LAN-Technologien, wie z.B. Ethernet oder Token Ring, von drahtlosen, meist funkbasierten LANs, sogenannten Wireless LANs (WLANs). LANs sind meist als sogenannte Broadcast-Netzwerke realisiert, d.h. alle angeschlossenen Endsysteme nutzen dieselbe Kommunikationshardware und k¨onnen jede dar¨uber gesendete Nachricht empfangen. Um dabei eine effiziente Kommunikation zwischen den einzelnen Endger¨aten zu erm¨oglichen, kommen unterschiedliche Verfahren zur statischen oder dynamischen Kanalzuweisung zum Einsatz. LANs sind oft in privater Hand, es bestehen keine Reglementierungen bzgl. ihrer Nutzung. Stadtnetzwerke (Metropolitan Area Networks, MAN) Ein Metropolitan Area Network (MAN) ist ein breitbandiges, meist in Glasfasertechnologie realisiertes Kommunikationsnetz, dessen Aufgabe u¨ berwiegend darin besteht, die wichtigsten B¨urozentren einer Großstadt miteinander zu verbinden. Andererseits sind auch viele Kabelfernsehnetzwerke als MAN organisiert. Ein MAN kann eine Ausdehnung bis zu 100 km besitzen. Vom technischen Standpunkt aus betrachtet lassen sich MAN-Technologien und die n¨achsth¨ohere Kategorie der Weitverkehrsnetzwerke (WAN-Technologien) meist nicht unterscheiden. Weitverkehrsnetze (Wide Area Networks, WAN) Fernnetzwerke und Weitverkehrsnetze erstrecken sich u¨ ber ein großes geographisches Gebiet (z.B. Land oder Kontinent) und dienen der weitr¨aumigen Vernetzung von Endsystemen und einzelnen LANs. W¨ahrend die an ein WAN angeschlossenen Endsysteme meist in privater Hand sind, wird das Weitverkehrsnetzwerk selbst u¨ blicherweise von o¨ ffentlicher Hand oder einem Telekommunikationsunternehmen betrieben. Im Gegensatz zu lokalen Netzwerken ist die Anzahl der an ein WAN angeschlossenen Endger¨ate nicht begrenzt. Die Vernetzung mehrerer, verschiedener Netzwerke bezeichnet man als Internet oder auch als Global Area Network (GAN). Ein weiteres Kriterium zur Klassifikation von Computernetzwerken ist die Art der Rechnervernetzung innerhalb des Kommunikationssystems. Hier unterscheidet man zwischen direkter und indirekter Vernetzung. Sind die Rechner bzw. genauer die Datenendeinrichtungen (DTE) unmittelbar miteinander verbunden, ohne dass eigenst¨andige Vermittlungsrechner dazwischengeschaltet sind, die die Weiterleitung der Daten organisieren, so spricht man von einer direkten Vernetzung. Sind dagegen Vermittlungsrechner an der Weiterleitung der Daten beteiligt, so spricht man von einer indirekten Vernetzung. Innerhalb eines LANs sind eigenst¨andige Vermittlungsrechner oft nicht notwendig. Strikt hierarchisch organisierte Systeme, bei denen von einem Leitsystem (Master) aus eine Reihe von unselbst¨andigen Datenstationen (Slaves) kontrolliert werden, sind im eigentlichen Sinn keine Rechnernetze. Auch sind verteilte Systeme von einem Rechner-Netzwerk zu unterschieden: Ein verteiltes System erscheint seinen Benutzern als homogenes System und verbirgt bewusst, wo und wie die Verarbeitungsleistung erbracht wird. Dem Benutzer wird der Eindruck vermittelt, er arbeite an einem einzigen System und nicht an einem Verbund aus einzelnen Rechenein-
3.1 Grundbegriffe und -konzepte
101
Rechnernetze und verteilte Systeme Verteilte Systeme und Rechnernetze haben viele gemeinsame Eigenschaften (siehe Punkt 1-3), doch unterscheiden sie sich erheblich in der verwendeten Software und hinsichtlich der Transparenz der erbrachten Dienste (Punkt 4-5):
• Gemeinsamkeiten: 1. Zusammenschluss einer Vielzahl von physisch und logisch unterschiedlichen Komponenten, denen dynamisch Auftr¨ age zugeordnet werden k¨ onnen. 2. Einzelkomponenten sind r¨ aumlich verteilt. 3. Einzelkomponenten arbeiten autonom, aber kooperativ.
• Unterschiede: 4. Die durch die Systemkomponenten erbrachten Dienste erscheinen bei verteilten Systemen transparent und k¨ onnen vom Benutzer nicht einer bestimmten Einzelkomponente zugeordnet werden. 5. Das Rechnernetz wird durch ein Netzbetriebssystem kontrolliert, das die notwendigen Verarbeitungsschritte eines Benutzerauftrags koordiniert.
Abb. 3.5 Rechnernetze und verteilte Systeme
heiten. Direkte Zuweisungen von Ressourcen und Zugriffe auf die Systemperipherie sind f¨ur den Benutzer nicht sichtbar. In einem Rechnernetz dagegen obliegt die Zuordnung von Ressourcen der Koordination des Nutzers und nicht dem u¨ bergeordneten Betriebssystem. Rechnernetze k¨onnen auch entsprechend ihrer Einsatzcharakteristik untergliedert werden. So spricht man von einem Funktionsverbund, sobald in einem Netz Rechner f¨ur Spezialanwendungen oder Rechner mit spezieller Peripherieaustattung bzw. spezifischen Datenbest¨anden verbunden sind. Ein Lastverbund liegt vor, wenn ein Lastausgleich zwischen den einzelnen im Rechnernetz verbundenen Komponenten durchgef¨uhrt wird. Enth¨alt das Netz spezifische Datenbest¨ande, die auf verschiedenen Systemen im Netz verteilt vorliegen, so spricht man von einem Datenverbund. Ist der Haupteinsatzzweck des Netzes der Austausch von Nachrichten, so liegt ein Nachrichtenverbund vor. Sind in einem Netz zus¨atzliche Redundanzen vorgesehen, die im Falle des Ausfalls einer oder mehrerer Systemkomponenten deren Funktion u¨ bernehmen, dann handelt es sich um einen Sicherheitsverbund. Weiter kann der Typ der im Netzwerk zusammengeschalteten Rechnern als Unterscheidungskriterium herangezogen werden: Sind alle Rechner vom selben Typ, so handelt es sich um ein homogenes, anderenfalls um ein heterogenes Netzwerk. Netze k¨onnen f¨ur unterschiedliche Benutzergruppen bereitstehen. Man unterscheidet Rechnernetze, die u¨ ber einen o¨ ffentlichen Zugang verf¨ugen und auf die jedermann zugreifen kann, von sicherheitskritischen Netzen, deren Zugang nicht¨offentlich ist und nur einem eng begrenzten Benutzerkreis zur Verf¨ugung steht, wie z.B. die Netze von Banken, Polizei oder Milit¨ar. Ausgehend von der Zugangsart unterscheidet man weiter Netze nach der Art ihres Verbindungstyps: Die einzelnen Teilnehmer schalten sich entweder u¨ ber eine
102
3 Grundlagen der Kommunikation in Rechnernetzen
W¨ahlverbindung nur nach Bedarf in das Netz ein bzw. stehen permanent u¨ ber eine Standleitung mit dem Netz in Verbindung. Prinzipiell lassen sich Netzwerke, die sich in privater Hand befinden (Private Netz¨ werke) von denen unterscheiden, die von einem o¨ ffentlichen Tr¨ager (Offentliche Netzwerke) betrieben werden. Zu den privaten Netzwerken geh¨oren alle diejenigen, deren Netzinfrastruktur, d.h. Verkabelung, Netzhardware und -software einem Unternehmen oder einem Privateigent¨umer geh¨oren. So sind die u¨ berwiegende Zahl der lokalen Netze (LANs), Netze, die sich auf Privatgel¨ande befinden und an die die Rechner des Eigent¨umers angeschlossen sind, private Netze. Großunternehmen sind auch in der Lage, eigene Weitverkehrsnetze (WANs) zu unterhalten, die verschiedene Standorte miteinander verbinden. Dabei kann das Unternehmen die Netzstruktur, die Vermittlung im Netz und die verwendeten Netzadressen innerhalb vorgegebener Grenzen selbst festlegen. Allerdings kann ein Privatunternehmen eine eigene Verkabelung nur dann durchf¨uhren, wenn sich diese auf dessen Privatgel¨ande verlegen l¨asst. F¨ur Weitverkehrsverbindungen m¨ussen daher oftmals Teilstrecken o¨ ffentlicher Netzbetreiber, wie z.B. der deutschen Telekom oder anderer großer Betreiber angemietet werden. Dennoch ist ein WAN, das zum Teil u¨ ber angemietete Leitungen betrieben wird, immer noch als privat zu betrachten, wenn der Mieter u¨ ber ein exklusives Nutzungsrecht verf¨ugt. Der Mieter ist dann selbst f¨ur den Betrieb und das Management dieses Netzes verantwortlich. Ein Netz, das seinem Verhalten nach wie ein privates Netzwerk arbeitet, aber auf der Infrastruktur des Internet aufsetzt, wird als Virtual Privat Network (VPN) bezeichnet. Ein o¨ ffentliches Netz ist dagegen ein Netzwerk, das mit dem traditionellen Telefonnetz vergleichbar ist. Jeder, der einen Computer an ein o¨ ffentliches Netzwerk anschließen m¨ochte, kann dies u¨ ber ein gewisses, an den Betreiber des Netzes zu entrichtendes Entgelt, tun. Er muss sich dabei aber die vorhandene Netzinfrastruktur mit vielen anderen Nutzern teilen und verf¨ugt nicht u¨ ber ein exklusives Nutzungsrecht, wie bei privaten Netzwerken. Damit o¨ ffentliche Netze rentabel betrieben werden k¨onnen, m¨ussen sie f¨ur m¨oglichst viele Nutzer attraktiv sein. Sie sind deshalb in der Regel als Weitverkehrsnetze ausgelegt, um sehr vielen Teilnehmern an den unterschiedlichsten Orten zur Verf¨ugung zu stehen. Die Begriffe privat“ und o¨ ffentlich“ beziehen sich also nicht auf Besitzverh¨alt” ” nisse, sondern auf die Verf¨ugbarkeit des angebotenen Dienstes. Nat¨urlich kann die Kommunikation u¨ ber ein o¨ ffentliches Kommunikationsnetz privater Natur sein, da zwei u¨ ber ein o¨ ffentliches Netz miteinander verbundene Computer Daten verschl¨usselt austauschen k¨onnen, so dass sie kein anderer Netzteilnehmer zur Kenntnis bekommen kann. Obwohl einige o¨ ffentliche Netze die Kommunikation von ganzen Gruppen von Teilnehmern erm¨oglichen (Multicasting), ist es in der Regel nicht m¨oglich, alle Teilnehmer des o¨ ffentlichen Netzes zugleich anzusprechen (Broadcasting). In einem privaten Netz ist der jeweilige Netzeigent¨umer (oder Mieter) selbst f¨ur die Gew¨ahrleistung von Betrieb und Sicherheit zust¨andig. Er u¨ berwacht den Anschluss neuer Computer an das private Netz und legt Zugangs- und Kommunikationsrestriktionen fest, die die Einhaltung der eigenen Sicherheitsstandards gew¨ahrleisten. Dabei handelt es sich um eine anspruchsvolle Aufgabe, die von qualifizierten Spe-
3.2 Rechnernetze und Paketvermittlung
103
zialisten konzipiert und umgesetzt werden muss. Nicht nur die Gew¨ahrleistung von Sicherheit, auch der gesamte Betrieb eines privaten Netzwerks ist mit hohen Kosten verbunden, insbesondere wenn sich ein Unternehmen dabei stets am aktuellen Stand der Technik orientiert. Ersatz bzw. Updates bestehender Netzinfrastrukturen, die dazu oftmals notwendig werden, sind nicht nur mit immensen Kosten, sondern auch mit einem hohen Zeitaufwand f¨ur Planung, Umsetzung, Schulung und Betrieb verbunden. Die Nutzung o¨ ffentlicher Netze ist daher unter finanziellen Gesichtspunkten oftmals rentabler. Es bietet sich eine gr¨oßere Flexibilit¨at und der Aufwand, modernste Netzwerktechniken einsetzen und nutzen zu k¨onnen, ist mit weitaus geringeren Kosten verbunden als bei der Nutzung privater Netze, da der Betreiber diese auf eine Vielzahl von Kunden umlegen kann. Allerdings birgt die gemeinsame Nutzung o¨ ffentlicher Netze auch Gefahren und Sicherheitsrisiken, da die privaten, an ein o¨ ffentliches Netz angeschlossenen Rechner gegen¨uber unberechtigtem Zugriff der u¨ brigen Netzteilnehmer gesch¨utzt werden m¨ussen.
3.2 Rechnernetze und Paketvermittlung Eine konzeptionelle Grundlage von Internets ist das Prinzip der Paketvermittlung. Eine zu sendende Nachricht wird bereits beim Sender in einzelne Datenpakete fester, vorgegebener L¨ange zerlegt, die dann einzeln und unabh¨angig voneinander ihre Reise durch das Labyrinth des Internets antreten. Damit die Pakete auch ihren Weg zum Empf¨anger u¨ ber verschiedenartige Netzwerke hinweg finden, braucht es Vermittlungsstellen im Internet, die sogenannten Paketvermittler oder Router, die die einzelnen Pakete jeweils zum n¨achsten Zwischenstop einer benachbarten Folgevermittlungsstelle weiterleiten. Die Datenpakete gelangen so auf v¨ollig unterschiedlichen Pfaden zu ihrem Ziel. Damit sie dort tats¨achlich ankommen und wieder zu einer sinnvollen Nachricht zusammengesetzt werden k¨onnen, muss jedes einzelne Paket entsprechende Zusatzinformation mit auf den Weg bekommen. Mit Hilfe die¨ ser Zusatzinformation ist es auch m¨oglich, eventuell auftretende Ubertragungsfehler zu erkennen und diese sogar zu korrigieren. Ohne die Technik der Paketvermittlung w¨aren moderne Hochgeschwindigkeitskommunikationsnetze nicht denkbar, denn nur so kann ein Netz gleichzeitig von vielen Teilnehmern gemeinsam unter gerechter Verteilung der vorhandenen Kapazit¨at o¨ konomisch sinnvoll und effizient genutzt werden.
3.2.1 Klassische Punkt-zu-Punkt Verbindung Die ersten Rechnernetze basierten auf dem Prinzip der Punkt-zu-Punkt Verbindungen (Point-to-Point Connection), die beispielsweise u¨ ber Mietleitungen realisiert wurden. Zwei miteinander kommunizierende Endsysteme verf¨ugen dabei je-
104
3 Grundlagen der Kommunikation in Rechnernetzen
weils u¨ ber eine eigene, separate Verbindung (Kabel, Leitung, Funkstrecke). Die beiden Datenstationen sind so permanent miteinander verbunden und k¨onnen das Kommunikationsmedium exklusiv zum gegenseitigen Datenaustausch nutzen. Daraus ergibt sich der Vorteil, dass sich nur die beiden an der Kommunikation beteiligten Partner u¨ ber ein gemeinsames Kommunikationsprotokoll verst¨andigen m¨ussen. Dies vereinfacht die Implementierung der Kommunikationssoftware wesentlich, da keine R¨ucksicht genommen werden muss auf eventuell unterschiedliche Datenformate, Datengr¨oßen oder Fehlererkennungsmechanismen. Sollen allerdings mehr als zwei Rechner durch Punkt-zu-Punkt Verbindungen miteinander vernetzt werden, ist das theoretisch zwar einfach durch jeweils eigene Direktverbindungen f¨ur alle m¨oglichen Rechnerpaare zu realisieren, doch st¨oßt der dazu notwendige Verkabelungsaufwand in der Praxis schnell an Grenzen. Versucht man n¨amlich n Computer durch Punkt-zu-Punkt-Verbindung miteinander zu vernetzen, so ben¨otigt man dazu nahezu n · n = n2 Verbindungen (siehe Abb. 3.6). Punkt-zu-Punkt Verbindungen n=4
n=5
n=6
n=10
Anzahl der Anzahl der Rechner Verbindungen 4 5 6 7 10 100 1.000
6 10 15 21 45 4.950 499.500
Sollen n Rechner u ¨ber Punkt-zu-Punkt Verbindungen miteinander vernetzt werden, wird die folgende Anzahl an Verbindungen ben¨ otigt: n−1
∑i=
i=1
n2 − n 2
Abb. 3.6 Punkt-zu-Punkt Verbindungen
Heute werden Punkt-zu-Punkt Verbindungen nur noch in Sonderf¨allen, wie z.B. f¨ur Fernnetze genutzt, die durch eine Richtfunkverbindung gekoppelt sind.
3.2 Rechnernetze und Paketvermittlung
105
3.2.2 Leitungsvermittelte Netzwerke Traditionell waren Daten- und Telekommunikationsnetze leitungsvermittelt. In leitungsvermittelten Netzwerken, auch Switching Networks genannt, wird den Kommunikationspartnern eine feste Verbindung zur Verf¨ugung gestellt, die u¨ ber eine Reihe von Vermittlungsstellen geschaltet wird. Der Aufbau einer festen Verbindungsstrecke, die f¨ur die gesamte Dauer der Kommunikation aufrecht erhalten werden muss, ist hier Voraussetzung f¨ur die Kommunikation (siehe Abb. 3.7). Beim Verbindungsaufbau entsteht zun¨achst eine Wartezeit, bevor die eigentliche Kommunikation aufgenommen werden kann. Sobald eine stehende Verbindung jedoch aufgebaut ist, kann diese nicht mehr durch andere Kommunikationsteilnehmer unterbrochen werden. Kommunikation mit mehreren Partnern erfordert den Aufbau jeweils separater Verbindungen, so dass allen Teilnehmern dann die gleiche Kapazit¨at zum Senden und Empfangen zur Verf¨ugung gestellt wird. Beim Verbindungsaufbau kann es allerdings vorkommen, dass alle Verbindungskan¨ale zum gew¨unschten Kommunikationspartner auf Grund der momentanen Auslastung oder mangelnder Schaltkapazit¨aten besetzt sind. Auch Ausf¨alle von Vermittlungsstellen k¨onnen den Aufbau von Verbindungen unm¨oglich machen und damit die Aufnahme der Kommunikation verhindern. Ein leitungsvermitteltes Netzwerk bietet den Kommunikationsteilnehmern jederzeit ¨ eine feste Daten¨ubertragungsrate. Die Verz¨ogerung auf dem Ubertragungsweg eines leitungsvermittelten Netzwerkes ist stets konstant und minimal. Sie entspricht im allgemeinen der Ausbreitungsgeschwindigkeit des elektromagnetischen Signals (ca. 5 ms pro 100 km). Allerdings ist der Aufbau dieser Verbindungen meist sehr zeitintensiv. Die Kosten der Verbindung sind stets proportional zur Verbindungsdauer. Sie fallen auch bei Kommunikationspausen an selbst wenn keine Daten u¨ bertragen werden. F¨allt eine der beteiligten Vermittlungsstellen aus, so bricht die Verbindung zusammen, die Kommunikation ist beendet. Im schlimmsten Fall k¨onnen nach Ausfall von nur einer Vermittlungsstelle ganze Teilnetze vom Gesamtnetz abgetrennt und unerreichbar werden. ¨ Die maximale Datenmenge, die pro Zeiteinheit u¨ ber ein bestimmtes Ubertragungsmedium u¨ bertragen werden kann, wird als Bandbreite bezeichnet. Die Bandbreite einer Verbindung wird immer durch die schw¨achste Teilstrecke der Route durch das Netzwerk beschr¨ankt. Ein wichtiges Beispiel f¨ur ein leitungsvermitteltes Netzwerk ist ein analoges Telefonnetzwerk: Durch das W¨ahlen einer Nummer wird u¨ ber die automatisierten Vermittlungsstellen des Telefonnetzwerks eine Verbindung zum gew¨unschten Teilnehmer aufgebaut. Nachdem dieser auf der Gegenseite den H¨orer abgehoben hat, bleibt diese Verbindung genau solange bestehen, bis der H¨orer wieder aufgelegt wird. In einem Telefonnetzwerk wird Sprache mit einer mehr oder weniger konstanten Bandbreite zwischen Sender und Empf¨anger u¨ bertragen.
106
3 Grundlagen der Kommunikation in Rechnernetzen gemeinsam genutztes Kommunikationsnetzwerk
Ablauf:
Endsystem A
(1) Verbindungsaufbau (2) Datentransfer (3) Verbindungsabbau Endsystem B Relaisstationen
Abb. 3.7 Leitungsvermitteltes Netzwerks (Switching Network)
3.2.3 Von der Leitungsvermittlung zur Paketvermittlung Zu Beginn der 60er Jahre wuchs die Bedeutung des Einsatzes von Computern in Milit¨ar und Wirtschaft schlagartig. Erste Timesharing Systeme, also Rechner, die interaktives Arbeiten erlaubten, kamen auf den Markt. Die Idee, Computer weitr¨aumig miteinander zu vernetzen, so dass Anwender diese auch von unterschiedlichen geografischen Orten gemeinsam nutzen k¨onnen, lag f¨ormlich in der Luft. Der Datenverkehr, der durch solche vernetzt arbeitenden Computer erzeugt wird, ist im Gegensatz zum u¨ blichen Telefongespr¨ach jedoch nicht kontinuierlich, sondern tritt in sehr unterschiedlichen H¨aufungen, sogenannten Bursts auf. Bei Bursts handelt es sich um Intervalle maximaler Aktivit¨at, denen jeweils wieder Intervalle der Inaktivit¨at folgen, wie z.B. die Zeitdauer, die f¨ur lokale Berechnungen oder die Ausarbeitung einer Antwort n¨otig ist. Wie kann man nun einen f¨ur die Kommunikation von Computern geeigneten ausfallsicheren Datenfluss in einem Netzwerk gew¨ahrleisten, auch wenn die Vermittlungsstellen nicht mit absoluter Zuverl¨assigkeit arbeiten bzw. sogar komplett ausfallen k¨onnen? Wird der Ausfall einer Vermittlungsstelle erkannt, so kann zwar eine neue Route durch das Netzwerk festgelegt werden, aber es ist den beteiligten Kommunikationspartnern nicht klar, wieviel vom Kommunikationsinhalt inzwi¨ schen verloren gegangen ist, die Ubertragung muss also sicherheitshalber wiederholt werden. Ist außerdem ein Verbindungskanal belegt, dann m¨ussen die u¨ brigen Teilnehmer im Netzwerk solange warten, bis dieser Kanal wieder freigegeben wird. Von einer gerechten Zuteilung der Ressourcen kann nicht gesprochen werden. Die Frage nach dem Aufbau großer, ausfallsicherer und fair arbeitender Datennetze wurde Ende der 50er Jahre zum Gegenstand wissenschaftlicher Untersuchung. Leonard Kleinrock (*1934), damals Promotionsstudent am Massachussetts Institute of Technology (MIT), ver¨offentlichte 1962 seine Doktorarbeit Information Flow in ” Large Networks“ in dem er dieses Problem anging und als L¨osung das Prinzip der Paketvermittlung (Packet Switching) vorschlug [132]. Voneinander unabh¨angig arbeiteten auch Donald Davies (1924–2000) vom englischen National Physical Laboratory, der den Begriff Packet Switching“ pr¨agte, und Paul Baran (*1926), der ” bei der RAND Corporation, einem weiteren Vertragspartner der ARPA besch¨aftigt
3.2 Rechnernetze und Paketvermittlung
107
war, an diesem Problem. Baran griff die Idee der Paketvermittlung auf und entwickelte sie zum fundamentalen Prinzip f¨ur den Zusammenschluss großer, ausfallsicherer Datennetze [11, 12, 59]. Der Weg war nun - zumindest gedanklich - frei, per se unsichere Netze zur Grundlage f¨ur ausfallsichere Datenkommunikationsnetze zu machen. Tats¨achlich war es eine der Zielsetzungen der ARPA bei der Ausgestaltung und Entwicklung von Internets, Netzwerke zu schaffen, die eine hohe Ausfallsicherheit besitzen und im Ernstfall auch den Ausfall einer oder mehrerer Vermittlungsstellen unversehrt verkraften k¨onnen. Die Idee der Paketvermittlung wurde zur wohl wichtigsten Grundidee f¨ur die Entwicklung von Internets.
3.2.4 Das Prinzip der Paketvermittlung Das Prinzip der Paketvermittlung beruht darauf, die Nachrichten, die versendet werden sollen, in einzelne Datenpakete, kurz Pakete genannt, zu zerlegen (Fragmentierung) und diese dann einzeln und unabh¨angig voneinander u¨ ber das Kommunikationsnetzwerk zu transportieren. Die Route, die die einzelnen Pakete dabei einschlagen, wird nicht von vornherein festgelegt. Der Absender bestimmt nur den Weg zur n¨achsten Vermittlungsstelle, a¨ hnlich wie beim Paketdienst der Post. Auf der Seite des Empf¨angers werden die Datenpakete anschließend wieder zur Originalnachricht zusammengesetzt (Defragmentierung, siehe Abb. 3.8). Zum Auffinden eines optimalen Weges durch das Netzwerk dienen spezielle Routing-Algorithmen. Pakete k¨onnen auf ihrem Weg durch das Netzwerk auch an den Vermittlungsstellen auftretende Staus und St¨orungen umgehen und so, obwohl sie eine l¨angere Strecke zur¨ucklegen, ihr Ziel schneller erreichen, als Pakete, die auf einem k¨urzeren, aber blockierten Weg warten. Nebenbei wird dadurch auch eine bessere Auslastung des gesamten Netzwerks erreicht. Die Gr¨oße der versendeten Pakete muss aus verschiedenen Gr¨unden beschr¨ankt werden. Eine Verbindung wird so nie f¨ur lange Zeit belegt und alle potenziellen Sender haben im Ergebnis einen gleichberechtigten und fairen Zugang zum Netzwerk. Tats¨achlich erm¨oglicht das Prinzip der Paketvermittlung u¨ berhaupt erst wirklich interaktive Verbindungen, da die Leitungen zwischen den einzelnen Vermittlungsstellen so nur im Bereich von Millisekunden belegt sind, und kein Benutzer wie bei leitungsvermittelten Netzen eine Verbindung f¨ur l¨angere Zeit blockieren kann. Bei der Paketvermittlung ist es notwendig, dass die einzelnen Datenpakete bei ihrer Ankunft an den Vermittlungsstellen des Netzwerks solange zwischengespeichert werden, bis sie weiter zum n¨achsten Netzknoten u¨ bertragen werden k¨onnen. Jeder Paketvermittler verf¨ugt f¨ur jede ein- und ausgehende Datenleitung u¨ ber einen eigenen Zwischenspeicher (Eingangspuffer und Ausgangspuffer). Soll ein ankommendes Paket u¨ ber einen bestimmten Ausgang weitergeleitet werden, der gerade aber durch das Versenden eines anderen Pakets belegt ist, wird das Paket im Ausgangspuffer zwischengespeichert, bis der Ausgang wieder frei ist. Daher wird diese Art der Vermittlung auch als Speichervermittlung (Store and Forward) bezeichnet
108
3 Grundlagen der Kommunikation in Rechnernetzen
Sender
Empfänger
Nachricht
Nachricht
Datenpaket 1 Header
Pakete werden einzeln über das Kommunikationsnetzwerk versendet
Daten
Datenpaket 1 Header Daten
...
...
Datenpaket n
Datenpaket n
Header
Header
Daten
Daten
Fragmentierung
Datenübertragung
Defragmentierung
Abb. 3.8 Prinzip der Fragmentierung und Defragmentierung
(siehe Abb. 3.9). Die dabei auftretende Wartezeit ist ver¨anderlich und h¨angt von der Auslastung des Netzwerks ab. Kann ein Datenpaket nicht angenommen bzw. nicht weitergeleitet werden, da ein Eingangspuffer bzw. der Ausgabepuffer an einem Ausgang vollst¨andig belegt ist, kommt es zu einem Paketverlust, d.h. entweder das ankommende Paket oder ein Paket aus dem Ausgangspuffer wird verworfen. Die Reihenfolge, in der die Pakete aus dem Ausgangspuffer verschickt werden, entspricht der ihrer Ankunft. Da die Ankunft der Pakete aus unterschiedlichen Eing¨angen in beliebiger, d.h. zuf¨alliger Reihenfolge erfolgen kann, spricht man bei dieser B¨undelung verschiedener Eing¨ange auf eine Ausgangswarteschlange des Paketvermittlers auch von statistischem Multiplexing oder asynchronem Multiplexing, im Gegensatz zum regul¨aren Zeitmultiplexing (Time Division Multiplex, TDM), bei dem jeder Teilnehmer abwechselnd einen gleich großen Zeitslot erh¨alt. Eine spezielle Form der Speichervermittlung ist die Nachrichtenvermittlung (Message Switching), bei der die Nachricht nicht wie im Falle der Paketvermittlung in einzelne Pakete zerteilt wird, sondern als Ganzes, d.h. in einem einzigen Paket u¨ ber das Netzwerk versendet wird. Auch bei dieser Form der Nachrichten¨ubertragung wird keine explizite Verbindung geschaltet, wie bei der Leitungsvermittlung. Die gesamte Nachricht muss an den jeweiligen Vermittlungsstationen zwischengespeichert werden, die auch entscheiden, zu welcher n¨achsten Vermittlungsstelle die Nachricht weitergeleitet wird. In der Anfangszeit der Telegraphie wurden z.B. Telegramme auf diese Art weitervermittelt. Die Nachricht wurde im B¨uro des Senders
3.2 Rechnernetze und Paketvermittlung
109
10 Mbps
Host A Paketvermittler
statistisches Multiplexing
Paketvermittler
1,5 Mbps
10 Mbps
Host B Datenpakete warten im Pufferspeicher des Paketvermittlers
Abb. 3.9 Prinzip der Speichervermittlung (Store and Forward)
auf Lochstreifen gestanzt, dann gelesen und u¨ ber das Telegraphenkabel zur n¨achsten Telegraphenstation weitergeleitet, wo sie zur Zwischenspeicherung wiederum auf Lochstreifen festgehalten wurde. Im Gegensatz zur Paketvermittlung gibt es hier keine fest vorgeschriebene Blockgr¨oße f¨ur die versendeten Datenpakete. F¨ur heute u¨ bliche Datennetze ist Nachrichtenvermittlung daher vollkommen ungeeignet, da Vermittlungsstellen f¨ur lange Zeit blockiert w¨aren oder ihr Zwischenspeicher unter Umst¨anden noch nicht einmal zur Speicherung einer einzelnen Nachricht ausreichen w¨urde (vgl. Abb. 3.10).
3.2.5 Vorteile der Paketvermittlung Die Vorteile der Paketvermittlung gegen¨uber der Leitungsvermittlung liegen auf der Hand: • Hohe Netzauslastung Da die einzelnen Datenpakete bei der Paketvermittlung u¨ blicherweise sehr klein sind, wird ein hoher Grad der Netzauslastung erreicht. Die Wartezeiten bleiben f¨ur alle u¨ brigen Kommunikationsteilnehmer gering. • Faire Ressourcenzuteilung Das Kommunikationsnetz steht allen Teilnehmern zur gleichberechtigten Nutzung zur Verf¨ugung. Alle angeschlossenen Ger¨ate k¨onnen nach einem vorgegebenen Multiplexverfahren abwechselnd Datenpakete versenden.
110
3 Grundlagen der Kommunikation in Rechnernetzen
Paketvermittlung vs. Nachrichtenvermittlung Warum stellt die Paketvermittlung das effizientere der beiden Verfahren dar? Die einzelnen Paketvermittler im Netzwerk k¨ onnen ein Datenpaket erst dann weitersenden, wenn es vollst¨ andig angekommen ist. Kann dabei von einer kleinen Datenpaketgr¨ oße ausgegangen werden, dann sind auch die jeweiligen Latenzzeiten klein. In nachrichtenvermittelten Netzwerken ist die Wartezeit an jedem Vermittlungsrechner proportional zur L¨ ange der Nachricht, also theoretisch unbeschr¨ ankt lang. Dies l¨ asst sich an einem einfachen Beispiel demonstrieren:
Host A
Host B
Paketvermittler 1 10 Mbps
Paketvermittler 2 10 Mbps
10 Mbps
In unserem Beispielnetzwerk soll eine Nachricht der L¨ ange 80 MBit = 80.000 kBit von Host A zu Host B versendet werden. Das gesamte Netzwerk besitze eine Bandbreite von 10 Mbps (Megabit pro Sekunde). Um von A nach B zu gelangen, m¨ ussen 2 Paketvermittler passiert werden. Im Falle eines nachrichtenvermittelten Netzes muss an den jeweiligen Vermittlungsstellen solange gewartet werden, bis die gesamte Nachricht angekommen ist. Von Rechner A zum ersten Vermittlungsrechner dauert das 80 Mb/10 Mbps = 8 Sekunden. Bis die gesamte Nachricht am Zielrechner ankommt, vergehen also mindestens 3·8 = 24 Sekunden. Nehmen wir nun an, das dargestellte Netzwerk sei paketvermittelt mit einer festen Paketgr¨ oße von 2 kBit = 2.000 Bit. Die Nachricht wird dann in 80.000 kBit/2 kBit = 40.000 ¨ Pakete aufgeteilt. Die 40.000 Pakete ben¨ otigen jetzt folgende Ubertragungszeit: Bis das erste Paket am Paketvermittler 1 ankommt, vergehen 2 kBit / 10 Mbps = 0,2 ms. Demnach dauert es nur 40.000 · 0,2 m = 8.000 ms = 8 Sekunden bis das letzte Paket am ersten Paketvermittler angekommen ist. Da das letzte Paket dann noch u ¨ber einen weiteren Paketvermittler zum Endsystem Host B u ¨bertragen werden muss, vergehen insgesamt 8 + 2 · 0,0002 = 8,0004 Sekunden, bis die Nachricht vollst¨ andig ihr Ziel erreicht hat. In unserem Beispiel ist die Daten¨ ubertragung im paketvermittelten Netzwerk also dreimal schneller als im nachrichtenvermittelten Netz. Die Daten¨ ubertragung im paketvermittelten Netzwerk l¨ auft weitgehend parallel, ¨ ahnlich wie an einem Fließband ab, wohingegen der Datenverkehr in einem nachrichtenvermittelten Netz sequentiell erfolgt. W¨ ahrend ein Vermittlungsrechner im nachrichtenvermittelten Netz die gesendete Nachricht empf¨ angt, m¨ ussen die anderen warten. Im paketvermittelten Netzwerk u ¨bertragen alle Vermittlungsknoten gleichzeitig.
Abb. 3.10 Vergleich von Paketvermittlung und Nachrichtenvermittlung
3.2 Rechnernetze und Paketvermittlung
111
• Schnelle Fehlererkennung Wenn immer nur kleine Datenpakete versendet werden, k¨onnen Fehler in der ¨ Ubertragung schnell erkannt und gegebenenfalls sofort korrigiert werden. Es m¨ussen immer nur die jeweils fehlerhaften Pakete erneut u¨ bertragen werden und nicht die gesamte Nachricht. • Hohe Ausfallsicherheit F¨allt eine Vermittlungsstation aus, so geht nicht die Gesamtnachricht verloren, wie bei der Leitungsvermittlung. W¨ahrend bei der Leitungsvermittlung ein kompletter Teilbereich des Netzwerks eventuell nicht mehr erreichbar ist und die Kommunikation von Neuem mit dem Aufbau einer festen Verbindungsstrecke beginnen muss, bleibt bei der Paketvermittlung der gesamte Rest des Netzwerks unber¨uhrt und kann weiter f¨ur die Kommunikation genutzt werden. Datenpakete, die sich bereits auf dem Weg befinden, werden einfach entlang einer alternativen Route zum Ziel gef¨uhrt, die nicht u¨ ber die ausgefallene Vermittlungsstelle f¨uhrt. W¨ahrend leitungsvermittelte Netzwerke mit Vermittlungsstellen ohne eigenen Zwischenspeicher realisiert werden k¨onnen, ben¨otigen alle Formen der Paketvermittlung an jeder Vermittlungsstelle Zwischenspeicher, denn die Pakete m¨ussen solange zwischengespeichert werden, bis eine Weiterleitung erfolgen kann. Daher ist auch der Begriff Store and Forward f¨ur diese Form der Vermittlung gebr¨auchlich. Die Zwischenspeicherung bietet aber auch einen anderen, ganz entscheidenden Vorteil: ¨ Bei der Paketvermittlung tritt die Ubertragungsgeschwindigkeit der einzelnen Teilstrecken im Netz nicht mehr als Begrenzung f¨ur die Gesamt¨ubertragungskapazit¨at ¨ in Erscheinung, da Datenpakete beim Ubergang zu langsameren Teilstrecken gepuf¨ fert werden k¨onnen. Die Kosten der Ubertragung in einem paketvermittelten Netzwerk sind proportional zur Anzahl der u¨ bertragenen Pakete und spiegeln deshalb die tats¨achliche Nutzung des Netzwerks wieder.
3.2.6 Paketheader Damit die vollst¨andige Nachricht in einem paketvermittelten Netzwerk ihr Ziel erreichen und auf der Empf¨angerseite korrekt wieder zusammengesetzt werden kann, m¨ussen die Datenpakete mit einer Reihe von Zusatzinformationen ausgestattet werden. Diese Zusatzinformationen werden gew¨ohnlich in einem dem Paket vorangestellten Segment u¨ bertragen und als Paketheader bezeichnet. • Adressinformationen Paketheader enthalten Adressangaben u¨ ber Sender und Empf¨anger, damit die Paketvermittler entscheiden k¨onnen, auf welchem Weg sie die Pakete weiterleiten. • Paketnummer Die einzelnen Datenpakete m¨ussen fortlaufend nummeriert werden, damit sie beim Empf¨anger wieder in der richtigen Reihenfolge zur eigentlich kommunizierten Nachricht zusammengesetzt werden k¨onnen.
112
3 Grundlagen der Kommunikation in Rechnernetzen
¨ • Fulldaten Eventuell ist die zu versendende Datenmenge kleiner als die fest vorgegebene Paketgr¨oße. Dann muss das Datenpaket mit F¨ulldaten erg¨anzt werden, die auch als solche kenntlich zu machen sind. • Fehlererkennungsmechanismen ¨ Um Ubertragungsfehler erkennen zu k¨onnen, m¨ussen Zusatzdaten zur Fehlererkennung beigef¨ugt werden. Dazu gibt es eine Reihe sehr unterschiedlicher Verfahren, die neben der Fehlererkennung teilweise sogar eine Fehlerkorrektur erm¨oglichen (siehe Exkurs 3.2.10).
3.2.7 Nachteile der Paketvermittlung Genau in den Punkten, in denen sich die Paketvermittlung von der Leitungsvermittlung unterscheidet, liegen neben den bereits genannten Vorteilen auch ihre Nachteile: ¨ • Uberlast (Congestion) Da bei der Paketvermittlung keine dedizierten exklusiven Verbindungen festgelegt sind, kann es vorkommen, dass eine Vermittlungsstelle dem pl¨otzlichen Andrang der eingehenden Datenpakete nicht gewachsen ist, d.h. der vorhandene Zwischenspeicher l¨auft u¨ ber und in Folge gehen Datenpakete verloren. • Komplexes Kommunikationsprotokoll Die Daten¨ubertragung bei der Leitungsvermittlung l¨auft vollkommen transparent ab. Es spielt also absolut keine Rolle, auf welches Kommunikationsprotokoll sich Sender und Empf¨anger geeinigt haben. Dieser Transparenz der Kommunikation verdankt das Telefonsystem z.B. seine F¨ahigkeit, dass dort verschiedene Dienste wie Sprachkommunikation, Fax oder Datenkommunikation ohne großen Aufwand nebeneinander angeboten werden k¨onnen. Bei der Paketvermittlung dagegen m¨ussen sich alle Kommunikationsteilnehmer eines Netzes auf ein gemeinsames Netzwerkprotokoll festlegen, das z.B. die zu Grunde liegenden Datenpakete und Parameter wie Bitrate, Datenfragmentierung, etc. f¨ur den Kommunikationsvorgang festlegt. ¨ • Keine Dienstgutegarantie Ein weiterer Nachteil der Paketvermittlung besteht darin, dass ohne zus¨atzlichem ¨ Aufwand keine konstanten Bandbreiten f¨ur eine Ubertragung garantiert werden ¨ k¨onnen. Die Verz¨ogerung innerhalb einer Ubertragung kann in Abh¨angigkeit von der Auslastung der einzelnen Vermittlungsstellen schwanken und relativ groß werden. ¨ Neben der Verz¨ogerung durch die speichervermittelte Ubertragung kommen f¨ur die Pakete oft auch noch Wartezeiten in den Warteschlangen der Ausgabepuffer der Vermittlungsrechner hinzu, da sie dort abwarten m¨ussen, bis alle Pakete, die zuvor in die Warteschlange eingereiht wurden, versendet sind. Diese Verz¨ogerungszeiten sind ver¨anderlich und h¨angen von der jeweiligen Auslastung des Netzwerks ab.
3.2 Rechnernetze und Paketvermittlung
113
¨ Ubertragungszeit und Gesamtverz¨ ogerung ¨ Wieviel Zeit ben¨ otigt eine paketvermittelte Ubertragung von einem Host zum anderen? Nehmen wir an, ein Datenpaket der L¨ ange von l Bit soll versendet werden. Weiter sei angenommen, dass sich zwischen Absender A und Empf¨ anger B genau q Vermittlungsrechner befinden mit einer Bandbreite von r bps und dass keine stehende Verbindung aufgebaut wird. Desweiteren seien die Wartezeiten, die in der Warteschlange der einzelnen Vermittlungsrechner entstehen, vernachl¨ assigbar klein. Die Zeit, die dann ein Datenpaket vom Startrechner A zum ersten Vermittlungsrechner ben¨ otigt, betr¨ agt genau l/r Sekunden. Das Paket wird dann noch genau q − 1 mal weitergeleitet und zwischengespeichert, so dass die Gesamtverz¨ ogerung q · (l/r) betr¨ agt. In der Praxis sind jedoch die Verbindungsstrecken zwischen den einzelnen Rechnern von unterschiedlicher Bandbreite ri , 1 ≤ i ≤ q. Daher berechnet sich die Gesamtverz¨ ogerung td als q l td = ∑ . r i=1 i
¨ Abb. 3.11 Ubertragungszeit in paketvermittelten Netzwerken
3.2.8 Verbindungslose und verbindungsorientierte Netzwerkdienste Prinzipiell kann man innerhalb eines paketvermittelten Netzes verbindungslose und verbindungsorientierte Netzwerkdienste unterscheiden. Bei der bislang besprochenen Variante der paketvermittelten Netzwerke handelt es sich um einen verbindungslosen Netzwerkdienst, auch Datagramm-Netzwerk genannt, bei dem jedes Datenpaket mit Zusatzinformationen versehen auf einem eigenen Weg durch das Netzwerk vom Sender zum Empf¨anger transportiert wird. Ein Datenpaket, dass mit allen Informationen versehen ist, so dass es korrekt u¨ ber das Netzwerk zum Empf¨anger transportiert werden kann, wird auch als Datagramm bezeichnet. Im Gegensatz zum verbindungslosen Datagramm-Netzwerk werden in verbindungsorientierten Netzwerken Nachrichten zwar in einzelne Datenpakete zerlegt, bevor diese jedoch u¨ bertragen werden, wird eine sogenannte virtuelle Verbindung1 (Vir-
Tabelle 3.2 Vergleich Paketvermittlung und Leitungsvermittlung Eigenschaft
Leitungsvermittlung
Paketvermittlung
feste Verbindungsstrecke ja nein verf¨ ugbare Bandbreite konstant dynamisch variabel verschwendete Bandbreite ja nein ¨ store-and-forward Ubertragung nein ja jedes Paket folgt derselben Route nein ja vorheriger Verbindungsaufbau notwendig nicht n¨ otig Stau kann auftreten bei Verbindungsaufbau jederzeit Abrechnungsverfahren pro Zeiteinheit pro Paket 1
Man unterscheidet hier virtuelle Verbindungen auf der (hardware-n¨aheren) Netzwerkschicht, wie z.B. bei ATM (Asynchronous Transfer Mode), Frame Relay oder X.25, die geschaltete Verbindungen (Switched Virtual Circuits) bzw. permanente Verbindungen (Permanent Virtual Circuits) zur
114
3 Grundlagen der Kommunikation in Rechnernetzen
tual Circuit, VC) aufgebaut und alle Pakete werden dann zwischen den beiden Kommunikationspartnern entlang dieser virtuellen Verbindung durch das Netzwerk transportiert. Eine Zuordnung der einzelnen virtuell geschalteten Verbindungen wird u¨ ber die Vermittlungsstellen im Netzwerk verwaltet, d.h. in der Phase des Verbindungsaufbaus, wird an jeder Vermittlungsstelle zwischen Sender und Empf¨anger ein Verbindungszustand“ festgelegt, der eine eindeutige Identifikation der Verbin” dung erlaubt. Eine eventuelle Vertauschung der Reihenfolge der einzelnen Pakete ist hier unm¨oglich. Sender und Empf¨anger tauschen auf dieser gegen¨uber dem Datagramm-Netzwerk abstrakteren Kommunikationsebene als Nachrichten sogenannte Bitstreams“ (auch Bytestreams) aus, d.h. die virtuelle Verbindung verbirgt ” die Unterteilung der ausgetauschten Datenstr¨ome in einzelne Datenpakete vor den Kommunikationspartnern. Die Zuordnung der vorhandenen Betriebsmittel ist hier ¨ starrer als bei den u¨ blichen Datagramm-Netzwerken und eine Reaktion auf Uberlast, Leitungs- oder Knotenausf¨allen kann dementsprechend nur weniger flexibel erfolgen. Verbindungsorientierte Datagramm-Netzwerke a¨ hneln leitungsvermittelten Netzwerken, da in beiden ein Verbindungsaufbau und -abbau außerhalb der eigentlichen Nutzdaten¨ubertragung stattfindet. Allerdings bieten leitungsvermittelte Netzwerke konstante Daten¨ubertragungsraten und Latenzzeiten, die bei verbindungsorientierten Datagramm-Netzwerken u¨ blicherweise variieren.
3.2.9 Dienstparadigmen von Rechnernetzen Die Organisation und Implementierung der Rechnerkommunikation in einem paketvermittelten Datennetz wird modular in einzelnen Schichten realisiert, die hierarchisch strukturiert von einem zunehmenden Grad an Abstraktion gekennzeichnet sind: Auf den unteren, Hardware-nahen Schichten werden die Datenpakete u¨ bertragen, die hierarchisch h¨oherstehenden, abstrakteren Schichten verf¨ugen u¨ ber Protokolle, die daf¨ur sorgen, dass die zu u¨ bertragende Nachricht in einzelne Datenpakete zerlegt und deren Versendung organisiert wird. Sie halten so Details der Daten¨ubertragung vom Nutzer fern und stellen ihm komfortablere und h¨oherwertige Dienste zur Verf¨ugung. Grunds¨atzlich wird bei diesen Diensten zwischen verbindungslosen (Connectionless Service) und verbindungsorientierten (Connection-Oriented Service) Diensten unterschieden.
3.2.9.1 Verbindungslose Dienste Diese Kategorie von Netzwerkdiensten ist am besten mit dem konventionellen Postnetz vergleichbar. Bevor ein Rechner eine Nachricht an einen anderen Rechner verVerf¨ugung stellen, und virtuelle Verbindungen auf der dar¨uberliegenden Transportschicht, wie z.B. beim Transmission Control Protocol (TCP), das auf einem Datagramm-Netzwerk aufbaut und die virtuelle Verbindung rein softwaretechnisch realisiert, auf die im Abschnitt 3.4.3 n¨aher eingegangen wird.
3.2 Rechnernetze und Paketvermittlung
115
senden kann, muss er diese in ein vorgegebenes Datenpaketformat u¨ berf¨uhren und mit einer Empf¨anger- und Absenderadresse versehen, vergleichbar einer geschriebenen Nachricht, die in einen Umschlag gesteckt wird, und auf dessen Außenseite die Empf¨angeradresse geschrieben wird. Ebenso, wie der Brief zur n¨achsten Annahmestelle der Post gebracht wird, u¨ bergibt der Rechner das fertige Datenpaket dann an das Netzwerk zur Zustellung, das es dann zum Empf¨anger bef¨ordert. Um den Verwaltungsaufwand so gering wie m¨oglich zu halten, u¨ bernimmt der verbindungslose Dienst keine Garantie, dass das Datenpaket tats¨achlich beim Empf¨anger ankommt bzw. unter welchen zeitlichen Rahmenbedingungen die Zustellung erfolgt. Im Gegensatz zum verbindungsorientierten Dienst wird keine Verbindung zwischen Sender und Empf¨anger geschaltet, die einzelnen Datenpakete werden verzugslos und unabh¨angig voneinander durch das Netzwerk transportiert. Ist also das Kommunikationsverhalten durch einen h¨aufigen Wechsel von Adressaten und kurze Nachrichtenl¨angen gekennzeichnet, bieten verbindungslose Dienste gegen¨uber verbindungsorientierten Diensten entscheidende Vorteile.
3.2.9.2 Verbindungsorientierte Dienste Der Betrieb eines verbindungsorientierten Dienstes kann mit dem Betrieb des herk¨ommlichen, analogen Telefonnetzes verglichen werden. Bevor der Nachrichtenaustausch zwischen zwei Rechnern beginnen kann, muss zuerst eine Verbindung zwischen diesen geschaltet werden, a¨ hnlich dem W¨ahlen einer Telefonnummer und dem dadurch ausgel¨osten Verbindungsaufbau zum angew¨ahlten Telefonteilnehmer. Sobald das Gegen¨uber den Kommunikationswunsch wahrgenommen und diesen akzeptiert hat, vergleichbar dem Abnehmen des Telefonh¨orers beim Klingeln des Telefons und der Meldung des angew¨ahlten Teilnehmers, besteht zwischen den beiden eine geschaltete Verbindung, die quasi exklusiv f¨ur die nun folgende Kommunikation – den Austausch von Datenpaketen – genutzt werden kann. Nach Beendigung der Kommunikation muss die geschaltete Verbindung wieder abgebaut werden. Ein verbindungsorientierter Dienst durchl¨auft also stets die drei Phasen: 1. Verbindungsaufbau, 2. Daten¨ubertragung und 3. Verbindungsabbau. Verbindungsorientierte Dienste u¨ ber paketvermittelte Netzwerke m¨ussen auf den dort verf¨ugbaren verbindungslosen Diensten aufsetzen, d.h. die Ressourcenzuteilung einer festen Verbindung ist tats¨achlich nur eine virtuelle und wird auf einer h¨oheren Schicht der modular organisierten Rechnerkommunikation dargestellt. Die verbindungsorientierten Dienste stellen dem Nutzer eine Schnittstelle bereit, die es ihm gestattet, diese virtuelle Verbindung exklusiv zu nutzen. Diese Schnittstelle schirmt den Nutzer von allen auf einer hierarchisch niedrigeren Schicht der Kommunikation ablaufenden Prozessen ab, wie z.B. Bildung, Adressierung und Transport von einzelnen Datenpaketen, und bietet ihm so einen sehr bequemen Kommunikationszugang.
116
3 Grundlagen der Kommunikation in Rechnernetzen
Die verbindungsorientierte Kommunikation u¨ ber eine so eingerichtete Datenverbindung muss nicht kontinuierlich fortlaufen, sondern kann vor¨ubergehend auch unterbrochen werden, bevor der Datenverkehr sp¨ater wieder aufgenommen wird. Die Verbindung bleibt f¨ur die gesamte Zeitdauer bestehen, bis zu dem Zeitpunkt, da einer der Kommunikationsteilnehmer explizit entscheidet, diese zu beenden (vergleichbar dem Auflegen des Telefonh¨orers). Bei einem verbindungsorientierten Dienst werden Netzwerkfehler unmittelbar bemerkt. F¨allt z.B. eine der Vermittlungsstellen entlang der geschalteten, virtuellen Verbindung aus, bricht die Verbindung zusammen und die Kommunikationsteilnehmer k¨onnen sofort reagieren. W¨ahrend bei verbindungslosen Diensten eine Abrechnung der in Anspruch genommenen Netzwerkleistung u¨ ber die Menge der versendeten Daten erfolgt, rechnen verbindungsorientierte Dienste in der Regel die Dauer der bestehenden Datenverbindung ab. Dieses Abrechnungsverfahren ist in der Praxis oft weniger aufw¨andig und einfacher zu realisieren. Andererseits ben¨otigt der Aufbau einer Verbindung bei der verbindungsorientierten Kommunikation relativ viel Zeit. Handelt es sich nur um eine kurze Nachricht, die ausgetauscht werden soll, kann der zeitliche Aufwand zum Aufbau der Verbindung die eigentliche Verbindungsdauer schnell u¨ bersteigen. Handelt es sich dagegen um eine l¨anger genutzte Verbindung, kommt der Vorteil zum Tragen, dass mit den Paketen weitaus weniger Verwaltungs- und Kontrollinformationen transportiert werden m¨ussen, als bei verbindungslosen Diensten. Ist bei einem verbindungsorientierten Dienst der Verbindungsaufbau erst einmal vorgenommen, wird den auszutauschenden Datenpaketen nur noch eine vom Netzwerk vergebene Verbindungsidentifikation (Connection Identifier) mitgegeben, die in der Regel viel k¨urzer ist als die Netzwerkadressinformation, die den Datenpaketen bei verbindungslosen Diensten mitgegeben werden muss. Die Nutzung verbindungsorientierter Dienste rentiert sich besonders, wenn Verbindungen zu einigen wenigen Kommunikationspartnern geschaltet werden, die jeweils u¨ ber eine l¨angere Zeitspanne hinweg genutzt werden. Man kann noch einen Schritt weitergehen und u¨ ber einen verbindungsorientierten Dienst auch eine dauerhafte Verbindung (persistente Verbindung) aufbauen. Wurden in den ersten Rechnernetzen noch Punkt-zu-Punkt-Verbindungen zur Herstellung einer dauerhaften Verbindung u¨ ber dedizierte physikalische Verbindungen (Kabel) geschaltet, kann dies heute durch die Einrichtung eines dedizierten virtuellen Informationskanals u¨ ber ein gemeinsam genutztes Netzwerk erfolgen. Die Konfiguration dieser Festverbindungen ist im nichtfl¨uchtigen Speicher der beteiligten Verbindungsrechner abgelegt und kann so auch nach einem Netzausfall sofort wieder aktiviert werden. Derartige dauerhafte Verbindungen k¨onnen u¨ ber Monate oder gar Jahre hinweg aufrecht erhalten bleiben. Aus Sicht der angeschlossenen Rechner erscheinen sie wie eine physikalische Punkt-zu-Punkt-Verbindung. Dauerhafte Verbindungen garantieren eine Verf¨ugbarkeit, die wahlfreie Verbindungen nicht bieten k¨onnen. Die Verbindung ist stets einsatzbereit und nutzbar, d.h. ein angeschlossener Rechner muss nicht erst warten, bis eine Verbindung zum Empf¨anger aufgebaut worden ist. Nat¨urlich ist diese Fixierung“ mit Einbußen an Flexibilit¨at verbunden. W¨ahlverbindungen wer”
3.2 Rechnernetze und Paketvermittlung
117
den nur dann geschaltet, wenn sie wirklich erforderlich sind. F¨ur die u¨ brige Zeit wird die W¨ahlverbindung abgebaut, so dass die zur Verf¨ugung stehende Bandbreite auch wieder von den anderen Netzteilnehmern genutzt werden kann.
3.2.10 Fehlererkennung und Fehlerkorrektur Um eine zuverl¨assige Daten¨ubertragung u¨ ber ein nicht immer fehlerfrei arbeitendes ¨ Ubertragungsmedium zu erm¨oglichen, m¨ussen Mechanismen zur automatischen Er¨ kennung und Korrektur von aufgetretenen Ubertragungsfehlern zum Einsatz kommen. Zur Fehlererkennung werden die einzelnen Datenpakete mit zus¨atzlichen In¨ formationen ausgestattet, die es erm¨oglichen, einen Ubertragungsfehler zu erkennen und aus denen sich im Fehlerfall zumindest bis zu einem gewissen Grad der korrekte Inhalt eines Datenpakets wieder rekonstruieren l¨asst. Diese Zusatzinformation, die nichts zum eigentlichen Inhalt der im Datenpaket u¨ bermittelten Information beitr¨agt, wird auch als Redundanz bezeichnet. Der Sender berechnet z.B. ¨ eine Prufsumme u¨ ber das zu versendende Datenpaket und h¨angt diese an das Paket an. Beim Empf¨anger angekommen, wendet dieser auf das empfangene Datenpaket (ohne angeh¨angte Pr¨ufsumme) dasselbe Verfahren zur Pr¨ufsummenbildung an und vergleicht den errechneten Wert mit dem vom Sender an das Datenpaket angef¨ugten Pr¨ufwert. Stimmen beide Werte u¨ berein, so ist das Paket mit hoher Wahrscheinlichkeit korrekt u¨ bertragen worden. Im Falle einer Nicht¨ubereinstimmung ist es bei ¨ der Ubertragung zu inhaltlichen Ver¨anderungen der u¨ bertragenen Daten gekommen. Der Empf¨anger kann das Datenpaket erneut vom Sender anfordern, wobei nicht die gesamte Nachricht, sondern lediglich das fehlerhafte Datenpaket erneut u¨ bertragen werden muss. Zwar werden Datenleitungen immer zuverl¨assiger, doch f¨uhren die sich verbreitenden drahtlosen Kommunikationstechnologien, wie z.B. Wireless LAN (WLAN) zu ¨ einer immensen Erh¨ohung der Ubertragungsfehler, die durch Rauschen oder andere St¨orungen verursacht werden. Der Empf¨anger ist dann oft nicht mehr in der Lage, aus den empfangenen Signalen das gesendete Datenpaket korrekt zu rekonstruieren. Gl¨ucklicherweise treten Fehler bei der drahtlosen Kommunikation, wenn sie auftreten, dann geh¨auft in sogenannten Bursts oder B¨undeln auf. W¨urden Fehler immer nur in isolierten Einzelbits auftreten, w¨are bei einer konstanten Fehlerrate von beispielsweise 0.01% pro Bit bei einer Paketgr¨oße von 10.000 Bits ann¨ahernd jedes einzelne Paket fehlerhaft und m¨usste erneut u¨ bertragen werden. Treten die Fehler dagegen in einem Burst von jeweils durchschnittlich 100 Fehlern auf, so sind lediglich ein oder zwei von 100 Paketen davon betroffen. ¨ Ein Maß f¨ur Ubertragungsfehler ist die sogenannte Bitfehlerrate, die sich berechnen l¨asst aus dem Verh¨altnis der fehlerhaft u¨ bertragenen Bits zur Gesamtanzahl der u¨ bertragenen Bits, gemessen u¨ ber einen l¨angeren Zeitraum. Tabelle 3.3 gibt einen ¨ ¨ Uberblick u¨ ber die Gr¨oßenordnung von Bitfehlerraten verschiedener Ubertragungsmedien. Methoden zur Fehlererkennung und -beseitigung k¨onnen oft nicht alle Feh-
118
3 Grundlagen der Kommunikation in Rechnernetzen
Tabelle 3.3 Bitfehlerwahrscheinlichkeiten ¨ Ubertragungsmedium Bitfehlerwahrscheinlichkeit (Gr¨ oßenordnung) Funk Fernsprechleitung Digitales Datennetz LAN (Koaxialkabel) Glasfaserkabel
10−1 bis 10−3 10−5 10−6 bis 10−7 10−9 10−12
ler korrekt erkennen. Fehlerkorrekturverfahren sollten deshalb so arbeiten, dass die verbleibende Restfehlerwahrscheinlichkeit m¨oglichst minimal ist. Um mit Fehlern effizient umgehen zu k¨onnen, wurden zwei grundlegende (redundanzvermehrende) Codierungsverfahren entwickelt: fehlererkennende Codes und ¨ eine damit verbundene Ubertragungswiederholung im Falle erkannter Fehler bzw. automatische Fehlerkorrektur durch fehlerkorrigierende Codes (zu Grundbegriffen der Codierung, siehe auch Kap. 4.2.1). Dazu wird die Originalnachricht mit einem zus¨atzlichen Fehlercode versehen, der keinen eigenen Nachrichtenwert besitzt, sondern nur der Fehlererkennung und Fehlerbehebung dient. Durch diese hinzugef¨ugte Redundanz k¨onnen ung¨ultige Nachrichten – in diesem Zusammenhang auch als Codeworte“ bezeichnet – erkannt ” werden, die keiner erlaubten Nachricht (Original-Codewort) entsprechen und des¨ halb auf einen Fehler in der Ubertragung hinweisen. Mit Hilfe fehlerkorrigierender Codes kann man, zumindest wenn nicht zu viele Fehler gleichzeitig auftreten, auf die tats¨achliche Ausgangsnachricht (OriginalCodewort) zur¨uckschließen. Im Vergleich zur Fehlererkennung erfordert die Fehlerkorrektur einen wesentlich h¨oheren Aufwand. Sie ist stets dann von N¨oten, wenn es im Fehlerfall sehr aufw¨andig ist, eine Neu¨ubertragung der u¨ bertragenen Nachricht anzufragen. Ist eine effiziente R¨uckfrage m¨oglich, dann ist der Einsatz eines fehlererkennenden Code ausreichend; als fehlerhaft erkannte Datenpakete k¨onnen erneut u¨ bermittelt werden. Welches Verfahren jeweils zum Einsatz kommt, ist abh¨angig von der Bitfehlerrate ¨ des Ubertragungsmediums. Ist diese sehr hoch, wie z.B. bei Mobilfunk-Daten¨ubertragungen, dann kommen aufw¨andigere, fehlerkorrigierende Verfahren zum Einsatz, da nach einer Fehlererkennung die Neu¨ubertragung ebenfalls wieder fehlerhaft sein kann und enge Zeitrestriktionen ein wiederholtes Senden verbieten. Ein weiterer ¨ Faktor ist die Daten¨ubertragungsrate des verwendeten Ubertragungsmediums. Ist diese groß genug, wie z.B. in einem schnellen Glasfasernetzwerk, dann f¨allt das wiederholte Senden eines fehlerhaft u¨ bertragenen Datenpakets nicht weiter ins Gewicht, und eine einfachere, fehlererkennende Kodierung kann verwendet werden. Exkurs 2 f¨uhrt ein in die theoretischen Grundlagen fehlererkennender und fehlerkorrigierender Codes und stellt exemplarisch Hamming-Kodierung und Pr¨ufsummenverfahren vor.
3.2 Rechnernetze und Paketvermittlung
119
Exkurs 2: Fehlererkennende und fehlerkorrigierende Codes Nachricht und Redundanz Wir betrachten den Aufbau eines beliebiges Datenpakets, in diesem Zusammenhang auch als Codewort bezeichnet. Das Codewort (Nachricht) hat also eine L¨ ange von n=m+r Bits und besteht aus den zu u atzlichen Bits, ¨bertragenden Nutzdaten (der Mitteilung) und zus¨ ¨ die die Erkennung eines Ubertragungsfehlers erm¨ oglichen (die Redundanz). Codewort: r+m
r
1
m
r
Mitteilung
Redundanz
Hamming-Abstand Betrachten wir zwei beliebige bin¨ are Codeworte gleicher L¨ ange, so l¨ aßt sich die Anzahl der Positionen, in denen die Bits nicht u ¨bereinstimmen, leicht ermitteln. Sei z.B. Codewort C1 1000100010001000 Codewort C2 1000000011000000 Die beiden Codeworte differieren in genau drei Positionen. Die Anzahl der Positionen, in denen sich zwei Codeworte a und b unterscheiden, bezeichnet man als Hamming-Abstand H(a,b) (nach Richard W. Hamming, 1915–1998) der beiden Codeworte. Die Bedeutung des Hamming-Abstands wird schnell klar: Wenn zwei Codeworte um n Bits differieren, k¨ onnen genau n Einzelbitfehler das eine Codewort in das andere verwandeln. Um den HammingAbstand von zwei gegebenen Codeworten zu ermitteln, verkn¨ upft man diese bitweise mit dem logischen XOR-Operator (⊕-Operator, 0 ⊕ 0 = 0, 1 ⊕ 1 = 0, 0 ⊕ 1 = 1 ⊕ 0 = 1) und summiert die Anzahl der Einsen im Ergebnis dieser Operation: n−1
H(a, b) =
∑ ai ⊕ bi
i=0
F¨ ur unser Beispiel ergibt sich eine Hamming-Abstand von H(a,b)=3: a 1000100010001000 b 1000000011000000 a
⊕ b 0000100001001000
Insgesamt kann es 2m verschiedene Mitteilungen der L¨ ange m geben. Unabh¨ angig davon, welches Verfahren zur Berechnung der Redundanz verwendet wird, kann nicht jedes der 2r+m theoretisch m¨ oglichen Codeworte auftreten. Mit Hilfe des Algorithmus, der die Redundanz errechnet, kann die Liste aller g¨ ultigen“ oder zul¨ assigen“ Codeworte erstellt werden. ” ” Das Codewort-Paar aus der Liste der zul¨ assigen Codeworte, das den kleinsten HammingAbstand besitzt, definiert den Hamming-Abstand des Codes. Dieser Hamming-Abstand des Codes gilt als Maßzahl f¨ ur dessen St¨ orsicherheit. Um in einem Codewort n-1 Fehler erkennen zu k¨ onnen, muss der verwendete Code mindestens eine Hamming-Abstand von n besitzen. In einem solchen Code ist es nicht m¨ oglich, dass n-1 Einzelbitfehler dazu f¨ uhren, dass das fehlerhafte Codewort mit einem anderen zul¨ assigen Codewort u onnen in einem Code mit Hamming-Abstand n ¨bereinstimmt. Auch k¨
120
3 Grundlagen der Kommunikation in Rechnernetzen
Einzelbitfehler, die weniger als (n-1)/2 Bits betreffen, automatisch korrigiert werden, indem man einfach zum empfangenen Codewort das n¨ achstliegende zul¨ assige Codewort sucht. Parit¨ atsbit Das einfachste Beispiel f¨ ur einen fehlererkennenden Code ist das Anh¨ angen eines Parit¨ atsbits. Das Parit¨ atsbit entspricht der Parit¨ at der 1-Bits im Codewort. Ist deren Anzahl gerade, dann ist das Parit¨ atsbit gleich 0, anderenfalls gleich 1.
Parit¨at(a) =
n−1 M
ai
i=0
F¨ ur a=1000100010001000 z.B. ist die Anzahl der 1-Bits gleich 4, a ist also also von gerader Parit¨ at. a wird um das Parit¨ atsbit p=0 erweitert, das tats¨ achlich zu u ¨bertragende Codewort ist a’=0100010001000100|0. Ein Code mit einem einzelnen Parit¨ atsbit hat den Hamming-Abstand 2 und kann dazu benutzt werden, einzeln auftretende Bitfehler, sogenannte Einzelbitfehler, zu erkennen. Codes, bei denen die Mitteilung unver¨ andert als Block bestehen bleibt und die Pr¨ ufbits einfach angeh¨ angt werden, heißen systematische Blockcodes. Fasst man die Bits mehrerer Codeworte in einer Matrix zusammen, kann man zus¨ atzlich zum horizontal ermittelten Parit¨ atsbit (Longitudinal Redundancy Check, LRC) auch spaltenweise die Parit¨ at bestimmen (Vertical Redundancy Check, VRC).
LRC 1 1 1 0 0 1 0 0 0 0 0 0 1 1 0 1 1 0 0 1 1 0 0 1 0 0 1 1 0 1 1 0 1 0 1 1
VRC 0 0 1 0 1 1 1 0 Bei gleichzeitigem Einsatz von LRC und VRC kann eine Fehlerkorrektur durchgef¨ uhrt werden, so lange pro Zeile und Spalte der Matrix h¨ ochstens ein Bit verf¨ alscht wurde. Wie groß muss die Redundanz r gew¨ ahlt werden, um sicherzustellen, dass jeder Einzelbitfehler bei einer Mitteilung der L¨ ange m erkannt werden kann? Betrachtet man ai , eine einzelne der 2m m¨ oglichen Mitteilungen, so gibt es nach Erg¨ anzung ai Ri mit der Redundanz Ri der L¨ ange r insgesamt n=m+r M¨ oglichkeiten, zu ai Ri unzul¨ assige Codeworte mit dem Hamming-Abstand 1 zu bilden. Man kann diese unzul¨ assigen Codeworte erzeugen, indem man einfach ein Bit nach dem anderen im Codewort ai Ri invertiert. Somit besitzt jede der 2m Mitteilungen n+1 verschiedene Bitmuster, die durch eventuelle Einzelbitfehler aus ihr entstehen k¨ onnen und nur ihr alleine zuzuordnen sind. Die Gesamtzahl der m¨ oglichen Bitmuster in unserem Code betr¨ agt 2n , es muss daher gelten
(n + 1)2m ≤ 2n . F¨ ur die Codel¨ ange n=r+m ergibt sich damit
(m + r + 1) ≤ 2r als eine Untergrenze f¨ ur die Anzahl r der ben¨ otigten Bits zur Entdeckung aller m¨ oglichen Einzelbitfehler.
3.2 Rechnernetze und Paketvermittlung
121
Hamming-Code Ein Code, der diesem Schema folgt und alle Einzelbitfehler erkennt, stammt von Richard Hamming selbst und ist nach ihm als Hamming-Code benannt. Alle Bits des Codeworts werden von 1 beginnend durchnummeriert. Dabei werden alle Bits, die mit einer Zweierpotenz nummeriert sind (1,2,4,8,16, etc.) als Pr¨ ufbits verwendet, w¨ ahrend die restlichen Bits (3,5,6,7,9,10, etc.) mit den m Bits der Mitteilung gef¨ ullt werden. Jedes Pr¨ ufbit steht jetzt f¨ ur die Parit¨ at einer ganzen Reihe von Einzelbits. Ein Bit kann somit in verschiedene Parit¨ atbits eingehen. Das Datenbit an der Stelle k, 1≤k≤n, wird den Pr¨ ufbits zugeteilt, die in der bin¨ aren Kodierung von k enthalten sind. Ist z.B. k=11, dann ist k=1+2+8=20 +21 +23 und das k-te Bit geht in die Parit¨ atsberechnung der Pr¨ ufbits 20 , 21 , und 23 ein.
Codewort n n-1
9
...
8
7
6
5
4
3
2
1
... 2k
23
22
21 20
Prüfbits ¨ Betrachten wir z.B. einen Hamming-Code zur Ubertragung von Codeworten, die jeweils aus m=11 Datenbits und r=4 Pr¨ ufbits zusammengesetzt sind. Dieser aus n=15 Bit langen Codew¨ ortern bestehende Code wird auch als 15/11-Code bezeichnet.
15
14
13
12
11
10
9
8
7
p3
6
5
4
p2
3
2
1
p1 p0
Die Pr¨ ufbits seien mit p0 - p3 bezeichnet, Bits mit c1 - c15 durchnumeriert. Entsprechend der angegebenen Regel zur Erzeugung der Pr¨ ufbits, werden diese folgendermaßen gebildet:
p0 p1 p2 p3
= c3 ⊕ c5 ⊕ c7 ⊕ c9 ⊕ c11 ⊕ c13 ⊕ c15 = c3 ⊕ c6 ⊕ c7 ⊕ c1o ⊕ c11 ⊕ c14 ⊕ c15 = c5 ⊕ c6 ⊕ c7 ⊕ c12 ⊕ c13 ⊕ c14 ⊕ c15 = c9 ⊕ c10 ⊕ c11 ⊕ c12 ⊕ c13 ⊕ c14 ⊕ c15
Zur Verdeutlichung der Interaktion der einzelnen Pr¨ ufbits (Position 1, 2, 4 und 8) werden diese in Tabellenform dargestellt. Pos 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 Parit¨ at p0 p1 p2 p3
x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x
0 0 0 0
Alle Pr¨ ufbits ergeben sich aus jeweils 7 Koeffizienten. Berechnet man die Parit¨ at u ¨ber ein Pr¨ ufbit pi zusammen mit seinen zugeh¨ origen Koeffizienten, muss diese stets gerade sein, also pi ⊕ ci1 ⊕ . . . ⊕ ci1 =0 (siehe letzte Spalte der Tabelle). Angenommen, es soll die folgende Bitfolge u ¨bertragen werden: 00010111001. Zusammen mit den berechneten Pr¨ ufbits p0 - p3 ergibt sich das Codewort 000101111000111. Sei weiter
122
3 Grundlagen der Kommunikation in Rechnernetzen
angenommen, dass bei der Daten¨ ubertragung ein Fehler an Position 7 auftritt, also c7 invertiert wird, dann erreicht den Empf¨ anger das fehlerhafte Codewort 000101110000111. ¨ Zur Uberpr¨ ufund und Korrektur des empfangenen Codewortes kann dieses wieder in der angegebenen Tabellenform betrachtet werden: Pos 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 Parit¨ at C
0 0 0 1 0 1110000111
p0 p1 p2 p3
0 0 0 1 0 0 1 1 1–F 0 0 0 1 00 11 1–F 0 0 0 1 0000 1–F 0 0 0 1 0 111 0–ok
¨ Die Uberpr¨ ufung der Parit¨ at f¨ ur p0 - p2 ergibt jeweils den fehlerhaften Wert 1, lediglich p4 ist korrekt berechnet worden. Die geschickte Wahl der Zusammenstellung der Pr¨ ufbits macht jetzt eine exakte Lokalisierung des aufgetretenen Einzelbitfehlers m¨ oglich. Lediglich die Stelle c7 vermag als Einzelbitfehler die Berechnung der Pr¨ ufbits p0 - p2 zu verf¨ alschen. Addiert man die Zweierpotenzen der Pr¨ ufbitindizes (22 +21 +20 = 4+2+1 = 7) erh¨ alt man die fehlerhafte Stelle. Auf diese Weise kann jeder Einzelbitfehler des Codes erkannt und behoben werden. ¨ Ein Algorithmus zur Uberpr¨ ufung des korrekten Empfangs und evtl. Korrektur eines Hamming-Codes k¨ onnte folgendermaßen ablaufen: F¨ ur das empfangene Codewort wird ein Z¨ ahler z mit dem Wert 0 initialisiert, z=0. Daraufhin wird die Berechnung f¨ ur jedes Pr¨ ufbit pi wiederholt, um zu u ufen, ob dieses die korrekte Parit¨ at enth¨ alt. Stimmt die Be¨berpr¨ rechnung nicht mit dem gesetzten Pr¨ ufbit pi u ahler hinzuaddiert, z := ¨berein, wird i zum Z¨ z+i. Sind alle Pr¨ ufbits derart nachgepr¨ uft und enth¨ alt der Z¨ ahler den Wert 0 (z=0), dann ¨ war die Ubertragung korrekt und das n¨ achste Datenpaket kann u uft werden. Ist der ¨berpr¨ Z¨ ahler jedoch ungleich 0 (z=k, k6=0), dann enth¨ alt er genau die Position des fehlerhaften, invertierten Bits ck . ¨ Uber das Kodierungsschema des Hamming-Codes ergibt sich ein Hamming-Abstand von δmin =3 als minimale Distanz zwischen zwei beliebigen zul¨assigen Codeworten. Daher ist es mit dem Hamming-Code m¨ oglich, einzeln auftretende Einzelbitfehler zu korrigieren und doppelt auftretende Einzelbitfehler zu erkennen. Der Hamming-Code kam lange Zeit in den Routinen zum Hauptspeicherzugriff in Computern zum Einsatz. Allerdings ist dieses Verfahren nur f¨ ur kurze Codew¨ orter rentabel, so dass heute andere Verfahren, wie z.B. Matrix-Pr¨ ufsummenverfahren zum Einsatz kommen Pr¨ ufsummenverfahren Eine weitere Idee zur Fehlererkennung, die in der Praxis h¨ aufig angewandt wird, ist die Ermittlung von Pr¨ ufsummen. Dabei werden die durch die u ¨bertragenen Bitfolgen dargestellten Zeichen als numerische Werte interpretiert, zu einzelnen Bl¨ ocken zusammengefasst und deren Summe berechnet. Als Bin¨ arzahl kodiert wird diese Pr¨ ufsumme einfach mit an die zu u angt. Pr¨ ufsummenverfahren werden z.B. im Internet-Protokoll ¨bertragenden Daten angeh¨ IP verwendet. Das bekannteste Verfahren ist die sogenannte zyklische Redundanz¨ uberpr¨ ufung (Cyclic Redundancy Check, CRC, auch als Polynomialcode bezeichnet). Die Grundidee im CRC-Verfahren ist es, die zu u ¨bertragenden Bits der Mitteilung als Koeffizienten ui , 0≤i≤m-1, eines Polynoms aufzufassen, die entweder 0 oder 1 sein k¨ onnen. Die m Nutzbits der Mitteilung werden also wie folgt interpretiert:
M(x) = um−1 xm−1 + um−2 xm−2 + . . . + u1 x + u0 . Das Polynom M(x) ist vom Grad m-1. Die Mitteilung 11000101 hat z.B. genau 8 Bit und erzeugt das Polynom M(x)=x7 +x6 +x2 +1. Die Rechenregeln f¨ ur diese Polynome entsprechen den u orper mit der Charakteristik 2 (IF2 ), Addition und ¨blichen Rechenregeln in einem K¨
3.2 Rechnernetze und Paketvermittlung
123
Subtraktion entsprechen der XOR-Operation. Die Division entspricht exakt dem Verfahren f¨ ur Bin¨ arzahlen, nur dass die Subtraktion hier wieder als XOR berechnet wird. Das Polynom M(x) wird nun durch ein gemeinsam von Sender und Empf¨ anger verwendetes Generatorpolynom G(x) dividiert, und der Divisionsrest bildet die anzuh¨ angende Blockpr¨ ufsumme. Das Generatorpolynom ist vom Grad r, das erste und das letzte Bit m¨ ussen ungleich Null sein, gr ,g0 6=0:
G(x) = gr xr + gr−1 xr−1 + . . . + r1 x + r0 . An die Mitteilung werden jetzt r Nullbits angeh¨ angt, was dem Polynom xr M(x) entspricht. xr M(x) wird unter Verwendung der Rechenregeln f¨ ur endliche K¨ orper durch G(x) dividiert. Dabei entsteht ein Restpolynom R(x), das h¨ ochstens vom Grad r-1 ist. Die Koeffizienten von R(x), rr−1 , . . . ,r0 , werden an die Mitteilung angeh¨ angt. Somit entspricht der zu u ¨bertragenden Nachricht das Polynom N(x)=xr M(x)-R(x). Dieses Polynom ist jetzt durch G(x) teilbar. Wird N(x) fehlerfrei u ¨bertragen, so berechnet der Empf¨ anger N(x)/G(x) und erh¨ alt den Rest 0. Es ist klar, dass N(x) auf alle F¨ alle
Nachricht: Generator: Multipliziere Nachricht mit x4 : Ermittlung des Divisionsrests:
Zu übermittelndes Codewort:
1101011011 k= 4, G(x) = x4 + x1+ 1 , (d.h. 10011) 11010110110000
11010110110000 : 10011 10011 10011 10011 0000010110 10011 0010100 10011 001110 Divisionsrest 11010110111110
Abb. 3.12 CRC-Pr¨ufsummenverfahren durch G(x) teilbar ist, denn f¨ ur jedes Divisionsproblem gilt: Wenn man vom Dividenden den Divisionsrest abzieht, so ist das Ergebnis der Subtraktion immer durch den Divisor teilbar. ¨ Um jetzt den Nutzen der Methode zu analysieren, nehmen wir an, dass in der Ubertragung ¨ von N(x) tats¨ achlich ein Ubertragungsfehler auftritt. Anstelle des Bitstrings N(x) erh¨ alt der Empf¨ anger die fehlerhafte Nachricht N(x)+E(x). Jedes 1-Bit in E(x) korrespondiert zu ¨ einem Einzelbitfehler, also einer Stelle in N(x), die durch den Ubertragungsfehler invertiert wurde. Enth¨ alt E(x) k 1-Bits, so sind k Einzelbitfehler aufgetreten. Der Empf¨ anger dividiert nun die empfangene und um die Pr¨ ufsumme erweiterte Nachricht durch G(x), d.h. (N(x)+E(x))/G(x). Da N(x)/G(x)=0, ist das Ergebnis gleich E(x)/G(x). Fehler, die an exakt den Stellen auftreten, an denen das Generatorpolynom G(x) ebenfalls 1-Bits enth¨ alt, werden u ¨bersehen. Alle anderen aber werden erkannt.
124
3 Grundlagen der Kommunikation in Rechnernetzen
Tritt ein Einzelbitfehler auf, ist also E(x)=xi , wobei i angibt, welches Bit der Nachricht fehlerhaft ist, so kann das erkannt werden, wenn das Generatorpolynom so gestaltet ist, dass es mindestens 2 Terme enth¨ alt, damit E(x) niemals durch G(x) teilbar ist. Alle Einzelbitfehler k¨ onnen also erkannt werden, wenn das Generatorpolynom mindestens zwei Terme enth¨ alt. Treten zwei isolierte Einzelbitfehler auf, so dass E(x)=xi +xj , i>j, dann ist E(x)=xj (xi−j +1). Wenn G(x) nicht durch x teilbar ist, dann k¨ onnen alle derartigen Doppelfehler erkannt werden, falls G(x) so gew¨ ahlt wird, dass xk +1 nicht durch G(x) teilbar ist, f¨ ur k≤i-j (wobei i-j durch die Paketgr¨ oße beschr¨ ankt ist). In [232] werden einfache Beispielpolynome angegeben, wie z.B. x15 +x14 +1, die von keinem Polynom der Form xk +1 geteilt werden f¨ ur k<32.768. Auch eine weitere interessante Eigenschaft der Arithmetik u ¨ber IF2 kann hier genutzt werden: Kein Polynom ungerader L¨ ange, d.h. mit ungerader Anzahl von einzelnen Termen, besitzt x+1 als Teiler. Indem wir jetzt einfach x+1 in das Generatorpolynom mitaufnehmen, kann zus¨ atzlich sichergestellt werden, dass alle Fehler, die eine ungerade Anzahl Bits betreffen, erkannt werden. Sogenannte B¨ undelfehler starten und enden mit einem 1-Bit. Der Bereich zwischen den beiden begrenzenden 1-Bits kann sowohl 0-Bits als auch 1-Bits enthalten, der ¨ außere Bereich enth¨ alt nur 0-Bits. Ein Polynomialcode mit r Pr¨ ufbits kann alle B¨ undelfehler der L¨ ange ≤r entdecken. Ein B¨ undelfehler der L¨ ange k, also E(x)=xi (xk−1 +. . .+1), wobei i den Offset des Fehlers bezeichnet, wird erkannt, wenn der Ausdruck (xk−1 +. . .+1) einen niedrigeren Grad als G(x) hat, denn dann kann der Divisionsrest niemals gleich 0 werden. Zus¨ atzlich muss noch gelten, dass x0 Teil von G(x) ist, damit die Teilbarkeit des verbleibenden Teils xi des Polynoms ausgeschlossen ist. Ist die B¨ undell¨ ange gleich r+1, ergibt sich als Divisionsrest nur genau dann Null, wenn der B¨ undelfehler gleich dem Generatorpolynom ist, G(x)=E(x). Gem¨ aß der Definition besitzt der B¨ undelfehler an seinen beiden Endstellen jeweils ein 1-Bit, die r-1 Bits dazwischen sind wahlfrei. Betrachtet man alle m¨ oglichen Bitkombinationen als gleichwahrscheinlich, so ist die Wahrscheinlichkeit, dass ein fehlerhaftes Datenpaket als fehlerfrei akzeptiert wird, gleich ( 12 )r−1 . Man kann zeigen, dass im Falle eines B¨undelfehlers der L¨ange ≥ r+1 oder im Falle mehrerer k¨ urzerer B¨ undelfehler die Wahrscheinlichkeit, dass ein fehlerhaftes Datenpaket unbemerkt als korrekt akzeptiert wird, bei ( 12 )r liegt. Die gebr¨ auchlichsten CRC Standard Polynome lauten: CRC-12 CRC-16 CRC-CCITT CRC-32
= = = =
x12 + x11 + x3 + x2 + x + 1 x16 + x15 + x2 + 1 x16 + x12 + x5 + 1 x32 + x26 + x23 + x22 + x16 + x12 + x11 + +x10 + x8 + x7 + x5 + x4 + x2 + x + 1
¨ CRC-12 wird f¨ ur Ubertragungen von 6-Bit-Zeichen benutzt und erzeugt eine 12-Bit Block¨ pr¨ uffolge. CRC-16 und CCRC-CCITT werden beide f¨ ur 8-Bit Ubertragungen genutzt und ¨ erzeugen eine 16-Bit Blockpr¨ uffolge. Anwendungen, die eine h¨ ohere Ubertragungsicherheit ben¨ otigen, k¨ onnen auf CRC-32 zur¨ uckgreifen, das eine 32-Bit Blockpr¨ uffolge erzeugt. CRC32 wird z.B. in Standard¨ ubertragungstechniken (Ethernet, FDDI, IEEE-802) genutzt. Mit CRC-16 bzw. CRC-CCITT werden alle Einzelbitfehler, sowie alle doppelt auftretenden Einzelbitfehler und alle Fehler ungerade L¨ ange erkannt. Dazu werden 100% aller Fehler erkannt, die k¨ urzer als 16 Bit sind, 99.997 % aller 17 Bit B¨ undelfehler und 99.998% aller B¨ undelfehler von 18 Bit L¨ ange und mehr. Der CRC-Algorithmus mag recht kompliziert erscheinen, kann aber durch einfache Schieberegisteroperationen sehr leicht in Hardware realisiert werden. Fehlerkorrekturverfahren Bei den Codierungen zur Fehlerkorrektur unterschiedet man sogenannte Blockcodes und Faltungscodes (Convolutional Codes). Wie bei der Fehlererkennung, wird auch hier den
3.3 Leistungskennziffern von Rechnernetzen
125
Nutzdaten redundante Information hinzugef¨ ugt. Der Quotient m/n, wobei n=m+r, wird als Coderate bezeichnet. Gebr¨ auchliche Werte sind dabei 1/2, 3/4 und 7/8. Bei den Blockcodes wird die redundante Information, ¨ ahnlich wie bei der Verwendung von Parit¨ atsbits aus Bl¨ ocken der zu u ¨bertragenden Nutzinformation berechnet. Im Gegensatz dazu berechnen Faltungscodes die Redundanz fortlaufend aus aufeinanderfolgenden Bitfolgen. Der Verarbeitungsaufwand f¨ ur fehlerkorrigierende Codes ist relativ hoch, bei einer entsprechend niedrigen Coderate. Diese niedrige Coderate ist daf¨ ur verantwortlich, dass die Metho¨ den der Fehlerkorrektur nur dort angewendet werden, wo eine Ubertragungswiederholung nicht praktikabel ist. Als wichtiges Beispiel seien hier terrestrische Funksysteme (GSM: ¨ Global System for Mobile Communication), Ubertragungssysteme, die einer starken Bandbreitenbeschr¨ ankung unterliegen, wie z.B. der Funkverkehr mit interplanetaren Raumsonden (Deep Space Communication) oder digitalen Speichermedien, wie Arbeitsspeicher (RAM: Random Access Memory) oder Massenspeicher wie CD-ROM genannt. Weiterf¨ uhrende Literatur: E. R. Berlekamp: Algebraic Coding Theory, Aegean Park Press, Laguna Hills, CA, USA (1984) E. R. Berlekamp: Key Papers in the Development of Coding Theory (IEEE Press Selected Reprint Series), IEEE Press (1988) ¨ U. Freyer: Nachrichten-Ubertragungstechnik, Hanser Verlag, M¨ unchen, 4. Aufl. (2000) J. Gibson [Hrsg.]: The Communications Handbook, CRC-Press, Boca Raton FL, USA (1996) R. W. Hamming: Error Detecting and Error Correcting Codes, in Bell System Technical Journal, vol. 29, pp. 147-160 (1950) V. Pless [Hrsg.]: Handbook of Coding Theory, Vol 1-2, Elsevier, Amsterdam (1998)
3.3 Leistungskennziffern von Rechnernetzen Der landl¨aufige Nutzer mag ein Netzwerk nach seiner Geschwindigkeit als schnel” les“ oder langsames“ Netz beurteilen. Da jedoch die Netztechnologien einem ra” schen Wandel unterworfen sind, z¨ahlt heute ein schnelles“ Netz morgen schon zu ” den langsamen“. Um einen objektiven Vergleich unterschiedlicher Netzwerktech” nologien zu erm¨oglichen, m¨ussen deshalb anstelle solcher vagen Klassifizierungen harte quantitative Messgr¨oßen zur Beschreibung der Leistungsf¨ahigkeit eines Netzes herangezogen werden. Diese Messgr¨oßen werden als Leistungskenngr¨oßen bezeichnet und liefern eine quantitative, qualifizierbare Beschreibung konkreter Eigenschaften von Kommunikationsnetzen. Man unterscheidet dabei benutzerbezogene Leistungskenngr¨oßen, die auch als technologieunabh¨angig bezeichnet werden, von technologiebezogenen Leistungskenngr¨oßen. Diese Unterscheidung ist allerdings nicht immer konsistent und kann daher oft nicht konsequent durchgehalten werden. In der Regel werden deshalb technische Leistungskenngr¨oßen mit benutzerbezogenen verdichtet und zusammengefasst.
126
3 Grundlagen der Kommunikation in Rechnernetzen
3.3.1 Benutzerbezogene Kenngr¨oßen Eine Zusammenstellung der benutzerbezogenen Leistungskenngr¨oßen wird von der ANSI (American National Standards Institute) als ANSI X3.102 herausgegeben auf der Basis eines einfachen Modells (siehe Tabelle 3.4). Das ANSI-Modell geht dabei von einem verbindungsorientierten Dienst aus und bewertet diesen nach seinen drei Phasen • Verbindungsaufbau (Zugang zum Netzwerk), • Daten¨ubertragung und • Verbindungsabbau. In jeder Phase werden jeweils die folgenden Kriterien des verbindungsorientierten Netzwerkdienstes bewertet: • Geschwindigkeit, • Korrektheit – Wie groß ist die Wahrscheinlichkeit, dass ein (reparabler) Fehler auftritt? – und • Zuverl¨assigkeit – Wie groß ist die Wahrscheinlichkeit, dass ein (irreparabler) Fehler auftritt, der zum Abbruch f¨uhrt?
Tabelle 3.4 Benutzerbezogene Leistungskenngr¨oßen nach ANSI X3.102 Geschwindigkeit
Korrektheit
Zuverl¨ assigkeit
Verbindungsaufbau
Verbindungsaufbaudauer
Wahrscheinlichkeit f¨ ur falschen Verbindungsaufbau Wahrscheinlichkeit f¨ ur Totalausfall
Wahrscheinlichkeit f¨ ur den verweigerten Verbindungsaufbau
Daten¨ ubertragung
¨ Ubertragungsdauer
Fehlerwahrscheinlichkeit Wahrscheinlichkeit f¨ ur falsche Zustellung Wahrscheinlichkeit f¨ ur verweigerte ¨ Ubertragung
Datenverlustwahrscheinlichkeit Wahrscheinlichkeit f¨ ur verweigerte ¨ Ubertragung
Verbindungsabbau
Verbindungsabbaudauer
Wahrscheinlichkeit f¨ ur verweigerten Verbindungsabbau
Wahrscheinlichkeit f¨ ur verweigerten Verbindungsabbau
3.3.2 Qualitative Leistungskriterien Neben den quantitativ exakt erfassbaren Leistungskenngr¨oßen, werden Kommunikationsnetzwerke aber auch durch weitere Eigenschaften gekennzeichnet, die le-
3.3 Leistungskennziffern von Rechnernetzen
127
diglich qualitativ beschrieben werden k¨onnen. Obwohl eine exakte Messung dieser Eigenschaften nicht m¨oglich ist, sind sie dennoch von gleichrangiger Bedeutung wie die exakt messbaren quantitativen Leistungskriterien. Zu den qualitativen Leistungskenngr¨oßen z¨ahlen: ¨ • Verfugbarkeit (Availability) Gibt an, zu welchem Anteil der Betriebszeit (ausgedr¨uckt in Prozent) das Kommunikationsnetz den Nutzern tats¨achlich mit der vom Dienstanbieter in Aussicht gestellten Leistung zur Verf¨ugung steht. Die Betriebszeit wird h¨aufig mit 24 Stunden pro Tag und 365 Tage im Jahr angegeben. • Brauchbarkeit (Usability) Schwer zu erfassende Kenngr¨oße, mit der die Zufriedenheit der Nutzer mit dem vom Dienstanbieter zur Verf¨ugung gestellten Netzwerk erfasst wird. Dazu geh¨oren sowohl die Einfachheit der Nutzung, sowie die Einhaltung akzeptabler Leistungsvorgaben. • Kompatibilit¨at (Compatibility) Gibt an, in welchem Maße die Endger¨ate des Anwenders mit den vom Dienstanbieter zur Verf¨ugung gestellten Netzschnittstellen u¨ bereinstimmen und ohne großen Anpassungsaufwand betrieben werden k¨onnen. • Sicherheit (Security) Zusammenfassung mehrerer Kriterien, die die Zuverl¨assigkeit der Daten¨ubertragung in einem Kommunikationsnetzwerk auch im Hinblick auf das unberechtigte Eingreifen Dritter beschreiben. • Skalierbarkeit (Scalability) Bringt zum Ausdruck, in welchem Maße ein Kommunikationsnetzwerk betrieben werden kann, wenn die tats¨achliche Nutzung die urspr¨unglich festgelegten Betriebsparameter weit u¨ bersteigt. • Handhabbarkeit (Manageability) Dieses G¨utekriterium gibt an, inwieweit das Kommunikationsnetzwerk laufend u¨ berwacht, an ver¨anderte Gegebenheiten angepasst und im Sinne der Regelungstechnik geregelt wird. Ein Netzwerk funktioniert nur dann zufriedenstellend, ¨ wenn diese Uberwachung m¨oglichst kontinuierlich und notwendige Anpassungen z¨ugig erfolgen. Selbst in Problemsituationen soll ein Kommunikationsnetzwerk noch eine zufriedenstellende Leistung erbringen. In welchem Maße das Netzwerk in Ausnahmesituationen belastbar ist, ohne dabei seine Funktionsf¨ahigkeit zu verlieren, wird als Robustheit (Robustness) bezeichnet. Ein robustes Netz kann z.B. Ausf¨alle von Verbindungsrechnern durch schnelle Rekonfiguration ausgleichen. Ebenso ist ein robustes Netzwerk in der Lage, nach Behebung des aufgetretenen Fehlers m¨oglichst schnell wieder in den Ausgangszustand und den damit m¨oglichen Normalbetrieb zur¨uckzufinden. Ein solches Netzwerk ist auch in der Lage, nach einem Teil- oder Totalausfall selbstst¨andig wieder den Betrieb aufzunehmen (Selbst-Stabilisierung).
128
3 Grundlagen der Kommunikation in Rechnernetzen
3.3.3 Quality of Service Ein zentraler Begriff in der Bemessung von Leistungskenngr¨oßen in Netzwerken ist ¨ oder Quality of Service (QoS). QoS beschreibt die Eidie sogenannte Dienstgute genschaften eines Kommunikationsnetzwerkes bez¨uglich der f¨ur einen bestimmten Netzwerkdienst erbrachten Leistungen. Dabei werden in der Regel die folgenden Dienstg¨uteattribute herangezogen: • Leistung Die zwei wichtigsten Kenngr¨oßen zur quantitativen Erfassung der erbrachten Leistung eines Kommunikationsnetzes sind: – Durchsatz: Unter dem Durchsatz (Throughput) versteht man eine zugesicherte Menge an Nutzdaten, die pro Zeiteinheit fehlerfrei u¨ bertragen werden kann. Der Durchsatz wird in Bits pro Sekunde (Bits per Second, bps) angegeben. Oft wird Durchsatz synonym mit Bandbreite (Bandwidth) verwendet. Allerdings gibt die Bandbreite die technisch m¨ogliche Rate an, mit der in einem Netzwerk Daten u¨ bertragen werden k¨onnen, w¨ahrend der Durchsatz die Menge der tats¨achlich u¨ bertragenen Daten bemisst. – Verz¨ogerung: Als Verz¨ogerung (Delay) bezeichnet man die maximal zugesicherte Zeitdauer, die zwischen dem Start einer Daten¨ubertragung und deren Abschluss liegt. Die Verz¨ogerung wird in Sekunden oder Sekundenbruchteilen gemessen und kann je nach Standort der miteinander kommunizierenden Computer und der ¨ eingesetzten Ubertragungstechnologie stark schwanken. Obwohl den Nutzer am Ende nur die Gesamtverz¨ogerung interessiert, treten an unterschiedlichen Stellen des Kommunikationsprozesses verschiedenartige Verz¨ogerungsursachen auf (siehe Exkurs 3.3.3). • Leistungsschwankungen Als Kenngr¨oßen der Leistungsschwankungen werden alle Messgr¨oßen herangezogen, die Abweichungen von der maximal zugesicherten Leistung beschreiben: – Jitter: Jitter beschreibt die auftretenden Schwankungen bei der Verz¨ogerung. Als Kenngr¨oße f¨ur ein Kommunikationsnetzwerk beschreibt Jitter die maximal zul¨assig auftretende Schwankung der Verz¨ogerung. Bei paketvermittelten Netzwerken sind diese Schwankungen unvermeidlich und k¨onnen großen Einfluss auf die Nutzungsm¨oglichkeit des Netzwerkes haben. Generell unterscheidet man dabei: · asynchrones Verhalten: Hier ist die Verweildauer der Pakete im Kommunikationsnetzwerk zwischen Sender und Empf¨anger v¨ollig unbestimmt und kann im Extremfall auch beliebig groß werden. Dieses Verhalten ist allerdings f¨ur viele Kommunikationsvorg¨ange nicht problematisch, z.B. wenn es um einen Datenaustausch via E-Mail geht.
3.3 Leistungskennziffern von Rechnernetzen
129
· synchrones Verhalten: Zwar ist die Verweildauer der Datenpakete im Kommunikationsnetzwerk weiterhin unbestimmt und ver¨anderlich, aber sie ist nach oben begrenzt. Der Grenzwert kann jeweils exakt angegeben ¨ werden. Synchrones Verhalten ist f¨ur die Ubertragung von Sprache und Bewegtbildinformation eine (oft nicht ausreichende) Mindestanforderung. · isochrones Verhalten: Hier ist die Verweildauer f¨ur alle Datenpakete ¨ im Netzwerk gleich. Bei isochronem Verhalten ist eine Ubertragung von Sprach- und Bewegtbildinformation auch in paketvermittelten Netzwerken m¨oglich. – Fehlerraten: Unter dem Begriff der Fehlerrate werden die Wahrscheinlichkeiten f¨ur einen ¨ Datenverlust w¨ahrend der Ubertragung und die Datenverf¨alschung auf der ¨ Ubertragungsstrecke zusammengefasst. Grundlegend ist dabei die Bitfehlerrate, die die Anzahl der fehlerhaft u¨ bertragenen Bits im Verh¨altnis zu ¨ den insgesamt u¨ bertragenen Bits angibt. Ist die Bitfehlerrate eines Ubertragungsmediums f¨ur eine bestimmte Anwendung zu hoch, m¨ussen Fehlererkennungs- und Fehlerkorrekturmaßnahmen ergriffen werden. Dazu bestimmt der Nutzer eine f¨ur seine Anwendung gerade noch tragbare Restfehlerwahrscheinlichkeit, von der es dann abh¨angt, wie aufw¨andig Fehlererkennungsund Korrekturverfahren eingesetzt werden m¨ussen. – Garantien: Alle vom Dienstanbieter zugesagten Leistungsparameter eines Kommunikationsnetzes k¨onnen von diesem aber nur mit einer bestimmten Wahrscheinlichkeit garantiert werden. Daher gibt diese Kenngr¨oße ein Maß f¨ur die Zuverl¨assigkeit der vom Dienstanbieter angegebenen Leistungsparameter. • Zuverl¨assigkeit Neben den quantitativen Messgr¨oßen der Leistung und der Leistungsschwankung, z¨ahlt zur Dienstg¨ute auch die Zuverl¨assigkeit der vom Dienstanbieter zur Verf¨ugung gestellten Verbindung mit den folgenden Dienstg¨uteparametern: – Vollst¨andigkeit: Der Dienstg¨uteparameter Vollst¨andigkeit versichert, dass alle gesendeten Datenpakete ihr designiertes Ziel mindestens einmal erreichen. Allerdings wird dabei keine Aussage u¨ ber die dazu ben¨otigte Zeit getroffen. – Eindeutigkeit: Wird Eindeutigkeit f¨ur eine Daten¨ubertragung garantiert, so kann der Nutzer sicher sein, dass die gesendeten Daten, h¨ochstens ein einziges mal ihr designiertes Ziel erreichen. Wird dies nicht garantiert und erreichen einzelne Datenpakete ihr Ziel mehrfach, so kann es aufgrund von Fehlern auf der ¨ Ubertragungsstrecke leicht zu Mehrdeutigkeiten kommen. – Reihenfolge-Erhaltung: Mit dieser Garantie wird dem Nutzer zugesichert, dass alle gesendeten Datenpakete ihr Ziel in derselben Reihenfolge erreichen, in der sie vom Sender versendet worden sind.
130
3 Grundlagen der Kommunikation in Rechnernetzen
• Sicherheit Unter dem Dienstg¨uteattribut Sicherheit werden Dienstg¨uteparameter zusammengefasst, die die Unversehrtheit und Authentizit¨at der u¨ bertragenen Daten gew¨ahrleisten: – Vertraulichkeit: Wird Vertraulichkeit einer Daten¨ubertragung garantiert, dann ist kein unberechtigter Dritter in der Lage, den Inhalt einer Datenkommunikation zwischen Sender und Empf¨anger zu verstehen. – Integrit¨at: Dieser Dienstg¨uteparameter steht f¨ur die Garantie der Unversehrtheit der empfangenen Daten, das heißt insbesondere, dass kein unberechtigter Dritter die ¨ gesendeten Daten auf ihrem Ubertragungsweg verf¨alschen kann. – Authentizit¨at: Mit diesem Dienstg¨uteparameter wird dem Nutzer zugesichert, dass eine empfangene Nachricht tats¨achlich vom angegebenen Sender stammt und nicht von einem unberechtigten Dritten, der sich als Absender der Nachricht ausgibt. – Verbindlichkeit: Dieser Dienstg¨uteparameter liefert den Nachweis, dass eine einmal zwischen Sender und Empf¨anger erfolgte Kommunikation tats¨achlich stattgefunden hat. Weder Sender und Empf¨anger sind in der Lage, diese Kommunikation abzustreiten. ¨ – Verfugbarkeit: Dieser Dienstg¨uteparameter gibt an, inwieweit das vom Dienstanbieter zur Verf¨ugung gestellte Dienstangebot tats¨achlich genutzt werden kann. Um Aussagen u¨ ber die Qualit¨at und Verbindlichkeit der spezifizierten Dienstg¨uteparameter treffen zu k¨onnen, werden sogenannte Garantie-Stufen festgelegt. • Best Effort – So gut wie m¨oglich Die spezifizierten Werte der Dienstg¨uteparameter werden, soweit jeweils m¨oglich, eingehalten. Es werden aber keine verbindlichen Garantien gegeben. • Imperfect – Unvollkommen Alle angegebenen Grenzwerte f¨ur die Dienstg¨uteparameter werden theoretisch“ ” eingehalten. Allerdings kann der Dienstanbieter nicht f¨ur alle zur Verf¨ugung gestellten Komponenten auch definitive Zusagen geben. • Predicted – Vorhersehbar Alle angegebenen Grenzwerte f¨ur die vom Dienstanbieter angegebenen Dienstg¨uteparameter werden garantiert, falls die zuk¨unftige Auslastung des Dienstanbieters nicht h¨oher ist als in der Vergangenheit. • Statistisch Alle angegebenen Grenzwerte f¨ur die vom Dienstanbieter angegebenen Dienstg¨uteparameter werden nur mit einer bestimmten Wahrscheinlichkeit garantiert.
3.3 Leistungskennziffern von Rechnernetzen
131
• Deterministisch Alle angegebenen Grenzwerte f¨ur die vom Dienstanbieter angegebenen Dienstg¨uteparameter werden garantiert, solange Hardware und Software des Dienstanbieters fehlerfrei arbeiten. Paketvermittelte Netzwerke k¨onnen allerdings keine Garantien f¨ur die Dienstg¨uteparameter Durchsatz und Verz¨ogerung spezifizieren. Die in Aussicht gestellte Leistung wird unter der Qualit¨atsstufe Best Effort angegeben. F¨ur ein leitungsvermitteltes Netzwerk k¨onnen Durchsatz und Verz¨ogerung dagegen sehr wohl garantiert werden. Exkurs 3 zeigt detailliert verschiedene Ursachen der Verz¨ogerung in paketvermittelten Netzwerken auf. Exkurs 3: Verz¨ ogerung in paketvermittelten Netzwerken Betrachten wir eine Ende-zu-Ende Verbindung u ¨ber ein paketvermitteltes Netzwerk. Rech¨ ner A sendet ein Datenpaket an Rechner B, das bei seiner Ubertragung u ¨ber das Netzwerk einen oder mehrere Vermittlungsrechner (in Abb. 3.13 die Router C und D) passiert. Ein Vermittlungsrechner, z.B. C, hat folgende Aufgaben: Eine der Verbindungen von Router ¨ C entlang der Ubertragungsstrecke f¨ uhrt zum n¨ achsten Vermittlungsrechner, zu Router D. Dieser Verbindung ist eine eigene Warteschlange, ein Ausgangspuffer vorgelagert. Erreicht nun ein Datenpaket den Vermittlungsrechner C, so ermittelt dieser aus den Daten des Paketheader dessen Zieladresse, um die entsprechende Ausgangsverbindung festlegen zu k¨ onnen. Das Datenpaket wird jetzt auf die Ausgangsverbindung zu Router D gesendet, wobei es aber nur dann u ¨ber diese Ausgangsverbindung weitergeschickt werden kann, wenn andere Datenpakete diese nicht blockieren und nicht vor dem weiterzuleitenden Datenpaket im Ausgangspuffer liegen. In diesem Fall muss das Datenpaket zuerst in die Warteschlange des Ausgangspuffers eingereiht werden. Jeder Rechner, den das Datenpaket passiert, verursacht Verz¨ ogerungszeiten (Delays). Quelle dieser Verz¨ ogerungszeiten sind:
• Verarbeitungsverz¨ogerung (Processing Delay) Verz¨ ogerung durch die Vorverarbeitung in den beteiligten Rechnern,
• Warteschlangenverz¨ogerung (Queueing Delay) Verz¨ ogerung durch Warten in der Warteschlange,
• Versendeverz¨ogerung (Transmission Delay) Verz¨ ogerung bei der Aussendung am versendenden Rechner und
• Laufzeitverz¨ogerung (Propagation Delay) Verz¨ ogerung durch die Laufzeit des Pakets auf den Verbindungswegen. Verarbeitungsverz¨ ogerung (Processing Delay) Die Verarbeitungsverz¨ ogerung dproc ist die Zeit, die der Vermittlungsrechner ben¨ otigt, um das Datenpaket vorzuverarbeiten, d.h. um den Datenpaketheader zu lesen und zu entscheiden, wohin das Paket gesendet werden soll. Dazu gerechnet wird auch die Zeit, die f¨ ur eine ¨ eventuelle Fehlerkorrektur ben¨ otigt wird, falls Bitfehler in der Ubertragung zum Vermittlungsrechner aufgetreten sind und diese mit Hilfe von Fehlererkennungsmethoden erkannt und durch geeignete Fehlerkorrekturmethoden behoben werden k¨ onnen. Die Verarbeitungsverz¨ ogerung liegt heute bei Vermittlungsrechnern in der Gr¨ oßenordnung von Mikrosekunden und weniger. Nach dieser Vorverarbeitung dirigiert der Vermittlungsrechner das Datenpaket zur Ausgangswarteschlange in Richtung Router D. Warteschlangenverz¨ ogerung (Queueing Delay) ¨ Im Bereich der Netzwerke erfolgt die Ubertragung eines Pakets in strenger first-come-firstserve Reihenfolge. Ein Paket kann erst dann u ¨bertragen werden, wenn alle Pakete, die vor
132
3 Grundlagen der Kommunikation in Rechnernetzen
Propagation
A
B
Transmission Processing
Processing
C
D
Queueing
Queueing
Abb. 3.13 Beispielkonfiguration f¨ur Verz¨ogerungszeiten im LAN
ihm an dieser Ausgangsverbindung anliegen, u ahrend das Paket ¨bertragen worden sind. W¨ ¨ also in der Warteschlange an der Ausgangsverbindung zu Router D auf seine Ubertragung wartet, erf¨ ahrt es eine Verz¨ ogerung dqueue , die proportional zur Anzahl der bereits in der Warteschlange befindlichen Datenpakete ist. Die Warteschlangenverz¨ ogerung kann stark variieren. Ist die Warteschlange leer, so ist die Verz¨ ogerungszeit gleich Null. Die Anzahl der Pakete, die ein ankommendes Datenpaket in der Warteschlange vorfindet, ist wiederum abh¨ angig von der Intensit¨ at des Datenverkehrs im Netzwerk. In der Praxis variiert die Warteschlangenverz¨ ogerung eines Routers von Mikrosekunden bis in den Millisekundenbereich. Versendeverz¨ ogerung (Transmission Delay) Bezeichnet l die L¨ ange des Datenpakets gemessen in Bits und r die Daten¨ ubertragungsrate zwischen Router C und D gemessen in Bit/Sekunde, dann errechnet sich die Versendeverz¨ ogerung, auch bezeichnet als Store-and-Forward Delay, einfach als l/r und beschreibt die Zeit, die n¨ otig ist, ein komplettes Datenpaket auf der Verbindungsleitung abzusetzen. ¨ Die Ubertragungsrate als solche h¨ angt nicht ab von der Distanz, die das Datenpaket zu u ucken hat. Sie ist lediglich davon abh¨ angig, wie schnell der Vermittlungsrechner die ¨berbr¨ Daten auf die Verbindung absetzen kann, und von der Bandbreite der Verbindung. Die Versendeverz¨ ogerung dtrans liegt in der Praxis im Mikrosekundenbereich oder darunter. Laufzeitverz¨ ogerung (Propagation Delay) Wurde ein Datenpaket auf die Verbindung zwischen den Routern C und D geschickt, muss es der Verbindung folgen, bis Router D erreicht ist. Die Zeit vom Absenden auf die designierte Verbindungsstrecke bis zur Ankunft am Empfangsrechner wird als Laufzeitverz¨ oge¨ rung dprop bezeichnet. Sie ist weitgehend von den physikalischen Eigenschaften des Ubertragungsmediums bestimmt (Glasfaser, Kupferkabel, Funkwellen, etc.) und liegt bei 2-3·108 m/s, also nahe der Lichtgeschwindigkeit. Die Laufzeitverz¨ ogerung berechnet sich aus der Distanz b der beiden Vermittlungsrechner dividiert durch die Ausbreitungsgeschwindigkeit s, also b/s. Wenn das letzte Bit des Datenpakets am Router D angekommen ist, wird es mit all den vorher gesendeten Bits des Datenpakets in Router D zwischengespeichert und der gesamte Prozess wiederholt sich nun mit Router D als Ausgangspunkt. In Rechnernetzen u ogerung d prop im Bereich von ¨ber große Distanzen (WANs) liegt die Laufzeitverz¨ Millisekunden. Die Gesamtverz¨ ogerung
d errechnet sich als d = dproc + dqueue + dtrans + dprop .
3.3 Leistungskennziffern von Rechnernetzen
133
Neben der Warteschlangenverz¨ ogerung dqueue f¨ allt dabei die Laufzeitverz¨ ogerung dprop am st¨ arksten ins Gewicht, die vom Mikrosekundenbereich (wenn die Router etwa in benachbarten Geb¨ auden stehen) bis in den Bereich einiger hundert Millisekunden (wenn die Router z.B. u oge¨ber eine Satellitenverbindung miteinander verbunden sind), sowie Versendeverz¨ rung dtrans , die von vernachl¨ assigbar kleinen Schaltzeiten (z.B. im Falle eines 100 MBit Ethernet LANs) bis in den Bereich einiger hundert Millisekunden (wenn die Daten¨ ubertragung z.B. u ¨ber ein langsames 28 kbps-Modem stattfindet) reicht. Besonderer Augenmerk muss auf die Warteschlangenverz¨ ogerung gerichtet werden. Anders als bei den u ogerungszeiten ist die Warteschlangenverz¨ ogerung abh¨ angig von der ¨brigen Verz¨ jeweiligen Netzauslastung und kann somit von Datenpaket zu Datenpaket stark variieren. Erreichen z.B. 10 Pakete gleichzeitig die Warteschlange, so kann zwar das erste Paket ohne weitere Verz¨ ogerung direkt versendet werden, das zehnte Paket allerdings muss warten, bis die anderen neun Pakete versendet worden sind. Zur Beschreibung der Warteschlangenverz¨ ogerung nutzt man statistische Maßzahlen. Maßgebend ist die Ankunftsrate der einzelnen Pakete in der Warteschlange, sowie die Art ihrer Verteilung. Die Pakete k¨ onnen z.B. zeitlich gleichm¨ aßig verteilt eintreffen oder geh¨ auft in sogenannten Bursts. Wir wollen die Situation genauer analysieren. Bezeichne a die durchschnittliche Ankunftsrate der Datenpaketen an unserer Warteschlange, gemessen in Pake¨ ten pro Sekunde, r die Ubertragungsrate und l die L¨ ange des Datenpakets. Dann betr¨ agt die durchschnittliche Ankunftsdatenrate l·a bps. Nehmen wir der Einfachheit an, die Warteschlange sei unbegrenzt lang, d.h. es k¨ onnen keine Datenpakete verloren gehen. Dann bezeichnet das Verh¨ altnis I= l·a die Intensit¨ at des Datenaufkommens. Ist I>1, dann ist die r ¨ durchschnittliche Datenankunftsrate h¨ oher als die Ubertragungsrate der angeschlossenen Leitung, d.h. die Warteschlange w¨ achst bis ins Unendliche an. Man muss also stets darauf achten, dass I ≤ 1 gilt. Betrachten wir nun den Fall I ≤ 1 genauer: Die Wartezeit wird hier dadurch bestimmt, wie die Datenpakete in der Warteschlange ankommen. Erreichen die Datenpakete die Warteschlange in periodischem Abstand, d.h. kommt alle l/r Sekunden ein Paket an, f¨ allt keine Warteschlangenverz¨ ogerung an. Wenn die Datenpakete aber wie in der Praxis geh¨ auft in Bursts eintreffen, dann kann eine signifikante Warteschlangenverz¨ ogerung entstehen: Angenommen, n Pakete treffen gleichzeitig in einem konstanten Intervall von (l/r)·n Sekunden ein. Das erste Paket kann sofort versendet werden, f¨ ur seine Wartezeit gilt dqueue1 = 0. Das zweite Paket muss bereits dqueue2 = l/r Sekunden warten, w¨ ahrend das letzte Paket mit dqueuen = (n-1)·(l/r) Sekunden die l¨angste Wartezeit in Kauf nehmen muss. In der Realit¨ at stellt die Ankunft des Datenpaketes einen Zufallsprozess dar. Der Abstand zwischen den einzelnen Paketen ist nicht konstant, sondern umfasst eine zuf¨ allig lange Zeitspanne. Die Datenintensit¨ at I allein reicht hier f¨ ur eine vollst¨ andige und wirklichkeitsnahe Beschreibung der statistischen Verteilung der Wartezeiten nicht mehr aus. Ausgefeiltere mathematische Methoden sind zu ihrer Beschreibung erforderlich. Die Datenintensit¨ at kann aber zumindest beitragen, ein intuitives Verst¨ andnis f¨ ur die Warteschlangenverz¨ ogerung zu entwickeln. Ist die Intensit¨ at nahe Null, dann ist die Wartezeit vernachl¨ assigbar. Ist die Intensit¨ at na¨ he Eins, dann treten Zeitintervalle auf, in denen die Ankunftsrate die Ubertragungsrate u ussen in der Warteschlange verweilen. N¨ ahert sich die In¨bersteigt, und Datenpakete m¨ tensit¨ at weiter der Eins, so w¨ achst die Warteschlangenverz¨ ogerung rapide an. Eine nur kleine prozentuale Erh¨ ohung der Intensit¨ at kann dann zu einem immensen Wachstum der Warteschlangenverz¨ ogerung f¨ uhren. Paketverlust Bislang sind wir in unseren Betrachtungen von der vereinfachenden Annahme ausgegangen, dass unbegrenzt lange Warteschlangen verf¨ ugbar sind. Das ist in der Praxis nat¨ urlich anders, die Warteschlangenkapazit¨ at ist stets beschr¨ ankt. Die Warteschlange kann also auch nicht bis ins Unendliche wachsen, wenn sich die Datenintensit¨ at der Eins n¨ ahert. Findet ein ankommendes Paket die Warteschlange gef¨ ullt vor und steht kein weiterer Speicherplatz
134
3 Grundlagen der Kommunikation in Rechnernetzen
mehr zur Verf¨ ugung, dann kann der Vermittlungsrechner das Datenpaket nicht annehmen, d.h. das Paket wird ignoriert und geht infolgedessen verloren. F¨ ur die Endsysteme stellt sich das als Paketverlust dar, denn das Paket wurde versendet, kam aber nie an seinem Bestimmungsort an. Der Anteil an verlorenen Paketen steigt, sobald die Datenintensit¨ at w¨ achst. Deshalb wird die Leistungsf¨ ahigkeit eines Netzrechners neben der Angabe der durchschnittlichen Verz¨ ogerungszeit auch durch die Wahrscheinlichkeit, mit der ein Paketverlust auftritt, quantifiziert. Weiterf¨ uhrende Literatur: D. Bertsekas, R. Gallagher: Data Networks, 2nd Ed., Prentice Hall, Englewood Cliffs, NJ, USA (1991) J. N. Daigle: Queueing Theory for Telecommunications, Addison-Wesley, Reading MA, USA (1991) L. Kleinrock: Queueing Systems, Vol1, John Wiley, New York, NY, USA (1975) U. Black: Emerging Communications Technologies, 2nd Ed., Prentice Hall, Upper Saddle River, MA, USA (1997)
Tabelle 3.5 Erforderliche Mindestdatenraten f¨ur verschiedene Anwendungen Anwendung
erforderliche Datenrate
¨ E-Mail-Ubertragung 0,3 bis 9,6 kbps Mobiltelefonie (GSM) 9,6 kbps Digitale Sprach¨ ubertragung 64 kbps Audiosignale (komprimiert) 64 bis 256 kbps Audiosignale (unkomprimiert) 1,4 Mbps Videosignale (komprimiert) 0,768 bis 1,4 Mbps Videosignale (unkomprimiert) 2 bis 10 Mbps Videosignale (hohe Qualit¨ at, z.B. Telemedizin) bis 50 Mbps Videosignale (HDTV unkomprimiert) bis 2 Gbps
3.4 Kommunikationsprotokolle Die Hardware eines Netzwerkes setzt sich aus Komponenten zusammen, deren Aufgabe darin besteht, Bits von einem Rechner zu einem anderen zu u¨ bertragen. W¨urde man die Rechnerkommunikation ausschließlich auf dieser Ebene organisieren wollen, w¨are das vergleichbar mit der Programmierung von Rechnern in einer rudiment¨aren Maschinensprache, d.h. unter ausschließlicher Verwendung von Nullen und Einsen, was den Aufwand und die Komplexit¨at der zu bew¨altigenden Aufgaben ¨ unbeherrschbar machen w¨urde. Ahnlich wie in der Programmierung von Rechnern wurden deshalb zur Steuerung und Nutzung von Rechnernetzen komplexe Softwaresysteme geschaffen, mit deren Hilfe Rechnernetze auf bequeme Art und Weise von einer h¨oheren Abstraktionsebene aus gesteuert und genutzt werden k¨onnen.
3.4 Kommunikationsprotokolle
135
Leistungskenngr¨ oßen von Kommunikationsnetzwerken
• Bandbreite (Bandwidth) ¨ Abh¨ angig von den physikalischen Eigenschaften eines Ubertragungsmediums gibt die Bandbreite in der Telekommunikations- und Nachrichtentechnik einen bestimmten Frequenzbereich an, zwischen dem u ubertragung ¨berhaupt eine Signal- bzw. Daten¨ m¨ oglich ist. Die Bandbreite wird bestimmt durch eine Maximalfrequenz, angegeben in Hertz (Hz), mit der eine rekonstruierbare Daten¨ ubertragung stattfinden kann. Im t¨ aglichen Sprachgebrauch wird die Bandbreite h¨ aufig verwechselt mit der Datenmen¨ ge, die u pro Sekunde gesendet werden kann. ¨ber ein Ubertragungsmedium • Datenrate (Data Rate) In Abh¨ angigkeit von der zur Daten¨ ubertragung verwendeten Signalkodierung ist die ¨ zur Verf¨ ugung stehende Bandbreite eines Ubertragungsmediums beschr¨ ankt und es kann lediglich eine bestimmte Daten¨ ubertragungsleistung (Datenrate) erreicht werden. Die Datenrate wird in Bits pro Sekunde (bps) gemessen. • Durchsatz (Throughput) Bezeichnet die tats¨ achliche Anzahl der pro Zeiteinheit auf einer Teilstrecke des Netzwerks u ucksichtigt auftretende Verz¨ ogerun¨bertragenen Daten. Der Durchsatz ber¨ gen, wie z.B. die Signallaufzeit eines Signals auf einer physikalischen Leitung. • Laufzeit (Delay) ¨ Die Laufzeit beschreibt das Zeitintervall, das ein Signal ben¨ otigt, um eine Ubertragungsstrecke zur¨ uckzulegen. Die Laufzeit h¨ angt von der Signalausbreitungsge¨ schwindigkeit des jeweiligen Ubertragungsmediums ab. Liegen zwischen Sender und Empf¨ anger Zwischensysteme, f¨ uhrt dies zu weiteren Laufzeitverz¨ ogerungen. In den Zwischensystemen wird diese Laufzeitverz¨ ogerung durch die Verarbeitungsleistung des Zwischensystems und die Wartezeit in den Ausgangspuffern bestimmt. • Antwortzeit (Response Time) Bei bidirektionalen Datenverbindungen initiiert das Aussenden einer Nachricht in der Regel unmittelbar eine Antwort des Empf¨ angers. Die Antwortzeit berechnet sich aus der Zeitspanne, die vom Absenden des ersten Bits der Nachricht bis zum Empfang des letzten Bits der Antwort, vergeht. Die minimale garantierte Antwortzeit eines Netzwerks entspricht der sogenannten Netzumlaufzeit (Round Trip Time) und wird durch die maximal zu u uckende Distanz (bzw. langsamste Verbindung) be¨berbr¨ stimmt. • Verz¨ ogerung-Durchsatz-Produkt (Delay-Throughput Product) Bezieht sich diese Angabe ausschließlich auf die verwendete Hardware, wird sie oft als Verz¨ ogerung-Bandbreite-Produkt angegeben. Dieses Produkt misst das Datenvolumen, das sich zu einem gegebenen Zeitpunkt im Netzwerk befinden kann. In einem Netz mit Durchsatz T und Verz¨ ogerung D befinden sich zu einem gegebenen Zeitpunkt maximal T×D Bits im Transit. Abb. 3.14 Leitungskenngr¨oßen von Kommunikationsnetzwerken
So kommt der Nutzer, wie auch die meisten Anwendungsprogramme, die u¨ ber das Netzwerk kommunizieren, um Daten auszutauschen und Dienste anzubieten, lediglich mit dieser Netzwerk-Software in Kontakt und nur a¨ ußerst selten direkt mit der darunter verborgenen Netzwerk-Hardware.
136
3 Grundlagen der Kommunikation in Rechnernetzen
3.4.1 Protokollfamilien Zur Kommunikation m¨ussen sich – nicht nur im Falle der digitalen Kommunikation – alle kommunizierenden Parteien auf festgelegte Regeln zum Austausch von Nachrichten einigen. Dies betrifft sowohl die verwendete Sprache, als auch alle Verhaltensregeln, die eine effiziente Kommunikation erst erm¨oglichen. Diese Verhaltensregeln werden in der Fachsprache unter dem Begriff Kommunikationsprotokoll oder Protokoll zusammengefasst. Ein Kommuniktionsprotokoll legt sowohl das Format der durch die Kommunikationspartner auszutauschenden Nachrichten fest und spe¨ zifiziert s¨amtliche Aktionen, die zur Ubermittlung dieser Nachrichten notwendig sind. Im Falle der Kommunikation in Rechnernetzen heißt die Software, mit der das Netzwerkprotokoll auf einem Rechner implementiert wird, Protokoll-Software. Anstelle riesige, hoch komplexe und universelle Netzwerkprotokolle bereitzustellen, die s¨amtliche anfallenden Aufgaben der Netzwerk-Kommunikaton regeln, wurde das Problem der Netzwerk-Kommunikation nach dem Prinzip Teile-und-Herr” sche“ (divide et impera, divide and conquer) in eine Vielzahl einzeln handhabbarer Teilprobleme zerlegt, zu deren L¨osung jeweils problemspezifische (Teil-)Protokolle bereitgestellt werden. Diese Zerlegung in einzelne Teilprobleme ist sinnvoll, wenn man sich vor Augen f¨uhrt, wieviele verschiedenartige Komplikationen bei der Rechnerkommunikation auftreten k¨onnen und gel¨ost werden m¨ussen (siehe Abb. 3.15). Die verschiedenen Teilprobleme werden von speziellen Protokollen abgehandelt, die aber – und dies ist das zweite zu l¨osende, in seiner Komplexit¨at nicht zu untersch¨atzende Problem – alle reibungslos ineinandergreifen und zusammenarbeiten m¨ussen. Um dieses Zusammenspiel zu gew¨ahrleisten, wird die Entwicklung der Netzwerkprotokoll-Software als eine umfassend zu l¨osende Gesamtaufgabe angesehen, die in Form der Bereitstellung einer zusammengeh¨origen Familie von Protokollen (Protocol Suites) gel¨ost wird, in der alle Einzelprotokolle effizient miteinander interagieren und im Zusammenspiel das Gesamtproblem der NetzwerkKommunikation l¨osen. Einige der popul¨arsten, zum Teil bereits historischen Protokollfamilien sind in Tabelle 3.6 zusammengestellt. Zwar beinhalten die unterschiedlichen Protokollfamilien viele gemeinsame Konzepte, doch wurden sie in der Regel unabh¨angig voneinander entwickelt und sind daher nicht kompatibel. Dennoch ist es m¨oglich, verschiedene Protokollfamilien gleichzeitig auf den Rechnern im Netzwerk einzusetzen, und diese alle dieselbe physikalische Netzschnittstelle nutzen zu lassen, ohne dass es dabei zu St¨orungen kommt.
3.4.2 Schichtenmodell Um die Protokoll-Designer in ihrer Arbeit zu unterst¨utzen, wurden Werkzeuge und Modelle entwickelt, die den Gesamtprozess der Netzwerk-Kommunikation feingliedrig aufschl¨usseln und hierarchisch aufeinander aufbauend anordnen. So werden klare Schnittstellen zwischen den einzelnen Hierarchiestufen festgelegt, die die weitgehend unabh¨angige Entwicklung und Verbesserung der auf diesen Stufen je-
3.4 Kommunikationsprotokolle
137
Fehlerquellen in Kommunikationsnetzwerken Kommunizieren viele Rechner in einem gemeinsam genutzten Kommunikationsnetzwerk miteinander, k¨ onnen zahlreiche Probleme auftreten, die alle durch die Netzwerkprotokoll-Software bew¨ altigt werden m¨ ussen. Wir z¨ ahlen hier nur einige wenige auf:
• Hardware-Fehler Ein Host-Rechner oder ein Zwischensystem, wie z.B. ein Router, k¨ onnen ausfallen, weil ein Defekt in der Hardware aufgetreten oder das Betriebssystem abgest¨ urzt ist. Auch eine Netzwerkverbindung kann versehentlich getrennt worden sein. Die Protokoll-Software muss in der Lage sein, diese Fehler zu erkennen und nach einem Neustart der fehlerhaften Systeme wieder f¨ ur das reibungslose Funktionieren der Kommunikation zu sorgen. ¨ • Netzwerk-Uberlastung (Netzwerkstau, Network Congestion) Auch f¨ ur den Fall, dass die Netzwerk-Hardware fehlerfrei funktioniert, ist die Kapazit¨ at eines Netzwerks noch immer beschr¨ ankt durch die Leistungsf¨ ahigkeit der ¨ verwendeten Systemkomponenten. Wird das Datenaufkommen zu groß, treten Uberlastsituationen (Congestions) auf, und im Extremfall kann der gesamte Verkehr im Netzwerk zum Erliegen kommen. Die Protokoll-Software muss deshalb in der Lage sein, derartige Stausituationen zu erkennen und die betroffenen Bereiche des Netz¨ werks zu umgehen, damit sich die Uberlast wieder aufl¨ osen kann. • Verz¨ ogerungen und Paketverlust (Packet Delay and Packet Loss) Es kann vorkommen, dass einzelne Datenpakete extreme Verz¨ ogerungen durch Wartezeiten an den Vermittlungssystemen erfahren oder sogar verloren gehen. Die Protokoll-Software muss in der Lage sein, mit derartigen Verz¨ ogerungen und Datenverlusten umzugehen. • Verf¨ alschung der Daten (Data Corruption) ¨ Entlang der Ubertragungsstrecke sind u ¨ber Netzwerke gesendete Daten physikalischen St¨ orquellen wie Interferenzen oder elektromagnetischer Strahlung ausgesetzt, die ebenso wie das Fehlverhalten der beteiligten Hardware dazu f¨ uhren k¨ onnen, dass Daten beim Transport ver¨ andert und dadurch unbrauchbar werden. ProtokollSoftware muss in der Lage sein, auch solche Fehler zu erkennen und entsprechende Korrekturmaßnahmen einzuleiten. • Duplizierte Datenpakete und vertauschte Reihenfolge In einem paketvermittelten Netzwerk werden die Datenpakete unabh¨ angig voneinander u oglicherweise verschiedene Routen geleitet. Dabei k¨ onnen die Datenpakete ¨ber m¨ leicht aus der urspr¨ unglichen Reihenfolge gebracht, oder es k¨ onnen einzelne Datenpakete u ¨ber die Vermittlungssysteme repliziert werden. Die Protokoll-Software muss u ugen, die duplizierten Datenpakete zu erkennen und auszu¨ber Mechanismen verf¨ filtern, sowie die urspr¨ ungliche Reihenfolge der Datenpakete wieder herzustellen. Abb. 3.15 Einige Komplikationen, die bei der Kommunikation im Netzwerk anfallen k¨onnen
weils angesiedelten Netzwerkprotokolle erm¨oglichen und so weit wie m¨oglich vereinfachen. Das bekannteste dieser Modelle ist das Schichtenmodell (Layering Model, Protocol Stack) (siehe Abb. 3.17). Der gesamte Netzwerk-Kommunikationsprozess wird dabei in einzelne u¨ bereinander angeordnete Schichten (Layers) aufgeteilt, wobei jede Schicht ein bestimmtes Teilproblem der Netzwerkkommunikation adressiert und mit jeder Schicht eine neue Abstraktionsebene der Kommunikation hinzugef¨ugt wird. Im Idealfall konstruiert der Protokoll-Designer daraus eine Proto-
138
3 Grundlagen der Kommunikation in Rechnernetzen
Tabelle 3.6 Beispiele f¨ur Protokollfamilien Hersteller
Protokollfamilie
Novell Corporation Banyan Systems Corporation Apple Computer Corporation Digital Equipment Corporation IBM viele
Netware VINES AppleTalk DECNET SNA TCP/IP
kollfamilie, den sogenannte Protokollstapel, bei dem sich die einzelnen Protokolle genau der auf einer Schicht zu l¨osenden Aufgaben annehmen. ¨ Prinzipiell ist in einem solchen Schichtenmodell die Ubertragung einer Nachricht von einem Anwendungsprogramm auf einem Rechner zu einem Anwendungsprogramm auf einem anderen Rechner so organisiert, dass die Nachricht u¨ ber die verschiedenen Protokollschichten auf dem Ursprungsrechner von oben nach unten ¨ durchgereicht und teilverarbeitet wird, dann physikalisch u¨ ber das Ubertragungsmedium u¨ bertragen und am Bestimmungsrechner dieselben Protokollschichten in umgekehrter Reihenfolge durchlaufend schließlich an die Anwendung u¨ bergeben wird (siehe Abb. 3.16).
Schicht n
Sender
Empfänger
Schicht n
…
…
Schicht 2
Schicht 2
Schicht 1
Schicht 1
Netzwerk
Abb. 3.16 Daten¨ubertragung u¨ ber einen Protokollstapel
Im Schichtenmodell ist jede Schicht f¨ur die L¨osung eine bestimmten Teils der Aufgaben verantwortlich, die im Rahmen der Netzwerk-Kommunikation anfallen. Zu diesem Zweck werden beim sendenden Rechner auf jeder einzelnen Schicht des Protokollstapels die zur L¨osung dieser Aufgabe notwendigen Kontroll- und Steuerinformationen zu den zu u¨ bertragenden Daten hinzugef¨ugt (siehe Abb. 3.18). Beim empfangenden Rechner werden diese Zusatzinformationen von der zur jeweiligen Schicht korrespondierenden Protokoll-Software ausgelesen und weiterverarbeitet, so dass die zu u¨ bertragenden Daten am Ende korrekt abgeliefert werden k¨onnen.
3.4 Kommunikationsprotokolle
139
Allgemeines zu Schichtenmodellen Schichtenmodelle spielen in der Kommunikationstechnik, aber auch in anderen Gebieten der Informatik eine bedeutende Rolle. In abgewandelter Darstellung entsprechen diese auch dem Schalenmodell, das anstelle aus hierarchisch aufeinander gelagerten? Schichten aus einzelnen Schalen besteht.
Schichtenmodell
Schalenmodell
Folgende Gr¨ unde rechtfertigen den Einsatz eines solchen Modells:
• Teile und Herrsche (Divide et Impera / Divide and Conquer) Nach dieser Strategie wird ein komplexes Problem in einzelne Teilprobleme zerlegt, die jedes f¨ ur sich betrachtet, einfacher handhabbar und l¨ osbar sind. Oft ist es dadurch u oglich, das Gesamtproblem zu l¨ osen. ¨berhaupt erst m¨ • Unabh¨ angigkeit Die einzelnen Schichten kooperieren, indem jede Schicht stets nur die Schnittstellenspezifikation ihres direkten Vorg¨ angers nutzt. Bei fest vorgegebener Schnittstellenspezifikation spielt der innere Aufbau einer Schicht f¨ ur die anderen Schichten keine Rolle, so dass die Implementationen auf einer Schicht ohne weiteren Aufwand direkt gegen verbesserte Implementationen ausgetauscht werden k¨ onnen, die sich lediglich an denselben Schnittstellenspezifikationen orientieren m¨ ussen. Die Implementationen der einzelnen Schichten werden damit unabh¨ angig vom Gesamtsystem und ein modularer (baukastenartiger) Aufbau wird erm¨ oglicht. • Abschirmung Jede einzelne Schicht kommuniziert jeweils nur mit der direkt unter ihr liegenden Schicht und gibt die Ausgabe ihrer Verarbeitung nur an die direkt dar¨ uberliegende Schicht weiter. Damit wird eine Kapselung der einzelnen Schichten erreicht und die zu bew¨ altigende Komplexit¨ at sinkt drastisch. • Standardisierung Die Aufgliederung des Gesamtproblems in einzelne Schichten erleichtert auch die Entwicklung von Standards. Eine einzelne Schicht l¨ asst sich jeweils schneller und leichter standardisieren, als das komplexe Gesamtsystem.
Schnittstelle zu Schicht k+1
Schicht k Schnittstelle zu Schicht k-1
Abb. 3.17 Allgemeines zum Schichtenmodell
140
3 Grundlagen der Kommunikation in Rechnernetzen
Gem¨aß dem Schichtenmodell der Netzwerkkommunikation muss die ProtokollSoftware einer bestimmten Schicht k auf dem Rechner des Empf¨angers genau die Nachricht empfangen, die von der Protokoll-Software der Schicht k des sendenden Rechners u¨ bertragen wurde. Dies bedeutet, dass jede Ver¨anderung oder Anpassung, die die Protokolle einer bestimmten Schicht auf die zu u¨ bertragenden Daten anwenden, beim Empf¨anger wieder vollst¨andig r¨uckg¨angig gemacht werden muss. F¨ugt Schicht k den zu u¨ bertragenden Daten einen zus¨atzlichen Steuer- und Kontrollheader an, muss Schicht k auf dem Empf¨angerrechner diese wieder entfernen. Findet in Schicht k eine Verschl¨usselung der Daten statt, m¨ussen auf Empf¨angerseite in der Schicht k die verschl¨usselten Daten wieder entschl¨usselt werden (siehe Abb. 3.18 und Abb. 3.19).
Datenköpfe der Schichten k-1,...,1 mit Steuer- und Kontrollinformationen k-1 ...
2
1
Nutzdaten
Schnittstelle zu Schicht k+1
Schicht k
Datenkopf k wird von Schicht k erzeugt mit den Steuer- und Kontrollinformationen der Schicht k
Schnittstelle zu Schicht k-1 k
k-1 ...
2
1
Nutzdaten
Weiterleitung an Schicht k-1
Abb. 3.18 Senden: Jede Schicht des Protokollstapels f¨ugt den weiterzuleitenden Daten einen eigenen Datenkopf (Header) mit Steuer und Kontrollinformationen hinzu
Die eigentliche Kommunikation erfolgt in den Protokollstapeln also immer in vertikaler Richtung. Beim Versenden von Daten f¨ugt jede Protokollschicht ihre Steuerund Kontrollinformationen zu diesen Daten hinzu. Meist werden diese Informatio¨ nen dann dem von der dar¨uberliegenden Schicht zur Ubertragung u¨ bergebenen Datenpaket als Header vorangestellt, man sagt, das Datenpaket wird gekapselt“. Aus ” diesen Zusatzdaten erh¨alt die Protokollsoftware auf der Empf¨angerseite bzw. in einem Zwischensystem in der korrespondierenden Protokollschicht die notwendigen Steuer- und Kontrollinformationen, die eine korrekte und zuverl¨assige Weiterleitung der u¨ bertragenen Daten gew¨ahrleisten. Auf den einzelnen Protokollschichten erscheint das so, als w¨urde die Protokollsoftware auf beiden Seiten, bei Sender und
3.4 Kommunikationsprotokolle
141
Empf¨anger, direkt miteinander kommunizieren, w¨ahrend die Daten aber tats¨achlich vertikal durch den Protokollstapel weitergeleitet werden. Diese scheinbar direkte Kommunikation auf den einzelnen Schichten wird auch als virtuelle Kommunikation bezeichnet.
Weiterleitung an Schicht k+1 k-1 ...
2
1
Nutzdaten
Schnittstelle zu Schicht k+1 Datenkopf k wird von Schicht k gelesen und verarbeitet, Restdaten werden entsprechend der Information in Datenkopf k weitergeleitet
Schicht k Schnittstelle zu Schicht k-1 k
k-1 ...
2
1
Nutzdaten
Datenköpfe der Schichten k,...,1 mit Steuer- und Kontrollinformationen
Abb. 3.19 Empfangen: Jede Schicht des Protokollstapels liest aus den empfangenen Daten den zur Schicht zugeh¨origen Datenkopf (Header) mit den f¨ur die Verarbeitung auf dieser Schicht notwendigen Steuer und Kontrollinformationen
F¨ur die Entwicklung von Netzwerkprotokoll-Familien wurde ab 1977 von der International Standards Organisation (ISO) das ISO/OSI Referenzmodell f¨ur die Kommunikation in offenen Netzwerken (Open Systems Interconnection) bereitgestellt, das den Gesamtprozess der Netzwerkkommunikation in sieben einzelne Schichten untergliedert und als gedankliches Werkzeug zur Entwicklung von Protokollfamilien dient. Seit der Entwicklung des ISO/OSI-Referenzmodells haben sich die Konzepte f¨ur Protokollfamilien an verschiedenen Stellen zwar ge¨andert und viele der neu entwickelten Protokolle passen gar nicht mehr genau in dieses Schema, ein Großteil der Terminologie, insbesondere Bezeichnung und Nummerierung der einzelnen Schichten, hat sich aber bis heute erhalten. Der Abschluss der Standardisierung des ISO/OSI Referenzmodells erfolgte u¨ brigens erst 1983. In der Praxis hatte sich zu diesem Zeitpunkt aber bereits mit der Entwicklung des Internets das den Internetprotokollen zugrunde liegende TCP/IP Referenzmodell etabliert und auf breiter Basis durchsetzt, bevor u¨ berhaupt Implementierungen des ISO/OSIStandards vorlagen.
142
3 Grundlagen der Kommunikation in Rechnernetzen
Exkurs 4: Das ISO/OSI-Schichtenmodell Das ISO/OSI-Schichtenmodell Das ab 1977 von der International Standards Organisation (ISO) entwickelte ISO/OSIReferenzmodell unterteilt die grundlegenden Aufgaben der Netzwerkkommunikation in sieben hierarchisch aufeinander aufbauende Schichten (siehe Abb. 3.20). Obwohl in der Praxis heute nicht mehr von Bedeutung, wird es gerne in Lehrb¨ uchern herangezogen, um die einzelnen Aufgaben und Teilprobleme der Netzwerkkommunikation aufzuzeigen und ihre Interaktion zu demonstrieren. Als Open Systems Interconnect (OSI) wurde die 1982 begonnene Standardisierungsinitiative der ISO bezeichnet, die einen einheitlichen Netzwerk-Protokollstandard schaffen sollte. Die vor der ISO/OSI-Initiative existierenden Netzwerkprotokolle waren u ¨berwiegend propriet¨ arer Natur und von den einzelnen Netzwerk-Ger¨ ateherstellern selbst entwickelt. Zu diesen Pr¨ a-ISO/OSI-Netzwerk-Protokollstandards z¨ ahlen z.B. IBM SNA, AppleTalk, Novell Netware und DECnet, die zueinander nicht kompatibel sind. W¨ ahrend die Standardisierungsbem¨ uhungen um ISO/OSI noch liefen, gewann die dem Internet zugrunde liegende Protokollfamilie TCP/IP in heterogenen Netzwerken, die sich aus Komponenten unterschiedlicher Hersteller zusammensetzten, rasant an Bedeutung und konnte sich auf breiter Basis durchsetzen, noch bevor eine abschließende Standardisierung von ISO/OSI gelang. Im ISO/OSI-Modell entspricht die unterste Schicht der eigentlichen Netzwerk-Hardware (physikalische Ebene). Die darauf aufbauenden Schichten umfassen jeweils Firmware und Software, die auf dieser Netzwerk-Hardware eingesetzt werden. Die oberste Schicht sieben ist schließlich die Anwendungsschicht, die eine Schnittstelle bereitstellt zwischen dem Kommunikationssystem und den verschiedenen Anwendungen, die das Kommunikationssystem f¨ ur ihre Zwecke nutzen wollen. Die Schichten (1-4) werden allgemein als Transportsystem, die Schichten (5-7) als Anwendungssystem bezeichnet, die zunehmend allgemeinere Funktionalit¨ aten des Kommunikationsprozesses bereitstellen. Obwohl sie denselben Namen tragen, d¨ urfen sie nicht mit den eigentlichen Anwendungsprogrammen verwechselt werden, die selbst außerhalb des Schichtenmodells stehen.
7
Anwendungsschicht (Application Layer)
6
Darstellungsschicht (Presentation Layer)
5
Sitzungsschicht (Session Layer)
4
Transportschicht (Transport Layer)
3
Vermitlungsschicht (Network Layer)
2
Sicherungsschicht (Data Link Layer)
1
Bitübertragungsschicht (Physical Layer)
Anwendungssystem
Transportsystem
Abb. 3.20 Die einzelnen Schichten des ISO/OSI-Referenzmodells
Die einzelnen Schichten des ISO/OSI-Referenzmodells befassen sich mit den folgenden Aufgaben:
3.4 Kommunikationsprotokolle
143
• Schicht 1: Bit¨ubertragungsschicht (Physical Layer) Die Bit¨ ubertragungsschicht definiert physikalische und technische Eigenschaften des ¨ ¨ Ubertragungsmediums (Ubertragungskanals). Speziell werden darin die Beziehungen ¨ zwischen der Netzwerk-Hardware und dem physikalischen Ubertragungsmedium geregelt, wie z.B. das Layout und Belegung von Steckverbindungen mit ihren optisch/elektrischen Parametern, Kabelspezifikationen, Verst¨ arkerelemente, Netzwerkadapter, ver¨ wendete Ubertragungsverfahren usw. Zu den wichtigsten Aufgaben der Bit¨ ubertragungsschicht z¨ ahlen: ¨ – Aufbau und Beendigung einer Verbindung zu einem Ubertragungsmedium und – Modulation, d.h. Konvertierung bin¨ arer Daten (Bitstrom) in (elektrische, optische oder Funk-) Signale, die u onnen. ¨ber einen Kommunikationskanal u ¨bertragen werden k¨ Wichtige Protokollstandards dieser Schicht sind z.B. – – – – – –
ITU-T V.24, V.34, V.35 ITU-T X.21 und X.21bis T1, E1 SONET, SDH (Synchronous Data Hierarchy), DSL (Digital Subscriber Line) EIA/TIA RS-232-C IEEE 802.11 PHY
• Schicht 2: Sicherungsschicht (Data Link Layer) Im Gegensatz zur Bit¨ ubertragungsschicht, deren Hauptanliegen in der Regelung der ¨ Kommunikation zwischen einer einzelnen Netzwerkkomponente und dem Ubertragungsmedium besteht, befasst sich die Sicherungsschicht stets mit der Interaktion mehrerer (d.h. mindestens zwei) Netzwerkkomponenten. Die Sicherungsschicht gew¨ ahrleistet, dass entlang einer Punkt-zu-Punkt Verbindung trotz gelegentlicher Fehler, die in der Bit¨ uber¨ tragungsschicht auftreten k¨ onnen, eine zuverl¨ assige Ubertragung stattfinden kann. Diese Punkt-zu-Punkt Verbindung kann dabei entweder als direkte Verbindung ausgef¨ uhrt sein oder auch u ¨ber ein im Broadcastverfahren arbeitendes Diffussionsnetzwerk realisiert werden, wie z.B. bei Ethernet oder WLAN. In einem Diffusionsnetzwerk k¨ onnen alle angeschlossenen Rechner die u ¨bertragenen Daten aller anderen angeschlossenen Rechner empfangen, ohne dass dazu irgendwelche Zwischensysteme n¨ otig w¨ aren. Zu den auf der Sicherungsschicht zu bew¨ altigenden Aufgaben z¨ ahlen – die Organisation von Daten in logische Einheiten, die auf der Sicherungsschicht als Rahmen (Frames) bezeichnet werden, ¨ – die Ubertragung von Rahmen zwischen Netzwerkkomponenten, – das Bitstopfen, d.h. das Erg¨ anzen nicht vollst¨ andig gef¨ ullter Rahmen mit speziellen F¨ ulldaten, und ¨ – die zuverl¨ assige Ubertragung von Rahmen durch einfache Fehlererkennungsverfahren, wie z.B. die Pr¨ ufsummenberechnung. Zu den bekannten Protokollstandards dieser Schicht z¨ ahlen: – BSC (Bit Synchronous Communication) und DDCMP (Digital Data Communications Message Protocol), PPP (Point-to-Point Protocol) – IEEE 802.3 (Ethernet) – HDLC (High Level Data Link Protocol) – X.25 LAPB (Link Access Procedure for Balanced Mode) und LAPD (Link Access Procedure for D-Channels) – IEEE 802.11 MAC (Medium Access Control)/LLC (Logical Link Control) – ATM (Asynchronous Transfer Mode), FDDI (Fiber Distributed Data Interface), Frame Relay
144
3 Grundlagen der Kommunikation in Rechnernetzen
• Schicht 3: Vermittlungsschicht (Network Layer) Die Vermittlungsschicht stellt funktionale und prozedurale Mittel zur Verf¨ ugung, die den Transfer von Datensequenzen variabler L¨ ange (Datenpakete) von einem Sender zu einem Empf¨ anger u oglichen. ¨ber ein oder mehrere Netzwerke hinweg erm¨ Zu den Aufgaben der Vermittlungsschicht z¨ ahlen: – die Zuweisung von Adressen zu End- und Zwischensystemen, – die zielgerichtete Weiterleitung von Datenpaketen von einem Ende des Netzwerks zum anderen (Routing) und damit – die Verkn¨ upfung einzelner Netzwerke (Internetworking), – die Fragmentierung und Reassemblierung von Datenpaketen, da unterschiedliche Netzwerke von unterschiedlichen Transportparameter bestimmt werden, und – die Weiterleitung von Fehler- und Statusmeldungen bzgl. erfolgter Zustellung von Datenpaketen. Zu den wichtigsten Protokollstandards, die auf dieser Schicht angesiedelt sind, z¨ ahlen: – – – –
ITU-T X.25 PLP (Packet Layer Protocol) ISO/IEC 8208, ISO/IEC 8878 Novell IPX (Internetwork Packet Exchange) IP (Internet Protocol)
• Schicht 4: Transportschicht (Transport Layer) Die Transportschicht erm¨ oglicht einen transparenten Datentransfer zwischen Endanwendern und stellt den dar¨ uberliegenden Schichten einen zuverl¨ assigen Transportdienst zur Verf¨ ugung. Die Transportschicht definiert dabei die Einzelheiten, die f¨ ur eine zuverl¨ assige und sichere Daten¨ ubertragung notwendig sind. Hier wird sichergestellt, dass eine Folge von Datenpaketen fehlerfrei, vollst¨ andig und in der richtigen Reihenfolge vom Sender zum Empf¨ anger gelangt. Auf der Transportschicht erfolgt ebenfalls die Abbildung von Netzwerkadressen auf logische Namen. Damit stellt die Transportschicht den beteiligten Endsystemen eine Ende-zu-Ende Verbindung zur Verf¨ ugung, die die Einzelheiten der dazwischenliegenden Netzwerkinfrastruktur verbirgt und daher als transparent bezeichnet wird. Die Protokolle auf dieser Schichte z¨ ahlen zu den komplexesten Protokollen in der Netzwerk-Kommunikation. Zu den bedeutendsten Protokollstandards, die auf Schicht 4 arbeiten, geh¨ oren: – – – –
ISO/IEC 8072 (Transport Service Definition) ISO/IEC 8073 (Connection Oriented Transport Protocol) ITU-T T.80 (Network-Independent Basic Transport Service for Telematic Services) TCP (Transmission Control Protocol), UDP (User Datagram Protocol), RTP (Realtime Transport Protocol)
• Schicht 5: Sitzungsschicht (Session Layer) Die Sitzungsschicht wird auch als Kommunikationssteuerungsschicht bezeichnet und steuert den Dialog zwischen zwei u ¨ber das Netzwerk verbundenen Rechnern. Zu den Hauptaufgaben der Sitzungsschicht z¨ ahlen: – Einrichtung, Management und Beendigung von Verbindungen zwischen lokalen und entfernten Anwendungen, – Steuerung von Voll-Duplex-, Halb-Duplex- oder Simplex-Datentransport, und – Einrichtung von Sicherheitsmechanismen, wie z.B. Authentifikation u ¨ber PasswortVerfahren. Wichtige Protokollstandards dieser Schicht sind: – SAP (Session Anouncement Protocol), SIP (Session Initiation Protocol)
3.4 Kommunikationsprotokolle – – – –
145
NetBIOS (Network Basic Input/Output System) ISO 8326 (Basic Connection Oriented Session Service Definition) ISO 8327 (Basic Connection Oriented Session Protocol Definition) ITU-T T.62 (Control Procedures for Teletex and Group 4 Facsimile Services)
• Schicht 6: Darstellungsschicht (Presentation Layer) Die Darstellungsschicht stellt einen Kontext zwischen zwei Entit¨ aten (Anwendungen) der dar¨ uberliegenden Anwendungsschicht her, so dass die beiden Anwendungen unterschiedliche Syntax (z.B. Datenformate und Kodierungen) und Semantik verwenden k¨ onnen. Die Darstellungsschicht sorgt also f¨ ur eine korrekte Interpretation der u ¨bertragenen Daten. Dazu wird die jeweils lokale Kodierung der Daten in eine spezielle, einheitliche Transferkodierung f¨ ur die Darstellungsschicht umgesetzt und beim Empf¨ anger in die dort lokal g¨ ultige Kodierung zur¨ uckverwandelt. Zus¨ atzlich z¨ ahlen Datenkomprimierung und Verschl¨ usselung zu den Aufgaben dieser Schicht. Zu den wichtigsten Protokollstandards der Darstellungsschicht z¨ ahlen: – ISO 8322 (Connection Oriented Session Service Definition) – ISO 8323 (Connection Oriented Session Protocol Definition) – ITU-T T.73 (Document Interchange Protocol for Telematic Services), ITU-T X.409 (Presentation Syntax and Notation) – MIME (Multipurpose Internet Mail Extension), XDR (External Data Representation) – SSL (Secure Socket Layer), TLS (Transport Layer Security)
• Schicht 7: Anwendungsschicht (Application Layer) Die Anwendungsschicht bietet eine Schnittstelle f¨ ur Anwendungsprogramme, die das Netzwerk f¨ ur ihre Zwecke nutzen wollen. Anwendungsprogramme selbst geh¨ oren nicht in diese Schicht, sondern nutzen lediglich deren Dienste. Die Anwendungsschicht stellt einfach handhabbare Dienstprimitive zur Verf¨ ugung, die s¨ amtliche netzwerkinternen Details vor dem Anwender oder dem Programmierer des Anwendungsprogrammes verbergen und so eine einfache Nutzung des Kommunikationssystems erm¨ oglichen. Zu den wichtigsten Funktionen der Anwendungsschicht z¨ ahlen unter anderem: – Identifikation der Kommunikationspartner, – Feststellung der Verf¨ ugbarkeit von Ressourcen, und – Synchronisation der Kommunikation. Zu den wichtigen Protokollstandards, die auf dieser Schicht angesiedelt sind, geh¨ oren: – – – – –
ISO 8571 (FTAM, File Transfer, Access and Management) ISO 8831 (JTM, Job Transfern and Manipulation) ISO 9040 und 9041 (VT, Virtual Terminal Protocol) ISO 10021 (MOTIS, Message Oriented Text Interchange System) FTP (File Transfer Protocol), SMTP (Simple Mail Transfer Protocol), HTTP (Hypertext Transfer Protocol), etc. – ITU-T X.400 (Data Communication for Message Handling Systems). ITU-T X.500 (Electronic Directory Services) Weiterf¨ uhrende Literatur: U. Black: OSI – A Model for Computer Communications Standards, Upper Saddle River, NJ, USA (1991) H. Zimmermann: OSI Reference Model – The ISO Model of Architecture for Open Systems Interconnection, in IEEE Transactions on Communications, vol. 28, no. 4, pp. 425–432 (1980)
146
3 Grundlagen der Kommunikation in Rechnernetzen
3.4.3 Das Internet und das TCP/IP-Schichtenmodell Das weltumspannende und allgegenw¨artige Internet verbindet heute Rechner, Telefone, Unterhaltungselektronik und bald schon Haushaltsger¨ate und Waren unseres t¨aglichen Bedarfs. Es dringt mehr und mehr in alle Bereiche unseres Lebens vor. Damit alle diese unterschiedlichen Ger¨ate ungest¨ort und effizient miteinander kommunizieren k¨onnen, m¨ussen die dabei eingesetzten Kommunikationsprotokolle einem gemeinsamen Grundschema folgen. Dieses Fundament bildet heute das TCP/IP-Referenzmodell, das die einzelnen Schichten der Internet-Kommunikation entsprechend ihren Aufgaben, ihres Abstraktionsgrades und Ihrer Komplexit¨at festlegt und den jeweiligen Funktionsumfang bestimmt. Mit welchen Mitteln und auf welche Weise diese Spezifikationen umgesetzt werden, legt das Modell nicht fest. Auf diese Art und Weise konnte das TCP/IP Referenzmodell aus der Praxis heraus Gestalt annehmen und bildet heute und in n¨achster Zukunft eine solide Basis f¨ur alle Aufgaben der digitalen Kommunikation. Das TCP/IP-Referenzmodell steht im deutlichen Gegensatz zum ISO/OSI-Referenzmodell (siehe Exkurs 4). Faktisch existiert es eigentlich gar nicht, sondern leitet sich aus den in der Praxis des Internet eingesetzten Protokollen her. Dagegen wurde das ISO/OSI-Protokoll theoretisch geplant und verabschiedet, bevor Protokolle entworfen wurden, die die einzelnen Funktionen der Schichten des ISO/OSIReferenzmodells implementieren. Allerdings werden die meisten dieser ISO/OSIkonformen Protokollimplementationen heute praktisch nicht mehr verwendet, die aus der Praxis erwachsenen Protokolle des TCP/IP-Referenzmodells dominieren heute das Internet. Die heute bedeutendste Protokollfamilie, die TCP/IP-Protokollsuite, basiert also nicht auf den Spezifikationen eines Standardisierungskomitees, sondern erwuchs bereits sehr fr¨uh aus den Anforderungen und Erfahrungen der Entwicklung des Internets. Zwar l¨asst sich das ISO/OSI-Referenzmodell soweit anpassen, dass es auch zur Beschreibung des TCP/IP Protokollstapels herangezogen werden kann, aber beide gehen von g¨anzlich verschiedenen Grundlagen aus. Allein schon aufgrund der Bedeutung, die das Internet und damit die TCP/IP-Protokollsuite erlangt hat, ist es deshalb sinnvoll, speziell auf den TCP/IP-Protokollstapel, der auch als TCP/IPReferenzmodell bezeichnet wird, n¨aher einzugehen. Die erste Beschreibung des TCP/IP-Referenzmodells (RFC 1122) stammt bereits aus dem Jahr 1974, also noch bevor die erste Spezifikation des ISO/OSI-Modells erfolgte. Prinzipiell l¨asst sich die TCP/IP-Protokollfamilie in vier einzelne Schichten unterteilen, die um die Kernprotokolle TCP und IP herum organisiert sind (siehe Abb. 3.21). Tats¨achlich finden sich in der Literatur auch Beschreibungen des TCP/IP-Referenzmodells, die f¨unf einzelne Schichten umfassen. Dabei wurde eine die Kommunikationshardware beschreibende Schicht (Hardware, Physical Layer) mit in das urspr¨unglich vier Schichten umfassende TCP/IP-Referenzmodel aufgenommen. Dieses f¨unfschichtige Modell wird oft auch als hybrides TCP/IP-Refe˙renzmodell bezeichnet. Die in Abb. 3.21 angegebenen Benennungen der einzel-
3.4 Kommunikationsprotokolle
Abb. 3.21 Das TCP/IPReferenzmodell umfasst vier Schichten (2-5), zusammen mit der Netzhardwareschicht (1) wird das Modell auch als hybrides TCP/IPReferenzmodell bezeichnet
147
5
Anwendungsschicht (Application Layer)
4
Transportschicht (Transport Layer)
3
Internetschicht (Internet Layer)
2
Netzzugangsschicht (Link Layer)
1
Hardware (Physical Layer)
nen Schichten entsprechen denen des zugrunde liegenden RFC 1122 und werden im vorliegenden Buch durchg¨angig verwendet. Die Schicht 2 des TCP/IP-Referenzmodells (Netzzugangsschicht, Link Layer) wird in der Literatur auch oft als Data Link Layer, Network Access Layer oder Host-toNetwork Layer bezeichnet und entspricht den ersten beiden Schichten des ISO/OSIReferenzmodells (Bit¨ubertragungsschicht und Sicherungsschicht). Schicht 3 des TCP/IP-Referenzmodells (Internetschicht, Internet Layer) wird auch als Netzwerkschicht, Network Layer oder Internetwork Layer bezeichnet und entspricht der Schicht 3 des ISO/OSI-Referenzmodells (Vermittlungsschicht). Schicht 4 des TCP/IP-Referenzmodells (Transportschicht, Transport Layer) wird auch als Host-toHost Layer bezeichnet und entspricht der Schicht 4 des ISO/OSI-Referenzmodells (Transportschicht). Schicht 5 des TCP/IP-Referenzmodells (Anwendungsschicht, Application Layer) entspricht den Schichten 5 – 7 des ISO/OSI-Referenzmodells (Sitzungsschicht, Pr¨asentationsschicht, Anwendungsschicht, siehe Abb. 3.22). In den folgenden Abschnitten werden kurz die Aufgaben und Protokolle der einzelnen Schichten skizziert. Einer detaillierte Darstellung der Schichten des TCP/IPReferenzmodells und ihrer Protokolle widmet sich Band 2 Internetworking“ dieser ” Trilogie.
Netzzugangsschicht In der Netzzugangsschicht des TCP/IP-Referenzmodells werden die ersten beiden Schichten des ISO/ISO-Referenzmodells, die Bit¨ubertragungsschicht und die Sicherungsschicht zusammengefasst, wobei die Netzzugangsschicht nicht die Aspekte der physikalischen Schicht beinhaltet, die Teil des ISO/OSI-Referenzmodells sind. ¨ Die Hauptaufgabe der Netzzugangsschicht besteht in der sicheren Ubertragung von einzelnen Datenpaketen zwischen zwei benachbarten Endsystemen. Zu u¨ bertragende Bitfolgen werden zu festen Einheiten (Datenpaketen) zusammengefasst und mit ¨ zur Ubertragung notwendiger Zusatzinformation versehen, wie z.B. Pr¨ufsummen zur einfachen Fehlererkennung. Die benachbarten Endsysteme k¨onnen entweder di-
148
3 Grundlagen der Kommunikation in Rechnernetzen
Anwendungsschicht (Application)
7
Darstellungsschicht (Presentation)
6
5
Anwendungsschicht (Application Layer)
Sitzungsschicht (Session)
5
4
Transportschicht (Transport Layer)
Transportschicht (Transport)
4
3
Internetschicht (Internet Layer)
Vermittlungsschicht (Network)
3
2
Netzzugangsschicht (Link Layer)
Netzzugangsschicht (Data Link)
2
1
Hardware (Physical Layer)
Bitübertragungsschicht (Physical)
1
TCP/IP-Referenzmodell
ISO/OSI-Referenzmodell
Abb. 3.22 Gegen¨uberstellung des TCP/IP-Referenzmodells und des ISO/OSI-Referenzmodells
¨ rekt durch ein Ubertragungsmedium miteinander verbunden sein oder an einen sogenannten Bus (Diffusionsnetzwerk) angeschlossen sein, der mehrere Endsysteme direkt, also ohne Zwischensysteme miteinander verbindet. Man unterscheidet in dieser Schicht zwischen gesicherten und ungesicherten Diensten. In ungesicherten Diensten werden als fehlerhaft erkannte Datenpakete ¨ eliminiert. Die Anforderung einer daraufhin notwendigen Ubertragungswiederholung erfolgt aber erst auf einer h¨oheren Schicht des Protokollstapels. Ein gesicher¨ ter Dienst hingegen u¨ bernimmt die Anforderung einer Ubertragungswiederholung selbst. In lokalen Netzen (LANs) wird die Schicht 2 des TCP/IP-Referenzmodells f¨ur gew¨ohnlich in zwei weitere Teilschichten aufgeteilt: • Media Access Control (MAC) Diese Teilschicht regelt den Zugriff auf das gemeinsam mit (vielen) anderen ¨ Rechensystemen genutzte Ubertragungsmedium. Da diese beim Zugriff auf das Kommunikationsmedium in Konkurrenz stehen, m¨ussen Protokollmechanismen bereitgestellt werden, die einen f¨ur alle Teilnehmer gerechten und effizienten Zugriff erlauben. • Logical Link Control (LLC) Diese Teilschicht regelt die sogenannte Sicherungsschicht des LANs. Hier werden Aufgaben gel¨ost, wie z.B.: – – –
¨ Flusssteuerung (Vermeidung von Uberlast beim Empf¨anger), Fehlerbehandlung (Fehlererkennung und Fehlerkorrektur), ¨ ¨ Ubertragungssteuerung (Link Management, geordnete und fehlerfreie Ubertragung) und
3.4 Kommunikationsprotokolle
149
– Datenpaketsynchronisation (Anfang und Ende eines Datenpakets m¨ussen erkannt werden). Daneben gew¨ahrleistet die LLC-Teilschicht die sogenannte Multiprotokollf¨ahigkeit, also die F¨ahigkeit zur gleichzeitigen Nutzung verschiedener Kommunikationsprotokolle. Zu den praktisch bedeutsamen Protokollen der Schicht 2 des TCP/IP-Referenzmodells z¨ahlen die von der IEEE gem¨aß dem IEEE 802 LAN-Standard standardisierten LAN-Protokolle, zu denen Technologien geh¨oren, wie z.B. Ethernet, Token Ring oder FDDI. Weitere Protokolle der Schicht 2 der TCP/IP-Protokollfamilie sind: • ARP und RARP (Address Resolution Protocol und Reverse Address Resolution Protocol), • SLIP (Serial Line Interface Protocol) und • PPP (Point to Point Protocol).
Internetschicht Ebenso wie die Vermittlungsschicht des ISO/OSI-Referenzmodells besteht die Hauptaufgabe der Internetschicht des TCP/IP-Referenzmodells darin, Datenkommunikation zwischen zwei Endsystemen an verschiedenen Enden des Kommunikationsnetzwerks zu erm¨oglichen. Zu diesem Zweck muss ein u¨ ber die Grenzen einzelner physikalischer Netzwerke hinweg g¨ultiges und eindeutiges Adressierungsschema verwendet werden. Die zu versendenden Datenpakete m¨ussen jeweils mit den Adressen von Sender und Empf¨anger versehen werden, damit sie korrekt zugestellt werden k¨onnen. Da die Kommunikation u¨ ber ein oder mehrere eigenst¨andig operierende Netzwerke hinweg erfolgt, m¨ussen weiterhin die Rechner an den Verbindungs- und Vermittlungsstellen (Zwischensysteme) in der Lage sein, zur korrekten Weiterleitung der Datenpakete den jeweils einzuschlagenden Verbindungsweg auszuw¨ahlen (Routing). Das zentrale Protokoll der Schicht 3 ist das Internet Protocol (IP). IP bietet eine ¨ unzuverl¨assige und datenpaketorientierte Ende-zu-Ende Ubertragung von Nachrichten. Es ist verantwortlich f¨ur Fragmentierung und Defragmentierung in sogenannte IP-Datagramme und verf¨ugt u¨ ber Protokollmechanismen zur Weitervermittlung u¨ ber Zwischensysteme hinweg zum designierten Empf¨anger der Nachricht. IP ist ein unzuverl¨assiges Protokoll, da es nicht u¨ ber Mechanismen zum Umgang mit Datenverlusten verf¨ugt. Eine detaillierte Behandlung von IP wird im 2. Band Internet” working“ unserer Trilogie behandelt. Daneben kommt auf Schicht 3 das ICMP-Protokoll (Internet Control Message Protocol) zum Einsatz, in dessen Zust¨andigkeit die Meldung von Fehlern liegt, die ¨ w¨ahrend einer IP-Ubertragung auftreten k¨onnen. ICMP ist ein Protokoll, das direkt auf IP aufsetzt. Es kann außerdem dazu verwendet werden, Systeminformationen u¨ ber andere Endsysteme anzufordern. Daneben geh¨oren weitere Protokolle zur Schicht 3 des TCP/IP-Protokollstapels, wie z.B.:
150
3 Grundlagen der Kommunikation in Rechnernetzen
• IGMP (Internet Group Management Protocol), dient zur Verwaltung von (Multicast)-Gruppen von Endsystemen in einem TCP/IP-Netzwerk, • RSVP (Resource Reservation Protocol), dient zur Anforderung und Reservierung von Ressourcen f¨ur mittels IP zu u¨ bertragende Datenstr¨ome, • ST 2+ (Internet Stream Protocol, Version 2), verbindungsorientiertes Protokoll zum Transport von Echtzeitdaten u¨ ber IP, die eine garantierte Dienstg¨ute ben¨otigen, • OSPF (Open Shortest Path First), ein vor allem bei Internet-Routern eingesetztes Routingprotokoll, • BGP (Border Gateway Protocol), ein Routingprotokoll f¨ur sogenannte autonome Systeme.
Transportschicht Die prim¨are Aufgabe der Transportschicht, die in etwa der gleichnamigen Schicht des ISO/OSI-Referenzmodells entspricht, besteht in der Einrichtung einer Kommunikationsverbindung zwischen zwei Anwendungsprogrammen, die sich auf unterschiedlichen Rechnern im Netzwerk befinden. Auf der Transportschicht erfolgt dazu ¨ eine Flusssteuerung, die daf¨ur sorgt, dass Uberlastsituationen nach M¨oglichkeit vermieden werden. Es wird auch sichergestellt, dass die u¨ bertragenen Daten fehlerfrei und in der richtigen Reihenfolge (Sequenznummern) beim Empf¨anger ankommen. Dazu existiert ein Quittungsmechanismus, u¨ ber den der Empf¨anger korrekt u¨ bertragene Datenpakete best¨atigt bzw. fehlerhafte Datenpakete neu anfordern kann. Anders als die Internetschicht, steht die Transportschicht nicht unter der Kontrolle des Netzbetreibers, sondern bietet dem Anwender bzw. dem Anwendungsprogramm des betreffenden Endsystems die M¨oglichkeit, Einfluss auf Probleme in der Daten¨ubertragung zu nehmen, die nicht von der Internetschicht behandelt werden. ¨ Dazu z¨ahlt die Uberbr¨ uckung von Ausf¨allen auf der Internetschicht und die Nachlieferung von Datenpaketen, die in der Internetschicht verloren gegangen sind. Die Transportschicht ist in der Lage, beliebig lange Pakete (Streams) zu u¨ bertragen. Eine lange Nachricht wird dazu in Segmente unterteilt, die einzeln u¨ bertragen und beim Empf¨anger wieder zusammengesetzt werden. Das TCP-Protocol (Transport Control Protocol) als ein weiteres Kernst¨uck der Internet-Protokoll-Architektur ist das popul¨arste Protokoll der Schicht 4 des TCP/IPProtokollstapels. Es realisiert einen zuverl¨assigen, bidirektionalen Datenaustausch zwischen zwei Endsystemen. Das TCP-Protokoll wird detailliert im 2. Band Inter” networking“ unserer Trilogie beschrieben. Neben TCP ist das UDP-Protokoll (Universal Datagram Protocol) das zweite prominente Protokoll der Transportschicht. Es u¨ bertr¨agt eigenst¨andige Dateneinheiten, sogenannte Datagramme, zwischen Anwendungsprogrammen, die auf un¨ terschiedlichen Rechnern im Netzwerks ablaufen. Allerdings ist die Ubertragung unzuverl¨assig, d.h. es bietet keine Mechanismen zur Erkennung bzw. Korrektur von Fehlern, wie z.B. Datenverluste, Vervielfachung von Datagrammen oder Reihenfolgever¨anderungen, mit denen stets gerechnet werden muss. Die als falsch erkannten
3.4 Kommunikationsprotokolle
151
Datagramme werden von UDP verworfen und erreichen den Empf¨anger erst gar nicht. UDP zeichnet sich gegen¨uber TCP durch eine geringere Komplexit¨at aus, was sich in einem erh¨ohten Datendurchsatz niederschl¨agt. Allerdings muss dies mit einem drastischen Verlust an Zuverl¨assigkeit und Sicherheit bezahlt werden. Weitere bekannte Protokolle der Transportschicht sind: • VMTP (Versatile Message Transaction Protocol), ein transaktionsorientiertes Kommunikationsprotokoll, • NETBLT (Network Block Transfer Protocol), ein unidirektionaler, verbindungsorientierter, zuverl¨assiger Transportdienst, der auf einen hohen Durchsatz bei großen Datenmengen hin optimiert wurde, • MTP (Multicast Transport Protocol), ein zuverl¨assiger Transportdienst f¨ur Multicast-Gruppen, • RDP (Reliable Data Protocol), ein bidirektionaler, verbindungsorientierter Punktzu-Punkt Transportdienst, der speziell f¨ur Anwendungen vorgesehen ist, die in der Lage sind, mit Reihenfolge¨anderungen bei den u¨ bertragenen Datenpaketen selbst¨andig umzugehen bzw. diese tolerieren, • RIP (Routing Information Protocol), internes Routingprotokoll in kleineren Netzwerken, ¨ • SSL (Secure Socket Layer), Protokollmechanismus f¨ur die sichere Ubertragung im WWW, • TLS (Transport Layer Security), Nachfolger des Secure Socket Layer (SSL) Protokolls f¨ur die sichere Daten¨ubertragung im WWW.
Anwendungsschicht Die Funktionalit¨at der Anwendungsschicht des TCP/IP-Protokollstapels fasst im Prinzip die obersten drei Schichten des ISO/OSI-Referenzmodells zusammen. Grunds¨atzlich dient diese Schicht als Schnittstelle zu den eigentlichen Anwendungsprogrammen, die u¨ ber das Netzwerk kommunizieren wollen. Die Anwendungen selbst sind außerhalb dieser Schicht und des TCP/IP-Referenzmodells angesiedelt. Die angebotenen Dienste der Anwendungsschicht verf¨ugen u¨ ber ein hohes Abstraktionsniveau, das den Anwender bzw. die kommunizierenden Anwendungen von den Details der Kommunikation, die auf den niedrigeren Protokollschichten geregelt werden, weitgehend abschirmen. Zur Anwendungsschicht der TCP/IP-Protokollfamilie z¨ahlen z.B. die folgenden Protokolle: • TELNET, erm¨oglicht die Einrichtung einer interaktiven Sitzung auf einem entfernten Rechner, ¨ • FTP (File Transfer Protocol), dient der Ubertragung von Dateien zwischen zwei u¨ ber ein TCP/IP-Netzwerk verbundenen Rechnern, • SMTP (Simple Mail Transfer Protocol), ein einfach strukturiertes Protokoll ¨ zur Ubertragung von elektronischer Post im Internet. Heute wird in der Regel
152
• • • • • •
3 Grundlagen der Kommunikation in Rechnernetzen
¨ ESMPT (Extended SMTP) eingesetzt, das eine transparente Ubertragung von Nachrichten unterschiedlicher Formate gestattet, HTTP (Hypertext Transport Protocol), Protokoll zur Daten¨ubertragung im World Wide Web, RPC (Remote Procedure Call), dient dem Operationsaufruf von Anwendungsprogrammen, die sich auf einem entfernten Rechner befinden, DNS (Domain Name Service), Verzeichnisdienst, der die Zuordnung zwischen Endsystemnamen (Zeichenketten) zu IP-Adressen liefert, PGP (Pretty Good Privacy), Verschl¨usselungsmechanismus f¨ur elektronische Post und deren Authentifikation, ¨ SNMP (Simple Network Management Protocol), Protokoll zur Uberwachung, Verwaltung und Kontrolle von Netzwerken, ¨ RTP (Realtime Transport Protocol), Protokoll zur Echtzeit-Ubertragung (Streaming) von Multimedia-Datenstr¨omen.
Auf die Protokolle der Anwendungsschicht des TCP/IP-Referenzmodells wird in Band 2 Internetworking“ unserer Trilogie detailliert eingegangen. ”
3.4.4 Protokollfunktionen Beim Blick auf die einzelnen Protokolle, die den jeweiligen Protokollschichten zugeordnet sind, stellt man fest, dass oftmals Protokolle verschiedener Schichten die gleiche Funktionalit¨at bieten. Diese gemeinsamen Funktionalit¨aten werden als Protokollfunktionen oder Protokollmechanismen bezeichnet. Dabei erfolgt die Ausgestaltung der einzelnen Protokollfunktionen auf jeder Protokollschicht mit Hilfe konkreter Protokollimplementationen, die dem Bezugsrahmen und Abstraktionsgrad der jeweiligen Schicht entsprechen. Grunds¨atzlich lassen sich die Protokollfunktionen in folgende Kategorien unterteilen: • Basis-Protokollfunktionen Hierzu geh¨oren alle Funktionen, die den Datenverkehr als Grundaufgabe der Netzwerkkommunikation regeln: – Datentransfer: Basisaufgabe aller Netzwerkkommunikation ist der Datentransfer. Zus¨atzlich kann ein Vorrangdatentransfer definiert werden, der bestimmte wichtige“ ” Daten gegen¨uber regul¨aren“ Daten auszeichnet, damit diesen ein Vorrang in ” der Daten¨ubertragung einger¨aumt werden kann. Dabei k¨onnen Vorrangdaten zuvor versendete gew¨ohnliche Daten sogar u¨ berholen. Wird ein Datenpaket korrekt empfangen, kann zur Signalisierung eines gelungenen Datentransfers ein spezielles Quittierungsverfahren (Acknowledgement) etabliert werden. Quittungen k¨onnen sich auf einzelne Datenpakete oder aber auch auf mehrere Datenpakete (Piggy Pack Acknowledgement) beziehen.
3.4 Kommunikationsprotokolle
153
– Verbindungsverwaltung: Neben dem eigentlichen Datentransfer ist der Auf- und Abbau einer Datenverbindung eine Grundaufgabe der Netzwerkkommunikation. Der verwendete Protokollmechanismus muss in der Lage sein, auf erfolgreiche bzw. erfolglose Verbindungsanfragen entsprechend zu reagieren. Daten, die u¨ ber eine geschaltete Verbindung u¨ bertragen werden, m¨ussen in der richtigen Reihenfolge ausgeliefert werden. Dazu muss der Protokollmechanismus mit versp¨ateten, verlorengegangenen oder auch duplizierten Datenpaketen zurecht kommen. Um dies zu gew¨ahrleisten, werden die Datenpakete mit fortlaufenden Sequenznummern versehen. Außerdem m¨ussen Fallback- und RecoveryMechanismen vorgesehen werden, die nach einem unbeabsichtigten Abbruch der Verbindung (Disconnect) die Kommunikation wieder in einen konsistenten Zustand u¨ berf¨uhren. • Fehlerbehandlung Unter die Kategorie Fehlerbehandlung fallen alle Mechanismen, die zur Erken¨ nung und Behebung von eventuell auftretenden Ubertragungsfehlern dienen: – Fehlererkennung: Zur Fehlererkennung k¨onnen verschiedene Pr¨ufsummenverfahren oder Parit¨atsbits zum Einsatz kommen. Dabei werden die Nutzdaten durch redundante Information erg¨anzt, die sich vollst¨andig aus den u¨ bertragenen Nachrichten rekonstruieren l¨asst und so durch Vergleich die M¨oglichkeit schafft, aufgetretene Fehler zu erkennen. ¨ – Ubertragungswiederholung: Wurde ein u¨ bertragenes Datenpaket als fehlerhaft identifiziert, kann es erneut vom Sender angefordert werden. Dies kann unter Verwendung eines speziellen Quittierungsverfahrens erfolgen. ¨ – Zeituberwachung: ¨ Uberschreitet ein Datenpaket auf seinem Weg durch das Netzwerk eine vorgegebene maximale Zeitspanne, gilt es als verloren“ und wird erneut u¨ bertra” gen (Timeout). Die Festlegung dieser Zeitspanne ist von enormer Bedeutung f¨ur die Effizienz und Leistungsf¨ahigkeit des Netzwerks. – Fehlerkorrektur: Bei Anreicherung der zu u¨ bertragenen Information mit ausreichender Re¨ dundanz kann eine automatische Korrektur von Ubertragungsfehlern beim Empf¨anger gew¨ahrleistet werden, ohne dass ein fehlerhaft u¨ bertragenes Datenpaket erneut vom Sender angefordert werden muss. • L¨angenanpassung Auf Grund technischer und organisatorischer Restriktionen ist die L¨ange von Datenpaketen stets beschr¨ankt. Oftmals ist die zu u¨ bertragende Nachricht aber l¨anger, als das vorgegebene Datenformat dies zul¨asst. Dann muss die Nachricht
154
3 Grundlagen der Kommunikation in Rechnernetzen
vor dem Transfer zun¨achst in passgerechte Einzelteile zerlegt werden (Fragmentierung). Beim Empf¨anger angekommen, m¨ussen die fragmentierten Datenpakete anschließend wieder zur urspr¨unglichen Nachricht zusammengesetzt, die Zerlegung also r¨uckg¨angig gemacht werden (Defragmentierung). Andererseits k¨onnen Nachrichten auch k¨urzer sein als die jeweils vorgeschriebene Datenpaketl¨ange. Dann m¨ussen die Datenpakete mit sogenannten F¨ullbits erg¨anzt werden (Bitstopfen). • Systemleistungsanpassung Die an der Daten¨ubertragung beteiligten Rechensysteme m¨ussen sich an die aktuelle Netzlast anpassen k¨onnen. Dazu dienen Protokollmechanismen, die Einfluss nehmen auf die interne Verarbeitung in den Zwischensystemen und so eine Re¨ gelung des Datenflusses vornehmen und im Falle einer Uberlast wirksam werden k¨onnen. – Flusssteuerung (Flow Control): Eine Steuerung des Datenflusses erfolgt oftmals u¨ ber einen Fenstermechanismus. Dieser soll den Empf¨anger der Daten vor einer eventuell auftretenden ¨ Uberlast sch¨utzen. Daher gibt der Empf¨anger dem Sender eine Maximalzahl an Datenpaketen vor, die dieser h¨ochstens aussenden darf, ohne eine Quittung zu erhalten. ¨ – Uberlaststeuerung (Congestion Control): Die hierzu vorgesehenen Protokollmechanismen bedienen sich ebenfalls eines Fenstermechanismusses, der zum Schutz des jeweiligen Empf¨angers dient, damit dieser nicht durch die Zahl der an ihn gesendeten Datenpakete u¨ berlastet wird. Der Empf¨anger gibt in Abh¨angigkeit von der aktuellen Netzlast vor, wieviele noch unbest¨atigte Datenpakete gesendet werden d¨urfen. ¨ – Steuerung der Datenubertragungsrate (Rate Control): Vor Beginn der eigentlichen Daten¨ubertragung, also z.B beim Verbindungsaufbau, k¨onnen sich Sender und Empf¨anger u¨ ber eine maximal zul¨assige Daten¨ubertragungsrate (entspricht der Menge der gesendeten Daten pro Zeiteinheit) einigen. ¨ • Ubertragungsleistungsanpassung Die an einem Netzwerk angeschlossenen End- und Zwischensysteme k¨onnen unterschiedliche Leistungskapazit¨aten aufweisen, die sich in unterschiedlichen ¨ Ubertragungsleistungen niederschlagen. Um diese Unterschiede auszugleichen, m¨ussen spezielle Protokollmechanismen vorgesehen werden. – Multiplexing: ¨ Verf¨ugt eine Verbindungsleitung u¨ ber eine erheblich h¨ohere Ubertragungskapazit¨at als einzelne daran angeschlossene Rechensysteme, dann k¨onnen Verbindungen zu mehreren Rechensystemen auf eine Verbindung mit hoher ¨ Ubertragungskapazit¨ at abgebildet werden, indem die daran angeschlossenen Systeme diese abwechselnd bedienen.
3.5 Glossar
155
– Inverses Multiplexing: Im umgekehrten Fall des Multiplexing verf¨ugt z.B. ein an das Netzwerk ange¨ schlossenes Rechensystem u¨ ber eine erheblich h¨ohere Ubertragungsleistung ¨ als die zur Verf¨ugung stehende Datenverbindung. Uber den Mechanismus des inversen Multiplexing kann die Verbindung zum Rechensystem auf mehrere Datenverbindungen gleichzeitig abgebildet werden. • Nutzerbezogene Protokollmechanismen Zus¨atzlich sind Protokollmechanismen wichtig, u¨ ber die der Nutzer Eigenschaften der Daten¨ubertragung im Netzwerk selbst mitbestimmen kann. Dazu z¨ahlen z.B. die Festlegung von Dienstg¨uteparametern oder die Vergabe von Rechten. – Verbindungsklassen: Netzwerkdienste k¨onnen ihre Leistung in unterschiedlichen Qualit¨atsstufen, sogenannten Dienstklassen erbringen. Dazu m¨ussen Protokollmechanismen bereitgestellt werden, mit denen der Nutzer beim Verbindungsaufbau die jeweils gew¨unschte Dienstklasse festlegen kann. – Rechteverwaltung: Die Nutzung bestimmter Systemdienste oder spezieller Datenverbindungen kann nutzerbezogen oder zeitabh¨angig eingeschr¨ankt werden. Um bestimmte Nutzer zur Nutzung der beschr¨ankt verf¨ugbaren Netzwerkressourcen zu berechtigen, werden entsprechende Protokollmechanismen ben¨otigt. ¨ – Dienstguteverwaltung: Beim Verbindungsaufbau kann der Initiator der beabsichtigten Kommunikation den Wunsch nach bestimmten Dienstg¨uteparametern, wie z.B. einen bestimmten Mindestdurchsatz a¨ ußern. Dieser Wunsch muss dem beabsichtigten Kommunikationspartner mitgeteilt werden, der diesen vollst¨andig oder auch nur teilweise akzeptieren kann.
3.5 Glossar Bandbreite: Die Bandbreite (Bandwidth) einer Verbindungsstrecke in einem Netzwerk ist eine physikalische Gr¨ oße, die in Hertz (1 Hz=1/s) angegeben wird. Im analogen Bereich bezeichnet die Bandbreite den Frequenzbereich, in dem elektrische Signale mit einem Amplitudenabfall von bis zu 3 dB u oßer die Bandbreite, ¨bertragen werden. Je gr¨ desto mehr Informationen k¨ onnen theoretisch in einer Zeiteinheit u ¨bertragen werden. ¨ Auch bei der Ubertragung digitaler Signale wird oft synonym der Begriff Bandbreite ¨ verwendet, obwohl die Ubertragungsrate gemeint ist. Es gibt allerdings einen unmittel¨ baren Zusammenhang zwischen der Bandbreite und der Ubertragungsrate, da bei der ¨ Daten¨ ubertragung die erreichbare Ubertragungsgeschwindigkeit direkt von der Bandbreite des Netzwerkes abh¨ angt. Die maximale Bandbreiten-Ausnutzung betr¨ agt f¨ ur bin¨ are Signale 2 Bit pro Hertz Bandbreite. ¨ Broadcast: Eine Broadcast-Ubertragung entspricht einem Rundruf, also einer gleichzei¨ tigen Ubertragung von einem Punkt aus zu allen Teilnehmern. Klassische BroadcastAnwendungen sind Rundfunk und Fernsehen.
156
3 Grundlagen der Kommunikation in Rechnernetzen
Code: Ein Code ist eine mathematische Relation, die jedem Zeichen eines Zeichenvorrats (Urbildmenge) ein Zeichen oder eine Zeichenfolge eines anderen Zeichenvorrats (Bildmenge) zuordnet. In technischen Systemen dienen Codes der Darstellung und Verschl¨ usselung von Nachrichten bzw. der Fehlererkennung und -korrektur. Datenfern¨ ubertragung: Sind die Rechensysteme, zwischen denen eine Daten¨ ubertragung stattfindet, mehr als einen Kilometer weit voneinander entfernt, so spricht man von Datenfern¨ ubertragung. Diese Begrenzung ist allerdings nicht starr. Die eingesetzten Verfahren zur Datenfern¨ ubertragung unterscheiden sich wesentlich von denen, die bei Daten¨ ubertragungssystemen eingesetzt werden, die weniger weit voneinander entfernt sind. ¨ Datenrate: Die Datenrate (Transmission Speed, Ubertragungsgeschwindigkeit) ist das Maß f¨ ur die Geschwindigkeit, in der Daten in Form von Bits pro Zeiteinheit u ¨ber ein ¨ Ubertragungsmedium versendet werden k¨ onnen. Diese Geschwindigkeit wird in bit/s angegeben bzw. mit den Pr¨ afixen k (kilo=103 ), M (Mega=106 ), G (Giga=109 ) oder T ¨ (Tera=1012 ) versehen. Bei bitserieller bin¨ arer Ubertragung ist sie gleich der Schritt¨ ¨ geschwindigkeit. Bei zeichenserieller bitparalleler Ubertragung dagegen ist die Ubertragungsgeschwindigkeit gr¨ oßer als die Schrittgeschwindigkeit, da mit jedem Schritt mehrere Bits gleichzeitig u onnen. In der englischen Literatur wird ¨bertragen werden k¨ ¨ die Ubertragungsgeschwindigkeit in bps (bits per second) angegeben. Nach DIN 44302 ¨ handelt es sich bei der Ubertragungsgeschwindigkeit um das Produkt aus Schrittgeschwindigkeit und Anzahl der Bits, die je Schritt u ¨bertragen werden. Diffusionsnetzwerk: In einem Diffusionsnetzwerk wird das Signal eines Senders unmittelbar von allen mit dem Netz verbundenen Rechnern unter Ber¨ ucksichtigung der jeweiligen Laufzeitverz¨ ogerung empfangen. Jeder Empf¨ anger muss dabei selbst feststellen, ob die Nachricht f¨ ur ihn bestimmt ist und er sie aufnimmt und verarbeitet oder nicht. Durchsatz (Datendurchsatz, Throughput): Ist ein Maß f¨ ur die Leistungsf¨ ahigkeit eines Kommunikationssystems. Gemessen werden die innerhalb einer bestimmten Zeitspanne insgesamt verarbeiteten oder u ¨bertragenen Nachrichten/Daten. Der Durchsatz errechnet sich aus dem Quotienten der fehlerfrei u ¨bertragenen Datenbits und der Summe aller u uckt wird er z.B. in ¨bertragenen Bits, bezogen auf eine festgelegte Zeitdauer. Ausgedr¨ bit/s oder Datenpakete/s. fehlererkennender Code: Ein Code, der mit Redundanz ausgestattet ist und Fehler er¨ kennt, die bei einer Ubertragung entstanden sind. Einfache Beispiele f¨ ur fehlererkennende Codes sind z.B. das Anh¨ angen von Parit¨ atbits oder Pr¨ ufsummenverfahren. ¨ fehlerkorrigierender Code: Ist ein Code, der in der Lage ist, Ubertragungsfehler nicht nur zu erkennen, sondern diese auch bis zu einem gewissen Grad zu korrigieren. Fehlerate: Als Fehlerrate bezeichnet man das Verh¨ altnis fehlerhaft u ¨bertragener Informationen zur insgesamt u ¨bertragenen Information. Speziell ist die Bitfehlerrate ein Maß f¨ ur die Fehlerrate in einem Datennetz. Sie errechnet sich aus dem Verh¨ altnis der fehlerhaft u ¨bertragenen Bits zur Gesamtanzahl der u ¨bertragenen Bits, gemessen u ¨ber einen l¨ angeren Zeitraum. Flusssteuerung: In einem Kommunikationsnetzwerk wird durch die Flusssteuerung verhindert, dass ein schneller Sender einen langsamen Empf¨ anger mit gesendeten Daten ¨ u (Congestion) verursacht. Der Empf¨ anger verf¨ ugt ¨berschwemmt und so eine Uberlastung zwar in der Regel u ¨ber einen Pufferspeicher, in dem die ankommenden Datenpakete bis zur anschließenden Weiterverarbeitung zwischengespeichert werden k¨ onnen, um ¨ aber einen Uberlauf dieses Zwischenspeichers zu vermeiden, m¨ ussen Protokollmechanismen vorgesehen werden, mit denen der Empf¨ anger den Sender veranlassen kann, mit der Aussendung von Folge-Datenpaketen solange zu warten, bis der Pufferspeicher des Empf¨ angerrechners wieder abgearbeitet ist. Fragmentierung/Defragmentierung: Aufgrund technischer Restriktionen ist die L¨ ange der Datenpakete, die ein Kommunikationsprotokoll in einem paketvermittelten Netzwerk versendet, unterhalb der Anwendungsschicht stets beschr¨ ankt. Ist die L¨ ange der zu
3.5 Glossar
157
versendenden Nachricht gr¨ oßer als die vorgeschriebene Datenpaketl¨ ange, wird die Nachricht in einzelne Teilnachrichten (Fragmente) zerlegt, die den vorgegebenen L¨ angen¨ restriktionen entsprechen. Damit die einzelnen Fragmente nach der Ubertragung beim Empf¨ anger wieder korrekt zur Ursprungsnachricht zusammengesetzt (defragmentiert) ¨ werden k¨ onnen, m¨ ussen sie mit Sequenznummern versehen werden, da die Ubertragungsreihenfolge in Netzwerken nicht immer garantiert werden kann. Hamming-Abstand: Vergleicht man zwei verschiedene, gleichlange Codew¨ orter eines Codes, so wird die Anzahl der unterschiedlichen Stellen dieser Codew¨ orter als HammingAbstand der beiden Codew¨ orter bezeichnet. Jitter: Bezeichnung f¨ ur die Schwankung der Verz¨ ogerungszeit bei der Daten¨ ubertragung in Kommunikationsnetzwerken. Dieser Effekt ist in paketvermittelten Netzwerken unvermeidlich, da die Wege der einzelnen Datenpakete durch das Netzwerk unabh¨ angig voneinander festgelegt werden und so die dabei eingesetzten Zwischensysteme unterschiedlich stark ausgelastet sind. Kommunikationsmedium: Physikalischer Tr¨ ager, der zum Transport von Nachrichtensignalen zwischen Sender und Empf¨ anger verwendet wird. In der direkten sprachlichen Kommunikation ist z.B. die Luft als Tr¨ agermedium des Schalls das Kommunikationsmedium. Kommunikationsprotokoll: Ein Kommunikationsprotokoll (auch einfach Protokoll) ist eine Sammlung von Regeln und Vorschriften, die das Datenformat von zu u ¨bermittelnden ¨ Nachrichten sowie s¨ amtliche Mechanismen und Abl¨ aufe zu ihrer Ubertragung festlegen. Sie enthalten Vereinbarungen u ¨ber den Auf- und Abbbau einer Verbindung zwischen den Kommunikationspartnern, sowie u ubertragung. ¨ber die Art und Weise der Daten¨ Leitungsvermittlung: Methode des Nachrichtenaustauschs u ¨ber ein Netzwerk, bei der zu Beginn des Nachrichtenaustauschs eine exklusive, feste Verbindung zwischen den kommunizierenden Endger¨ aten aufgebaut wird, die f¨ ur die gesamte Dauer der Kommunikation bestehen bleibt. Z.B. funktionieren analoge Telefonnetze nach diesem Prinzip. ¨ Multicast: Eine Multicast-Ubertragung entspricht einem Rundruf an einen beschr¨ ankten ¨ Teilnehmerkreis. Es handelt sich also um eine gleichzeitige Ubertragung von einem Punkt aus zu einer dezidierten Teilmenge aller Netzteilnehmer. Nachrichten¨ ubertragung (Data Transmission): Der Transport von Daten von einem Rechensystem zum anderen heißt Nachrichten¨ ubertragung. Nachrichtenvermittlung: Eine Methode der Netzwerkkommunikation, bei der die einzelnen Vermittlungsstellen einen kompletten Nachrichteninhalt zwischenspeichern, bevor dieser weitergegeben wird. Der Sender muss jeweils nur den Pfad zur n¨ achsten Vermittlungsstelle kennen, die dann ihrerseits die Nachricht nach Erhalt auf dieselbe Weise zur n¨ achsten Vermittlungsstelle weiterschickt. Netzwerk: Bezeichnung f¨ ur den Verbund mehrerer Kommunikationsendger¨ ate, den zu¨ geh¨ origen, verbindenden Ubertragungsmedien und der zum Betrieb des Netzwerks notwendigen Zwischensysteme. Handelt es sich bei den Kommunikationsendger¨ aten um Computer, so spricht man von einem Computernetzwerk. Prinzipiell lassen sich Netzwerke einteilen in private Netzwerke, die sich in privater Hand befinden, und ¨ offentliche Netzwerke, die von einem Tr¨ ager betrieben und zur ¨ offentlichen Nutzung angeboten werden. Paketheader: In einem paketvermittelten Netzwerk fordern die verwendeten Kommunikationsprotokolle die Fragmentierung der zu u ¨bertragenden Informationen in einzelne Datenpakete. Um sicherzustellen, dass die Datenpakete korrekt u ¨bertragen werden, den designierten Empf¨ anger erreichen und dort wieder zur Originalinformation zusammengesetzt werden k¨ onnen, werden den Datenpaketen Steuer- und Kontrollinformationen in einem sogenannten Datenpaketheader vorangestellt.
158
3 Grundlagen der Kommunikation in Rechnernetzen
Paketvermittlung: Die vorherrschende Kommunikationsmethode in digitalen Netzen. Die Nachricht wird dabei in einzelne Datenpakete fester Gr¨ oße zerlegt, und die Pakete werden einzeln und unabh¨ angig voneinander vom Sender u ¨ber zwischengeschaltete Vermittlungsstellen zum Empf¨ anger gesendet. Man unterscheidet verbindungsorientierte und verbindungslose Paketvermittlungsnetze (Datagrammnetz). In verbindungsorientierten Paketvermittlungsnetzen wird vor dem Start der eigentlichen Daten¨ ubertragung eine virtuelle Verbindung im Netz aufgebaut. In verbindungslosen Paketvermittlungsnetzen wird kein fester Verbindungsweg vorgew¨ ahlt, die Datenpakete werden jeweils unabh¨ angig voneinander auf m¨ oglicherweise verschiedenen Wegen u ¨bertragen. Protokollstapel: Die verschiedenen Teilprobleme der Netzwerkkommunikation werden jeweils von speziell ausgerichteten Protokollen abgehandelt, die alle reibungslos miteinander zusammenarbeiten, um das Gesamtproblem der Netzwerkkommunikation zu l¨ osen. Um dieses Zusammenspiel zu gew¨ ahrleisten muss die Entwicklung der NetzwerkprotokollSoftware als eine umfassend zu l¨ osende Gesamtaufgabe betrachtet und zu ihrer L¨ osung jeweils eine zusammengeh¨ orige Familie von Protokollen (Protocol Suites) entwickelt werden, die die anfallenden Teilaufgaben l¨ osen und effizient miteinander interagieren. Das Gesamtproblem der Netzwerkkommunikation l¨ asst sich gut mit Hilfe eines Schichtenmodells repr¨ asentieren, wobei die einzelnen Protokolle der Protokollfamilie jeweils einer bestimmten Schicht zugeordnet sind. Man spricht daher von einem Protokollstapel. Die bekanntesten Protokollstapel sind die TCP/IP-Protokollsuite des Internets und das oft als Lehrbeispiel dienende ISO/OSI-Schichtenmodell. Pr¨ ufsummenverfahren: Zur Fehlererkennung kommen in Kommunikationsprotokollen oft Pr¨ ufsummen zum Einsatz. Der Sender einer Nachricht berechnet eine Pr¨ ufsumme u ¨ber die zu versendenden Nachricht und h¨ angt diese an die Nachricht an. Beim Empf¨ anger angekommen, wendet dieser auf die empfangene Nachricht (ohne angeh¨ angte Pr¨ ufsumme) dasselbe Verfahren zur Pr¨ ufsummenbildung an und vergleicht den errechneten Wert mit dem vom Sender angef¨ ugten Pr¨ ufwert. Stimmen beide Werte u ¨berein, so ist die Nachricht mit hoher Wahrscheinlichkeit korrekt u ¨bertragen worden. Allgemein werden bei einem Pr¨ ufsummenverfahren die u ¨bertragenen Bitfolgen als numerische Werte interpretiert, zu einzelnen Bl¨ ocken zusammengefasst und deren Summe berechnet. Als Bin¨ arzahl kodiert wird diese Pr¨ ufsumme einfach mit an die zu u ¨bertragenden Daten angeh¨ angt. Pr¨ ufsummenverfahren werden z.B. im IP-Protokoll verwendet. Das bekannteste Verfahren ist die sogenannte zyklische Redundanz¨ uberpr¨ ufung (Cyclic Redundancy Check, CRC, auch als Polynomialcode bezeichnet). Quality of Service (QoS, Dienstg¨ ute): Quantifiziert die Leistungen eines Dienstes, die von einem Kommunikationssystem angeboten werden. QoS werden u ute¨ber die Dienstg¨ attribute Leistung, Leistungsschwankung, Zuverl¨ assigkeit und Sicherheit beschrieben, die jeweils u uteparameter spezifiziert werden. ¨ber eigene, quantifizierbare Dienstg¨ Punkt-zu-Punkt Verbindung: Einfachste Architekturform eines Rechnernetzes. Jeder Rechner des Punkt-zu-Punkt Netzwerks wird dabei mit jedem anderen Rechner des Netzwerks direkt verbunden. Die einzelnen Verbindungen k¨ onnen exklusiv durch die jeweils beteiligten Kommunikationspartner genutzt werden und gestatten so einen hohen Grad an Kommunikationseffizienz. Allerdings ben¨ otigt die Punkt-zu-Punkt Vernetzung einen erheblichen Verbindungsaufwand (quadratisch zur Anzahl der beteiligten Rechner), so dass sie in der Praxis lediglich in sehr kleinen Netzen oder f¨ ur einzelne, dedizierte Weitverkehrsverbindungen zur Anwendung kommt. Rechnernetz: Ein Rechnernetz (Netzwerk, Computer Network) ist ein Kommunikationsverbund zwischen den an ein Daten¨ ubertragungsnetz angeschlossenen, autonomen Rechnersystemen, die jeweils u ¨ber eigenen Speicher, eigene Peripherie und eigene Rechenf¨ ahigkeit verf¨ ugen. Da alle Teilnehmer miteinander vernetzt sind, bietet das Rechnernetz jedem Teilnehmer die M¨ oglichkeit, mit jedem anderen der Netzteilnehmer in Verbindung zu treten.
3.5 Glossar
159
Redundanz: Als Redundanz wird der Teil einer Nachricht bezeichnet, der nicht zur eigentlichen Nachricht geh¨ ort. Der redundante Teil der Nachricht kann daf¨ ur genutzt werden, dass die Nachricht auch dann noch zu verstehen ist, wenn sie fehlerhaft u ¨bermittelt wurde. Routing: In einem WAN liegen entlang des Weges zwischen Sender und Empf¨ anger oft mehrere Zwischensysteme, die f¨ ur die Weitervermittlung der versendeten Daten an den jeweiligen Empf¨ anger zust¨ andig sind. Die Ermittlung des korrekten Weges vom Sender zum Empf¨ anger wird dabei als Routing bezeichnet. Die dedizierten Vermittlungsstellen (Router) empfangen dabei ein versendetes Datenpaket, werten dessen Adressinformation aus und leiten es an das auf dem Weg zum Empf¨ anger n¨ achste Zwischensystem weiter bzw. liefern es an den Empf¨ anger aus. Schichtenmodell: Komplexe Probleme lassen sich modellieren und l¨ osen, wenn es gelingt, sie in hierarchisch geschichtete Teilprobleme zu zerlegen, so dass das Abstraktionsniveau von Schicht zu Schicht zunimmt, d.h. eine h¨ oher im Schichtenmodell liegende Schicht ist abgeschirmt vor den Detailproblemen, die auf einer niedrigeren Schicht abgehandelt werden. Schichtenmodelle spielen in der Kommunikationstechnik, aber auch in anderen Gebieten der Informatik eine bedeutende Rolle. In abgewandelter Darstellung entsprechen diese auch dem Schalenmodell, das anstelle aus hierarchisch aufeinander aufbauenden Schichten aus einzelnen Schalen besteht. ¨ Schnittstelle: Gedachter oder tats¨ achlicher, technisch detailliert fixierter Ubergang an der Grenze zwischen zwei gleichartigen Einheiten (Hardware oder Software) bzw. zwischen einem System und seiner Umgebung (externe Schnittstelle) mit einem Satz exakt festgelegter Regeln und Verfahren. In Kommunikationssystemen sind Schnittstellen f¨ ur ¨ die Ubergabe von Daten oder Signalen (z.B. beschrieben in DIN 44300) zust¨ andig. Sicherheit: In der Netzwerktechnik werden unter dem Begriff Sicherheit verschiedene Sicherheitsziele (Dienstg¨ uteparameter) zusammengefasst, die den Grad der Unversehrtheit und Authentizit¨ at der u ¨bertragenen Daten beschreiben. Zu den wichtigsten Sicherheitszielen z¨ ahlen Vertraulichkeit (kein unberechtigter Dritter ist in der Lage, die Datenkommunikation zwischen Sender und Empf¨ anger zu verstehen), Integrit¨ at (Unversehrtheit der empfangenen Daten), Authentizit¨ at (Garantie der Identit¨ at der Kommunikationspartner), Verbindlichkeit (rechtsverbindlicher Nachweis einer erfolgten Kommunikation) und Verf¨ ugbarkeit (Garantie, dass ein Dienstangebot tats¨ achlich verf¨ ugbar ist). Topologie: Unter der Topologie eines Rechnernetzes versteht man die geometrische Anordnung der einzelnen Rechnerknoten innerhalb des Netzwerks. Verbreitete Topologien f¨ ur Rechnernetzwerke sind Bustopologie, Ringtopologie und Sterntopologie. ¨ ¨ Uberlast (Congestion): Ein Netzwerk kann mit seinen Betriebsmitteln (Ubertragungsmedien, Router und andere Zwischensysteme) eine bestimmte Last (Kommunikation, Daten¨ ubertragung) bew¨ altigen. N¨ ahert sich die im Netzwerk erzeugte Last zu 100% der ¨ vorhandenen Kapazit¨ at an, tritt eine Uberlast (Congestion) auf, auf die das Netzwerk in geeigneter Weise reagieren muss, um Datenverluste und den Zusammenbruch der Kommunikation zu vermeiden. Verz¨ ogerung (Delay): Messgr¨ oße, die die maximal zugesicherte Zeitdauer angibt, die zwischen dem Start einer Daten¨ ubertragung und deren Abschluss liegt. Die Verz¨ ogerung wird in Sekunden oder Sekundenbruchteilen gemessen und kann je nach Standort der miteinander kommunizierenden Rechner stark schwanken. Obwohl den Nutzer am Ende nur die Gesamtverz¨ ogerung interessiert, treten an unterschiedlichen Stellen des Kommunikationsprozesses verschiedenartige Verz¨ ogerungsursachen auf, wie z.B. Verarbeitungsverz¨ ogerung (Processing Delay), Warteschlangenverz¨ ogerung (Queueing Delay), ¨ Versendeverz¨ ogerung (Transmission Delay) und Ubertragungsverz¨ ogerung (Propagation Delay). Virtual Private Network (VPN): Softwaretechnisch realisierte Verkn¨ upfung von Rechnern in einem ¨ offentlichen Netzwerk zu einem virtuellem Netzwerk, das die Eigenschaften
160
3 Grundlagen der Kommunikation in Rechnernetzen
eines abgesicherten, privaten Netzwerks aufweist. Netzwerkverwaltung und Netzwerksicherheit liegen dabei ausschließlich in der Verantwortung des privaten“ Betreibers. ” Externe, nicht autorisierte Rechner verf¨ ugen u oglichkeit auf das VPN. ¨ber keine Zugriffsm¨ virtuelle Verbindung: Paketvermittelte Netzwerke k¨ onnen verbindungslose und verbindungsorientierte Dienste realisieren. Um einen verbindungsorientierten Dienst zu implementieren, wird eine virtuelle Verbindung zwischen den beiden Kommunikationspartnern aufgebaut, d.h. alle zu u ¨bertragenden Daten werden dann entlang dieser virtuellen Verbindung durch das Netzwerk transportiert. Der Nachrichtenaustausch zwischen Sender und Empf¨ anger wird u ¨ber sogenannte Bitstreams“ (auch Bytestreams) abgehandelt. ” Vor den Kommunikationspartnern wird so die Zerlegung der ausgetauschten Datenstr¨ ome in Datenpakete verborgen.
Kapitel 4
Multimediale Daten und ihre Kodierung
Die neue Welt“ ” – aus dem Wappenspruch von Christoph Kolumbus (1646–1506)
Die rasante Entwicklung der digitalen Kommunikationstechniken, sowohl in ihrer Vielfalt, als auch in ihrer Leistungsf¨ ahigkeit nimmt kein Ende. Dabei h¨ alt der Trend an, dass die klassischen Medien immer mehr zusammenwachsen: Sprachkommunikation und Daten¨ ubertragung sind bereits in modernen Mobilfunknetzen untrennbar miteinander verbunden. Mit dem Einzug der Digitaltechnik ist eine Unterscheidung der einzelnen Medien wie Text, Grafik, Audio oder Video auch nicht mehr notwendig. Kodiert und in digitaler Form haben sie alle die gleiche Gestalt riesenlanger Folgen von Nullen und Einsen und k¨ onnen unterschiedslos ¨ uber dasselbe Medium ¨ ubertragen werden. Um diesen Strom von 0en und 1en wieder in seine urspr¨ ungliche Medienauspr¨ agung zu ¨ uberf¨ uhren, sind Methoden und Verfahren notwendig zur Kodierung und Dekodierung. Diese Aufgabe wird von leistungsf¨ ahigen Computern ¨ ubernommen, die uns allerdings in Zukunft immer seltener in herk¨ ommlicher Gestalt mit Bildschirm und Tastatur entgegentreten werden, sondern als integrierter Systembestandteil in so ziemlich allen Ger¨ aten des t¨ aglichen Gebrauchs. Heute ist der Computer das Fenster in die digitale Welt und fungiert als integratives Kommunikationsmedium, das eine multimediale Datenkommunikation ¨ uber eine einheitliche Schnittstelle erm¨ oglicht, n¨ amlich das World Wide Web (WWW) mit seiner einfach und intuitiv zu bedienenden Benutzerschnittstelle, dem Browser. Im nachfolgenden Kapitel soll n¨ aher auf die die Kodierung multimedialer Daten und ¨ den zu ihrer Ubertragung in digitalen Netzen und im WWW entwickelten Datenformaten eingegangen werden, wobei im Detail auf die wichtigsten Medienformate f¨ ur Audio-, Bild- und Video-Daten eingegangen wird.
4.1 Medienvielfalt und Multimedia - eine Formatfrage Origin¨ar war der Computer nicht als Kommunikationsmedium konzipiert. Dazu w¨are auch die anf¨anglich auf Lochkarten angewiesene Eingabe und Ausgabe viel zu C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 4,
161
162
4 Multimediale Daten und ihre Kodierung
schwerf¨allig. Bevor der Computer soweit entwickelt wurde, dass herk¨ommliche Informationstr¨ager, wie Schrift oder Bilder als Ausgabe gedruckt oder auf einem Bildschirm angezeigt werden konnten, verging eine geraume Zeit. Schon sehr fr¨uh in der Entwicklungsgeschichte des Computers kamen Fernschreiber bzw. der Textdrucker als Ausgabemedien zum Einsatz, bevor sp¨ater Plotter oder grafikf¨ahige Bildschirme eingef¨uhrt wurden, die in der Lage waren, digital berechnete Bilder auszugeben. Die F¨ahigkeiten zur Darstellung von hochaufgel¨osten Grafiken in Echtfarben, von Bewegtbildern und Animationen mit Echtzeitvideoausgabe, sowie die Wiedergabe und Erzeugung von T¨onen bis hin zur k¨unstlichen Sprachsynthese kamen aber erst in den vergangenen 20 Jahren hinzu und machten den Computer, in Verbindung mit der Entwicklung der Rechnernetzwerke und des Internets zu dem universellen Kommunikationsmedium wie wir es heute kennen. Die stetig anwachsenden F¨ahigkeiten der Computer, verbunden mit einer andauernden Senkung der Herstellungskosten ließen aus dem Computer ein Konsumprodukt f¨ur den Massenmarkt werden, das es in fast jeden Haushalt geschafft hat und ohne das unser heutiges Leben einfach nicht mehr funktioniert. Bereits 1945 nahm Vannevar Bush, der damalige Direktor des Office of Scientific Research and Development in der US-Regierung, das im Zweiten Weltkrieg alle milit¨arischen Forschungsprogramme, darunter auch das Manhattan Projekt zur Entwicklung der Atombombe koordinierte, die Vorstellung des Computers als universellem Kommunikationsmedium vorweg in seiner Vision des an fr¨uherer Stelle bereits beschriebenen Memex-Systems [34]. Dieses Memex (Memory Extender) sollte nach der Vorstellung von Bush eine elektromechanische Vorrichtung zur Speicherung aller B¨ucher, pers¨onlicher Aufzeichnungen und Kommunikationsvorg¨ange bieten und einen schnellen, flexiblen und zielgerichteten Zugriff auf alle Daten und ihre Verkn¨upfungen miteinander erlauben. Dabei griff er auch das Problem der MenschComputer Interaktion auf und schlug eine f¨ur die damalige Zeit unerh¨ort innovative Benutzerschnittstelle vor, die bereits entfernt an moderne, digitale Desktop-Systeme erinnert. Heutige Hypermedia-Systeme greifen diese Vorstellung auf und erlauben den Zugriff auf eine Vielzahl von Medientypen und -formaten, wie etwa Text, Bild-, Audio- oder Videoinformation. Zusammengefasst werden all diese Medienformate unter dem Begriff Multimedia. Nat¨urlich m¨ussen alle Medientypen, sofern sie von einem Computer verarbeitet werden sollen, digital (bin¨ar) kodiert werden. Man unterscheidet die folgenden traditionellen Auspr¨agungen der mittels Computer darstellbaren Medientypen: • Text Zur Kodierung alphanumerischer Nachrichten, also mittels Ziffern und Buchstaben verschiedener Alphabete dargestellter Informationen existieren viele unterschiedliche Verfahren, angefangen von ASCII, dem 7-Bit Standard, der noch aus den Zeiten des Fernschreibers stammt, bis hin zum 32-Bit Unicode, mit dem es m¨oglich ist, ann¨ahernd alle Alphabete der Erde zu kodieren. Eng verbunden mit der Art des Codes ist der ben¨otigte Speicherplatzbedarf. So werden viele Codes ¨ redundant ausgelegt, um eine gewisse Sicherheit gegen¨uber Ubertragungsfehlern zu gew¨ahrleisten.
4.1 Medienvielfalt und Multimedia - eine Formatfrage
163
• Grafik Entsprechend der Komplexit¨at der darzustellenden bildlichen Information kommen verschiedene Verfahren zur Kodierung von Bildinformation zum Einsatz. Dabei reicht die Palette von Verfahren f¨ur einfache monochrome Bilder bis hin zu Darstellungen in sogenannten Echtfarben. – monochrom: Hier kommt nur eine Farbe zum Einsatz. Das darzustellende Bild gestaltet sich durch F¨arben bzw. Nichtf¨arben der einzelnen Bildpunkte mit dieser Farbe. Die verwendeten Kodierungsverfahren sind sehr einfach gehalten und fußen auf den Kodierverfahren f¨ur allgemeine Bin¨ardaten. – beschr¨ankte Farbpalette: Informationsgrafiken, Symbole und Piktogramme beinhalten oft nur einige wenige Farben. Um eine m¨oglichst speicherplatzeffiziente Darstellung dieser Information zu erm¨oglichen, wird die Kodierung mit einer vorgegebenen Farbpalette bzw. einer vorgegebenen Farbtiefe durchgef¨uhrt. Allerdings sind diese Verfahren nur bedingt zur Kodierung von Fotografien mit ihrer nahezu unbeschr¨ankten Anzahl an Farben geeignet. – Echtfarben: Fotografien, die die Realit¨at abbilden, weisen oft Millionen unterschiedlicher Farbwerte auf. Allerdings liegen diese Farbwerte meist nicht in willk¨urlicher, d.h. zuf¨alliger Anordnung vor, sondern treten in Form von sogenannten Farbverl¨aufen auf, die sich ebenfalls durch spezielle Verfahren speicherplatzeffizient kodieren lassen. Man unterscheidet hier zwischen verlustbehafteter und verlustfreier Kodierung. • Audio Bei der Wiedergabe von akustischer Information wie Sprache oder Musik spielt die zeitliche Dimension eine zentrale Rolle. Die kodierten Daten m¨ussen in Echtzeit wiedergegeben werden, da sonst der Nutzwert der Information, wie z.B. die Verst¨andlichkeit der Sprache verloren geht. Neben aufw¨andigen verlustfreien Kodierungen existieren verschiedene verlustbehaftete Verfahren, die auf sogenannten psychoakustischen Modellen basieren, die Frequenzen und Tonsignale, die vom menschlichen Geh¨or nicht wahrgenommen werden k¨onnen, ausfiltern und nicht mitspeichern. • Video und Animation Ebenso wie bei der Wiedergabe von akustischer Information spielt auch bei der Kodierung von Video- und Animationssequenzen die Eignung zur Wiedergabe in Echtzeit eine wichtige Rolle. Um eine Bildfolge speicherplatzeffizient zu kodieren, werden oft nur differentielle Bildfolgen abgespeichert, d.h. es werden nur die in aufeinanderfolgenden Bildern auftretenden Ver¨anderungen gespeichert, oder es werden Vorhersagen u¨ ber Folgebilder getroffen und lediglich die Differenz zwischen Vorhersagebild und tats¨achlichem Bild kodiert. Je besser die Vorhersage, desto geringer die Differenz und desto kleiner der ben¨otigte Speicherplatz. Alle diese unterschiedlichen Medien besitzen spezifische Eigenschaften, auf die in den Datenformaten, die zu ihrer Kodierung verwendet werden, besondere R¨ucksicht genommen werden muss. Prinzipiell sind zwei Varianten von multimedialen Daten zu unterscheiden [221]:
164
4 Multimediale Daten und ihre Kodierung
• zeitunabh¨angige Medien Text und Grafik sind Vertreter dieser Gruppe von Medien, die aus einer Folge einzelner Elemente bestehen, ohne dass dabei eine Zeitkomponente von Bedeutung w¨are. Sie werden oft auch als diskrete Medien bezeichnet. Ihre Darstellung und Verarbeitung sollte zwar so schnell wie m¨oglich geschehen, jedoch unterliegen sie keinen inhaltlichen Zeitconstraints. • zeitabh¨angige Medien Akustische Informationen oder Videobilder sind wesentlich gekennzeichnet durch ihre Ver¨anderung u¨ ber die Zeit hinweg. Die darzustellende Information ergibt sich nicht alleine durch den Gehalt der Einzelinformation, sondern erschließt sich vollst¨andig erst aus ihrem fristgerechten zeitlichen Ablauf. In diese Gruppe von Medien fallen auch taktile und sensorische Informationen, auf die hier nicht n¨aher eingegangen werden soll. Die Darstellung solcher Medien ist demzufolge zeitkritisch, ihre korrekte Wiedergabe h¨angt von Zeitbedingungen ab. Die Kodierung der unterschiedlichen Medien erfordert den Einsatz von spezifischen, auf das jeweilige Medium speziell zugeschnittenen Verfahren. Speicherplatzeffizienz und einfache Manipulierbarkeit sind dabei die Grundanforderungen an eine Kodierung. Entsprechend den unterschiedlichen Anforderungen und der jeweils gew¨unschten Qualit¨at der Ausgabe wurden f¨ur jedes Medium verschiedene Datenformate entwickelt. Sie sind jeweils unterschiedlich gut zur Darstellung und Manipulation des Medieninhalts geeignet. Bei ihrer Entwicklung stehen oft Speicherplatzeffizienz und einfache Handhabbarkeit der Manipulationsalgorithmen in Kon¨ kurrenz. Ubrigens gestaltet sich die Weiterverarbeitung der Information meist um so schwieriger, je kompakter ein Datenformat ist. Sollen Daten zudem auch noch zwischen Kommunikationssystemen u¨ bertragen ¨ werden, spielt die Ubertragungssicherheit in Zusammenhang mit der Fehlererkennung der u¨ bertragenen Daten eine weitere, wichtige Rolle. Der Datenaustausch zwischen Kommunikationssystemen erfolgt u¨ ber einen Kommunikationskanal, der u¨ blicherweise in verschiedenem Maße St¨orungen unterliegt, die ihrerseits Fehler in den u¨ bertragenen Daten verursachen k¨onnen (siehe auch Abb. 1.4). Diese Fehler k¨onnen durch geschickte Ausnutzung der Redundanz einer Kodierung erkannt und gegebenenfalls sogar korrigiert werden.
4.2 Information und Kodierung 4.2.1 Information und Entropie Bevor wir n¨aher auf die Kodierung und Komprimierung von Daten eingehen, m¨ussen wir uns kurz mit dem Begriff der Information auseinandersetzen. Was ist eigentlich Information? Umgangssprachlich versteht man unter dem Begriff Infor” mation“ soviel wie ein bestimmtes Wissen, dem in der jeweiligen aktuellen Situation Bedeutung und Geltung zukommt. Botschaften und Nachrichten in jeder m¨ogli-
4.2 Information und Kodierung
165
chen Auspr¨agung enthalten Information. Information wird in Form einer Nachricht kommuniziert. Wird sie vom Empf¨anger verstanden, wird sie zum Ausgangspunkt von Ver¨anderungen im empfangenden System. Schwieriger wird es, wenn man den Informationsbegriff wissenschaftlich fassen m¨ochte. Hier stellen sich Fragen, die mit der eben getroffenen umgangssprachlichen Definition nicht mehr befriedigend beantwortet werden k¨onnen. Wie kann Information quantifiziert, d.h. gemessen werden? Wieviel Information steckt in einer Nachricht? Enth¨alt eine Nachricht viel oder wenig Information? Kann die Nachricht verk¨urzt werden, ohne dass dabei Information verloren geht? Mit Fragen dieser Art besch¨aftigte sich der Informationstheoretiker Claude E. Shannon (1916–2001) im Rahmen der von ihm begr¨undeten mathematischen Informationstheorie (siehe auch Kap. 1.2. In der mathematischen Informationstheorie wird der Begriff der Information bezogen auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (Nachrichtenelemente, Ereignisse) aus einer zuvor festgelegten Menge von Elementen. Mit diesem Zugang gelang es Shannon, Information als berechenbares Maß f¨ur die Wahrscheinlichkeit des Eintretens zuk¨unftiger Ereignisse in einem technischen System zu definieren. In diesem Sinne bezeichnet bei Shannon Information die Menge an beseitigter Unsicherheit, die z.B. durch Auskunft, Aufkl¨arung oder Benachrichtigung erlangt wurde. Als Elemente oder Ereignisse werden die Zeichen betrachtet, die in Folge eines Auswahlvorgangs aus dem zuvor festgelegten Zeichenvorrat (Alphabet) erzeugt werden. Der Informationsgehalt eines Elements ist um so gr¨oßer, je gr¨oßer die Unsicherheit seines Eintretens ist, d.h. je seltener es eintritt [212, 214]. Pr¨aziser, eine Folge von Elementen eines Alphabets wird als Zeichenkette bezeichnet. Werden Zeichenketten im Zuge eines Kommunikationsvorganges von einem Sender zu einem Empf¨anger u¨ bermittelt, spricht man von einer u¨ bermittelten Nachricht. Kommunikation dient dem Austausch von Information. Information wird in Form von Zeichenketten als Nachricht kodiert. Die Zeichenketten einer Nachricht werden meist nach bestimmten, vorgegebenen Regeln (Syntax) aufgebaut. Durch die Verarbeitung der Nachricht beim Empf¨anger erh¨alt die Nachricht in Abh¨angigkeit von der aktuellen Situation (Kontext) eine bestimmte Bedeutung (Semantik) und bewirkt beim Empf¨anger eine Zustands¨anderung. Die wichtigsten Grundbegriffe aus der Informations- und Kodierungstheorie werden in Abb. 4.1 zusammengefasst. Die L¨ange der Nachricht, mit der Information kodiert und u¨ bertragen wird, h¨angt von der jeweils verwendeten Kodierungsvorschrift, d.h. vom gew¨ahlten Code ab. Je effizienter der Code, desto k¨urzer die Nachricht. Der Informationsgehalt einer Nachricht kann jetzt als die L¨ange einer k¨urzest m¨oglichen Kodierung gemessen werden (siehe Abb. 4.2).
166
4 Multimediale Daten und ihre Kodierung
Einige Grundbegriffe aus der Informations- und Kodierungstheorie Eine Nachricht kann als eine Folge von Zeichen aus einem Alphabet aufgefasst werden, die von einem Sender (Quelle) zu einem Empf¨ anger (Senke) u ¨bermittelt wird. Die Zeichenfolge einer Nachricht muss nicht endlich sein, aber abz¨ ahlbar, so dass die einzelnen Zeichen der Nachricht mit Hilfe einer Abbildungsvorschrift auf die nat¨ urlichen Zahlen durchnummeriert und eindeutig identifizieret werden k¨ onnen. (Zul¨ assige) Nachrichten sind nach bestimmten, vorgegebenen Regeln aufgebaut (Syn¨ tax). Durch ihre sich an die Ubertragung anschließende Verarbeitung erh¨ alt die Nachricht eine Bedeutung (Semantik). Ein Alphabet besteht aus einer abz¨ ahlbaren Menge von Zeichen und definiert den Zeichenvorrat aus dem eine Nachricht aufgebaut ist. Die Menge aller Nachrichten, die mit den Zeichen eines Alphabets gebildet werden k¨ onnen, bezeichnet man als Nachrichtenraum. Eine Kodierung ist eine Abbildung von Zeichenfolgen eines Nachrichtenraums in einen anderen. In der Informatik sind Kodierungen von Nachrichten als Folgen von Bits von besonderem Interesse, d.h. der Nachrichtenraum u ¨ber dem Alphabet {0, 1} (Bin¨ arkodierung). Ein Codewort ist eine Folge von Code-Elementen (Zeichen) des Ziel-Nachrichtenraums, der eine Nachricht des Ursprungs-Nachrichtenraums zugeordnet wurde. Als Redundanz wird der Teil einer Nachricht bezeichnet, der keine Information innerhalb des Kommunikationsprozesses vermittelt. Der redundante Teil der Nachricht sorgt daf¨ ur, dass die Nachricht auch dann noch verstanden werden kann, wenn sie fehlerhaft u ¨bermittelt wurde. Weiterf¨ uhrende Literatur: Dankmeier, M.: Grundkurs Codierung, 3. Aufl., Vieweg, Wiesbaden (2006)
Abb. 4.1 Grundbegriffe aus der Informations- und Kodierungstheorie
4.2.2 Redundanz – Mehrwert oder Verschwendung? Aus dem im vorangegangenen Kapitel definierten Informationsgehalt einer Nachricht l¨asst sich eine untere Schranke f¨ur die L¨ange jeder Kodierung dieser Nachricht ableiten. Nicht alle Kodierungen sind in gleicherweise effizient, sie kodieren die gleiche Information in Nachrichten von unterschiedlicher L¨ange. Daher enthalten Kodierungen, deren Nachrichtenl¨ange die von Shannon beschriebene theoretische Untergrenze u¨ berschreiten, Anteile, die selbst nichts zum Informationsgehalt der kodierten Nachricht beitragen. Diese Anteile einer Nachricht, die selbst keine zur Nachricht beitragende Information enthalten, werden als Redundanz bezeichnet. Redundante Nachrichtenanteile zeichnen sich dadurch aus, dass sie aus der Nachricht entfernt werden k¨onnen, ohne dass sich dabei der Informationsgehalt der Nachricht verringert. Dieses Entfernen der redundanten Anteile aus einer Nachricht wird auch als Komprimierung der Nachricht bezeichnet. Betrachtet man unsere deutsche Sprache, so l¨asst sich sofort ein großer Anteil an Redundanz identifizieren. Entfernt man etwa aus einem Wort einige Buchstaben, wie z.B. We hnacht man “(die fehlenden Buchstaben wurden durch “ ersetzt ” ” ¨ und h¨atten z.B. bei der Ubertragung verloren gegangen sein k¨onnen), l¨asst sich das
4.2 Information und Kodierung
167
Informationsgehalt und Entropie Die Bestimmung des Informationsgehalts einer Nachricht geht auf Ralph Hartley (1888– 1970) zur¨ uck und wurde von Claude E. Shannon erweitert und in der von ihm begr¨ undeten Informationstheorie konsequent angewandt. Information – so Shannon – ist nichts weiter als beseitigte Unbestimmtheit. Gelingt es, das Maß dieser Unbestimmtheit als ¨ aquivalenten Ausdruck des Informationsgehalts zu ermitteln, gewinnt man einen Ansatz zur quantitativen Beschreibung von Information. Betrachten wir eine Menge X = {x1 , x2 , . . . , xn } von Ereignissen, wobei das Ereignis xi mit der Wahrscheinlichkeit 0≤p(xi )≤1 f¨ ur i=1, 2. . .,n eintritt. Dieses Ereignis kann etwa die Auswahl eines bestimmten Zeichens aus einem vorgegebenen Alphabet sein, also z.B. die Auswahl eines Buchstaben aus dem lateinischen Alphabet. Der Kehrwert 1/p(xi ) stellt dann ein Maß f¨ ur die Unbestimmtheit des Eintretens des Ereignisses xi dar. Je gr¨ oßer die Wahrscheinlichkeit des Auftretens eines Zeichens, also je gr¨ oßer p(xi ), desto kleiner die Unbestimmtheit seines Eintretens. Tritt ein Ereignis xi mit Sicherheit ein, d.h. ist p(xi )=1, dann besteht keine Unsicherheit mehr, ob das Ereignis eintritt oder nicht, d.h. die Unbestimmtheit des Ereignisses bzw. dessen Informationsgehalt ist Null. Um diese Bedingung zu erm¨ oglichen, muss man noch den Logarithmus (zur Basis 2) u ¨ber den Kehrwert 1/p(xi ) bilden. Der Informationsgehalt Hi des Ereignisses xi , das mit einer Wahrscheinlichkeit von 0 ≤ p(xi ) ≤ 1 auftritt, betr¨ agt somit 1 Hi = log2 = − log2 p(xi ). p(xi ) Der Ausdruck Hi gilt dabei sowohl als Maß der Unbestimmtheit, die vor dem Auftreten von xi vorhanden war, als auch als Maß f¨ ur die Information, die nach dem Auftreten von xi gewonnen wurde. Der Informationsgehalt einer Nachricht ergibt sich so aus dem Informationsgehalt jedes in der Nachricht auftretenden Zeichens multipliziert mit dessen H¨ aufigkeit. Sei N eine Nachricht, die aus Zeichenketten eines vorgegebenen Alphabets X = {x1 , x2 , . . . , xn } besteht und deren relative H¨ aufigkeit innerhalb der Nachricht N jeweils 0≤p(xi )≤1 betr¨ agt. Bezeichnet |N| die L¨ ange der Nachricht N, dann ergibt sich der Informationsgehalt der Nachricht N als n
H(N) = |N| · ∑ pi · (− log2 (pi )). i=1
Maßeinheit f¨ ur den Informationsgehalt einer Nachricht ist bit, das als Binary Digit eine Bin¨ arziffer bezeichnet und im Shannon’schen Sinn als Basic Indissoluble Information Unit die kleinstm¨ ogliche Informationseinheit ist. Der mittlere Informationsgehalt einer Nachricht wird in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik auch als Entropie bezeichnet. Weiterf¨ uhrende Literatur: Hartley, R. V.: Transmission of Information, Bell Syst. Tech. Journal, vol. 7, pp. 535–563 (1928) Shannon, C. E.: A Mathematical Theory of Communication, The Bell System Technical Journal vol. 27, pp. 379–423, 623–656 (1948)
Abb. 4.2 Informationsgehalt und Entropie
168
4 Multimediale Daten und ihre Kodierung
Wort Weihnachtsmann“ trotzdem problemlos erkennen. Entfernt man allerdings ” noch weitere Buchstaben (ohne dabei die Eindeutigkeit des Wortes oder die Shannon’sche Untergrenze zu verletzen), leidet darunter deutlich die Lesbarkeit des Wortes, wie z.B. bei W h ntsm n . Die Redundanz in unserer Sprache hat demnach ” ¨ einen Sinn. Sie dient dazu, auch bei unvollst¨andiger Ubermittlung einer Nachricht ¨ oder beim Auftreten von Ubertragungsfehlern in einer Nachricht, trotz fehlerhafter ¨ Ubermittlung die urspr¨ungliche Nachricht rekonstruieren und verstehen zu k¨onnen. Diese Eigenschaft der Redundanz findet sich nicht nur in unserer sprachlichen Kommunikation, sondern wird auch in der digitalen Datenkommunikation angewandt, ¨ um Ubertragungsfehler mit Hilfe fehlererkennender Kodierungen zu erkennen und mit Hilfe von fehlerkorrigierenden Kodierungen r¨uckg¨angig zu machen. Eine weitere wichtige Eigenschaft der Redundanz wurde bereits bei dem o.a. Beispiel deutlich: redundante Nachrichten lassen sich (f¨ur uns Menschen) leichter (effizienter) lesen und verstehen. Redundanz erm¨oglicht also neben Fehlertoleranz auch eine Vereinfachung der Nachrichtenverarbeitung. Allerdings muss f¨ur diese Vortei¨ le eine gr¨oßere Datenmenge bei der Ubertragung oder Speicherung einer Nachricht mit redundanten Anteilen in Kauf genommen werden. Ob und in welcher Art eine redundante Kodierung der Nachricht erfolgen soll, entscheidet der jeweilige Anwendungsfall. So ist im Falle einer Daten¨ubertragung u¨ ber ein unsicheres und feh¨ lerhaftes Ubertragungsmedium eine fehlertolerante Kodierung von Vorteil, w¨ahrend bei der optimalen Ausnutzung von vorhandenem Speicherplatz oder vorhandener ¨ Ubertragungskapazit¨ at auf m¨ogliche Redundanz verzichtet wird, um die Nachricht so speicherplatzeffizient wie m¨oglich zu kodieren. Dank Shannons Definition des Informationsgehalts einer Nachricht ergibt sich auch eine Untergrenze daf¨ur, inwieweit sich eine Nachricht ohne Informationsverlust komprimieren l¨asst. Eine weitere Komprimierung ist dann nur m¨oglich, wenn bewusst auf informationstragende Anteile einer Nachricht verzichtet wird. Im Gegensatz zur verlustfreien Komprimierung bezeichnet man Komprimierungsverfahren, bei denen Informationen verloren gehen, als verlustbehaftete Komprimierungsverfahren. Verlustbehaftete Komprimierungsverfahren kommen z.B. bei der Komprimierung von Audio-, Bild-, oder Videodaten zum Einsatz, da hier die Schw¨achen des menschlichen Wahrnehmungssystems ausgenutzt werden k¨onnen und auf solche Informationsanteile verzichtet werden kann, die vom Menschen ohnehin nicht oder nur schlecht wahrgenommen werden k¨onnen.
4.3 Text - Datenformate und Komprimierung 4.3.1 Textkodierung ¨ Zur Ubertragung von textuellen Nachrichten wurden schon fr¨uh Kodierungsverfahren entwickelt. Je nach Verwendungszweck kann die dabei benutzte Kodierung unterschiedlich viel Speicherplatz ben¨otigen. Dient eine Kodierung lediglich der Kon-
4.3 Text - Datenformate und Komprimierung
169
servierung einer Nachricht, dann kann diese so platzsparend wie m¨oglich aufge¨ zeichnet werden. Stehen aber Kriterien, wie z.B. die sichere Ubertragung oder die Verschl¨usselung zum Zwecke der Geheimhaltung im Vordergrund, so beinhaltet die verwendete Kodierung oft redundante Information, die im eigentlichen Sinne nichts zum Informationsgehalt der Nachricht beitr¨agt. ¨ Die gebr¨auchlichste Form der Darstellung einer Nachricht zum Zweck der Ubertragung - sei es eine direkte Kommunikation oder eine Archivierung, bei der der Empf¨anger die Botschaft zeitversetzt entgegen nimmt - ist eine Aufzeichnung der Nachricht mit Hilfe der Schrift. Dazu wird in unserem westlichen Kulturkreis ein Buchstabieralphabet verwendet, mit dem Buchstabenfolgen gebildet werden, die bereits selbst eine gewisse Redundanz beinhalten. Liest man z.B. die Buchstabenfolge ezember“, kann der deutschsprachige Empf¨anger darauf vertrauen, dass damit das ” Wort Dezember“ gemeint ist. ” Um Nachrichten, die mit Hilfe einer Buchstabenschrift abgefasst sind, mit den Mitteln der modernen Kommunikation u¨ bertragen zu k¨onnen, m¨ussen diese in einer f¨ur das zum Einsatz kommende Kommunikationsmedium geeigneten Weise kodiert werden. So wurde z.B. eine Kodierung der einzelnen Buchstaben durch die Positionen der Signalarme eines Fl¨ugeltelegraphens (Semaphor) ersonnen bzw. das Morse-Alphabet f¨ur die einfache elektrische bzw. drahtlose Kommunikation entwickelt. Die zeichenweise Kodierung eines Alphabets nennt man Chiffrierung. In der Regel muss diese Kodierung umkehrbar sein, wobei die umgekehrte Kodierung als Dekodierung bzw. Dechiffrierung bezeichnet wird. Beispiele f¨ur eine einfache Chiffrierung sind das internationale Buchstabieralphabet (Tabelle 4.1) oder die Brailleschrift (Abb. 4.3) f¨ur Blinde. Tabelle 4.1 Das internationale Buchstabieralphabet Alpha Foxtrott Kilo Papa Uniform Zulu
Bravo Golf Lima Quebec Victor
Charlie Hotel Mika Romeo Whiskey
Delta India November Sierra X-Ray
Echo Juliette Oscar Tango Yankee
Die Brailleschrift, benannt nach ihrem Erfinder Louis Braille (1809–1852) ist zugleich ein Beispiel f¨ur eine Kodierung u¨ ber dem bin¨aren Zeichenvorrat {0, 1}: Jedes Zeichen wird durch eine 3 × 2 Matrix bin¨arer Zeichen wiedergegeben. Auch der Morse-Code verwendet eine bin¨are Darstellung der einzelnen Buchstaben, wobei hier die L¨ange eines Codes f¨ur ein Zeichen von der mittleren H¨aufigkeit dessen Vorkommens abh¨angt (siehe Abb. 4.4). Die ersten Fernschreiber zu Beginn des 20. Jahrhunderts nutzten noch den Morse¨ Code zur Ubertragung von Buchstaben. Die Dekodierung erwies sich allerdings als wesentlich einfacher, wenn jeder Buchstabe mit einem bin¨aren Codewort konstanter L¨ange kodiert wurde. Codes, deren Codew¨orter eine konstante L¨ange aufweisen, heißen Blockcodes. Zwar werden in einem Blockcode h¨aufiger verwendete Zeichen
170
4 Multimediale Daten und ihre Kodierung
Louis Braille und die Blindenschrift Louis Braille (1809–1852) verlor bereits ihm fr¨ uhen Kindesalter durch einen Unfall sein Augenlicht. Da er sich nicht damit abfinden wollte, nur durch Vorlesen Zugang zu Literatur zu erlangen, bem¨ uhte er sich bereits fr¨ uh um die Entwicklung einer Schriftform, die auch BlinA B C D E den das Lesen und Schreiben erm¨ oglichen sollte. 1821 ver¨ offentlichte er seine einfach zu erlernende Blindenschrift, die er aus einer sehr komplexen, f¨ ur das Milit¨ ar entworfenen Nachtschrift“ des Artilleriehauptmanns Charles ” Barbier (1767–1841) weiterentwickelte. In Napoleons Auftrag hatte Barbier eine spezielle Nachtschrift entworfen, die es Soldaten erm¨ oglichen sollte, ohne Ger¨ ausch und ohne Licht miteinander zu kommunizieren. Allerdings erwies sich die Nachtschrift f¨ ur die milit¨ arische Nutzung als ungeeignet, da sie ein zu kompliziertes System von Punkten und Silben verwendete. Braille vereinfachte diese Schrift, indem er die Silben durch Buchstaben ersetzte und die Anzahl der Punkte pro Zeichen von zw¨ olf auf sechs reduzierte. Ein Buchstabe konnte so einfach mit der Fingerspitze ertastet werden, ohne dass der Finger dabei bewegt werden musste, was ein z¨ ugiges Lesen erm¨ oglichte. Jeder Buchstabe des von Braille entwickelten Schriftsystems besteht aus sechs Punkten, die in einer 3x2-Matrix angeordnet sind. Die Kodierung von Buchstaben erfolgt, indem bestimmte Punkte in der Matrix erh¨ oht sind und so mit den Fingern ertastet werden k¨ onnen.
Abb. 4.3 Louis Braille und die Blindenschrift
ebenso wie seltener verwendete mit einem Codewort gleicher L¨ange kodiert und dadurch eine gewisse Redundanz in Kauf genommen, allerdings wurde dieser Nachteil durch die einfachere mechanische Bewerkstelligung der Dekodierung wieder wett gemacht. So wurde der Morse-Code schon bald durch den 1880 von Emile Baudot (1845–1903) entwickelten Baudot-Code abgel¨ost, der mit seinen 5 Bit pro Zeichen zwei verschiedene Zeichens¨atze mit zusammen u¨ ber 60 verschiedenen Zeichen kodieren kann und als International Telegraph Code No.1 (ITC-1, IA-1, CCITT-1) bekannt wurde. Zus¨atzlich zu den 26 Zeichen des Alphabets und den 10 Ziffern enth¨alt der Baudot-Code noch Steuerzeichen, die der Formatierung des Schriftsatzes bzw. der Steuerung des Fernschreibers dienen [15]. Eigentlich lassen sich mit 5 Bit nur 25 = 32 Zeichen darstellen, was nicht einmal ausreichen w¨urde, um das Alphabet und die zehn Ziffern zu kodieren. Abhilfe wurde geschaffen durch eine teilweise Doppelbelegung der Codeworte. Um dennoch eine eindeutige Belegung zu gew¨ahrleisten, kann vermittels spezieller Steuerzeichen zwischen Buchstabenund Ziffernmodus umgeschalten werden. Um 1900 wurde ein weiterer 5-Bit Code f¨ur Fernschreiber eingef¨uhrt, der sogenannte Murray-Code, der als International Telegraph Code No.2 (ITC-2, IA-2, CCITT-2) bekannt wurde und oft f¨alschlicherweise auch als Baudot-Code bezeichnet wird. Große Bedeutung erlangte der 7-Bit Fernschreibercode, der 1963 von der ANSI (American National Standards Institute) als ASCII-Code (American Standard Code for Information Interchange) standardisiert wurde und noch heute als Standardrepr¨asentationsform f¨ur Textinformation in Computern benutzt wird. In der Fr¨uhphase der Entwicklung erster kommerzieller Computersysteme bis Ende der
4.3 Text - Datenformate und Komprimierung
171
Morse-Code und Entropiekodierung Samuel F. B. Morse und Alfred Vail starteten 1836 mit der Entwicklung ihres schreiben” den“, elektrischen Telegraphen. Dieser Fernschreiber nutzte das von Hans Christian Oerstedt 1821 entdeckte Prinzip des Elektromagnetismus, indem Nachrichten u ¨ber wechselnde Str¨ ome kodiert werden, die auf Empf¨ angerseite einen Elektromagneten steuern. Allerdings erm¨ oglichte die damals verf¨ ugbare Technologie kein Drucken des empfangenen Textes, so dass die beiden Erfinder eine alternative Methode der Textkodierung fanden. Mit Hilfe des Elektromagneten des Morsetelegraphen konnten in Papierstreifen, die von einem mechanischen Uhrwerk unter dem Elektromagneten stetig fortbewegt wurden, Eindr¨ ucke erzeugt werden. Morse und Vail verwendeten eine Form der Bin¨ arkodierung, d.h. alle Textzeichen wurden aus Folgen von zwei Grundzeichen kodiert. Die beiden verwendeten Grundzeichen wurden als Punkt“ und Strich“, d.h. als k¨ urzere und l¨ angere Eindr¨ ucke im fortlaufenden ” ” Papierstreifen realisiert. Um eine m¨ oglichst effiziente Kodierung der versendeten Textnachrichten zu erreichen, nutzten Morse und Vail die Beobachtung, dass in der (englischen) Sprache bestimmte Buchstaben h¨ aufiger verwendet werden als andere. Die naheliegende Schlussfolgerung bestand darin, f¨ ur h¨ aufig verwendete Zeichen eine k¨ urzere Kodierung zu w¨ ahlen als f¨ ur seltener verwendete Buchstaben, z.B. wird das E“ als der im Englischen am h¨ aufigsten verwendete Buchstabe ” mit nur einem Grundzeichen, einem Punkt“ kodiert, w¨ ahrend ein seltener verwendeter ” Buchstabe, wie z.B. das Q“, mit der vier Grundzeichen umfassenden Folge Strich Strich ” ” Punkt Strich“ kodiert wird. Zahlen werden mit einer f¨ unf-stelligen und Interpunktion mit einer sechs-stelligen Kodierung abgebildet, Zeichen- und Wortgrenzen werden durch Pausen markiert.
A
B
D
E
F
.- -… -.-. -..
.
..-. --. …. .. .--- -.- .-.. --
N
R
S
T
U
-. --- .--. --.- .-. …
-
..- …- .-- -..- -.-- --..
O
C P
Q
G H
I
J
K
V W X
L Y
M Z
Die gew¨ ahlte Kodierung spiegelt die relative H¨ aufigkeit der Buchstaben wider, wird also korrespondierend zur Entropie der kodierten Zeichen gew¨ ahlt. Daher wird diese Variante der Kodierung auch als Entropiekodierung oder statistische Kodierung bezeichnet.
Abb. 4.4 Morse-Code und Entropiekodierung
50er Jahre gab es n¨amlich noch keine standardisierte Zeichenkodierung f¨ur Computer. Allein die von IBM um 1960 vertriebenen Rechner benutzten neun verschiedene Buchstabenkodierungen. Als jedoch die Idee der Vernetzung von Computern zunehmend Wirklichkeit wurde, nahm die Nachfrage nach einer einheitlichen Buchstabenkodierung immens zu. 1961 schlug deshalb Robert Bemer (1920–2004), ein Mitarbeiter von IBM der ANSI die ASCII-Kodierung als Standardcode vor, die ihn dann 1963 als Standard verabschiedete. 1974 wurde auch der 7-Bit ASCII-Code zum internationalen ISO I-646 Standard. Allerdings dauerte es weitere 18 Jahre, bis ASCII schließlich als allgemeiner Standard anerkannt wurde. Dies lag an der 1964 von IBM vorgestellten neuen Rechner-
172
4 Multimediale Daten und ihre Kodierung
Abb. 4.5 Auszug aus dem 7-Bit ASCII Code bin¨ ar 000 001 010 0000 0001 ! 0010 “ 0011 # 0100 $ 0101 % 0110 & 0111 1000 ( 1001 ) 1010 * 1011 + 1100 , 1101 1110 . 1111 /
011 0 1 2 3 4 5 6 7 8 9 : ; < = > ?
100 @ A B C D E F G H I J K L M N O
101 P Q R S T U V W X Y Z [ \ ]
110 ’ a b c d e f g h i j k l m n o
111 p q r s t u v w x y z { | } ˜
architektur System/360, die noch unabh¨angig und losgel¨ost vom Standardisierungsprozess von ASCII eine eigene Kodierung, genannt EBCDIC (Extended Binary Coded Decimals Interchange Code) verwendete. Aus Kompatibilit¨atsgr¨unden verwendeten dann auch Folgegenerationen des IBM System/360 die EBCDICKodierung weiter. Bei EBCDIC handelt es sich um eine 8-Bit Kodierung, eine Erweiterung der zuvor bei IBM verwendeten 6-Bit BCD-Kodierung. Aufeinanderfolgende Zeichen im Alphabet werden dabei nicht notwendigerweise mit aufeinanderfolgenden Codes versehen, da die Art der Kodierung noch von Holleriths Lochkarten inspiriert war. Von EBCDIC existieren verschiedene Varianten, die untereinander inkompatibel sind. Die amerikanische Variante benutzt weitgehend die gleichen Zeichen wie der ASCII-Code. Einige spezielle Zeichen sind aber in dem jeweils anderen Code nicht enthalten. IBM entwarf insgesamt 57 verschiedene nationale EBCDIC Codes, die jeweils l¨andertypische Sonderzeichen und Buchstaben enthielten. Erst 1981 stieg IBM dann im Rahmen der Entwicklung ihres ersten Personal Computers auf den ASCII-Code um. Auch die 7 Bits der urspr¨unglichen ASCII-Kodierung reichen nicht aus, um alle internationalen Zeichens¨atze mit den zugeh¨origen Sonderzeichen darzustellen. Durch Hinzuf¨ugen eines achten Bits f¨uhrten einige Hersteller eigene propriet¨are Kodierungen ein, die die Darstellung diverser Sonderzeichen gestatteten. Ein einheitlicher Standard f¨ur verschiedene internationale Zeichens¨atze auf Basis einer 8-Bit ASCII Kodierung konnte jedoch erst mit der ISO/IEC 8859-Kodierung erreicht werden. Im ISO/IEC 8859-x Standard werden die ersten 7 Bits mit den urspr¨unglichen Kodierungen des 7-Bit ASCII belegt, um eine Kompatibilit¨at zur Vorg¨angerkodierung ¨ zu gew¨ahrleisten. Uber das 8. Bit werden dann unterschiedliche nationale Erweiterungen des ASCII-Codes implementiert. Insgesamt existieren 15 verschiedene nationale Standards f¨ur den 8-Bit ASCII-Code, ISO/IEC 8859-1 bis ISO/IEC 8859-16,
4.3 Text - Datenformate und Komprimierung
173
wobei ISO/IEC 8859-12 f¨ur die Zeichen der indischen Devanagari-Schrift 1997 fallen gelassen wurden. ISO/IEC 8859-1 (Latin-1) umfasst nationale Sonderzeichen f¨ur die Regionen Westeuropa, Amerika, Australien und Afrika, ISO/IEC 8859-2 (Latin-2) erg¨anzt die Basiszeichen des 7-Bit ASCII-Codes mit weiteren, mitteleurop¨aischen Sonderzeichen. ISO/IEC 8859-5 enth¨alt kyrillische, ISO/IEC 8859-6 arabische und ISO/IEC 8859-8 hebr¨aische Sonderzeichen. Da das Hebr¨aische ebenso wie das Arabische im Gegensatz zu europ¨aischen Schriftsystemen u¨ ber eine entgegengesetzte Textlaufrichtung verf¨ugt, wurden zwei Sonderzeichen mit Nullbreite an den Positionen 253 bzw. 254 aufgenommen, die die Textrichtung auf LinksRechts- bzw. auf Rechts-Links-Laufrichtung wechseln. F¨ur asiatische Zeichens¨atze, wie z.B. f¨ur die chinesische Sprache mit ihren mehr als 10.000 ideographischen Zeichen, f¨ur koreanische oder indische Schriftzeichen reicht eine 8-Bit Kodierung alleine nicht aus, um alle Zeichen darzustellen. Zudem ist die Auffassung von einem Zeichen oder Buchstaben als atomare“ Einheit zur ” Kodierung eines Textes nicht in allen Sprachen und Schriftsystemen gleich. Einzelzeichen k¨onnen in anderen Sprachen auch aus einer Folge weiterer Einzelzeichen bestehen, die jeweils f¨ur sich als auch im Verbund eine eigene Bedeutung haben und bei einer Zusammenf¨uhrung auch noch ihre a¨ ußere Gestalt ver¨andern k¨onnen. Das koreanische Hangul-Schriftsystem kombiniert Symbole, die im Koreanischen jeweils f¨ur eine individuelle Lautung stehen, in quadratischen Bl¨ocken, die jeweils eine einzelne Silbe repr¨asentieren. In Abh¨angigkeit vom Benutzer sowie von der intendierten Anwendung k¨onnen sowohl Einzelsymbole als auch Silbenbl¨ocke als Zeichen“ aufgefasst werden. In indischen Schriftsystemen birgt jedes ” Zeichen, das f¨ur einen Konsonanten steht, einen inh¨arenten Vokal, der in unterschiedlicher Weise eliminiert oder ersetzt wird, wenn Einzelzeichen zu Bl¨ocken zusammengesetzt werden. Auch hier k¨onnen abh¨angig von Benutzer oder Anwendung Einzelkonsonanten und Vokale oder ganze Konsonanten-Vokalbl¨ocke als Zeichen“ ” angesehen werden. Es bestand also die Notwendigkeit, ein Kodierungssystems zu entwickeln, das die Anforderungen unterschiedlicher internationaler Schriftsysteme in angemessener Weise erf¨ullen kann. Eine solche einheitliche Kodierung f¨ur nahezu alle existierenden Alphabete soll Unicode gew¨ahrleisten. Die Unicode Kodierung wurde 1991 eingef¨uhrt und in der Norm ISO/IEC 10646 als Universal Character Set (UCS) zum internationalen Standard erhoben. Das gemeinn¨utzige Unicode Consortium wurde 1991 gegr¨undet und zeichnet f¨ur den Industriestandard Unicode verantwortlich. Unicode verwendete urspr¨unglich 16 Bits zur Kodierung multilingualer Zeichen, wurde sp¨ater auf 21 Bit erweitert1 und umfasst auch Codes f¨ur indische, chinesische, japanische und koreanische Zeichen, da letztendlich ein gigantischer Zeichenvorrat von 221 Zeichen zur Verf¨ugung steht. Damit sollte sichergestellt werden, dass die Unicode-Kodierung tats¨achlich die gew¨unschten Anforderungen von Universalit¨at (d.h. f¨ur jedes existierende Schriftsystem sollte eine Kodierungsm¨oglichkeit bestehen) und Erweiterbarkeit erf¨ullt. Unicode umfasst neben einer Vielzahl nationaler Landesalphabete auch zus¨atzliche typographische Symbole und nationale Sonderzeichen. 1
In der UTF-32 Transformation werden 21 Bit Unicode Zeichen mit vollen 32 Bit kodiert.
174
4 Multimediale Daten und ihre Kodierung
Exkurs 5: Der Unicode Standard Der Unicode-Standard ordnet jedem enthaltenen Zeichen eine Zahl (Codepoint) und einen Namen anstelle der sonst u asentiert jedes einzelne Zeichen ¨blichen Glyphen2 zu, und repr¨ auf abstrakte Weise, w¨ ahrend die visuelle Darstellung des Zeichens der textdarstellenden Software, wie z.B. dem Web-Browser u ¨berlassen bleibt. Dies ist sinnvoll, da die graphische Darstellung des Zeichens je nach gew¨ ahlter Schrifttype stark variieren kann. Zeichen k¨ onnen dabei aber mehreren verschiedenen Codepoints zugeordnet werden, da dieselben Zeichen oft verschiedenen Schriftsystemen angeh¨ oren. Abstraktes Zeichen
Unicode Codepoint
Å
U+00C516 U+212B16
A
Å
U+004116
U+030A16
Ein Codepoint definiert im Unicode ein ganz bestimmtes Zeichen. Allerdings kann ein Zeichen in verschiedenen Schriftsystemen Verwendung finden. Da Struktur und Organisation des Unicodes einzelne Schriftsysteme jeweils innerhalb zusammenh¨ angender Codeblocks anordnen, existieren Zeichen, denen mehrere Codepoints zugeordnet sind. Ebenso kann ein Zeichen aus einer Folge von mehreren Grundzeichen, die auch als Einzelzeichen existieren, zusammengesetzt sein. Organisation der Unicode Kodierung Bei der Unicode Kodierung wurden die ersten 256 Zeichen des Unicodes mit den Zeichen des ISO/IEC 8859-1 Codes belegt, um eine Kompatibilit¨ at zwischen alter 8-Bit ASCIIKodierung und Unicode zu gew¨ ahrleisten. Unicode-Zeichen werden u ¨blicherweise in der Form U+xxxxxxxx dargestellt, wobei xxxxxxxx f¨ ur einen Codepoint in hexadezimaler Darstellung steht. F¨ uhrende Nullen k¨ onnen weggelassen werden. Der in Unicode zur Verf¨ ugung stehende Coderaum wird in einzelnen Ebenen (Planes) eingeteilt, die jeweils 216 =65.536 Codepoints umfassen. Von diesen Ebenen sind derzeit 17 zur Nutzung vorgesehen (dadurch wird der vermittels Unicode kodierbare Zeichenraum auf 17·216 =1.114.112 Zeichen beschr¨ ankt) und lediglich die Ebenen 0–1 und 14–16 in Gebrauch.
2
In der Typographie bezeichnet das Zeichen (engl. character) die abstrakte Idee eines Buchstabens, die Glyphe dagegen deren konkrete grafische Darstellung.
4.3 Text - Datenformate und Komprimierung
175
Plane Titel
von
bis U+FFFF16
0
Basic Multilingual Plane (BMP)
U+000016
1
Supplementary Multilingual Plane (SMP)
U+1000016 U+1FFFF16 U+2000016 U+2FFFF16
2
Supplementary Ideographic Plane (SIP)
14
Supplementary Special-purpose Plane (SSP) U+E000016 U+EFFFF16
15
Supplementary Private Use Area-A
U+F000016 U+FFFFF16
16
Supplementary Private Use Area-B
U+10000016 U+10FFFF16
Die erste Ebene – Ebene 0 mit den Codepoints 0–65.535 – wird als Basic Multilingual Plane (BMP) bezeichnet und umfasst ann¨ ahernd alle lebenden Sprachen. 00
01
02
10
11
12
03
04
05
06
07
08
20
21
22
23
24
30
31
32
33
34
35
36
40
41
42
43
44
45
50
51
52
53
54
55
60
61
62
63
64
65
70
71
72
73
74
75
76
77
78
80
81
82
83
84
85
86
78
90
91
92
93
94
95
96
97
A0
A1
A2
A3
A4
A5
A6
B4
B5
B6
09
0A
0B
0C
0D
Bereich mit16allgemeinen Schriften 13 14 15 17 18 19 1A 1B 1C 1D 25 26 27 Symbole
B0
B1
B2
B3
C1
C2
C3
D0
D1
D2
D3
D4
D5
E0
E1
E2
E3
E4
E5
F0
F1
F2
0F
1E
1F
28
29
2A
2B
2C
2D
2E
2F
37
38
39
3A
3B
3C
3D
3E
3F
46
47
48
49
4A
4B
4C
4D
4E
4F
56
57
58
59
5A
5B
5C
5D
E5
5F
6A
6B
6C
6D
6E
6F
79
7A
7B
7C
7D
E7
F7
88
89
8A
8B
8C
8D
8E
8F
98
99
9A
9B
9C
9D
9E
9F
A7 belegt A8 A9 nicht
AA
AB
AC
DA
AE
AF
CJK 66 Unihan 67 68 69
C0
0E
B7
8B
B9
BA
BB
BC
BD
BE
BF
C7
C8
C9
CA
CB
CC
CD
CE
CF
D6
D7
D8
D9
DA
DB
DC
DD
DE
DF
E6
E7
E8
E9
EA
EB
EC
ED
EE
EF
F8
F9
FA
FB
FC
FD
FE
FF
Hangul C4 C5 C6
UTF-16 Surrogate und F3 F4 F5 F6 F7
privater Bereich
Die zweite Ebene (Ebene 1), das Supplementary Multilingual Plane (SMP), enth¨ alt selten gebrauchte und meist historische Schriftsysteme, wie z.B. das auf der altgriechischen Schrift aufbauende Schriftsysteme des Altitalienischen oder die der griechischen Schrift vorangegangene, kretische Linear A und Linear B Schrift. Die n¨ achste Ebene (Ebene 2), das Supplementary Ideographic Plane (SIP), umfasst zus¨ atzliche, selten verwendete ideographische Zeichen aus dem als CJK“ zusammengefassten ” Bereich der chinesischen, japanischen und koreanischen Zeichen, die nicht in das BMP eingeordnet wurden. Ebene 14, das Supplementary Special-purpose Plane (SSP), beinhaltet zus¨ atzliche Steuerungs- und Kontrollzeichen, die nicht in das BMP eingeordnet wurden. Ebene 15 und 16 dienen der Aufnahme privat genutzter Zeichen. Innerhalb der Ebenen werden zusammengeh¨ orende Codepoints in Bl¨ ocken zusammengefasst. Prinzipiell umfasst ein Unicode-Block ein komplettes Schriftsystem. Allerdings hat sich aus historischen Gr¨ unden ein gewisses Maß an Fragmentierung eingestellt, da vielfach neue Zeichen zu einem sp¨ ateren Zeitpunkt einem bereits abgeschlossenen Block hinzugef¨ ugt wurden, die an anderer Stelle untergebracht werden mussten. Unicode UTF Transformationen Unicode Codepoints lassen sich auf unterschiedliche Weise u ¨ber sogenannte Unicode ” Transformation Formate“ (UTF) kodieren. Da sich die am h¨ aufigsten verwendeten Schriftsysteme innerhalb Ebene 0 befinden, liegt es nahe, f¨ uhrende Nullen innerhalb einer Kodierung aus Effizienzgr¨ unden wegzulassen. Zu diesem Zweck wurden die unterschiedlichen
176
4 Multimediale Daten und ihre Kodierung
UTF-Transformationen (UTF-7, UTF-8, UTF-16 oder UTF-32) entwickelt, die eine effiziente Kodierung der Unicode-Codepoints erm¨ oglichen sollen. UTF-8 ist dabei die bekannteste Variante und realisiert eine Kodierung von variabler L¨ ange von 1 – 4 Bytes (theoretisch k¨ onnen nach dem UTF-8 Verfahren Zeichenketten von bis zu 7 Bytes L¨ ange erzeugt werden, jedoch wird durch die Beschr¨ ankung auf den Unicode Coderaum die maximale L¨ ange auf 4 Bytes beschr¨ ankt). Dabei werden die ersten 128 Zeichen des Unicodes, die den 7-Bit ASCII Code umfassen, mit nur einem Byte dargestellt. Die Bytefolge jedes UTF-8 kodierte Zeichens startet mit einer Pr¨ aambel, die die L¨ ange der Bytefolge kodiert. Um maximale Kompatibilit¨ at mit der ASCII-Kodierung zu gew¨ ahrleisten, werden die 128 Zeichen des 7-Bit ASCII Codes mit der Pr¨ aambel 0“ versehen. Besteht ” ein UTF-8 kodiertes Zeichen aus mehreren Bytes, beginnt das Startbyte stets mit einer 1“ und jedes Folgebyte mit der Pr¨ aambel 10“. Bei Mehrbyte-Zeichen ergibt die Anzahl ” ” der 1-Bits aus der Pr¨ aambel des Startbytes die Bytel¨ ange des gesamten UTF-8 kodierten Zeichens an. Daher ergibt sich folgendes Kodierungsschema: 1 2 3 4
Byte Bytes Bytes Bytes
0xxxxxxx 110xxxxx 10xxxxxx 1110xxxx 10xxxxxx 10xxxxxx 1111xxxx 10xxxxxx 10xxxxxx 10xxxxxx
(7 Bit) (11 Bit) (16 Bit) (21 Bit)
F¨ ur die UTF-8 Kodierung eines Codepoints wird stets die k¨ urzest m¨ ogliche Kodierungsvariante gew¨ ahlt und der Unicode Codepoint stets rechtsb¨ undig in das Kodierungsschema eingetragen. Folgende Beispiele sollen das Prinzip der UTF-8 Kodierung verdeutlichen: Zeichen Codepoint Unicode bin¨ ar y a ¨
e
UTF-8
U+007916 00000000 01111001 01111001 U+00E416 00000000 11100100 11000011 10100100 U+20AC16 00100000 10101100 11100010 10000010 10101100
F¨ ur alle auf dem lateinischen Alphabet basierenden Schriften ist UTF-8 die speicherplatzeffizienteste Methode zur Abbildung von Unicode-Zeichen. Eine weitere Variante ist die UTF-16 Kodierung, die jedem Unicode Codepoint eine 2 – 4 Byte lange Bitfolge zuweist. UTF-16 ist auf die Kodierung der Zeichen des BMP spezialisiert und ist bei der Kodierung von Texten in Chinesisch, Japanisch oder Hindi der UTF-8 Kodierung u ¨berlegen, da diese Zeichen des BMP mit UTF-8 in eine 3 Byte lange Bitfolge kodiert werden, w¨ ahrend eine entsprechende UTF-16 Kodierung nur 2 Byte umfasst. UTF-32 dagegen weist jedem Unicode Codepoint eine Bitfolge mit konstanter L¨ ange von 4 Bytes zu und stellt damit die einfachste aller Kodierungsvarianten dar, da der Unicode Codepoint direkt in eine 32-Bit Bin¨ arzahl u ¨bersetzt wird. Allerdings ist UTF-32 bei der Verwendung von Zeichen aus dem BMP sehr ineffizient. Es existieren noch weitere Kodierungsvarianten, von denen lediglich noch die UTF-7 Kodierung erw¨ ahnt werden soll, da sie f¨ ur die Verwendung in Kommunikationsprotokollen gedacht ¨ war, die auf einem 7-Bit Ubertragungsstandard basieren, wie z.B. das f¨ ur E-Mails zust¨ andige SMTP-Protokoll. In der E-Mail-Kommunikation hat sich jedoch die Base64-Kodierung des MIME-Standards anstelle von UTF-7 durchgesetzt. Weiterf¨ uhrende Literatur: The Unicode Consortium: The Unicode Standard, Version 5.0, Addison-Wesley Professional, 5th ed. (2006)
4.3 Text - Datenformate und Komprimierung
177
Unicode hat auch im WWW bereits Einzug gehalten: im RFC 2070 wurde die WWW-Sprache HTML f¨ur die Unterst¨utzung von Unicode vorbereitet und RFC 2077 empfiehlt die Unterst¨utzung von ISO 10646 f¨ur alle neuen Internet Protokolle.
4.3.2 Textkomprimierung Die zur Verf¨ugung stehende Bandbreite des verwendeten Kommunikationsmediums beschr¨ankt die u¨ bertragbare Datenmenge. Deshalb wurden bereits sehr fr¨uh Verfahren entwickelt, um die in einer Nachricht enthaltene Redundanz zu minimieren und die verf¨ugbare Bandbreite so effizient wie m¨oglich zu nutzen. Die zum Einsatz kommenden Techniken werden als Komprimierungs-Verfahren (Verdichtung) bezeichnet und werden oft f¨ur Textdateien oder multimediale Daten eingesetzt. Sie versprechen insbesondere dann einen Vorteil, wenn z.B. in Textdateien bestimmte Zeichen oder Zeichenketten h¨aufiger als andere vorkommen, oder Grafiken große, zusammenh¨angende homogene Fl¨achen enthalten bzw. umfangreiche Wiederholungen von identischen Mustern auftreten. Die Platzeinsparung variiert bei den verschiedenen Komprimierungsmethoden in Abh¨angigkeit von den Merkmalen der zu komprimierenden Datei. F¨ur Textdateien sind z.B 20% bis 50% Einsparung ein typischer Wert, w¨ahrend bei Grafikdateien oft Einsparungen von 50% bis 90% erzielt werden k¨onnen. Bei Dateitypen, die weitgehend aus zuf¨alligen Bitmustern bestehen, kann mit diesen Komprimierungsverfahren allerdings nur wenig gewonnen werden. Prinzipiell lassen sich verschiedene Arten der Komprimierung unterscheiden, die nicht von der Art des zu komprimierenden Mediums abh¨angen, sondern allgemeine G¨ultigkeit besitzen: • Logische vs. physikalische Komprimierung Semantische bzw. logische Komprimierung wird erreicht durch fortlaufende Substitution, d.h. durch Ersetzung eines alphanumerischen bzw. bin¨aren Symbols durch ein anderes. Beispielsweise kann der Ausdruck United States of America“ ” durch USA“ ersetzt werden. Semantische Komprimierung kann nur auf Daten ” oberhalb des Abstraktionsniveaus von alphanumerischen Zeichen sinnvoll angewendet werden und basiert ausschließlich auf Information, die in den zu komprimierenden Daten enthalten ist. Komprimierungsalgorithmen kodieren die darzustellende Information in einer Art und Weise, die m¨oglichst wenig Redundanz besitzt. Syntaktische bzw. physikalische Komprimierung kann auf vorgegebene Daten angewendet werden, ohne dass die in den Daten enthaltene Information genutzt wird. Es wird also nur eine Kodierung durch eine andere, kompaktere ausgetauscht. Die komprimierten Daten k¨onnen auf mechanische Weise wieder in die Ausgangsdaten dekodiert werden, allerdings ist der Zusammenhang zwischen Ausgangsdaten und komprimierten Daten im Allgemeinen nicht offensichtlich. Alle im Folgenden vorgestellten Komprimierungsverfahren geh¨oren zu den syntaktischen Komprimierungsverfahren.
178
4 Multimediale Daten und ihre Kodierung
• Symmetrische vs. asymmetrische Komprimierung Bei den symmetrischen Komprimierungsmethoden besitzen Kodierungsalgorithmus und Dekodierungsalgorithmus in etwa dieselbe Berechnungskomplexit¨at. Anders sieht es bei den asymmetrischen Komprimierungsmethoden aus. Dort ist die Berechnungskomplexit¨at der beiden Algorithmen deutlich unterschieden. Asymmetrische Komprimierungsverfahren machen dann Sinn, wenn eine aufw¨andige Kodierung w¨ahrend der Kompression nur ein einziges Mal durchgef¨uhrt wird, w¨ahrend eine Dekodierung bei jedem Zugriff auf die komprimierten Daten zu erfolgen hat und daher wesentlich h¨aufiger ausgef¨uhrt werden muss. • Adaptive vs. semiadaptive vs. nichtadaptive Komprimierung Viele Komprimierungsverfahren, wie z.B. die Huffman-Kodierung dienen ausschließlich der Komprimierung bestimmter Medienformate und verwenden deshalb formatspezifische Information, die in sogenannten W¨orterb¨uchern vorgehalten wird. Nicht-adaptive Verfahren benutzen ein statisches W¨orterbuch vorgegebener Muster, die bekanntermaßen in der zu komprimierenden Information sehr h¨aufig auftreten. So k¨onnte ein nicht-adaptives Komprimierungsverfahren f¨ur die deutsche Sprache ein W¨orterbuch mit vordefinierten Zeichenketten f¨ur die W¨orter “und, oder, der, die, das” enthalten, da diese sehr h¨aufig in der deutschen Sprache auftreten. Adaptive Komprimierungsverfahren, wie z.B. das LZW-Verfahren, bauen f¨ur jede Anwendung ein eigenes W¨orterbuch h¨aufig vorgefundener Muster auf und basieren nicht auf vordefinierten, anwendungsspezifischen Musterw¨orterb¨uchern. Semiadaptive Komprimierungsverfahren stellen eine Mischform aus beiden Verfahren dar. Sie arbeiten f¨ur gew¨ohnlich in zwei getrennten Arbeitsschritten, in denen zuerst ein W¨orterbuch u¨ ber die zu komprimierenden Daten aufgebaut wird, und die eigentliche Kodierung in einem darauf aufbauenden, zweiten Arbeitsschritt erfolgt. • Verlustfreie vs. verlustbehaftete Komprimierung Verlustfreie Komprimierungsverfahren f¨uhren die Kodierung und die Dekodierung der zu komprimierenden Daten so aus, dass die urspr¨unglichen Daten nach Ausf¨uhrung beider Verarbeitungsschritte wieder unver¨andert vorliegen. Die in den zu komprimierenden Daten enthaltene Information bleibt absolut vollst¨andig erhalten. Die maximal erreichbare Komprimierungsrate wird dabei durch die Shannon’sche Informationskomplexit¨at vorgegeben. Verlustfreie Komprimierungsverfahren sind f¨ur Text- und Programmdateien unumg¨anglich. Verlustbehaftete Komprimierungsverfahren dagegen versuchen, eine h¨ohere Komprimierungsrate zu erreichen, indem sie auf Teile der zu komprimierenden Information verzichten, die f¨ur den vorgesehenen Verwendungszweck als weniger wichtig angesehen werden. So verzichten verlustbehaftete Komprimierungsverfahren z.B. in der Audio-Komprimierung darauf, T¨one und Tonfolgen zu speichern, die das menschliche Ohr nicht wahrnehmen kann. Verlustbehaftete Komprimierungsverfahren f¨ur Bilddaten ermitteln mit Hilfe heuristischer Methoden, wie eine maximale Komprimierung erreicht werden kann, wobei gleichzeitig darauf geachtet wird, das m¨oglichst wenig von der vorhandenen visuellen Information verloren geht.
4.3 Text - Datenformate und Komprimierung
179
Exkurs 6: Einfache Verfahren der Datenkomprimierung Laufl¨ angenkodierung - (Run Length Encoding, RLE) Der einfachste Typ der Redundanz in einer Textdatei sind lange Folgen sich wiederholender Zeichen. Betrachten wir z.B. eine einfache Folge von Zeichen: AAAADEBBHHHHHCAAABCCCC Diese Zeichenfolge l¨ asst sich in einer kompakteren Form kodieren, indem jede Folge sich wiederholender Zeichen durch die Anzahl der Wiederholungen und die einmalige Angabe dieses Zeichens ersetzt wird. D.h. die obige Zeichenfolge w¨ urde dann kodiert werden durch 4ADEBB5HC3AB4C Diese Form der Kodierung wird als Laufl¨ angenkodierung (Run Length Encoding, RLE) bezeichnet. Laufl¨ angenkodierungen sind f¨ ur ein einzelnes Zeichen bzw. f¨ ur zwei gleiche Buchstaben nicht rentabel, da f¨ ur die Kodierung jeweils mindestens zwei Zeichen ben¨ otigt w¨ urden. Dagegen k¨ onnen recht hohe Komprimierungsraten erzielt werden, wenn lange Folgen des selben Zeichens auftreten. Bei der Kodierung von Bin¨ ardaten, wie sie etwa in den unterschiedlichen Medienformaten vorliegen, kommt eine verfeinerte Variante dieser Methode zum Einsatz, die ausnutzt, dass diese Daten nur aus den bin¨ aren Werten 0 und 1 zusammengesetzt sind, so dass es nur auf den Wechsel dieser Werte ankommt und das Abspeichern der eigentlichen 0- und 1-Werte entfallen kann. Diese Methode arbeitet effizient, wenn lange Folgen von 0- oder 1-Werten auftreten, denn es kann nur dann Platz bei der Kodierung eingespart werden, wenn die Anzahl der Zeichen einer Folge weniger Platz ben¨ otigt, als die Anzahl der Bits, die ben¨ otigt werden, um die L¨ ange dieser Folge als Bin¨ arzahl darzustellen. Kein Laufl¨ angenverfahren arbeitet effizient, wenn die L¨ angen der Wiederholungen zu kurz ausfallen. RLE wird auch zur Nachkomprimierung bei verlustbehafteten Komprimierungsverfahren f¨ ur Bildund Audiodaten eingesetzt. Kodierung mit variabler L¨ ange Die nun vorgestellte Methode der Kompression eignet sich besonders gut f¨ ur Textdateien. Ihre Idee besteht darin, von der herk¨ ommlichen Verfahrensweise abzuweichen, alle Zeichen mit einem Code fester, vorgegebener L¨ ange zu kodieren. Anstelle dessen werden Zeichen, die h¨ aufig im Text auftreten, k¨ urzere Codeworte zugeordnet als Zeichen, die nur selten vorkommen. Angenommen, die nachfolgende Zeichenfolge soll kodiert werden: ABRAKADABRA Mit einer Standardkodierung, die f¨ ur jeden Buchstaben des Alphabets einen 5-Bit Code verwendet, z.B. dem i-ten Buchstaben des Alphabets einfach die Bin¨ ardarstellung der Zahl i zuordnet, ergibt sich die Bitfolge 00001 00010 10010 00001 01101 00001 00100 00001 00010 10010 00001 Zur Dekodierung werden jeweils 5 Bit gelesen und gem¨ aß der Kodierungsanleitung in die entsprechenden Buchstaben umgewandelt. Hier wird der Buchstabe A ebenso mit einer f¨ unfstelligen Bitfolge kodiert wie der Buchstabe K, der im Schl¨ usseltext nur einmal vorkommt. Eine Platzeinsparung l¨ asst sich erzielen, wenn h¨ aufig verwendete Buchstaben mit weniger Bits verschl¨ usselt werden, um so die Gesamtzahl der f¨ ur die Zeichenfolge benutzten Bits zu minimieren. Die vorgegebene Zeichenfolge kann folgendermaßen verschl¨ usselt werden: Die zu kodierenden Buchstaben werden angeordnet entsprechend der H¨ aufigkeit ihres Vorkommens. Die beiden erstplatzierten Buchstaben werden mit einer Bitfolge der L¨ ange 1 kodiert. Die nachfolgenden Buchstaben werden solange es m¨ oglich ist mit jeweils 2 Bit, anschließend mit jeweils 3 Bit langen Folgen kodiert usw. D.h. A kann mit 0, B durch 1, R durch 01, K durch 10 und D durch 11 kodiert werden:
180
4 Multimediale Daten und ihre Kodierung 0 1 01 0 10 0 11 0 1 01 0
Bei dieser Kodierung m¨ ussten allerdings zus¨ atzlich auch noch Begrenzer (im Beispiel Leerzeichen) zwischen den einzelnen Buchstaben kodiert werden, da sonst mehrdeutige Interpretationen des Codewortes m¨ oglich sind. Mehrdeutigkeiten lassen sich vermeiden, wenn bei der Kodierung darauf geachtet wird, dass kein Code mit der Bitfolge eines anderen Codes beginnt. Solche Codes werden auch als pr¨ afixfreie Codes bezeichnet und die o.a. Bedingung zur Erzeugung pr¨ afixfreier Codes wird nach ihrem Entdecker Robert M. Fano (*1917) als Fano-Bedingung bezeichnet. Beispielsweise k¨ onnen wir A mit 11, B mit 00, R mit 10, K mit 010 und D mit 011 verschl¨ usseln: 110010110101101111001011 Die urspr¨ unglich 55 Bit umfassende Standardkodierung konnte also durch die Kodierung mit variabler Codewortl¨ ange auf nur 24 Bit reduziert werden. Pr¨ afixfreie Kodierungen lassen sich auch sehr anschaulich mit Hilfe eines Bin¨ arbaums darstellen, dessen Bl¨ atter mit den zu kodierenden Buchstaben belegt sind. Ausgehend von der Wurzel kann aus dem Pfad zu einem Buchstaben das diesem Buchstaben zugeordnete Codewort gewonnen werden. Verzweigt der Pfad an einem inneren Knoten nach links, so wird dem Code das Bit 0 hinzugef¨ ugt, verzweigt er nach rechts, so kommt das Bit 1 hinzu (siehe Abb. 4.6).
0
00
1
01
10
B
R 010
Abb. 4.6 Pr¨afixfreie Kodierung in Bin¨arbaumdarstellung
K
11 A
011 D
Mit Hilfe von Baumdarstellungen lassen sich einfach Kodierungen gewinnen, die der FanoBedingung gen¨ ugen, so dass keine der verwendete Bitfolgen Pr¨ afix eines anderen Codewortes ist. Huffman Kodierung Es ergibt sich die Frage, wie man einen m¨ oglichst effizienten Code variabler L¨ ange gewinnen kann. Dazu eignet sich das 1952 von David A. Huffman (1925–1999) entwickelte Verfahren, die nach ihm benannte Huffman Kodierung. Die optimale Kodierung f¨ ur eine Textdatei l¨ asst sich stets in einem Bin¨ arbaum darstellen, dessen innere Knoten immer zwei Nachfolger besitzen, d.h. wenn die Menge A alle zu kodierenden Buchstaben repr¨ asentiert, dann besitzt der Baum f¨ ur einen optimalen pr¨ afixfreien Code f¨ ur A genau |A| Blattknoten und |A|-1 innere Knoten. Betrachten wir einen Baum T, der einem vorgegebenen pr¨ afixfreien Code entspricht, dann kann die Anzahl der Bits zur Kodierung einer vorgegebenen Datei einfach berechnet werden. Bezeichne f(c) die H¨ aufigkeit, mit der ein Zeichen c des gegebenen Alphabets A in unserer Datei vorkommt. dT(c) bezeichne die Tiefe des Blattknotens f¨ ur das Zeichen c im Bin¨ arbaum
4.3 Text - Datenformate und Komprimierung
181
T, was u ange des Codewortes f¨ ur c entspricht. Die Anzahl der zur Kodierung ¨brigens der L¨ einer Datei ben¨ otigten Bits B(T) ergibt sich zu
B(T) =
∑ f(c)dT (c).
c∈A
Das von Huffman entwickelte Verfahren zur Konstruktion eines optimalen pr¨ afixfreien Codes arbeitet in sogenannter bottom-up Manier, d.h. es beginnt von unten mit einer Menge von |A| (unzusammenh¨ angenden) Blattknoten und f¨ uhrt eine Reihe von |A|-1 Verschmelzungsoperationen durch, um einen Ergebnisbaum zu konstruieren. Die Blattknoten tragen neben dem Buchstaben c∈A, den sie repr¨ asentieren auch noch dessen H¨ aufigkeit f(c) innerhalb der zu kodierenden Datei. Als n¨ achstes werden die beiden Knoten c1 und c2 , die die kleinsten H¨ aufigkeitsangaben enthalten, ausgew¨ ahlt und es wird ein neuer Knoten cneu erzeugt, der mit der Summe aus den beiden H¨ aufigkeiten f(cneu )=f(c1 )+f(c2 ) markiert und mit den beiden ausgew¨ ahlten Knoten als Nachfolger verbunden wird. Die Knoten c1 und c2 werden aus der Menge A herausgenommen, w¨ ahrend der neue Knoten cneu darin aufgenommen wird. Indem auf dieselbe Weise fortgefahren wird, entstehen immer gr¨ oßere Unterb¨ aume und die Anzahl der in A befindlichen Knoten wird immer kleiner. Am Ende sind alle Knoten zu einem einzigen Baum miteinander verbunden. Knoten mit geringer H¨ aufigkeit sind dann am weitesten vom Wurzelknoten entfernt, d.h. ihnen wird auch das l¨ angste verwendete Codewort zugeteilt, w¨ ahrend sich Knoten großer H¨ aufigkeit nahe dem Wurzelknoten befinden und dementsprechend kurze Codeworte besitzen. Aus dem so erzeugten Baum ergibt sich direkt der Huffman-Code (siehe Abb. 4.7).
0
11
1
0
6
1
4 0
5
2
1
0
2
2
1
1
1
A
B
R
D
K
0
100
101
110
111
Abb. 4.7 Huffman Kodierung in Bin¨arbaumdarstellung
Mit Hilfe vollst¨ andiger Induktion kann gezeigt werden, dass die Huffman Methode tats¨ achlich einen optimalen pr¨ afixfreien Code erzeugt. Weiterf¨ uhrende Literatur Huffman, D. A.: A Method for the Construction of Minimum-Redundancy Codes, in Proc. of the IRE, 40(9), pp. 1098-1101 (1952) Cormen, T. H., Leiserson, C. E., Rivest, R. L.: Introduction to Algorithms, MIT Press, Cambridge MA, USA (1996)
182
4 Multimediale Daten und ihre Kodierung
4.4 Grafik - Datenformate und Komprimierung Graphische Daten, die in einem Computer dargestellt und verarbeitet werden sollen, werden traditionell aufbereitet in Form von Vektorgrafiken oder Bitmapgrafiken (oft auch als Rastergrafik bezeichnet). Bei Vektorgrafiken werden Linien, Polygone oder Kurven durch die Angabe bestimmter Schl¨usselpunkte charakterisiert. Ein Programm rekonstruiert aus diesen Schl¨usselpunkten die darzustellende geometrische Figur. Zus¨atzlich werden diese Schl¨usselpunkte mit bestimmten Attributinformationen, wie z.B. Farbe oder Linienst¨arke ausgestattet. Aus diesen grafischen Grundelementen rekonstruiert ein entsprechendes Programm mit Hilfe eines Ausgabeger¨ats das darzustellende Bild. Historisch gesehen entstand die Vektorgrafik im Zusammenhang mit der Entwicklung von Plottern als grafische Ausgabeger¨ate f¨ur Computer. Bei einem Plotter werden ein oder mehrere Stifte vorgegebenen Koordinatenwerten folgend u¨ ber eine Zeichenebene gef¨uhrt. Ein Vorteil der Vektorgrafik liegt darin, dass sich die darzustellenden Bilder beliebig skalieren lassen, ohne dass dabei qualit¨atsmindernde Rasterung-Effekte auftreten. Bitmapgrafiken setzen sich zusammen aus einer Menge numerischer Werte, die Farb- und Helligkeitsinformationen einzelner Bildpunkte (Pixel) oder ganzer Bildelemente wiedergeben. Pixel sind Bildpunkte einer bestimmten Farbe, die in einer der Bemaßung des Bildes entsprechenden Matrix angeordnet sind. Zur Kodierung eines Bildes muss dieses zuvor in Form eines Rasters r¨aumlich diskretisiert (Rasterung) und jedem einzelnen Bildpunkt ein Farb- bzw. Helligkeitswert zugewiesen (Quantisierung) werden. Historisch gesehen ist die Bitmap- oder Rastergrafik mit der Entwicklung der Kathodenstrahlr¨ohre (Cathod Ray Tube, CRT) als grafisches Ausgabeger¨at verbunden. Um ein Bild, das auf einem solchen Bildschirm ausgegeben wird, durch seine einzelnen Bildpunkte darzustellen, werden diese in einer bestimmten Farbe und Helligkeit beleuchtet. Rastergrafiken eignen sich zur Darstellung komplexerer Bilder wie Fotografien, die nicht mit Vektorgrafiken beschreibbar sind. Zu den Nachteilen der Bitmapgrafik gegen¨uber der Vektorgrafik z¨ahlt der meist relativ hohe Speicherplatzverbrauch. Da Bitmapgrafiken nur aus einer begrenzten Anzahl von Pixeln bestehen, werden zweidimensionale geometrische Formen im Gegensatz zu Vektorgrafiken nur angen¨ahert. Dabei kann ein sogenannter Treppenef” fekt“ (Alias-Effekt) auftreten, d.h. an sich runde Linien werden durch treppenartige Pixelfolgen angen¨ahert. Zudem gehen bei geometrischen Transformationen, wie z.B. bei einer Vergr¨oßerung (Skalierung) oder Drehung (Rotation) eines Bildausschnittes Informationen verloren. Es kann dabei sogar zur Entstehung sogenannter Artefakte“ kommen, d.h. es k¨onnen durch die Transformation Pixel in Farbt¨onen ” erzeugt werden, die vormals nicht vorhanden waren und die Qualit¨at des transformierten Bildes vermindern. Obwohl inzwischen auch Vektorgrafiken im WWW eingesetzt werden, beschr¨anken wir uns in diesem Kapitel auf die wichtigsten Datenformate aus dem Bereich der Bitmapgrafik.
4.4 Grafik - Datenformate und Komprimierung
183
Bei der effizienten Speicherung von Grafikdaten m¨ussen die folgenden Eigenschaften ber¨ucksichtigt werden, die eine Grafik charakterisieren: • Bildaufl¨osung (Picture Resolution) Die Bildaufl¨osung wird durch die Anzahl der Bildpunkte entlang der x-Achse und der y-Achse bestimmt. • Farbtiefe (Color Depth) Die Farbtiefe bestimmt die Anzahl der Farben, mit denen ein Bildpunkt eingef¨arbt werden kann. Sie wird als Logarithmus log(c) u¨ ber die tats¨achliche Anzahl der m¨oglichen Farben c angegeben (z.B. Farbtiefe 8 entspricht 28 = 256 Farben), also der Anzahl der Bits, die ben¨otigt werden, um die Farbe eindeutig zu beschreiben oder anzugeben. Von einer Echtfarbdarstellung kann ab einer Farbtiefe von 24 Bit gesprochen werden. Moderne bildverarbeitende Systeme erlauben sogar eine 32 Bit bzw. 48 Bit tiefe Farbdarstellung. • Farbpalette (Palette Size) Einige Grafiksysteme beschr¨anken die Anzahl der zur Angabe von Farben zur Verf¨ugung stehenden Bits. Dabei wird von vornherein eine Farbpalette mit einer reduzierten Anzahl von Farben festgelegt, aus denen dann das Bild aufgebaut werden kann. Die Farben der Farbpalette sollten so gew¨ahlt werden, dass diese den originalen Farben des zu kodierenden Bildes m¨oglichst nahe kommen. • Bildaufl¨osung (Dichte) Die Bildaufl¨osung wird als Dichte der einzelnen Bildpunkte pro L¨angeneinheit angegeben. Die g¨angige, aus dem amerikanischen u¨ bernommene Maßeinheit ist dabei dpi (dots per inch), also die Anzahl der Bildpunkte pro 2,54 cm. Eine Bildaufl¨osung f¨ur Computerbildschirme liegt etwa bei 100 dpi, w¨ahrend im Druckbereich Bildaufl¨osungen von mehr als 300 dpi u¨ blich sind. Je h¨oher die Bildaufl¨osung gew¨ahlt wird, desto detailreicher erfolgt die Darstellung des Bildes und desto gr¨oßer ist aber auch der ben¨otigte Speicherplatz. • Seitenverh¨altnis (Aspect Ratio) Das Seitenverh¨altnis eines Bildes beschreibt das Verh¨altnis von Bildl¨ange zu Bildbreite. Man unterscheidet zus¨atzlich noch das Seitenverh¨altnis eines einzelnen Bildpunktes (Pixel Aspect Ratio), das ebenfalls das Seitenverh¨altnis des Gesamtbildes und dessen Wahrnehmung beeinflusst. In einer Bitmapgrafik werden die einzelnen Bildpunkte im einfachsten Fall nebeneinander innerhalb einer Zeile und die Zeilen in aufeinanderfolgender Reihe abgespeichert. Entsprechend der darzustellenden Farbtiefe wird f¨ur einen einzelnen Bildpunkt unterschiedlich viel Speicherplatz ben¨otigt. Reicht in einem monochromen Bild ein einzelnes Bit f¨ur einen Bildpunkt, so werden f¨ur eine sogenannte Echtfarbdarstellung mindestens 24 Bit pro Bildpunkt ben¨otigt. Farbe selbst ist keine Eigenschaft der physikalischen Welt, sondern lediglich eine Sinneswahrnehmung. Farbe ist eine Empfindung, die es uns erlaubt, zwei strukturlose Oberfl¨achen von gleicher Helligkeit zu unterscheiden. Farbe, wie der Mensch sie wahrnehmen kann, ist nichts anderes als Licht unterschiedlicher Wellenl¨ange. Das weiße Licht, wie wir es aus unserem t¨aglichen Leben kennen, besteht aus einer
184
4 Multimediale Daten und ihre Kodierung
Vermischung unterschiedlichster Lichtfrequenzen, deren Wellenl¨ange innerhalb des f¨ur den Menschen wahrnehmbaren Bereichs von etwa 380 nm bis 780 nm (1 nm = 10−9 m) liegen. Idealerweise wird farbiges Licht erzeugt von einem strahlenden schwarzen K¨orper (Schwarzk¨orperstrahlung). Je nach Temperatur des Strahlers unterscheidet sich die spektrale Zusammensetzung des Lichts. Daher k¨onnen unterschiedlichen Lichtquellen Farbtemperaturen zugeordnet werden, die der Temperatur eines idealen schwarzen K¨orpers entspricht, der ein vergleichbares Lichtspektrum emittiert. Die Farbtemperatur einer gew¨ohnlichen 60 Watt Gl¨uhbirne betr¨agt 2.200◦ Kelvin, w¨ahrend die Farbtemperatur des Sonnenlichts ungef¨ahr 5.500◦ Kelvin betr¨agt. Niedrige Farbtemperaturen erscheinen uns r¨otlich warm, w¨ahrend wir h¨ohere Farbtemperaturen als bl¨aulich kalt wahrnehmen. Farbe kommt erst dadurch zustande, wenn weißes Licht in Einzelbestandteile fester bzw. a¨ hnlicher Frequenz zerlegt wird bzw. wenn bei Reflektion oder Streuung an Oberfl¨achen von weißem Licht bestimmte Frequenzen bevorzugt und andere unterdr¨uckt bzw. absorbiert oder durch farbige, transparente K¨orper gefiltert werden. Im ersten Fall wird farbiges Licht von einem K¨orper (Sonne, Gl¨uhlampe) emittiert, daher bezeichnet man diese Farben auch als Lichtfarben. Die zweite Variante der Farben, die durch Reflektion, Absorption, Streuung oder Filterung erzeugt wird, bezeichnet man als K¨orperfarben. Das menschliche Auge kann allerdings jeweils nur eine beschr¨ankte Anzahl von Farben wahrnehmen. Simultan lassen sich bis zu 10.000 Farben gleichzeitig unterscheiden. Insgesamt ist das menschliche Auge in der Lage bis zu 7 Millionen verschiedene Farbvalenzen bei etwa 500 verschiedenen Helligkeitsstufen und etwa 200 verschiedenen Farbt¨onen zu unterscheiden. Allerdings h¨angt dies jeweils von verschiedenen Parametern, wie z.B. Hintergrundbeleuchtung und der Gr¨oße des Helligkeitsfeldes ab. Unter optimalen Bedingungen erh¨oht sich der Wert der wahrgenommenen Helligkeitsstufen auf bis zu 1.000. Die maximale Empfindlichkeit des menschlichen Auges ist abh¨angig von der Wellenl¨ange und der Lichtintensit¨at. Bei Tageslicht liegt die maximale Empfindlichkeit bei 554 nm, bei der Anpassung des Auges an Nachtverh¨altnisse verschiebt sie sich nach 513 nm. Zur Darstellung der Farben im Computer existieren verschiedene mathematische Farbmodelle. Bereits Aristoteles ordnete die Farben systematisch an, indem er sie auf einer Palette zwischen Schwarz und Weiß aneinanderreihte. Nach ihm versuchten sich noch viele Wissenschaftler und K¨unstler durch die Jahrhunderte an einer Systematisierung der Farben. Die entwickelten Farbsysteme haben alle das Ziel, die Farben dergestalt anzuordnen, dass sie u¨ ber eine geometrische Anordnung beschrieben werden k¨onnen, oder eine Anleitung zum Mischen neuer Farben geben. Prinzipiell unterscheidet man additive und subtraktive Farbmodelle. In einem additiven Farbmodell werden Farben zur Grundfarbe Schwarz hinzugemischt, um neue Farben zu erzeugen. Je mehr Farben hinzugef¨ugt werden, desto mehr tendiert die Farbmischung zur Farbe weiß. In additiven Farbmodellen sind die jeweiligen Farben selbstleuchtend. Ein typisches Beispiel daf¨ur ist das Rasterbild eines Fernsehers oder Computerbildschirms. Da sich das Bild anhand vieler kleiner Punkte zusammensetzt, werden die drei Grundfarben der leuchtenden roten, gr¨unen und blauen Bildpunkte addiert“. In ausreichendem Abstand werden die nebeneinanderliegen”
4.4 Grafik - Datenformate und Komprimierung
185
den roten, gr¨unen und blauen Bildpunkte im Auge vermischt wahrgenommen und bewirken so eine entsprechende Farbwahrnehmung. Ein subtraktives Farbmodell arbeitet in der entgegengesetzten Weise. Im Prinzip werden dabei einzelne Farben von der Grundfarbe weiß abgezogen, um neue Farben zu erzeugen. Je mehr Farben dabei abgezogen werden, desto mehr tendiert die Farbmischung zu schwarz. Aus einer anderen Sicht betrachtet, repr¨asentiert schwarz in einem subtraktiven Farbmodell die totale Absorption des auftreffenden Lichts durch die Farbpigmente. Subtraktive Farbmodelle basieren auf Reflektion und Absorbtion. Die von uns wahrgenommene Farbe ergibt sich aus der Reflektion des Lichts einer externen Lichtquelle, wie z.B. an den auf einem Blatt Papier gedruckten Farben. Farben lassen sich im Rahmen eines Farbmodells in Prim¨arfarben, Sekund¨arfarben und Terti¨arfarben unterteilen, entsprechend dem Mischungsgrad der beteiligten Grundfarben. Die Grundfarben des Farbmodells stellen die Prim¨arfarben dar. Werden zwei Prim¨arfarben zu gleichen Anteilen gemischt, entstehen Sekund¨arfarben. So entsteht im additiven RGB-Farbmodell durch Mischung der Prim¨arfarben Rot und Gr¨un die Sekund¨arfarbe Gelb. Werden eine Prim¨arfarbe und eine Sekund¨arfarbe gemischt, entsteht eine Terti¨arfarbe. Die gebr¨auchlichsten Farbmodelle, das RGB-Farbmodell, das CMY(K)-Farbmodell, das HUV-Farbmodell und das YUV-Farbmodell werden detailliert in Exkurs 7 vorgestellt. Keines dieser Farbsysteme arbeitet in der Praxis perfekt. So sollte in einem subtraktiven Farbmischverfahren eine Mischung aller Farben ein perfektes Schwarz ergeben, was sich aber in der Praxis durch die Unzul¨anglichkeit der verwendeten Tinten eher als sehr dunkles Braun darstellt.
Exkurs 7: Was ist Farbe? – Farbe und Farbsysteme Das Einordnen nat¨ urlicher Farben in ein System und die Untersuchung solcher Systeme reicht bis in das Altertum zur¨ uck. Bereits Aristoteles (384–322 v. Chr.) ordnete die Farben ¨ in seinem Werk De sensu et sensato“ (Uber die Sinne), indem er sie auf einem Strahl ” entlang von Schwarz nach Weiß aneinanderreihte und diese dem Tagesverlauf zuordnete. Im Mittelalter stritten die Gelehrten u ¨ber die Existenz der Farben an sich. Der persische Arzt und Physiker Avicenna (980–1037) bestritt, dass es Farbe gibt, wo es dunkel ist. Ohne das Licht fehle den Farben das verum esse“, ihr tats¨ achliches Sein. Sein Gegenspieler Alhazen ” (auch Ibn al-Haitham, 965–1040) entgegnete, dass die Farben noch vorhanden seien, wenn es dunkel ist, sie w¨ urden nur das Auge nicht mehr erreichen. Im europ¨ aischen Mittelalter griff der Philosoph Roger Bacon (1214–1294) die Frage auf und erkl¨ arte, dass Licht und Farbe stets nur vereint vorkommen, Lux ... non venit sine colore“. ” Zahlreiche Wissenschaftler und K¨ unstler versuchten sich seither darin, die Farben in einem Farbsystem zu ordnen, wobei sie von unterschiedlichen Motivationen dazu getrieben wurden. Sehen Physiker in den Farben nichts anderes als die unterschiedlichen Wellenl¨ angen des Lichts, betrachtet der Maler eine Farbmischung auf seiner Palette und untersucht der Physiologe die mit der Farbe einhergehende Empfindung, die diese auf den Menschen aus¨ ubt. Der Zweck eines Farbsystems liegt darin, die Farben so anzuordnen, dass aus der Geometrie eine Anleitung zur Farbmischung gewonnen werden kann. Die Erkenntnis, dass Farben nichts anderes als die Bestandteile des weißen Lichts sind, wurde mit Untersuchungen an Glasprismen gewonnen und von dem b¨ ohmischen Physiker Marcus Marci (1595–1667) erstmals 1648 in seinen Schriften Thaumantias liber de arcu caelesti“ ” (1648) und Dissertatio de natura iridis“ (1650) dokumentiert. Farben unterschiedlicher ”
186
4 Multimediale Daten und ihre Kodierung
Wellenl¨ ange werden an einem Prisma mit unterschiedlichen Winkeln gebrochen (chromatische Aberration). Die durch ein Prisma erzeugten Farben sind nicht weiter zerlegbar. Darauf aufbauend experimentierte auch der englische Physiker Isaac Newton mit Prismen und ver¨ offentlichte 1672 seine Ergebnisse, die sp¨ ater (1704) die Grundlage f¨ ur sein Hauptwerk Opticks or a treatise of the reflections, refractions, inflections and colours of light“ bildeten. ” Er pr¨ agte den ber¨ uhmten Satz The rays are not coloured“ (Die Lichtstrahlen sind nicht ” farbig). Vielmehr entsteht ein unterschiedlicher Farbeindruck in Abh¨ angigkeit der Frequenz des wahrgenommenen Lichts. Langwelliges Licht entspricht der Farbe Rot, kurzwelliges Licht der Farbe Violett. Dazwischen liegen die Spektralfarben Orange, Gelb, Gr¨ un und Blau (in dieser Reihenfolge). Man bezeichnet Licht als monochromatisches Licht, wenn es nur eine einzige Wellenl¨ ange aufweist. Newton bog das Band der erzeugten Spektralfarben zu einem in sieben Sektoren – Rot, Orange, Gelb, Gr¨ un, Cyanblau, Ultramarin, Violettblau – unterteilten Kreis zusammen. In die Mitte dieses Farbkreises stellte er die Farbe Weiß, da diese sich ja aus der Mischung aller beteiligten Farben zusammensetzt. Dabei verzichtete er darauf, die Farben, wie bislang u ¨blich, entsprechend ihrer Helligkeit von Hell nach Dunkel anzuordnen. In einem weiteren Schritt schob Newton zwischen die im nat¨ urlichen Spektrum vorkommenden Randfarben Rot und Violett die Farbe Purpur (Magenta). Sie ergibt sich als Mischfarbe der Farben Rot und Violett, kommt aber bei der Spektralzerlegung von weißem Licht nicht vor. Allerdings setzte sich das Konzept der Newtonschen Farblehre nur zaghaft durch. Noch u ¨ber hundert Jahre sp¨ ater polemisierte der Dichter, Naturwissenschaftler und Kunsttheoretiker Johann Wolfgang von Goethe (1749 – 1832) gegen Newtons Farbkreis. Newton mutmaßte, das sich das Licht aus Korpuskeln, also kleinen Teilchen, von unterschiedlicher Gr¨ oße zusammensetzt. Im Gegensatz zu Newton versuchte Goethe in seiner Farbenlehre, die er selbst u ¨brigens als sein wichtigstes Werk bezeichnete, zu zeigen, dass das weiße Licht nicht zusammengesetzt ist und dass sich Farben aus einer Wechselwirkung von Licht und Finsternis ¨ ergeben. Die Farbzerlegung durch das Prisma erkl¨ arte Goethe durch ein Ubereinander” schieben“ von Hell und Dunkel, wodurch ein gelber und ein blauer Rand entstehe. Je nach dem jeweiligen Anteil von Hell und Dunkel vermischen sich diese R¨ ander zu Gr¨ un oder Rot, wodurch die Spektralfarben ausgebildet werden. Goethes Farbenlehre zielt nicht auf die physikalische Farbzerlegung ab, sondern vielmehr auf die sinnlich-sittliche Wirkung“ der ” Farbe. Seine Beobachtungen und Methoden in Bezug auf die Wirkung der Farben stellen den Beginn der modernen Farbpsychologie dar. Dabei entdeckte Goethe das Ph¨ anomen der subjektiven Farben und die Grundprinzipien des Farbensehens, wie z.B. den Nachbildeffekt und den Simultankontrast. 1802 postulierte der englische Arzt und Physiker Thomas Young (1773–1829) seine Dreifarbentheorie (trichromatisches Sehen), in der er davon ausging, dass die menschliche Retina nur in der Lage ist, drei verschiedene Grundfarben wahrzunehmen (ausgehend von den unterschiedlichen Typen der Rezeptoren). Youngs Dreifarbentheorie gewann an Glaubw¨ urdigkeit, als 1855 erstmals eine statistische Analyse der Farbblindheit vorlegt wurde und gezeigt werden konnte, dass die erfassten Beobachtungen nur dann zu verstehen waren, wenn man annahm, dass ein oder zwei Rezeptorentypen bei den betroffenen Menschen ausgefallen waren. Der schottische Physiker James Clerk Maxwell zeigte dann 1859, dass sich tats¨ achlich alle Farben durch eine Mischung dreier Komponenten erzeugen lassen, sofern sich diese zusammen zu weiß erg¨ anzen, d.h. im Spektrum also weit genug voneinander entfernt liegen (wie z.B. Rot, Gr¨ un, Blau). Er stellte die entsprechenden Kombinationen innerhalb eines Dreiecks dar, dessen Eckpunkte durch die drei prim¨ aren Spektralfarben Rot, Gr¨ un und Blau markiert wurden. Jede Mischfarbe lag dabei im Schwerpunkt der Linie, die die zusammenzustellenden Grundfarben verbindet. Maxwell lieferte mit seiner Theorie des Farbensehens“ den ” Ursprung und Ausgangspunkt der modernen, quantitativen Farbmessung (Colorimetrie). Der erste, der auf den Unterschied der additiven und subtraktiven Farbmischung aufmerksam machte, war der deutsche Physiker Hermann von Helmholtz (1821–1894), der in sei-
4.4 Grafik - Datenformate und Komprimierung
187
nem Handbuch zur physiologischen Optik“ 1867 die nach ihm benannten Helmholtz” Koordinaten (Helligkeit, Farbton und S¨ attigung) vorstellte. 1850 entwickelte Helmholtz Youngs Dreifarbentheorie weiter zur heute bekannten Young-Helmholtz Theorie. Großen Erfolg hatte auch die Farbsystematik des US-amerikanischen Malers Albert Henri Munsell (1858–1918), der 1915 in seinem Farbatlas die Farben entsprechend ihrer visuellen Empfindung kategorisierte. Er gruppierte alle Farben dreidimensional rund um eine von Schwarz nach Weiß verlaufende Helligkeits-Achse (Value) in der Gestalt, dass sich gegen¨ uberliegende Farbt¨ one (Hue) zu Grau mischen. Die S¨ attigung der jeweiligen Farbt¨ one (Chroma) wird durch deren Abstand von der Zentralachse repr¨ asentiert. Zus¨ atzlich ber¨ ucksichtigte er noch unterschiedliche Helligkeiten der reinen Spektralfarben, so erscheint uns die Spektralfarbe Gelb subjektiv heller als die Spektralfarben Blau oder Rot. Eine erste wirklich objektive Farbbestimmung wurde durch die 1931 von der Internationalen Beleuchtungskommision (Commission Internationale d’Eclairage, CIE) festgelegten Farbnormtafeln m¨ oglich. Diese Farbnormtafeln wurden mit Hilfe subjektiver Testpersonen ermittelt, die solange drei Elementarfarben aus monochromatischem Licht mischten, bis eine ¨ visuelle Ubereinstimmung mit einer vorgegebenen Spektralfarbe erreicht war. Auch f¨ ur jede Elementarfarbe ergab sich so ein Zahlenwert. Mit den drei ermittelten Zahlenwerten konnte jede vorgegebene Farbe eindeutig beschrieben werden. Durch geeignete Umformung und Skalierung lassen sich diese drei Koordinaten in einem zwei-dimensionalen Koordinatensystem abbilden. Durch die Grundbedingung x + y + z = 1 l¨ asst sich der z-Anteil rechnerisch (z = 1 − x − y) leicht ermitteln. 0,9 0,8
Grün
Spektralfarblinie
0,7
RGB
0,6
Ge lb
0,5
Cyan
0,4
P
Weißpunkt
0,3
Rot
0,2
Blau
Purpurlinie
0,1 Q 0,1
lett
Vio 0,2
0,3
0,4
0,5
0,6
0,7
0,8
Innerhalb dieses Koordinatensystems liegen alle von einem normalsichtigen Menschen wahrnehmbaren Farben innerhalb eines hufeisenf¨ ormigen Gebildes, dessen oberere Umrandung durch die reinen Spektralfarben vorgegeben ist. Der untere Rand wird durch die sogenannte Purpurlinie als gedachte Verbindung zwischen den beiden Enden der Spektrallinie gebildet. Die Purpurlinie enth¨ alt keine Spektralfarben, sondern Farben, die nur durch Mischung von zwei Spektralfarben gewonnen werden k¨ onnen. Im Inneren befindet sich der Weißpunkt. Ausgehend von diesem Weißpunkt k¨ onnen alle als farbtongleich empfundenen Farben auf einer Linie durch Punkte P oder Q auf dem Rand der Spektralfarben abgelesen werden. Die auf dieser Linie gegen¨ uberliegenden Punkte P und Q sind Komplement¨ arfarben. Das
188
4 Multimediale Daten und ihre Kodierung
RGB-Farbmodell beschreibt die Farben, die innerhalb der CIE-Farbnormtafel in dem von den Grundfarben Rot, Gr¨ un und Blau gebildeten Dreieck liegen. Die Deutsche Industrienorm DIN 5033 definiert Farbe schließlich als diejenige Gesichtsemp” findung eines dem Auge des Menschen strukturlos erscheinenden Teiles des Gesichtsfeldes, durch die sich dieser Teil bei ein¨ augiger Beobachtung mit unbewegtem Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann.“ RGB Farbmodell (Red-Green-Blue, Rot-Gr¨ un-Blau) RGB stellt das heute am weitesten verbreitete Farbmodell f¨ ur Grafikformate dar. Es ist ein additives Farbmischsystem, in dem jeweils wechselnde Anteile der Grundfarben Rot (R, Wellenl¨ ange λ = 700 nm), Gr¨ un (G, λ = 546,1 nm) oder Blau (B, λ = 435,8 nm) additiv zum anf¨ anglichen Schwarz hinzugemischt werden, um neue Farben zu erzeugen. Bei G und B handelt es sich um Linien des Quecksilberspektrums, w¨ ahrend R das langwellige Ende des sichtbaren Lichts darstellt. Diese drei Komponenten k¨ onnen als linear unabh¨ angige Vektoren betrachtet werden, die einen dreidimensionalen Farbraum aufspannen, der durch den RGB-Farbw¨ urfel veranschaulicht wird.
Blau
Cyan
(0,0,1)
(0,1,1)
Magenta (1,0,1)
Weiß Grauwerte
(1,1,1)
Schwarz (0,0,0)
Grün (0,1,0)
Rot (1,0,0)
Gelb (1,0,1)
Der durch die Eckpunkte des Farbw¨ urfels aufgespannte Farbraum wird auch als Gamut bezeichnet. Grafikdatenformate nutzen zur Darstellung eines Pixels im RGB-Farbsystem ein Farb-Tripel (r,g,b) numerischer Werte, die den jeweiligen Farbanteil der Grundfarben im Pixel festlegen. Bei einer 24 Bit Echtfarbdarstellung repr¨ asentiert z.B. das Tripel (0,0,0) die Farbe Schwarz und (255,255,255) die Farbe Weiß. Tragen alle drei RGB-Anteile denselben numerischen Wert - also z.B. (66,66,66) - so liegen diese auf einer Diagonalen im RGBW¨ urfel und die resultierende Farbe ergibt stets eine bestimmte Graustufe. CMY (Cyan-Magenta-Yellow, Cyan-Magenta-Gelb) CMY ist ein subtraktives Farbmodell, das von Druckern und in der Fotografie genutzt wird und auf einer weißen Oberfl¨ ache arbeitet. Ann¨ ahernd alle Ger¨ ate, die auf dem Prinzip des Auftragens von Farbpigmenten auf einer weißen Oberfl¨ ache beruhen, nutzen das CMY-Verfahren. Wird die bedruckte Oberfl¨ ache beleuchtet, so absorbiert jede der drei verwendeten Grundfarben anteilig die ihr zugeordnete Komplement¨ arfarbe des einfallenden Lichts: Cyan (ein gr¨ unliches Blau) absorbiert Rot, Magenta (ein leicht violettes Rot) absorbiert Gr¨ un und Yellow (ein mittleres Gelb) absorbiert Blau. Durch Erh¨ ohung des Gelbwertes wird z.B. der Anteil des im Bild wahrnehmbaren Blaus verringert. Werden alle Farbanteile
4.4 Grafik - Datenformate und Komprimierung
189
aus dem einfallenden Licht durch eine Mischung aller Farben absorbiert, dann resultiert Schwarz.
Yellow
Rot
(0,0,1)
(0,1,1)
Grün (1,0,1)
Schwarz Grauwerte
(1,1,1)
Weiß (0,0,0)
Magenta (0,1,0)
Cyan (1,0,0)
Blau (1,0,1)
Da durch die Mischung der drei Grundfarben in der Praxis aber kein perfektes Schwarz erreicht werden kann, hat sich das erweiterte CMYK durchgesetzt. Dabei steht K f¨ ur Key Colour, die Schl¨ usselfarbe Schwarz. Der Begriff Key“ wird anstelle von Black“ verwen” ” det, um Missverst¨ andnissen mit dem Buchstaben B“ vorzubeugen, der im Englischen ” f¨ ur Blue“ (Blau) steht. Im Englischen bezeichnet K“ die im Offsetdruck verwendete ” ” Key Plate“ (Schl¨ usselplatte), die schwarz druckende Druckplatte, an deren Grundlinie die ” drei farbigen Druckplatten mit den Grundfarben ausgerichtet werden. Die schwarze Farbe dient im CMYK-Farbmodell nicht der Farbgebung, sonder lediglich dem Abdunkeln der drei Grundfarben. CMY-Farben werden als numerisches Tripel (CMYK-Farben als Quadrupel) angegeben. So stellt das CMY-Tripel (255,255,255) in einem 24 Bit Echtfarbsystem etwa die Farbe Schwarz dar und (0,0,0) die Farbe Weiß. Oft werden allerdings in vielen Farbmischsystemen auch nur Prozentangaben f¨ ur die anteilig verwendeten Grundfarben angegeben, die zwischen 0% und 100% liegen. HSV Farbmodell (Hue-Saturation-Value, Farbton-S¨ attigung-Intensit¨ at) Das HSV-Farbsystem ist ein Vertreter der Farbsysteme, die Farbeigenschaften variieren, um neue Farben zu erzeugen, anstelle Farben zu mischen. Hue bestimmt dabei den Farbton im eigentlichen Sinn, wie z.B. rot, orange, blau, etc. Die Angabe des Farbtons erfolgt als Farbwinkel auf dem Farbkreis (z.B. 0◦ = Rot, 120◦ = Gr¨ un, 240◦ = Blau). Saturation bestimmt den Anteil der Farbe Weiß im gew¨ ahlten Farbton. Ein voll ges¨ attigter Farbton, d.h. Saturation 100%, beinhaltet kein Weiß und erscheint als reiner Farbton. W¨ ahlt man z.B. den Farbton Rot mit einer S¨ attigung von 50%, so ist die resultierende Farbe Rosa. Value schließlich bezeichnet den Grad der Eigenleuchtkraft (Selbstlumineszenz) eines Farbtons, d.h. wieviel Licht der Farbton emittiert. Ein Farbton mit hoher Eigenleuchtkraft erscheint hell, w¨ ahrend ein Farbton mit nur geringer Eigenleuchtkraft dunkel erscheint.
190
4 Multimediale Daten und ihre Kodierung Weiß
V
Magenta
Blau
S
H
Rot Gelb
Cyan
Grün
Schwarz
HSV ¨ ahnelt damit stark dem Farbmischsystem, das von Malern angewendet wird, wenn diese zu einem reinen Farbton durch Zumischung von Weiß, Schwarz oder Grau verschiedene Abstufungen erzielen. Es gibt eine Reihe weiterer, sehr ¨ ahnlicher Farbmodelle, die einen Farbton (Hue) durch die Variation zweier anderer Eigenschaften ver¨ andern, so z.B.:
• HSL - Hue, Saturation, and Lightness (relative Helligkeit), • HSI - Hue, Saturation, and Intensity (Lichtintensit¨at), • HSB - Hue, Saturation, and Brightness (absolute Helligkeit). Obwohl in dieser Familie Farbsysteme eine klare Trennung zwischen Helligkeit und Farbe liefern, haben sie in der Grafikkodierung und Grafikkomprimierung kaum Bedeutung erlangt. Eine Ursache daf¨ ur ist ihre Diskontinuit¨ at bzgl. der Farbdarstellung. So haben die Farbwerte der Winkel 0◦ und 359◦ fast einen identischen Farbton, ihre Repr¨ asentation als Zahlenwert unterscheidet sich jedoch stark. Sollte es z.B. bei einer verlustbehafteten Komprimierung zu einer Vermischung der beiden Farben kommen, w¨ urde sich eine Farbe ergeben, die auf der gegen¨ uberliegenden Seite des Farbkreises liegt ((0+359)/2≈180), und die die Darstellung stark verf¨ alscht. YUV Farbmodell (Y-Signal, U-Signal, and V-Signal) Das YUV-Farbmodell geh¨ ort zu einer Familie von Farbmodellen, die sich von den u ¨brigen ¨ Farbmodellen durch die Trennung von Bildhelligkeit und Farbdifferenz unterscheidet. Uber eine einfache Transformation lassen sich die RGB-Komponenten eines Farbbildes in ihr entsprechendes YUV-Gegenst¨ uck umrechnen. Historisch gesehen sind die YUV-Farbmodelle ¨ eng mit der Entwicklung des Farbfernsehens verkn¨ upft. Beim Ubergang vom SchwarzweißFernsehen zum Farbfernsehen war es aus Gr¨ unden der Kompatibilit¨ at erforderlich, ein Verfahren zu finden, das es erm¨ oglichte, die alten Schwarzweiß-Empf¨ anger weiterzubenutzen ¨ und durch zus¨ atzliche Ubertragung der Farbkomponente das Farbfernsehen zu erm¨ oglichen. Man trennte also die Helligkeit (Luminanz) (Y-Komponente) von den Farbanteilen (Chrominanz) (U- und V-Komponente). Das menschliche Auge besitzt unterschiedliche Empfindlichkeit bzgl. der Helligkeits- und Farbaufl¨ osung, so dass diese Art der Trennung der Komponenten eine gleichzeitige Anpassung der Aufl¨ osung der Komponenten an die menschliche Wahrnehmung erm¨ oglichte. Die Umrechnung vom RGB- in das YUV-Farbmodell erfolgt u ¨ber:
4.4 Grafik - Datenformate und Komprimierung
(Y, U, V) = (R, G, B) ·
0, 299 −0, 168736 0, 5 0, 587 −0, 331264 −0, 418688 0, 114 0, 5 −0, 081312
191
!
Innerhalb der Familie dieser Farbmodelle unterscheidet man grunds¨ atzlich drei Modelle:
• YUV - Dieses Modell findet im PAL-Fernsehstandard seinen Einsatz. • YIQ - Dieses Modell wird im konkurrierenden NTSC-Farbfernsehsystem verwendet, das •
haupts¨ achlich in Nordamerika und Japan verwendet wird. Der einzige Unterschied zum YUV-Modell besteht in einer Verschiebung der Chrominanzen um 33◦ . YCbCr - Dieses Modell wurde aus dem YUV-Modell speziell f¨ ur das digitale Fernsehen abgeleitet. Es unterscheidet sich vom YUV-Modell durch eine Skalierung der einzelnen Komponenten und einen Offset f¨ ur die Chrominanzen.
Weiterf¨ uhrende Literatur: Falk, D., Brill, D., Stork, D.: Seeing the Light: Optics in Nature, Photography, Color, Vision and Holography, John Wiley & Sons, New York, USA (1986) Gage, J.: Kulturgeschichte der Farbe. Von der Antike bis zur Gegenwart, 2. Aufl., E. A. Seemann Verlag, Leipzig (2004) K¨ uppers, H.: Das Grundgesetz der Farbenlehre, 10. Aufl., DuMont, K¨ oln (2002)
4.4.1 Varianten der Laufl¨angenkodierung fur ¨ Grafikdaten Bild- oder Grafikdaten werden in der Regel in einem sequentiellen Prozess komprimiert. Dazu wird das 2-dimensionale Bild in einen 1-dimensionalen Datenstrom, bestehend aus den Farbinformationen der einzelnen Bildpunkte zerlegt. Dies kann zeilenweise von links oben nach rechts unten (X-Axis Encoding), spaltenweise in derselben Reihenfolge (Y-Axis Encoding) oder sogar diagonal in abwechselnder Richtung (Zig-Zag-Encoding) erfolgen. Laufl¨angenkodierungen (RLE, siehe Exkurs 6) f¨ur Grafikdateien sind in der Regel verlustfrei. Das Verfahren entspricht im Wesentlichen dem bereits vorgestellten Verfahren f¨ur Textdateien. Unabh¨angig vom gew¨ahlten Farbmodell werden die Farbwerte der einzelnen Bildpunkte durch eine Anzahl numerischer Werte angegeben. Diese numerischen Werte k¨onnen als Bin¨arzahl dargestellt werden und bilden so fortlaufend aneinandergereiht einen einzigen langen Bitstring. Auftretende zusammenh¨angende Gruppen von Nullen und Einsen k¨onnen wie gehabt zusammengefasst werden. Je l¨anger dabei die zusammenh¨angenden Gruppen sind, desto h¨oher ist der Grad der Komprimierung. Eine zusammenh¨angende Gruppe von identischen Bits l¨asst sich dann bezogen auf die urspr¨ungliche Speichergr¨oße auf nur logarithmischem Raum zusammenfassen. Diese Art der Kodierung wird als Bit-Level Laufl¨angenkodierung bezeichnet. Im Gegensatz dazu ber¨ucksichtigt die Byte-Level Laufl¨angenkodierung identische Byte-Werte der zu kodierenden Bildinformation und nimmt keine R¨ucksicht auf einzelne Bits oder Bitgruppen. Am verbreitetsten sind dabei Verfahren, die zusammenh¨angende Gruppen identischer Bytes in einem 2-Byte Paket kodieren, wobei
192
4 Multimediale Daten und ihre Kodierung
das erste Byte die Anzahl der Wiederholungen und das zweite Byte den betreffenden Bytewert angibt. Auf einem h¨oher gelegenen Abstraktionslevel setzt die sogenannte Pixel-Level Laufl¨angenkodierung an. Diese wird dann angewendet, wenn zwei oder mehr Bytes zur Speicherung des Farbwertes eines Pixels verwendet werden. Um diese Verfahren in ihrer Effizienz noch weiter zu erh¨ohen, werden verschiedene spezielle Tricks angewendet. Wiederholt sich in einer Bilddatei etwa eine komplette Zeile, dann reicht es aus, diese Wiederholung durch ein spezielles, reserviertes Codewort zu kennzeichnen, was zu einer betr¨achtlichen zus¨atzlichen Platzersparnis f¨uhrt.
4.4.2 LZW-Verfahren Eine der gebr¨auchlichsten Komprimierungsmethoden f¨ur Grafikdaten ist das sogenannte LZW-Verfahren, benannt nach seinen drei Urhebern Abraham Lempel, Jakob Zif und Terry Welch. 1977 entwickelten Lempel und Zif den ersten Vertreter der LZ-Substitutionskomprimierverfahren - LZ77 - der besonders gut zur Komprimierung von Textdateien oder zur Archivierung geeignet war [254]. LZ77 ist in vielen g¨angigen Archivierungsprogrammen, wie z.B. compress, pkzip oder arj, enthalten. Das im Folgejahr entwickelte Verfahren LZ78 dagegen ist zur Komprimierung von Bin¨ardaten, wie z.B. Bitmaps, geeignet. 1984 modifizierte Terry Welch, der zu dieser Zeit f¨ur die Firma Unisys arbeitete, den LZ78-Komprimierer, um ihn an den Einsatz in Hochgeschwindigkeits-Festplattencontrollern anzupassen. Das Ergebnis dieser Modifikation ist der heute gebr¨auchliche LZW-Algorithmus [246]. Der LZW-Algorithmus ist f¨ur jede Art von Daten geeignet und arbeitet sowohl beim Kodieren als auch beim Dekodieren sehr schnell, da unter anderem auf die Ausf¨uhrung von Fließkommaoperationen verzichtet wird. LZW ist ein W¨orterbuchbasierter Komprimierungsalgorithmus, der zur Kodierung ein W¨orterbuch (Data Dictionary, Translation Table) aus den Zeichenketten (bzw. 8-Bit Bin¨arworten) eines unkomprimierten Datenstroms aufbaut. Die auftretenden Datenmuster (Substrings) eines Datenstroms werden anschließend den einzelnen W¨orterbucheintr¨agen zugeordnet. Iterativ werden aus nicht im W¨orterbuch vorkommenden Datenmustern neue Codeworte generiert und im W¨orterbuch gespeichert. Treten diese Datenmuster erneut auf, werden sie durch die jeweils zugeordneten Codew¨orter aus dem W¨orterbuch ersetzt. Da diese eine k¨urzere L¨ange als die urspr¨unglichen Datenmuster besitzen, findet eine Komprimierung statt (siehe Abb. 4.8). Die Dekodierung von LZW-komprimierten Daten erfolgt in der umgekehrten Reihenfolge. Der Vorteil des LZW-Algorithmus liegt darin, dass das W¨orterbuch nicht zus¨atzlich zu den komprimierten Daten abgelegt und u¨ bertragen werden muss. Es ist implizit in den komprimierten Daten mit enthalten und wird im Verlauf der Dekodierung rekonstruiert. Der Dekomprimierungsalgorithmus liest ein Codewort ein und u¨ bersetzt dieses mit Hilfe des W¨orterbuchs zur¨uck in die unkomprimierten Ursprungsdaten. Der LZW-Algorithmus arbeitet mit einer W¨orterbuchgr¨oße von 4K (4.096) Byte. Im W¨orterbuch befinden sich beim Start des Algorithmus bereits je-
4.4 Grafik - Datenformate und Komprimierung
193
LZW-Algorithmus - prinzipieller Ablauf
• Lies aus dem Eingabe-Strom Zeichen und akkumuliere diese zu einem String S, solange sich S als W¨ orterbuch-Eintrag findet. • Sobald ein Zeichen x gelesen wird, f¨ ur das der String Sx nicht mehr zur W¨ orterbuchTabelle geh¨ ort, fahre folgendermaßen fort: – F¨ uge den String Sx der W¨ orterbuch-Tabelle hinzu, – baue mit dem Zeichen x beginnend einen neuen String auf.
• Wiederhole diese Schritte, bis das Ende des Eingabe-Stroms erreicht ist. Abb. 4.8 LZW-Komprimierung - Algorithmus
weils die einzelnen Bytes von 0 bis 255, die Eintr¨age 256 bis 4.095 werden zur Laufzeit des Algorithmus gef¨ullt und sind f¨ur Zeichenketten vorgesehen, die aus zwei oder mehreren Zeichen bestehen. Neue Eintr¨age werden wie bereits beschrieben erzeugt, indem gefundene W¨orterbucheintr¨age mit einem neuen Zeichen des zu komprimierenden Texts kombiniert werden. Bei 4.096 Eintr¨agen im W¨orterbuch handelt es sich um ein 12-Bit Kodierungschema (212 =4.096). Um Platz zu sparen werden 1-Byte lange Einzelzeichen nicht als W¨orterbuchreferenz (mit 12 Bit L¨ange) kodiert. Ein spezielles Flag dient dazu, zwischen W¨orterbuchreferenz und Einzelzeichen zu unterscheiden. Abb. 4.9 und Abb. 4.10 beschreiben jeweils ein Beispiel zur Komprimierung und Dekomprimierung mit dem LZW-Algorithmus. Das gesamte W¨orterbuch einer LZW-komprimierten Datei kann bis zu 4096 Eintr¨age umfassen, die aus bis zu 4096 Byte langen Zeichenketten bestehen k¨onnen. Ein neuer W¨orterbucheintrag besteht stets aus einem Pr¨afix, der auf einen bereits im W¨orterbuch vorhandenen Eintrag verweist, und einem Suffix, der lediglich aus einem Zeichen besteht, mit dem der gefundene W¨orterbucheintrag erweitert wird. Der LZW-Algorithmus zur Datenkomprimierung wurde von den Firmen Unisys und IBM patentiert. Unisys fordert von allen Hardware-Entwicklern, die planen, das LZW-Verfahren in ihren Produkten einzusetzen die einmalige Zahlung einer Lizenzgeb¨uhr. Das LZW-Verfahren wird bei der Komprimierung von Grafikdaten in den ¨ Formaten GIF und TIFF eingesetzt. Tabelle 4.2 gibt einen kurzen Uberblick u¨ ber gebr¨auchliche Grafik-Datenformate und den Komprimierungsverfahren auf denen diese fußen.
4.4.3 GIF-Format Das Graphic Interchange Format (GIF) wurde 1987 von der US-amerikanischen Firma Compuserve Incorporated eingef¨uhrt und unterlag aufgrund des darin verwendeten LZW-Algorithmus bis 2003/2004 einem Copyright der Firma Unisys. Heute kann das GIF-Grafikformat frei genutzt werden. Seine weite Verbreitung erreichte dieses Grafikformat durch seinen Einsatz im Internet. Gl¨ucklicherweise gestattete Compuserve den Einsatz von Software, die dieses Grafikformat nutzte. Der
194
4 Multimediale Daten und ihre Kodierung
Beispiel f¨ ur eine LZW-Komprimierung: Der folgende Textstring soll mit Hilfe des LZW-Algorithmus komprimiert werden: ABRAKADABRAABRAKADABRA. Der Algorithmus startet mit einem W¨ orterbuch, in dem die ersten 256 Eintr¨ age aus den zugeh¨ origen 1-Byte langen Einzelzeichen (0016 – FF16 ) bestehen. Die folgende Tabelle verdeutlicht den Ablauf des LZW-Algorithmus. Die erste Spalte enth¨ alt die noch zu komprimierende Rest-Zeichenkette. Die Rest-Zeichenkette wird von links solange gelesen, bis die l¨ angste Zeichenkette gefunden wurde, f¨ ur die bereits ein W¨ orterbucheintrag existiert. Der gefundene W¨ orterbucheintrag ist in der zweiten Spalte dargestellt. Die dritte Spalte enth¨ alt die Ausgabe des LZW-Algorithmus, die bei der Kodierung des gefundenen W¨ orterbucheintrags entsteht. In der letzten Spalte befindet sich der neue W¨ orterbucheintrag, der entsteht, wenn das n¨ achste zu lesende Zeichen zum gefundenen W¨ orterbucheintrag hinzugef¨ ugt wird. Neue W¨ orterbucheintr¨ age bestehen aus der zu kodierenden Zeichenkette und ihrer Kodierung. Rest-Zeichenkette
gefundener Eintrag
ABRAKADABRAABRAKADABRA A BRAKADABRAABRAKADABRA B RAKADABRAABRAKADABRA R AKADABRAABRAKADABRA A KADABRAABRAKADABRA K ADABRAABRAKADABRA A DABRAABRAKADABRA D ABRAABRAKADABRA AB <256> RAABRAKADABRA RA <258> ABRAKADABRA ABR <263> AKADABRA AK <259> ADABRA AD <261> ABRA ABRA <265>
Ausgabe
neuer Eintrag
A AB <256> B BR <257> R RA <258> A AK <259> K KA <260> A AD <261> D DA <262> <256> ABR <263> <258> RAA <264> <263> ABRA <265> <259> AKA <266> <261> ADA <267> <265> -
Nach der Komprimierung erhalten wir folgenden Code (Spalte Ausgabe von oben nach unten gelesen): ABRAKAD<256><258><263><259><261><265> W¨ ahrend die urspr¨ ungliche Zeichenkette 172 Bit (22 Zeichen von jeweils 8 Bit L¨ ange) Speicherplatz ben¨ otigt, belegt die LZW-komprimierte Zeichenkette lediglich 156 Bit (13 Zeichen von jeweils 12 Bit L¨ ange).
Abb. 4.9 LZW-Komprimierung - Beispiel
Entwickler der Software musste lediglich die Urheberrechte am GIF-Datenformat f¨ormlich anerkennen. Man unterscheidet zwei GIF Datenformate: GIF87a und GIF89a, das eine verbesserte Version des a¨ lteren GIF87a darstellt. Jede GIF-Datei beginnt mit einem Header und einem sogenannten Logical Screen Descriptor, der Informationen u¨ ber die in der GIF-Datei gespeicherten Bilder enth¨alt. Danach folgt in der Regel die Ausgabe einer globalen Farbpalette, gefolgt von den in der GIF-Datei gespeicherten Bildern,
4.4 Grafik - Datenformate und Komprimierung
195
Beispiel f¨ ur eine LZW-Dekomprimierung: Bei der Dekodierung einer LZW-komprimierten Datei kann das W¨ orterbuch schrittweise rekonstruiert werden, da die Ausgabe des LZW-Algorithmus zu jeder Zeit immer nur W¨ orterbucheintr¨ age beinhaltet, die bereits im W¨ orterbuch vorhanden waren. Bei der Komprimierung beginnt jeder W¨ orterbucheintrag mit dem letzten Zeichen des zuvor hinzugef¨ ugten W¨ orterbucheintrags. Umgekehrt ist das letzte Zeichen eines neuen W¨ orterbucheintrags, der dem W¨ orterbuch bei der Dekomprimierung hinzugef¨ ugt werden muss, gleich dem ersten Zeichen, das bei der Dekodierung ausgegeben werden muss. Die folgende Tabelle verdeutlicht den Ablauf der LWZ-Dekomprimierung. Die erste Spalte enth¨ alt fortlaufend das jeweils zu dekodierende Codezeichen. Die zweite Spalte zeigt die Ausgabe der Dekomprimierung und die dritte Spalte enth¨ alt den aktuell hinzugef¨ ugten W¨ orterbucheintrag, bestehend aus Zeichenkette und zugeh¨ origem Code. erstes Zeichen Ausgabe neuer Eintrag A B R A K A D <256> <258> <263> <259> <261> <265>
A B AB <256 R BR <257> A RA <258> K AK <259> A KA <260> D AD <261> AB DA <262> RA ABR <263> ABR RAA <264> AK ABRA <265> AD AKA <266> ABRA ADA <267>
Die Spalte Ausgabe von oben nach unten gelesen ergibt wieder die Eingangszeichenkette ABRAKADABRAABRAKADABRA.
Abb. 4.10 LZW-Dekomprimierung - Beispiel
die jeweils wieder von einer lokalen Farbpalette eingeleitet werden k¨onnen. Die GIF-Datei endet mit einem speziellen Abschlusszeichen (siehe Exkurs 8). Exkurs 8: GIF – Dateiaufbau Der am Beginn einer GIF-Datei stehende Header (6 Byte) identifiziert die Datei als GIFDatei u ¨ber eine Dateisignatur (3 Byte mit den Zeichen “GIF”), gefolgt von einer Versionsnummer (3 Byte mit den Zeichen “87a” oder “89a”). Der Logical Screen Descriptor gibt an, wieviel Platz f¨ ur die in einer GIF-Datei abgelegten Bilder ben¨ otigt wird. Zuerst werden Breite (2 Byte) und H¨ ohe (2 Byte) der Bilddatei in der Zahl der Pixel angegeben. Da f¨ ur beide Maßzahlen jeweils 2 Byte Speicherplatz zur Verf¨ ugung stehen, ist die maximale Bildgr¨ oße auf 216 =65.536 Pixel f¨ ur jeweils H¨ ohe und Breite beschr¨ ankt. Das darauffolgende Byte macht Angaben u ugung ¨ber die zur Verf¨ stehende Farbinformation: Bit 7 gibt an, ob eine globale Farbpalette benutzt wird, Bit 4-6 geben die verwendete Farbaufl¨ osung an, Bit 3 gibt an, ob die Farben der Farbpalette entsprechend ihrer H¨ aufigkeit im Bild sortiert vorliegen, und Bit 0-2 stehen f¨ ur die Gr¨ oße der globalen Farbpalette. Danach folgt ein Byte, das den Farbindex der Bildhintergrundfarbe enth¨ alt, gefolgt von einem Byte, das f¨ ur das Seitenverh¨ altnis im gespeicherten Bild steht.
196
4 Multimediale Daten und ihre Kodierung
Tabelle 4.2 Einige Standard-Grafikdatenformate mit Komprimierung, nach [158, 195] BMP Bitmap Format, einfachstes Grafikformat, das als Standardformat Windows BMP große Verbreitung gefunden hat. Im Internet kaum verwendet, da nur schwache Komprimierung und daher oft sehr große Dateien. BMP-Dateien k¨ onnen unkomprimiert bzw. mit einfacher RLE-Komprimierung kodiert werden. Die maximalen Dimensionen einer BMP-Bilddatei betragen (theoretisch) 232 × 232 Pixel, wobei Farbtiefen bis zu 32 Bit m¨ oglich sind. TIFF
TIFF (Tagged Image File Format) findet typischerweise Verwendung, um Grafikdateien von einem System auf ein anderes zu u osung ¨bertragen. Die Bildaufl¨ ist nicht beschr¨ ankt. TIFF unterst¨ utzt verschiedene Farbr¨ aume und einen 8-Bit Alpha-Kanal. TIFF-Dateien k¨ onnen unkomprimiert bzw. mit den Huffman-, LZWoder RLE-Komprimierungsverfahren kodiert werden. Die maximalen Bilddimensionen beschr¨ anken TIFF-kodierte Bilddateien auf eine L¨ ange von 232 Byte bei einer Farbtiefe von bis zu 32 Bit.
GIF
(Graphic Interchange Format) Einfaches Grafik-Datenformat mit der M¨ oglichkeit, mehrere Bilder in einer Datei abzuspeichern. GIF-Dateien werden mit dem LZW-Komprimierungsverfahren kodiert. Die maximalen Dimensionen einer GIFGrafikdatei betragen 65.536 × 65.536 Pixel bei einer Farbtiefe von 8 Bit aus einer 24 Bit Farbpalette.
JPG
(Joint Photographic Expert Group, eigentlich JFIF: JPEG-File Interchange Format) Grafikformat mit verlustbehafteter Komprimierung. Erreicht bei Bildern mit fotografischer Charakteristik einen besseren Kompressionsgrad als die o.a. Methoden. Bei JPG-Dateien kommt das RLE-Komprimierungsverfahren in Verbindung mit der Huffman-Komprimierung oder der arithmetischen Komprimierung zum Einsatz. Die maximalen Bilddimensionen und die Farbtiefe richten sich nach den gew¨ ahlten Komprimierungsparametern. Beim JPEG File Interchange Format (JFIF) ist die Bilddimension auf 65.536 × 65.536 Pixel bei maximal 24 Bit Farbtiefe begrenzt.
PNG
(Portable Network Graphics) unterst¨ utzt neben einer verlustfreien Kompression ebenfalls Bilder mit eingeschr¨ ankter Farbpalette. Zu den Besonderheiten bei PNG geh¨ oren unter anderem ein 8-Bit Alpha-Kanal, Gamma-Korrektur, InterlaceDarstellung und Fehlererkennung. PNG-Dateien werden mit dem offenen zlibKomprimierungsverfahren kodiert. Die maximale Bilddimension ist nicht beschr¨ ankt, Farbtiefen bis zu 48 Bit sind m¨ oglich.
In der globalen Farbpalette k¨ onnen bis 256=28 Farben angegeben werden, die sich aus 24 16.7 Millionen (=2 ) m¨ oglichen Farben ausw¨ ahlen lassen. Jede einzelne Farbe der globalen Farbpalette besteht aus einem 24-Bit RGB-Tripel der Form (r,g,b). Die globale Farbpalette gibt an, aus welchen Farben das in der GIF-Datei gespeicherte Bild bestehen kann. Ein Local Image Descriptor enth¨ alt Informationen u ¨ber eines der in der GIF-Datei gespeicherten Bilder. Zu Beginn steht ein Bild-Separator (1 Byte) als Kennzeichnung, dass hier ein neues Bild beginnt. Die nachfolgenden Bytes geben die Position der oberen linken Ecke des Bildes an (jeweils 2 Byte), gefolgt von Breite und H¨ ohe des Bildes (ebenfalls je 2 Bytes). Darauf folgt ebenso wie im Logical Screen Descriptor ein Byte mit Angaben u ¨ber die Farbinformation des Bildes, die im Gegensatz zur globalen Farbpalette zus¨ atzlich noch Informationen zur Darstellungsreihenfolge der Bildzeilen enthalten kann (Interlace Flag). Ist das Interlace Flag gesetzt, so werden die einzelnen Bildzeilen in folgender Reihenfolge abgespeichert: Bei n Bildzeilen werden die einzelnen von 0 bis n-1 durchnummerierten Zeilen n 3n 5n 7n n 3n in der Reihenfolge 0, n2 , n4 , 3n uhrt. Die Interlace-Technik 4 , 8 , 8 , 8 , 8 , 16 , 16 , . . . aufgef¨
4.4 Grafik - Datenformate und Komprimierung
197
erschwert zwar das Lesen des Bildinhalts, hilft aber dem Nutzer, bereits nach wenigen u ¨bertragenen Zeilen den Bildinhalt zu erkennen. F¨ ur jedes der in der GIF-Datei enthaltenen Bilder folgt dann optional eine eigene lokale Farbpalette, die ebenso wie die globale Farbpalette kodiert ist. Danach folgen die mit Hilfe des LZW-Verfahrens komprimierten Bilddaten.
Header und Farbpalette
Bild 1
Header Logical Screen Descriptor
Header und Farbpalette
Global Color Table
Global Color Table
Local Image Descriptor
Comment Extension
Local Color Table
ZusatzInformation
Local Image Descriptor
… Local Image Descriptor
Bild 1
Local Color Table Image Data
Local Color Table
…
Image Data Trailer
Application Extension Graphic Control Extension
Image Data
Bild n
Header Logical Screen Descriptor
Local Image Descriptor Bild n
GIF87a
Local Color Table Image Data
ZusatzInformation
Comment Extension Plain Text Extension Trailer GIF89a
Im GIF-89a Format k¨ onnen in einem Graphic Control Extension Block zus¨ atzliche Informationen dar¨ uber gespeichert werden, wie mit den nachfolgenden Bilddaten umzugehen ist. Er enth¨ alt unter anderem ein Transparenz-Flag, das angibt, welcher Farbindex im nachfolgenden Bild transparent dargestellt werden soll, ein Kontroll-Flag, das angibt, auf welche Nutzer-Aktion hin die n¨ achste Grafiksequenz gestartet werden soll, und eine Wartezeit, die angibt, wie lange zwischen den einzelnen Bildern gewartet werden soll. Mit einem Text-Erweiterungsblock (Plain Text Extension) bietet das GIF-89a Format weiter die M¨ oglichkeit, zus¨ atzliche alphanumerische Information zu den gespeicherten Bildinformationen darzustellen. Neben Gesamtgr¨ oße, Position und Dimensionen der einzelnen darzustellenden Buchstaben beinhaltet dieser Block die eigentliche Textinformation. In einem Anwendungs-Erweiterungsblock (Application Extension) k¨ onnen zus¨ atzliche Informationen gespeichert werden, die es externen Anwendungsprogrammen m¨ oglich machen, bestimmte Aktionen zu den eingelesenen Bilddaten auszuf¨ uhren. In einem Kommentar-Erweiterungsblock (Comment Extension) k¨ onnen zus¨ atzliche Textdaten gespeichert werden, die bei der eigentlichen Bilddarstellung ignoriert werden. Hier l¨ asst sich ein bis zu 255 Zeichen langer Textstring abspeichern, der vom Nutzer ausgelesen werden kann und die Ausgabe zus¨ atzlicher Kommentare zum abgespeicherten Bild erm¨ oglicht.
198
4 Multimediale Daten und ihre Kodierung
Header
Logical Screen Descriptor
GIF
87A
width
height
Background ColorIndex
Aspect Ratio
CTF
CR
red
blue
green
separator
Trailer
ColorTable Flag Color Resolution ColorTable Sort Flag Global ColorTable Size
… red
Image Data
CTF CR CTS GCTS
GCTS
green
Global Color Table
Local Image Descriptor
CTS
LCTS R CSF IF LCTF
blue
left corner
top corner
width
height
Local ColorTable Size Reserved Color Sort Flag Interlaced Flag Local ColorTable Flag
LCTS
R
CSF
IF
LCTF
0110101010… 3Bh
Weiterf¨ uhrende Literatur: Murray, J. D., van Ryper, W.: Encyclopedia of Graphic File Formats, 2nd Edition, O’Reilly & Associates, Inc. Sebastopol CA, USA (1996)
Beim GIF Datenformat kommt es zwar zu einem Informationsverlust durch die Reduktion des Farbraumes, die eigentliche Komprimierung aber arbeitet verlustfrei. Das GIF Datenformat wurde von Compuserve speziell f¨ur den online-Einsatz entwickelt und bietet daf¨ur die folgenden Features: • Eine Datei kann im Interlace-Verfahren abgespeichert werden, d.h. die Reihenfolge, in der die einzelnen Bildzeilen dargestellt werden, kann so einge¨ stellt werden, dass w¨ahrend der Ubertragung des Bildes der eigentliche Bild¨ inhalt bereits fr¨uhzeitig erkannt werden kann. Dies ist f¨ur die online-Ubertragung von großen Grafikdateien u¨ ber schmalbandige Internet-Verbindungen sehr hilfreich. Mit fortschreitendem Einlesevorgang wird die dargestellte Grafik zusehends deutlicher und feiner aufgel¨ost.
4.4 Grafik - Datenformate und Komprimierung
199
• Mehrere Grafiken k¨onnen in einer einzigen Datei gespeichert werden, verbunden mit der M¨oglichkeit zur Steuerung der Einzelbildabfolge. Mit dieser Option ist es m¨oglich, kleine Animationen in einer Grafikdatei abzuspeichern. • Es l¨asst sich eine Transparenz-Farbe (Alpha-Kanal) festlegen, mit der sich besondere Effekte auf WWW-Seiten erzielen lassen. Ein großer Nachteil des GIF-Formates besteht in der Reduktion des Farbraums auf nur 256 Farben, weshalb es f¨ur die Darstellung von realit¨atsnahen Bildinformationen, wie z.B. hochaufgel¨osten Fotografien, nur bedingt geeignet ist. Um bei einer beschr¨ankten Farbpalette trotzdem einen realistischen Eindruck zu erzeugen, k¨onnen bei der Bildkodierung sogenannte Dithering-Verfahren angewandt werden, die die Wechselwirkung benachbarter Bildpunkte mit unterschiedlichen Farben ausnutzen, um dem menschlichen Wahrnehmungssystem nicht vorhandene Farben vorzut¨auschen (siehe Abb. 4.11). Ideal dagegen ist das GIF-Format f¨ur die Speicherung von schematischen und plakativen Darstellungen sowie von Grafiken mit großen Kontrastspr¨ungen. Obwohl inzwischen als technisch veraltet angesehen, findet es im WWW insbesondere f¨ur Werbebanner und kleine Bilder (Icons) regen Einsatz. Das Dithering-Verfahren Dithering (to dither=[engl.] schwanken, zittern) ist eine Technik in der Computergrafik, die bei Bildern mit geringer Farbtiefe die Illusion einer gr¨ oßeren Farbtiefe bewirkt. Dazu werden in einem Bild die fehlenden Farben durch eine bestimmte Pixel-Anordnung mit den verf¨ ugbaren Farben ann¨ ahernd nachgebildet und dadurch ¨ harte Uberg¨ ange zwischen den Farben vermieden. Aus einem entsprechenden Abstand betrachtet, nimmt das menschliche Auge das Dithering dann als Mischung der einzelnen Farben wahr. Die nebenstehende Grafik zeigt den Effekt des Ditherings mit schwarzen und weißen Pixeln, deren Anordnung bei ausreichender Verkleinerung dem Betrachter als Graustufe erscheint. F¨ ur das Dithering gibt es eine Vielzahl an unterschiedlichen Algorithmen, die oft auch mit einer Fehlerstreuung arbeiten. Insbesondere, wenn mit einer kleinen Farbpalette gearbeitet wird, k¨ onnen Artefakte auftreten, die dem Bild eine grobk¨ ornige Charakteristik verleihen. Das vorliegende Buch z.B. ist mit nur einer Druckfarbe (Schwarz) gedruckt worden, so dass f¨ ur Grafiken und Fotos mit Hilfe eines speziellen Rasterungsprozesses der Eindruck erweckt werden muss, dass zu ihrer Darstellung unterschiedliche Graustufen verwendet wurden.
Abb. 4.11 Das Dithering-Verfahren
4.4.4 PNG-Format Das PNG Grafikformat (Portable Network Graphics) wurde ab 1994 als Ersatz f¨ur das a¨ ltere, bis 2004 noch Patentrechtsbestimmungen unterliegenden GIF Grafikformat entwickelt. Ab 1996 erlangte es den Status als offizielle W3C-Empfehlung
200
4 Multimediale Daten und ihre Kodierung
und 1997 wurde es als RFC 2083 vom IETF standardisiert. 2003 wurde die PNGSpezifikation 1.2 zum internationalen ISO-Standard ISO/IEC 15948:2003. Die Komprimierung der Grafikdaten erfolgt ohne Verlust und u¨ ber ein lizenzfreies Komprimierungsverfahren. ¨ Ahnlich wie GIF kann PNG Farbpaletten-beschr¨ankte Grafikdaten verarbeiten. Dar¨uber hinaus besteht die M¨oglichkeit der Kodierung einzelner Farbkan¨ale mit bis zu 16 Bit pro Kanal. Dies erlaubt die Darstellung von Graustufenbildern mit bis zu 216 = 65.536 Helligkeitsabstufungen und Farbbildern mit einer Farbtiefe von insgesamt 48 Bit. Zus¨atzlich k¨onnen PNG-Grafikdaten Transparentinformationen (Alpha-Kanal) in Abstufungen mit bis zu 16 Bit enthalten. Dadurch wird es m¨oglich, beliebig geformte Bilder u¨ ber einem Hintergrund nahtlos darzustellen. PNG bietet dazu noch die M¨oglichkeit der Einbettung von Farbprofildaten, Farbund Helligkeits-Korrekturdaten (Gammakorrektur) zur Anpassung der Grafikdaten an unterschiedliche Ausgabeger¨ate. Allerdings werden neben RGB und Graustufen keine alternativen Farbr¨aume unterst¨utzt, weshalb das PNG Grafikformat im professionellen Bereich keine Verbreitung gefunden hat. Vor der eigentlichen Grafikdatenkomprimierung erlaubt PNG eine zeilenweise Vorfilterung der Daten. Da sich in vielen Bildern benachbarte Bildpunkte kaum voneinander unterscheiden, ist es von Vorteil, lediglich die Differenzwerte zwischen benachbarten Pixeln zu verarbeiten. Große Differenzen kommen in nat¨urlichen“ ” Bildern, wie z.B. Fotografien, selten und wenn, dann nur an den Kanten abgebildeter Objekte vor. Lange Folgen gleichartiger Differenzwerte beg¨unstigen die Komprimierung der Daten. Dabei unterscheidet PNG verschiedene Varianten der Differenzenbildung, bei denen jeweils unterschiedliche benachbarte Bildpunkte in die Berechnung mit eingehen. Bei der Dekodierung werden inverse Filter auf die gespeicherten Differenzenwerte angewandt, um die originalen Bilddaten zu rekonstruieren. Die Komprimierung der gefilterten Grafikdaten erfolgt mit dem lizenzfreien und verlustlosen Deflate-Algorithmus, der auch in verschiedenen Dateiarchivierungsformaten, wie z.B. zip der gz zum Einsatz kommt. Der PNG Grafikstandard verf¨ugt auch u¨ ber integrierte Pr¨ufsummenmechanismen, die bei einer Daten¨ubertragung entstehende Fehler fr¨uhzeitig erkennen l¨asst.
4.4.5 JPEG-Format Das JPEG Komprimierungsverfahren f¨ur Bild- und Grafikdateien geh¨ort zu den verlustbehafteten Komprimierungstechniken. Zusammen mit dem GIF-Komprimierungsverfahren ist JPEG heute das am weitesten verbreitete Verfahren zur Komprimierung von Bilddateien. JPEG steht f¨ur Joint Photographic Expert Group, eine Untergruppe der ISO, die das Verfahren 1990 in Zusammenarbeit mit der CCITT als ISO 10918-1 standardisierte. Wie der Name bereits andeutet, handelt es sich bei JPEG um ein Komprimierungsverfahren, das sich besonders gut f¨ur die Komprimierung nat¨urlicher“, z.B. fotografischer Abbildungen eignet. Die verwendete ”
4.4 Grafik - Datenformate und Komprimierung
201
Komprimierungstechnik basiert auf der Dekorrelation der Bildbestandteile durch die Anwendung der diskreten Cosinus Transformation (Discrete Cosinus Transformation, DCT) in Verbindung mit der Huffman-Kodierung. F¨ur Bilddateien, die mit Hilfe des JPEG-Verfahrens komprimiert wurden, entwickelte das amerikanische Unternehmen C-Cube ein entsprechendes Datenformat, das JPEG File Interchange Format (JFIF), das es erm¨oglicht, JPEG-kodierte Informationen zwischen inkompatiblen Computersystemen auszutauschen. Basierend auf der JPEGKomprimierungstechnik f¨ur statische Bilder wurde ein Komprimierungsverfahren f¨ur animierte Bildsequenzen entwickelt, das MPEG-Komprimierungsverfahren (Motion JPEG). Die JPEG-Komprimierung ist ein asymmetrisches Komprimierungsverfahren, d.h. die Kodierung bedarf erheblich mehr Rechenaufwand als die anschließende Dekodierung. Die JPEG-Komprimierung erm¨oglicht die Speicherung von Grafikdateien mit einer Farbtiefe von 24 Bit. Das Prinzip des JPEG-Verfahrens ist es, in der Grafikdatei Farbver¨anderungen des darzustellenden Bildes zu speichern. Das menschliche Auge ist zwar besonders empfindlich, was Helligkeitsver¨anderungen betrifft, gegen¨uber Farbver¨anderungen aber weitaus weniger sensitiv (siehe Abb. 4.12). Weichen die Farbver¨anderungen im JPEG-kodierten Bild vom Ausgangsbild nur unwesentlich ab, dann wird das JPEG-kodierte Bild als ann¨ahernd identisch wahrgenommen. Daher werden Verluste der Bildqualit¨at im Farbbereich, die bei der JPEGKomprimierung entstehen, bis zu einer Toleranzschwelle kaum wahrgenommen. JPEG basiert daher nicht nur auf der Reduktion von Redundanzen innerhalb des zu komprimierenden Bildes (Redundanzreduktion), sondern auch darauf, dass Bildanteile unterdr¨uckt werden, die f¨ur die menschliche Wahrnehmung nicht oder kaum relevant sind (Irrelevanzreduktion). Beim JPEG-Verfahren werden verschiedene Kodierungs-Modi unterschieden: • Baseline Mode: Als Baseline-Modus wird das Kernst¨uck des JPEG-Kodierungsprozesses bezeichnet, das die minimale Funktionalit¨at vorgibt und von allen JPEG-Implementationen beherrscht werden muss. Basierend auf einer DCT-basierten Kodierung (Diskrete Cosinus Transformation) k¨onnen Bilder mit einer Farbtiefe von 24 Bit (8 Bit pro Farbkomponente) verarbeitet werden. Die Kodierung erfolgt blockweise sequentiell, als Entropiekodierung ist ausschließlich die Huffman-Kodierung zul¨assig. • Sequential Mode: Das kodierte Bild l¨asst sich in einem einzigen Durchgang von links oben nach rechts unten dekodieren. Dieser Modus ist f¨ur die meisten Anwendungen gut geeignet, liefert gute Kompressionsraten und ist am einfachsten zu implementieren. • Progressive Mode: Das Bild wird in mehreren aufeinander aufbauenden Durchg¨angen kodiert bzw. dekodiert. Dabei wird es von Durchgang zu Durchgang sch¨arfer dargestellt. In jedem Durchlauf wird also nur ein Teil der DCT-Koeffizienteninformation kodiert. Dieser Verfahrens-Modus eignet sich besonders gut f¨ur ¨ die Datenkommunikation. Der Empf¨anger erh¨alt sofort einen groben Uberblick u¨ ber das Gesamtbild und kann daraufhin entscheiden, ob er eine vollst¨andige ¨ Ubertragung abwarten m¨ochte.
202
4 Multimediale Daten und ihre Kodierung
Visuelle Wahrnehmung beim Menschen Die visuelle Wahrnehmung beim Menschen wird in erster Linie durch den Aufbau des Auges bestimmt. Das Licht f¨ allt durch Pupille und Linse auf die Netzhaut (Retina), wo die einfallende Lichtenergie in Nervenreize umgesetzt wird. Die Pupille fungiert dabei wie eine Blende, die ihren Durchmesser (von 2-8 Millimetern) entsprechend der einfallenden Lichtmenge ver¨ andert (Adaption). Die Linse selbst ist durch eine spezielle Muskulatur (Ziliarmuskel) verformbar und so in der Lage, unterschiedlich weit entfernte Objekte scharf auf die Netzhaut abzubilden (Akkommodation). Das Akkommodationsverm¨ ogen ist altersabh¨ angig. Glaskörper Ziliarmuskulatur Pupille Linse Hornhaut Fovea Centralis Optische Achse
visuelle Achse Blinder Fleck Iris
Sehnerv Netzhaut Lederhaut Aderhaut
In der Retina befinden sich zwei verschiedene Typen von Rezeptoren: Die Zapfen, sie sind sowohl helligkeits- als auch farbempfindlich und bef¨ ahigen uns zur Farb- und Detailwahrnehmung (fotopisches Sehen). Ihre Zahl betr¨ agt etwa 6 Millionen. Sie sind im zentralen Bereich der Retina (Makula) angesiedelt und arbeiten bei normaler Tageshelligkeit. Die St¨ abchen dagegen k¨ onnen zwar keine Farben unterscheiden, daf¨ ur sind sie aber wesentlich helligkeitsempfindlicher und werden bei geringer Beleuchtung aktiv (skotoptisches Sehen). Ihre Zahl betr¨ agt pro Auge etwa 120 Millionen, wobei im Zentrum der Retina (Netzhautgrube, Fovea) selbst keine St¨ abchen vorkommen. Das vom menschlichen Auge wahrnehmbare Lichtspektrum reicht von einer Wellenl¨ ange von 780 nm (rot) bis 390 nm (violett). Die f¨ ur die Helligkeitswahrnehmung zust¨ andigen St¨ abchen besitzen ihre gr¨ oßte Lichtempfindlichkeit bei Wellenl¨ angen im Bereich von 500 nm (entspricht der Farbe Gr¨ un). Bei den Zapfen unterscheidet man drei verschiedene Typen entsprechend ihrer jeweiligen Empfindlichkeitsmaxima. Jeder Zapfentyp verf¨ ugt u ¨ber unterschiedlich lichtempfindliche Sehpigmente (Rhodopsin). Typ A besitzt ein Maximum bei Gr¨ un (langwelliges Pigment, 558 nm), Typ B bei Gelb-Rot (mittelwelliges Pigment, 531 nm) und Typ C bei blau-violett (kurzwelliges Pigment, 419 nm). Das in den Lichtrezeptoren ab¨ sorbierte Licht bewirkt eine Anderungen der Erregung in den ableitenden Nervenbahnen (ca. 1 Million), die zum visuellen Cortex des Gehirns weitergeleitet wird und dort zu einer Empfindung von Licht und unterschiedlichen Farben verarbeitet wird. Die Retina mit ihren unterschiedlichen Sehzellen weist zudem zwei markante Regionen auf: die Fovea centralis, die Stelle mit der gr¨ oßten Sehsch¨ arfe, etwa in der Mitte der Netzhaut, aber nicht exakt auf der optischen Achse. An dieser Stelle befinden sich ausschließlich Zapfen, ihre Dichte ist an dieser Stelle am h¨ ochsten. Dazu kommt der sogenannte blinde Fleck (Papille), die Stelle, an der der Sehnerv mit ca. 1,5 Millionen Nervenfasern das Auge verl¨ asst, so dass das dort eintreffende Licht nicht wahrgenommen werden kann. Das Verh¨ altnis zwischen den optischen Rezeptoren und den Nervenfasern betr¨ agt etwa 80:1, d.h. die Vorverarbeitung der visuellen Information erfolgt hier bereits mit einem hohen Komprimierungsfaktor. Weiterf¨ uhrende Literatur: Rock, I.: Wahrnehmung: vom visuellen Reiz zum Sehen und Erkennen. Spektrum der Wissenschaft Verlagsgesellschaft, Heidelberg (1985)
Abb. 4.12 Visuelle Wahrnehmung beim Menschen
4.4 Grafik - Datenformate und Komprimierung
203
• Hierarchical Mode: Das Bild wird zun¨achst mit einer geringen Aufl¨osung gespeichert und anschließend in voller Bildaufl¨osung. Es handelt sich daher um eine spezielle Variante des Progressive Mode mit steigender o¨ rtlicher Aufl¨osung. Das kleinere Bild (Thumbnail) kann sehr schnell dekodiert werden und eignet sich deshalb besonders gut als Vorschau (Preview). Es findet Einsatz z.B. in Bilddatenbanken, in denen das Vorschaubild der schnellen Entscheidungsfindung dient. • Lossless Mode: Dieser Modus kodiert und dekodiert im Gegensatz zu den anderen Modi verlustfrei. Dieser Verfahrens-Modus findet Einsatz in automatischen Bildauswertungsverfahren. Da der Informationsgehalt des urspr¨unglichen Bildes nicht weiter reduziert wird, ist die Komprimierungsrate hier nicht so hoch. Exkurs 9: JPEG – Komprimierung und JPEG – Dateiformat Der JPEG-Komprimierungsprozess verl¨ auft in vier Stufen und wird in Abb. 4.13 schematisch dargestellt:
Eingabe: Originalbild
Ausgabe: komprimierte Binärdaten 100101010110010.........
Farbkonversion CCIR601
Zerlegung in 8x8 Blöcke
DCT Transformation
Tabelle
Tabelle
Quantisierung
Huffman Kodierung
Abb. 4.13 JPEG Verarbeitungsschritte
Farbkonversion und Sampling Im ersten Teil der JPEG-Komprimierung wird jede Farbkomponente (rot, gr¨ un, blau) anteilig zerlegt in die Bestandteile Luminanz (Helligkeit) und Chrominanz (Farbinformation). JPEG erlaubt einen h¨ oheren Verlust an Information im Bereich der Chrominanz, da das menschliche Auge hier weniger sensibel ist. Zwar tragen alle Farbkomponenten im RGBModell Helligkeitsinformation, doch gr¨ un beeinflusst die Helligkeitswahrnehmung st¨ arker als blau oder rot3 . Mit einem in der Norm CCIR/ITU-R BT.601 festgelegten Verfahren wird die RGB-Information in die Komponenten Y (entspricht der Helligkeit), Cb (entspricht 3
Das Empfindlichkeitsmaximum der helligkeitsempfindlichen St¨abchen in der Retina des menschlichen Auges liegt bei 500 nm, der Farbe Gr¨un.
204
4 Multimediale Daten und ihre Kodierung
der Blaukomponente) und Cr (entspricht der Rotkomponente) transformiert. Bei diesem YCb Cr -Farbmodell handelt es sich um eine spezielle Variante des YUV-Farbmodells. +0.299 +0.587 +0.114 R Y +0.1687 −0.3313 +0.5 · G = Cb +0.5 −0.4187 −0.081 B Cr Im Bildzerlegungs-Prozess (Sampling) werden die Anteile Cb und Cr mit einer geringeren Aufl¨ osung bestimmt als die Y-Komponente. Eine typische Samplingrate spricht der Y-Komponente z.B. eine vierfach h¨ ohere Aufl¨ osung zu als den beiden anderen Komponenten, d.h. die Anzahl der Chrominanz-Bildpunkte wird sowohl horizontal als auch vertikal um den Faktor 2 reduziert. So k¨ onnen etwa vier (r,g,b)-Pixel, die urspr¨ unglich einen Speicherplatz von 4·3 Byte = 12 Byte belegen auf 4 (Y) + 1 (Cb ) + 1 (Cr ) = 6 Byte reduziert werden. Je niedriger die Samplingaufl¨ osung, desto h¨ oher die dadurch bereits erzielte Komprimierung und desto k¨ urzer die Gesamtkomprimierungszeit. Der Prozess wird daher auch als Downsampling oder Chroma-Subsampling bezeichnet. JPEG erlaubt die folgenden Downsampling-Varianten:
• (4:4:4): kein Downsampling, Luminanz- und Chrominanzwerte werden in der gleichen Aufl¨ osung erfasst.
• (4:2:2): Reduktion um den Faktor 2 in horizontaler Richtung. • (4:2:0): Reduktion um den Faktor 2 in horizontaler und vertikaler Richtung. Je nach Downsampling-Variante kann eine Reduktion des Speicherplatzbedarfs zwischen 33% und 50% erzielt werden, ohne dass dabei wahrnehmbare Qualit¨ atsverluste in Kauf genommen werden m¨ ussen. Diskrete Cosinus Transformation (DCT) Mit Hilfe der DCT werden Intensit¨ atsdaten in Frequenzdaten transformiert, die angeben, wie schnell die Intensit¨ at von Farbe und Helligkeitsinformation im Bild variiert. Bildsignale haben dabei einen nicht station¨ aren Charakter, d.h. die spektralen Anteile eines Bildes variieren von Ausschnitt zu Ausschnitt. Daher wird die Transformation nicht f¨ ur das gesamte Bild, sondern jeweils nur f¨ ur die einzelnen Bildsegmente berechnet. In der JPEG-Kodierung wird das Bild in Bildbl¨ ocke von 8×8 Pixeln unterteilt. L¨ asst sich das zu kodierende Bild nicht exakt in 8x8 Bildpunkte große Bl¨ ocke zerlegen, m¨ ussen angefangene Bl¨ ocke mit F¨ ulldaten erg¨ anzt werden. Dabei k¨ onnen die F¨ ulldaten nicht einfach mit leeren (=schwarzen oder weißen) Bildpunkten gef¨ ullt werden, da die anschließende DCT-Transformation und Quantisierung sonst sichtbare Artefakte erzeugt. Bei der Erg¨ anzung der Bilddaten muss darauf geachtet werden, dass die F¨ ulldaten die in der DCT-Transformation entstehenden Koeffizienten so wenig wie m¨ oglich beeinflussen. Im weiteren Verlauf wird jede Bildkomponente (Y,Cb,Cb) separat abgearbeitet, wobei die einzelnen Komponenten eine unterschiedliche Anzahl von Bildbl¨ ocken besitzen k¨ onnen (z.B. aufgrund der unterschiedlichen Samplingraten). Die Datenpunkte in einem 8×8 Pixel großen Block starten links oben (0,0) und enden rechts unten (7,7). Der Bildpunkt (x,y) besitzt die Bildinformation f(x,y). Die DCT erzeugt einen neuen 8×8-Block (u,v) u ¨ber die Transformation
1 F(u, v) = C(u)C(v) 4 mit
"
7
7
(2x + 1)uπ (2y + 1)vπ ∑ ∑ f(x, y) cos 16 cos 16 x=0 y=0 ( √1 wenn z = 0 2 C(z) = 1 sonst.
#
Die R¨ ucktransformation bei der Dekodierung erfolgt u ¨ber die Inverse Diskrete Cosinus Transformation (IDCT).
4.4 Grafik - Datenformate und Komprimierung
"
7
f(x, y) =
7
205
1
∑ ∑ 4 C(u)C(v)F(u, v) cos
u=0 v=0
(2x + 1)uπ (2y + 1)vπ cos 16 16
#
Die DCT-Transformation l¨ asst sich mit Hilfe der schnellen diskreten Fourier-Transformation ¨ (FFT) mit sehr geringem Berechnungsaufwand implementieren. Uber die DCT-Transformation wird ein zeitdiskretes Signal vom Orts- in den Frequenzbereich transformiert, d.h. die Transformation von 8 × 8 Grauwerten resultiert in 64 DCT-Koeffizienten. Anstelle die Intensit¨ at der 64 Einzelbildpunkte eines jeden 8×8 Pixel großen Blocks zu speichern, wird jeder 8×8-Block u ¨ber eine Linearkombination der in Abb. 4.14 (links) dargestellten 64 Einzelbl¨ ocke umfassenden DCT-Koeffizientenbasis dargestellt. Im Gegensatz zur diskreten Fourier-Transformation treten bei der DCT-Transformation keine komplexzahligen Koeffizienten auf. Als Ergebnis der DCT-Transformation ergibt sich ¨ ahnlich wie bei einer Fourier-Transformation eine Frequenzraummatrix, die die Frequenz- und Amplitudenverteilung f¨ ur den betrachteten Raum angibt, d.h. die 64 Funktionswerte der urspr¨ unglichen, von den beiden r¨ aumlichen Dimensionen x und y abh¨ angigen Matrix werden in ihr Spektrum transformiert, indem die DCT einen Basiswechsel auf eine Basis von 64 orthogonalen, diskreten Signalen durchf¨ uhrt. Große, regelm¨ aßig gef¨ arbte Fl¨ achen im Bild schlagen sich daher als niedrige Frequenzanteile nieder, feine Details in den hohen Frequenzanteilen. Dabei enth¨ alt F(0,0) den Durchschnittswert (Direct Current) der 8×8-Matrix, F(1,0) beschreibt den Anteil, bei dem sich die Bildwerte nur langsam ver¨ andern (niedrige Frequenzen) und F(7,7) den Anteil, bei dem sich die Bildwerte in beide Richtungen sehr rasch ver¨ andern (hohe Frequenzen). In einem nat¨ urlichen Bild sind scharfe Linien und abrupte Farbwechsel eher selten. Somit konzentriert sich der gr¨ oßte Teil des Ausgangssignals auf die niedrigen Frequenzen, viele der einzelnen Koeffizienten sind deshalb sehr klein, d.h. nahezu gleich Null. Die 64 DCT-Koeffizienten eines 8×8 Bildpunkte großen Blockes werden unterschieden in einen Gleichanteil (Direct Current, DC), der in F(0,0) abgelegt wird, und 63 Wechselanteilen (Alternating Current, AC).
1
1
2
3
4
5
6
7
8
DC
2
3
4
5
6
7
8
Abb. 4.14 Grafische Darstellung der 64 DCT Koeffizienten (links) und Zick-Zack-Kodierung (rechts) der 8×8 Bildbl¨ocke
Die DCT-Transformation alleine bewirkt noch keine Kompression. Im Gegenteil, das Originalbild wird dabei lediglich in eine andere Darstellungsform u uhrt, wobei sich die ¨berf¨ Datenmenge oft sogar noch vergr¨ oßert (z.B., wenn mit reellwertigen Koeffizienten ge-
206
4 Multimediale Daten und ihre Kodierung
arbeitet wird, w¨ ahrend das Originalbild mit 8 Bit pro Farbkanal vorliegt). Das Ziel der Transformation besteht in einer Informationsverdichtung durch eine Dekorrelation der Bildbestandteile. W¨ ahrend die Bildbestandteile des Originalbildes im Ortsbereich jeweils durch ihre Amplituden dargestellt werden, sollen diese im Frequenzbereich durch m¨ oglichst wenige Frequenzanteile repr¨ asentiert werden. Der eigentliche Informationsverlust tritt in der JPEG-Kodierung erst bei der Quantisierung auf. Daran schließt sich die Entropiekodierung (Huffman-Kodierung oder arithmetische Kodierung) an, mit der die verbliebene Redundanz vermindert und die Bildinformation in eine noch kompaktere Darstellungsform gebracht wird. Die Inverse Diskrete Cosinus Transformation erlaubt eine verlustfreie R¨ ucktransformation bei der Dekodierung der JPEG-Daten. Quantisierung Als n¨ achstes werden die Koeffizienten der 8×8-Matrix quantisiert, d.h. die Werte F(u,v) werden durch einen Wert Q(u,v) aus einer durch das JPEG-Komitee vorgegebenen Quantisierungstabelle dividiert und auf die n¨ achste ganze Zahl aufgerundet:
F(u, v) S(u, v) = + 0.5 . Q(u, v) Die Quantisierungstabelle benutzt eine feinere Quantisierung f¨ ur Koeffizienten niedriger Frequenzen und eine gr¨ obere f¨ ur h¨ ohere Frequenzen. Hohe Frequenzen, die bereits einen Koeffizienten F(u,v) nahe Null besitzen, werden durch das Verfahren zu Null quantisiert. Die vorgegebene Quantisierungstabelle kann durch eine eigene, die dann in der JPEG-Datei mit abgespeichert werden muss (DQT-Marker im JPEG Header), ersetzt werden. Die Quantisierungsmatrix ist sowohl f¨ ur die Qualit¨ at, als auch f¨ ur die Kompressionsrate verantwortlich. Eine entsprechende Dekodierung erfolgt durch Multiplikation von S(u,v) mit den entsprechenden Koeffizienten aus der Quantisierungstabelle Q(u,v), wodurch die urspr¨ unglichen Werte F(u,v) allerdings nur ann¨ ahernd und nicht exakt wiederhergestellt werden k¨ onnen. Die Quantisierung bewirkt den verlustbehafteten Charakter der JPEG-Kodierung. Das Verfahren nutzt speziell die neurophysiologischen Eigenschaften des menschlichen Sehens. Eine Quantisierungsmatrix arbeitet dann optimal, wenn sie in etwa die Empfindlichkeit des Auges f¨ ur die entsprechenden Ortsfrequenzen repr¨ asentiert. Das menschliche Auge ist f¨ ur grobe Strukturen empfindlicher, daher sind die Quantisierungswerte f¨ ur diese Frequenzen kleiner als die f¨ ur hohe Frequenzen. Die Quantisierung beeinflusst die Genauigkeit der DCT-Koeffizienten. Besitzt das Originalbild eine Genauigkeit von 8 Bit pro Bildpunkt, so f¨ uhrt die DCT zu einer Genauigkeit von 11 Bit der DCT-Koeffizienten, die z.B. durch eine Quantisierung mit dem Wert 16 auf 7 Bit verringert wird. Die Verarbeitung in 8×8 Bildpunkten großen Bl¨ ocken wirkt sich bei einer st¨ arkeren Quantisierung der DCT-Koeffizienten nachteilig aus. Es kommt zu Diskontinuit¨ aten an den jeweiligen Blockgrenzen, die im rekonstruierten Bild sichtbar werden k¨ onnen und als Artefakte (Blockartefakte) bezeichnet werden. Im Extremfall werden alle AC-Koeffizienten F(1,0) – F(7,7) zu Null quantisiert und der gesamte Block wird lediglich durch den DC-Koeffizienten F(0,0) repr¨ asentiert, d.h. alle Bildpunkte des Blockes haben denselben Grauwert. Entropiekodierung F¨ ur die eigentliche Komprimierung werden die quantisierten Daten folgendermaßen vorbereitet: Die F(0,0)-Koeffizienten der 8×8-Matrizen werden unabh¨ angig von den u ¨brigen Koeffizienten mit Hilfe eines pr¨ adiktiven Verfahrens kodiert. Dabei geht man davon aus, dass benachbarte Bl¨ ocke einen ¨ ahnlichen DC-Koeffizienten (Gleichanteil) besitzen. Da die Abweichungen der tats¨ achlichen Werte zu den jeweiligen Pr¨ adiktionswerten sehr groß werden k¨ onnen, wurde der Wertebereich in 12 Kategorien unterteilt, denen jeweils ein HuffmanCodewort zugewiesen wird. Es steht dem Anwender frei, selbst einen Huffman-Code zu
4.4 Grafik - Datenformate und Komprimierung
207
konstruieren, um f¨ ur seine Zwecke optimale Kompressionsergebnisse zu erzielen. Der verwendete Code wird in die erzeugte JPEG-Datei eingebettet. Die restlichen Bl¨ ocke von F(1,0) bis F(7,7) werden in einer Zick-Zack-Anordnung nacheinander geschrieben (siehe Abb. 4.14, rechts), d.h. die Koeffizienten niedriger Frequenzen kommen zuerst und die typischerweise zu Null quantisierten Anteile hoher Frequenz folgen am Ende, was eine effiziente Komprimierung erm¨ oglicht, wobei Nullfolgen mit Hilfe einer Laufl¨ angenkodierung zusammengefasst werden. Alle AC-Komponenten ungleich Null werden ebenfalls in Kategorien unterteilt. Dazu wird f¨ ur jeden Koeffizienten der Abstand zum Vorg¨ anger ungleich Null ermittelt. Dieser Abstand (Laufl¨ ange) darf einen Wert 0 < x < 15 haben. Da Laufl¨ ange (Anzahl benachbarter Nullen) und nachfolgender Koeffizient miteinander korreliert sind, werden aus der Kombination von Laufl¨ ange und Kategorie neue Codes gebildet. Das Ende eines 8×8-Blockes wird durch einen EOB-Code (End of Block) markiert, der hinter dem letzten Koeffizienten der ZickZack-Anordnung ungleich Null gesetzt wird. Dadurch m¨ ussen nachfolgende Nullen nicht mehr kodiert werden. Die Komprimierung erfolgt letztendlich durch eine modifizierte Huffman-Kodierung bzw. seltener u ur die von der Berechnung ¨ber eine arithmetische Kodierung (siehe Abb. 4.15). F¨ her aufw¨ andigere arithmetische Kodierung, die eine 5-15% kompaktere Komprimierung erreicht, ist allerdings der Erwerb einer Lizenz notwendig, da dieses Verfahren von IBM, AT&T und Mitsubishi patentiert wurde. Die aus der Kombination von Laufl¨ ange und Kategorie entstandenen neuen Codew¨ orter werden Codew¨ orter der Entropiekodierung zugeordnet. Diesen folgen weitere Bits, die den tats¨ achlichen Koeffizientenwert innerhalb der Kategorie festlegen. Die Anzahl der dabei zur Verf¨ ugung stehenden Bits wird durch die Kategorienummer bestimmt. In Tabelle 4.3 werden die Kategorien f¨ ur die Kodierung von DC-Koeffizienten (d.h. die Differenz der eigentlichen DC-Werte und den berechneten Vorhersagewerten) und AC-Koeffizienten angegeben.
Tabelle 4.3 Kategorien f¨ur die Kodierung von DC-Koeffizienten und AC-Koeffizienten Kategorie 0 1 2 3 4 5 6 7 8 9 10 11
Differenz DC-Wert - Pr¨ adiktion
AC-Wert
0 -1, 1 -1,1 -3, -2, 2, 3 -3, -2, 2, 3 -7,. . . ,-4, 4,. . . 7 -7,. . . ,-4, 4,. . . 7 -15,. . . ,-8, 8,. . . 15 -15,. . . ,-8, 8,. . . 15 -31,. . . ,-16, 16,. . . 31 -31,. . . ,-16, 16,. . . 31 -63,. . . ,-32, 32,. . . 63 -63,. . . ,-32, 32,. . . 63 -127,. . . ,-64, 64,. . . 127 -127,. . . ,-64, 64,. . . 127 -255,. . . ,-128, 128,. . . 255 -255,. . . ,-128, 128,. . . 255 -511,. . . ,-256, 256,. . . 511 -511,. . . ,-256, 256,. . . 511 -1023,. . . ,-512, 512,. . . 1023 -1023,. . . ,-512, 512,. . . 1023 -2047,. . . ,-1024, 1024,. . . 2047
Die Dekodierung einer JPEG-komprimierten Grafikdatei erfolgt umgekehrt zur Kompression, d.h.
• Entropie-Dekodierung • R¨ucksortierung der in Zick-Zack-Anordnung abgelegten Bilddaten • Requantisierung (Umkehr der Quantisierung)
208
4 Multimediale Daten und ihre Kodierung
• Inverse Diskrete Cosinus Transformation (IDCT) • Umkehr des Downsamplings f¨ur die Chrominanzanteile der Bilddaten • Farbraumumrechnung vom YCbCr-Farbraum in den RGB-Zielfarbraum. Aufgrund der Quantisierung und des Downsamplings gehen bei der JPEG-Kompression Informationen verloren. Daher ist eine exakte Rekonstruktion der Ausgangsdaten nach der Dekomprimierung meist nicht m¨ oglich. Wiederholtes Kodieren und Dekodieren ver¨ andert die Bilddaten, d.h. es treten sogenannte Generationsverluste auf, ¨ ahnlich wie beim analogen ¨ Uberspielen von Audiodaten. Die Generationsverluste der JPEG-Komprimierung k¨ onnen klein gehalten werden, wenn bei jedem Komprimiervorgang dieselbe Quantisierungsmatrix verwendet wird und die Blockgrenzen identisch sind. JPEG – Dateiaufbau Das Dateiformat f¨ ur die Speicherung von JPEG-kodierten Bilddaten ist das JFIF-Format (JPEG File Interchange Format). Die JPEG-Norm legt nur den Komprimierungsvorgang der Bilddaten fest, nicht aber, wie die komprimierten Daten gespeichert werden m¨ ussen, damit sie zwischen verschiedenen Computerprogrammen ausgetauscht werden k¨ onnen. JFIF ist nur eine von mehreren Varianten, um JPEG-Daten zu speichern. Daneben gibt es noch das von der Joint Photographic Experts Group vorgeschlagene Still Picture Interchange File Format (SPIFF) und JPEG Network Graphics. Allerdings ist JFIF die am weitesten verbreitete Variante. Wenn von einer JPEG-Datei“ die Rede ist, wird meist eine Datei im ” JFIF-Format gemeint. JFIF implementiert lediglich einen Teil der von JPEG angebotenen M¨ oglichkeiten, z.B. bestehen Einschr¨ ankungen bzgl. des zu verwendenden Farbraums und der unterst¨ utzten Variante der Entropie-Kodierung. JFIF-Dateien enthalten die eigentlichen Grafikdaten in der eben beschriebenen Form zusammen mit Informationen, die zum Entpacken dieser Daten notwendig sind. Die Gr¨ oße einer als JFIF abgelegten Bilddatei ist auf 65.536×65.536 Bildpunkte beschr¨ ankt. Die einzelnen Segmente der JFIF-Datei werden durch Markierungsbl¨ ocke (2 Byte, Inhalt 0xFF) voneinander getrennt (vgl. Abb. 4.17) und k¨ onnen jeweils mehrfach in einer JFIF-Datei vorkommen. Sie umfassen insbesondere:
• Start of Image (SoI) Markierung (2 Byte, 0xFFD8) zur Kennzeichnung des Beginns der zum Bild geh¨ orenden Information. Steht in der Regel am Beginn der Datei.
• End of Image (EoI) Analog zur SoI Markierung gibt EoI das Ende des Bildes an (2 Byte, 0xFFD9). EoI steht daher im Normalfall am Ende der Datei und tr¨ agt keine weitere Information.
• Application (APP0) Direkt nach dem SoI folgt ein Application Marker (2 Byte, 0xFFE0), gefolgt von den 4 Zeichen JFIF“. Desweiteren folgen eine Versionsnummer, Angaben u oße ¨ber die Bildgr¨ ” und Pixeldichte. Optional kann ein eventuell vorhandenes kleines Vorschau-Bild mit zugeh¨ origer Gr¨ oßeninformation folgen.
• EXIF Data (APP1) Das EXIF-Segment ist zur Aufnahme von Metadaten im Exchangeable Image File Format (Exif) vorgesehen. Dieser von der Japan Electronic and Information Technology Industries Association (JEITA) eingef¨ uhrte Standard dient der Speicherung von Metadaten speziell f¨ ur Bilder, die von modernen Digitalkameras aufgenommen wurden. Exif-Daten beinhalten Informationen u ¨ber den verwendeten Kameratyp und technische Daten der Aufnahme, wie z.B. Belichtungszeit, Blende und andere Kameraeinstellungen.
• Quantization Table (QT) Die Quantisierungstabelle startet mit einem f¨ uhrenden (2 Byte, 0xFFDB). Es folgen die 64 Eintr¨ age der Quantisierungstabelle und Angaben zu deren Pr¨ azision (8 oder 16 Bit Pr¨ azision).
4.4 Grafik - Datenformate und Komprimierung
209
• Start of Frame i (SoFi) Markierung (2 Byte, 0xFFCi), die den eigentlichen Beginn von Bild i anzeigt. Danach folgen Informationen u ¨ber Datengenauigkeit, Bilddimensionen, sowie Komponenten. Die Komponentendaten setzen sich aus einer Komponentennummer, horizontalem und vertikalem Sampling-Faktor und der Nummer der benutzten Quantisierungstabelle zusammen. Es k¨ onnen beliebig viele Komponenten hintereinander folgen.
• Define Huffman Table (DHT) DHT beschreibt eine Huffman-Tabelle und startet mit dem DHT-Marker (2 Byte, 0xFFC4). Zuerst kommt ein Index f¨ ur die Huffman-Tabelle, danach Z¨ ahlwerte und zuletzt die Inhalte. Die Z¨ ahlwerte geben an, wieviele Codes mit einer bestimmten Anzahl von Bits in der Tabelle vorkommen. Der i-te Z¨ ahlwert gibt die Anzahl der Codeworte mit i Bits an.
• Comment (COM) Das Kommentar-Segment (2 Byte, 0xFFFE) dient der Aufnahme von textuellen Anmerkungen zu den gespeicherten Bilddaten.
• Start of Scan (SoS) Nach der SOS Markierung (2 Byte, 0xFFDA) beginnt der Bitstrom, der die eigentlichen Bilddaten wiedergibt. Vorher werden noch die Anzahl der Komponenten, sowie die Nummern der zugeh¨ origen Huffmantabellen angegeben. Weiterf¨ uhrende Literatur: ISO/IEC 10918-1:1994: Information technology - Digital compression and coding of continuous tone still images: Requirements and guidelines. International Organization for Standardization, Geneva, Switzerland (1994) ISO/IEC 10918-2:1995: Information technology - Digital compression and coding of continuous tone still images: Compliance testing. International Organization for Standardization, Geneva, Switzerland (1995) Pennebaker, W. B., Mitchell, J. L.: JPEG Still Image Data Compression Standard. Kluwer Academic Publishers, Norwell, MA, USA (1992) Strutz, T.: Bilddaten-Kompression. Grundlagen, Codierung, MPEG, JPEG, 2. Aufl. Vieweg Verlag, Braunschweig/Wiesbaden (2002)
Die JPEG-Komprimierung ist ein sehr leistungsf¨ahiges, verlustbehaftetes Komprimierungsverfahren f¨ur nat¨urliche“ Bilder, also f¨ur Fotografien oder Bilder rea” ¨ listischer Szenen mit sanften Variationen und Uberg¨ angen von Farbe und Helligkeit. Es wird dabei eine hohe Komprimierung durch Reduktion des Informationsgehalts erreicht, die sich die Eigenheiten des menschlichen Sehverm¨ogens zu Nutze macht. Allerdings ist das Verfahren nicht besonders gut geeignet f¨ur Grafiken oder Zeichnungen. Die erreichten Komprimierungsraten liegen typischerweise bei einem Verh¨altnis von 20 : 1 (im verlustfreien Modus bei 2 : 1). Wird der Kompressionsfaktor erh¨oht, d.h die Quantisierungsmatrix so gew¨ahlt, dass m¨oglichst viele und lange Null-Ketten entstehen, treten zunehmend Artefakte auf, d.h. k¨unstlich erzeugte Bildelemente, deren Existenz und Gestalt durch die Eigenart des Komprimierungsverfahrens bestimmt werden und nicht Bestandteil der urspr¨unglichen Bildinformation sind. Abb. 4.18 zeigt JPEG-Artefakte in einer Bildausschnittsvergr¨oßerung. Verlustbehaftete JPEG-kodierte Dateien sind f¨ur den menschlichen Betrachter optimiert und eignen sich in der Regel nicht f¨ur eine maschinelle Analyse. So ist das Verfahren z.B. auch nicht ohne weiteres in der medizinischen Bildverarbeitung einsetzbar,
210
4 Multimediale Daten und ihre Kodierung
Arithmetische Kodierung Eine weitere Variante der Entropiekodierung ist die Arithmetische Kodierung, die ebenfalls im JPEG Standard anstelle der modifizierten Huffman-Kodierung verwendet werden kann. Die arithmetische Kodierung bildet eine Folge von Zeichen aus einem Alphabet A = {a1 , a2 , . . . , an } eindeutig ab auf eine reelle Zahl. Einzelne Zeichen werden als H¨ aufigkeitsintervall, Zeichenfolgen mit Hilfe bedingter ( geschachtelter“) H¨ aufigkeits” intervalle kodiert. Zu diesem Zweck wird zun¨ achst ein Standardintervall [0, 1) festgelegt. Dieses Intervall wird in einzelne Subintervalle unterteilt, deren L¨ ange jeweils der relativen H¨ aufigkeit p(ai ) eines Zeichens ai entspricht. Die Kodierung einer Zeichenkette erfolgt folgendermaßen: 1. Initialisiere das aktuelle Intervall mit dem vereinbarten Startintervall. 2. Zerlege das aktuelle Intervall in Subintervalle und weise jedem Subintervall ein Zeichen ai zu. 3. Das Subintervall, das dem n¨ achsten Eingabezeichen entspricht, wird zum aktuellen Intervall. 4. Wiederhole 2. und 3. bis alle Zeichen der Eingabe verarbeitet wurden bzw. bis die maximale Verarbeitungstiefe erreicht ist. 5. Gib eine beliebige Zahl x aus dem aktuellen Intervall und zus¨ atzlich die Anzahl der kodierten Zeichen aus. x wird u ahlt, dass x m¨ oglichst wenig signi¨blicherweise so gew¨ fikante Nachkommastellen besitzt (d.h. rund“ ist) und sich mit m¨ oglichst wenigen ” Bits darstellen l¨ asst. Die Dekodierung verl¨ auft nach dem folgenden Schema: 1. Initialisiere das aktuelle Intervall mit dem vereinbarten Intervall. 2. Unterteile das aktuelle Intervall in Subintervalle, wobei jedem kodierbaren Zeichen ai ein Subintervall zugewiesen wird. Die Gr¨ oße der Subintervalle wird von der relativen H¨ aufigkeit des Zeichens bestimmt. Die Reihenfolge der Intervalle wird durch eine Vereinbarung festgelegt. 3. Finde heraus, in welchem dieser Subintervalle die kodierte Zahl x liegt und gib das Zeichen aus, das diesem Subintervall zugeordnet ist. Dieses Subintervall wird jetzt zum aktuellen Intervall. Sind noch weitere Zeichen zu dekodieren, wiederhole 2. mit dem neuen aktuellen Intervall. Das Verfahren soll an einem einfachen Beispiel erl¨ autert werden. Zu kodieren sei die Zeichenkette CBC, wobei die einzelnen Zeichen die folgende relative H¨ aufigkeit besitzen sollen:
CBC C Zeichen
relative aufigkeit H¨
A B C
0,2 0,2 0,6
B
0
0,6
CC 0
CB 0,36
0,36
CBC
A 0,8
1
CA
0,48
0,6
0,432 Wähle aus Intervall 0,375 ( = 0,011 als Binärzahl)
Abb. 4.15 Das Prinzip der arithmetischen Kodierung
4.4 Grafik - Datenformate und Komprimierung
211
Arithmetische Kodierung (Teil 2) Die Zahl 0,375 l¨ asst sich folgendermaßen dekodieren:
0,375 C
Zeichen
relative H¨ aufigkeit
A B C
0,2 0,2 0,6
B
0
0,6
CC 0
CB 0,36
0,36
CBC
A 0,8
1
CA
0,48
0,6
0,432
Die arithmetische Kodierung arbeitet theoretisch mit unendlich genauen reellen Zahlen. Da in der eigentlichen Implementierung aber auf endlich genaue Integer- oder Fließkommazahlen zur¨ uckgegriffen werden muss, f¨ uhrt das erzwungene Auf- und Abrunden schließlich zur Nicht-Optimalit¨ at. In der Praxis hat sich die weniger komplexe Huffman-Kodierung gegen¨ uber der aufw¨ andigen arithmetischen Kodierung durchgesetzt. Eine effiziente Implementierung der Arithmetischen Kodierung stellt der von IBM entwickelte und patentierte Q-Coder dar, Weiterf¨ uhrende Literatur: Witten, I. H., Neal, R. M., Cleary, J. G.: Arithmetic coding for data compression. Commun. ACM 30(6), pp. 520-540 (1987) Moffat, A., Neal, R. M., Witten, I. H.: Arithmetic coding revisited. ACM Trans. Inf. Syst. 16(3), pp. 256-294 (1998)
Abb. 4.16 Das Prinzip der arithmetischen Kodierung (Teil 2)
da der im Verfahren begr¨undete Informationsverlust zu Fehldiagnosen f¨uhren k¨onnte. Der designierte Nachfolger des JPEG-Kodierverfahrens ist das JPEG2000-Kodierverfahren, das 2001 als internationaler Standard ISO-15444 von der ISO verabschiedet wurde. Ebenso wie das a¨ ltere JPEG-Komprimierverfahren wurde JPEG2000 von der Joined Photographic Experts Group herausgegeben. Basierend auf der diskreten Wavelet-Transformation gestattet das JPEG2000 Dateiformat bis zu 16-Bit tiefe Graustufen pro Farbkanal, also eine Farbtiefe von bis zu 48-Bit. Der Name Wave” let“ bedeutet so viel wie kleine Welle“ und bezeichnet die Form der Basisfunkti” on dieser Transformation. Im Gegensatz zur diskreten Cosinus-Transformation bei der JPEG-Kodierung sind die Basisfunktionen der Wavelet-Transformation zeitlich begrenzt, wodurch eine bessere zeitliche Aufl¨osung im Vergleich zur klassischen Signaltransformation m¨oglich ist.
212
4 Multimediale Daten und ihre Kodierung 15
SoI
0
FFD0 15
App0
0 40
0
FFE0
JFIF/0
15
07
0
version 15
units 015
0
X-pixel-density 7
Y-pixel-density
07
th-width
0
th-height Thumbnail Data
7
07
FFD8
QT
54
0
precision table-id 64 x Table Entries
7
07
FFCi
SoFi
07
precision
07
height
0
width
i x (id, x-sample, y-sample, QTid) 7
07
FFC4
DHT
54
015
tb class table-id
0
code length
i x Huffman Codes 7
0
FFDA
SoS
Image Data 15
EoI
0
FFd9
Abb. 4.17 JPEG Dateiformat – JPEG File Interchange Format
Eine Limitierung der maximalen Bildgr¨oße entf¨allt bei JPEG2000, die Komprimierung kann wahlweise verlustfrei oder verlustbehaftet erfolgen. Damit eignet sich JPEG2000 auch f¨ur die Anwendung im Bereich der medizinischen Bildverarbeitung. Die JPEG2000-Komprimierung ist in der Lage, sowohl kontinuierliche Farbverl¨aufe wie sie in nat¨urlichen Bildern vorkommen, als auch abrupte Farb¨uberg¨ange mit hartem Kontrast effizient zu komprimieren. Allerdings tendieren die mit JPEG2000 komprimierten Bilder zu Unsch¨arfeartefakten und Schatten an harten Kontrasten. JPEG 2000 erlaubt die Definition einzelner Regions of In” terest“, d.h. Bildteilbereiche, die von besonderem Interesse sind und daher in einer h¨oheren Qualit¨at als der Rest des Bildes kodiert und komprimiert werden k¨onnen.
4.5 Audio – Datenformate und Komprimierung
213
Abb. 4.18 JPEG Artefakte sind St¨orungen, die durch die Quantisierung im Zuge der JPEG Komprimierung entstehen und bei hohen Kompressionsraten deutlich sichtbar werden
Im Gegensatz zur einfachen JPEG-Komprimierung f¨uhrt bei JPEG2000 eine fortlaufende Kodierung und Dekodierung nicht zu Generationsverlusten, d.h. die Bildqualit¨at bleibt erhalten. Der Bildaufbau erfolgt inkrementell, d.h. die Darstellung des Bildes in einer geringeren Aufl¨osung kann ohne aufw¨andige Berechnungen durch eine lediglich teilweise Verwendung der Originaldatei erfolgen. Dar¨uber hinaus l¨asst die eingesetzte Kodierung zus¨atzlich Methoden zur Fehlererkennung- und korrek¨ tur zu und bietet die M¨oglichkeit, der schrittweisen, progressiven Ubertragung von Bildern in Abh¨angigkeit von vorgegebenen Qualit¨atsanforderungen, Bildaufl¨osung oder Bildeinzelkomponenten, sowie einen wahlfreien Zugriff auf den Datenstrom des kodierten Bildes. F¨ur das JPEG2000 Dateiformat spezifiziert die ISO die Dateiendung .jp2. Zum Einsatz gelangt die JPEG2000 unter anderem in den neuen Reisep¨assen der Bundesrepublik Deutschland. Dort werden Passbilder im JPEG2000-Format mit einer Bildgr¨oße von 18 kByte gespeichert. Daneben gelangt JPEG 2000 auch im DICOM-Standard f¨ur medizinische Daten zum Einsatz oder bei der Langzeitarchivierung von Dokumenten in Großarchiven.
4.5 Audio – Datenformate und Komprimierung Im Gegensatz zu den anderen hier behandelten Medientypen wird die dem Schall innewohnende akustische Information nicht visuell, d.h. mit Hilfe der Augen wahrgenommen, sondern mit dem Geh¨or. Schall entsteht durch die Ausbreitung von kleinsten Druck- und Dichteschwankungen, hervorgerufen durch Schwingungen (= regelm¨aßig pendelnden Bewegungen) von K¨orpern in einem elastischen Medium (Gase, Fl¨ussigkeiten oder Festk¨orper). Die Anzahl der Schwingungen in einer Sekunde bezeichnet man als Schwingungszahl oder Frequenz. Das Maß der Frequenz
214
4 Multimediale Daten und ihre Kodierung
ist Schwingungen pro Sekunde und wird nach dem deutschen Physiker Heinrich Hertz (1857-1894) als Hertz (Hz) bezeichnet, dem es 1884 als erstem gelang, die Existenz der von James Clerk Maxwell postulierten elektromagnetischen Wellen experimentell nachzuweisen. Physikalisch gesehen ist Schall eine Welle (genauer eine Longitudinalwelle), die sich im elastischen Medium Luft ausbreitet. Die Frequenz einer Schallwelle entspricht dem Kehrwert der Dauer einer Schwingung ( f = 1/∆t, siehe Abb. 4.19). Die Ausbreitungsgeschwindigkeit des Schalls – die Schallgeschwindigkeit – h¨angt unter anderem vom jeweiligen Ausbreitungsmedium ab. In Luft betr¨agt die Schallgeschwindigkeit 343 Meter pro Sekunde. A
0
t
Schwingungsdauer t Abb. 4.19 Kenngr¨oßen einer Schallwelle sind Lautst¨arke (maximale Amplitude, A) und Tonh¨ohe (Frequenz)
Ger¨ausche sind im wesentlichen charakterisiert durch Lautst¨arke und Tonh¨ohe. Die Lautst¨arke, in der ein Ton wahrgenommen wird, entspricht der Amplitude der akustischen Schwingung, d.h. der St¨arke der Luftdruck¨anderung, die das Ohr erreicht. Die Tonh¨ohe dagegen ist proportional zur Frequenz. Das Lautst¨arke-Empfinden entspricht dem Schalldruck, der in Pascal (Pa) gemessen wird (1 Pa = 1 Newton/m2 ), aber meist als Schalldruckpegel L p in der Maßeinheit Dezibel (dB) angegeben wird. Ein Schalldruckpegel von p0 =0dB entspricht mit 20µPa der Lautst¨arke, bei der ein Ton der Frequenz 1 kHz f¨ur den Menschen gerade noch h¨orbar ist und wird auch als H¨orschwelle bezeichnet. Die Empfindung der Lautst¨arke entspricht dem Logarithmus der Amplitude des Signals, d.h. doppelte Lautst¨arke“ entspricht der ” Vergr¨oßerung der Amplitude um den Faktor 10. Der Schalldruckpegel L p gibt die Gr¨oßenordnung des Verh¨altnisses zweier Schalldr¨ucke p1 und p0 wieder. Es gilt: 2 p1 L p = 10 · log dB. p0 Ein Klang als subjektives Schallerlebnis wird charakterisiert durch Tonh¨ohe und ¨ Lautst¨arke in ihrem zeitlichen Verlauf und kann durch eine Hullkurve (Envelope) beschrieben werden (siehe Abb. 4.20). Im zeitlichen Verlauf der H¨ullkurve lassen sich vier Abschnitte unterscheiden: Attack time bezeichnet die Zeit des Einschwing-
4.5 Audio – Datenformate und Komprimierung
215
A
Att
ac
k
De
ca
y
Sustain
Re
lea
se
t Abb. 4.20 Die H¨ullkurve eines Tones zeigt dessen Amplitude im zeitlichen Verlauf
vorgangs, Decay time die Abklingzeit nach dem Tonanschlag, Sustain level ist der ¨ Aushaltepegel und Release time ist die Ausklingzeit des Tons. Uber eine H¨ullkurve l¨asst sich auch die synthetische Klangerzeugung bei Synthesizern steuern. Bei jeder nat¨urlichen Tonerzeugung wird neben dem Grundton (tiefste Frequenz in einem komplexen Ton) noch eine Vielzahl h¨oherer T¨one erzeugt. Diese T¨one werden Obert¨one genannt. Die Gesamtheit aller Obert¨one ergibt das Frequenzspektrum eines Tons. T¨one und Kl¨ange sind analoge Signale (siehe Abb. 4.21), d.h. die Signale selbst sind sowohl zeit- als auch wertkontinuierlich und daher zun¨achst nicht direkt auf einem Computer darstellbar. Hierzu ist eine Umwandlung in zeit- und wertdiskrete, also digitale Signale notwendig (siehe Abb. 4.22). Definition: Signal Unter einem Signal versteht man das ”Erscheinungsbild einer physikalischen Information”. Signale k¨ onnen beschrieben werden als:
• mathematische Funktion in geschlossener, analytischer Form, • Verteilungsgesetz (z.B. f¨ ur ein stochastisches Signal, bei dem der aktuelle Wert des Signals nicht bekannt ist, sondern nur dessen Verteilungsfunktion, die die globalen Signaleigenschaften beschreibt) oder • empirisch in Form einer Messreihe. Die meisten Signale, mit denen wir in der Praxis zu tun haben, werden als Reihe von Einzelmesspunkten beschrieben. Je nach dem, von wievielen Ver¨ anderlichen das Signal abh¨ angt, spricht man von einem eindimensionalen Signal, wie z.B. bei akustischen Signalen jeglicher Form, die nur von einer Variablen, gew¨ ohnlich von der Zeit abh¨ angen, und von mehrdimensionalen Signalen, wie z.B. zweidimensionale Bildsignale. Signale k¨ onnen im Rechner nur als digitale Information gespeichert werden. Zu diesem Zweck muss eine Wandlung der urspr¨ unglich analogen Ausgangsinformation in eine diskrete Darstellung erfolgen. Der hierzu durchlaufene Prozess wird als Analog-DigitalWandlung bezeichnet.
Abb. 4.21 Signale: Definition
216
4 Multimediale Daten und ihre Kodierung
Amplitude
Signalabtastung
Amplitude
Quantisierungsintervalle
Signalabtastung
Digital-AnalogWandlung
Zeit analoges Signal
Zeit digitales Signal
Abb. 4.22 Analog-Digital Umwandlung
Die Umwandlung vom analogen Ausgangssignal in ein digitales, auf dem Computer darstellbares Signal, erfolgt in drei Schritten: 1. Abtastung (Sampling), 2. Quantisierung (Rundung) und 3. Kodierung.
f ([t])
f (t) kontinuierliches analoges Eingangssignal
Sampling
diskontinuierliches analoges Signal
AnalogDigitalWandlung
[ f ([t])] diskontinuierliches diskretes Ausgangssignal
Abb. 4.23 Schrittweiser Prozess der Digitalisierung
4.5.1 Analog-Digital-Umwandlung Die Analog-Digital-Umwandlung, auch kurz AD-Wandlung genannt, beginnt mit der Abtastung (Sampling). Im ersten Schritt der Digitalisierung wird der kontinuierliche, zeitliche Verlauf eines Signals in diskrete Einzelzeitpunkte zerlegt. Hierzu wird der Momentan-Wert eines Analogsignals zu einem diskreten Zeitpunkt (Abtast-Zeitpunkt) erfasst und kann so einer Analog-Digital-Wandlung unterworfen werden. Die Abtastung des Signals erfolgt in der Regel periodisch. Damit der
4.5 Audio – Datenformate und Komprimierung
217
Verlauf der abgetasteten Ursprungssignale fehlerfrei rekonstruiert werden kann, ist eine Mindestabtasth¨aufigkeit (Abtastfrequenz fA , Samplingrate, siehe Abb. 4.24) bei periodischem Abtastzyklus erforderlich. Die Samplingrate wird in Hz gemessen und sollte mindestens das Doppelte der maximalen abzutastenden Frequenz betragen. In der Praxis kommen daher Tiefpassfilter zum Einsatz, die das abzutastende Signal auf eine Maximalfrequenz fmax begrenzen. In der Realit¨at existieren aber keine perfekten Tiefpassfilter. Ein Tiefpassfilter besitzt immer einen gewissen Durchgangsbereich zwischen vollst¨andigem Signaldurchlass und vollst¨andiger Signald¨ampfung. Daher verwendet man in der Praxis eine Samplingfrequenz, die etwa dem 2,2-fachen der Maximalfrequenz entspricht ( fA ≈ 2, 2 · fmax ). Zur anschließenden Signalwertdiskretisierung (Quantisierung) wird der gesamte Wertebereich der Amplitude des Analogsignals in eine endliche Anzahl n von Intervallen (Quantisierungsintervallen) eingeteilt, denen jeweils ein fester, diskreter Amplitudenwert q0 , . . . , qn−1 zugeteilt ist. Da allen Abtastwerten, die in ein Quantisierungsintervall fallen, derselbe diskrete Amplitudenwert zugeordnet wird, entsteht ein sogenannter Quantisierungsfehler, der bei geringen Signalpegeln (niedriger Amplitude) als Knattern oder Rauschen wahrgenommen werden kann. Bezeichnet qi − qi−1 die Quantisierungsintervallgr¨oße, so wird bei der R¨uckwandlung der digitalisierten Werte in ein analoges Signal (Digital-Analog-Umwandlung) ein Analogwert aus dem diskreten Wert zur¨uckgewonnen, der dem in der Mitte des Quantisierungsintervalls liegenden Analogwert entspricht. Der maximal auftretende Quantisierungsfehler betr¨agt daher (q1 − qi−1 )/2 (siehe Abb. 4.25). Die Quantisierungstiefe (Bitaufl¨osung, Aufl¨osung, Samplingtiefe) wird als Anzahl der zur Kodierung der diskreten Quantisierungsintervalle verwendeten Bits, also als log2 n angegeben. In einem letzten Schritt, der Kodierung, werden die einzelnen Quantisierungsintervalle durch bestimmte bin¨are Codew¨orter gekennzeichnet. Anstelle des urspr¨unglichen Audiosignals wird nach erfolgter DA-Wandlung das gewonnene digitale Signal mit dem Quantisierungsfehler u¨ bertragen. In der Praxis f¨allt dieser Quantisierungsfehler kaum ins Gewicht, da er so gew¨ahlt werden kann, dass er unterhalb des menschlichen H¨orverm¨ogens liegt. Die Qualit¨at des digitalisierten Audiosignals wird bestimmt durch die Samplingrate, mit der die Signalabtastung erfolgt, und durch die Bitaufl¨osung bei der Quantisierung der gewonnenen Abtastwerte. Tabelle 4.4 Gebr¨auchliche Bitaufl¨osungen zur Audio-Digitalisierung Bitaufl¨ osung Anwendung 8-Bit Spiele und Multimedia-Software, Telefonqualit¨ at 16-Bit Compact Disk (CD) und Digital Audio Tape (DAT) 20-/24-Bit professionelle Studiosysteme
Die beschriebene Form der Umwandlung von analogen in diskrete Signale wird auch als Waveform-Encoding oder Pulse Code Modulation (PCM) bezeichnet und wurde bereits 1938 von Alec A. Reeves (1902–1971) entwickelt und zum Patent
218
4 Multimediale Daten und ihre Kodierung
Abtast-Theorem (Sampling-Theorem) (nach Nyquist (1928), Whittaker (1929) Kotelnikow (1933), Raabe (1939) und Shannon (1949)) Eine Signalfunktion, die nur Frequenzen in einem beschr¨ ankten Frequenzband (bandbegrenztes Signal) enth¨ alt, wobei fmax gleichzeitig die h¨ ochste auftretende Signalfrequenz ist, wird durch ihren diskreten Amplitudenwert im Zeitabstand
1 2 · fmax
T0 ≤
vollst¨ andig bestimmt. Das bedeutet, dass die Abtastfrequenz (Samplingfrequenz) fA doppelt so hoch sein muss, wie die h¨ ochste im abzutastenden Signal vorkommende Frequenz fmax (Nyquist Kriterium bzw. Raabe Bedingung):
fA ≥ 2 · fmax
kann problemlos rekonstruiert werden
A
kann gerade noch problemlos rekonstruiert werden
t
kann nicht mehr eindeutig rekonstruiert werden
t
Ist die Abtastrate zu niedrig gew¨ ahlt (Unterabtastung), kann der korrekte Verlauf des Ausgangssignals nicht mehr rekonstruiert werden. Es entstehen st¨ orende Artefakte. A rekonstruiertes Signal
t
t
Original-Signal
Ist eine Abtastfrequenz fA vorgegeben, sollte das Ausgangssignal deshalb zuvor u ¨ber die Anwendung eines Tiefpassfilters auf eine maximale Frequenz fmax begrenzt werden, die mit der vorgegebenen Abtastfrequenz noch korrekt erfasst werden kann. Weiterf¨ uhrende Literatur: Shannon, C. E.: Communication in the presence of noise. Proceedings of the IRE 37(1), pp. 10-21 (1949), Nachdruck in Proc. IEEE 86(2) (1998) Unser, M.: Sampling-50 years after Shannon. Proceedings of the IEEE 88(4), pp. 569587 (2000)
Abb. 4.24 Abtast-Theorem und Abtastrate
4.5 Audio – Datenformate und Komprimierung
219
abgetastete Amplitudenwerte
qi+1
X X X X
X
qi X
Quantisierungsfehler
qi-1
Quantisierungsintervall
diskreter Amplitudenwert
Abb. 4.25 Quantisierungsintervall und Quantisierungsfehler
angemeldet. PCM ist eine spezielle Form der Signal-Modulation, da der urspr¨unglich zeitkontinuierliche Verlauf des analogen Signals in eine zeitdiskrete Pulsfolge umgewandelt wird. Bei PCM legt die Samplingtiefe fest, in wieviele Quantisierungsstufen die abgetasteten Amplitudenwerte eingeteilt werden k¨onnen. Dabei wird aus Effizienzgr¨unden ¨ die Anzahl der Quantisierungsintervalle auf ein f¨ur eine qualitativ gute Ubertragung notwendiges Minimum beschr¨ankt. In der technischen Realisierung der PCMTechnik unterscheidet man grunds¨atzlich die folgenden Verfahren: • Lineare PCM Die Signalamplitude wird in gleich große Quantisierungsintervalle unterteilt. Die dadurch erzielte gleichm¨aßig hohe Aufl¨osung erm¨oglicht zwar ein fast fehlerfreies Signal, erfordert allerdings eine hohe Datenrate. • Dynamische PCM Die Signalamplitude wird in unterschiedlich große Quantisierungsintervalle unterteilt, z.B. mit Hilfe einer logarithmischen Skala. Das bedeutet, dass die Quantisierungsintervalle bei niedrigen Werten (leise Passagen) kleiner sind und demzufolge der Fehler (Rauschen) geringer ausf¨allt. Im Unterschied zum linearen PCM kann so mit einer geringeren Samplingtiefe (Anzahl Bits) gearbeitet werden, um die gleiche Amplitude zu u¨ berdecken. Entsprechend der angewendeten Kodierung unterscheidet z.B. der von der CCITT vorgeschriebene Standard f¨ur die Audiokodierung bei der Telefonie G.711 eine europ¨aische Variante (a-Law) und eine in den USA und Japan eingesetzte Variante (µ-Law) (siehe Abb. 4.26). a-Law und µ-Law verwenden beide 256 Quantisierungsintervalle (8-Bit), wobei die Unterteilung der Quantisierungsintervalle bei niedrigem Signalpegel einer Aufl¨osung von 12-Bit und bei hohem Signalpegel einer Aufl¨osung von 6-Bit
220
4 Multimediale Daten und ihre Kodierung
entspricht. Logarithmische Quantisierungsfunktionen haben den Vorteil, dass sie dem menschlichen H¨orempfinden besser entsprechen. Auch kommen in realen Signalen große Amplituden eher seltener vor und eine gr¨oßere Quantisierungsverzerrung wird dort als weniger st¨orend empfunden wird. y Quantisierungs− stufen
1/8 1/4
1/2
1
A
Signalstärke
Abb. 4.26 Dynamische PCM mit logarithmischen Quantisierungsintervallen
• Differentielle PCM (DPCM) Da zwischen aufeinanderfolgenden Abtastwerten oft nur geringe Schwankungen auftreten, kann die Redundanz der Kodierung verringert werden, wenn nur die Differenzwerte aufeinanderfolgender Abtastwerte kodiert werden. Allerdings m¨ussen in festen Abst¨anden Referenzpunkte kodiert eingef¨ugt werden, an denen eine tats¨achliche Kodierung des Abtastwertes erfolgt. Bei schnellen Signalschwankungen k¨onnen dabei allerdings schwerwiegende Quantisierungsfehler auftreten. In einem verbesserten Verfahren wird f¨ur jeden Abtastwert zun¨achst ein Vorhersagewert (Predictive Coding) aus einem oder mehreren Vorg¨angerwerten berechnet und nur die Differenz zwischen diesem und dem tats¨achlich vorliegenden Wert gespeichert. Adaptiv kann auch die Aufl¨osung der Quantisierungsintervalle angepasst werden, d.h. geringe Aufl¨osung bei starken Schwankungen (laut) und hohe Aufl¨osung bei schwachen Schwankungen (leise) (adaptives DPCM). Man unterscheidet dabei Vorw¨artsadaption, bei der die vorhergesagten Audio¨ Parameter auf Grundlage aktueller Werte gesch¨atzt werden, und Ruckw¨ artsadaption, bei der die Vorhersage auf mehreren, bereits zur¨uckliegenden AudioParametern basiert. Die R¨uckgewinnung des originalen Analogsignals aus den PCM-Abtastwerten erfolgt u¨ ber eine Digital-Analog-Wandlung und anschließender Anwendung eines Tiefpassfilters, um das gewonnene Analogsignal auf das zuvor eingeschr¨ankte Frequenzband zu reduzieren. Audio-CDs enthalten digitalisierte Audiodaten im PCM-
4.5 Audio – Datenformate und Komprimierung
221
Format, die u¨ blicherweise jeweils mit zwei Kan¨alen f¨ur eine Stereowiedergabe, mit einer Samplingfrequenz von 44.100 Hz und einer Samplingtiefe von 16 Bit kodiert digitalisiert werden. Von Mono zu Dolby-Surround
• Mono Die Aufnahme erfolgt f¨ ur eine monophone Audiowiedergabe von einem festen Standpunkt aus mit nur einer Tonspur (Kanal). Diesem Prinzip folgten bereits die ersten Audio-Reproduktionssysteme wie der Phonograph oder das Grammophon. 1927 hielt die Mono-Tonaufnahme Einzug in die Welt des Films, von der aus auch die weitere Entwicklung hin zur Mehrkanaltontechnik ausging. • Stereo Im Bestreben, eine m¨ oglichst nat¨ urliche Reproduktion von Audiosignalen zu erzielen, wurde eine Mehrkanal-Tonaufzeichnung erforderlich. Im einfachsten Fall reicht dazu eine Zweikanal-Tonaufzeichnung (Stereo, von stereos=[griech.] r¨ aumlich, ausgedehnt) aus. Die Aufzeichnung erfolgt u ¨ber zwei getrennte Mikrophone, die sich an unterschiedlichen Positionen befinden. Wird die so gewonnene Aufzeichnung u ¨ber zwei Lautsprechersysteme abgespielt, entsteht f¨ ur den Zuh¨ orer, sofern er sich innerhalb eines bestimmten Bereichs vor den Lautsprechern positioniert, ein ann¨ ahernd nat¨ urliches Klangempfinden (Stereoeffekt). Der Effekt ergibt sich aus Pegeldifferenzen und Laufzeitdifferenzen der von den r¨ aumlich getrennten Mikrophonen aufgenommenen Signale, die u ¨ber die Lautsprecher wiedergegeben werden. Allerdings ist die Wahrnehmung des Stereoeffekts auf einen begrenzten Raum beschr¨ ankt und erscheint in der Regel flach, eine nat¨ urliche Reproduktion eines Schallereignisses ist so nur angen¨ ahert m¨ oglich. Der erste Film, der mit Mehrkanalton in die Kinos kam, war 1941 Walt Disneys Fantasia“. Die erste Stereo-Schallplatte erschien 1958, das ” erste Stereo-UKW-Radio 1961. • Mehrkanaltonverfahren Die Entwicklung der Mehrkanaltonverfahren nahm im Kino ihren Ausgangspunkt. Als in den 50er Jahren die Kinoleinw¨ ande immer breiter wurden, kamen zus¨ atzlich zu den beiden Stereokan¨ alen noch zentrale Lautsprecher und Umgebungslautsprecher mit einem eigenen separaten Tonkanal hinzu, um auch dem Publikum abseits der Leinwandmitte die M¨ oglichkeit zu geben, Dialoge auf der Kinoleinwand zu lokalisieren. Da das Richtungsh¨ oren in der menschlichen Wahrnehmung f¨ ur mittlere und hohe Frequenzen am ausgepr¨ agtesten ist, m¨ ussen Niederfrequenzeffekte nicht noch einmal u ale aufgeteilt wiedergegeben werden. Sie k¨ onnen ¨ber verschiedene Kan¨ zentral von einem beliebigen Ort aus wiedergegeben werden, da sie ohnehin eher gef¨ uhlt als geh¨ ort werden. So sieht das von den amerikanischen Dolby Laboratories entwickelte Dolby 5.1-Verfahren sechs einzelne Kan¨ ale vor: links, zentral, rechts, Umgebung links, Umgebung rechts und einen zus¨ atzlichen Niederfrequenzkanal, der allerdings im Vergleich zu den u alen nur etwa ein Zehntel der Infor¨brigen Audiokan¨ mationsbandbreite beansprucht. Weiterf¨ uhrende Literatur: G¨ orne, T.: Tontechnik. Carl Hanser Verlag, Leipzig (2006)
Abb. 4.27 Ein- und Mehrkanal-Tonsignale
222
4 Multimediale Daten und ihre Kodierung
4.5.2 Unkomprimierte Audio-Datenformate Im professionellen Studiobereich herrschen die beiden Formate S/PDIF (Sony / Philips Digital Interconnect Format) und AES/EBU (Audio Engineering Society / European Broadcasting Union) vor, die jeweils mit einer 20-Bit bzw. 24-Bit PCMSamplingtiefe arbeiten. Im Bereich der Rechnerkommunikation und des WWW sind diese Formate jedoch ohne große Bedeutung. Im Zuge der Entwicklung von Personal Computern entstanden viele verschiedene Audio-Datenformate, die oft auf die speziellen M¨oglichkeiten der verwendeten Hardware zugeschnitten waren. Heute noch u¨ blich sind z.B. die Formate AU, SND, AIFF und WAVE. Das von SUN f¨ur die UNIX-Welt geschaffene AU-Format ist mit dem SND-Format von NeXT weitgehend identisch. Beide sind gekennzeichnet durch eine sehr einfache Dateistruktur: Nach einem kurzen Header werden die Audio-Daten einfach sequentiell kodiert abgespeichert. Dabei sind verschiedenartige Kodierungen m¨oglich, die vom 8-Bit Mono-PCM-Sampling bis zum 32-Bit Mehrkanalton-PCM-Sampling bei Samplingraten von 22,05 kHz bis 44,1 kHz, reichen. Wird mehr als ein Kanal benutzt, so werden die Daten f¨ur die einzelnen Kan¨ale in einem Interleaving-Verfahren abwechselnd gespeichert. Das AIFF-Format (Audio Interchange File Format) ist eine Entwicklung der Firma Apple und basiert auf dem EA/IFF85 Standard for Interchange Format Files der ¨ Firma Electronic Arts. Ahnlich wie das von Microsoft und IBM gemeinsam entwickelte WAVE-Format (Waveform Audio File Format), bestehen AIFF-Dateien aus mehreren unabh¨angigen Abschnitten, sogenannten Chunks ( H¨appchen“). Ei” ne AIFF-Datei besteht mindestens aus einem Form Chunk, der die Gr¨oße und das Format der Datei beschreibt, einem Common Chunk, der die Anzahl der Kan¨ale, der Sample-Pakete, die Samplingrate und die Wortbreite der Sound Daten Chunks angibt, die ihrerseits aus einzelnen Sample-Paketen bestehen, die die eigentliche Audio-Information enthalten. Zus¨atzlich stehen noch Marker Chunks, Comment Chunks und Instrument Chunks bereit, u¨ ber die zus¨atzliche Information in die Audiodatei mit eingebracht werden kann. In Tabelle 4.5 sind verschiedene Chunk-Typen aufgelistet. Als Erweiterung des AIFF-Formats wurde mit AIFF-C ein Standard zur verlustfreien Audiokodierung eingef¨uhrt, dessen Datenformat dem allgemeinen Aufbau des AIFF-Formats folgt. Das WAVE-Datenformat ist Teil von Windows RIFF (Resource Interchange File Format), einem Containerdatenformat, das Audiodaten unterschiedlicher Kodierungs- und Kompressionsvarianten aufnehmen kann. Aufgrund der marktbeherrschenden Stellung dieses Betriebssystems ist das WAVE-Format weit verbreitet. Der wesentliche Unterschied zum AIFF-Standard besteht dabei in der Kodierung und Anordnung der einzelnen Bytes (Intel-Standard). Obwohl eine WAVE-Datei prinzipiell auch komprimierte Audiodaten enthalten kann, ist die Variante mit unkomprimierten PCM-kodierten Audiodaten am h¨aufigsten anzutreffen. Prinzipiell besteht eine WAV-Datei aus einem RIFF WAVE Chunk, der die Datei als eine WAVE-Datei identifiziert, gefolgt von einem FORMAT Chunk, der das Format der einzelnen Sample Bl¨ocke, die Anzahl der Kan¨ale, die Samplingrate und den Blockaufbau angibt, und einem DATA Chunk, das in einer Reihe von Sample Bl¨ocken die im FOR-
4.5 Audio – Datenformate und Komprimierung
223
Tabelle 4.5 Verschiedene AIFF-Chunks Form Chunk Grundger¨ ust der AIFF-Datei, enth¨ alt Dateigr¨ oße Common Chunk beschreibt die zur Kodierung verwendeten AudioParameter wie Samplingrate, Samplingtiefe, Kan¨ ale, etc. Sound Data Chunk enth¨ alt eigentliche Sampling-Daten Marker Chunk Kennzeichnung von Zeitpunkten innerhalb der Abtastwerte Instrument Chunk zur Erzeugung digitaler Instrumentenkl¨ ange MIDI Chunk enth¨ alt MIDI-Daten Application Specific Chunk beliebige Daten Associated Data Chunk Zusatzinformation zu den enthaltenen Audio-Daten Comment Chunk Kommentar zu den enthaltenen Audio-Daten Text Chunk Textinformation zu den enthaltenen Audio-Daten
MAT Chunk spezifizierten Audio-Daten enth¨alt. Da das Feld f¨ur die Dateigr¨oße auf 32 Bit L¨ange beschr¨ankt ist, kann eine WAVE-Datei maximal 6 GB (Gigabyte) groß sein, was bei unkomprimierten Daten in CD-Qualit¨at einer Aufzeichnungsl¨ange von etwas mehr als 6 Stunden entspricht. Zus¨atzlich k¨onnen noch CUE Chunks und PLAYLIST Chunks mit in die Datei eingef¨ugt werden, die die Definition von Bereichen gestatten, die u¨ bersprungen oder mehrfach gespielt werden sollen. Alle Chunks sind dabei an Wortgrenzen (16/32Bit) ausgerichtet und m¨ussen deshalb eventuell mit F¨ullbits erg¨anzt werden. Analog zum AIFF/AIFF-C-Standard werden die Sampling-Daten im WAVE-Format f¨ur einen Abtastzeitpunkt zun¨achst f¨ur alle Kan¨ale abgelegt, bevor die Werte des n¨achsten Abtastzeitpunktes folgen (Interleave Format). Das WAVE-Format kann nachtr¨aglich um neue Chunk-Typen erweitert werden. Tritt bei der Wiedergabe einer WAVE-Datei ein Chunk-Typ auf, der dem Dekoder unbekannt ist, wird dieser nicht dekodiert. Ein Zugriff auf die hinteren Chunks einer WAVE-Datei erfolgt u¨ ber die Verkettung der L¨angen der vorangegangenen Chunks und erfordert daher die Kenntnis aller Vorg¨anger-Chunks. Aus diesem Grund ist das WAVE-Format f¨ur die Echtzeit-Daten¨ubertragung von Audio-Dateien (Streaming) nicht gut geeignet. Ein Audio-Datenformat, das etwas aus dem Rahmen f¨allt, wird durch den sogenannten MIDI-Standard definiert (Musical Instrument Digital Interface). Urspr¨unglich wurde das 1983 eingef¨uhrte MIDI-Protokoll f¨ur den Datenaustausch zwischen Synthesizern, also elektronischen Musikinstrumenten entwickelt, bevor es sp¨ater auch f¨ur die Datenkommunikation standardisiert wurde. Dabei werden im MIDIFormat keine Audiodaten im eigentlichen Sinne u¨ bertragen, sondern nur Kontrollsignale f¨ur Synthesizer. Die Kodierung von Kl¨angen erfolgt dabei in einer instrumentenbezogenen Darstellung, die die Angabe von Parametern beinhaltet, wie z.B. die Bezeichnung des Instruments, Beginn und Ende einer Note, Grundfrequenz, Lautst¨arke und vieles mehr. Da die Datenrate der Kontrollsignale sehr niedrig ist, eignete sich MIDI im Bereich der Instrumentalmusik sehr gut als Musikdatenformat f¨ur das Internet. So erfordern z.B. 10 Minuten Musik in MIDI-Kodierung nur ca. 200 kByte. Der General MIDI Standard definiert eine Klangbibliothek mit 128 verschie-
224
4 Multimediale Daten und ihre Kodierung
31
0
RIFF Chunk
RIFF 31
0
Dateigröße 31
identifiziert die Datei als WAVE-Datei
0
WAVE 31
0
.FMT
FORMAT Chunk 31
0
FMT Länge 31
16 15
beschreibt die Parameter der vorliegenden Audiodatei
0
Datenformat
Kanäle
31
0
Samplingrate 31
0
Bytes / sec 31
16 15
Block Align DATA Chunk
0
Bits / sample
31
0
DATA 31
0
Länge des Datenblocks
beinhaltet die eigentlichen Audiodaten
Audio Daten
Abb. 4.28 Das WAVE-Dateiformat
denen Instrumenten und erlaubt dadurch, dass u¨ ber ein bestimmtes Kontrollsignal auf jedem Synthesizer der gleiche Klang ausgel¨ost wird. Echte Audiodaten k¨onnen jedoch nur mit dem MIDI Sample Dump Format u¨ bertragen werden.
4.5.3 Audiokomprimierung Eine effiziente verlustbehaftete Komprimierung von Audiodaten ist ungleich schwieriger zu bewerkstelligen als die Bildkomprimierung, da hier Fehler und Artefakte wesentlich st¨orender wahrgenommen werden. Je nach Verwendungszweck k¨onnen jedoch auch Audiodaten in Umfang und Klangqualit¨at reduziert werden, ohne dass
4.5 Audio – Datenformate und Komprimierung
225
sie f¨ur den anvisierten Verwendungszweck unbrauchbar werden. Das gilt insbesondere f¨ur die Sprachkodierung, da hier meist die Verst¨andlichkeit gegen¨uber der exakten Reproduktion und optimalen Klangqualit¨at im Vordergrund steht, anders als bei der Komprimierung von Musik. Als ausreichend gute Sprachqualit¨at wird im allgemeinen eine rauschfreie und unverzerrte Wiedergabe des Gesprochenen bewertet. Eine Samplingrate von weniger als 4 kHz reicht so bereits aus, um die u¨ bliche Telefonqualit¨at zu reproduzieren. Auf dem Gebiet der Sprachkomprimierung haben sich bereits zahlreiche internationale Standards etabliert (siehe Tabelle 4.6). Sprachkodierungen, die mit einer niedrigen Daten¨ubertragungsrate auskommen, ben¨otigen jedoch oft einen leistungsstarken Rechner zur Dekodierung. Tabelle 4.6 Standards in der Sprachkodierung Codec Eigenschaften G.711
64 kbps PCM (8 Bit, 8 kHz Sampling), 13/14-Bit Samples werden auf logarithmische 8-Bit skaliert, eingesetzt f¨ ur ISDN µ-Law/a-Law
G.721
16-72 kbps ADPCM (2-5 Bit Samplingtiefe)
G.722
48-64 kbps Sub-Band ADPCM mit linearer Pr¨ adiktion (16 kHz Sampling)
G.723.1 5,3-6,3 kbps ADPCM (16 bit, 8 kHz Sampling), eingesetzt f¨ ur Voice over IP (VoIP)
Sprachqualit¨ at sehr hoch
hoch sehr hoch ausreichend
G.726
16-40 kbps ADPCM (2-5 Bit, 8kHz Sampling) in DECTGer¨ aten
sehr hoch
G.728
16 kbps ADPCM (r¨ uckw¨ artsadaptiv, rechenintensiv)
hoch
G.729
6,4-11,8 kbps, wie G.723 aber mit 16 Bit ADPCM, eingesetzt f¨ ur VoIP
hoch
GSM
z.B. 5,6-13,3 kbps, Global Standard for Mobile Communication
ausreichend
Die schon beschriebenen PCM-Formate mit nichtlinearem Sampling verwenden bereits eine Komprimierung. Da bei logarithmischem Sampling (siehe a-Law/µ-Law Verfahren) laute Passagen gr¨ober abgetastet werden als leise, in denen kleine Unterschiede in der Dynamik st¨arker ins Gewicht fallen, ist es m¨oglich, mit einer geringeren Samplingtiefe gleich gute Resultate zu erhalten, wie beim linearen Sampling mit gr¨oßerer Samplingtiefe. So erlauben die Verfahren a-Law und µ-Law bei logarithmischer Kodierung eine Reduktion der Samplingtiefe von 13/14 Bit auf 8 Bit. Um bei Signalen mit niedrigem Signalpegel (Amplitude) einen m¨oglichst ge¨ ringen Rauschanteil zu erreichen, werden schwache Signale vor einer Ubertragung zun¨achst angehoben und anschließend wieder abgesenkt. ¨ F¨ur die Ubertragung von Audio-Dateien im WWW ist die Komprimierung von besonderer Bedeutung. Ein anvisiertes Ziel der Entwickler war es, komprimierte Audiodaten in der Qualit¨at von Audio-CDs, d.h. 16-Bit Sampling bei 44,1 kHz Stereo, mit der dem typischen Endanwender zur Verf¨ugung stehenden Bandbreite zu u¨ bertragen. Ein solcher Datenstrom ben¨otigt mehr als 1.400 kbps, also weitaus mehr
226
4 Multimediale Daten und ihre Kodierung
als u¨ ber ISDN (64-128 kbps) zur Verf¨ugung stehen. Eine weitere Anwendung, die die Entwickler ins Auge fassten, war die Bereitstellung eines Datenformats f¨ur den Einsatz in Audio-Datenbanken, die u¨ ber das Internet zugreifbar sind. Grundidee der verlustfreien Audiokomprimierung Eine effiziente, verlustfreie Audiokodierung, d.h. eine Kodierung, die es erlaubt, das Originalsignal aus den komprimierten Daten exakt wieder zu rekonstruieren, nutzt das Prinzip der adaptiven Differenzenkodierung mit linearer Pr¨ adiktion. Dabei wird aus bereits vergangenen Signalwerten ein Vorhersagewert f¨ ur das aktuelle Signal ermittelt und lediglich die Differenz zum tats¨ achlichen aktuellen Signal kodiert. Ziel ist dabei m¨ oglichst geringe Werte f¨ ur eine effiziente Kodierung zu erhalten. Dazu wird im Folgeschritt eine statistische Kodierung, wie z.B. die Huffman-Kodierung angewendet, die h¨ aufig vorkommende Signalwerte mit kurzen Codeworten kodiert. Dieses Verfahren ist in der Lage, Komprimierungsraten von ca. 1:2 zu realisieren. Rauschen oder rauschartige Kl¨ ange im Audiosignal verhindern dabei das Erreichen h¨ oherer Komprimierungsraten.
Abb. 4.29 Verlustfreie Audiokomprimierung
Verlustfreie Audiokomprimierung erlaubt lediglich Komprimierungsraten von ca. 1:2 (siehe Abb. 4.29), so dass der Ausgangspunkt f¨ur eine effiziente Komprimierung von Audiodaten die gezielte Verringerung der Qualit¨at der Ausgangsdaten ist. Die normale, also verlustfreie Komprimierung arbeitet nach dem Prinzip, implizit gegebene Redundanzen zu beseitigen. Komplexe Reduktionsverfahren mit einer die Schw¨achen der menschlichen Wahrnehmung ausnutzenden Datenreduktion k¨onnen dagegen Audiodaten bis auf ein Zehntel ihrer urspr¨unglichen Gr¨oße ohne wahrnehmbaren Qualit¨atsverlust komprimieren. Grundsatz dieser wahrnehmungsangepassten Datenreduktion ist, dass jene Anteile des Audiosignals, die vom menschlichen Ohr nicht wahrgenommen werden k¨onnen, sogenannte Irrelevanzen, auch nicht mit kodiert, sondern bereits vor der Kodierung herausgefiltert werden. Konzeptionell vollziehen Audio-Komprimierungsverfahren die gleichen Verarbeitungsschritte wie das menschliche Geh¨or, indem das Signal zun¨achst in Bezug auf die Frequenz aufgeschl¨usselt wird. Aufgrund anatomischer Gegebenheiten kann das menschliche Geh¨or nur akustische Signale mit einem Schalldruck zwischen 0 dB und 120 dB innerhalb des Frequenzbereichs von 20 Hz bis 20.000 Hz, dem sogenannten H¨orfeld wahrnehmen (siehe Abb. 4.31). Akustische Signale, die außerhalb des menschlichen H¨orfeldes liegen, m¨ussen daher nicht kodiert werden (Irrelevanzreduktion). Auch innerhalb des H¨orfeldes m¨ussen nicht alle akustischen Signale kodiert werden. Ursache daf¨ur ist das Ph¨anomen der sogenannten Verdeckung (Maskierung), das aus dem Alltag wohlbekannt ist: Ein akustisches Signal, das in ruhiger Umgebung gut h¨orbar ist, kann in lauter Umgebung nicht mehr wahrgenommen werden, es wird verdeckt. Damit ein akustisches Signal bei gleichzeitigem Umgebungsger¨ausch h¨orbar ist, muss es entsprechend lauter sein als bei absoluter Stille. Der dazu notwendige Schallpegel wird Verdeckungsschwelle (Masking Threshold) genannt.
4.5 Audio – Datenformate und Komprimierung
227
Methoden der Audiokomprimierung Grunds¨ atzlich unterscheidet man bei der Komprimierung von Audioinformationen drei Basistechniken:
• Predictive Coding Hierzu wird das Wissen u ur eine Vor¨ber das bereits gesendete bzw. kodierte Signal f¨ hersage des Folgesignals benutzt. Die eigentliche Komprimierung kommt zustande, indem nur die Differenzen zwischen dem Signal und seiner Vorhersage abgespeichert werden, die kleiner sind, als das urspr¨ ungliche Signal und sich deshalb effizienter kodieren lassen. • Spectral oder Transform Coding ¨ Uber die Wellenform des Signals wird eine Fourier-Transformation durchgef¨ uhrt, die das Signal in den Frequenzraum transformiert. Da sich die transformierte Darstellung des Signals langsamer ver¨ andert, m¨ ussen auch nur weniger Samples u ¨bertragen werden. Transform Encoder benutzen gew¨ ohnlich eine große Anzahl Sub-B¨ ander und betrachten von der Frequenz her benachbarte Samples gemeinsam. • Sub-Band Coding Das vorhandene Audio-Spektrum wird in einzelne Frequenzb¨ ander aufgeteilt. Zur Kodierung wird ausgenutzt, dass fast alle B¨ ander gegen¨ uber dem lautesten Band viel weniger Information (oder weniger wichtige Information) enthalten, d.h. in der Komprimierung kann den wichtigen B¨ ander mehr Raum einger¨ aumt werden als den unwichtigen, die manchmal sogar ganz weggelassen werden. Die aufw¨ andige Selektionsarbeit, wieviele Bits welchem Sub-Band zugeteilt werden, wird vom Kodierer (Encoder) auf Basis eines sogenannten psycho-akustischen Modells ausgef¨ uhrt. D.h. neben den eigentlichen Audiodaten muss auch die Information u ¨ber die Bitverteilung mit¨ ubertragen werden. Sub-Band Coding wird oft nur als Spezialfall des Transform Coding angesehen. Abb. 4.30 Methoden der Audiokomprimierung
Die Psychoakustik unterscheidet zwei Arten der Verdeckung: • simultane Verdeckung Ein Ph¨anomen, bei dem ein Signal mit niedrigem Pegel (maskiertes Signal) von einem gleichzeitig auftretenden starken Signal (Maskierer) unh¨orbar gemacht wird, falls die Frequenzen des maskierten Signals und des Maskierers nahe beieinander liegen. Die sogenannte Mith¨orschwelle bezeichnet genau den Signalpegel, bei dem ein leises Signal gerade noch durch den Maskierer verdeckt wird. Alle unter der Mith¨orschwelle gelegenen Signale werden vom menschlichen Geh¨or nicht wahrgenommen. Abb. 4.33 zeigt die Verschiebung der Mith¨orschwelle bei simultaner Verdeckung durch ein Schmalbandrauschen mit 1 kHz bei unterschiedlicher Signalintensit¨at. • tempor¨are Verdeckung Treten zwei akustische Ereignisse ann¨ahernd gleichzeitig auf, so kann das st¨arkere Signal das schw¨achere auch dann verdecken, wenn dieses kurz nach (bis 200 ms) bzw. sogar kurz vor (bis 50 ms) dem Maskierer eintrifft. Abb. 4.34 zeigt den zeitlichen Verlauf einer tempor¨are Signalverdeckung. Durch simultane und tempor¨are Verdeckung maskierte Signale m¨ussen nicht kodiert werden, da sie vom menschlichen Geh¨or ohnehin nicht wahrgenommen wer-
228
4 Multimediale Daten und ihre Kodierung
Das menschliche Geh¨ or Das menschliche Ohr kann nur h¨ oren, wenn die eintreffenden Schallwellen innerhalb des f¨ ur den Menschen wahrnehmbaren Frequenzbereichs von ca. 20 Hz bis 20.000 Hz liegen. Bei Schallwellen unterhalb dieses Frequenzbereichs spricht man von Infraschall, der sich unmittelbar an den wahrnehmbaren Frequenzbereich anschließende Bereich heißt Ultraschall. Seine gr¨ oßte Empfindlichkeit besitzt das menschliche Geh¨ or im Bereich von 2.000 Hz bis 4.000 Hz. Das Ohr des Menschen unterteilt sich in drei Bereiche:
• Das Außenohr wird durch die Ohrmuschel, den ¨ außeren Geh¨ organg und das abschließende Trommelfell gebildet. • An der innenliegenden Seite des Trommelfells liegen die Geh¨ orkn¨ ochel des Mittelohrs an, bestehend aus Hammer, Amboss und Steigb¨ ugel, mit denen die durch die Luftdruckschwankungen hervorgerufenen Schwingungen der Trommelfellmembran in eine mechanische Schwingung u ¨bersetzt und u ¨ber das ovale Fenster an das • Innenohr weitergeleitet werden. Das ovale Fenster schwingt um eine Drehachse und u agt so die eintreffenden Schwingungen auf die Lymphfl¨ ussigkeit der ¨bertr¨ Geh¨ orschnecke (Cochlea). Die Cochlea wird durch zwei Membranen in drei Kompartimente unterteilt, die mit zwei unterschiedlichen Fl¨ ussigkeiten gef¨ ullt sind. Zwischen den beiden Fl¨ ussigkeiten besteht eine elektrische Spannung, welche die f¨ ur die Reizaufnahme und -weiterleitung erforderliche elektrische Energie liefert. Im Zentrum der Cochlea verl¨ auft die Basilarmembran mit dem Cortischen Organ, das mit seinen rund 20.000 Haarzellen von verschiedenen Frequenzen unterschiedlich stark gereizt wird. Die von den Haarzellen abgegebenen bioelektrischen Impulse werden vom H¨ ornerv aufgenommen und an das Gehirn weitergeleitet. Das Innenohr f¨ uhrt also eine erste Frequenzanalyse des wahrgenommenen Frequenzbereichs durch. Die Leistungsanteile des Spektrums werden dabei nicht mit einer linearen Frequenzskala ausgewertet, sondern je nach Frequenzbereich mit einer unterschiedlichen Lautst¨ arke empfunden. Die Lautst¨ arke-Empfindung eines akustischen Signals mit einem bestimmten Schalldruckpegel h¨ angt daher von dessen Frequenz ab. Ein Ton mit einem bestimmten Schalldruckpegel wird je nach Tonh¨ ohe unterschiedlich laut empfunden. Tr¨ agt man Punkte gleichen Lautst¨ arkeempfindens u ¨ber der Frequenzskala an, so erh¨ alt man keine Gerade, sondern eine Kurve, die sogenannten Isophone. Das subjektive Lautst¨ arkeempfinden wird in der Maßeinheit Phon gemessen. Der Bereich zwischen Ruheh¨ orschwelle und Schmerzschwelle wird als H¨ orfeld oder H¨ orfl¨ ache bezeichnet (siehe Abb. 4.32). Die Ruheh¨ orschwelle liegt beim Menschen bei einem Schalldruck von etwa p0 = 20 µPa und entspricht dem Schalldruckpegel Lp0 = 0 dB. Die Schmerzschwelle dagegen liegt bei 130 dB, was etwa dem dreimillionenfachen Schalldruck der Ruheh¨ orschwelle entspricht. Hier ist das menschliche Ohr sehr empfindlich, vor allem das Innenohr kann bei hohem Schalldruck leicht irreversiblen Schaden nehmen.
Abb. 4.31 Das menschliche Geh¨or
den k¨onnen. Die Datenrate des Signals kann also abgesenkt werden, ohne dass eine wahrnehmbare Qualit¨atsminderung auftritt. Weitere wichtige Kenngr¨oßen sind der Signal-to-Mask Ratio (SMR), der Signalto-Noise Ratio (SNR) und der Noise-to-Mask Ratio (NMR). SMR ergibt sich als Differenz des Schalldrucks des Maskierers und der Verdeckungsschwelle, SNR ergibt sich aus dem Verh¨altnis zwischen Maskierer und Quantisierungsrauschen und NMR ergibt sich aus der Differenz zwischen SMR und SNR. Audio-Komprimierungsmethoden unterscheiden sich im Allgemeinen darin, welche Techniken
4.5 Audio – Datenformate und Komprimierung
229 Schalldruckpegel A, dB
Schmerzschwelle
140
130 Phon
130 120 110
100 Phon
100 90 80
80 Phon Ruhehörschwelle
70 60 50
40 Phon
40 30 20
0 Phon
20
50
100 200
500 1000
10 0 5.000 10.000
Frequenz f, Hz
Abb. 4.32 Die H¨orfl¨ache definiert den Bereich der akustischen Wahrnehmung des Menschen Schalldruckpegel A, dB 140 130 120 Störpegel 100 dB Wahrnehmungsschwelle
80 dB
110 100 90 80 70 60 50
60 dB
20 dB 50
100 200
500 1000
20 10 0
40 dB 20
40 30
5.000 10.000
Frequenz f, Hz
Abb. 4.33 Anhebung der Mith¨orschwelle bei Schmalbandrauschen von 1 kHz mit unterschiedlichem St¨orpegel
230
4 Multimediale Daten und ihre Kodierung
A Maskierungssignal
60 dB
40 dB Vorverdeckung
Simultanverdeckung
Nachverdeckung
20 dB
0 dB -50
0
50
100
150
0
50
100
150ms
t
Abb. 4.34 Tempor¨are Verdeckung
benutzt werden, um die Maskierungsschwelle zu berechnen, und darin, wieviel Aufwand in die Signalverarbeitung investiert wird, um die dazu notwendigen Berechnungen durchzuf¨uhren.
4.5.4 MPEG Audiokodierung MPEG steht f¨ur Motion Picture Experts Group, ein Gremium, das sich urspr¨unglich mit der Kodierung und Komprimierung von Video- und Audiodaten besch¨aftigte (siehe Abb. 4.35). Arbeitsergebnisse dieser Organisation werden f¨ur gew¨ohnlich bei der ISO standardisiert und laufen unter dem Namen MPEG. Die dabei beschriebenen Audio-Kodierungsverfahren stehen nicht f¨ur sich alleine, sondern sind Teil ˙ der jeweiligen von der MPEG-Gruppe standardisierten Video-Komprimierungsverfahren, auf die sp¨ater gesondert eingegangen wird. Neben der reinen Komprimierung von Audiodaten standen bei der Entwicklung der einzelnen MPEG-Audio-Kodierungsstandards eine Reihe weiterer Ziele im Vordergrund. So sollten z.B. Echtzeit-Encoder mit u¨ berschaubaren Hardware-Kosten realisierbar und Echtzeit-Dekoder in allen g¨angigen Betriebssystemen umsetzbar sein. Daneben sollte es m¨oglich sein, innerhalb des komprimierten Datenstroms vorw¨arts oder r¨uckw¨arts zu navigieren. Ebenso war eine Resistenz gegen¨uber kaskadierter ¨ Kodierung und Dekodierung (Generationsverluste) gefordert: Beim Uberspielen einer Audiodatei mit zugeh¨origer Dekodierung und anschließender Kodierung sollen keine neuen Artefakte entstehen.
4.5 Audio – Datenformate und Komprimierung
231
MPEG – Motion Picture Experts Group Die MPEG bezeichnet eine Arbeitsgruppe der ISO (International Standards Organisation). Die vollst¨ andige, formale Bezeichnung der MPEG als Unterorganisation der ISO lautet ISO/IEC JTC 1/SC 29/WG 11. Ihre Aufgabe ist es, Standards f¨ ur die kodierte Darstellung von Audio- und Videodaten einschließlich Verfahren zu deren Komprimierung und Verarbeitung zu entwickeln. Die MPEG Gruppe hielt im Mai 1988 ihr erstes Treffen ab. Zu ihren Hauptentwicklungen z¨ ahlen die Standards MPEG-1 (ISO/IEC 11172) als Basis f¨ ur die Video Compact Disk (VCD) und das im Internet verwendete MP3, MPEG-2 (ISO/IEC 13818), das im Bereich des digitalen Fernsehens und der DVD zum Einsatz kommt und MPEG-4 (ISO/IEC 14496) als genereller Multimedia-Standard unter anderem f¨ ur mobile Kommunikationsger¨ ate der kommenden Generation bei nur geringen Bitraten. Anders als MPEG-1, MPEG-2 und MPEG-4, die unterschiedliche Videokomprimierungsverfahren beschreiben, beschreiben die Standards MPEG-7 und MPEG-21 Metadaten, d.h. Daten, die den Inhalt oder wichtige Angaben f¨ ur die Wiedergabe des Inhalts von multimedialen Daten beschreiben. MPEG-7 (ISO/IEC 15938) wurde 2002 verabschiedet und ist ein Standard f¨ ur XML-basierte Metadaten zur Beschreibung und Indizierung von Audio- und Videoinhalten. Das 2004 standardisierte MPEG-21 (ISO/IEC 21000) Multimedia Framework“ beschreibt die komplette In” ¨ frastruktur zur Ubertragung und Bereitstellung von Multimediainhalten einschließlich urheberrechtlicher Vereinbarungen. 2004 und 2005 wurden die Standards MPEG-A, MPEG-B, MPEG-C, MPEG-D und MPEG-E ver¨ offentlicht als Standards zur Beschreibung von integrierten L¨ osungen, System-, Video- und Audiotechnologien sowie Multimedia Middleware.
Abb. 4.35 Die MPEG Gruppe und MPEG Standards
Die Bitrate, mit der das Signal bei MPEG u¨ bertragen werden soll, wird als konstant angenommen. D.h. Signale m¨ussen nicht unbedingt auf geringstm¨oglichem Platz dargestellt werden, sondern die Signaldarstellung kann die vorgegebene Bandbreite optimal ausnutzen. So wird etwa bei Hardware-Realisierungen eines MPEGKodierers die Konfiguration der Filterb¨anke (dazu geh¨oren z.B. die Fourier- oder Cosinus-Transformation, sowie Angaben zum verwendeten psychoakustischen Modell) im Standard fest definiert und h¨angt nicht vom zu kodierenden Signal ab (siehe Abb. 4.36), obwohl dieses Vorgehen von vorne herein keine optimale Effizienz und Qualit¨at garantiert. Außerdem wird bei der Kodierung kein Vorwissen bzgl. des bereits kodierten Signals ber¨ucksichtigt, da dies beim Encoder zuviel Speicherplatz erfordern w¨urde. Grunds¨atzlich unterscheidet man in der Familie der MPEG-Audio-Kodierungsverfahren MPEG-1 und dessen Erweiterung MPEG-2, das die Kodierung zus¨atzlicher Audiokan¨ale gestattet. Die MPEG-1 Spezifikation f¨ur die Audiokodierung ist in sogenannte Layer unterteilt und gestattet die Komprimierung eines Stereosignals bei Samplingraten von • 32 kHz (Digitaler Rundfunk), • 44,1 kHz (CD-Audio Qualit¨at) und • 48 kHz (professionelle Audio-Ger¨ate). Enkoder f¨ur die einzelnen MPEG-Layer sind dabei abw¨arts kompatibel, d.h. Layer 1 ist die Basis, die alle En- und Dekoder (auch als Codec bezeichnet) leisten m¨ussen.
232
4 Multimediale Daten und ihre Kodierung
Audio Eingang
Filterbank (Analyse)
Quantisierung & Kodierung
Enkodierung des Bitstroms
Bitstrom Ausgang
Filterbank (Synthese)
Audio Ausgang
Psychoakustisches Model
Bitstrom Eingang
Dekodierung des Bitstroms
Inverse Quantisierung
Abb. 4.36 Schematischer Ablauf der MPEG Audio Kodierung / Dekodierung
Dekoder f¨ur Layer 2 m¨ussen automatisch auch Layer 1 Daten umsetzen k¨onnen, aber nicht umgekehrt. Die bekannten MP3-Dateien sind nach dem in MPEG-1 Layer 3 festgelegten Verfahren kodiert. In Abb. 4.37 wird ein Blockschema des MP3-Kodierungs- und Dekodierungsprozesses angegeben. Die Komplexit¨at der Encoder und Dekoder steigt mit der Ziffer des jeweiligen Layers. Tabelle 4.7 MPEG-1 Audiokodierung MPEG-1 Ziel-Bitrate Layer 1 Layer 2 Layer 3
Verwendung
192 kbps pro Kanal 128 kbps pro Kanal
digitale Kompakt-Kassetten (DCC) digitaler H¨ orfunk (DAB), digitales Fernsehen (DVB) Audio auf Video-CDs variable Bitraten 32-384 kbps Internet, Audio-MP3
Exkurs 10: MPEG-1 Audiokodierung MPEG-1 Layer 1 In einem ersten Schritt wird das Eingabe-Audiosignal u ¨ber die sogenannte Polyphase Filterbank in 32 gleichbreite Frequenz-Subb¨ ander von je 750 Hz Breite bei einer Samplingrate von 48kHz aufgeteilt. Die dabei verwendeten Filter sind verh¨ altnism¨ aßig einfach und besitzen eine gute Zeit- und Frequenzaufl¨ osung. Die Filterbank nimmt ein Eingabesample (Abtastwert) und zerlegt dieses in seine Spektralkomponenten, die jeweils auf die 32 Subb¨ ander aufgeteilt werden. Ein MPEG Layer 1 Datenpaket umfasst 384 Samples, in dem 12 Samples in jedem der 32 Subb¨ ander gruppiert werden. Auf der Basis des verwendeten psychoakustischen Modells allokiert der Enkoder f¨ ur jede Sample-Gruppe die Anzahl der ben¨ otigten Bits,
Verdeckungsschwellen
Abb. 4.37 Blockdiagramm des ISO/MPEG Audio-Codec, MP3
Filterbank (Synthese)
Inverse MDCT mit dynamischer 31 Fensteranpassung
0
Subbänder
MP3 Kodierung
Skalierung und Quantisierung
Koeffizienten
575
0
575
0
Deskalierung und Dequantisierung
Koeffizienten
MDCT mit dynamischer Fensteranpassung
Subbänder
31
0
Psychoakustisches Modell
FFT
Filterbank (Analyse) Multiplexer
Dekodierung der Zusatzinformation
HuffmanDekodierung
Demultiplexer
MP3 Dekodierung
Kodierung der Zusatzinformation
HuffmanKodierung
32-384 kbps
32-384 kbps
Digitaler Kanal
Audio Ausgang
Audio Eingang
Leistungs- und Verzerrungssteuerungsschleife
4.5 Audio – Datenformate und Komprimierung 233
234
4 Multimediale Daten und ihre Kodierung
wobei f¨ ur jedes Subband ein jeweils geeigneter Quantisierer aus 15 m¨ oglichen ausgew¨ ahlt werden kann. Als Nachteil macht sich bei dieser Form der Komprimierung bemerkbar, dass das menschliche Geh¨ or nicht in gleichbreiten Subb¨ andern arbeitet. Die Breite der Subb¨ ander w¨ achst exponentiell mit der Frequenz. Filterbank und Synthese sind hier verlustbehaftet, was allerdings nicht h¨ orbar ist. Außerdem treten sogenannte Aliasing-Effekte auf, d.h. in benach¨ barten Frequenzb¨ andern treten in MPEG Layer 1 signifikante Uberlappungen auf, da die Frequenzb¨ ander nicht scharf begrenzt sind. Ein Ton auf einer Frequenz kann also bedingt ¨ durch diese Uberlappung gleichzeitig in zwei Frequenzb¨ andern auftauchen, was sich bei der Komprimierung auch in Form von zus¨ atzlicher Redundanz bemerkbar macht. Bei der Kodierung der Kan¨ ale unterscheidet man vier verschiedene Modi:
• Single Channel Coding zur Kodierung von Mono-Signalen, • Dual Channel Coding zur Kodierung von zwei separaten Monosignalen, z.B. bilinguales Audio,
• Stereo Coding zur Kodierung eines Stereosignals, bei dem beide Stereokan¨ale allerdings getrennt kodiert werden, und
• Joint Stereo Coding zur Kodierung eines Stereosignals, bei dem die Datenredundanzen und -irrelevanzen zwischen den beiden Kan¨ alen zur Komprimierung ausgenutzt werden. Dabei kommt eine als Intensity Stereo“ bezeichnete Methode zum Einsatz, bei der f¨ ur ” hohe Frequenzen nur ein Mono-Signal u ¨bertragen wird, welches vom Dekoder wieder in die N¨ ahe der urspr¨ unglichen Stereo-Position geschoben wird. Sowohl die Quantisierung als auch die nachfolgende Kodierung werden unter Einbeziehung einer Maskierungsschwelle realisiert, die durch das verwendete psychoakustische Modell vorgegeben wird.
MPEG Layer Komprimierung Layer 1 Layer 2 Layer 3
1:4 1:6 . . . 1:8 1:10 . . . 1:12
MPEG-1 Layer 2 – MP2 Beim Start der MPEG-1 Layer 2 Kodierung liegt ein unkomprimiertes mit 48 kHz Samplingrate abgetastetes und mit 16 Bit Samplingtiefe quantisiertes Audiosignal an. MPEG-1 Layer 2 – auch bekannt als MUSICAM (Masking pattern adapted Universal Subband Integrated Coding And Multiplexing) – kodiert die Daten in gr¨ oßeren Gruppen und schr¨ ankt die Bit-Allokationen in mittleren und hohen Subb¨ andern ein, weil diese f¨ ur das Geh¨ or nicht so wichtig sind. Bit-Allokationsdaten, Skalierungsfaktoren und quantisierte Samples k¨ onnen so in kompakterer Form abgespeichert werden, was den verf¨ ugbaren Raum f¨ ur die wesentlichen Audiodaten erweitert. Ein MPEG-1 Layer 2 Datenpaket enth¨ alt 1.152 Samples pro Kanal und 3er Bl¨ ocke aus je 12 Samples pro Subband (Subframes). Dadurch ergibt sich eine erh¨ ohte Zeitaufl¨ osung des Signals und innerhalb eines Frames kann zus¨ atzlich der Nach¨ maskierungseffekt (temporale Uberdeckung) des menschlichen Geh¨ ors ausgenutzt werden. MPEG-1 Layer 3 - MP3 MP3 ist die am weitesten verbreitete Komprimierungsvariante f¨ ur Audiodaten und wurde ab 1982 von der Forschungsgruppe um Karlheinz Brandenburg am Fraunhofer Institut f¨ ur Integrierte Schaltungen (IIS) in Erlangen im Zuge eines EU-Projektes zusammen mit der Universit¨ at N¨ urnberg und den Firmen AT&T, Bell Labs und Thomson entwickelt und 1992
4.5 Audio – Datenformate und Komprimierung
235
¨ zum ISO/IEC Standard 11172-3 erkl¨ art. In der breiten Offentlichkeit wurde das MP3 Datenformat vor allem durch Musiktauschb¨ orsen, wie z.B. Napster, und die popul¨ aren portablen Wiedergabeger¨ ate, sogenannte MP3-Player, bekannt. Tats¨ achlich war MP3“ anfang 1999 ” sogar der popul¨ arste Suchbegriff im WWW. MP3 wendet zus¨ atzlich eine modifizierte diskrete Cosinus Transformation (MDCT) auf die Ausgabe der urspr¨ unglichen Filterb¨ anke an und bewirkt dadurch eine drastische Erh¨ ohung der Aufl¨ osung von 32 auf maximal 576 Subb¨ ander, die es erm¨ oglicht, selbst Aliasing-Effekte in Folge u ander wieder r¨ uckg¨ angig zu machen. In MP3 wer¨berlappender Frequenz-Subb¨ den f¨ ur die MDCT die Samplegr¨ oßen 18 und 6 gew¨ ahlt, wobei sich aufeinanderfolgende Transformationsfenster um 50% u oße von 36 bzw. 12 ¨berlappen, so dass sich eine Fenstergr¨ ergibt. Die lange Blockgr¨ oße (36 Samples) erm¨ oglicht eine h¨ ohere Frequenzaufl¨ osung der station¨ aren Signale, w¨ ahrend die k¨ urzere (12 Samples) eine bessere Zeitaufl¨ osung bei transienten Signalen gew¨ ahrleistet. Ein Wechsel zwischen den beiden Blockl¨ angen wird dabei stets u ¨ber einen speziellen Steuerungs-Block eingeleitet. Durch die geringere Zeitaufl¨ osung und das dadurch vergr¨ oßerte Zeitfenster, auf dem die MDCT operiert, werden die durch das Quantisierungsrauschen erzeugten Fehler ebenfalls auf ein gr¨ oßeres Zeitfenster verteilt, so dass die Wahrscheinlichkeit steigt, dass man sie tats¨ achlich h¨ ort. So verteilt sich bei einem Signal, bei dem sich laute und leise Passagen in schneller Folge abwechseln, das Rauschen nicht nur auf die lauten Stellen – wo man es kaum wahrnimmt – sondern auch auf die leisen Passagen. Diese St¨ orungen treten f¨ ur gew¨ ohnlich als Pre-Echo auf, weil die temporale Maskierung vor einem Signal schw¨ acher – und daher auch k¨ urzer – ist, als danach. Um diese Schw¨ ache aufzufangen, wird in MP3 u ¨ber ein entsprechend modifiziertes psy¨ choakustisches Modell versucht, derartige Situationen rechtzeitig vorherzusehen. Uber ein sogenanntes Bitreservoir kann in diesen Ausnahmesituationen die Aufl¨ osung (Zahl der Quantisierungsintervalle) dynamisch erh¨ oht und so das Quantisierungsrauschen vermindert werden. Zus¨ atzlich kann der Encoder noch auf die kleinere MDCT-Blockgr¨ oße umschalten, um die effektive Fensterl¨ ange zu verk¨ urzen. Zu den in MP3 eingef¨ uhrten Verbesserungen z¨ ahlen:
• Aliasing-Effekte der Filterbank k¨onnen ausgeglichen werden. • Der Quantisierer potenziert die Eingabe mit 3/4, um den Signal-to-Noise-Ratio gleichm¨ aßiger auf den Wertebereich der Quantisierungsintervalle zu verteilen.
• Skalierungsfaktoren werden in MP3 zu B¨andern zusammengefasst. Ein Band umfasst mehrere MDCT-Koeffizienten und besitzt in etwa eine Breite ¨ ahnlich dem menschlichen Geh¨ or. Damit wird das Quantisierungsrauschen ¨ ahnlich wie die Konturen der Maskierungsschwelle eingef¨ arbt, und es treten keine Rausch-Spitzenwerte mehr auf.
• Der MP3 Encoder sortiert die 576 Koeffizienten (32 Subb¨ander × 18 MDCT-Koeffizienten) in einer standardisierten Reihenfolge, die daf¨ ur sorgt, dass die hohen Werte (von den tiefen Frequenzen) am Anfang stehen und die kleinen am Ende. F¨ ur die hohen Werte am Anfang werden in der anschließenden Huffman-Kodierung lange Codeworte vergeben und f¨ ur die kleinen am Ende sehr kurze. Die Koeffizienten werden in drei Regionen aufgeteilt, f¨ ur die jeweils eine spezielle, optimierte Huffman-Tabelle verwendet wird, wobei zum Teil sogar mehrere Werte auf einen Huffman-Code abgebildet werden.
• Es wird ein Bitreservoir eingef¨uhrt, das zur Erh¨ohung der Aufl¨osung genutzt werden kann. Der Encoder darf jedoch nur Bits aus dem Reservoir entnehmen, die er zuvor eingespart und dort abgelegt hat. Die angewandte Huffman-Kodierung verwendet kurze Codew¨ orter f¨ ur die nach erfolg¨ ter MDCT h¨ aufiger auftretenden kleinen Quantisierungswerte. Ubersteigt die nach der Huffman-Kodierung entstehende Bitfolge die Anzahl der zur Verf¨ ugung stehenden Bits, kann in diesem Schritt die Gr¨ oße der Quantisierungsintervalle erweitert werden, so dass vermehrt kleinere Quantisierungswerte entstehen, die entsprechend k¨ urzer kodiert werden k¨ onnen.
236
4 Multimediale Daten und ihre Kodierung
Das Quantisierungsrauschen wird f¨ ur jedes Frequenz-Subband u ¨ber einen Skalierungsfaktor gesteuert, d.h. u ¨bersteigt das Rauschen die Maskierungsschwelle und wird wahrnehmbar, dann wird der Skalierungsfaktor des betreffenden Subbandes angepasst, um das Quantisierungsrauschen zu verringern. Zu diesem Zweck m¨ ussen allerdings feinere Quantisierungsintervalle verwendet werden, deren Kodierung eine h¨ ohere Bitaufl¨ osung verlangt.
• Das menschliche Geh¨or ist bei sehr hohen und sehr niedrigen Frequenzen nicht mehr in der Lage, diese richtungsgebunden wahrzunehmen. Mit einer als Intensity Stereo bezeichneten Technik werden in MP3 bestimmte Frequenzen nur monophon kodiert mit einem minimale Zusatz an Richtungsinformation, wodurch eine komplette StereoKodierung des Eingangssignals vermieden wird. Zus¨ atzlich kommt eine als Mid/SideStereo bezeichnete Technik zum Einsatz: Sind die beiden Signale des linken (L) und rechten (R) Kanals sehr ¨ ahnlich, werden sie nicht eigenst¨ andig kodiert, sondern nur ihre Differenz (L-R) und ihren Summe (L+R), was zu zus¨ atzlichen Einsparungen f¨ uhrt. Dadurch entsteht aus dem urspr¨ unglichen Stereosignal mit linkem und rechtem Kanal ein Signal aus Mitten- und Seitenkanal, das sich bei nur schwach ausgepr¨ agtem Stereoeffekt effizienter u asst. ¨bertragen l¨
• Durch die Firma Xing, Real Networks wurde der MP3-Standard um die M¨oglichkeit einer variablen Bitrate (VBR) erweitert. Da in einem Musikst¨ uck nicht alle Passagen die gleiche Komplexit¨ at aufweisen, kann es oft von Vorteil sein, die Datenrate f¨ ur die Komprimierung nicht von Anfang an fest vorzugeben, sondern diese der Komplexit¨ at des zu kodierenden Signals anzupassen. Dadurch k¨ onnen bei identischer Klangqualit¨ at oft h¨ ohere Komprimierungsraten erzielt werden. Die Datenrate wird dabei f¨ ur jedes Frame separat gespeichert. Diese Technik stellt allerdings h¨ ohere Anspr¨ uche an die verwendeten Dekoder und wird deshalb von vielen ¨ alteren Varianten nicht unterst¨ utzt.
Tabelle 4.8 Typische mittels MP3 erzielbare Komprimierungsraten Qualit¨ at
Bandbreite Kan¨ ale
Telefon Kurzwelle Mittelwelle (AM) UKW CD-nahe CD >
2,5 4,5 7,5 11,0 15,0 15,0
kHz kHz kHz kHz kHz kHz
Bitrate (kbps) Komprimierung
mono 8 mono 16 mono 32 stereo 56 . . . 64 stereo 96 stereo 112 . . . 128
kbps kbps kbps kbps kbps kbps
96:1 48:1 24:1 26 . . . 24:1 16:1 14 . . . 12:1
MP3 Audioqualit¨ at Die mit Hilfe der MP3-Komprimierung erzielte Audioqualit¨ at variiert in Abh¨ angigkeit der zur Komprimierung verwendeten Basisparameter und der Implementierung der verwendeten Encoder. Bei der verlustbehaftete MP3-Komprimierung kann es bei der Wahl ungeeigneter Basisparameter, wie z.B. zu niedrig gew¨ ahlte Bitrate, zu St¨ orungen und Verzerrungen in Form von Artefakten kommen, die sich allerdings von vorkommenden Verzerrungen unterscheiden, wie sie aus der analogen Welt, wie z.B. beim Rundfunk u ¨blich sind. Artefakte sind dezidierte Fehlersignale, die sich u andern und die nicht ¨ber die Zeit und Frequenz hinweg ¨ von der Harmonie des Audiosignals abh¨ angig sind. Man unterscheidet
• verzerrte Artefakte (aber keine harmonischen Verzerrungen), • verrauschte Artefakte (wobei das Rauschen nur einen bestimmten Frequenzbereich betrifft) und
4.5 Audio – Datenformate und Komprimierung
237
• st¨orende Artefakte (wobei die St¨orungen gegen¨uber dem Audiosignal sehr in den Vordergrund treten, da sich die Charakteristik der St¨ orsignale alle 24 Millisekunden ver¨ andern kann). Ist ein Encoder nicht in der Lage, ein Audiosignal mit der ihm zur Verf¨ ugung stehenden Bitrate zu kodieren, kommt es zu einem Verlust an Bandbreite des Signals, da typischerweise hochfrequente Anteile des Signals nicht kodiert werden k¨ onnen. Im Gegensatz zu einer konstanten Bandbreitenbeschr¨ ankung f¨ allt die durch eine zu niedrige Bitrate verursachte Bandbreitenbeschr¨ ankung deutlicher auf, da sich ihr Spektrum nach jedem kodierten Datenblock (alle 24 Millisekunden) ¨ andern kann. Oft treten auch sogenannte Pre-Echos auf, d.h. es tritt bereits ein St¨ orsignal auf, bevor das Audiosignal, das die St¨ orung verursacht hat, wiedergegeben wird. Dies kann am Dekodierungsprozess veranschaulicht werden. Dabei wird als erstes der empfangene Bitstrom mit seinen einzelnen Frequenzb¨ andern dekodiert und diese einer inversen Quantisierung unterworfen, bevor dann die Frequenzb¨ ander in einer Synthese-Filterbank rekombiniert werden. Der Quantisierungsfehler, der vom Encoder verursacht wurde, kann als zus¨ atzliches Signal betrachtet werden, das zu den vorhandenen Frequenzb¨ andern hinzuaddiert wird. Die Zeitdauer des Quantisierungsfehlers entspricht der L¨ ange des Synthese-Zeitfensters. Daher wird der Fehler bei der Rekonstruktion des Signals u alt ¨ber das gesamte Zeitfenster verteilt. Enth¨ das Musiksignal im Zeitfenster einen pl¨ otzlichen Anstieg der Amplitude, wie z.B. bei einem Kastagnetten-Klappern, erh¨ oht sich ebenfalls die Signalst¨ arke des Quantisierungsfehlers (¨ ublicherweise sind dabei klirrend-metallisch klingende Artefakte h¨ orbar). F¨ allt ein derartiges Signal in des Analyse-Zeitfensters, wird sein Quantisierungsfehler u ¨ber das komplette Zeitfenster verteilt, so dass der Fehler in der Rekonstruktion bereits auftritt, bevor seine ¨ Ursache h¨ orbar wird. Ubertrifft die Zeitspanne des Pre-Echos die zeitliche Maskierung des menschlichen Geh¨ ors, ist das Pre-Echo zu h¨ oren. Eine M¨ oglichkeit der Vermeidung h¨ orbarer Pre-Echos liegt in der Verwendung variabler Bitraten bzw. einer lokalen Erh¨ ohung der Bitrate, um die Signalst¨ arke des Pre-Echos abzuschw¨ achen. Ein weiterer Effekt, der durch eine unzureichende Abstimmung zwischen zeitlicher Aufl¨ osung des Enkoders und der Zeitstruktur des Audiosignals verursacht wird, tritt am deutlichsten bei Sprachsignalen auf. Dieser als Double Speak bezeichnete Fehler wird vor allem bei der Wiedergabe u orer wahrgenommen und erscheint als eine zweite, die Originalstim¨ber Kopfh¨ me u ¨berlagernde Stimme. Bei der Erzeugung einer MP3-komprimierten Audiodatei muss stets ein angemessener Kompromiss zwischen der gewonnenen Kompressionsrate und der erw¨ unschten Audioqualit¨ at ge¨ funden werden. Ublicherweise wird eine bestimmte Bitrate vom Benutzer fest vorgegeben. Je niedriger die Bitrate, desto geringer die Audioqualit¨ at. Einige spezielle Audiodateien, wie z.B. St¨ ucke mit hohen und pl¨ otzlich auftretenden Dynamikschwankungen oder einem hohen Grad an zuf¨ alligen Ger¨ auschen, lassen sich nur sehr schwer komprimieren. Die erzielte Qualit¨ at h¨ angt aber auch vom jeweils verwendeten Encoder ab, da die MPEG Spezifikation eine relativ freie Auslegung bei der Implementierung des Standards zul¨ asst. L¨ asst sich das MP3-komprimierte Signal von einem durchschnittlichen H¨ orer nicht mehr vom Ausgangssignal unterscheiden, heißt die Komprimierung transparent. Eine ausreichende Transparenz ist bei MP3 u ¨blicherweise bei Bitraten zwischen 128 kbps und 192 kbps erreichbar. Weiterf¨ uhrende Literatur: Dietz, M., Popp, H., Brandenburg, K., Friedrich, R.: Audio compression for network transmission. Journal of the Audio Engineering Society 44(1-2), pp. 58-72 (1996) Painter, T., Spanias, A.: Perceptual coding of digital audio. Proc. of the IEEE 88(4), pp. 451-515 (2000) Thom, D., Purnhagen, H., Pfeiffer, S.: MPEG-Audio Subgroup: MPEG Audio FAQ, ISO/IEC JTC1/SC29/WG11 Coding of Moving Pictures and Audio (1999)
238
4 Multimediale Daten und ihre Kodierung
Tabelle 4.9 macht das Verh¨altnis der erzielten Dateigr¨oße bei unterschiedlichen, vorgegebenen Bitraten deutlich. Steigt die Bitrate, steigt auch die Qualit¨at der Audiodaten zusammen mit der jeweiligen Dateigr¨oße. Aus der Abbildung wird auch ersichtlich, wieviele Stunden MP3 kodierter Audiodaten eine 1 GB große Festplattenpartition f¨ullen, und wieviele Musikst¨ucke von jeweils 4-min¨utiger Dauer darauf Platz finden. Tabelle 4.9 Dateigr¨oße vs. Bitrate bei MP3 Kodierung Bitrate Dateigr¨ oße 1,411 kbps (CD-Audio) 80 128 160 192 256 320
kbps kbps kbps kbps kbps kbps
Kompression
Stunden/GB
St¨ ucke/GB
41,3 MB
keine
1,7
25
2,3 3,8 4,7 5,6 7,5 9,4
17,6:1 11:1 8,8:1 7,3:1 5,5:1 4,4:1
29,1 18,2 14,6 12,1 9,1 7,3
437 273 218 182 137 109
MB MB MB MB MB MB
Exkurs 11: MP3 – Dateiaufbau Eine MPEG-Datei besitzt keinen Datei-Header im eigentlichen Sinn, sondern sie besteht nur aus einer Aneinanderreihung von einzelnen Datenbl¨ ocken (Frames), die jeweils einen eigenen Header, sowie die gespeicherte Audio-Information enthalten. F¨ ur MPEG Layer 1 und Layer 2 sind diese Bl¨ ocke vollst¨ andig unabh¨ angige Einheiten, so dass eine MPEG-Datei an einer beliebigen Stelle auseinandergeschnitten und von dort an korrekt wiedergegeben werden kann, der Dekoder spielt die Datei vom ersten unversehrt aufgefundenen Datenblock an ab. Bei MP3 jedoch sind die einzelnen Datenbl¨ ocke nicht immer unabh¨ angig voneinander. Aufgrund der Verwendung des Byte-Reservoirs sind die einzelnen Bl¨ ocke oftmals gegenseitig voneinander abh¨ angig, wobei maximal 9 Datenbl¨ ocke ben¨ otigt werden, um einen Datenblock korrekt wiederzugeben. Um Information u ¨ber eine MP3-Datei zu erhalten, reicht es aus, einen Datenblock zu finden und dessen Header zu lesen, da man davon ausgehen kann, dass diese Information in unver¨ anderter Weise auch f¨ ur die anderen Datenbl¨ ocke gilt. Dies trifft zu, solange nicht mit variabler Bitrate (VBR) gearbeitet wird, da dort die Bitrate in jedem neuen Datenblock ver¨ andert werden kann. In Abb. 4.38 ist der Aufbau einer MP3-Datei schematisch dargestellt.
• Ein Datenblockheader ist 32 Bit lang und enth¨alt die folgenden Bestandteile: – Das Synchronisationswort nimmt die ersten 11 Bit des Datenblockheaders ein und besteht ausschließlich aus Bits, die auf den Wert ’1’ gesetzt werden, um den Anfang eines MP3 Datenblocks zu identifizieren. – Die MPEG Id besteht aus einer 2 Bit lang Folge, mit der die MPEG Version der vorliegenden Daten angegeben werden kann. Der Wert 3, d.h. die Bitfolge ’11’ bezeichnet MPEG Version 1. – Die nachfolgende, 2 Bit lange Sequenz identifiziert den entsprechenden MPEG Layer. Die Folge ’01’ bezeichnet Layer 3, ’10’ bezeichnet Layer 2 und ’11’ bezeichnet Layer 1.
4.5 Audio – Datenformate und Komprimierung
239
31
File Header
21
Sync 20
19 18
17
MPEG Id
16
CRC−Flag
Layer
15
12
Bitrate Index 11
10
Samplingrate
9
Padding
7
65
Channel Mode 3
4
Mode Extension
2
Copyright Flag
1
Original
15
optional
16−Bit CRC
Audio Daten
127
Id3−Tag
0
Emphasis
0
CRC
Data
8
Priv
0
Id3−Tag
Abb. 4.38 MPEG-1 Layer 3 - MP3 - Dateiformat
– Das folgende CRC-Flag gibt an, ob eine CRC-Pr¨ ufsumme verwendet wird (CRCFlag=’0’) oder nicht (CRC-Flag=’1’). – Die n¨ achsten 4 Bit kodieren die in den Datenbl¨ ocken verwendete Bitrate in Abh¨ angigkeit von der jeweils verwendeten MPEG Variante. F¨ ur MPEG 1 Layer 3 wird eine Bitrate von 128 kbps z.B. mit der Bitfolge ’1001’ kodiert. – Die Samplingrate wird mit Hilfe der n¨ achsten beiden Bits ebenfalls in Abh¨ angigkeit der jeweils verwendeten MPEG Variante kodiert. F¨ ur MPEG 1 bezeichnet die Bitfolge ’00’ z.B. eine Samplingrate von 44100 Hz. – Das n¨ achste Bit (Padding) gibt an, ob der Datenblock vollst¨ andig gef¨ ullt ist oder nicht. – Das Private Bit dient nur informativen Zwecken. – Die folgenden 2 Bit (Channel Mode) geben dar¨ uber Auskunft, wieviele Kan¨ ale auf welche Weise kodiert werden. Die Bitfolge ’00’ steht f¨ ur regul¨ ares Stereo, w¨ ahrend die Folge ’01’ die Variante Joint Stereo bezeichnet. – Die folgenden 2 Bit enthalten nur im Falle der Joint Stereo Kodierung der Audiosignale relevante Informationen. Werden beide Bits gesetzt (’11’), wird das Audiosignal mit den Verfahren Intensity-Stereo und Mid-Side-Stereo kodiert. – Das Copyright-Flag ist dazu gedacht, Copyright-gesch¨ utzte Audioinformationen zu kennzeichnen (’1’ = mit Copyright).
240
4 Multimediale Daten und ihre Kodierung
– Das Original-Flag dient der Kennzeichnung von originalen Audioinformationen (’1’) oder von Kopien (’0’). – Die letzten beiden Bits (Emphasis) werden nur selten genutzt und zeigen dem MP3Dekoder an, ob die folgenden Audiodaten mit einer Dolby-¨ ahnlichen Rauschunterdr¨ uckung aufgenommen wurden und ob deshalb eine m¨ ogliche Verzerrung des Audiosignals ausgeglichen werden muss.
• Optional kann jeder MP3-Datenblock auch eine 16 Bit lange CRC-Pr¨ufsumme enthalten, die - falls vorhanden - direkt dem Datenblockheader folgt.
• Schließlich folgen die eigentlichen kodierten Audiodaten, die vom MP3-Dekoder entsprechend den im Datenblockheader gemachten Angaben dekodiert werden.
• Das letzte Element in einer MP3-Datei ist das sogenannte ID3-Tag. Dieser Speicherbereich dient dazu, Metadaten zu dem in der MP3-Datei abgelegten Musikst¨ uck zu speichern, wie z.B. Interpret, Titel, Ver¨ offentlichungsdatum oder Genre. Das ID3-Tag ist 128 Byte lang (ID3v1) und befindet sich stets am Ende der MP3-Datei. Dieser Informationsabschnitt war urspr¨ unglich nicht in der MPEG-Spezifikation enthalten, sondern wurde nachtr¨ aglich eingef¨ ugt (siehe Abb. 4.39). 1996 erweiterte Eric Kemp in seinem
MP3 Audio Data TAG
Title (30 Bytes) Artist (30 Bytes) Album (30 Bytes) Year (4 Bytes) Comment (30 Bytes)
ID3v1
Genre (1 Byte)
Abb. 4.39 MP3 ID3v1-Tag mit Metadaten
Programm Studio 3“ MPEG-1 Audiodateien dahingehend, dass er am Ende einen klei” nen, 128 Byte langen Bereich anhing, der Informationen u ¨ber die vorliegende Audiodatei enthielt: Das ID3-Tag (Version 1.0, ID3v1.0). Innerhalb dieses Bereichs der stets mit der Zeichenfolge ’TAG’ startet, befinden sich vorgegebene Felder f¨ ur Titel, Interpret, Album, Jahr, Kommentar sowie ein Feld, in dem ein musikalisches Genre aus 80 vordefinierten Genres angegeben werden kann (Winamp erweiterte diese Genre-Liste auf 148 Eintr¨ age). Das ID3-Tag wurde bewusst am Ende der Datenbl¨ ocke platziert, um Kompatibilit¨ at mit alteren Dekodern zu gew¨ ahrleisten. Die starre Struktur des ID3-Tags ließ wenig Spiel¨ raum f¨ ur Erweiterungen, so dass nach der ersten nicht zufriedenstellenden Erg¨ anzung (Id3v1.1) eine weitaus flexiblere Neudefinition ID3v2 folgte. ID3v2 definierte 1998 ein eigenes Containerformat, das aus bis zu 84 einzelnen, unterschiedlichen Datenbl¨ ocken von jeweils maximal 16 MByte L¨ ange besteht. Die maximale
4.5 Audio – Datenformate und Komprimierung
241
L¨ ange eines ID3v2-Tags ist auf 256 MByte beschr¨ ankt. Um die M¨ oglichkeiten des MediaStreamings zu nutzen, steht das ID3v2-Tag am Beginn der MP3-Datei, damit es von Anfang an nutzbar ist. Darin enthalten sein k¨ onnen unter anderem: – – – –
zus¨ atzliche vorgegebene Eigenschaftsfelder, Unicode-Zeichens¨ atze, eigenst¨ andige Dateien, wie etwa Bilder, Liedertexte, die auch synchron zum Musikst¨ uck - also wie z.B. bei Karaoke - wiedergegeben werden k¨ onnen und – diverse Parameter f¨ ur die Wiedergabe des Musikst¨ ucks. Die im ID3v2-Tag enthaltene Zusatzinformation kann eigenst¨ andig komprimiert werden und erm¨ oglicht so eine effiziente Speicherung innerhalb des vorgegebenen MP3Datenformats. Weiterf¨ uhrende Literatur: International Standard, ISO/IEC/JTC1/SC29 WG11: ISO/IEC 13818-3, Information technology – generic coding of moving pictures and associated audio information – Part 3: Audio. International Organization for Standardization, Geneva, Switzerland (1998)
4.5.4.1 MPEG-2 MPEG-2 stellt eine Erweiterung des MPEG-1 Standards dar, der eine Kompatibilit¨at zu MPEG 1 in beiden Richtungen gew¨ahrleistet, d.h. MPEG-1 und MPEG-2 Dekoder sind in der Lage, jeweils beide Datenformate zu interpretieren. Das MPEG-2 Audio-Komprimierungsverfahren ist als ISO/IEC 13818-3 standardisiert und umfasst zus¨atzlich zu MPEG-1 folgende Erweiterungen: • Bereitstellung zus¨atzlicher Abtastraten von 8 kHz, 11 kHz, 16 kHz, 22.5 kHz und 24 kHz. • 3 zus¨atzliche Audiokan¨ale, die einen 5-Kanal Surround-Sound erlauben (links, mitte, rechts und 2 Raumkan¨ale). • Unterst¨utzung eines eigenen Audiokanals f¨ur Niedrigfrequenz-Effekte (<100 Hz). • Unterst¨utzung zus¨atzlicher Audioinformationen in unterschiedlichen Konfigurationen (bis zu 8 multilinguale Kan¨ale). Diese k¨onnen sowohl der mehrsprachigen ¨ Ubertragung dienen oder Unterst¨utzung f¨ur H¨or- und Sehbehinderte bieten. • Verwendung variabler Bitraten zur Anpassung der Komprimierung an die wechselnde Komplexit¨at der zu kodierenden Audioinformation. Durch die vielf¨altigen M¨oglichkeiten der Kanalkodierung er¨offnen sich auch neue Vorgehensweisen f¨ur die Komprimierung, wie z.B. • • • • •
Intensity Stereo Coding (ISC), Phantom Coding of Center (PCC), Dynamic Transmission Channel Switching, Temporal Noise Shaping f¨ur gute Sprachqualit¨at bei niedrigen Bitraten, Dynamic Cross Talk und
242
4 Multimediale Daten und ihre Kodierung
• Adaptive Multi-Channel Prediction. Zur Gew¨ahrleistung der Kompatibilit¨at m¨ussen MPEG-2 Daten dergestalt kodiert werden, dass ein herk¨ommlicher MPEG-1 Dekoder in der Lage ist, den linken und rechten Stereokanal aus den f¨unf m¨oglichen Kan¨alen herauszufiltern. Dazu wird f¨ur die Komprimierung des linken und rechten Kanals das in MPEG-1 festgelegte Datenformat verwendet - was auch die Verwendung derselben Komprimierungsalgorithmen f¨ur diese beiden Kan¨ale impliziert - das zusammen mit einem MPEG-2 Erweiterungsfeld in ein MPEG-1 Datenpaket (siehe Abb. 4.40) gepackt wird. MPEG-1 Header
MPEG-1 Audiosignal
MPEG-1 Zusatzinformation
MPEG-1 Datenpaket
MPEG-1 Header
MPEG-1 Audiosignal
MPEG-2 Header
MPEG-2 Erweiterungssignal
MPEG-2 Zusatzinformation
MPEG-2 Datenpaket
Abb. 4.40 Datenformat eines MPEG-2 Audio Bitstreams
4.5.4.2 MPEG-2.5 Eine nicht von der ISO zertifizierte Erweiterung des MPEG-2 Layer 3 Standards stellt die vom Fraunhofer Institut entwickelte, als MPEG-2.5 bezeichnete Variante dar, die bessere Komprimierungsergebnisse speziell f¨ur niedrige Bitraten (812 kHz Samplingrate f¨ur Bitraten von 8-160 kbps) bei Beschr¨ankung der Bandbreite erm¨oglicht. Eine relativ hohe Samplingrate bei niedriger Bitrate muss im Gegenzug mit einer verminderten Aufl¨osung des Frequenzbereichs zurecht kommen. Verringert man dagegen die Samplingrate, so verkleinert man auch die zeitliche Aufl¨osung des kodierten Signals, kann aber einen vergr¨oßerten Frequenzbereich abdecken. Verbindet man beide Techniken miteinander, lassen sich bei vergleichbarer Komprimierung bessere Klangergebnisse realisieren.
4.5.4.3 MPEG-2 / MPEG-4 Advanced Audio Coding Als Nachfolger des MP3 Standards gingen 1997 MPEG-2 Advanced Audio Coding (MPEG-2 AAC, als ISO/IEC 13818-7:1997) und 1999 MPEG-4 Advanced
4.5 Audio – Datenformate und Komprimierung
243
Audio Coding (MPEG-4 AAC, als ISO/IEC 14496-3:1999) hervor. MPEG-2 AAC ist nicht r¨uckw¨artskompatibel zu MPEG-1. Die Verfahren des Advanced Audio Codings stellen den derzeitigen State-of-the-Art in Sachen Audio-Komprimierung dar. Hier wurden wesentliche Teile des urspr¨unglichen MP3-Codecs neu erarbeitet. Dies betrifft unter anderem neue Vorhersagealgorithmen und die angewandte Entropiekodierung. Zus¨atzlich wurde die Mehrkanalf¨ahigkeit von MPEG-2 weiter ausgebaut auf bis zu 48 Kan¨ale im regul¨aren Frequenzbereich und 16 Kan¨ale im Niedrigfrequenzbereich. Die Aufl¨osung der Samplingrate wurde dazu bis auf 96 kHz erh¨oht. MPEG-2 AAC nutzt ann¨ahernd dieselben Techniken wie MP3, nur wurden diese selbst in ihrer Anwendung verbessert: • Die verwendete Filterbank beschr¨ankt sich auf eine reine MDCT, w¨ahrend sie bei MP3 noch hybrid (MDCT und FT) ausgelegt war. • Die verwendete Fenstergr¨oße kann ann¨ahernd doppelt so lang sein (2.048 Samples) wie bei MP3 und erlaubt so eine bessere Aufl¨osung. • Gleichzeitig kann die Fenstergr¨oße aber auch kleiner werden als bei MP3 und so eine bessere zeitliche Aufl¨osung und eine verbesserte Behandlung des Pre-Echo erm¨oglichen. • Middle-/Side- und Intensity-Stereo k¨onnen auf der Basis eines eigenen Subbandes behandelt werden und nicht wie bei MP3 u¨ ber den gesamten Frequenzbereich. Da eine Kompatibilit¨at bei der Entwicklung nicht mehr zu gew¨ahrleisten war, konnten die beim MP3-Standard bestehenden Beschr¨ankungen umgangen werden. Zus¨atzlich eingef¨uhrt wurde die M¨oglichkeit des Temporal Noise Shaping (TNS). Dies ist ein Werkzeug zur Steuerung des auftretenden Quantisierungsrauschens bei ¨ der Ubertragung der Filterkoeffizienten und Vorhersagealgorithmen, das es gestattet, aus jeweils zwei vorangegangenen Datenpaketen Koeffizienten f¨ur jedes Frequenzband vorherzusagen, was bei statischen Signalen die Effizienz enorm erh¨oht und speziell die Verst¨andlichkeit von Sprachsignalen auch bei niedrigen Bitraten verbessert. MPEG-2 AAC erzielt bei der Kodierung von zwei Audiokan¨alen eine ebenso gute Audioqualit¨at wie MP3 bei etwa 70% der dazu ben¨otigten Bitrate. MPEG-4 AAC ist aus dem MPEG-2 AAC Standard durch weitere Verbesserungen ¨ vor allem bei der Ubertragung im Bereich niedriger Bitraten hervorgegangen. Der Einsatzbereich wurde daher vor allem im Bereich des Mobile Computing gesehen, da Sprach¨ubertragung durch MPEG-4 bereits ab Bitraten von 4 kbps m¨oglich ist. Weite Verbreitung hat der MPEG-4 AAC Standard u¨ ber seine Anwendung in verschiedenen Apple-Produkten gefunden, wie z.B. dem mobilen Mediaplayer iPod und der iTunes Software zum Abspielen, Organisieren und Kaufen von Musik, Filmen und Spielen. Die Verbesserungen von MPEG-4 AAC betreffen insbesondere die Einf¨uhrung einer als Perceptual Noise Substitution (PNS) bezeichneten Technik, die es erlaubt, Passagen aus dem kodierten Musikst¨uck, die einem Rauschen a¨ hneln, durch ein auf Dekoderseite erzeugtes Rauschen zu substituieren. Dar¨uberhinaus wurde noch ein Algorithmus zur Langzeitvorhersage (Long Term Prediction, LTP) entwickelt, der
244
4 Multimediale Daten und ihre Kodierung
bei gleicher Leistungsf¨ahigkeit wie der in MPEG-2 AAC verwendete Algorithmus mit deutlich geringerem Kodierungsaufwand arbeitet. Das Advanced Audio Coding Konzept zeichnet sich durch einen hohen Grad an Modularit¨at aus. In Abh¨angigkeit von der Komplexit¨at der zu kodierenden Audioinformation k¨onnen unterschiedliche Profile erstellt werden, die festlegen, welche Verfahren und Hilfsmittel aus dem Werkzeugkasten des MPEG-2/MPEG-4 AAC Standards zum Einsatz kommen sollen. Dabei werden 4 Standard-Profile angeboten: • Low Complexity (f¨ur mittlere bis hohe Bitraten; das einfachste um am weitesten verbreitete Profil) • Main Profile (wie Low Complexity mit zus¨atzlicher M¨oglichkeit der r¨uckw¨arts gerichteten Pr¨adiktion) • Scalable Sampling Rate (auch bekannt als MPEG-4 AAC-SSR, erm¨oglicht die ungest¨orte Wiedergabe von Streams durch Verringerung der Bitrate, wenn die verf¨ugbare Bandbreite abf¨allt) • Long Term Prediction (Verbesserung des Main Profiles mit Einf¨uhrung einer vorw¨arts gerichteten Pr¨adiktion von geringer Berechnungskomplexit¨at) MPEG-4 stellt mehr als nur einen einfachen Komprimierungsmechanismus dar, sondern beinhaltet eine Multimedia-Objektverwaltung, die eine Kombination von Musik-, Sprach-, Ger¨ausch-, synthetischer Audio- oder Textinformation gestattet, und jede dieser Quellen entsprechend ihrer speziellen Charakteristika als eigenst¨andiges Medien-Objekt effizient kodieren kann. Zus¨atzlich verf¨ugt MPEG-4 noch u¨ ber Mechanismen zur Wahrung und Verwaltung von Urheber- und Nutzungsrechten (Intellectual Property Management and Protection).
4.5.5 Weitere Audio-Komprimierungsverfahren 4.5.5.1 ATRAC ATRAC steht f¨ur Adaptive Transform Acoustic Encoding und wurde von der japanischen Firma Sony als Codec f¨ur deren MiniDisk-Datentr¨ager entwickelt. Die MiniDisk ist ein optisches bzw. magneto-optisches Speichermedium mit 64mm Durchmesser, das etwa ein F¨unftel der Speicherkapazit¨at einer herk¨ommlichen AudioCD besitzt. Trotz der niedrigeren Speicherkapazit¨at sollte eine Klangqualit¨at – vergleichbar einer CD – bei einer Spielzeit von 74 Minuten erm¨oglicht werden, was eine Datenreduktion von 5 : 1 erfordert. Ebenso wie MPEG basiert ATRAC auf einem psycho-akustischen Modell, das f¨ur die Datenreduktion verwendet wird, wobei Maskierungseffekte von Frequenzanteilen niedriger Amplitude durch zeitlich benachbarte hochamplitudige Anteile ausgenutzt werden. Ein ATRAC-Datenpaket umfasst 512 einzelne Samples, wobei das Audiosignal zuerst in drei einzelne Subb¨ander unterteilt wird, die dann jeweils noch einmal u¨ ber eine MDCT aufgeteilt werden: 0–5,5 kHz (128 MDCT), 5,5–11 kHz (128 MDCT) und 11–22 kHz (256 MDCT). ATRAC arbeitet in zwei unterschiedlichen Modi
4.5 Audio – Datenformate und Komprimierung
245
Die verschiedenen MPEG Audio Standards MPEG-1 (1992) Einkanal (mono) und Zweikanal (stereo) Kodierung von Audiosignalen bei Samplingraten von 32, 44.1 und 48 kHz und Bitraten von 32 kbps bis 448 kbps. Layer 1 war f¨ ur die digitale Kompaktkassette (DCC) vorgesehen, fand aber keine weite Verbreitung. Layer 2 wird vom Rundfunk genutzt, da hier trotz hoher Bitrate eine hohe Audioqualit¨ at bei geringem Kodierungsaufwand erreichbar ist, was vor allem bei Live¨ ubertragungen von Bedeutung ist. Layer 3, auch als MP3 bekannt, liefert bessere Audioqualit¨ at bei niedrigeren Bitraten ¨ und ist deshalb besonders interessant f¨ ur die Verwendung bei Ubertragungen u ¨ber das Internet mit seinen (damals) oft noch recht niedrigen Bandbreiten. MPEG-2 (1994) Beidseitig kompatible Erweiterung von MPEG-1 f¨ ur die Kodierung von bis zu f¨ unf Audiokan¨ alen und einem Niederfrequenzkanal. Mit zus¨ atzlicher Unterst¨ utzung von Samplingraten um 16, 22.5 und 24 kHz bei Bitraten von 8 bis 384 kbps. MPEG-2 AAC Unterst¨ utzt eine erweiterte Zahl von Samplingraten (von 8 kHz bis 96 kHz) und bis zu 48 Audiokan¨ ale, inklusive 15 zus¨ atzliche Niederfrequenzkan¨ ale und 15 eingebettete Datenstr¨ ome. AAC arbeitet mit variablen Bitraten beginnend mit 8 kbps f¨ ur Sprach¨ ubertragung bei Monoqualit¨ at bis hin zu mehr als 320 kbps f¨ ur hochwertige Mehrkanal¨ ubertragung. MPEG 2.5 (kein Standard!) ISO-gem¨ aße Erweiterung des MPEG-2 Standards durch das Fraunhofer Institut f¨ ur Integrierte Schaltungen in Erlangen, welche die Leistungsf¨ ahigkeit bei niedrigen Bitraten erh¨ oht, wobei zus¨ atzlich Bitraten von 8, 11.025 und 24 kHz unterst¨ utzt werden. MPEG-4 (1998/1999) Genereller Kodierungsstandard f¨ ur allgemeine Multimediadaten. Unterst¨ utzt Kodierung und Zusammensetzung von nat¨ urlichen und synthetischen Audiosignalen bei einer Vielzahl unterschiedlicher Bitraten. MPEG-4 Version 2 baut auf bestehende MPEGStandards auf und erweitert diese f¨ ur digitales Fernsehen, interaktive Grafik- und Multimedia-Anwendungen. MPEG-4 Audio Lossless Coding (2005) Erweiterung des MPEG-4 Standards um eine verlustfreie Audiokodierungsvariante. MPEG-4 ALS unterst¨ utzt 32 Bit Abtastwerte, bis zu 216 Kan¨ ale, flexible Paketraten und Streaming.
Abb. 4.41 Die verschiedenen MPEG Audio Standards
mit entweder jeweils einem langen Datenblock (11,6 ms) oder drei kurzen Datenbl¨ocken (2,9 ms + 2,9 ms + 1,45 ms). Die resultierenden Koeffizienten werden nach Wortl¨ange quantisiert und mit einem Skalierungsfaktor versehen. ATRAC unterst¨utzt eine unterbrechungsfreie Wiedergabe (Gapless Playback), d.h. das Abspielen von Musiktiteln, die nahtlos ineinander u¨ bergehen. Der Dekodierungsaufwand f¨ur ATRAC ist relativ gering, so dass bei tragbaren Wiedergabeger¨aten im Vergleich zu MP3 l¨angere Laufzeiten erzielt werden. Im Gegensatz zu
246
4 Multimediale Daten und ihre Kodierung
MPEG schleichen sich bei ATRAC bei einer Kaskadierung, also bei mehrmaligem Kodieren und Dekodieren, Artefakte ein. Dennoch war das Verfahren in der Unterhaltungselektronik bis 2007 weit verbreitet.
4.5.5.2 Dolby AC-1, AC-2 und AC-3 Die Audio-Komprimierungsverfahren der amerikanischen Firma Dolby werden mit AC (Audio Code) bezeichnet und ihrem Entwicklungsstand entsprechend durchnumeriert. Dolby AC-1 war f¨ur Satellitenverbindungen im Bereich Fernsehen und UKW-Radio entwickelt worden. Basierend auf einem einfachen psycho-akustischen Modell gelingt damit eine qualitativ hochwertige Komprimierung eines Audiosignals im Verh¨altnis 3 : 1. Das urspr¨ungliche Signal wird dabei in zahlreiche, sich u¨ berlappende Subb¨ander aufgesplittet, auf denen dann eine MDCT ausgef¨uhrt wird. Anschließend erfolgt eine erneute Aufteilung in Subb¨ander, die je nach Bedeutung des Subbandes (gemessen am menschlichen H¨orverm¨ogen und dem Anteil des Subbandes an der Gesamtcharakteristik des zu kodierenden Signals) zwischen einem (nicht signifikantes Subband) und 15 Koeffizienten (signifikantes Subband) enthalten k¨onnen. Dabei sind Subb¨andern von niedriger Frequenz bereits mehr preallokierte Bits zugewiesen als Subb¨andern von hoher Frequenz. Die f¨ur die Kodierung ben¨otigten zus¨atzlichen Bits werden dynamisch allokiert. Bei einer Samplingrate von 48 kHz betr¨agt die Anzahl der Subb¨ander 40 (43 Subb¨ander bei 32 kHz). Dolby AC-2 findet in PC Soundkarten und professionellem Audio-Equipment Einsatz. Es gew¨ahrleistet eine sehr hohe Audioqualit¨at bei einer Datenrate von 256 kbps. Bei 48 kHz Samplingrate betr¨agt die typische Komprimierungsrate 6.1 : 1 (5.4 : 1 bei 32 kHz). Zus¨atzlich verwendet Dolby eine Technik namens Time Domain Aliasing Cancellation (TDAC), eine rechtlich gesch¨utzte Eigenentwicklung, die auf die Vermeidung von Aliasingeffekten abzielt. Das leistungsf¨ahigste Verfahren der von Dolby entwickelten Komprimierungsstandards ist Dolby AC-3, das f¨ur die Komprimierung von Mehrkanal-Audiostr¨omen geeignet ist. Dolby AC-3 wurde als Tonstandard f¨ur das Heimkino entwickelt und kann bis zu 6 (5.1) Kan¨ale kodieren, d.h. 5 Kan¨ale werden im vollen Frequenzumfang von 3 Hz bis 20 kHz kodiert (links, mitte, rechts und 2 Umgebungskan¨ale), ein zus¨atzlicher Niederfrequenzkanal (3 Hz bis 120 Hz) steht noch f¨ur Effekte zur ¨ Verf¨ugung. Ahnlich wie bei MP3 nutzt AC-3 Maskierungseffekte, um irrelevante Information vor der Komprimierung aus dem Eingangs-Audiosignal zu entfernen. Dabei kann das Eingangssignal mit 32, 44.1 oder mit 48 kHz Samplingfrequenz und einer Samplingtiefe von bis zu 24 Bit vorliegen. Dolby AC-3 findet große Verbreitung beim Kino mit seiner sehr hohen Audioqualit¨at bei einer Bitrate von 640 kbps sowie auf DVDs mit einer Bitrate von 384 kbp. Eine Weiterentwicklung des AC-3 Komprimierungsverfahrens stellt Dolby Digital Plus dar, das speziell f¨ur den Einsatz bei HDTV und HD DVDs bzw. Blu-ray Discs entwickelt und Datenraten bis zu 6 Mbps bei 14 Kan¨alen mit 24 Bit Samplingtiefe und einer Samplingrate von bis zu 96 kHz unterst¨utzt.
4.5 Audio – Datenformate und Komprimierung
247
• MPEG-4 TwinVQ Dieses Datenformat, urspr¨ unglich das Vector Quantization Format (VQF) der Firmen NTT und Yamaha, fand Einzug in den MPEG-4 Multimedia Standard. Aus technischer Sicht handelt es sich dabei, wie bei den u ¨brigen Verfahren auch, um eine Transformations-basierte Kodierung der Audiodaten. Bei der Vektorquantisierung wird ein vollst¨ andiger Satz (Vektor) von Spektralkoeffizienten oder Subband-Samples in einem einzigen Schritt der Quantisierung unterzogen. Dazu w¨ ahlt der Vektorquantisierer aus einer beschr¨ ankten Menge vordefinierter Vektoren einen Datensatz aus, der dem zu quantisierenden Datensatz am ¨ ahnlichsten ist. Quantisierung und Irrelevanzreduktion finden dadurch gleichzeitig in einem Schritt statt. Gespeichert wird jeweils nur der Index des ausgew¨ ahlten Vektors, was eine h¨ ohere Kompression gew¨ ahrleistet. Laut Angaben des Herstellers soll VQF bei einer Bitrate von 96 kbps bereits die Qualit¨ at von MP3 bei 128 kbps erreichen. Allerdings konnte in H¨ ortests nachgewiesen werden, dass bei VQF die Stereo-Abbildung der Originaldaten leidet und diese an Klarheit verlieren. Speziell transiente Signalanteile, wie z.B. Anschl¨ age werden deutlich verwaschen. Andererseits garantiert VQF stets eine hohe Bandbreite (Frequenzbereich) des reproduzierten Signals. • mp3PrO Bei mp3PrO handelt es sich streng genommen um kein eigenst¨ andiges Datenformat, sondern lediglich um eine Kombination von MP3 und einer als Spectral Band ” Replication“ (SBR) bezeichneten Technik der Firma Coding Technologies. Dabei wurde ein speziell f¨ ur niedrige Bitraten optimierter MP3-Codec entwickelt, der f¨ ur den Einsatz im WWW und auf portablen Wiedergabeger¨ aten gedacht ist. Regul¨ are MP3-kodierte Audiodateien verf¨ ugen bei einer Bitrate von 64 kbps lediglich u ¨ber ein begrenztes Frequenzspektrum (bis ca. 10.000 Hz) und erzeugen subjektiv einen dumpferen Klang als das Original. SBR erg¨ anzt MP3 w¨ ahrend der Kodierung mit zus¨ atzlichen Informationen, aus denen der Dekoder anschließend die fehlenden hohen Frequenzanteile rekonstruiert. Diese sind zwar nicht identisch mit dem Original, klingen aber ¨ ahnlich und f¨ uhren so zum gew¨ unschten Effekt. • Ogg Vorbis Da das MP3-Format patentrechtlich gesch¨ utzt ist, bewegten sich Open-Source MP3Encoder bislang in einer rechtlichen Grauzone. Aus dieser Not heraus entwickelte die Firma Xiphophorous Foundation im Rahmen des Ogg-Projekts als Tr¨ ager lizenz- und patentfreier Multimediaformate das Audiokomressionsformat Vorbis. Wie MP3 ba¨ siert Ogg Vorbis auf einer Transformationskodierung, die f¨ ur die Ubertragung bei variablen Bitraten optimiert wurde. Aufgrund der freien Verf¨ ugbarkeit der Technologie existieren Codecs f¨ ur Ogg Vorbis auf einer Vielzahl von Hardware-Plattformen und Betriebssystemen. In subjektiven H¨ ortests schnitt Ogg Vorbis bei niedrigen Bitraten deutlich besser ab als der Hauptkonkurrent MP3. Ogg Vorbis unterst¨ utzt bis zu 255 Kan¨ ale mit variabler Bitrate. Abb. 4.42 Sonstige Audio-Komprimierungs-Verfahren (Teil 1)
4.5.6 Streamingtechniken Als Streaming bezeichnet man Daten¨ubertragungsverfahren, bei denen die Wie¨ dergabe der u¨ bertragenen Daten bereits w¨ahrend ihrer Ubertragung m¨oglich ist. So ist z.B. bei MP3-Dateien bereits ein Abspielen w¨ahrend des Downloads m¨oglich, w¨ahrend Vor- und Zur¨uckspulen, Anpassung der Qualit¨at an die zur Verf¨ugung stehende Bandbreite allerdings nur mit der Client/Server-Technik von RealAudio m¨oglich ist. Die hier zum Einsatz kommende Technik wird als Bandwidth Negotia-
248
4 Multimediale Daten und ihre Kodierung
• Windows Media (WMA/ASF) Microsofts Eigenentwicklung WMA/ASF setzt ebenso wie MP3 eine Hybrid¨ Filterbank ein und ist f¨ ur die Ubertragung bei niedrigen Bitraten ausgelegt. ASF (Advanced Streaming Format) dient dabei als Daten-Container f¨ ur StreamingAnwendungen, mit der Microsoft mit RealAudio und Quicktime konkurrieren m¨ ochte. In der Version WMA9 verf¨ ugt Microsofts Codec u oglichkeit der Kodierung ¨ber die M¨ von Raumklang (7 regul¨ are und ein Niedrigfrequenz-Kanal). Zwar wird bereits bei sehr niedrigen Bitraten (<64 kbps) CD-Qualit¨ at in der Wiedergabe versprochen, in subjektiven H¨ ortests schnitt WMA aber stets nur mittelm¨ aßig ab. • MPEGplus (MP+ / MPC / Musepack) MPEGplus (heute Musepack) arbeitet als reiner Subband-Encoder, d.h. basiert auf MPEG-1 Layer 1 und 2. Allerdings kommen im Gegensatz dazu ein verbessertes psychoakustisches Modell, sowie eine effizientere, verlustfreie Kodierung des quantisierten und skalierten Bitstroms zum Einsatz. Der MPEGplus-Encoder kann f¨ ur jede Quantisierungsstufe auf jeweils zwei sogenannte Huffman-Code-W¨ orterb¨ ucher zur¨ uckgreifen und das jeweils g¨ unstigere ausw¨ ahlen. Diese Code-W¨ orterb¨ ucher ber¨ ucksichtigen unterschiedliche Verteilungsfunktionen, um verschiedenen Signaltypen und -statistiken besser gerecht zu werden. MPEGplus verwendet wie Ogg Vorbis variable Bitraten, um eine konstante Qualit¨ at bei jeweils geringstm¨ oglicher Dateigr¨ oße zu gew¨ ahrleisten. MPEGplus unterst¨ utzt Samplingtiefen von 1 Bit bis 32 Bit und Samplingraten zwischen 32 kHz und 48 kHz. Abb. 4.43 Sonstige Audio-Komprimierungs-Verfahren (Teil 2)
tion bezeichnet: Client und Server tauschen permanent Daten u¨ ber die momentane ¨ Daten¨ubertragungsrate aus, um bei anhaltend niedrigen Ubertragungsraten auf eine Datei ausweichen zu k¨onnen, f¨ur die die momentane Verbindungsqualit¨at ausreicht.
4.6 Video und Animation - Datenformate und Komprimierung Nach den bereits behandelten Kodierungsvarianten f¨ur Bild- und Audioinformationen, stellt die Kodierung von Bewegtbildsequenzen mit synchronem Ton aus technischer Sicht wohl die gr¨oßte Herausforderung dar. Es ist offensichtlich, dass die zu ¨ einer Ubertragung von Videosequenzen ben¨otigte Bandbreite h¨oher ausfallen muss, als bei Audiosignalen oder statischen Bildern. So war noch vor wenigen Jahren an ¨ eine Ubertragung von Videosequenzen u¨ ber das Internet u¨ berhaupt nicht zu denken, doch mit dem Aufkommen und der zunehmenden Verbreitung von ISDN, DSL und weiteren Breitbandtechnologien kann heute die dazu notwendige Bandbreite zur Verf¨ugung gestellt werden, und ein rasantes Anwachsen von Videoangeboten im WWW ist zu beobachten. ¨ Ebenso wie bei einem Audiosignal muss eine Ubertragung von Videosequenzen weitgehend synchron (d.h. ohne Zeitverz¨ogerung) und mit einer garantierten Bandbreite erfolgen, da sonst auftretende St¨orungen und Datenverluste die erzielte Bildqualit¨at merklich und nachhaltig beeintr¨achtigen. Allerdings ist bei der Kodierung ¨ und Ubertragung von Audiosignalen gr¨oßere Sorgfalt an den Tag zu legen, da das ¨ menschliche Geh¨or auf St¨orungen und Ubertragungsfehler weitaus empfindlicher
4.6 Video und Animation - Datenformate und Komprimierung
249
reagiert, als das Auge. Prinzipiell unterscheidet sich die Komprimierung von Bildsequenzen nicht wesentlich von der Einzelbildkomprimierung, da Sequenzen aus einer Abfolge von Einzelbildern bestehen. Grunds¨atzlich handelt es sich also um die gleiche Problemstellung, nur treten jetzt neben o¨ rtlichen Redundanzen innerhalb eines Bildes auch noch zeitliche Redundanzen zwischen den Bildern einer Sequenz auf, f¨ur deren Komprimierung neue Verfahren notwendig werden. Im Folgenden soll zuerst auf die Digitalisierung von Videosignalen eingegangen werden und anschließend auf deren Komprimierung mit den dazu verwendeten Verfahren und Dateiformaten.
4.6.1 Digitale Videokodierung Im herk¨ommlichen Fernsehen wird ein Videosignal mit Hilfe einer Kathodenstrahlr¨ohre - heute auch LCD- oder Plasma-Displays - dargestellt. Dazu macht man sich die Netzhauttr¨agheit des menschlichen Auges und des damit verbundenen Wahrnehmungsapparates zu Nutze. Ein u¨ ber die Netzhaut (Retina) des Auges wahrgenommenes Bild bleibt f¨ur die Dauer von ca. 1/16 Sekunde auf dieser bestehen, ehe es verlischt. Film und Video nutzen diesen Effekt aus, indem eine Reihe von Einzelbildern schnell genug hintereinander gezeigt wird, so dass der Eindruck einer kontinuierlichen Bewegung der Bildsequenz entsteht (siehe Abb. 4.44). In einer Videosequenz wird jedes Einzelbild zeilenweise aufgebaut, wobei bereits auch hier der Effekt der Netzhauttr¨agheit in Verbindung mit den Echo- bzw. NachleuchteEigenschaften der Kathodenstrahlr¨ohre genutzt wird, auf der das Bild dargestellt wird. Trotz dieser kontinuierlichen Bewegtbildwahrnehmung k¨onnen klassische Ausgabeger¨ate (Bildschirme, Projektoren, etc.) nur eine eingeschr¨ankte Nat¨urlichkeit des Bewegungseindrucks (Immersion) vermitteln. Die fehlende Beschleunigungswahrnehmung, die entsteht, wenn sich der Beobachter selbst bewegt und die Umgebung an ihm vorbeizieht, f¨uhrt bei manchen Menschen aufgrund der inkonsistenten ¨ Signal-Information sogar zu Ubelkeit (Simulatorkrankheit). Zus¨atzlich fehlen Akkommodation und Vergenz (siehe Abb. 4.44), d.h. Bewegungen auf den Betrachter hin bzw. vom Betrachter weg f¨uhren nicht wie in der Realit¨at zu einer Anpassung der Brennweite der Augenlinsen bzw. zu einer Anpassung der Ausrichtung der Augen zueinander. Das dargestellte Objekt bleibt auf dem Ausgabeger¨at stets in konstanter Entfernung. Stereoskopische Ausgabeger¨ate, die eine dreidimensionale Darstellung erm¨oglichen, belasten den Zuschauer oft mit st¨orenden Ger¨atschaften, wie z.B. Shutter-Brillen, ohne die die gew¨unschten Betrachtungseffekte nicht erzielt werden k¨onnen. Die physiologische Obergrenze unserer visuellen Wahrnehmung liegt bei maximal 50 bis 60 Einzelbildern pro Sekunde. Alles dar¨uber vermag unsere Wahrnehmung nicht mehr aufzul¨osen (physiologische Flimmerfusion). Im Gegensatz dazu wirken Bildfolgen von unter 25 – 30 Hz oft als ruckelig. Es wird ein Flimmern wahrgenommen, das auf die Dauer zur Erm¨udung f¨uhrt (psychologische Flimmerfusion).
250
4 Multimediale Daten und ihre Kodierung
Bewegungswahrnehmung Die Wahrnehmung von Bewegung ist eine komplexe Funktion der menschlichen Sensorik, die sich aus den folgenden drei Komponenten zusammensetzt: 1. Retinale Faktoren: Ein Gegenstand wird dann als bewegt wahrgenommen, wenn durch denselben Reiz nacheinander unterschiedliche (benachbarte) Stellen auf der Netzhaut (Retina) angeregt werden. Weitere physiologische Faktoren der Bewegungswahrnehmung sind die foveale Objektverfolgung, Vergenz und Akkommodation. Unter der fovealen Objektverfolgung versteht man das Bestreben der Augen, das Objekt der Aufmerksamkeit stets im Bereich der Fovea Centralis, also des Bereichs auf der Netzhaut mit den meisten Sinneszellen und der gr¨ oßten Sehsch¨ arfe, zu halten und unbewusst nachzuf¨ uhren. Vergenz und Akkommodation sind f¨ ur das r¨ aumliche Sehen von Bedeutung. Die Vergenz beschreibt die Zueinanderausrichtung der beiden Augen zur Anpassung an Objekte in unterschiedlichen Entfernungen. Aus dem Winkel der Blickrichtungen beider Augen kann so die Objektentfernung bestimmt werden. Akkommodation ist die Anpassung des Kr¨ ummungsradius der Linse im Auge durch die umgebende Ziliarmuskulatur zur Fokussierung eines wahrgenommenen Objekts. 2. K¨ orperempfindungen: Bewegt sich der Mensch selbst, nicht aber seine Umgebung, werden ebenfalls benachbarte Sinneszellen auf der Netzhaut durch statische Objekte gereizt, an denen wir uns vorbeibewegen. Dennoch nehmen wir diese Gegenst¨ ande nicht als bewegt wahr, sondern uns selbst. Die statische Umgebung wird als ruhend wahrgenommen, weil die u orpersensorik des Menschen (Haptik, Gleichge¨brige K¨ wichtsinn, Beschleunigungswahrnehmung) vom Gehirn mit der visuellen Wahrnehmung in Bezug gesetzt werden. Unterbewusst wird so aus unterschiedlichen Sinneseindr¨ ucken der Schluss gezogen, dass sich nicht unsere Umgebung, sondern wir selbst uns in Bewegung befinden. 3. Erfahrungen: Auf einem h¨ oheren Abstraktionsniveau werden unsere gewonnenen Erfahrungen in die Beurteilung der Bewegungswahrnehmung mit einbezogen. Unsere Erfahrung lehrt uns, dass sich ruhende Objekte (z.B. H¨ auser oder B¨ aume) mit großer Wahrscheinlichkeit nicht bewegen, sondern dass wir es sind, die sich in diesem Fall bewegen. Eine T¨ auschung der Bewegungswahrnehmung kann man z.B. feststellen, wenn man im Bahnhof in einem stehenden Zug am Fenster sitzt und auf dem gegen¨ uberliegenden Gleis ein Zug abf¨ ahrt. Erst die Referenz zu einem ruhenden Bezugssystem (z.B. der Bahnsteig) setzt die Vorg¨ ange f¨ ur unsere Bewegungswahrnehmung wieder ins rechte Bewusstsein. W¨ ahrend die Koppelung von Beschleunigungswahrnehmung und visueller Wahrnehmung zu den bekanntesten psychologischen Faktoren der Bewegungswahrnehmung z¨ ahlt, sind andere Faktoren, wie z.B. die Elimination von gleichm¨ aßigen Bewegungen durch das ¨ Gehirn in der Offentlichkeit weitgehend unbekannt. Wird ein Gegenstand von einem in gleichm¨ aßiger Bewegung befindlichen K¨ orper fallen gelassen, entsteht beim Betrachter der Eindruck, als w¨ urde der Gegenstand in einer geraden Bahn zu Boden fallen, obwohl er tats¨ achlich eine Parabelbahn beschreibt. Schuld daran ist die foveale Objektverfolgung, die uns den Eindruck einer gleichf¨ ormigen Bewegung vermittelt. Dieser Umstand erschwerte lange Zeit die Weiterentwicklung der physikalischen Berechnung von Geschossbahnen. Laut einer Beschreibung des mittelalterlichen Philosophen Avicenna (980–1037) bewegt sich ein Geschoss nach Verlassen des Gesch¨ utzes solange geradlinig in Abschussrichtung, bis sein anf¨ anglicher Impetus“ vollst¨ andig verbraucht ” ist. Danach soll das Geschoss augenblicklich zum Stillstand kommen und senkrecht zu Boden fallen. Tats¨ achlich beschreibt das Geschoss aber eine Parabel, wie erst der italienische Mathematiker Niccolo Tartaglia (1499–1557) im 16. Jahrhundert herausfand. Weiterf¨ uhrende Literatur: Goldstein, E. B.: Wahrnehmungspsychologie: Der Grundkurs, 7. Aufl., Spektrum Akademischer Verlag, Heidelberg (2007)
Abb. 4.44 Bewegungswahrnehmung
4.6 Video und Animation - Datenformate und Komprimierung
251
Der in Westeuropa noch u¨ bliche, 1963 von Walter Bruch (1908–1990) entwickelte, analoge Fernsehstandard (PAL, Phase Alternating Line) sendet mit einer Bildwiederholfrequenz von 25 Hz, d.h. es werden jeweils zwei gegenseitig verschr¨ankte Halbbilder mit einer Gesamtbildaufl¨osung von 720 × 576 bei einer Wiederholfrequenz von 50 Hz gesendet. Das erste Halbbild umfasst dabei die Zeilen mit ungerader Nummerierung, w¨ahrend das zweite Halbbild, das von der Kamera 20 ms sp¨ater aufgenommen wird, nur den geradezahligen Zeilenanteil umfasst (siehe Abb. 4.45). Dieses Verfahren wird als Zeilensprungverfahren (Interlacing) bezeichnet. Das amerikanische NTSC System sendet in gleicher Weise, nur dass dort eine Bildwiederholfrequenz von 30 Hz verwendet wird (siehe Abb. 4.46).
x y
1 2 3 4 5 6
Abb. 4.45 Serialisierung eines Videobildes im Zeilensprungverfahrens
Das Einzelbild in einer Videosequenz wird also zeilenweise aufgebaut, wobei jede einzelne Zeile Bildpunkt f¨ur Bildpunkt gescannt und u¨ bertragen wird. Vor der ¨ Ubertragung wird dieses Videosignal in seine Farbbestandteile zerlegt, wobei die nach dem RGB-Farbmodell in der Kamera aufgenommenen Farbsignale zur weiteren Verarbeitung gem¨aß der CCIR/ITU-R BT.601-Empfehlung in das YCr Cb Farbmodell umgesetzt werden. Dabei beschreibt Y die Luminanzkomponente – also den Graustufenanteil – und Cr Cb die Chrominanzkomponenten – also die Farbanteile - (vgl. Exkurs 7, Farbe und Farbsysteme). Da das menschliche Auge Unterschiede in der Helligkeit besser aufl¨osen kann, als Unterschiede in den Farbnuancen, werden Luminanz- und Chrominanz-Signal nicht ¨ mit derselben hohen Aufl¨osung kodiert. Ublicherweise wird das Luminanz-Signal im Vergleich mit dem Chrominanz-Signal mit der doppelten Aufl¨osung kodiert, wobei oft zus¨atzlich noch zwischen der horizontalen und vertikalen Aufl¨osung unterschieden wird. Diese Technik wird auch als Chroma-Subsampling oder Unterabtastung bezeichnet. Ein standardisiertes Darstellungsformat f¨ur das Subsampling benutzt dabei ganzzahlige Werte, um das Samplingverh¨altnis auszudr¨ucken: Y : Cr : Cb ,
252
4 Multimediale Daten und ihre Kodierung
Analoge Farbfernsehstandards PAL (Phase Alternation Line) Der PAL Standard wurde 1962 von Walter Bruch bei der Firma Telefunken entwickelt und 1963 patentiert. Zum Einsatz gelangte der PALStandard in Westeuropa außer Frankreich, sowie in Australien, Neuseeland, China und ehemaligen europ¨ aischen Kolonialstaaten. Kennzeichnend f¨ ur den PAL-Standard ist die Bildwiederholfrequenz von 25 Hz, die der H¨ alfte der in Europa u ¨blichen Wechselstromfrequenz des ¨ offentlichen Stromnetzes entspricht. Die Einzelbilder werden als Halbbilder im Interlaced-Verfahren mit 50 Hz gesendet. Das Fernsehbild besteht aus 625 Zeilen, von denen 576 Zeilen Bildinformation tragen. Damit ergibt sich eine sichtbare Bildgr¨ oße von 768 × 576 Bildpunkten bei einem Seitenverh¨ altnis von 4:3. ¨ Zur Ubertragung der Bildinformation verwendet PAL eine Quadraturamplitudenmodulation (QAM, Kombination aus Phasen- und Amplitudenmodulation). SECAM (Sequential Couleur avec Memoire) Der SECAM Standard wurde von Henri de France (1911–1986) 1956 entwickelt und gelangte vor allem in Frankreich, den ehemaligen franz¨ osischen Kolonien und in Osteuropa zum Einsatz. Analog zu PAL basiert SECAM auf einer Bildwiederholfrequenz von 25 Hz und einer Halbbild¨ ubertragung im Interlaced-Verfahren mit 50 Hz. Die Bildgr¨ oße entspricht mit 768 × 576 Bildpunkten ebenfalls dem PAL Standard. SECAM verwendet ein leicht unterschiedliches Farbmodell (YDB DR ), wobei die beiden Farbkomponenten jeweils zeilenweise abwechselnd mittels Frequenzmodulation u ¨bertragen werden. NTSC (National Television Systems Committee) Der NTSC Farbfernsehstandard wurde 1953 als erster Farbfernsehstandard in den USA entwickelt. Er gelangt insbesondere in Nordamerika, Japan, Taiwan, sowie in Teilen der Karibik und S¨ udamerikas zum Einsatz. Die Bildwiederholfrequenz des NTSC-Standards liegt bei 29,97 Hz und entspricht damit etwa der halben Frequenz des US-amerikanischen Wechselstromnetzes. Im Interlaced-Verfahren werden bei NTSC Halbbilder mit 59,94 Hz und 525 Zeilen pro Bild u ¨bertragen, von denen lediglich 480 Zeilen Bildinformation enthalten. Die sichtbare Bildgr¨ oße bei NTSC entspricht mit 720 × 480 Bildpunkten der ¨ VGA-Aufl¨ osung und besitzt ein Seitenverh¨ altnis von 4:3. Zur Ubertragung der Bildinformation verwendet NTSC eine Variante der Amplitudenmodulation, w¨ ahrend f¨ ur die Audioinformation Frequenzmodulation eingesetzt wird. Weiterf¨ uhrende Literatur: Fickers, A.: Politique de la grandeur“ vs. Made in Germany“. Politische Kulturge” ” schichte der Technik am Beispiel der PAL-SECAM-Kontroverse. Oldenbourg Verlag, M¨ unchen (2007)
Abb. 4.46 Analoge Farbfernsehstandards
wobei Y die Samplingrate des Luminanz-Signals und Cr , Cb die Samplingraten der Chrominanzsignale repr¨asentieren. Als Standard-Studioqualit¨at wird das Verh¨altnis 4 : 2 : 2 betrachtet, wenn also die Samplingrate f¨ur die Farbanteile jeweils die H¨alfte der Aufl¨osung des Graustufenanteils betr¨agt und sich so die urspr¨ungliche Gr¨oße auf 2/3 reduzieren l¨asst. Eine Besonderheit bei dieser Art der Chroma-SubsamlingBeschreibung liegt darin, dass bei Angaben von Werten Cr , Cb > 0 stets ein horizontales Subsampling bezeichnet wird. Wird die letzte Komponente als Cb = 0 angegeben, besagt dies nicht, dass der Farbanteil Cb nicht repr¨asentiert w¨are, sondern, dass
4.6 Video und Animation - Datenformate und Komprimierung
253
sowohl horizontales als auch vertikales Subsampling mit den jeweils angegebenen Faktoren f¨ur beide Farbkan¨ale Cr , Cb stattfindet (siehe Abb. 4.47).
4:4:4 – kein Subsampling
4:2:2 – horizontales Subsampling um Faktor 2
4:1:1 – horizontales Subsampling um Faktor 4
4:2:0 – horizontales und vertikales Subsampling um Faktor 2
Luminanzpixel, Y Chrominanzpixel, Cr, Cb
Abb. 4.47 Wichtigste Varianten des Chroma-Subsamplings
Wie schon bemerkt betr¨agt die aktive Aufl¨osung eines PAL-Fernsehbildes gem¨aß der CCIR/ITU-R BT.601-Empfehlung 720 Pixel × 576 Zeilen bei einer Bildwiederholrate von 25 Hz (siehe Abb. 4.48) . Werden die einzelnen Bildpunkte mit einer Farbtiefe von 8-Bit im YCr Cb -Farbmodus dargestellt, so ergibt sich beim 4:2:2Subsampling eine unkomprimierte Bitrate von 720 × 576 × 25 × 8 + 360 × 576 × 25 × (8 + 8) = 166 Mbps. HDTV dagegen als aktueller hochaufl¨osender Fernsehstandard arbeitet mit einer erh¨ohten Bildaufl¨osung von bis zu 1920 × 1080 Bildpunkten und einer Bildwiederholfrequenz von bis zu 60 Hz, wodurch sich eine unkomprimierte Bitrate beim 4:2:2-Subsampling von 1920 × 1080 × 60 × 8 + 960 × 1080 × 60 × (8 + 8) = 1, 99 Gbps
254
4 Multimediale Daten und ihre Kodierung
ergibt. Digitales Kino soll sogar Aufl¨osungen bis 7680 × 4320 Bildpunkte bei 60 Hz Bildwiederholrate bieten (UHDV). Dies entspricht der 16-fachen Bildaufl¨osung des HDTV-Formats und u¨ bertrifft mit knapp 33 Millionen Bildpunkten sogar die Aufl¨osung des traditionell verwendeten, analogen 35mm Filmmaterials. Allein auf ¨ Grund der zur Ubertragung dieser Videodaten notwendigen Datenraten sind Komprimierungsalgorithmen f¨ur Videosignale unverzichtbar, insbesondere wenn diese im Internet bzw. durch digitale Rundfunkverfahren u¨ bertragen werden sollen.
Standards f¨ ur digitales Video CCIR/ITU-R BT.601 525/60 625/50 Eigenschaft HD 1080p60 NTSC PAL CIF QCIF Luminanz 1920×1080 720×485 720×576 352×288 176×144 Chrominanz 920×1080 360×485 360×576 176×144 88×72 Subsampling 4:2:2 4:2:2 4:2:2 4:2:0 4:2:0 Bilder/sec 60 60 50 30 30 Interlace nein ja ja nein nein
HDTV (High Definition TeleVision) definiert eine ganze Reihe von digitalen TVFormaten, wie z.B. 720p50 mit 1280 × 720 Bildpunkten und 50 Hz Bildwiederholfrequenz oder auch 1152i50 mit 2048 × 1152 Bildpunkten im Interlaced-Verfahren mit 50 Hz Bildwiederholfrequenz pro Halbbild (entspricht dem ¨ alteren HDMAC Standard). Typisch ist heute in Europa 1080i50, d.h. 1920 × 1080 Bildpunkte im Interlaced-Verfahren mit 50 Hz Bildwiederholfrequenz pro Halbbild. Zwar werden auch hochaufl¨ osende Modi im non-interlaced Verfahren mit Bildwiederholfrequen¨ zen bis zu 60 Hz definiert, doch birgt deren Wiedergabe und Ubertragung heute noch Probleme. CCIR/ITU-R BT.601 (Consultative Comitee for International Radio / International Television Union) verwendet ein interlaced Verfahren zur Darstellung, d.h. gesendet werden zwei Halbbilder, die jeweils vertikal nur die H¨ alfte der Bildzeilen umfassen, die gegeneinander versetzt ausgegeben werden. CIF (Common Intermediate Format) arbeitet mit progressiver Zeilendarstellung, d.h. alle Zeilen eines gesendeten Bildes werden sukzessive ausgegeben. CIF verwendet die NTSC Bildwiederholfrequenz und die H¨ alfte der PAL Zeilenaufl¨ osung. Die erzielte Bildqualit¨ at entspricht in etwa der Wiedergabe eines Videorekorders. QCIF (Quarter CIF) verwendet nur ein Viertel der in CIF gesendeten Bildpunkte, indem die horizontale und die vertikale Bildaufl¨ osung noch einmal halbiert wird. Die Bilddarstellung erfolgt ebenfalls progressiv.
Abb. 4.48 CCIR/ITU-Standards
4.6 Video und Animation - Datenformate und Komprimierung
255
CIF, 352 x 288
CCIR 601, 720 x 576 HDTV 1280 x 720
HDTV 1920 x 1080
Abb. 4.49 Bildformate im Vergleich
4.6.2 Komprimierung von Videosignalen Videosequenzen enthalten sehr viel redundante Information. Zum einen betrifft dies die r¨aumliche Redundanz in den Einzelbildern selbst, wie wir sie bereits bei der Komprimierung von Bildern besprochen hatten, als auch eine bei Video zus¨atzlich auftretende zeitliche Redundanz, begr¨undet durch die Tatsache, dass sich Folgebilder in einer Videosequenz, zumindest falls keine harten Bildschnitte auftreten, nur wenig voneinander unterscheiden. In diesem Sinne k¨onnen Videodaten als dreidimensionales Array von Bildpunkten betrachtet werden. Die ersten beiden Dimensionen dienen der r¨aumlichen Orientierung, w¨ahrend die dritte Dimension die zeitliche Perspektive u¨ bernimmt. Ein Einzelbild entspricht dann allen Bildpunkten zu ¨ einem ganz bestimmten Zeitpunkt. Ahnlichkeiten, die innerhalb eines Einzelbildes gefunden werden, k¨onnen als r¨aumliche Redundanz aufgefasst werden. Die Reduktion der Redundanzen und Irrelevanzen innerhalb eines Einzelbildes werden als ¨ Intraframe-Encoding (Spatial Coding) bezeichnet. Ahnlichkeiten zwischen mehreren Einzelbildern k¨onnen als zeitliche Redundanz aufgefasst werden. Die Reduktion der Redundanzen und Irrelevanzen zwischen mehreren Einzelbildern bezeichnet man als Interframe-Encoding (Temporal Coding). Zus¨atzlich unterliegt das menschliche Wahrnehmungssystem, angefangen von der optischen Reizung der Sinneszellen im Auge bis hin zur Verarbeitung im Gehirn, vielf¨altigen Einschr¨ankungen. Bildanteile, die vom Menschen nicht wahrgenommen werden k¨onnen, m¨ussen folglich auch nicht kodiert werden, was eine weitere starke Reduktion der zu kodierenden Datenmenge m¨oglich macht. ¨ Die Videokomprimierung nutzt diese Faktoren aus, um die zur Ubertragung von Videosequenzen notwendige, riesige Datenmenge auf ein handhabbares Maß zu ver¨ ringern. Abb. 4.50 gibt eine Ubersicht u¨ ber verschiedene Videokomprimierungstechniken, auf die hier kurz eingegangen werden soll. Wir gehen dabei von einer Eingabe f¨ur die Komprimierungsalgorithmen aus, die aus einem bereits PCM-aufbereiteten (digitalen) unkomprimierten Bitstrom besteht, in dem die einzelnen Farbkomponenten getrennt vorliegen.
256
4 Multimediale Daten und ihre Kodierung
einfach
interpolativ
prediktiv
Transformation
statistisch
Truncation Farbpalette Laufweitenkodierung
Subsampling
DPCM Bewegungskompensation
DCT
HuffmanKodierung
fix
VideoEingang
Farbkanaltrennung
adaptiv
Videokompressionsalgorithmen
Kodierung
komprimierter Bitstrom
Abb. 4.50 Video Komprimierungstechniken
• Einfache Techniken Die naheliegendste und einfachste Form der Videokomprimierung ist die Reduktion der Bildinformation. So kann etwa die Farbtiefe eines vorgegebenen Samples verringert und dadurch das Datenaufkommen reduziert werden (Truncation). Es gehen dabei zwar Details verloren, aber das Verfahren beinhaltet keine komplexen Berechnungsschritte und kann daher sehr effizient im Rahmen einer Echtzeitverarbeitung angewendet werden. Selten wird die volle 24-bit Farbtiefe wirklich ausgenutzt. Deshalb kann mit Farbpaletten geringerer Farbtiefe gearbeitet werden, auf die der Ausschnitt der jeweils ben¨otigten Echtfarben abgebildet und in der die jeweilige Kodierung als Index mitangegeben wird. Allerdings erfordert dieses Verfahren bereits komplexere Berechnungen. Befinden sich in einem zu u¨ bertragenden Video-Datenstrom Sequenzen, die identische Farbfl¨achen beinhalten, so lassen sich diese sehr einfach mit Hilfe einer Laufl¨angenkodierung (Run-Length Encoding) komprimieren. Ebenso l¨asst sich die Bildwiederholfrequenz k¨unstlich herabsetzen. Bei statischen Videoszenen f¨allt eine Reduktion kaum ins Gewicht, kommen allerdings bewegte Objekte in das Blickfeld, bewirkt eine Reduktion schnell eine Qualit¨atsminderung, da relevante Datenanteile durch die Verringerung der Bildwiederholfrequenz verloren gehen (Relevanzreduktion). Durch eine Verminderung der Bildaufl¨osung oder durch Beschneidung des Bildausschnittes kann ebenfalls eine signifikante Datenreduktion erreicht werden. Auch bei dieser Variante der Relevanzreduktion f¨allt aber ein Qualit¨atsverlust sehr schnell ins Auge. Da sich in einer Videosequenz direkt aufeinanderfolgende
4.6 Video und Animation - Datenformate und Komprimierung
257
Einzelbilder oft nur in wenigen Details unterscheiden, ist es naheliegend, ausgehend von signifikanten Schl¨usselbildern (Key Frames) nur die Differenzen aufeinanderfolgender Bilder abzuspeichern und zu kodieren (Frame Differencing). Das Differenzbild zweier aufeinanderfolgender Bilder wird dementsprechend viele niedrige Werte enthalten, die sich anschließend u¨ ber eine geeignete Entropiekodierung effizient komprimieren lassen. • Interpolative Verfahren Diese Verfahren benutzen nur eine Teilmenge der vorgegebene Bildpunkte und berechnen interpolativ die restlichen Bildpunkte, die zum vollst¨andigen Bild noch fehlen. Auch das nachfolgend vorgestellte Chroma-Subsampling-Verfahren geh¨ort in diese Kategorie. Interpolationsverfahren k¨onnen bereits auf die analogen Ausgangsdaten angewendet werden. Da sich bei Videosequenzen viele Bildbereiche oft lange Zeit kaum ver¨andern, werden diese Verfahren mit großem Erfolg eingesetzt. Da sich weiter in vielen F¨allen nur wenige Bildobjekte bewegen, kann diese Technik auch benutzt werden, um komplette Zwischensequenzen zu interpolieren. Um trotzdem das korrekte Bild zu erhalten, erfolgt die Komprimierung dadurch, dass z.B. anstelle eines kompletten Zwischenbildes lediglich dessen Abweichung zum jeweils interpolierten Zwischenbild gespeichert wird. Verfahren zur interpolativen Berechnung von Zwischenbildern kommen insbesondere in der Computer-Animation (Keyframe Animation) zum Einsatz. Ein weiteres Anwendungsgebiet ist die Erh¨ohung der Bildwiederholfrequenz durch Einspeisung interpolativer Zwischenbilder, um etwa eine mit niedrigerer Bildwiederholrate (24 Bilder pro Sekunde) aufgenommene Videosequenz auf einem HDTV-Ausgabeger¨at mit hoher Bildwiedergabefrequenz (bis zu 60 Bilder pro Sekunde) auszugeben und so die Bildqualit¨at zu erh¨ohen. • Pr¨adiktive Verfahren Innerhalb einzelner Bilder einer Videosequenz gibt es immer eine Vielzahl von (r¨aumlichen) Redundanzen. Die Differential Pulse Code Modulation (DPCM) ist eine einfache M¨oglichkeit, diese Redundanz auf Bildpunktebene auszunutzen. Dabei wird jeweils nur die Differenz aufeinanderfolgender Bildpunkte kodiert. Da die Differenz benachbarter Bildpunkte oft nur sehr klein ist, ergibt sich so die M¨oglichkeit einer starken Reduktion. An den Stellen des Bildes jedoch mit hohem Kontrast, bringt dieses Verfahren keine großen Einsparungen. Hier kann die Adaptive DPCM Technik eingesetzt werden, die an eben diesen kritischen Stellen die Aufl¨osung erh¨oht und so bessere Resultate erzielt. Pr¨adiktionsverfahren k¨onnen auch auf aufeinanderfolgende Einzelbilder angewendet werden (zeitliche Redundanz). In einem Analyseschritt kann festgestellt werden, welche Bestandteile eines Bildes bereits in dessen Vorg¨angerbild vorhanden waren. Diese k¨onnen aus dem Vorg¨angerbild referenziert und m¨ussen nicht erneut berechnet werden, auch wenn sie ihre Position innerhalb des Bildes ver¨andert haben (Bewegungskompensation). • Transformations-Verfahren Mit Hilfe von Transformationen werden Daten abh¨angig vom jeweiligen Anwendungszweck in eine g¨unstige Ausgangslage f¨ur die Kodierung bzw. Komprimie-
258
4 Multimediale Daten und ihre Kodierung
rung gebracht. F¨ur die Komprimierung ausschlaggebend ist die Dekorrelation der Bildinformation, d.h. die Aufteilung in m¨oglichst nicht symmetrisch verteilte Bildinformationsanteile, die dann in einer anschließenden Entropiekodierung ausgenutzt werden kann. Zudem m¨ussen Transformationen reversibel sein, damit sich aus ihnen die Ursprungsdaten wieder rekonstruieren lassen. F¨ur die Video- und Bildkomprimierung ist die diskrete Cosinus Transformation (DCT) von besonderer Bedeutung. Die DCT transformiert einen Block von Bildpunkten - f¨ur gew¨ohnlich ein Block von 8 × 8 Pixeln - in eine Koeffizientenmatrix, die diesen Bildabschnitt in zweidimensionalen r¨aumlichen Frequenzkomponenten darstellt. Der erste Wert der Matrix (DC) steht f¨ur den Durchschnittswert aller Koeffizienten, w¨ahrend die restlichen Werte (AC) progressiv die h¨oheren horizontalen und vertikalen Frequenzanteile des transformierten Blocks wiedergeben. In der Praxis sind viele der hohen Frequenzanteile nahe dem Wert Null und k¨onnen deshalb f¨ur die Kodierung ignoriert werden, wodurch sich M¨oglichkeiten zur Komprimierung bieten. Zum Dekodieren wird eine R¨ucktransformation durchgef¨uhrt. Da sich aber die Berechnung der DCT und ihrer inversen Transformation aufgrund der angesprochenen Rundungen nur ann¨ahern l¨asst, kommt es hier zu einem Informationsverlust, der mit geeigneten Methoden m¨oglichst klein gehalten werden muss. Transformationsverfahren k¨onnen auch adaptiv angewendet werden (adaptive Transformation). Der Anteil der zu kodierenden Bildinformation in einem bestimmten Teilbereich eines Bildes entspricht der Feinheit der darin dargestellten Details. Bildanteile mit wenigen Details k¨onnen st¨arker komprimiert werden als detailreiche Bildanteile, wodurch gleichfalls Platz gewonnen wird, um mehr Details speichern bzw. u¨ bertragen zu k¨onnen. • Statistische Kodierung (Entropiekodierung) Hier wird ein Vorteil aus der statistischen Verteilung der Werte der Bildpunkte gezogen. Stets treten einige Werte h¨aufiger auf als andere und k¨onnen deshalb bei Verwendung von Codes mit variabler Bitl¨ange mit Codeworten von k¨urzerer L¨ange kodiert werden, als seltener auftretende Werte. Ein wichtiger Vertreter dieser Verfahren ist die Huffman Kodierung.
4.6.3 Bewegungskompensation und Bewegungsvorhersage Bei der sogenannten Technik der Bewegungskompensation bzw. der Bewegungsvorhersage (Motion Compensation, Motion Prediction) handelt es sich eigentlich um eine Technik aus der Familie der bereits o.g. pr¨adiktiven Verfahren. Dabei wird wie bei den anderen Komprimierungstechniken auch die in Videobildsequenzen vorhandene inh¨arente (zeitliche) Redundanz ausgenutzt. So kommt es z.B. in Videosequenzen h¨aufig vor, dass sich nur der Bildvordergrund bewegt, w¨ahrend der Hintergrund der Szene weitgehend unver¨andert bleibt. Bewegung kann man ganz allgemein als eine Ver¨anderung der Position von bestimmten Bildpunkten durch Helligkeits¨ande-
4.6 Video und Animation - Datenformate und Komprimierung
259
rungen dieser Bildpunkte erkennen. Zur Komprimierung werden folglich Verfahren ben¨otigt, die in der Lage sind, solche Helligkeitsver¨anderungen innerhalb einer Bildfolge sowie deren Ursache zu erkennen. Die Verfahren zur Bewegungsvorhersage lassen sich generell in drei Gruppen einteilen: • Kontextfreie Pr¨adiktion Hier wird eine Vorhersage ohne jegliche semantische Information u¨ ber den Bildinhalt getroffen. Die Vorhersage von Graustufenwerten einzelner Bildpunkte ist nur von Nachbarschaftsbeziehungen zu anderen Bildpunkten bzw. Gruppen von Bildpunkten abh¨angig. • Modellbasierte Pr¨adiktion Diese Verfahren treffen bestimmte Vorwegannahmen u¨ ber den dargestellten Bildinhalt, wie etwa in der Videotelefonie, wo von einer typischen Kopf-SchulterDarstellung ausgegangen wird. Der Bildinhalt wird durch eine geeignete Gitterstruktur modelliert und Bewegung durch entsprechende Modellparameter beschrieben. • Objekt- und regionenbasierte Pr¨adiktion Diese Verfahren segmentieren das Bild zuerst in einzelne Abschnitte, um darin Objekte zu erkennen. Diese Objekte werden dann getrennt voneinander bearbeitet. Die Kodierung von separaten Video-Objekten ist Bestandteil des MPEG-4 Standards. Bei typischen Anwendungen der kontextfreien Vorhersage wird das zuletzt behandelte Einzelbild genutzt, um das Folgebild vorherzusagen und anschließend nur die Abweichungen des realen Folgebildes vom vorhergesagten Bild abzuspeichern. Wird als Vorhersagebild einfach nur das letzte Einzelbild herangezogen, so wird lediglich das Differenzbild festgehalten (Frame Differencing). ¨ Uber diese einfache Idee hinaus k¨onnen verbesserte Komprimierungsresultate erzielt werden, wenn man f¨ur das vorhergesagte Folgebild beachtet, dass Bildver¨anderungen in Videosequenzen h¨aufig nur von Bewegungen der abgebildeten Objekte herr¨uhren, die f¨ur die Vorhersage ausgenutzt werden k¨onnen. Werden Bewegungen einzelner Objekte bzw. Bildabschnitte in Folgebildern entdeckt, wird das Objekt bzw. der Bildabschnitt nur einmalig kodiert und die Bewegung in Form eines Vektors (Bewegungsvektor) gespeichert. Ver¨andert sich das Objekt in der Bewegung, wird zus¨atzlich die Differenz zum Ausgangsobjekt kodiert. Eine andere, h¨aufig zu beobachtende Ursache f¨ur Bewegung in einer Szene r¨uhrt von der Bewegung des Aufnahmestandpunkts der Kamera her. Naheliegend ist daher die Einbeziehung eines Bewegungsmodells in die Vorhersage des Folgebildes, um die zur Beschreibung notwendige Bildinformation weiter zu reduzieren. Die Anwendung eines solchen Bewegungsmodells zur Bildvorhersage wird als Bewegungskompensation (Motion Compensation) bezeichnet. Die Technik der Bewegungskompensation ist allerdings nicht in der Lage, abrupte Szenen¨anderungen, wie z.B. Bildschnitte, zu bew¨altigen. Zur Ausgestaltung eines effizienten Bewegungsmodells m¨ussen verschiedene Teilaufgaben bew¨altigt werden, die vor allem im Erkennen
260
4 Multimediale Daten und ihre Kodierung
der f¨ur die Bearbeitung wichtigen Bildinformationen bestehen. So m¨ussen z.B. Vordergrund und Hintergrund getrennt werden, geradlinige Bewegungen der Kamera (Translation) ebenso erkannt werden wie Kameraschwenks (Rotation) oder der Einsatz von Zoom (Skalierung). Die zur Erkennung der jeweiligen Bewegungssituation im Bewegungsmodell verwendeten Verfahren l¨osen diese Aufgaben im allgemeinen so, dass zun¨achst das Gesamtbild in einzelne Bildbl¨ocke zerlegt und dann jeder einzelne dieser Bildbl¨ocke auf das Vorhandensein von Bewegung hin untersucht wird. Es wird keine Bewegung im Bild erkannt, wenn die untersuchten Einzelbilder unver¨andert bleiben. Eine detaillierte Beschreibung einer Implementierung der Bewegungskompensation wird in den folgenden Abschnitten zur MPEG-Videokodierung angegeben.
4.6.4 MPEG Komprimierung: Schusselprobleme ¨ Wie schon erw¨ahnt begann die MPEG Gruppe (Motion Picture Experts Group, siehe Abb. 4.35) 1988 ihre Arbeit mit der Standardisierung eines Video- und AudioKomprimierungsstandards bei einer Bitrate von etwa 1,2 Mbps, der auf eine Anwendung im Bereich der Video Compact Disk abzielte. Ausschlaggebend f¨ur die Entwicklung der MPEG-Komprimierungsstandards waren jeweils bestimmte Schl¨usselprobleme und Anwendungen, f¨ur die eine entsprechende Komprimierung zwingende Voraussetzung ist. Die wichtigsten Anwendungen und Problemfelder f¨ur die Entwicklung des MPEG-Standards sind: • Speichermedien Ausgangspunkt f¨ur die Entwicklung des MPEG Video-Komprimierungsstandards war es, eine Videoquelle so zu komprimieren, dass sie u¨ ber die Datenrate eines bereits existierenden Zielspeichermediums (Audio-CD), das eigentlich f¨ur die Speicherung unkomprimierter Audioinformation vorgesehen war, abgespielt werden kann. Bei Anwendung eines einfachen 8-Bit Samplings nach dem CCIR/ITU-R BT.601-Standard besitzt der unkomprimierte Videostrom eine Bitrate von 210 Mbps, so dass eine aggressive Komprimierung mit einem Komprimierungsverh¨altnis von 200:1 n¨otig war, um die bei 1,2 Mbps liegende Datenrate des Zielspeichermediums zu erreichen. Eine weitere wichtige Forderung, war die M¨oglichkeit eines wahlfreien Zugriffs (Random Access) auf das Speichermedium. Der Videostrom sollte an jeder beliebigen Stelle mit nur minimaler Zeitverz¨ogerung abgreifbar sein. • Digitales Fernsehen (terrestrisch) Das auf Rundfunk¨ubertragung basierende terrestrische Fernsehen teilt sich das elektromagnetische Spektrum mit einer Vielzahl anderer Anwendungen, vom herk¨ommlichen analogen Rundfunk bis hin zu modernen mobilen Kommunikationsmitteln. Der Teil des f¨ur das digitale Fernsehen zur Verf¨ugung stehenden Spektrums ist daher eng begrenzt und erfordert eine m¨oglichst effiziente Komprimierung der u¨ bertragenen Inhalte. Der vorgesehene Frequenzbereich orien-
4.6 Video und Animation - Datenformate und Komprimierung
261
tiert sich an den bereits existierenden analogen Medien und sollte in der Lage sein, eine Bitrate von 20-40 Mbps abzudecken. Diese ist ausreichend f¨ur mehrere Kan¨ale komprimierter Video- und Audioinformation, wobei kanalbasierte Multiplexingverfahren zur Anwendung kommen, um mehrere Programme innerhalb eines einzigen digitalen Signals gleichzeitig ausstrahlen zu k¨onnen. • Digitales Fernsehen (Kabelbetrieb) Digitales Kabelfernsehen ben¨otigt einen ununterbrochenen, dedizierten Kommunikationsweg zwischen der Quelle des Videos und dem Endverbraucher. Auch wenn hier oft modernste Glasfasertechnik zum Einsatz kommt, erfordert allein die Datenf¨ulle und die dadurch entstehende Last an den Vermittlungsstellen im Kabelnetz den Einsatz einer leistungsf¨ahigen Komprimierung. Ebenso wichtig ist in diesem Zusammenhang die Existenz eines ausgereiften Standards, damit im Kabelnetzwerk kompatible Technik der unterschiedlichsten Hersteller in weitgestreuter geografischer und logischer Verteilung miteinander verbunden werden kann. Digitale Video-Netze verwenden oft ADSL (Asymmetric Digital Subscriber Line) als Daten¨ubertragungstechnik, die u¨ ber herk¨ommliche Telefonkabel (Twisted Pair) die Strecke zum Endverbraucher in seinem Heim u¨ berbr¨uckt und m¨oglichen Bitraten auf Breiten zwischen 1,5 und 10 Mbps begrenzt. • HDTV High Definition Television verspricht eine erhebliche Verbesserung der De¨ tailsch¨arfe, bei einer Video¨ubertragung. Neben einer Anderung des Seitenverh¨altnisses von 4:3 auf 16:9 und einer Erh¨ohung der Bildaufl¨osung (bis zu 1.920×1.080 Bildpunkte) vermittelt dieser neue Standard ein Kino-¨ahnliches Fernseherlebnis. Wird HDTV u¨ ber einen Rundfunkbetrieb ausgestrahlt, stehen dazu nur die bereits vom herk¨ommlichen Fernsehen besetzten Frequenzen zur Verf¨ugung. Um ¨ innerhalb dieses Frequenzbereichs eine qualitativ hochwertige HDTV-Ubertragung zu erm¨oglichen, sind substantielle Komprimierungsmethoden notwendig. ¨ • Multimediadatenubertragung im Netzwerk Ein allgemein akzeptierter Standard zur Videokomprimierung w¨urde weltweit Multimedia-Entwickler dabei unterst¨utzen, Multimedia-Applikationen zu entwickeln, die nicht auf vorhandene Speichermedien wie CD-ROMs oder DVDs angewiesen sind, sondern u¨ ber die verschiedensten miteinander verschalteten Netzwerke abgerufen werden k¨onnen. Als weitere Ziele sollte ein wahlfreier Zugriff auf die Videodaten erm¨oglicht werden mit einer maximalen Verz¨ogerung von 0,5 Sekunden. Der durch die verlustbehaftete Komprimierung hervorgerufene Qualit¨atsverlust sollte minimal bleiben. Zus¨atzlich sollte die M¨oglichkeit der Navigation innerhalb der Videodatenstr¨ome, d.h. schnelles Vor- und Zur¨uckspringen, gew¨ahrleistet werden und eine gute Editierbarkeit erhalten bleiben.
262
4 Multimediale Daten und ihre Kodierung
4.6.5 MPEG Komprimierung: Prinzipielles Vorgehen Der MPEG-Komprimierungsstandard beschreibt nicht die Implementierung eines Enkoders bzw. eines Dekoders, sondern lediglich das Datenformat des kodierten Bitstroms und wie dieses zu dekodieren ist. Ein MPEG-Enkoder muss deshalb lediglich einen MPEG-kompatiblen Bitstrom erzeugen, der von einem MPEG-Dekoder gelesen und in die Ausgangsdaten zur¨uck dekodiert werden kann. Die MPEGEnkodierung ist abh¨angig vom zu kodierenden Ausgangsmaterial, d.h. der Enkoder entscheidet, welche Komprimierungsverfahren wie zum Einsatz kommen. Der MPEG-Dekoder im Gegenzug wird voll und ganz von den im u¨ bertragenen Bitstrom enthaltenen Daten gesteuert. Die MPEG-Komprimierung ist eine asymmetrische Kodierung, d.h. der Aufwand f¨ur die Enkodierung ist entscheidend h¨oher als der f¨ur die Dekodierung notwendige Aufwand. Die Vorverarbeitung und Komprimierung einer herk¨ommlichen, bereits in digitaler Form vorliegenden unkomprimierten Videosequenz umfasst die folgenden Hauptverarbeitungsschritte (siehe auch Abb. 4.51): • Konvertierung des Farbraumes von 24-Bit RGB nach 4:2:0-YCr Cb . Bei diesem Vorgang geht allerdings ein Teil der vorhandenen Information verloren. Dabei wird eine erste Datenkomprimierung erreicht. Bei der Dekodierung kann die fehlende Information aus den vorhandenen Daten aber u¨ ber Interpolationsverfahren n¨aherungsweise zur¨uckgewonnen werden.
Videoeinzelbilder
MPEG Bitstrom YUV Referenzbild
RGB
YUV
Farbkonversion nach YCrCb
Blockvergleich
YUV
DCT-Werte Inverse DCT
Inverse Quantisierung
Code variabler Länge
quantisierte DCT-Werte
DCT Transformation
Fehler-/ Differenzwerte
Quantisierung
DCT-Werte
quantisierte DCT-Werte
Lauflängen Kodierung
Huffman Kodierung
Nullen unterdrückt
Abb. 4.51 Ablauf der MPEG Kodierung
• Aufteilung in Zeilenabschnitte (Slices) und Makrobl¨ocke, eine Schl¨usseloperation in der MPEG-Komprimierung zur Entdeckung von Bewegungen innerhalb eines Bildausschnittes. Eine MPEG-kodierte Videosequenz setzt sich aus einer Reihe von geschlossenen Bildgruppen (Group of Pictures) zusammen. Um eine Bewegung zu entdecken, wird ein Einzelbild in Zeilenabschnitte (Slices) aufgeteilt, die ihrerseits wieder in sogenannte Makrobl¨ocke unterteilt werden. Slices
4.6 Video und Animation - Datenformate und Komprimierung
263
dienen der Resynchronisation und dem Auffrischen von Register- mit Pr¨adiktionswerten. Alle zur Bewegungsentdeckung notwendigen Berechnungen basieren ausschließlich auf der Luminanz-Komponente dieser Makrobl¨ocke, da Bewegungen u¨ ber die Zeit durch Helligkeitsschwankungen benachbarter Bildbereiche erkannt werden k¨onnen. F¨ur die Luminanz-Werte werden Makrobl¨ocke der Gr¨oße 16 × 16 Bildpunkte verwendet (396 Makrobl¨ocke und 16 Slices bei CIF), w¨ahrend f¨ur die Chrominanzwerte kleinere Bl¨ocke der Gr¨oße 8 × 8 Bildpunkte verwendet werden. Ein Makroblock umfasst f¨ur ein 4:2:0 Chroma-Subsampling somit neben dem 16 × 16 Bildpunkte großen Luminanz-Bereich auch noch 2 dieser Chrominanz-Bl¨ocke (siehe Abb. 4.52) .
Videosequenz
Group of Pictures Slice Makroblock 16 x 16 Pixel
Block 8 x 8 Pixel Einzelbild
Abb. 4.52 Strukturierung eines Videostroms bei MPEG
• Ein Bewegungsvorhersagealgorithmus sorgt bei MPEG daf¨ur, dass Objekte, die sich u¨ ber das Bild bewegen, per Suche nach Mehrfachbl¨ocken von Bildpunkten innerhalb eines vorgegebenen Suchraums verfolgt werden k¨onnen. Jeder Luminanz-Makroblock wird dabei mit anderen Makrobl¨ocken aus seiner Umgebung im vorhergehenden bzw. nachfolgenden Einzelbild verglichen. Sobald sich ein sehr a¨ hnlicher Makroblock findet, wird mit Hilfe eines Vektors (Bewegungsvektor) die Ortsver¨anderung des betreffenden Makroblocks kodiert und zusammen mit eventuell anfallenden Bild-Differenzinformationen abgespeichert. Dieser Prozess ist sehr aufw¨andig, da sich die Suche u¨ ber einen großen Suchraum erstreckt und f¨ur jedes Einzelbild durchgef¨uhrt werden muss und es werden hohe Anspr¨uche an die Leistungsf¨ahigkeit des Enkodierers stellt. Die Qualit¨at des Komprimierungsergebnisses h¨angt stark von der Gr¨oße des Suchraums ab, die ihrerseits von der Leistungsf¨ahigkeit des Enkodierers bestimmt wird.
264
4 Multimediale Daten und ihre Kodierung
Zeit
Referenzbild vorwärtsgerichtete Bewegungsvorhersage
Aktuelles Bild
rückwärtsgerichtete Bewegungsvorhersage Referenzbild
Abb. 4.53 Bewegungsvorhersage mit Bewegungsvektoren
• DCT-Transformation: Wie bei JPEG benutzt MPEG die diskrete Cosinus Transformation (DCT), da mit ihr die Eigenheiten des menschlichen Wahrnehmungssystems zur Bildkomprimierung gut ausgenutzt werden k¨onnen. Mit Hilfe der DCT wird ein Block von Bildpunkten ausgehend von dessen Raumkoordinaten in den Frequenzbereich transformiert. Dadurch k¨onnen hochfrequente Bildanteile leicht unterdr¨uckt werden, deren Ab¨anderung vom menschlichen Augen weniger sensibel wahrgenommen werden. Zudem unterscheidet die MPEG Komprimierung drei verschiedene Arten von Einzelbildvarianten (siehe Abb. 4.54):
I
B B B P B B B P B B B P B B B I
Zeit
Abb. 4.54 Frame-Typen bei der MPEG Kodierung
– Das Intra-Frame (I-Frame), ein vollst¨andiges Einzelbild ohne Zusatzinformation. F¨ur das I-Frame werden keine Bewegungsvorhersage-Algorithmen
4.6 Video und Animation - Datenformate und Komprimierung
265
benutzt. Es wird einzeln verarbeitet und stellt u¨ blicherweise als erstes Bild ¨ einer Bildfolge (Group of Pictures) den Startpunkt einer Ubertragung dar. Die Kodierung eines I-Frames folgt den gleichen Prinzipien wie die JPEGKodierung. Im Mittel folgt bei MPEG-1 etwa alle 15 Bilder ein neuer I-Frame. Beim MPEG-1 Videoschnitt kann die Wiedergabe eines Segments nicht vor dem ersten I-Frame des betreffenden Segments beginnen. Zumindest ist dies nicht ohne berechnungsaufw¨andige Interpolation m¨oglich. Daher benutzen Videoschnittanwendungen h¨aufig sogenannte I-Frame-only MPEG Videos, die gegen¨uber herk¨ommlichen MPEG-1 Videos wesentlich mehr Speicherplatz ben¨otigen. – Das Predictive Frame (P-Frame) benutzt ein vorangegangenes I-Frame (oder P-Frame) als Ausgangspunkt f¨ur eine Bewegungsvorhersage. Dazu wird f¨ur jeden Luminanz-Makroblock im vorangegangenen Referenzbild in der n¨aheren Umgebung nach einem m¨oglichst gut u¨ bereinstimmenden Bildbereich gesucht. Auf die Bewegungsvorhersage f¨ur den Chrominanzbereich wird verzichtet, da man davon ausgeht, dass diese auch im Luminanzbereich erkannt werden kann. Der MPEG-Standard gibt nicht vor, mit welcher r¨aumlichen Genauigkeit und in welchem Bereich diese Suche ausgef¨uhrt werden soll. Dies kann jede Implementierung des MPEG-Enkoders selbst festlegen. ¨ ¨ Je gr¨oßer der Suchbereich, desto mehr Ubereinstimmungen bzw. Ahnlichkeiten k¨onnen entdeckt werden und desto h¨oher ist die erzielte Komprimierungsrate. Andererseits bedeutet eine Vergr¨oßerung des Suchraums und eine h¨ohere Suchgenauigkeit auch einen h¨oheren Berechnungsaufwand. Jeder Makroblock im P-Frame besteht dann entweder nur aus einem Bewegungsvektor (Motion Vector) mit dazugeh¨origer Bild-Differenzinformation (siehe Abb. 4.55), oder - wenn kein Vergleich im Vorhersagealgorithmus erfolgreich war - aus einem vollst¨andig pixelkodierten Makroblock. Bewegungsvektoren kodieren die Distanz zwischen zwei Bildbereichen in Pixeln. Bei MPEG-1 liegt die Genauigkeit der Bewegungsvektoren bei einem halben Pixel. Da benachbarte Makrobl¨ocke meist sehr a¨ hnliche Bewegungsvektoren besitzen, lassen sich diese effizient u¨ ber eine Differenzwertbildung kodieren. Der MPEG Dekoder muss zur umgekehrten Bewegungskompensation stets die vollst¨andige I-Frame Information vorhalten, um einen P-Frame erfolgreich dekodieren zu k¨onnen. Zwischen zwei I-Frames liegen bei MPEG-1 typischerweise 3 P-Frames. – Der Bidirectional Frame (B-Frame) gleicht dem P-Frame, nur dass die in ihm enthaltenen Verweise entweder auf den vorhergehenden P-Frame / IFrame bzw. auf den nachfolgenden P-Frame/I-Frame ausgerichtet sind. Im Kodierungsprozess wird zuerst das zuk¨unftige Folgebild untersucht, bevor auf das davorliegende zugegriffen wird (siehe Abb. 4.55). Sollten beide Vergleiche nicht fehlschlagen, werden Mittelwerte, die aus beiden Frames gewonnen werden, zu Grunde gelegt. Schlagen alle diese Vergleiche fehl, wird der Makroblock auf herk¨ommliche Weise ohne Bewegungsvorhersage kodiert. Zur Kodierung eines B-Frames muss der Enkodierer zahlreiche I-Frames und PFrames in seinem Speicher vorhalten. Da auch im Strom nachfolgende Frames
266
4 Multimediale Daten und ihre Kodierung
zur Dekodierung ben¨otigt werden, kann eine Wartezeit entstehen. B-Frame und P-Frame werden auch als interframe-kodiert bezeichnet, da zu ihrer Kodierung Informationen aus anderen Frames notwendig sind. Typischerweise liegen ca. 2-3 B-Frames zwischen zwei P-Frames/I-Frames. Der Hauptvorteil der bidirektionalen B-Frames liegt darin, dass sie eine effizientere Kodierung und damit eine h¨ohere Komprimierung erlauben. Ebenso verbessert sich die Bildqualit¨at, wenn durch bewegte Objekte verdeckte Bildbereiche im Lauf einer Bildsequenz wieder freigeben werden. R¨uckw¨artsgerichtete Bewegungsvorhersage erlaubt dort intelligentere und bessere Enkodierentscheidungen. Da man B-Frames nicht als Referenzbilder f¨ur eine weitere Bewegungsvorhersage nutzt, werden propagierte oder gerade entstandene Bildfehler nicht weitergegeben. Der Preis, den man f¨ur diese Vorteile zahlt, besteht darin, dass die Bildpuffer sowohl auf Kodierungs- als auch auf Dekodierungsseite doppelt ausgelegt werden m¨ussen, da diese sowohl vorw¨artsals auch r¨uckw¨artsgerichtete Referenzbilder aufnehmen m¨ussen.
vorangegangener Referenz-Frame
Ziel-Frame
nachfolgender Referenz-Frame
Abb. 4.55 P-Frames und B-Frames kodieren Luminanz-Makrobl¨ocke u¨ ber vorangegangene und nachfolgende Referenzbilder und Bewegungsvektoren
– Zus¨atzlich k¨onnen sogenannte DC-coded Picture Frames (D-Frame) vereinbart werden, in denen jeder Block des Einzelbildes lediglich durch seinen DC-Koeffizienten, d.h. durch den (0,0)-Wert der Frequenzmatrix eines Blockes kodiert wird. Diese qualitativ schlechten Einzelbilder werden ausschließlich f¨ur spezielle Funktionen, wie z.B. zum schnellen Vorlauf“ ” verwendet und sind nicht als Referenzbild f¨ur die Bewegungsvorhersage zul¨assig. Durch die Vorhersage von Bildinhalten kann der zur Speicherung eines Bildes ben¨otigte Speicherplatz erheblich reduziert werden. Dabei sind die Kompressionsraten f¨ur B-Frames u¨ blicherweise am gr¨oßten. Allerdings ist auch der Berechnungsaufwand f¨ur die bidirektionale Pr¨adiktion der B-Frames besonders hoch. ¨ Tab. 4.10 gibt einen Uberblick u¨ ber typische MPEG-1 Kompressionsfaktoren f¨ur
4.6 Video und Animation - Datenformate und Komprimierung
267
die einzelnen Frametypen. Die erzielte Komprimierung h¨angt dabei stets vom jeweiligen Bildinhalt ab. Tabelle 4.10 Typische MPEG-1 Kompressionsfaktoren Frametyp
Gr¨ oße Kompressionsfaktor
I
18 kB
7:1
P
6 kB
20:1
B
2,5 kB
50:1
Durchschnitt
4,8 kB
27:1
Der MPEG-Standard erlaubt eine beliebige Reihenfolge f¨ur die gespeicherten Einzelbilder einer Videosequenz. Die Darstellungsreihenfolge der Einzel¨ bilder muss daher nicht mit der Ubertragungsreihenfolge u¨ bereinstimmen, sondern kann nach Effizienzkriterien umsortiert werden. Allerdings erfordert ein aufw¨andiges Umordnen der Einzelbilder einen entsprechend großen Speicherplatz. MPEG gestattet einen wahlfreien Zugriff auf die Videodaten, so dass jede Sequenz eigene I-Frames enthalten muss. Zus¨atzliche M¨oglichkeiten, wie z.B. das schnelle Vorspulen, erfordern es, dass ein I-Frame alle 0,4 Sekunden bzw. alle 12 Einzelbilder auftritt. Es existiert kein fester Standard, der vorschreibt, in welcher Reihenfolge und Wiederholungszahl die verschiedenen Frame-Typen im MPEG-Videostrom verwendet werden sollen. Die Art der Kodierung und die Verwendung der unterschiedlichen Frame-Typen wird von der jeweiligen Anwendung festgelegt. So lassen sich Komprimierungsrate und Bildqualit¨at jeweils anwendungsabh¨angig selbst festlegen. • Quantisierung: Ebenso wie im JPEG Verfahren werden bei MPEG u¨ ber eine Quantisierung hochfrequente Bildkomponenten unterdr¨uckt. Dies geschieht durch Abrunden auf den Wert Null der nahe bei Null liegenden Koeffizienten aus der DCT-Transformation, die am Ende der Koeffizientenmatrix stehen. W¨ahrend die Bewegungsvektoren f¨ur P-Frames und B-Frames verlustfrei gespeichert werden, tritt f¨ur die Speicherung von I-Frames (Intrakodierung) und den DCT-kodierten Anteilen der P-Frames und B-Frames (Original-Pixel als auch Differenz-Bild zur Vorhersage, Interkodierung) ein Informationsverlust auf, verursacht durch die Quantisierung. F¨ur Intra- und Interkodierung der Luminanzbl¨ocke werden verschiedene Quantisierungsmatrizen eingesetzt. W¨ahrend die Quantisierung der Intrakodierten I-Frame Luminanzbl¨ocke der JPEG-Quantisierung a¨ hnelt, werden interkodierte Luminanzbl¨ocke aus P-Frames und B-Frames mit einer aus konstanten Werten bestehenden Quantisierungsmatrix weiterverarbeitet, da in den zu kodierenden Pr¨adiktionsdifferenzen alle Frequenzanteile gleich wichtig sind. Infolge der Bewegungsvorhersage bei interkodierten Luminanzbl¨ocken sind die einzelnen DC-Koeffizienten auch nicht mehr miteinander korreliert.
268
4 Multimediale Daten und ihre Kodierung
• Kodierung: In einer letzten Phase erfolgt eine Laufl¨angenkodierung der Koeffizientenmatrizen, wobei eine diagonale Zick-Zack-Reihenfolge von den niedrigen zu den hohen Frequenzkomponenten durchlaufen wird, gefolgt von einer fixen Huffman-Kodierung zur Erzeugung eines Codes variabler L¨ange. Je nach Bildtyp und Bildinhalt f¨uhrt diese Art der Kodierung zu einer schwankenden Datenrate, die mit Hilfe eines Pufferspeichers am Ausgang des MPEG-Encoders gesammelt und mit konstanter Datenrate weitergegeben werden. Bei einem drohenden Puffer¨uberlauf wird die Quantisierung der DCT-Koeffizienten verst¨arkt und dadurch eine h¨ohere Komprimierung bei verminderter Bildqualit¨at erreicht. Da ein MPEG-Datenstrom sowohl Video- als auch die dazugeh¨orige Audioinformation umfasst, muss das standardisierte MPEG-Datenformat eine Art Multiplexing vorsehen, um unabh¨angige simultane Datenstr¨ome zu synchronisieren. Bereits ab einer zeitlichen Differenz von nur 80 ms zwischen dem Audiostrom und dem Videostrom geht die sogenannte Lippensynchronizit¨at“ verloren, und der Betrachter ” bemerkt, dass die beiden Str¨ome nicht synchron laufen. Neben der einfachen Synchronisation zwischen Video- und zugeh¨origem Audiostrom bietet MPEG dar¨uber hinaus die M¨oglichkeit, mehrere parallele Video- und Audiostr¨ome zusammen mit eigendefinierten Datenstr¨omen zu synchronisieren. Zur Synchronisation der Video- und Audiodaten besitzt jedes Einzelbild eine Zeitstempelinformation, um den Dekoder in die Lage zu versetzen, bei der Dekodierung des Audiostroms jederzeit die zugeh¨orige Videosequenz korrekt wiederzugeben, um so z.B. eine Lippensynchronizit¨at sicherzustellen. Dabei erlauben die vorhandenen Zeitstempel eine sehr flexible Dekodierung der vorhandenen Datenstr¨ome. Es werden sogar variable Daten¨ubertragungsraten erm¨oglicht, wobei Einzelbilder einfach unterdr¨uckt und nicht dargestellt werden, wenn die zur Verarbeitung notwendige Rechenzeit nicht verf¨ugbar ist, ohne dass dabei die Synchronizit¨at verloren geht. Der Zeitstempel wird mit einer Referenz-Uhr realisiert, die mit einer Taktfrequenz von 90 kHz arbeitet. Bei einem wahlfreien Zugriff auf den MPEG-Datenstrom gestattet die Zeitstempelinformation in den Einzelbildern eine exakte Identifikation des Zugriffszeitpunktes, der aktuell wiedergegeben werden soll. Da allerdings die Einzelbilder nicht unbedingt in zeitlich geordneter Reihenfolge vorliegen, ist auf Dekoderseite ein ausgekl¨ugeltes Puffermanagement notwendig, um Puffer¨uberl¨aufe zu vermeiden Die MPEG Videokomprimierung legt eine sehr hohe Flexibilit¨at hinsichtlich der dargestellten Bildgr¨oße, der Bitraten und anderer Schl¨usselparameter an den Tag. Allerdings macht eine vollst¨andige Unterst¨utzung des Standards durch einfache, kosteng¨unstige Dekoder-Implementationen, die in einer Umgebung mit hohem Durchsatz arbeiten, oft nur wenig Sinn und erschwert diese unn¨otig. Die MPEG Gruppe hat deshalb spezifische Einschr¨ankungen f¨ur die zu unterst¨utzenden Parameter im sogenannten Constraint Parameter Set festgelegt (siehe Abb. 4.56).
4.6 Video und Animation - Datenformate und Komprimierung
269
MPEG - Constraint Parameter Set (CPS) Dieser standardisierte Parametersatz muss von jedem MPEG-Encoder und -Dekoder unterst¨ utzt werden. Das betrifft sowohl Software als auch Hardware-Implementierungen. Anderenfalls gilt die Implementation nicht als MPEG-konform. Der MPEG-CPS wurde 1992 durch die MPEG-Gruppe festgelegt und unterst¨ utzte vor allen Dingen eine m¨ oglichst kosteng¨ unstige VLSI-Implementierung auf dem damaligen Stand der Technik (0.8 µm CMOS). MPEG-CPS
≤ 720 Pixel ≤ 576 Pixel
horizontale Bildgr¨ oße vertikale Bildgr¨ oße
Anzahl Makrobl¨ ocke/Einzelbild ≤ 396 Anzahl Makrobl¨ ocke/Sekunde ≤ 396×25 oder 330×30 Einzelbilder/Sekunde Bitrate
≤ 30 ≤ 1,82 Mbp/s
Dekoderpuffer
≤ 376,832
Abb. 4.56 Der MPEG Constraint Parameter Set
4.6.6 MPEG-2 Standard Die originale MPEG-1 Spezifikation der MPEG-Gruppe erwies sich als so erfolgreich, dass unmittelbar nach ihrer Ver¨offentlichung die Arbeit an den Nachfolgestandards MPEG-2, MPEG-3 und MPEG-4 begann. MPEG-2 ist heute der am weitesten verbreitete Videokompressionsstandard, der z.B. bei DVDs, im Digitalfernsehen (Digital Video Broadcasting) u¨ ber terrestrische Antenne (DVB-T), Satellit (DVB-S) oder Kabel (DVB-C) oder digitalem Video eingesetzt wird. W¨ahrend der MPEG-1 Standard auf eine Daten¨ubertragungsrate von etwa 1,5 Mbps f¨ur die Speicherung von Multimedia-Datenstr¨omen f¨ur Videosequenzen mit progressivem Bildaufbau (nicht-interlaced) auf CD-ROM zugeschnitten war, sah sich die MPEG Gruppe zu Beginn der 90er Jahre zusehends dem Druck der Medienindustrie ausgesetzt, die auf ein Verfahren dr¨angte, mit dem es m¨oglich war, Videosequenzen, die nach den herk¨ommlichen Fernsehstandards kodiert waren - d.h. h¨ohere Bildaufl¨osung und Interlace-Darstellung - effizient zu komprimieren. Daher begann die MPEG-Gruppe mit der Entwicklung eines Standards f¨ur Vollbild-Videokomprimierung, der den CCIR/ITU-R BT. 601 Rahmenbedingungen gerecht werden sollte, d.h. 720×480 Bildpunkte bei 60 Hz Interlaced f¨ur NTSC und 720×576 Bildpunkte bei 50 Hz Interlaced f¨ur PAL. Die Kodierung von Halbbildern im Interlaced-Verfahren ist f¨ur MPEG-1 nur bedingt geeignet, weil die Algorithmen zur Bewegungsvorhersage nicht mehr richtig arbeiten: Bildkomponenten k¨onnen sich n¨amlich sprunghaft von einem Halbbild zum n¨achsten ver¨andern. Zudem sollte die Entwicklung von MPEG¨ 2 auch die Ubertragung von Multimedia-Datenstr¨omen in Netzen unterst¨utzen. Ziele dabei waren: • verbesserte Bildqualit¨at,
270
4 Multimediale Daten und ihre Kodierung
• Unterst¨utzung herk¨ommlicher Videoformate (Interlaced) und • Skalierbarkeit f¨ur unterschiedliche Bildaufl¨osungen und Bandbreiten. Erstmals sah der MPEG-2 Standard auch skalierbare Datenstr¨ome vor zur Bedienung von Empf¨angern unterschiedlicher Leistungsklassen, die es diesen gestat¨ ten, entsprechend ihrer Verarbeitungs- und Ubertragungsleistung den MPEG Datenstrom auf die vorhandenen Leistungsressourcen herunterzuskalieren. Theoretisch erlaubt es der MPEG-2 Standard, Videobilder bis hin zu einer Gr¨oße von 16.383×16.383 Bildpunkten zu kodieren. Die Bildmaße m¨ussen dabei stets ganzzahlige Vielfache von 16 Pixeln sein. MPEG-2 wurde im November 1996 als internationaler Standard ISO/IEC 13818 f¨ur das digitale Fernsehen bei Daten¨ubertragungsraten von 4 bis 9 Mbps und weitere Anwendungen, angefangen von der digitalen Archivierung bis hin zu digitalem HDTV mit Daten¨ubertragungsraten bis zu 80 Mbps verabschiedet. Ann¨ahernd 640 Patente existieren rund um den MPEG-2 Standard, die von mehr als 20 Unternehmen und der Columbia Universit¨at in New York gehalten werden. MPEG-2 definiert eine Reihe unterschiedlicher Profile, die je nach Anwendung eine bestimmte Parameterkonfiguration beinhalten, wobei jedes einzelne Profil in mehrere Schichten (Levels) aufgeteilt ist, die ihrerseits zu befolgende Parameter (im wesentlichen Zieldaten¨ubertragungsrate und Bildformate) festschreiben. So ist es m¨oglich, den MPEG-2 Standard sowohl f¨ur einfache VideokonferenzAnwendungen, als auch f¨ur hochaufl¨osendes Video nach dem HDTV-Standard einzusetzen und so eine Vielzahl unterschiedlich leistungsf¨ahiger Dekoder zu bedienen. Man unterscheidet f¨unf MPEG-2 Profile (siehe auch Tabelle 4.11): • Main: Unterst¨utzt s¨amtliche Hauptanwendungsgebiete und ist das wichtigste der MPEG-2 Profile, verwendet 4:2:0 Chroma-Subsampling, erlaubt aber keine Skalierung. • Simple: Wie Main, lediglich B-Frames werden nicht unterst¨utzt (wird haupts¨achlich in Software-Dekodern verwendet). • SNR: Legt Wert auf gesteigerte Qualit¨at bzgl. des Signal-Rausch-Verhaltens, die Chrominanz-Aufl¨osung ist skalierbar. • Spatial: Verbessertes Main-Profil, Pixeldichte ist skalierbar. • High: Steht f¨ur h¨ochste Qualit¨atsstufe, bietet zus¨atzlich 4:2:2 Chroma-Subsampling, Pixeldichte ist skalierbar. Im SNR-skalierten Modus werden die Daten in zwei oder mehrere Str¨ome aufgeteilt, die bei gleicher r¨aumlicher Aufl¨osung (Pixeldichte) unterschiedliche Bild¨ qualit¨at liefern. Ahnlich dem progressiven Modus in der JPEG-Komprimierung wird eine Basisschicht mit grober Information und anschließend eine Schicht mit s¨amtlichen Verfeinerungen erzeugt. Entsprechend den Erfordernissen bzw. der Leistungsf¨ahigkeit des Dekoders wird entschieden, ob alle Schichten dekodiert werden oder nur die erste. Eine Skalierung der Pixeldichte wird durch mehrfaches Subsampling der Videoausgangsdaten realisiert. Das Ergebnis der letzten Stufe der Abtastung wird dann als Basissequenz u¨ bertragen. Aus den rekonstruierten Bildern werden durch Interpolation Vorhersagebilder (Pr¨adikationsbilder) generiert. Die Differenz zwischen
4.6 Video und Animation - Datenformate und Komprimierung
271
der jeweils n¨achsten, h¨oher aufgel¨osten Stufe und dem Interpolationsergebnis wird ebenfalls kodiert und im Multiplexverfahren zusammen mit der Basissequenz u¨ bertragen, analog dem Prinzip der hierarchischen Kodierung in JPEG. Zus¨atzlich kann noch eine zeitliche Skalierung durch die prim¨are Kodierung einer Sequenz mit reduzierter Bildfolge erfolgen. Fehlende Bilder werden dann einfach interpoliert und die Vorhersagefehler zus¨atzlich kodiert. Dekoder mit geringer Leistung k¨onnen den prim¨aren Datenstrom in Echtzeit auswerten, w¨ahrend leistungsf¨ahige Dekoder in der Lage sind, die zus¨atzlich gesendeten Daten f¨ur eine Verfeinerung der dargestellten Sequenz auszuwerten. Desweiteren ist MPEG-2 in der Lage, die Daten in wichtige (Header, Bewegungsvektoren und tieffrequente DCTKoeffizienten) und weniger wichtige Anteile zu portionieren, was die Bildqualit¨at ¨ gegen¨uber Fehlern, die vor allem auf den Ubertragungswegen auftreten, verbessern soll. Innerhalb der MPEG-2 Profile unterscheidet man jeweils vier Schichten, die sich im wesentlichen durch ihre Zielbitraten und den m¨oglichen Bildformaten unterscheiden: • Low Vergleichbar dem MPEG-1 Standard, unterst¨utzt die Low-Schicht das CIFFormat mit 352×240 Bildpunkten bei 30 Bildern pro Sekunde (Frames per second, fps) (352×288 bei 25 Bildern pro Sekunde bei PAL) f¨ur Bitraten bis zu 4 Mbps. Anwendungen auf dem Low-Level zielen in der Hauptsache auf den allgemeinen Verbrauchermarkt und entsprechen qualitativ dem herk¨ommlichen Videorekorder. • Main In der Main-Schicht werden die CCIR/ITU-R BT. 601 Standard-Bildformate unterst¨utzt, d.h. bis zu 720×480 Bildpunkte bei einer Bildwiederholrate von 30 fps. Dabei werden Bitraten bis zu 15 Mbps erreicht. Anwendungen auf dem MainLevel sind f¨ur den qualitativ hochwertigen Verbrauchermarkt bestimmt. • High1440 Namensgem¨aß unterst¨utzt die High1440-Schicht Bildformate bis 1.440×1.152 Bildpunkte bei einer Bildwiederholrate von 30 fps, was der vierfachen Bildgr¨oße des CCIR/ITU-R BT. 601 Standards entspricht. Dabei werden Bitraten von bis zu 60 Mbps erreicht. High1440-Level zielt auf den Verbrauchermarkt f¨ur hochaufl¨osendes Fernsehen. • High In der High-Schicht werden Bildformate bis zu 1.920×1.080 Bildpunkten bei 60 fps unterst¨utzt. Neben dem in den Schichten Low, Main und High1440 u¨ blichen Seitenverh¨altnis 4:3 ist hier auch das im HDTV-Bereich u¨ bliche 16:9 Bildseitenverh¨altnis m¨oglich. Die Bitraten erreichen in dieser Schicht bis zu 80 Mbps. Wie die High1440-Schicht zielt auch die High-Schicht auf den HDTVVerbrauchermarkt ab. Der MPEG-2 Standard verlangt eine R¨uckw¨artskompatibilit¨at zu MPEG-1, d.h. ein MPEG-2 Dekoder muss in der Lage sein, MPEG-1 kodierte Videodaten korrekt zu
272
4 Multimediale Daten und ihre Kodierung
Tabelle 4.11 Unterst¨utzte MPEG-2 Profile und -Schichten Simple
Main
SNR
Spatial
High
High
-
1920×1152, 60 fps
-
-
1920×1152, 60 fps 960×576 30 fps
High1440
-
1440×1152, 60 fps
-
Main
Low
1440×1152, 1440×1152, 60 fps 60 fps 720×576, 720×576, 30 fps 30 fps
720×576, 720×576, 720×576, 30 fps 30 fps 30 fps
-
720×576, 30 fps 352×288, 30 fps
352×288, 352×288, 30 fps 30 fps
-
-
-
dekodieren. Eine verbesserte Bildqualit¨at gegen¨uber MPEG-1 wird durch verschiedene Verbesserungen der auch bei MPEG-1 eingesetzten Verfahren der Bewegungsvorhersage und Bewegungskompensation erzielt, sowie die gezielte Unterst¨utzung von Interlaced-Halbbildern die im Zeilensprungverfahren aufgenommen wurden. So werden etwa die Bewegungsvektoren immer mit einer Genauigkeit von einem halben Pixel berechnet und die Kodierung der DC-Koeffizienten nach der DCTTransformation eines Bildblocks kann wahlweise mit bis zu 11 Bit erfolgen gegen¨uber den fest vorgeschriebenen 8 Bit bei MPEG-1. Optional ist bei MPEG-2 auch eine nichtlineare Quantisierung der Makrobl¨ocke m¨oglich, um eine verbesserte dynamische Anpassung der Schrittweite bei der Quantisierung zu erm¨oglichen. Weiter ist zu beachten, dass in MPEG-2 neben 4:2:0-Chrominanz-Subsampling auch 4:2:2 und 4:4:4 m¨oglich ist, wobei die Chrominanzwerte bei 4:2:0 anders als im MPEG-1 Verfahren ermittelt werden. Bei Bildern, die im Zeilensprungverfahren aufgenommen wurden, besteht die besondere Problematik darin, dass zwischen den beiden Halbbilder, die ein vollst¨andiges Einzelbild ausmachen, ein zeitlicher Versatz besteht. F¨ugt man beide Halbbilder ohne besondere Vorkehrungen zu einem Gesamtbild zusammen, ergeben sich daher Kamm-Effekte an den Kanten bewegter Objekte, die eine verminderte Korrelation vertikal benachbarter Bildpunkte bewirkt und damit zu schlechteren Kompressionsergebnissen f¨uhrt. Daher wurden in MPEG-2 neue Frametypen eingef¨uhrt sowie eine alternative Reihenfolge der Zick-Zack-Kodierung (Zig-Zag Encoding) der Pixel in einem Block (siehe Abb. 4.57). Ein I-Frame kann aus einem Vollbild I-Frame, aus zwei zusammengeh¨origen Halbbild I-Frames, oder aus einem Halbbild I-Frame und einem Halbbild P-Frame bestehen. P-Frames und B-Frames k¨onnen sowohl aus einem Vollbild, als auch jeweils aus einem zusammengeh¨origen Paar von Halbbild P-Frames oder Halbbild B-Frames bestehen. Durch diese gr¨oßere Vielfalt der Bildtypen ergeben sich mehr
4.6 Video und Animation - Datenformate und Komprimierung
horizontale Frequenzen
273
horizontale Frequenzen
DC
vertikale Frequenzen
vertikale Frequenzen
DC
(a)
(b)
Abb. 4.57 MPEG-2: Herk¨ommliche Zick-Zack-Kodierung (a) und alternative Zick-ZackKodierung (b), um bessere Kompression bei Einzelbildern im Zeilensprungverfahren zu erm¨oglichen
Varianten zur Bewegungsvorhersage von Makrobl¨ocken. Dabei k¨onnen einzelne Makrobl¨ocke in Vollbildern entweder nach der von MPEG-1 bekannten progressiven Art bzw. mit einer Verschachtelung der einzelnen Bildzeilen verarbeitet werden (siehe Abb. 4.58). Die Auswahl, welche der beiden Varianten bevorzugt wird, ergibt sich aus der damit jeweils erzielbaren Qualit¨at der Komprimierung. Exkurs 12: MPEG – Datenformat Syntaktische Schichtung im MPEG Datenformat Der MPEG-Video-Datenstrom ist hierarchisch, aus sechs verschiedenen Ebenen aufgebaut, die im einzelnen bereits kurz angesprochen wurden (siehe auch Abb. 4.59). Jede Hierarchieebene unterst¨ utzt dabei eine spezifische signalverarbeitungs-spezifische (DCT oder Bewegungsvorhersage) oder logische Funktionalit¨ at (Resynchronisation, wahlfreier Zugriff, etc.) und klammert die darunterliegenden Ebenen durch ihre Startcodes (SC). Diese Startcodes sind 32-Bit-Worte, die nicht weiter kodiert oder komprimiert werden, und so gew¨ ahlt sind, dass sie sich nicht zuf¨ allig ergeben k¨ onnen.
• Sequenzebene (Sequence Layer) Die Sequenzebene definiert die Kontextebene, in der statische Parameter f¨ ur die zu kodierende Videosequenz mitangegeben werden, wie z.B. Bildgr¨ oße, Bildwiederholrate oder voraussichtlich ben¨ otigte Pufferspeichergr¨ oße. Sie ist verantwortlich f¨ ur die Zwischenspeicherung der Daten und wird durch einen Sequenceheader repr¨ asentiert, der diese statistischen Parameter enth¨ alt. Ein Sequenceendcode beendet eine MPEG-Sequenz. Der Sequenceheader kann beliebig oft wiederholt werden, bevor ein Sequenceendcode generiert wird. Dabei ist es gestattet, Angaben zu den Quantisierungsmatrizen jedes mal zu ver¨ andern, w¨ ahrend sich alle anderen Daten nicht ver¨ andern d¨ urfen, damit eine Resynchronisation eines Dekodierers in eine laufende MPEG-Sequenz m¨ oglich ist.
• Group of Pictures (GoP) Layer ¨ Damit wird eine zusammenh¨ angende Menge von Einzelbildern in Ubertragungsreihenfolge bezeichnet, die f¨ ur einen wahlfreien Zugriff auf die Videosequenz ben¨ otigt wird, d.h.
274
4 Multimediale Daten und ihre Kodierung
16 Pixel
16 Pixel
8 Pixel
8 Pixel
(a)
(b) Abb. 4.58 MPEG-2: Zerlegung eines Makroblocks bei herk¨ommlicher progressiver Verarbeitung (a) und bei Interlaced-Verarbeitung von verschachtelten Halbbildern (b).
eine GoP muss f¨ ur sich alleine, also ohne Informationen aus anderen GoPs, dekodiert ¨ werden k¨ onnen. Das erste Bild innerhalb einer GoP in Ubertragungsreihenfolge muss immer ein I-Frame sein. Im zugeh¨ origen Headerteil der Datenbeschreibung befinden sich Informationen dar¨ uber, ob es sich um eine offene oder geschlossene GoP handelt, ob die GoP von der vorhergehenden GoP abgetrennt worden ist, sowie Zeitstempelinformationen zur Synchronisation. Vor der eigentlichen GoP-Information stehen Videoparameter (VidPar), wie z.B. Bildbreite, Bildh¨ ohe, Pixel-Seitenverh¨ altnis und Bildrate, gefolgt von Bitstreamparameter (StrPar), wie z.B. Datenrate, Puffergr¨ oße und Minimalanforderungen, gefolgt von den Quantisierungstabellen (QT) f¨ ur Intra- und Inter-Frames.
• Einzelbildebene (Picture Layer)) In der Einzelbildebene wird die Position eines Bildes innerhalb der GoP beschrieben. Ein Einzelbild kann als I-Frame, P-Frame oder als B-Frame kodiert vorliegen. Der Bildinfor-
4.6 Video und Animation - Datenformate und Komprimierung
275
mation gehen in der Einzelbildebene ein standardisierter SMPTE4 Timecode (TCode) und GoP-Parameter (GoPPar) voraus.
• Slice Layer Ein Slice definiert eine Untereinheit in einem Einzelbild, die zur Resynchronisation im ¨ Falle einer Ubertragungsst¨ orung genutzt wird. Das Slice besteht aus einer Folge von Makrobl¨ ocken variabler L¨ ange, denen ein eindeutiges Resynchronisationsmuster vorangeht. Der Slice-Information gehen Information u ¨ber den vorliegenden Frame-Typ (I-Frame, P-Frame oder B-Frame) voraus (Typ). Dazu kommt optional noch die Spanne eventuell verwendeter Bewegungsvektoren (Encode) und eine Angabe u ullmenge ¨ber die Mindestf¨ des Dekodierpuffers (Buffer).
• Makroblockebene (Macro Block Layer) Ein Makroblock definiert eine Einheit f¨ ur die Bewegungsvorhersage und die Bewegungskompensation. Sie besteht aus einem 16×16 Bildpunkten großen Bereich und umfasst jeweils 16×16 Bildpunkte im Luminanzbereich, sowie die zwei 8× 8 Bildpunkte umfassenden Bereiche der beiden Chrominanz-Komponenten. Den Makroblock-Informationen geht die Angabe der zugeh¨ origen Startzeile (VPos) und optional die zu verwendende Schrittweite der Quantisierungstabelle (QScale) voraus.
• Blockebene (Block Layer) Ein Block definiert die Eingabe-Einheit f¨ ur die Bildtransformation (DCT), die 8×8 Bildpunkte umfasst. Den Blockinformationen gehen ein Adressinkrement (AddrIn), eine Typangabe (Type), Skalierungsangaben zur Quantisierungstabelle (QScale) und eine Angabe dar¨ uber, welche Bl¨ ocke vorhanden sind (CBP) voraus. Die sechs einzelnen Bl¨ ocke (4 x Luminanzblock, 2 x Chrominanzblock) sind in den Feldern b0 bis b5 kodiert.
Sequence Layer Group of Pictures Layer Picture Layer
Sequence
Sqc SC
GOP SC
Slice Layer
P SC
Macroblock Layer
S SC
Block Layer
Addrln
Sequence
VidPar
StrPar
TCode
Type
QTs
GOPPar
Buffer
VPos
Type
…
QScale
…
GOP
Pict
Encode
Qscale
MV
Sequence
MB
CBP
GOP
…
Slice
Pict
…
Slice
…
b0
Slice
MB
…
b5
Abb. 4.59 Schichten eines MPEG Videodatenstroms 4
Der SMPTE-Timecode ist ein von der Society of Motion Picture and Television Engineers eingef¨uhrter Zeitcode im Fernseh-, H¨orfunk- und Studiobereich, der beliebige Video- und Audiotechniken miteinander synchronisieren soll.
276
4 Multimediale Daten und ihre Kodierung
MPEG Datenstr¨ ome Die MPEG Video Syntax arbeitet bitorientiert, d.h. nur wenige Symbole, wie z.B. die Startsymbole der verschiedenen Ebenen, m¨ ussen an Byte-Grenzen ausgerichtet sein. Damit soll eine effektive Nutzung der vorhandenen Transportressourcen garantiert werden. Zudem werden die u oglichkeit besteht, mit variablen Codel¨ angen ¨brigen Parameter, wann immer die M¨ entsprechend der H¨ aufigkeit ihres Auftretens dargestellt. Die MPEG Spezifikation sieht den Transport verschiedener multimedialer Datenstr¨ ome in Verbindung mit geeigneten Multiplex- und Synchronisationsverfahren vor. Die MPEG Standards definieren, wie Audio- und Videodaten komprimiert (Komprimierungs-Schicht) und die entstehenden Datenstr¨ ome verpackt werden. Die sogenannte System-Schicht legt dabei die Syntax f¨ ur die Zeitsteuerung und die Synchronisation der einzelnen Komponenten fest. Sie f¨ ugt sich um die Komprimierungs-Schicht und erm¨ oglicht die gemeinsame Speicherung von Audio- und Videodaten in einem einzigen Datenstrom (siehe Abb. 4.60).
Videokomprimierungsschicht Videodekoder
dekodiertes Videosignal
Bitstrom Digitales Speicher-/ Übertragungsmedium
Systemdekoder
Zeitsteuerung
Timing
Audiokomprimierungsschicht
. . . . Audiodekoder
dekodiertes Adiosignal
Abb. 4.60 MPEG Systemstruktur W¨ ahrend die MPEG-1 System-Schicht speziell f¨ ur Speichermedien und f¨ ur Personal Computer optimiert entwickelt wurden - was sich z.B. in langen Datenpaketen von variabler L¨ ange niederschl¨ agt und eine niedrige Fehlerrate beim Lesen des entsprechenden Mediums voraussetzt - schlug die Spezifikation f¨ ur die MPEG-2 System-Schicht zwei unterschiedliche Richtungen ein: einen Programm-Strom und einen Transport-Strom. W¨ ahrend f¨ ur den Programm-Strom ¨ ahnliche Richtlinien gelten wie f¨ ur die MPEG-1 System-Schicht, k¨ onnen im Transport-Strom mehrere Datenstr¨ ome zusammengefasst werden. Die Daten werden dabei in kurze Pakete fixer L¨ ange verpackt und mit Zusatzinformation und Fehlerbehebungsmechanismen versehen, was speziell f¨ ur die Daten¨ ubertragung bei niedriger Bandbrei¨ te und hohem Umgebungsrauschen von Vorteil ist und zudem die gleichzeitige Ubertragung mehrerer Videokan¨ ale erm¨ oglicht. In einem Transport-Strom werden Header-Informationen h¨ aufiger u ur den Fall einer durch eventuellen Datenverlust verursachten Wieder¨bertragen f¨ aufnahme des Stroms. Generell besteht ein MPEG Datenstrom (hier MPEG-1 System-Strom bzw. MPEG-2 Programm-Strom) aus einer Folge von Paketbl¨ ocken (packs). Jeder Paketblock besteht selbst wieder aus einer Zusammenstellung von Paketen, je einem aus jedem elementaren Datenstrom (Video, Audio oder Daten). Im Paketblock-Header befindet sich dabei
4.6 Video und Animation - Datenformate und Komprimierung
277
Referenzinformation f¨ ur die Systemuhr, um im Falle eines Fehlers eine Resynchronisation durchf¨ uhren zu k¨ onnen, und verschiedenartige andere, zum Teil optionale Parameter. In einem Paketblock werden gelegentlich auch sogenannte System-Header mit eingebunden. Diese enthalten notwendige Information, um den Dekoder f¨ ur eine Wiedergabe des MPEG Datenstroms zu konfigurieren bzw. um festzustellen, ob der verwendete Dekoder u ¨berhaupt zur Wiedergabe des vorliegenden MPEG Stroms geeignet ist. Dazu z¨ ahlen Angaben u ¨ber Anzahl und Typ der beteiligten Medienstr¨ ome, Information dar¨ uber, in welchem Verh¨ altnis System-, Video- und Audiozeitgeber stehen, sowie u otigten Pufferspeichergr¨ oßen ¨ber die ben¨ (siehe Abb. 4.61).
Pack Start Code Pack Header Packet
...
Packet End Code
0010 System Clock Reference Multiplex Rate
System Header (opt) Packet Start Code Packet Body
System Header Start Code Header Length Rate Bound (Multiplexdatenraten) Audio Bound (Audiodatenströme) Video Bund (Videodatenströme)
Stream ID Packet Length Buffer Sizes Presentation Time Stamp Decoding Time Stamp
Abb. 4.61 MPEG-1 Datenstrom Ein MPEG-2 Transport-Strom dagegen besteht aus Paketen fixer L¨ ange von jeweils 188 Byte. Der Paket-Header startet mit einem Synchronisations-Byte, das immer den hexadezimalen Wert 0x47 enth¨ alt. Da dieser Wert auch in den eigentlichen Nutzdaten auftauchen kann, werden Paketgrenzen vom Dekoder identifiziert, indem dieser mehrfach u uft, ¨berpr¨ ob sich jeweils 188 Bytes sp¨ ater im Datenstrom dieser Wert nochmals befindet. Danach folgt ein reserviertes Bit als Indikator f¨ ur eventuelle Transportfehler (Transport Error Indi¨ cator), die w¨ ahrend der Ubertragung aufgetreten sind. Danach folgt ein Payload Unit Start Indicator, der anzeigt, dass sich im Datentransportbereich (Payload) dieses Datenpakets entsprechende Nutzdaten befinden. Ein weiteres einzelnes Bit regelt die Transportpriorit¨ at (Transport Priority), gefolgt von einer Paket-Identifikation (PID), eine 13-Bit Adresse, die angibt, welcher Elementardatenstrom in diesem Datenpaket transportiert wird. Danach folgt ein Feld zur Transportsicherung (Transport Scrambling Control), dass einen fehlerfreien Transport der Daten gew¨ ahrleisten soll, ohne dass jedoch ein bestimmtes Sicherheitsprotokoll durch den Standard festgelegt w¨ are. Zus¨ atzlich k¨ onnen die folgenden 184 Bytes des Datenpakets ab und an ein sogenanntes Adaption Field enthalten, das als Referenz zur Synchronisation mit der Systemuhr dient. Dazu kann dieses Feld noch Informationen u ucken im MPEG-Datenstrom, ¨ber eventuelle L¨
278
4 Multimediale Daten und ihre Kodierung
die Aufteilung von MPEG Datenstr¨ omen, private Nutzdaten oder F¨ ulldaten enthalten (siehe Abb. 4.62).
Adaption Field (variabler Länge) - Abbruch- oder Splice-Information - Referenzuhr - eigene Daten - Fülldaten
188 Bytes
Header
Sync Byte 0x47 31
Payload (Adaption Field oder PES Paket)
Transport Error Payload Unit Indicator Start Indicator
24
23
22
Transport Priority
PID
21 20
Transport Scrambling Control 8 7
0
Abb. 4.62 MPEG-2 Transport Stream
Beide MPEG-2 Str¨ ome k¨ onnen ein gemeinsames Subelement beinhalten, die sogenannten Packetized Elementary Stream Packets (PES). Diese PES-Pakete enthalten Information zu einem zugeh¨ origen elementaren Medienstrom. Das PES-Paket beginnt mit einem PaketHeader, der mit einem bestimmten festgelegten Startpr¨ afix beginnt (Start Code Prefix), gefolgt von einer Identifikationsnummer, die die Art des elementaren Medienstroms angibt (Stream ID, 32 steht f¨ ur Audio, 16 f¨ ur Video). Im Programm-Strom wird an Hand dieser Angabe entschieden, ob der Audio- oder der Video-Dekoder das Paket erh¨ alt. Im TransportStrom ist diese Angabe redundant, da von Transport-Strom-Paketen mit einer bestimmten PID-Nummer nur PES-Pakete eines einzelnen elementaren Medienstroms transportiert werden. Danach folgen noch die Paketl¨ ange und einige optionale Felder, deren wichtigster Bestandteil der Presentation Time Stamp (PTS) ist, eine Zeitstempelinformation, die genau dann im Paket vorkommt, falls hier ein Video-Einzelbild bzw. ein neuer Audio-Frame startet und der Decode Time Stamp (DTS) (siehe Abb. 4.63).
8 bit
Packet Start Code Prefix
4 bit
Stream ID
16 bit
24 - 392 bit
PES Optional Packet Length PES Header
PES Packet Data
- Copyright Information - PTS, DTS - private Daten
Abb. 4.63 MPEG-2 Packetized Elementary Stream Packets
4.6 Video und Animation - Datenformate und Komprimierung
279
Der MPEG-2 Standard definiert noch eine Reihe von Tabellen, die eine Assoziation bestimmter Audio- und Videostr¨ ome zu sogenannten Programmen steuern. Ein typisches Programm besteht dabei aus einem Videostrom, einem oder mehreren Audiostr¨ omen (z.B. ¨ bei mehrsprachiger Ubertragung) und optional auch mehreren Daten-Str¨ omen (z.B. f¨ ur Untertitel). Die Programm Association Table (PAT) hat innerhalb eines Transport-Stroms immer die PID 0. F¨ ur jedes Programm innerhalb des Stroms enth¨ alt sie die Position der zugeh¨ origen Program Map Table, die die Elementar-Medienstr¨ ome beschreibt, die zu dem Programm geh¨ oren. Durch die PID 0 wird innerhalb der PAT eine spezielle Tabelle u ¨ber ein Platzhalterprogramm definiert, die Network Information Table, die neben globalen, den Transportstrom betreffenden Informationen auch noch Informationen u ome ¨ber andere Str¨ enthalten kann, die u ugbar sind. ¨ber dasselbe Netzwerk verf¨
Program Association Table (PID 0)
PID
Network Information Table
Program 0 Program 1
Program Map Table PID
... Program i
Program 1: • Video • Audio 1 • Audio 2 • Audio 3
PID
... Program i
Program i: • Video • Audio 1 • Data 1 • Data 2 • Data 3 ...
Abb. 4.64 MPEG-2 Programm Association Table
Weiterf¨ uhrende Literatur Watkinson, J.: MPEG Handbook. Butterworth-Heinemann, Newton, MA, USA (2001) Mitchell, J. L., Pennebaker, W. B., Fogg, C. E., Legall, D. J. (eds.): MPEG Video Compression Standard. Chapman & Hall, Ltd., London, UK (1996) Le Gall, D.: MPEG: a video compression standard for multimedia applications. Commun. ACM 34(4), 46-58 (1991)
Der MPEG-3 Standard war bei seiner Konzeption f¨ur die Komprimierung im Bereich des hochaufl¨osenden Fernseh-Standards (HDTV) und damit f¨ur h¨ohere Bitraten vorgesehen. HDTV-Unterst¨utzung wurde aber dann bereits in MPEG-2 integriert, so dass der geplante MPEG-3 Standard in MPEG-2 aufging.
280
4 Multimediale Daten und ihre Kodierung
Szenenbeschreibung Interaktivität Synchronisation MPEG - J (Java)
Audio - Sprache - Allgemein - Sprachsynthese - Audiosynthese
Visual - Video - Einzelbilder - Text - 2D Grafik - 3D Grafik - Gesicht- und Körperanimation
Intellectual Property Management and Protection Datenformat
Datentransport (Flexmux / Transmux)
¨ Abb. 4.65 Vereinfachter Uberblick u¨ ber die Komponenten des MPEG-4 Standards ISO/IEC 14496
4.6.7 MPEG-4 Standard Der urspr¨unglich mit der Definition des MPEG-4 Standards verbundene Gedanke ¨ war die Ubertragung von Multimedia-Datenstr¨omen - insbesondere Videos - bei sehr niedrigen Daten¨ubertragungsraten (≤ 64 kbps), wie sie etwa beim Mobilfunk anzutreffen sind. Doch schon w¨ahrend der Entwicklungsarbeit wurde der Anwendungsbereich allgemein auf Video- und Audiodaten ausgedehnt. MPEG-4 leistet viel mehr, als die ausschließliche Komprimierung multimedialer Objekte: MPEG4 definiert ein Objektmodell, das es dem Nutzer gestattet, innerhalb einer dargestellten Szene im Rahmen der vom Autor vorgegebenen Grenzen mit Objekten zu interagieren. MPEG-4 wurde erstmals 1998 vorgeschlagen und sp¨ater als ISO/IEC 14496 Standard ver¨offentlicht, dessen Entwicklung in einigen Teilen noch nicht abgeschlossen ist. MPEG-4 kommt derzeit meist im Bereich des Media-Streaming im Internet und als Datenformat f¨ur Video-Podcasts zum Einsatz. Abb. 4.65 zeigt einen ¨ vereinfachten Uberblick u¨ ber die Komponenten des MPEG-4 Standards. Den Kern bilden dabei die Beschreibungen des Systems (Part 1), die visuelle Komponente (Part 2 inkl. MPEG-4 AVC, Part 10) und die Audio-Komponente (Part 3). Das Delivery Multimedia Integration Framework (DMIF, Part 6) definiert eine Schnittstelle zwischen Anwendungen und Netzwerk bzw. Speicher. Weitere Teile des MPEG-4 Standards umfassen: • Part 4: Conformance, beschreibt, wie MPEG-4 Anwendungen getestet werden k¨onnen
4.6 Video und Animation - Datenformate und Komprimierung
281
• Part 5: Reference Software. beinhaltet Referenzimplementationen, die zur Implementation genutzt werden k¨onnen • Part 7: optimierte Reference Software • Part 8: Transport, definiert, wie MPEG-4 Datenstr¨ome via IP versendet werden k¨onnen • Pert 9: Reference Hardware • Part 11: Szenenbeschreibung (BIFS) und Application Engine (MPEG-J) • Part 12: ISO Base Media File Format (Datenformat) • Part 13: Intellectual Property Management and Protection (IMAP) • Part 14: MPEG-4 File Format, Containerdatenformat f¨ur MPEG-4 Daten, basierend auf Part 12 • Part 15: AVF File Format, Containerdatenformat f¨ur MPEG-4 AVC Daten, basierend auf Part 12 • Part 16: Animation Framwork Extension (AFX) • Part 17: Timed Text Subtitle Fomat (Untertitel) • Part 18: Font Compression and Streaming f¨ur OpenType Fonts • Part 19: Sythesized Texture Stream • Part 20: Lightweight Scene Representation (LASeR) • Part 21: MPEG-J Graphical Framework Extension (GFX) • Part 22: Open Font Format Specification (OFFS) basierend auf OpenType • Part 23: Symbolic Music Representation (SMR) • Part 24: Audio and Systems Interaction • Part 25: 3D Graphics Compression Model MPEG-4 zerlegt eine Szene in einzelne Komponenten, sogenannte Medienobjekte (Media Objects), die ihrerseits einzelne akustische, visuelle oder audiovisuelle Inhalte repr¨asentieren. Diese Medienobjekte werden einzeln kodiert, allerdings so, dass die Ursprungsszene aus ihnen wieder rekonstruiert werden kann. Medienobjekte k¨onnen dabei entweder synthetischen Ursprungs sein, wie etwa interaktive Grafik-Anwendungen, oder realen Ursprungs, wie etwa im Bereich des digitalen Fernsehens. Medienobjekte ihrerseits k¨onnen zusammengefasst werden zu Verbund-Medienobjekten (Compound Media Objects), wobei u¨ ber den MPEG-4 Standard festgelegt wird, auf welche Weise die Medienobjekte mit Hilfe geeigneter ¨ Multiplex- und Synchronisationsverfahren f¨ur eine Ubertragung vorbereitet werden, um die erforderte Dienstqualit¨at zu gew¨ahrleisten. Allerdings obliegt es in der Regel den jeweiligen Anwendungsentwicklern dar¨uber zu entscheiden, welche Teile des MPEG-4 Standards sie in ihre Anwendungen u¨ bernehmen. So gibt es derzeit noch keine vollst¨andige Umsetzung aller im MPEG4 Standard vorgeschlagenen M¨oglichkeiten, sondern es wurden a¨ hnlich wie bei MPEG-2 lediglich eine Reihe von Profilen f¨ur bestimmte Arten von Anwendungen festgelegt (siehe Tab. 4.12). Die Zusammenstellung einer Szene, also die Informationen u¨ ber den r¨aumlichen und zeitlichen Aufenthaltsort der einzelnen Objekte, wird mit Hilfe einer eigenen Beschreibungssprache, der Binary Format for Scenes separat kodiert. Da unterschiedliche Medienformate Verwendung finden k¨onnen, sind auch verschiedene Codecs notwendig. So werden die einzelnen Medienobjekte getrennt voneinan-
282
4 Multimediale Daten und ihre Kodierung
der komprimiert und zusammen mit dem BIFS-Datenstrom im Multiplexverfahren u¨ bertragen, um auf der Empf¨angerseite auf umgekehrte Weise wieder zusammengesetzt zu werden. BIFS basiert auf der Virtual Reality Modelling Language (VRML) und dient der Beschreibung zwei- und dreidimensionaler multimedialer, audiovisueller, interaktiver Inhalte. Die Kodierung von BIFS-Szenenbeschreibungen erfolgt als bin¨arer Datenstrom, in dem nicht nur angegeben wird, wo und wann einzelne Objekte in einer Szene auftauchen, sondern auch deren evtl. an bestimmte Bedingungen oder Interaktionen gekn¨upftes Verhalten. Damit wird in MPEG-4 eine echte Interaktion mit den Inhalten m¨oglich. Sollen komplexere logische Operationen bestimmte Ereignisse im Rahmen des MPEG-4 Datenstroms ausl¨osen, k¨onnen diese mit der Programmiersprache Java via MPEG-J beschrieben werden. Erst k¨urzlich wurde die Szenenbeschreibungssprache BIFS im Rahmen des MPEG4 Standards erg¨anzt durch das vereinfachte LASeR (Lightweight Scene Representation), das nicht auf VRML sondern auf SVG (Scalable Vector Graphics) beruht und sich auf zweidimensionale Objekte beschr¨ankt und speziell f¨ur die Verwendung auf resourcenbeschr¨ankten mobilen Endger¨aten vorgesehen ist. Um den Sch¨opfern von Multimediaanwendungen noch gr¨oßeren Spielraum bei der Zusammenstellung von Szenen und interaktiven Anwendungen einzur¨aumen, wurde eine spezielle Programmiersprache, das Java-basierte Graphical eXtension Framework (GFX) geschaffen. GFX erlaubt die Erzeugung und das Zusammenstellen audiovisueller Objekte und ist speziell auch f¨ur den Einsatz im Bereich der 3D-Videospiele gedacht. Der wesentliche Vorteil der objektbasierten Komprimierung in MPEG-4 ist, dass ein Komprimierungsalgorithmus eine komplexe Szene, die sich aus unterschiedlichen Figuren, Objekten und Text zusammensetzt, nicht mehr vollst¨andig komprimieren muss und so Komprimierungsartefakte vermeiden kann. Sobald die Szene erst einmal zerlegt ist, k¨onnen die einzelnen Komponenten mit den f¨ur sie jeweils besonders geeigneten Komprimierungsalgorithmen bearbeitet und so bessere Komprimierungsergebnisse erzielt werden. Die Zerlegung in einzelne Komponenten gestattet zus¨atzlich auch eine inhaltsbasierte Skalierung des Datenstroms, d.h. je nach verf¨ugbarer Bandbreite und Rechenleistung k¨onnen bei Bedarf weniger wichtige Komponenten einer Szene weggelassen werden. Abb. 4.66 zeigt ein Beispiel f¨ur die Zerlegung einer Szene. Diese Zerlegung umfasst verschiedene Audio- und Video-Medienobjekte. W¨ahrend die aus der Szene ¨ herausgel¨osten Objekte Anderungen in ihrer Position oder Gr¨oße unterworfen sind, kann davon ausgegangen werden, dass der Bildhintergrund, f¨ur eine bestimmte Zeit konstant bleibt. Da alle Komponenten einzeln kodiert werden, m¨ussen diese nicht erneut u¨ bertragen werden, solange sie sich nicht ver¨andern. Auch kann in dem gezeigten Beispiel eine Person als Objekt aus der Szene herausgel¨ost und weiter zerlegt werden in einen akustischen Sprachanteil und ein sogenanntes Sprite. Das Sprite ist in diesem Falle das herausgeschnittene Videobild der Person, das separat komprimiert werden kann. Ebenso kann der Sprachanteil mit einem geeigneten Sprach-Codec komprimiert werden. Da sich Sprite- und Sprachinformation fortlaufend a¨ ndern, m¨ussen diese permanent u¨ bertragen werden. Der
4.6 Video und Animation - Datenformate und Komprimierung
2D-Hintergrund mit darin ablaufender audiovisueller Präsentation
283
Sprite
Audiovisuelle Präsentation
Voice
3D-Objekt 2
y
z x
3D-Objekt 1
SzenenKoordinatensystem
Szene Person
Voice
Sprite
2D-Hintergrund
3D-Objekte
Sessel
AV-Präsentation
Buch
Abb. 4.66 Hierarchische Szenenbeschreibung in MPEG-4
Hintergrund jedoch bleibt weitgehend statisch und muss dementsprechend nicht so h¨aufig u¨ bertragen werden. Enth¨alt die im Beispielbild ebenfalls vorkommende audiovisuelle Pr¨asentation qualitativ hochwertige Audioanteile, so k¨onnen auch diese mit einem speziellen Codec komprimiert werden. Abb. 4.67 zeigt die Hauptkomponenten eines MPEG-4 Endger¨ats, die sich in Demultiplexing-Einheit, Dekomprimierung, Szenenbeschreibung und Komposition/Rendering gliedern lassen. Die Demultiplexing-Einheit zerlegt den MPEG4-Datenstrom in einzelne Elementare Str¨ome (ES), die separat dekomprimiert werden und anhand der BIFS Szenenbeschreibung zu einer hierarchisch aufgebauten Szene zusammengesetzt werden k¨onnen, mit der der Benutzer interagieren kann. Umgekehrt k¨onnen im MPEG-4 Encoder einzelne elementare Str¨ome, die dieselbe Priorit¨at und Servicequalit¨atsanforderungen besitzen, in sogenannte Flexmux-
284
4 Multimediale Daten und ihre Kodierung
Demultiplex
Dekomprimierung
Komposition und Rendering
... Elementare Ströme (ES)
Primitive AV Objekte
Netzwerk
SzenenBeschreibung Szene
Person
Voice
2D-Hintergrund
Sprite
3D-Objekte
Sessel
AV-Präsentation
Buch
Kompositionsinformation
Hierarchisch aufgebaute, interaktive Szene
Upstream Daten (User Events, Class Requests, etc. )
Abb. 4.67 Hauptkomponenten eines MPEG-4 Endger¨ats (Empf¨angerseite)
Datenstr¨ome zusammengefasst werden. Zun¨achst werden diese dazu kodiert, synchronisiert und in eine Folge von Datenpaketen fragmentiert und via Multiplexing zu einem Flexmux-Datenstrom zusammengefasst. Die Flexmux-Datenstr¨ome werden zum Datentransport an den Transport Layer (Transmux) u¨ bergeben (siehe Abb. 4.68). Neben der objektbasierten Kodierung unterst¨utzt der MPEG-4 Standard auch eine ganze Reihe von verbesserten Video-Komprimierungsvarianten. So werden sowohl progressive als auch Interlaced-Bilddarstellungen unterst¨utzt. Das ChrominanzSubsampling 4:2:0 tastet den Farbanteil horizontal wie vertikal mit der halben Aufl¨osung bezogen auf den Helligkeitsanteil ab. Zus¨atzlich zu den von MPEG2 angebotenen M¨oglichkeiten der Enkodierung von Bl¨ocken ( zig zag encoding“ ” und alternate vertical“) bietet MPEG-4 noch eine alternate horizontal“ Enkodie” ” rungsreihenfolge f¨ur die Frequenzanteile eines Bildblockes an und damit weiteres Einsparungspotenzial bei der anschließenden Laufl¨angenkodierung der Einzelbilder.
4.6 Video und Animation - Datenformate und Komprimierung
285
Audiovisuelle Ein-/Ausgabe Composer/Decomposer
Sync Layer
Codec
Codec
Codec
Transform
Codec
Codec
Sync
Sync
Sync
Sync
Sync
Sync
DMIF Layer
Elementary Streams
Packetized Streams
FlexMux
TransMux Transport
Abb. 4.68 Datenfluss im MPEG4-Encoder/Decoder
MPEG-4 wurde f¨ur drei verschiedene Teilbereiche bzgl. der zur Verf¨ugung stehenden Bandbreite optimiert: die Bereiche unter 64 kbps, 64–384 kbps und 384 kbps 4 Mbps, wobei auch noch h¨ohere Bitraten unterst¨utzt werden (siehe Tabelle 4.12). Insbesondere bezogen auf Anwendungen im Bereich der Mobilkommunikation sind die Fehler-Toleranz-Eigenschaften von MPEG-4 von besonderer Bedeutung. Zum einen werden Resynchronisationsmarken mit in den u¨ bertragenen Datenstrom auf¨ genommen. So werden im Falle eines aufgetretenen Ubertragungsfehlers die nachfolgenden Daten im Datenstrom solange ignoriert, bis erneut eine Resynchronisationsmarke folgt. Im Unterschied zu MPEG-2 ist die Zahl der komprimierten Bits zwischen zwei Resynchronisationsmarkierungen weitgehend konstant. Zus¨atzlich
Tabelle 4.12 MPEG-4 Video-Profile und -Level Profil und Level
Typische Bildgr¨ oße
Bitrate
Max. Anzahl Objekte
Anzahl Makrobl¨ ocke
Simple Profile L1 L2 L3
QCIF CIF CIF
64 kbps 128 kbps 384 kbps
4 4 4
198 792 792
Core Profile
L1 L2 L3
QCIF CIF CIF
384 kbps 2 Mbps 2 Mbps
4 16 16
594 2.376 2.376
Main Profile
L2 L3 L4
CIF CCIR 601 1.920×1.088
2 Mbps 15 Mbps 38,4 Mbps
16 32 32
2.376 9.720 43.960
286
4 Multimediale Daten und ihre Kodierung
werden Datenstr¨ome voneinander getrennt, die unterschiedliche Fehlersensitivit¨at besitzen. So werden in MPEG-4 etwa Texturen- und Bewegungskompensationsdatenstr¨ome separiert. Da dem Betrachter eventuelle Fehler in den Texturen nicht so sehr ins Auge fallen, wie Fehler in der Bewegungsdarstellung, k¨onnen die fehlersensitiveren Daten mit zus¨atzlichen, verst¨arkten Fehlerkorrekturmechanismen ausgestattet und u¨ bertragen werden. Mit MPEG-4 AVC (Advanced Video Codec, MPEG-4 Part 10) beinhaltet der MPEG-4 Standard jetzt eine a¨ ußerst effiziente Videokodierungskomponente, die identisch zu ITU H.264 ist und im Vergleich zu MPEG-2 bei gleicher Bildqualit¨at nur etwa die H¨alfte an Bandbreite bzw. Speicherplatz ben¨otigt. HDTV Satelliten¨ubertragung, DSL-basierte Video-Services, Video¨ubertragung zu mobilen Endger¨aten, wie z.B. DVB-H, die DVD-Nachfolger HD-DVD oder aber auch Videospielkonsolen nutzen bereits heute MPEG-4 AVC. L¨asst eine beschr¨ankte Verarbeitungskapazit¨at auf mobilen Endger¨aten die Nutzung des MPEG-4 AVC Codecs nicht zu, k¨onnen Codecs der einfacheren MPEG-4 Simple oder MPEG-4 Advanced Simple Profile (MPEG-4 SP/ASP, MPEG-4 Part 2) genutzt werden. Zur Unterst¨utzung der bereits beschriebenen objektbasierten Kodierung von Videoinhalten k¨onnen Videoobjekte beliebige Formen und Umrisse annehmen, um zusammen mit weiteren Objekten zu einer Szene zusammengestellt zu werden. Die jeweilige Form des Videoobjekts kann als bin¨are bzw. als 8-Bit Transparenz-Maske kodiert werden (Shape Coding). Eine weitere Neuerung betrifft die Bildkodierung mit Hilfe statischer Sprites (Sprite Coding). Zu diesem Zweck wird eine Szene in Vordergrund und Hintergrund zerlegt. Der Hintergrund wird als großes Panoramabild erstellt. Mit Hilfe von Bewegungs- und Skalierungsvektoren (Translation, Rotation, Skalierung) l¨asst sich jede Kamerabewegung vor diesem Hintergrund beschreiben. Dabei wird jeweils eine Transformation des Hintergrunds berechnet, die der jeweiligen Kameraposition entspricht. Nur die Objekte, die sich im Vordergrund der Szene bewegen, m¨ussen zusammen mit der jeweiligen Kameraposition kodiert werden. Das Hintergrundbild wird lediglich einmal am Anfang der Szene bzw. schrittweise nach Bedarf (progressiv) kodiert und u¨ bertragen (siehe Abb. 4.69). Im Gegensatz zu den Vorg¨angerstandards MPEG-1 und MPEG-2 bietet MPEG4 verschiedenartige M¨oglichkeiten zur Nutzerinteraktion. Generell unterscheidet man Client-seitige und Server-seitige Interaktionsm¨oglichkeiten. Bei der Clientseitigen Interaktion werden Ver¨anderungen der Eigenschaften eines oder mehrerer Medienobjekte einer MPEG-4 Szene nur lokal, beim Client vorgenommen. Dabei werden lediglich Attributwerte der entsprechenden Objekte innerhalb des Graphen der Szenenbeschreibung modifiziert, wenn der Benutzer mit Hilfe der Maus oder der Tastatur bestimmte Ereignisse ausl¨ost. Inwieweit dabei Ver¨anderungen an der Szene vorgenommen werden k¨onnen, liegt im Ermessen des Autors. Bei Server-seitiger Interaktion dagegen m¨ussen alle durch den Benutzer ausgel¨osten Ver¨anderungen an den Server weitergeleitet werden. Dies erfordert in erster Linie einen R¨uckkanal, der z.B. bei satellitengest¨utztem digitalen Fernsehen (DVBS) u¨ ber Telefon erfolgen kann. Ein einfaches Beispiel f¨ur eine Server-seitige Interaktion w¨are der Wechsel der gew¨ahlten Sprachwiedergabe. Komplexere Interaktionen sind dagegen mit einer Ver¨anderung des Betrachtungsstandpunktes einer Szene
4.6 Video und Animation - Datenformate und Komprimierung
Hintergrund
287
Objekt im Vordergrund
zusammengesetzte Szene
Abb. 4.69 Zusammensetzen einer MPEG-4 Szene aus Hintergrundbild und bewegtem Vordergrundobjekt
verbunden, die Auswirkungen sowohl auf einzelne Video- als auch auf Audiokomponenten haben kann.
4.6.8 MPEG-7 Standard MPEG-75 ist ein im Jahr 2002 verabschiedeter ISO Standard (ISO/IEC 15938) und folgt dem in MPEG-4 bereits eingeschlagenen Trend, neben den Komprimierungskomponenten erh¨ohten Wert auf Einbeziehung von Metadaten und Funktionalit¨at in die Kodierung zu legen. Im Gegensatz zu MPEG-4 bietet MPEG-7 deshalb eine vollst¨andige Multimedia-Beschreibungs-Schnittstelle (Multimedia Content Description Interface), die dazu dient, kodierte multimediale Daten computerbasierten 5
Die Nummerierung der MPEG-Standards erfolgt nicht fortlaufend. Zur Namensgebung der MPEG-Standards siehe auch Abb. 4.72.
288
4 Multimediale Daten und ihre Kodierung
Hauptbestandteile des MPEG-4 Videokomprimierungs-Standards: Kodierung visueller Objekte Aufbauend auf MPEG-1 und MPEG-2 besitzt MPEG-4 gr¨ oßere Flexibit¨ at in der LowLevel Videokomprimierung und verf¨ ugt u atzliche Mechanismen zur Zusammen¨ber zus¨ stellung vorhandener und Erzeugung neuer graphischer Bildbestandteile. Der Kern der in MPEG-4 beschriebenen Komprimierungsalgorithmen zielt auf die Unterst¨ utzung von Video¨ ubertragungen bei sehr niedrigen Bandbreiten. Folgende zus¨ atzlichen Merkmale bietet MPEG-4 im Unterschied zu seinen Vorg¨ angern:
• • • • • • •
inhaltsbasierte Bewegungskompensation, globale Bewegungskompensation mit affinen Transformationen, Bewegungskompensation mit dynamischen und statischen Sprites, Komprimierung von Texturen, Texture Mapping auf 2D- und 3D-Drahtgittermodellen, Komprimierung von geschlossenen 2D-Drahtgittermodellen, Komprimierungsalgorithmen skalierbar nach – – – –
inhaltsbasierten, zeitlichen, r¨ aumlichen und qualitativen Kriterien.
Kodierung von Audio-Objekten Speziell werden hier Komprimierungsverfahren f¨ ur sehr niedrige Bandbreiten ber¨ ucksichtigt, sowie die synthetische Erzeugung von Kl¨ angen und Sprache. F¨ ur nat¨ urliche Soundquellen werden drei verschiedene Komprimierungsvarianten entsprechend der zur Verf¨ ugung stehenden Bandbreite unterst¨ utzt:
• parametrische Sprachkodierung bei einer Samplingrate von 8 kHz f¨ ur 2–6 kbps, • ein f¨ ur Sprache optimierter linearer Vorhersagealgorithmus bei 8 kHz bzw. 16 kHz Samplingrate f¨ ur 6–24 kbps, • ab 16 kbps unterst¨ utzt MPEG-4 die AAC-Komprimierung (siehe MPEG-2 AAC) f¨ ur qualitativ hochwertige Audiokomprimierung. Szenenbeschreibung und Nutzer Interaktion Hierunter fallen Werkzeuge f¨ ur die - auch nutzerbasierte - hierarchische Beschreibung einer Szene und ihrer einzelnen Elemente. In der obersten Ebene der Hierarchie wird ein globales Koordinatensystem definiert. Jeder in der Hierarchie darunter stehende Knoten definiert sein eigenes lokales Koordinatensystem, dessen Ursprung sich innerhalb des globalen Koordinatensystems in einem zeitlichen Rahmen ver¨ andern kann. MPEG-4 bietet die M¨ oglichkeit, einzelne Objekte einer Szene zu ver¨ andern, hinzuzuf¨ ugen oder auch zu l¨ oschen. Die Szenenbeschreibung in MPEG-4 baut auf den Konzepten der Virtual Reality Modeling Language (VRML) auf.
Abb. 4.70 Hauptbestandteile des MPEG-4 Standards (Teil 1)
4.6 Video und Animation - Datenformate und Komprimierung
289
Hauptbestandteile des MPEG-4 Videokomprimierungs-Standards (Teil 2): Szenenbeschreibung und Nutzer Interaktion (2) Entsprechend der Freiheit, die der Autor einer Szene dem Benutzer einr¨ aumt, kann dieser mit den verschiedenen Objekten der Szene interagieren, z.B. kann er
• • • •
den Blickpunkt des Betrachters auf eine Szene ver¨ andern, Objekte innerhalb einer Szene verschieben, Ereignisse durch bestimmte Aktionen anstoßen oder eine bestimmte Sprache bei mehrsprachigen Angeboten ausw¨ ahlen.
Systembezogene Anwendungen Hierzu z¨ ahlen eine Reihe von Kommunikationsprotokollen, mit denen MPEG-4 Anwendungen, die verteilt vorliegen k¨ onnen, zu steuern und zu synchronisieren sind. Zu l¨ osen sind dabei Aufgaben, wie z.B.:
• Multiplexing und Demultiplexing der Datenstr¨ ome, • Puffer Management und • zeitliche Synchronisation der Datenstr¨ ome. MPEG-4 Datenstr¨ ome m¨ ussen mit zus¨ atzlichen Angaben f¨ ur die notwendigen DekoderRessourcen.,wie etwa Bildgr¨ oße, notwendiger Pufferspeicher oder erwartete Dienstqualit¨ at (Quality of Service) ausgestattet werden. Weiterf¨ uhrende Literatur: Koenen, R.: Overview of the MPEG-4 Standard. International Organization for Standardization, ISO/IEC JTC1/SC29/WG11 N2323, Coding of Moving Pictures and Audio, Geneva, Switzerland (2002)
Abb. 4.71 Hauptbestandteile des MPEG-4 Standards (Teil 2)
Suchfunktionen zug¨anglich zu machen. Zu den Hauptanwendungen von MPEG-7 z¨ahlen • • • • • •
inhaltsbasierte Suche und Suchabfragen, automatisch zu erstellende Inhaltsangaben von Video- und Audiosequenzen, beschleunigtes Abrufen und Auswerten von WWW-Seiten, personalisierte News-Dienste im Internet, intelligente Multimedia-Pr¨asentationen und ¨ Uberwachungsaufgaben.
W¨ahrend MPEG-1, MPEG-2 und MPEG-4 lediglich audiovisuelle Medieninhalte effizient kodieren, erm¨oglicht die Beschreibung der Medieninhalte u¨ ber MPEG-7 deren Auffinden mit Hilfe von automatisierten Retrievalmechanismen. Da die zur Verf¨ugung stehende Menge an audiovisueller Information stetig anw¨achst und bereits ein nicht mehr u¨ berschaubares Ausmaß angenommen hat, wurde die Nachfrage nach einer leistungsf¨ahigen und standardisierten Multimedia BeschreibungsSchnittstelle wie MPEG-7 immer gr¨oßer. Der Anwender will audiovisuelle Information auf unterschiedlichste Art und Weise nutzen, doch dazu muss er diese erst einmal durchsuchen und die gew¨unschten Resultate finden k¨onnen. Multimediales Retrieval unterscheidet sich dabei wesentlich
290
4 Multimediale Daten und ihre Kodierung
Namensgebung der MPEG-Standards Die Namensgebung der von der MPEG-Gruppe herausgegebenen Multimedia-Standards sorgt ¨ ofters f¨ ur einige Verwirrung, da die Nummerierung (MPEG-1/-2/-4/-7/-21) nicht inkrementell fortlaufend erfolgte. So wurde in der Reihenfolge der MPEG Standards der urspr¨ unglich als geplante MPEG-3 Standard fallengelassen, da dessen Funktionalit¨ at bereits in MPEG-2 integriert wurde. Die MPEG-Gruppe beschloss daher, den Nachfolgestandard f¨ ur MPEG-4 weder die Folgeziffern (1,2,4,5) noch die bin¨ are Folge (1,2,4,8) heranzuziehen, sondern einigte sich f¨ ur den n¨ achsten Standard auf die Ziffer 7. Damit sollte klargestellt werden, dass sich der als MPEG-7 bezeichnete Standard grundlegend von den Vorg¨ angerstandards unterscheidet. Im Gegensatz zu MPEG-1/-2/-4 spezifiziert MPEG-7 keine Videokomprimierungstechnologien, sondern definiert einen Metadatenstandard, mit dessen Hilfe strukturelle und inhaltliche Aspekte der damit beschriebenen Multimediaobjekte umfassend beschrieben werden k¨ onnen. Um die Verwirrung um die Namensgebung der einzelnen MPEG-Standards zu vervollst¨ andigen, bekam der auf MPEG-7 folgende Standard, der in einem Rundumschlag den Rahmen f¨ ur eine komplette Multimedia-Infrastruktur bilden sollte, die Nummer 21. MPEG-21 spezifiziert Metadaten zur Beschreibung von Infrastrukturinformationen zur Erzeugung, Produktion, Freigabe und Handel mit multimedialen Inhalten. Bei den nachfolgenden von der MPEG-Gruppe herausgegebenen, erg¨ anzenden Standards (MPEG-A/-B/-C/-D/-E), an denen aktuell noch gearbeitet wird, wurde von einer Nummerierung abgesehen und stattdessen eine Kennzeichnung u ¨ber alphabetisch fortlaufende Buchstaben vorgesehen. Name MPEG-1 MPEG-2 MPEG-4 MPEG-7 MPEG-21 MPEG-A MPEG-B MPEG-C MPEG-D MPEG-E
Erscheinungsjahr Inhalt 1993 1994/1995 1998–2001 2002 2004/2005 2004 2005 2005 2005 2005
Video- und Audiokomprimierung, u.a. f¨ ur Video-CD Video- und Audiokomprimierung, u.a. f¨ ur DVD und DVB verbesserte Video- und Audiokomprimierung Multimedia Metadaten Multimedia Framework Multimedia Application Format MPEG Systems Technologies MPEG Video Technologies MPEG Audio Technologies Multimedia Middleware
Weiterf¨ uhrende Informationen: MPEG-Homepage: http://www.chiariglione.org/mpeg/
Abb. 4.72 MPEG Namensgebung
von den Anforderungen des traditionellen Textretrievals, was anhand der folgenden, dann zu l¨osenden Aufgabenstellungen deutlich wird: • Musik: Durch das Anspielen einiger Noten mit Hilfe eines Keyboards wird eine Suchabfrage ausgel¨ost, die als Ergebnis eine Liste von Musikst¨ucken liefert, die die angespielte Melodie (auch in unterschiedlichen Tempi oder Tonlagen) beinhalten.
4.6 Video und Animation - Datenformate und Komprimierung
Multimedia Inhalte
291
„Was wird beschrieben?“
Metadaten
MPEG-7 MPEG-1 MPEG-2 MPEG-4
Titel, Autor, Zeitangaben, Dialog, Thumbnails, etc.
„Wie können Inhalte genutzt werden?“
Rechte, Infrastruktur Video, Audio, Grafik, Interaktivität
MPEG-21 Digital Item Identification, Rights Expression Language
¨ Abb. 4.73 Uberblick u¨ ber die verschiedenen MPEG-Standards
• Grafik: Durch das Zeichnen einiger Linien am Bildschirm wird eine Suchabfrage ausgel¨ost, die als Ergebnis eine Reihe von Bildern zur¨uckgibt, die a¨ hnliche Grafiken, Logos oder Ideogramme enthalten. • Bilder: Durch die Definition von Grafik-Objekten, die bestimmte Farbbereiche oder Texturen enthalten, werden auf entsprechende Suchabfragen Beispiele zur¨uckgegeben, aus denen der Benutzer Komponenten ausw¨ahlen kann, um ein eigenes Bild zu erg¨anzen. • Bewegung: Basierend auf einer vorgegebenen Menge von Objekten k¨onnen Bewegungen oder Beziehungen zwischen einzelnen Objekten formuliert werden. Auf eine entsprechende Suchabfrage wird eine Liste von Animationen ausgegeben, die die geforderten zeitlichen und r¨aumlichen Beziehungen aufweisen. • Szenarien: Bzgl. eines vorgegebenen Inhalts k¨onnen Aktionen beschrieben werden, aus denen eine Suchabfrage formuliert wird, die als Ergebnis eine Liste von passenden Szenarien ausgibt, in denen a¨ hnliche Aktionen auftreten. • Stimme: Basierend auf einem Stimmbeispiel eines Interpreten wird eine Suchabfrage formuliert, die als Ergebnis eine Liste von Audio- oder Videoaufnahmen des betreffenden Interpreten beinhalten. Hierbei ist es die Aufgabe der jeweiligen Suchmaschine, aus den gegebenen Beispielen die passende Suchabfrage zu formulieren. Dabei helfen in erster Linie Metadaten, d.h. Daten, die den Inhalt der Multimediadaten beschreiben. Metadaten k¨onnen auf analytischem Wege automatisch erzeugt oder manuell durch den Autor oder die Benutzer (Social Tagging) erg¨anzt werden.
292
4 Multimediale Daten und ihre Kodierung
MPEG-7 ist eine XML-basierte Markupsprache zur Beschreibung und Annotation von multimedialen Daten. Zu diesem Zweck definiert der MPEG-7 Standard eine Vielzahl von Deskriptoren mit der die verschiedenen Arten von MultimediaInhalten beschrieben werden k¨onnen. Zusammen mit sogenannten Schemata (Description Scheme), die vorgeben, wie neue Deskriptoren zu behandeln sind, und einer Beschreibungssprache (Description Definition Language, DDL), mit der die Beziehungen der einzelnen Deskriptoren untereinander beschrieben werden k¨onnen, soll ein hoher Grad an Verst¨andnis“ f¨ur automatisierte Verfahren gewon” nen werden. MPEG-7 stellt unter anderem Metadaten Schemata f¨ur die folgenden Aufgaben zur Verf¨ugung: • • • • •
Management der Erzeugung, Produktion und Nutzung von Inhalten, Beschreibung von Inhalten in struktureller und semantischer Hinsicht, Organisation von Inhalten, benutzerspezifische Daten, wie z.B. Benutzerprofile und Aspekte des Zugriffs auf die multimedialen Daten, wie z.B. unterschiedliche Ansichten und Zusammenfassungen.
AV-Inhalt
AV-Metadaten
Feature Extraktion Manuell / Automatisch
Medienaufbereitung Enkodierung
Speicher
AV-Metadaten
Transmission Dekodierung
Search Query Browse Filter
Mediennutzung
Abb. 4.74 MPEG-7 Architekturbeispiel
MPEG-7 Deskriptoren enthalten einerseits Informationen u¨ ber den Medieninhalt, wie z.B. Aufnahmedatum und -bedingungen, Titel, Autor, Copyright-Informationen,
4.6 Video und Animation - Datenformate und Komprimierung
293
Kodierungsinformationen und Klassifikationen, und auf der anderen Seite Informationen, die den Inhalt kennzeichnen. Zur Erstellung eines Deskriptors muss aus dem Medieninhalt die notwendige Beschreibungsinformation gezogen werden, was manuell oder teilweise auch automatisiert erfolgen kann. Der Deskriptor wird dann zusammen mit dem Medieninhalt abgespeichert (siehe Abb. 4.74). So kann der Benutzer den Deskriptor sp¨ater zur Suche, zum gezielten Zugriff oder auch als Ausgangspunkt f¨ur Filterfunktionen nutzen. MPEG-7-Metadaten werden in Form eines oder mehrerer XML-Dokumente gespeichert. Neben der XML-Repr¨asentation der MPEG-7-Daten, die durch mehrere komplexe XML-Schemata festgelegt ist, existiert auch eine speicherplatzoptimier¨ te bin¨are Kodierung. Uber die Description Definition Language (DDL) k¨onnen Deskriptoren und Deskriptoren Schemata definiert und erweitert werden. Abb. 4.75 zeigt ein Beispiel f¨ur MPEG-7-kodierte Metadaten. Darin werden den einzelnen Abschnitten eines Videodatenstroms (
) an bestimmten Zeitpunkten (MediaTimePoint) textuelle Metadaten zugeordnet, wie z.B. inhaltsbezogene Schl¨usselw¨orter (KeywordAnnotation).
4.6.9 MPEG-21 Standard MPEG-216 ist als gemeinsames Dach f¨ur die bisher geschaffenen Standards MPEG1, MPEG-2, MPEG-4 und MPEG-7 konzipiert. Wie schon bei MPEG-7 ist der Kern des teilweise noch in der Definitionsphase befindlichen MPEG-21 Standards (ISO/IEC 21000) eine Multimedia-Beschreibungssprache nun allerdings mit der erweiterten Zielsetzung, nicht nur den Inhalt, sondern die komplette Infrastruktur, also alle beteiligte Elemente, die im Prozess der Verf¨ugbarmachung und des Konsums von multimedialen Inhalten beteiligt sind, zusammenzufassen und zu beschreiben, und damit deren Nutzung transparent zu machen. Dabei geht es auch darum, die unterschiedlichen Typen von Medieninhalten in heterogenen Netzwerken und auf den unterschiedlichen Endger¨aten darzustellen und eine weitgehend automatische Interoperabilit¨at zu schaffen. Von entscheidender Bedeutung dabei ist, • zu verstehen, wie die einzelnen beteiligten Elemente ineinandergreifen und zusammenspielen, • festzustellen, welche neuen Standards ben¨otigt werden, falls sich L¨ucken in der Beschreibung der Infrastruktur finden und • die Integration einer Vielzahl unterschiedlichster Standards zu bewerkstelligen. Schl¨usselelemente des neuen Standards sind der Nutzer (User) und der sogenannte digitale Gegenstand (Digital Item). Unter einem Digital Item ist ein wohlstrukturiertes digitales Objekt zu verstehen, f¨ur das der MPEG-21 Standard eine entsprechende Repr¨asentation, Identifikation und zus¨atzliche Metadaten bereitstellt. D.h. ein Digital Item setzt sich zusammen aus einer bestimmten Ressource, zugeh¨origen 6
Die Nummerierung der MPEG-Standards erfolgt nicht fortlaufend. Zur Namensgebung der MPEG-Standards siehe auch Abb. 4.72.
294
4 Multimediale Daten und ihre Kodierung
MPEG-7 Metadaten Beispiel f¨ ur ein Videosegment
<Mpeg7 xmlns="..."> ... <MultimediaContent xsi:type="VideoType"> Abb. 4.75 Beispiel f¨ur MPEG-7 Metadaten eines Videosegments
Metadaten, die diese Ressource beschreiben, und Strukturinformation, die besagt, wie sich die einzelnen Teile dieser Ressource zueinander verhalten. Das Digital Item ist die fundamentale Einheit in den MPEG-21 Medienmodellen. Als User wird bezeichnet, wer mit der MPEG-21 Infrastruktur interagiert oder Digital Items benutzt. User k¨onnen dabei sowohl Einzelpersonen sein, als auch ganze Organisationen, Gesellschaften oder sogar Regierungen. Die User treten dabei jeweils in unterschiedlichen Rollen auf, wie z.B. in der Rolle des Anbieters, des Konsumenten, des Autors oder des Verteilers. Jeder User besitzt gem¨aß seiner Rolle spezifische Rechte und tr¨agt Verantwortung im Prozess der Interaktion mit anderen Usern. Um den neuen MPEG-21 Standard m¨oglichst effizient umzusetzen, arbeitet die MPEG-Gruppe mit 25 anderen Standardisierungsorganisationen in- und außerhalb der ISO zusammen, mit dem Ziel, eine m¨oglichst große Interoperabilit¨at zu errei-
4.6 Video und Animation - Datenformate und Komprimierung
295
MPEG-21 Architekturelemente:
• Digital Item Declaration: Eine weltweit eindeutige und persistente Identifizierung von Digital Items nach dem syntaktischen Schema einer URI mit der M¨ oglichkeit, den Digital Items Anmerkungen in Form von auf XML basierenden Metadaten hinzuzuf¨ ugen (Digital Item Declaration Language, DIDL). • Digital Items Representation: MPEG-21 stellt die zur effizienten Darstellung jeglichen Multimedia-Inhalts notwendige Technologie zur Verf¨ ugung. Dies schließt s¨ amtliche relevanten Datentypen ein, die sowohl realen oder auch synthetischen Ursprungs sein k¨ onnen, und umfasst außerdem noch die F¨ ahigkeit zur Skalierbarkeit und Fehlertoleranz. • Digital Item Identification and Description: Ein standardisiertes System zur Identifikation und Beschreibung von Digital Items. Dies beinhaltet eine Beschreibung des Inhalts der allen unterschiedlichen Arten von Nutzern gerecht wird, also z.B. dem Autor, dem Produzenten, dem Anwendungsentwickler und dem Benutzer. Wichtig dabei ist, dass eine Persistenz der Digital Items gew¨ ahrleistet wird. • Content Management and Usage: Hierunter f¨ allt das Design von Schnittstellen und Protokollen f¨ ur den Zugriff auf MPEG-21 Digital Items. Dabei sollen Suchfunktionen von Agenten unterst¨ utzt und Inhalte katalogisiert und archiviert werden bei gleichzeitiger Verwaltung der jeweiligen Nutzungsrechte. Insbesondere sollen Kopien digitaler Inhalte identifiziert und entsprechende Nutzungsrechte mitverwaltet werden. Nutzern soll es dabei m¨ oglich sein, eigene Beschreibungsinformation oder Kommentare mit den vorgegebenen Inhalten zu verkn¨ upfen. • Intellectual Property Management and Protection: Geistiges Eigentum soll gewahrt werden. Dies ist in Zeiten ubiquit¨ ar verf¨ ugbarer Information von besonderer Bedeutung, wie z.B. die Diskussion um MP3-Tauschb¨ orsen im Internet zeigt. Gesch¨ utzte Informationen besitzen einen besonderen Wert, da sie nur von denen abgegriffen werden k¨ onnen sollen, die das Recht dazu erworben haben. Hierzu definiert der MPEG-21 Standard einen eigenen Sprachstandard, die Rights Expression Language, mit der sich die entsprechenden Zugriffsrechte effizient verwalten lassen. • Terminals and Networks: Mit dem Ziel, die Zahl der Nutzereingriffe z.B. bei Upgrades oder Erweiterungen bestehender Installationen zu minimieren und den vorhandenen Anwendungen Stabilit¨ at zu verleihen, werden Protokoll-Schnittstellen definiert, die diese Management-Aufgaben weitgehend selbst¨ andig u ¨bernehmen. • Event Reporting: Standards werden festgesetzt, die Metriken und Schnittstellen definieren, mit denen Leistungsdaten und andere festzuhaltende Ereignisse erfasst werden und die den Zugriff und die Auswertung dieser Daten unterst¨ utzen. Abb. 4.76 Die sieben MPEG-21 Architekturelemente Tabelle 4.13 Bezugsrahmen der einzelnen MPEG Standards Standard
Bezugsrahmen
MPEG-1,2,4 Kodierung von audiovisuellen Inhalten MPEG-7 Definition von Metadaten zur Beschreibung multimedialer Inhalte MPEG-21 Bereitstellung eines kompletten Frameworks zur Konzeption, Produktion, Bereitstellung und Vermarktung von multimedialen Inhalten. Innerhalb dieses Frameworks k¨ onnen die u ¨brigen MPEG Standards genutzt werden.
296
4 Multimediale Daten und ihre Kodierung
¨ chen und eine Uberschneidung mit konkurrierenden parallelen Aktivit¨aten zu vermeiden. Exkurs 13: Andere Videodatenformate und -komprimierungsverfahren H.261, H.263 und H.264 Aus dem CCIR/ITU-R BT.601 Standard gingen zwei weitere Videokodierungsformate hervor, H.261 und H.263. Der H.261 Standard wurde 1990 verabschiedet und gilt als erster praktisch nutzbarer Standard zur Videokodierung. H.261 dient in erster Linie zur Realisierung von Videokonferenzen und Bildtelefonie u offentliche ISDN-Netzwerk mittels ¨ber das ¨ Kanalb¨ undelung, d.h. mehrere ISDN-Leitungen werden zu diesem Zweck parallel betrieben, so dass Daten¨ ubertragungsraten von ganzzahligen Vielfachen der ISDN Basisdaten¨ ubertragungsrate von 64 kbps m¨ oglich werden. Dabei ist f¨ ur die Bildtelefonie eine Daten¨ ubertragungsrate von 2×64 kbps und f¨ ur Videokonferenzen eine Daten¨ ubertragungsrate von mindestens 6×64 kbps vorgesehen. Die Komprimierung in H.261 ist an die JPEG Einzelbildkomprimierung angelehnt (DCT) mit einer zus¨ atzlichen, zeitlichen Bewegungsvorhersage. Eine ¨ Bildsequenz wird zur Ubertragung in vier einzelne Schichten unterteilt (Einzelbild, Blockgruppe, Makroblock und Block), die im Multiplexverfahren jeweils mit einem eigenen Header versehen gesendet werden. Das zugeh¨ orige Basisbildformat f¨ ur H.261 ist das CIF-Format mit 352×288 Bildpunkten bzw. das QCIF-Format mit 176×144 Bildpunkten, verbunden mit einem 4:2:0 oder 4:1:1 Farbsubsampling. H.261 ist als Datenformat weniger flexibel als vergleichsweise MPEG, aber dadurch auch leichter implementierbar. H.261 diente als Ausgangspunkt f¨ ur die Entwicklung von MPEG-1 und weiteren Videokodierungsstandards. Allerdings ist H261 nicht f¨ ur den Einsatz in paketvermittelten Netzwerken (TCP/IP) u ¨ber Video-Streaming geeignet. H.263 ist ein 1996 verabschiedeter Videokodierungsstandard, der speziell f¨ ur die Daten¨ uber¨ tragung bei niedrigen Ubertragungsraten (≤ 64 kbps) vorgesehen ist, und dort eine bessere Qualit¨ at als H.261 oder MPEG-1 erreicht. Das Verfahren ist effizienter und flexibler als das altere H.261. Im Gegensatz zu MPEG werden zur Komprimierung zus¨ atzliche Bewegungs¨ kompensationsverfahren mit einer Genauigkeit von einem halben Pixel eingesetzt, anstelle der Huffman-Kodierung ist auch eine oftmals effizientere arithmetische Kodierung m¨ oglich, und anstelle Bewegungskompensation auf Makrobl¨ ocken von 16×16 Pixeln anzuwenden, nutzt H.263 jeweils 4 8×8 Bl¨ ocke, die sich zus¨ atzlich noch u onnen. Verwen¨berlappen k¨ dete Bewegungsvektoren k¨ onnen ihren Ursprung auch außerhalb des dargestellten Bildes haben, was eine effizientere und flexiblere Komprimierung erlaubt. An Bildformaten werden von H.263 CIF, QCIF, 4CIF (704x576 Bildpunkte) und 16CIF (1408x1152 Bildpunkte) unterst¨ utzt. Als Erweiterung des H.263 Standards wurde zus¨ atzlich der Standard H.263+ vorgeschlagen, der neben weiteren Verbesserungen der Komprimierung auch eine zeitliche und r¨ aumliche Skalierbarkeit der kodierten Videodaten gestattet. H.264 ist der aus dem H.263 hervorgegangene Videokompressionsstandard, der auch als MPEG-4 AVC (MPEG-4 Part 10) in den MPEG-Standard u ¨bernommen wurde. Ziel der Entwicklung von H.264 war die Unterst¨ utzung qualitativ hochwertiger Videokodierung bei im Vergleich zu existierenden Kompressionsstandards geringeren Daten¨ ubertragungsraten. Die Qualit¨ at der Bewegungsvorhersage wurde verbessert, indem H.264 bis zu 16 Referenzbilder (und einzeln gewichtete Bewegungsvektoren) erlaubt, im Gegensatz zu den bislang u ¨blichen Einzelbildreferenzen (P-Frame) oder den vorw¨ arts und r¨ uckw¨ arts gerichtete Referenzbildern (B-Frame). Ebenfalls kann die bei der Bewegungsvorhersage verwendete Blockgr¨ oße zwischen 16x16 und 4x4 Bildpunkten variieren. Die Genauigkeit der Bewegungsvorhersage wurde dabei auf einen Viertel-Pixel versch¨ arft. Damit k¨ onnen insbesondere r¨ aumlich scharf abgegrenzte und komplexe Bewegungen effizienter kodiert werden. Die Kodierung von Einzelbildern wird durch r¨ aumliche Pr¨ adiktion basierend auf den R¨ andern benachbarter Bildbl¨ ocke verbessert.
4.6 Video und Animation - Datenformate und Komprimierung
297
Anstelle einer Diskreten Kosinustransformation (DCT) auf 8x8-Pixel großen Bl¨ ocken wird eine davon abgeleitete Integertransformation auf kleineren 4x4-Pixel-Bl¨ ocken verwendet, die sich lediglich mit Hilfe von Additionen, Subtraktionen und bin¨ aren Verschiebeoperationen berechnen l¨ asst. Die verminderte Blockgr¨ oße reduziert zus¨ atzlich das Auftreten von Kompressionsartefakten. Zus¨ atzlich wurde eine Reihe von Ausgabeprofilen festgelegt, die einen Dynamikumfang von bis zu 14 Bit pro Kanal (gegen¨ uber den heute u ¨blichen 8 Bit) zulassen. Zur Anwendung kommt H.264 heute in zahlreichen Video-Codecs, wie z.B. als H.264/AVC High Profile in den Nachfolgeentwicklungen zum DVD-Standard, der Blue-ray Disc, der HD DVD oder auch im hochaufl¨ osenden digitalen Fernsehen (DVB). AVI, ASF und WMF Das als Audio Video Interleave (AVI) bezeichnete Videokodierungsformat wurde von der Firma Microsoft entwickelt und stellt im Gegensatz zu MPEG ein propriet¨ ares Datenformat dar. Die Anwendung von AVI ist daher in der Regel auf MS-Windows-basierte Systeme beschr¨ ankt. Ebenso wie das von Microsoft verwendete Audioformat WAV ist AVI ein Spezialfall des Microsoft RIFF Formats (Resource Interchange File Format). AVI ist in der Lage, Videodaten verlustfrei oder auch verlustbehaftet zu kodieren, erreicht aber in seiner propriet¨ aren Form nicht die Leistungskennziffern der MPEG Komprimierung. AVI dient heute haupts¨ achlich der lokalen Videobearbeitung, da es eine Einzelbild-genaue Synchronisation von Audio- und Videoinformation erlaubt. Bilder und Gruppen von Tonsamples sind in AVI segmentorientiert abgelegt, wobei eine AVI-Datei mehrere unabh¨ angige, komprimierte und unkomprimierte Videodaten enthalten kann. In einem Dateiheader werden neben Informationen u ¨ber Dauer und Eigenschaften der Videoinformation auch Daten zum verwendeten Video-Codec mit angegeben, so dass die in der AVI-Datei vorliegenden Daten auch korrekt wiedergegeben werden k¨ onnen. AVI soll durch das als Advanced Streaming Format (ASF) bezeichnete Dateiformat der Multimedia-Architektur Windows Media Technologies (WMT) abgel¨ ost werden. ASF dient dabei als eine Art Container, der in der Lage ist, auf unterschiedliche Art und Weise kodierte multimediale Information aufzunehmen, diese zu synchronisieren und speziell auch im Streamingverfahren zu u utzt ¨bertragen. ASF unterst¨ eine Vielzahl multimedialer Datentypen und bietet Raum f¨ ur eigenst¨ andige Erweiterungen, Skalierbarkeit und Metainformationen. Zusammen mit der Multimedia-Architektur WMT wurde auch das Dateiformat Windows Media Format (WMF) eingef¨ uhrt, das sich allerdings bis auf einen Suchindex am Anfang der Datei vom ASF-Format nicht unterscheidet. QuickTime Movie Quicktime Movie wurde als Video-Datenformat f¨ ur das Betriebssystem MacOS 6 der Firma Apple f¨ ur Macintosh Personal Computer als Multimediaerweiterung entwickelt und sollte zun¨ achst die Aufgabe erf¨ ullen, Video-, Audio- und Textinformationen in einer einzigen ¨ Datei gemeinsam und synchronisierbar abzulegen. Uber die Jahre entwickelte sich QuickTime Dank der zahlreichen Erweiterungen f¨ ur unterschiedliche Medienformate, wie etwa der Unterst¨ utzung f¨ ur MPEG, MIDI, interaktive Panorama-Bilder und -Filme oder 3DObjekte und Streaming hin zu einer plattform¨ ubergreifenden Multimedia-Architektur f¨ ur Windows und MacOS. QuickTime Movie stellt damit kein eigenst¨ andiges Komprimierungsverfahren dar, sondern dient als einheitliches Dateiformat, das in der Lage ist, unterschiedliche Medienformate aufzunehmen. Obwohl mittlerweile auf unterschiedlichen Rechnerund Betriebssystemarchitekturen erh¨ altlich, liegt die Weiterentwicklung des QuickTimeStandards in der Verantwortung von Apple. QuickTime eignet sich auch besonders zur Verarbeitung und Wiedergabe von MPEG-4Daten, da dieser ISO-Standard in QuickTime integriert wurde, aber auch Teile von QuickTime (z.B. das Dateiformat) in den MPEG-4-Standard u ¨bernommen wurden. Flash Video Das popul¨ are Flash Video (FLV) ist kein eigenst¨ andiges Videokompressionsverfahren, sondern ein von Adobe Systems entwickeltes propriet¨ ares Containerdatenformat, das vornehm¨ lich im Internet zur Ubertragung von Videoinhalten verwendet wird. Derzeit unterst¨ utzt
298
4 Multimediale Daten und ihre Kodierung
das Flash-Video-Format zur Videokomprimierung die Video-Codecs Sorenson Spark (eine H.263-Codec Variante), On2 TrueMotion VP6 und MPEG-4/AVC (H.264). Zur Wiedergabe wird u uber den Plugins f¨ ur Quick¨blicherweise der Adobe Flash Player verwendet, der gegen¨ Time oder RealVideo u ¨ber eine Vielzahl von Hardware-Plattformen und Betriebsystemen hinweg eine weite Verbreitung erfahren hat. Flash Video bietet neben dem Streaming u ¨ber das propriet¨ are RTMP-Protokoll (Real Time Messaging Protocol) die M¨ oglichkeit eines progressiven Downloads via http. Hierbei wird im Gegensatz zum Video-Streaming die u ¨ber einen herk¨ ommlichen Webserver u ¨bertragene Videodatei gespeichert und so ein schneller, ¨ wahlfreier Zugriff (Random Access) auf die Videoinhalte bereits w¨ ahrend der Ubertragung erm¨ oglicht. Die Steuerung des progressiven Download erfolgt u ¨ber die Client-seitige Skriptsprache ActionScript. W¨ ahrend eine freie Nutzung des FLV-Containerdatenformats m¨ oglich ist, wird der propriet¨ are Flash-Codec patentrechtlich gesch¨ utzt. RealVideo ¨ Ahnlich wie Flash Video handelt es sich bei RealVideo um ein propriet¨ ares Videodatenformat, das von der Firma RealNetworks ab 1997 entwickelt worden ist. RealVideo wird von zahlreichen Hardware-Plattformen und Betriebssystemen unterst¨ utzt7 . Zusammen mit dem Audio-Datenformat RealAudio werden RealVideo-Daten in einem RealMediaDatencontainer abgelegt und u ¨ber das von der IETF standardisierte RTSP Streaming (Real Time Streaming Protocol) im Internet verbreitet. Allerdings dient RTSP in erster Linie nur dem Verbindungsmanagement und der Steuerung des Transportdatenstroms. Die eigentlichen Videodaten werden dabei u are ¨ber das von Real Networks entwickelte, propriet¨ RDT-Protokoll (Real Data Transport) versandt. Zun¨ achst basierte RealVideo auf dem Videokompressionsstandard H.263, bis ein eigener, propriet¨ arer Video-Codec von Real Networks entwickelt wurde, der dem Nachfolgestandard H.264 folgt. RealVideo Codecs werden durch einen vierstelligen Code identifiziert: RV10 und RV20 bezeichnen H.263-basierte Codecs, RV30 und RV40 bezeichnen propriet¨ are RealVideo Codecs. Um Live-Streaming von Videodaten zu erm¨ oglichen, verwendet RealVideo u ¨blicherweise eine Kodierung mit konstanter Datenrate. Daneben besteht auch die M¨ oglichkeit einer effizienteren Kodierung mit einer variablen Datenrate, die allerdings f¨ ur das Live-Streaming nicht so gut geeignet ist, da nicht vorhergesagt werden kann, welche Bandbreite eine Daten¨ ubertragung ben¨ otigt. Schwankt die Datenrate zu stark und w¨ achst sie u ¨ber die vorhandene ¨ Bandbreite hinweg an, sind St¨ orungen und Unterbrechungen der Ubertragung die Folge. Weiterf¨ uhrende Literatur: C´ ot` e, G., Erol, B., Gallant, M., Kossentini, F.: H.263+: video coding at low bit rates. Circuits and Systems for Video Technology, IEEE Transactions on 8(7), pp. 849-866 (1998) Chen, J. W., Kao, C. Y., Lin, Y. L.: Introduction to H.264 Advanced Video Coding. In: ASP-DAC06: Proceedings of the 2006 conference on Asia South Pacific Design Automation, pp. 736-741. IEEE Press, Piscataway, NJ, USA (2006). Clarke, R. J.: Digital Compression of Still Images and Video. Academic Press, Inc., Orlando, FL, USA (1995) Rao, K. R., Hwang, J. J.: Techniques and standards for image, video, and audio coding. Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1996) Torres, L.: Video Coding. Kluwer Academic Publishers, Norwell, MA, USA (1996)
7
Ein wesentlicher Grund f¨ur die Wahl des Real-Video Datenformats f¨ur das von den Autoren entwickelte Teleteaching System tele-TASK“ (URL: http//www.tele-task.de/) ”
4.7 Glossar
299
4.7 Glossar Aliasing: Bezeichnung f¨ ur Artefakte, die entstehen, wenn auf einem pixel-orientierten Ausgabeger¨ at diagonale Linien oder Kurven ausgegeben werden sollen. Um diese AliasingEffekte zu verhindern, werden Pixel am Rand der mit Artefakten versehenen Kante mit interpolierten Zwischenfarbt¨ onen eingef¨ arbt, um so den Eindruck einer glatteren Kante zu vermitteln. Dieser Vorgang wird als Anti-Aliasing bezeichnet. Alpha-Kanal: Der Anteil der in einem Bildpixel enthaltenen Information, der die Transparenzeigenschaften dieses Bildpunktes betrifft. Liegen zwei Bildpunkte u ¨bereinander, so gibt der Alpha-Kanal an, in wie weit der darunter liegende Bildpunkt durchscheint. analog: (ana logum=[griech.] im richtigen Verh¨ altnis), Bezeichnung f¨ ur Technologien/Verfahren, in denen kontinuierlich stetige, d.h. stufenlose physikalische Gr¨ oßen verwendet werden. Animation: Eine Sequenz von zwei oder mehreren Einzelbildern, die in rascher Folge nacheinander dargestellt werden, damit der Eindruck einer kontinuierlichen Bewegung ¨ entsteht. Ublicherweise laufen Animationen mit einer Geschwindigkeit von etwa 12-15 Bildern pro Sekunde ab. Artefakt: Ein Fehler, den ein Codec beim Kodieren und anschließenden Dekodieren verursacht. Fehler dieser Art k¨ onnen bei der Kompression von Audio-, Bild- und Videodaten entstehen. ASCII (American Standard Code for Information Interchange): Bezeichnet eine Zeichenkodierung, die die Buchstaben des Alphabets, Ziffern und Sonderzeichen mit jeweils 7 Bit kodiert. Sonderzeichen sind dabei druckbare Zeichen, die zu unterschiedlichen nationalen Alphabeten geh¨ oren bzw. Steuerzeichen. ASCII ist in den Normen ISO/IEC 646 und DIN 66003 (deutsche Variante des ASCII-Codes) normiert, wobei jeweils 12 Codeworte f¨ ur nationale Sonderzeichen vorgesehen sind. Der als IA5 bezeichnete und von der ITU-T/CCITT spezifizierte Code ist mit ASCII identisch. Bewegungsvorhersage (Motion Compensation): Bezeichnung f¨ ur eine Reihe von pr¨ adikativen Verfahren, die zur Komprimierung von Bewegtbildinformation (Video) eingesetzt werden. So kommt es in Bildfolgen innerhalb einer Videosequenzen oft vor, dass sich lediglich der Bildvordergrund ver¨ andert, w¨ ahrend der Bildhintergrund konstant bleibt. Bewegung von Objekten im Bildvordergrund kann innerhalb einer Bildfolge durch Helligkeitsver¨ anderungen der objektzugeh¨ origen Bildpunkte erkannt und als einfache geometrische Transformation kodiert werden. In der Videokomprimierung wird zur jeweils erkannten Transformation lediglich ein Differenzbild zwischen tats¨ achlichem Bild und Vorhersagebild gespeichert. Bildwiederholrate (Bildwiederholfrequenz, Frame Rate): Gibt an, wieviele Einzelbilder in einer Videosequenz pro Sekunde dargestellt werden. Ab 15 Bildern pro Sekunde entsteht auf Grund der Netzhauttr¨ agheit des menschlichen Auges der Eindruck einer kontinuierlichen Bewegung. Bleibt die Bildwiederholrate darunter, ist dies deutlich als Ruckeln“ wahrzunehmen. Man unterscheidet die progressive Bildwiedergabe, bei der ” die einzelnen Zeilen des Einzelbildes in aufeinanderfolgender Reihe ausgegeben, und die interlaced Bildwiedergabe, bei der abwechselnd versetzt je zwei Halbbilder dargestellt werden, wobei das eine Halbbild aus allen Zeilen mit gerader Nummer besteht und das andere aus allen ungeradezahligen Zeilen des Bildes. Bitmapgrafik (Rastergrafik): Bitmapgrafiken setzen sich aus einer Menge numerischer Werte zusammen, die Farb- und Helligkeitsinformationen einzelner Bildpunkte oder ganzer Bildelemente wiedergeben. Die einzelnen Bildpunkte einer bestimmten Farbe werden als Pixel bezeichnet, die in einer der Bemaßung des Bildes entsprechenden Matrix angeordnet sind. Historisch gesehen, steht die Bitmap- oder Rastergrafik mit der Entwicklung
300
4 Multimediale Daten und ihre Kodierung
der Kathodenstrahlr¨ ohre (Cathod Ray Tube, CRT) als grafischem Ausgabeger¨ at im Zusammenhang. Chrominanz: Bezeichnet die Farbverteilung in einem Bild. Zur Darstellung des nat¨ urlichen Bildes muss diese noch um Informationen u ¨ber die Helligkeitsverteilung (Luminanz) erg¨ anzt werden. Im YUV-Farbmodell (YCbCr-Modell) liefern die Komponenten UV (CbCr) die Chrominanz-Information. Codec: Ein Ger¨ at (Hardware) bzw. eine Sammlung von Algorithmen (Software), die einen Kodierer und einen Dekodieren enthalten, um Daten - insbesondere Audio- oder VideoDaten - zu komprimieren (kodieren) und anschließend wieder im Originalzustand darzustellen (dekodieren). Dekorrelation: Ziel der Dekorrelation ist es, abgetastete Daten eines Signals so zu modifizieren, dass eine m¨ oglichst wenig symmetrische Wahrscheinlichkeitsverteilung der Daten erreicht wird. Dies ist f¨ ur die sp¨ atere Kodierung von Bedeutung, da dann den h¨ aufiger auftretenden Werten ein m¨ oglichst kurzer Code zugeordnet werden kann. Differenzbild: In der Videokodierung verwendete Technik, in der nur die Unterschiede zweier aufeinanderfolgender Einzelbilder als Differenzbild abgespeichert werden. Da sich in Videos zwei Folgebilder oft nur wenig voneinander unterscheiden, kann durch dieses Verfahren bereits eine erhebliche Komprimierung erreicht werden. digital: (digitus=[lat.] Finger), Bezeichnung f¨ ur Technologien/Verfahren, die nur diskrete unstetige, d.h. stufenf¨ ormige arithmetische Gr¨ oßen verwenden. Grundlage der Digitaltechnik ist das bin¨ are Zahlensystem, das lediglich die zwei Zust¨ ande wahr“ und falsch“ ” ” repr¨ asentiert durch die Zahlenwerte 1“ und 0“ beinhaltet. Diese bin¨ aren Zahlenwerte ” ” werden als Bit (Binary Digit) bezeichnet und stellen die kleinstm¨ ogliche Informationseinheit dar. Diskrete Cosinus Transformation (DCT): Mit DCT wird eine in der Datenkomprimierung verwendete Transformationsmethode bezeichnet, die es ebenso wie die Fouriertransformation gestattet, eine Funktion aus dem vorgegebenen Ortsraum in den Frequenzraum zu u uhren. Die DCT geh¨ ort zur Familie der Transformationskodierungen ¨berf¨ und wurde um 1970 entwickelt. Die DCT wandelt Daten, die in Form einer Matrix aus Bildpunkten gegeben sind, in eine Beschreibung um, bei der die einzelnen Werte durch Frequenzen und Amplituden repr¨ asentiert werden. Die Frequenzen beschreiben, wie schnell sich Farben innerhalb eines Bildes ver¨ andern, die Amplituden beschreiben die St¨ arke der Ver¨ anderung. Aufgrund ihrer sehr guten Eigenschaften zur Signaldekorrelation wird die DCT in allen heutigen Standards zur Bild- und Videokodierung angewendet. Dithering: Das Dithering (to dither=[engl.] schwanken, zittern), auch als Fehlerdiffusion bezeichnet, ist eine Technik in der Computergrafik, um bei Bildern mit nur geringer Farbtiefe die Illusion einer gr¨ oßeren Farbtiefe zu erzeugen. Fehlende Farben werden dabei durch eine bestimmte Anordnung von Bildpunkten aus den verf¨ ugbaren Farben nachgebildet, so dass das menschlichen Auge lediglich die Mischung der Farbe wahrnimmt. ¨ Dadurch k¨ onnen auch harte Uberg¨ ange zwischen den Farben vermieden werden. Dithering kommt bei der Reduktion der Farbtiefe zum Einsatz. EBCDIC (Extended Binary Coded Decimals Interchange Code): Von IBM eingef¨ uhrte 8 Bit Zeichenkodierung, die durch die Anwendung in IBMs popul¨ arer System/360 Rechnerarchitektur weite Verbreitung fand. Aufeinanderfolgende Zeichen im Alphabet werden dabei nicht notwendigerweise mit aufeinanderfolgenden Codes versehen, da die Art der Kodierung noch von Holleriths Lochkarten inspiriert war. Von EBCDIC existieren verschiedene Varianten, die untereinander inkompatibel sind. Die amerikanische Variante benutzt weitgehend die gleichen Zeichen wie der ASCII-Code. Farbmodell: Beschreibt ein mathematisches Modell, das die Erzeugung neuer Farben aus einer Mischung (additiv oder subtraktiv) der dem Modell zugrunde liegenden Prim¨ arfarben beschreibt. Am bekanntesten sind das RGB-Farbmodell zur additiven Farbmischung
4.7 Glossar
301
der Prim¨ arfarben rot, gr¨ un und blau, sowie das CMY(K)-Farbmodell zur subtraktiven Farbmischung der Prim¨ arfarben cyan, magenta, gelb (und schwarz), das vorallem in der Drucktechnik zum Einsatz kommt. Farbtiefe: Legt die Anzahl der m¨ oglichen Farben in einer Grafikdatei fest. Sie ergibt sich aus der Anzahl der Bits, die pro Bildpunkt zur Verf¨ ugung stehen, d.h. bei einer Farbtiefe von n Bits lassen sich maximal 2n Farbwerte kodieren. Filterbank: Zerlegt Signale in unterschiedliche Bestandteile. Ebenso wie bei Signaltransformationen wie DCT soll durch Filterb¨ anke eine m¨ oglichst große Dekorrelation des Signals erreicht werden. Zur Gew¨ ahrleistung der Hin- und R¨ ucktransformation besteht eine Filterbank aus einer Komponente zur Zerlegung (Analyse) und einer Komponente zur Wiederherstellung (Synthese) des Signals. Gammakorrektur: Eine plattform¨ ubergreifende M¨ oglichkeit, die Bildhelligkeit individuell an die Eigenheiten des Ausgabemediums anzupassen. Besonders wichtig wird eine Gamma-Korrektur, wenn ein Bild von einem Monitor (RGB-Farbmodell) oder mit einem Drucker auf Papier ausgegeben werden soll (CMYK-Farbmodell). GIF (Graphic Interchange Format): Grafik-Datenformat, das auf der verlustfreien LZWKomprimierung basiert. Die Farbtiefe des urspr¨ unglichen Bildes wird dabei auf maximal 8 Bit begrenzt, was sich besonders bei nat¨ urlichen Bildquellen (z.B. Fotografien) negativ auf die Bildqualit¨ at auswirken kann. H¨ orfeld: Bezeichnet den durch das menschliche Ohr wahrnehmbaren Bereich akustischer Ereignisse in Bezug auf Frequenzbereich und Lautst¨ arke. Das H¨ orfeld liegt zwischen der Ruheh¨ orschwelle und der Schmerzschwelle. Alle Signale, die unterhalb der Ruheh¨ orschwelle liegen, k¨ onnen vom menschlichen Ohr nicht mehr wahrgenommen werden. Signale jenseits der Schmerzschwelle k¨ onnen nicht mehr unterschieden werden und verursachen eine Sch¨ adigung des menschlichen Geh¨ ors. Huffman-Kodierung: Spezielle Form der statistischen Kodierung, bei der die am h¨ aufigsten auftretenden Symbole einer zu kodierenden Zeichenkette mit m¨ oglichst kurzen Codeworten kodiert werden. Um eine redundanzfreie Kodierung zu gew¨ ahrleisten, m¨ ussen die gew¨ ahlten Codeworte jeweils u afixe verf¨ ugen. Huffman entwickel¨ber unterschiedliche Pr¨ te 1952 das nach ihm benannte Verfahren zur Erzeugung eines optimalen, pr¨ afixfreien Codes. Interlace Technik: Wird ein Bild mit diesem Verfahren kodiert, so werden die einzelnen Bildzeilen nicht sequentiell abgespeichert, sondern in einer Weise versetzt, dass bei sequentieller Ausgabe der so versetzten Zeilen bereits fr¨ uhzeitig ein Gesamteindruck des Bildes gewonnen werden kann. JPEG (Joint Picture Expert Group): Name einer Expertengruppe, die das gleichnamige Verfahren zur Grafikkomprimierung entwickelt haben. JPEG verwendet eine verlustbehaftete Komprimierung. Dazu wird die Bildinformation durch eine Ortstransformation (DCT, diskrete Cosinustransformation) in den Frequenzraum u uhrt, in dem durch ¨berf¨ gezielte Rundung hochfrequenter Informationsanteile (entspricht Bildanteilen mit raschem Kontrastwechsel) verloren gehen k¨ onnen. JPEG eignet sich daher besonders gut f¨ ur die Komprimierung von nat¨ urlichen“ Bildern, wie z.B. Fotografien, in denen niedrig” frequente Bildanteile (entspricht einem kontinuierlichem Farb- bzw. Helligkeitsverlauf) dominieren. Das zu JPEG definierte Dateiformat wird als JFIF (JPEG File Interchange Format) bezeichnet. Komplement¨ arfarbe: Als Komplement¨ arfarbe (complementum=[lat.] Erg¨ anzung) wird sowohl bei der additiven Farbmischung als auch bei der subtraktiven Farbmischung diejenige Farbe bezeichnet, die mit der Ursprungsfarbe gemischt einen Grauton ergibt. Im Farbkreis stehen sich Komplement¨ arfarben stets genau gegen¨ uber, weshalb sie auch als Gegenfarben bezeichnet werden.
302
4 Multimediale Daten und ihre Kodierung
Kompressionsrate (Komprimierungsrate): Das Gr¨ oßenverh¨ altnis von urspr¨ unglicher Information zu komprimierter Information. Komprimierung: Verdichten des Informationsgehalts einer Nachricht durch Entfernung von Redundanzen (verlustfreie Komprimierung) oder nicht relevanten Anteilen der Information (verlustbehaftete Komprimierung). Ziel der Komprimierung ist die Verkleinerung der Darstellung. Sie ist insbesondere dort von großer Bedeutung, wo der ¨ Speicherplatz oder die Bandbreite des zum Ubertragen der Information verwendeten Informationskanals beschr¨ ankt ist. Laufl¨ angenkodierung (Run Length Encoding): Form der Entropiekodierung, in der identische Symbole einer Zeichenkette durch Codew¨ orter zusammengefasst werden und so eine Komprimierung erzielt wird. Luminanz: Bezeichnet die Helligkeitsverteilung in einem Bild. Alleine dargestellt, ergibt sie ein Graustufenbild ohne Farbanteil. Im YUV-Farbmodell (YCb Cr -Modell) liefert die Y-Komponente die Luminanz-Information. LZW-Komprimierung: Nach seinen drei Urhebern Abraham Lempel, Jakob Zif und Terry Welch benannter w¨ orterbuchbasierter Komprimierungsalgorithmus. LZW baut aus den Zeichenketten (bzw. 8-Bit Bin¨ arworten) eines unkomprimierten Datenstroms ein W¨ orterbuch (Data Dictionary, Translation Table) auf. Die auftretenden Datenmuster (Substrings) eines Datenstroms werden anschließend den einzelnen W¨ orterbucheintr¨ agen zugeordnet. Kommt das betrachtete Datenmuster nicht im W¨ orterbuch vor, wird aus dem Inhalt des Datenmusters ein neues Codewort generiert und im W¨ orterbuch gespeichert. Tritt dieses Datenmuster erneut auf, wird es durch das dem Datenmuster zugeordnete Codewort aus dem W¨ orterbuch ersetzt. ¨ Maskierung: Uberdeckung eines Audio-Signals durch ein anderes. Das leisere Signal ist immer noch vorhanden, es wird aber nicht mehr wahrgenommen, da es durch das andere, lautere u achster Nachbar¨berdeckt wird. So maskiert z.B. ein startendes Flugzeug in n¨ schaft eine gerade stattfindende Konversation. MIDI (Musical Instrument Digital Interface): Protokoll f¨ ur den Datenaustausch zwischen elektronischen Musikinstrumenten, das als Dateiformat auch f¨ ur die Datenkommunikation standardisiert wurde. Im MIDI-Format werden keine Audiodaten im eigentlichen Sinne u ur ¨bertragen, sondern lediglich Kontrollsignale und Steueranweisungen f¨ Synthesizer. Die Kodierung von Kl¨ angen erfolgt dabei in einer instrumentenbezogenen Darstellung, die die Angabe von Parametern beinhaltet, wie z.B. die Bezeichnung des Instruments, Beginn und Ende einer Note, Grundfrequenz, Lautst¨ arke und vieles mehr. Modifizierte Diskrete Cosinus Transformation (MDCT): Der Unterschied zwischen der MDCT und der einfachen DCT besteht darin, dass sich bei der MDCT die Sequenz der Daten zu jeweils 50% mit dem Folgeblock u ¨berschneidet (critical sampling). Diese ¨ Uberlappung sorgt daf¨ ur, dass durch Aliasing entstehende Artefakte und Redundanzen weitgehend vermieden werden k¨ onnen. MDCT findet in der Audiokomprimierung, etwa bei MP3, ATRAC oder Dolby AC-3 Anwendung. MPEG (Motion Picture Experts Group): Bezeichnung einer Vielzahl von Standards zur verlustbehafteten Komprimierung von audiovisuellen Informationen (Bewegtbildinformation, Video). Die Komprimierung der Videodaten basiert dabei auf bereits bekannten Komprimierungsverfahren f¨ ur Einzelbilder (JPEG), der Kodierung von Differenzinformationen zwischen benachbarten Einzelbildern in Bildfolgen und einem Modell der Bewegungsvorhersage, wobei lediglich die Differenzen zwischen vorhergesagtem und tats¨ achlichem Bild gespeichert werden. MP3: Bezeichnung f¨ ur eine verlustbehaftete Audiokomprimierung gem¨ aß dem Standard MPEG 1 Layer 3. MP3 nutzt durch die menschliche Wahrnehmung bedingte psychoakustische Maskierungseffekte aus und filtert Informationsanteile aus den zu komprimierenden Audiosignalen heraus, die f¨ ur den Menschen nicht wahrnehmbar sind. Die
4.7 Glossar
303
Komprimierung erfolgt nach einer Ortstransformation der Audiosignale in den Frequenzraum (DCT, diskrete Kosinustransformation) und anschließender Rundung (Quantisierung) der gewonnenen Frequenzanteile. Multimedia: Kommen bei der Darstellung von Information mehrere, verschiedenartige Medien zum Einsatz, wie z.B. Text, Bild und Ton, so spricht man von einer multimedialen Darstellung der Information. Netzhauttr¨ agheit: Ein Bild der Gesichtswahrnehmung bleibt auf der Retina des menschlichen Auges f¨ ur ca. 1/16 Sekunde erhalten, bevor es wieder verlischt. Bereits im Altertum von Ptolem¨ aus von Alexandria (85–165 n. Chr.) beschrieben, bildet die Netzhauttr¨ agheit die Grundlage f¨ ur die Entwicklung von Film und Fernsehen. Werden Einzelbilder schnell genug aufeinander folgend dargestellt, so entsteht bei einer Abfolge ab 15 Bildern pro Sekunde der Eindruck einer kontinuierlichen Bewegung. Quantisierung (Diskretisierung): Vorgang, bei dem ein kontinuierlicher Ausgangswert, wie z.B. die Amplitude eines Signals, in einen diskreten Wert zur digitalen Weiterverarbeitung umgewandelt wird. Da der diskrete Wertevorrat endlich ist, m¨ ussen die kontinuierlichen Ausgangswerte auf die n¨ achstgelegenen diskreten Werte gerundet werden. Dabei kommt es zu sogenannten Quantisierungsfehlern. Da diese Fehlerbetr¨ age im Zeitverlauf meist statistisch gleich verteilt auftreten, k¨ onnen sie als Rauschen wahrgenommen werden (Quantisierungsrauschen). Insbesondere bei Signalen, die in einem ganzzahligen Verh¨ altnis zur Abtastrate stehen, ergibt sich ein unangenehmes ’tonales’ Rauschen, da die Fehlerrate hier nicht mehr zuf¨ allig ist, sondern dem Phasenverhalten des Signals folgt. Pixel:
Bezeichnet einen einzelnen Bildpunkt innerhalb eines digital dargestellten Bildes.
Psychoakustik: Die Psychoakustik ist ein Teilgebiet der Psychophysik und befasst sich mit der Beschreibung des Zusammenhangs zwischen menschlicher Empfindung von Schall als H¨ orereignis und dessen physikalischen Schallfeldgr¨ oßen. Die Psychoakustik schafft ein Modell f¨ ur den H¨ oreindruck eines Schallereignisses und ist f¨ ur die Audiokompression von großer Bedeutung. Mit Hilfe der Psychoakustik k¨ onnen Filtermechanismen entwickelt werden, die aus einem Schallereignis T¨ one herausfiltern, die durch das menschliche Geh¨ or auf Grund dessen physiologischer Eigenschaften bzw. aufgrund von Verdeckungen nicht wahrgenommen werden. Dadurch kann der zu kodierende Audiodatenstrom auf seine signifikanten Anteile reduziert werden, ohne dass ein Verlust h¨ orbar wird. Pulse Code Modulation (PCM): Methode der Analog-Digital Umwandlung, die auf der Abtastung eines analogen Signals mit anschließender Diskretisierung der gewonnenen Abtastwerte beruht. Die Abtastung (Sampling) zerlegt den zeitlich kontinuierlichen Verlauf eines Signals in diskrete Einzelzeitpunkte und erfasst die gerade vorliegenden Momentan-Werte eines Analogsignals zu jeweils diskreten Zeitpunkten (AbtastZeitpunkt). Diese exakten Abtastwerte werden zur anschließenden bin¨ aren Kodierung innerhalb vordefinierter Quantisierungsintervalle gerundet. Redundanz: Bezeichnung f¨ ur die Anteile einer Nachricht (Signal, Code), die keine zur Nachricht beitragende Information enthalten, also aus dieser entfernt werden k¨ onnen, ohne den eigentlichen Informationsgehalt zu verringern. Redundante Teile einer Nachricht helfen, dass die Nachricht auch dann noch verstanden werden kann, wenn bei der ¨ Ubertragung Fehler aufgetreten sind. Sampling: Bezeichnet die Messung eines kontinuierlichen Signals an zeitlich vorgegebenen Abtastpunkten. Die Samplingrate gibt Auskunft u ¨ber die Messfrequenz. Eine hohe Samplingrate bedeutet, dass die Abst¨ ande der Abtastpunkte gering ist und viele Messungen vorgenommen werden. Satz von Shannon (Claude Elwood Shannon, 1916-2001): Besagt, dass es unm¨ oglich ist, einen Algorithmus zu finden, der jede beliebige Zeichenkette ohne Informationsverlust
304
4 Multimediale Daten und ihre Kodierung
in eine Ausgabe-Zeichenkette k¨ urzerer L¨ ange kodiert, als dies durch deren Entropie (Informationsgehalt) vorgegeben wird. Schallwellen: Schallwellen sind Verdichtungen und Verd¨ unnungen der Luft, die sich kugelf¨ ormig nach allen Seiten ausbreiten. Trifft eine Schallwelle auf das Trommelfell unseres Ohres, so ger¨ at dieses in Schwingungen, die u ¨ber das Ohr bis zu den Enden der zum Gehirn laufenden Geh¨ ornerven weitergeleitet werden. Das menschliche Ohr nimmt nur T¨ one wahr, deren Frequenz zwischen 20 Hz und 20.000 Hz liegen. Semantik: Als Semantik wird ein Teilgebiet der Sprachwissenschaft (Linguistik) bezeichnet, n¨ amlich die Bedeutungslehre. Sie besch¨ aftigt sich mit dem Sinn und der Bedeutung von Sprache und sprachlichen Zeichen. Im Mittelpunkt steht dabei die Frage, wie sich Sinn und Bedeutung komplexer S¨ atze und Begriffe aus denen von einfacheren S¨ atzen und Begriffen ableiten l¨ asst. Die Semantik st¨ utzt sich dabei auf die Regeln der Syntax. Signal-to-Noise Ratio (SNR): Beschreibt den Zusammenhang zwischen der Amplitude des Ausgangssignals und der Amplitude von St¨ orsignalen. Die SNR wird in Dezibel (dB) angegeben. Sie wird auch als Rauschabstand oder Dynamik bezeichnet und ist ein wichtiges Maß f¨ ur die Qualit¨ at eines Audiosignales. Bei der verlustbehafteten Audiokomprimierung mit Hilfe eines psychoakustischen Modells nimmt man eine Verschlechterung des SNR-Wertes in Kauf, wenn dies an einer bestimmten Stelle nicht wahrgenommen wird. Sprite: Freibewegliches Grafikobjekt, das selbst statisch (Textur) oder aber auch dynamisch (Videobild) sein kann, und frei u ¨ber einer Hintergrundszene positionierbar ist. MPEG-4 nutzt diese Darstellungsweise von Grafikobjekten, um sie unabh¨ angig vom Bildhintergrund komprimieren zu k¨ onnen, was zu deutlich verbesserten Komprimierungsergebnissen f¨ uhrt. Streaming: Bezeichnung f¨ ur die kontinuierliche Wiedergabe von multimedialen Inhalten (Audio und/oder Video) u ¨ber das Internet in Echtzeit, d.h. die Wiedergabe findet bereits ¨ zum Zeitpunkt der Ubertragung statt, ohne dass diese vollst¨ andig abgewartet werden muss. Die wiederzugebenden Inhalte k¨ onnen dabei bereits in gespeicherter Form oder als Live-Daten vorliegen, die direkt nach ihrer Generierung kontinuierlich u ¨ber das Internet abrufbar sind. Im Gegensatz zur herk¨ ommlichen Daten¨ ubertragung ist Streaming verz¨ ogerungssensitiv, d.h. versp¨ atete Datenpakete verlieren ihre Relevanz. Innerhalb eines gewissen Rahmens verursacht das zwar Fehler oder Datenverluste und in Folge eine Verminderung der Darstellungsqualit¨ at, doch werden solche Fehler toleriert. Subsampling: Das menschliche Wahrnehmungssystem reagiert sensibler auf ortsbezoge¨ ne Anderung der Bildhelligkeit, als auf Farb¨ anderungen. Dieses geringere Aufl¨ osungsverm¨ ogen in Bezug auf Farbe macht sich die Video- und Bildkomprimierung zu Nutze. Erst wird ein Bild, das im allgemeinen im RGB-Farbmodell vorliegt, in das YCrCbFarbmodell umgewandelt mit einer Helligkeitskomponente (Y) und zwei Farbkomponenten CrCb. Die Samplingrate f¨ ur die Farbkomponente des Bildes kann jetzt mit einer geringeren Aufl¨ osung abgetastet werden als die Bildhelligkeit, ohne dass f¨ ur das menschliche Auge wahrnehmbare Informationsverluste entstehen. Farbsubsampling wird in der Regel in der sogenannten A:B:C -Notation angegeben, die die horizontalen und vertikalen Samplingverh¨ altnisse beschreibt. So bedeutet z.B. ein Subsampling von 4:2:4, dass die Luminanz zur Chrominanz horizontal im Verh¨ altnis 2:1 skaliert wird. Textur: Zweidimensionale Bildinformationen, die auf die Oberfl¨ achen von 3D-Objekten projiziert werden. Dieser Vorgang wird als Texture Mapping bezeichnet und erlaubt eine realit¨ atsn¨ ahere, speicherplatz- und berechnungseffiziente Darstellung von Grafikobjekten. Unicode: 1992 eingef¨ uhrte einheitliche 16-Bit Kodierung f¨ ur multilinguale Textalphabete. Unicode umfasst neben einer Vielzahl nationaler Landesalphabete auch zus¨ atzliche typographische Symbole und nationale Sonderzeichen. Von der ISO als ISO10646 standardisiert, wurde Unicode mit den RFCs 2070 und 2077 f¨ ur die WWW-Sprache HTML
4.7 Glossar
305
und alle zuk¨ unftigen Internet-Protokolle zum Standard. Mit der als UTF-8 bezeichneten Transformationsvorschrift wird eine Abw¨ artskompatibilit¨ at f¨ ur 8-Bit Anwendungen gew¨ ahrleistet, die alle ASCII-Zeichen transparent passieren l¨ asst, w¨ ahrend alle anderen Zeichen in eine eindeutige 8-Bit Zeichensequenz u ¨bertragen werden. Vektorgrafik: Bei Vektorgrafiken werden Linien, Polygone oder Kurven eines Grafikbildes durch die Angabe bestimmter Schl¨ usselpunkte charakterisiert. Ein Programm rekonstruiert aus diesen Schl¨ usselpunkten die darzustellende geometrische Figur. Zus¨ atzlich werden diese Schl¨ usselpunkte mit bestimmten Attributinformationen, wie z.B. Farbe oder Linienst¨ arke ausgestattet. Historisch entwickelte sich die Vektorgrafik im Zusammenhang mit den Plottern als grafische Ausgabeger¨ ate f¨ ur Computer. Ein Plotter gibt eine Grafik aus, indem ein oder mehrere Stifte vorgegebenen Koordinatenwerten folgend u uhrt werden. ¨ber eine Zeichenebene gef¨ Wavelet-Komprimierung: Eine der effizientesten Methoden der Bildkomprimierung. Der dahinterstehende Algorithmus basiert auf der sogenannten multiresolutionalen Analyse, einer mathematischen Methode, die erst in den vergangenen 15 Jahren entwickelt worden ist. Wie die herk¨ ommliche DCT stellt der Wavelet-Algorithmus ein Bild als Menge von Koeffizienten dar, von denen sehr viele nahe Null sind. Daher l¨ asst sich das Bild durch eine kleine Anzahl hoher Wavelet-Koeffizienten sehr gut approximieren. Im Gegensatz zum JPEG-Verfahren wird das Bild allerdings nicht in einzelne Bildbl¨ ocke zerlegt, sondern als ganzes analysiert. Die Wavelet-Komprimierung wird in JPEG2000 benutzt. W¨ orterbuchbasierte Kodierung:
siehe LZW-Komprimierung.
Zeichen: Bezeichnung f¨ ur etwas“, das f¨ ur etwas anderes ( Bezeichnetes“) steht. Die ” ” Beziehung zwischen Zeichen und bezeichnetem Objekt ist stets eine direkte. Die Beziehung der Zeichen untereinander und wie sie miteinander zu neuen Begriffen kombiniert werden k¨ onnen, wird durch die Syntax festgelegt.
Kapitel 5
Digitale Sicherheit
Sicher ist, dass nichts sicher ist. Selbst das nicht“. ” – Hans B¨ otticher, genannt Ringelnatz, (1883-1934)
Das globale Internet ist ein offenes Netz. Offen, das heißt nicht begrenzt und f¨ ur jedermann zug¨ anglich. Niemand wird ausgeschlossen, jeder kann Zugang zum Netz der Netze erhalten. Diese Offenheit des Internet war Voraussetzung f¨ ur die große Popularit¨ at, die das Internet in den vergangenen Jahrzehnten erlangen konnte. Allerdings hat diese Offenheit ihren Preis: Es gibt keine zentrale Kontrolle, die z.B. unbefugten Dritten Einblick in die Kommunikation und damit in die Privatsph¨ are der Internetnutzer verwehren w¨ urde. Um dennoch z.B. einen ausreichenden Schutz der Vertraulichkeit und der Privatsph¨ are zu gew¨ ahrleisten, m¨ ussen Techniken aus der Kryptografie eingesetzt werden, die Nachrichten verschl¨ usseln oder deren Unversehrtheit sicherstellen helfen. Ebenfalls mit Verfahren der Kryptografie l¨ asst sich die Identit¨ at der Kommunikationspartner nachweisen, so dass Betr¨ uger, die eine falsche Identit¨ at vorspiegeln, nicht ihr Unwesen treiben k¨ onnen. Denn Kommunikationspartner sitzen sich im Internet nicht mehr gegen¨ uber, so dass sie sich anhand ihrer ¨ außeren Erscheinung identifizieren k¨ onnten, sondern befinden sich weit entfernt, m¨ oglicherweise auf der anderen Seite des Globus. Das vorliegende Kapitel gibt einen kurzen Abriss der Verfahren der Kryptografie, mit denen sich sowohl die digitalisierten Informationen selbst als auch die Kommunikation der digitalen Nachrichten absichern l¨ asst gegen die vielf¨ altigen Gefahren unserer neuen netzbasierten Welt, und zeigt die f¨ ur das Internet wichtigsten Techniken exemplarisch auf.
5.1 Grundlagen der Sicherheit in Rechnernetzen Sicherheit ist ein eigenst¨andiger und sehr bedeutsamer Gesichtspunkt bei Planung und Betrieb von Rechnernetzwerken, der nicht nur technische, sondern auch rechtliche und wirtschaftliche Aspekte beinhaltet. Ein sicheres Netzwerk zu betreiben ist keine einfache Aufgabe. Jeder Netzwerkanwender hat aus seiner speziellen Sicht an
C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 5,
307
308
5 Digitale Sicherheit
die Kommunikation u¨ ber ein Netzwerk und dessen Nutzung andere Anforderungen bzgl. der Sicherheit. Aus sicherheitstechnischer Sicht betrachtet gibt es offene und geschlossene Netzwerke. Geschlossene Netze bilden eigenst¨andige Netzwerkinseln, auf die von außen ohne physikalischen Zugang nicht zugegriffen werden kann. Hier kann man davon ausgehen, dass es Unbefugten sehr schwer f¨allt einzudringen und das dies nur mit erheblicher krimineller Energie m¨oglich ist. Ganz anders ist die Situation bei offenen Netzen. Offene Netze verf¨ugen u¨ ber einen Anschluss an das weltweite Internet, so dass ein Zugriff von außerhalb prinzipiell m¨oglich ist. Die Nutzer des Internets lassen sich in keiner Weise auf einen vertrauensw¨urdigen Personenkreis beschr¨anken, hier sind Sicherheitsanforderungen zunehmend kritisch. In vielen Netzwerken sind vertrauliche und f¨ur ihren Eigent¨umer wertvolle Datenbest¨ande verf¨ugbar, die vor einem unberechtigten Zugriff gesch¨utzt werden m¨ussen. Auf der anderen Seite ist Firmen und Unternehmen, die sich u¨ ber das Internet neue Absatzm¨arkte erschließen und auf den Zug des Electronic Commerce mit aufspringen wollen, daran gelegen, sich selbst und ihre Angebote und Dienstleistungen u¨ ber das Internet jedermann publik zu machen – also auch unbekannten, eventuell unzuverl¨assigen und unter Gesichtspunkten der Netzwerksicherheit gef¨ahrlichen“ Nut” zern. Da es kein sicheres Netzwerk gibt und prinzipiell auch nicht geben kann, sind die Betreiber von Netzwerken gezwungen, u¨ ber ein spezifisches Regelwerk und zus¨atzliche Komponenten und Verfahren ein m¨oglichst hohes, den spezifischen Anforderungen ihrer Nutzer angemessenes Maß an Netzwerksicherheit zu bieten. Ausgangspunkt f¨ur die Erstellung dieses Regelwerks und der Konzeption der Komponenten und Verfahren ist eine Analyse der zu sch¨utzenden Ressourcen und der Maßnahmen, die ergriffen werden k¨onnen, um diesen Schutz zu gew¨ahrleisten. Dabei muss beachtet werden, dass der Schutz globale und universelle G¨ultigkeit besitzt, d.h. er muss f¨ur die zu sch¨utzenden Ressourcen sowohl an deren Ursprungsort, als auch w¨ahrend der Daten¨ubertragung u¨ ber Zwischensysteme oder Speichermedien gelten, auch wenn diese nicht mehr zum eigenen Verantwortungsbereich geh¨oren, also sowohl im lokalen Netzwerk, beim Datentransport u¨ ber Router und Telefonleitungen, als auch im lokalen Speicher des Endanwenders oder sogar in ausgedruckter Form. Nat¨urlich sind dabei auch die gesetzlichen Regelungen zum Schutz der Privatsph¨are bzw. zum Datenschutz zu beachten. Sicherheitsrisiken lassen sich u¨ ber den mit ihnen verbundenen finanziellen Verlust darstellen. Die H¨ohe des potenziellen finanziellen Verlusts bestimmt die Sicherheitsrelevanz der zu sch¨utzenden Daten. Verluste, die durch den unberechtigten Zugriff Dritter entstehen k¨onnen, beginnen bei Fehlbetr¨agen in der Abrechnung der Verbindungszeit mit dem Netzwerkprovider, also bei Bruchteilen von Cent-Betr¨agen, und k¨onnen bei Millionenverlusten, die in Folge von Industriespionage oder betr¨ugerischer Manipulation elektronischer Finanzdienstleistungen entstehen, enden – ganz zu schweigen von Angriffen mit terroristischem Hintergrund. Bevor im Folgenden auf kryptografische Grundlagen und Verfahren eingegangen wird, sollen zun¨achst Eigenschaften und Aspekte besprochen werden, die f¨ur eine sichere Kommunikation von Bedeutung sind.
5.1 Grundlagen der Sicherheit in Rechnernetzen
309
5.1.1 Sicherheitsziele Zur Veranschaulichung sicherheitskritischer Kommunikationsszenarien und kryptografischer Verfahren, werden die beteiligten Kommunikationspartner u¨ blicherweise mit den fiktiven Namen Alice und Bob anstelle A und B“ bezeichnet. Trudy be” zeichnet im vorliegenden Kapitel einen fiktiven Eindringling, der versucht, in die Kommunikation zwischen Alice und Bob st¨orend einzugreifen und dem gedanklich dazu unbeschr¨ankte Ressourcen zur Verf¨ugung stehen (siehe Abb. 5.1). Alice, Bob und Trudy Alice und Bob werden in der Informatik als Synonyme f¨ ur Sender und Empf¨ anger einer Nachricht verwendet und dienen zur Veranschaulichung von Kommunikationsvorg¨ angen in der Kryptografie oder in der Physik. Alice und Bob sind in diesem Sinne metasyntaktische Variablen und werden verwendet, da Beschreibungen der Form Person A m¨ ochte ” Person B eine Nachricht senden“ schnell un¨ ubersichtlich werden.
Alice (Sender)
Bob (Empfänger)
Trudy (Eindringling, unberechtigter Dritter)
Neben Alice und Bob haben sich weitere Synonyme f¨ ur bestimmte Rollen im Kommunikationsprozess etabliert. Am wichtigsten ist dabei die Rolle des unberechtigten Dritten, der in die Kommunikation zwischen Alice und Bob einzudringen versucht, um diese abzuh¨ oren, zu st¨ oren oder ausgetauschte Nachrichten zu verf¨ alschen. Dieser Rolle wird oft der Name Trudy (f¨ ur Intruder“= [engl.] Eindringling) gegeben. Aber auch andere ” Bezeichnungen, wie z.B. Mallory, Marvin, Mallet (alle drei von malicious“= [engl.] ” b¨ oswillig, meist verwendet f¨ ur aktive Angreifer), Eve (von eavesdropper“, als passiver ” Lauscher) oder Oscar (von oponent“= [engl.] Gegner) werden daf¨ ur verwendet. ” Zum ersten Mal traten Alice und Bob 1978 in einer wissenschaftlichen Ver¨ offentlichung der bekannten Kryptografie-Experten Ronald L. Rivest, Adi Shamir und Leonard M. Adleman auf, die das nach ihnen benannte RSA-Kryptografiesystem entwickelt haben. Literatur: Rivest, R L., Shamir, A., Adleman, L. M.: A Method for Obtaining Digital Signatures and Public-Key Cryptosystems, in Communications of the ACM 21(2), pp. 120–126 (1978)
Abb. 5.1 Alice, Bob und Trudy
310
5 Digitale Sicherheit
Welchen Sicherheitsaspekten welcher Stellenwert im Regelwerk zur Ausgestaltung der Netzwerksicherheit von einem Netzwerkbetreiber einger¨aumt wird, liegt in dessen eigener Verantwortung. Oft m¨ussen bei dieser Festlegung viele Kompromisse eingegangen werden, da sich verschiedene Sicherheitsziele widersprechen k¨onnen bzw. bestimmte Sicherungstechniken sehr aufw¨andig und kostenintensiv sind. Tats¨achlich existiert eine Vielzahl von Bedrohungen, denen ein offenes Netzwerk ausgesetzt ist (siehe Abb. 5.2).
Fälscher
Empfänger
verändert Nachricht
Streitet Empfang der Nachricht ab
Integritätsverlust
Alice
Verbindlichkeitsverlust
Bob
Denial of Service
Sender
Authentizitätsverlust
Vertraulichkeitsverlust
Fälscher
Lauscher
gibt vor, Alice zu sein
hört Kommunikation zwischen Alice und Bob ab
Empfänger
Abb. 5.2 Unterschiedliche Arten der Bedrohung in Kommunikationsnetzen
Die Analyse der einzelnen Bedrohungsarten f¨uhrt zur Formulierung verschiedener Sicherheitsziele. Im Folgenden kann lediglich auf die wichtigsten kurz eingegangen werden: ¨ • Verfugbarkeit Damit ein Informationsanbieter Daten u¨ ber das Internet verf¨ugbar machen kann, ist er auf die zuverl¨assige Funktionst¨uchtigkeit der Netzwerkinfrastruktur angewiesen. Die Netzwerkkomponenten k¨onnen durch zuf¨allig auftretende Fehler oder aber auch durch gezielte Angriffe von Seiten unberechtigter Dritter in ihrer Funktion beeintr¨achtigt oder sogar lahmgelegt werden, so dass die angebotene Information unerreichbar bleibt. Angriffe dieser Art werden als Denial-ofService bezeichnet. In der Regel verl¨auft eine Denial-of-Service Attacke so, dass im Zuge des Angriffs soviel Last auf dem angegriffenen System erzeugt wird, dass dieses nicht mehr in der Lage ist, seine regul¨aren Aufgaben funktionsgerecht zu bew¨altigen. Beispiel f¨ur eine Denial-of-Service Attacke ist das sogenannte SYN-Flooding. Dabei u¨ bersch¨uttet der Angreifer sein Opfer im Netzwerk mit Datensegmenten, die eine gef¨alschte Quelladresse besitzen. Da der angegriffene Rechner norma-
5.1 Grundlagen der Sicherheit in Rechnernetzen
311
lerweise nicht zwischen legitimen und gef¨alschten Datensegmenten unterscheiden kann, er¨offnet er wunschgem¨aß eine neue Verbindungen, wobei er alle dazu notwendigen Ressourcen alloziert, aber vergeblich darauf wartet, dass die Kommunikation von seiten der gef¨alschten Quelladresse fortgef¨uhrt wird. Auf diese Art w¨achst die Zahl der offenen, ressourcenverschlingenden Verbindungen so¨ weit an, dass es st¨andig zu einer Uberlastung und m¨oglicherweise sogar zu einem Absturz des Rechners kommt. • Datenintegrit¨at Die Datenintegrit¨at steht f¨ur die Garantie, dass die Nachricht, die der Empf¨anger ¨ vom Sender erhalten hat, auf dem Ubertragungsweg nicht verf¨alscht worden ist. Daten, die von einem Sender an einen Empf¨anger u¨ bertragen werden, sollen diesen unver¨andert im Originalzustand erreichen. Schaltet sich ein unberechtigter ¨ Dritter in die Ubertragung ein, kann er die Nachricht abfangen und in seinem Sinne ver¨andern. Die Folge ist der Verlust der Datenintegrit¨at (Loss of Integrity), der Empf¨anger geht f¨alschlicherweise davon aus, dass die erhaltene Nachricht vollst¨andig und unver¨andert ( integer“) ist. ” Der Inhalt der u¨ bertragenen Daten darf weder in b¨oser Absicht durch einen unbe¨ rechtigten Dritten noch zuf¨allig durch auftretende Ubertragungsfehler ver¨andert werden. Um das zu erreichen, m¨ussen zus¨atzlich zu den durch die regul¨aren Transportprotokolle bereitgestellten Fehlerbehandlungsverfahren noch geeignete kryptografische Verfahren angewendet werden. • Vertraulichkeit und Geheimhaltung Obwohl der Inhalt u¨ bermittelter digitaler Nachrichten eigentlich nur f¨ur Sender und Empf¨anger bestimmt ist, kann sich in einem offenen Netzwerk ein unbe¨ rechtigter Dritter durch Uberwachung des Datenverkehrs unbefugt Einblick in die Kommunikationsinhalte verschaffen (Eaves Dropping). Die Folge ist ein Verlust der Vertraulichkeit der Kommunikation und damit verbunden der Privatsph¨are (Loss of Privacy) der Kommunikationspartner. Ein unberechtigter Dritter kann den transportierten Inhalt lesen, solange dieser nicht durch geeignete kryptografische Methoden gesch¨utzt wird. Um eine Nachricht geheim zu halten, muss man entweder daf¨ur sorgen, dass unberechtigte Dritte nicht vor dem Empf¨anger in der Lage sind, Datenpakete zu kopieren, oder man muss Verschl¨usselungstechniken anwenden, die den Dateninhalt f¨ur Nichteingeweihte unkenntlich machen. Die einfachste M¨oglichkeit, Daten in einem Rechnernetz abzuh¨oren, besteht dar¨ in, die Ubertragungsleitungen selbst anzuzapfen. Dies setzt voraus, dass der Angreifer entweder direkten Zugang zum Netzwerk erlangt oder sich diesen durch geeignete Maßnahmen verschafft. Bei Funknetzwerken ist dazu alleine schon die r¨aumliche N¨ahe zum Sender ausreichend ohne einen direkten physischen Zugang. Mit einem sogenannten Packet-Sniffer kann der Datenverkehr auf der Netzwerkschicht eines lokalen Netzwerks (LAN) abgeh¨ort werden. In Diffusionsnetzwerken wie den meisten LANs, in denen alle Rechner ein gemeinsames Kommunikationsmedium nutzen, kann ein Packet-Sniffer einfach jedes Datenpaket abfangen, lesen und analysieren. In einem Ethernet-LAN kann sogar je-
312
5 Digitale Sicherheit
der Netzwerkadapter durch einfache Umkonfiguration in den sogenannten Promiscous Mode in die Lage versetzt werden, jedes Datenpaket unabh¨angig von der dort eingetragenen Empf¨angeradresse zu lesen. Entwickelt wurden PacketSniffer allerdings zu einem g¨anzlich anderen, n¨amlich hilfreichen Zweck, um als Netzwerk-Analysewerkzeug dem Netzwerkadministrator zu helfen, den Status des Netzwerkverkehrs zu u¨ berwachen und eventuell auftretende Fehler zu entdecken. • Authentifikation Die Authentizit¨at einer Nachricht garantiert die Identit¨at des Senders gegen¨uber dem Empf¨anger. Dringt ein unbefugter Dritter in einen Kommunikationsvorgang ein und konstruiert eine Nachricht f¨ur den Empf¨anger unter Vorspiegelung eines falschen Absenders, geht die Authentizit¨at der Nachricht verloren (Loss of Authenticity). Der Empf¨anger ist dann nicht mehr in der Lage zu erkennen, ob die empfangene Nachricht tats¨achlich vom angegebenen Empf¨anger stammt. Daher muss die Identit¨at von Sender und Empf¨anger sichergestellt werden. Kein unberechtigter Dritter darf sich unbemerkt als einer der beiden Kommunikationspartner ausgeben k¨onnen. Stehen sich zwei Kommunikationspartner in der realen Welt gegen¨uber, erfolgt diese Authentifikation auf visuellem oder akustischem Wege. Bei einer digitalen Kommunikation u¨ ber große Distanzen hinweg wird die Authentifikationsaufgabe schwieriger. Stammt eine empfangene EMail tats¨achlich von dem angegebenen Absender? Um dies sicherzustellen sind aufw¨andige kryptografische Authentifikationsverfahren entwickelt worden, wie z.B. digitale Signaturen oder die Eingabe eines geheimen Passworts. Jeder im Internet stattfindende Datentransfer l¨auft u¨ ber das Internet Protokoll (IP). Im Header jedes IP-Datenpakets sind stets die Adressen von Sender und Empf¨anger vermerkt. Hat ein Angreifer die vollst¨andige Kontrolle u¨ ber das ihm zur Verf¨ugung stehende Endsystem (insbesondere u¨ ber dessen Betriebssystems), ist er in der Lage, die Protokollsoftware so zu manipulieren, dass z.B. als Absenderadresse eine andere als die eigene eingetragen und damit eine falsche Identit¨at vorget¨auscht wird. Diese Form der F¨alschung der Identit¨at wird als IP-Spoofing bezeichnet und ist zusammen mit dem Packet-Sniffing die h¨aufigste Form von Sicherheitsvorkommnissen im Internet. Eine andere Form des Angriffs besteht darin, die Eintr¨age von sogenannten DNS-Servern zu manipulieren. Das Domain Name System (DNS) dient im Internet dazu, lesbare, hierarchisch aufgebaute Rechnernamen (Domain Namen) in numerische IP-Adressen umzuwandeln. Durch die Manipulation eines DNSServers kann erreicht werden, dass bestimmte Rechner im Internet nicht mehr erreicht bzw. gezielte Umleitungen von Datenpaketen zum Zweck des Aussp¨ahens und Manipulierens veranlasst werden. Diese Art des Angriffs wird als DNSPoisoning bezeichnet. • Verbindlichkeit (Non-Repudiation) Ein Kommunikationsnetzwerk stellt idealerweise ein zuverl¨assiges (verbindli¨ ches) Ubertragungsmedium dar, d.h. weder Sender noch Empf¨anger einer Nachricht k¨onnen die Versendung bzw. den Empfang einer Nachricht abstreiten. Ohne
5.1 Grundlagen der Sicherheit in Rechnernetzen
313
diese Verbindlichkeit gibt es keine zuverl¨assige, rechtsverbindliche Daten¨ubertragung, eine sinnvolle Gesch¨aftsabwicklung kann nicht erfolgen. ¨ Ahnlich wie im Falle der Authentifikation, l¨asst sich die Verbindlichkeit einer Transaktion mit Hilfe digitaler Signaturen gew¨ahrleisten, die nicht nur die Identit¨at von Sender und Empf¨anger validieren, sondern die Transaktion mit einem Zeitstempel versehen, damit diese im Nachhinein nicht von einer der beteiligten Parteien in Zweifel gezogen bzw. abgestritten werden kann. • Autorisierung Nachdem die Identit¨at der Kommunikationspartner zweifelsfrei festgestellt wurde, darf jeder der beiden Kommunikationspartner nur auf die Informationen und Dienste zugreifen, die auch tats¨achlich f¨ur ihn bestimmt sind. Um dies zu gew¨ahrleisten, muss an jede Informationsressource eine Zugriffsberechtigung gekn¨upft werden, anhand derer entschieden wird, ob diese Ressource f¨ur einen bestimmten, authentifizierten Nutzer zug¨anglich ist oder nicht. Um eine solche Zugriffskontrolle zu unterlaufen, muss ein Angreifer entweder erfolgreich eine falsche Identit¨at vort¨auschen, oder er muss sich autorisierten Zugang zum Betriebssystem des Rechners verschaffen, auf dem die Ressourcen selbst vorgehalten werden und dort vermerkte Zugriffsberechtigungen manipulieren zu k¨onnen. Werden die genannten Bedrohungen zur Tatsache, d.h. greift ein unberechtigter Dritter das Kommunikationsnetz in einer der beschriebenen Varianten an, dann kann er dies auf aktive oder passive Weise tun: • aktive Angriffe Bei aktiven Angriffen findet eine Ver¨anderung der Inhalte der digitalen Datenkommunikation statt. Der Angreifer verf¨alscht Inhalte, manipuliert deren Authentizit¨at oder verhindert die Nutzung von Kommunikationsdiensten. Da hierbei ein aktiver Eingriff in das Kommunikationsgeschehen erfolgt, ist ein aktiver Angriff leichter zu erkennen als ein passiver. • passive Angriffe Hier werden Kommunikationsinhalte nicht ver¨andert. Der unberechtigte Dritte verschafft sich lediglich Zugang zum Kommunikationsnetz und h¨ort die kommunizierten Nachrichten ab oder zeichnet diese zum Zweck einer sp¨ateren Analyse oder Vorbereitung eines Missbrauchs auf. Nachtr¨aglich k¨onnen so vertrauliche Nachrichten identifiziert und analysiert, oder Nutzungsprofile erstellt werden. Ein passiver Angriff ist wesentlich schwerer zu entdecken als ein aktiver, da keine Ver¨anderungen an den Kommunikationsinhalten vorgenommen werden.
5.1.2 Kryptografische Grundbegriffe Die Kryptografie (von kryptein“= [griech.] verstehen und gr´aphein“= [griech.] ” ” schreiben) hat sich innerhalb von Mathematik und Informatik zu einer sehr interessanten und eigenst¨andigen Disziplin entwickelt. In der Hauptsache befasst sie sich
314
5 Digitale Sicherheit
mit der Konstruktion und Bewertung von Verschl¨usselungsverfahren, die dazu dienen, Nachrichteninhalte vor unbefugter Kenntnisnahme zu sichern. Das Teilgebiet der Kryptoanalyse befasst sich mit dem Ziel, diese Verschl¨usselungsverfahren zu brechen, d.h. r¨uckg¨angig und unwirksam zu machen. Kryptografie und Kryptoanalyse bilden zusammen die als Kryptologie bezeichnete Wissenschaft. Die Kryptologie hat große Bedeutung in der Informatik, der Computer-Sicherheit und der IT-Sicherheit. ¨ ¨ Hauptgegenstand der Kryptografie ist die Verschlusselung und Entschlusselung einer Klartextinformation. Durch das Verschl¨usseln (Chiffrieren) wird der Klartext (Plain Text) in einen Schl¨usseltext (Chiffretext) transformiert. Als Chiffre wird dabei das Verschl¨usselungsverfahren, also die Abbildungsvorschrift bezeichnet, die den Klartext in den Schl¨usseltext transformiert. Das Verschl¨usselungsverfahren nutzt jeweils eine nur den beiden Kommunikationspartnern bekannte Geheimin¨ formation (Schlussel), die aus einer astronomisch großen Menge a¨ hnlicher Informationen ausgew¨ahlt wird, so dass das Erraten des jeweils verwendeten Schl¨ussels praktisch so gut wie unm¨oglich ist. Mit Hilfe des Schl¨ussels kann umgekehrt aus dem Schl¨usseltext durch Entschl¨usselung (Dechiffrieren) wieder der urspr¨ungliche Klartext gewonnen werden (siehe Abb. 5.3).
Alice
Sender
Lorem ipsum dolor sit amet, consectetuer sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet
Klartext
Lorem ipsum dolor sit amet, consectetuer sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet
Schlüssel
Klartext
Entschlüsselung (Dechiffrierung)
Verschlüsselung (Chiffrierung)
Bob
Übertragung im offenen Netzwerk
Schlüsseltext (Chiffrat)
Schlüsseltext (Chiffrat)
Empfänger
Schlüssel
Abb. 5.3 Sichere Kommunikation durch Kryptografie
Sender und Empf¨anger werden in diesem Grundmodell der verschl¨usselten Kommunikation, wie in der Kryptografie u¨ blich, Alice (A) und Bob (B) genannt. Die Originalnachricht, der sogenannte Klartext (Plaintext), wird zur Verschl¨usselung mit einer Transformationsfunktion in die verschl¨usselte Information (Chiffrat, Ciphertext) umgesetzt. Die dabei verwendete Transformationsfunktion encrypt ist ¨ in der Regel u¨ ber einen Schlussel (Key) parametrisiert (steuerbar). encrypt verf¨ugt also u¨ ber zwei Argumente, den Schl¨ussel k und den zu verschl¨usselnden Klartext
5.1 Grundlagen der Sicherheit in Rechnernetzen
315
M, um das Chiffrat E zu produzieren. E = encrypt(k, M) . Die Umkehrtransformation decrypt dagegen, erzeugt mit Hilfe des Schl¨ussels K und des Chiffrats E die Originalnachricht M. M = decrypt(K, E) . Der Schl¨ussel k besteht in der Regel aus einer (meist kurzen) Zeichenfolge, mit der eine der vielen potenziellen Verschl¨usselungsvarianten der Transformationsfunktion ausgew¨ahlt wird. W¨ahrend das Verschl¨usselungsverfahren, also die Transformationsfunktion, allgemein bekannt ist, liegt das wahre Geheimnis f¨ur die Verschl¨usselung im Schl¨ussel k. Die Anzahl der potenziell m¨oglichen Schl¨ussel ergibt sich unmittelbar aus der Schl¨ussell¨ange. Sie bestimmt den Aufwand, der notwendig ist, um das Chiffrat ohne Hilfe des verwendeten geheimen Schl¨ussels u¨ ber eine ersch¨opfende Schl¨usselsuche (Exhaustive Search, Brute Force) zu brechen. Ab einer bestimmten Schl¨ussell¨ange spricht man deshalb von Methoden der starken Kryptografie, da dann der zum Brechen des Schl¨ussels notwendige Aufwand ins astronomische steigt. Mit steigender Rechenleistung verschiebt sich diese Grenze allerdings zu immer gr¨oßeren Schl¨ussell¨angen, so dass die Einteilung in Methoden der starken und schwachen Kryptografie stets eine relative bleibt. Ein System zur Verschl¨usselung und Entschl¨usselung von Nachrichten wird als Kryptosystem bezeichnet. Im einfachsten Fall besteht ein solches Kryptosystem aus • einer Chiffre, • dem geheim zu haltenden Schl¨ussel (Secret Key) und • einem Dechiffrierverfahren. Der Aufwand, der zur Ver- und Entschl¨usselung notwendig ist, wird als Kryptokomplexit¨at bezeichnet. Zwar lassen sich Chiffrierverfahren theoretisch immer brechen, doch ist der Aufwand, der dazu n¨otig ist, ungeheuer viel h¨oher als die Dechiffrierung mit Hilfe des Originalschl¨ussels. Diese Asymmetrie in der Komplexit¨at der Dechiffrierung und des Brechens der Chiffre ohne g¨ultigen Schl¨ussel gew¨ahrleistet den Schutz eines Geheimnisses u¨ ber eine hinreichend lange Zeitperiode und l¨asst die Verschl¨usselung extrem wirksam werden. Chiffrierverfahren arbeiten in der Regel mit Vertauschungen (Transposition) und Ersetzungen (Substitution) von Zeichen des Klartextes durch andere. Gesteuert durch den jeweils verwendeten Schl¨ussel werden diese Operation in vielen Runden wiederholt und dadurch schließlich der Schl¨usseltext erzeugt. Chiffrierverfahren sollen dabei eine Reihe von Kriterien erf¨ullen, um ein Brechen des verwendeten Chiffrierverfahrens m¨oglichst schwierig zu machen: • Diffusion Um das Brechen der Chiffrierung soweit wie m¨oglich zu erschweren, sollen die
316
5 Digitale Sicherheit
einzelnen Zeichen des Schl¨usseltextes jeweils von m¨oglichst vielen Klartextzeichen und dem gesamten Schl¨ussel abh¨angen. • Konfusion Zus¨atzlich soll der Zusammenhang zwischen Klartext, Schl¨usseltext und verwendetem Schl¨ussel m¨oglichst kompliziert sein. • Lawinen-/Schmetterlingseffekt ¨ ¨ Eine kleine Anderung des Klartextes soll zu einer m¨oglichst großen Anderung des Schl¨usseltextes f¨uhren. Die beschriebenen Sicherheitsziele lassen sich alle durch den Einsatz unterschiedlicher kryptografischer Verfahren erreichen. Je nach konkretem Ziel sind andere Verfahren bzw. eine Kombination verschiedener Verfahren am geeignetsten. Wie in Abb. 5.3 gezeigt, kann ein unberechtigter Dritter auch bei abgesicherter Kommunikation u¨ ber ein offenes Netzwerk wie dem Internet, auf das verschl¨usselte Chiffrat zugreifen. Ohne Kenntnis des Verschl¨usselungsverfahrens und des verwendeten Schl¨ussels ist diese Information zun¨achst allerdings nutzlos. Dennoch wurden zur Kryptoanalyse eine Reihe von Verfahren entwickelt, mit denen der Klartextinhalt einer verschl¨usselten Nachricht auch ohne den Schl¨ussel wiedergewonnen werden kann. Der Versuch, ohne bekannten Schl¨ussel ein Chiffrat zu entschl¨usseln, wird als Angriff oder Attacke bezeichnet. Die Kryptoanalyse wird deshalb auch als Wissenschaft der Angriffe auf Verschl¨usselungsverfahren bezeichnet. Gelingt der R¨uckschluss ohne den verwendeten Schl¨ussel, so gilt das Verschl¨usselungsverfahren als gebrochen oder umgangssprachlich als geknackt“. Wird der Schl¨ussel auf ” andere Art und Weise (Diebstahl, Bestechung, etc.) gewonnen, so sagt man, dass der der Schl¨ussel kompromittiert ist. Generell lassen sich drei Varianten des Angriffs auf Verschl¨usselungsverfahren unterscheiden: • Cyphertext-Only Attacke Bei dieser Variante kennt der Angreifer den Klartext der verschl¨usselten Botschaft nicht. Diese Art des Angriffs ist bei Weitem die schwierigste, aber auch in der Praxis die h¨aufigste. • Known-Plaintext Attacke Bei dieser Variante kennt der Angreifer den Klartext einer verschl¨usselten Nachricht. Das Ziel besteht dann in der Ermittlung des verwendeten Schl¨ussels, um zuk¨unftige Chiffrate entschl¨usseln zu k¨onnen. Oft werden Standard-Textmitteilungen (z.B. E-Mail-Header, Grußformel, etc.) zusammen mit anderen Nachrichten verschl¨usselt, auf die dann Known-Plaintext Angriffe angewendet werden k¨onnen. • Chosen-Plaintext Attacke Hat der Angreifer die M¨oglichkeit, den zu verschl¨usselnden Text selbst auszuw¨ahlen, um einen Angriff auf einen unbekannten Sch¨ussel vorzubereiten, spricht man von einem Chosen-Plaintext Angriff. Diese Art des Angriffs gilt als die einfachste, sie wird z.B. zum Brechen von Pay-TV Dekodern eingesetzt.
5.2 Vertraulichkeit und Verschl¨usselung
317
Stets jedoch ist f¨ur die Anwendung kryptografischer Verfahren eine Kosten-NutzenAnalyse ausschlaggebend und Kompromisse hinsichtlich der erzielten Sicherheit sind in Kauf zu nehmen. So macht es z.B. wenig Sinn, harmlose private Kommunikation – z.B. u¨ ber E-Mail – mit Methoden starker Kryptografie zu verschl¨usseln. Handelt es sich bei dieser E-Mail allerdings um geheime Informationen von großer wirtschaftlicher Tragweite oder Informationen, bei deren Offenlegung der Sender um Leib und Leben f¨urchten muss, sind Methoden der starken Kryptografie sicher gerechtfertigt. Im Folgenden werden die wichtigsten kryptografischen Verfahren und Techniken kurz vorgestellt.
¨ 5.2 Vertraulichkeit und Verschlusselung Kryptografie als Teilgebiet der Informatik, besch¨aftigt sich mit der Entwicklung von Verschl¨usselungsverfahren, die vertrauliche Informationen vor Kenntnisnahme und Zugriff durch unberechtigte Dritte sch¨utzen sollen. Ihre Urspr¨unge liegen geschichtlich weit zur¨uck. Bereits in der Antike wurden Verschl¨usselungsverfahren eingesetzt, um diplomatische oder milit¨arische Informationen vor potenziellen Gegnern zu sch¨utzen. Konnte die verschl¨usselte Botschaft vom Gegner abgefangen werden, war sie doch nicht lesbar. Selbst wenn es gelang, die Verschl¨usselung zu brechen und den originalen Text wiederzugewinnen, war dazu so viel Zeit notwendig, dass den kommunizierenden Parteien ein Vorsprung gesichert war. Auch im Mittelalter waren in ganz Europa vielf¨altige Geheimschriften zum Schutz des diplomatischen Briefverkehrs in Gebrauch.
5.2.1 Symmetrische Verschlusselungsverfahren ¨ ¨ Im Falle der symmetrischen Verschlusselungsverfahren benutzen Sender und Empf¨anger jeweils den gleichen, zuvor ausgetauschten oder gemeinsam vereinbarten Schl¨ussel zur Ver- und Entschl¨usselung, der zusammen mit Chiffre und Dechiffrierverfahren angewendet werden muss. Die den meisten symmetrische Verschl¨usselungsverfahren zugrunde liegende Transformationsfunktion beruht auf der Kombination einfacher Basisoperationen: Transposition: Die Position der einzelnen Zeichen der Nachricht werden gem¨aß einer vorgegebenen Chiffre miteinander vertauscht. Substitution: Die einzelnen Zeichen einer Nachricht werden gem¨aß einer vorgegebenen Chiffre durch andere Zeichen ersetzt. Um die Komplexit¨at der Verschl¨usselung zu erh¨ohen und um ein Brechen der Verschl¨usselung zu erschweren, werden Transpositionen und Substitutionen in zahlreichen Durchg¨angen (Runden) gesteuert durch einen Schl¨ussel wiederholt. Exkurs 13 skizziert die Grundprinzipien der einfachsten Verschl¨usselungstechniken.
318
5 Digitale Sicherheit
Auf dem darin erl¨auterten einfachen Prinzip der Transposition basierten auch die Rotor-Chiffren der bekanntesten elektromechanischen Chiffriermaschine aus dem 2. Weltkrieg, der Enigma, deren Entschl¨usselung maßgeblich die Entwicklung des modernen Computers vorangetrieben und deren Entschl¨usselungserfolge den Ausgang des Krieges wesentlich beeinflusst haben. Exkurs 14: Einfache historische Verschl¨ usselungsverfahren Transpositions-Chiffren Bereits im 5. Jahrhundert v. Chr. benutzen die Spartaner im Peloponnesischen Krieg eine ¨ Transpositions-Chiffre (auch Permutations-Chiffre) zur Ubermittlung geheimer Botschaften, wie der antike Historiker Plutarch (45 – 125 n. Chr.) in der Biografie des spartanischen Generals Lysander berichtet [182]. Zu diesem Zweck wurde eine sogenannte Skytale verwendet, ein h¨ olzerner Zylinder von bestimmten Durchmesser, um den ein beschreibbares Lederband spiralf¨ ormig gewickelt wurde. Das auf dem Zylinder gewickelte Band wurde l¨ angs des Zylinders beschrieben. Wurde es abgewickelt, befand sich auf dem Band lediglich eine durcheinandergew¨ urfelte Menge von Buchstaben, die erst wieder gelesen werden konnte, wenn das Band erneut auf einen Zylinder von exakt gleichem Durchmesser gewickelt wurde. Die Skytale ver¨ andert nach einem festen Muster die Position der einzelnen Zeichen und ist daher eine Transpositions-Chiffre. Allgemein regelt bei einer Transpositions-Chiffre ein k-stelliger Schl¨ ussel, auf welche Weise k Buchstaben des Originaltextes jeweils permutiert werden m¨ ussen. Beispiel: Schl¨ ussel: 7 5 6 2 4 9 8 3 1 Klartext: g e h e i m n i s Chiffrat: s e i i e h g n m Transpositions-Chiffren sind bei kleiner Schl¨ ussell¨ ange sehr einfach durch Probieren zu brechen. Zudem l¨ asst sich bereits am Chiffrat mit Hilfe einer H¨ aufigkeitsanalyse der Vorkommen der Zeichen feststellen, in welcher Sprache die verschl¨ usselte Nachricht verfasst wurde. Substitutions-Chiffren Substitutions-Chiffren waren ebenfalls bereits in der Antike bekannt und beruhen auf dem einfachen Prinzip, jedes Zeichen (oder Gruppe von Zeichen) einer Nachricht durch ein anderes Zeichen (oder Gruppe von Zeichen) eines Alphabets zu ersetzen. Die einfachste Form der Substitutions-Chiffre, bei der alle Zeichen um einen festen Wert verschoben werden, bezeichnet man auch als C¨ asar-Chiffre, benannt nach dem r¨ omischen Staatsmann Julius C¨ asars. Der r¨ omische Autor Sueton (70 – 130 n. Chr.) schildert in seinen Kaiserbiografi¨ en, dass C¨ asar zur geheimen Ubermittlung von milit¨ arischen Nachrichten jedes Zeichen der Nachricht um den Wert 3 (entspricht der Position des Buchstaben C“ im Alphabet, C¨ asars ” Initiale) verschoben hat [231]. Zwischen den originalen Buchstaben(gruppen) und den verschl¨ usselten Buchstaben(gruppen) besteht eine eineindeutige Zuordnung. Beispiel: Klartext: a b c d e f g h i j k l m ... Chiffrat: d e f g h i j k l m n o p ... Die Verschiebung erfolgt zyklisch, d.h. ordnet man den 26 Buchstaben des Alphabets einen Zahlenwert entsprechend ihrer Stelle zu, f¨ angt man nach dem letzten Buchstaben z“ ” wieder von vorne mit a“ an. Die Verschiebung entspricht einer Addition modulo 26. Die ”
5.2 Vertraulichkeit und Verschl¨usselung
319
Operation a mod 26 ist definiert als Rest der ganzzahligen Division von a durch 26. F¨ ur m∈ IN-{0} gilt: j k
a mod m = a −
a · m. m
Eine wirksame Attacke auf Substitutions-Chiffren kann durch eine einfache H¨ aufigkeitsanalyse erzielt werden. Liegt eine Nachricht vor, die in nat¨ urlicher Sprache verfasst wurde, kommen nicht alle Zeichen mit der gleichen H¨ aufigkeit von. Je l¨ anger die Nachricht, desto wahrscheinlicher entspricht die H¨ aufigkeitsverteilung der Zeichen im Klartext der in der jeweiligen Sprache u aufigkeitsverteilung der Buchstaben. In der deutschen Sprache ¨blichen H¨ ist z.B. das e“ mit u aufigste Buchstabe. Dies kann der Angreifer ausnutzen ¨ber 17 % der h¨ ” und so den verwendeten Schl¨ ussel einfach ermitteln. Vigen´ ere-Chiffre W¨ ahrend einfache Substitutions-Chiffren lediglich ein Zeichen des Alphabets auf genau ein anderes abbilden (monoalphabetische Chiffre), k¨ onnen auch mehrere verschiedene Abbildungsvorschriften gleichzeitig zur Verschl¨ usselung genutzt werden (polyalphabetische Chiffre). Die bekannteste polyalphabetische Chiffre wurde vom franz¨ osischen Diplomaten Blaise de Vigen´ ere (1523 – 1595) erfunden und l¨ auft folgendermaßen ab: Anstelle einer einzelnen Substitutionsvorschrift werden mehrere Substitutionen beschrieben in Form eines Schl¨ usselwortes vorgegeben. Jedes Zeichen des Schl¨ usselwortes definiert eine Substitutionsvorschrift: jedes Zeichen des Klartextes wird um den Buchstabenwert“ (also die Position des Buchsta” bens im Alphabet) des aktuellen Zeichens im Schl¨ usselwort verschoben. Um den kompletten Klartext zu verschl¨ usseln, wird das Schl¨ usselwort entsprechend oft wiederholt. Beispiel: Schl¨ usselwort: Schl¨ ussel: Klartext: Chiffrat:
A L I C E A L I C E A L I C E A g e h e i m n i s s e h q q h n n z r v x f
Die Vign´ ere-Chiffre setzt sich quasi aus mehreren Substitutions-Chiffren zusammen, dasselbe Zeichen kann also auf verschiedene Weise chiffriert werden. Das Brechen einer Vign´ ere-Chiffre ist schwieriger als das einer einfachen Substitutions-Chiffre. Ist aber die Schl¨ ussell¨ ange bekannt, kann das Problem leicht auf die L¨ osung mehrerer SubstitutionsChiffren heruntergebrochen werden. Um die Schl¨ ussell¨ ange zu ermitteln, sucht man im Chiffrat nach Folgen gleicher Zeichen. Der Abstand zwischen diesen Zeichenketten muss dann durch die Schl¨ ussell¨ ange teilbar sein. Eine Sonderform der Vigen´ ere-Chiffre ist die nach Gilbert Vernam (1890 – 1960) benannte Vernam-Chiffre. Sie zeichnet sich dadurch aus, dass die Schl¨ usselwortl¨ ange mit der L¨ ange des Klartextes u asst sich deshalb nicht mit einer einfa¨bereinstimmt. Eine Vernam-Chiffre l¨ chen H¨ aufigkeitsanalyse brechen. Sind aber Klartext und Schl¨ usseltext in nat¨ urlicher Sprache verfasst, kann ein Angreifer dennoch die jeweils unterschiedliche Auftrittswahrscheinlichkeit der Buchstaben bzw. Buchstabengruppen in Abh¨ angigkeit der verwendeten Sprache nutzen, um eine analytische L¨ osung zu finden. Einweg-Chiffren (One Time Pad) Im Gegensatz zu den bisher vorgestellten Verschl¨ usselungsverfahren, die schon mit relativ einfachen Mitteln gebrochen werden k¨ onnen, existiert ein sehr simples Verfahren, das One Time Pad, das 1917 von Gilbert Vernam und Joseph Mauborgne (1881 – 1971) entwickelt wurde und das prinzipiell nicht zu brechen ist. Zum Klartext (in Form einer Bitfolge) wird ein gleich langer, zuf¨ allig erzeugter Schl¨ ussel (ebenfalls eine Bitfolge) erzeugt. Beide Folgen werden bitweise u are Operation XOR (0 XOR 0=0, 1 XOR 1=0, 0 XOR 1=1 XOR 0=1) ¨ber die bin¨
320
5 Digitale Sicherheit
verkn¨ upft. Das erzeugte Chiffrat gew¨ ahrt ohne Kenntnis des Schl¨ ussels keinerlei Hinweis auf den Klartext. Beispiel: Klartext: 1 0 1 1 1 0 1 1 0 1 0 1 1 0 1 0 1 XOR Schl¨ ussel 1 0 1 0 1 1 1 0 0 0 1 0 1 1 1 1 0
Chiffrat: 0 0 0 1 0 1 0 1 0 1 1 1 0 1 0 1 1 Im Gegensatz zur verwandten Vernam-Chiffre muss beim One Time Pad die Verteilung der Schl¨ usselbits zuf¨ allig sein und darf nur einmal genutzt werden. Sender und Empf¨ anger m¨ ussen dieselbe Folge von Schl¨ usselbits verwenden. Zur Erzeugung des Schl¨ ussels werden meist mathematischer Verfahren genutzt, wobei anzumerken ist, dass es wesentlich schwieriger ist, als allgemein angenommen, große Mengen an Zufallsbits zu erzeugen. Die G¨ ute des jeweils gew¨ ahlten Verfahrens ist verantwortlich f¨ ur die Qualit¨ at der damit erzielten Verschl¨ usselung. Rotor-Chiffren und Enigma Die wichtigsten elektromechanischen Verschl¨ usselungsmachinen basierten auf dem Prinzip der Rotor-Chiffren (siehe Abb. 5.5). Kernst¨ uck waren dabei Metallscheiben (Rotoren), die auf beiden Seiten jeweils mit 26 Metallkontakten (f¨ ur jeden Buchstaben des Alphabets) versehen waren, wobei jeder Kontakt auf der einen Seite mit einem anderen Kontakt auf der gegen¨ uberliegenden Seite verbunden war. Verschiedene Rotoren waren mehrfach hintereinandergeschaltet und angeordnet wie bei einem Tachometer. Wurde ein Kontakt auf der
Abb. 5.4 Verschl¨usselungsmaschine Enigma
linken Seite des linken Rotors durch den Druck auf eine Schreibmaschinentastatur geschlossen, durchfloss der Strom die hintereinandergeschalteten Walzen und brachte eine an einem der 26 Kontakte der rechten Seite des rechten Rotors angebrachte Lampe zum Aufleuchten. Tasten und Lampen waren mit Buchstaben versehen. Jeder Rotor sorgte in der Chiffriermaschine f¨ ur eine fest verdrahtete Transposition. Nach jedem Tastendruck drehte sich der
5.2 Vertraulichkeit und Verschl¨usselung
A
1. Rotor
321
2. Rotor
3. Rotor
A
B
B
C
C
D
D
E
E
F
F
Stromquelle
Abb. 5.5 Vereinfachte Darstellung des Prinzips der Rotor-Chiffren: Wird Taste A“ gedr¨uckt, ” leuchtet entsprechend der Verdrahtung der Buchstabe B“ ”
linke Rotor um einen Schritt weiter. War eine volle Umdrehung erreicht, dann bewegte sich der zweite Rotor um einen Schritt usw., genau wie bei einem Tachometer. Die Enigma war eine auf Rotor-Chiffren basierende, elektromechanische Verschl¨ usselungsmaschine, die bereits 1918 von dem deutschen Ingenieur Arthur Scherbius (1878–1929) entwickelt und 1926 zum Patent angemeldet wurde (siehe Abb.5.4). Sie barg drei, sp¨ ater vier Rotoren mit je 26 Buchstaben. Vor jeder Verschl¨ usselung wurden alle Rotoren entsprechend einem vorgegebenen Schl¨ ussel in eine bestimmte Startposition gebracht. Die zu verschl¨ usselnde Nachricht wurde u ¨ber die Tastatur eingegeben und das Chiffrat konnte an den aufleuchtenden Lampen abgelesen werden. Ein großer Teil des deutschen Funkverkehrs wurde im 2. Weltkrieg mit Hilfe dieser Maschine verschl¨ usselt.
Abb. 5.6 Kryptoanalysecomputer Bombe“ zur Dechiffrierung ” der Enigma Verschl¨usselung
Die Alliierten investierten unter der f¨ uhrenden Mitwirkung des bedeutenden Mathematikers Alan Turing (1912–1954) einen hohen Aufwand an Personal und Zeit in die Dechiffrie-
322
5 Digitale Sicherheit
rung dieser Nachrichten. Um das Dechiffrieren zu beschleunigen, entwickelten sie in Bletchley Park bei London einen ersten Kryptoanalysecomputer, die sogenannte Bombe, einen Vorl¨ aufer der modernen Computer. Weiterf¨ uhrende Literatur: Plutarch: Große Griechen und R¨ omer, eingeleitet und u ¨bersetzt von Konrad Ziegler, Bd. III. Artemis und Winkler, Z¨ urich (1955) B. Schneier: Applied Cryptography: Protocols, Algorithms, and Source Code in C, John Wiley & Sons, New York, NY, USA, (1995) K. Schmeh: Die Welt der geheimen Zeichen, W3L Verlag, Bochum (2004) Sueton: Leben der Caesaren, u urich ¨bersetzt von Andre Lambert. Artemis und Winkler, Z¨ (1955)
Wie beschrieben ist der (Entschl¨usselungs-)Schl¨ussel das entscheidende Instrument, um an die Information im Klartext zu gelangen. Daher muss dieser stets geheim gehalten werden. Ein unberechtigter Dritter, der in den Besitz des gehei¨ men Schlussels kommt, ist in der Lage, das Chiffrat ohne M¨uhe zu entschl¨usseln. Wenn derselbe Schl¨ussel sowohl zur Verschl¨usselung als auch zur Entschl¨usse¨ lung verwendet wird (k = K), spricht man von einem symmetrischen Verschlusselungsverfahren (Secret Key Encryption). Die Verteilung des geheimen Schl¨ussels ¨ (Schlusselmanagement) an den Empf¨anger einer symmetrisch verschl¨usselten Nachricht muss daher unter strengsten Auflagen gesichert erfolgen – ein Unterfangen, dass schon viel Stoff f¨ur so manchen spannenden Spionage- oder Kriminalroman geboten hat (siehe Abb. 5.7).
Sender
Alice
Klartext
Verschlüsselung
Schlüssel (Geheimnis)
Chiffrat
Transfer
Empfänger
Bob
Klartext
Entschlüsselung
Abb. 5.7 Symmetrische Verschl¨usselung (Secret Key Encryption)
Chiffrat
5.2 Vertraulichkeit und Verschl¨usselung
323
Man unterscheidet zwei verschiedene Arten von Chiffren: ¨ • Block-Verschlusselungsverfahren (Blockchiffre) Bei diesen Verfahren wird der Klartext in einzelne Bl¨ocke fester L¨ange unterteilt. Die einzelnen Bl¨ocke werden unabh¨angig voneinander mit demselben Schl¨ussel verschl¨usselt und bilden zusammengenommen das Chiffrat. ¨ • Strom-Verschlusselungsverfahren (Stromchiffre) Diese Verfahren betrachten den gesamten Klartext als Textstrom, d.h. als eine beliebig lange Folge von Klartextzeichen. Zu diesen wird – wie bei der One Time Pad Verschl¨usselung aus Exkurs 12 – ein ebenso langer Strom von Schl¨usselzeichen generiert, mit dem die Verschl¨usselung zeichenweise vorgenommen wird. Die wichtigsten Vertreter symmetrischer Block-Verschl¨usselungsverfahren sind DES (Data Encryption Standard), IDEA (International Data Encryption Algorithm), die verschiedenen Varianten der sogenannten Rivest Cipher (RC2 bis RC6) und der Advanced Encryption Standard (AES). Wie in Tabelle 5.1 dargestellt, unterscheiden sich die verschiedenen Verfahren in Aufwand und Sicherheit. Tabelle 5.1 Symmetrische Block-Verschl¨usselungsverfahren Verfahren
DES
IDEA
RC2
RC5
RC6
Blockl¨ ange 64 Bit 64 Bit 64 Bit 24/64/128 Bit 128 Bit Schl¨ ussell¨ ange 56 Bit 128 Bit variabel 0–2040 Bit 128/192/256 Bit Runden 16 8 0–255 20
Als das derzeit wichtigste symmetrische Verschl¨usselungsverfahren gilt der Advanced Encryption Standard. Unter dem Namen Rijndael (benannt nach den beiden belgischen Entwicklern Vincent Rijmen und Joan Daemen) gewann dieses Verfahren den 1998 von der US-Standardisierungsbeh¨orde NIST (National Institute of Standards and Technology) ausgeschriebenen Wettbewerb um einen DES-Nachfolger und wurde schließlich 2001 zum offiziellen Standard erhoben. AES arbeitet als Block-Chiffre mit einer Blockl¨ange von 128 Bit, die Schl¨ussell¨ange ist variabel und ¨ kann 128, 192 oder 256 Bit betragen. Ahnlich wie DES arbeitet AES mit schrittweise aufeinander aufbauenden Substitutionen und Transpositionen, wobei Rechenoperationen u¨ ber einem endlichen K¨orper GF(28 ) ausgef¨uhrt werden.
Exkurs 15: Data Encryption Standard (DES) und Advanced Encryption Standard (AES) Data Encryption Standard (DES) Das symmetrische Block-Verschl¨ usselungsverfahren DES wurde Anfang der siebziger Jahre bei IBM entwickelt, 1977 als Datenverschl¨ usselungsstandard ver¨ offentlicht und 1993 f¨ ur die kommerzielle Nutzung aktualisiert. DES gilt als das erste nur mit einem Computer effizient durchf¨ uhrbare Verschl¨ usselungsverfahren und kombiniert einfach implementierbare Transpositions-, Substitutions- und One Time Pad Chiffren zu einer mehrstufigen komplexen Verschl¨ usselung. DES kodiert Bl¨ ocke von jeweils 64 Bit mit einem ebenso langen Schl¨ ussel.
324
5 Digitale Sicherheit
Allerdings betr¨ agt die effektive DES-Schl¨ ussell¨ ange nur 56 Bit, da jedes der 8 Bytes des Schl¨ ussels ein Parit¨ atsbit enth¨ alt. Insgesamt durchl¨ auft das DES-Verfahren 19 Runden, wobei sich die 16 inneren Runden auf eine wiederholte Anwendung des Schl¨ ussels beziehen.
64 Bit Klartext
Initiale Transposition
L(i)
R(i)
Iteration 1 56 Bit Schlüssel
...
...
L(i) f(R(i),K(i))
Iteration 16
32 Bit Tausch
Finale Transposition
L(i+1)
R(i+1)
Iteration
64 Bit Chiffrat
• Stufe 1: Schl¨usselunabh¨angige 64 Bit Transposition (Anfangspermutation). • Stufe 2 – 17: Funktional identische Anwendung des Schl¨ussels. 64 Bit Block M(i) auf Stufe i wird in zwei 32 Bit Worte L(i) und R(i) zerlegt. R(i) wird unver¨ andert als L(i+1) der n¨ achsten Stufe u ahrend sich R(i+1) berechnet ¨bergeben, w¨ als XOR u ussel K(i) der Stufe i ¨ber L(i) und einer Funktion, die auf R(i) und den Schl¨ angewendet wird, und die daf¨ ur sorgt, dass sich in jeder Stufe Schl¨ ussel und Daten durch Permutationen und Substitutionen ver¨ andern. Zusammen ergeben L(i+1) und R(i+1) den neuen 64 Bit Block M(i+1).
• Stufe 18: Vertauschung der beiden 32 Bit Worte des 64 Bit Blocks. • Stufe 19: Schl¨usselunabh¨angige 64 Bit Transposition. Zwar wurde die mit 56 Bit relativ kurze Schl¨ ussell¨ ange bei DES von Anfang an kritisiert, allerdings blieb sie die einzige nachgewiesene Schw¨ ache des Verfahrens, das bis 1997 einer Kryptoanalyse mit ersch¨ opfender Schl¨ usselsuche widerstand. 1997 lobte die ITSicherheitsfirma RSA einen DES-Challenge Wettbewerb aus mit der Aufforderung, bei einem Preisgeld von $10.000 ein mit DES verschl¨ usseltes Chiffrat zu entschl¨ usseln. Tats¨ achlich gelang das einem der teilnehmenden Teams in weniger als vier Monaten mit einer BruteForce-Attacke. Der Wettbewerb wurde in den beiden Folgejahren wiederholt. Wurden 1997 noch 96 Tage ben¨ otigt, um den Schl¨ ussel zu brechen, waren es 1998 41 Tage und 1999 nurmehr 22 Stunden. Mittlerweile ist es m¨ oglich, einen DES-Schl¨ ussel innerhalb weniger Stunden mit allgemein verf¨ ugbarer IT-Technik zu brechen. Zur Erh¨ ohung der Sicherheit wird deshalb dringend eine mehrfache Anwendung von DES mit jeweils unterschiedlichen Schl¨ usseln empfohlen, wie z.B. Triple-DES. Eine doppelte DES-Verschl¨ usselung, die mit zwei unterschiedlichen 56 Bit Schl¨ usseln arbeitet, w¨ urde zwar theoretisch einen Suchraum von 2112 verschiedenen Schl¨ usseln bieten und w¨ are auch nach heutigen Maßst¨ aben hinreichend sicher. Jedoch gibt es eine M¨ oglichkeit, eine ersch¨ opfende Suche mit Hilfe einer Meet-in-the-Middle-Attack zu umgehen. Dieser Angriff ist eine
5.2 Vertraulichkeit und Verschl¨usselung
325
Variante der Known-Plaintext-Attacke. Trudy (der Angreifer) nimmt dazu den bekannten Klartext und verschl¨ usselt ihn mit allen 256 m¨ oglichen DES-Schl¨ usseln. Anschließend nimmt Trudy das Chiffrat und entschl¨ usselt es ebenfalls mit allen 256 m¨ oglichen DES-Schl¨ usseln. Beim Vergleich der Ergebnisse der ersten Verschl¨ usselungsrunde mit denen der Entschl¨ usse¨ lungsrunde muss es eine Ubereinstimmung (in der Mitte“) geben und die jeweils zugeh¨ ori” gen DES-Schl¨ ussel sind gefunden. Wendet man den DES-Algorithmus dagegen dreifach an (Triple-DES, 3DES), so kann eine ausreichende Sicherheit erreicht werden, selbst wenn auch dieses Verfahren nicht immun gegen eine Meet-in-the-Middle-Attacke ist. Bei Triple-DES wird der Klartext zun¨ achst mit dem Schl¨ ussel K1 DES-verschl¨ usselt, das Chiffrat mit K2 DES-entschl¨ usselt und anschließend mit K3 wieder DES-verschl¨ usselt. In der Praxis ist es dabei sogar ausreichend, lediglich zwei unterschiedliche Schl¨ ussel K1 und K2 zu verwenden (d.h. K1 =K3 ).
Klartext (64 Bit)
DES
DES-1
DES
K1
K2
K3
Chiffrat (64 Bit)
Triple-DES wurde in den Standards X9.17 und ISO 8732 festgelegt. Gegen¨ uber DES ben¨ otigt Triple-DES jedoch den dreifachen Berechnungsaufwand. Bislang sind noch keine Schw¨ achen von Triple-DES bekannt. Anvanced Encryption Standard (AES) Mit dem Bekanntwerden der Schw¨ achen der DES-Verschl¨ usselung wurde 1997 ein offener Wettbewerb zur Entwicklung eines neuen, sichereren Verschl¨ usselungsverfahren, des Ad” vanced Encryption Standards“ (AES), ausgeschrieben. Die Ausschreibungskriterien legten folgende Kriterien fest:
• • • • • • •
Blockchiffre Mindestblockl¨ ange 128 Bit Schl¨ ussell¨ angen 128, 192, 256 Bit effiziente Implementierung vermittels Hardware als auch Software Resistenz gegen¨ uber bekannten Methoden der Kryptoanalyse geringer Ressourcenverbrauch zum Einsatz z.B. auf Smartcards freie Nutzung ohne patentrechtliche Beschr¨ ankungen
Von den 15 im Lauf des Wettbewerbs vorgeschlagenen Algorithmen erf¨ ullten f¨ unf (MARS, RC6, Rijndael, Serpent und Twofish) alle Kriterien und kamen damit in die engere Wahl. Nachdem zus¨ atzlich theoretische Schwachstellen abgewogen und der Ressourcenverbrauch gegen¨ uber der Leistung analysiert wurde, stand Ende 2002 der Algorithmus Rijndael als Sieger fest und erhielt den Namen AES. W¨ ahrend die Blockl¨ ange bei AES 128 Bit betr¨ agt, kann die Schl¨ ussell¨ ange wahlweise ¨ mit 128, 192 oder 256 Bit gew¨ ahlt werden. Ahnlich wie bei DES durchl¨ auft die AESVerschl¨ usselung mehrere Runden zur Verschl¨ usselung, deren Anzahl jeweils von der gew¨ ahlten Schl¨ ussell¨ ange abh¨ angt.
326
5 Digitale Sicherheit
128 Bit Block
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
Schicht 1 Schicht 2
Diffusion
Diffusion
Diffusion
Diffusion
Schicht 3
Rundenschlüssel k
Schicht 4 128 Bit Block
• Schicht 1 besteht aus 16 Substitutions-Boxen (S-Box), die einer 8 Bit langen Eingabe
•
• •
aus einer statischen Tabelle eine 8-Bit lange Ausgabe zuweisen. Die S-Boxen wurden so konstruiert, dass sie verschiedenen Methoden der linearen und differentiellen Kryptoanalyse widerstehen. Schicht 2 permutiert die Ausgaben der 16 S-Boxen, um damit die charakteristischen H¨ aufigkeitsverteilungen innerhalb der W¨ orter eines Texten zu beseitigen. Dabei wird ein Eingabeblock als (4x4)-Matrix interpretiert und zeilenweise zyklisch verschoben (ShiftRows). Schicht 3 vermischt die Eingabedaten spaltenweise (Diffusion) und dient ebenfalls dem Zweck, die statistischen H¨ aufigkeitsverteilungen innerhalb des Eingabetextes zu verbergen (MixColumns). Schicht 4 verkn¨ upft den aktuellen Rundenschl¨ ussel mit der Ausgabe der dritten Schicht. Dieser Rundenschl¨ ussel wird nach einem rekursiven Key Scheduling Verfahren aus dem Anwenderschl¨ ussel hergeleitet.
Bevor eine bestimmte Anzahl von Runden durchlaufen wird, findet zun¨ achst eine Schl¨ usselexpansion nach dem Key Scheduling Verfahren statt. Die Verschl¨ usselung endet mit einer finalen Runde, in der nur die Schichten 1,2 und 4 ausgef¨ uhrt werden. Eine Entschl¨ usselung ist mit dem gleichen Algorithmus m¨ oglich, wenn die Runden in umgekehrter Reihenfolge mit den jeweils inversen Transformationen durchlaufen werden. Bislang sind keine praktisch umsetzbaren, erfolgreichen Angriffe auf AES bekannt. Weiterf¨ uhrende Literatur: J. Daemen, V. Rijmen: The Design of Rijndael: AES - The Advanced Encryption Standard. Springer Verlag, Berlin, Heidelberg, New York (2002) B. Schneier, Applied Cryptography: Protocols, Algorithms, and Source Code in C, John Wiley & Sons, New York, NY, USA (1995)
Auch wenn AES heute hinreichend Sicherheit bietet, bleibt das Problem der Weitergabe des geheimen Schl¨ussels, mit dem der Empf¨anger einer verschl¨usselten Nachricht in der Lage ist, diese wieder in den Klartext umzuwandeln. Das Problem wird sogar noch ernster, wenn Kommunikationskan¨ale mehrerer Parteien unabh¨angig voneinander abgesichert werden sollen. Jedes potenzielle Teilnehmerpaar ben¨otigt einen eigenen geheimen Schl¨ussel, d.h. die Zahl der notwendigen geheimen Schl¨ussel w¨achst quadratisch zur Anzahl der Teilnehmer.
5.2 Vertraulichkeit und Verschl¨usselung
327
Einen Ausweg bieten asymmetrische Verschl¨usselungsverfahren, bei denen pro Teilnehmer lediglich zwei Schl¨ussel, ein o¨ ffentlicher und ein geheimer Schl¨ussel ben¨otigt werden.
5.2.2 Asymmetrische Verschlusselungsverfahren ¨ Im Gegensatz zu symmetrischen Verschl¨usselungsverfahren, bei denen zwischen jedem Paar von Kommunikationspartnern ein geheimer Schl¨ussel zum Ver- und Entschl¨usseln auszutauschen ist (k = K), der nicht kompromittiert werden darf, verwen¨ den asymmetrische Verschlusselungsverfahren (Public Key Encryption) stets zwei verschiedene Schl¨ussel (k 6= K): einen o¨ ffentlichen Schl¨ussel und einen geheimen Schl¨ussel. Diese Form der Verschl¨usselung wurde zusammen mit der Verwendung digitaler Signaturen 1976 von Whitfield Diffie und Martin Hellman das erste Mal o¨ ffentlich vorgestellt und sollte sich als wegweisend f¨ur die Weiterentwicklung der Kryptografie und der gesamten Internetsicherheit erweisen. Vor wenigen Jahren wurde publik, dass tats¨achlich bereits um 1970 die britischen Kryptologen James H. Ellis , Clifford Cocks und Malcolm Williamson ein entsprechendes Verfahren f¨ur den britischen Geheimdienst (Government Communications Headquarters, GCHQ) entwickelt hatten. Allerdings wurde weder die wirtschaftliche Bedeutung dieser Entdeckung erkannt noch konnte sie aus Geheimhaltungsgr¨unden ver¨offentlicht werden. Folgende Eigenschaften kennzeichnen asymmetrische Verschl¨usselungsverfahren: W¨ahrend der geheime Schl¨ussel keinem außer dem Benutzer selbst zug¨anglich sein darf, wird der nach einem komplizierten, nicht r¨uckg¨angig zu machenden Verfahren aus dem geheimen Schl¨ussel erzeugte o¨ ffentliche Schl¨ussel unter dem Namen des Benutzers jedermann zug¨anglich gemacht. Die dazu verwendete Transformationsfunktion hat die Eigenschaft, dass eine mit dem o¨ ffentlichen Schl¨ussel kpA des Benutzers A verschl¨usselte Nachricht nur mit dessen geheimen Schl¨ussel ksA wieder entschl¨usselt werden kann. Da R¨uckschl¨usse aus dem o¨ ffentlichen Schl¨ussel auf den zugeh¨origen geheimen Schl¨ussel (praktisch) unm¨oglich sind, kann hier der bei herk¨ommlichen symmetrischen Verfahren notwendige, stets problematische, geheime Austausch der Schl¨ussel entfallen. Eine Nachricht wird nun mit dem (jedermann zug¨anglichen) o¨ ffentlichen Schl¨ussel des Empf¨angers der Nachricht verschl¨usselt. Damit ist sichergestellt, dass allein dieser in der Lage ist, aus dem empfangenen Chiffrat mit seinem nur ihm bekannten, geheimen Schl¨ussel wieder den urspr¨unglichen Klartext zur¨uckzugewinnen (siehe Abb. 5.8). Die Ver¨offentlichung des o¨ ffentlichen Schl¨ussels stellt kein Sicherheitsrisiko dar, wenn bei diesem Verfahren eine sogenannte Einwegfunktion als Transformationsfunktion angewandt wird, also eine Funktion, f¨ur die die Berechnung der Umkehrtransformation und damit die Bestimmung des geheimen Schl¨ussels (mit vertretbarem Aufwand) unm¨oglich ist.
328
5 Digitale Sicherheit
Bob
geheimer Schlüssel ksBob
Klartext M Verschlüsselung
Chiffrat E=encrypt(kpBob,M)
Entschlüsselung
Klartext M=decrypt(ksBob,E)
Öffentlicher Schlüssel kpBob
Alice Abb. 5.8 Asymmetrische Verschl¨usselung (Public Key Encryption)
Ein derartiges Verfahren, das zur L¨osung des Schl¨usselaustauschproblems den diskreten Logarithmus1 als Transformationsfunktion verwendet, wurde 1976 erstmals von Whitfield Diffie und Martin Hellman ver¨offentlicht und sorgte f¨ur einen gewal¨ tigen Popularit¨atsschub in der bis dahin meist unter Ausschluss der Offentlichkeit betriebenen Wissenschaft der Kryptografie (siehe Abb. 5.9). Das Diffie-Hellman Schl¨usselaustauschprotokoll bildet die Grundlage des ElGamal-Kryptosystems. W¨ahrend das Diffi-Hellman Verfahren lediglich dazu bestimmt war, einen geheimen Schl¨ussel auf sichere Art und Weise zwischen zwei Kommunikationspartnern u¨ ber ein o¨ ffentliches Netz auszutauschen, geht das 1977 nach seinen Entwicklern Adi Shamir, Ronald L. Rivest 2 und Leonard M. Adleman benannte RSA-Verfahren noch einen Schritt weiter und bietet ein vollst¨andiges asymmetrisches Verschl¨usselungsverfahren, das auch als digitale Signatur zum Einsatz kommen kann.. Das RSA-Verfahren verwendet einen geheimen Schl¨ussel, aus dem ein o¨ ffentlicher Schl¨ussel berechnet wird. Eine R¨uckrechnung ist mit heutiger Technologie mit vertretbarem Aufwand unm¨oglich. Die zu u¨ bertagenden Nachrichten sind mit dem o¨ ffentlichen Schl¨ussel des Empf¨angers zu verschl¨usseln, der alleine das Chiffrat mit Hilfe seines geheimen Schl¨ussels wieder entschl¨usseln kann. Damit ist sichergestellt, dass nur der Empf¨anger und niemand sonst in der Lage ist, den Klartext zu lesen. Das RSA-Verfahren basiert auf Fakten aus der Zahlentheorie und ist in Exkurs 15 beschrieben. Grundlage ist dabei, dass nach aktuellem Wissensstand die Faktorisierung einer großen Zahl, also ihre Zerlegung in Primfaktoren, einen 1
auch als Modulo-Logarithmus bezeichnete Umkehroperation der Modulo-Exponentiation. Sind a, b, n ∈ IN gegeben, dann ist der diskrete Logarithmus die Zahl x, f¨ur die gilt: ax = b mod n. 2 Ronald L. Rivest entwickelte auch die bekannten symmetrischen Verschl¨ usselungsverfahren RC2, RC4, RC5 und RC6.
5.2 Vertraulichkeit und Verschl¨usselung
329
Diffie-Hellman Schl¨ usselaustausch Alice und Bob wollen u usselt mit einem herk¨ omm¨ber ein unsicheres Medium verschl¨ lichen symmetrischen Verschl¨ usselungsverfahren kommunizieren, f¨ ur das beide einen gemeinsamen geheimen Schl¨ ussel ben¨ otigen. Mit Hilfe des Diffie-Hellman-Schl¨ usselaustausches k¨ onnen sie beide auf sichere Weise in den Besitz eines solchen Schl¨ ussels gelangen. Ablauf: 1. Alice und Bob einigen sich auf eine Primzahl p und eine Primitivwurzel g mod p mit 2 ≤ g ≤ p-2. Diese Parameter m¨ ussen nicht geheim gehalten werden. 2. Alice und Bob erzeugen f¨ ur sich jeweils eine geheim zu haltende Zufallszahl a bzw. b mit 1≤ a, b ≤ p-2. Die beiden Zufallszahlen a und b sind lediglich jeweils Alice bzw. Bob bekannt. Sie werden nicht u onnen einem potenziellen ¨bertragen, d.h. sie k¨ Angreifer auch nicht in die H¨ ande fallen. 3. Alice berechnet A = ga mod p, Bob berechnet B = gb mod p. A und B k¨ onnen gefahrlos u ¨ber das unsichere Medium u ¨bertragen werden, da sich a und b nicht mehr einfach aus A und B berechnen lassen. 4. Alice und Bob berechnen nun den identischen geheimen Schl¨ ussel K = Ba modp bzw. K = Ab mod p. der f¨ ur die darauffolgende Kommunikation verwendet werden kann. Ohne besondere Vorkehrung angewandt, kann der Diffie-Hellman-Schl¨ usselaustausch allerdings durch eine Man-In-The-Middle-Attacke kompromittiert werden, wenn der Angreifer in der Lage ist, u andern. Trudy f¨ angt dazu die ¨bertragene Datenpakete zu ver¨ von Alice und Bob gesendeten Nachrichten w¨ ahrend des Schl¨ usselaustausches ab und sendet statt dessen eine eigene Nachricht Z = gz mod p weiter, die aus einer beliebigen Zahl z und den ¨ offentlich bekannten Zahlen g und p berechnet wird. Nach Abschluss des Schl¨ usselaustauschs besitzen Alice und Bob unterschiedliche Schl¨ ussel KA und KB , denn in Wirklichkeit haben Alice und Bob ohne es zu wissen jeweils mit Trudy einen Schl¨ ussel getauscht. Trudy hat danach Kenntnis von beiden Schl¨ usseln KA und KB . Der Angriff kann aber durch Verwendung einer Public-KeyInfrastruktur vereitelt werden. Weiterf¨ uhrende Literatur: W. Diffie, M. E. Hellman: New Directions in Cryptography, in IEEE Transactions on Information Theory, no.6, pp. 644–654 (1976)
Abb. 5.9 Diffie-Hellman Schl¨usselaustausch
sehr hohen Berechnungsaufwand erfordert, w¨ahrend umgekehrt die Erzeugung einer Zahl durch Multiplikation zweier Primzahlen sehr einfach ist. W¨ahrend bei symmetrischen Verschl¨usselungsverfahren Cyphertext-Only-, KnownPlaintext- und Chosen-Plaintext-Attacken zum Brechen der Schl¨ussel im Vordergrund stehen, spielen bei asymmetrischen Verschl¨usselungsverfahren folgende Angriffe die Hauptrolle: • Public-Key-Only-Attacke: Angreifer Trudy hat nur Zugriff auf Alices o¨ ffentlichen Schl¨ussel. Mit diesem kann Trudy beliebige Klartexte verschl¨usseln und Textpaare aus Klartext und zugeh¨origem Chiffrat erzeugen, die dann zur Ermittlung des geheimen Schl¨ussels verwendet werden k¨onnen. • Chosen-Cyphertext-Attacke: Bei dieser Variante kann Trudy einen Geheimtext frei w¨ahlen und diesen von Alice entschl¨usseln lassen. Im Gegensatz zur PublicKey-Only-Attacke, bei der der allgemein bekannte o¨ ffentliche Schl¨ussel Alices
330
5 Digitale Sicherheit
die Grundlage bildet, kann die Chosen-Cyphertext-Attacke nur in bestimmten Situationen angewandt werden, z.B. wenn Trudy direkten Zugriff auf ein RSAHardwaremodul hat. Theoretisch kann Trudy auch versuchen, den geheimen Schl¨ussel u¨ ber eine ersch¨opfende Suche zu ermitteln. Bei Schl¨ussell¨angen von bis zu 4.096 Bit ist dies im Falle von RSA jedoch vollkommen aussichtslos. Im Vergleich zu symmetrischen Verfahren, wie z.B. DES oder Triple-DES ist die asymmetrische RSA-Verschl¨usselung aufgrund der notwendigen, viel komplexeren Berechnungen um den Faktor 1.000 langsamer. Daher sind in der Praxis zur Ver¨ schl¨usselung gr¨oßerer Datenmengen sogenannte Hybrid-Verschlusselungsverfahren sinnvoll, bei denen mit Hilfe eines asymmetrischen Verschl¨usselungsverfahrens lediglich ein ausreichend langer geheimer Schl¨ussel zwischen den Kommunikationspartnern ausgetauscht wird, mit dem dann die eigentliche Nachricht symmetrisch verschl¨usselt werden kann.
Exkurs 16: Das RSA Public-Key-Verfahren Das bekannteste und am weitesten verbreitete asymmetrische Verschl¨ usselungsverfahren RSA ist nach seinen Erfindern Ron Rivest, Adi Shamir und Leonard Adleman benannt. Das 1977 entwickelte RSA Public-Key-Verfahren gilt als das erste Verschl¨ usselungsverfahren, mit dem nicht nur asymmetrische Verschl¨ usselung sondern auch digitale Signaturen realisiert werden k¨ onnen. RSA wurde 1983 zum Patent angemeldet, obwohl es nicht das erste asymmetrische Verschl¨ usselungsverfahren war. Das Patent ist am 21. September 2000 ausgelaufen. Vorbereitungen auf Seiten von Bob Alice und Bob wollen u ¨ber das RSA-Verfahren miteinander kommunizieren. Bevor Alice die Nachricht M an Bob verschl¨ usselt u ¨bertragen kann, muss Bob einen geheimen und einen offentlichen Schl¨ ussel generieren. Das geschieht folgendermaßen: ¨
• Auswahl zweier unterschiedlicher, sehr großer Primzahlen p und q. Beide Primzahlen sollten in etwa von der gleichen Gr¨ oßenordnung sein. RSA empfiehlt eine Wahl von p und q, so dass deren Produkt f¨ ur die Verschl¨ usselung einer privater Kommunikation eine L¨ ange von 768 Bit besitzt und bei einer kommerziellen Verwendung eine L¨ ange von 1024 Bit. Schl¨ ussell¨ angen von 2048 Bit, 4096 Bit oder l¨ anger sind ebenfalls m¨ oglich. Das Ermitteln großer Primzahlen stellt allgemein ein sehr schwieriges Problem dar. Der ¨ Berechnungsaufwand zur Uberpr¨ ufung, ob eine zuf¨ allig gew¨ ahlte Zahl tats¨ achlich eine Primzahl ist, steigt exponentiell mit der L¨ ange der zu u ufenden Zahl. Daher werden ¨berpr¨ in der Praxis zu diesem Zweck schnelle, probabilistische Primzahltests eingesetzt, die zwar keine absolut genaue Aussage erlauben, aber mit hoher Wahrscheinlichkeit eine korrekte Beurteilung der Primzahleigenschaft gew¨ ahrleisten.
• Berechnung des RSA-Moduls n = p · q und der Eulerschen φ -Funktion φ (n) = z = (p-1)·(q-1) . • Auswahl des Verschl¨usselungsexponenten e < n, e6=1, so dass e (ebenso wie n) keine gemeinsamen Primfaktoren mit z besitzt, d.h. ggT(e,z)=1.
• Berechnung des Entschl¨usselungsexponenten d als multiplikativ Inverses von e mod z, d.h. es soll gelten e · d ≡ 1 mod z. Die Berechnung des geheimen Teilschl¨ ussels d kann mit Hilfe des erweiterten Euklidischen Algorithmus erfolgen als d=eggT(e,z) [50].
5.2 Vertraulichkeit und Verschl¨usselung
331
• Bobs ¨offentlicher Schl¨ussel kpB ist das Zahlenpaar (n,e), Bobs geheimer Schl¨ussel ksB das Zahlenpaar (n,d). Verschl¨ usselung durch Alice ¨ • Bob hat seinen ¨offentlichen Schl¨ussel kpB =(n,e) f¨ur Alice und die Offentlichkeit zug¨ ang-
•
lich gemacht. Alice m¨ ochte an Bob eine Nachricht M (kodiert als Bitstring) senden, f¨ ur die bei Interpretation von M als Zahl gelte: M < n. Zur Verschl¨ usselung berechnet Alice aus dem Klartext M mit Hilfe des ¨ offentlichen Schl¨ ussels kpB =(n,e) von Bob das Chiffrat c als c
≡ Me mod n.
• Alice sendet die verschl¨usselte Nachricht c an Bob. Entschl¨ usselung durch Bob
• Um das Chiffrat c zu entschl¨usseln, berechnet Bob mit Hilfe seines geheimen Schl¨ussels ksB =(n,d) die urspr¨ungliche Klartextnachricht M
≡ cd mod n.
Die Sicherheit des RSA Public-Key-Verfahrens Die Sicherheit des RSA-Verfahrens beruht auf der Schwierigkeit der L¨ osung des sogenannten RSA-Problems“: Angreifer Trudy sei im Besitz des o ussels kpB =(n,e) ¨ffentlichen Schl¨ ” von Bob und des Chiffrats c. Daraus will Trudy den urspr¨ unglichen Klartext M rekonstruieren. Dies entspricht der Aufgabe, die e-te Wurzel aus c zu ziehen, wobei c sich aus zwei unbekannten Faktoren zusammensetzt, eine Aufgabe, von deren praktischen Unl¨ osbarkeit man bis dato ausgeht. Allerdings muss kritisch bemerkt werden, dass es bisher keinen mathematischen Beweis gibt, der diese Annahme best¨ atigt. Das RSA-Verfahren beruht auf Primzahlen, die man mit Hilfe probabilistischer Verfahren (z.B. Primzahltest nach Rabin-Miller [50]) relativ leicht finden und miteinander multiplizieren kann. Wenn man als Angreifer aber lediglich das Produkt der beiden Primzahlen kennt, ist die Ermittlung der beteiligten Faktoren (das sogenannte Faktorisierungsproblem“) mit ” vertretbaren Aufwand praktisch unm¨ oglich. Die Faktorisierung ist aktuell der einzige bekannte Weg zur L¨ osung des RSA-Problems. Es ist unbekannt, ob es noch andere, effizientere Verfahren zur L¨ osung des RSA-Problems und damit zum Brechen der RSA-Verschl¨ usselung gibt. Die Firma RSA Security veranstaltete von 1991 bis 2007 einen Wettbewerb – die RSAChallenge –, um die Sicherheit des RSA-Verfahrens zu demonstrieren. Dabei wurden Mathematiker und Informatiker aufgefordert, Primfaktorzerlegung von vorgegebenen Zahlen verschiedener L¨ ange (von 330 bis 2048 Bit) zu finden. In den ersten Jahren der RSAChallenge wurden einige der vorgegebenen Zahlen faktorisiert, jedoch konnte die Grenze von 530 Bit erst 2003 durchbrochen werden, als es den beiden Mathematikern Jens Franke und Thorsten Kleinjung vom Mathematischen Institut in Bonn und dem Institut f¨ ur Experimentelle Mathematik in Essen gelang, eine 576 Bit lange Zahl in ihre Primfaktoren zu zerlegen und ein Preisgeld von 10.000 US-$ zu gewinnen. Im November 2005 gelang dem selben Team die Faktorisierung einer 640 Bit langen Zahl des RSA-Challenge und als im Mai 2007 eine 1039 Bit lange Zahl (die 1039. Mersenne Zahl3 ) faktorisiert wurde, die nicht 3
Eine Mersenne-Zahl ist eine Zahl der Form 2n − 1, Mn = 2n − 1 wird als n-te Mersenne-Zahl bezeichnet, nach dem franz¨osischen Mathematiker Marin Mersenne (1588–1648).
332
5 Digitale Sicherheit
zu den vom RSA-Challenge ausgeschriebenen Zahlen z¨ ahlte, erkl¨ arte RSA Security den Wettbewerb f¨ ur beendet, da die Sicherheit des Verfahrens gekl¨ art sei. Da Schl¨ ussell¨ angen von 2048 Bit, 4096 Bit und l¨ anger ebenfalls m¨ oglich sind, besteht auch u ange¨ber einen l¨ ren Zeitraum kein Zweifel an der Sicherheit des RSA-Verfahrens zumindest solange keine wissenschaftliche Durchbr¨ uche im Hinblick auf effiziente L¨ osung des RSA-Problems erzielt werden k¨ onnen. Weiterf¨ uhrende Literatur: Cormen, T. H., Leiserson, C. E., Rivest, R. L., Stein, C.: Introduction to Algorithms. The MIT Press, Cambridge, MA, USA (2001) Kaufman, C., Perlman, R., Speciner, M.: Network Security, Private Communication in a Public World, Prentice Hall, Englewood Cliffs NJ, USA (1995) Rivest, R. I., Shamir, A., Adleman, L.: On a Method for Obtaining Digital Signatures and Public Key Cryptosystems, in Communications of the ACM, vol.21, pp. 120-126 (1978)
5.2.3 Authentifikation Um festzustellen, ob die Identit¨at des Kommunikationspartners auch tats¨achlich korrekt ist und man nicht mit einem Betr¨uger kommuniziert, braucht es Verfahren zur Authentifikation. Unter dem Begriff Authentifizierung“ (von authenti” ¨ kos=[griech.] Anf¨uhrer) versteht man den Vorgang der Uberpr¨ ufung einer behaupteten Identit¨at, also z.B. einer Person, oder eines Objekts, wie etwa einem Computer. Umgekehrt wird der Vorgang des Nachweises der eigenen Identit¨at als Authentisierung bezeichnet. Im Englischen werden beide Begriffe nicht unterschieden, daher werden sie im Deutschen auch oft f¨alschlicherweise synonym verwendet. Bei einem Computerprogramm, das Zugang zu einem gesicherten Bereich gew¨ahren kann, behauptet der Benutzer zuerst seine Identit¨at, indem er einen Benutzernamen angibt. Zus¨atzlich authentisiert er sich, indem er sein Passwort oder ein nur ihm und dem Gegen¨uber bekanntes Geheimnis angibt. Das Programm kann dann den Benutzer anhand dieser Angaben zun¨achst identifizieren und authentifiziert daraufhin dessen Identit¨at: Das Passwort beweist, dass es sich tats¨achlich um den Benutzer handelt, der er behauptet zu sein. Damit steht f¨ur das Programm die Identit¨at des Kommunikationspartners fest. Eine Autorisierung f¨ur den Zugriff auf gesicherte Ressourcen zu denen der identifizierte Benutzer Zugang hat, kann ohne Bedenken erteilt werden. Da die Authentifikation u¨ ber das Internet nicht wie bei einem gegen¨uberstehenden Gespr¨achspartner mit Hilfe gegenseitigen Erkennens biometrischer Merkmale vonstatten gehen kann, sondern lediglich mit Hilfe des Austauschs von elektronischen Nachrichten u¨ ber das Netzwerk m¨oglich ist, mussten spezielle Authentifikationsprotokolle entwickelt. Dabei werden Informationen zwischen den Kommunikationspartnern ausgetauscht, die deren Identit¨at zweifelsfrei nachweisen sollen. Erst wenn dies erfolgreich durchgef¨uhrt worden ist und die Identit¨at der Kommunikationspartner zweifelsfrei feststeht, kann die eigentliche Kommunikation stattfinden. Tats¨achlich ist die Entwicklung zuverl¨assiger Authentifikationsverfahren schwieriger, als man zun¨achst denkt. Zum besseren Verst¨andnis soll diese Entwicklung,
5.2 Vertraulichkeit und Verschl¨usselung
333
sowie die zu u¨ berwindenden Schwierigkeiten kurz dargestellt werden: Seien Alice und Bob die beiden Kommunikationspartner, wobei Alice versucht, sich zuverl¨assig u¨ ber das Netzwerk bei Bob zu authentifizieren. Trudy sei ein unberechtigter Dritter, der versucht, Bob die Identit¨at von Alice vorzuspiegeln: • Die einfachste M¨oglichkeit der Authentifikation besteht darin, dem Kommunikationspartner seinen Namen, d.h. seine Identit¨at zu nennen. Alice teilt also Bob vor Aufnahme der eigentlichen Kommunikation mit: Hallo, ich bin Ali” ce.“ Allerdings hat Bob keine M¨oglichkeit nachzupr¨ufen, ob diese Meldung auch tats¨achlich von Alice kam, denn Trudy kann ohne Schwierigkeiten eine identische Nachricht an Bob senden und so erfolgreich eine falsche Identit¨at vorspiegeln. • Kennt Bob die IP-Adresse von Alice, u¨ ber die diese f¨ur gew¨ohnlich kommuniziert, k¨onnte er ihrer Nachricht Glauben schenken, wenn die empfangenen Datenpakete als Absenderadresse ihre u¨ bliche IP-Adresse enthalten. Allerdings ist es f¨ur Trudy leicht m¨oglich, die Absenderadresse in den versendeten Datenpaketen so zu manipulieren, als ob sie von Alices IP-Adresse stammten (IPSpoofing), falls Trudy die Kontrolle u¨ ber Betriebssystem und Netzwerksoftware ihres Rechners hat. IP-Spoofing ließe sich vermeiden, wenn der erste Router, u¨ ber den Trudy die Daten ins Internet weiterleitet, so konfiguriert w¨are, dass er nur Daten von Trudy weiterleitet, die mit ihrer originalen IP-Adresse als Absender versehen sind (siehe RFC 2267). Da aber von einer solchen Konfiguration nicht allgemein aus¨ gegangen werden kann, liefert die Uberpr¨ ufung der IP-Adressen alleine keine sichere Authentifizierung. • Der klassische Ansatz zur Durchf¨uhrung einer Authentifikation erfolgt u¨ ber die Verwendung eines geheimen Passworts. Alice sendet an Bob zusammen mit der Nachricht Hallo, ich bin Alice.“ ein geheimes Passwort, von dem nur Bob und ” Alice Kenntnis haben d¨urfen. Bob ist dann sicher, dass es sich bei seinem Kommunikationspartner tats¨achlich nur um Alice handeln kann. Allerdings hat Trudy die M¨oglichkeit, den gesamten Datenverkehr zwischen Alice und Bob auszuspionieren (Packet-Sniffing) und dabei insbesondere das geheime Passwort von Alice aufzuzeichnen und es in einer sp¨ateren Kommunikation mit Bob unberechtigt selbst zu verwenden (Playback-Angriff). Da Internetprotokolle, wie z.B. telnet, Passworte im Klartext u¨ bertragen, stellt dieses Szenario tats¨achlich eine reale Bedrohung dar. • Als n¨achstes k¨onnten Alice und Bob ein gemeinsames symmetrisches Verschl¨usselungsverfahren vereinbaren, um das Passwort von Alice verschl¨usselt zu u¨ bertragen. Da Alice jetzt nicht nur ihr Passwort, sondern auch noch den gemeinsam verwendeten geheimen Schl¨ussel verwendet, glaubt Bob um so fester an Alices Identit¨at. Aber auch hier hat Trudy die M¨oglichkeit, beim Abh¨oren der Kommunikation zwischen Alice und Bob, das verschl¨usselte Passwort von Alice aufzuzeichnen und bei einem sp¨ateren Angriff in der Kommunikation mit Bob (unverstanden) zu verwenden (Playback-Angriff). Bzgl. der Authentifikation von Alice hat sich die Lage also noch nicht sonderlich verbessert.
334
5 Digitale Sicherheit
• Der Playback-Angriff kann nur Erfolg haben, wenn stets dasselbe Passwort verwendet wird. Eine einfache Art der Abwehr eines derartigen Angriffs besteht also darin, dass Alice und Bob nicht nur jeweils u¨ ber ein einziges Passwort verf¨ugen, sondern sich bereits im Voraus u¨ ber eine ganze Serie von Passworten miteinander verst¨andigt haben, und diese nacheinander verwenden. Allerdings setzt dies den sicheren Austausch der Passwortliste voraus. Eine L¨osung des Problems besteht darin, eine a¨ hnliche Technik einzusetzen, wie sie im Drei-Wege Handshake des TCP-Protokolls zum Einsatz kommt: Um dort sicherzustellen, dass bei einer Verbindungsaufnahme (SYN) u¨ ber das TCP-Protokoll kein altes SYN-Segment (Neu¨ubertragung) aus einer fr¨uheren Verbindung verwendet wird, wird jedem Segment eine Sequenznummer beigef¨ugt. Beim Start einer Verbindung wird dazu ein Zufallswert als Sequenznummer f¨ur das SYN-Segment des Senders gew¨ahlt, auf das der antwortende Empf¨anger mit einem ACK-Segment mit derselben Sequenznummer reagiert. Ein derartig verwendeter Zufallswert wird als Nonce (oder auch Salt“) bezeich” net. Er darf lediglich ein einziges Mal verwendet werden. Eine Authentifikation mit Hilfe eines Nonce-Wertes l¨auft folgendermaßen ab (siehe Abb. 5.10): 1. Alice sendet die Nachricht Hallo, ich bin Alice.“ an Bob. ” 2. Bob w¨ahlt einen Nonce-Wert R und sendet diesen zur¨uck an Alice, um festzustellen ob Alice tats¨achlich live“ dabei ist. ” 3. Alice verschl¨usselt R mit dem symmetrischen geheimen Schl¨ussel k, den Alice und Bob zuvor festgelegt haben, und sendet k(R) an Bob zur¨uck. 4. Bob kann k(R) entschl¨usseln und erkennt seinen Nonce-Wert R. Weil Alice k kennt und verwendet, weiß er jetzt, dass Alices Identit¨at korrekt ist. Da Alice den Wert k(R) zur¨ucksendet, kann Bob davon ausgehen, dass Alice auch tats¨achlich live“ antwortet, und dass es sich nicht um eine Playback-Attacke handelt. Bob ” hat also Alice erfolgreich authentifiziert. Anstelle eines symmetrischen Verschl¨usselungsverfahrens kann in diesem Szenario auch ein asymmetrisches Verschl¨usselungsverfahren mit o¨ ffentlichem Schl¨ussel zum Einsatz kommen. Das neue Protokoll sieht dann folgendermaßen aus (siehe Abb. 5.11): 1. Alice sendet die Nachricht Hallo, ich bin Alice.“ an Bob. ” 2. Bob w¨ahlt einen Nonce-Wert R und sendet diesen zur¨uck an Alice, um festzustellen, ob Alice auch tats¨achlich live“ an der Kommunikation teilnimmt. ” 3. Alice wendet zur Verschl¨usselung von R den asymmetrischen Verschl¨usselungsalgorithmus (vgl. Exkurs 16) mit ihrem privaten Schl¨ussel ksA auf R an und sendet ksA (R) an Bob zur¨uck. Da nur Alice ihren privaten Schl¨ussel kennt, kann keiner außer Alice den Wert ksA (R) erzeugen. 4. Bob verschafft sich Alices o¨ ffentlichen Schl¨ussel kpA , wendet den asymmetrischen Entschl¨usselungsalgorithmus auf die empfangene Nachricht an und berechnet kpA (ksA (R)). Gilt kpA (ksA (R)) = R, ist Alice erfolgreich authentifiziert.
5.2 Vertraulichkeit und Verschl¨usselung
335
Alice
Bob
„Hallo, ich b
in Alice.“ Generiere Nonce R
R Verschlüsselung k(R) K(R) t
t
Authentifikation erfolgreich
Abb. 5.10 Authentifikation mit Hilfe eines Nonce-Wertes und eines symmetrischen Verschl¨usselungsverfahrens
Alice
Bob
„Hallo, ich b
in Alice.“ Generiere Nonce R
R Verschlüsselung ksA(R) ksA(R) t
t
Berechne kpA(ksA(R) = R Authentifikation erfolgreich
Abb. 5.11 Authentifikation mit Hilfe eines Nonce-Wertes und eines asymmetrischen Verschl¨usselungsverfahrens
336
5 Digitale Sicherheit
Allerdings stellt sich hier wie auch bei Anwendung anderer asymmetrischer Verfahren das Problem eines sicheren Zugriffs auf den o¨ ffentlichen Schl¨ussel. Um dieses Problem zu verdeutlichen, soll auf das folgende Szenario verwiesen werden, in dem es Trudy u¨ ber eine Man-in-the-Middle-Attacke tats¨achlich gelingt, sich gegen¨uber Bob erfolgreich als Alice zu authentifizieren: 1. Trudy sendet die Nachricht Hallo, ich bin Alice.“ an Bob. ” 2. Bob w¨ahlt einen Nonce-Wert R und sendet diesen zur¨uck an Alice, um festzustellen, ob Alice auch tats¨achlich live“ an der Kommunikation teilnimmt. Die ” Nachricht wird von Trudy abgefangen. 3. Trudy wendet jetzt zur Verschl¨usselung von R den Verschl¨usselungsalgorithmus mit dem eigenen privaten Schl¨ussel ksT auf R an und sendet ksT (R) an Bob zur¨uck. Da der empfangene Wert f¨ur Bob zun¨achst lediglich eine unbekannte Bitfolge darstellt, kann er vorerst nicht unterscheiden, ob diese von Alice oder von Trudy stammt, d.h. ob es sich um ksT (R) oder um ksA (R) handelt. 4. Damit Bob den empfangenen Wert wieder entschl¨usseln kann, ben¨otigt er den o¨ ffentlichen Schl¨ussel kpA von Alice. Bislang sind wir davon ausgegangen, dass ihm dieser auch tats¨achlich vorliegt. Um den aber zu erhalten, muss er zuerst von Alice angefordert werden. Diese Anforderung kann Trudy wiederum abfangen und Bob mit dem eigenen o¨ ffentlichen Schl¨ussel kpT beantworten. Bob wendet den Entschl¨usselungsalgorithmus zusammen mit dem empfangenen, o¨ ffentlichen Schl¨ussel kpT auf die erhaltene Nachricht an und berechnet kpT (ksT (R)) = R. Damit glaubt er f¨alschlicherweise, Alice korrekt authentifiziert zu haben, obwohl er unwissentlich mit Trudy kommuniziert. Ein derartiger Angriff kann allerdings entdeckt werden, wenn Bob gegen¨uber Alice behauptet, sie h¨atten miteinander kommuniziert, w¨ahrend Alice weiß, dass dies nicht der Fall war. Verf¨ahrt allerdings Trudy gegen¨uber Alice ebenso wie gegen¨uber Bob, dann kann es Trudy gelingen, sich transparent, also von beiden unbemerkt ( durchsichtig“) in die Kommunikationsbeziehung zwischen Alice und Bob einzu” mischen. Trudy t¨auscht gegen¨uber Alice vor, Bob zu sein. Umgekehrt wird Bob vorget¨auscht, dass Trudy Alice ist (siehe Abb. 5.12). Eine andere M¨oglichkeit zur Sicherung der Authentizit¨at einer Nachricht gegen¨uber den beschriebenen Angriffen ist die sogenannte Second-Channel-Kommunikation, bei der ein Teil der Identifizierungsdaten u¨ ber einen separaten zweiten Kanal u¨ bertragen wird, wie z.B. der Versand einer SMS beim mobile TAN (mTAN) Verfahren.
5.3 Digitale Signaturen Im t¨aglichen Leben dient eine handschriftliche Unterschrift dazu, den Inhalt eines Dokuments zu best¨atigen oder sich mit dem Inhalt eines Dokumentes – wie z.B. bei einem Vertrag – einverstanden zu erkl¨aren. Auch im Internet und in der digitalen Welt besteht der Wunsch, das Einverst¨andnis mit dem Inhalt eines Dokuments unzweifelhaft festzuhalten, dessen Korrektheit zu best¨atigen oder den Urheber bzw.
5.3 Digitale Signaturen
337
Trudy
Alice
„Hallo, ich
bin Alice.“
Bob
„Hallo, ich bi
n Alice.“
R Verschlüsselung ksT(R)
Generiere Nonce R
ksT(R)
deinen „Sende mir chlüssel“ S öffentlichen R Verschlüsselung ksA(R)
kpT
ksA(R)
Berechne kpT(ksT(R)) = R Authentifikation erfolgreich
deinen „Sende mir chlüssel“ S n he lic nt öffe t
kpA
t
t Berechne kpA(ksA(R)) = R Authentifikation erfolgreich
Abb. 5.12 Man-in-the-Middle Angriff in der Authentifikationsphase einer Kommunikationsbeziehung
Inhaber eines Dokuments nachzuweisen. Zu diesem Zweck werden sogenannte digitale Signaturen verwendet. Wie an die Unterschrift im t¨aglichen Leben wird an eine digitale Signatur der Anspruch gestellt, dass diese • u¨ berpr¨ufbar, • f¨alschungssicher und • verbindlich ist. Es muss also sichergestellt sein, dass der Unterzeichner eines Dokuments auch tats¨achlich der ist, f¨ur den er sich ausgibt. Auf der anderen Seite soll ein Unterzeichner sp¨ater auch niemals abstreiten k¨onnen, eine Unterschrift geleistet zu haben. Auch diese Eigenschaften einer digitalen Signatur lassen sich mit Hilfe von Methoden der modernen Kryptografie mit asymmetrisches Verschl¨usselung gew¨ahrleisten.
338
5 Digitale Sicherheit
5.3.1 Datenintegrit¨at und Authentizit¨at Nehmen wir an, Alice m¨ochte zum Nachweis der Integrit¨at der Nachricht M und ihrer Authentizit¨at die Nachricht M mit einer digitalen Signatur unterzeichnen, und Bob, als Empf¨anger der Nachricht M m¨ochte sich u¨ berzeugen, dass Alice tats¨achlich die Nachricht M an ihn gesendet hat (siehe Abb. 5.13). • Um die Nachricht M digital zu unterzeichnen, wendet Alice darauf einfach einen asymmetrischen Verschl¨usselungsalgorithmus zusammen mit ihrem eigenen geheimen Schl¨ussel ksA an und berechnet ksA (M), die sogenannte digitale Signatur der Nachricht M. • Alice sendet ksA (M) an Bob, der die Nachricht mit Alices o¨ ffentlichen Schl¨ussel kpA entschl¨usseln kann, M = kpA (ksA (M)).
Klartext M
Verschlüsselung
Alice
Digitale Signatur ksA(M) Alices geheimer Schlüssel ksA
ksA(M) kann nur mit Alices öffentlichem Schlüssel kpA entschlüsselt werden
Abb. 5.13 Erzeugung einer digitalen Signatur f¨ur eine Nachricht
Tats¨achlich gen¨ugt diese einfache Form der digitalen Signatur die o.a. Anforderungen an ein Pendant zur handschriftlichen Signatur zu erf¨ullen. Bob kann u¨ berpr¨ufen, ob Alice tats¨achlich der Absender der Nachricht war, indem er den Entschl¨usselungsalgorithmus zusammen mit Alices o¨ ffentlichen Schl¨ussel kpA anwendet und kpA (ksA (M)) berechnet. Ergibt sich danach tats¨achlich eine lesbare Nachricht M, kann Bob sicher sein, dass Alice die Urheberin und Unterzeichnerin der empfangenen Nachricht ist. kpA (ksA (M)) = M gilt n¨amlich nur, wenn die empfangene digitale Signatur kpA (M) mit Alices geheimen Schl¨ussel ksA verschl¨usselt ist. Die einzige Person aber, der dieser Schl¨ussel zug¨anglich ist, ist (bei vorgeschriebenen Gebrauch) Alice. Also ist Alice die einzige Person, die die digitale Signatur erzeugt haben kann.
5.3 Digitale Signaturen
339
Um zus¨atzlich noch sicherzustellen, dass die gesendete Nachricht nicht w¨ahrend ¨ der Ubertragung manipuliert wurde, kann Alice zus¨atzlich zur digitalen Signatur die Nachricht M an Bob senden. Um die Nachricht M vor fremden Einblick zu sch¨utzen, kann Alice M mit dem o¨ ffentlichen Schl¨ussel kpB von Bob verschl¨usselt als kpB (M) u¨ bertragen. Beim Empfang entschl¨usselt Bob kpB (M) mit seinem geheimen Schl¨ussel ksB und erh¨alt die originale Nachricht M = ksB (kpB (M)). Vergleicht er diese Nachricht M mit der entschl¨usselten digitalen Signatur M = kpA (ksA (M)), so kann Bob feststellen, ob der Inhalt der urspr¨unglichen Nachricht M im Laufe der ¨ Ubertragung manipuliert worden ist (siehe Abb. 5.14).
Alice
Alices öffentlicher Schlüssel kpA
Alices geheimer Schlüssel ksA
Bob
Klartext M
Klartext M
Verschlüsselung
Digitale Signatur ksA(M)
Chiffrat kpB(M)
Bobs öffentlicher Schlüssel kpB
?
Entschlüsselung
M‘ = M
Klartext M‘
Bobs geheimer Schlüssel ksB
¨ Abb. 5.14 Uberpr¨ ufung der Integrit¨at einer Nachricht mit Hilfe der digitalen Signatur
Sollte ein unberechtigter Dritter die Nachricht M in eine neue Nachricht M 0 verf¨alscht haben, bevor Bob diese empfangen hat, so stellt Bob beim Entschl¨usseln fest, dass kpA (ksA (M)) 6= M 0 gilt. Bob weiß dann, dass etwas schief gelaufen ist und der Inhalt der Nachricht nicht mehr verl¨aßlich ist. Allerdings gibt es zwei gravierende Probleme mit dieser Variante der digitalen Signatur. Zum einen besitzen asymmetrischen Verschl¨usselungsverfahren eine um den Faktor 1.000 h¨ohere Berechnungskomplexit¨at als symmetrische Verschl¨usselungsverfahren. Die Berechnung eines auf der Verschl¨usselung des gesamten Dokuments beruhenden digitalen Signatur ist, wenn das Dokument groß ist, viel zu aufw¨andig. Zum anderen kann nicht sicher gestellt werden, dass der Inhalt der Nachricht geheim bleibt. Alices digitale Signatur kann n¨amlich stets mit Alices o¨ ffentlichem Schl¨ussel, der jedermann zug¨anglich ist, dechiffriert und so der Inhalt der Originalnachricht preisgegeben werden. Daher sollte der Ausgangspunkt einer digitalen Signatur nicht die Originalnachricht selbst sondern ein Derivat der Nachricht sein,
340
5 Digitale Sicherheit
die diese zwar m¨oglichst eindeutig identifiziert, aber keine R¨uckschl¨usse auf deren Inhalt erlaubt.
5.3.2 Message Digest Die Verschl¨usselung der gesamten Nachricht zur Erzeugung einer digitalen Signatur ist in vielen F¨allen ein zu aufw¨andiges Verfahren, verdoppelt sie doch alleine schon den notwendigen Datentransfer und verhindert eine effektive Verschl¨usselung des Inhalts. Außerdem werden von viele Netzwerkkomponenten und -Prozessen, wie z.B. Router oder E-Mail-Agenten, regelm¨aßig viele Nachrichten ausgetauscht, die gar nicht verschl¨usselt werden m¨ussen. Lediglich die Identit¨at des Absenders muss gesichert sein und der Empf¨anger muss sich darauf verlassen k¨onnen, dass der Inhalt der Nachricht nicht von einem unberechtigten Dritten ver¨andert wurde. In diesen F¨allen empfiehlt sich die Anwendung einer Hashfunktion zur Erzeugung eines sogenannten Message Digests. Solche Hashfunktionen berechnen aus dem Inhalt der zu versendenden Nachrichten M einen m¨oglichst kurzen Fingerabdruck“ ” h(M) der Nachricht von fester L¨ange, den Message Digest. Dieser wird zusammen mit der Nachricht an den Empf¨anger versendet. Mit Hilfe des Message Digest kann nach Erhalt einer Nachricht gepr¨uft werden, ob der Inhalt der empfangenen Nachricht M 0 unversehrt ist, also ob M = M 0 gilt. Dazu berechnet der Empf¨anger unter Verwendung der gleichen Hashfunktion seinerseits den Fingerabdruck h(M 0 ) der empfangenen Nachricht M 0 und u¨ berpr¨uft, ob dieser mit dem empfangenen Fingerabdruck h(M) u¨ bereinstimmt. Ist h(M 0 ) = h(M), dann gilt (zumindest mit u¨ berw¨altigender Wahrscheinlichkeit) aufgrund der Anforderungen, die an eine Hashfunktion gestellt werden, auch M = M 0 , die empfangene Nachricht ist also mit dem versendeten Original identisch.
kryptografische Hashfunktion
Message Digest h(M)
Nachricht M
Rückrechnung nicht möglich
Abb. 5.15 Hashfunktion zur Erzeugung eines Message Digests
5.3 Digitale Signaturen
341
Unter diesem Gesichtspunkt ist es sinnvoll, den Message Digest auch f¨ur die digitale Signatur zu nutzen. Wendet Alice n¨amlich die Verschl¨usselung mit ihrem geheimen Schl¨ussel ksA auf den Message Digest h(M) an, anstelle die vollst¨andige Nachricht zu verschl¨usseln, reicht es aus, zusammen mit der Originalnachricht ksA (h(M)) anstelle von ksA (M) zu u¨ bertragen, um alle Anforderungen an eine digitale Signatur zu erf¨ullen. Die als Message Digest verwendete Funktion muss dazu allerdings die folgenden Voraussetzungen erf¨ullen, um als f¨alschungssicher gelten zu k¨onnen: • Aus einem gegebenen Message Digest Wert d ist es mit vertretbarem Aufwand nicht m¨oglich, die originale Nachricht M zu rekonstruieren, f¨ur die gilt h(M) = d. • Es ist mit vertretbarem Aufwand unm¨oglich, zwei unterschiedliche Nachrichten M und N zu finden, so dass gilt h(M) = h(N).
Alice
Bob Alices öffentlicher Schlüssel kpA
Alices geheimer Schlüssel ksA
Message Digest h(M)
Message Digest h(M)
Verschlüsselung
Digitale Signatur ksA(M)
Entschlüsselung ?
h(M‘) = h(M)
Kryptografische Hashfunktion Verschlüsselung
Klartext M
Entschlüsselung
Chiffrat kpB(M)
Bobs öffentlicher Schlüssel kpB
Klartext M‘
Kryptografische Hashfunktion
Bobs geheimer Schlüssel ksB
Message Digest h(M‘)
Abb. 5.16 Verwendung von digitaler Signatur und Message Digest
Abb. 5.16 zeigt, wie eine mit einer digitalen Signatur u¨ ber einen Message Digest versehene Nachricht versendet und empfangen wird. • Alice wendet zur Erzeugung des Message Digest die Hashfunktion h auf die zu versendende Nachricht M an und verschl¨usselt h(M) mit der Verschl¨usselungsfunktion und ihrem geheimen Schl¨ussel ksA . • Alice versendet M zusammen mit ksA (h(M)). • Bob wendet die Entschl¨usselungsfunktion zusammen mit Alices o¨ ffentlichen Schl¨ussel kpA auf die empfangene digitale Signatur ksA (h(M)) zu Alices Nachricht an.
342
5 Digitale Sicherheit
• Bob wendet die Hashfunktion h auf die empfangene Nachricht M 0 an und vergleicht, ob h(M 0 ) = kpA (ksA (h(M))) gilt. • Sind die beiden Werte identisch, kann Bob davon ausgehen, dass die empfange¨ ne Nachricht tats¨achlich von Alice stammt und w¨ahrend der Ubertragung nicht ver¨andert wurde. Zur Erzeugung eines Message Digest wird heute in der Regel der von Ron Rivest entwickelte MD5-Algorithmus verwendet, der in RFC 1321 spezifiziert wurde, und der aus einem vorgegebenen Dokument eine 128 Bit langen Message-Digest berechnet. Ein weiterer Algorithmus, der speziell als Standard f¨ur die Kommunikation der US-Bundesregierung vorgeschrieben ist, ist der Secure Hash Algorithm (SHA-1), der auf a¨ hnlichen Prinzipien wie MD4, dem Vorg¨anger von MD5 beruht, und einen 160 Bit langen Message Digest erzeugt. Kryptografische Hashfunktionen werden in Exkurs 17 detaillierter beschrieben.
Exkurs 17: Kryptografische Hashfunktionen Eine Hashfunktion (auch Streuwertfunktion, von to hash“= [engl.] zerhacken) ist eine ” Funktion bzw. Abbildung, die zu einer Eingabe aus einer u ¨blicherweise großen Quellmenge eine Ausgabe aus einer kleineren Zielmenge, den Hashwert, erzeugt. Ein Hashwert wird auch als Message Digest oder Fingerabdruck (Fingerprint) bezeichnet. Ebenso wie ein Fingerabdruck einen Menschen nahezu eindeutig identifiziert, liefert ein Hashwert eine nahezu eindeutige Kennzeichnung der Eingabe. In der Kryptografie dient ein Hashwert dem Zweck, den Erhalt der Integrit¨ at eines Dokuments, also dessen Authentizit¨ at, nachzuweisen, ohne dabei dessen Inhalt offenzulegen. Definition einer Hashfunktion Gegeben seine die beiden Mengen K und S, wobei K die Menge der Daten repr¨ asentiert, f¨ ur die ein Hashwert ermittelt werden soll, und S, die Menge der zur Verf¨ ugung stehenden Hashwerte (auch Schl¨ ussel). Die Menge S wird in bestimmten Zusammenh¨ angen auch als Adressraum bezeichnet. Eine Abbildung h:K→S heißt Hashfunktion, wenn [#S]≤[#K] gilt. Typischerweise wird in der Praxis immer nur f¨ ur eine kleine Teilmenge K’⊆K der Hashwert bestimmt. Die Menge S’:={h(k)|k∈K’} ist dann die Menge der tats¨ achlich genutzten Hashwerte. Eine Kollision tritt auf, wenn f¨ ur zwei unterschiedliche Datens¨ atze k,k’∈K, k6=k’ gilt: h(k)=h(k’). Eine Hashfunktion heißt perfekt, wenn sie keine Kollisionen erzeugt. Qualit¨ atskriterien f¨ ur Hashfunktionen Folgende Kriterien zeichnen die Qualit¨ at einer Hashfunktion aus:
• M¨oglichst geringe Wahrscheinlichkeit von Kollisionen, d.h. m¨oglichst Gleichverteilung der Hashwerte
• Speicherbedarf des Hashwerts soll deutlich kleiner sein als der Speicherbedarf der repr¨ asentierten Daten (Datenreduktion) ¨ • Ahnliche Daten sollen zu v¨ ollig verschiedenen Hashwerten f¨ uhren, d.h. im Idealfall
• •
ver¨ andert das Umkippen eines Bits in den Daten die H¨ alfte aller Bits des zugeh¨ origen Hashwertes Potenziell soll jeder m¨ ogliche Hashwert im Wertebereich tats¨ achlich m¨ oglich sein (Surjektivit¨ at) Die Hashfunktion soll m¨ oglichst berechnungs- und speichereffizient implementierbar sein (d.h. in Polynomialzeit) und die Ursprungsdaten nach M¨ oglichkeit nur einmal lesen m¨ ussen.
5.3 Digitale Signaturen
343
Kryptografische Hashfunktionen Sollen Hashfunktionen zur Berechnung einer digitalen Signatur verwendet werden, m¨ ussen noch h¨ ohere Anforderungen an diese gestellt werden, um die gew¨ unschten Sicherheitskriterien zu erf¨ ullen. Die wichtigste Bedingung dabei ist, dass es nahezu unm¨ oglich sein muss, aus Hashwerten R¨ uckschl¨ usse auf die urspr¨ unglichen Daten zu ziehen. Eine kryptografische Hashfunktion muss also eine Einwegfunktion sein. Sogenannte Einweg-Hashfunktionen (One-Way Hash Function, OWHF) erf¨ ullen die Bedingung, dass es zu einem gegebenen Ausgabewert der Hashfunktion h(x)=y praktisch unm¨ oglich ist, auf den Ursprungswert x zu schließen (Preimage Resistance), d.h. die Berechnung des Inversen kann auch mit Hilfe probabilistischer Algorithmen nicht in Polynomialzeit erfolgen. Zus¨ atzlich darf es einem Angreifer nicht m¨ oglich sein, absichtlich Kollisionen herbeizuf¨ uhren. Trudy w¨ are sonst in der Lage, eine eigene Nachricht mit demselben Hashwert zu erzeugen und diese als von Alice signiert auszugeben. Einweg-Hashfunktionen m¨ ussen die Bedingungen der schwachen Kollisionsresistenz erf¨ ullen. D.h. f¨ ur einen gegebenen Wert x soll es praktisch unm¨ oglich sein, ein davon verschiedenes x’ zu finden mit demselben Hashwert h(x)=h(x’) (2nd-Preimage Resistance). Erf¨ ullt eine Einweg-Hashfunktion sogar die Bedingung der starken Kollisionsresistenz, d.h. es k¨ onnen keine zwei verschiedene Eingabewerte x und x’ gefunden werden mit denselben Hashwerten h(x)=h(x’), bezeichnet man die Hashfunktion als kollisionsresistente Hashfunktion (Collision Free Hash Function, CFHF). Eine besondere Klasse der Einweg-Hashfunktionen sind die sogenannten Fallt¨ urfunktionen (Trapdoor Funktion). Diese lassen sich nur dann effizient umkehren, wenn man im Besitz einer bestimmten Zusatzinformation (also z.B. eines Schl¨ ussels) ist. In der Kryptografie werden schl¨ usselabh¨ angige Hashfunktionen auch als Message Authentication Code (MAC) bezeichnet. Im Gegensatz zu digitalen Signaturen arbeiten MACs nach dem Prinzip der symmetrischen Verschl¨ usselung, d.h. zwischen Sender und Empf¨ anger muss zuvor ein geheim zu haltender Schl¨ ussel ausgetauscht werden, damit beide aus der u ¨bertragenen Nachricht einen MAC berechnen und damit die Authentizit¨ at der Nachricht u ufen k¨ onnen. Ein ¨berpr¨ Angreifer kann die Nachricht zwar ver¨ andern, da er aber den geheimen Schl¨ ussel nicht kennt, kann er keinen g¨ ultigen MAC f¨ ur die manipulierte Nachricht erstellen und eine nachtr¨ agliche Manipulation l¨ asst sich erkennen. Konstruktion von kryptografischen Hashfunktionen Die Mehrzahl der kryptografischen Hashfunktionen sind iterierte Kompressionsfunktionen. Dabei wird die zu bearbeitende Nachricht M in Bl¨ ocke fester L¨ ange M(1),. . ., M(n) unterteilt und ggf. mit zus¨ atzlichen Bits aufgef¨ ullt (Padding), so dass die Eingabel¨ ange stets ein Vielfaches der Blockl¨ ange betr¨ agt. Die jeweils verwendete Kompressionsfunktion erh¨ alt als Input einen Datenblock und die Ausgabe der vorangegangenen Ausf¨ uhrung der Kompressionsfunktion. Der Hashwert der gesamten Daten ergibt sich als Output des letzten Datenblocks M(n):
• H(0) = IV, IV (Initial Value) bezeichnet einen Startwert • H(i) = h(M(i), H(i-1)), f¨ur i=1,. . .,n • h(M) = H(n) Einige der bekanntesten kryptografischen Hashfunktionen werden im Folgenden kurz vorgestellt. SHA-1 Eine der wichtigsten kryptografischen Hashfunktionen ist der Secure Hash Algorithm (SHA-1), der in RFC 4634 spezifiziert und ab 1991 von der NSA im Auftrag der USStandardisierungsbeh¨ orde NIST entwickelt wurde. Der Ablauf von SHA-1 folgt dem allgemein angegebenen Schema der Konstruktion kryptografischer Hashfunktionen. Die Daten werden in 512 Bit große Bl¨ ocke unterteilt. Zentrales Element von SHA-1 sind f¨ unf Kettenvariablen. Mit Hilfe einer Kompressionsfunktion werden f¨ ur diese aus dem Inhalt des aktuellen Blocks in jeder Runde neue Werte berechnet. Die Kompressionsfunktion wird der Reihe nach auf alle Bl¨ ocke angewandt, wobei sich der Inhalt der Kettenvariablen mit jedem
344
5 Digitale Sicherheit
Schritt ¨ andert. Am Ende bilden die Inhalte der f¨ unf Kettenvariablen den 160 Bit langen SHA-1 Hashwert. SHA-1 Algorithmus in Pseudocode: // Initialisiere die Variablen var int h0 := 0x67452301 var int h1 := 0xEFCDAB89 var int h2 := 0x98BADCFE var int h3 := 0x10325476 var int h4 := 0xC3D2E1F0 // Vorbereitung der Nachricht ’message’: var int messageLaenge := bit_length(message) erweitere message um bit "1" erweitere message um bits "0" bis Laenge entspricht 448 mod 512 erweitere message um messageLaenge // Verarbeite die Nachricht in aufeinander folgenden 512-Bit Blocks: forall 512-Bit Blocks von message unterteile Block in 16 32-bit Worte w(i), 0 <= i <= 15 // erweitere die 16 32-bit Worte auf 80 32-bit Worte: forall i von 16 bis 79 w(i) := (w(i-3) xor w(i-8) xor w(i-14) xor w(i-16)) leftrotate 1 // Initialisiere Hashwert fuer diesen Block: var int a := h0 var int b := h1 var int c := h2 var int d := h3 var int e := h4 // Hauptschleife: forall i von 0 bis 79 if 0 <= i <= 19 then f := (b and c) or ((not b) and d) k := 0x5A827999 else if 20 <= i <= 39 then f := b xor c xor d k := 0x6ED9EBA1 else if 40 <= i <= 59 then f := (b and c) or (b and d) or (c and d) k := 0x8F1BBCDC else if 60 <= i <= 79 then f := b xor c xor d k := 0xCA62C1D6 temp e := d := c := b := a := // h0 h1 h2 h3 h4
:= (a leftrotate 5) + f + e + k + w(i) d c b leftrotate 30 a temp
Addiere := h0 + := h1 + := h2 + := h3 + := h4 +
Hashwert des Blocks zur Summe der vorherigen Hashes: a b c d e
hashwert = h0 append h1 append h2 append h3 append h4
SHA-1 wird unter anderem von allen g¨ angigen Web-Browsern unterst¨ utzt, ist Teil des Pretty Good Privacy Protokolls (PGP) f¨ ur sicheren E-Mail-Datenverkehr, Bestandteil der Netzwerkprotokolle SSL, IPsec und S/MIME. 2004 wurde jedoch eine Schw¨ ache der SHA-1 Hashfunktion bekannt, die es erm¨ oglichen k¨ onnte, einen SHA-1 Hashwert mit der in naher Zukunft zur Verf¨ ugung stehenden Rechenpower zu brechen. Daher r¨ at die NIST von
5.3 Digitale Signaturen
345
einer zuk¨ unftigen Verwendung von SHA-1 ab. Aufbauend auf SHA-1 wurden inzwischen die (noch) sicheren Hashfunktionen SHA-224, SHA-256, SHA-384 und SHA-512 entwickelt, wobei die Zahl hinter dem Bindestrich den Bitl¨ angen der jeweils erzeugten Hashwerte entsprechen. MD-4 Der Message Digest Algorithm 4 (MD4) wurde 1990 von Ronald L. Rivest ver¨ offentlicht und in RFC 1320 spezifiziert. MD4 liefert 128 Bit lange Hashwerte und ist leicht und berechnungseffizient implementierbar. Die Arbeitsweise ist der von SHA-1 sehr ¨ ahnlich (SHA-1 basiert auf dem Algorithmus von MD4). Allerdings konnte nachgewiesen werden, dass MD4 gravierende Sicherheitsm¨ angel aufweist4 . MD-5 Die festgestellten Sicherheitsm¨ angel an MD4 veranlassten Ronald L. Rivest bereits 1991 eine verbesserte Version seines Message Digest Algorithmus vorzustellen, das MD5 Hashverfahren, das in RFC 1321 beschrieben wird. Sowohl SHA-1 als auch MD5 sind Weiterentwicklungen von MD4 und sind sich daher sehr ¨ ahnlich. Beide Verfahren zerlegen die zu bearbeitenden Daten in 512 Bit große Bl¨ ocke, verwenden Kettenvariablen mit 32-Bit L¨ ange und durchlaufen jeweils 4 Runden in der Kompressionsfunktion. Im Gegensatz zu SHA-1 liefert MD5 nur einen Hashwert der L¨ ange 128 Bit. Obwohl 128 Bit heute gerade noch als untere Grenze f¨ ur sichere Hashwertberechnungen gelten, kommt MD5 aber aufgrund der geringen Hashwertl¨ ange nur noch selten zum Einsatz. RIPEMD-160 Eine wichtige Alternative zu SHA-1 ist derzeit RIPEMD-160, eine Weiterentwicklung der Hashfunktion RIPEMD, die 1992 im Rahmen eines EU-Projekts entwickelt wurde. Die Hashwertl¨ ange betr¨ agt bei RIPEMD-160 160 Bit. Ebenso wie SHA-1 arbeitet RIPEMD-160 mit 512 Bit langen Datenbl¨ ocken, einer Kompressionsfunktion und f¨ unf Kettenvariablen. Die Hauptschleife des Kompressionsalgorithmus besteht aus f¨ unf Runden mit jeweils 16 Schritten. Der Algorithmus l¨ auft parallel in zwei Varianten ab. Nach Abarbeitung eines Blocks werden die Ergebnisse beider Varianten zu den Kettenvariablen addiert. Neben RIPEMD-160 gibt es noch die Varianten RIPEMD-120, RIPEMD-256 und RIPEMD-320. Da RIPEMD160 bislang noch keine kryptografischen Schw¨ achen offenbart hat, gilt es derzeit als erste Wahl unter den kryptografischen Hashfunktionen. Weitere kryptografische Hashfunktionen
• TIGER
•
•
4
1995 ver¨ offentlicht ist das TIGER Hashverfahren eine echte Neuentwicklung und keine Weiterentwicklung eines bestehenden Verfahrens. Es berechnet 192 Bit lange Hashwerte, hat aber bislang noch keine weite Verbreitung gefunden. WHIRLPOOL 2000 ver¨ offentlichte kryptografische Hashfunktion, die vom AES-Mitentwickler Vincent Rijmen zusammen mit Paulo Barreto vorgeschlagen wurde. WHIRLPOOL arbeitet mit 64 Kettenvariablen und liefert einen 512 Bit langen Hashwert. Die verwendete Kompressionsfunktion basiert auf der AES-Verschl¨ usselung. Bislang sind noch keine Schw¨ achen des Verfahrens bekannt geworden. SNEFRU 1990 vom Kryptografie-Pionier Ralph Merkle vorgeschlagen. SNEFRU sieht eine variable Rundenzahl vor und basiert auf dem von Merkle entwickelten Blockchiffriersystem Khafre. Je nach Rundenzahl gilt SNEFRU heute entweder als zu langsam oder als zu unsicher.
Im Cryptobytes Journal der Firma RSA wurde eine Methode ver¨offentlicht, die innerhalb einer Stunde zwei bis auf ein Zeichen identische Nachrichten erzeugen kann, die denselben MD4Hashwert besitzen.
346
5 Digitale Sicherheit
Es gibt eine Vielzahl weiterer kryptografischer Hashfunktionen, die in der Praxis heute aber keine Relevanz besitzen. Angriffe auf kryptografische Hashfunktionen Einerseits k¨ onnen Angriffe auf kryptografische Hashfunktionen den jeweils verwendeten Algorithmus v¨ ollig außer Acht lassen, diesen also als Black-Box behandeln und sich ausschließlich auf die L¨ ange des von der Hashfunktion gelieferten Hashwertes konzentrieren. Angreifer Trudy w¨ ahlt dabei zuf¨ allig eine Nachricht und vergleicht deren Hashwert mit dem einer vorgegebenen Nachricht. Dieser Angriff wird als Substitutionsattacke bezeichnet und l¨ auft im einzelnen wie folgt ab: Trudy f¨ angt eine Nachricht mit zus¨ atzlichem kryptografischen Hashwert von Alice an Bob ab. Die verwendete kryptografische Hashfunktion besitze Hashwerte der L¨ ange n Bit. Trudy erzeugt nun eine eigene Nachricht, die sie Bob unterschieben m¨ ochte. Zu dieser Nachricht erzeugt Trudy durch einfache, sinnerhaltende Ersetzungen 2n Varianten, z.B. durch Ersetzung von n einzelnen Worten der gef¨ alschten Nachricht oder durch Hinzuf¨ ugen von bedeutungslosen F¨ ullw¨ ortern. Jetzt erzeugt Trudy die zugeh¨ origen 2n Hashwerte, bis eine gef¨ alschte Nachricht gefunden wird, die denselben Hashwert besitzt wie die urspr¨ unglich abgefangene Nachricht. Trudy schickt die gef¨ alschte Nachrichtenvariante zusammen mit dem Hashwert an Bob, der den Betrug nicht erkennen kann. Geht man davon aus, dass Trudy f¨ ur eine erfolgreiche Attacke im Schnitt die H¨ alfte aller m¨ oglichen Hashwert/Nachricht-Paare, also 2n−1 Hashwerte erzeugen muss, dann sind bei einer Hashl¨ ange von 160 Bit astronomisch viele, n¨ amlich 2159 = 7,3·1047 Hashwerte zu bilden. ¨ Ubrigens kann diese Art von Angriff bei allen krptografischen Hashfunktionen und bei jeder Art von Nachricht angewandt werden. Hat Trudy dar¨ uberhinaus die M¨ oglichkeit, Alice eine Variante ihrer eigenen Nachricht vor dem Signieren unterzuschieben, verringert sich die Zahl der notwendigen Hashberechnungen dramatisch. Dieses Ph¨ anomen wird auch als Geburtstagsparadoxon5 bezeichnet. Trudy muss zu diesem Zweck 2n/2 bedeutungs¨ aquivalente, unterschiedliche Nachrichtenvarianten erzeugen, die sie Alice unterschieben kann und 2n/2 gef¨ alschte Varianten. Findet sie eine Hashwert¨ aquivalenz zwischen einer originalen und einer gef¨ alschten Variante, gibt sie die originale Variante Alice zum Signieren und Versenden, f¨ angt die signierte Nachricht ab und ersetzt sie durch die eigene, gef¨ alschte Nachricht mit derselben Signatur. Andererseits k¨ onnen sich Angriffe auf kryptografische Hashfunktionen aber auch gegen die verwendete Kompressionsfunktion selbst richten. Bei Hashfunktionen, die auf einer Blockchiffre basieren, kann sich der Angriff gegen die zugrundeliegende Blockchiffre selbst richten. Da von einzelnen Hashverfahren oft verschiedene Implementierungen vorliegen, kann sich schließlich ein Angriff Fehler in der jeweiligen Implementierung zu Nutze machen und diese kompromittieren. Weiterf¨ uhrende Literatur: Menezes, A.J., Vanstone, S.A., Oorschot, P.C.V.: Handbook of Applied Cryptography, pp. 321–384, CRC Press, Inc., Boca Raton, FL, USA, (1996) Preneel, B.: Cryptographic primitives for information authentication - state of the art. In: State of the Art in Applied Cryptography, Course on Computer Security and Industrial Cryptography - Revised Lectures, pp. 49–104. Springer-Verlag, London, UK (1998) Schmeh, K.: Kryptografie – Verfahren, Protokolle, Infrastrukturen, pp. 199–234. dPunkt Verlag, Heidelberg (2007) Stinson, D.: Cryptography: Theory and Practice, 2nd Edition, pp. 117–154. Chapman & Hall, CRC, London, UK (2002)
5
Wieviele Personen m¨ussen zusammenkommen, damit mindestens zwei davon mit einer Wahrscheinlichkeit gr¨oßer 1/2 am selben Tag Geburtstag haben? Die verbl¨uffende Antwort auf diese Frage lautet 22 Personen.
5.4 Public Key Infrastrukturen und Zertifikate
347
5.4 Public Key Infrastrukturen und Zertifikate Sowohl symmetrische Verschl¨usselungsverfahren mit geheimen Schl¨usseln als auch asymmetrische Verschl¨usselungsverfahren k¨onnen nur zuverl¨assig funktionieren, wenn ein sicherer Austausch der Schl¨ussel gew¨ahrleistet ist. M¨ussen beim symmetrischen Verfahren jeweils die geheimen Schl¨ussel der beteiligten Kommunikationspartner ausgetauscht werden, damit die versendeten Nachrichten entschl¨usselt werden k¨onnen, ist dies beim asymmetrischen Verfahren nicht notwendig. Hier muss statt dessen sichergestellt werden, dass der o¨ ffentliche Schl¨ussel eines Kommunikationsteilnehmers tats¨achlich auch zu diesem geh¨ort und nicht zu einem unberechtigten Dritten, der versucht, sich unter einer falschen Identit¨at in eine vertrauliche Kommunikation einzuschleichen. Dieser sichere Schl¨usselaustausch bzw. die sichere Schl¨usselzuordnung kann durch ¨ die Einschaltung eines vertrauenswurdigen Dritten (Trusted Intermediary, Trusted Third Party) gew¨ahrleistet werden. Bei einem symmetrischen Verschl¨usse¨ lungsverfahren, wird dieser vertrauensw¨urdige Dritte auch als Schlusselverteilzentrum (Key Distribution Center, KDC) bezeichnet. Das KDC verwaltet die geheimen Schl¨ussel, die f¨ur eine sichere Kommunikation u¨ ber ein symmetrisches Verschl¨usselungsverfahren notwendig sind und stellt eine sichere und zuverl¨assige Verteilung sicher, ohne dass sich unberechtigte Dritte Zugang zu einem der geheimen Schl¨ussel verschaffen k¨onnen. Bei einem asymmetrischen Verschl¨usselungsverfahren dagegen muss f¨ur den o¨ ffentlichen Schl¨ussel eines Kommunikationsteilnehmers garantiert werden, dass er tats¨achlich von diesem stammt. Dies wird mit Hilfe von Zertifikaten bewerkstelligt, die von einem vertrauensw¨urdigen Dritten, der dies gew¨ahrleistet, einer Zertifizierungsstelle (Certificate Authority, CA oder Trust Center, TA) ausgestellt und digital signiert werden. In der Regel bilden solche Zertifizierungsstellen eine hierarchische Struktur mit einer Wurzelinstanz an der Spitze, verschiedenen untergeordneten Instanzen und den Nutzern. Eine derartige Hierarchie von Zertifizierungsstellen zusammen mit s¨amtlichen dazugeh¨origen datentechnischen (z.B. Zertifikatformate) und organisatorischen Festlegungen (Security Policy) wird als Public Key Infrastruktur (PKI) bezeichnet und ist Voraussetzung f¨ur den sicheren Einsatz von asymmetrischen Verschl¨usselungsverfahren.
¨ 5.4.0.1 Schlusselverteilzentrum (KDC) Angenommen, Alice und Bob wollen u¨ ber ein symmetrisches Verschl¨usselungsverfahren miteinander kommunizieren und haben keine M¨oglichkeit, den dazu notwendigen geheimen Schl¨ussel sicher auszutauschen. Dann m¨ussen sie sich auf ein Schl¨usselverteilzentrum (KDC) verlassen. Die Nutzer eines KDC m¨ussen sich zuvor dort registrieren. Dazu hinterlegen sie bei der Anmeldung, bei der sie ihre Identit¨at nachweisen m¨ussen, einen geheimen Schl¨ussel. Ein KDC verf¨ugt also f¨ur jeden registrierten Nutzer u¨ ber dessen geheimen Schl¨ussel. Wie erlangen nun Alice und Bob, die beide beim KDC angemeldet sind, mit dessen Hilfe auf sichere Weise einen gemeinsamen geheimen Sitzungsschl¨ussel? Beide
348
5 Digitale Sicherheit
kennen anfangs jeweils nur ihre eigenen geheimen Schl¨ussel, d.h. Alice verf¨ugt u¨ ber den Schl¨ussel kA und Bob u¨ ber den Schl¨ussel kB . Abb. 5.17 zeigt den Ablauf der Erzeugung und sicheren Verteilung eines gemeinsamen geheimen Sitzungsschl¨ussels f¨ur Alice und Bob. • Alice ergreift die Initiative und sendet eine mit kA verschl¨usselte Nachricht kA (A, B) an das KDC, dass sie (A) gerne mit Bob (B) kommunizieren m¨ochte. • Das KDC verf¨ugt u¨ ber den geheimen Schl¨ussel kA von Alice und kann daher Alices Nachricht kA (A, B) entschl¨usseln. Daraufhin generiert das KDC einen zuf¨alligen Schl¨ussel R1, der f¨ur die nachfolgende Kommunikation zwischen Alice und ¨ Bob als einmaliger Sitzungsschlussel verwendet werden kann. Das KDC sendet dann eine mit kA verschl¨usselte Nachricht an Alice, die folgendes enth¨alt: – den einmaligen Sitzungsschl¨ussel R1 und – ein Wertepaar bestehend aus Alices Namen A und dem Sitzungsschl¨ussel R1, das mit Bobs geheimen Schl¨ussel kB verschl¨usselt wird: kB (A, R1). Das KDC sendet also die verschl¨usselte Nachricht kA (R1, kB (A, R1)) an Alice. • Alice empf¨angt und entschl¨usselt die Nachricht des KDC. Sie extrahiert den einmaligen Sitzungsschl¨ussel R1 und speichert diesen f¨ur die nachfolgende Kommunikation mit Bob und leitet den zweiten Teil der Nachricht kB (A, R1) (unverstanden) an Bob weiter. • Bob empf¨angt kB (A, R1), entschl¨usselt die Nachricht mit seinem eigenen geheimen Schl¨ussel kB und erf¨ahrt dadurch von dem Kommunikationswunsch von Alice A und den gemeinsamen, einmaligen Sitzungsschl¨ussel R1. Die verschl¨usselte Kommunikation zwischen Alice und Bob kann beginnen. Falls notwendig k¨onnten Alice und Bob in der ersten Kommunikationsrunde nun sicher – verschl¨usselt mit R1 – einen eigenen, auch dem KDC unbekannten gemeinsamen Schl¨ussel vereinbaren. Der am Massachussetts Institute of Technology (MIT) entwickelte Authentifikationsdienst Kerberos, der in RFC 1510 spezifiziert wird, liefert ein solches Schl¨usselverteilzentrum f¨ur symmetrische Schl¨ussel, den sogenannten Kerberos-Server. Der Kerberos-Server gibt f¨ur angemeldete Nutzer in einem Netzwerk auf Anforderung eine Ausweis-Datei (Ticket) mit begrenzter zeitlicher G¨ultigkeit heraus, die der Nut¨ zer als Ausweis zum Schutz f¨ur seinen Datenverkehr benutzen kann. Uber die Dienste des KDC hinaus verwaltet der Kerberos-Server zus¨atzlich noch Zugriffsrechte der angemeldeten Nutzer auf bestimmte Netzwerkressourcen und versieht den erteilten Sitzungsschl¨ussel mit einem Verfallsdatum, nach dem dieser von Bob nicht mehr akzeptiert wird.
5.4.1 Zertifizierungsstelle (CA) Eine Verschl¨usselung mit Hilfe eines asymmetrischen Verschl¨usselungsverfahrens birgt den großen Vorteil, dass kein sicherer Austausch von geheimen Schl¨usseln er-
5.4 Public Key Infrastrukturen und Zertifikate
349
Alice
KDC
Bob
kA(A,B)
kA (R1,k (A,R 1)) B
kB (A,R1)
t
t
Alice und Bob kennen jetzt beide den Sitzungsschlüssel R1
t
Abb. 5.17 Erzeugung und sichere Verteilung eines gemeinsamen geheimen Sitzungsschl¨ussels f¨ur Alice und Bob u¨ ber ein Schl¨usselverteilzentrum (KDC)
forderlich ist. Der jeweils notwendige o¨ ffentliche Schl¨ussel wird vom Eigent¨umer frei verteilt und z.B. auf dessen Homepage im WWW bereitgestellt. Allerdings liegt das Problem bei der asymmetrischen Verschl¨usselung darin, dass der Kommunikationspartner sich darauf verlassen k¨onnen muss, dass der ihm dargebotene o¨ ffentliche Schl¨ussel auch tats¨achlich der o¨ ffentliche Schl¨ussel seines Kommunikationspartners ist. Durch Vort¨auschen einer falschen Identit¨at kann ansonsten wie schon beschrieben die Authentifikation leicht unterlaufen werden (z.B. Man-in-the-Middle Angriff aus Abschnitt 5.2.3). Angenommen, Alice m¨ochte Bob eine verschl¨usselte Nachricht senden, die sie mit Bobs o¨ ffentlichem Schl¨ussel verschl¨usseln will. Gelingt es Trudy, den eigenen o¨ ffentlichen Schl¨ussel Alice gegen¨uber als Bobs o¨ ffentlichen Schl¨ussel unterzuschieben, kann Trudy Alices verschl¨usselte Nachricht mit dem zugeh¨origen privaten Schl¨ussel lesen. Trudy muss dann einfach Bobs o¨ ffentlichen Schl¨ussel durch den eigenen ersetzen, wenn Bob diesen an Alice versendet bzw. sich Zugang zu Bobs Web-Server verschaffen und dort Bobs o¨ ffentlichen Schl¨ussel durch den eigenen ersetzen. Das Problem besteht darin, dass man einem o¨ ffentlichen Schl¨ussel nicht ansehen kann, zu wem er tats¨achlich geh¨ort, d.h. seine Authentizit¨at steht in Frage. Ein weiteres Problem besteht darin, dass o¨ ffentliche Schl¨ussel ihre G¨ultigkeit verlieren k¨onnen. Angenommen, Bobs Schl¨usselpaar wurde kompromittiert und Bob erzeugt sich deshalb ein neues. Er hinterlegt zwar den neuen o¨ ffentlichen Schl¨ussel auf seinem Web-Server, aber Alice und andere Kommunikationspartner wissen nichts
350
5 Digitale Sicherheit
u¨ ber die Sperrung von Bobs altem Schl¨usselpaar und verwenden f¨ur die Kommunikation mit Bob noch Bobs alten (kompromittierten) o¨ ffentlichen Schl¨ussel. Woher sollen Bobs Kommunikationspartner wissen, ob sein o¨ ffentlicher Schl¨ussel noch g¨ultig ist oder ob er gesperrt wurde? Verwendet Alice umgekehrt ihren privaten Schl¨ussel zum Erzeugen einer digitalen Signatur, soll damit die Authentizit¨at der damit signierten Nachricht garantiert werden. Allerdings kann Alice abstreiten, eine Nachricht tats¨achlich signiert zu haben, indem sie behauptet, der Schl¨ussel, mit dem die digitale Signatur angefertigt wurde, sei gar nicht ihrer. Auch hier tritt das Problem auf, dass man dem zum Entschl¨usseln der digitalen Signatur notwendigen o¨ ffentlichen Schl¨ussel von Alice nicht ansehen kann, ob er tats¨achlich Alice geh¨ort. Asymmetrische Verschl¨usselungsverfahren sind deshalb nur dann von Nutzen, wenn man sich auf die Authentizit¨at der dabei verwendeten o¨ ffentlichen Schl¨ussel auch verlassen kann. Diese u¨ berpr¨ufbare und f¨alschungssichere Bindung eines o¨ ffentlichen Schl¨ussels an einen Nutzer wird u¨ ber die von einer Zertifizierungsstelle (Certificate Authority, CA) ausgestellten Zertifikate bewerkstelligt. Wenn innerhalb eines Unternehmens ein asymmetrisches Verschl¨usselungsverfahren zum Einsatz kommen soll, bietet es sich an, die Zertifizierungsstelle von der ITAbteilung des Unternehmens betreiben zu lassen. Zertifizierungsstellen werden aber auch von Beh¨orden und anderen, vertrauensw¨urdigen Unternehmen zur o¨ ffentlichen Benutzung betrieben. Eine CA u¨ berpr¨uft vor Ausstellung eines Zertifikats zun¨achst die Identit¨at eines Nutzers (oder auch eines Rechners). Wie diese Identit¨atspr¨ufung vonstatten geht, ist der CA nicht vorgeschrieben. Erfolgt z.B. die Identit¨atspr¨ufung auf der Basis einer E-Mail-Mitteilung, dann taugt das sp¨ater ausgestellte Zertifikat nicht viel, da E-Mail-Nachrichten leicht gef¨alscht werden k¨onnen. Handelt es sich dagegen um eine staatlich anerkannte, die Normen des Signaturgesetzes erf¨ullende CA, dann kann man dem ausgestellten Zertifikat ohne Bedenken vertrauen. In jedem Fall muss die CA ihre eigenen Zertifizierungsrichtlinien bekannt geben, damit ein Nutzer die Qualit¨at des Zertifikats und damit die Verl¨asslichkeit der u¨ bermittelten o¨ ffentlichen Schl¨ussel einsch¨atzen kann. Nachdem die CA die Identit¨at eines Nutzers gepr¨uft hat, erstellt sie ein digitales Zertifikat, das den o¨ ffentlichen Schl¨ussel des Nutzers mit dessen Identit¨at (Name, Anschrift oder IP-Adresse) verbindet. Das Zertifikat wird von der CA digital signiert (siehe Abb. 5.18). Das Signieren eines Zertifikats bezeichnet man als Zertifizieren. Neben der Identit¨at und dem o¨ ffentlichen Schl¨ussel eines Teilnehmers enth¨alt ein digitales Zertifikat noch weitere Informationen, wie z.B. eine G¨ultigkeitsdauer, eine Seriennummer und Angaben zum Verwendungszweck des o¨ ffentlichen Schl¨ussels. Dem digitalen Zertifikat einer CA kann aber nur dann Vertrauen entgegengebracht werden, wenn Alice und Bob in der Lage sind, die Signatur der CA zu verifizieren. Zu diesem Zweck m¨ussen Alice und Bob den o¨ ffentlichen Schl¨ussel der CA kennen. Dabei stellt sich ebenfalls das Problem, dass dem o¨ ffentlichen Schl¨ussel der CA nicht angesehen werden kann, ob er authentisch und g¨ultig ist. Oft wird daher der o¨ ffentliche Schl¨ussel einer CA ebenfalls in ein digitales Zertifikat gefasst (CAZertifikat), aber das eigentliche Problem verlagert sich damit lediglich auf diejenige CA, die das CA-Zertifikat signiert hat. Daher m¨ussen andere, sichere Wege gefun-
5.4 Public Key Infrastrukturen und Zertifikate
351
den werden, um den o¨ ffentlichen Schl¨ussel einer CA sicher zu publizieren. Eine M¨oglichkeit besteht darin, dass ein Unternehmen bei der Verteilung von Software auf die PCs der Anwender den o¨ ffentlichen Schl¨ussel der CA bereits mitliefert. Sollte Alice diesem o¨ ffentlichen Schl¨ussel nicht trauen, kann sie ihn z.B. pers¨onlich telefonisch von einem Mitarbeiter des Unternehmens verifizieren lassen. Ebenfalls m¨oglich w¨are die Ver¨offentlichung des o¨ ffentlichen Schl¨ussels der CA in einer renommierten (vertrauensw¨urdigen) Tageszeitung oder das pers¨onliche Entgegennehmen des o¨ ffentlichen Schl¨ussels direkt bei der CA. Um sicherzustellen, dass ein vom Nutzer u¨ bergebener o¨ ffentlicher Schl¨ussel tats¨achlich mit seiner vorgegebenen Identit¨at u¨ bereinstimmt, wird folgendermaßen vorgegangen. • Wenn Alice mit Bob u¨ ber ein asymmetrisches Verschl¨usselungsverfahren kommunizieren m¨ochte, sendet sie diesem ihre Nachricht zusammen mit ihrem Zertifikat (das Zertifikat kann auch von der CA angefordert werden). • Die betreffende CA hat ihren eigenen o¨ ffentlichen Schl¨ussel allen Anwendern auf sichere Weise (z.B. Ver¨offentlichung an exponierter Stelle in einer renommierten Tageszeitung) zug¨anglich gemacht. Mit diesem o¨ ffentlichen Schl¨ussel der CA entschl¨usselt Bob das Zertifikat von Alice. • Kann Bob das Zertifikat entschl¨usseln und stimmen die darin gemachten Angaben zur Identit¨at mit denen von Alice u¨ berein, kann Bob sicher sein, dass er tats¨achlich mit Alice kommuniziert und f¨ur die weitere Kommunikation deren o¨ ffentlichen Schl¨ussel verwenden.
5.4.2 Vertrauensmodelle Digitale Zertifikate k¨onnen nicht nur von CAs ausgestellt werden. Das Signieren eines Zertifikats kann auch von einer Stelle u¨ bernommen werden, der beide Kommunikationspartner vertrauen. Tats¨achlich gibt es hier unterschiedliche Vertrauensmodelle. Die einfachste Variante wird als Direct Trust bezeichnet und sieht vor, dass Bob pers¨onlich die Authentizit¨at seines o¨ ffentlichen Schl¨ussels bei Alice best¨atigt. Dies kann durch Ausstellen eines Zertifikats erfolgen. Um dabei aber eine Manipulation ¨ durch Trudy zu verhindern, m¨ussen Alice und Bob zur Ubermittlung des Zertifikats einen zweiten Kanal benutzen (z.B. u¨ ber das Telefon). So kann die Authentizit¨at und die G¨ultigkeit der o¨ ffentlichen Schl¨ussel zumindest in einer kleinen Nutzergruppe gew¨ahrleistet werden. Mit steigender Anzahl der Kommunikationsteilnehmer wird dieses Verfahren schnell ineffizient. Auch l¨asst sich mit diesem Verfahren keine Verbindlichkeit erreichen, da Bob jederzeit abstreiten kann, dass es sich bei einem o¨ ffentlichen Schl¨ussel um seinen eigenen handelt. W¨achst die Zahl der Kommunikationsteilnehmer, kann man neben der direkten und pers¨onlichen Verifikation von o¨ ffentlichen Schl¨usseln auch auf eine mittelbare Variante zur¨uckgreifen, d.h. wenn Alice Bob vertraut und Bob Carol vertraut, dann
352
5 Digitale Sicherheit
rechtlich gültiger Nachweis der Identität
Alice
Zertifikat mit
öffentlichem Schlüssel
Zertifizierungsstelle
Anfrage, ob öffentlicher Schlüssel von Alice korrekt ist
vergleicht Angaben im Zertifikat mit denen des Kommunikationspartners
Bob Zertifizierungsstelle
überreicht Zertifikat von Alice
Zertifikat ist mit geheimen Schlüssel der Zertifizierungsstelle signiert
¨ Abb. 5.18 Alice und Bob nutzen eine Zertifizierungsstelle zur Uberpr¨ ufung der o¨ ffentlichen Schl¨ussel
kann auch Alice Carol vertrauen. Technisch gesehen kennt Alice Bobs o¨ ffentlichen Schl¨ussel und hat diesen (z.B. durch Direct Trust) verifiziert. Andererseits kennt Bob Carols o¨ ffentlichen Schl¨ussel und hat diesen verifiziert. Bob signiert jetzt Carols o¨ ffentlichen Schl¨ussel gegen¨uber Alice. Alice u¨ berpr¨uft die Authentizit¨at von Bobs Signatur und kann dadurch auf die Korrektheit von Carols o¨ ffentlichen Schl¨ussel schließen. Auf diese Weise lassen sich beliebige Ketten gegenseitigen Vertrauens bilden, die schließlich ein Vertrauensnetzwerk, ein sogenanntes Web of Trust bilden. Im Web of Trust l¨asst sich die Authentizit¨at der o¨ ffentlichen Schl¨ussel auch innerhalb gr¨oßerer Benutzergruppen effizient feststellen. Allerdings ¨ ist die Uberpr¨ ufung der G¨ultigkeit eines o¨ ffentlichen Schl¨ussels m¨uhsam. Wenn Alice ihren o¨ ffentlichen Schl¨ussel sperren lassen will, muss sie dies allen Teilnehmern des Web of Trust mitteilen. Im Gegensatz zu Direct Trust l¨asst sich die Verbindlichkeit eines o¨ ffentlichen Schl¨ussels nicht so einfach abstreiten, da es stets wenigstens ¨ einen B¨urgen gibt, der die Authentizit¨at eines Schl¨ussels belegen kann. Ubrigens basiert die sichere Kommunikation bei Pretty Good Privacy (PGP) auf einem Web of Trust. Das Web of Trust Modell hat so große Verbreitung erfahren.
5.5 Glossar
353
Kommen dagegen, wie in unserer Ausgangssituation beschrieben, die Zertifikate von einer CA, spricht man von Hierarchical Trust. Hier u¨ bernimmt die CA dann die Aufgabe, die Identit¨aten der Teilnehmer zweifelsfrei festzustellen und deren o¨ ffentliche Schl¨ussel zu verwalten. Dazu wird aber eine entsprechende Infrastruktur ben¨otigt (daher auch der Name PKI, Public Key Infrastruktur). Im Hierarchical Trust Modell lassen sich sowohl Authentizit¨at der o¨ ffentlichen Schl¨ussel, ihre G¨ultigkeit und deren Verbindlichkeit effizient realisieren. Innerhalb des Hierarchical Trust Modells unterscheidet man folgende Varianten: • Einstufige Hierarchie: einfachste Variante, die nur eine einzige CA vorsieht, deren o¨ ffentlicher Schl¨ussel im Besitz aller Teilnehmer sein muss. Mit diesem o¨ ffentlichen Schl¨ussel k¨onnen alle Zertifikate verifiziert werden. • Webmodell: Da viele verschiedene CAs existieren verf¨ugt jede CA jeweils u¨ ber einen bestimmten, meist sich u¨ berlappenden Teilnehmerkreis. Soll jetzt zwischen Teilnehmern verschiedener CAs eine sichere Kommunikation stattfinden, m¨ussen die Teilnehmer zun¨achst u¨ berpr¨ufen, bei welcher CA der Kommunikationspartner angemeldet ist und welcher CA-Schl¨ussel ben¨otigt wird, um ein entsprechendes Zertifikat zu verifizieren. Aktuelle Web-Browser werden heute zu diesem Zweck bereits mit zahlreichen CA-Zertifikaten vorkonfiguriert und an die Kunden ausgeliefert. • Cross Zertifizierung: Wollen zwei Teilnehmer verschiedener CAs sicher miteinander kommunizieren, wobei sich deren Mitgliedschaft bei einer CA nicht u¨ berlappt, k¨onnen sich die jeweiligen CAs gegenseitig zertifizieren. • Mehrstufige Hierarchie: F¨ur den Fall, dass eine gegenseitige Cross-Zertifizierung zu aufw¨andig ist, k¨onnen sich CAs auch bei einer u¨ bergeordneten CA selbst zertifizieren. Ein Kommunikationsteilnehmer ben¨otigt dann lediglich den o¨ ffentlichen Schl¨ussel der u¨ bergeordneten CA, mit dem er die Zertifikate der untergeordneten CAs verifizieren kann. Zertifizieren sich u¨ bergeordnete und untergeordnete CAs wechselseitig, so kann nicht mehr von einer mehrstufigen Hierarchie gesprochen werden. Eine CA, die in ein Netzwerk wechselseitiger CrossZertifizierungen eingebunden ist, wird auch als Bridge-CA bezeichnet.
5.5 Glossar Authentifikation (auch Authentifizierung): Dient dem Nachweis der Identit¨ at eines Benutzers bzw. der Integrit¨ at einer Nachricht. Bei der Authentifikation werden zur Iden¨ tit¨ atspr¨ ufung Zertifikate einer vertrauensw¨ urdigen Instanz verwendet und zur Uberpr¨ ufung der Integrit¨ at einer Nachricht digitale Signaturen erstellt und und mitversendet. Autorisierung: Der Zugriff auf bestimmte, sch¨ utzenswerte Informationsressourcen unterliegt oft nur einem eingeschr¨ ankten Personenkreis. Fordert ein Benutzer eine gesch¨ utzte Informationsressource oder Dienstleistung an, muss u uft werden, ob er autori¨bergepr¨ siert, also ob er berechtigt ist, auf diese zuzugreifen oder sie in Anspruch zu nehmen. asymmetrische Verschl¨ usselung (Public Key Encryption): Bei den als Public-Key Verfahren bezeichneten kryptografischen Verfahren besitzt jeder Kommunikationspartner ein Schl¨ usselpaar bestehend aus einem sogenannten ¨ offentlichen Schl¨ ussel und einem
354
5 Digitale Sicherheit
geheimen, privaten Sch¨ ussel. Der ¨ offentliche Schl¨ ussel wird allen Teilnehmer zug¨ anglich gemacht, mit denen eine Kommunikation angestrebt wird. Die Teilnehmer, die mit dem Herausgeber des ¨ offentlichen Schl¨ ussels kommunizieren wollen, verschl¨ usseln ihre Nachricht mit dessen ¨ offentlichen Schl¨ ussel. Die derart verschl¨ usselte Nachricht kann nur vom Herausgeber des ¨ offentlichen Schl¨ ussels mit Hilfe des korrespondierenden geheimen Schl¨ ussels, den es vom Herausgeber sicher zu verwahren gilt, dekodiert wird. Benutzerauthentifikation: Der Nachweis der Identit¨ at eines Benutzers erfolgt u ¨ber spezielle Authentifikationsmethoden, wie z.B. u ¨ber einen Passwort-Mechanismus oder u ¨ber biometrische Authentifikationsverfahren, wie z.B. Fingerabdr¨ ucke. Certificate Authority (CA): Eine Certificate Authority (Zertifizierungsstelle) beglaubigt nach Internet-Standard RFC 1422 ¨ offentliche Schl¨ ussel von registrierten Benutzern mit Hilfe von Zertifikaten. Dazu wird die Identit¨ at des Benutzers u uft. Der ¨ offent¨berpr¨ liche Schl¨ ussel des Benutzers wird zusammen mit dem Namen des Benutzers und mit Kontrollangaben von der CA digital signiert und in dieser Form als Zertifikat ausgegeben. Datenintegrit¨ at: Zwar kann in der Kryptografie nicht verhindert werden, dass Daten oder Nachrichten w¨ ahrend des Transports unbefugt von dritter Seite ver¨ andert werden, aber die Ver¨ anderung kann durch die Verwendung sogenannter Hash-Funktionen, die einen digitalen Fingerabdruck der zu u ¨bertragenden Daten liefern, kenntlich gemacht werden. Denial-of-Service (DoS): Ein Angriff im Internet mit der Absicht, das Opfersystem durch gezielte Manipulation zu u ¨berlasten, damit dieses nicht mehr in der Lage ist, seinen regul¨ aren Kommunikationsaufgaben nachzukommen oder sogar total ausf¨ allt. Oft werden dabei bekannte Schwachstellen und Fehler von Internetdiensten ausgenutzt. Um die Identit¨ at des Angreifers zu verschleiern, erfolgt der Angriff meist von vielen verschiedenen, fremden Rechnern aus, auf denen der Angreifer vorher Schadprogramme platziert hat, die sp¨ ater auf sein Kommando den eigentlichen Angriff koordiniert durchf¨ uhren (Distributed Denial-of-Service). Die Systemadministratoren der betroffenen Rechner werden u auscht, die illegal eingeschleust und ¨ber die Existenz der Angriffsprogramme hinwegget¨ im lokalen Dateisystem versteckt abgelegt werden. Data Encryption Standard (DES): Symmetrisches Block-Verschl¨ usselungsverfahren, 1977 ver¨ offentlicht und 1993 f¨ ur die kommerzielle Nutzung aktualisiert. DES kodiert Bl¨ ocke von jeweils 64 Bit mit einem ebenso langen Schl¨ ussel (effektiv 56 Bit). Insgesamt setzt sich das DES-Verfahren aus 19 Runden zusammen, wobei die 16 inneren Runden vom Schl¨ ussel gesteuert werden. Das DES-Verfahren stellt ein 64 Bit SubstitutionsVerschl¨ usselungsverfahren dar und ist heute mit relativ einfachen Mitteln zu brechen. Zur Erh¨ ohung der Sicherheit wird deshalb eine mehrfache Anwendung von DES mit unterschiedlichen Schl¨ usseln durchgef¨ uhrt, wie z.B. bei Triple-DES (3DES). Diffie-Hellman Verfahren: Erstes ¨ offentlich bekanntes, asymmetrisches Verschl¨ usselungsverfahren, dass 1976 von W. Diffie, M. Hellman und R. Merkle entwickelt wurde. Ganz ahnlich wie im RSA-Verfahren wird bei Diffie-Hellman mit einer mathematischen Funk¨ tion gearbeitet, deren Umkehrung – hier speziell das Problem des diskreten Logarithmus – praktisch, also mit vertretbarem Aufwand nicht berechnet werden kann. Digitale Signatur: Dient der Authentifizierung eines Dokuments und besteht aus dem mit dem privaten Schl¨ ussel des Urhebers verschl¨ usselten digitalen Fingerabdruck des Dokuments. DNS-Poisoning: Gezielter, aktiver Angriff auf einen DNS-Server, bei dem die dort verwalteten Domain Namen und IP-Adressen absichtlich manipuliert werden. Auf diese Weise k¨ onnen z.B. ganze Domains vom Netzverkehr ausgeschlossen oder gezielte Umleitungen des Datenverkehrs erzwungen werden. Einwegfunktion: Einfach zu berechnende mathematische Funktion, deren Umkehrfunktion praktisch, also mit vertretbarem Aufwand nicht berechnet werden kann. Einwegfunktionen finden Anwendung in der Kryptografie als Verschl¨ usselungsverfahren bzw. zur Erstellung sogenannter digitaler Fingerabdr¨ ucke vermittels von Einweg-Hashfunktionen.
5.5 Glossar
355
Einweg-Hashfunktionen werden auch als Message Authentication Code (MAC), Data Authentication Code (DAC), digitale Signatur, Message Digest (MD) bezeichnet. Identifikation: Damit wird der Vorgang des Erkennens eines Benutzers oder einer Nachricht bezeichnet. Ist die Identit¨ at festgestellt, kann diese mit einer Authentifikation u ¨berpr¨ uft werden. An eine Identit¨ at sind bestimmte Autorisationen gebunden. IP-Spoofing: Gezielte Manipulation des IP-Headers eines IP-Datagramms. Meistens wird dabei die Absender-IP-Adresse ver¨ andert, damit der Angreifer eine falsche Identit¨ at vort¨ auschen oder verhindern kann, dass die gesendeten Datagramme bis zum Angreifer zur¨ uckverfolgt werden k¨ onnen. IP-Spoofing ist die Basis f¨ ur viele weitere Angriffe. Kryptoanalyse: Anders als in der Kryptografie wird in der Kryptoanalyse versucht, Kryptografieverfahren zu brechen, also ohne Kenntnis des Schl¨ ussels den Inhalt der verschl¨ usselten Nachricht zu ermitteln. Gemeinsam werden Kryptoanalyse und Kryptografie als Kryptologie bezeichnet. Kryptografie: Teilgebiet der Informatik und der Mathematik, das sich mit der Konstruktion und Bewertung von Verschl¨ usselungsverfahren besch¨ aftigt. Das Ziel der Kryptografie liegt im Schutz der Vertraulichkeit von Informationen vor dem Zugriff unberechtigter Dritter. Kryptografieverfahren: Verfahren zur Ver- und Entschl¨ usselung von Daten. Man unterscheidet schwache und starke Kryptografieverfahren nach dem Aufwand, der zu ihrer unberechtigten Entschl¨ usselung betrieben werden muss. Dieser steigt mit wachsender Schl¨ ussell¨ ange drastisch an. Kryptografieverfahren k¨ onnen symmetrisch sein, also auf einem gemeinsam zur Verschl¨ usselung und Entschl¨ usselung verwendeten, geheimen Schl¨ ussel basieren, oder asymmetrisch. Dann verf¨ ugt jeder Teilnehmer u ¨ber zwei Schl¨ ussel, einen ¨ offentlich bekanntzumachenden und einen nur ihm alleine zug¨ anglichen, geheimen Schl¨ ussel. Man-in-the-Middle-Attacke: Ein Angriff auf eine gesicherte Verbindung zwischen zwei Kommunikationspartnern, bei der sich der Angreifer zwischen diese beiden schaltet (Man-in-the-Middle) und die Kommunikation abf¨ angt oder f¨ ur die Kommunikationsteilnehmer unbemerkt verf¨ alscht. MD5 (Message Digest 5): In vielen Kryptografiealgorithmen verwendete Einweg-Hashfunktion, die einen digitalen Fingerabdruck der Eingabedaten erzeugt und von Ron Rivest als Nachfolger der MD4 Hashfunktion entwickelt wurde. MD5 verwendet eine Schl¨ ussell¨ ange von 128 Bit und findet z.B. in PGP oder SMTP Verwendung. Message Digest: Kurzer digitaler Fingerabdruck einer Nachricht, der durch die Anwendung einer Hashfunktion auf die zu u ¨bertragende Nachricht generiert wird. Wird der Message Digest mit Hilfe des privaten Schl¨ ussels des Senders u ¨ber ein asymmetrisches Verschl¨ usselungsverfahren verschl¨ usselt, erh¨ alt man eine digitale Signatur der urspr¨ unglichen Nachricht, mit deren Hilfe die Identit¨ at des Senders und die Authentizit¨ at der Nachricht u uft werden kann. ¨berpr¨ Nonce (auch Salt): Zuf¨ allig gew¨ ahlter Einmalwert, der in einer gesicherten Kommunikation dazu verwendet werden kann, sogenannte Playback-Angriffe zu verhindern, bei denen ein unberechtigter Dritter mit einer zuvor aufgezeichneten und sp¨ ater duplizierten Nachricht versucht, Einfluß zu nehmen. Ein Nonce-Wert darf in der Kommunikation nur einmal verwendet werden. Paketfilter: Spezielle Software oder dedizierte Hardware, die den Datenverkehr in einem Netzwerk oder zwischen einem internen LAN und dem globalen Internet filtert. Dabei werden IP-Datagramme analysiert und je nach angegebener Quell- oder Zieladresse, Pakettyp oder anderen Parametern entschieden, ob das Datagramm weitergeleitet oder blockiert wird. Paketfilter werden als Zugriffskontrollsysteme, z.B. in Firewalls eingesetzt.
356
5 Digitale Sicherheit
Packet-Sniffer: Netzwerkanwendung bzw. dedizierte Hardware mit der Aufgabe, den Datenverkehr auf der Netzwerkschicht eines LANs zu u ¨berwachen. In einem Diffusionsnetzwerk, in dem alle Rechner ein gemeinsames Kommunikationsmedium nutzen, kann ein Packet-Sniffer jedes einzelne Datenpaket mitlesen und analysieren. Packet-Sniffer ¨ dienen eigentlich der Uberwachung und Analyse des Netzwerk-Datenverkehrs, k¨ onnen aber auch zu Einbruch- und Spionagezwecken missbraucht werden. ¨ Playback-Angriff: Einfacher Angriff auf ein Rechnersystem, bei dem durch die Uberwachung der Datenkommunikation verschl¨ usselte Passworte aufgezeichnet werden, die dann bei einem sp¨ ateren Angriff zum Einbruch in das u ¨berwachte System verwendet werden. Pretty Good Privacy (PGP): Von Phil Zimmermann 1991 entwickeltes System zur sicheren Abwicklung des E-Mail-Nachrichtenverkehrs. PGP ist frei verf¨ ugbar f¨ ur die meisten Hardwareplattformen und Betriebssysteme und bietet E-Mail-Nachrichtenverschl¨ usselung mit symmetrischen Verschl¨ usselungsverfahren (Triple-DES, IDEA, CST), Sicherung des symmetrischen Schl¨ ussels u usselungsver¨ber ein asymmetrisches Verschl¨ fahren (RSA), sowie Sicherung der Integrit¨ at von E-Mail-Nachrichten (MD5 Message Digest) und Wahrung der Authentizit¨ at der Kommunikationspartner (digitale Signaturen). PGP ist das am weitesten verbreitete System zum sicheren Transport von E-MailNachrichten. Public Key Infrastruktur (PKI): Bei der Anwendung asymmetrischer Public-Key Verschl¨ usselungsverfahren ben¨ otigt jeder Teilnehmer ein Schl¨ usselpaar, bestehend aus dem jedermann zug¨ anglichen ¨ offentlichen Schl¨ ussel (Public Key) und dem nur ihm selbst zug¨ anglichen geheimen Schl¨ ussel (Private Key). Um Mißbrauch auszuschließen, muss die Zuordnung des Teilnehmers zu seinem ¨ offentlichen Schl¨ ussel durch einen vertrauensw¨ urdigen Dritten, die Certificate Authority (CA, Zertifizierungsstelle) vermittels eines Zertifikats best¨ atigt werden. Zur Einsch¨ atzung der Sicherheit eines Zertifikats m¨ ussen die Regeln, wie dieses Zertifikat erstellt wurde (Security Policy) ¨ offentlich zug¨ anglich festgelegt sein. Eine PKI umfasst alle organisatorischen und technischen Maßnahmen, die zur sicheren Nutzung eines asymmetrischen Verschl¨ usselungsverfahrens zum Verschl¨ usseln bzw. zur digitalen Signatur erforderlich sind. Request for Comments (RFC): Neue Technologien im Internet reifen in der Diskussion von Experten, festgehalten in sogenannten RFCs (Request for Comments). Im Zuge des Internet-Standardisierungsprozesses entstand daraus eine durchnummerierte Sammlung von Dokumenten in denen Technologien, Standards und Sonstiges mit Bezug zum Internet dokumentiert und standardisiert wurde. RSA-Verfahren: Bekanntestes asymmetrisches Verschl¨ usselungsverfahren, benannt nach seinen Entwicklern Rivest, Shamir und Adleman. Ebenso wie die Diffie-Hellman Verschl¨ usselung arbeitet das RSA-Verfahren mit zwei Schl¨ usseln, einem jedermann zug¨ anglichen, ¨ offentlichen Schl¨ ussel (Public Key) und einem geheimzuhaltenden, privaten Schl¨ ussel (Private Key). RSA basiert auf Fakten aus der Zahlentheorie – dem Problem der Primfaktorenzerlegung. Eine Entschl¨ usselung ist ohne Kenntnis der geheimen, privaten Schl¨ ussel mit vertretbaren Aufwand nicht m¨ oglich. Schl¨ ussel (Key): Eine Nachricht kann sicher u ¨ber ein unsicheres Medium u ¨bertragen werden, wenn ihr Inhalt mit Hilfe eines Verschl¨ usselungsverfahrens (Chiffre) unberechtigten Dritten gegen¨ uber verborgen wird. Die Originalnachricht, der sogenannte Klartext (Plaintext), wird zur Verschl¨ usselung mit einer Transformationsfunktion in die verschl¨ usselte Nachricht (Chiffrat, Ciphertext) umgesetzt. Dabei l¨ aßt sich die zur Verschl¨ usselung verwendete Transformationsfunktion u ussel parametrisieren. ¨ber einen Schl¨ Die Gr¨ oße des Schl¨ usselraumes ist ein Maß f¨ ur die Schwierigkeit, die Transformationsfunktion unberechtigt wieder r¨ uckg¨ angig zu machen. starke Kryptografie: Bezeichnung f¨ ur Verschl¨ usselungsverfahren mit h¨ ochster Sicherheit, f¨ ur die keine praktischen Verfahren zum Brechen der Verschl¨ usselung bekannt sind. Die
5.5 Glossar
357
notwendige Berechnungszeit zum Brechen eines Schl¨ ussels h¨ angt typischerweise mit der L¨ ange des verwendeten Schl¨ ussels zusammen. Daher spricht man bei einem Verfahren mit einer bestimmte Schl¨ ussell¨ ange von einem starken kryptografischen Verfahren. Diese Grenze verschiebt sich allerdings permanent mit der stetig wachsenden Leistungsf¨ ahigkeit der im Einsatz befindlichen Rechensysteme. Steganografie: Besondere Form der Verschl¨ usselung. Dabei wird die zu verschl¨ usselnde Nachricht innerhalb anderer, in diesem Zusammenhang unwichtiger Information versteckt, so dass sie nicht als solche ersichtlich ist. Eigentliches Ziel dabei ist die Verschleierung der Tatsache, dass u usselte Informationen u ¨berhaupt verschl¨ ¨bertragen werden. ¨ symmetrische Verschl¨ usselung (Secret Key Encryption): Alteste Familie von Verschl¨ usselungsverfahren, bei dem Sender und Empf¨ anger zur Verschl¨ usselung und Entschl¨ usselung einer Nachricht einen identischen, geheim zu haltenden Schl¨ ussel verwenden. Man unterscheidet Blockchiffren, bei denen die zu verschl¨ usselnde Nachricht vor ihrer Verschl¨ usselung in Bl¨ ocke fester L¨ ange zerlegt wird, und Stromchiffren, bei denen die zu verschl¨ usselnde Nachricht als Textstrom betrachtet wird, zu dem ein Einmal-Schl¨ ussel identischer L¨ ange generiert wird, mit dem die Verschl¨ usselung der Nachricht zeichenweise vorgenommen wird. Ein Problem bei der symmetrischen Verschl¨ usselung ist der Austausch des vor Dritten geheimzuhaltenden Schl¨ ussels. Transport Layer Security (TLS): chern. Das Protokoll ist in der Kommunikation angesiedelt und Internet. Die TLS-Spezifikation Standard erhoben.
Steht als potenzieller Nachfolger von SSL in den Startl¨ oTransportschicht des Schichtenmodells der TCP/IPverspricht mehr Sicherheit bei der Kommunikation im wurde als RFC 2246 durch das IETF zum Internet-
urfunktion): Einwegfunktion, f¨ Trapdoor-Function (auch Fallt¨ ur die bei Kenntnis einer zus¨ atzlichen Information, der sogenannten Fallt¨ urinformation (Trapdoor Information), das Inverse relativ leicht berechnet werden kann. Ohne Kenntnis der Fallt¨ urinformation ist dies dagegen nahezu unm¨ oglich. Vertraulichkeit (Privacy): Der Inhalt einer vertraulichen Nachricht darf jeweils nur dem Absender und dem Empf¨ anger der Nachricht zur Kenntnis gelangen. H¨ ort ein unbefugter Dritter eine Kommunikation ab (Eaves Dropping), kann die Vertraulichkeit der Kommunikation nicht mehr gew¨ ahrleistet werden, und es kommt zum Verlust der Privatsph¨ are (Loss of Privacy). Zertifikat: Digitale Zertifikate sind das elektronische Gegenst¨ uck zu einem Personalausweis. Sie ordnen ihrem Inhaber eindeutig einen ¨ offentlichen Schl¨ ussel (Public Key) und damit eine digitale Signatur zu, die nur mit dem korrespondierenden privaten Schl¨ ussel erzeugt worden sein kann. Zertifikate m¨ ussen von einem vertrauensw¨ urdigen Dritten, einer Zertifizierungsstelle, ausgestellt und signiert werden.
Kapitel 6
Epilog
Was geschrieben ist, ist geschrieben!“ ” – Lord Byron (1788–1824), aus Childe Harold“ ”
Die digitale Kommunikation hat sich zu einer der treibenden Kr¨ afte des technischen und kulturellen Fortschritts im 21. Jahrhunderts entwickelt. Im Fokus dieses Bandes standen zun¨ achst die historische Entwicklung und die technischen Grundlagen der digitalen Kommunikation. Die mit ihr verbundenen Leitmedien Internet“ und World ” ” Wide Web“ werden aus Platzgr¨ unden zun¨ achst nur sehr allgemein besprochen. Eine detailliertere Betrachtung dieser beiden Basistechnologien, die das Verst¨ andnis f¨ ur die digitale Kommunikation vertieft und abrundet, ist Gegenstand der beiden Folgeb¨ ande unserer Trilogie Digitale Kommunikation“, Internetworking“ und Web” ” ” Technologien“. Dieser Epilog zieht ein Res¨ umee u ¨ber die Inhalte des vorliegenden Buches und gibt einen kurzen Ausblick auf die in den beiden Folgeb¨ anden behandelten Themen.
Ausgangspunkt unserer Betrachtungen war die zunehmende Digitalisierung und Virtualisierung unserer Lebenswelt und die damit verbundene digitale Kommunikation. Zum besseren intuitiven Verst¨andnis des Untersuchungsgegenstandes haben wir die historische Entwicklung der Kommunikation und ihrer technischer Hilfsmittel als Auftakt unseres Rundgangs durch die Welt der digitalen Kommunikation gew¨ahlt, startend mit den vorzeitlichen H¨ohlenzeichnungen bis hin zum World Wide Web unserer Tage. Im Anschluss daran wird die informationstheoretische Realisierung des Kommunikationsvorgangs besprochen mit einem ersten Schwerpunkt auf der Kodierung von Nachrichten. Informationen m¨ussen, bevor sie u¨ ber ein Kommunikationsmedium von einem Kommunikationspartner zum anderen u¨ bertragen werden, zuerst in eine f¨ur das Kommunikationsmedium geeignete Form gebracht werden. Dazu werden Informationen digital kodiert und als Nachrichten u¨ ber ein digitales Kommunikationsmedium versendet. Da Informationen in unterschiedlichen medialen Auspr¨agungen als Text, Bild, Audio- oder Videoaufzeichnung vorliegen k¨onnen und es Sinn macht, bei der Kodierung auf diese Auspr¨agungen R¨ucksicht zu nehmen, werden unterschiedliche Varianten der Kodierung f¨ur eine effiziente technische Realisierung ben¨otigt. Effizient“ ” C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 6,
359
360
6 Epilog
bezieht sich in diesem Zusammenhang zun¨achst auf den ben¨otigten Speicherplatz. Je mehr Speicherplatz ben¨otigt wird, desto l¨anger dauert eine Nachrichten¨ubertragung. Komprimierungsverfahren helfen diesen Speicherplatz zu verkleinern, indem sie die Redundanz einer Nachricht entfernen, also diejenigen Anteile, die keinen Anteil am Informationsinhalt der Nachricht liefern. Das Shannon-Kriterium gibt dabei den maximalen Grad der verlustfreien Komprimierung einer Nachricht an, die durch deren Entropie (Informationsgehalt) bestimmt wird. Soll die Nachricht dar¨uber hinaus verkleinert werden, reicht eine verlustfreie Komprimierung nicht aus und es m¨ussen informationstragende Bestandteile aus der Nachricht entfernt werden (verlustbehaftete Komprimierung). Das menschliche Wahrnehmungssystem bietet dazu Ans¨atze. Ihm sind bestimmte Grenzen durch unsere Sinnesorgane und die im Gehirn stattfindende Informationsverarbeitung gesetzt. Aufgrund dieser physiologischen Faktoren k¨onnen Informationsanteile bestimmt werden, auf die bei der Komprimierung verzichtet werden kann, da sie f¨ur die menschliche Wahrnehmung nicht oder nur kaum ins Gewicht fallen. Dieses Grundprinzip liegt der MPEG-Audiokodierung, der JPEGBildkodierung sowie den MPEG-Videokomprimierungsverfahren zu Grunde. Die digitalen Kommunikationskan¨ale, u¨ ber die unsere zuvor kodierten Nachrichten u¨ bermittelt werden, sind heute meist Rechnernetzwerke, deren Spannbreite von Piconetzwerken im direkten pers¨onlichen Umfeld bis hin zum weltumspannenden, heterogenen Netzwerkverbund, dem Internet, reicht. Damit eine weltweite digitale Kommunikation in Computernetzwerken gelingen kann, m¨ussen sich alle Teilnehmer an strikte Regelwerke halten, die ihnen ein bestimmtes Nachrichtenformat sowie Regeln zum Austausch der Nachrichten in einem Kommunikationsprotokoll vorschreiben. Viele Computernetzwerke und insbesondere das weltweite Internet basieren auf dem Paradigma der offenen Netze“, d.h. prinzipiell ist jeder Kommunikationsteil” nehmer in der Lage, alle u¨ ber das Netzwerk versendeten Nachrichten zu empfangen. Zwar teilen digitale Kommunikationsnetzwerke dieses Sicherheitsrisiko mit ihren analogen Vorg¨angern, wie z.B. das Telefonnetzwerk, bei dem Leitungen oder Vermittlungsstellen angezapft“ wurden, oder aber auch Briefe im Postverkehr, die un” bemerkt abgefangen und ge¨offnet wurden, die Dimension der Sicherheitsprobleme bei der digitalen Kommunikation ist jedoch wesentlich vielf¨altiger. Um ein ausreichendes Maß an Sicherheit und Privatsph¨are zu gew¨ahrleisten, wurden im Zuge der digitalen Kommunikation sichere symmetrische und asymmetrische Verschl¨usselungsverfahren mit o¨ ffentlichen Schl¨usseln entwickelt, die heute jedermann zur privaten Kommunikation nutzen kann und deren Zuverl¨assigkeit von beh¨ordlich anerkannten Zertifizierungsstellen (Certificate Authorities) garantiert wird. Das vorliegende Buch widmete sich der digitalen Kommunikation aus der technischen Sicht der Informatik. Der Bogen, der durch das Eingangsthema aufgespannt wurde hat jedoch noch eine Reihe weiterer Facetten, die aus Platzgr¨unden nicht ausgeleuchtet wurden. So konnte weder auf die physikalischen und elektronischen Grundlagen der Daten¨ubertragung im Detail eingegangen werden, noch auf die medientechnischen Grundlagen der an der Daten¨ubertragung beteiligten Ger¨ate und Netzwerke. Auch auf die detaillierte Behandlung der philosophischen, psycholo-
6 Epilog
361
gischen und soziologischen Aspekte der Kommunikation musste verzichtet werden. Allerdings wechselt bei den letztgenannten Disziplinen auch der Standpunkt der Betrachtung vom Kommunikationsmedium und den ausgetauschten Nachrichten hin zur Beziehung zwischen Sender und Empf¨anger, deren Umgang mit den Nachrichten und die Auswirkungen auf die am Kommunikationsprozess beteiligten bzw. auf die gesamte Gesellschaft. Die in diesem Kontext angesiedelte Sprachphilosophie untersucht dabei die Funktionsweise der menschlichen Kommunikation, zeigt Grenzen zwischen Syntax und Semantik auf und besch¨aftigt sich mit den Entscheidungen, die der handelnde und kommunizierende Mensch treffen muss, und seiner damit verbundenen Verantwortung. Unsere technisch-informatische Sichtweise dagegen versucht die Funktionsweise moderner, digitaler Kommunikationsmedien zu beleuchten. Dazu z¨ahlen grundlegende Betrachtungen zur Kodierung von Nachrichten, den ausgetauschten Datenformaten und den dazu eingesetzten Protokollen. Aber auch die technischphysikalische Ebene darf dabei nicht außer Acht gelassen werden, da diese die Konstruktion und das Design der zur Kommunikation eingesetzten Ger¨ate bestimmt. Zwar wurde im vorliegenden Band bereits auf allgemeine Aspekte der Kodierung, auf die effiziente Kodierung von multimedialen Daten und die Grundlagen der Kommunikation in Rechnernetzen eingegangen, dennoch f¨allt es mit diesem Wissensstand noch schwer, einfache Fragen wie die folgenden zu beantworten: Wie kommt eine E-Mail von meinem Rechner in sekundenschnelle zu ihrem Adressaten an das andere Ende der Welt? Wie funktioniert u¨ berhaupt das World Wide Web? Wie gelingt es, Millionen von Rechnern zuverl¨assig u¨ ber unterschiedlichste Technologien hinweg zu vernetzen, so dass dieses Internet“ als ein großes, einheitliches Gan” zes erscheint? Diesen Fragen sind die beiden Folgeb¨ande unserer Trilogie Digitale ” Kommunikation“, Internetworking“ und Webtechnologien“ gewidmet, deren In” ” halte bereits an dieser Stelle kurz vorgestellt werden. Band 2 Internetworking“ ist den technischen Grundlagen des digitalen Kom” munikationsmediums Internet gewidmet und erl¨autert diese im Detail. Das Internet ist ein weltumspannender Zusammenschluss der verschiedenartigsten ComputerNetzwerke. Firmennetze, Wissenschaftsnetze, milit¨arische Netze, Netze kommunaler oder u¨ berregionaler Betreiber basierend auf den unterschiedlichsten Tr¨agermedien, wie z.B. Kupferkabel, Glasfasern oder Funkwellen, und Netzwerktechnologien: sie alle zusammen sind Bestandteil dessen, was wir heute als das Inter” net“, die virtuell vernetzte neue Welt bezeichnen. Knapp vier Jahrzehnte mussten vergehen, bis aus einem nur vier Rechner umfassenden Versuchsnetz im Jahr der Mondlandung 1969 ein mehrere hundert Millionen Rechner umfassendes Geflecht aus vielen verschiedenen Netzwerken entstehen konnte, das uns Dank der dahinter verborgenen Technologien wie ein einziges, einheitliches Ganzes erscheint. Diese als Internetworking bezeichnete Technologie ist in der Lage, mit einem festen Regelwerk von Kommunikationsprotokollen – der TCP/IP-Protokollsuite – u¨ ber eine Vielzahl unterschiedlicher und an sich nicht kompatibler Netzwerke hinweg digitale Kommunikation zu erm¨oglichen. Internet-Technologie ist in der Lage, Details der verwendeten Netz-Hardware vollst¨andig zu verbergen, so dass die angeschlossenen
362
6 Epilog
Rechner unabh¨angig von ihrer physikalischen Verbindung zum Internet miteinander kommunizieren k¨onnen. Bevor ein Rechner an ein Netzwerk angeschlossen werden kann, muss er u¨ ber spezielle Netzanschluss-Komponenten verf¨ugen. Solche Netzwerkadapter nehmen der zentralen Recheneinheit des angeschlossenen Rechners den mit der Kommunikation in Zusammenhang stehenden Verarbeitungsaufwand ab und u¨ bersetzen die zu u¨ bertragenden Nachrichten in ein netzwerk-konformes Format. Zus¨atzlich m¨ussen in einem Netzwerk Zwischensysteme vorhanden sein, die an Knotenstellen installiert sind und eine Relaisfunktion aus¨uben. Sie entscheiden, in welche Richtung ein Datenstrom gelenkt werden soll und u¨ bernehmen zus¨atzlich oft auch noch eine Verst¨arkerfunktion, um die physikalische Ausdehnung des Netzes zu vergr¨oßern. Die logische Verkn¨upfung der einzelnen Netzwerkkomponenten, die Regeln nach denen diese miteinander kommunizieren und die dabei zu verwendenden Datenformate werden u¨ ber die Internetprotokolle festgelegt. Diese Internetprotokolle sind entsprechend ihres Abstraktionsgrades und ihrer jeweiligen N¨ahe“ zum physikali” schen Ausgangsmedium in hierarchisch aufeinander aufbauende Schichten unterteilt. Ein solches Kommunikationsschichtenmodell wird sowohl auf Sender- als auch auf Empf¨angerseite ben¨otigt, und zwar so, dass beide Rechner auf jeder der einzelnen Schichten miteinander kommunizieren. Allerdings ist diese Kommunikation nur eine scheinbare. Tats¨achlich kommuniziert jede Schicht immer nur direkt mit der unmittelbar dar¨uber bzw. darunterliegenden Schicht. Von oben werden Instruktionen und Daten empfangen, nach unten werden Instruktionen und Daten weitergegeben. Das zum Internetworking heute allgemein akzeptierte Schichtenmodell ist das so genannte TCP/IP-Referenzmodell (TCP/IP-Stack). Obwohl diese Begriffe der TCP/IP-Welt vor gut 20 Jahren nur einer Handvoll Spezialisten gel¨aufig waren, besteht heute kein Zweifel mehr: TCP/IP regiert das Internet. Ausgehend vom TCP/IP-Referenzmodell wird jede einzelne der f¨unf aufeinander aufbauenden Schichten beleuchtet und dabei detailliert die in jeder Schicht eingesetzten Technologien und Protokolle erl¨autert. Dabei steht zuerst die physikalische ¨ Datenubertragung u¨ ber verschiedenartige leitungsgebundene oder auch drahtlose Medien im Fokus der Betrachtung. Jedes eingesetzte physikalische Daten¨ubertragungsmedium hat spezifische Eigenschaften, die sowohl bei der Nachrichtenkodierung als auch bei den zur Koordination eingesetzten Protokollen ber¨ucksichtigt werden m¨ussen. Modulationsverfahren, die spezifizieren, wie die Eigenschaften physikalischer Medien zur Informations¨ubertragung genutzt werden k¨onnen, und Multiplexverfahren, die eine gemeinschaftliche Nutzung eines physikalischen Mediums durch viele Kommunikationspartner erm¨oglichen, werden im Detail betrachtet. Die auf der physikalischen Ebene aufbauende Netzzugangsschicht stellt den kommunizierenden Rechnern eine physikalische Verbindung zur Verf¨ugung und sichert deren kontinuierliche Betriebsbereitschaft. Die hier zum Einsatz kommenden Netzwerktechnologien k¨onnen anhand ihrer geographischen Ausdehnung und den damit verbundenen unterschiedlichen Anforderungen kategorisiert werden. Grunds¨atzlich sind hier die beiden wichtigsten Kategorien die lokalen Netzwerke (LANs), deren geographische Ausdehnung sich auf einzelne R¨aume oder Geb¨aude beschr¨ankt, und die Weitverkehrsnetzwerke (WANs), die gr¨oßere Distanzen bis hin zu Interkon-
6 Epilog
363
tinentalverbindungen unterst¨utzen. In beiden Kategorien kommen unterschiedliche Technologien zum Einsatz, die sich im Falle von LANs hinsichtlich der damit realisierten Topologie, d.h. der Anordnung der Rechner im Netzwerk, unterscheiden. Neben der popul¨aren Ethernet LAN-Technologie werden ebenso drahtlose Netzwerktechnologien, wie z.B. WLAN, Bluetooth oder WiMax detailliert erl¨autert. Einzelne Netzwerke lassen sich durch spezielle Zwischensysteme u¨ ber Repeater, Bridges und Switches erweitern und zusammenschalten. Diese Zwischensysteme unterscheiden sich durch die von ihnen realisierte Schicht innerhalb des TCP/IP-Referenzmodells. Um Daten aber u¨ ber geographisch weit auseinanderliegende Distanzen bef¨ordern zu k¨onnen, m¨ussen die dazu eingesetzten Technologien anderen Gesichtspunkten folgen, als dies im Nahbereich der LANs der Fall ist. Im Rahmen dieser Weitverkehrsnetzwerke werden die Technologien Asynchronous Transfer Mode (ATM), Distributed Queue Dual Bus (DQB) und Synchronous Digital Hierarchy (SDH), sowie die zum Zugang zu Weitverkehrsnetzen notwendigen Voraussetzungen (Modem, ISDN, DSL, etc.) im Detail behandelt. Um aus der Vielzahl einzelner Netzwerktechnologien ein homogen erscheinendes Internet zu realisieren, kommen die auf der Internetschicht des TCP/IP-Referenzmodells liegenden Protokolle zum Einsatz. Allen voran das Internet Protokoll (IP), das mit Hilfe einer logischen Adressierung eine Kommunikation u¨ ber Netzwerkgrenzen hinweg vom Quellrechner zum Zielrechner erm¨oglicht. Unterschiedlichen Kriterien folgend, wie maximaler Durchsatz, geringe Kosten, gleichm¨aßige Lastenverteilung oder bestm¨ogliche Sicherheit w¨ahlt der hier angesiedelte RoutingProzess einen m¨oglichst g¨unstigen Pfad durch das Netzwerk. Neben der detaillierten Darstellung des aktuellen IP Protokolls IPv4, seiner Adressierung, Datenformaten und Funktionalit¨at, werden unterschiedliche Routingverfahren erl¨autert und auf das Internetprotokoll der n¨achsten Generation, IPv6, zusammen mit dessen Vorteilen und den mit dessen Einf¨uhrung verbundenen Problemen eingegangen. Die Internetschicht stellt lediglich einen unzuverl¨assigen, verbindungslosen Datentransportdienst zur Verf¨ugung. Um eine zuverl¨assige Kommunikation zu erm¨oglichen, kommen Protokolle wie das Transport Control Protocol (TCP) in der darauf aufbauenden Transportschicht zum Einsatz. TCP stellt einen universellen Transportservice bereit, also eine explizit (per Software) geschaltete Verbindung mit Auf- und Abbaumodalit¨aten, sowie gesicherten Qualit¨atskriterien. Dazu z¨ahlen Fehlerkorrekturmethoden oder die korrekte Anordnung der u¨ bertragenen Datenpakete. Datenflusskontrollalgorithmen sorgen f¨ur eine gleichm¨aßige Auslastung der Netzinfra¨ ¨ struktur. Bei Uberlastung wird das Ubertragungsvolumen entsprechend gedrosselt bzw. bei einem freien Medium wird dieses bis zur Grenze seiner Leistungskapazit¨at ausgesch¨opft. TCP stellt damit das komplexeste der im TCP/IP-Referenzmodell angesiedelten Protokolle dar, das durch das verbindungslose (unzuverl¨assige) Transportprotokoll User Datagram Protocol (UDP) erg¨anzt wird. Der eigentliche Sinn und Daseinszweck des Internet besteht in den zur Verf¨ugung gestellten Internetanwendungen, die auf den Kommunikationsdienstleistungen des Internets basieren. Diese Dienstleistungen werden als Erweiterung des Netzwerkbetriebssystems in der obersten Schicht des TCP/IP-Referenzmodells f¨ur Anwendungsprogramme bereitgestellt. Hierunter fallen viele Protokolle, die zur Da-
364
6 Epilog
ten¨ubertragung im Internet große Popularit¨at erlangt haben, wie z.B. HTTP (Hypertext Transfer Protocol), FTP (File Transfer Protocol) oder SMTP (Simple Mail Transfer Protocol). Die Anwendungen selbst, also z.B. der E-Mail-Client oder der HTML-Browser sind dieser Schicht nicht zuzurechnen. Sie stehen außerhalb des Kommunikationsmodells und bedienen sich nur der in der Anwendungsschicht zur Verf¨ugung gestellten Funktionalit¨aten. Anwendungen, wie z.B. E-Mail, IRC oder WWW sind es, die unsere Vorstellung vom Internet pr¨agen und uns die vielen technologischen Kniffe und Details vergessen lassen, die notwendig sind, dieses Netz der Netze zum Laufen zu bringen. Zu den wichtigsten Dienstangeboten im Internet geh¨oren Verzeichnisdienste, Nachrichtenaustausch- und Informationsdienste und Datentransferdienste. Als Verzeichnisdienste werden dabei Dienstprogramme bezeichnet, die Information zu technischen Ressourcen oder zu Personen, die im Netz erreichbar sind, zur Verf¨ugung stellen. Den bekanntesten Verzeichnisdienst im Internet stellt der DNS ( Domain Name Service) dar, der in der Lage ist, logische Namen f¨ur Netzwerk-Endsysteme in die durch die Internet-Kommunikationsprotokolle festgelegten numerischen IPAdressen umzusetzen. Zu den bekanntesten Nachrichtenaustausch-Systemen und zu den a¨ ltesten im Internet angebotenen Diensten geh¨ort die Elektronische Post ( E-Mail). Die Elektronische Post bietet eine digitale Nachbildung der herk¨ommlichen Briefpost. Der E-Mail-Client ist dabei das Anwendungsprogramm, das dem Benutzer eine Schnittstelle zur Verf¨ugung stellt, um Nachrichten zu lesen, zu erstellen und an den E-Mail-Server weiterzuleiten. Der E-Mail-Server wiederum u¨ bernimmt die Kommunikation mit entlegenen E-Mail-Servern, die sich auf dem Weg und am Ort des Adressaten der versendeten E-Mail befinden. Im InternetProtokollstapel ist SMTP (Simple Mail Transfer Protocol) als Standard-Protokoll ¨ f¨ur E-Mail-Anwendungen vorgesehen. Um mit dem zur Ubertragung von textbasierten Nachrichten vorgesehenen SMTP-Protokoll auch Multimedia-Dokumente jeder Art versenden zu k¨onnen, wurde der MIME (Multi-Purpose Internet Mail Extension) Kodierungs-Standard eingef¨uhrt. Vermittels MIME kodierte MultimediaDokumente k¨onnen vom E-Mail-Client u¨ ber geeignete Hilfsprogramme (Plugins) dekodiert und dargestellt werden. Zus¨atzlich wird in dem die Anwendungsschicht betreffenden Kapitel detailliert auf die mit der Audio- und Videokommunikation im Internet verbundenen Technologien und Protokolle eingegangen. Im Gegensatz zur asynchronen E-Mail-Kommunikation unterliegen synchrone Audio- oder Video-Kommunikationsverbindungen harten zeitlichen Anforderungen. Um diese zuverl¨assig umzusetzen, kommen Streamingtechnologien in Verbindung mit verschiedenen Echtzeit-Transport Protokollen zum Einsatz. Weitere Themen, die im Band Internetworking“ behandelt werden, sind Dateitrans” ferdienste (FTP, NFS, etc.), Remote Login (telnet, ssh, etc.), Netzwerkmanagement (SNMP), Usenet, Internet Relay Chat, Instant Messaging, Peer-to-Peer Netzwerke, Gridcomputing und Internetsicherheit. Band 3 Web-Technologien“ ist speziell den Grundlagen des World Wide Webs ” gewidmet und erl¨autert diese im Detail. Das World Wide Web ist eine ungeheuer umfassend, u¨ ber die ganze Welt verteilte Informations- und Datenansammlung auf
6 Epilog
365
die wir mit Hilfe des Internets, genauer, mit Hilfe des auf dem Internetprotokoll aufsetzenden HTTP-Protokolls und einem Web-Browser, zugreifen k¨onnen. Es ist dem WWW zu danken, dass das Internet diese enorme Popularit¨at und Verbreitung gewinnen konnte, die es heute besitzt. Ein Großteil dieses Erfolges ist dabei der einfachen Zugangsschnittstelle, dem Browser zu danken, der es auch einem NichtFachmann erm¨oglicht, schnell und unkompliziert auf das riesige Informationsangebot des WWW zuzugreifen. Das WWW, das weltumspannende Internet, in der Form, in der es sich der breiten ¨ Offentlichkeit heute darbietet, ist gerade vollj¨ahrig. Als sich Tim Berners Lee und Robert Cailliau Ende der 1980er Jahre Gedanken um ein einfaches u¨ ber das Internet verf¨ugbares Dokumentenaustausch- und Verwaltungssystem machten, konnten ¨ sie nicht ahnen, dass ihre Uberlegungen – ein Nebenprodukt ihrer eigentlichen Arbeit am europ¨aischen Kernforschungsinstitut CERN (Centre Europ´eenne pour la Recherche Nucl´eaire) – das Internet revolutionieren w¨urden. Mit der Schaffung einer einfach zu bedienenden grafischen Benutzerschnittstelle war dann ab Anfang der 1990er Jahre auch der breiten Masse der Bev¨olkerung m¨oglich, das Internet als neues Kommunikations und Informationsmedium zu nutzen. Die Zahl der an das Internet angebundenen Rechner zur Nutzung des WWWs begann explosionsartig zu wachsen – ein Vorgang, der bis heute anh¨alt. Die Information selbst liegt im WWW in Form von sogenannten HypermediaDokumenten vor. Untereinander durch sogenannte Hyperlinks verbunden, bilden sie ein Netzwerk von Informationen, in dem der Benutzer schnell und auf einfache Weise navigieren kann. Damit man im WWW ein bestimmtes Dokument auffinden zu kann, muss es weltweit u¨ ber eine als Uniform Resource Identifier (URI) bezeichnete Adresse eindeutig identifizierbar sein. Das URI Adressierungsschema und seine Unterarten URL, URN, IRI, persistent URL und openURL werden detailliert erl¨autert. Der Zugriff auf die vom Benutzer gew¨unschten WWW-Ressource, die auf zahllosen Servern verteilt vorliegen, erfolgt u¨ ber das Hypertext Transfer Protocol (HTTP), das nach dem Client/Server-Paradigma arbeitet. Als sehr einfaches und vor allen Dingen schnelles Protokoll wurde es seit seiner Einf¨uhrung best¨andig erweitert und bietet heute erg¨anzt um Komponenten wie SSL (Secure Socket Layer) oder TLS (Transport Layer Security) eine flexible und sichere Infrastruktur f¨ur den effizienten Datentransfer im WWW. Moderne Browser gestatten u¨ blicherweise nicht nur den Zugriff auf HypermediaDokumente, sondern agieren als multifunktionale Clients, mit dem auch auf alternative Dienstangebote im Internet, wie z.B. FTP, E-Mail oder Video, zugegriffen werden kann. Die zum Teil komplexen Mechanismen, die hinter den einzelnen Dienstangeboten und Protokollen stehen, bleiben dem Benutzer komplett verborgen, er ist immer nur mit der einfach zu bedienenden grafischen Benutzeroberfl¨ache ¨ des Browsers konfrontiert. Auf dem Ubertragungsweg zwischen WWW-Server und dem Browser des Benutzers sorgen Proxy-Server, Caches und Gateways f¨ur einen reibungslosen und effizienten Datentransfer und steigern dabei maßgeblich die Leistungsf¨ahigkeit des HTTP-Protokolls.
366
6 Epilog
Das Besondere an den Dokumenten des WWW ist die M¨oglichkeit der Quervernetzung u¨ ber sogenannte Hyperlinks zu einem verteilten Hypermediasystem. Anders als bei einem Buch oder einem Dokument im herk¨ommlichen Sinne hat der Benutzer die M¨oglichkeit, von einer Stelle im Dokument direkt auf eine ausgezeichnete Stelle in einem anderen Dokument zuzugreifen, das dazu nicht einmal auf dem selben WWW-Server gespeichert sein muss, sondern am anderen Ende der Welt bereitgehalten werden kann. Im WWW ist es m¨oglich, nicht nur Texte, sondern jede Art multimedialer Dokumente einschließlich Bilder, Audio- und Video-Clips und interaktive Inhalte miteinander zu verkn¨upfen. Die Hypermedia-Dokumente des WWW werden in einer speziellen Beschreibungssprache verfasst, der Hypertext Markup Language (HTML). Diese Sprache erm¨oglicht es dem Autor, die Struktur seines ¨ Dokuments, also seine Gliederung z.B. in Uberschriften, Abs¨atzen und Tabellen festzulegen, als auch bestimmte Teile des Dokuments besonders hervorzuheben. Dabei erfolgt diese Strukturierung u¨ ber spezielle Markierungen (im Englischen als Markup“ bezeichnet), die durch den Browser vom eigentlichen Dokumenteninhalt ” getrennt erkannt und verarbeitet werden. Die grafische Ausgestaltung (Formatierung) eines HTML-Dokuments erfolgt u¨ ber ¨ separate Dateien, die sogenannten Cascading Stylesheets (CSS). Uber CSS k¨onnen in Abh¨angigkeit von den grafischen Eigenschaften des jeweilige Ausgabeger¨ates (Mobiltelefon, Computerbildschirm, Drucker, etc.) unterschiedliche Formatierungen f¨ur die einzelnen Strukturelemente eines HTML-Dokuments festgelegt werden. Der Wunsch nach gr¨oßerer Flexibilit¨at und zur Festlegung eigener Auszeichnungselemente und Markup-Sprachen f¨uhrte zur Entwicklung von XML, der Extensible Markup Language. Mit dieser F¨ahigkeit, neue Auszeichnungselemente festlegen zu k¨onnen, wurde XML schnell als Meta-Markup-Sprache zur Ausgangsbasis einer ganzen Reihe von anwendungsspezifischen Markup-Sprachen, die auf spezielle Anwendungsbereiche zugeschnitten waren. Die entsprechenden XMLSprachdefinitionen werden mit Hilfe einer Document Type Definition (DTD) oder der Datendefinitions-Sprache XML-Schema festgelegt. In diesem Rahmen werden die Grundlagen von XML, DTD und XML-Schema, sowie die erweiterte Objektidentifikation vermittels XPath und XPointer, das erweiterte Hyperlinkkonzept mit XLink, Formularverarbeitung mit XForms, XML-Abfragen mit XQuery und XMLTransformationen mit XSLT detailliert erl¨autert. W¨ahrend es bis zu diesem Punkt lediglich darum ging, vorproduzierte Inhalte auf einem WWW-Server bereitzustellen, damit diese vom Benutzer mit Hilfe eines Browsers abgerufen werden k¨onnen (statisches Web-Dokumente), haben sich im professionellen Bereich Content Management Systeme (CMS) durchgesetzt, die eine dynamische Generierung der kommunizierten Inhalte erm¨oglichen (dynamische Web-Dokumente), d.h. die Inhalte werden jeweils nur bei Bedarf gem¨aß vordefinierter Formatvorlagen aus einer Datenbank entnommen. Ein CMS bietet dabei die M¨oglichkeit, Formatvorlagen separat von den darin dargebotenen, oftmals wech¨ selnden Informationen zu erstellen. Steht eine Anderung des Layouts an, so muss nur die jeweilige Formatvorlage angepasst werden, die die eigentlichen, separat in einer Datenbank abgelegten Informationsinhalte aufnimmt. WWW-Server arbeiten in diesem Fall mit speziellen, serverseitigen Anwendungsprogrammen zusammen.
6 Epilog
367
Deren Aufgabe besteht darin, entsprechend den Informationen, die dem WWWServer u¨ bermittelt wurden, die gew¨unschten Web-Dokumente ohne Verzug zu generieren, als HTML-Dokumente zu kodieren und diese dem WWW-Server zu u¨ bergeben, der sie dann an den Nutzer ausliefern kann. Um dynamisch erzeugte Web-Dokumente vom WWW-Server anfordern zu k¨onnen, m¨ussen diesem oftmals spezielle Parameter u¨ bermittelt werden, die angeben, welche Information genau zur¨uckgeliefert werden soll. WWW-Server bieten in diesem Zusammenhang vielseitige M¨oglichkeiten des Zusammenspiels mit serverseitigen Anwendungsprogrammen, wie z.B. Common Gateway Interface (CGI), Server Side Includes, Java Servlets, Enterprise Java Beans oder auch Web Services. Auf der Seite des Clients k¨onnen so die Aktivit¨aten weit u¨ ber die bloße Darstellung von HTML-Seiten hinausgehen. User-Feedback und Interaktivit¨at beteiligen den Nutzer u¨ ber den reinen Informationskonsum hinaus und erm¨oglichen so eine echte“ Teilnahme am WWW. Allerdings reicht HTML als grundlegende Dar” stellungssprache der Webdokumente in diesem Zusammenhang nicht mehr aus, da HTML lediglich eine statische Darstellung von Informationen mit einem einfa” chen“ R¨uckkanal (z.B. u¨ ber sogenannte Web-Formulare) gestattet. Schon fr¨uh in der Entwicklung des WWW kam daher der Gedanke auf, neben statischen Informationen auch Programme vom WWW-Server zu u¨ bertragen, die anschließend auf Client-Seite zur Ausf¨uhrung gelangen. Nat¨urlich bedarf es dabei besonderer Sicherheitsregelungen, damit die auf diese Weise u¨ bertragenen Software keinen Schaden anrichten kann. Der vom Client geladene Programmcode, z.B. ein JavaScript Programm oder ein so genanntes Java Applet, darf lediglich innerhalb einer besonders gesicherten Umgebung – der so genannten Sandbox“ – ablaufen, in der der Zugriff ” auf sensible Rechnerressourcen nicht m¨oglich ist. Das Kapitel Webprogrammierung f¨uhrt detailliert in die client- und serverseitige Webprogrammierung ein und behandelt dabei u.a. auch das Document Object Modell, Java Servlets, Web Frameworks, verteilte Anwendungen mit Remote Procedure Call (RPC), Remote Method Invoction (RMI), Enterprise Java Beans (EJB) und f¨uhrt in die Welt der Serviceorientierten Architekturen (SOA) ein. Das WWW ist heute zum weltweit gr¨oßten Informationsarchiv herangewachsen. Milliarden von Web-Dokumenten machen es f¨ur den Benutzer unm¨oglich, darin die Orientierung zu behalten. Aus diesem Grund entstanden bereits kurz nach seinem Start die ersten Inhaltsverzeichnisse und Suchdienste. Aber erst leistungsf¨ahige Suchmaschinen wie Google erm¨oglichen uns heute einen (meist) zielgenauen und effizienten Zugriff auf die von uns gew¨unschten Informationen. Google verwaltet einen gigantischen Suchindex, der auf die Eingabe eines Suchbegriffes hin einen sekundenschnellen Zugriff auf die relevanten Webdokumente bietet. Das funktioniert aufgrund der schieren Gr¨oße des WWW nur mit Hilfe automatischer Verfahren zur Indexerstellung, die mit statistischen Methoden alle Begriffe innerhalb eines Webdokuments auswerten, indizieren und die jeweiligen Dokumente so bzgl. eines bestimmten Schlagworts in eine Rangreihenfolge bringen. Seit seiner Geburtsstunde im Jahre 1990 hat sich das WWW auch inhaltlich sehr ver¨andert. Mit dem Aufkommen des eCommerce Mitte der 1990er Jahre verschob sich der Fokus des WWW weg von dem pers¨onlichen Kommunikations- und Publi-
368
6 Epilog
kationsmedium f¨ur Spezialisten, hin zu einem Medium der Massenkommunikation: Informationsproduktion und Informationskonsumption bleiben strikt getrennt. Lediglich der Spezialist war in der Lage, eigene Inhalte im WWW online zustellen. Die breite Masse konsumierte das Informationsangebot der gleich einem traditionellen Broadcast-Medium agierenden kommerziellen Informationsanbieter. Doch das WWW ver¨anderte sich weiter und die unter dem Namen Web 2.0 firmierenden, interaktiven Technologien erlauben es heute auch dem Laien, eigene Informationsinhalte auf einfache Art und Weise selbst zu publizieren. Weblogs, Chatrooms, Tauschb¨orsen, soziale Netzwerke, Tagging Systeme und Wikis eroberten das WWW und er¨offneten dem Anwender auf breiter Basis den Weg zu echter Interaktion und Partizipation in der digitalen Welt. Die im WWW kommunizierten Ressourcen liegen meist in Form von Textdokumenten oder multimedialen Dokumenten vor, in dem die Informationen in nat¨urlicher Sprache beschrieben werden. Der Mensch als Empf¨anger und Nutzer dieser Dokumente kann den Inhalt (meist) problemlos verstehen. Anders ist die Situation allerdings, wenn diese Inhalte einer automatischen Verarbeitung zugef¨uhrt werden sollen. Dies zeigt sich z.B. bereits bei WWW-Suchmaschinen, die oft nicht in der Lage sind, auch Dokumente mit synonymen Suchw¨ortern (also andere W¨orter mit gleicher Bedeutung) zur¨uckzuliefern, da Suchmaschinen lediglich nach dem Vorkommen einer bestimmten Zeichenkette suchen. Umschreibungen und Synonyme k¨onnen auf diese Weise nicht gefunden werden. Um aber die hinter den Worten der nat¨urlichen Sprache stehenden Begriffe einer automatischen Verarbeitung zug¨anglich zu machen, m¨ussen diese Begriffe ma” schinenverstehbar“ kodiert und mit dem nat¨urlichsprachlichen Dokument verkn¨upft werden. Die inhaltliche Semantik, d.h. die Bedeutung der Begriffe und wie sie miteinander zusammenh¨angen, muss ebenso in einer maschinenlesbaren, standardisierten Form beschrieben werden. Eine derartige formale Wissensbeschreibung wird als Ontologie bezeichnet und kann von einem Programm, wie z.B. einer Suchmaschine, gelesen und verarbeitet werden. Die dazu notwendigen Werkzeuge, n¨amlich die Ontologiebeschreibungssprachen mit ihren unterschiedlichen semantischen Ausdrucksst¨arken, wie z.B. RDF, RDFS oder OWL, wurden bereits standardisiert und werden zum Ausgangspunkt des neuen Semantic Web“. Semantisch annotierte ” Webseiten erm¨oglichen es autonom agierenden Agenten, zielgerichtet Informationen zu sammeln, um darauf aufbauend selbstst¨andig Entscheidungen im Sinne ihres Auftraggebers zu treffen und selbstst¨andig Aktionen auszul¨osen, die nicht nur das Web, sondern auch die reale Welt ver¨andern.
Personenregister∗
Ramses II., (ca. 1290–1214 v. Chr.), ¨agyptischer Pharao der 19. Dynastie des Neuen Reiches, richtete in seinen Grabanlagen, dem Ramesseum“ erstmals eine Bibliothek ” ein, von der der griechische Geschichtsschreiber Diodor Siculus berichtet. W¨ahrend ¨ seiner Regierungszeit erreichte Agypten eine wirtschaftliche und kulturelle Bl¨ ute, wie sie nach ihm unter keinem Pharao mehr erreicht wurde. Assurbanipal, (669–627 v. Chr.), assyrischer K¨onig, richtete in seiner Residenz in Ninive die erste große Bibliothek der Weltgeschichte mit u ¨ber 20.000 beschrifteten Tontafeln ein. Thales von Milet, (ca. 640–546 v. Chr.), griechischer Philosoph, Mathematiker und Astronom (daneben auch noch Kaufmann, Staatsmann und Ingenieur), gilt allgemein als Begr¨ under und Ahnherr der griechischen Philosophie und Wissenschaft. Er lieferte unter anderem Beitr¨age zur Geometrie (Satz von Thales), berechnete die H¨ ohe der Pyramiden aus deren Schattenl¨ange und soll die Sonnenfinsternis vom 585 v. Chr. vorausgesagt haben (wobei er dabei wahrscheinlich auf babylonisches Wissen um den sogenannten Saros“-Zyklus zur¨ uckgriff, der besagt, dass eine Finsternis alle ” 233 Mondmonate eintreten kann). Er soll auch als erster die anziehende Wirkung der statischen Elektrizit¨at, die durch Reiben von Bernstein mit einem Tuch entsteht (Reibungselektrizit¨at), beschrieben haben. Kyros II., (601–535 v. Chr.), Begr¨ under des altpersischen Weltreiches, soll in seinem Reich bereits einen ersten fest installierten Postdienst eingerichtet haben, der f¨ ur berittene Boten in Abst¨anden von jeweils einer Tagesreise, Stationen zum Wechsel der Pferde vorsah. Aischylos, (525–456 v. Chr.), griechischer Dichter, beschreibt in seiner Trag¨ odie Agamemnon“ als erster die Fackeltelegrafie, mit der angeblich der Fall Trojas um ” 1184 v. Chr. nach Griechenland gemeldet worden sein soll. Kratinos, (520–423 v. Chr.), griechischer Kom¨odiendichter, in seinen Werken findet sich erstmals der Begriff Bibliothek“ f¨ ur eine B¨ uchersammlung. Außerdem f¨ uhrte ” er die Regel ein, dass f¨ ur eine Kom¨odie stets drei Schauspieler auf der B¨ uhne stehen sollen. Panini, (5. Jhd. v. Chr.), indischer Gelehrter, verfasste das ¨alteste erhaltene Lehrbuch der Grammatik des Sanskrit und damit die ¨alteste Grammatik u ¨berhaupt. Im 19. Jahrhundert wurde sein knapp 4000 Regeln umfassendes Grammatikwerk im Zuge ∗
in chronologischer Reihenfolge
369
370
Personenregister
der britischen Kolonialisierung Indiens auch in den europ¨aischen L¨andern bekannt und regte Grammatik-Studien in anderen Sprachen an. Sokrates, (ca. 470–399 v. Chr.), griechischer Philosoph, befasste sich mit der Erforschung des Menschen und der M¨oglichkeit seiner Selbsterkenntnis. Von ihm sind ¨ keine Schriften u sein Leben und seine Philosophie wird von seinen ¨berliefert. Uber Sch¨ ulern Platon und Xenophon berichtet, so auch u ¨ber seine Kritik an der Erfindung der Schrift. Unter der Anklage, neue G¨otter eingef¨ uhrt und die Jugend verf¨ uhrt zu haben, wurde er zum Tode verurteilt. Lysander, (†395 v. Chr.), spartanischer Staatsmann und Feldherr, der im Peloponnesischen Krieg und im Korinthischen Krieg wirkte. Der antike Historiker Plutarch beschreibt in seiner Lysander-Biografie den Einsatz einer Skytale zur Verschl¨ usselung von Botschaften im Peloponnesischen Krieg. Thukydides, (ca. 460–399 v. Chr.), griechischer General und Geschichtsschreiber, begr¨ undete mit seiner Schrift Der Peloponnesische Krieg“ die wissenschaftliche ” Geschichtsschreibung, in der er u ¨ber Kommunikation vermittels von Rauchzeichen aus dem Peloponnesischen Krieg (431–404 v. Chr.) berichtet. Platon, (427–348 v. Chr.), griechischer Philosoph, Sch¨ uler des Sokrates, gilt zusammen mit seinem Sch¨ uler Aristoteles als der wohl einflussreichste griechische Philosoph. Er gr¨ undete zwischen 387 und 367 v. Chr. die Akademie“ als Lehrst¨atte in ” ¨ Athen, die erst 529 n. Chr. vom ostr¨omischen Kaiser Justinian aufgel¨ ost wurde. Uber dem Eingang seiner Schule ließ er den Spruch anbringen: kein Nichtmathematiker ” (eigentlich Nichtgeometer) trete hier ein“. Platon betrachtete die Mathematik als Grundlage jeglicher Erziehung und Bildung. Er begr¨ undet den nach ihm benannten Platonismus, bei dem die mathematischen Objekte und Strukturen eine Existenz unabh¨angig vom menschlichen Denken besitzen. Er verfasste neben seinen Werken zur Philosophie, Logik und u ¨ber den idealen Staat unter anderem auch in seinem Dialogwerk Phaedros“ eine Kritik an der Entwicklung der Schrift. ” Aristoteles, (384–322 v. Chr.), griechischer Mathematiker, Zoologe und Philosoph. Er gilt als Begr¨ under des modernen wissenschaftlichen Arbeitens und beschrieb unter anderem als erster das Prinzip der Lochkamera. 343 v. Chr. u onig Phil¨bertrug ihm K¨ ipp von Makedonien die Erziehung seines damals dreizehnj¨ahrigen Sohnes, des sp¨ateren Alexander des Großen. 334 v. Chr. gr¨ undete er seine eigene Philosophenschule im Lykeion, einer dem Gott Apollon geweihten Gruppe von Geb¨auden und G¨arten, die nach den Wandelg¨angen ([griech.] peripatos), in denen dort unterichtet wurde, auch Peripathetische Schule genannt wurde. Seine zoologischen, anatomischen und physiologischen Schriften wurden im Mittelalter kanonisiert und verhinderten so bis zur Neuzeit fast jeglichen Fortschritt auf diesen Gebieten. ¨ Polybios, (208–120 v. Chr.), griechischer Geschichtsschreiber, beschrieb die Ubermittlung frei formulierbarer Botschaften mittels Fackeltelegrafie. Nach dem Erreichen einer f¨ uhrenden politischen Stellung wurde Polybios nach Rom verschleppt, wo er zum Berater des Feldherren Scipio dem J¨ ungeren avancierte und diesen auf seinen Feldz¨ ugen begleitete. Seine wichtigste Ver¨ offentlichung ist eine 40-b¨andige Geschichte Griechenlands und Roms, von der jedoch nur 5 B¨ande erhalten sind. Gaius Julius C¨ asar, (100–44 v. Chr), r¨omischer Staatsmann und Alleinherrscher, f¨ uhrte Rom aus dem Zeitalter der Revolutionen und wurde zum Wegbereiter des Kaiserreichs. Von den von ihm eingef¨ uhrten Reformen ist die von Papst Gregor XIII. 1582 abgewandelte Version des julianischen Kalenders im Jahr 45 v. Chr. (mit Unterst¨ utzung des Astronomen Sosigenes aus Alexandria) noch in unserer heutigen Zeit g¨ ultig. Er f¨ uhrte unter anderem auch die Acta Diurna“, die erste Tageszeitung ”
Personenregister
371
des Abendlandes ein. Dar¨ uberhinaus berichtet der r¨ omische Geschichtsschreiber Sueton in seinen Kaiserbiografien, dass C¨asar ein heute nach ihm benanntes, einfaches Substitutions-Verschl¨ usselungsverfahren zur milit¨arischen Nachrichten¨ ubermittlung eingesetzt haben soll, bei dem jeder Buchstabe der Nachricht durch einen im Alphabet drei Positionen weiter stehenden Folgebuchstaben ersetzt wurde. Marcus Vitruvius Pollo, (1. Jhd. v. Chr), r¨omischer Architekt und Schriftsteller. Von ihm ist ein zehnb¨andiges Werk u omi¨ber die Grundlagen der griechischen und r¨ schen Baukunst u ¨berliefert, das die großen Architekten der europ¨aischen Renaissance nachhaltig beeinflusst hat. Daneben verglich er als erster die Ausbreitung des Schalls mit der Ausbreitung von Wellen im Wasser. Augustus, (31.v.Chr.–14 n.Chr.), geboren als Gaius Octavius, Großneffe und Haupterbe von Gaius Julius C¨asar, seit 31. v. Chr. Alleinherrscher u omische Impe¨ber das r¨ rium und erster r¨omischer Kaiser, institutionalisierte den cursus publicus“ als ersten ” regul¨aren Postdienst im gesamten Mittelmeerraum. Plutarch, (45–125 n. Chr.), griechischer Schriftsteller und Historiker, beschrieb in seiner Biografie des spartanischen Heerf¨ uhrers Lysander den Einsatz der Skytale zur ¨ Ubermittlung verschl¨ usselter Botschaften im Peloponnesischen Krieg im 5. Jahrhundert v. Chr. Bekannt wurde Plutarch durch seine Kaiserbiografien, seine Doppelbiografien, in denen er jeweils die Biografie eines Griechen der eines R¨ omers gegen¨ uberstellt, und seinen moralischen Schriften. Gaius Suetonius Tranquillus, (45–125 n. Chr.), deutsch Sueton genant, r¨ omischer Schriftsteller und Verwaltungsbeamter, beschreibt in seinen Kaiserbiografien De Vita ” ¨ Caesarum“, wie Julius C¨asar zur Ubermittlung geheimer milit¨arischer Botschaften eine einfache, nach ihm benannte Substitutions-Chiffre angewendet hat. Ptolem¨ aus von Alexandria, (85–165 n. Chr.), ¨agyptischer Astronom, Mathematiker und Geograph, beschrieb unter anderem auch das Ph¨anomen der Netzhauttr¨agheit, das von modernen Medien wie Film- und Fernsehen ausgenutzt wird. Er schafft mit seinem Almagest“ ein Grundlagenwerk der Astronomie, das bis ins 17. Jhd. hinein ” seine Stellung als Standardwerk behaupten konnte, mit der Folge, dass das von ihm postulierte geozentrische Weltbild durch seine kanonische Stellung lange Zeit einen Fortschritt in der Astronomie verhinderte. Q. Septimius Florens Tertullianus, (ca. 160–220), erster bedeutender christlicher Kirchenschriftsteller in lateinischer Sprache. Er trat um 205 zum Montanismus, einer nach ihrem Begr¨ under Montanus genannte fr¨ uhchristliche Bewegung, u ¨ber und verfasste theologische und apologetische Schriften. Er soll als erster die Bezeichnung alphabetum“ als zusammenfassenden Namen f¨ ur alle Buchstaben verwendet haben. ” Lucius Domitius Aurelianus, (214–275), r¨omischer Kaiser, trug maßgeblich zur Zerst¨or˙ ung der großen Bibliothek von Alexandria bei, als er auf seinem Feldzug gegen Zenobia, der Herrscherin von Palmyra (im heutigen Syrien) k¨ampfte. Theophilus von Alexandria., (†412), christlicher Patriarch von Alexandria, ließ im ¨ Ubereifer auf Befehl des Kaisers Theodosius I., der 391 eine Aufl¨ osung s¨amtlicher heidnischen Kulte im r¨omischen Reich anordnete, auch die Reste der großen Bibliothek von Alexandria niederreißen und die gesammelten Schriften verbrennen. Theodosius I., (346–395), christlicher r¨omischer Kaiser, der letzte r¨ omische Kaiser, der das Gesamtreich regierte. Er ging entschieden gegen das Heidentum vor, verbot 391 s¨amtliche heidnischen Kulte und verordnete die Schließung aller heidnischer ¨ Tempel. Theophilus, der Patriarch von Alexandria, ließ im Ubereifer und im Zuge dieser Order die große Bibliothek von Alexandria niederreißen und die gesammelten
372
Personenregister
Schriften als Zeugnisse heidnischen Glaubens verbrennen. 393 wurden im Zuge dieser kaiserlichen Anordnung auch die Olympischen Spiele als heidnischer Kult verboten. Publius Flavius Vegetius Renatus, (um 400), r¨ omischer Veterin¨ararzt und Kriegstheoretiker, beschrieb die r¨omische Version eines antiken optischen Telegrafiesystems, bei der sich mit Hilfe von an T¨ urmen befestigten, beweglichen Holzbalken mittels zuvor verabredeten Nachrichtenzeichen Botschaften u ¨bermitteln ließen. Sein Hauptwerk Epitoma rei militaris“ behandelt die Kriegskunst und Belagerungstechnik, dessen ” Maximen bis in die Neuzeit viel Beachtung fanden. Omar von Damaskus, (592–644), (Umar ibn al-Chattab) der zweite rechtgeleite” ¨ te“ Kalif des Islams, eroberte 642 Agypten und wird in der christlichen Kreuzfahrerpropaganda f¨ ur die Zerst¨orung der antiken Bibliothek von Alexandria verantwortlich gemacht, die jedoch bereits zwei Jahrhunderte zuvor vernichtet wurde. Gregor II., (669–731), Papst, schlichtete den in der Kirche entbrannten Bilderstreit, der infolge eines Edikts des ostr¨omischen Kaisers Leo III. entbrannt war. Bedeutung erlangte er auch dadurch, dass er Bonifatius 719 mit der Missionierung Deutschlands beauftragte. Leo III., (685–741), ostr¨omischer Kaiser, unterst¨ utzte das in der ostr¨ omischen Kirche geforderte Bilderverehrungsverbot. Ein großer Vulkanausbruch im Jahre 726, den er als Mahnung Gottes verstand, schien ihn dazu veranlasst zu haben. So ließ er das Christusbild an den Toranlagen des Kaiserpalastes entfernen. Er gilt im Bilderstreit als Widersacher zu Papst Gregor II., wobei dieser Konflikt historischen Quellen zufolge eher durch Streitigkeiten um Steuerzahlungen ausgel¨ ost worden war. Abu Ja’far Mohammed Ibn Musa Al-Khowarizmi, (ca. 780–850), persischer Mathematiker, Astronom, Geograph und Historiker aus Khowarizm (Khorassan), schrieb ¨ 820 das Buch Uber die indischen Zahlen“, in dem die Verwendung des Dezimalsys” tems erl¨autert wird, und ein Buch Al-Jabr Walmukala“ u osen von Glei¨ber das L¨ ” chungen, aus dessen Titel das heutige Wort Algebra“ entstanden ist. Aus seinem ” ¨ Namen leitet sich der Begriff Algorithmus“ her. In der lateinischen Ubersetzung ” ¨ beginnt sein Buch Uber die indischen Zahlen“ mit den Worten Algoritmi dicit ...“, ” ” was soviel bedeutet wie Al-Khowarizmi sagt ...“. ” Kung-Foo Whing, (10. Jhd), chinesischer Gelehrter, beschrieb um das Jahr 968 als erster das Schnurtelefon“. Zwei Zylinder aus Bambusrohr wurden durch einen straff ” gespannten langen Faden verbunden. Der eine Zylinder, in den hineingesprochen wurde, wirkte als Mikrophon, der andere als Lautsprecher. Ibn Al-Haitham (Alhazen), (965–1040), arabischer Mathematiker und Physiker, beschrieb als erster das Prinzip der Camera Obscura, dem Vorl¨aufer der modernen Fotokamera und besch¨aftigte sich mit Fragen der Wirkung gekr¨ ummter (sph¨arischer und paraboloider) Spiegel als auch mit der Vergr¨ oßerungswirkung von Linsen. Ibn Sina (Avicenna), (980–1037), persischer Arzt, Physiker und Philosoph, gilt als einer der bedeutendsten Wissenschaftler des mittelalterlichen Islams. Sein Hauptwerk, der Kanon“, bestimmte maßgeblich bis ins 17. Jahrhundert hinein die Ent” wicklung der Medizin. Seine von Aristoteles u ¨bernommene Impetus-Theorie hemmte jedoch den Fortschritt der Physik, insbesondere der Ballistik. Nach ihr soll ein Geschoss einer geradlinigen Bahnfolgen, bis dessen Impetus“ aufgebraucht ist, dann ” stoppen und geradlinig zu Boden fallen, w¨ahrend es tats¨achlich aber eine Parabelbahn beschreibt. Die Wurf- oder Geschossparabel wurde erst von Niccolo Tartaglia im 16. Jahrhundert korrekt beschrieben. Bi Sheng, (†1052), chinesischer Schmied, auf den die Erfindung der Druckkunst mit beweglichen Lettern aus Ton um das Jahr 1040 zur¨ uckgehen soll.
Personenregister
373
Nur-Ed Din, (1118–1174), Emir von Damaskus, richtete den ersten planm¨aßig arbeitenden Brieftauben-Postbef¨orderungsdienst im Nahen Osten ein, um sein von ¨ Agypten bis in das iranische Hochland reichende Herrschaftsgebiet zu verwalten. Roger Bacon, (1214–1294), englischer Franziskanerm¨ onch und Philosoph, wandte sich als erster gegen die im Mittelalter vorherrschende Wissenschaftsmethode der blinden Gefolgschaft fr¨ uherer Autorit¨aten (Scholastik) und propagierte den experimentellen Wissensgewinn aus eigener Anschauung (Empirie). Unter seinen Ver¨ offentlichungen finden sich Arbeiten zur Optik, in denen er sich mit der Farbenlehre, den Spiegelungs- und Brechungsgesetzen besch¨aftigte. Marco Polo, (1254–1324), venezianischer Kaufmannssohn und Urvater des Touris” mus“. Zusammen mit seinen Onkeln Niccol´o und Maffeo Polo unternahm er Reisen in den fernen Osten und drang dabei bis nach China an den Hof des Kublai Khans vor, dessen bereits gut ausgebautes Postsystem er in seinen Reiseberichten r¨ uhmte. Johannes Gensfleisch zum Gutenberg, (1397–1468), Goldschmied aus Mainz, entwickelte um 1440 die neue Verfahrenstechnik des Buchdrucks mit beweglichen Lettern und schuf damit die Grundlage, mit der das gedruckte Buch zum ersten Massenmedium werden konnte. Johannes Fust, (1400–1466), Mainzer Bankier, finanzierte Gutenbergs Entwicklung des Druckereigewerbes mit der f¨ ur die damalige Zeit riesigen Summe von 800 Gulden (entsprach dem Gegenwert von 100 Ochsen). F¨ unf Jahre sp¨ater forderte er die Summe in einem Gerichtsprozess von Gutenberg zur¨ uck, der sich zu diesem Zeitpunkt aber noch weiter verschuldet hatte. Mit seinem Schwiegersohn Peter Sch¨ offel f¨ uhrte Fust das Unternehmen von Gutenberg erfolgreich weiter. William Caxton, (1424–1491), Pr¨asident der englischen Handelsgesellschaft in Br¨ ugge (Flandern). Auf diplomatischen Missionen in K¨oln erlernte er das Druckerhandwerk und f¨ uhrte es 1476 in England ein, wo er in Westminster bis zu seinem Tode eine Druckerwerkstatt betrieb. F¨alschlicherweise gilt er in England zum Teil noch bis heute als der Erfinder des Druckerhandwerks. Berthold von Henneberg, (1441–1504), Erzbischof und Kurf¨ urst von Mainz, richtete 1485 die erste Buchzensur ein. Damit verbunden war ein Verbot von Druck und Verkauf aller nicht ausdr¨ ucklich genehmigten Bibel¨ ubersetzungen unter Androhung der Exkommunikation. Innozenz VIII., (1432–1492), Giovanni Battista Cibo, Papst, beklagte in seiner Bulle von 1487 den Missbrauch des Buchdrucks zur Verbreitung h¨aretischer und gesellschaftssch¨adigender Schriften. Er u ur alle Druckwerke ¨bertrug die Pr¨aventivzensur f¨ den Ortsbisch¨ofen. Bei Strafe von Exkommunikation und heftigen Geldbußen wurde das Drucken, Binden und Lesen von B¨ uchern, die nicht vorher die bisch¨ ofliche Approbation erhalten hatten, verboten. Alexander VI., (1430–1503), Rodrigo Lanzol, Papst, richtete 1501 mit seiner Bulle Inter multiplices“ eine allgemeine Buchzensur ein, die alle (noch nicht gedruckten ” und alle bereits gedruckten), dem rechten Glauben zuwiderlaufenden, unfrommen ” und skandal¨osen“ Schriften betraf. Leonardo da Vinci, (1452–1519), italienischer Wissenschaftler, K¨ unstler und Erfinder, entwarf zahllose Skizzen mechanischer Ger¨ate, darunter Flugmaschinen oder Architekturentw¨ urfe, die von Kirchen u ¨ber Kanalanlagen bis hin zu ganzen Festungen reichten. Sein k¨ unstlerisches Schaffen als Maler umfasst so ber¨ uhmte Werke wie die Mona Lisa“ oder das Letzte Abendmahl Christi“. ” ”
374
Personenregister
Leonardo Loredan, (1459–1516), (Leonhard Lauredan), Doge von Venedig, in einem seiner ins Deutsche u ¨bersetzten Briefe fand sich die erste Erw¨ahnung des Begriffs Zeitung“. ” Maximilian I., (1459–1519), deutscher K¨onig (ab 1493 Kaiser), richtete 1490 den ersten modernen Postkurs zwischen seinen H¨ofen in Innsbruck und bei Br¨ ussel ein, der von der Familie Thurn und Taxis unterhalten wurde. ¨ Leo X. (Giovanni de Medici), (1475–1521), Papst seit 1513, verbat 1515 die Ubersetzung der heiligen Schrift vom Lateinischen in die Volkssprachen, da er die Vormachtstellung des Klerus zu deren Auslegung gef¨ahrdet sah. Leo missverstand Luthers Aufbegehren und Anklage der Missst¨ande in der katholischen Kirche und exkommunizierte ihn im Jahr 1520. Marin Luther, (1483–1546), deutscher Religionsf¨ uhrer und Begr¨ under der Reformation. Zum Priester geweiht und als Professor f¨ ur Bibelkunde an der Universit¨at Wittenberg kritisierte Luther den von der katholischen Kirche betriebenen Ablasshandel. F¨ ur die Zahlung eines Entgelds versprach die Kirche gegen Aush¨andigung eines Ablassbriefes die Vergebung begangener S¨ unden. Schuld, Reue und Vergebung seien aber, so Luther, ausschließlich vom Gesinnungswandel des S¨ unders und Gottes Barmherzigkeit abh¨angig. In 95 Thesen, die er an den Toren der Schlosskirche zu Wittenberg anschlug, griff er den Ablasshandel vehemment an und zweifelte an der Macht der Kirche, S¨ unden vergeben zu k¨onnen. Franz I., (1494–1547), K¨onig von Frankreich, richtete 1536 die erste Nationalbibliothek der Welt, die Biblioth`eque du Roi“ ein, die das Recht auf ein Pflichtexemplar ” eines jeden in Frankreich erscheinenden Buches besaß. Dadurch konnte erstmals die gesamte Literatur eines Landes vollst¨andig archiviert und katalogisiert werden. Niccolo Fontana Tartaglia, (1499–1557), italienischer Mathematiker, gilt als Vater der Ballistik und fand als erster eine L¨osungsmethode f¨ ur kubische Gleichungen. 1537 untersuchte er die Bahn einer abgeschossenen Kanonenkugel und entwickelte das Konzept der zusammengesetzten Bewegung, das zur Grundlage der Entwicklung der Ballistik wurde. Blaise de Vigen´ ere, (1523–1596), franz¨osischer Diplomat und Kryptograph, entwickelte basierend auf den Ideen des Benediktinerm¨ onches Johannes Trithemius die nach ihm benannte polyalphabetische Vigen´ere-Verschl¨ usselung, die lange Zeit als nicht zu brechen galt. Erst um 1850 konnte der britische Mathematiker Charles Babbage erstmals Vigen´ere-Chiffrierungen systematisch dechiffrieren. John Napier, (1540–1617), schottischer Mathematiker, f¨ uhrte die Logarithmenberechnung und den Dezimalpunkt in die Mathematik ein. Er entwickelte einen ersten Rechenschieber, die sogenannten Napier’s Bones“, mit dem eine mechanische Mul” tiplikation erm¨oglicht wurde. Rudolf II. von Habsburg, (1552–1612), deutscher Kaiser, erhob 1597 das Postwesen zu einem hoheitlichen Recht und schuf damit die Grundlage f¨ ur eine allgemeine Postbef¨orderung. Jan Lipperhey, (um 1570–1617), holl¨andischer Brillenmacher, gilt als Erfinder des Fernrohrs. Allerdings erhielt er kein Patent auf seine Erfindung, da sp¨ater neben ihm die Brillenmacher Jacob Adriaanszon, genannt Metius aus Alkmaar, und Zacharias Janssen ebenfalls den Anspruch erhoben, das Fernrohr erfunden zu haben. Johannes Kepler, (1571–1630), deutscher Astronom und Mathematiker, sein Freund Willhelm Schickard soll ihm eine erste mechanischen Rechenmaschine bauen, die ihm die langwierigen Berechnungen bei der Bestimmung von Planetenpositionen erleichtern soll. Die Rechenmaschine wird aber noch w¨ahrend der Konstruktion durch einen
Personenregister
375
Brand zerst¨ort. Kepler entwickelte auf der Basis des kopernikanischen Modells des Planetensystems die nach ihm benannten Gesetze der Planetenbewegung. Marin Mersenne, (1588–1648), franz¨osischer Theologe und Mathematiker, fand in der Zahlentheorie die nach ihm benannten Mersenne-(Prim)Zahlen. Daneben besch¨aftigte er sich mit Musiktheorie, Akustik und Physik. Er unternahm als erster Messungen der Schallgeschwindigkeit und unterst¨ utzte die naturwissenschaftlichen Theorien von Theorien Galilei und Descartes. Willhelm Schickard, (1592–1635), deutscher Astronom, Mathematiker und K¨ unstler, f¨ uhrte erste Landvermessungen nach eigenen kartographischen Methoden durch. Er konstruierte die erste mechanische, zahnradgetriebene Rechenmaschine, mit der sich die vier Grundrechenarten ausf¨ uhren ließen. Johannes Marcus Marci, (1595–1667), b¨ohmischer Mediziner und Physiker, besch¨aftigte sich mit der Mechanik und der Optik. Er f¨ uhrt erste Versuche zur Lichtbrechung an Prismen durch, jedoch gelang es erst Newton, deren Natur zu erkl¨aren. Marci verband eine lange Freundschaft mit dem Jesuiten, Mathematiker und Naturforscher Athanasius Kircher, der ihn in die Kenntnisse der orientalischen Schriften einf¨ uhrte. Athanasius Kircher, (1602–1680), th¨ uringer Jesuit, Mathematiker und Naturforscher, benutzte die Camera Obscura als erster mit einer Sammellinse und erschreckte seine Zuschauer mit der Projektion furchterregender Bilder. Die so verbesserte Camera Obscura firmierte bald unter dem Namen Laterna Magica (Zauberlampe). Timotheus Ritzsch, (1614–1678), Herausgeber der ersten regelm¨aßig erscheinenden Tageszeitung Neueinlaufende Nachricht von Kriegs- und Welth¨andeln“ (1650) in ” Leipzig. Blaise Pascal, (1623–1662), franz¨osischer Mathematiker, leistete wichtige Beitr¨age zur Zahlentheorie, Geometrie und der Wahrscheinlichkeitsrechnung. 1642 entwickelte er eine mechanische Rechenmaschine, die die Addition und Subtraktion von Dezimalzahlen erlaubte. Robert Hooke, (1635–1703), englischer Wissenschaftler, entwickelte das nach ihm benannte Gesetz zur Beschreibung der Elastizit¨at einer mechanischen Feder. Neben Biologie, Physik und Mechanik besch¨aftigte er sich auch mit den M¨ oglichkeiten der Telekommunikation und lieferte die erste europ¨aische Beschreibung des Schnurte” lefons“. Hooke beschrieb 1684 auch die M¨oglichkeit eines optischen Telegrafen zur Nachrichten¨ ubermittlung zwischen London und Paris. Isaac Newton, (1643–1727), englischer Physiker, Mathematiker und Astronom, entdeckte das Gravitationsgesetz. Er begr¨ undete mit den nach ihm benannten Axiomen die sogenannte klassische Mechanik und erforschte das Licht beim Durchgang durch Materie. Von ihm stammen grundlegende Arbeiten auf dem Gebiet der Elektrizit¨atslehre und der Differential- und Integralrechnung. Gottfried Willhelm von Leibniz, (1646–1716), deutscher Mathematiker und Philosoph, entwickelte die Integral- und Differentialrechnung unabh¨angig von Newton. Er f¨ uhrte das bin¨are Zahlensystem ein und konstruierte die erste mechanische Rechenmaschine, die alle 4 Grundrechenarten direkt unterst¨ utzte. Leibniz suchte nach einer Vereinigung aller Philosophien in einer universalen Philosophie und entwickelte in ¨ seinen Uberlegungen die Lehre von den Monaden – unteilbaren, gegenstandslosen Einheiten – aus denen die Welt aufgebaut sein sollte. Guillaume Amontons, (1663–1705), franz¨osischer Physiker, Erfinder des Barometers, demonstrierte 1695 erstmals erfolgreich eine praktikable M¨ oglichkeit der optischen Signal¨ ubertragung mit Hilfe eines Fl¨ ugeltelegrafen. Der bereits in seiner fr¨ uhen
376
Personenregister
Jugend ertaubte Physiker nutzte dazu die Windm¨ uhle von Belleville, deren Fl¨ ugel sich nur langsam drehten. An den Fl¨ ugelenden ließ er große T¨ ucher aufspannen und nach erfolgter Umdrehung wieder austauschen, auf die die zu u ¨bermittelnden Buchstaben gemalt waren. An einer Gegenstelle in der N¨ahe von Paris wurden die u ¨bermittelten Buchstaben mit Hilfe eines Fernrohrs gelesen. Stephen Gray, (1666 – 1736), englischer Physiker und Amateurastronom, entdeckte, dass beinahe alle Materialien elektrischen Strom weiterleiten, insbesondere Kupferdraht. Heinrich Schulze, (1687–1744), deutscher Arzt und Pionier der Fotografie, entdeckte, dass f¨ ur die Schwarzverf¨arbung von Silberverbindungen durch Sonnenlicht die Lichtenergie verantwortlich ist. Petrus van Musschenbroek, (1692–1761), niederl¨andischer Physiker, entwickelte den ersten Vorl¨aufer der elektrischen Batterie, die Leidener Flasche“, eine Art Kon” densator zur Speicherung von elektrischer Energie. Antonio Caneletto, (1697–1768), venezianischer Maler, der ber¨ uhmteste St¨adteansichtsmaler des 18. Jahrhunderts. Er benutzte f¨ ur seine Arbeiten oft die Camera Obscura als Hilfsmittel zur naturgetreuen Abbildung einer Szene. Denis Diderot, (1713–1784), franz¨osischer Philosoph, Schriftsteller und zentrale Gestalt der europ¨aischen Aufkl¨arung, zusammen mit d’Alembert Mitherausgeber der großen franz¨osischen Enzyklop¨adie ( Encyclop`edie, ou dictionnaire raisonn`e des ” sciences, des arts et des m`etiers“), die als Vorl¨aufer des Prinzips des Hypertextsystems angesehen wird. Jean le Rond d’Alembert, (1717–1783), franz¨osischer Mathematiker, Physiker und Philosoph, zusammen mit Dennis Diderot Mitherausgeber der großen franz¨ osischen Enzyklop¨adie ( Encyclop`edie, ou dictionnaire raisonn`e des sciences, des arts et des ” m`etiers“), die als Vorl¨aufer des Prinzips des Hypertextsystems angesehen wird. Johann Gottfried Herder, (1744 – 1803), deutscher Kulturphilosoph, Dichter und ¨ ¨ Asthetiker, verfasste 1771 die Schrift Uber den Ursprung der Sprache“. Herder gilt ” als Humanist und Wegbereiter der Epochen des Sturm und Drangs“, und der Ro” ” mantik“. In seinen Schriften betont er den tiefen Zusammenhang zwischen Natur und Mensch, den es wieder freizulegen gilt, denn nur so k¨ onne wahre Kultur (Humanit¨at) erreicht werden. Richard Lovell Edgeworth, (1744 – 1803), britischer Erfinder, Politiker und Schriftsteller, entwickelte 1767 einen Telegrafen, der zwischen Newmarket und London zum privaten“ Gebrauch betrieben wurde. Erst 1796, nachdem Claude Chappe bereits ” den franz¨osischen Semaphor-Telegrafen vorgestellt hatte, schlug Edgeworth sein Telegrafensystem der britischen Admiralit¨at vor. Alessandro Volta, (1745–1827), italienischer Physiker, arbeitete u ¨ber die Elektrolyse und stellte 1800 mit der nach ihm benannten Voltaschen S¨aule die erste zuverl¨assige Stromquelle und den Vorl¨aufer der modernen Batterie vor. Johann Wolfgang v. Goethe, (1749–1832), gr¨oßter deutscher Dichter, der den wohl pr¨agendsten Einfluss auf die europ¨aische Literatur und Geistesgeschichte der Neuzeit aus¨ ubte. Neben seinem dichterischen Werk und einer Vielzahl autobiografischer Schriften verfasste er auch zahlreiche Abhandlungen naturwissenschaftlichen Inhalts. Dabei besch¨aftigte er sich unter anderem mit Anatomie, Zoologie, Botanik, Optik, Mineralogie und Farbenlehre. Francisco Salva y Campillo, (1751–1828), spanischer Arzt und Naturwissenschaftler, entwickelte einen ersten Elektrolyt-Telegrafen.
Personenregister
377
Joseph Marie Jacquard, (1752–1834), franz¨osischer Ingenieur, erhielt als Sohn eines Webers um 1790 den Auftrag, den mechanischen Webstuhl, der 50 Jahre zuvor von Jacques de Vauconson erfunden worden war, zu verbessern. Er trennte die Steuerung des Webstuhls – diese realisierte er mit Hilfe von Lochkarten – von der eigentlichen Maschine. Seine Erfindung war so revolution¨ar, dass die Weber um ihre Arbeit f¨ urchteten, seine Maschinen verbrannten und ihn pers¨ onlich angriffen. Die Unruhen legten sich aber bald wieder, da die Erfindung zu einem gewaltigen wirtschaftlichen Aufschwung f¨ uhrte. Samuel Thomas von S¨ ommering, (1755–1830), deutscher Anatom und Physiologe, entwickelte den Elektrolyt-Telegrafen weiter. Claude Chappe, (1763–1805), franz¨osischer Physiker, entwickelte den Semaphor, einen Fl¨ ugeltelegrafen als ersten modernen und praktisch einsetzbaren optischen Te¨ legrafen f¨ ur die Ubermittlung frei formulierbarer Botschaften. Nic´ ephore Niepce, (1765–1833), franz¨osischer Offizier und Privatgelehrter, gilt als Erfinder der Fotografie. Mit dem von ihm entwickelten Heliographie-Prozess gelang ihm als erstem die Herstellung dauerhaft fixierter Lichtbilder. Charles Barbier de la Serre, (1767–1841), franz¨ osischer Offizier, entwickelte einen Vorl¨aufer der Blindenschrift, die sogenannte Nachtschrift“. Barbiers Nachtschrift ” diente dem Zweck, Soldaten an der Front schriftliche Befehle zu erteilen, die gelesen werden konnten, ohne eine Laterne anzuz¨ unden, um nicht einen gegnerischen Beschuss zu riskieren. Barbiers Nachtschrift konnte sich aufgrund ihrer Komplexit¨at nicht durchsetzen, wurde aber von Louis Braille aufgegriffen und zur Blindenschrift weiterentwickelt. Jean-Baptiste Joseph Baron de Fourier, (1768–1830), franz¨ osischer Mathematiker und Physiker, entwickelte 1822 in seiner Analytischen Theorie der W¨arme ( Th´eorie analytique de la chaleur“) das Prinzip der trigonometrischen Reihenent” wicklung f¨ ur periodische Funktionen. Mit Hilfe des nach ihm benannten Verfahrens (Fourier-Analyse, Fourier-Transformation) l¨asst sich eine periodische Funktion ¨ als Uberlagerung von Sinus- und Cosinus-Schwingungen unterschiedlicher Amplitude und Frequenz darstellen. Napoleon Bonaparte, (1769–1821), franz¨osischer Kaiser und Feldherr, er erkannte fr¨ uh die Vorteile moderner Telekommunikationsverfahren f¨ ur die Kriegsf¨ uhrung. Daher unterst¨ utzte er den Ausbau der franz¨osischen Semaphor-Telefgrafenstrecken und f¨ uhrte auf seinen Feldz¨ ugen tragbare Semaphoren zur Kommunikation zwischen seinem Hauptquartier und seinen Truppenteilen mit. Dies erm¨ oglichte ihm schnellstm¨ogliche Koordination seiner milit¨arischen und logistischen Verb¨ande und gab ihm gegen¨ uber seinen Gegnern einen strategischen Vorteil. Thomas Wedgewood, (1771–1805), englischer Fotopionier, experimentierte mit Silbernitratbildern auf Keramik, die sich aber noch nicht v¨ ollig fixieren ließen. Thomas Young, (1773–1829), englischer Augenarzt, Physiker und Philologe, bestimmte die Wellenl¨angen des f¨ ur den Menschen sichtbaren Lichts mit Hilfe der Diffraktion. Er erkannte aus seinen Experimenten die Gestalt der Lichtwellen als Transversalwelle und entwickelte ein Farbmodell, das auf der Mischung dreier Grundfarben basierte (trichromatisches Sehen). Er leistete bedeutende Beitr¨age zur Entzifferung der ¨agyptischen Hieroglyphen und galt dabei als Hauptrivale Jean-Fran¸cois Champollions, dem auf der Grundlage von Youngs Erkenntnissen schließlich der Durchbruch gelang. Andr´ e Marie Amp` ere, (1775–1836), franz¨osischer Physiker, arbeitete u ¨ber den Elektromagnetismus und entwickelte den elektromagnetischen Nadeltelegrafen.
378
Personenregister
Georg Friedrich Grotefend, (1775–1853), deutscher Philologe und Altertumswissenschaftler, entschl¨ usselte 1802 als erster die Keilschrift. Nathan Mayer Rothschild, (1777–1836), britischer Bankier und Begr¨ under der Rothschild-Dynastie, soll der Legende nach den Grundstein zu seinem immensen Verm¨ ogen gelegt haben, indem er per Brieftaubenpost als erster von Napoleons Niederlage bei Waterloo erfuhr und diese Nachricht an der Londoner B¨ orse gewinnbringend nutzte. Hans Christian Oerstedt, (1777–1851), d¨anischer Physiker und Chemiker, begr¨ undete die Lehre des Elektromagnetismus und schuf die Grundlagen der modernen Elektrotechnik. Carl Friedrich Gauss, (1777–1855), deutscher Mathematiker, bekannt f¨ ur seine bahnbrechenden Arbeiten in der Algebra, der Zahlentheorie und der Differentialgeometrie. Er entwickelte unter anderem zusammen mit Willhelm Weber einen ersten elektromagnetischen Zeigertelegrafen, der das Physikgeb¨aude bei der G¨ ottinger Paulinerkirche mit der G¨ottinger Sternwarte verband. Francois Dominique Arago, (1786–1853), franz¨ osischer Physiker und Direktor des Pariser Observatoriums, erfand eine Vielzahl optischer Instrumente. Er sprach 1839 f¨ ur Louis Daguerre vor der Pariser Akademie der Wissenschaften u ¨ber die Erfindung der Fotografie und wurde zu ihrem ersten und wichtigsten Promoter. Louis Jacques Mand´ e Daguerre, (1787–1851), Maler, Schausteller und Fotograf, entwickelte das von Ni´epce erfundene Heliographie-Verfahren weiter zur nach ihm benannten Daguerrotypie mit ihren dauerhaft fixierten Lichtbildern auf Silberjodidplatten. ¨ Jean Francois Champolion, (1790–1832), franz¨osischer Agyptologe, entzifferte 1822 die Hieroglyphen mit Hilfe des Steins von Rosetta“, einer Basaltsteintafel, die im ” Juli 1799 im westlichen Nildelta bei Rosetta von Napoleons Truppen gefunden worden, und auf der ein und derselbe Text sowohl in Hieroglyphenschrift als auch in demotischer und griechischer Schrift eingemeißelt war. Michael Faraday, (1791–1867), amerikanischer Physiker, entdeckte neben dem Diamagnetismus und dem magneto-optischen Effekt auch die elektromagnetische Induktion, die f¨ ur die Entwicklung des Telefons ausschlaggebend war. Charles Babbage, (1791–1871), englischer Mathematikprofessor, entwickelte Konzepte zum Bau einer ersten, frei programmierbaren Rechenmaschine, der Analytical ” Engine“. Die Maschine war bereits in der Lage, logische Programmverzweigungen, Programmschleifen und Sprungbefehle auszuf¨ uhren und nahm so viele Konzepte heutiger Computer vorweg. Aufgrund der mangelnden feinmechanischen Pr¨azision seiner Zeit war jedoch eine technische Umsetzung seiner Maschine noch nicht machbar. Bereits zuvor hatte er 1822 eine Rechenmaschine zum mechanischen L¨ osen von Differentialgleichungen, die Difference Engine“ konstruiert, die ebenfalls nur ansatzweise ” vollendet werden konnte. Samuel Morse, (1791–1872), amerikanischer Portraitmaler und Erfinder, verhalf mit seiner Weiterentwicklung des Telegrafen zum schreibenden“ Telegrafen und dem ” nach ihm benannten Morse-Alphabet zur Kodierung der elektrischen Telegrafie zum großen Durchbruch. James Gordon Bennet, (1792–1872), amerikanischer Verleger, Redakteur und Reporter, wurde als erster angels¨achsischer Pressebaron“ bezeichnet. Er gr¨ undete 1835 ” den New York Herald“ nach dem Vorbild des zwei Jahre zuvor bereits erschienenen ” Revolverblatts The Sun“ als billige Zeitung f¨ ur ein Massenpublikum. Auf Bennet ” gehen eine Vielzahl journalistischer Erfindungen zur¨ uck. So benutzte er bereits 1846
Personenregister
379
den Telegrafen, unterhielt ein System europ¨aischer Korrespondenten, schrieb in Interviewform und war f¨ uhrend beim Einsatz von Illustrationen. William Fox Talbot, (1800–1877), Philologe und Mathematiker, ihm gelang die Entwicklung des ersten Papierbildverfahrens in der Fotografie, der Kalotypie, die es gestattete, beliebig viele Abz¨ uge eines Bildes anzufertigen. Willhelm Weber, (1804–1891), deutscher Physiker, arbeitete zusammen mit Carl Friedrich Gauss, mit dem er Arbeiten u ¨ber die Messung des Erdmagnetfeldes ver¨offentlichte und 1833 den elektromagnetischen Zeigertelegrafen entwickelte. Alfred Louis Vail, (1807–1859), war ein US-amerikanischer Techniker und Erfinder, der als Assistent von Samuel Morse wichtige Beitr¨age zur Entwicklung des MorseVerfahrens leistete. Ob die Erfindung des Morse-Alphabets ihm oder Morse zuzuschreiben ist, wird derzeit noch kontrovers diskutiert. Louis Braille, (1809–1952), Erfinder der nach ihm benannten Blindenschrift. Braille verlor ihm fr¨ uhen Kindesalter durch einen Unfall sein Augenlicht. Da er sich nicht damit abfinden wollte, Literatur nur durch Vorlesen rezipieren zu k¨ onnen, bem¨ uhte er sich bereits fr¨ uh um die Entwicklung einer Schrift f¨ ur Blinde. 1825 ver¨ offentlichte er seine einfach zu erlernende Blindenschrift, die er aus einer sehr komplexen, f¨ ur das Milit¨ar entworfenen Nachtschrift“ des Artilleriehauptmanns Charles Barbier ” entwickelte. Frederick Scott Archer, (1813–1857), englischer Bildhauer und Fotograf, entwickelte 1851 das Kollodium-Nassverfahren zur fotografischen Belichtung von Negativen auf Glasplatten, das die notwendige Belichtungszeit erstmals auf nur wenige Sekunden reduzierte. Augusta Ada King, Countess of Lovelace, (1815–1842), Tochter des ber¨ uhmten englischen Dichters Lord Byron und Assistentin von Charles Babbage, trug zur Entwicklung der Konzeption von Babbages Analytical Engine“, dem ersten freiprogram” mierbaren Computer bei, und entwickelte wichtige, heute noch g¨ ultige Programmierkonzepte. Ihr zu Ehren wurde die im Auftrag des Amerikanischen Verteidigungsministeriums entwickelte Programmiersprache ADA benannt. George Boole, (1815–1864), britischer Mathematiker, Begr¨ under der nach ihm benannten Booleschen Algebra. Boole fand heraus, dass die Symbolik der Algebra nicht nur f¨ ur Aussagen zwischen Zahlen und Zahlvariablen brauchbar ist und dehnte diese in den Bereich der Logik aus. Richard Leach Maddox, (1816–1902), englischer Arzt und Fotopionier, entwickelte 1871 ein auf Bromsilber und Gelatine basiertes Trockenverfahren zur Fotografie. Gelatineplatten ließen sich l¨angere Zeit lagern, bevor sie belichtet wurden. Cyrus W. Fields, (1819–1892), US-amerikanischer Unternehmer und Gesch¨aftsmann, erwarb 1853 von der Regierung Neufundlands das exklusive Recht zur Verlegung eines transatlantischen Telegrafie-Unterwasserkabels von Amerika nach Europa, was ihm 1858 und 1866 schließlich erfolgreich gelang. 1871 f¨ orderte er ebenso die Verlegung eines Pazifik-Unterwasserkabels, das die USA u ¨ber Hawaii mit Japan und China verbinden sollte. Hermann von Helmholtz, (1821–1894), deutscher Physiologe und Physiker, gilt auch als letztes Universalgenie. Er formulierte unabh¨angig von J. P. Joule und J. R. Mayer das Prinzip der Energieerhaltung, arbeitete u ¨ber Hydrodynamik, Elektrodynamik, Thermodynamik und entwickelte die Dreifarbtheorie von Th. Young weiter. ´ Etienne Jules Marey, (1830–1904), franz¨osischer Physiologe und Filmpionier, entwickelte die Chronofotografie, also Folgen von fotografischen Stroboskopaufnahmen, mit denen Bewegungsabl¨aufe aufgenommen und untersucht werden konnten.
380
Personenregister
James Clerk Maxwell, (1831–1879), schottischer Physiker, entwickelte eine einheitliche Theorie f¨ ur Elektrizit¨at und Magnetismus. Er postulierte die Existenz elektromagnetischer Wellen und schuf somit die Grundlagen der Funktechnik. Er wies nach, dass das Licht durch elektromagnetische Schwingungen einer bestimmten Wellenl¨ange entsteht. David Edward Hughes, (1831–1900), amerikanischer Musikprofessor, besch¨aftigte sich mit der Weiterentwicklung und Verbesserung der Telegrafie. Mit der Erfindung des nach ihm benannten Hughes-Telegrafen“, (1855) – eines Fernschreibers bei dem ” die Sendezeichen u ¨ber einen Typendrucker direkt in Lochschrift ausgegeben werden – und der uns als sogenannter B¨orsenticker“ auch heute noch bekannt ist, gelangte ” er zu einem großen Verm¨ogen. 1878 konstruierte er das erste Kohle-Mikrophon, ein essentieller Schritt zur Entwicklung des Telefons. Phillip Reis, (1834–1874), deutscher Lehrer und Erfinder, konstruierte 1861 den ersten Vorl¨aufer des heutigen Telefons. Elisha Gray, (1835–1901), amerikanischer Erfinder, der zeitgleich mit Alexander Graham Bell das Telefon entwickelte und zum Patent anmeldete. Aufgrund einer Gerichtsentscheidung wurde sp¨ater allerdings Bell das Patent f¨ ur das Telefon zugesprochen. Louis Ducas Du Hauron, (1837–1920), franz¨osischer Physiker, leistete wichtige Beitr¨age zur Entwicklung der Farbfotografie. In seinem Buch Les Couleurs en Fotogra” fie“ stellte er 1869 die subtraktive Farbmischmethode vor, die zu der damaligen Zeit allerdings aus Mangel an geeigneten Materialien technisch noch nicht realisiert werden konnte. Almon Brown Strowger, (1839–1902), amerikanischer Bestattungsunternehmer, entwickelte die erste automatische Telefonvermittlung und anschließend das W¨ahlscheibentelefon. Charles Cros, (1842–1888), franz¨osischer Dichter und Erfinder, leistete grundlegende Arbeiten zur Entwicklung der Farbfotografie und des Phonographen, erntete aber mit beiden Entwicklungen keinen wirtschaftlichen Erfolg und konnte sich nicht gegen Edison (Phonograph) und Hauron (Farbfotografie) behaupten. Emile Baudot, (1845–1903), franz¨osischer Ingenieur und Pionier der Telekommunikation, entwickelte den nach ihm benannten Baudot-Code zur Kodierung von Buchstaben und Ziffern. Die Maßeinheit baud (¨ ubertragene Zeichen pro Sekunde) ist nach ihm benannt. Edouard Branly, (1846–1940), franz¨osischer Physiker, entdeckte die M¨ oglichkeit, Radiowellen in elektrischen Strom umzuwandeln. Er entwickelte einen Detektor f¨ ur elektromagnetische Wellen, den Koh¨arer (Fritter), eine mit Metallsp¨anen gef¨ ullte Glasr¨ohre, die durch den Einfluss elektromagnetischer Felder ihre Leitf¨ahigkeit ¨andern und so zum Nachweis derselben dienen konnte. Thomas Alva Edison, (1847–1931), amerikanischer Erfinder und Organisationstalent, entwickelte den Phonographen, verbesserte das Telefon, entwickelte die Gl¨ uhbirne, den Kinematografen, das Kinematoskop und vieles mehr. Er erbaute 1876 in Menlo Park, New Jersey ein eigenes Entwicklungslabor, in dem er sich mit einem Team von Spezialisten seinen epochemachenden Erfindungen widmete, wobei er mitunter bis zu 400 Patente pro Jahr anmeldete. Er wurde in den USA zum Idol und zum klassischen Beispiel f¨ ur den erfolgreichen Selfmademan. Alexander Graham Bell, (1848–1922), amerikanischer Physiologe, gilt gem¨aß einer Entscheidung des US-Supreme-Court als Erfinder des Telefons und erhielt die diesbez¨ uglichen Patente.
Personenregister
381
Karl Ferdinand Braun, (1850–1918), deutscher Physiker und Nobelpreistr¨ager, entwickelte die Kathodenstrahlr¨ohre und entdeckte durch Koppelung von Funkenkreis und Antennenkreis die M¨oglichkeit einer Frequenzabstimmung. Emil Berliner, (1851–1929), deutschst¨ammiger amerikanischer Elektrotechniker, entwickelte das Grammophon, das im Gegensatz zum Edisonschen Phonographen zwar keine Aufzeichnungsf¨ahigkeit besaß, aber mit der Schallplatte einen Tontr¨ager bereitstellte, der sich auf einfache Weise großmaßst¨ablich vervielf¨altigen ließ. George Eastman, (1854–1932), amerikanischer Erfinder und Unternehmer, entwickelte den flexiblen Rollfilm und bot als erster eine komplette Foto-Infrastruktur, vom Film u ur den Massenmarkt an. ¨ber die Kamera und den Entwicklungsservice f¨ Heinrich Hertz, (1857–1895), deutscher Physiker, wendete die Theorien Maxwells an und konstruierte Ger¨ate zum Senden (Resonator) und Empfangen elektromagnetischer Wellen. Er wies damit die G¨ ultigkeit der Maxwellschen Theorien nach. Ihm gelang die erste drahtlose Nachrichten¨ ubertragung. Heute ist nach ihm die physikalische Gr¨oße zur Bezeichnung der Frequenz einer Welle benannt (eine Schwingung pro Sekunde = 1 Hz), die seit 1933 im internationalen metrischen System verankert ist. Alexander Stephanowitsch Popow, (1858–1906), russischer Schiffsbauingenieur und Erfinder, entwickelte aufbauend auf den Arbeiten des Franzosen Branly Antennen und Funkempf¨anger zur Erkennung von elektrischen Naturph¨anomenen wie etwa Gewittern. Er stellte erste drahtlose Morseverbindung u ¨ber eine Distanz von 250 m her. Albert Henri Munsell, (1858–1918), US-amerikanischer Maler, stellt 1915 in seinem Farbatlas ein auf der visuellen Empfindung beruhendes, sehr popul¨ares Farbsystem vor, bei dem die Farben in drei Dimensionen entlang einer Schwarzweiß-Achse angeordnet werden. Michael Idvorsky Puppin, (1858–1935), amerikanischer Elektroingenieur, entwickelte eine nach ihm benannte Selbstinduktionsspule – die Puppinspule – die in der Telefonverst¨arkertechnik zum Einsatz kam, bevor die Elektronenr¨ ohre bzw. der Transistor als Verst¨arkerelement entwickelt wurden. Emil und Max Skladanowsky, (1859–1945) und (1863–1939), deutsche Schausteller und Filmpioniere, entwickelten zusammen Filmkamera und Filmprojektor. Auf die Br¨ uder Skladanowsky geht die erste ¨offentliche Filmvorf¨ uhrung der Geschichte im November 1895 zur¨ uck. Sie wurden sp¨ater von den Gebr¨ udern Lumi`ere u ¨berholt, da ihnen das Geld f¨ ur weitere Entwicklungen fehlte, und gerieten in Vergessenheit. Hermann Hollerith, (1860–1929), amerikanischer Erfinder, entwickelte 1890 f¨ ur die US-amerikanische Volksz¨ahlung eine Lochkartenmaschine, mit der die Auswertung der Volksz¨ahlung wesentlich beschleunigt und kosteng¨ unstig durchgef¨ uhrt werden konnte. Zur Vermarktung seiner Produkte gr¨ undete er 1896 die Tabulating Machi” ne Company“ , aus der 1924 nach mehreren Firmenzusammenschl¨ ussen die Firma International Bussiness Machines“ (IBM) hervorging. ” Paul Nipkow, (1860–1940), deutscher Ingenieur und Fernsehpionier, entwickelte die nach ihm benannte Nipkowscheibe, die dazu genutzt wird, ein Einzelbild in einzelne Bildpunkte zu zerlegen, die dann mit Hilfe einer Selenzelle in elektrische Spannung umgewandelt und u ¨bertragen werden. Auguste und Louis Jean Lumi` ere, (1862–1954) und (1864–1948), franz¨ osische Filmpioniere, entwickelten das Edisonsche Kinematoskop weiter zum Cin´ematograph Lumi`ere, das Kamera, Kopier- und Vorf¨ uhrger¨at in einem enthielt. Paul Andre Marie Janet, (1863–1937), franz¨osischer Physiker, schlug als erster die M¨oglichkeit der elektromagnetischen Tonaufzeichnung auf einem Stahlband vor.
382
Personenregister
Reginald Aubrey Fesseden, (1866–1932), kanadischer Erfinder und Ingenieur, entwickelte um 1900 als erster ein Verfahren zur Funk¨ ubertragung von Sprache und sendete zu Weihnachten 1906 die erste Rundfunk¨ ubertragung der Geschichte. Als Erfinder hielt Fesseden u usselung ¨ber 500 Patente, darunter auch z.B. Sonar, Sprachverschl¨ auf Basis eines elektronischen Zerhackers oder der Radio-Kompass. Charles Francis Jenkins, (1867–1934), amerikanischer Erfinder, entwickelte 1925 ein elektromechanisches Fernsehsystem. Boris Iwanowitsch Rosing, (1869–1933), russischer Physiker, schlug die Verwendung der Braunschen Kathodenstrahlr¨ohre f¨ ur die Darstellung von Fernsehbildern vor. 1907 u ¨bertrug er bereits einfache geometrische Figuren, jedoch gelang es ihm nicht, Halbtonbilder darzustellen. Kurt Stille, (1873–1957), deutscher Ingenieur, verbesserte das magnetische Aufzeichnungsverfahren unter Benutzung von sehr d¨ unnem Stahlband. Lee De Forest, (1873–1961), amerikanischer Ingenieur, entwickelte die Elektronenr¨ohre weiter zum Verst¨arkerelement – das Audion, eine gasgef¨ ullte Triode mit der Telegrafie– und Radiosignale verst¨arkt werden konnten. De Forrest erhielt 1908 ein Patent auf diese R¨ohre, dem Großvater aller Radior¨ ohren“, das als eines der wert” vollsten erachtet wird, die das amerikanische Patentb¨ uro jemals erteilt hat. De Forrest dachte noch, das Gas in seiner R¨ohre sei zur Signalverst¨arkung notwendig. Sp¨ater konnte jedoch gezeigt werden, dass sich mit Hilfe eines Vakuums die Leistung noch erh¨ohen ließ. Guglielmo Marconi, (1874–1934), italienischer Ingenieur und Physiker, entwickelte, aufbauend auf den Arbeiten von Hertz, Branly und Popow die drahtlose Kommunikation weiter. Er experimentiert mit Schiffsfunk und stellte eine erste transatlantische Funkverbindung her. J` ozef Tykoci` nski-Tykociner, (1877–1969), polnischer Ingenieur, Erfinder des Lichttonverfahrens, das dem Tonfilm zum Durchbruch verhalf. 1922 f¨ uhrte er den ersten Tonfilm am elektrotechnischen Institut in Urbana (Illinois) auf. Allerdings verz¨ ogerte sich die Patentanmeldung aufgrund von Differenzen mit dem damaligen Pr¨asidenten der University of Illinois, und erfolgte erst 1926, drei Jahre nach dem Patent von Lee de Forest, der die ersten kommerziellen Tonfilme produzierte. Robert von Lieben, (1878–1913), ¨osterreichischer Physiker, erfand 1905/06 die nach ihm benannte Verst¨arkerelektronenr¨ohre mit magnetischer Steuerung und 1910 eine Gl¨ uhkathodenr¨ohre mit Gittersteuerung (Triode), die beide f¨ ur die weitere Entwicklung der Radio- und Telefontechnik grundlegend waren. Arthur Scherbius, (1878–1929), deutscher Elektroingenieur und Unternehmer, entwickelte 1918 eine Rotor-Chiffriermaschine, der er den Namen Enigma“ gab. Die ” Enigma sollte zu einer der wichtigsten Verschl¨ usselungsmaschinen des 2. Weltkriegs werden, zu deren Entschl¨ usselung auf alliierter Seite ein Vorl¨aufer der heutigen Computer entwickelt wurde. Sir Isaac Shoenberg, (1880–1963), russischer Emigrant in England, leitete bei der britischen Firma Electric and Musical Industries (EMI) eine Forschungsgruppe, die von 1931–1935 eine neuartige Kamerar¨ohre und eine Bildr¨ ohre f¨ ur Empf¨anger entwickelte. Das von ihm entwickelte System wurde bei der BBC von 1939 bis 1962 eingesetzt. Joseph Oswald Mauborgne, (1881–1971), US-amerikanischer General und Ingenieur, erfand 1917 zusammen mit Gilbert Vernam das sichere One Time Pad Verschl¨ usselungsverfahren, das auf einer Strom-Chiffre mit einem Zufallszahlenstrom beruht, der nur einmal verwendet werden darf.
Personenregister
383
Max Dieckmann, (1882–1960), deutscher Physiker, ließ sich 1906 ein Verfahren ” ¨ zur Ubertragung von Schriftzeichen und Strichzeichnungen unter Benutzung der Kathodenstrahlr¨ohre“ patentieren. John Logie Baird, (1888–1946), schottischer Erfinder, entwickelte 1926 ein elektromechanisches Fernsehsystem in England. Ralph Vinton Lyon Hartley, (1888–1970), US-amerikanischer Elektroingenieur und zusammen mit Claude E. Shannon Mitbegr¨ under der Informationstheorie. Das nach ihm benannte Shannon-Hartley-Gesetz beschreibt die maximale Daten¨ ubertragungsrate eines Daten¨ ubertragungskanals in Abh¨angigkeit von dessen Bandbreite und dem Signal-zu-Rausch-Verh¨altnis. Es gilt als eine der wichtigsten Grundlagen der Nachrichtentechnik und der Kommunikationstechnologie. Harry Nyquist, (1889–1978), aus Schweden stammender US-amerikanischer Physiker, der wichtige Beitr¨age zur Informationstheorie leistete. Im Zuge seiner Untersuchungen zur erforderlichen Bandbreite f¨ ur die Informations¨ ubertragung ver¨ offentlichte er 1928 das nach ihm und Claude Shannon benannte Nyquist-Shannon-Theorem, das besagt, dass ein analoges Signal mit mehr als der doppelten Signalfrequenz abgetastet werden muss, um aus dem digitalen Abbild des Signals das analoge Ausgangssignal wieder rekonstruieren zu k¨onnen. Vladimir K. Zworykin, (1889–1982), russischer Fernsehpionier, entwickelte die erste vollelektronische Fernsehkamera und Bildr¨ohre. Gilbert Sandford Vernam, (1890–1960), US-amerikanischer Elektroingenieur, erfand das Verfahren der Stromchiffre und war danach an der Entwicklung des OneTime-Pad Verschl¨ usselungsverfahren beteiligt. David Sarnoff, (1891–1971), amerikanischer Rundfunkpionier russischer Abstammung, empfing 1912 als junger Funker den Notruf der sinkenden Titanic und erlangte dadurch fr¨ uhe Ber¨ uhmtheit. Als Angestellter in der Firma Marconis pr¨asentierte er 1916 erstmals die Idee des Rundfunks f¨ ur Alle. Er wurde sp¨ater Pr¨asident der Radio Corporation of America (RCA), die aus Marconis urspr¨ unglicher Firma entstand, und unterst¨ utzte die Entwicklung des Fernsehens. August Karolus, (1893–1972), deutscher Physiker, entwickelte die sogenannte KerrZelle, nutzbar f¨ ur die Tonregistrierung auf Filmen, f¨ ur die Lichttelefonie und die ¨ schnelle Ubertragung ruhender und bewegter Bilder. Er gab damit den entscheidenden Anstoß f¨ ur das Entstehen der deutschen Fernsehtechnik. Fritz Pfleumer, (1897–1945), deutscher Ingenieur, entwickelte das erste Magnetband, ein mit Stahlpulver beschichtetes Papierband, f¨ ur die elektromagnetische Aufzeichnung von Audiosignalen. Paul VI., (1897–1978), Giovanni Battista Kardinal Montini, Papst von 1963 bis 1978, f¨ uhrte die von seinem Vorg¨angers Johannes XXIII. begonnenen Reformen und das von ihm initiierte Zweite Vatikanische Konzil fort. 1967 hob er offiziell den Index Librorum Prohibitorum und mit ihm die kirchliche Buchzensur auf. Alec A. Reeves, (1902–1971), englischer Ingenieur, entwickelte die 1938 patentierte Pulse Code Modulation, ein Verfahren zur Umwandlung analoger Signale in einzelne Pulse konstanter Amplitude, die sich digital aufzeichnen und u ¨bertragen lassen. Walter House Brattain, (1902–1987), amerikanischer Physiker, arbeitete in den Bell Laboratories an Problemen der Oberfl¨achen-Festk¨ orperphysik und war Mitentwickler des ersten Transistors. John von Neumann, (1903–1957), aus Ungarn stammender Mathematiker und Computerpionier, Mitglied im Entwicklungsteam des ersten vollelektronischen Universalcomputers ENIAC. Das nach ihm benannte Prinzip besagt, dass der Speicher eines
384
Personenregister
Computers gleichermaßen durch den auszuf¨ uhrenden Programmcode und f¨ ur die zu speichernden Daten genutzt werden kann. Er leistete unter anderem wichtige Beitr¨age zur Spieltheorie, der Quantenmechanik und zur Theorie zellularer Automaten. John M. Whittaker, (1905–1984), englischer Mathematiker, Sohn des bekannten Mathematikers Edmund Taylor Whittaker. Whittaker erweiterte 1929 das von Harry Nyquist entwickelte Abtast-Theorem (Nyquist-Shannon-Theorem). John W. Mauchly, (1907–1980), amerikanischer Physiker und Computerpionier, Mitglied im Entwicklungsteam des ersten vollelektronischen Universalcomputers ENIAC. Walter Bruch, (1908–1990), deutscher Elektroingenieur und Fernsehpionier, entwickelte 1962 bei der Firma Telefunken die PAL Farbfernsehtechnik (Phase Alteration Line) und erhielt darauf 1963 ein Patent. John Bardeen, (1908–1991), amerikanischer Physiker, betrieb in den Bell Laboratories Halbleiterforschung und war Mitentwickler des ersten Transistors. Er entwickelte die Theorie der Supraleitf¨ahigkeit bestimmter Metalle nahe dem absoluten Nullpunkt. Vladimir A. Kotelnikov, (1908–2005), russischer Ingenieur f¨ ur Radiotechnik und Pionier der Informationswissenschaft. Er entdeckte 1933 unabh¨angig von Harry Nyquist das Abtast-Theorem (Nyquist-Shannon-Theorem). Konrad Zuse, (1910–1995), deutscher Erfinder und Konstrukteur des ersten funktionsf¨ahigen, frei programmierbaren, und auf dem bin¨aren Zahlensystem beruhenden Rechners der Welt, der Z3, der im Mai 1941 in Berlin fertiggestellt wurde. William Shockley, (1910–1989), englischer Physiker, Mitentwickler des ersten Transistors in den amerikanischen Bell Laboratories. Herbert Marshall McLuhan, (1911–1980), kanadischer Schriftsteller, Medientheoretiker und Vision¨ar. Seiner Theorie zur Folge u ¨ben die elektronischen Medien einen weitaus gr¨oßeren Einfluss aus als die Inhalte, die sie transportieren ( Das Medium ” ist die Botschaft“). Henri de France, (1911–1986), franz¨osischer Ingenieur und Fernsehpionier, er entwickelte 1956 als Alternative zum US-amerikanischen NTSC-Farbfernsehsystem den europ¨aischen SECAM Farbfernsehstandard. Henri de France war Offizier der franz¨ osischen Ehrenlegion. Alan Turing, (1912–1954), britischer Mathematiker und Kryptologe, gilt als Va” ter“ der modernen Informations- und Computertechnologie. Das von ihm entwickelte Berechenbarkeitsmodell der nach ihm benannten Turingmaschine bildet eines der Fundamente der theoretischen Informatik. W¨ahrend des Zweiten Weltkrieges war er federf¨ uhrend an der Entschl¨ usselung der mit der deutschen Chiffriermaschine Enigma verschl¨ usselten Funkspr¨ uche beteiligt. Der Turing-Preis, die bedeutendste Auszeichnung in der Informatik, wurde nach ihm benannt. Herman H. Goldstine, (1913–2004), amerikanischer Mathematiker und Computerpionier, Mitglied im Entwicklungsteam des ersten vollelektronischen Universalcomputers ENIAC. Joseph Carl Robnett Licklider, (1915–1991), amerikanischer Vision¨ar und Mitentwickler des ARPANET, entwickelte die Idee eines universellen Netzwerks und setzte seine Vision als Direktor des Information Processing Techniques Office der ARPA in die Tat um. Richard Wesley Hamming, (1915–1998), US-amerikanischer Mathematiker und Pionier der Kodierungstheorie, arbeitete an fehlerkorrigierenden Codes, numerischen Integrationsmethoden und digitalen Filtern. Hamming erhielt 1968 den Turing-Award. Claude Elwood Shannon, (1916–2001), amerikanischer Mathematiker, leistete grundlegende Beitr¨age zur mathematischen Informations- und Kodierungstheorie
Personenregister
385
Robert Mario Fano, (*1917), US-amerikanischer Informatiker und Ingenieur italienischer Herkunft, bekannt durch die nach ihm benannte Fano-Bedingung, die besagt, dass in einem pr¨afixfreien Code kein Codewort das Pr¨afix eines anderen Codewortes sein darf. John P. Eckert, (1919–1995), amerikanischer Mathematiker und Computerpionier, Mitglied im Entwicklungsteam des ersten vollelektronischen Universalcomputers ENIAC. Robert William Bemer, (1920–2004), amerikanischer Computerpionier und Programmierer, Entwickler des ASCII-Zeichencodes. Mitentwickler der Programmiersprache COBOL, machte 1971 und wiederholt 1979 als erster auf die Problematik des sogenannten Millenium-Bug (Auftreten von Fehlern in Computerprogrammen zur Jahrtausendwende aufgrund unzureichend dimensionierter Variablendeklarationen) aufmerksam. Charles P. Ginsburg, (1920–1992), amerikanischer Ingenieur, entwickelte f¨ ur die Firma Ampex das erste Videoaufzeichnungsverfahren. Jack St. Clair Kilby, (1923–2005), amerikanischer Physiker, entwickelte 1958 bei Texas Instruments den ersten integrierten Schaltkreis der Welt, f¨ ur dessen Entwicklung er im Jahr 2000 mit dem Physiknobelpreis ausgezeichnet wurde. Joseph Weizenbaum, (1923–2008), deutschst¨ammiger US-amerikanischer Professor f¨ ur Informatik am Massachussetts Institute of Technology (MIT), entwickelte 1964– 1967 Computerprogramme zur Sprach-Analyse. Am bekanntesten wurde Eliza“, das ” im Dialog das Verhalten eines Psychotherapeuten nachahmt. James H. Ellis, (1924–1997), britischer Mathematiker und Ingenieur, entdeckte zusammen mit Clifford Cocks und Malcom Williamson bereits um 1970 die M¨ oglichkeit der Public Key Encryption, eines asymmetrischen Verschl¨ usselungsverfahrens. Das Verfahren wurde f¨ ur den britischen Geheimdienst (General Communications Headquarters) entwickelt und konnte daher nicht ver¨ offentlicht werden. Erst 1976 ver¨offentlichten Martin Hellman und Whitfield Diffie das gleichwertige, nach ihnen benannte Diffie-Hellman Verfahren. Donald W. Davies, (1924-2000), britischer Informatiker, entwickelte neben Paul Baran und Leonhard Kleinrock das Prinzip der Paketvermittlung (packet switching) als grundlegendes Prinzip der Computernetzwerke. Davies pr¨agte auch als erster den Begriff packet switching“. ” David A. Huffman, (1925-1999), amerikanischer Informatiker, entwickelte den nach ihm benannten Huffman-Code zur effizienten (komprimierten) Kodierung von Information. Douglas C. Engelbart, (*1925), amerikanischer Ingenieur, entwickelte 1973 am Augmentation Research Center des Stanford Instituts ein Hypertextsystem mit grafischer Benutzeroberfl¨ache (NLS) zu dem erstmals auch die Computer-Maus als Eingabeger¨at z¨ahlte. Paul Baran, (*1926), amerikanischer Mathematiker polnischer Abstammung, entwickelte neben Donald Davies und Leonhard Kleinrock das Konzept der Paketvermittlung als grundlegendes Prinzip der Computernetzwerke. Jacob Zif, (*1931), entwickelte 1977 zusammen mit Abraham Lempel ein einfaches, w¨orterbuchbasiertes Datenkompressionsverfahren (LZ-Verfahren), das 1984 von Terry Welch verbessert und als LZW-Verfahren sehr popul¨ar geworden ist. Leonard Kleinrock, (*1934), Professor an der University of California Los Angeles, entwickelte neben Paul Baran und Donald Davies das Konzept der Paketvermittlung
386
Personenregister
in Computernetzwerken und gilt als Verfasser der ersten Nachricht, die u ¨ber das Internet gesendet wurde. Abraham Lempel, (*1936), Direktor der HP Labs, Israel, und Professor am Israel Institute of Technology, entwickelte 1977 zusammen mit Jacob Zif ein einfaches, w¨orterbuchbasiertes Datenkompressionsverfahren (LZ-Verfahren), das 1978 von Terry Welch verbessert und als LZW-Verfahren sehr popul¨ar geworden ist. Ted Nelson, (*1937), amerikanischer Geisteswissenschaftler, gilt als Erfinder des Begriffs Hypertext“. Er konzipierte 1967 ein weltweites Publikationssystem Xanadu“, ” ” das die Idee des WWW bereits 20 Jahre vor seiner eigentlichen Geburt vorwegnahm. Lawrence Roberts, (*1937), amerikanischer Ingenieur, gilt als einer der V¨ater“ des ” ARPANET. Seit 1966 Chef der Netzwerk-Entwicklungsgruppe der ARPA. Das ARPANET gewann als Vorl¨aufer des Internet unter seiner Federf¨ uhrung Gestalt. Robert E, Kahn, (*1938), US-amerikanischer Ingenieur, Mitglied des Entwicklungsteams der Firma BBN, das im Auftrag der ARPA den ersten Kommunikationsrechner (Interface Message Processor, IMP) f¨ ur das ARPANET entwarf. Entwickelte zusammen mit Vinton Cerf ab 1973 die Internet-Protokolle TCP/IP und war Vorsitzender der Internet Society (ISOC). 2004 erhielt Kahn zusammen mit Vinton Cerf den Turing Award und 2005 die Presidential Medal of Freedom“ verliehen, die h¨ ochste ” zivile Auszeichnung in den USA. Terry Welch, (1939-1988), verbesserte 1984 das von Jacob Ziv und Abraham Lempel entwickelte, w¨orterbuchbasierte Datenkompressionsverfahren (LZ-Verfahren), das als LZW-Verfahren große Popularit¨at gewann. Ray Tomlinson, (*1941), amerikanischer Ingenieur, sendet 1971 die erste E-mail der Welt (an seinen eigenen Account auf einen im Nachbarzimmer stehenden Rechner u ¨ber das ARPANET). Um den Namen des Empf¨angers vom Rechnernamen des Zielrechners zu separieren, verwendet er als erster das @“-Zeichen. ” Vinton Cerf, (*1943), US-amerikanischer Mathematiker und Informatiker, Mitglied der Entwicklungsgruppe um das ARPANET. Entwickelte zusammen mit Robert Kahn 1973 das Internet-Protokoll TCP/IP, das 1983 zum Standardprotokoll des weltweiten Internets wurde. Cerf ist heute Chief Internet Evangelist und Vice President bei Google. Er erhielt 2004 zusammen mit Robert E. Kahn den Turing Award und 2005 die Presidential Medal of Freedom“ verliehen, die h¨ ochste zivile Auszeichnung in ” den USA. Jon Postel, (1943–1998), amerikanischer Informatiker, Internetpionier, der seit dem Start des ARPANET als RFC-Editor f¨ ur die Organisation und Ver¨ offentlichung von Internetstandards verantwortlich war. Daneben wirkte er federf¨ uhrend in der IANA bei der Vergabe und Organisation der Internet-Adressen. Er war beteiligt an der Entwicklung der Basis-Internetprotokolle FTP, DNS, SMTP und IP. Whitfield Diffie, (*1944), Kryptografie-Experte, Mitentwickler des nach ihm benannten Diffie-Hellman-Verfahrens, eines Kryptografieverfahrens, das auf der Verwendung ¨offentlicher Schl¨ ussel basiert und so den bei herk¨ ommlichen symmetrischen Verschl¨ usselungsverfahren notwendigen Austausch geheimer Schl¨ usselinformation u ussig macht. Diffie ist politisch aktiv und setzt sich f¨ ur die Rechte des ¨berfl¨ Einzelnen auf eine kryptografisch gesicherte Privatsph¨are ein. Friedemann Schulz von Thun, (*1944), deutscher Psychologe und Kommunikationswissenschaftler, Professor an der Universit¨at Hamburg, entwickelte das Vier Oh” ren Modell“ der Kommunikation, bei dem zus¨atzlich zur Sachinformation, die bei einem sprachlichen Kommunikationsvorgang ausgetauscht wird, stets zus¨atzliche In-
Personenregister
387
formationen, wie eine Selbstoffenbarung des Sprechers, ein Hinweis auf die Beziehung der Gespr¨achspartner und ein Appell an den Empf¨anger beteiligt sind. Phil Zimmermann, (*1944), Kryptografie-Experte, Entwickler des PGP-Verfahrens zum sicheren Austausch von Emails (Pretty Good Privacy, 1991). PGP umfasst sichere Authentifikation der Kommunikationspartner und Verschl¨ usselung der u ¨bertragenen Email-Nachrichten u usselungsverfahren unter ¨ber ein asymmetrisches Verschl¨ Wahrung der Integrit¨at der versendeten Nachrichten mit Hilfe digitaler Signaturen. In den Zeiten des kalten Krieges sah die US-Regierung durch die freie Verf¨ ugbarkeit der von Zimmerman entwickelten Software die damaligen US-Exportbeschr¨ankungen f¨ ur Kryptografie-Produkte verletzt und verwickelte Zimmerman in einen dreij¨ahrigen Rechtsstreit, der schließlich beigelegt wurde. Leonard M. Adleman, (*1945), Professor f¨ ur Informatik an der University of Southern California Los Angeles, Mitentwickler des RSA-Kryptografieverfahrens (Rivest-ShamirAdleman, 1978) zur asymmetrischen Verschl¨ usselung. Er erfand das Verfahren zum L¨osen eines einfachen Hamiltonkreis-Problems und baute dazu auch den ersten DNAComputer. Erhielt zusammen mit Adi Shamir und Ron Rivest 2003 den Turing-Award. Martin Hellman, (*1945), Kryptografie-Experte, Mitentwickler des nach ihm benannten Diffie-Hellman-Verfahrens, eines Kryptografieverfahrens, das auf der Verwendung ¨offentlicher Schl¨ ussel basiert und so den bei herk¨ ommlichen symmetrischen Verschl¨ usselungsverfahren notwendigen Austausch geheimer Schl¨ usselinformation u ussig macht. ¨berfl¨ Robert Metcalfe, (*1946), amerikanischer Ingenieur, entwickelte die Ethernet-LANTechnologie am Palo Alto Research Center der Firma Xerox. Auf seine Initiative hin wurde Ethernet in einer Gemeinschaftsaktion der Firmen Digital, Intel und Xerox zum Produktstandard und zum heute weitverbreitetsten LAN-Standard. Als Gr¨ under der Firma 3COM verfasste er im Dezember 1973 den RFC 602 The Stockings Were ” Hung by the Chimney with Care“, in dem erste Hacker-Zwischenf¨alle im noch jungen ARPANET beschrieben werden. Robert Cailliau, (*1947), Mitentwickler des World Wide Web (1990), das er zusammen mit Tim Berners Lee am europ¨aischen Kernforschungszentrum CERN als einfaches hypertextbasiertes Dokumentenaustauschsystem konzipierte. Ronald L. Rivest, (*1947), Professor f¨ ur Informatik am Massachussetts Institute of Technology (MIT), Mitentwickler des RSA-Kryptografieverfahrens (Rivest-Shamir-Adleman, 1978), Entwickler der symmetrischen Verschl¨ usselungsverfahren RC2, RC4, RC5 und Mitentwickler von RC6. Erhielt zusammen mit Adi Shamir und Leonard Adleman 2003 den Turing-Award. Ward Cunningham, (*1949), US-amerikanischer Programmierer, Entwickler des ersten Wikis, des WikiWikiWebs. Außerdem gilt er als Pionier des als Extreme Programming (XP) bezeichneten Software-Entewicklungsverfahrens. Stephen Wozniak, (*1950), gr¨ undete 1975 nach abgebrochenem Ingenieurstudium zusammen mit Steve Jobs die Firma Apple, die den ersten Personal Computer der Welt auf den Markt brachte. Steven Sasson, (*1950), US-amerikanischer Elektroingenieur, entwickelte 1975 bei Eastman Kodak die erste praktikable Digitalkamera, die fast 4 Kilogramm wog, eine Bildaufl¨osung von 100 x 100 Bildpunkten besaß und ein Schwarzweiß-Foto in 23 Sekunden aufnehmen und auf Magnetband speichern konnte. Clifford Christopher Cocks, (*1951), britischer Mathematiker und Kryptologe, entdeckte zusammen mit Malcolm Williamson und James H. Ellis bereits um 1970 die M¨oglichkeit der Public Key Encryption, eines asymmetrischen Verschl¨ usselungsver-
388
Personenregister
fahrens. Das Verfahren wurde f¨ ur den britischen Geheimdienst (General Communications Headquarters) entwickelt und konnte daher nicht ver¨ offentlicht werden. 1976 ver¨offentlichten Martin Hellman und Whitfield Diffie das gleichwertige, nach ihnen benannte Diffie-Helman Verfahren. Ralph C. Merkle, (*1952), US-amerikanischer Informatiker und Kryptografie-Pionier, entwickelte zusammen mit Martin Hellman und Whitfield Diffie das Diffie-Hellman Schl¨ usselaustauschverfahren. Daneben entwickelte er auch die Block-Chiffren Khufu und Khafre, sowie die kryptografische Hashfunktion SNEFRU. Adi Shamir, (*1952), Professor am Weizmann Institute of Science in Tel Aviv, Mitentwickler des RSA-Kryptografieverfahrens (Rivest-Shamir-Adleman, 1978) zur asymmetrischen Verschl¨ usselung. Erhielt zusammen mit Leonard Adleman und Ron Rivest 2003 den Turing-Award. Tim O’Reilly, (*1954), irischer Softwareentwickler, Autor und Verleger, der maßgeblich an der Entwicklung der Skriptsprache Perl beteiligt war. O’Reilly pr¨agte zusammen mit seinem Mitarbeiter Dale Daugherty den Begriff Web 2.0“. ” Karlheinz Brandenburg, (*1954), deutscher Elektrotechniker, entwickelte ab 1982 zusammen mit seiner Forschungsgruppe das weltbekannte MP3-Audiokomprimierungsverfahren am Fraunhofer-Institut f¨ ur Integrierte Schaltungen (IIS) in Erlangen im Rahmen eines EU-Projekts zusammen mit der Friedrich-Alexander-Universit¨at Erlangen-N¨ urnberg und den Firmen mit AT&T Bell Labs und Thomson. Christoph Meinel, (*1954), Direktor des Hasso-Plattner-Instituts f¨ ur Softwaresystemanalyse an der Universit¨at Potsdam, Visiting Professor am Luxembourg International Advanced Studies in Information Technology und an der Bejing University of Technology. Er hat sich erst mit Fragen der Kommunikationskomplexit¨at befasst, ist u.a. Erfinder der Hochsicherheitsnetzwerkschleuse Lock-Keeper“, mit der Nachrich” ten zwischen physikalisch getrennten Netzwerken ausgetauscht werden k¨ onnen, und hat das international eingesetzte Teleteachingsystem tele-TASK“ entwickelt. Er ist ” Chairman des Deutschen IPv6 Rates und einer der Autoren dieses Buches. Steve Jobs, (*1955), US-amerikanischer Unternehmer, gr¨ undete 1975 nach abgebrochenem Ingenieurstudium zusammen mit Stephen Wozniak die Firma Apple, die noch vor IBM den ersten Personal Computer, den Apple II, auf den Markt brachte. William Henry Bill“ Gates III., (*1955), US-amerikanischer Unternehmer, gr¨ unde” te 1975 zusammen mit Paul Allen die Firma Microsoft und gilt aktuell als der drittreichste Mann der Welt. Der Erfolg seiner Firma Microsoft begann mit der Bereitstellung des Betriebssystems MS-DOS f¨ ur den IBM PC. In den 1990er Jahren wurden das grafische Betriebssystem Microsoft Windows und Microsofts B¨ uro-Software, Microsoft Office, zum Marktf¨ uhrer. Tim Berners-Lee, (*1955), Professor am MIT und Vater des World Wide Web (1990), derzeit Direktor des vom ihm 1994 gegr¨ undeten W3C (World Wide Web Consortium), das die Entwicklung des WWW koordiniert und lenkt. Er entwickelte zusammen mit Robert Caillieau am europ¨aischen Kernforschungszentrum CERN den ersten WWW-Server und legte damit den Grundstein f¨ ur das WWW. 2004 wurde er von K¨onigin Elisabeth II. in den Ritterstand erhoben und erhielt den Orden Knight ” Commander of the Order of the British Empire“ (KBE) f¨ ur seine Verdienste um die Wissenschaft. Tim Berners-Lee sieht die Zukunft des World Wide Web heute im Semantic Web. Paulo S. L. M. Barreto, (*1965), brasilianischer Kryptologe, entwickelte zusammen mit Vincent Rijmen die kryptografische Hashfunktion WHIRLPOOL. Daneben entwickelten beide gemeinsam auch die Block-Chiffren Anubis und KHAZAD.
Personenregister
389
Joan Daemen, (*1965), belgischer Kryptologe, entwickelte zusammen mit Vincent Rijmen das Rijndael-Verschl¨ usselungsverfahren, das als Advanced Encryption Standard (AES) 2001 standardisiert wurde und heute als das bedeutendste symmetrische Verschl¨ usselungsverfahren gilt. Harald Sack, (*1965), Informatiker und Senior Researcher am Hasso-Plattner-Institut f¨ ur Softwaresystemtechnik an der Universit¨at Potsdam, Gr¨ undungsmitglied des Deutschen IPv6 Rates, Mitgr¨ under und Entwickler der Videosuchmaschine Yovisto.com und einer der Autoren dieses Buches. Nach Arbeiten in der formalen Verifikation liegen seine Forschungsschwerpunkte heute in den Bereichen Multimedia Retrieval, Semantic Web und semantische Suche. Vincent Rijmen, (*1970), belgischer Kryptologe, entwickelte zusammen mit Joan Daemen das Rijndael-Verschl¨ usselungsverfahren, das als Advanced Encryption Standard (AES) 2001 standardisiert wurde und heute als das bedeutendste symmetrische Verschl¨ usselungsverfahren gilt. Daneben entwickelte er zusammen mit Paulo Barreto die kryptografische Hashfunktion WHIRLPOOL.
¨ Abkurzungen und Akronyme
3DES 4CIF AAC ABR AC ADSL AES/EBU AFX AIFF AJAX AM ANSI ARPA ASCII ASF ASK ASP ATM ATRAC AVC AVI BCD BDSG BIFS Bit bit BMP BMP bps BSC
Triple-DES 4 fach Common Intermediate Format Advanced Audio Coding Available Bit Rate Audio Code Asymmetric Digital Subscriber Line Audio Engineering Society / European Broadcasting Union Animation Framework Extension Audio Interchange File Format Asynchronous JavaScript and XML Amplituden-Modulation American National Standards Institute Advanced Research Project Agency American Standard Code for Information Interchange Advanced Streaming Format Amplitude Shift Keying Advanced Simple Profile Asynchronous Transfer Mode Adaptive Transform Acoustic Coding Advanced Video Codec Audio Video Interleave Binary Coded Digits Bundesdatenschutzgesetz Binary Format for Scenes Binary Digit Basic Indissoluble Information Unit Basic Multilingual Plane Bitmap Format Bits per Second Bit Synchronous Communication
391
392
b/w CA CAP CBR CC CCIR CCITT CCD CD CD-DA CD-ROM CERN CERT CHAP CIE CIF CMS CMY CPU CR CRC CRT CSNet DAB DARPA db DCC DCE DCT DDCMP DECT DES DFN DFT DIN DIT DMIF DNS DoD DoS DPCM dpi DRM DSA DTE
Abk¨urzungen und Akronyme
Black and White Certification Authority Carrierless Amplitude Phase Constant Bit Rate Creative Commons Comit´e Consultatif International des Radiocommunications Comit´e Consultatif International de Telegraphique et Telefonique Charge Coupled Device Compact Disc Compact Disc Digital Audio Compact Disc Read Only Memory Conseil Europ´een pour la Recherche Nucl´eaire Computer Emergency Response Team Cryptographic Handshake Authentication Protocol Commission Internationale d’Eclairage Common Intermediate Format Cryptographic Message Syntax Cyan, Magenta, Yellow Central Processing Unit Carriage Return Cyclic Redundancy Check Cathod Ray Tube Computer Science Network Digital Audio Broadcasting Defense Advanced Research Projects Agency Dezibel Digital Compac Cassette Data Communication Equipment Discrete Cosine Transform Digital Data Communications Message Protocol Digital Enhanced Cordless Telecommunications Data Encryption Standard Deutsches Forschungsnetzwerk Discrete Fourier Transform Deutsche Industrie Norm Directory Information Tree Delivery Multimedia Integration Framework Domain Name Service Department of Defense Denial of Service Differential Pulse Code Modulation dots per inch Digital Rights Management Digital Signature Algorithm Data Terminal Equipment
Abk¨urzungen und Akronyme
¨ DUE DVB DVB-T DVB-S DVB-C DVD EBCDIC EOB EOF EOI EOT Exif FFT FLV fps FT GAN GFR GFX GIF GOP GPS HDCL HD DVD HDTV HSV Hz IC IDCT IDEA IFF IMP IP ISDN ISO ITC ITU JFIF JPEG KDC KEA kHz LAN LAPD LASeR
Daten¨ubertragungseinrichtung Digital Video Broadcasting Digital Video Broadcast - Terrestrial Digital Video Broadcast - Satellite Digital Video Broadcast - Cable Digital Versatile Disk Extended Binary Coded Decimals Interchange Code End of Block End of File End of Image End of Text Exchangeable Image File Format Fast Fourier Transformation Flash Video Frames per Second Fourier Transformation Global Area Network Guaranteed Frame Rate Graphical Framework Extension Graphic Interchange Format Group of Pictures Global Positioning System High Level Data Link Protocol High Density Digital Versatile Disc High Definition Television Hue, Saturation, Value Hertz Integrated Circuit Inverse Discrete Cosine Transformation International Data Encryption Algorithm Interchange File Format Internet Message Processor Intellectual Property Integrated Service Digital Network International Standards Organisation International Telegraph Code International Telecommunications Union JPEG File Interchange Format Joint Photographic Experts Group Key Distribution Center Key Exchange Algorithm KiloHertz Local Area Network Link Access Procedure D-Channel Lightweight Scene Representation
393
394
LLC LZW MAC MAN MD5 MDCT MIDI MIME MPEG NSF NTSC OSI PA PAL PAN PAP PARC PCM PDF PGP PKI PNG QAM QCIF RAM RC RDF RFC RGB RIFF RLE ROM RSA RTMP RTSP SECAM SHA SIP SMR SMR SMS SNR S/PDIF SSL
Abk¨urzungen und Akronyme
Logical Link Control Lev Zipf Welch Message Authentication Code Metropolitan Area Network Message Digest 5 Modified Discrete Cosine Transformation Musical Instrument Digital Interface Multimedia Internet Mail Extension Format Moving Pictures Experts Group National Science Foundation National Television Systems Comitee ( Never the same color“) ” Open Systems Interconnect Preamble Phase Alternating Lines Personal Area Network Password Authentication Protocol Palo Alto Research Center Pulse Code Modulation Portable Document Format Pretty Good Privacy Public Key Infrastruktur Portable Network Graphics Quadrature Aperture Modulation Quarter Common Intermediate Formate Random Access Memory Rivest Cipher (Ron’s Code) Resource Description Framework Reverse Path Forwarding Rot - Gr¨un - Blau Resource Interchange File Format Run Length Encoding Read Only Memory Rivest, Shamir, Adleman - Verschl¨usselungsalgorithmus Real Time Messaging Protocol Real Time Streaming Protocol ´ Syst´eme Electronique pour Couleur avec M´emoire Secure Hash Algorithm Supplementary Ideographic Plane Signal-to-Mask Ratio Symbolic Music Representation Short Message Service Signal-to-Noise Ratio Sony/Philips Digital Interconnect Format Secure Socket Layer
Abk¨urzungen und Akronyme
SSP TA TAE TCP TDM TIFF UBR UCS UDP UHDV URI USB UTF VBR VC VGA VHS VoIP VPN VRML WAN W3C WLAN WMA WMF WMT WPAN WWW WYSIWYG XLink XML Y
Supplementary Special-purpose Plane Trust Center TelekommunikationsAnschlußEinheit Transmission Control Protocol Time Division Multiplexing Tagged Image File Format Unspecified Bit Rate Universal Character Set User Datagram Protocol Ultra High Definition Video Uniform Resource Identificator Universal Serial Bus Unicode Transformation Format Variable Bit Rate Virtual Container Video Graphics Array Video Home System Voice over IP Virtual Private Network Virtual Reality Modeling Language Wide Area Network World Wide Web Consortium Wireless LAN Windows Media Audio Windows Media Format Windows Media Technologies Wireless Personal Area Network World Wide Web What You See Is What You Get eXtended Lokales Informatik Netz Extended Markup Language Luminanz, Helligkeitskomponente des YCr Cb -Farbmodells
395
Bildnachweise
Die Bildrechte aller Abbildungen liegen mit Ausnahme der u.a. Abbildungen bei den Autoren. Abb. 2.3: Abb. 2.4: Abb. 2.5: Abb. 2.7: Abb. 2.8: Abb. 2.9: Abb. 2.10: Abb. 2.11: Abb. 2.12: Abb. 2.14: Abb. 2.13: Abb. 2.15: Abb. 2.16: Abb. 2.17: Abb. 2.18: Abb. 2.19: Abb. 2.21: Abb. 2.24: Abb. 5.1: Abb. 5.4: Abb. 5.6:
Marie-Lan Nguyen / Wikimedia Commons A. Frankenh¨auser, Hieroglyphen A. Frankenh¨auser, griechische und ph¨onizische Schriftzeichen Jost Amman, St¨andebuch (1568) [6] Jost Amman, St¨andebuch (1568) [6] Flugblatt gegen den Ablass (16. Jhd.), aus [189] Johann Carolus, Relation aller F¨urnemmen und gedenckw¨urdigen Historien (1609) Wikimedia Commons Skizze des ersten Morsetelegrafen (1886) , aus [241] Brady-Handy Photograph Collection, Library of Congress (1877) Die Gartenlaube, Ernst Keil’s Nachfolger, Leipzig (1863) Athanasius Kircher: Athanasii Kircheri Ars magna lucis et umbrae (1646) [131] Scientific Identity: Portraits from the Dibner Library of the History of Science and Technology, Smithonian Institute, SIL14-M001-13 Th. Audel: Hawkins Electrical Guide (1917), [45] Gregor Reisch: Margarita Philosophica (1504) The Mechanic’s Magazine, Museum, Register, Journal and Gazette, October 6, 1832-March 31, 1833. Vol. XVIII U.S. Army Photo / Wikimedia Commons W3C, URL: http://www.w3.org/People/Berners-Lee/WorldWideWeb.html A. Frankenh¨auser, Alice, Bob und Trudy K. Sperling / Wikimedia Commons U.S. Air Force Photo / Wikimedia Commons
397
Literaturverzeichnis
399
Literaturverzeichnis 1. Abrahamson, A.: The history of television, 1880 to 1941. McFarland, Jefferson, N.C. (1987) 2. Abrahamson, A.: The history of television, 1942 to 2000. McFarland & Co., Jefferson, N. C. (2003) 3. Abramson, N.: Development of the alohanet. Information Theory, IEEE Transactions on 31(2), 119–123 (1985) 4. Accredited Standards Committee: X9: American National Standard X3.17-1985: Financial Institution Key Management (Wholesale) (1985) 5. Aischylos: Die Orestie: (Agamemnon, Die Totenspende, Die Eumeniden): deutsch von Emil ¨ Staiger, mit einem Nachwort des Ubersetzers. Reclam, Stuttgart (1986) 6. Amman, J., Sachs, H.: Eygentliche Beschreibung Aller St¨ande auff Erden / hoher und niedriger / geistlicher und weltlicher / aller K¨unsten / Handwercken und H¨andeln / u. vom gr¨oßten bis zum kleinesten / Auch von ihrem Ursprung / Erfindung und gebreuchen. Georg Raben / Sigmund Feyerabents, Frankfurt a. M. (1568) 7. Anderson, C.: The Long Tail: Why the Future of Business is Selling Less of More. Hyperion, New York, NY, USA (2006) ¨ 8. Assmann, J.: Zur Entwicklung der Schrift im alten Agypten. In: L. Engell, B. Siegert, J. Vogl (eds.) Archiv f¨ur Mediengeschichte – Medien der Antike, pp. 13–24. Universit¨atsverlag Weimar, Weimar (2003) 9. Badach, A., Hoffmann, E.: Technik der IP-Netze - TCP/IP incl. IPv6 - Funktionsweise, Protokolle und Dienste, 2. erw. Aufl. Carl Hanser Verlag, M¨unchen (2007) 10. Baier, W.: Geschichte der Fotografie. Quellendarstellungen zur Geschichte der Fotografie. Schirmer und Mosel, M¨unchen (1977) 11. Baran, P.: On distributed communication networks. IEEE Transactions on Communication Systems 12 (1964) 12. Baran, P.: Reliable digital communication systems using unreliable network repeater nodes, report p-1995. Tech. rep., Rand Corporation (1965) 13. Bauer, F.: Das Gießinstrument des Schriftgießers. Ein Beitrag zur Geschichte der Schriftgiesserei. Genzsch & Heyse, Hamburg; M¨unchen (1922) 14. Bauer, F.L.: Entzifferte Geheimnisse. Methoden und Maximen der Kryptologie. Springer Verlag, Berlin, Heidelberg, New York (2001) 15. Beauchamp, K.: History of Telegraphy. The Institution of Electrical Engineers, London, UK (2001) 16. Beck, K.: Computervermitelte Kommunikation im Internet. Oldenbourg Verlag, M¨unchen (2006) 17. Berlekamp, E.R.: Key Papers in the Development of Coding Theory (IEEE Press Selected Reprint Series). IEEE Press (1088) 18. Berlekamp, E.R.: Algebraic coding theory. Aegean Park Press, Laguna Hills, CA, USA (1984) 19. Berners-Lee, T., Cailliau, R., Groff, J.F., Pollermann, B.: World-wide web: The information universe. Electronic Networking: Research, Applications and Policy 1(2), 74–82 (1992) 20. Bertsekas, D., Gallagher, R.: Data Networks, 2nd edn. Prentice Hall, Englewood Cliffs, NJ, USA (1991) 21. Beutelspacher, A.: Kryptologie : eine Einf¨uhrung in die Wissenschaft vom Verschl¨usseln, Verbergen und Verheimlichen. Vieweg Verlag, Braunschweig (1993) 22. Beutelspacher, A.: Geheimsprachen: Geschichte und Techniken. C. H. Beck, M¨unchen (1997) 23. Bierbrauer, J.: Introduction to Coding Theory. Chapman and Hall/CRC Press, Boca Raton, FL, USA (2004) 24. Binder, F.: Die Brieftaube bei den Arabern in der Abbassiden- und Mamlukenzeit. Journal of Ornithology 95(1), 38–47 (1954) 25. Black, U.: OSI: a model for computer communications standards. Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1991)
400
Bildnachweise
26. Black, U.: Emerging communications technologies (2nd ed.). Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1997) 27. Blanck, H.: Das Buch in der Antike. Beck, M¨unchen (1992) 28. Bless, R., Mink, S., Blaß, E.O., Conrad, M., Hof, H.J., Kutzner, K., Sch¨ooller, M.: Sichere Netzwerkkommunikation. ISBN 3-540-21845-9. Springer Verlag, Berlin, Heidelberg (2005) 29. Bradner, S.: The internet standards process – revision 3 (1996) 30. Brockhaus (ed.): Der Brockhaus in einem Band. 10., vollst¨andig u¨ berarbeitete und aktualisierte Auflage. Bibliographisches Institut F. A. Brockhaus AG, Mannheim (2005) 31. Buchmann, J.: Einf¨uhrung in die Kryptographie. Springer Verlag, Berlin, Heidelberg, New York (2001) 32. Buddemeier, H.: Von der Keilschrift zum Cyberspace: Der Mensch und seine Medien. Verlag Freies Geistesleben & Urachhaus GmbH, Stuttgart (2001) 33. Buford, J.F.K.: Multimedia systems. Addison-Wesley Publishing Company, Reading, MA, USA (1994) 34. Bush, V.: As we may think. interactions 3(2), 35–46 (1996) 35. Bußmann, H.: Lexikon der Sprachwissenschaft. Alfred K¨orner Verlag, Stuttgart (1983) 36. Cailliau, R., Gillies, J.: How the Web Was Born: The Story of the World Wide Web. Oxford University Press (2000) 37. Cassin, E., Bottero, J., Vercoutter, J.: Die Altorientalischen Reiche III - Die erste H¨alfte des 1. Jahrtausends. Fischer Weltgeschichte, Band 4. Fischer Taschenbuch Verlag, Frankfurt a. M. (1967) 38. Cavalli-Sforza, L.: Gene, V¨olker und Sprachen. Die biologischen Grundlagen unserer Zivilisation. Carl Hanser Verlag, M¨unchen (1996) 39. Chen, J.W., Kao, C.Y., Lin, Y.L.: Introduction to H.264 Advanced Video Coding. In: ASPDAC ’06: Proceedings of the 2006 conference on Asia South Pacific design automation, pp. 736–741. IEEE Press, Piscataway, NJ, USA (2006) 40. Chomsky, N.: On certain formal properties of grammars. In: R.D. Luce, R. Bush, E. Galanter (eds.) Handbook of Mathematical Psychology, vol. 2, pp. 323–418. Wiley, New York, NY, USA (1963) 41. Christopoulos, C., Skodras, A., Ebrahimi, T.: The JPEG 2000 still image coding system: An overview. IEEE Transactions on Consumer Electronics 46(4), 1103–1127 (2000) 42. Churchhouse, R.F.: Codes and Ciphers: Julius Caesar, the Enigma, and the Internet. Cambridge University Press (2001) 43. Clarke, D.: The ingenious Mr. Edgeworth. Oldbourne, London, UK (1965) 44. Clarke, R.J.: Digital Compression of Still Images and Video. Academic Press, Inc., Orlando, FL, USA (1995) 45. Co., T.A.&.: Hawkins Electrical Guide, Volume 6. Hawkins and staff, New York, NY, USA (1917) 46. Comer, D.E.: Computernetzwerke und Internets. Prentice Hall, M¨unchen (1998) 47. Compaine, B.M. (ed.): The digital divide: facing a crisis or creating a myth? MIT Press, Cambridge, MA, USA (2001) 48. Compuserve Incorporated: GIF Graphics Interchange Format: A standard defining a mechanism for the storage and transmission of bitmap-based graphics information. Columbus, OH, USA (1987) 49. Compuserve Incorporated: GIF Graphics Interchange Format: Version 89a. Columbus, OH, USA (1990) 50. Cormen, T.H., Leiserson, C.E., Rivest, R.L., Stein, C.: Introduction to Algorithms. The MIT Press, Cambridge, MA, USA (2001) 51. Corsten, S.: Die Drucklegung der zweiundvierzigzeiligen Bibel. Technische und chronologische Probleme. In: W. Schmitt (ed.) Johannes Gutenbergs zweiundvierzigzeilige Bibel. Faksimile-Ausgabe nach dem Exemplar der Staatsbibliothek Preu¨sischer Kulturbesitz Berlin. Idion Verlag, M¨unchen (1979) 52. Corsten, S.: Die Erfindung des Buchdrucks im 15. Jahrhundert. In: V. der Maximilian Gesellschaft, B. Tiemann (eds.) Die Buchkultur im 15. und 16. Jahrhundert, Bd. 1, pp. 125–202. Maximilian-Gesellschaft, Hamburg (1995)
Literaturverzeichnis
401
53. C´ot`e, G., Erol, B., Gallant, M., Kossentini, F.: H.263+: video coding at low bit rates. Circuits and Systems for Video Technology, IEEE Transactions on 8(7), 849–866 (1998) 54. Coulmas, F.: The Blackwell Encyclopedia of Writing Systems. Blackwell, New York, NJ, USA (1996) 55. Crowcroft, J., Handley, M., Wakeman, I.: Internetworking Multimedia. Morgan Kaufman Publishers, San Francisco, CA, USA (1999) 56. Crowley, D., Heyer, P.: Communication in History: Technology, Culture and Society (Fourth Edition). Allyn and Bacon, Boston, MA, USA (2003) 57. Daemen, J., Rijmen, V.: The Design of Rijndael: AES - The Advanced Encryption Standard. Springer Verlag, Berlin, Heidelberg, New York (2002) 58. Daigle, J.D.: Queueing Theory for Telecommunications. Addison-Wesley, Reading, MA, USA (1991) 59. Davies, D.W., Barber, D.L.A.: Communication networks for computers. John Wiley, London, New York (1973) 60. Day, J.D., Zimmermann, H.: The OSI reference model. Proceedings of the IEEE 71(12), 1334–1340 (1983) 61. Dietz, M., Popp, H., Brandenburg, K., Friedrich, R.: Audio compression for network transmission. Journal of the Audio Engineering Society 44(1-2), 58–72 (1996) 62. Diffie, W.: The first ten years of public-key cryptography. In: Innovations in Internetworking, pp. 510–527. Artech House, Inc., Norwood, MA, USA (1988) 63. Diffie, W., Hellman, M.E.: New directions in cryptography. IEEE Transactions on Information Theory IT-22(6), 644–654 (1976) 64. DIN 44302: DIN 44302: Daten¨ubertragung, Daten¨ubermittlung: Begriffe. Deutsches Institut f¨ur Normierung DIN, Berlin / K¨oln (1979) 65. DIN 66020: Funktionelle Anforderungen an die Schnittstellen zwischen Datenendeinrichtung und Daten¨ubertragungseinrichtungen - Teil 1: Allgemeine Anwendung. Deutsches Institut f¨ur Normierung DIN, Berlin / K¨oln (1999) ¨ f¨ur Synchrone Ubertragung ¨ 66. DIN 66021: DIN 66021-9: Schnittstelle zwischen DEE und DUE bei 48000 bit/s auf Prim¨argruppenverbindungen. Deutsches Institut f¨ur Normierung DIN, Berlin / K¨oln (1983) 67. Eckschmitt, W.: Das Ged¨achtnis der V¨olker. Hieroglyphen, Schriften und Schriftfunde. Heyne Verlag, M¨unchen (1980) 68. Eco, U.: From Internet to Gutenberg, a lecture presented at the Italian Academy for Advanced Studies in America, nov. 12, 1996 (1996). URL http://www.italynet.com/ columbia/Internet.htm 69. Engell, L., Siegert, B., Vogl, J.: Archiv f¨ur Mediengeschichte – Medien der Antike. Universit¨atsverlag Weimar, Weimar (2003) 70. Erb, E.: Radios von gestern. M + K Verlag Computer Verlag, Luzern (1993) 71. Essinger, J.: Jacquard’s web. Oxford University Press, Oxford, UK (2004) 72. Evenson, A.E.: The Telephone Patent Conspiracy of 1876: The Elisha Gray - Alexander Bell Controversy. McFarland, Jefferson, NC, USA (2000) 73. Falk, D., Brill, D., Stork, D.: Seeing the Light: Optics in Nature, Photography, Color, Vision and Holography. John Wiley & Sons, New York, NY, USA (1986) 74. Faulmann, C.: Schriftzeichen und Alphabete aller Zeiten und V¨olker, Reprint der Ausgabe von 1880. Augustus Verlag, Augsburg (1990) 75. Faulstich, W.: Das Medium als Kult: von den Anf¨angen bis zur Sp¨atantike. Vandenhoek & Ruprecht, G¨ottingen (1997) 76. Fickers, A.: Politique de la grandeur“ vs. Made in Germany“. Politische Kulturgeschich” ” te der Technik am Beispiel der PAL-SECAM-Kontroverse. Oldenbourg Verlag, M¨unchen (2007) 77. Flichy, P.: Tele: Die Geschichte der modernen Kommunikation. Campus Verlag, Frankfurt a. M. (1994) 78. Fluhrer, S.R., Mantin, I., Shamir, A.: Weaknesses in the key scheduling algorithm of RC4. In: SAC ’01: Revised Papers from the 8th Annual International Workshop on Selected Areas in Cryptography, pp. 1–24. Springer-Verlag, London, UK (2001)
402
Bildnachweise
79. F¨oldes-Papp, K.: Vom Felsbild zum Alphabet. Die Geschichte der Schrift von ihren fr¨uhesten Vorstufen bis zur modernen lateinischen Schreibschrift. Chr. Belser Verlag, Stuttgart (1966) ¨ 80. Freyer, U.: Nachrichten-Ubertragungstechnik, 4. Aufl. Carl Hanser Verlag, M¨unchen (2000) 81. Fritsch, A.: Diskurs u¨ ber den heutigen Gebrauch und Mißbrauch der Neuen Nachrichten, die man Neue Zeitung nennt (Discursus de Novellarum quas vocant Neue Zeitunge hodierne usu et abusu). In: K. Kurth (ed.) Die a¨ ltesten Schriften f¨ur und wider die Zeitungen (Quellenhefte zur Zeitungswissenschaft), 1, pp. 33–44. Rohrer, Br¨unn/ M¨unchen/ Wien (1944) 82. Fugl`ewicz, M.: Das Internet Lesebuch - Hintergr¨unde, Trends, Perspektiven. Buchkultur Verlagsgesellschaft m.b.H., Wien (1996) 83. F¨ussel, S.: Johannes Gutenberg. Rowohlt Taschenbuch Verlag GmbH, Reinbeck bei Hamburg (1999) 84. F¨ussel, S. (ed.): Gutenberg-Jahrbuch 2006. Harrassowitz, Wiesbaden-Erbenheim (2006) 85. Gage, J.: Kulturgeschichte der Farbe. Von der Antike bis zur Gegenwart, 2. Aufl. E. A. Seemann Verlag, Leipzig (2004) 86. Gantert, K., Hacker, R.: Bibliothekarisches Grundwissen, 8., vollst. neu bearb. und erw. Aufl. Saur, M¨unchen (2008) 87. Gellat, R.: The fabulous phonograph. From tin foil to high fidelity. Lippincott, Philadelphia, NY, USA (1954) 88. Gessinger, J., v. Rahden (Hrsg.), W.: Theorien vom Ursprung der Sprachen. de Gruyter, Berlin - New York (1989) 89. Gibson, J.D., Berger, T., Lookabaugh, T., Lindbergh, D., Baker, R.L.: Digital compression for multimedia: principles and standards. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA (1998) 90. Goldstein, E.B.: Wahrnehmungspsychologie: Der Grundkurs, 7. Aufl. Spektrum Akademischer Verlag, Heidelberg (2007) 91. G¨oo¨ ck, R.: Radio, Fernsehen, Computer. Sigloch, K¨unzelsau (1989) 92. G¨orne, T.: Tontechnik. Carl Hanser Verlag, Leipzig (2006) 93. Grimm, R.: Digitale Kommunikation. Oldenbourg Verlag, M¨unchen (2005) 94. Gunther, R.W.T. (ed.): Early science in Oxford. Dawsons, London, UK (1966) 95. Haarmann, H.: Universalgeschichte der Schrift, 2. Aufl. Campus Verlag, Frankfurt a. M. (1991) 96. Haarmann, H.: Early Civilization and Literacy in Europe, An Inquiry into Cultural Continuity in the Mediterranean World. Mouton de Gruyter, Berlin - New York (1996) ¨ 97. Haase, F.: Mythos Fackeltelegraph – Uber die medientheoretischen Grundlagen antiker Nachrichtentechnik. In: L. Engell, B. Siegert, J. Vogl (eds.) Archiv f¨ur Mediengeschichte – Medien der Antike, pp. 13–24. Universit¨atsverlag Weimar, Weimar (2003) 98. Haaß, W.D.: Handbuch der Kommunikationsnetze: Einf¨uhrung in die Grundlagen und Methoden der Kommunikationsnetze. Springer Verlag, Berlin, Heidelberg, New York (1997) 99. Hacker, S.: MP3: The Definitive Guide. O’Reilly & Associates, Sebastopol CA, USA (2000) 100. Hadorn, W., Cortesi, M.: Mensch und Medien - Die Geschichte der Massenkommunikation. AT Verlag Aarau, Stuttgart (1985) 101. Hafner, K., Lyon, M.: Arpa Kadabra: Die Geschichte des Internet. dPunkt Verlag, Heidelberg (1997) 102. Hahn, H., Stout, R.: The Internet Complete Reference. Osborne McGraw-Hill, Berkeley CA, USA (1994) 103. Hambling, D.: Weapons Grade. Carroll & Graf, New York, NY, USA (2005) 104. Hamilton, E.: JPEG File Interchange Format. Tech. rep., C-Cube Microsystems, Milpitas, CA, USA (1992). URL http://www.w3.org/Graphics/JPEG/jfif3.pdf 105. Hamming, R.W.: Error detecting and error correcting codes. Bell System Technical Journal 26(2), 147–160 (1950) 106. Hammond, N.G.L., (Hrsg.), H.H.S.: The Oxford Classical Dictionary, 2nd Ed. Oxford University Press, Oxford, UK (1992) 107. Hanebutt-Benz, E.M.: Gutenbergs Erfindungen. In: Mainz (ed.) Gutenberg - Aventur und Kunst: Vom Geheimunternehmen zur ersten Medienrevolution, pp. 158–189. Schmidt, Mainz (2000)
Literaturverzeichnis
403
108. Harris, R.: The Origin of Writing. Duckworth, London, UK (1986) 109. Hartley, R.V.L.: Transmission of information. Bell Syst. Tech. Journal 7, 535–563 (1928) 110. Hauben, M., Hauben, R.: Netizens: On the History and Impact of UseNet and the Internet. Wiley-IEEE Computer Society Press, Los Alamitos, CA, USA (1997) 111. Hiebel, H.H., Hiebler, H., Kogler, K., Walitsch, H.: Die Medien - Logik, Leistung, Geschichte. W. Fink Verlag, M¨unchen (1998) 112. Hiltz, S.R., Turoff, M.: The Network Nation. Addison-Wesley Professional, Boston, MA, USA (1978) 113. Horstmann, E.: 75 Jahre Fernsprecher in Deutschland. 1877–1952. Ein R¨uckblick auf die Entwicklung des Fernsprechers un Deutschland und auf seine Erfindungsgeschichte. Bundesministerium f¨ur das Post- und Fernmeldewesen, Bundesdruckerei, Bonn (1952) 114. (Hrsg.), J.G.: The communications Handbook. CRC-Press, Boca Raton, FL, USA (1996) 115. (Hrsg.), J.G.: Multimedia Communications - Directions and Innovations. Academic Press, Inc., San Diego, CA, USA (1996) 116. (Hrsg.), J.L.C.: A History of Algorithms: From the Pebble to the Microchip. Springer Verlag, Berlin, Heidelberg, New York (1999) 117. (Hrsg.), W.K.: Propyl¨aen Technikgeschichte. Ullstein Buchverlag GmbH, Berlin (1997) 118. Huffman, D.A.: A method for construction of minimum-redundancy codes. Proceedings IRE 40(9), 1098–1101 (1952) 119. Huffman, W.C., Brualdi, R.A.: Handbook of coding theory. Elsevier Science Inc., New York, NY, USA (1998) 120. Hyman, A.: Charles Babbage, Pioneer of the Computer. Prineton University Press, Princeton, NJ, USA (1982) 121. International Organization for Standardization: ISO/IEC 10918-1:1994: Information technology — Digital compression and coding of continuous-tone still images: Requirements and guidelines. International Organization for Standardization, Geneva, Switzerland (1994). URL http://www.iso.ch/cate/d18902.html 122. International Organization for Standardization: ISO/IEC 10918-2:1995: Information technology — Digital compression and coding of continuous-tone still images: Compliance testing. International Organization for Standardization, Geneva, Switzerland (1995). URL http://www.iso.ch/cate/d20689.html 123. International Standard, ISO/IEC/JTC1/SC29 WG11: ISO/IEC 13818-3, Information technology – generic coding of moving pictures and associated audio information – Part 3: Audio. International Organization for Standardization, Geneva, Switzerland (1998) 124. Jochum, U.: Kleine Bibliotheksgeschichte, 3. verbesserte und erweiterte Aufl. Reclam, Stuttgart (2007) 125. Joss´e, H.: Die Entstehung des Tonfilms. Beitrag zu einer faktenorientierten Mediengeschichtsschreibung. Alber, Freiburg/M¨unchen (1984) 126. Kahn, D.: The Codebreakers. The Macmillan Company, New York (1967). xvi + 1164 pages 127. Kahn, D.: An Enigma chronology. In: C.A. Deavours, D. Kahn, L. Kruh, G. Mellen, B.J. Winkel (eds.) Selections from Cryptologia: history, people, and technology, pp. 423–432. Artech House, Inc., Norwood, MA, USA (1998) 128. Kasner, E., Newman, J.R.: Mathematics and the Imagination, 24th ed. Simon and Schuster, New York, NY, USA (1967) 129. Kidwell, P.A., Ceruzzi, P.E.: Landmarks in digital computing: A Smithonian practical history. Smithonian Institute Press, Washington, D.C., USA (1994) 130. Kippenhahn, R.: Verschl¨usselte Botschaften: Geheimschrift, Enigma und Chipkarte. Rowohlt Taschenbuch Verlag GmbH, Reinbeck bei Hamburg (1997) 131. Kircher, A.: Athanasii Kircheri Ars magna lucis et umbrae, in X. libros digesta. Quibus admirandae lucis & umbrae in mundo, atque adeo universa natura, vires effectusque uti nova, ita varia novorum reconditiorumque speciminum exhibitione, ad varios mortalium usus, panduntur. Scheus, Rom (1646) 132. Kleinrock, L.: Information flow in large communication nets, ph.d. thesis proposal. Ph.D. thesis, Massachusetts Institute of Technology, Cambridge, MA, USA (1961). URL http: //www.cs.ucla.edu/˜lk/LK/Bib/REPORT/PhD/
404
Bildnachweise
133. Kleinrock, L.: Queueing Systems, Volume 1: Theory. John Wiley & Sons, Hoboken, NJ, USA (1975) 134. Koenen, R.: Overview of the MPEG-4 Standard. International Organization for Standardization, ISO/IEC JTC1/SC29/WG11 N2323, Coding of Moving Pictures and Audio, Geneva, Switzerland (2002) 135. Kollmann, T.: E-Business : Grundlagen elektronischer Gesch¨aftsprozesse in der Net Economy, 3., u¨ berarb. und erw. Aufl. Gabler, Wiesbaden (2007) 136. K¨onig, W. (ed.): Propyl¨aen der Technikgeschichte, Bd. 1-5. Propyl¨aen, Berlin (1990) 137. Krcmar, H.: Informationsmanagement, 4th ext. & rev. edn. Springer Verlag, Berlin, Heidelberg, New York (2005) 138. Kuckenburg, M.: ...und sprachen das erste Wort. Die Entstehung von Sprache und Schrift. Eine Kulturgeschichte der menschlichen Verst¨andigung. Econ Verlag, D¨usseldorf (1996) 139. Kuhlen, F.: E-World – Technologien f¨ur die Welt von morgen. Springer, Berlin, Heidelberg, New York (2005) 140. Kuo, F.F., Effelsberg, W., Garcia-Luna-Aceves, J.J.: Multimedia communications protocols and applications. Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1998) 141. K¨uppers, H.: Das Grundgesetz der Farbenlehre, 10. Aufl. DuMont Literatur und Kunst Verlag, K¨oln (2002) 142. Kurose, J.F., Ross, K.W.: Computer Networking - A Top-Down Approach Featuring the Internet. Addison-Wesley Professional, Boston, MA, USA (2001) 143. Kyas, O., Campo, M.A.: IT Crackdown, Sicherheit im Internet. MITP Verlag, Bonn (2000) 144. Laue, C., Zota, V.: Klangkompressen – MP3 und seine Erben. c’t - Magazin f¨ur Computertechnik, Verlag Heinz Heise, Hannover 19, 102–109 (2002) 145. Le Gall, D.: MPEG: a video compression standard for multimedia applications. Commun. ACM 34(4), 46–58 (1991) 146. Leroi-Gourhan, A.: Hand und Wort. Die Evolution von Technik, Sprache und Kunst. Suhrkamp, Frankfurt a. M. (1984) 147. Leuf, B., Cunningham, W.: The Wiki Way: Collaboration and Sharing on the Internet. Addison-Wesley Professional, Boston, MA, USA (2001) 148. Lewis, N.: Papyrus in Classical Antiquity. Oxford University Press, Oxford, UK (1974) 149. Licklider, J.C.R., Taylor, R.W.: The computer as a communication device. Science and Technology 76, 21–31 (1968) 150. Luther, A.C.: Principles of Digital Audio and Video. Artech House, Inc., Norwood, MA, USA (1997) 151. Luther, A.C., Inglis, A.F.: Video Engineering. McGraw-Hill, Inc., New York, NY, USA (1999) 152. Marcellin, M.W., Bilgin, A., Gormish, M.J., Boliek, M.P.: An overview of JPEG-2000. In: DCC ’00: Prof. of IEEE Data Compression Conference 2000, pp. 523–542. IEEE Computer Society, Washington, DC, USA (2000) 153. Martin, E.: Die Rechenmaschine und ihre Entwicklungsgeschichte. Bd. 1. Burhagen, Pappenheim (1925) 154. Maxwell, J.C.: A dynamical theory of the electromagnetic field. Philosophical Transactions of the Royal Society of London 155, 459–513 (1865) 155. Meinel, C., Sack, H.: WWW - Kommunikation, Internetworking, Web-Technologien. Springer Verlag, Heidelberg (2004) 156. Menezes, A.J., Vanstone, S.A., Oorschot, P.C.V.: Handbook of Applied Cryptography. CRC Press, Inc., Boca Raton, FL, USA (1996) 157. Meschkowski, H.: Denkweisen großer Mathematiker – Ein Weg zur Geschichte der Mathematik. Vieweg Verlag, Wiesbaden (1990) 158. Miano, J.: Compressed image file formats: JPEG, PNG, GIF, XBM, BMP. ACM Press/Addison-Wesley Publishing Co., New York, NY, USA (1999) 159. Miller, A.R.: The cryptographic mathematics of enigma. Cryptologia 19(1), 65–80 (1995) 160. Miller, G.: The magical number seven, plus or minus two: Some limtis on our capacity for processing information. Psycological Review 63, 81–97 (1956)
Literaturverzeichnis
405
161. Mitchell, J.L., Pennebaker, W.B., Fogg, C.E., Legall, D.J. (eds.): MPEG Video Compression Standard. Chapman & Hall, Ltd., London, UK, UK (1996) 162. Mitterauer, M.: Predigt - Holzschnitt - Buchdruck. Europ¨aische Fr¨uhformen der Massenkommunikation. Beitr¨age zur historischen Sozialkunde 28(2), 69–78 (1998) 163. Moffat, A., Neal, R.M., Witten, I.H.: Arithmetic coding revisited. ACM Trans. Inf. Syst. 16(3), 256–294 (1998). DOI http://doi.acm.org/10.1145/290159.290162 164. M¨oller, E.: Die heimliche Medienrevolution – Wie Weblogs, Wikis und freie Software die Welt ver¨andern. Heise Verlag, Hannover (2004) 165. Moore, G.E.: Cramming more components onto integrated circuits. Electronics 38(8) (1965) 166. Murray, J.D., vanRyper, W.: Encyclopedia of graphics file formats. O’Reilly & Associates, Inc., Sebastopol, CA, USA (1994) 167. Naumann, F.: Vom Abakus zum Internet : die Geschichte der Informatik. Primus-Verlag, Darmstadt (2001) 168. Nettle, D.: Linguistic Diversity. Oxford University Press, Oxford, UK (2001) 169. Newhall, B.: History of Photography: From 1839 to the Present. Bulfinch; Revised edition (1982) 170. Oertel, R.: Macht und Magie des Films. Weltgeschichte einer Massensuggestion. Volksbuchverlag, Wien (1959) 171. O’Regan, G.: A Brief History of Computing. Springer Verlag Ldt., London, UK (2008) 172. O’Reilly, T.: What is web 2.0: Design patterns and business models for the next generation of software (2005). URL http://www.oreillynet.com/pub/a/oreilly/tim/ news/2005/09/30/what-is-web-20.html 173. Painter, T., Spanias, A.: Perceptual coding of digital audio. Proc. of the IEEE 88(4), 451–515 (2000) 174. Parsons, E.A.: The Alexandrian Library, Glory of the Hellenic World; Its Rise, Antiquities, and Destructions. Elsevier, Amsterdam - New York (1952) 175. Patel, P., Parikh, C.: Design and implementation of AES (Rijndael) algorithm. In: K.E. Nygard (ed.) CAINE, pp. 126–130. ISCA (2003) 176. Pennebaker, W.B., Mitchell, J.L.: JPEG Still Image Data Compression Standard. Kluwer Academic Publishers, Norwell, MA, USA (1992) 177. Peterson, L.L., Davie, B.S.: Computernetze - Ein modernes Lehrbuch. dPunkt Verlag, Heidelberg (2000) 178. Picot, A., Reichwald, R., Wigand, T.R.: Die grenzenlose Unternehmung : Information, Organisation und Management ; Lehrbuch zur Unternehmensf¨uhrung im Informationszeitalter, 4., vollst. u¨ berarb. u. erw. Aufl. Gabler, Wiesbaden (2001) 179. Pierce, J.R., Noll, A.M.: Signale - Die Geheimnisse der Telekommunikation. Spektrum Akademischer Verlag, Heidelberg (1990) 180. Platon: Kratylos. In: S¨amtliche Werke, vol. 1, pp. 541–617. Lambert Schneider, Berlin (1940) 181. Platon: Phaidros. In: G. Eigler (ed.) Werke in acht B¨anden, vol. 5. Wissenschaftliche Buchgesellschaft, Darmstadt (1983) 182. Plutarch: Große Griechen und R¨omer, eingeleitet und u¨ bersetzt von Konrad Ziegler, Bd. III. Artemis und Winkler, Z¨urich (1955) 183. Pohlmann, K.: Compact-Disc-Handbuch: Grundlagen des digitalen Audio; technischer Aufbau von CD-Playern, CD-ROM, CD-I, Photo-CD. IWT, M¨unchen bei Vaterstetten (1994) 184. Pohlmann, K.C.: Principles of Digital Audio. McGraw-Hill Professional, Berkeley CA, USA (2000) 185. Poynton, C.A.: A technical introduction to digital video. John Wiley & Sons, Inc., New York, NY, USA (1996) 186. Preneel, B.: Cryptographic primitives for information authentication - state of the art. In: State of the Art in Applied Cryptography, Course on Computer Security and Industrial Cryptography - Revised Lectures, pp. 49–104. Springer-Verlag, London, UK (1998) 187. Pullan, J.M.: The History of the Abacus. Hutchinson, London, UK (1968) 188. Rao, K.R., Hwang, J.J.: Techniques and standards for image, video, and audio coding. Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1996)
406
Bildnachweise
189. am Rhyn, O.H.: Kulturgeschichte des deutschen Volkes, Zweiter Band, p. 13. Baumg¨artel, Berlin (1897) 190. Richardson, I.E.G.: H.264 and MPEG-4 Video Compression: Video Coding for Nextgeneration Multimedia. John Wiley & Sons, Inc., New York, NY, USA (2003) 191. Rivest, R.L., Shamir, A., Adleman, L.: A method for obtaining digital signatures and publickey cryptosystems. Commun. ACM 21(2), 120–126 (1978). DOI http://doi.acm.org/10.1145/ 359340.359342 192. Robinson, A.: The Story of Writing. Thames and Hudson Ltd, London, UK (1995) 193. Rochlin, G.I.: Trapped in the Net: The Unanticipated Consequences of Computerization. Princeton University Press, Princeton, NJ, USA (1998) 194. Rock, I.: Wahrnehmung: vom visuellen Reiz zum Sehen und Erkennen. Spektrum der Wissenschaft Verlagsgesellschaft, Heidelberg (1985) 195. Roelofs, G.: PNG: The definitive guide. O’Reilly & Associates, Inc., Sebastopol, CA, USA (1999) 196. Rosenthal, D.: Internet - sch¨one neue Welt?: Der Report u¨ ber die unsichtbaren Risiken. Orell F¨ussli Verlag, Z¨urich, Schweiz (1999) 197. R¨uck, P. (ed.): Pergament. Geschichte - Struktur - Restaurierung - Herstellung. No. 2 in Historische Hilfswissenschaften. Thorbecke, Sigmaringen (1991) 198. Salus, P.H.: Casting the Net: From ARPANET to Internet and Beyond... Addison-Wesley Longman Publishing Co., Inc., Boston, MA, USA (1995). Foreword By-Vinton G. Cerf 199. Sandermann, W.: Papier. Eine Kulturgeschichte, 3. Aufl. Springer Verlag, Berlin, Heidelberg, New York (1997) 200. Schenkel, W.: Die a¨ gyptische Hieroglyphenschrift und ihre Weiterentwicklungen. In: H. G¨unther, O. Ludwig (eds.) Schrift und Schriftlichkeit – Writing and its Use. Ein interdisziplin¨ares Handbuch internationaler Forschung, 1. Halband, pp. 83–103. de Gruyter, Berlin New York (1989) 201. Scherff, J.: Grundkurs Computernetze. Vieweg, Wiesbaden (2006) 202. Schmeh, K.: Die Welt der geheimen Zeichen. W3L Verlag, Bochum (2004) 203. Schmeh, K.: Kryptografie – Verfahren, Protokolle, Infrastrukturen, pp. 199–234. dPunkt Verlag, Heidelberg (2007) 204. Schneier, B.: Applied Cryptography: Protocols, Algorithms, and Source Code in C. John Wiley & Sons, Inc., New York, NY, USA (1993) 205. Sch¨oning, U.: Ideen der Informatik – Grundlegende Modelle und Konzepte. Oldenbourg Verlag, M¨unchen (2002) 206. Schubert, H.: Historie der Schallaufzeichnung. Deutsches Rundfunkarchiv, Frankfurt a. M. (1983) 207. Schulten, L.: Firefox - Alles zum Kultbrowser. O’Reilley (2005) 208. Schwarze, J., Schwarze, S., Hoppe, G.: Electronic commerce : Grundlagen und praktische Umsetzung. Verl. Neue Wirtschafts-Briefe, Herne / Berlin (2002) 209. Schwenk, J.: Sicherheit und Kryptographie im Internet. Vieweg Verlag, Wiesbaden (2002) 210. Sedgewick, R.: Algorithms, 2nd Edition. Addison-Wesley, Boston, MA, USA (1988) 211. Servon, L.J.: Bridging the digital divide: technology, community, and public policy. Blackwell, Malden, MA, USA (2002) 212. Shannon, C.E.: A Mathematical Theory of Communication. The Bell System Technical Journal 27, 379–423 (1948) 213. Shannon, C.E.: Communication in the presence of noise. Proceedings of the IRE 37(1), 10–21 (1949) 214. Shannon, C.E., Weaver, W.: The Mathematical Theory of Communication. University of Illinois Press, Urbana, Illinois (1949) 215. Shapiro, C., Varian, H.R.: Information rules: a strategic guide to the network economy. Harvard Business School Press, Boston, MA, USA (1998) 216. Siegert, B.: Translatio Imperii: Der cursus publicus im r¨omischen Kaiserreich. In: L. Engell, B. Siegert, J. Vogl (eds.) Archiv f¨ur Mediengeschichte – Medien der Antike, pp. 13–24. Universit¨atsverlag Weimar, Weimar (2003)
Literaturverzeichnis
407
217. Singh, S.: Geheime Botschaften. Carl Hanser Verlag, M¨unchen (2000) 218. Solari, S.J.: Digital Video and Audio Compression. McGraw-Hill Professional, New York, NY, USA (1997) 219. Stamper, D.A.: Essentials of Data Communications. Benjamin Cummings, Menlo Park, CA, USA (1997) 220. Stein, E.: Taschenbuch Rechnernetze und Internet. Fachbuchverlag Leipzig, Carl Hanser Verlag, M¨unchen (2001) 221. Steinmetz, R.: Multimedia-Technologie: Grundlagen, Komponenten und Systeme, 3. Aufl. Springer Verlag, Heidelberg (2000) 222. Steinmetz, R., Nahrstedt, K.: Multimedia: Computing, Communications and Applications: Media Coding and Content Processing. Prentice Hall PTR, Upper Saddle River, NJ, USA (2002) ¨ 223. Stelzer, D.: Digitale G¨uter und ihre Bedeutung in der Internet-Okonomie. Das Wirtschaftsstudium (WISU) 29(6), 835–842 (2000) 224. Stelzer, D.: Produktion digitaler G¨uter. In: A. Braßler, H. Corsten (eds.) Entwicklungen im Produktionsmanagement. Franz Vahlen, M¨unchen (2004) 225. Stetter, C.: Schrift und Sprache. Suhrkamp Verlag, Frankfurt a. M. (1999) 226. Stinson, D.: Cryptography: Theory and Practice,Second Edition, pp. 117–154. Chapman & Hall, CRC, London, UK (2002) 227. St¨ober, R.: Mediengeschichte. Die Evolution neuer Medien von Gutenberg bis Gates, Eine kommunikationswissenschaftliche Einf¨uhrung. Band 1: Presse - Telekommunikation. Westdeutscher Verlag, GWV Fachverlage, Wiesbaden (2003) 228. St¨ober, R.: Deutsche Pressegeschichte: Von den Anf¨angen bis zur Gegenwart, 2. u¨ berarb. Aufl. UKV Medien Verlagsgesellschaft, Konstanz (2005) 229. St¨orig, H.J.: Weltgeschichte der Wissenschaft. S. Fischer Verlag, Frankfurt a. M. (1982) 230. Strutz, T.: Bilddaten-Kompression. Grundlagen, Codierung, MPEG, JPEG, 2. Aufl. Vieweg Verlag, Braunschweig/Wiesbaden (2002) 231. Sueton: Leben der Caesaren u¨ bersetzt von Andre Lambert. Artemis und Winkler, Z¨urich (1955) 232. Tanenbaum, A.S.: Computer Networks. Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1996) 233. Taubman, D.S., Marcellin, M.W.: JPEG2000 : image compression fundamentals, standards, and practice. Kluwer Academic Publishers, Boston (2002) 234. Thom, D., Purnhagen, H., Pfeiffer, S.: MPEG-Audio Subgroup: MPEG Audio FAQ,. ISO/IEC JTC1/SC29/WG11 Coding of Moving Pictures and Audio (1999) 235. Thukydides: Geschichte des Peloponnesischen Krieges. B¨ucherei Tusculum, Darmstadt (1993) 236. von Thun, F.S.: Miteinander reden: St¨orungen und Kl¨arungen., vol. 1, 35 edn. Rowohlt (2001) 237. Timmerer, C., Hellwagner, H.: Das MPEG-21 Multimedia-Framework. Informatik-Spektrum 31(6), 576–579 (2008) 238. Torres, L.: Video Coding. Kluwer Academic Publishers, Norwell, MA, USA (1996) 239. Tschudin, P.F.: Grundz¨uge der Papiergeschichte. No. 12 in Bibliothek des Buchwesens. Hiersemann, Stuttgart (2002) 240. Unser, M.: Sampling – 50 years after Shannon. Proceedings of the IEEE 88(4), 569–587 (2000) 241. von Urbanitzky Alfred, R., Wormell, R.: Electricity in the Service of Man: A Popular and Practical Treatise on the Applications of Electricity in Modern Life. Cassell & Company Ltd., London, UK (1886) 242. Vise, D., Malseed, M.: The Google Story: Inside the Hottest Business, Media, and Technology Success of Our Time. Random House Inc., New York, NY, USA (2006) 243. Wallace, G.K.: The JPEG still picture compression standard. Communications of the ACM 34, 31–44 (1991) 244. Watkinson, J.: MPEG Handbook. Butterworth-Heinemann, Newton, MA, USA (2001)
408
Bildnachweise
245. Webers, J.: Handbuch der Film- und Videotechnik. Film, Videoband und Platte im Studio und Labor. Franzis, M¨unchen (1983) 246. Welch, T.A.: A technique for high performance data compression. IEEE Trans. on Computer 17(6), 8–19 (1984) 247. Wiegand, T., Sullivan, G.J., Bjntegaard, G., Luthra, A.: Overview of the H.264/AVC video coding standard. Circuits and Systems for Video Technology, IEEE Transactions on 13(7), 560–576 (2003) 248. Wilkinson, E.: Chinese History – A Manual, Havard-Yenching Institute Monograph Series, 52. Harvard University Press, Cambridge, MA, USA (2000) 249. Winston, B.: Media Technology and Society, A History: From the Telegraph to the Internet. Routledge, London, UK (1988) 250. Witten, I.H., Neal, R.M., Cleary, J.G.: Arithmetic coding for data compression. Commun. ACM 30(6), 520–540 (1987) 251. Wolf, L.: Essays in Jewish history. With a memoir by Cecil Roth (ed.). The Jewish Historical Society of England, London, UK (1934) 252. Ziegenbalg, J.: Elementare Zahlentheorie. Verlag Harri Deutsch, Frankfurt a. M. (2002) 253. Zimmermann, H.: OSI Reference Model–The ISO Model of Architecture for Open Systems Interconnection. Communications, IEEE Transactions on [legacy, pre - 1988] 28(4), 425–432 (1980) 254. Ziv, J., Lempel, A.: A universal algorithm for sequential data compression. IEEE Transactions on Information Theory 23, 337–343 (1977) 255. Zotter, H.: Die Geschichte des europ¨aischen Buchdrucks; Grundausbildung f¨ur den ¨ Bibliotheks-, Dokumentations- und Informationsdienst, 4. revidierte Aufl. Osterreichische Nationalbibliothek, Wien (1992) 256. Zuse, K.: Der Computer - Mein Lebenswerk. Springer, Berlin, Heidelberg, New York (1984)
Sachverzeichnis
¨ Atherkonzert, 60 ¨ Ubertragungsnetz, 94 ¨ Ubertragungswiederholung, 153 ¨ Uberlast, 159 ¨ Uberlaststeuerung, 154 ¨ Ubertragungsweg, 95 Abakus, 68 Abh¨oren, siehe Eaves Dropping Ablassbriefe, 37 Abtast-Theorem, 218 Abtastfrequenz, 217 Abtastung, 216 Abtastzyklus, 217 Acknowledgement, 152, 153 Acta Diurna, 41 ActionScript, 298 Adaption, 202 adaptive Transformation, 258 Adleman, Leonard M., 309, 328, 387 ADSL, 261 Advanced Encryption Standard, 323, siehe AES AES, 323, 325 AES/EBU, 222 AIFF-Format, 222 Aiken, Howard A., 71 Aischylos, 44, 369 Akkommodation, 202, 250 akustische Verdeckung, 226 Al-Haitham, Ibn, 54, 185, 372 Al-Khowarizmi, Abu Ja’far Mohammed Ibn Musa, 372 Alexander VI., 40, 89, 373 Alexandria, 29 Alias-Effekt, siehe Treppeneffekt Aliasing, 234, 299
Alice und Bob, 309 Alpha-Kanal, 199, 200, 299 Alphabet, 21, 88, 165, 166 Alternating Current, 205 Amontons, Guillaume, 45, 375 Amp`ere, Andr´e Marie, 48, 377 Amplitude, 214 analog, 88, 299 Analog-Digital-Wandlung, 215 Analytical Engine, 70 Andreesen, Marc, 83 Angriffe, 316 aktive, 313 passive, 313 Animation, 299 ANSI X3.102, 126 Anti-Aliasing, 299 Antwortzeit, 135 Application Layer, 145 Arago, Francois Dominique, 55, 378 Archer, Frederick Scott, 56, 379 Archiv, 29 Aristoteles, 54, 184, 185, 370 arithmetische Kodierung, 207, 210, 211 Armenbibel, 40 ARPA, 106 ARPANET, 77, 88 Artefakte, 182, 199, 206, 218, 224, 230, 236, 299 ASCII-Code, 170, 299 ASF, 297 Aspect Ratio, siehe Seitenverh¨altnis Assurbanipal, 29, 369 ATRAC, 244 AU-Format, 222 Audio, 163 Aufzeichnungsverfahren, 66
409
410 Augustus, 32, 371 Aurelianus, Lucius Domitius, 29, 371 Authentifikation, 312, 332, 353 Authentifikationsprotokoll, 332 Authentisierung, 332 Authentizit¨at, 130 Autorisierung, 313, 332, 353 Availability, siehe Verf¨ugbarkeit AVI, 297 Avicenna, 185, 250, 372 B-Frame, 265 Babbage, Charles, 70, 374, 378 Bacon, Roger, 185, 373 Baird, John Logie, 64, 383 Ballistik, 250, 374 Bandbreite, 105, 128, 135, 155 Bandwidth, siehe Bandbreite Bandwidth Negotiation, 248 Baran, Paul, 76, 106, 385 Barbier, Charles, 170, 377 Bardeen, John, 61, 72, 384 Barreto, Paulo, 345, 388 Basic Multilingual Plane, 175 Batchbetrieb, siehe Stapelbetrieb Baudot, Emile, 170, 380 Baudot-Code, 170 Bedrohung, 310 Bell, Alexander Graham, 50, 380 Bemer, Robert William, 171, 385 Bennet, James Gordon, 378 Benutzer-Authentifikation, 354 Berliner, Emil, 54, 381 Berners-Lee, Tim, 90 Bernstein, 47 Bernsteinstraße, 32 Best Effort, 130 Betriebsart, 96 Betriebsystem, 7 Bewegungskompensation, 257, 258 Bewegungsvektor, 263, 265 Bewegungsvorhersage, 258, 299 Bewegungswahrnehmung, 250 BGP, 150 Bi Sheng, 35, 372 Bibliographie, 29 Bibliothek, 29 Bibliothek von Alexandria, 28, 29 BIFS, siehe Binary Format for Scenes Bildaufl¨osung, 183 bildliche Darstellung, 21 Bildpunkt, siehe Pixel Bildwiederholrate, 299 Binary Format for Scenes, 281
Sachverzeichnis Bin¨arkodierung, 166 Bin¨arsystem, 69 Bioskop, 62 bit, 167 Bitfehlerrate, 117, 129, 156 Bitmapgrafik, 182, 299 Bitreservoir, 235 Bletchley Park, 322 Blindenschrift, siehe Brailleschrift blinder Fleck, siehe Papille Block Layer, 275 Blockbuch, 35, 88 Blockchiffre, 323, 357 Blockcodes, 120, 124, 169 Blu-ray Disc, 67, 246 Bluetooth, 99 BMP, siehe Basic Multilingual Plane Boole, George, 71, 379 Botenstaffetten, 31 Braille, Louis, 169, 170, 379 Brailleschrift, 169, 170 Brandenburg, Karlheinz, 234, 388 Branly, Eduard, 57, 380 Brattain, Walter House, 61, 72, 383 Brauchbarkeit, siehe Usability Braun, Karl Ferdinand, 58, 381 Braunsche R¨ohre, 64 Brieftauben, 33 Broadcast, 97, 102, 155 Bruch, Walter, 66, 251, 384 Brute Force, 315, siehe Exhaustive Search BSC, 143 BSD-UNIX, 80 Buchdruck, 34, 35 Buchstabieralphabet, 169 Burst, 106, 117, 133 Bus, 148 Bush, Vannevar, 162 B¨undelfehler, 124 C¨asar, Gaius Julius, 370 CA, siehe Certificate Authority Cailliau, Robert, 82, 365, 387 Camera Obscura, 54 Campillo, Francisco Salva y, 48 Canaletto, Antonio, 55, 376 Cascading Stylesheets, 366 Caxton, William, 373 CBS, 66 CCD, siehe Charge-Coupled Device CCIR/ITU-R BT.601, 203, 251, 253, 254, 269, 271 CD, siehe Compact Disc Cerf, Vinton, 78, 386
Sachverzeichnis CERN, 82, 83, 365 CERT, siehe Computer Emergency Response Team Certificate Authority, 347, siehe Zertifizierungsstelle, 354 CGI, siehe Common Gateway Interface Champolion, Jean Francois, 26, 378 Chappe, Claude, 45, 377 Charge-Coupled Device, 57 Chiffrat, 314, 356 Chiffre, 314 Chiffrierung, 169 Chosen-Cyphertext-Attacke, 329 Chosen-Plaintext Attacke, 316 Chroma, 187 Chroma-Subsampling, 204, 251 chromatische Aberration, 186 Chrominanz, 190, 203, 300 Chunks, 222 CIF, 254 Cin´ematograph, 62 Ciphertext, 314, 356 CMY, 188 CMYK, 189 Cobol, 72 Cocks, Clifford, 327, 387 Code, 156 pr¨afixfrei, 180 Codepoint, 174 Codewort, 119, 166 Colorimetrie, 186 Colossus, 72 Columbia University, 270 Common Gateway Interface, 367 Compact Disc, 6, 67 Computer, 7, 8 Computer Emergency Response Team, 81 Conditio humana, 22 ¨ Congestion, siehe Uberlast, 137, 159 ¨ Congestion Control, siehe Uberlaststeuerung Connection-Oriented Service, 115 Connectionless Service, 114 Conrad, Frank, 60 Constraint Parameter Set, 269 Convolutional Codes, siehe Faltungscodes Cracker, 5 CRC, siehe Cyclic Redundancy Check Cross, Charles, 53, 380 Cunningham, Ward, 387 Cursus publicus, 32 Customer Support, 4 Cyclic Redundancy Check, 122 Cyphertext-Only-Attacke, 316 C¨asar, Gaius Julius, 28, 41, 318
411 C¨asar-Chiffre, 318 d’Alembert, Jean le Rond, 82, 376 D-Frame, 266 DAB, 232 Daemen, Joan, 323, 389 Daguerre, Louis Jacques Mand´e, 55, 378 Daguerrotypie, 55 DARPA, siehe ARPA Data Corruption, 137 Data Dictionary, siehe W¨orterbuch Data Encryption Standard, siehe DES Data Link Layer, 143 Data Rate, siehe Datenrate Datagramm, 113 Datagramm Netzwerk, 113 Datenfern¨ubertragung, 156 Datenintegrit¨at, 311, 354 Datenpaket, 107 Datenpaketverlust, 153 Datenquelle, 95 Datenrate, 135, 156 Datensenke, 95 Datenverbund, 101 Datenverf¨alschung, siehe Data Corruption Daten¨ubertragung, 94, 157 Davies, Donald, 76, 106, 385 DCE, 94 DCT, 201, 204, 258, 264, 300 DDCMP, 143 de France, Henri, 252, 384 DECT, 225 Defragmentierung, 107, 154, 156 Dekorrelation, 258, 300 Delay, siehe Verz¨ogerung, siehe Laufzeit, 159 Denial-of-Service, 310, 354 DES, 323, 354 Description Definition Language, 293 Dezibel, 214 Dichte, siehe Bildaufl¨osung Diderot, Denis, 82, 376 Dieckmann, Max, 64, 383 Dienstgarantie, 129 Dienstg¨ute, 128 Difference Engine, 70 Differenzbild, siehe Frame Differencing, 300 Diffie, Whitfield, 327, 328, 386 Diffie-Hellman Verfahren, 354 Diffusion, 315 Diffusionsnetzwerk, 143, 148, 156, 311 digital, 15, 88, 300 Digital Divide, 13, 15 Digital Item, 293 Digital Rights Management, 5
412 Digital Versatile Disc, 67 Digital Video Broadcast, 269 digitale G¨uter, 4, 15 digitale Kluft, siehe Digital Divide digitale Kommunikation, 16 digitale Signatur, 337, 354 digitale Texte, 7 Digitalfotografie, 57 Digitalkamera, 387 DIN 44302, 94 DIN 66020, 94 DIN 66021, 94 Direct Current, 205 Direct Trust, 351 Directory Service, siehe Verzeichnisdienst Disconnect, 153 Diskrete Cosinus Transformation, siehe DCT diskrete Wavelet Transformation, 211 diskreter Logarithmus, 328 Distributed Denial-of-Service, 354 Dithering, 199, 300 Divide and Conquer, siehe Teile und Herrsche divide et impera, siehe Teile und Herrsche DNS, siehe Domain Name Service DNS-Poisoning, 312, 354 Dolby AC1–AC3, 246 Dolby Digital Plus, 246 Domain Name Service, 152, 364 Dotcom-Blase, 2, 16, 85 Double Speak, 237 Downsampling, 204 DPCM, 257 dpi, 183 Dreifarbentheorie, 186 Dreißigj¨ahriger Krieg, 43 DRM, siehe Digital Rights Management DTE, 94 Dun-Huang, 34 Durchsatz, 128, 135, 156 DVB, 232, siehe Digital Video Broadcast DVD, siehe Digital Versatile Disc E-Business, siehe Electronic Business E-Commerce, siehe Electronic Commerce, 84 E-Mail, 7, 77 E-Procurement, siehe Electronic Procurement Eastman, George, 56, 381 Eaves Dropping, 311, 357 EBCDIC-Code, 172, 300 eBook, 7 Echtfarben, 163 Eckert, John P., 72, 385 Edgeworth, Richard Lovell, 45, 376 Edison, Thomas Alva, 53, 61, 380
Sachverzeichnis Einweg-Chiffre, 319 Einweg-Hashfunktion, 343 Einwegfunktion, 343, 354 Einzelbitfehler, 120 Electronic Business, 2, 16 Electronic Commerce, 2, 16, 308 Electronic Procurement, 2, 16 Elektrizit¨at, 47 elektromagnetische Wellen, 57 Elektromagnetismus, 171 ElGamal, 328 Ellis, James H., 327, 385 Empf¨anger, 10 Endsystem, 96 Engelbart, Douglas C., 82, 83, 385 ENIAC, 72 Enigma, 71, 318 Entropie, 167, 171 Entropiekodierung, 171, 206, 210, 258 Entwicklungskosten, 5 Envelope, siehe H¨ullkurve Enzyklop¨adie, 82 Eve, 309 Exhaustive Search, 315 Exif, 208 Faktorisierungsproblem, 331 Fallt¨urfunktion, 343, 357 Faltungscodes, 124 Fano, Robert M., 180, 385 Fano-Bedingung, 180 Faraday, Michael, 50, 378 Farbenlehre, 186 Farbfernsehen, 252 Farbkreis, 186 Farbmessung, siehe Colorimetrie Farbmodell, 184, 300 additiv, 184 subtraktiv, 185 Farbnormtafel, 187 Farbpalette, 163, 183, 196, 256 Farbtemperatur, 184 Farbtiefe, 183, 301 Farbton, 189 fehlererkennender Code, 156 Fehlererkennung, 153 Fehlerkorrektur, 124, 153 fehlerkorrigierender Code, 156 Fehlerrate, 129, 156 Fernrohr, 45 Fernsehen, 7, 63 Fesseden, Reginald Aubrey, 59, 382 FFT, siehe Fourier-Transformation Fields, Cyrus W., 50, 379
Sachverzeichnis File Transfer Protocol, 77 Film, 7, 61 Filterbank, 301 Fingerabdruck, siehe Message Digest FireWire, 99 Flash Video, 297 Flimmerfusion, 249 Flow Control, siehe Flusssteuerung Flugblatt, 41, 88 Flugschrift, 42, 88 Flusssteuerung, 154, 156 Fl¨ugeltelegraf, siehe Semaphor Forest, Lee De, 59, 382 Fortran, 72 Fotografie, 54 Fourier, Jean-Baptiste Joseph Baron de, 377 Fourier-Transformation, 205 Fovea, 202 Fovea Centralis, 250 Fox, William, 63 Fragmentierung, 107, 154, 156 Frame Differencing, 257, 259 Frame Rate, 299 Frankfurter Messe, 38 Franz I., 29, 374 Frequenz, 213, 214 Frequenz-Subb¨ander, 232 Frequenzspektrum, 215 FTP, 151 Funkerspuk, 60 Funktelegrafie, 57 Funktionsverbund, 101 Fust, Johannes, 37, 373 Fußboten, siehe Hemerodrome Gammakorrektur, 200, 301 Gamut, 188 GAN, 100 Gapless Playback, 245 Gates, Bill, 74, 388 Gauss, Carl Friedrich, 48, 378 Geburtstagsparadoxon, 346 Geheimhaltung, 311 Gelatine-Trockenverfahren, 56 Generationsverluste, 208, 230 genetischer Stammbaum, 22 GIF, siehe Graphic Interchange Format GIF - Graphic Interchange Format, 301 animated, 199 Ginsburg, Charles P., 67, 385 Global Positioning System, 86 Glyphen, 174 Goethe, Johann Wolfgang v., 19, 186, 376 Goldstine, Herman H., 72, 384
413 Google, 87 GoP, siehe Group of Pictures GPS, siehe Global Positioning System Grafik monochrom, 163 Grammatik, 10, 27, 88 Grammophon, 54 Graphic Interchange Format, 193 Gray, Elisha, 51, 380 Gray, Stephen, 47, 376 Gregor II., 40, 372 Grotefend, Georg Friedrich, 25, 378 Group of Pictures, 262, 273 Gutenberg, Johannes Gensfleisch zum, 35, 373 H.261, 296 H.263, 296 H.263+, 296 H.264, 286, 296 Hacker, 5 Halbduplex-Betrieb, 98 Halbleiter, 61 Hamming, Richard Wesley, 119, 384 Hamming-Abstand, 119, 157 Hamming-Code, 121 Handhabbarkeit, 127 Hangul, 173 Hartley, Ralph, 167, 383 Harvard Mark I, 71 Hashfunktion, 340, 342 Hauron, Louis Ducas Du, 380 HD DVD, 67 HDLC, 143 HDMAC, 254 HDTV, 66, 67, 246, 253, 261, 279 Heliographie, 55 Hellman, Martin, 327, 328, 387 Helmholtz, Hermann von, 186, 379 Helmholtz-Koordinaten, 187 Hemerodrom, 32 Henneberg, Berthold von, 38, 373 Herder, Johann Gottfried, 22, 376 Herodot, 32 Hertz (Hz), 214 Hertz, Heinrich, 57, 214, 381 Hierarchical Trust, 353 Hieroglyphen, 25 High Density DVD, siehe HD DVD Hochdruck, 35, 88 Hollerith, Hermann, 70, 381 Holzschnitt, 35, 88 Homo Surfiens, 20 Homonym, 21, 89 Hooke, Robert, 45, 375
414 Host, 96 HSV, 189 HTML, 366 HTTP, 152 Hue, 187, 189 Huffman, David A., 180, 385 Huffman-Kodierung, 180, 207, 258, 268, 301 Hughes, David Edward, 49, 380 Hugo, Victor, 40 Hybrid-Verschl¨usselungsverfahren, 330 HyperCard, 82 Hyperlink, 82 Hypertext, 82 H¨ohlenmalerei, 20 H¨orfeld, 226, 228, 301 H¨orfl¨ache, siehe H¨orfeld H¨orschwelle, 214, 228 H¨ullkurve, 214 I-Frame, 264 Ibn Sina, siehe Avicenna IC, siehe integrierter Schaltkreis ICMP, 149 ID3-Tag, 240 IDCT, 204 IDEA, 323 Identifikation, 355 Ideogramm, 21, 89 IEEE 802, 149 IGMP, 150 Illuminieren, 89 Immersion, 249 IMP, siehe Interface Messaging Processor Impetustheorie, 250 Imprimatur, 40, 89 Index librorum prohibitorum, 40, 383 Information, 164, 167 Informationsgesellschaft, 4 Infraschall, 228 Inkunabel, 37, 89 Innozenz VIII., 40, 89, 373 Instant Messaging, 7 integrierter Schaltkreis, 72 Integrit¨at, 130 Intensity Stereo, 234, 236 Inter-Frame, siehe P-Frame Interface, siehe Schnittstelle Interface Message Processor, 76 Interferenz, 137 Interframe-Encoding, 255 Interjektion, 23 Interlace Technik, 198, 251, 301 Interlacing, siehe Interlace Technik
Sachverzeichnis International Standardization Organisation, siehe ISO International Telegraph Code, 170 Internet, 7, 8, 16, 89, 96 Netzverbund, 78 Internet Economy, 2 Internet Protocol, 144, 149 Internet-Radio, 7 Internetanwendungen, 363 Internetschicht, 149 Internetworking, 9, 77, 361 Internetwurm, 80 Intraframe-Encoding, 255 Inverse Diskrete Cosinus Transformation, siehe IDCT IP-Spoofing, 312, 333, 355 IrDA, 99 Irrelevanzreduktion, 201, 226 ISDN, 296 ISO, 27 ISO/IEC 8859-Kodierung, 172 ISO/OSI-Referenzmodell, 142 Isophone, 228 Jacquard, Joseph Marie, 69, 377 Janet, Paul, 66, 381 Jenkins, Charles Francis, 64, 382 JFIF, 201, 208 Jitter, 128, 157 Jobs, Steve, 74, 388 Joint Photographic Expert Group, 200 JPEG, 200, 301 JPEG File Interchange Format, siehe JFIF JPEG2000, 211 julianischer Kalender, 41 Kahn, Robert, 78, 386 Kalender, 41, 44 Kalotypie, 56 Kanal, 222 Karolus, August, 64, 383 Kathodenstrahlr¨ohre, 182 Kaufmannsboten, 32 Keilschrift, 24 Kepler, Johannes, 68, 374 Kerberos, 348 Key Distribution Center, 347 Key Frame, 257 Keyframe Animation, 257 Kilby, Jack St. Clair, 72, 385 Kinematograph, 61 King, Augusta Ada Countess of Lovelace, 70, 379 Kintop, 62
Sachverzeichnis Kircher, Athanasius, 54, 375 Klartext, 314, 356 Kleinrock, Leonard, 76, 106, 385 Klosterboten, 33 Known-Plaintext Attacke, 316 Kodak, 56 Kodierung, 164, 166, 169, 217 Koh¨arer, 58 Kollision, 342 Kollodium, 56 Kollodium-Naßverfahren, 56 Kolophon, 89 Kommunikation, 9, 14, 16, 89, 93 Kommunikationskanal, 10 Kommunikationskosten, 4 Kommunikationsmedium, 94, 157 Kommunikationsnetz geschlossenes, 308 offenes, 308 Kommunikationsprotokoll, 9, 12, 16, 94, 136, 157, 361 Kompatibilit¨at, 127 Komplement¨arfarbe, 187, 301 Kompressionsrate, 302 Komprimierung, 166, 302 adaptive, 178 asymmetrische, 178 logische, 177 nichtadaptive, 178 physikalische, 177 semantische, 177 semiadaptive, 178 symmetrische, 178 syntaktische, 177 verlustbehaftete, 178 verlustfreie, 178 Komprimierungsverfahren, 177 Konfusion, 316 Kontaktkopie, 56 Kontext, 165 Kopierschutz, 5 Kotelnikow, Vladimir, 218, 384 Kratinos, 369 Kratylos, 27 Kryptoanalyse, 314, 316, 355 Kryptografie, 15, 313, 317, 355 starke, 315 Kryptografieverfahren, 355 Kryptokomplexit¨at, 315 Kryptologie, 314, 355 Kryptosystem, 315 Kunz, Paul, 82 Kyros II., 32, 369 K¨orperfarben, 184
415 LAN, 99 LAPB, 143 LAPD, 143 LASeR, 282 Lastverbund, 101 Laufl¨angenkodierung, 179, 191, 256, 268 bit-level, 191 byte-level, 191 pixel-level, 192 Laufzeit, 135 Laufzeitverz¨ogerung, 132 Lauredan, Leonardo, 42, 374 Lautst¨arke, 214 Lawineneffekt, 316 Layering Model, siehe Schichtenmodell Lee, Tim Berners, 82, 365, 388 Leibniz, Gottfried Wilhelm von, 68, 375 Leistung, 128 Leistungskenngr¨oßen, 125 Leistungsschwankungen, 128 Leitmedium, 68 Leitungsvermittlung, 105, 157 Lempel, Abraham, 192, 386 Leo III., 40, 372 Leo X., 40, 374 Lichtfarben, 184 Lichttonverfahren, 62 Licklider, Joseph Carl Robnett, 76, 384 Lieben, Robert von, 59, 382 Linear B, 26 lineare Pr¨adiktion, 226 Linotype-Setzmaschine, 44 Lipperhey, Jan, 45, 374 LLC, 143 Lochkamera, 54 Lochkarte, 69 Lochkartenz¨ahlmaschine, 70 Logical Link Control, 148 Longitudinal Redundancy Check, 120 Lumi`ere, Auguste und Louis Jean, 62, 381 Luminanz, 190, 203, 302 Luther, Martin, 37, 374 Lysander, 370 LZ77, 192 LZ78, 192 LZW-Komprimierung, 192, 302 MAC, 143 Macro Block Layer, 275 Maddox, Richard Leach, 56, 379 Magnetaufzeichnungstechnik, 66 Majuskel, 88 Makroblock, 262 Makula, 202
416 Mallet, siehe Mallory Mallory, 309 MAN, 100 Man-in-the-Middle-Attacke, 329, 336, 355 Manageability, siehe Handhabbarkeit Marci, Marcus, 185, 375 Marconi, Guglielmo, 57, 382 ´ Marey, Etienne Jules, 61, 379 Markupsprache, 292 Marvin, siehe Mallory Maskierung, 302 Massengut, 5 Massenpresse, 44 Mauborgne, Joseph, 319, 382 Mauchly, John W., 72, 384 Maximilian I., 33, 374 Maxwell, James Clerk, 57, 186, 214, 380 McLuhan, Marshall, 384 MD4, 345 MD5, 342, 345, 355 MDCT, 302 Media Access Control, 148 Media Objects, 281 Medien zeitabh¨angige, 164 zeitunabh¨angige, 164 Medientyp, 162 Medium, 16, 89 Meet-in-the-Middle-Attacke, 324 Mehrfachprogrammbetrieb, 73 Mehrkanalton, 221 Mehrprozessorsysteme, 99 Meinel, Christoph, 388 Memex, 82, 162 Menschenaffen, 22 Merkle, Ralph, 345, 388 Mersenne, Marin, 331, 375 Message Authentication Code, 343 Message Digest, 340, 342, 355 Message Switching, 108 Metadaten, 208, 231, 291 Metcalfe, Robert, 387 Metzgerboten, 32 Mid/Side-Stereo, 236 MIDI, 223, 302 Mikroprozessor, 74 MILNET, 78 MIME, 364 Mindestabtasth¨aufigkeit, 217 Minicomputer, 72 Minuskel, 88 Modem, 77 modulare Arithmetik, 318 Modulation, 219
Sachverzeichnis monoalphabetische Chiffre, 319 monochromatisches Licht, 186 monophone Audiowiedergabe, 221 Moore, Gordon, 8 Mooresches Gesetz, 8 Morse, Samuel, 48, 171, 378, 379 Morse-Code, 169, 171 Motion Compensation, siehe Bewegungskompensation Motion Prediction, siehe Bewegungsvorhersage Motion Vector, siehe Bewegungsvektor MP2, 234 MP3, 232, 234, 302 mp3PrO, 247 MPEG, 230, 231, 302 Datenformat, 273 MPEG-1, 231 MPEG-2, 241, 269 Paketstrom, 276 Transportstrom, 277 MPEG-2 AAC, 242 MPEG-2.5, 242 MPEG-21, 293 MPEG-3, 279 MPEG-4, 280 Interaktion, 286 MPEG-4 AAC, 243 MPEG-4 AVC, 280, 286, 296, 298 MPEG-4 Part 10, siehe MPEG-4 AVC MPEG-4 TwinVQ, 247 MPEG-7, 287 MPEGplus, 248 MTP, 151 Multicast, 97, 102, 157 Multimedia, 12, 16, 162, 303 Multimedia Content Description Interface, 287 Multimedia-Retrieval, 289 Multiplexing, 154 inverses, 155 statistisches, 108 Munsell, Albert Henri, 187, 381 Murray-Code, 170 Museion, 29 Musepack, siehe MPEGplus MUSICAM, 234 Musik, 7 Musiktauschb¨orse, 235 Musschenbroek, Petrus van, 47, 376 M`eli´es, George, 62 Nachricht, 9, 93, 165, 166 Nachrichtendienst, 41 Nachrichtenraum, 166
Sachverzeichnis Nachrichtenverbund, 101 Nachrichtenvermittlung, 157 Napier, John, 68, 374 Napoleon Bonaparte, 26, 33, 46, 377 Napster, 235 National Science Foundation, 78 Nelson, Ted, 82, 83, 386 Net Economy, siehe Internet Economy Network Congestion, 137 Network Control Protocol, 78 Network Layer, 144 Netzhaut, siehe Retina Netzhauttr¨agheit, 61, 63, 89, 249, 303 Netzknoten, 96 Netzumlaufzeit, 135 Netzwerk, 157, 158 o¨ ffentliches, 102 privates, 102 Netzwerkadapter, 362 Netzwerkeffekt, 5, 16 Netzwerkstau, siehe Network Congestion Netzzugangsschicht, 147 Neumann, John von, 72, 383 New Economy, 84 Newton, Isaac, 50, 186, 375 Nickelodeon, 62 Niepce, Nic´ephore, 55, 377 Nipkow, Paul, 64, 381 Nipkowscheibe, 64 Nonce, 334, 355 Nouvellanten, 41 NSFNET, 76 NTSC, 66, 251, 252, 254, 269 Nur-Ed Din, 33, 373 Nyquist, Harry, 218, 383 Nyquist-Shannon-Abtasttheorem, siehe Abtast-Theorem O’Reilly, Tim, 87, 388 Obert¨one, 215 Oerstedt, Hans Christian, 48, 171, 378 offene Systemarchitektur, 9 Offline-Transaktion, 4 Ogg Vorbis, 247 Omar von Damaskus, 29, 372 One-Way Hash Function, siehe EinwegHashfunktion Onomatopoetika, 23, 89 Ontologie, 87, 368 Open Network Architecture, 81 Orakelknochen, 26 Oscar, 309 OSI, 142 OSPF, 150
417 P-Frame, 265 Packet Delay, 137 Packet Loss, 137 Packet Radio Network, 77 Packet Switching, siehe Paketvermittlung Packet-Sniffer, 311, 333, 356 Pagnierung, 38 Paketfilter, 355 Paketheader, 157 Paketverlust, 133, siehe Packet Loss Paketvermittler, 103 Paketvermittlung, 76, 103, 106, 158 PAL, 191, 251, 252, 254, 269 PAN, 99 Panini, 27, 369 Papier, 30 Papille, 202 Papyrus, 30 Parabel, 250 Parallelrechner, 99 Parit¨atsbit, 120, 153 Pascal, Blaise, 68, 375 Passwort, 333 Paul VI, 383 Paulskirchenverfassung, 44 PCM, 90, 217, 303 differentielle, 220 dynamische, 219 lineare, 219 PDA, 99 Pergament, 30, 89 Permutations-Chiffre, siehe TranspositionsChiffre persistente Verbindung, 116 Personal Digital Assistant, siehe PDA Personalcomputer, 74 Petroglyphen, 20, 90 Pfleumer, Fritz, 66, 383 PGP, 152, 356 Phaedros, 28 Phasenmodulation, 252 Pheidippides, 32 Phon, 228 Phonogramme, 21 Phonograph, 53 Photoeffekt, 62, 90 Physical Layer, 143 Picture Layer, 274 Piggy Pack Acknowledgement, 152 Piktogramm, 21, 24, 25, 90, 163 Pixel, 182, 303 Pixel Aspect Ratio, 183 Plaintext, 314, 356 Platon, 27, 28, 370
418 Playback-Angriff, 333, 355, 356 Plotter, 182 Plugin, 364 Plutarch, 371 PNG, 199 PNG-Format, 196 Pollo, Marcus Vitruvius, 50, 371 Polo, Marco, 34, 373 polyalphabetische Chiffre, 319 Polybios, 45, 370 Polynomialcode, 122, 158 Popow, Alexander Stephanowitsch, 57, 381 Portable Network Graphics, siehe PNG Postel, Jon, 386 Postkurs, 33 Pragmatik, 10 Pre-Echo, 237 predictive Coding, 227 Preimage Resistance, 343 Presentation Layer, 145 Pressefreiheit, 44 Pretty Good Privacy, 352 Prim¨arfarben, 185 Prisma, 185 Privacy, siehe Vertraulichkeit Privatsph¨are, 311 Programm-Strom, 276 Processing Delay, 131 Programmiersprachen, 73 progressiver Download, 298 Promiscous Mode, 312 Propagation Delay, 131, 132 Protocol Stack, siehe Schichtenmodell Protocol Suite, siehe Protokollfamilie Protokoll, siehe Kommunikationsprotokoll Protokoll-Software, 136 Protokollfamilie, 136, 158 Protokollfunktionen, 152 ¨ Ubertragungsleistungsanpassung, 154 Datenverkehr, 152 Fehlerbehandlung, 153 L¨angenanpassung, 153 nutzerbezogene Funktionen, 155 Systemleistungsanpassung, 154 Verbindungsverwaltung, 153 Protokollstapel, siehe Schichtenmodell Pr¨ufbit, 121 Pr¨ufsumme, 117 Pr¨ufsummenverfahren, 122, 153, 158 Psychoakustik, 227, 303 psychoakustisches Modell, 227 Ptolem¨aus von Alexandria, 61, 371 Public Key Encryption, 327, 353 Public Key Infrastruktur, 347, 356
Sachverzeichnis Public-Key-Only-Attacke, 329 Pulsecodemodulation, 67, siehe PCM Punkt-zu-Punkt Verbindung, 96, 103, 158 Pupille, 202 Puppin, Michael Idvorsky, 381 Purpurlinie, 187 QAM, 252 QCIF, 254 Quality of Service, siehe Dienstg¨ute, 158 Quantisierung, 206, 217, 303 Quantisierungsfehler, 217 Quantisierungsrauschen, 235 Queueing Delay, 131 QuickTime, 297 Quittierungsverfahren, siehe Acknowledgement Radiotechnik, 57 Ramses II., 29, 369 Rastergrafik, siehe Bitmapgrafik Rate Control, 154 Rauch- und Feuerzeichen, 44 RDP, 151 RealVideo, 298 Rebus, 21 Rechenmaschine, mechanische, 68 Rechenschieber, 68 Rechner-Cluster, 99 Rechnernetz, 94, 158 Redundanz, 117, 159, 166, 303 Redundanzreduktion, 201 Reeves, Alec A., 67, 217, 383 Reibungselektrizit¨at, 369 Reihenfolge-Erhaltung, 129, 153 Reis, Phillip, 50, 380 Relevanzreduktion, 256 Remote Procedure Call, 152 Response Time, siehe Antwortzeit Restfehlerwahrscheinlichkeit, 129 Retina, 61, 202, 250 Retrieval, 289 Reuters, 33, 49 RFC, 356 RFC 1122, 146 RFC 1320, 345 RFC 1321, 342, 345 RFC 1422, 354 RFC 1510, 348 RFC 2070, 177 RFC 2077, 177 RFC 2083, 200 RFC 2267, 333 RFC 4634, 343
Sachverzeichnis RGB, 188, 203, 251 Rhodopsin, 202 Ries, 30 RIFF-Format, 222 Rijmen, Vincent, 323, 345, 389 Rijndael, 323, 325 RIP, 151 RIPEMD-160, 345 Ritzsch, Timotheus, 43, 375 Rivest Cipher, 323 Rivest, Ronald, 309, 328, 345, 355, 387 RLE, 302 Roberts, Lawrence, 76, 77, 386 Robustheit, 127 Rosing, Boris Iwanowitsch, 64, 382 Rotationsmaschine, 44 Rothschild, Nathan, 33, 378 Rotor-Chiffre, 318, 320 Round Trip Time, siehe Netzumlaufzeit Router, 103 Routing, 96, 107, 159, 363 RSA, 328, 330, 356 RSA-Problem, 331 RSVP, 150 RTMP, 298 RTSP, 298 Rudolf II. von Habsburg, 34, 374 Rufpostenketten, 31 Run-Length Encoding, siehe Laufl¨angenkodierung, siehe Laufl¨angenkodierung Rundfunk, 59, 60 S/PDIF, 222 S¨ommering, Samuel Thomas von, 377 Sack, Harald, 389 Salt, siehe Nonce Salva Y Campillo, Francisco, 376 Sampling, 90, 204, 216, 303 Sampling-Theorem, siehe Abtast-Theorem Samplingrate, 217 Sandbox, 367 Sarnoff, David, 59, 64, 383 Sasson, Steven, 57, 387 Saturation, 189 Scalability, siehe Skalierbarkeit Schalenmodell, 139, 159 Schall, 50, 213 Schalldruckpegel, 214 Schallplatte, 7 Schallwellen, 304 Scherbius, Arthur, 321, 382 Schichtenmodell, 137, 139, 158, 159 Schickard, Willhelm, 68, 375 Schiffsfunk, 58
419 Schl¨ussel, 314, 315, 356 Schl¨usselmanagement, 322 Schmetterlingseffekt, 316 Schnellpresse, 44 Schnittstelle, 94, 159 Schrift, 20 Schulze, Heinrich, 55, 376 Schwarzk¨orperstrahlung, 184 Schwingkreis, 58 Schwingungszahl, siehe Frequenz Seamless Playback, siehe Gapless Playback SECAM, 66, 252 Second-Channel-Kommunikation, 336 Secret Key Encryption, 322, 357 Secure Hash Algorithm, siehe SHA-1 Sehpigment, siehe Rhodopsin Seidenstraße, 32 Seitenverh¨altnis, 183 Sekund¨arfarben, 185 Selbstlumineszenz, 189 Semantic Web, 87, 90 Semantik, 10, 17, 90, 165, 166, 304 Semaphor, 45, 377 Sender, 10 Sequence Layer, 273 Sequenznummer, 153 Serapeion, 29 Session Layer, 144 SHA-1, 342, 343 Shamir, Adi, 309, 328, 388 Shannon, Claude Elwood, 10, 165, 218, 303, 384 Shockley, William, 61, 72, 384 Shoenberg, Sir Isaac, 66, 382 Sicherheit, 159 Sicherheitsverbund, 101 Sicherheitsziele, 309, 310 sieben freie K¨unste, 27 Signal, 215 Signal-to-Mask Ratio, 228 Signal-to-Noise Ratio, 228 Simple Mail Transfer Protocol, 364 Simplex-Betrieb, 96 Simulatorkrankheit, 249 SIP, siehe Supplementary Ideographic Plane Skalierbarkeit, 127 Skalierung der Pixeldichte, 270 Skladanowsky, Emil und Max, 62, 381 Skytale, 318 Slice, 262 Slice Layer, 275 SMP, siehe Supplementary Multilingual Plane SMS, 336
420 SMTP, 151, siehe Simple Mail Transfer Protocol SND-Format, 222 SNEFRU, 345 SNR, 304 SNR-Skalierung, 270 Social Tagging, 291 Sokrates, 28, 370 Speaking Machine, siehe Phonograph Spectral Coding, 227 Speichervermittlung, 107 SPIFF, 208 Sprache, 20, 22, 90 Sprachentstehung, 22 Spracherwerb, 24 Sprachkodierung, 225 Sprachphilosophie, 361 Sprachstammbaum, 22 Sprachwissenschaft, 22 Sprachzentrum, 22 Sprite, 282, 286, 304 SSP, siehe Supplementary Special-Purpose Plane Standleitung, 102 Stapelbetrieb, 73 Star Trek, 80 starke Kryptografie, 356 statistische Kodierung, siehe Entropiekodierung Steganografie, 357 Stein von Rosette, 26 Stereoeffekt, 221 stereophone Audiowiedergabe, 221 Stille, Kurt, 66, 382 Store-and-Forward, siehe Speichervermittlung, 111 Streaming, 247, 304 Streuwertfunktion, siehe Hashfunktion Stroboskop, 61 Stromchiffre, 323, 357 Strowger, Almon Brown, 52, 380 St¨abchen, 202 St¨orsicherheit, 119 Sub-Band Coding, 227 Subsampling, 251, 262, 304 Substitution, 317 Substitutions-Chiffre, 318 Substitutionsattacke, 346 Sueton, 318, 371 Supplementary Ideographic Plane, 175 Supplementary Multilingual Plane, 175 Supplementary Special-purpose Plane, 175 Symbolschrift, 20 SYN-Flooding, 310
Sachverzeichnis Synonym, 90 Syntax, 10, 165, 166 S¨ommering, Samuel Thomas von, 48 Tagged Image File Format, siehe TIFF Talbot, William Fox, 56, 379 Talmud, 82 Tappeur, 62 Tartaglia, Niccolo, 250, 374 Taxis, Franz von, 33 TCP, 144, 150, 334 TCP/IP, 78, 146 TCP/IP-Referenzmodell, 362 TDM, siehe Time Division Multiplexing Teile und Herrsche, 139 tele-TASK, 298 Telefon, 51 Telefonnetzwerk, 105 Telegraf, 48 Telnet, 151, 333 Terti¨arfarben, 185 Tertullianus, Quintus Florens Septimius, 88, 371 Text, 162 Textkodierung, 168 Textkomprimierung, 177 Texturen, 304 Thales von Milet, 47, 369 Thamus, 28 Theodosius I., 29, 371 Theophilus, 371 Theophilus von Alexandria, 29 Thot, 28 Throughput, siehe Durchsatz Thukydides, 44, 370 Thumbnail, 203 Thun, Friedemann, 11, 386 Ticker, 49 TIFF, 196 TIGER, 345 Time Division Multiplexing, 108 Timeout, 153 Timesharing Systeme, 106 Titanic, 58 Titelblatt, 38 TLS, 357 Tomlinson, Ray, 77, 386 Tonbandger¨at, 66 Tonh¨ohe, 214 Tontafel, 28 Topologie, 96, 159 TRADIC, 72 Transaktionsanbahnungskosten, 4 Transaktionskosten, 4
Sachverzeichnis Transform Coding, 227 Transformationsfunktion, 314, 356 Transistor, 61, 72 Translation Table, siehe W¨orterbuch Transmission Delay, 131, 132 Transport Layer, 144, 150 Transport-Strom, 276 Transposition, 317 Transpositions-Chiffre, 318 Trapdoor Funktion, siehe Fallt¨urfunktion Treppeneffekt, 182 trichromatisches Sehen, siehe Dreifarbentheorie Triode, 59 Triple-DES, 324, 354 Trommelspeicher, 73 Trommeltelegrafie, 31 Trudy, 309 Truncation, 256 Trust Center, 347, siehe Zertifizierungsstelle Trusted Intermediary, 347 Trusted Third Party, 347 Turing, Alan, 321, 384 Tykocinski-Tykociner, J`ozef, 62, 382 T¨urkenkalender, 37 UCS, siehe Universal Character Set UDP, 150 UHDV, 254 Ultraschall, 228 Unicast, 97 Unicode, 162, 173, 304 UNIVAC I, 72 Universal Character Set, 173 Universit¨atsboten, 32 UNIX, 80 Unterabtastung, 218, siehe Subsampling Uplink, 99 URI, 295 Ursprache, 22 Usability, 127 USB, 99 Vail, Alfred, 48, 171, 379 Value, 187 variable Bitrate, 236, 238 Vegetius Renatus, 45, 372 Vektorgrafik, 182, 305 Venedig, 41 Verbindlichkeit, 130, 312 verbindungsloser Dienst, 114 verbindungsorientierter Dienst, 115 Verf¨ugbarkeit, 127, 130, 310 Vergenz, 250
421 Verkehrsarten, 97 Vernam, Gilbert, 319, 383 Vernetzung direkt, 100 indirekt, 100 Verschl¨usselung asymmetrische, 327, 353 symmetrische, 317, 322, 357 Versendeverz¨ogerung, 132 verteilte Systeme, 100 Vertical Redundancy Check, 120 Vertrauensmodelle, 351 Vertraulichkeit, 130, 311, 357 Vervielf¨altigungskosten, 5 Verzeichnisdienst, 364 Verz¨ogerung, 105, 128, 159 VGA, 252 Video-Podcast, 280 Videoschnitt, 265 Videosignal, 249 Vign´ere, Blaise de, 319, 374 Vign´ere-Chiffre, 319 Vinci, Leonardo da, 68, 373 Virtual Circuit, siehe virtuelle Verbindung Virtual Private Network, 102, 159 Virtualit¨at, 4, 12 virtuelle Verbindung, 113, 160 VMTP, 151 Vogt, Hans, 63 VoIP, 225 Vokale, 26 Volksempf¨anger, 61 Vollduplex-Betrieb, 98 Vollst¨andigkeit, 129 Volta, Alessandro, 47, 376 Vorrangdatenverkehr, 152 Vox-Haus, 60 VPN, siehe Virtual Private Network, 159 VRML, 288 W3C, 84 W¨ahlverbindung, 102 WAN, 100 Warteschlange, 131 Warteschlangenverz¨ogerung, 133 WAVE-Format, 222 Wavelet-Komprimierung, 305 Web 2.0, 87, 90 Web of Trust, 352 Weber, Willhelm, 48, 379 Weblogs, 7 Webstuhl, 69 Wedgewood, Thomas, 55, 377 Weizenbaum, Joseph, 385
422 Weißpunkt, 187 Welch, Terry, 192, 386 Whing, Kung-Foo, 45, 372 WHIRLPOOL, 345 Whittaker, John M., 218, 384 Williamson, Malcolm, 327 WKS-Sampling-Theorem, siehe AbtastTheorem WMA, 248 WMF, 297 World Wide Web, 8, 17, 81, 90 World Wide Web Consortium, siehe W3C Wozniak, Stephen, 74, 387 WPAN, 99 WWW-Server, 90 W¨orterbuch, 192 w¨orterbuchbasierte Kodierung, 305 XML, 292, 295 Xylographie, siehe Holzschnitt YCbCr, 191 YIQ, 191
Sachverzeichnis Young, Thomas, 186, 377 Yovisto.com, 389 YUV, 190, 204, 251 Zapfen, 202 Zeichen, 22, 91, 165, 305 Zeichenkette, 165 Zeilensprungverfahren, siehe Interlace Technik Zeitungswesen, 41 Zeit¨uberwachung, 153 Zensur, 38 Zertifikat, 357 Zertifizierungsstelle, 350 Zif, Jacob, 192, 385 Ziliarmuskel, 202 Zimmermann, Phil, 356, 387 Zufallsprozess, 133 Zuse Z1, 71 Zuse Z3, 71 Zuse, Konrad, 71, 384 Zuverl¨assigkeit, 129 Zwischensysteme, 96, 362 Zworykin, Vladimir K., 64, 383