Martin Werner Nachrichtentechnik
Aus dem Programm
Nachrichtentechnik
Einführung in die Systemtheorie von B. Girod, ...
140 downloads
1926 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Martin Werner Nachrichtentechnik
Aus dem Programm
Nachrichtentechnik
Einführung in die Systemtheorie von B. Girod, R. Rabenstein und A. Stenger Information und Kommunikation von M. Hufschmid Nachrichtenübertragung von K. D. Kammeyer Digitale Signalverarbeitung von K. D. Kammeyer und K. Kroschel Grundlagen der Informationstechnik von M. Meyer Kommunikationstechnik von M. Meyer Signalverarbeitung von M. Meyer Digitale Kommunikationssysteme 1 und 2 von R. Nocker Signale und Systeme von R. Scheithauer Digitale Sprachsignalverarbeitung von P. Vary, U. Heute und W. Hess Mobilfunknetze und ihre Protokolle 1 und 2 von B. Walke Grundlagen der Kommunikationstechnik von H. Weidenfeller Information und Codierung von M. Werner Digitale Signalverarbeitung mit MATLAB® von M. Werner Digitale Signalverarbeitung mit MATLAB®-Praktikum von M. Werner Nachrichten-Übertragungstechnik von M. Werner Signale und Systeme von M. Werner Digitale Audiosignalverarbeitung von U. Zölzer
www.viewegteubner.de
Martin Werner
Nachrichtentechnik Eine Einführung für alle Studiengänge 6., verbesserte Auflage Mit 235 Abbildungen und 40 Tabellen STUDIUM
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
1. Auflage 1998 2., überarbeitete und erweiterte Auflage 1999 3., vollständig überarbeitete und erweiterte Auflage 2002 4., überarbeitete und erweiterte Auflage 2003 5., vollständig überarbeitete und erweiterte Auflage 2006 6., verbesserte Auflage 2009 Alle Rechte vorbehalten © Vieweg +Teubner | GWV Fachverlage GmbH, Wiesbaden 2009 Lektorat: Reinhard Dapper | Andrea Broßler Vieweg+Teubner ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.viewegteubner.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: Krips b.v., Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Printed in the Netherlands ISBN 978-3-8348-0456-3
V
Zum Andenken an
Prof. Dr.-Ing. Dr. h. c. mult. Hans-Wilhelm Schüßler „Die Aufgabe der Nachrichtenübertragung wird bei vordergründiger Betrachtung durch dieses Wort selbst hinreichend beschrieben. Es geht eben darum, Nachrichten zu übertragen. Etwas schwieriger wird es, wenn wir fragen, was Nachrichten eigentlich sind, eine Frage, die nur scheinbar trivial ist.“ Die Technik der Nachrichtenübertragung: gestern – heute – morgen Festvortrag aus Anlass des 238. Gründungstages der Friedrich-Alexander-Universität Erlangen-Nürnberg 4. November 1981
VII
Vorwort In der Informationsgesellschaft kommt der (elektrischen) Nachrichtentechnik mit ihren Aufgabenfeldern der Darstellung, der Übertragung, der Vermittlung und der Verarbeitung von Information in elektronischer Form eine Schlüsselrolle zu. Dieses Buch führt an wichtige Aufgaben, Prinzipien und Methoden der Nachrichtentechnik heran. Es eignet sich besonders für Studierende technischer Studiengänge, der Informatik und des Wirtschaftsingenieurwesens, die einen Einstieg in die Nachrichtentechnik gewinnen wollen. Bei der Auswahl und der Darstellung der Themen wurde besonders darauf geachtet, den Umfang und den Schwierigkeitsgrad des Buches den Studierenden im Grundstudium anzupassen. In diesem Sinne sind auch die Wiederholungsfragen und Aufgaben zu den Abschnitten ohne lange Rechnungen zu lösen. War das Buch zunächst als Ergänzung zu einer zweistündigen Lehrveranstaltung im 3. Semester an der Hochschule Fulda gedacht, so haben zahlreiche Kommentare von Fachkollegen, viele Fragen von Studierenden und nicht zuletzt neue Entwicklungen der Nachrichtentechnik das Buch von Auflage zu Auflage wachsen lassen. Ziel dabei war stets den einführenden Charakter mit einer soliden Grundlage für ein vertiefendes Fachstudium zu verbinden. Heute ist die Nachrichtentechnik vielfältiger den je man denke nur an die Flut von Produkten für die mit Hinweisen auf die Funkstandards Bluetooth, IEEE 802.11, GSM, GPRS, HSDPA, UMTS, WiMAX, ZigBee usw. geworben wird. Dementsprechend hat auch die Vielfalt und Komplexität des benötigten Fachwissens zugenommen. Mit der 6. Auflage habe ich gerne die Gelegenheit ergriffen, viele Ergänzungen und aktuelle Hinweise anzubringen und das in den letzten Jahren in den Mittelpunkt gerückte Thema OFDM ausführlicher vorzustellen. Allen, die das Buch durch ihr Interesse und ihre Anregungen begleitet haben, herzlichen Dank. Vielen Dank an den Verlag für die gute Zusammenarbeit und stete Bereitschaft die Entwicklungen des Buches mit zu tragen.
Fulda, im Dezember 2008
Martin Werner
IX
Inhaltsverzeichnis 1
Aufgaben und Grundbegriffe der Nachrichtentechnik ................................................. 1 1.1 1.2 1.3 1.4 1.5 1.6
2
Entwicklung der Nachrichtentechnik ......................................................................... 1 Nachrichtentechnik, Informationstechnik und Telekommunikation.......................... 3 Nachrichtenübertragung ............................................................................................. 6 Telekommunikationsnetze.......................................................................................... 8 Digitale Signalverarbeitung...................................................................................... 11 Wiederholungsfragen zu Abschnitt 1 ....................................................................... 12
Signale und Systeme ....................................................................................................... 13 2.1 Einführung................................................................................................................ 13 2.2 Klassifizierung von Signalen.................................................................................... 14 2.2.1 Zeitkontinuierliche und zeitdiskrete Signale ................................................. 14 2.2.2 Wertkontinuierliche, wertdiskrete, analoge und digitale Signale .................. 15 2.2.3 Periodische und aperiodische Signale ........................................................... 16 2.2.4 Deterministische und stochastische Signale .................................................. 17 2.2.5 Energie- und Leistungssignale ...................................................................... 18 2.3 Lineare zeitinvariante Systeme................................................................................. 19 2.4 Fourier-Reihen.......................................................................................................... 21 2.5 Periodische Quellen in RLC-Netzwerken................................................................. 24 2.6 Spektrum periodischer Signale ................................................................................. 28 2.7 Übertragungsfunktion und Frequenzgang ................................................................ 30 2.7.1 Übertragungsfunktion.................................................................................... 30 2.7.2 Frequenzgang, Dämpfung und Phase ............................................................ 31 2.7.3 Tiefpass, Bandpass, Hochpass und Bandsperre............................................. 34 2.7.4 Rechnen mit komplexer Fourier-Reihe und Frequenzgang........................... 38 2.7.5 RC-Hochpass................................................................................................. 39 2.8 Fourier-Transformation ............................................................................................ 44 2.9 Filterung ................................................................................................................... 46 2.10 Verzerrungsfreie Übertragung .................................................................................. 49 2.11 Bandbreite und Zeitdauer-Bandbreite-Produkt......................................................... 51 2.12 Charakterisierung von LTI-Systemen....................................................................... 54 2.12.1 Impulsfunktion und Impulsantwort ............................................................... 54 2.12.2 Faltung .......................................................................................................... 60 2.13 Zusammenfassung .................................................................................................... 65 2.14 Aufgaben zu Abschnitt 2 .......................................................................................... 68
3
Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung ........... 72 3.1 3.2 3.3 3.4 3.5
Einführung................................................................................................................ 72 Digitalisierung analoger Signale............................................................................... 72 Abtasttheorem........................................................................................................... 73 Quantisierung ........................................................................................................... 75 Quantisierungsgeräusch............................................................................................ 77
X 3.6 PCM in der Telefonie ............................................................................................... 80 3.6.1 Abschätzung der Wortlänge .......................................................................... 80 3.6.2 Kompandierung............................................................................................. 81 3.6.3 13-Segment-Kennlinie .................................................................................. 82 3.7 Digitale Signalverarbeitung...................................................................................... 85 3.7.1 Einführung..................................................................................................... 85 3.7.2 Schnelle Fourier-Transformation .................................................................. 86 3.7.3 Digitale Filter ................................................................................................ 92 3.7.3.1 Simulation mit digitalen Filtern ...................................................... 92 3.7.3.2 FIR-Filter ........................................................................................ 93 3.7.3.3 IIR-Filter ......................................................................................... 96 3.8 Audio-Codierung...................................................................................................... 99 3.8.1 Psychoakustische Effekte ............................................................................ 100 3.8.2 Audio-Codierung für MPEG-1 Layer III .................................................... 101 3.8.3 HE-AAC Codec .......................................................................................... 103 3.9 Zusammenfassung .................................................................................................. 105 3.10 Aufgaben zu Abschnitt 3 ........................................................................................ 105 4
Modulation eines sinusförmigen Trägers.................................................................... 108 4.1 Einführung.............................................................................................................. 108 4.2 Trägermodulation ................................................................................................... 109 4.3 Amplitudenmodulation........................................................................................... 111 4.3.1 Prinzip der Amplitudenmodulation ............................................................. 111 4.3.2 Modulationssatz .......................................................................................... 112 4.3.3 Gewöhnliche Amplitudenmodulation ......................................................... 113 4.3.4 Kohärente AM-Demodulation..................................................................... 115 4.3.5 Inkohärente AM-Demodulation mit dem Hüllkurvendetektor .................... 116 4.3.6 Quadraturamplitudenmodulation................................................................. 116 4.3.7 Trägerfreqeunztechnik in der Telefonie ...................................................... 117 4.4 Frequenzmodulation ............................................................................................... 119 4.4.1 Modulation der Momentanfrequenz des Trägers......................................... 119 4.4.2 Spektrum und Bandbreite von FM-Signalen ............................................... 122 4.4.2 Demodulation von FM-Signalen ................................................................. 125 4.5 Digitale Modulationsverfahren............................................................................... 127 4.5.1 Binäre Modulationsverfahren...................................................................... 127 4.5.2 Mehrstufige Modulationsverfahren ............................................................. 130 4.5.3 Orthogonal Frequency Division Multiplexing ............................................ 136 4.6 Zusammenfassung .................................................................................................. 144 4.7 Aufgaben zu Abschnitt 4 ........................................................................................ 144
5
Digitale Übertragung im Basisband ............................................................................ 147 5.1 5.2 5.3 5.4 5.5
Einführung.............................................................................................................. 147 RS-232-Schnittstelle............................................................................................... 150 Digitale Basisbandübertragung............................................................................... 152 Leitungscodierung .................................................................................................. 156 Störung durch Rauschen......................................................................................... 158
XI 5.6 5.7 5.8 5.9 5.10 5.11 5.12 6
Übertragung im Tiefpass-Kanal ............................................................................. 162 Matched-Filterempfänger ....................................................................................... 166 Nyquist-Bandbreite und Impulsformung ................................................................ 170 Kanalkapazität ........................................................................................................ 175 Digitaler Teilnehmeranschluss ............................................................................... 176 Zusammenfassung .................................................................................................. 180 Aufgaben zu Abschnitt 5 ........................................................................................ 182
Telekommunikationsnetze............................................................................................ 183 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10
Einführung.............................................................................................................. 183 Zeitmultiplex, PDH und SDH ................................................................................ 183 Nachrichtenübermittlung ........................................................................................ 186 OSI-Referenzmodell............................................................................................... 189 HDLC- und LAP-Protokoll .................................................................................... 194 ATM und Breitband-ISDN..................................................................................... 198 Lokale Netze........................................................................................................... 202 Protokollfamilie TCP/IP ......................................................................................... 204 Zusammenfassung .................................................................................................. 209 Wiederholungsfragen zu Abschnitt 6 ..................................................................... 210
7
Grundbegriffe der Informationstheorie und der Kanalcodierung ........................... 212 7.1 Information, Entropie und Redundanz ................................................................... 212 7.2 Huffman-Codierung ............................................................................................... 216 7.3 Kanalcodierung....................................................................................................... 220 7.3.1 Paritätscodes................................................................................................ 220 7.3.2 Kanalcodierung zum Schutz gegen Übertragungsfehler ............................. 224 7.3.3 Lineare Blockcodes ..................................................................................... 226 7.3.4 Syndrom-Decodierung ................................................................................ 227 7.3.5 Hamming-Distanz und Fehlerkorrekturvermögen....................................... 231 7.3.6 Perfekte Codes und Hamming-Grenze........................................................ 233 7.3.7 Restfehlerwahrscheinlichkeit ...................................................................... 234 7.3.8 Eigenschaften und Konstruktion der Hamming-Codes ............................... 237 7.3.9 CRC-Codes ................................................................................................. 238 7.4 Zusammenfassung .................................................................................................. 248 7.5 Aufgaben zu Abschnitt 7 ........................................................................................ 249
8
Mobilkommunikation ................................................................................................... 252 8.1 Einführung.............................................................................................................. 252 8.2 Global System for Mobile Communications (GSM) .............................................. 253 8.2.1 Einführung................................................................................................... 253 8.2.2 GSM-Netzarchitektur .................................................................................. 256 8.2.3 GSM-Funkschnittstelle................................................................................ 258 8.2.3.1 Funkzellen und Frequenzkanäle.................................................... 259 8.2.3.2 Mobilfunkübertragung .................................................................. 262 8.2.3.3 Logische Kanäle und Burst-Arten................................................. 267 8.2.4 High Speed Circuit Switched Data (HSCSD) ............................................. 270
XII 8.2.5 GSM-Sicherheitsmerkmale ......................................................................... 270 8.3 General Packet Radio Service (GPRS)................................................................... 273 8.3.1 Einführung................................................................................................... 273 8.3.2 Paketübertragung mit Dienstmerkmalen ..................................................... 274 8.3.2.1 GPRS-Dienstgüte .......................................................................... 274 8.3.2.2 Zugriff auf die GSM-Luftschnittstelle .......................................... 276 8.3.3 GPRS-Systemarchitektur ............................................................................ 279 8.4 Enhanced Data Rates for GSM Evolution (EDGE)................................................ 281 8.5 Universal Mobile Telecommunication System (UMTS) ........................................ 282 8.5.1 Einführung................................................................................................... 282 8.5.2 UMTS-Dienste ............................................................................................ 283 8.5.3 UMTS-Systemarchitektur ........................................................................... 284 8.5.4 UMTS-Luftschnittstelle .............................................................................. 286 8.5.4.1 Spreizbandtechnik mit RAKE-Empfänger .................................... 287 8.5.4.2 CDMA-Vielfachzugriff................................................................. 289 8.5.4.3 Nah-Fern-Effekt, Leistungsregelung und Zellatmung................... 292 8.5.4.4 Zellulare Funkkapazität................................................................. 294 8.5.4.5 Handover....................................................................................... 295 8.5.4.6 Protokollstapel für die UMTS-Luftschnittstelle ............................ 296 8.5.5 High-Speed Packet Access (HSPA) ............................................................ 299 8.6 Wireless Local Area Network (WLAN)................................................................. 301 8.6.1 Einführung................................................................................................... 301 8.6.2 Zugriff auf die Luftschnittstelle und Netzstrukturen ................................... 304 8.6.3 WLAN-Übertragung mit OFDM................................................................. 309 8.7 Zusammenfassung .................................................................................................. 312 8.8 Aufgaben zu Abschnitt 8 ........................................................................................ 314 Lösungen zu den Aufgaben .......................................................................................... 316 Abkürzungen................................................................................................................. 340 Literaturverzeichnis ..................................................................................................... 348 Sachwortverzeichnis ..................................................................................................... 356
1
1
Aufgaben und Grundbegriffe der Nachrichtentechnik
1.1
Entwicklung der Nachrichtentechnik
Die Anfänge der Nachrichtentechnik reichen weit in das Altertum zurück. Mit der Erfindung der Schrift und der Zahlenzeichen ab etwa 4000 v. Chr. wird die Grundlage zur digitalen Nachrichtentechnik gelegt. Um 180 v. Chr. schlägt der Grieche Polybios eine optische Telegrafie mit einer Codierung der 24 Buchstaben des griechischen Alphabets durch Fackelsignale vor. Für viele Jahre bleibt die optische Übertragung die einzige Form, Nachrichten über große Strecken schnell zu übermitteln. Ihren Höhepunkt erlebt sie Anfang des 19. Jahrhunderts mit dem Aufbau weitreichender Zeigertelegrafie-Verbindungen in Europa; angespornt durch die von C. Chappe 1794 aufgebaute, 210 km lange Verbindung von Paris nach Lille. Ein Beispiel in Deutschland ist die 1834 eröffnete, 600 km lange Strecke von Berlin nach Koblenz. Im Abstand von jeweils ca. 15 km werden insgesamt 61 Stationen aufgebaut. Die Nachrichtenübertragung geschieht mit Signalmasten mit einstellbaren Flügeln. Bei günstiger Witterung können in nur 15 Minuten Nachrichten von Berlin nach Koblenz übertragen werden. Beachtenswert ist, dass mit der Zeigertelegrafie neben den Fragen zur Kommunikation, wie dem Code-Alphabet, dem Verbindungsaufbau, der Quittierung und dem Verbindungsabbau, auch die organisatorischen Fragen zur Infrastruktur eines komplexen Nachrichtensystems gelöst wurden. Anmerkungen: (i) Die Zeigertelegrafen, insbesondere zur Flaggensignalisierung auf Schiffen, werden auch Semaphoren genannt, ein Begriff der heute in der Informatik bei der Steuerung paralleler Prozesse verwendet wird. (ii) Ca. 1750 richtet in Japan M. Homma (*1724, †1803) eine Telegrafie-Strecke von Sakata bis Osaka (600km, 150 Menschen) zur Übertragung von Börsendaten mit farbigen Flaggen ein [Mat08].
In die erste Hälfte des 19. Jahrhunderts fallen wichtige Entdeckungen über das Wesen der Elektrizität. Schon früh werden Experimente zur Telegrafie durchgeführt. Um 1850 löst die elektrische Telegrafie, die auch nachts und bei Nebel funktioniert, die optische ab. Die Nachrichtenübertragung bleibt zunächst digital. Buchstaben und Ziffern werden als Folge von Punkten und Strichen codiert übertragen. Da diese über einen Taster von Hand eingegeben werden müssen, werden handgerechte, schnelle Codes entwickelt. Als Vater der Telegrafie gilt S. F. B. Morse. Zu seinen Ehren spricht man heute noch von der Morse-Taste und dem MorseAlphabet. Geübte Operatoren senden damit bis zu 45 Wörter pro Minute. Eine Sternstunde erlebt die elektrische Telegrafie mit der Eröffnung der von Siemens erbauten Indoeuropäischen Telegrafielinie London-Teheran-Kalkutta 1870. Um 1892 existiert ein weltweites Telegrafienetz mit über 1,7 Millionen Verbindungen und einer Leitungslänge von fast 5 Millionen Kilometern auf fünf Kontinenten. Nachdem J. Ph. Reis das Prinzip der elektrischen Schallübertragung 1863 dem Physikalischen Verein in Frankfurt demonstrierte, wird mit der Entwicklung eines gebrauchsfähigen Telefons durch A. G. Bell (US-Patent, 1876) die Nachrichtentechnik analog. Die Druckschwankungen des Schalls werden in einem Mikrofon in Spannungsschwankungen umgewandelt, die als elektrisches Signal über einen Draht geleitet werden.
2
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
Mit der raschen Zunahme der Telefone findet die Handvermittelung durch das Fräulein vom Amt seine Grenzen. Bereits 1892 wird das erste, von A. B. Strowger entwickelte automatische Vermittlungssystem eingesetzt. Mit dem Ende des 19. Jahrhunderts rasch zunehmenden physikalisch-technischen Wissen erobert sich die analoge Nachrichtentechnik neue Anwendungsgebiete. Meilensteine sind die Übertragung von Morse-Zeichen von Cornwall (England) nach Neufundland (Amerika) durch G. Marconi 1901 und die Entwicklung elektronischer Verstärker durch J. A. Fleming, Lee de Forest und R. v. Lieben zwischen etwa 1904 und 1906. Damit sind wichtige Voraussetzungen für den Hörrundfunk um 1920 und den Fernsehrundfunk um 1950 geschaffen. Anfang des 20. Jahrhunderts beginnt ein tief greifender Wandel. In der Physik setzen sich statistische Methoden und Vorstellungen der Wahrscheinlichkeitstheorie durch. Diese werden in der Nachrichtentechnik aufgegriffen und wesentliche Konzepte der modernen Nachrichtentechnik entwickelt. In Anlehnung an die Thermodynamik wird von C. E. Shannon 1948 der mittlere Informationsgehalt einer Nachrichtenquelle als Entropie als Ungewissheit, die durch die Nachricht im statistischen Mittel aufgelöst wird eingeführt. In der zweiten Hälfte des 20. Jahrhunderts wird dieser Wandel für die breite Öffentlichkeit sichtbar: der Übergang von der analogen zur digitalen Nachrichtentechnik, der Informationstechnik. Die Erfindung des Transistors 1947 durch J. Bardeen, W. H. Brattain und W. Shockley und der erste Mikroprozessor auf dem Markt 1970 sind wichtige Grundlagen. Das durch die Praxis bis heute bestätigte mooresche Gesetz beschreibt die Dynamik des Wandels. G. Moore sagte 1964 voraus, dass sich etwa alle zwei Jahre die Komplexität, d. h. entsprechend auch die Leistungsfähigkeit, mikroelektronischer Schaltungen verdoppeln wird. Durch den Fortschritt in der Mikroelektronik ist es heute möglich, die seit der ersten Hälfte des 20. Jahrhunderts gefundenen theoretischen Ansätze der Nachrichtentechnik in bezahlbare Geräte umzusetzen. Beispiele für die Leistungen der digitalen Nachrichtentechnik finden sich im digitalen Mobilfunk, im digitalen Rundfunk und Fernsehen, im modernen Telekommunikationsnetz mit Internet-Diensten und Multimedia-Anwendungen; und überall dort, wo Information digital erfasst und ausgewertet wird, wie in der Regelungs- und Steuerungstechnik, der Medizintechnik, der Verkehrstechnik, usw. Weniger öffentlich bekannt sind die Fortschritte der faseroptischen Nachrichtentechnik. Nachdem um 1975 die industrielle Produktion von Lichtwellenleitern begann, wird 1988 das erste transatlantische Glasfaserkabel (TAT8) in Betrieb genommen. 1997 verbindet FLAG (Fiberoptic Link Around the Globe) von Japan bis London 12 Stationen durch zwei Lichtwellenleiter mit optischen Verstärkern. Die Übertragungskapazität entspricht 120.000 Telefonkanälen. Neue Bauelemente und besonders die Entwicklung optischer Verstärker lassen einen stark zunehmenden Aufbau von Telekommunikationsnetzen mit optischer Übertragung und Vermittlung, so genannte photonische Netze, in den nächsten Jahren erwarten. Heute sind zahlreiche Fernübertragungsstrecken mit Datenraten von 10 ... 40 Gbit/s pro Faser im kommerziellen Betrieb, das entspricht einer gleichzeitigen Übertragung von mehr als 78.000 Telefongesprächen oder über 2.500 Videosignalen. Nachdem im Jahr 2000 an Versuchsstrecken bereits Datenraten über 1000 Gbit/s (1 Tbit/s) demonstriert wurden, hat die ITU 2007 mit der weltweiten Standardisierung eines optischen Transportnetzes (OTN) mit Wellenlängen-Multiplex (WDM, Wavelength Division Multiplex) und 120 Gbit/s pro Faser begonnen. Ergänzend dringen die optischen Netze in Richtung Teilnehmer vor. Passive optische Netze (Passive Optical Network, PON) sind dabei den Engpass auf den letzten Kilometern zum den Teilnehmer zu schließen. Insbesondere soll das seit einigen Jahren in lokalen Rechnernetzen (Local Area Network, LAN) verbreitete Ethernet PON (EPON) mit der Datenrate von 1 Gbit/s (1 G EPON) durch die
1.2 Nachrichtentechnik, Informationstechnik und Telekommunikation
3
neue 10 Gbit/s Technik (10 G EPON) abgelöst und für einen kostengünstigen Teilnehmeranschluss eingesetzt werden. Anmerkungen: (i) Mehr über die Geschichte der Nachrichtentechnik ist z. B. in [Asc87], [EcSc86], [Huu03] und [Obe82] zu finden. Eine kurze Darstellung der Entwicklung in Deutschland gibt die Festschrift zum 50-jährigen Bestehen der NTG/ITG [GiKa04]. (ii) In [Gla01] wird ein Einblick in die Prinzipien und Anwendungen der modernen Nachrichtentechnik ohne Formeln gegeben. (iii) Die optische Nachrichtentechnik wird im Weiteren nicht behandelt, da die fundierte Darstellung der physikalischen Grundlagen einen übergroßen Raum einnehmen würde. Eine kurze Einführung in die optische Nachrichtentechnik findet man z. B. in [BuHi03] und [HeLö00]; moderne optische Netze behandelt [Kar08].
Ein herausragender Aspekt der Nachrichtentechnik ist die internationale Zusammenarbeit. Bereits 1865 wird der internationale Telegraphenverein in Paris von 20 Staaten gegründet. Über mehrere Zwischenschritte entsteht daraus die International Telecommunication Union (ITU) als Unterorganisation der UNO mit Sitz in Genf. Daneben existiert ein dichtes Netz von Organisationen, die unterschiedliche Interessen vertreten und miteinander verbunden sind. Industriekonsortien, wie die Bluetooth Special Interest Group (SIG), nehmen dabei an Bedeutung zu. Einige Organisationen, deren Abkürzungen häufig auftreten, sind: ANSI CCITT CCIR CEPT DIN ETSI FCC
American National Standards Institute ) ISO Comité Consultatif International Télégraphique et Téléphonique ) ITU-T Comité Consultatif International des Radiocommunication (1929) ) ITU-R Conférence des Administrations Européennes des Postes et Télécommunications ) ETSI Deutsches Institut für Normung (1917) European Telecommunication Standards Institute (1988) Federal Communication Commission (USA)
IAB IEC IEEE IETF ISO ITU
Internet Architecture Board (1983/89) International Electrotechnical Commission (1906) ) ISO Institute of Electrical and Electronics Engineers (1884/1963) Internet Engineering Task Force (1989) International Organization for Standardization (1947) International Telecommunication Union (1865/1938/1947/1993) mit Radio-communication Sector (-R), Telecommunication Sector (-T) und Development Sector (-D) Verband der Elektrotechnik, Elektronik und Informationstechnik (1893)
VDE
1.2
Nachrichtentechnik, Informationstechnik und Telekommunikation
Unter der (elektrischen) Nachrichtentechnik werden im weiteren Sinne alle Teilgebiete der Elektrotechnik zusammengefasst, die sich nicht der Energietechnik zuordnen lassen. Sie bedient sich üblicherweise elektronischer Mittel zur Darstellung, Verarbeitung, Übertragung und Vermittlung von Nachrichten. Synonym zu Nachricht wird der Begriff Information verwendet. Die Nachrichtentechnik steht in enger Verbindung mit der Steuer- und Regelungstechnik sowie der Informatik. Die zunehmende Digitalisierung in der Technik, die Darstellung der Information durch Binärzeichen und deren Verarbeitung mit der Digitaltechnik, hat dazu geführt, dass die genannten Fachgebiete heute zur modernen Informationstechnik zusammengewachsen sind.
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
4
Anmerkungen: (i) 1954 wurde in Deutschland die Nachrichtentechnische Gesellschaft im VDE (NTG), heute Verband der Elektrotechnik Elektronik Informationstechnik e.V. (VDE), gegründet. Die in der zweiten Hälfte des letzten Jahrhunderts einsetzende Erweiterung der Nachrichtentechnik führte 1985 zur Umbenennung in die Informationstechnische Gesellschaft im VDE (ITG) [GiKa04]. (ii) In der Soziologie wird Kommunikation als Einheit von Information, Mitteilung und Verstehen betrachtet.
Der Begriff Nachricht, obwohl oder weil Die Nachrichtentechnik befasst sich mit der im Alltag vertraut, ist im technischen Darstellung, der Verarbeitung, der Übertragung Sinne schwierig zu fassen. Die Nachrichund der Vermittlung von Nachrichten. tentechnik stellt ihm deshalb den Begriff Signal zur Seite. Während der Nachricht eigentlich eine Mitteilung um sich danach zu richten eine Bedeutung zukommt, ist das Signal der physikalische Repräsentant der Nachricht, wie die Schallwellen beim Sprechen oder die elektrische Spannung am Mikrofonausgang, die mit physikalisch-technischen Mitteln analysiert und verarbeitet werden können. Die Nachrichtentechnik war im Laufe ihrer Geschichte starken Wandlungen unterworfen und erschloss sich neue Aufgabenfelder. Anhand von Bild 1-1 sollen Aufgabenfelder und Zusammenhänge aufgezeigt werden.
Ein Signal ist der physikalische Repräsentant einer Nachricht.
Grundlage der Nachrichtentechnik ist die Darstellung der Nachricht als Signal. Dazu gehört der klassische Bereich der elektroakustischen Umsetzer, Mikrofone und Lautsprecher, und elektrooptischen Umsetzer, Bildaufnehmer und Bildschirme. Hinzu kommen alle Formen der Umsetzung physikalischer Größen in elektrische bzw. in elektronisch zu verarbeitende Daten. Beispiele sind einfache Sensoren für Druck, Temperatur, Beschleunigung und komplexe Apparate wie in der Computer- und Kernspintomographie. Letztere können ohne chirurgischen Eingriff Schnittbilder des menschlichen Körpers erzeugen.
interdisziplinäre Anwendungen
Die Signalverarbeitung war stets ein Kerngebiet der Nachrichtentechnik. Zu den klassischen Aufgaben, wie die Filterung, Verbesserung, Verstärkung und Modulation von Signalen, sind neue hinzugekommen. Angetrieben durch fallende Preise und höhere Leistungen in der Mikroelektronik, hat sich die digitale Signalverarbeitung in der Nachrichtenübertragung und in vielen interdisziplinären Anwendungsgebieten etabliert. Beispiele aus der Nachrichtentechnik im engeren Sinne sind die modernen Audio- und Videocodierverfahren nach dem MPEGStandard (Moving Picture Experts Group) und die Signalverarbeitung für die Mobilfunkübertragung nach dem GSM-Standard (Global System for Mobile Communications), wie die Sprachcodierung und die Kanalcodierung.
Telekommunikation Telekommunikationsnetz Nachrichtenübermittlung
Signalverarbeitung
Nachrichtenübertragung
Nachrichtenvermittlung
O&M (Gebühren, Sicherheit, …)
Bild 1-1 Aufgabenfelder der Nachrichtentechnik
gesellschaftliche, rechtliche und wirtschaftliche Aspekte
1.2 Nachrichtentechnik, Informationstechnik und Telekommunikation
5
Die Nachrichtenübertragung befasst sich mit der räumlichen und zeitlichen Übertragung von Nachrichten; also der Übertragung von A nach B, wie bei einem Telefongespräch, aber auch der Kommunikation zwischen der Computermaus und dem Notebook oder dem Marsfahrzeug Pathfinder und der Erdstation. In den Übertragungsstrecken treten gewöhnliche elektrische Leitungen (Zweidrahtleitung, Koaxialkabel, …), optische Leitungen (Lichtwellenleiter) oder der freie Raum auf. Auch die Speicherung und Wiedergabe von Signalen und Daten ist eine Form der Nachrichtenübertragung. Typische Beispiele sind die Magnetbandaufzeichnung (Tonbandgerät, Kassettenrecorder, Videorecorder, Diskettenlaufwerk), die optische Aufzeichnung bzw. Wiedergabe (CD-ROM/DVD) und der Einsatz einer Festplatte am PC. So vielfältig die Anwendungen sind, so vielfältig sind die Lösungen. Ist die Kommunikation wahlfrei zwischen mehreren Teilnehmern möglich, wie im bekannten Telefonnetz, so tritt die Nachrichtenvermittlung hinzu. Ihre Aufgabe ist es, einen geeigneten Verbindungsweg zwischen den Teilnehmern herzustellen. In den analogen Telefonnetzen geschieht die Wegwahl mit Hilfe des Teilnehmer-Nummernsystems und der automatischen Leitungsdurchschaltung in den Vermittlungsstellen. Moderne Telekommunikationsnetze bieten unterschiedliche Dienste mit unterschiedlichen Leistungsmerkmalen an und optimieren bedarfsabhängig die Auslastung der Verbindungswege und Vermittlungsstellen im Netz. Die Nachrichtenübertragung und die Nachrichtenvermittlung werden zur Nachrichtenübermittlung zusammengefasst. Sie bildet die technische Grundlage des Telekommunikationsnetzes (TK-Netz). Zu einem öffentlichen TK-Netz gehören weitere Aspekte, wie die Organisation und das Management (O&M) des TK-Netzes, die Gebührenerfassung und -abrechnung, die Netzzugangskontrolle und die Sicherheit. Der Begriff Telekommunikation umfasst schließlich alle im Zusammenhang mit TK-Netzen denkbaren Aspekte und tritt auch in verschiedenen Zusammensetzungen auf, wie die Telekommunikationswirtschaft oder das Telekommunikationsgesetz (TKG). Ein alternativer Zugang zum Begriff Nachrichtentechnik ergibt sich aus den Arbeitsgebieten der Informationstechnischen Gesellschaft im VDE (ITG) [GiKa04] (www.vde.com/de/fg/itg). Mit etwa 11.000 persönlichen Mitgliedern und ihren Fachverstand spielt die ITG eine wichtige Rolle in der Informationstechnik in Deutschland. Die Arbeit der ITG gliedert sich in neun Fachbereiche: Informationsgesellschaft und Fokusprojekte (FB 1) Dienste und Anwendungen (FB 2) Fernsehen, Film und elektronische Medien (FB 3) Audiokommunikation (FB 4) Kommunikationstechnik (FB 5) Technische Informatik (FB 6) Hochfrequenztechnik (FB 7) Mikro- und Nanoelektronik (FB 8) Übergreifende Gebiete (FB 9) Im Zusammenhang mit der Informationstechnik wird in den Medien häufig der Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM) genannt. Nach Selbstaussage im Internet (www.bitkom.org/de) vertritt er 2008 mehr als 1.200 Unterneh-
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
6
men, die im deutschen Informations- und Kommunikationstechnologie(IKT)-Markt ca. 135 Milliarden Euro Umsatz erwirtschaften und damit ca. 90 % des Markts repräsentieren. Anmerkung: ITK – Informations- und Telekommunikationstechnologie.
Der enge Zusammenhang zwischen Informationstechnik und Informatik führt dazu, dass sich die Arbeitsgebiete des Ingenieurs der Informationstechnik und des Informatikers oft überdecken bzw. eine strikte Trennung nicht möglich ist. Der Begriff Informatik wird zuerst in Frankreich verwendet und 1967 durch die Académie Française definiert [Des01]. Übersetzt steht Informatik für: Wissenschaft der rationellen Verarbeitung von Informationen, insbesondere durch automatische Maschinen, zur Unterstützung des menschlichen Wissens und der Kommunikation in technischen, wirtschaftlichen und sozialen Bereichen. Im englischsprachigen akademischen Raum ist die Trennung in Informationstechnik und Informatik wenig verbreitet. Dort trifft man auf die Begriffe Computer Engineering und Communications Engineering bzw. Computer Science.
1.3
Nachrichtenübertragung
Die Nachrichtenübertragungstechnik befasst sich mit der Darstellung und der Übertragung von Nachrichten. Hierzu gehört im weiteren Sinne die physikalische Umsetzung von Signalen, wie z. B. von Schallwellen in elektrische Spannungen in Mikrofonen. Im engeren Sinne beginnt und endet die Nachrichtenübertragung mit dem elektrischen Signal bzw. der elektronischen Darstellung der zu übertragenden Daten. Eine generische Darstellung der Nachrichtenübertragung liefert das shannonsche Kommunikationsmodell1. Darin übergibt die Informationsquelle (Information Source) die Nachricht (Message) dem Sender (Transmitter), der das entsprechende Sendesignal (Signal) für den Kanal (Channel) erzeugt. Im Kanal tritt das Signal der Störgeräuschquelle (Noise Source) hinzu, so dass das Empfangssignal (Received Signal) für den Empfänger (Receiver) entsteht. Letzterer generiert daraus die empfangene Nachricht (Received Message) und übergibt sie schließlich der Informationssenke (Destination). INFORMATION SOURCE
TRANSMITTER
SIGNAL MESSAGE
RECEIVER
DESTINATION
RECEIVED SIGNAL MESSAGE
NOISE SOURCE
Bild 1-2 Nachrichtenübertragung nach Shannon ([Sha48], Fig. 1) 1
Claude E. Shannon: *1916, †2001, US-amerikanischer Ingenieur und Mathematiker, grundlegende Arbeiten zur Informationstheorie.
1.3 Nachrichtenübertragung
Nachrichtenquelle
Quellencodierung
Kanalcodierung
Leitungscodierung/ Modulation
Kanal
Leitungsdecodierung/ Demodulation
Kanaldecodierung
Quellendecodierung
Erzeugung eines elektrischen Signals als Träger der Nachricht ) z. B. durch Umwandlung der Schalldruckschwankungen oder der Lichtintensität in eine elektrische Spannung in einem Mikrofon oder einer Fernsehkamera; allgemeine Umsetzung physikalischer Größen in elektrische Signale in Sensoren; zunehmend digitale Quellen die Bitströme erzeugen.
Darstellung der Nachricht in einer für die Übertragung geeigneten Form ) z. B. Digitalisierung durch A/D-Umsetzung; wird meist mit Reduzierung des Übertragungsaufwandes verbunden, wie eine Entropiecodierung mit dem Huffman-Code oder Weglassen von für den Empfänger irrelevanter Signalanteile durch eine Bandbegrenzung in der Telefonie und der Fernsehtechnik oder durch psychoakustische Audiocodierung nach dem MPEG-Standard. Schutz der Nachricht gegen Übertragungsfehler ) z. B. durch zusätzliche Prüfzeichen des Hamming-Codes oder des Cyclic-Redundancy-Check (CRC)-Codes zur Fehlererkennung und Fehlerkorrektur bzw. Wiederholung der Übertragung. Erzeugung des an den physikalischen Kanal angepassten Signals ) z. B. durch Pulsformung oder Trägermodulation (AM, FM, GMSK, OFDM, …). Übertragungsstrecke ) in der Regel wird das Signal auf der Übertragungsstrecke verzerrt (z. B. durch reale Filter, Verstärker) und gestört (z. B. durch thermisches Rauschen oder fremde Signale); meist als Modell beschrieben, das unterschiedliche Einflüsse zusammenfasst. Rückgewinnung des gesendeten Signals bzw. Bitstroms ) Verfahren zur Unterdrückung der Störung, wie signalangepasste Filter, Echoentzerrung, … Inverse Kanalcodierung mit Erkennung und/ oder Korrektur bestimmter Fehlermuster ) gegebenenfalls auch eine Sendewiederholungsanforderung Inverse Quellencodierung ) bietet der Senke geeignete Signalform an
Nachrichtensenke
Bild 1-3 Wichtige Komponenten von Nachrichtenübertragungssystemen und deren Aufgaben
7
8
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
Je nach Anwendung werden die einzelnen Blöcke des Kommunikationsmodells spezialisiert und in weitere Komponenten zerlegt. Die wichtigsten Komponenten der Nachrichtenübertragung und ihre Funktionen sind in Bild 1-3 zusammengestellt. Man beachte, dass in realen Übertragungssystemen nicht immer alle Komponenten verwendet bzw. untereinander scharf getrennt werden. Die Einbeziehung des Menschen als Nachrichtenempfänger erfordert die Berücksichtigung physiologischer und psychologischer Aspekte. Die Fernseh- und Rundfunkübertragung und insbesondere die modernen Codierverfahren zur Sprach-, Audio- und Videoübertragung sind auf die menschliche Wahrnehmungsfähigkeit abgestellt. Um den Übertragungsaufwand klein zu halten, werden Signalanteile weggelassen, die vom Menschen nicht wahrgenommen werden können. Man bezeichnet diesen Vorgang als Irrelevanzreduktion. Die inneren Bindungen im verbleibenden Signal, die Redundanz, wird zur weiteren Datenreduktion benutzt. Je nachdem ob nach der Datenreduktion das ursprüngliche Signal prinzipiell wiederhergestellt werden kann, unterscheidet man verlustlose und verlustbehaftete Verfahren. Anwendungen finden sich im digitalen Rundfunk (Digital Audio Broadcasting, DAB), im digitalen Fernsehen (Digital Video Broadcasting, DVB) mit der Audio- und Videocodierung nach dem MPEGStandard (Motion Picture Expert Group) und in der Mobilkommunikation. Damit werden bei der Audiocodierung und der Videocodierung üblicherweise Verhältnisse von Datenraten vorher und nachher von circa 10:1 bzw. 40:1 erreicht. Anmerkungen: (i) Darstellungen, die über diese Buch hinaus gehen, findet man beispielsweise in [Loc02], [OhLü07], [Kam08], [Pro01], [PrSa94] und [Wer06]. (ii) In Abschnitt 3.8 wird eine kurze Einführung in die Grundlagen der modernen Audio-Codierung gegeben. Zum weiteren Einstieg in die Audio- und Videocodierung bzw. dem digitalen Ton- und Fernsehrundfunk eigenen sich z. B. [Fre97a], [Fre97b], [Mäu03] und [Sch02]. Tiefergehende Darstellungen findet man beispielsweise in [Ohm04], [Rei05], [Sch00], [Str05], [VHH98] und [Zöl05].
1.4
Telekommunikationsnetze
Die Aufgabe eines Telekommunikationsnetzes (TK-Netz) ist es, den Teilnehmern Dienste bestimmter Art mit bestimmter, nachprüfbarer Qualität zur Verfügung zu stellen. Man spricht von der Dienstgüte oder QoS (Quality of Service). Von den Anforderungen her, lassen sich zwei wichtige Gruppen unterscheiden: die Sprach- und Bildtelefonie und die Datenkommunikation. In Abschnitt 6 wird darauf noch näher eingegangen, weshalb nachfolgend nur eine typische Anwendung vorgestellt wird: ein Telefongespräch über das öffentliche TK-Netz. Damit der rufende Teilnehmer A mit dem gerufenen Teilnehmer B sprechen kann, muss zunächst über das TK-Netz eine physikalische Verbindung zwischen den Teilnehmerendgeräten von A und B aufgebaut werden, siehe Bild 1-4. Wir gehen davon aus, dass beide Teilnehmer über einen ISDN-Basisanschluss verfügen. Anmerkung: Integrated-services Digital Network (ISDN); in Deutschland ab 1989 eingeführt. Für den ökonomischen Netzbetrieb sind diensteintegrierende digitale Netze vorteilhaft, in denen die unterschiedlichen Signale (Sprache, Telefax, Daten, usw.) in einheitlicher digitaler Form vorliegen. Man beachte jedoch, dass beispielsweise bezüglich der Verzögerungszeiten und Bitfehlerraten unterschiedliche Anforderungen für die Dienste gestellt werden (QoS), was eine unterschiedliche Behandlung der Dienste im TKNetz notwendig macht.
Nach Abnehmen des Hörers wählt A auf seinem Fernsprechapparat die Rufnummer von B. Diese wird als elektrisches Datensignal im D-Kanal, dem Steuerkanal, über die Sammelleitung (S0-Schnittstelle) an den Netzabschluss (NT, Network Termination) übertragen. Der NT bildet
1.4 Telekommunikationsnetze
9
den Abschluss des TK-Netzes zum Teilnehmer hin und steht über die Teilnehmeranschlussleitung (UK0-Schnittstelle) mit der digitalen Vermittlungsstelle (DIV) in Verbindung. Teilnehmer A
FAX
2B+D
2B+D
NT S0-Schnittstelle TA
DIV UK0-Schnittstelle
4-Drahtleitung (S0-Bus) 2-Drahtleitung (a/b)
TK-Netz DECT
DIV
PC
FP
2B+D
2B+D
NT Teilnehmer B
S0-Schnittstelle
Zentraler Zeichenkanal (SS7)
PC
DIV UK0-Schnittstelle
4-Drahtleitung (S0-Bus) 2-Drahtleitung (a/b)
Bild 1-4 Telekommunikationsnetz und Schnittstellen zum Teilnehmer am Beispiel von ISDN
Hierzu ist es notwendig, dass sowohl das Teilnehmerendgerät (Terminal Equipment, TE) und der NT sowie der NT und die DIV dieselbe Sprache sprechen; technisch ausgedrückt, jeweils eine gemeinsame Schnittstelle haben. Im Beispiel wird eine S0-Schnittstelle bzw. eine Uk0Schnittstelle verwendet. Beide unterstützen pro Teilnehmer im Duplexbetrieb, d. h. gleichzeitig in Hin- und Rückrichtung, je zwei Basiskanäle (B-Kanal) mit einer Bitrate von jeweils 64 kbit/s und einen Zeichengabekanal (D-Kanal) mit einer Bitrate von 16 kbit/s. Anmerkung: Die Bitrate gibt die Anzahl der pro Zeit übertragenen Bits an. Die Bitrate des B-Kanals spiegelt den Stand der PCM-Technik der 1960er Jahre wider. Für die Übertragung eines Telefonsprachkanals schienen damals 64 kbit/s notwendig. Moderne Verfahren der Quellencodierung ermöglichen StereoMusikübertragung mit 64 kbit/s (Simplexbetrieb) und Bildtelefonie mit 64 bis 384 kbit/s in akzeptabler Qualität. Eine der üblichen Telefonie entsprechende Sprachqualität kann nach ITU-Empfehlung G.729 mit einem Sprachcodierer und -decodierer mit einer Bitrate von 8 kbit/s erreicht werden.
Der Begriff der Schnittstelle ist in der Nachrichtentechnik von zentraler Bedeutung. Er findet seine Anwendung überall da, wo komplexe Systeme (Netze, Geräte, Programme, usw.) in Teilsysteme (Vermittlungsstellen, Baugruppen, Softwaremodule, usw.) zerlegt werden können. Für den wirtschaftlichen Erfolg ist wichtig, dass es erst durch die Definition von offenen Schnittstellen möglich wird, Geräte verschiedener konkurrierender Hersteller miteinander zu koppeln bzw. gegeneinander auszutauschen. Offene Schnittstellen sind die Voraussetzung für einen echten Wettbewerb im TK-Sektor.
10
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
Die digitale Vermittlungsstelle und gegebenenfalls weitere Vermittlungseinrichtungen des TK-Netzes werten die Dienstanforderung aus und bereiten den Verbindungsaufbau zwischen den Teilnehmern vor, indem sie einen günstigen Verkehrsweg durch das TK-Netz suchen. Man spricht von der Verkehrslenkung (Routing). Die notwendige Signalisierung wird in dem zentralen Zeichengabekanal (Signaling System Number 7, SS7) durchgeführt. Erst nachdem der Teilnehmer B das Gespräch angenommen hat, wird ein Gesprächskanal zwischen den Teilnehmern aufgebaut. Aus Kostengründen werden im Fernverkehr die Gesprächskanäle unterschiedlicher Teilnehmer in der DIV mit der Multiplextechnik gebündelt und auf speziellen Verbindungskanälen gemeinsam übertragen. Anmerkung: Mit dem Vordringen der paketorientierten Vermittlung wird die Idee eines zentralen Zeichenkanals wieder aufgegeben. Stattdessen wird eine Inband-Signalisierung durch in den Datenstrom eingefügte Steuer- und Meldepakete vorgenommen.
Die Schnittstellen eines TK-Netzes definieren den Signalaustausch: die physikalischen Eigenschaften der Signale, wie z. B. Spannungspegel, Pulsform, Frequenzlage, Modulation, usw. die Bedeutung der Signale und den zeitlichen Ablauf (Reihenfolge) die Orte, an denen die Schnittstellenleitungen auf einfache Art mechanisch oder elektrisch unterbrochen werden können, wie z. B. bei einer Steckverbindung
Die Bündelung der Signale geschieht so, dass die einzelnen Gespräche (Signale) am Ende der Übertragungsstrecke wieder störungsfrei getrennt werden können. Je nachdem ob die Signale anhand ihrer Frequenzlagen, Wellenlängen, Zeitlagen und der modulierenden Codes unterschieden werden, spricht man von Frequenzmultiplex, Wellenlängenmultiplex, Zeitmultiplex bzw. Codemultiplex. Bei Störungen kann es zur Überlagerung mehrerer Gespräche, dem Übersprechen, kommen. Auf zwei Besonderheiten in Bild 1-4 wird noch hingewiesen. Teilnehmer A und B betreiben jeweils mehrere Endgeräte am S0-Bus. Die S0-Schnittstelle unterstützt bis zu 8 Teilnehmerendgeräte. Sollen nicht-S0-fähige Geräte benutzt werden, so ist ein geeigneter Terminaladapter (TA) erforderlich. Teilnehmer B betreibt ein digitales schnurloses Telefon (Portable Part, PP) mit einer „Luftschnittstelle“ oder Funkschnittstelle nach dem DECT-Standard mit einer Basisstation (Fixed Part, FP) am S0-Bus. Obgleich hier nicht auf die technischen Einzelheiten eingegangen werden kann, macht das Beispiel doch die in der Nachrichtentechnik typische Denkweise deutlich: Komplexe nachrichtentechnische Systeme werden in quasi unabhängige, überschaubarere Teilsysteme zerlegt. Für ein einwandfreies Zusammenwirken der Teile sorgen die Schnittstellen. Wie in Bild 1-4 skizziert, findet der Nachrichtenaustausch von Endgerät zu Endgerät über verschiedene Schnittstellen statt. Daneben existiert eine Vielzahl weiterer Schnittstellen im TKNetz, die für ein geordnetes Zusammenspiel der einzelnen Netzkomponenten sorgen. Wichtiger Bestandteil der Schnittstellen zum Datenaustausch ist das Protokoll das Art und Ablauf der Kommunikation festlegt, wie in Abschnitt 6 noch genauer erläutert wird.
1.5 Digitale Signalverarbeitung
11
Die Regeln für den Datenaustausch an einer Schnittstelle werden durch das Protokoll festgelegt. Es definiert die Datenformate, die möglichen Befehle und Meldungen und die zugehörigen Zeitvorgaben.
Anmerkung: Die fortgeschritten Mikroelektronik ermöglicht zunehmend „intelligente“ Geräte und Komponenten zu verwenden, die in einer Initialisierungsphase das zu verwendende Protokoll gegenseitig aushandeln; vergleiche auch Plug-and-Play (PnP).
Telekommunikationsnetze ermöglichen die Übermittlung, d. h. Übertragung und Vermittlung, von Nachrichten zwischen bestimmten Netzzugangspunkten. Sie stellen dazu Dienste mit bestimmten Dienstmerkmalen zur Verfügung.
In Bild 1-4 ist bereits die Evolution des Telefonnetzes zu einem universellen TK-Netz angedeutet, einem so genannten Intelligenten Netz (IN) Während in der herkömmlichen Telefonie anhand der gerufenen Nummer stets eine Gesprächsverbindung aufgebaut wird, nimmt der ISDN-Teilnehmer über den Zeichengabekanal direkt Verbindung mit der Dienststeuerung des TK-Netzes auf und kann so verschiedene Dienste abrufen, wie die Sprachübertragung, die Bildtelefonie, die Datenübertragung, den Telefax-Dienst, die Anrufumlenkung, usw. Abschließend sei angemerkt, den rechtlichen Rahmen zum Betrieb von TK-Netzen in Deutschland liefert das Telekommunikationsgesetz (TKG), dessen Anwendung durch die Bundesnetzagentur (www.bundesnetzagentur.de) begleitet wird. Anmerkung: Weiterführende Darstellungen zum Thema Telekommunikationsnetze findet man z. B. in [Con04], [Sch06], [SDHT07], [Sta00], [Tan03] und [Wer05].
1.5
Digitale Signalverarbeitung
Auf einer Nachrichtenübertragungsstrecke werden Signale auf vielfältige Art und Weise verarbeitet, vergleiche Bild 1-3. Die modernen Verfahren zur Sprach-, Audio- und VideoCodierung sind eindrucksvolle Beispiele für die Leistungsfähigkeit der digitalen Signalverarbeitung. Die Signalverarbeitung beschränkt sich nicht auf die Nachrichtenübertragungstechnik. Sie hat sich als digitale Signalverarbeitung zu einer Grundlagendisziplin in vielen naturwissenschaftlich-technischen Anwendungsfeldern entwickelt. Signale können an unterschiedlichen Stellen entstehen. Beispielsweise ein Musiksignal am Mikrofon, ein Bildsignal an der Videokamera, ein Sensorsignal am Drehzahlmesser einer Maschine, ein Bildsignal bei der Computertomographie usw. Heute werden diese Signale meist am Entstehungsort digitalisiert und in einer für Computer bzw. Mikrocontroller brauchbaren Form dargestellt. Oft sind die Signale bei ihrer Entstehung oder Übertragung von Störungen überlagert, die vor einer Weiterverarbeitung zunächst reduziert werden müssen. Dazu werden an die Signale und Störungen angepasste Verfahren, wie z. B. Filterung und Entzerrung, eingesetzt. Daneben spielt die Mustererkennung eine wichtige Rolle. Typische kommerzielle Beispiele sind die automatischen Sprach- und Schrifterkennungssysteme, die Bildverarbeitungssysteme in der Qualitätskontrolle oder der Medizin und die automatischen Patientenüberwachungs-
12
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
systeme in den Kliniken. Als neue kommerzielle Anwendungen treten die Fahrassistenzsysteme hinzu: Beispielsweise werden von einer Kamera hinter der Windschutzscheibe bis zu 30 Bilder pro Sekunde aufgenommenen und in der Bildfolge Verkehrszeichen und Fahrbahnbegrenzungen automatisch erkannt und dem Fahrer angezeigt. Seit der rasanten Verbesserung des Preis-Leistungsverhältnisses in der Mikroelektronik, ist die digitale Signalverarbeitung aus vielen Anwendungsfeldern nicht mehr wegzudenken bzw. hat sie erst entstehen lassen. Speziell dafür entwickelte Mikrocontroller, digitale Signalprozessoren genannt, ermöglichen den kostengünstigen Einsatz anspruchsvoller Verfahren. Durch den programmgesteuerten Ablauf lassen sich insbesondere adaptive Verfahren realisieren, die sich automatisch an veränderte Bedingungen anpassen. Als Maß für die Komplexität moderner Algorithmen1 der digitalen Signalverarbeitung wird häufig die Anzahl der Rechenoperationen in MOPs (Mega Operations per second) angegeben. Wie enorm die Anforderungen sein können, zeigen die Kennzahlen digitaler Sprachcodierverfahren. Für den 1991 in den ersten GSM-Mobiltelefonen eingesetzten Full-Rate Sprachcoder werden 3,5 MOPs benötigt. Der heute in GSM-Handys gebräuchliche Enhanced Full-Rate Sprachcoder und der verwandte ITU-Sprachcoder G.729 verbrauchen bereits 18 MOPs [VHH98]. Im Jahr 2006 hat die ITU-T mit der Empfehlung G729.1 einen Sprachcoder für die Telefonie mit ca. 36 MOPs vorgeschlagen ([BSH08], Table 17.13). In der Audio- und Videocodierung ist die Komplexität noch größer. Anmerkungen: (i) Zum Vergleich sei die Leistungsfähigkeit des ersten Supercomputers, der Cray I aus dem Jahre 1976, genannt mit 130 MFLOPs (Floating Point Operations per second). (ii) Einen Einstieg in die weiterführende Literatur findet man beispielsweise in [Grü04], [KaKr06], [MeHo04], [OSB04], [Schü08], [Wer08a], [Wer08b] und [Wer08c]. Einen Überblick über die Methoden und Anwendungen der Sprachverarbeitung gibt [BSH08].
1.6
Wiederholungsfragen zu Abschnitt 1
Im ersten Abschnitt stehen Grundbegriffe und Konzepte der Nachrichtentechnik im Mittelpunkt. Beantworten Sie hierzu folgende Fragen: A1.1 Was sind die Aufgaben der Nachrichtentechnik? A1.2 Erklären Sie die Begriffe: Signal, Schnittstelle und Protokoll. A1.3 Was sind die Aufgaben der Quellencodierung, der Kanalcodierung und der Leitungscodierung bzw. Modulation? A1.4 Skizzieren Sie das shannonsche Kommunikationsmodell. A1.5 Was sind die Aufgaben eines Telekommunikationsnetzes? A1.6 Nennen Sie drei Anwendungsgebiete der digitalen Signalverarbeitung.
1
Chwarismi, Mohammed (mittellateinisch Algorismi): * um 780, †846, persischer Mathematiker und Astronom. Von seinem Namen leitet sich der Ausdruck Algorithmus ab.
13
2
Signale und Systeme
2.1
Einführung
Dem Mitbegründer der modernen Informationstheorie Norbert Wiener1 wird die Feststellung zugeschrieben: „Information is information, not matter or energy“. Die Information besitzt ihre eigene Qualität; sie gehört zu den Fundamenten unserer Welt, wie Stoff oder Energie. Der Ausspruch deutet die Schwierigkeit an, Information im technischen Sinne greifbar zu machen. Die Nachrichtentechnik unterscheidet deshalb zwischen der Information im Sinne einer Nachricht und ihrer physikalischen Darstellung, dem Signal, dessen Eigenschaften gemessen werden können. Die Untersuchung von Signalen und deren Veränderungen durch elektrische Netzwerke ist seit langem Gegenstand der Nachrichtentechnik. Deren Ergebnisse und Erkenntnisse aus anderen Wissenschaftsgebieten führten zur fachübergreifenden Theorie der Signale und Systeme, der Systemtheorie. Die Systemtheorie beschreibt Signale als mathematische Funktionen und macht sie der mathematischen Analyse und Synthese zugänglich. Reale physikalische Signale werden durch Modelle in Form mathematischer Idealisierungen angenähert. Systeme und deren Reaktionen auf Signale. Reale physikalische Systeme werden durch Modelle angenähert, die in einem eingeschränkten Arbeitsbereich das Systemverhalten wiedergeben. Dieser Abschnitt gibt eine kurze Einführung in den Themenkreis Signale und Systeme aus nachrichtentechnischer Sicht. Zunächst werden die grundlegenden Signalarten vorgestellt. Danach werden beispielhaft einfache elektrische Netzwerke als lineare zeitinvariante Systeme betrachtet und es wird aufgezeigt, wie das Ausgangssignal für ein beliebiges Eingangssignal berechnet werden kann. Ausgehend von der komplexen Wechselstromrechnung, die hier als bekannt vorausgesetzt wird, wird mit den Fourier-Reihen das Lösungsverfahren auf periodische Signale erweitert. Mit der Fourier-Transformation wird schließlich die Betrachtung auf aperiodische Signale ausgedehnt. Durch die Fourier-Reihen bzw. Fourier-Transformation wird das Spektrum als die Signalbeschreibung im Frequenzbereich eingeführt und die Bandbreite als wichtige Kenngröße definiert. Der fundamentale reziproke Zusammenhang zwischen Impulsdauer und Bandbreite wird erläutert und seine Bedeutung für die Nachrichtentechnik aufgezeigt. Passend zur Charakterisierung der Signale im Frequenzbereich werden die Systeme durch den Frequenzgang beschrieben und Tiefpass-, Hochpass- und Bandpass-Filter vorgestellt. 1
Norbert Wiener: *1884, †1964, US-amerikanischer Mathematiker, grundlegende Arbeiten zur Kybernetik [Wie48].
14
2 Signale und Systeme
Mit der Definition der Impulsfunktion als mathematische Idealisierung eines „sehr kurzen und energiereichen“ Signals wird die Impulsantwort als die wesentliche Systemfunktion eingeführt. An ihr lassen sich die wichtigen Systemeigenschaften erkennen. Darüber hinaus können Impulsantwort und Frequenzgang mit der Fourier-Transformation ineinander umgerechnet werden. So schließt sich der Kreis zwischen den Systembeschreibungen im Frequenzbereich und im Zeitbereich. Anmerkung: Zu einem tiefer gehenden Einstieg in das Thema Signale und Systeme eignen sich beispielsweise [GRS07], [MeHo04], [Mey06], [OpWi89], [OWN97], [Sch88], [Sch91] und [Wer08b]. In [Unb98], [Unb02] und [Sch08] findet sich eine kompakte Zusammenstellung von Grundlagen und Anwendungen für Leser mit fortgeschrittenen Kenntnissen.
2.2
Klassifizierung von Signalen
2.2.1
Zeitkontinuierliche und zeitdiskrete Signale
Ein Signal ist eine mathematische Funktion von mindestens einer unabhängigen Variablen. Wir schreiben für ein Signal allgemein x(t); falls es sich um elektrische Spannung oder Strom handelt auch u(t) bzw. i(t). Die Variable t steht für die Zeit. Ist t kontinuierlich, so liegt ein zeitkontinuierliches Signal vor. Ist die Zeitvariable nur für diskrete Werte definiert, so spricht man von einem zeitdiskreten Signal und schreibt x[n]. Der Laufindex n wird normierte Zeitvariable genannt. Anmerkung: Für zeitdiskrete Signale sind in der Literatur auch x(n) bzw. x(k) verbreitet.
Im Beispiel der Telefonie liefert das Mikrofon eine sich zeitlich ändernde elektrische Spannung. Deren prinzipieller Verlauf könnte wie in Bild 2-1 aussehen, einer Aufnahme des Wortes „Ful-da“. 0,4
u(t) in V
t in s 0
0,8
0,4 Bild 2-1 Mikrofonspannung als Funktion der Zeit
Ein zeitdiskretes Signal entsteht häufig durch gleichförmige zeitliche Diskretisierung eines zeitkontinuierlichen Signals, siehe Bild 2-2. Man spricht von einer Abtastung und der Abtastfolge x[n] = x(t = nTa)
(2.1)
mit dem Abtastintervall Ta. Der Übergang vom zeitkontinuierlichen zum zeitdiskreten Signal wird in Abschnitt 3 ausführlich behandelt. Es sind jedoch auch viele Signale von Natur aus zeitdiskret, wie der tägliche Börsenschlusswert einer Aktie.
2.2 Klassifizierung von Signalen
15 x[n]
x(t)
t Ta
n 0
5
10
Bild 2-2 Zeitkontinuierliches und zeitdiskretes Signal (im Stabdiagramm) mit dem Abtastintervall Ta
2.2.2
Wertkontinuierliche, wertdiskrete, analoge und digitale Signale
u(t) 12V
Bit
0
1
2
3
4
5
6
7
Stoppbit
Solche Signale treten häufig in der Digitaltechnik auf und werden dort, abweichend von der Sprechweise hier, auch als digitale Signale bezeichnet.
Startbit
Kann ein Signal nur zwei Werte annehmen, wie beispielsweise in Bild 2-3, so spricht man von einem binären Signal.
Paritätsbit
Betrachtet man den Funktionswert, so unterscheidet man wertkontinuierliche und wertdiskrete Signale. Bei der Signalverarbeitung an Digitalrechnern liegen aufgrund der endlichen Wortlänge der Zahlendarstellung stets wertdiskrete Signale vor. Sie werden taktgesteuert verarbeitet. Man nennt derartige wert- und zeitdiskrete Signale digitale Signale im Gegensatz zu analogen Signalen, die wert- und zeitkontinuierlich sind.
„0“
t
Anmerkung: Bild 2-3 zeigt ein Signal der RS232-Schnittstelle am PC. Es wird das Zeichen „1“ 12V „Y“ in der ASCII-Darstellung 89 = 20 + 23 + 24 + 6 8,33 ms 2 übertragen, siehe Abschnitt 5. Das Akronym ASCII steht für American Standard Code for Information Interchange, der von der ITU als Internationales Alphabet Nr. 5 (IA5) eingeführt ist. Bild 2-3 Binäres zeitkontinuierliches Signal zur Übertragung eines ASCII-Zeichens Y Die Schrittgeschwindigkeit im Beispiel beträgt (10011010) 1200 Baud1 pro Sekunde.
Als Beispiel eines digitalen Signals betrachte man ein Thermometer, welches zur Prozessüberwachung einmal pro Minute abgelesen wird. Das Thermometer habe eine Ablesegenauigkeit von 1°C. Ein Messprotokoll könnte Bild 2-4 enthalten. Es liegt ein digitales Signal vor, das sich für n = 0, 1, 2, ..., 10 in der üblichen Mengenschreibweise so darstellt: x[n] = {2, 2, 3, 4, 6, 9, 9, 8, 6, 3, 5}. Das Konzept der Signale und Systeme kann überall da angewandt werden, wo geordnete Zahlenfolgen anfallen. Derartige Signale werden, insbesondere in den Wirtschaftswissenschaften, oft Zeitreihen genannt. Ihre Auswertung, wie beispielsweise erkennen periodischer Vorgänge 1
Jean Maurice Emilie Baudot: *1845, †1903, französischer Entwickler eines Schnelltelegrafen und Schöpfer des internationalen Fernschreibcode Nr. 1.
16
2 Signale und Systeme
zur Vorhersage von Entwicklungen in Rohstoff-, Waren- oder Aktienmärkten oder das Entfernen rauschartiger Einflüsse in der Messtechnik, ist Gegenstand der Systemtheorie. Anmerkung: Man beachte den prinzipiellen Unterschied zwischen den durch einen Laufindex geordneten gleichartigen Daten, den Signalen der Nachrichtentechnik, und den in Datenbanken verknüpften Daten der Datenverarbeitung in der Informatik, wie Adressen, Kontonummern, bestellte Artikel, usw. Bild 2-4 Temperaturwerte als Beispiel eines digitalen Signals
2.2.3
Temperatur in °C 10 5 0 0
5 10 Zeit in Minuten
Periodische und aperiodische Signale
In der Fourier-Analyse ist die Unterscheidung der Signale in periodische und aperiodische wichtig. Gilt x(t T0 )
x(t )
für alle t bzw. x[n N 0 ]
x[n]
für alle n
(2.2)
so liegt ein periodisches Signal vor. Die kleinste positive Zahl T0 bzw. N0 für die (2.2) gilt heißt Periode. Ist das Signal nicht periodisch, so spricht man von einem aperiodischen Signal. Bild 2-5 zeigt oben einen Rechteckimpuls der Pulsdauer T als Beispiel eines aperiodischen Signals. Darunter wird der Rechteckimpuls periodisch im Abstand T0 wiederholt. Man erhält einen periodischen Rechteckimpulszug mit dem Tastverhältnis T/T0. xT(t) t
T xp(t)
T0
t
Bild 2-5 Rechteckimpuls (oben) und periodischer Rechteckimpulszug (unten)
Eine wichtige Anwendung periodischer Signale ist die komplexe Wechselstromrechnung. Dort werden sinusförmige bzw. exponentielle Signale vorausgesetzt. Die eulersche Formel1 liefert für die (allgemein) Exponentielle den Zusammenhang
x(t )
1
e st
eV t ª¬cos Z t j sin Z t º¼
Leonhard Euler: *1707, †1783, schweizer Mathematiker.
(2.3)
2.2 Klassifizierung von Signalen
17
mit der komplexen Frequenz
s V jZ
(2.4)
Man unterscheidet drei Fälle: die angefachte Exponentielle mit V > 0, die harmonische Exponentielle mit V = 0 und die gedämpfte Exponentielle mit V < 0. Die zugehörigen Signalverläufe sind in Bild 2-6 veranschaulicht. Das Bild links oben zeigt einen Ausschnitt des Realteils von x(t) im gedämpften Fall mit V = 1. Zusätzlich ist der Verlauf der Einhüllenden eVt eingezeichnet. Die Einhüllende und ihr Negatives begrenzen das Signal von oben bzw. unten. Mit V = 0 erhält man den harmonischen Fall im oberen rechten Bildausschnitt. Schließlich ist links unten der Signalverlauf des Realteils für V = 1 zu sehen. Man erkennt das schnelle exponentielle Wachstum der Einhüllenden. Das letzte Teilbild zeigt einen Ausschnitt der Ortskurve der allgemein Exponentiellen in der komplexen Ebene in Polardarstellung. Im gedämpften Fall beginnt die Ortskurve außen und läuft mit wachsender Zeit spiralförmig in den Ursprung. Derselbe spiralförmige Verlauf ergibt sich im angefachten Fall. Jedoch beginnt dann die Ortskurve im Ursprung und läuft mit wachsender Zeit nach außen. Anmerkung: Die Signale wurden, wie auch die in den nachfolgenden Bildern, numerisch am PC berechnet. Re[x(t)] für V < 0
Re[x(t)] für V = 0
Einhüllende
t
0
t
0
Im[x(t)]
Re[x(t)] für V > 0
90
Einhüllende 0
10
5
t
0
180
270
Re[x(t)]
Polardarstellung
Bild 2-6 Beispiele zur zeitkontinuierlichen allgemeinen Exponentiellen
2.2.4
Deterministische und stochastische Signale
Bei der bisherigen Unterscheidung der Signale wurde ihre Form, ihr Funktionstyp, zugrunde gelegt. Eine weitere sehr wichtige Unterscheidung ergibt sich aus der Art ihrer Entstehung und demzufolge ihrer Beschreibung. Genauer gesagt, ob das Signal prinzipiell exakt vorhergesagt werden kann oder nicht. Im ersten Fall handelt es sich um ein deterministisches Signal. Lassen
18
2 Signale und Systeme
sich für das Signal nur statistische Kenngrößen, wie Mittelwert, Varianz und Korrelation angeben, so spricht man von einem stochastischen Signal oder Zufallssignal. Typische Beispiele für ein stochastisches Signal sind die thermische Rauschspannung eines Widerstands oder die elektrische Spannung am Mikrofonausgang eines Fernsprechapparats ähnlich dem in Bild 2-1 gezeigten Verlauf. Das charakteristische Verhalten eines regellosen stochastischen Signals zeigt das linke Teilbild in Bild 2-7, wohingegen das stochastische Signal rechts im Bild neben einem An- und Abklingen eine gewisse periodische Grundstruktur aufweist. Stochastische Signale spielen in der Nachrichtentechnik eine herausragende Rolle. Alle informationstragenden Signale sind stochastischer Natur. Andernfalls wäre die Nachricht bereits bekannt und eine Mitteilung könnte unterbleiben. Anmerkungen: (i) Streng genommen handelt es sich bei allen abgebildeten Signalen um deterministische Signale, da sie durch die Abbildung eindeutig bestimmt sind. Man spricht treffender von einer Musterfunktion eines stochastischen Prozesses. (ii) Einführungen in die Wahrscheinlichkeitsrechnung und ihre Anwendung auf stochastische Prozesse in der Nachrichtentechnik sind in den meisten Lehrbüchern zu Signale und Systeme zu finden. z. B. [Wer08b]. Als Einführung in die elementare Wahrscheinlichkeitsrechnung eignen sich so genannte Abiturhilfen bekannter Schul- und Lehrmittelverlage. (iii) In [Tar98] findet sich eine interessante Darstellung über das Wesen der Wahrscheinlichkeit aus dem Blickwinkel des Naturforschers. Rauschsignal
Tonsignal
0
0
Zeit
Zeit
Bild 2-7 Stochastische Signale (links Rauschsignal und rechts das Tonsignal Blip.wav, ca. 1 s Dauer)
2.2.5
Energie- und Leistungssignale
Für die Analyse von Signalen und Systemen, d. h. der Anwendbarkeit der mathematischen Methoden, ist die Unterscheidung von Energie- und Leistungssignalen wichtig. Betrachtet man zunächst die Spannung u(t) und den Strom i(t) an einem Widerstand R, so erhält man die Momentanleistung R i 2 (t )
u (t ) i (t )
p(t )
(2.5)
Die Energie E und die mittlere Leistung P sind dann
E
R
f
³i
f
2
(t ) dt
(2.6)
2.3 Lineare zeitinvariante Systeme
19
und P
1 R lim T of T
T / 2
³
i 2 (t ) dt
(2.7)
T / 2
Betrachtet man gegebenenfalls nach geeigneter Normierung der zugrunde liegenden physikalischen Größen, z. B. durch Bezug auf einen Referenzwiderstand von 1 : dimensionslose Signale, so definiert man die normierte Energie f
E
³
x(t ) 2 dt
(2.8)
f
und die normierte Leistung P
1 T of T lim
T / 2
³
2
x(t ) dt
(2.9)
T / 2
Man spricht von Energiesignalen und Leistungssignalen, wenn E bzw. P als nichtnegative endliche Werte existieren. Energiesignale sind alle zeit- und amplitudenbegrenzte Signale, wie z. B. der Rechteckimpuls. Leistungssignale sind periodische Signale wie die Sinus- und Kosinusfunktion oder der periodische Rechteckimpulszug. Insbesondere sind alle später noch betrachteten stochastischen Signale ebenfalls Leistungssignale.
2.3
Lineare zeitinvariante Systeme
Die komplexe Wechselstromrechnung liefert ein gutes Beispiel für einen Einstieg in das Konzept von Signalen und Systemen. Darüber hinaus führt ihre Verallgemeinerung direkt zu der in der Nachrichtentechnik und anderen Wissenschaftsgebieten häufig benutzten Theorie der linearen zeitinvarianten Systeme. In den folgenden Abschnitten werden elektrische Netzwerke betrachtet, die sich aus den idealen Bauelementen Widerstand R, Induktivität L und Kapazität C und den idealen Quellen zusammensetzen. Trotz der Idealisierung haben derartige Netze in der Nachrichtentechnik eine hohe praktische Bedeutung, weil sie oft reale Systeme im Arbeitsbereich gut beschreiben. So lassen sich reale Widerstände, Spulen und Kondensatoren meist durch RLC-Ersatzschaltungen modellieren [Unb93]. Die erste wesentliche Eigenschaft solcher RLC-Netzwerke ist die Linearität. Sie entspricht physikalisch dem Superpositionsprinzip und garantiert eine relativ einfache mathematische Beschreibung. In der Praxis wird deshalb angestrebt, komplizierte Schaltungen durch RLC-Netzwerke zu modellieren; man spricht von der Linearisierung der Schaltung. Die zweite wichtige Eigenschaft wird meist stillschweigend vorausgesetzt: die Zeitinvarianz. Das heißt, die Bauelemente ändern idealer Weise ihre Eigenschaften im betrachteten Zeitraum nicht. Beides führt unmittelbar zu dem Begriff des linearen zeitinvarianten Systems (LTI-System, Linear Time Invariant). Hierzu betrachte man in Bild 2-8 den passiven elektrischen Vierpol in seiner Darstellung als System mit je einem Ein- und Ausgang und beispielsweise den Signalen x(t) = u1(t) und y(t) = u2(t).
20
2 Signale und Systeme
i1(t) u1(t)
Eingang
i2(t) RLCNetzwerk
u2(t)
Ausgang
x(t)
System
y(t)
Bild 2-8 RLC-Netzwerk als Zweitor (links) und als System mit einem Ein- und Ausgang (rechts)
Zwei Eingangssignalen x1(t) und x2(t) seien die Ausgangssignale y1(t) bzw. y2(t) zugeordnet. Das System ist dann linear, wenn für eine beliebige Linearkombination der Eingangssignale mit den Konstanten D1 und D2 stets die entsprechende Linearkombination der Ausgangssignale y1(t) und y2(t) zu beobachten ist, siehe Bild 2-9.
xˆ1 cos(Z1t M11 ) x2 (t ) xˆ2 cos(Z2 t M 21 ) x1 (t ) ¦
D1 x1 (t ) D 2 x2 (t )
Eingang
Ausgang
LTISystem
y1 (t ) y2 (t )
¦
yˆ1 cos(Z1t M12 ) yˆ 2 cos(Z2 t M 22 )
D1 y1 (t ) D 2 y2 (t )
Bild 2-9 Zur Linearität eines LTI-Systems
Diese Bedingung muss streng genommen für die Überlagerung von beliebig vielen, in Summe leistungs- bzw. energiebegrenzten Signalen gelten, wie sie sich beispielsweise durch die harmonische Analyse im nächsten Unterabschnitt ergibt. Für RLC-Netzwerke kann die Linearität direkt aus den physikalischen Definitionsgleichungen für Strom und Spannung an den Bauelementen abgelesen werden. Da diese lineare mathematische Operationen sind, muss jede Linearkombination solcher Operationen, also Verschaltung der Bauelemente, wieder ein lineares System sein. Allgemein gilt: Beschränken sich die mathematischen Operationen auf die Addition von Signalen, die Multiplikation der Signale mit Konstanten und die Differentiation oder Integration der Signale nach der Zeit, so resultiert ein LTI-Systeme Die Linearität ist deshalb so wichtig, weil dadurch das weitere Vorgehen festgelegt wird. Will man die Reaktion eines LTI-Systems auf ein beliebiges Eingangssignal bestimmen, so bietet sich an, das Eingangssignal in sinusförmige Signalkomponenten zu zerlegen. Für diese kann die Wirkung, z. B. mit den Methoden der komplexen Wechselstromrechnung, gefunden werden. Die Systemreaktion ergibt sich dann aus der Überlagerung der Wirkungen der einzelnen Signalkomponenten. Das Werkzeug hierzu liefert die Mathematik mit der Fourier-Reihe und ihrer Verallgemeinerung, der Fourier-Transformation. Anmerkung: In der Wechselstromrechnung wird vorausgesetzt, dass bei sinusförmiger Erregung mit einer festen Frequenz, alle Spannungen und Ströme ebenfalls sinusförmig und mit gleicher Frequenz sind, nur Amplituden und Phasen unterscheiden sich. Dem liegt bei LTI-Systemen ein allgemeiner Zusammenhang zugrunde: Ein Signale von der Form einer (allgemein) Exponentiellen am Systemeingang führen auf die Exponentielle gleicher Frequenz am Ausgang; man spricht von einer Eigenfunktion [Wer08b]. Es ist deshalb nicht verwunderlich, dass wichtige Gleichung der Physik zur Ausbreitung von Wärme, mechanischer und elektromagnetischer Energie, durch komplex Exponentielle gelöst werden, siehe Wellengleichungen bzw. die Telegrafengleichung.
2.4 Fourier-Reihen
2.4
21
Fourier-Reihen
Die Entwicklung einer Funktion in ihre Fourier-Reihe1 bzw. Fourier-Transformierte bezeichnet man als harmonische Analyse. Die Funktion wird dabei als Überlagerung von sinusförmigen Schwingungen oder allgemein Exponentiellen dargestellt. Ist die Funktion ein Eingangssignal eines LTI-Systems, kann das Ausgangssignal relativ einfach berechnet werden. Die harmonische Analyse ist deshalb ein wichtiges mathematisches Werkzeug in der Nachrichtentechnik und spielt auch in anderen Fachgebieten eine große Rolle. In diesem Abschnitt werden periodische reelle Signale betrachtet, wie der Rechteckimpulszug in Bild 2-5. Ein periodisches Signal x(t) kann stets durch eine Fourier-Reihe dargestellt werden, wenn es den Dirichlet-Bedingungen2 genügt [BSMM99]: a) Innerhalb einer Periode T0 ist x(t) in endlich viele Intervalle zerlegbar, in denen x(t) stetig und monoton ist. b) An jeder Unstetigkeitsstelle (Sprungstelle) sind die Werte x(t+0) und x(t0) definiert. Die in der Nachrichtentechnik wichtigen periodischen Signale erfüllen die beiden Bedingungen. Je nach Bedarf kann eine der drei nachfolgenden äquivalenten Formen der Fourier-Reihe benutzt werden. Trigonometrische Form Die trigonometrische Form der Fourier-Reihe stellt das mit T0 periodische Signal x(t) als Überlagerung von Sinus- und Kosinusschwingungen dar
a0 f ak cos kZ0 t bk sin kZ0t 2 k 1
¦
x(t )
(2.10)
mit der Grundkreisfrequenz 2S T0
Z0
(2.11)
und den Fourier-Koeffizienten a0
ak
1 2
2 T0
t0 T0
³
2 T0
t0 T0
³
x(t ) dt
t0
x(t ) cos kZ0t dt
(2.12)
für k 1, 2,3,!
t0
[Jean-Baptiste] Joseph Baron de Fourier: *1768, †1830, französischer Mathematiker und Physiker. [Lejeune] Peter Dirichlet: *1805, †1859, deutsch-französischer Mathematiker.
22
2 Signale und Systeme
bk
2 T0
t0 T0
³
x(t ) sin kZ0 t dt
1, 2, 3,!
für k
t0
Harmonische Form Mit den trigonometrischen Formeln können die Sinus- und Kosinusterme gleicher Frequenz zu einer Harmonischen zusammengefasst werden. x(t )
C0
f
¦ Ck cos kZ0t T k
(2.13)
k 1
mit den Amplituden bzw. Phasen C0
a0 , Ck 2
ak2 bk2
§b · arctan ¨ k ¸ © ak ¹
Tk
für k
1, 2,3!
(2.14) für k
1, 2,3!
Das konstante Glied C0 entspricht dem Gleichanteil des Signals. Also im Falle eines elektrischen Signals dem Gleichstrom- bzw. Gleichspannungsanteil. Der Anteil für k = 1 wird Grundschwingung oder 1. Harmonische und die Anteile zu k = 2, 3, ... werden 1. Oberschwingung oder 2. Harmonische usw. genannt. Komplexe Form Alternativ können die Sinus- und Kosinusterme mit der eulerschen Formel als Linearkombinationen von Exponentialfunktionen geschrieben werden f
¦
x(t )
ck e jkZ0t
(2.15)
k f
mit den komplexen Fourier-Koeffizienten ck
1 T0
t0 T0
³
x(t ) e jkZ0t dt
(2.16)
t0
Dabei wird ohne Unterschied mit positiven (k > 0) und negativen (k < 0) Kreisfrequenzen gerechnet. Für die üblichen reellen Signale gilt die Symmetrie c k
ck*
und der Zusammenhang mit den Koeffizienten der trigonometrischen Form
(2.17)
2.4 Fourier-Reihen
23
c0
a0 2
1 ak jbk 2
und ck
für k
1, 2,3,!
(2.18)
Parsevalsche Gleichung Die Sinus- und Kosinusfunktionen der Fourier-Reihe bilden ein vollständiges Orthogonalsystem, das den mittleren quadratischen Fehler minimiert. Diese wichtige Eigenschaft drückt sich in der parsevalschen Gleichung1 aus [BSMM99].
1 T0
T0
³
f
¦
2
x(t ) dt
ck
2
(2.19)
k f
0
Sie verknüpft die mittlere Signalleistung in einer Periode mit den Fourier-Koeffizienten. Damit kann auch die Approximationsgüte einer abgebrochenen Fourier-Reihe abgeschätzt werden. Beispiel Fourier-Reihe des periodischen Rechteckimpulszuges
In der Nachrichtenübertragungstechnik werden Rechteckimpulse zur binären Datenübertragung verwendet, siehe Bild 2-3. Dazu passend wird als Beispiel der periodische Rechteckimpulszug xp(t) in Bild 2-5 mit der Periode T0, dem Tastverhältnis T/T0 und der Amplitude A betrachtet. xp(t) wird in eine trigonometrische Fourier-Reihe entwickelt. Als Integrationsintervall über eine Periode wird t [T0/2, T0/2] gewählt. Für die Fourier-Koeffizienten (2.12) erhält man a0
ak
2 T0
T /2
³
2 T0
T0 / 2
³
2A
x p (t ) dt
T0 / 2
A cos kZ0t dt
T / 2
2A 1 T0 kZ0
T T0
(2.20)
kZ0T º ª kZ T «sin 0 sin 2 2 »¼ ¬
Da die Sinusfunktion ungerade ist, wird das Minuszeichen aus dem Argument vorgezogen. Nach Zusammenfassen der beiden Sinusterme ergeben sich nach kurzer Umformung die Fourier-Koeffizienten ak
2A
T sin kZ 0T / 2 T0 kZ 0T / 2
2A
T si(kZ0T / 2) T0
für k
0,1, 2,!
(2.21)
wobei die si-Funktion si( x)
sin x x
benutzt wurde. Anmerkung: In der Literatur wird ebenfalls die Kurzschreibweise sinc(x) = si(S x) verwendet.
1
Marc-Antoine Parseval des Chênes: *1755, †1836, französischer Mathematiker.
(2.22)
24
2 Signale und Systeme
Mit der Regel von L'Hospital1 lässt sich zeigen, dass für die si-Funktion an der Stelle null gilt si(0)
sin x x o0 x lim
1
(2.23)
Für die Fourier-Koeffizienten zu den Sinusfunktionen (2.12) resultiert bk = 0 für k = 1, 2, 3, ..., weil xp(t) eine gerade Funktion ist. Ersetzt man schließlich noch in (2.21) Z0 durch 2S/T0, so hängen die Fourier-Koeffizienten nur vom Tastverhältnis ab. Die Fourier-Reihe des periodischen Rechteckimpulszuges nimmt damit die endgültige Form an.
x p (t )
2A
T T0
ª1 f § § T · t ·º « si ¨ S k ¸ cos ¨ 2S k ¸ » T0 ¹ ¼» © ¬« 2 k 1 © T0 ¹
¦
(2.24)
In vielen Anwendungen ist es oft ausreichend, Signale nur durch eine endliche Zahl von Gliedern der Fourier-Reihe anzunähern. In Bild 2-10 wird der entstehende Approximationsfehler veranschaulicht. Man erkennt deutlich die Annäherung an den Rechteckimpulszug bei wachsender Zahl von berücksichtigten Harmonischen. An den Sprungstellen zeigt sich das als gibbsches Phänomen2 bekannte Über- bzw. Unterschwingen der Approximation. Erhöht man die Zahl der berücksichtigten Harmonischen weiter, so ist das Über- bzw. Unterschwingen von ca. 9 % der Sprunghöhe der Unstetigkeitsstelle weiter zu beobachten. Die maximalen Abweichungen rücken dabei immer näher an die Sprungstelle. Erst im Grenzfall k o f fallen sie zusammen und kompensieren sich. Anmerkung: Eine quantitative Behandlung des Approximationsfehlers ist mit der parsevalschen Gleichung möglich. Sie stellt auch sicher, dass mit jedem zusätzlich berücksichtigten Glied der Approximationsfehler im quadratischen Mittel abnimmt.
2.5
Periodische Quellen in RLC-Netzwerken
Die Darstellung als Fourier-Reihe ermöglicht es, die Reaktion auf periodische Spannungs- und Stromquellen in RLC-Netzwerken mit der komplexen Wechselstromrechnung zu bestimmen. Grundlage hierzu ist, dass für aus RLC-Netzwerken aufgebaute Systeme das für LTI-Systeme typische Superpositionsprinzip gilt und die Harmonischen Eigenfunktionen des Systems sind. D. h. es darf die Wirkung jeder einzelnen Harmonischen getrennt berechnet werden. Die Teillösungen werden zur Gesamtlösung additiv überlagert. Das nachfolgende ausführliche Beispiel stellt das Verfahren vor.
1
2
Guillaume-Francois-Antonine de, Marquis de Sainte-Mesme, Compte d’Entremont (L’Hospital): *1661, †1704, französischer Mathematiker. Josiah Willard Gibbs: *1839, †1903, US-amerikanischer Physiker und Mathematiker.
2.5 Periodische Quellen in RLC-Netzwerken
25
1
1
~ p1 (t )
~ p3 (t )
0
t/T0 -1
0
-1
1
1
~ p7 (t )
~ p13 (t )
0 -1
0
1
t/T0
0
1
t/T0
0 -1
0
1
0
1
t/T0
Bild 2-10 Approximation des periodischen Rechteckimpulszuges (grau) mit dem Tastverhältnis T/T0 = 1/5 durch den Gleichanteil und den K Harmonischen p K (t )
Beispiel Periodischer Rechteckimpulszug am RC-Glied
Wir modellieren ein binäres Datensignal durch einen periodischen Rechteckimpulszug. Nehmen wir an, es wird für jede logische „1“ ein Rechteckimpuls gesendet und ansonsten das Signal ausgetastet. Dann entspricht der Datenfolge ...01010101... ein Rechteckimpulszug mit dem Tastverhältnis T/T0 = 0,5. Nehmen wir weiter an, die Übertragungsstrecke lasse sich zumindest näherungsweise durch das in Bild 2-11 gezeigte RC-Glied beschreiben, so kann das Signal am Ausgang berechnet werden. Anmerkungen: (i) Im Beispiel einer einfachen Zweidrahtleitung werden mit dem Widerstand R der Spannungsabfall entlang der Leitung und mit der Kapazität C die Querkapazitäten zwischen den Leitern modelliert. (ii) Die Aufgabe des Empfängers wäre dann, die gesendete Nachricht, die Bitfolge, aus dem Ausgangssignal zu rekonstruieren.
In einem ersten Schritt bestimmen wir die Ersatzspannungsquellen. Danach geben wir im zweiten Schritt mit der komplexen Wechselstromrechnung die zugehörigen Spannungen an der Kapazität an. Deren Überlagerung im dritten Schritt liefert schließlich das Ausgangssignal.
Eingangssignal
Eingang
RC-Glied
Ausgang
ue(t) 1V
t T0
T/2
T/2
T0
ue(t)
R
ua(t) C
Bild 2-11 Periodischer Rechteckimpulszug als Eingangssignal am RC-Glied
26
2 Signale und Systeme
1. Schritt Ersatzspannungsquellen Entsprechend der Fourier-Reihe des Rechteckimpulszuges (2.24) fassen wir die Eingangsspannung
ue (t )
2V
T T0
ª1 f § § T · t ·º « si ¨ S k ¸ cos ¨ 2S k ¸ » T0 ¹ ¼» © ¬« 2 k 1 © T0 ¹
¦
(2.25)
als Überlagerung von Spannungsquellen auf. f § t · ue (t ) U e,0 ¦ uˆe,k cos ¨ 2S k ¸ T0 ¹ © k 1
(2.26)
Und zwar der Gleichspannungsquelle T V T0
U e,0
(2.27)
und den Wechselspannungsquellen für k = 1, 2, 3, ... ue,k (t ) uˆe,k cos Zk t
(2.28)
mit den Scheitelwerten uˆe,k
2
§ T T si ¨ S k T0 © T0
· ¸V ¹
(2.29)
und den Kreisfrequenzen
Zk
k
2S T0
(2.30)
Die Zerlegung in die Ersatzspannungsquellen veranschaulichen wir in Bild 2-12.
Ue,0
G
ue(t)
#
Gleichanteil
u e,1(t)
1. Harmonische
u e,2(t)
2. Harmonische
Bild 2-12 Ersatzspannungsquellen für den periodischen Rechteckimpulszug
2.5 Periodische Quellen in RLC-Netzwerken
27
2. Schritt Komplexe Wechselstromrechnung Aus der erweiterten Spannungsteilerregel der komplexen Wechselstromrechnung folgt mit den komplexen Amplituden am Eingang Ue,k für die komplexen Amplituden am Ausgang des RCGlieds, der Kapazität, U a ,k
U e, k
1 jZk C R 1 jZk C
U e, k
1 1 jZk RC
für
k
1, 2,3,!
(2.31)
Mit der Zeitkonstanten des RC-Glieds
W
RC
(2.32)
erhalten wir aus (2.31) für k = 1, 2, 3,... die zugehörigen Spannungsfunktionen. ua , k (t )
ª U e, k º Re « e jZk t » ¬1 jZkW ¼
uˆe , k 1 Z kW
2
cos ¬ªZk t arctan ZkW ¼º
(2.33)
Anmerkung: Die Zeitkonstante W ist ein Maß für die Dauer des Ladevorgangs an der Kapazität mit in Reihe geschaltetem Widerstand. Je größer R und/oder C, umso länger dauert der Ladevorgang. Beim Entladen eines Kondensators mit der Anfangsspannung U0 beträgt die Spannung am Kondensator nach der Zeit t = W genau U0 e1 | U0 0,368.
3. Schritt Überlagerung der Teilspannungen (Superposition) zur Ausgangsspannung Die Überlagerung der Teilspannungen (2.33) liefert uns mit (2.27) und (2.28) die gesuchte Spannung an der Kapazität. f
uˆe, k
k 1
1 ZkW
ua (t ) U e,0 ¦
2
cos Zk t arctan ZkW
ª § si S kT T0 § T 1 f t W 2V « ¦ cos ¨¨ 2S k arctan ¨ 2S k 2 T0 « 2 k 1 1 2S kW T T0 T0 © © 0 ¬
º ·· ¸ ¸¸ »» ¹¹ ¼
(2.34)
Der Spannungsverlauf ist für verschiedene Werte der Zeitkonstanten in Bild 2-13 zu sehen. Im linken oberen Teilbild ist die Zeitkonstante relativ groß. Es wird bereits die Amplitude der ersten Harmonischen so stark gedämpft, dass das Ausgangssignal im Wesentlichen einem unvollständigen Lade- bzw. Entladevorgang an der Kapazität entspricht. Wählt man, wie im oberen rechten Teilbild, die Zeitkonstante gleich der Inversen der Grundkreisfrequenz, so wird die Kapazität während der Impulsdauer fast vollständig geladen bzw. entladen. Bei noch kleiner werdenden Zeitkonstanten nähert sich die Spannung an der Kapazität dem periodischen Rechteckimpuls immer mehr an. Anmerkung: Die daraus entstehenden Konsequenzen für die Datenübertragung werden in Abschnitt 5.3 ausführlicher behandelt.
Das Beispiel lässt sich verallgemeinern. Es führt uns in den nächsten Abschnitten auf die wichtigen Begriffe: Spektrum, Bandbreite, Frequenzgang und Filterung.
28
2 Signale und Systeme
W Z0 = 2 ua(t)
W Z0 = 1 ua(t)
1
V
1
V
0
0 -1
1
0
t / T0
-1
0
1
t / T0
Bild 2-13 Übertragung eines periodischen Rechteckimpulszuges (grau) mit Tastverhältnis T / T0 = 0,5 und Z0 = 2S / T0 durch ein RC-Glied mit Zeitkonstante W = RC
2.6
Spektrum periodischer Signale
Betrachtet man nochmals die Definition der Fourier-Reihe, so unterscheiden sich die Signale bei gleicher Periode nur durch die Gewichtung der Harmonischen, den Fourier-Koeffizienten. Im Beispiel des letzten Abschnittes entsprechen die Fourier-Koeffizienten den Amplituden der Ersatzspannungsquellen und haben somit eine physikalische Bedeutung. Das Konzept der Ersatzspannungsquellen in Bild 2-12 entspricht einer Verteilung der Signalleistung. Da jeder Ersatzspannungsquelle eine bestimmte Kreisfrequenz zugeordnet ist, kann auch von Signalanteilen bzw. Leistungsanteilen bei diskreten Frequenzen gesprochen werden. Hierzu wird zunächst der Zusammenhang zwischen den komplexen Fourier-Koeffizienten und den bekannten Größen der Wechselstromrechnung hergestellt. Aus der harmonischen Form der Fourier-Reihe (2.13) folgt mit (2.14) und (2.18) für die Amplitude des Gleichanteils
U0
c0
(2.35)
und die Amplitude der k-ten Harmonischen uˆk
Ck
2 ck
für k = 1, 2, 3, ...
(2.36)
Damit sind auch die mittleren Leistungsanteile an einem Widerstand R bekannt. U eff2 , k R
2 ck
2
für k = 1, 2, 3, ...
(2.37)
R
Der Betrag des k-ten komplexen Fourier-Koeffizienten ist proportional zur Amplitude der k-ten Harmonischen und das Betragsquadrat ist proportional zur am Referenzwiderstand R umgesetzten Leistung. Da dem k-ten Fourier-Koeffizienten die diskrete Frequenz k f 0 zugeordnet ist, spricht man von einem Amplitudenspektrum bzw. Leistungsspektrum eines periodischen Signals und nennt die zugeordneten Signalanteile Spektral- oder Frequenzkomponenten. Der Einfachheit halber wird kurz vom Spektrum gesprochen. Die verschiedenen Formen der Fourier-Reihe lassen es zu, dass man je nach Zweckmäßigkeit einseitige Spektren mit nur positiven (physikalischen) Frequenzen und zweiseitige Spektren mit positiven und negativen Frequenzen verwendet. Letzteres bietet rechentechnische Vorteile und ist darum in der Nachrichtentechnik gebräuchlich.
2.6 Spektrum periodischer Signale
29
Im Beispiel des periodischen Rechteckimpulszuges (2.24) resultieren die in Bild 2-14 gezeigten Amplituden- bzw. Leistungsspektren in Form von Stabdiagrammen. Darin sind die FourierKoeffizienten ck bzw. die (normierten) Leistungen |ck|2 der Signalanteile über den Index k aufgetragen. Jedem Index k ist die Frequenz fk = k f0 eineindeutig zugeordnet. Deshalb kann Bild 2-14 als Frequenzbereichsdarstellung interpretiert werden. Es resultieren Linienspektren mit äquidistant im Abstand f0 verteilten Frequenzkomponenten. Gemäß (2.21) interpoliert die si-Funktion die Fourier-Koeffizienten im oberen Teilbild.
ck
c0
0,2
§ f T · si ¨ S ¸ © f0 T0 ¹
0,1
c-5
c5
c15
0 0,1 20 15 zugeordnete
k
c10 10
5
0
5
10
15
20
f / f0
Frequenzen
|ck|2
|c0|2
0,04
0,02
|c5|2 0 20
15
10
5
0
5
10
15
20
k
Bild 2-14 Amplituden- (oben) und Leistungsspektrum (unten) des periodischen Rechteckimpulszuges mit dem Tastverhältnis T/T0 = 1/5 und f0 = 1/T0
Man beachte auch die Symmetrie der Fourier-Koeffizienten für reelle Signale (2.17). Für die Beträge der Fourier-Koeffizienten ergibt sich eine gerade Symmetrie um die Ordinate. Betragsspektrum und Leistungsspektrum werden deshalb oft nur für positive Frequenzen angegeben. Bemerkenswert ist der Zusammenhang zwischen dem Tastverhältnis und der ersten Nullstelle im Spektrum für positive Frequenzen. Mit § T · si ¨ S k ¸ © T0 ¹
0
nur für
k
T T0
r1, r 2, r 3,!
(2.38)
ergeben sich mit dem Tastverhältnis T/T0 = 1/5 Nullstellen bei k = r 5, r 10, r 15, ... . Der periodische Rechteckimpulszug besitzt keine Harmonischen mit diesen Frequenzen.
30
2 Signale und Systeme
Die Verteilung der Leistungen auf die Frequenzkomponenten im unteren Teilbild zeigt, dass die wesentlichen Anteile auf Frequenzen bis zur ersten Nullstelle k = r 5 des Spektrums beschränkt sind. Man spricht deshalb von der Bandbreite des Signals und gibt je nach Anwendung einen geeigneten Eckwert an, wie in Abschnitt 2.11 noch genauer ausgeführt wird. In vielen Fällen genügt es, die Übertragung oder Weiterverarbeitung der Signale auf die Frequenzkomponenten innerhalb der so definierten Bandbreite zu beschränken. Der dabei vernachlässigte Leistungsanteil kann mit der parsevalschen Gleichung bestimmt werden.
2.7
Übertragungsfunktion und Frequenzgang
Dieser Abschnitt knüpft an die Überlegungen zu den Ersatzspannungsquellen und den LTISystemen an und stellt die allgemeinen Zusammenhänge vor. Anhand des RC-Glieds werden die Ergebnisse veranschaulicht.
2.7.1
Übertragungsfunktion
In Bild 2-11 ist das RC-Glied als Zweitor dargestellt. Es sei so hochohmig abgeschlossen, z. B. durch den Eingang eines Operationsverstärkers, dass näherungsweise ein Leerlauf vorliegt. Mit Hilfe der komplexen Amplituden am Eingang U1 uˆ1 e jM1 und Ausgang U 2 uˆ2 e jM2 kann für jede beliebige, fest vorgegebene Kreisfrequenz Z ein Übertragungsverhältnis angegeben werden. U2 U1
uˆ2 j M 2 M1 e uˆ1 Z fix
(2.39)
Die Verallgemeinerung des Übertragungsverhältnisses, mit der komplexen Frequenz s = V + jZ als freien Parameter, führt auf die Übertragungsfunktion. H ( s)
U 2 (s) U1 ( s )
(2.40)
Für jede fest vorgegebene komplexe Frequenz s resultiert daraus wieder das Übertragungsverhältnis für die zugehörigen komplexen Amplituden. Anmerkung: Die komplexe Frequenz s deutet hier den Zusammenhang mit der Laplace-Transformation an. Um den Rahmen einer Einführung nicht zu sprengen, wird dies hier nicht weiter vertieft [Wer08b].
Aus der Physik ist bekannt, dass reale elektrische Netzwerke mit Widerständen, Spulen und Kondensatoren gut durch die idealen Bauelemente R, L und C und den zugehörigen Beziehungen zwischen Strömen und Spannungen beschrieben werden können. Will man den Zusammenhang zwischen den Strömen und Spannungen in einem RLC-Netzwerk berechnen, so resultieren lineare Differentialgleichungen mit konstanten Koeffizienten, wie zum Beispiel beim Schwingkreis. Lässt man jedoch als Erregung nur sinusförmige Spannungs- oder Stromquellen zu, vereinfachen sich die Differentialgleichungen mit dem Exponentialansatzes der Operatormethode zu algebraischen Gleichungen. Man erhält Gleichungen mit Polynomen in s die dann relativ einfach gelöst werden können. Im Sonderfall V = 0 ergibt sich mit s = jZ die bekannte komplexe Wechselstromrechnung.
2.7 Übertragungsfunktion und Frequenzgang
31
Die Übertragungsfunktion eines RLC-Netzwerks resultiert stets in der rationalen Form M
M
H (s)
¦ bl sl
Z (s) N ( s)
l 0 N
¦ ak s
k
bM aN
k 0
s s0l l 1 N
s sfk
(2.41)
k 1
mit dem Zählerpolynom Z(s) und dem Nennerpolynom N(s). Man spricht von den Zählerkoeffizienten bl (bM z 0) und den Nennerkoeffizienten ak (aN z 0) der Übertragungsfunktion. Im Falle von RLC-Netzwerken sind die Zähler- und Nennerkoeffizienten stets reell. Die Übertragungsfunktion kann äquivalent durch die komplexen Nullstellen s0l und die komplexen Pole sfk (Nullstellen des Nennerpolynoms) dargestellt werden. Dies wird besonders zur Analyse und Synthese von RLC-Netzwerken benutzt, wie beispielsweise Filterschaltungen in der Nachrichtenübertragungstechnik [Unb93]. Anmerkungen: (i) Die Definition der Übertragungsfunktion geschieht in der Systemtheorie mit der Laplace- bzw. Fourier-Transformation. Die Darstellung (2.41) gilt für alle Systeme, die sich durch lineare Differentialgleichungen mit konstanten Koeffizienten beschreiben lassen. (ii) Der Grad des Nennerpolynoms bestimmt die Filterordnung. (iii) In der Regel wird eine normierte Darstellung mit aN = 1 verwendet. Die Systemtheorie erklärt auch, wann die Gleichsetzung H( jZ) = H(s = jZ) zulässig ist. Für die hier betrachteten RLC-Netzwerke, stabile Systeme, ist sie stets erlaubt.
Beispiel Übertragungsfunktion des RC-Glieds
Im Beispiel des RC-Glieds in Bild 2-11 erhalten wir aus der erweiterten Spannungsteilerregel für die komplexen Amplituden (2.31) U2 U1
1 1 jZ RC
(2.42)
1 1 sRC
(2.43)
und daraus für die Übertragungsfunktion. H ( s)
Der Vergleich mit (2.41) zeigt uns, dass im Beispiel ein System mit nur einem Pol und keiner (endlichen) Nullstelle vorliegt. Wir sprechen von einem System 1. Ordnung. H (s)
2.7.2
1 1 sRC
b0 s a0
b0 s sf1
(2.44)
Frequenzgang, Dämpfung und Phase
In der Nachrichtentechnik interessiert besonders das Übertragungsverhalten der Systeme in Abhängigkeit von der Frequenz, der Frequenzgang. H ( jZ )
H (s
jZ )
(2.45)
32
2 Signale und Systeme
Für die komplexen Amplituden zu einer beliebigen aber festen Kreisfrequenz Z0 gilt mit (2.39) H ( jZ0 ) U1 Z
U2 Z
0 fix
0 fix
(2.46)
Die Auswertung des Frequenzgangs nach Betrag und Phase (Argument) H ( jZ )
H ( jZ ) e jb (Z )
(2.47)
liefert den Betragsfrequenzgang |H(jZ)| und den Phasenfrequenzgang. b(Z )
arctan
Im > H ( jZ ) @
Re > H ( jZ ) @
(2.48)
Der Phasenfrequenzgang kann, wie in Abschnitt 2.10 noch gezeigt wird, mit der Signalverzögerung der Frequenzkomponenten durch das System in Verbindung gebracht werden. Anmerkungen: (i) Der Phasenfrequenzgang wird in der Nachrichtentechnik manchmal mit negativem Vorzeichen festgelegt. Er gibt dann die negative Phasenverschiebung der Frequenzkomponenten des Ausgangssignals bezogen auf den Systemeingang wieder. (ii) Man beachte, dass die Phase in 2S mehrdeutig ist. Für nicht-sinusfömige Eingangssignale ist der Einfluss des Phasenfrequenzganges auf die Signalverzögerung nicht mehr einfach zu beurteilen.
Der Betragsfrequenzgang gibt an, wie stark ein sinusförmiges Signal bzw. eine Frequenzkomponente bei der Übertragung verstärkt oder gedämpft wird. Da er in der Praxis über mehrere Größenordnungen variieren kann, wird er häufig im logarithmischen Maß als Dämpfungsfrequenzgang angegeben adB (Z )
20 log10 H ( jZ ) dB
(2.49)
Zur Unterscheidung wird die Pseudoeinheit Dezibel1 (dB) angehängt. Anmerkungen: (i) Wird die Dämpfung in dB angegeben, spricht man auch vom Dämpfungsmaß. (ii) Um Verwechslungen vorzubeugen, werden bei Formeln Größen, die im logarithmischen Maß einzusetzen sind, oft durch den Index dB kenntlich hervorgehoben.
Beispiel Frequenzgang des RC-Gliedes
Die Bedeutung der Frequenzgänge des Betrages bzw. der Dämpfung wird am Beispiel des RCGlieds erläutert. Nach Einsetzen von s = jZ in (2.43) und kurzer Zwischenrechnung ergibt sich
H ( jZ )
1 1 Z 2 R 2C 2
(2.50)
und
1
Zusammensetzung von „Dezi“ für den Zehnerlogarithmus und „bel“ vom Namen Bell. Alexander Graham Bell: *1847, †1922, US-amerikanischer Physiologe, Erfinder und Unternehmer schottischer Abstammung; erhält 1876 in den U.S.A. ein Patent für das Telefon.
2.7 Übertragungsfunktion und Frequenzgang
adB (Z )
20 log10
33
1 2 2 2
1+Z R C
dB =10 log10 1+Z 2 R 2 C 2 dB
(2.51)
Zur grafischen Darstellung der Frequenzgänge ist die Frequenznormierung : = Z R C günstig. Dann hängt der Frequenzgang nur noch von der normierten Kreisfrequenz : ab und ist unabhängig von der konkreten Wahl der Bauelemente. Da der Betragsfrequenzgang eines RLCNetzwerks stets eine gerade Funktion ist, genügt die Darstellung für positive Frequenzen. Der Betragsfrequenzgang des RC-Glieds in Bild 2-15 besitzt bei : = 0 sein Maximum mit dem Wert eins und fällt mit wachsender Frequenz monoton. Das heißt, eine Gleichspannung am Eingang wird ohne Änderung übertragen, während sinusförmige Eingangsspannungen mit wachsender Frequenz immer schwächer am Systemausgang, an der Kapazität, erscheinen. Im Grenzfall : gegen unendlich wirkt die Kapazität wie ein Kurzschluss und die Ausgangsspannung geht gegen null.
1 |H( j:)|
1
adB (:) 50 dB 40
3dB-Punkt
2
0
0,5
20 10
0 1/16 1/4
1
4
16
64 256
:
3dB-Punkt
0 1/16 1/4
1
6 dB Anstieg pro Oktave 4
16
64 256
:
Bild 2-15 Frequenzgang des Betrags (links) und der Dämpfung (rechts) des RC-Tiefpasses über der normierten Kreisfrequenz : = Z R C
Der Frequenzgang der Dämpfung beginnt für : = 0 (Gleichspannung) mit dem Wert null und wächst monoton gegen unendlich (Kurzschluss). Für größere Frequenzen nimmt die Dämpfung bei jeder Frequenzverdoppelung um 6 dB zu. Dies entspricht in Bild 2-15 einem linearen Dämpfungsverlauf mit einem Anstieg von 6 dB pro Oktave. Anmerkung: Eine systematische Methode zur näherungsweisen Darstellung des Frequenzganges der Dämpfung durch Geradenstücke liefert das Bode-Diagramm, z. B. [Sch88] oder [Wer08b].
Der Dämpfungsfrequenzgang zeigt insgesamt ein für einen Tiefpass charakteristisches Verhalten. Sinusförmige Signale (Frequenzkomponenten) bei tiefen Frequenzen passieren nahezu ungeschwächt das System, während solche bei hohen Frequenzen so stark gedämpft (heraus gefiltert) werden, dass sie am Systemausgang keine Rolle mehr spielen. Man spricht in diesem Zusammenhang von einem (elektrischen) Filter oder auch einer Siebschaltung. Zur groben Abschätzung des selektiven Verhaltens elektrischer Filter wird oft die 3dB-Grenzfrequenz angegeben adB (Z3dB )
20 log10
H ( jZ3dB ) H max
dB
3 dB
(2.52)
34
2 Signale und Systeme
mit dem Maximalwert des Betragsfrequenzganges H max
max H ( jZ ) Z
(2.53)
Sie gibt die Frequenz an, bei der die Leistung eines sinusförmigen Signals nur noch zur Hälfte übertragen wird. Die Amplitude wird in diesem Fall vom System mit dem Faktor 1/2 bewertet.
H ( jZ3dB ) =
1 2
H max
(2.54)
Anmerkung: Streng genommen gilt genauer 10log10(1/2) dB | 3,0103 dB.
Im Beispiel des RC-Glieds liegt der 3dB-Punkt bei der normierte Kreisfrequenz : = 1. Die 3dB-Grenzfrequenz ergibt sich demnach zu f3dB =
1 2S RC
1 2S W
(2.55)
Die 3dB-Grenzfrequenz und die Zeitkonstante stehen in reziprokem Zusammenhang. Wie in Abschnitt 2.11 gezeigt wird, ist der reziproke Zusammenhang zwischen der Zeitdauer eines Vorgangs und seiner Bandbreite von grundlegender Natur.
2.7.3
Tiefpass, Bandpass, Hochpass und Bandsperre
Ein wichtiger Anwendungsbereich elektrischer Filter ist die Frequenzmultiplextechnik, wie in Abschnitt 4 noch näher erläutert wird. Es werden verschiedene Signale in jeweils nicht überlappenden Frequenzbändern (Kanälen) gleichzeitig übertragen. Ein Beispiel hierfür ist der Kabelanschluss für Rundfunk und Fernsehen mit seinen verschiedenen Programmen. Um eine hohe Auslastung der Übertragungsmedien zu erreichen, werden die Frequenzbänder möglichst nahe aneinander gelegt, so dass zu ihrer Trennung im Empfänger besondere Filter eingesetzt werden müssen. Diese werden mit speziellen mathematischen Methoden, Standardapproximationsverfahren genannt, entworfen. Die Butterworth1-, Chebyshev2- und Cauer3-Filter sind typische Beispiele. Ihre Behandlung ist Gegenstand der Netzwerk und Filtersynthese [Unb93]. Wir beschränken uns hier darauf, die den Entwürfen zugrunde gelegten charakteristischen Frequenzgänge und die Frage nach der prinzipiellen Realisierbarkeit anzusprechen, siehe auch Bild 2-16. Anmerkungen: (i) Zum Filterentwurf stehen heute auf dem PC leistungsfähige Programme zur Verfügung. Dabei können parasitäre Effekte mit berücksichtigt werden. (ii) Butterworth- und Cauerfilter werden auch Potenz-Filter bzw. elliptische Filter genannt.
1
2 3
S. Butterworth: britischer Ingenieur (1930) . Pafnuti Lwowitsch Tschebyschow (engl. Chebyshev): *1821, †1894, russischer Mathematiker, bedeutende Beiträge zur Approximations-, Integrations- und Wahrscheinlichkeitstheorie. Wilhelm Cauer: *1900, †1945, deutscher Physiker, bedeutende Arbeiten zur theoretischen Nachrichtentechnik.
2.7 Übertragungsfunktion und Frequenzgang Tiefpass (TP)
35 Hochpass (HP)
Bandpass (BP)
Bandsperre (BS)
Bild 2-16 Schaltsymbole für elektrische Filter
Der Frequenzgang des idealen Tiefpasses in Bild 2-17 verkörpert die Wunschvorstellung eines Tiefpasses. Sein Betragsfrequenzgang entspricht einem Rechteckimpuls und sein Phasenfrequenzgang ist linear. Bis zur Grenzkreisfrequenz ZD (Durchlass-Kreisfrequenz) passieren alle sinusförmigen Signale bzw. Frequenzkomponenten das System unverändert bis auf eine in der Frequenz linearen Phasenverschiebung. Alle Signale bzw. Frequenzkomponenten bei höheren Frequenzen werden gesperrt. Der lineare Phasenverlauf folgt aus der Forderung der verzerrungsfreien Übertragung in Abschnitt 2.9. Betrag |HTP( jZ)|
Z ZD
0
ZD
Phase bTP(Z) = Zt0
Bild 2-17 Frequenzgang des Betrages und der Phase des idealen Tiefpasses
Die Aufgabe Filterentwurf besteht darin, ein RLC-Netzwerk so anzugeben, dass die zugehörigen Frequenzgänge des Betrages und der Phase denen in Bild 2-17 entsprechen. Weil die Übertragungsfunktion eines RLC-Netzwerks nach (2.41) ein Polynom ist, Polynome jedoch nicht abschnittsweise konstant sein können, ist der Betragsfrequenzgang in Bild 2-17 nicht darstellbar. Der Frequenzgang des idealen Tiefpasses kann durch ein reales System nur angenähert werden. Eine sinnvolle Filterentwurfsaufgabe muss deshalb anders gestellt werden. Für den Filterentwurf ist festzulegen, welche Abweichungen in der konkreten Anwendung tolerierbar sind. Dies geschieht typischerweise mit Hilfe des Toleranzschemas in Bild 2-18. Im Toleranzschema wird die Frequenz bis zu der die Signalanteile durchgelassen werden sollen, die Durchlassfrequenz, und die Frequenz ab der sie gesperrt werden sollen, die Sperrfrequenz, festgelegt. Dazwischen liegt der Übergangsbereich für den keine weiteren Vorgaben als eventuell ein monotoner Übergang gemacht werden. Wichtig sind ebenso die zulässigen Abweichungen vom idealen Betragsfrequenzgang, die Durchlasstoleranz und die Sperrtoleranz. Der Realisierungsaufwand eines elektrischen Filters steigt, je kleiner die Durchlass- und die Sperrtoleranz und je schmaler der Übergangsbereich vorgegeben werden. Anmerkungen: (i) In der Netzwerk- und Filtersynthese wird der Filterentwurf häufig nur bezüglich des Betragsfrequenzganges vorgenommen und vorausgesetzt, dass das resultierende Filter einen tolerierbaren Phasenverlauf aufweist. (ii) In der Frequenzmultiplextechnik entspricht der Übergangsbereich den Frequenzabständen zweier benachbarter Signale. Je schmaler der Übergangsbereich, desto mehr Signale (Kanäle) lassen sich gleichzeitig übertragen.
36
2 Signale und Systeme Durchlassbereich
GD Übergangsbereich
|HTP( jZ)| 1
0
ZD
Sperrbereich
GS
Z
ZS
Bild 2-18 Toleranzschema des Betragsfrequenzganges zum Tiefpassentwurf (zulässiger Bereich grau hinterlegt) mit der Durchlasskreisfrequenz ZD, der Durchlasstoleranz GD, der Sperrkreisfrequenz ZS und der Sperrtoleranz GS
Entsprechend definiert man in Bild 2-19 den Hochpass und den Bandpass. Durch geeignete Kombination von Tief- und Hochpass ergeben sich Bandsperren, die ein bestimmtes Frequenzband ausblenden. |HHP( jZ)| 1
0
|HBP( jZ)|
Hochpass
GD
Bandpass
GD 1
GS
GS2
GS1 ZS ZD
Z
0
ZS1 ZD1
ZD2 ZS2
Z
Bild 2-19 Toleranzschemata der Betragsfrequenzgänge für einen Hochpass- und einen Bandpass (zulässiger Bereich grau hinterlegt)
Abschließend werden in Bild 2-20 die Betragsfrequenzgänge einfacher Beispiele für Butterworth-, Chebyshev- und Cauer-Tiefpässe vorgestellt. Um einen aussagekräftigen Vergleich zu ermöglichen, sind die Durchlass- und Sperrtoleranzen und die Filterordnung (Grad des Nennerpolynoms der Übertragungsfunktion (2.41)) für die drei Beispiele identisch. Als Filterordnung wurde 5 vorgegeben. Die Frequenzachsen sind mit der Durchlasskreisfrequenz normiert. Der augenfälligste Unterschied zeigt sich in den Breiten der Übergangsbereiche. Betrachtet man zunächst den Butterworth-Tiefpass, so erkennt man einen flachen Verlauf aus H(0) = 1 heraus. Diesem Verhalten liegt ein mathematischer Zusammenhang zugrunde. ButterworthTiefpässe werden deshalb auch maximal flach genannt. Der Betragsfrequenzgang biegt schließlich nach unten ab, berührt (idealer weise) die untere Toleranzgrenze bei der Durchlassfrequenz und fällt weiter monoton. Dabei erreicht er (idealer weise) die Sperrtoleranz bei der Sperrfrequenz. Dieses (Wunsch-)Verhalten bildet die Grundlage zur Dimensionierung der Butterworth-Tiefpässe [Wer08b]. Der Butterworth-Tiefpass mit kleinster Filterordnung ist der RC-Tiefpass. Im Gegensatz dazu schöpft der Chebyshev-Tiefpass die zulässige Toleranz im Durchlassbereich voll aus. Der Betragsfrequenzgang alterniert zwischen den Toleranzgrenzen. Dabei ist die Zahl der Extrema im Durchlassbereich stets gleich der Filterordnung. Das Ausschöpfen der
2.7 Übertragungsfunktion und Frequenzgang
37
Durchlasstoleranz wird durch einen im Vergleich zum Butterworth-Tiefpass schmaleren Übergangsbereich belohnt. Alternativ zu Bild 2-20 (mittig) kann auch ein Ausschöpfen des Toleranzintervalls im Sperrbereich gewählt werden. Zur Unterscheidung spricht man dann von einem Chebyshev-II-Tiefpass oder inversem Chebyshev-Verhalten. Im Falle des Cauer-Tiefpasses werden die Toleranzen im Durchlass- und im Sperrbereich voll genutzt. Man erhält den schmalsten Übergangsbereich mit der steilsten Filterflanke. In Bild 2-21 sind die Schaltungen der Tiefpässe angegeben. Butterworth- und Chebyshev-Tiefpässe 5. Ordnung erfordern je 5 Bauelemente und unterscheiden sich nur in deren Dimensionierungen. Für den entsprechenden Cauer-Tiefpass sind 7 Bauelemente erforderlich. Für eine weitergehende Diskussion und insbesondere für eine Darstellung der Phasenfrequenzgänge wird auf [Sch88] verwiesen.
|H( jZ)|
0,133
Butterworth
1 0,1 0 0
|H( jZ)|
1 0,133
Z /ZD Chebyshev
1 0,1 0 0
1
Z /ZD
|H( jZ)|
0,133 Cauer Anmerkungen: (i) Dem Cauer-Filterentwurf liegen ellipti1 sche Polynome zugrunde, weshalb derartige Filter auch elliptische Tiefpässe genannt werden. In [Sch88] findet man auch zwei Beispiele für Tiefpässe, die nach Vorschrif0,1 ten bzgl. der Phase, d. h. im Durchlassbereich möglichst 0 konstante Gruppenlaufzeit, entworfen wurden, einen Z /ZD 0 1 Bessel-Tiefpass und ein Chebyshev-Laufzeitfilter. (ii) Die vorgestellten Zusammenhänge für RLC-Netzwerke gelten auch für digitale Filter, so dass sich die Ergebnisse in Bild Bild 2-20 Standardapproximationen für 2-20 in der digitalen Signalverarbeitung wiederfinden, Tiefpässe (Toleranzbereiche vergleiche Abschnitt 3.7 grau unterlegt)
Butterworth- bzw. ChebyshevTiefpass 5. Ordnung
Cauer-Tiefpass 5. Ordnung
Bild 2-21 LC-Schaltungen für Tiefpässe
38
2.7.4
2 Signale und Systeme
Rechnen mit komplexer Fourier-Reihe und Frequenzgang
Alternativ zur trigonometrischen Form der Fourier-Reihe kann mit der komplexen Form gerechnet werden. Im Falle der komplexen Fourier-Reihe wird jede Frequenzkomponente mit der Übertragungsfunktion gewichtet, siehe Bild 2-22.
Eingang
RLC-Netzwerk
y(t)
periodisch
Frequenzgang H( jZ)
periodisch
f
x(t )
Ausgang
x(t)
¦
k f
ck e jkZ0t
f
¦
k f
H ( jkZ0 ) ck e jkZ0t
y (t )
Bild 2-22 Berechnung des Ausgangssignals von RLC-Netzwerken bei periodischem Eingangssignal mit der Fourier-Reihe
Dabei wird ohne Unterschied formal mit positiven und negativen Frequenzen gerechnet. Das Signal am Ausgang bestimmt sich aus der Eingangs-Ausgangsgleichung für Fourier-Reihen. f
y (t )
¦
H ( jkZ0 ) ck e jkZ0t
(2.56)
k f
Anders als bei der komplexen Wechselstromrechnung erübrigt sich hier die Realteilbildung. Diese ist schon in der Symmetrie der Fourier-Koeffizienten (2.17) und des Frequenzganges der RLC-Netzwerke enthalten. Für reellwertige Systeme, wie den RLC-Netzwerken, gilt für den konjugiert komplexen Frequenzgang H * ( jZ )
H ( jZ )
(2.57)
Letzteres folgt aus (2.41) nach Einsetzen von s = jZ, da Zähler- und Nennerkoeffizienten reell sind. Der Betragsfrequenzgang ist demzufolge eine gerade
H ( jZ )
H ( jZ )
(2.58)
und der Phasenfrequenzgang eine ungerade Funktion. b(Z )
b(Z )
(2.59)
Fasst man in (2.56) die Terme zu k und k, also für positive und negative Frequenzen, paarweise zusammen
2.7 Übertragungsfunktion und Frequenzgang
y (t )
H (0) c0
39
f
¦ H ( jkZ0 ) ck e jkZ0t H ( jkZ0 ) ck e jkZ0t
(2.60)
k 1
und benützt die Symmetrieeigenschaften der Fourier-Koeffizienten (2.17) und der Übertragungsfunktion reellwertiger Systeme (2.57), so treffen jeweils zwei konjugiert komplexe Summanden aufeinander. f
H (0) c0 ¦ H * ( jkZ0 ) ck* e jkZ0t H ( jkZ0 ) ck e jkZ0t
y (t )
k 1
(2.61)
Es resultiert jeweils das Zweifache des Realteils, wobei H(0) und c0 für reelle Systeme bzw. reelle Signale stets reell sind. H (0) c0 2
y (t )
f
¦ Re ª¬ H ( jkZ0 ) ck e jkZ0t º¼
(2.62)
k 1
Beispiel Periodischer Rechteckimpulszug am RC-Tiefpass
Im Beispiel des periodischen Rechteckimpulszuges bestimmen wir die komplexen FourierKoeffizienten mit der Umrechnungsformeln (2.18) aus (2.20) und (2.21). c0
A
T T0
und ck
A
T §Z T si ¨ 0 T0 © 2
· k¸ ¹
k
für
(2.63)
1, 2,3,...
Für den Frequenzgang des RC-Tiefpasses gilt H ( jkZ 0 )
1 1 jkZ 0 RC
1 1 kZ 0 RC
2
e
j arctan kZ 0 RC
(2.64)
Im Beispiel erhalten wir aus (2.62) nach kurzer Zwischenrechnung wieder (2.34).
2.7.5
RC-Hochpass
Das RC-Glied in Bild 2-23 stellt einen Hochpass dar, wie man anhand von physikalischen Überlegungen schnell nachprüft. Für niedrige Frequenzen (im Grenzfall für eine Gleichspannung) wirkt die Kapazität wie ein Leerlauf. Die Spannung am Ausgang ist somit näherungsweise null. Für hohe Frequenzen kann die Kapazität wie ein Kurzschluss angesehen werden. Die Eingangsspannung fällt fast vollständig an R ab, und die Ausgangsspannung ist näherungsweise gleich der Eingangsspannung.
Eingang
Ausgang C
ue(t)
R
Bild 2-23 RC-Hochpass
ua(t)
40
2 Signale und Systeme
Der Frequenzgang des RC-Hochpasses bestimmt sich aus der erweiterten Spannungsteilerregel. H ( jZ )
R R 1/ jZ C
jZ RC 1 jZ RC
(2.65)
Für die weitere Rechnung ist es günstig, den Frequenzgang nach Betrag und Phase darzustellen. H ( jZ )
Z RC 1 Z RC
2
(2.66)
und b(Z )
arctan
1 Z RC
(2.67)
Die oben diskutierte Hochpasseigenschaft erschließt sich schnell aus (2.66), wenn man die Grenzfälle Z o 0 und Z o f betrachtet und berücksichtigt, dass der Betragsfrequenzgang monoton ist. Im ersten Fall ist H(0) = 0 und im zweiten Fall gilt H(f) = 1. Beispiel Periodischer Rechteckimpulszug am RC-Hochpass und RC-Tiefpass
Wir verwenden wieder den periodischen Rechteckimpulszug aus dem vorhergehenden Beispiel, siehe Bild 2-11. Im Falle der komplexen Fourier-Reihe wird jede Frequenzkomponente mit dem Frequenzgang gewichtet, wobei zu beachten ist, dass hier der Gleichanteil nicht übertragen wird. Ganz entsprechend zu (2.62) berechnet sich das Signal am Ausgang des RCHochpasses. y (t )
2 AT T0
f
§ § 1 ·· kZ0 RC § kZ0T · cos ¨ kZ 0t arctan ¨ ¸ ¸¸ ¸ ¨ 2 2 ¹ 1 kZ RC © kZ 0 RC ¹ ¹ © 0
¦ si ¨©
k 1
(2.68)
Abschließend werden grafisch Resultate für den RC-Tiefpass und den RC-Hochpass verglichen. Zunächst ist das Eingangssignal in Bild 2-24 dargestellt. Zu sehen sind links zwei Perioden des Eingangssignals. Für die numerische Berechnung wurde die Fourier-Reihe des periodischen Rechteckimpulszuges bei k = 199 abgebrochen, weshalb das gibbsche Phänomen deutlich zu erkennen ist. Rechts sind der Gleichanteil und die ersten sieben Harmonischen abgebildet. Man beachte auch, dass wegen des Tastverhältnisses T/T0 = 1/2 alle Harmonischen geradzahliger Ordnung verschwinden. Das Ausgangssignal des RC-Tiefpasses ist in Bild 2-25 zu sehen. Es ergibt sich der bekannte exponentielle Verlauf der Spannung an der Kapazität während des Lade- und Entladevorgangs. Mit der gewählten Zeitkonstanten W = T0 / (2S ) ist die 3dB-Grenzfrequenz des Tiefpasses gleich der Frequenz der ersten Harmonischen. Im rechten Teilbild werden wieder die ersten sieben Glieder der Fourier-Reihe dargestellt. Der Gleichanteil wird unverändert übertragen. Man erkennt deutlich wie unterschiedlich die Harmonischen durch den Tiefpass gedämpft und in ihren Phasen verschoben werden. Die Amplituden der Harmonischen werden mit wachsendem k stärker gedämpft. Dadurch wird das Signal insgesamt geglättet, da die Signalkomponenten, die die schnellen Änderungen bewirken, unterdrückt werden. Im Ausgangssignal treten keine Sprünge mehr auf. Die glättende Wirkung ist typisch für Tiefpässe.
2.7 Übertragungsfunktion und Frequenzgang
41
0,8
ue (t ) u0 1
1
ue,k (t ) u0
k=0
3
5 0
7 0 1
0
0,8 0,5
t/T0 1
0
t/T0 0,5
Bild 2-24 Eingangssignal: abgebrochene Fourier-Reihe des periodischen Rechteckimpulszuges mit dem Tastverhältnis T/T0 = 0,5 (links) und der Gleichanteil und die ersten sieben Harmonischen (rechts)
1
0,5
uaTP (t ) u0
k=0
uaTP ,k (t ) u0
1
5 3 0 7
0
1
0
t/T0
1
0,5 0,5
0
t/T0 0,5
Bild 2-25 Ausgangssignal des RC-Tiefpasses mit der Zeitkonstante W = T0 / (2S ) (links) und der Gleichanteil und die ersten sieben Harmonischen (rechts)
Das Ausgangssignal des RC-Hochpasses ist in Bild 2-26 zu sehen. Mit der gewählten Zeitkonstanten W = T0 / (2S ) ist die 3dB-Grenzfrequenz des Hochpasses gleich der Frequenz der ersten Harmonischen. Im rechten Teilbild werden wieder die ersten sieben Glieder der Fourier-Reihe dargestellt. Insbesondere wird der Gleichanteil vollständig unterdrückt. Man erkennt deutlich die unterschiedlichen Dämpfungen und Phasenverschiebungen der Harmonischen durch den Hochpass. Die Amplituden der 3., 5. und 7. Harmonischen werden durch den Hochpass weniger stark gedämpft als beim Tiefpass in Bild 2-25. Dies gilt erst recht für die Spektralkomponenten bei höheren Frequenzen. Insgesamt wird durch den Hochpass der Einfluss der Harmonischen bei höheren Frequenzen auf den Signalverlauf stärker. Signaländerungen werden relativ betont, wie sich deutlich im linken Teilbild zeigt. Da beim RC-Hochpass am Ausgang der Spannungsabfall am Widerstand abgegriffen wird, ist das Ausgangssignal proportional zum bekannten Verlauf des Lade- bzw. Entladestroms der Kapazität und wechselt insbesondere das Vorzeichen. Man beachte auch hier wieder das gibbsche Phänomen an den Sprungstellen des Signals aufgrund der numerischen Berechnung mit der abgebrochenen Fourier-Reihe.
42
2 Signale und Systeme
0,5
uaHP (t ) 1 u0
uaHP , k (t )
0
1 1
3
75
u0
0
k=1
0
t/T0 1
0,5 0,5
0
t/T0
0,5
Bild 2-26 Ausgangssignal des RC-Hochpasses mit Zeitkonstante W = T0 / (2S ) (links) und die ersten sieben Harmonischen (rechts)
Grafische Darstellung der Signale mit dem PC Um einen Eindruck zu geben, wie die Ergebnisse der Methode der Ersatzspannungsquellen in Verbindung mit den Überlegungen zum Frequenzgang praktisch angewendet werden können, gehen wir kurz auf die grafische Darstellung der Signale am PC durch moderne SoftwareWerkzeuge ein. Beispielhaft betrachten wir das weit verbreitete Programmpaket MATLAB1. Für die grafischen Darstellungen wählen wir die Parametervorgaben wie in den obigen Bildern: die Periode T0 = 1 und die Zeitkonstanten des RC-Glieds W = T0 / (2S ). Es ergeben sich nun mit Z0RC = 1 die Fourier-Reihen der Signale aus den Gleichungen (2.34) für das Eingangssignal, (2.64) für das Ausgangssignal am RC-Tiefpass und (2.68) für das Ausgangssignal am RCHochpass. Die Programmierung in MATLAB gestaltet sich relativ kurz. Wie das Programmbeispiel zeigt, werden die meisten Programmzeilen zur Formatierung der grafischen Ausgabe verwendet. Mit der Umsetzung in ein Programm kann beispielsweise der Einfluss der Zeitkonstanten W auf die Ausgangssignale schnell anschaulich gemacht werden.
Programmbeispiel Periodischer Rechteckimpulszug am RC-Hochpass und RC-Tiefpass % Filtering of the periodic impulse train by the RC lowpass or % highpass - computation using the Fourier series expansion %% Input signal - periodic impulse train t = -1:.001:1; % time scale xp = .5*ones(size(t));% periodic impulse train - constant component (dc) K = 199 % number of harmonics to be considered for k = 1:2:K xp = xp + sinc(.5*k)*cos(2*pi*k*t); end Fig1 = figure % graphics subplot(2,1,1), plot(t,xp,'LineWidth',2), grid axis([-1 1 -.2 1.2]); xlabel('{\itt} \rightarrow'), ylabel('{\itx}_p({\itt}) \rightarrow')
1
MATLAB ist ein eingetragenes Warenzeichen der Firma The MathWorks, Inc., U.S.A. Für mehr Informationen siehe www.mathworks.com oder www.mathworks.de.
2.7 Übertragungsfunktion und Frequenzgang
43
subplot(2,1,2), hold on for k = 1:2:7 plot(t,sinc(.5*k)*cos(2*pi*k*t),'LineWidth',2) end grid xlabel('{\itt} \rightarrow'), ylabel('{\itx}_k({\itt}) \rightarrow') hold off %% RC lowpass filtering ylp = .5*ones(size(t)); % constant component (dc component) for k = 1:2:K ylp = ylp + sinc(.5*k)*cos(2*pi*k*t-atan(k))/(sqrt(1+k^2)); end Fig2 = figure % graphics subplot(2,1,1), plot(t,ylp,'LineWidth',2), grid axis([-1 1 -.2 1.2]); xlabel('{\itt} \rightarrow'), ylabel('{\ity}_{lp}({\itt}) \rightarrow') subplot(2,1,2), hold on for k = 1:2:7 plot(t,sinc(.5*k)*cos(2*pi*k*t-atan(k))/(sqrt(1+k^2)),... 'LineWidth',2) end grid xlabel('{\itt} \rightarrow'), ylabel('{\ity}_{lp,k}({\itt}) \rightarrow') hold off %% RC highpass filtering yhp = zeros(size(t)); % constant component (dc component) for k = 1:2:K yhp = yhp + sinc(.5*k)*cos(2*pi*k*t+atan(1/k))*k/(sqrt(1+k^2)); end Fig1 = figure % graphics subplot(2,1,1), plot(t,yhp,'LineWidth',2), grid axis([-1 1 -1.2 1.2]); xlabel('{\itt} \rightarrow'), ylabel('{\ity}_{hp}({\itt}) \rightarrow') subplot(2,1,2), hold on for k = 1:2:7 plot(t,sinc(.5*k)*cos(2*pi*k*t+atan(1/k))*k/(sqrt(1+k^2)),... 'LineWidth',2) end grid xlabel('{\itt} \rightarrow'), ylabel('{\ity}_{hp,k}({\itt}) \rightarrow') hold off
44
2.8
2 Signale und Systeme
Fourier-Transformation
In den vorhergehenden Abschnitten wurde gezeigt, wie die Fourier-Reihe vorteilhaft benutzt wird, die Reaktion von RLC-Netzwerken auf periodische Signale zu bestimmen. Periodische Signale spielen zwar in der Nachrichtentechnik eine wichtige Rolle, beinhalten jedoch als deterministische Signale keine Information. Deshalb wird im Folgenden die Analyse auf die interessanteren aperiodischen Signale erweitert. Hierzu betrachte man zunächst nochmals den periodischen Rechteckimpulszug und sein Spektrum in Bild 2-5 bzw. Bild 2-14. Letzteres zeigt das für periodische Signale typische Linienspektrum mit dem Frequenzabstand f0 = 1/T0. Man stelle sich nun vor, die Periode T0 würde immer größer, so dass die Periodizität immer weniger ins Gewicht fällt. Da für die Abstände der Spektrallinien f0 = 1/T0 gilt, rücken die Spektrallinien immer dichter aneinander. Für T0 o f ergibt sich mit f0 o 0 ein kontinuierliches Spektrum für einen einzelnen Rechteckimpuls. Mathematisch gesehen, findet der Übergang von der Fourier-Reihe auf das Fourier-Integral statt [Wer08b]. Um den Rahmen einer Einführung nicht zu überschreiten, wird hier auf die Herleitung verzichtet und nur die wichtigsten Zusammenhänge werden vorgestellt. Durch die Fourier-Transformation werden zwei Funktionen miteinander verbunden. Man spricht von einem Fourier-Paar x(t ) l X ( jZ )
(2.69)
mit der Fourier-Transformierten, auch kurz Spektrum genannt, X ( jZ )
f
³
x(t ) e jZ t dt
(2.70)
f
und der inversen Fourier-Transformierten, hier auch Zeitfunktion genannt. x(t )
1 2S
f
³
X ( jZ ) e jZ t d Z
(2.71)
f
Anmerkungen: (i) Eine Funktion, die in jedem endlichen Teilintervall die Dirichlet-Bedingungen erfüllt und die absolut integrierbar ist, besitzt eine Fourier-Transformierte [BSMM99]. Eine ausführliche Antwort auf die Frage nach der Existenz und den Eigenschaften der Fourier-Transformation geht über den hier gesetzten Rahmen hinaus. (ii) Ist x(t) eine Funktion der elektrischen Spannung, d. h. [x(t)] = V, so hat die Fourier-Transformierte die Dimension [X(jZ)] = Vs = V/Hz. In der Systemtheorie wird für gewöhnlich mit dimensionslosen Größen gerechnet, indem alle Größen auf die üblichen Einheiten, wie beispielsweise V, A, :, W, m, s, usw., normiert werden. (iii) In der Literatur wird die Fourier-Transformation manchmal in leicht modifizierten Schreibweisen angegeben. Die hier gewählte Form betont den Zusammenhang mit der Laplace-Transformation und ist in der deutsch- und englischsprachigen Literatur weit verbreitet. (iv) Die Fourier-Reihe kann als Sonderfall der Fourier-Transformation aufgefasst werden.
Anhand des Rechteckimpulses lassen sich Ähnlichkeiten und Unterschiede der Fourier-Transformation und der Fourier-Reihe gut verdeutlichen.
2.8 Fourier-Transformation
45
Beispiel Fourier-Transformation des Rechteckimpulses
Die Fourier-Transformation des Rechteckimpulses xT(t) mit Amplitude eins in Bild 2-5 liefert f
³
T / 2
xT (t ) e jZ t dt
³
f
e jZ t dt
T / 2
1 ª jZT / 2 e e jZT / 2 º ¼ jZ ¬
(2.72)
Der Ausdruck in der eckigen Klammer führt auf die Sinusfunktion und kann mit der si-Funktion (2.22) kompakter geschrieben werden. 1 ª¬e jZT / 2 e jZT / 2 º¼
jZ
2 j sin ZT / 2 jZ
2 j sin(ZT / 2)
§ T· T si ¨ Z ¸ © 2¹
(2.73)
Der Rechteckimpuls und die si-Funktion bilden ein Fourier-Paar.
§ T· xT (t ) l T si ¨ Z ¸ © 2¹
(2.74)
Die inverse Fourier-Transformation übernimmt die Rolle der Fourier-Reihe (2.24). xT (t )
1 2S
f
§ T·
³ T si ¨© Z 2 ¸¹ e
jZt
dZ
(2.75)
f
Vergleichen wir das Ergebnis mit der Fourier-Reihe des periodischen Rechteckimpulszuges, erkennen wir einen ähnlichen Verlauf. Die Impulsdauer T nimmt jetzt die Stelle des Tastverhältnisses T/T0 ein, und statt der diskreten Kreisfrequenzen kZ0 tritt die kontinuierliche Kreisfrequenz Z auf. Abgesehen von einem Skalierungsfaktor interpoliert die Fourier-Transformierte des Rechteckimpulses in Bild 2-27 das Linienspektrum der Fourier-Koeffizienten in Bild 2-14. Damit können wir den Grenzübergang vom periodischen zum aperiodischen Fall anschaulich deuten. Mit wachsender Periode T0 nimmt der Abstand der Spektrallinien, die Frequenzschrittweite, f0 = 1/T0 immer mehr ab. Im Grenzfall T0 o f entsteht schließlich ein Frequenzkontinuum. Auffällig ist auch der Einfluss der Impulsbreite T auf das Spektrum. Die erste positive Nullstelle des Spektrums liegt bei f0 = 1/T. Anmerkung: Setzen wir hier das Tastverhältnis T/T0 = 0,2 ein, so resultiert f0 wie in Bild 2-14. _______________________________________________________________________________ Ende des Beispiels
Ganz entsprechend zur Fourier-Reihe erhält man die parsevalsche Formel für ein Fourier-Paar [BSMM99]. f
³
f
2
x(t ) dt
1 2S
f
³
2
X ( jZ ) dZ
(2.76)
f
Die parsevalsche Formel gibt an, wie die Signalenergie auch im Frequenzbereich bestimmt werden kann. Insbesondere kann das Betragsquadrat des Spektrums als Energiebelegung auf der Frequenzachse angesehen werden. Man spricht von der Energiedichte des Signals.
46
2 Signale und Systeme 1 X T ( jZ ) T
xT(t)
§ ZT · si ¨ ¸ © 2 ¹
1 T
t
0,2
ZT / (2S)
0 0,2 10
5
0
5
10
Bild 2-27 Spektrum des Rechteckimpulses xT(t)
Integriert man die Energiedichte |X(jZ)|2 über ein bestimmtes Frequenzintervall, so erhält man die Gesamtenergie der darin enthaltenen Frequenzkomponenten. Ganz entsprechendes gilt für Leistungssignale, wobei man dann vom Leistungsdichtespektrum spricht, also der Verteilung der mittleren Leistung auf die Frequenzkomponenten. Die Fourier-Transformation ist in der Nachrichtentechnik und der Steuerungs- und Regelungstechnik von großer Bedeutung. Meist werden wenige Standardsignale benutzt, deren FourierTransformierten bekannt und in Tabellen zu finden sind, z. B. in [BSMM99], Abschnitt 21.12, oder in den einschlägigen Lehrbüchern der Systemtheorie. Die Bedeutung der Fourier-Transformation in der Nachrichtentechnik gründet sich auf die Tatsache, dass viele grundlegenden Beziehungen und Konzepte mit ihrer hergeleitet und einfach formuliert werden. Damit wird es möglich, Zusammenhänge zu verstehen und qualitative Aussagen ohne lange Rechnung zu treffen. In den beiden folgenden Abschnitten werden ohne mathematische Herleitungen einige dieser wichtigen Zusammenhänge vorgestellt. Anmerkungen: (i) In manchen Tabellenwerken wird die Fourier-Transformation in die Kosinus- und Sinustransformation zerlegt. Mit der Euler-Formel e jx = cos x + jsin x lässt sich die komplexe Form bestimmen. (ii) In der modernen Nachrichtentechnik (Messtechnik, Mustererkennung, Spracherkennung, usw.) ist die besonders für Digitalrechner geeignete numerische Fourier-Transformation, die schnelle Fourier-Transformation (Fast Fourier Transform, FFT) in Abschnitt 7.3.2 nicht mehr wegzudenken.
2.9
Filterung
In Abschnitt 2.5 wurde die Methode der Ersatzspannungquellen mit der Fourier-Reihe zur Berechnung des Ausgangssignals von RLC-Netzwerken vorgestellt. Mit der Fourier-Transformation kann die Methode direkt auf aperiodische Signale erweitert werden. Das allgemeine Verfahren ist in Bild 2-28 zusammengestellt. Zunächst wird das Spektrum des Eingangssignals durch Fourier-Transformation bestimmt. Dann wird es mit dem Frequenzgang multipliziert. Man erhält das Spektrum des Ausgangssignals aus der Eingangs-Ausgangsgleichung im Frequenzbereich. Y ( jZ )
H ( jZ ) X ( jZ )
(2.77)
2.9 Filterung
47
Durch inverse Fourier-Transformation resultiert das gesuchte Ausgangssignal im Zeitbereich. Der Vorteil der Methode ist offensichtlich: Der Einfluss des Systems wird durch einfache Multiplikation im Frequenzbereich berücksichtigt. Die Berechnung der Fourier-Transformation und ihrer Inversen kann jedoch im Einzelfall schwierig sein. In der Regel greift man auf Korrespondenztafeln für Fourier-Paare zurück. Auch eine numerische Lösung kann für eine konkrete Aufgabe hilfreich sein. Da in den Anwendungen der Frequenzgang meist ein selektives Verhalten aufweist, spricht man von einer (linearen) Filterung des (Eingangs-) Signals.
Eingang x(t)
Ausgang RLCNetzwerk
y(t)
F
Frequenzgang
X( jZ)
H( jZ)
F1 Y( jZ) = H( jZ) X( jZ)
Bild 2-28 Berechnung des Ausgangssignals von RLC-Netzwerken im Frequenzbereich
Entsprechendes gilt auch für die im Zusammenhang mit stochastischen Signalen besonders wichtige Verteilung der mittleren Leistung auf die Frequenzkomponenten, dem Leistungsdichtespektrum. Liegt am Filtereingang ein Signal mit einem bestimmten Leistungsdichtespektrum an, so werden die Amplituden der Frequenzkomponenten durch das Filter jeweils mit |H( jZ)| gewichtet. In das Leistungsdichtespektrum am Ausgang geht der Betragsfrequenzgang deshalb quadratisch ein. Man bezeichnet demzufolge die Funktion H ( jZ ) auch als Leistungsübertra2
gungsfunktion. Beispiel Preemphase und Deemphase für den UKW-Rundfunk
Im Beispiel betrachten wir eine praktische Anwendung einfacher elektrischer Schaltungen als Filter im UKW-Rundfunk. Der technische Hintergrund wird in Abschnitt 4.3 noch genauer erläutert. Hier ist wichtig, dass im UKW-Rundfunk die Frequenzmodulation (FM) eingesetzt wird. Bei der FM-Übertragung steigt die Leistung des additiven Rauschens mit wachsender Frequenz an. Die Frequenzanteile des Nachrichtensignals werden mit zunehmender Frequenz stärker gestört. Hier setzt die Kombination aus Preemphase- und Deemphase-System an. Die Preemphase hat die Aufgabe, die höherfrequenten Spektralanteile des Nachrichtensignals vor der FM-Modulation leistungsmäßig anzuheben. Die Deemphase senkt sie nach der FM-Demodulation wieder so ab, dass beide Systeme sich in ihren Wirkungen aufheben, siehe Bild 2-29. Weil das bei der FM-Übertragung hinzukommende Rauschsignal durch die Deemphaseschaltung nur gedämpft wird, verringert sich die Störung. Modellrechnungen für den UKW-Rundfunk im Mono-Betrieb zeigen, dass die Anwendung der hier vorgestellten Preemphase- und Deemphase-Systeme auf eine Absenkung der Rauschleistung auf etwa 1/6 führt. Rauschstörung zu übertragendes Signal
Preemphase
HP( jZ)
FMÜbertragung
Deemphase
HD( jZ)
FM-demoduliertes Signal nach Deemphase
Bild 2-29 Anwendung der Preemphase und Deemphase im UKW-Rundfunk mit FM-Übertragung
48
2 Signale und Systeme
Im UKW-Rundfunk werden relativ einfache elektrische Preemphase- und Deemphase-Schaltungen eingesetzt. Bild 2-30 zeigt den verwendeten Hochpass und den Tiefpass. Deren Frequenzgänge werden mit den aus der komplexen Wechselstromrechung bekannten Regeln bestimmt. R1 (1 jZ R2C ) R1 R2 jZ R1R2C
H P ( jZ )
und H D ( jZ )
R2
1 1 jZ R2C
(2.78)
R2 R1
C
C
Preemphase
Deemphase
Bild 2-30 Preemphase- und Deemphase-Schaltungen für den UKW-Rundfunk
In der Rundfunktechnik ist es üblich, die Frequenzgänge in normierter Form anzugeben. Mit r
R1 R1 R2
; : Z R2 C
1 j: 1 jr :
und H D ( j:)
(2.79)
erhält man H P ( j :)
r
1 1 j:
(2.80)
Es werden die Parameter r
1 16
, :3dB
1 und R2C
50 s
(2.81)
verwendet. Daraus resultiert mit (2.79) die 3dB-Grenzfrequenz des Deemphase-Tiefpasses f3dB
1 2S R2C
3,18 kHz
(2.82)
Das ist ungefähr ein Fünftel der Grenzfrequenz des UKW-Audiosignals von 15 kHz. Die zugehörigen Frequenzgänge sind in Bild 2-31 in Form von Bode-Diagrammen skizziert. Dabei werden die Beträge der Frequenzgänge stückweise durch Geraden angenähert, siehe auch Bild 2-15. Anmerkung: Die Preemphase und Deemphase wird auch bei der Magnetbandaufzeichnung und in der Fernsehtechnik eingesetzt. Dort werden jedoch höhere Preise für die Geräte gezahlt und aufwändigere Schaltungen als in Bild 2-30 eingesetzt.
2.10 Verzerrungsfreie Übertragung
49
Audioband
20 lg
H P ( j :) r
24 12 in dB 0 1
1/2
2
# 3,18 kHz 1
20 lg H D ( j:)
4
8
16
8
16
:
# 15 kHz 2
0 in dB 12
4
:
24 Bild 2-31 Betragsfrequenzgänge (Bode-Diagramme) zur normierten Kreisfrequenz :für die Preemphase- (P) und Deemphase- (D) Schaltungen für den UKW-Rundfunk
2.10
Verzerrungsfreie Übertragung
In der Nachrichtentechnik soll das informationstragende Signal möglichst unverzerrt übertragen werden. Die Übertragung ist dann verzerrungsfrei, wenn das Ausgangssignal bis auf einen positiven reellen Amplitudenfaktor a und einer tolerierbaren zeitlichen Verschiebung t0 dem Eingangssignal gleicht. y (t )
a x(t t0 )
(2.83)
Der Amplitudenfaktor a entspricht einer Dämpfung und die zeitliche Verschiebung t0 einer Laufzeit beim Durchgang des Signals durch das System. Der Frequenzgang eines verzerrungsfreien Systems hat somit eine konstante Amplitude und einen linearen Phasenverlauf. H ( jZ )
a e jZt0
(2.84)
Soll das Übertragungssystem ein RLC-Netzwerk sein, so folgt aus der Polynomdarstellung der Übertragungsfunktion, dass eine verzerrungsfreie Übertragung nicht realisiert werden kann. Schränkt man die Forderung auf den interessierenden Frequenzbereich ein, wird bei geeigneter Dimensionierung eine verzerrungsfreie Übertragung näherungsweise möglich. In der Nachrichtentechnik bezeichnet man die Verzerrungen die durch ein LTI-System entstehen können als lineare Verzerrungen. Man spricht von Dämpfungsverzerrungen und Phasenverzerrungen je nachdem, ob die Amplituden oder die Phasen der Frequenzkomponenten des Nachrichtensignals betroffen sind. Da die Wirkungen von Phasenverzerrungen nicht so offensichtlich sind, werden sie anhand eines einfachen Beispiels sichtbar gemacht.
50
2 Signale und Systeme
Beispiel Phasenverzerrungen
Wir betrachten der Anschauung halber den Gleichanteil und die ersten sieben Harmonischen des periodischen Rechteckimpulszuges (2.24) als Eingangssignal eines LTI-Systems mit dem Frequenzgang mit konstantem Betrag und linearer Phase. e jZ t0
H1 ( jZ )
(2.85)
Für das Signal am Ausgang ergibt sich entsprechend (2.56) y1 (t )
2A
§ 2S k ·º T ª1 7 § T · « ¦ si ¨ S k ¸ cos ¨ >t t0 @ ¸ » T0 ¬« 2 k 1 © T0 ¹ © T0 ¹ ¼»
(2.86)
Das Signal wird unverzerrt übertragen, wie Bild 2-32 augenfällig zeigt. Grund dafür ist, dass sich die Phasenverschiebungen der Frequenzkomponenten durch das System linear mit der Kreisfrequenz ändern, so dass sich nach Ausklammern für alle Komponenten die gleiche Signalverzögerung t0 einstellt. p 7 (t )
1
t/T0
0
1
0
1
y1(t) 1 0
t/T0 t0 /T0 1
y2(t)
0
1
1
t/T0
0
1
0
1
Bild 2-32 Eingangssignal p 7 (t ) , Ausgangssignal des Systems mit linearer Phase y1(t) bzw. quadratischer Phase y2(t)
Als Beispiel für die störende Wirkung von Phasenverzerrungen wählen wir ein System mit quadratischem Phasenterm. H 2 ( jZ )
exp j sgn(Z ) Z 2t02
(2.87)
Die Signumfunktion sgn(Z) sorgt dafür, dass der Phasenfrequenzgang wie in (2.59) gefordert eine ungerade Funktion ist. In diesem Fall ergibt sich das Ausgangssignal
2.11 Bandbreite und Zeitdauer-Bandbreite-Produkt
y2 (t )
2A
T T0
ª1 7 § T « ¦ si ¨ S k 2 T k 1 0 © ¬«
§ 2S k ª 2S k 2 º · º · t0 » ¸¸ » ¸ cos ¨¨ «t T0 ¹ ¼ ¹ ¼» © T0 ¬
51
(2.88)
Die Laufzeiten wachsen jetzt linear mit steigender Frequenz. Damit erfahren die Frequenzkomponenten Phasenverschiebungen, die obwohl alle Frequenzkomponenten noch mit gleicher Amplitude vorhanden sind das ursprüngliche Signal in Bild 2-32 nicht mehr erkennen lassen. _______________________________________________________________ Ende des Beispiels In der Nachrichtentechnik wird zur Beurteilung der Phasenverzerrungen durch LTI-Systeme die Gruppenlaufzeit als Ableitung der Phase herangezogen
W g (Z )
d b(Z ) dZ
(2.89)
Anmerkung: Man beachte die Definition der Gruppenlaufzeit mit negativem Vorzeichen. In der Literatur wird manchmal das negative Vorzeichen bereits in der Phase (2.48) eingeführt.
Ein phasenverzerrungsfreies System hat eine konstante Gruppenlaufzeit. Phasenverzerrungen machen sich besonders bei Audio- und Bildsignalen störend bemerkbar Bei Bildern führen Phasenverzerrungen zu räumlichen Verschiebungen der Bildinhalte. Telefonsprache zeigt sich relativ unempfindlich gegen Phasenverzerrungen, da es hierbei vor allem auf die Verständlichkeit ankommt. Bei der Nachrichtenübertragung werden meist auch nichtlineare Komponenten eingesetzt, wie beispielsweise Verstärker oder Modulatoren. In diesem Fall treten nichtlineare Verzerrungen auf, die im Gegensatz zu den linearen Verzerrungen neue Frequenzkomponenten verursachen. Ein besonders in der Audiotechnik verbreitetes Maß zur Beurteilung von nichtlinearen Verzerrungen ist der Klirrfaktor d, englisch distortion genannt. Er ist gleich dem Quotienten aus der Wurzel der Summe der Leistungen der störenden Oberschwingungen (Effektivwert der Oberschwingungen) durch die Wurzel aus der Gesamtleistung (Effektivwert des Gesamtsignals).
d
Effektivwert der Oberschwingungen Effektivwert des Gesamtsignals
(2.90)
In der Audiotechnik wird der Klirrfaktor meist anhand des Eintonsignals mit der Frequenz von 1 kHz gemessen. In der Übertragungstechnik können bei Vorhandensein von mehreren frequenzmäßig getrennten Signalen, z. B. Rundfunksignale verschiedener Frequenzkanäle, nichtlineare Kennlinien zur Intermodulation und im Sonderfall auch zur Kreuzmodulation führen [VlHa93]. In der Telefonie kommt es zum Übersprechen, d. h. unbeabsichtigtes Mithören fremder Telefonate.
2.11
Bandbreite und Zeitdauer-Bandbreite-Produkt
Unter der Bandbreite eines Signals versteht man den Bereich im Spektrum, in dem die wesentlichen Frequenzkomponenten liegen. Was unter wesentlich zu verstehen ist, wird durch die konkrete Anwendung bestimmt. Zwei gebräuchliche Definitionen sind die absolute und die 3dB-Bandbreite. Oft wird die Bandbreite auch mit der ersten Nullstelle im Spektrum (für positive Frequenzen) abgeschätzt.
52
2 Signale und Systeme
Da der Betragsfrequenzgang der üblichen reellen Signale eine gerade Funktion ist, wird besonders bei grafischen Darstellungen die Beschränkung auf positive Frequenzen und die verkürzte Schreibweise | X( f ) | statt | X(2Sf ) | oder | X( jZ ) | verwendet. Anmerkung: Bei den eher seltenen, maßstäblichen Zeichnungen werden die Amplituden der Betragsfrequenzgänge bzgl. f in der Literatur gelegentlich mit dem Faktor 2S normiert [Lük95].
Absolute Bandbreite Ist | X( f ) | = 0 für f t fg, so ist außerhalb der Bandbreite B das Spektrum null. Man spricht von einer strikten Bandbegrenzung. Im Falle des Tiefpass-Spektrums in Bild 2-33 gilt B = fg. Liegt ein Bandpass-Spektrum vor, so ist B = fg2 fg1.
Tiefpass-Spektrum
|XTP( f )| 1
B
Bandpass-Spektrum
f
0
B
|XBP( f )| 1
fg
0
fg2
fg1
f
Bild 2-33 Absolute Bandbreite von Tiefpass- und Bandpass-Spektren (schematische Darstellung)
3dB-Bandbreite Im Beispiel des RC-Tiefpass-Spektrums in Bild 2-15 oder des Spektrums des Rechteckimpulses in Bild 2-27 liegt keine strikte Bandbegrenzung vor. Die Bandbreite kann aber wie in Bild 2-34 durch die 3dB-Grenzfrequenz abgeschätzt werden. Im Beispiel des RC-Tiefpasses ist die 3dB-Grenzfrequenz nach (2.55) B = f3dB = 1 / (2SRC). Die 3dB-Grenzfrequenz der si-Funktion ist B = f3dB | 0,44 / T.
Tiefpass-Spektrum
|XTP( f )| 1
B
Bandpass-Spektrum
B
|XBP( f )| 1 1/2
3dB-Punkt
1/2 f3dB
f
f f3dB,1
f3dB,2
Bild 2-34 3dB-Bandbreite von Tiefpass- und Bandpass-Spektren (schematische Darstellung)
Einige typische Bandbreiten in der Nachrichtentechnik sind in Tabelle 2-1 zusammengestellt.
2.11 Bandbreite und Zeitdauer-Bandbreite-Produkt
53
Tabelle 2-1 Bandbreiten einiger Nachrichtenübertragungskanäle Anwendung
ungefähre Kanalbandbreite
Fernsprechen (analog) UKW-Rundfunk (Audio) UKW-Rundfunk (Stereo-Multiplex-Signal) Audio (Compact Disc) UKW-Rundfunk (analog) GSM Frequenzkanal1 Digitaler Teilnehmeranschluss (ADSL(2+)) DECT Frequenzkanal2 UMTS Frequenzkanal3 Fernseh-Rundfunk (analog) Fernseh-Rundfunk (digital4) Wireless Local Area Network (WLAN)5 WLAN IEEE 802.11n Power Line Communications (PLC)6 Global Position System (GPS)7 1 2 3 4 5 6
7
3,1 kHz 15 kHz 53 kHz 20 kHz 180 kHz 200 kHz 1,1 (2,2) MHz 1,8 MHz 5 MHz 5,5 … 7 MHz 6/7/8 MHz 22 MHz 20/40 MHz … 40 MHz 2/20 MHz
Für die gleichzeitige Übertragung von 8/16 Full/Half-Rate-Telefongesprächen (unidirektional). Für die gleichzeitige Übertragung von 12 Telefongesprächen (bidirektional). Frequenzkanal des Universal Mobile Telecommunication Systems (UMTS) im Codemultiplex. Analoge Programme (Frequenzkanäle) werden gegen digitale getauscht. IEEE 802.11b, IEEE 802.11a/g, HIPERLAN/2. IEEE P1901 (in Vorbereitung), Datenkommunikation über Stromversorgungsleitungen in oder zu Gebäuden. L1- bzw. L2-Träger der Satellitensignale.
Zeitdauer-Bandbreite-Produkt Eine wichtige physikalische Grundtatsache ist der Zusammenhang zwischen der Dauer und der Bandbreite eines Signals. Wir veranschaulichen uns den Zusammenhang anhand des Rechteckimpulses und seines Spektrums in Bild 2-35. Mit der Impulsdauer T und der Bandbreite B = f0, d. h. der erste Nullstelle im Spektrum für f > 0, erhält man das konstante Zeitdauer-BandbreiteProdukt B T
1
(2.91)
Demzufolge stehen die Zeitdauer eines Vorganges und die Breite des Spektrums in reziprokem Zusammenhang. Halbiert man wie in Bild 2-35 die Impulsdauer, so verdoppelt sich die Bandbreite. Bei der Datenübertragung mit binären Rechteckimpulsen bedeutet das: verdoppelt man die pro Zeiteinheit gesendeten Impulse (Bitrate), so wird die doppelte Bandbreite belegt bzw. muss zur Verfügung gestellt werden. Die Zeitdauer eines Vorgangs und die Breite Anmerkung: Definitionen des Zeitdauerdes Spektrums stehen in reziprokem ZusamBandbreite-Produktes für nicht zeit- bzw. bandbegrenzte Signale findet man z. B. in menhang. [Sch91] und [Wer08b].
54
2 Signale und Systeme
Zeitbereich
F
Frequenzbereich si-Funktion
Rechteckimpuls
XT1( jZ)
T1
xT1(t) 1
Z /2S
t T1 2B1 xT2(t)
XT2( jZ)
T2
1
t T2
2B2
Z /2S
Bild 2-35 Zeitdauer-Bandbreite-Produkt BT am Beispiel des Rechteckimpulses
2.12
Charakterisierung von LTI-Systemen
In diesem Abschnitt wird der Kreis vom Frequenzbereich zurück in den Zeitbereich geschlossen. Wurde bisher direkter Bezug auf die physikalisch realisierbaren RLC-Netzwerke genommen, so soll in diesem Abschnitt mit Blick auf die grundlegenden Eigenschaften von zeitkontinuierlichen LTI-Systemen, die Linearität und die Zeitinvarianz, ein allgemeiner Standpunkt eingenommen werden. Die theoretischen Zusammenhänge werden durch ausführliche Rechenbeispiele anschaulich gemacht. Bei den Beispielen ist zu beachten, dass die nachfolgenden Definitionen für dimensionslose Größen gelten. Physikalische Größen sind deshalb vorab geeignet zu normieren, wie beispielsweise die Spannungen in Volt, die Zeit in Sekunden, usw.
2.12.1 Impulsfunktion und Impulsantwort Ein strikt bandbegrenztes LTI-System mit der Grenzfrequenz fg soll mit einem Signal so erregt werden, dass am Ausgang der Frequenzgang direkt beobachtet werden kann. Aus der Eingangs-Ausgangsgleichung im Frequenzbereich in (2.77) schließen wir, dass das Spektrum des erregenden Signals im interessierenden Frequenzbereich konstant sein muss. Wie könnte das Signal x(t) aussehen? Beispielsweise wie ein Rechteckimpuls in Bild 2-35 mit entsprechend kurzer Dauer T. Wählt man nämlich T so, dass für die Bandbreite gilt B = 1/T >> fg, dann ist das Spektrum am Systemausgang näherungsweise proportional der gesuchten Übertragungsfunktion. Betrachtet man nun ein System mit doppelter Grenzfrequenz, ist für die Messung die Dauer des Rechteckimpulses zu halbieren. Ist das System nicht strikt bandbegrenzt, müsste die Signalbandbreite B gegen unendlich und damit die Dauer des Rechteckimpulses gegen null gehen. Wie in Bild 2-35 zu sehen, geht jedoch ebenso die Amplitude des Spektrums gegen null.
2.12 Charakterisierung von LTI-Systemen
55
Das kleine Gedankenexperiment zeigt das Problem auf und deutet die Lösung an. Mit Blick auf die parsevalsche Formel (2.76) ist festzustellen: ein Signal, dessen Spektrum ungleich null und konstant für alle Frequenzen ist, würde unendliche Energie aufweisen und kann deshalb nicht physikalisch existieren. Es ist jedoch möglich, im Sinne eines Grenzüberganges, ein derartiges Signal als mathematische Idealisierung zu konstruieren. Impulsfunktion Dazu betrachten wir in Bild 2-36 (links) die endliche Folge von gewichteten Rechteckimpulsen nx1/n(t), die bei konstanter eingeschlossener Fläche f
³ n x
1/ n
(t )dt
1 für n 1, 2,3,! , N
(2.92)
f
für wachsendes n immer schmaler und höher werden. Die zugehörigen Spektren (2.74) sind ebenfalls in Bild 2-36 (rechts) skizziert. nX1/n( jZ)
n=4
nx1/n(t)
3
nof
2 3
1 1/2
0
1/2
1 2
t
Z
Bild 2-36 Folge von flächennormierten Rechteckimpulsen (links) und ihre Spektren (rechts)
Im Grenzfall N o f streben die Spektren für alle Kreisfrequenzen gegen den Wert eins, da die erste positive und negative Nullstelle sich nach +f bzw. f verschieben. Jedoch streben zugleich die Integrationsgrenzen in (2.92) gegen null und der Integrand gegen unendlich. Es ist offensichtlich, dass im Grenzfall das Integral im herkömmlichen Sinne nicht mehr existiert. Anmerkung: Die Flächennormierung bedeutet, dass die Energie der Rechteckimpulse gleich n ist, und somit ebenfalls gegen unendlich strebt.
Das mathematische Problem des Grenzübergangs in (2.92) ist für sich genommen jedoch nicht relevant. Gesucht werden für die Messaufgabe ein Signal und seine Wirkung auf ein System. Es interessiert die Anwendung auf eine weitere Funktion x(t), die später den Einfluss des zu untersuchenden Systems widerspiegeln wird. Wir machen uns das durch eine kurze Überlegung deutlich. Ist x(t) um t = 0 stetig und beschränkt, so erwarten wir gemäß dem Mittelwertsatz der Integralrechnung für n genügend groß aber endlich f
³ x(t ) n x1 / n (t ) dt | x(0)
(2.93)
f
Es ist deshalb vorteilhaft, den Grenzübergang N o f im Sinne einer Abbildung aufzufassen, die der Funktion x(t) ihren Funktionswert an der Stelle t = 0 zuweist. Wir schreiben formal
56
2 Signale und Systeme f
³ x(t ) G (t ) dt
x(0)
(2.94)
f
mit der Impulsfunktion oder diracschen1 Delta-Funktion G(t). Die Impulsfunktion ist keine Funktion im herkömmlichen Sinne sondern eine verallgemeinerte Funktion, auch Distribution genannt. Sie und das Integral (2.94) werden im Rahmen der Distributionentheorie mathematisch erklärt. Mit anderen Worten: das Integral wird nicht durch Einsetzen der Funktionen und herkömmlichem Integrieren gelöst, sondern ist als Definitionsgleichung der Impulsfunktion aufzufassen. Man spricht bei (2.94) von der Ausblendeigenschaft der Impulsfunktion, da sie den gesamten Funktionsverlauf bis auf den Wert an der Stelle null ausblendet. Anmerkungen: (i) In der Literatur wird die Impulsfunktion auch als Diracstoss, Diracimpuls oder DeltaFunktion bezeichnet. Eine kurze Einführung in die Distributionentheorie und weiterführende Literaturhinweise findet man beispielsweise in [Bri97] und [Sch91]. (ii) Es sei noch angemerkt, dass in der Distributionentheorie der Grenzübergang nicht mit einem Rechteckimpuls sondern mit einer unbegrenzt oft differenzierbaren Funktion, z. B. der gaußschen Glockenkurve, gearbeitet wird. Dadurch wird es möglich, auch Ableitungen, so genannte Derivierte, der Impulsfunktion sinnvoll zu definieren und die Impulsfunktion zur Lösung von Differentialgleichungen heranzuziehen.
Die Impulsfunktion wird, wie in Bild 2-37 gezeigt, als nadelförmiger Impuls grafisch dargestellt. Falls hilfreich wird ihr Gewicht (Impulsstärke) an die Spitze geschrieben. Ihre Fourier-Transformierte ist eine Konstante, wie man durch Einsetzen in das Fourier-Integral (2.70) und Anwenden der Ausblendeigenschaft (2.94) schnell zeigt. In Anlehnung an die additive Farbmischung in der Optik wird ein konstantes Spektrum auch weißes Spektrum genannt.
Impulsfunktion
G (t )
F
„weißes“ Spektrum
1 0
t
0
Z
Bild 2-37 Impulsfunktion und weißes Spektrum
Anmerkung: Der Ausdruck weißes Spektrum wird insbesondere im Zusammenhang mit konstanten Leistungsdichtespektren gebraucht. Man spricht dann vom weißen Rauschen.
In der Technik und Physik nützt man die formale Übereinstimmung mit den gewohnten Rechenregeln. Häufig verwendete Eigenschaften (Rechenregeln) sind in Tabelle 2-2 zusammengestellt. Impulsantwort Mit der Impulsfunktion als mathematische Idealisierung für ein Signal mit hoher Energie und kurzer Dauer lassen sich zur Systembeschreibung wichtige Zusammenhänge ableiten. Erregt man das zunächst energiefreie LTI-System mit der Impulsfunktion, so ist das Spektrum am Ausgang gleich dem Frequenzgang des LTI-Systems (2.77). Im Zeitbereich erhält man, wie der Name sagt, die Impulsantwort. Die Impulsantwort und der Frequenzgang bilden ein FourierPaar. Beide Systemfunktionen liefern gleich viel Information über das LTI-System, da sie mit
1
Paul Adrien Maurice Dirac: *1902, †1984, britischer Physiker, Nobelpreis 1933.
2.12 Charakterisierung von LTI-Systemen
57
der Fourier-Transformation ineinander umgerechnet werden können. h(t ) l H ( jZ )
(2.95)
Anmerkung: Hierbei wird die Existenz des Frequenzgangs als Fourier-Transformierte der Impulsantwort vorausgesetzt. Ein hinreichendes Kriterium dafür ist, wie später gezeigt wird, die absolute Integrierbarkeit der Impulsantwort (2.120). Tabelle 2-2 Eigenschaften der Impulsfunktion Rechenregeln f
Verschiebung
³
f
³ x(t t0 )G (t )dt
x(t )G (t t0 )dt
f
Zeitskalierung
G ( at )
(2.96)
G (t )
für
a
az0
(2.97)
G (t ) G (t )
Symmetrie Ausblendeigenschaft für x(t) stetig in t = 0 bzw. t = t0
x(t0 )
f
x(t ) G (t ) x(t ) G (t t0 )
(2.98)
x(0) G (t )
(2.99)
x(t0 ) G (t t0 )
G (t ) l 1 Z
Fourier-Paare
(2.100)
1 t l 2S G (Z )
Beispiel Impulsantwort des RC-Tiefpasses
Am Beispiel des RC-Tiefpasses lassen sich die bisherigen Überlegungen anhand bekannter Ergebnisse aus der Physik überprüfen und veranschaulichen. Wir betrachten dazu den RC-Tiefpass in Bild 2-38 mit der Zeitkonstanten W = RC und setzen ohne Beschränkung der Allgemeinheit im Folgenden stets voraus, dass die Kapazität sich anfangs im ungeladenen Zustand befindet, d. h. zu Beginn energiefrei ist.
Ausgang
Eingang
ue(t)
R
ua(t) C
Bild 2-38 RC-Tiefpass
Wir starten mit dem Übergang des Eingangssignals vom Rechteckimpuls zur Impulsfunktion. Zunächst wird die Ausgangsspannung ua(t) bei Erregung mit einem Rechteckimpuls bestimmt. ue (t ) U q xT (t )
(2.101)
Aus der kirchhoffschen Maschenregel und dem Zusammenhang zwischen Strom und Spannung an der Kapazität resultiert für die Ausgangsspannung die inhomogene lineare Differentialgleichung 1. Ordnung mit konstanten Koeffizienten
58
2 Signale und Systeme
d 1 ua (t ) ua (t ) W dt
1
W
ue (t )
(2.102)
Die Lösung der Differentialgleichung für eine rechteckförmige Eingangsspannung mit dem Einschaltzeitpunkt t = 0 ist aus der Physik bekannt oder kann mit Hilfe der Variation der Konstanten, z. B. in [Sch88], berechnet oder durch einfache Überlegungen erraten werden, siehe auch Bild 2-13.
°0 ° t / W ®U q 1 e ° °U 1 eT / W e t T / W °¯ q
ua (t )
für t 0
für 0 d t T
(2.103)
für t t T
In Bild 2-39 rechts wird die Ausgangsspannung für verschiedene Rechteckimpulse (links) als Eingangsspannung dargestellt. Man erkennt deutlich die zuerst wachsende Spannung an der Kapazität im Ladevorgang und anschließend deren exponentiell fallenden Verlauf beim Entladen. Betrachtet man die Folge von Rechteckimpulsen (2.92), so erkennt man für wachsendes n, dass sich der Ladevorgang immer mehr verkürzt und sich der Endwert der Spannung im Ladevorgang dem Wert Uq annähert. Im Grenzfall n o f , d. h. bei Erregung mit der Impulsfunktion, scheint die Spannung an der Kapazität sofort auf den Wert Uq zu springen und es beginnt der Entladevorgang. Anmerkung: Selbstredend ist für n o f eine derartige physikalisch Spannungsquelle nicht realisierbar. Die mathematische Idealisierung ist jedoch von großem praktischem Wert. Bei jedem physikalischen Experiment ist man auf Beobachtungen, hier die Messungen der Zeit und der Spannung, angewiesen. Die Messgenauigkeiten sind durch reale Messverfahren und Messgeräte stets beschränkt. Unterschreitet man die Messauflösung, so ist der Unterschied zwischen Experiment und Idealisierung nicht mehr festzustellen.
ue (t ) U q ue (t ) Uq
nof 8 4
n xW / n (t )
2 1
n=8 4 2 1 1/2
0
1/2
t/W
1/2
0
1/2
1
2
t/W
Bild 2-39 Reaktion des RC-Tiefpasses mit der Zeitkonstanten W = RC auf flächennormierte Rechteckimpulse der Dauer T = W / n
2.12 Charakterisierung von LTI-Systemen
59
In Einklang mit den physikalischen Überlegungen ist die Impulsantwort des RC-Tiefpasses
1 § t· ° exp ¨ ¸ für t ! 0 W © W¹ ® °0 für t 0 ¯
hRC TP (t )
(2.104)
Abschließend verifizieren wir die Impulsantwort (2.104) und die zugrunde liegenden theoretischen Zusammenhänge: (a) Die Impulsantwort und der Frequenzgang bilden ein Fourier-Paar. (b) Man erhält die Impulsantwort, wenn in der systembeschreibenden Differentialgleichung die Impulsfunktion als Erregung eingesetzt wird. Zu (a): Zunächst wird die Impulsantwort (2.104) transformiert und mit dem früher bestimmten Frequenzgang des RC-Tiefpasses (2.43) verglichen. f
³
f
hRC TP (t ) e jZt dt
f
1
W
1
³ W e
t / W
e jZt dt
0
f
³e
>1/ W jZ @ t
dt
0
(2.105)
1/ W 1/ W jZ
1 1 jZW
H RC TP ( jZ )
Zu (b): Nun wird die Impulsantwort als Lösungsansatz in die Differentialgleichung (2.102) für t t 0 mit Impulserregung eingesetzt Uq
d a t / W a t / W e e dt W W2
W
G (t )
(2.106)
mit der positiven reellen Konstanten a. Die Integration vereinfacht die Gleichung. a
W
e t / W
a
W2
t
³
Uq t ³ G ( x)dx
e x / W dx
0
W
W ª¬exp t / W 1º¼
(2.107)
0
1
Anmerkung: Die untere Integrationsgrenze –0 soll den Grenzübergang von links an 0 symbolisieren, so dass die Ausblendeigenschaft (2.94) angewendet werden kann. In der Literatur sind auch Definitionen für den „Grenzübergang“ mit rechtsseitigen Rechteckimpulsen zur Impulsfunktion zu finden, die jedoch an anderer Stelle eine entsprechende Interpretation verlangen, siehe auch (2.98).
Wie zu zeigen war, erhält man mit a = Uq aus (2.107) für das Ausgangssignal ua (t ) U q hRC TP (t )
Uq
W
e t / W für t ! 0
(2.108)
Anmerkung: Man beachte, dass hier eine einfache Dimensionskontrolle nicht zulässig ist, da mit dimensionslosen Größen gerechnet wird. Würde man mit Dimensionen rechnen, so wäre die Ausblendeigenschaft der Impulsfunktion in (2.94) zu modifizieren. Da eine Integration über der Zeit vorliegt, müsste das Resultat die Dimension der Zeit aufweisen.
60
2 Signale und Systeme
2.12.2 Faltung Mit der Impulsantwort kann die Eingangs-Ausgangsgleichung eines LTI-Systems im Zeitbereich angegeben werden. Die Impulsantwort ist darüber hinaus die zentrale Systemfunktion, die die Systemeigenschaften festlegt. Die grundsätzliche Idee der Beschreibung von LTI-Systemen besteht darin, zunächst die Systemreaktion auf die Impulsfunktion, die Impulsantwort, zu bestimmen. Lässt sich das Eingangssignal als Linearkombination von gewichteten und verzögerten Impulsfunktionen darstellen, so folgt aufgrund der Linearität und der Zeitinvarianz des LTI-Systems, dass das Ausgangssignal eine Linearkombination von ebenso gewichteten und verzögerten Impulsantworten sein muss. Diesen grundsätzlichen Zusammenhang wollen wir jetzt erfassen. Anmerkung: Die nachfolgend verwendeten mathematischen Interpretationen von Linearität und Zeitinvarianz können auch im Sinne einer Definition verstanden werden.
Im ersten Schritt wird mit dem Systemoperator T{.} die Impulsantwort definiert und dabei ihre Existenz vorausgesetzt. h (t )
T ^G (t )`
(2.109)
Anmerkung: Der Systemoperator bedeutet nichts weiter, als dass die Funktion in der geschweiften Klammer das Eingangssignal ist und das Ausgangssignal als Ergebnis der Abbildung (Transformation) durch das System zugewiesen wird. Wie diese Abbildung wirklich aussieht hängt von dem jeweils betrachteten System ab. Voraussetzung ist hier nur, dass die Funktionen sinnvoll existieren und die Abbildung linear und zeitinvariant ist.
Im zweiten Schritt wird das Eingangssignal als Überlagerung von Impulsfunktionen dargestellt. f
³
x(W )G (t W )dW
f
f
x(t )
³
G (t W )dW
f
x (t )
(2.110)
1
Anmerkung: Da, wegen der Ausblendeigenschaft der Impulsfunktion, das linke Integral nur dann einen von null verschiedenen Wert liefert, wenn t = W, darf auch x(t) geschrieben werden. x(t) ist unabhängig von der Integrationsvariablen W, weshalb x(t) vor das Integral gestellt wird. Es verbleibt die Integration über die Impulsfunktion, die definitionsgemäß den Wert 1 hat.
Mit dieser Vorbereitung ergibt sich die Eingangs-Ausgangsgleichung eines Systems auf ein weitgehend beliebiges Eingangssignal y (t )
f ° °½ T ® ³ x(W )G (t W )dW ¾ ¯° f ¿°
(2.111)
Nun wird die Linearität benutzt, indem die lineare Abbildung des Signals bezüglich der Zeitvariablen t durch das System mit der linearen Abbildung durch das Integral bezüglich der Integrationsvariablen W vertauscht wird. f
y (t )
³ x(W ) T ^G (t W )`
f
dW
(2.112)
2.12 Charakterisierung von LTI-Systemen
61
Ist das System zeitinvariant, so hängt das Ausgangssignal, die Reaktion, bis auf eine zeitliche Verschiebung aufgrund des Einschaltzeitpunktes, hier W, nicht vom Zeitpunkt der Erregung ab. Man erhält die zeitlich um W verschobene Impulsantwort. f
y (t )
³ x(W ) h(t W )
dW
(2.113)
f
Damit ist die gesuchte Eingangs-Ausgangsgleichung für den Zeitbereich gefunden. Man bezeichnet das Integral kurz als Faltung, oder Faltungsintegral, und schreibt mit dem Faltungsstern „ “ ebenso kurz x(t ) h(t )
f
f
f
f
³ x(W )h(t W )dW ³ x(t W )h(W )dW
(2.114)
Die Faltung erhält ihren Namen daher, dass eine der Funktionen im Integranden mit negativer Integrationsvariablen vorkommt. Das entspricht einem „Umfalten“ (Spiegelung) der Funktion an der Ordinate. Die Faltung ist kommutativ, wie noch gezeigt wird. Zunächst verifizieren wir (2.114) durch Fourier-Transformation und Vergleichen des Ergebnisses mit der Eingangs-Ausgangsgleichung im Frequenzbereich (2.77). Anmerkung: Die folgende Herleitung stellt ein typisches Beispiel für die Anwendung der Fourier-Transformation und der Impulsfunktion in der Nachrichtentechnik dar. Die Anwendung beruht – abgesehen von einem gewissen Vertrautwerden mit den Zusammenhängen – auf einfachen Rechenregeln. Die Gültigkeit der Regeln wird stillschweigend vorausgesetzt, was durch die physikalischen Randbedingungen in den technischen Anwendungen motiviert (und durch die Distributionentheorie mathematisch abgesichert) wird.
Vertauschen der Integrationsreihefolge zwischen der Zeitvariablen t der Fourier-Transformation und der Faltungsvariablen W liefert nach einfacher Substitution der Variablen den Fre jZW quenzgang und den Faktor e
x(t ) h(t ) l
f
ª f
º
³ «¬ ³ x(W )h(t W )dW »¼ e
f
f
jZ t
f
dt
ª f
º dt » dW f ¼
³ x(W ) «¬ ³ h(t W ) e
f
jZ t
(2.115)
H ( jZ ) exp jZW
Anmerkung: Dieser Zusammenhang wird auch als Zeitverschiebungssatz der Fourier-Transformation bezeichnet.
Da der Frequenzgang bezüglich der Integration nach W als konstant anzusehen ist, darf er vor das Integral gezogen werden und es verbleibt die Fourier-Transformation des Eingangssignals. Damit ist gezeigt, dass die Fourier-Transformation die Faltung zweier Funktionen im Zeitbereich im Frequenzbereich in das Produkt ihrer Fourier-Transformierten überführt. Aus der Faltung des Eingangssignals mit der Impulsantwort wird das Produkt des Eingangsspektrums mit dem Frequenzgang. x(t ) h(t ) l X ( jZ ) H ( jZ )
(2.116)
Aus der Kommutativität des Produktes im Frequenzbereich darf auf die Kommutativität der Faltung im Zeitbereich geschlossen werden. Bild 2-40 stellt die Ergebnisse für die EingangsAusgangsgleichungen von LTI-Systemen im Zeit- und im Frequenzbereich zusammen.
62
2 Signale und Systeme
Zeitbereich x(t)
y(t) = x(t) h(t)
h(t)
Fourier-Transformation
LTI-System H( jZ)
X( jZ)
X( jZ) = X( jZ) H( jZ)
Frequenzbereich
Bild 2-40 Eingangs-Ausgangsgleichungen für LTI-Systeme im Zeit- bzw. im Frequenzbereich mit der Impulsantwort h(t) und dem Frequenzgang H( jZ) des LTI-Systems
Wichtige Eigenschaften von LTI-Systemen werden nachfolgend nochmals zusammengestellt. Die sinnvolle Wahl von Funktionen und Konstanten in den Definitionen wird vorausgesetzt. Linearität Sind zwei beliebigen Eingangssignalen x1(t) und x2(t) die Ausgangssignale y1(t) und y2(t) zugeordnet, so folgt für lineare Systeme für jede Linearkombination mit beliebigen Konstanten c1 und c2 T ^ c1 x1 (t ) c2 x (t )
`
c1 y1 (t ) c2 y2 (t )
(2.117)
Diese Eigenschaft muss im erweiterten Sinne auch für konvergente Funktionenfolgen, wie Fourier-Reihen und Integrale, wie (2.111), gelten. Zeitinvarianz Ein System ist zeitinvariant, wenn für einen beliebigen Einschaltzeitpunkt t0 gilt T ^ x (t )`
y (t ) und T ^ x (t t0 )`
y (t t0 )
(2.118)
Kausalität Man beachte im Beispiel der Impulsantwort des RC-Tiefpasses, dass die Impulsantwort für t < 0 gleich null ist. Signale mit dieser Eigenschaft werden als rechtsseitige Signale bezeichnet. Ist die Impulsantwort eines Systems rechtsseitig, spricht man von einem kausalen System. In diesem Fall erfolgt die Reaktion zeitgleich mit oder erst nach der Erregung und steht somit im Einklang mit der physikalischen Erfahrung von Ursache und Wirkung. Ist das System kausal, so kann die Rechtsseitigkeit der Impulsantwort in den Grenzen des Faltungsintegrals berücksichtigt werden. t
y (t )
³
f
x(W ) h(t W )dW
f
³ h(W ) x(t W )dW 0
(2.119)
2.12 Charakterisierung von LTI-Systemen
63
BIBO-Stabiliät Ein System mit absolut integrierbarer Impulsantwort f
³
h(t ) dt f
(2.120)
f
bezeichnet man als BIBO-stabil. BIBO steht für „Bounded Input – Bounded Output“ und bedeutet, dass für jedes amplitudenbeschränkte Eingangssignal | x(t) | d M auch das Ausgangssignal in seiner Amplitude beschränkt bleibt. f
³
y (t )
x(W ) h(t W )dW d
f
d
f
³
f
f
x(W ) h(t W ) dW d M ³ ³N
f
x(W ) h(t W ) dW d
f
(2.121) h(t W ) dW f
f
dM
Ist die Impulsantwort absolut integrierbar, existiert der Frequenzgang. Beispiel Faltung eines rechtsseitigen Rechteckimpulses mit sich selbst
In vielen Fällen lässt sich die Faltung auf grafischem Wege veranschaulichen. Hierzu betrachten wir das Beispiel zweier rechtsseitiger Rechteckimpulse x (t )
xT t T / 2
(2.122)
Anmerkung: In der Nachrichtenübertragungstechnik werden im Empfänger oft auf das Sendesignal angepasste Filter, so genannte Matched-Filter, verwendet, um das Signale bei additiver Rauschstörung gut detektieren zu können. In Abschnitt 5 wird gezeigt, dass dann eine ähnliche Situation vorliegt wie hier im Beispiel.
Die Faltung y (t )
x(t ) x(t )
f
³ x(W ) x(t W )dW
(2.123)
f
lässt sich wie in Bild 2-41 gezeigt bestimmen: Für einen beliebigen aber fest vorgegebenen Wert t ist im Integranden das Produkt aus x(W) und xT(tW) zu bilden. Hierzu sind in Bild 2-41 die Signale x(W) und x(tW) für die Werte t = 0, T/2, T, 3T/2 und 2T gezeigt. Für t = 0 erhält man für x(W) wegen des Minuszeichens im Argument den an der Ordinate gespiegelten (umgefalteten) Rechteckimpuls. Die Spiegelung wird im Bild durch ein kleines Dreieck angedeutet. Für t = T/2 verschiebt sich der Rechteckimpuls um T/2 nach rechts, usw. Im Integranden ist das Produkt aus dem Rechteckimpuls und seiner gespiegelten und verschobenen Replik zu bilden. Da im Beispiel x(W) = 0 für W < 0 oder W > T gilt, werden vier Fälle unterschieden:
64
2 Signale und Systeme x(W) 1
t=0
x(tW)
x(t ) x(t )
0 T/2 T W
td0
T
0 T/2 T
W
t = T/2
t
t d T/2 t
W t dT
t=T
t
W t d 3T/2
t = 3T/2
t
W
t = 2T
t d 2T 0
T
W
T 0
T
2T t
Bild 2-41 Faltung eines kausalen Rechteckimpulses mit sich selbst
(i)
t<0
Der Integrand ist für t < 0 identisch null, da sich x(W) und x(tW) nicht überlappen Demzufolge liefert die Faltung den Wert null, wie in der rechte Hälfte von Bild 2-41 gezeigt wird. (ii)
0dt
Für wachsendes t schiebt sich der Rechteckimpuls x(tW) mehr und mehr unter den Rechteckimpuls x(W). Da es sich um Rechteckimpulse handelt nimmt die vom Produkt der beiden Rechteckimpulse eingeschlossene Fläche linear zu. (iii)
T d t < 2T
Für t = T decken sich die Rechteckimpulse vollständig. Die Faltung liefert den Maximalwert. Anmerkung: Die Faltung eines reellen spiegelsymmetrischen Signals x(t) mit sich selbst liefert als Maximum die Energie des Signals (2.8).
Mit wachsendem t schiebt sich x(tW) aus dem Abszissenbereich des Rechteckimpulses x(W). Die von den beiden Rechteckimpulsen gemeinsam eingeschlossene Fläche nimmt linear ab. (iv)
2T d t
Für t t 2T ist der Integrand und damit das Ergebnis der Faltung identisch null. Das gesuchte Faltungsergebnis ist in Bild 2-41 unten rechts gezeigt. Es resultiert ein Dreieckimpuls mit der Breite 2T und der Höhe T.
2.13 Zusammenfassung
65
Beispiel Rechteckimpuls am RC-Tiefpass
Beispielhaft berechnen wir die Reaktion eines zunächst energiefreien RC-Tiefpasses bei Erregung mit einem rechteckförmigen Spannungsimpuls. Wegen der Kausalität der Impulsantwort (2.104) kann die Faltung in der Form (2.119) verwendet werden. § T· ua (t ) U q xT ¨ t ¸ hRC TP (t ) 2¹ ©
Uq
W
t
T · t D / W § xT ¨ D ¸ e dD 2¹ © f
³
(2.124)
Da auch das Eingangssignal kausal ist, kann die Systemantwort erst für t t 0 erfolgen.
T· § t 0 D 0 xT ¨ D ¸ 2¹ ©
0 ua (t )
0
(2.125)
Das Integral (2.124) ist nur noch für t > 0 zu lösen. Wegen des Rechteckimpulses ist eine Fallunterscheidung notwendig. Für 0 < t < T liegt die Spannung Uq an und man erhält die Spannung an der Kapazität im Ladevorgang ua (t )
Uq
W
t
³e
U q 1 e t / W für 0 t T
t D / W
dD f
(2.126)
W exp t / W exp D / W 0 t
Für t > T ist die Eingangsspannung null; die Kapazität entlädt sich. Aus (2.124) wird ua (t )
Uq
W
T
³e
t D / W
dD f
U q eT / W 1 e t / W für t ! T
(2.127)
W exp t / W exp D / W 0
T
Ausklammern der Exponentialfunktion liefert das bekannte Ergebnis (2.103). Man beachte auch die Stetigkeit der Spannung an der Kapazität für t = 0 und t = T. Da Kapazitäten und Induktivitäten Energiespeicher sind, können sich ihre Spannungen bzw. Ströme aus physikalischen Gründen nicht sprunghaft ändern. Die Ausnahme von dieser Regel ist die mathematische Idealisierung der impulsförmigen Erregung.
2.13
Zusammenfassung
In Tabelle 2-3 sind die wesentlichen Schritte von der Gleichstromrechnung zur Theorie der linearen zeitinvarianten Systeme zusammengestellt. Den Ausgangspunkt bilden die Gleichströme bzw. -spannungen als Signale in Widerstandsnetzen, siehe unten in der Tabelle. Die interessierenden Zweigströme und Zweigspannungen werden mit dem ohmschen Gesetz und den kirchhoffschen Regeln berechnet. Durch Hinzunehmen von Kapazitäten und Induktivitäten wird die Betrachtung auf die RLCNetze erweitert. Mit der komplexen Wechselstromrechnung lassen sich die Zweigströme und Zweigspannungen für sinusförmige Quellen angeben. RLC-Netzwerke sind ein Beispiel für lineare zeitinvariante Systeme. Deren Übertragungsverhalten kann vorteilhaft im Frequenzbereich durch den Frequenzgang beschrieben werden.
66
2 Signale und Systeme
Damit lassen sich insbesondere in Verbindung mit der Fourier-Transformation die Systemreaktionen auch für nichtperiodische Signale bestimmen. Die Beschreibung der Signale und Systeme im Frequenzbereich liefert wichtige neue Einblicke, Konzepte und Kenngrößen, wie das Spektrum, das Filter, die Bandbreite und das Zeitdauer-Bandbreite-Produkt. Mit der Definition der Impulsfunktion als mathematische Idealisierung eines „sehr kurzen und energiereichen Signals“ und der allgemeinen Betrachtung der LTI-Eigenschaften Linearität und Zeitinvarianz wird die Impulsantwort als die wesentliche Systemfunktion eingeführt. Wichtige Systemeigenschaften, wie die Kausalität und die Stabilität, lassen sich an ihr ablesen. Mit der Faltung der Impulsantwort mit dem Eingangssignal erhält man die Eingangs-Ausgangsgleichung im Zeitbereich. Impulsantwort und Frequenzgang bilden ein Fourier-Paar. Ausblick Die für die zeitkontinuierlichen Signale und Systeme am Beispiel der RLC-Netzwerke vorgestellten Begriffe und Zusammenhänge lassen sich in ihren Bedeutungen unverändert in das Zeitdiskrete übertragen. Für zeitdiskrete Signale kann ebenfalls die harmonische Analyse mit der Fourier-Transformation vorgenommen werden. Die Begriffe Frequenzkomponenten, Spektrum, Bandbreite und Zeitdauer-Bandbreite-Produkt finden ihre zeitdiskreten Entsprechungen. An die Stelle der Systembeschreibung mit Differentialgleichungen treten Differenzengleichungen bei zeitdiskreten LTI-Systemen, die nur aus Addierern und Verzögerungsgliedern aufgebaut sind. Es existieren Impulsantworten und Frequenzgängen mit EingangsAusgangsgleichungen im Zeit- und im Frequenzbereich, die denen in Tabelle 2-3 entsprechen. Die digitale Signalverarbeitung macht von diesen Analogien ausgiebig Gebrauch und hat die analoge Signalverarbeitung in vielen Anwendungen verdrängt. In Abschnitt 3 wird ein kurzer Blick auf die digitale Signalverarbeitung geworfen. Beispielhaft werden digitale FIR- und IIRFilter und die Kurzzeit-Spektralanalyse mit der FFT vorgestellt. Mit den hier und in Abschnitt 3 vorgestellten Begriffen und Zusammenhängen, ist die Grundlage für eine zügige Einarbeitung in die digitale Signalverarbeitung gelegt.
2.13 Zusammenfassung
67
Tabelle 2-3 Signale und Systeme Signale
Systeme
Aperiodische Quelle x(t)
Methoden
LTI-System mit Impulsantwort h(t) Eingangs-Ausgangsgleichung
Kausalität Spektrum f
³ x(t ) e
X ( jZ )
h(t ) jZt
dt
f
0 t 0
im Zeitbereich mit der Impulsantwort
BIBO-Stabilität f
³
y (t )
h(t ) dt f
h(t ) x(t )
f
Inverse Fourier-Transformation x(t )
1 2S
f
³
X ( jZ ) e jZt d Z
Frequenzgang H ( jZ )
f
³ h(t ) e
jZt
im Frequenzbereich mit dem Frequenzgang
Periodische Quelle x(t) mit der Grundkreisfrequenz Z0 f
x(t )
¦
x(t) ck e jkZ0t
LTI- y(t) System
k f
Wechselspannungsquelle
Wechselstromquelle
Induktivität L
iˆ cos(Zt M )
Eingangs-Ausgangsgleichung mit dem Frequenzgang und der Fourier-Reihe f
y (t )
¦
H ( jkZ0 ) ck e jkZ0t
RLC-Netzwerk Widerstand R
iq (t )
H ( jZ ) X ( jZ )
k f
uˆ cos(Z t M )
u q (t )
Y ( jZ )
dt
f
f
Kapazität C
Gleichspannungsquelle U
Widerstandsnetzwerk
Gleichstromquelle I
Widerstand R
Komplexe Wechselstromrechnung mit erweitertem ohmschen Gesetz und den kirchhoffschen Regeln für komplexe Amplituden
Gleichstromrechnung mit dem ohmschen Gesetz und den kirchhoffschen Regeln
68
2 Signale und Systeme
2.14 Aufgaben zu Abschnitt 2 Aufgabe 2.1
Ordnen Sie durch Ankreuzen in der Tabelle A2.1-1 richtig zu. wertkontinuierlich
wertdiskret
Tabelle A2.1-1
zeitkontinuierlich
zeitdiskret
Analoges Signal Digitales Signal Abtastfolge Binäres Basisbandsignal* * Z. B. wie bei der RS-232-Schnittstelle.
Aufgabe 2.2
Betrachtet wird die RC-Schaltung in Bild A2.2-1. a) Geben Sie den Frequenzgang analytisch an. Verwenden Sie die Zeitkonstante W = RC / 2. b) Bestimmen Sie den Frequenzgang der Dämpfung im logarithmischen Maß. c) Skizzieren Sie den Frequenzgang der Dämpfung im logarithmischen Maß und tragen Sie in die Grafik die Dämpfung bei der 3dB-Grenzfrequenz ein. Hinweis: Wählen Sie eine geeignete Einteilung der Frequenzachse.
Ausgang
Eingang
R
ue(t)
ua(t)
R
C
d) Um welche Art von Frequenzgang handelt es sich? Bild A2.2-1 RC-Schaltung
e) Berechnen Sie die 3dB-Grenzfrequenz für R = 50 : und C = 796 nF. Aufgabe 2.3
Skizzieren Sie das Amplitudenspektrum, d. h. den Betrag der Fourier-Koeffizienten in einseitiger Form, der in Bild A2.3-1 gezeigten periodischen Sägezahnschwingung mit der Fourier-Reihe x(t )
1 1 f sin kZ0 t ¦ k 2 S k1
x(t) 1 t 0
T0
Bild A2.3-1 Periodische Sägezahnschwingung
Hinweise: ck = (ak jbk) / 2, ck = ck* und 1/S | 0,32
2.14 Aufgaben zu Abschnitt 2
69
Aufgabe 2.4
Die periodische Sägezahnschwingung in Bild A2.3-1 erregt das System mit idealen Bandpassverhalten in Bild A2.4-1. Die Periode des Signals ist T0 = 1 ms.
BP
x(t)
y(t)
fg1 = 300 Hz
a) Geben Sie die Reaktion am Ausgang des Systems im eingeschwungenen Zustand an.
fg2 = 4,3 kHz
b) Skizzieren sie das Amplitudenspektrum (einseitiges Betragsspektrum) des Ausgangssignals.
Bild A2.4-1 Bandpass
Aufgabe 2.5
a) Erklären Sie den Begriff des Spektrums. b) Warum ist die harmonische Analyse im Zusammenhang mit elektrischen RLC-Netzwerken wichtig? c) Welche Bedeutung hat die parsevalsche Gleichung? d) Erklären Sie den Begriff der Bandbreite. e) Welche Eigenschaft muss ein Signal haben, damit ein Linienspektrum entsteht? f) In welchem Zusammenhang stehen die Bandbreite und die zeitliche Dauer eines Signals? Aufgabe 2.6
Skizzieren Sie das Toleranzschema zum Entwurf eines Tiefpasses. Tragen Sie alle relevanten Parameter ein und benennen Sie die Parameter und die Bereiche des Toleranzschemas. Aufgabe 2.7
Eine Signalanalyse ergibt die näherungsweise Darstellung u(t) | 2 V cos(Z0t) + 0,1 V cos(2Z0t) 0,04 V cos(3Z0t) Berechnen Sie den Klirrfaktor. Geben Sie den Wert in Prozent an. Aufgabe 2.8
Geben Sie von der RC-Schaltung in Bild A2.8-1 mit R = 100 : und C = 796 nF aus. a) Geben Sie den Frequenzgang analytisch an. Verwenden Sie dabei die Zeitkonstante W = 2RC.
Ausgang
Eingang
ue(t)
R
C R
b) Geben Sie den Frequenzgang der Dämpfung in dB an. Bild A2.8-1 RC-Schaltung c) Skizzieren Sie den Frequenzgang der Dämpfung in dB und tragen Sie in die Grafik den Wert der Dämpfung bei der 3dB-Grenzfrequenz ein.
d) Um welche Art von Frequenzgang handelt es sich? e) Berechnen Sie die 3dB-Grenzfrequenz.
ua(t)
70
2 Signale und Systeme
Aufgabe 2.9
a) Skizzieren Sie einen Rechteckimpuls x(t) = A für t [T, T] und 0 sonst. b) Geben Sie die Fourier-Transformierte zu x(t) analytisch an. c) Skizzieren Sie das Spektrum zu x(t). d) Geben Sie die Frequenz der ersten Nullstelle im Spektrum für f > 0 an. Aufgabe 2.10
Berechnen Sie zu dem in Bild A2.10-1 gezeigten Schaltung
L
ue(t)
a) den Frequenzgang und
R
ua(t)
b) den Frequenzgang der Dämpfung in dB. c) Skizzieren Sie den Frequenzgang der Dämpfung in dB und tragen Sie den 3dB-Punkt ein.
Bild A2.10-1 LR-Schaltung
d) Um welche Art von Frequenzgang handelt es sich? e) Dimensionieren Sie für R = 50 : die Induktivität derart, dass die 3dB-Grenzfrequenz 10 kHz beträgt. Aufgabe 2.11
Ergänzen Sie in Bild A2.11-1 für T1 = 2T2 die beiden fehlenden Teilbilder. Beachten Sie die Achsenskalierungen. Frequenzbereich
Zeitbereich
1/T1 t
f
A t
f
T2 Bild A2.11-1 Veranschaulichung zum Zeitdauer-Bandbreite-Produkt
Aufgabe 2.12
a) Welche grundlegenden Eigenschaften charakterisieren ein LTI-System? b) Was bedeutet es, wenn ein System linear ist? c) Nennen Sie die beiden (System-)Funktionen mit denen das Übertragungsverhalten eines LTI-System beschrieben wird. In welchem Zusammenhang stehen die beiden Funktionen?
2.14 Aufgaben zu Abschnitt 2
71
d) Wie wird bei einem LTI-System das Eingangssignal auf das Ausgangssignal abgebildet? e) Wie wird bei einem LTI-System das Eingangsspektrum auf das Ausgangsspektrum abgebildet? f) Welche Bedeutung hat der Frequenzgang bei sinusförmiger Erregung eines LTI-Systems? g) Wann ist eine Übertragung verzerrungsfrei? Aufgabe 2.13
a) Was versteht man unter der Impulsfunktion? Wie kann man sich ihre Wirkung anschaulich erklären? b) Was versteht man unter der Ausblendeigenschaft der Impulsfunktion? c) Welche Funktion ergibt sich aus der Faltung zweier identischer Rechteckimpulse? Aufgabe 2.14
In Bild A2.14-1 wird das Basisbandsignal x(t) auf das System mit der Impulsantwort h(t) gegeben. Skizzieren Sie das Ausgangssignal y(t). Hinweis: keine Rechnung. x(t) 1 0 1
x(t) 3
6
1
t/T
y(t)
h(t) 0
t T
Bild A2.14-1 Filterung eines Basisbandsignals
72
3
Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
3.1
Einführung
Die Pulse-Code-Modulation (PCM) ist das Standardverfahren zur Digitalisierung von Sprachsignalen in der Telefonie. Die Grundlagen liefern Überlegungen zum Abtasttheorem und zur Quantisierung. Die wirtschaftlichen Voraussetzungen für den Einsatz von PCM in der Telefonie ist das ISDN (Integrated Services Digital Network) und umgekehrt. Durch die Digitalisierung fügt sich die Sprachübertragung ins ISDN ein. Früher nach Daten- und Sprachkommunikation getrennte Netze können kostengünstiger auf einer gemeinsamen Systemplattform realisiert werden. Als logischer nächster Schritt folgte die Telefonie über das Internet, Voice over Internet Protocol (VoIP) genannt, und die komprimierende Audiocodierung, wie die bekannte MP3-Codierung. Zu Beginn dieses Abschnitts werden die Schritte vom analogen zum digitalen Signal im Überblick vorgestellt. Das Abtasttheorem und die Quantisierung werden behandelt. Von besonderem Interesse ist die Digitalisierung der Sprache in der Telefonie. Es wird die Frage gestellt und beantwortet, welche Bitrate zur Übertragung eines Telefonsprachsignals notwendig ist. Die Digitalisierung von Sprach- und Audiosignalen und von Bildern ermöglicht im Verbund mit den heute verfügbaren, leistungsfähigen Mikroprozessoren Anwendungen der digitalen Signalverarbeitung, die mit dem Begriff Multimedia umschrieben werden. Eine Darstellung der Multimediatechnik würde den hier abgesteckten Rahmen sprengen, jedoch sollen mit einer kurzen Vorstellung der schnelle Fourier-Transformation und der digitalen Filter Grundlagen gelegt werden. Abgerundet wird das Thema durch einen Blick auf die Audio-Codierung nach dem Standard MPEG-1 Layer III. Anmerkung: Weiterführende Literatur zum Thema Quantisierung und A/D- und D/A-Umsetzer z. B. [TiSc02], [VHH98] und [Zöl05]; und zur digitalen Signalverarbeitung z. B. [BSH08], [KaKr06], [MeHo04], [Wer08b] und [Wer08c].
3.2
Digitalisierung analoger Signale
Die prinzipiellen Verarbeitungsschritte zur Digitalisierung eines analogen Basisbandsignals zeigt Bild 3-1. Der erste Schritt, die Tiefpassfilterung mit der Grenzfrequenz fg, kann unterbleiben, wenn das Eingangssignal bereits passend bandbegrenzt ist. Die eigentliche Digitalisierung geschieht in drei Schritten: der zeitlichen und der wertmäßigen Diskretisierung und der Codierung. Zunächst werden bei der zeitlichen Diskretisierung, auch (ideale) Abtastung genannt, jeweils alle Abtastintervalle Ta Abtastwerte x[n] = x(nTa) als Momentanwerte aus dem analogen Signal entnommen. Die zeitdiskrete Abtastfolge x[n] besitzt wertkontinuierliche Amplituden. Bei der Quantisierung werden den Amplituden über die Quantisierungskennlinie Werte aus einem diskreten Zeichenvorrat zugewiesen, so dass das digitale Signal [x[n]]Q entsteht. Im Encoder
73
3.3 Abtasttheorem
wird das digitale Signal gemäß einer Codetabelle für die diskreten Amplituden in die Bitfolge bn, auch Bitstrom genannt, umgesetzt.
analoger
x(t)
x[n]
Quantisierung
Abtastung
bn
[ x[n] ]Q
Encoder
Tiefpass bandbegrenztes
zeitdiskretes digitales Bitfolge Signal Signal analoges Signal QuantisierungsCodetabelle fg fa kennlinie Grenzfrequenz Abtastfrequenz Bild 3-1 Vom analogen Signal x(t) zum Bitstrom bn
3.3
Abtasttheorem
Eine sinnvolle zeitliche Diskretisierung liegt vor, wenn das zeitkontinuierliche Signal durch die Abtastfolge gut wiedergegeben wird. Bild 3-2 veranschaulicht beispielhaft, dass ein Signal ausreichend dicht abgetastet werden muss, damit es aus der Abtastfolge durch eine, im Beispiel, lineare Interpolation hinreichend genau wieder gewonnen werden kann. Diese grundsätzlichen Überlegungen werden im Abtasttheorem präzisiert.
Abtastwert x(t)
0
1
lineare Interpolation Original
2
3
t / Ta1
Abtastwert
x(t)
0 Anmerkung: Der mathematische Grundgedanke 2 4 6 8 10 12 t / T a2 des Abtasttheorems lässt sich auf J. L. Lagrange zurückführen. Ausführliche mathematische DarBild 3-2 Abtastung und (lineare) Interpolation stellungen lieferten J. Whittaker (1915) und E. T. Whittaker (1935). Wichtige Beiträge zu technischen Anwendungen der Abtastung stammen aus der ersten Hälfte des 20. Jahrhunderts: H. Nyquist (1928), V. A. Kotelnikov (1933), A. Raabe (1939) [Bro04], [Lük99]. In der Literatur wird von der Nyquist-Abtastung (Nyquist Sampling), der Nyquist-Abtastrate (Nyquist (sampling) rate) und dem WKSAbtasttheorem gesprochen. Durch C. E. Shannon wurde 1948 das Abtasttheorem einem größeren Kreis bekannt, weshalb gelegentlich auch die Bezeichnung Shannon-Abtasttheorem zu finden ist.
Die Wirkung der si-Interpolation zeigt Bild 3-4. Die zur Interpolation verwendeten si-Impulse entsprechen im Frequenzbereich einem idealen Tiefpass mit der Grenzfrequenz fg. Eine Interpolation mit einem idealen Tiefpass liefert wieder das ursprüngliche zeitkontinuierliche Signal. Die praktische Anwendung des Abtasttheorems geschieht in Analog-Digital- bzw. Digital-AnalogUmsetzern.
x[i] x[i+1]
Abtastwerte
si-Funktion
x(t)
i i+1 Bild 3-3 si-Interpolation
t / Ta
74
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
Abtasttheorem Eine Funktion x(t), deren Spektrum für | f | t fg null ist, wird durch die Abtastwerte x(t = nTa) vollständig beschrieben, wenn das Abtastintervall Ta bzw. die Abtastfrequenz fa so gewählt wird, dass Ta
1 1 d fa 2 f g
(3.1)
Die Funktion kann dann durch die si-Interpolation fehlerfrei rekonstruiert werden. f
¦
x(t )
n f
x(nTa ) si f aS >t nTa @
(3.2)
Anmerkungen: (i) Man beachte die Definition der Grenzfrequenz fg, die eine Spektralkomponente bei eben dieser Frequenz im abgetasteten Signal ausschließt. (ii) Mathematisch gesehen handelt es sich bei der si-Interpolation in (3.2) um eine orthogonale Reihendarstellung ähnlich der Fourier-Reihe in (2.29), wobei die Abtastwerte die Rolle der Entwicklungskoeffizienten übernehmen.
Die Forderung nach strikter Bandbegrenzung (3.1) wird in Bild 3-4 anhand zweier Kosinussignale mit den Frequenzen f1 = 1 kHz und f2 = 7 kHz veranschaulicht. Bei der Abtastfrequenz fa = 8 kHz erhält man in beiden Fällen die gleichen Abtastwerte. Offensichtlich tritt eine Mehrdeutigkeit auf, die nur durch die Bandbegrenzung des zeitkontinuierlichen Signals aufgelöst werden kann.
x(t)
x[0]
x2(t)
x[8]
1
x[2]
x[10]
0
1 0
t / Ta
x[6]
2
x[4] 4 x1(t)
6
8
10
Bild 3-4 Abtastung zweier Kosinussignale x1(t) und x2(t) mit den Frequenzen f1 = 1 kHz bzw. f2 = 7 kHz bei einer Abtastfrequenz von fa = 8 kHz
Eine wichtige Anwendung der Abtastung findet sich in der Telefonie mit der auf 300 Hz bis 3,4 kHz bandbegrenzten Telefonsprache. Nach (3.1) ist eine Abtastfrequenz von mindestens 6,8 kHz erforderlich. Tatsächlich wird mit 8 kHz das Signal überabgetastet, um bei der Übertragung mit der Trägerfrequenz-Technik einfachere Filter mit geringerer Flankensteilheit verwenden zu können. Aufnahmen für die Audio-CD erfassen den Frequenzbereich von 20 Hz bis 20 kHz bei einer Abtastfrequenz von 44,1 kHz. Darüber hinaus sind der Audiotechnik sind auch die Abtastfrequenzen von 48 und 96 kHz gebräuchlich; und in der Videotechnik wird beispielsweise das Luminanzsignal mit der Helligkeitsinformation mit 13,5 MHz abgetastet.
75
3.4 Quantisierung
3.4
Quantisierung
Das Prinzip der Digitalisierung wird anhand des Beispiels in Bild 3-5 erläutert. Das analoge Signal x(t) sei auf den Quantisierungsbereich [1, 1] begrenzt. Falls nicht, wird das Signal mit seinem Betragsmaximum normiert. Im Weiteren wird stets von einem Quantisierungsbereich von 1 bis +1 ausgegangen. Die Amplituden der Abtastwerte sollen mit je 3 Bits dargestellt werden. Man spricht dann von einer Wortlänge von 3 Bits und schreibt kurz w = 3. Mit 3 Bits können genau 23 = 8 Quantisierungsintervalle oder Quantisierungsstufen unterschieden werden. Bei der gleichförmigen Quantisierung teilt man den Quantisierungsbereich in 2w Intervalle mit der Quantisierungsintervallbreite oder Quantisierungsstufenhöhe. Q
w1 2
(3.3)
Im Beispiel ergibt sich Q = 1/4. Dementsprechend ist die Ordinate in Bild 3-5 in 8 gleichgroße Intervalle eingeteilt. Den Quantisierungsintervallen werden eindeutige Codenummer zugewiesen. Im Beispiel sind das die Nummern 0 bis 7. 1 x[n] 1/2 x(t) 0 1/2 1
0
Ta
5
t/Ta
7
111
6
110
5
101
4
100
3
011
2
010
1
001
0
000
10
Bild 3-5 Gleichförmige Quantisierung mit 3 Bit Wortlänge: Analoges Signal x(t), Abtastwerte x[n], Codenummern 0 bis 7 und Codetabelle 000 bis 111
Jetzt kann die Quantisierung für jeden Abtastwert durchgeführt werden. Im Bild sind dazu entsprechend dem vorgegebenen Abtastintervall Ta die Abtastwerte als Kreise markiert. Zu jedem Abtastwert bestimmt man das Quantisierungsintervall und ordnet die entsprechende Codenummer zu. Im Beispiel des Abtastwertes für t = 9Ta ist das die Codenummer 6. Jeder Codenummer wird bei der späteren Digital-Analog-Umsetzung genau ein diskreter Amplitudenwert, der Repräsentant, zugeordnet. Bei der gleichförmigen Quantisierung liegt dieser in der Intervallmitte, so dass der Abstand zwischen Abtastwert und Repräsentant die halbe Quantisierungsintervallbreite nicht überschreitet, siehe Bild 3-6. Die Repräsentanten sind im Bild als Quadrate kenntlich gemacht. Es ergibt sich eine interpolierende Treppenkurve die meist durch einen nachfolgenden Tiefpass noch geglättet wird.
76
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
111
7
110
6
101
5
100
4
011
3
010
2
001
1
000
0
1 Repräsentanten x(t)
1/2
x[n] 0 1/2 1
interpolierende Treppenkurve
0
Ta
5
10
t/Ta
Bild 3-6 Rekonstruktion eines analogen Signals durch die interpolierende Treppenkurve
Entsprechend der Codetabelle werden die Codenummern zur binären Übertragung in ein Codewort umgewertet. Im Beispiel werden die Codenummern von 0 bis 7 nach dem BCD-Code (Binary Coded Decimal) durch die Codeworte 000 bis 111 ersetzt. Es kann der zugehörige Bitstrom abgelesen werden. bn = {011,100,100,011,011,100,101,110,110,110,101,…} Die Quantisierung beschreibt die Quantisierungskennlinie. Letztere definiert die Abbildung der kontinuierlichen Abtastwerte auf die zur Signalrekonstruktion verwendeten Repräsentanten. Die dem Beispiel zugrunde liegende Quantisierungskennlinie ist in Bild 3-7 links angegeben. An der linken Quantisierungskennlinie lassen sich die beiden grundsätzlichen Probleme der Quantisierung erkennen: Eine Übersteuerung tritt auf, wenn das Eingangssignal außerhalb des vorgesehenen Aussteuerungsbereichs liegt. In der Regel tritt dann die Sättigung ein und es wird der Maximalwert bzw. der Minimalwert ausgegeben (Sättigungskennlinie). Eine Untersteuerung liegt vor, wenn das Eingangssignal (fast) immer viel kleiner als der Aussteuerungsbereich ist. Im Extremfall entsteht granulares Rauschen bei dem das quantisierte Signal scheinbar regellos zwischen den beiden Repräsentanten um die Null herum wechselt. Bei der Quantisierung ist auf die richtige Aussteuerung des Eingangssignals zu achten. Übersteuerungen und Untersteuerungen sind zu vermeiden. In der digitalen Signalverarbeitung sind auch andere Quantisierungskennlinien gebräuchlich. Bild 3-7 rechts zeigt die Kennlinie der Quantisierung im 2er-Komplement-Format. Der Wert 0 wird explizit dargestellt. Beim Einsatz von Festkomma-Signalprozessoren wird meist das 2erKomplement-Format bei einer Wortlänge von 16 oder 32 Bits verwendet. Es werden die Zahlen im Bereich von 1 bis +1 dargestellt. w1
x
a0 20 ¦ ai 2i i 1
mit ai{0,1} und 1d x d 1 2-w+1
(3.4)
77
3.5 Quantisierungsgeräusch [x]Q
[x]Q Sättigungskennlinie
7/8
3/4
Repräsentant 5/8
1/2
3/8 1/8 1
1/4 0
x 1/8 3/8
1
Q
5/8 7/8
1
x 1/4 Q
1
1/2 3/4 1
Bild 3-7 Quantisierungskennlinie der gleichförmigen Quantisierung mit w = 3 (links mit Sprung bei null und rechts mit der Darstellung von null)
Die negativen Zahlen berechnen sich vorteilhaft durch Komplementbildung und Addition eines Bits mit geringster Wertigkeit, dem LSB (Least Significant Bit). x
w1
a0 20 ¦ ai 2i 2 w1 mit ai{0,1} und 1d x d 1 2-w+1
(3.5)
i 1
Beispiel Zahlendarstellung im 2er-Komplement-Format mit der Wortlänge von 8 Bits 22 + 24 + 26 = 0,328125d = 0010 10102c 0,328125d = 1101 01102c Anmerkungen: (i) Das 2er-Komplement-Format beinhaltet die Zahl 1. Oft wird jedoch aus Symmetriegründen auf sie verzichtet. (ii) Das 2er-Komplement-Format ermöglicht relativ einfache Schaltungen zur Addition von positiven und negativen Zahlen. (iii) Bei aufwändigeren Signalprozessoren und auf PCs kommt häufig das Gleitkomma-Format nach IEEE 754-1985 zum Einsatz. Das Gleitkomma-Format besteht aus Exponent und Mantisse, so dass ein größerer Zahlenbereich dargestellt werden kann [Wer08c].
3.5
Quantisierungsgeräusch
Aus den Repräsentanten kann das ursprüngliche Signal bis auf künstliche Spezialfälle nicht mehr fehlerfrei rekonstruiert werden. Wie im Beispiel deutlich wurde, wird der Quantisierungsfehler durch die Wortlänge kontrolliert. Je größer die Wortlänge, desto kleiner ist der Quantisierungsfehler. Mit wachsender Wortlänge nimmt jedoch auch die Zahl der zu übertragenden bzw. zu speichernden Bits zu. Je nach Anwendung ist zwischen der Qualität und dem Aufwand abzuwägen. Für die PCM in der Telefonie soll nun beispielhaft die Frage beantwortet werden: Wie viele Bits werden zur Darstellung eines Abtastwertes benötigt?
78
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
Um die Frage zu beantworten, muss zunächst die Qualität quantitativ messbar sein. Dazu verwendet man das Modell der additiven Störung mit dem Quantisierungsgeräusch in Bild 3-8. Anmerkung: Der Einfachheit halber werden zeitkontinuierliche Signale betrachtet, da die entsprechenden Zusammenhänge der digitalen Signalverarbeitung nicht als bekannt vorausgesetzt werden. Dies ist auch ohne Komplikationen möglich, weil die Quantisierung für jeden Momentanwert und damit auch für jeden Abtastwert unabhängig von der Zeit gilt.
Eingangssignal
Quantisierung
quantisiertes Signal
x(t)
[x(t)]Q
Fehlersignal '(t)
Ein übersichtliches Beispiel liefert die Quantisierung des periodischen dreieckförmigen Signals x(t) in Bild 3-9. Im unteren Bild ist das entstehende Fehlersignal '(t), das Quantisierungsgeräusch, aufgetragen.
> x(t)@Q x(t)
Bild 3-8 Ersatzmodell für die gleichförmige Quantisierung mit Fehlersignal '(t)
Anmerkung: Von der Telefonie und Audiotechnik her kommend wird traditionell vom (Quantisierungs-) Geräusch gesprochen, da bei geringer Wortlänge die Quantisierungsfehler hörbar sind. Bei der Digitalisierung von Bildern, z. B. durch eine Digitalkamera, spricht man vom (Quantisierungs-)Bildrauschen. 1
Betrachtet man den Zeitpunkt t = 0, so ist x(0) = 0 und [x(0)]Q = Q / 2. Mit wachsender Zeit steigt das Eingangssignal zunächst linear an und nähert sich dem Wert des Repräsentanten. Der Fehler wird kleiner und ist für t = T0 / 16 gleich null. Danach ist das Eingangssignal größer als der zugewiesene Repräsentant. Das Fehlersignal ist negativ, bis das Quantisierungsintervall wechselt. Beim Übergang in das neue Quantisierungsintervall springt das Fehlersignal von Q / 2 auf Q / 2. Entsprechendes kann für die anderen Signalabschnitte überlegt werden.
1 T0
T0
³ 0
2
x(t ) dt
[x(t)]Q
1/2
1/2
t/T0
1
'(t) = [x(t)]Q x(t)
Q/2
1/ 1/2
Das vorgestellte einfache Modell ermöglicht, die Qualität der Quantisierung quantitativ zu erfassen. Als Qualitätsmaß wird das Verhältnis der Leistungen des Eingangssignals und des Quantisierungsgeräusches, das SignalQuantisierungsgeräusch-Verhältnis, kurz SNR, zugrunde gelegt. Im Beispiel ergibt sich für das normierte Signal bei Vollaussteuerung die mittlere Signalleistung (2.9)
S
x(t)
t/T0
Q/2 Bild 3-9 Quantisierung eines periodischen dreieckförmigen Signals (oben) und das dabei entstehende Fehlersignal '(t) (unten)
2 T0
T0 / 2
2
§ t · ¨ ¸ dt T0 / 2 ¹ © 0
³
1 3
(3.6)
79
3.5 Quantisierungsgeräusch
Die mittlere Leistung des Quantisierungsgeräusches kann ebenso berechnet werden. Das Fehlersignal ist wie das Eingangssignal abschnittsweise linear, siehe Bild 3-9. Nur die Werte sind jetzt auf das Intervall [Q/2, Q/2[ beschränkt. Die mittlere Leistung ist demnach N
1 Q2 3 4
Q2 12
(3.7)
22 w
(3.8)
Für das SNR im Beispiel folgt S N
1/ 3 Q 2 /12
wobei die Quantisierungsintervallbreite durch die Wortlänge (3.3) ersetzt wurde. Im logarithmischen Maß resultiert das SNR §S· ¨ ¸ © N ¹dB
10 log10 22 w dB = 20 w log10 2 dB | 6 w dB
(3.9)
Das SNR verbessert sich um etwa 6 dB pro Bit Wortlänge. Im Allgemeinen hängt das SNR von der Art des Signals ab. Ein periodischer Rechteckimpulszug der zwischen zwei Repräsentanten wechselt, wird fehlerfrei quantisiert. Einem Sinussignal wird wiederum ein anderes Fehlersignal zugeordnet. Während das SNR für derartige deterministische Signale prinzipiell wie oben berechnet werden kann, wird für stochastische Signale, wie die Telefonsprache, die Verteilung der Signalamplituden zur Berechnung des SNR benötigt. Anmerkung: Eine einfache Approximation für die Verteilung der Sprachsignalamplituden liefert die zweiseitige Exponentialverteilung. Bei vorgegebener Verteilung, z. B. durch eine Messung bestimmt, und Wortlänge kann die Lage der Quantisierungsintervalle und Repräsentanten so bestimmt werden, dass das SNR maximiert wird. Derartige Quantisierer sind in der Literatur unter den Bezeichnungen OptimalQuantisierer und Max-Lloyd-Quantisierer zu finden [Pro01].
Das für spezielle Modellannahmen gefundene Ergebnis liefert jedoch eine brauchbare Näherung für die weiteren Überlegungen. 6dB-pro-Bit-Regel Für eine symmetrische gleichförmige Quantisierung mit hinreichender Wortlänge w in Bits und Vollaussteuerung gilt für das SNR §S· ¨ ¸ | 6 w dB © N ¹dB
(3.10)
Eine hinreichende Wortlänge liegt erfahrungsgemäß vor, wenn das Signal mehrere Quantisierungsintervalle durchläuft. Den Einfluss einer ungenügenden Aussteuerung schätzt man schnell ab. Halbiert man die Aussteuerung, reduziert sich die Signalleistung um 6 dB und die effektive Wortlänge um 1 Bit. Nur noch die Hälfte der Quantisierungsintervalle wird tatsächlich benützt. Anmerkung: Die Frage der Genauigkeit der Quantisierung relativiert sich vor dem Hintergrund der prinzipiell begrenzten Messgenauigkeit physikalischer Größen, wie bei der Spannungsmessung mit einem Voltmeter einer bestimmten Güteklasse. Geht man weiter davon aus, dass dem zu quantisierenden Signal eine
80
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
wenn auch kleine Störung überlagert ist, so ist auch nur eine entsprechend begrenzte Darstellung der Abtastwerte erforderlich.
3.6
PCM in der Telefonie
Nachdem der Einfluss der Quantisierung auf die Übertragungsqualität durch Berechnen und Messen des Signal-Quantisierungsgeräusch-Verhältnisses abgeschätzt werden kann, wird die ursprüngliche Frage wieder aufgegriffen: Wie viele Bits werden in der Telefonie zur Darstellung eines Abtastwertes benötigt? Alec H. Reeves: *1902/†1971, britischer Ingenieur, 1938 Patent auf die digitale Übertragung von Sprache.
3.6.1
Abschätzung der Wortlänge
Zunächst ist der Zusammenhang zwischen der Rechen- und Messgröße SNR und der Qualität des Höreindrucks herzustellen. Dazu wurden im Rahmen der weltweiten Standardisierung umfangreiche Hörtests vorgenommen. Wesentlich für die Qualität bei üblicher Nutzung sind das SNR und die Dynamik: Das Verhältnis von Störsignalamplitude zu Nutzsignalamplitude soll 5 % nicht überschreiten. Für das SNR heißt das 2
§ 1 · §S· ¨ ¸ t 10 log10 ¨ ¸ dB | 26 dB © N ¹dB © 0, 05 ¹
(3.11)
Die Übertragungsqualität von 26 dB soll auch bei „leisen Sprechern“, also über einen hinreichend großen Aussteuerungsbereich gewährleistet sein. Insbesondere ist die Signaldämpfung auf bis zu einigen Kilometern langen Teilnehmeranschlussleitungen zu berücksichtigen. Eine Dynamikreserve von 40 dB ist deshalb vorzusehen. Anmerkung: Findet die Digitalisierung erst in der Ortsvermittlungsstelle statt, z. B. bei der analogen Anschlusstechnik, so werden den A/D-Umsetzern je nach Zuleitungslänge stark unterschiedlich ausgesteuerte Signale angeboten. Die Dynamikreserve von 40 dB entspricht einer Anschlusslänge von 4,2 km bei einer Leitung mit Aderndurchmesser von 0,4mm und 8 bis 10,2 km bei 0,6 mm [KaKö99], [Loch02].
Die Überlegungen zum SNR und der Dynamik sind in Bild 3-10 zusammengefasst. Aufgetragen ist das SNR über der Signalleistung S jeweils in dB. An der unteren Grenze des Aussteuerungsbereiches, bei 40 dB, wird ein SNR von 26 dB gefordert. Am oberen Rand der Aussteuerung, d. h. Vollaussteuerung bei 0 dB, ist die Signalleistung um 40 dB größer. Da im Sinne der Abschätzung (3.10) die Leistung des Quantisierungsgeräusches nur von der Quantisierungsintervallbreite abhängt, ändert sich diese nicht. Die 40 dB mehr an Signalleistung gehen vollständig in das SNR ein. Man erhält 66 dB bei Vollaussteuerung. Mit der 6dB-pro-Bit-Regel (3.10)
66 SNR in dB
w = 11
26 Dynamikbereich 50
40
30
20 10 S in dB
0
Bild 3-10 SNR in Abhängigkeit von der Signalleistung S bei der Wortlänge von 11 Bits
81
3.6 PCM in der Telefonie findet man als notwendige Wortlänge 11 Bits.
In der Telefonie mit der Abtastfrequenz 8 kHz resultiert aus der Wortlänge 11 Bits eine Bitrate von 88 kbit/s. Tatsächlich verwendet werden 64 kbit/s. Um dies ohne hörbaren Qualitätsverlust zu bewerkstelligen, wird in der Telefonie die gleichförmige Quantisierung durch eine Kompandierung ergänzt.
3.6.2
Kompandierung
Den Anstoß zur Kompandierung liefert die Erfahrung, dass die Qualität des Höreindrucks von der relativen Lautstärke der Störung abhängt. Je größer die Lautstärke des Nachrichtensignals, umso größer darf die Lautstärke der Störung sein. Anmerkung: Dieser Effekt wird Verdeckungseffekt genannt. Er bildet eine wichtige Grundlage der modernen Audio-Codierverfahren wie beispielsweise die MPEG Audio-Codierung, siehe Abschnitt 3.8.
Diese Erfahrung und die Beobachtung in Bild 3-10, dass das SNR bei der Quantisierung mit 11 Bits bei guter Aussteuerung die geforderten 26 dB weit übersteigt, motivieren dazu, eine ungleichförmige Quantisierung vorzunehmen: Betragsmäßig große Signalwerte werden mit relativ großen Quantisierungsintervallen gröber dargestellt als betragsmäßig kleine Signalwerte. Eine solche ungleichförmige Quantisierung lässt sich mit der in Bild 3-11 gezeigten Kombination aus einer nichtlinearen Abbildung und einer gleichförmigen Quantisierung erreichen. Vor die eigentliche Quantisierung im Sender wird der Kompressor geschaltet. Er schwächt die betragsmäßig großen Signalwerte ab und verstärkt die betragsmäßig kleinen. Danach schließt sich eine gleichförmige Quantisierung, eine Codierung mit fester Wortlänge an. Bei der DigitalAnalog-Umsetzung, der Decodierung im Empfänger, wird das gleichförmig quantisierte Signal rekonstruiert. Dabei entsteht zusätzlich das analoge Fehlersignal '(t). Zum Schluss wird im Expander die Kompression rückgängig gemacht. Da die Expander-Kennlinie invers zur Kompressor-Kennlinie ist, wird das Nutzsignal durch die Kompandierung nicht verändert. Dies gilt nicht für das Fehlersignal. Im besonders kritischen Bereich betragsmäßig kleiner Nutzsignalanteile wird das Fehlersignal abgeschwächt. Im Bereich betragsmäßig großer Nutzsignalanteile wird es zwar mit verstärkt, aber nicht als störend empfunden. Die Anwendung der Kombination aus Kompressor und Expander wird Kompandierung genannt. A/D- und D/A-Umsetzung mit gleichförmiger Quantisierung Kompressor
Expander Cod.
x(t)
xK(t)
Decod.
xK(t)+'(t)
x(t)+'E(t)
Bild 3-11 Kompandierung
Die Kompandierung ist durch die ITU (G.711) standardisiert. Als Kompressor-Kennlinie wird in Europa die A-Kennlinie und in Nordamerika und Japan die P-Kennlinie verwendet. Die Kennlinien sind so festgelegt, dass das SNR in einem weiten Aussteuerungsbereich konstant bleibt. Beide Kompressor-Kennlinien orientieren sich an der Logarithmusfunktion, siehe z. B. [MäGö02] und [VHH98]. Man spricht deshalb auch von einer linearen bzw. hier logarithmischen PCM.
82
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
Anmerkung: Die Kompandierung ist vergleichbar mit der Preemphase und der Deemphase bei der FMÜbertragung im Rundfunk oder der Magnetbandaufzeichnung.
3.6.3
13-Segment-Kennlinie
Eine mögliche Realisierung der Kompandierung geschieht mit der 13-Segment-Kennlinie in Bild 3-12. Das Bild zeigt den positiven Ast der symmetrischen Kompressor-Kennlinie mit 7 Segmenten. Anmerkung: Die 13 Segmente ergeben sich aus den 7 Segmenten mit verschiedenen Steigungen im Bild und den 6 Segmenten im negativen Ast. Der linear durch die Null gehende Abschnitt wird nur einmal gezählt. 1 A
[x]Q
B C D
1/2
E F
1/4
G1 G2
0
1/8
1/4
1/2
x
1
Bild 3-12 13-Segment-Kennlinie (positiver Ast für normierte Eingangsamplituden)
Der Aussteuerungsbereich des Signals wird wieder auf [1, +1[ normiert angenommen. Der Quantisierungsbereich von 0 bis 1 wird in die acht Segmente A bis G2 unterteilt. Die Einteilung geschieht folgendermaßen: Beginnend bei A für große Signalwerte mit der Segmentbreite von 1/2 wird die Breite für die nachfolgenden Segmente jeweils halbiert. Nur die Breiten der beiden G-Segmente sind mit 1/128 gleich. In jedem Segment wird mit 16 gleich großen Quantisierungsintervallen, d. h. mit 4 Bits, gleichförmig quantisiert. Dies hat den praktischen Vorteil, dass nur ein A/D-Umsetzer benötigt wird. Das Eingangssignal wird durch einen Verstärker an den Aussteuerungsbereich des A/DUmsetzers angepasst. Der verwendete Verstärkungsfaktor ist charakteristisch für das Segment und liefert mit dem Vorzeichen die restlichen 4 Bits zum Codewort. Da die Segmente unterschiedlich breit sind, unterscheiden sich auch die Quantisierungsintervallbreiten von Segment zu Segment. Die Werte sind für die einzelnen Segmente in Tabelle 3-1 zusammengestellt. Eine Modellrechnung für das SNR nach der 6dB-pro-Bit-Regel zeigt den Gewinn durch die ungleichmäßige Quantisierung auf. Zunächst wird in Tabelle 3-1 über den Zusammenhang zwischen der Quantisierungsintervallbreite und der Wortlänge bei gleichförmiger Quantisierung (3.3) jedem Segment eine effektive Wortlänge weff zugeordnet. Betrachtet man beispielsweise das A-Segment mit weff = 6, so resultiert aus der 6dB-pro-Bit-Regel die SNR-Abschätzung mit 36 dB in Tabelle 3-1. Da beim Wechsel zum nächsten Segment jeweils sowohl der Aussteuerungsbereich als auch die Quantisierungsintervallbreite halbiert werden, liefert die SNRAbschätzung stets einen Wert zwischen 30...36 dB. Nur bei sehr kleiner Aussteuerung außerhalb des zulässigen Dynamikbereiches ist die Abschätzung nicht mehr gültig.
83
3.6 PCM in der Telefonie Tabelle 3-1 Quantisierungsintervallbreiten Q der 13-Segment-Kennlinie, effektive Wortlänge weff (3.3) und SNR-Abschätzung mit der 6dB-pro-Bit-Regel Segment Q weff in Bits
A 2
5
6
B
C
6
7
2
2
7
8
SNR
D 2
E
8
F
9
9
10
2
2
10
11
G1
G2
11
2
211
12
12
30 ... 36 dB
Das Ergebnis der Modellrechnung veranschaulicht Bild 3-13. Darin ist wieder das SNR über der Signalleistung aufgetragen. Diesmal als Kurvenschar in Abhängigkeit von der (effektiven) Wortlänge. Bei der Quantisierung mit der 13-SegmentKennlinie wird aussteuerungsabhängig die effektive Wortlänge gewechselt, so dass die Qualitätsanforderung von mindestens 26 dB im gesamten Dynamikbereich erfüllt wird. Die insgesamt benötigte Wortlänge bestimmt sich aus der binären Codierung der Zahl der Quantisierungsintervalle pro Segment (hier 16) mal der Zahl der Segmente pro Ast (hier 8) mal der Zahl der Äste (hier 2) zu w
70 SNR in dB w = 12
10
8
40
36 26
20 Dynamikbereich 50
40
30
20 10 S in dB
0
Bild 3-13 SNR in Abhängigkeit von der Signalleistung S im Dynamikbereich von 0 bis 40 dB bei verschiedenen Wortlängen (w) von 6 bis 12 Bits
log 2 16 8 2 8
(3.12)
Die benötigte Wortlänge kann durch den Einsatz der 13-Segment-Kennlinie ohne Qualitätseinbuße auf 8 Bits reduziert werden. Die durch die Modellrechnung gefundene Abschätzung des SNR wird durch experimentelle Untersuchungen bestätigt. Die Messergebnisse zeigen sogar, dass mit der 13-Segment-Kennlinie die Anforderungen übererfüllt werden. In Bild 3-14 sind die Ergebnisse einer Simulation für Sinussignale eingetragen. Im Vergleich mit Bild 3-13 erkennt man, wie gut die vereinfachte Modellrechnung mit den tatsächlich gemessenen SNR harmoniert. Im Dynamikbereich von 40 dB bis 0 dB bleibt das SNR der Quantisierung deutlich über 30 dB, weitgehend sogar über den 36 dB der modellbasierten Abschätzung mit dem gleichverteilten Signal. Waren A/D-Umsetzer bei der Einführung der PCM-Technik in den 1960er Jahren relativ teuer, so sind heute im Audiobereich A/D-Umsetzer mit 12 Bit Wortlänge preiswerte Massenprodukte. Es werden deshalb für die Kompandierung 12-Bit-A/D-Umsetzer verwendet und die Wortlänge durch Codeumsetzung reduziert. Tabelle 3-2 verdeutlicht die Codierungsvorschrift. Im PCM-Format werden mit einem Bit das Vorzeichen V und mit 3 Bits das Segment angezeigt. Die führenden 4 relevanten Bits der gleichförmigen Quantisierung werden übernommen.
84
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
Anmerkung: In Tabelle 3-2 wird deutlich, dass die logarithmischen PCM als eine Quantisierung im Gleitkomma-Format gedeutet werden kann. Die Segmentanzeige übernimmt dabei die Rolle des Exponenten [Zöl05].
in dB
40
Übersteuerung
SNR
35 30
Dynamikbereich
20 15
Untersteuerung
25
-50
S in dB -40
-30
-20
-10
0
10
Bild 3-14 SNR der Quantisierung in Abhängigkeit von der Signalleistung S bei Quantisierung von Sinussignalen mit der 13-Segment-Kennlinie
PCM-Sprachübertragung in der Telefonie
Abtastfrequenz fa = 8 kHz Wortlänge
w = 8 (Bits)
Bitrate
Rb = 64 kbit/s
Zum Schluss wird die Bandbreite bei der PCM-Übertragung und der herkömmlichen analogen Übertragung verglichen. Während bei letzterer nur ca. 4 kHz benötigt werden, erfordert die binäre Übertragung des PCMBitstroms im Basisband nach (4.20) eine (Nyquist-) Bandbreite von ca. 32... kHz. Die größere Bandbreite wird durch eine größere Störfestigkeit belohnt [Kam08].
Die PCM-Sprachübertragung wurde in den 1960er Jahren zunächst im Telefonfernverkehr eingeführt und war Grundlage für die Wahl der Datenrate der ISDN-Basiskanäle. Moderne Sprachcodierverfahren berücksichtigen zusätzlich die statistischen Bindungen im Sprachsignal, sowie psychoakustische Modelle des menschlichen Hörens. Der Sprachcodierer nach dem ITU G.729 Standard von 1996 ermöglicht, Telefonsprache bei der PCM-üblichen Hörqualität mit einer Datenrate von 8 kbit/s zu übertragen [VHH98]. Es lassen sich so theoretisch bis zu acht Telefongespräche gleichzeitig auf einem ISDN-Basiskanal übertragen. Anmerkungen: (i) Der Wunsch nach einer noch effektiveren Codierung der Nachrichten ist auch nach 50 Jahren noch aktuell: Einerseits sind Bildtelefonie und die Übertragung von Musik- oder Video-Inhalten, für die Bürger in Städten selbstverständlich; andererseits verfügen ländliche Gebiete oft nur über herkömmliche Telefonanschlüsse, so dass ohne effektive Codierung eine „digitalen Spaltung“ der Regionen droht. (ii) Fortschrittliche Audiocodierverfahren können auch dazu benutzt werden, in der Bildtelefonie und bei Videokonferenzen eine hörbar bessere Audioqualität zur Verfügung zu stellen, wie z. B. die Audio-Bandbreite von 50 Hz bis 7 (14) kHz bei dem Sprchcodec ITU-T G722.1 von 1999 (2005).
85
3.7 Digitale Signalverarbeitung Tabelle 3-2 PCM-Codierung Segment A (7) B (6)
Wertebereich 21 d | x | < 1 2
1
3
2
2 d|x|<2
Gleichförmige Quantisierung mit w = 12 bit und einem Vorzeichen-Bit V
PCM-Format mit einem Vorzeichen-Bit V und Segmentanzeige
V 1XXX X--- ---
V 111 XXXX
V 01XX XX-- ---
V 110 XXXX
C (5)
2 d|x|<2
V 001X XXX- ---
V 101 XXXX
D (4)
24 d | x | < 23
V 0001 XXXX ---
V 100 XXXX
V 0000 1XXX X--
V 011 XXXX
E (3)
5
4
6
5
2 d|x|<2
F (2)
2 d|x|<2
V 0000 01XX XX-
V 010 XXXX
G1 (1)
27 d | x | < 26
V 0000 001X XXX
V 001 XXXX
V 0000 000X XXX
V 000 XXXX
G2 (0)
7
0d|x|<2
3.7
Digitale Signalverarbeitung
3.7.1
Einführung
Die Digitalisierung von Signalen liefert geordnete Zahlenfolgen, die in natürlicher Weise für die elektronische Verarbeitung geeignet sind. Es bietet sich an, analoge Komponenten durch mikroelektronische Systeme zu ersetzen. Die Vorteile sind u. a. die Langzeit- und Temperaturbeständigkeit die Reproduzierbarkeit die hohe Zuverlässigkeit die geringe Störempfindlichkeit Für die digitale Signalverarbeitung kommen weitere Vorteile hinzu die, über die Wortlänge, skalierbare Genauigkeit die Flexibilität durch die Programmierbarkeit die Adaptivität durch signalabhängige Parameter und selbst lernende Algorithmen Ging es zunächst darum, bestehende analoge Systeme durch digitale zu ersetzen, hat sich die digitale Signalverarbeitung heute zu einem interdisziplinären Fachgebiet entwickelt. Sie bildet die Grundlage für viele naturwissenschaftlich-technische Anwendungen. Einer Einführung angemessen, werden in den folgenden Unterabschnitten die wahrscheinlich wichtigsten zwei Anwendung der digitalen Signalverarbeitung vorgestellt: die schnelle Fourier-Transformation und die digitalen Filter.
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
86
3.7.2
Schnelle Fourier-Transformation
Die schnelle Fourier-Transformation (FFT, Fast Fourier Transform) ist heute das Standardverfahren für die Messung bzw. numerische Berechnung von Fourier-Spektren. Sie ist ein effizienter Algorithmus zur Berechnung der diskreten Fourier-Transformation (DFT, Discretetime Fourier Transform) [Wer08b], [Wer08c]. Wird das Abtasttheorem eingehalten, geht keine Information über das Signal verloren, so dass sich der Einsatz digitale Spektralanalysatoren (Spectrum Analyzer) zur Spektralanalyse analoger Signale anbietet. Darüber hinaus ist die FFT ein Kernstück des Orthogonal Frequency Division Multiplexing(OFDM)-Verfahrens, das in digitalen Teilnehmeranschlüssen (Digital Subscriber Line, DSL), in drahtlosen lokalen Netzen (Wireless Local Area Network, WLAN) und zur breitbandigen Nachrichtenübertragung über Stromversorgungsleitungen (Power Line Communications, PLC) in Gebäuden eingesetzt wird. Das OFDM-Verfahren wird in Abschnitt 4.6 vorgestellt. Bild 3-15 zeigt das Prinzip der Spektralanalyse: Ein analoges Signal x(t) wird, gegebenenfalls nach Tiefpassfilterung, digitalisiert. Eine ausreichende Wortlänge wird vorausgesetzt, so dass die Quantisierung im Weiteren vernachlässigt werden kann. Für die Berechnung der FFT wird ein Block der Länge N aus dem Signal geschnitten, man spricht von einer Fensterung. Die FFT des Blockes liefert die DFT-Koeffizienten X[k], die angezeigt und weiter verarbeitet werden können. Anzeige
Fensterung
TP
x(t)
x[n]
A/D
X[k]
FFT
Bild 3-15 Spektralanalyse mit der schnellen Fourier-Transformation (FFT)
Beispiel Diskrete Fourier-Reihe diskrete Fourier-Transformation (DFT)
Das ausführliche Beispiel zeigt den Zusammenhang zwischen den Fourier-Koeffizienten und den DFT-Koeffizienten auf. Wir wählen dazu das periodische und bandbegrenzte Signal x(t ) 1 2 cos 2S 1 kHz t 4 sin 2S 2 kHz t 6 cos 2S 3 kHz t
(3.13)
Sein Funktionsverlauf ist in Bild 3-16 zu sehen. Die Periode beträgt T0 = 1 ms. 15
Grundperiode
x(t) 10 5 0 -5 -10
-1
-0,5
0
0,5
1
1,5
2
t in ms Bild 3-16 Periodisches und bandbegrenztes Signal
87
3.7 Digitale Signalverarbeitung Aus (3.13) folgt mit (2.10) die Fourier-Reihe 3
¦ ak cos kZ0 t bk sin kZ0 t
x(t )
(3.14)
k 0
mit der Grundkreisfrequenz
Z0 = 2S f0 = 2S 1 kHz
(3.15)
und den Fourier-Koeffizienten a0 = 1 (Gleichanteil); a1 = 2; a2 = 0; a3 = 6
(3.16)
b0 = 0; b1 = 0; b2 = 4; b3 = 0
Wegen der Bandbegrenzung verkürzt sich die Fourier-Reihe zur Fourier-Summe mit ak = bk = 0 k t 4. Das Signal x(t) enthält keine Spektralanteile bei Frequenzen größer als 3 kHz. Tasten wir nun das Signal mit der Abtastfrequenz fa = 1 / Ta = 16 kHz ab, so wird das Abtasttheorem eingehalten und es resultiert die Folge x[n] in Bild 3-17. 3
¦ ak cos kZ0 Ta n bk sin kZ0 Ta n
x[n]
(3.17)
k 0
15
Grundperiode
x[n] 10
5
0
-5
-10
-15
-10
-5
0
5
10
15
20
25
30
n Bild 3-17 Abtastfolge des periodischen Signals x[n]
Der Einfachheit halber führen wir die normierte Kreisfrequenz als Abkürzung ein. :0
Z0 Ta
f 2S 0 fa
2S
1 kHz 16 kHz
2S N
(3.18)
Darin ist N = 16 die Zahl der Abtastwerte pro Periode der 1. Harmonischen. Wir erhalten schließlich die Abtastfolge in der Form einer trigonometrischen Fourier-Summe
88
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
3
¦ ak cos :0 k n bk sin :0 k n
x[n]
(3.19)
k 0
Für die weitere Rechnung ist die komplexe Form (2.15) vorteilhafter, weshalb wir mit den komplexen Fourier-Koeffizienten (2.18) schreiben 3
¦
x[n]
3
¦
ck e j:0kn
k 3
ck e
j
2S kn N
(3.20)
k 3
___________________________________________________________________________ Beispiel wird fortgesetzt
Das obige Beispiel zeigt, dass für jedes periodische und bandbegrenzte Signal mit einer Darstellung als Fourier-Summe unter Beachtung des Abtasttheorems eineindeutige eine Abtastfolge mit einer Darstellung wie in (3.20) mit den Fourier-Koeffizienten angegeben werden kann. Wird dabei das Abtastintervall so gewählt, das ein ganzzahliges Vielfaches gleich der Periode ist, T0 = N Ta, entsteht eine periodische Folge und die N Abtastwerte einer Periode enthalten die vollständige Information über das zeitdiskrete und das zeitkontinuierliche Signal. Es bietet sich deshalb an, auf eine Blockverarbeitung überzugehen. Dies geschieht mit der DFT. Die DFT liefert die harmonische Analyse einer endlichen Folge der Länge N. Sie zerlegt den Signalblock der Länge N in Sinus- und Kosinusfolgen mit den normierten Kreisfrequenzen :k = k 2S / N für k = 0, 1, 2, …, N/2. Die Definition der DFT einer Folge der Länge N ist N 1
¦
X [k ]
x[n] e
j
2S k n N
für n, k = 0, 1, …, N1
(3.21)
n 0
Die DFT ist eine bijektive lineare Abbildung des Signals x[n] auf das DFT-Spektrum X[k]. Ihre Umkehrung, die inverse DFT, stellt die Folge x[n] als Überlagerung von Kosinus- und Sinusfolgen mit den DFT-Koeffizienten als Gewichte dar.
x[n]
1 N
N 1
¦
X [k ] e
j
2S k n N
für n, k = 0, 1, …, N1
(3.22)
k 0
Die Formeln für die DFT und ihre Inverse werden auch Analyse- bzw. Synthesegleichung genannt. Beispiel Diskrete Fourier-Reihe diskrete Fourier-Transformation (DFT) (Fortsetzung)
Um den Zusammenhang zwischen der DFT und der Fourier-Summe herzustellen führen wir das Beispiel fort. Wir unterwerfen die Folge (3.20) der DFT. N 1
X [k ]
¦
n 0
x[n] e
j
2S k n N
N 1
3
¦ ¦
n 0 m 3
j
2S
cm e N
mn
e
j
2S k n N
(3.23)
89
3.7 Digitale Signalverarbeitung Nach Vertauschen der Summen resultiert 3
¦
X [k ]
cm
N 1 j 2S m k n e N
m 3
¦
(3.24)
für n, k = 0, 1, …, N1
n 0
Die Summe der komplex Exponentiellen berechnet sich als endliche geometrische Reihe und hat die Eigenschaft N 1 j 2S m k n e N
¦
n 0
für m k sonst
N ® ¯0
0, r N , r2 N ,!
(3.25)
Man spricht von der Orthogonalität der komplex Exponentiellen. Sie spielt in der digitalen Signalverarbeitung eine wichtige Rolle und ist hier die Grundlage für die Berechnung der Fourier-Koeffizienten mit der DFT. Wegen der Orthogonalität verschwindet in die Summe über n in (3.24), außer, wenn m = k bzw. m = k N. Das heißt, die DFT-Koeffizienten sind gleich dem N-fachen der Fourier-Koeffizienten. Im Beispiel resultiert
X [k ]
ck °° N ®0 ° °¯c(16 k )
für k
0,1, 2,3
für k
4,5,! ,12
für k
13,14,15
(3.26)
Wir überprüfen das Ergebnis durch numerische Berechung der DFT. Im Beispiel der periodischen Folge x[n] in (3.17) werden genau N = 16 Abtastwerte pro Periode genommen. Schneiden wir die Grundperiode für n = 0 bis N1 = 15 heraus, und berechnen die DFT, so resultiert wie erwartet X[k] = 16 { 1, 1, 2 j, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 2j, 1}
(3.27)
Das DFT-Spektrum wird in Bild 3-18 veranschaulicht. Die Zusammensetzung des Signals durch den Gleichanteil und den harmonischen Komponenten veranschaulicht ___________________________________________________________________________ Beispiel wird fortgesetzt
3
3
Re(X[k]) /16
Im(X[k]) /16 2
2
1
1
k
0 -1
-1
-2
-2
-3
0
5
10
15
k
0
-3
0
5
Bild 3-18 DFT-Spektrum X[k] des periodischen Signals x[n]
10
15
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
90
In der digitalen Signalverarbeitung werden die DFTKoeffizienten der Einfachheit halber zu einer periodischen Folge mit Periode N fortgesetzt. X [k N ]
X [k ]
x[n]
N ck
für k
« N 1» «N» « ,! , « » » ¬ 2 ¼ ¬2¼
n
0 -10
(3.28)
5
Dann schreibt sich der Zusammenhang (3.26) zwischen den Fourier-Koeffizienten und den DFTKoeffizienten kompakter. X [k ]
10
x0[n]
n
0 -5
x1[n]
5 0
(3.29)
n
-5
x2[n]
Anmerkungen: (i) Obiges DFT-Spektrum entspricht einer Periode beginnend beim Index k größer gleich (N1)/2 und bis k kleiner gleich N/2. Stellt man die DFT-Spektren nun grafisch dar, so resultiert die gewohnte zweiseitigen Darstellung von Fourier-Spektren. (ii) Bei Einhaltung des Abtasttheorems und gerader Blocklänge N muss X[N/2] = cN/2 = 0 sein. (iii) Mit der Tilde kann die periodische Fortsetzung hervorgehoben werden. In der Literatur wird oft auf darauf verzichtet, sondern die periodische Fortsetzung stillschweigend angenommen.
5
n
0 -5
x3[n]
5
n
0 -5 0
5
10
15
Bild 3-19 Zerlegung des Signals in den Gleichanteil und die Harmonischen
Wird das Abtasttheorem eingehalten, so gilt für das Spektrum der Abtastfolge x[n] und das Spektrum des abgetasteten Signals x(t) der allgemeine Zusammenhang [Wer08b]
X e j:
1 X ( jZ ) ZT : für : = [S, +S] und Ta d 1 / (2fg) a Ta
Das Spektrum des analogen Signals mit der Kreisfrequenz Z wird eineindeutig in das Spektrum des zeitdiskreten Signals mit der normierten Kreisfrequenz : abgebildet, siehe Bild 3-20. Dabei gilt
X( jZ)
Z 0
: Z Ta
f 2S fa
(3.31)
Der halben Abtastfrequenz wird stets die normierte Kreisfrequenz S zugeordnet. Ist beispielsweise die Abtastfrequenz 20 kHz, so entspricht der Frequenz f1 = 4 kHz der normierten Kreisfrequenz :1 = 0,4S und umgekehrt, siehe auch (3.18).
(3.30)
Z1
Za/2
Zg
j:
X( e )
: S
0
:1
:g
S
Bild 3-20 Zusammenhang zwischen dem Spektrum eines zeitkontinuierlichen Signals und dem seiner Abtastfolge (schematische Darstellung)
91
3.7 Digitale Signalverarbeitung
Bei Beachtung des Abtasttheorems geht keine Information über das Signal oder äquivalent sein Spektrum verloren, siehe (3.30). Anders ist das beim Beschneiden des Signals durch die Fensterung. Man spricht dann von der Kurzzeit-Spektralanalyse bzw. vom Kurzzeit-Spektrum. Dem Nachteil der Signalverkürzung steht der Vorteil der einfachen Verarbeitung im Rechner gegenüber. Darüber hinaus ist in den Anwendungen, z. B. der Sprachverarbeitung oder Regelungstechnik, oft die Veränderung des Kurzzeit-Spektrums von Block zu Block von Interesse. Die Kurzzeit-Spektralanalyse basiert auf der diskreten Fourier-Transformation (DFT). Sie bildet die N Signalwerte eines Blockes, x[n] für n = 0, …, N1, eineindeutig in die N DFTKoeffizienten des DFT-Spektrums, X[k] für k = 0, …, N1, ab und umgekehrt. Wie am Beispiel der Fourier-Summe gezeigt wurde, steht die DFT in engem Zusammenhang mit der Fourier-Reihe periodischer Signale. Die DFT kommt darum bei der Messung von Klirrfaktoren zum Einsatz. Oft ist das zu untersuchende Signal nicht periodisch. Dann liefern die DFT-Koeffizienten Näherungswerte für das Spektrum. Die Approximation ist umso besser, je größer die Blocklänge N ist. Ein einfaches Beispiel wird im Unterabschnitt zur FIR-Filtern vorgestellt. Eine angemessen Diskussion der Eigenschaften des DFT-Spektrums würde den Rahmen einer Einführung sprengen, weshalb auf die Literatur zur digitalen Signalverarbeitung verwiesen wird. Anmerkung: Der Approximationsfehler kann durch die Form des Fensters beeinflusst werden. In der digitalen Signalverarbeitung werden je nach Randbedingungen verschiedene Fenster eingesetzt, wie z. B. das Hamming-Fenster, das Gauß-Fenster und einige mehr.
Eine wichtige Kenngröße der Spektralanalyse ist die spektrale Auflösung. Aus dem Abstand zweier Stützstellen im Spektrum der Folge 2S / N folgt aus (3.31) die spektrale Auflösung bzgl. des abgetasteten Signals 'f
fa N
(3.32)
Wird beispielsweise bei einer Messung mit einer Abtastfrequenz von 20 kHz und einer DFTLänge von N = 1024 gearbeitet, so sind Frequenzkomponenten mit kleinerem Abstand als 19,5 Hz nicht zu unterscheiden. In vielen Anwendungen ist deshalb eine große Blocklänge N erwünscht oder erforderlich. Andererseits steigt mit der Blocklänge der Rechenaufwand der DFT (3.21) quadratisch. Hier kommt die schnelle Fourier-Transformation (Fast Fourier Transform, FFT) zum Zuge. Sie ist ein Algorithmus zur effizienten Berechnung der DFT. Der Rechenaufwand steigt bei der FFT nur linear mit der Blocklänge. Ist die Blocklänge eine Zweierpotenz, so ergibt sich die besonders effiziente Radix-2-FFT. Aus diesem Grund werden in den Anwendungen meist solche Blocklängen verwendet. Typische FFT-Längen in der Praxis sind 512, 1024, 2048, 4096 und 8192. Abschätzungen der Zahl der erforderlichen Rechenoperationen (FLOP, Floating Point Operation) liefern für N = 1024 für die DFT mit der Summenformel (3.21) 8,4 Mio. FLOPs und für die Radix-2-FFT 0,051 Mio. FLOPs. Also eine Ersparnis um zwei Größenordnungen. Anmerkung: DFT direkt | 8N 2 FLOPs und Radix-2-FFT | 5Nlog2(N) FLOPs [Wer08b].
In der Telefonie wird die diskrete Fourier-Transformation zur Erkennung der Töne beim Mehrfrequenzwahlverfahren verwendet. Jeder Telefontaste ist ein Tonpaar mit bestimmten Frequenzen zugeordnet. Wird eine Taste gedrückt, wird das zugehörige Tonpaar für etwa 65 ms
92
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
übertragen. Aufgabe der Gegenstation ist es, die gedrückte Taste anhand des empfangen Signals zu erkennen. Anmerkungen: (i) Das Verfahren ist von der ITU als DTMF-Verfahren (Dual-Tone Multi-Frequency) standardisiert. Z. B. ist für die Taste „1“ das Frequenzpaar 697 Hz und 1209 Hz festgelegt. (ii) Aus Aufwandsgründen wird der Goertzel-Algorithmus bevorzugt, da nur wenige DFT-Koeffizienten bestimmt werden müssen [Wer08c].
Für viele Anwendungen aus dem Bereich der Mustererkennung interessieren die Änderungen im Kurzzeit-Spektrum. So treten beispielsweise an Maschinen aufgrund von Abnutzungen bei beweglichen Teilen Eigenschwingungen auf, die auf eine baldige Störung hinweisen. Liefert die FFT einen oder mehrere DFT-Koeffizienten, deren Beträge gewisse Schwellen überschreiten, so kann eine Wartung angefordert oder gegebenenfalls sogar Alarm ausgelöst und abgeschaltet werden. Die Interpretation des DFT-Spektrums hängt von der jeweiligen Anwendung ab. Sie ergibt sich entweder aus Modellüberlegungen oder empirischen Untersuchungen.
3.7.3
Digitale Filter
3.7.3.1
Simulation mit digitalen Filtern
Ein wichtiges Einsatzgebiet der digitalen Signalverarbeitung ist die Filterung analoger Signale, siehe Bild 3-21. Man spricht in diesem Zusammenhang auch von einer Simulation. Dabei soll das Signal am Ausgang des D/A-Umsetzers in seinen wesentlichen Merkmalen gleich dem Ausgangssignal des zu ersetzenden analogen Filters sein. Anmerkungen: (i) In der Systemtheorie werden ideale A/D- und D/A-Umsetzern für die mathematische Herleitungen des Simulationstheorems verwendet und die Ausgangssignale dazu gleichgesetzt [Unb02]. Für die Praxis kommt es darauf an, gewisse Anforderungen zu erfüllen, vgl. Toleranzschema zum Filterentwurf. (ii) Entsprechend dem engen Zusammenhang zwischen analogen Signalen und ihren Abtastfolgen ergibt sich die Beschreibung der digitalen Filter als LTI-Systeme entsprechend der Beschreibung analoger Filter. x(t)
y(t)
analoges Filter
x(t)
x[n]
A/D
digitales Filter
y[n]
y(t)
D/A
Bild 3-21 Digitale Filterung analoger Signale (Simulation)
Digitale Filter, die Realisierungen linearer zeitinvarianter Systeme darstellen, beinhalten nur Addierer, Multiplizierer und Verzögerer. Bild 3-22 zeigt die Blockschaltbilder zweier gebräuchlicher Strukturen: die transversale Struktur für FIR-Filter (Finite Impulse Response) Nter Ordnung und einen Block 2. Ordnung wie er in IIR-Filtern (Infinite Impulse Response) verwendet wird. IIR-Filter höhere Ordnung können durch Kaskadierung von Blöcken 2. Ordnung (und gegebenenfalls 1. Ordnung) aufgebaut werden. Selbstredend ist auch eine Software-Realisierung auf einem Mikroprozessor möglich. Addierer, Multiplizierer und Verzögerer werden beispielsweise durch die Assembler-Befehle Addi-
93
3.7 Digitale Signalverarbeitung
tion (ADD), Multiplikation (MUL) und Speicherzugriff (LOAD bzw. STORE) mit passender Adressierung ersetzt. x[n] x[n] D
b0
D
D
b1
b2 bN-1
b1 D
a2
b0 y[n]
D a1
a0 = 1
y[n] Bild 3-22 Digitale Filter in transversaler Struktur (links) und als rekursiver Block 2. Ordnung (rechts)
3.7.3.2
FIR-Filter
FIR-Filter in transversaler Struktur werden von digitalen Signalprozessoren besonders unterstützt. Digitale Signalprozessoren verfügen meist über einen MAC-Befehl (Multiply and Accumulate), so dass ein Signalzweig des Transversalfilters in einem Prozessorzyklus berechnet werden kann. Dabei werden die Multiplikationsergebnisse in einen Akkumulator geschrieben, der über Reservebits mit Schutz gegen Überlauf verfügt. Die Software-Realisierung in einer höheren Programmiersprache geschieht durch eine Schleife, z. B. in MATLAB® for k=0:N-1 y[n] = b(1+k)*x(1+n-k); end
Das FIR-System realisiert die Faltung des Eingangssignals x[n] mit der Impulsantwort h[n], N 1
y[n]
¦ h[k ] x[n k ]
h[n] x[n]
(3.33)
k 0
wobei die Filterkoeffizienten bn gleich der Impulsantwort sind
b h[n] ® n ¯0
für n
0,1,! , N 1
sonst
(3.34)
Im Frequenzbereich wird aus der Faltung der Zeitfunktionen das Produkt der Spektren. Das Spektrum um Filterausgang ist
Y e j:
H e j: X e j:
mit der Fourier-Transformierten des zeitdiskreten Eingangssignals
(3.35)
94
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung f
¦ x[n] e j:n n f
X e j:
(3.36)
und dem Frequenzgang des FIR-Filters N 1
¦ h[n] e j:n n 0
H e j:
(3.37)
Anmerkungen: (i) (3.33) und (3.35) geben die Eingangs-Ausgangsgleichungen eines zeitdiskreten LTISystems im Zeit- bzw. im Frequenzbereich wider. An die Stelle des Faltungsintegrals und des Integrals für die Fourier-Transformation treten hier in natürlicher Weise die Summen. (ii) Die Beschreibung der zeitdiskreten FIR- und IIR-Filter geschieht wie für die zeitkontinuierlichen LTI-Systeme in Abschnitt 2.12 durch die Impulsantwort und den Frequenzgang [Wer08b].
Beispiel FIR-Tiefpass
Die Wirkungsweise des FIR-Filters veranschaulichen wir am Besten durch ein Beispiel. Dazu wählen wir einen Tiefpass mit der normierten Durchlasskreisfrequenz :D = 0,3S, der Durchlasstoleranz GD = 0,05, der normierten Sperrkreisfrequenz :S = 0,5S und der Sperrtoleranz GS = 0,001. Der Filterentwurf, z. B. mit MATLAB® nach dem Parks-McClellan-Verfahren für linearphasige FIR-Filter, liefert die Impulsantwort in Bild 3-23. Man erkennt die für den Tiefpass typische, dem si-Impuls ähnliche Form der Einhüllenden, vgl. Bild 2-27. Die Filterordnung N beträgt 20. h[n] 0,3 0,2 0,1 n
0 0,1 0
10
20
Bild 3-23 Impulsantwort des FIR-Tiefpasses
Den Betrag des Frequenzganges in linearer und logarithmischer Darstellung zeigt Bild 3-24 links bzw. rechts. Der Frequenzgang entspricht im Wesentlichen den Vorgaben. Anmerkung: Im Sperrbereich ist deutlich zu erkennen, dass die Sperrtoleranz von 60 dB nicht eingehalten wird. Für das Beispiel ist das jedoch nicht wichtig, weshalb auf einen erneuten Filterentwurf mit etwas höherer Filterordnung verzichtet wird.
95
3.7 Digitale Signalverarbeitung
|H( e j: )|
20lg |H( e j: )| 0
1
20 in dB 40 60 0 0
0,3 :D
0,5 :S
:/S
1
0
0,3 :D
0,5 :S
:/S
1
Bild 3-24 Betragsfrequenzgang des FIR-Tiefpasses
Die Wirkung des Tiefpasses soll an einem Signalbeispiel erprobt werden. Dazu nehmen wir als Eingangssignal x[n] ein normalverteiltes, unkorreliertes Rauschsignal. Bild 3-25 zeigt oben links einen Ausschnitt. Die Werte springen ungeordnet auf und ab. Zur besseren Anschaulichkeit sind sie durch eine gestrichelte Linie verbunden. Rechts daneben sind die Beträge der DFT-Koeffizienten für die Blocklänge N = 100 zu sehen; also für den Bereich der normierten Kreisfrequenz von 0 bis S. Das Kurzzeit-Spektrum schwankt ebenso quasi zufällig. Alle Spektralkomponenten scheinen im Signal vorhanden zu sein. Anmerkungen: (i) Weil das Signal x[n] reell ist, ist der Betrag des DFT-Spektrums eine gerade Funktion, weshalb sich die grafische Darstellung auf die DFT-Koeffizienten bis N / 2 ohne Informationsverlust beschränkt werden kann, siehe auch Beispiel (3.27). (ii) Die DFT eines Blocks aus unkorrelierten normalverteilten Zufallsvariablen liefert selbst wieder einen Block aus unkorrelierten normalverteilten Zufallsvariablen.
Am Ausgang des Tiefpass liegt das Signal y[n] vor. Bild 3-25 unten zeigt den zum oberen Teilbild passenden Signalausschnitt. Im Vergleich mit dem Eingangssignal lässt sich eine Glättung erkennen, wie sie für die Tiefpassfilterung typisch ist. Besonders deutlich wird die Tiefpassfilterung im DFT-Betragsspektrum rechts im Bild. Ab k = 25, d. h. dem Beginn des Sperrbereichs des Tiefpasses, :k = :S, sind die DFT-Koeffizienten näherungsweise null. Im Durchlassbereich, d. h. von k = 0 bis ca. 15, stimmen die Beträge der DFT-Koeffizienten vor und nach der Filterung im Rahmen der Ablesegenauigkeit überein. Anmerkungen: (i) Mit der Sperrkreisfrequenz von :S = S / 2 ist der Glättungseffekt deutlich, aber noch nicht stark ausgeprägt. Bei einer kleinere Durchlass- und Sperrkreisfrequenz wäre er deutlicher allerdings bei entsprechend gestiegener Ordnung des Filters. (ii) Die Filterung von sehr langen Signalfolgen mit FIR-Filtern kann auch im Frequenzbereich mit Hilfe der FFT durchgeführt werden. Der Algorithmus wird schnelle Faltung genannt und ermöglicht oft eine aufwandsgünstigere Realisierung als die direkte Berechnung mit der Faltungssumme.
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
96
20
4 x[n] 2
| X [k] |
n
0
10
2 4
0
50
0
100
k 0
10
20
30
40
50
0
10
20
30
40
50
20
2 y[n] 1
| Y [k] |
n
0
10
1 2
0
50
100
0
k
Bild 3-25 Eingangssignal x[n] und Ausgangssignal y[n] des FIR-Tiefpasses
3.7.3.3
IIR-Filter
Für IIR-Filter gelten die gleichen Eingangs-Ausgangsgleichungen wie für die FIR-Filter (3.33) und (3.35); allerdings ist die Impulsantwort zeitlich nicht beschränkt. Der Unterschied liegt in der inneren Struktur der Filter und damit bei dem Entwurf, den Eigenschaften und der praktischen Realisierung. Durch die Signalrückführung, siehe Bild 3-22, entsteht eine Rückkopplung einem Regelkreis vergleichbar die zur Instabilität durch Fehler beim Entwurf oder unzulängliche Implementierung führen kann. Andererseits ermöglicht die Signalrückführung selektive Filter mit schmalen Übergangsbereichen bei niedrigen Filterordnungen. Die Standardapproximationen analoge Filter, wie Butterworth-, Chebyshev- und Cauer-Filter, sind auf die digitalen IIR-Filter übertragbar [Wer08c]. Beispiel IIR-Tiefpass
Wir knüpfen an das Beispiel des FIR-Filters an und übernehmen die Anforderungen im Frequenzbereich. Als Filtertyp wählen wird einen Cauer-Tiefpass und wenden ein Filterentwurfsprogramm an, wie z. B. MATLAB. Als Entwurfsergebnis erhalten wird die Filterkoeffizienten für die Kaskadenform in Blöcken 1. und 2. Ordnung in Tabelle 3-3. Die Filterkoeffizienten bestimmen die rationale Übertragungsfunktion entsprechend zu (2.41) für analoge LTISysteme.
97
3.7 Digitale Signalverarbeitung
H ( z)
H1 ( z ) H 2 ( z ) H 3 ( z ) b0,1 b1,1 z 1 b0,2 b1,2 z 1 b2,2 z 2 b0,3 b1,3 z 1 b2,3 z 2 a0,1 a1,1 z 1 a0,2 a1,2 z 1 a2,2 z 2 a0,3 a1,3 z 1 a2,3 z 2
(3.38)
Auch das Blockdiagramm in Bild 3-26 kann aus Tabelle 3-3 unmittelbar das abgeleitet werden. Anmerkung: Der Einfachheit halber wird auf die Skalierung mit dem Verstärkungsfaktor G und speziellen Aspekten der Implementierung, wie die Darstellung der Filterkoeffizienten im 2er-Komplement-Format, verzichtet [Wer08c]. Filterkoeffizienten für den Cauer-Tiefpass mit den Entwurfsvorgaben: norm. Durchlasskreisfrequenz :D = 0,3S, Durchlasstoleranz GD = 0,05, norm. Sperrkreisfrequenz :S = 0,5S und Sperrtoleranz GS = 0,001
Tabelle 3-3
Zählerkoeffizienten
Nennerkoeffizienten
b0
b1
b2
a0
a1
a2
Block 1
1
1
1
0,6458
Block 2
1
0,7415
1
1
1,1780
0,5741
Block 3
1
0,0847
1
1
1,0638
0,8562
Verstärkungsfaktor G = 0,0106
x[n]
Block 1
Block 2 D 0,7415
0,6458 a0 = 1
s2[n] D 0,5741
Block 3
s1[n] D
0,0847
1,1780 a0 = 1
y[n] D 0,8562
D 1,0638 a0 = 1
Bild 3-26 Blockdiagramm des digitalen Cauer-Tiefpass 5. Ordnung in Kaskadenform
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
98
Die Software-Implementierung in einer höheren Programmiersprache, wie z. B. MATLAB, lässt sich aus dem Blockdiagramm schnell ableiten. Hierzu betrachten wir den Block 2 in Bild 3-26. Zusätzlich eingetragen sind dort die zwei inneren Größen s1[n] und s2[n], auch Zustandsgrößen genannt. Sie beschreiben die Signale an den Ausgängen der Verzögerer. Im Programm dienen sie als Speichervariablen. Demzufolge sind für einen Block 2. Ordnung drei Schritte in der angegebenen Reihenfolge durchzuführen: Berechnung des Ausgangswertes y[n], aktualisieren der Zustandsgröße s1[n] und aktualisieren der Zustandsgröße s2[n]. y(n) = b(1)*x(n) - s(1); s(1) = b(2)*x(n) - a(2)*y(n) + s(2); s(2) = b(3)*x(n) - a(3)*y(n); Anmerkungen: (i) b(k) = bk1 und a(k) = ak1 (ii) Die Zustandsgrößen müssen jeweils gemerkt werden. (iii) Sind die Zustandsgrößen ab einem Zeitpunkt bekannt, ist bei bekanntem Eingangssignal das Ausgangssignal eindeutig festgelegt.
Wir überprüfen den Frequenzgang des Cauer-Tiefpasses. Er ergibt sich aus der Übertragungsfunktion (3.38) für z = e j:. Sein Betrag ist in Bild 3-27 dargestellt. Die Entwurfsvorgaben werden eingehalten. Wie bei dem Betragsfrequenzgang des FIR-Tiefpasses in Bild 3-24 liegt eine Chebyshev-Approximation mit Equiripple-Verhalten in Durchlass- und Sperrbereich vor. |H( ej: )|
20lg |H( ej: )|
1
0
0,8
20
in dB
0,6
40
0,4
60
0,2 0
0
0,2 :D 0,4 :S 0,6
0,8 :/S 1
0
0,2 :D 0,4 :S 0,6
0,8
:/S
1
Bild 3-27 Betragsfrequenzgang des Cauer-Tiefpasses 5. Ordnung
Abschließend wird die Impulsantwort des Cauer-Tiefpasses in Bild 3-28 vorgestellt. Sie beschreibt das Übertragungsverhalten des Systems vollständig. Für eine weitergehende Diskussion wird der Kürze halber auf die digitale Signalverarbeitung verweisen, z. B. [Wer08b], [Wer08c].
99
3.8 Audio-Codierung
0,3
h[n] 0,2
0,1
n
0 20
40
60
0,1 0
Bild 3-28 Impulsantwort des Cauer-Tiefpasses 5. Ordnung
3.8
Audio-Codierung
Am Beispiel des MP3-Players ist, wie vielleicht kein zweites Mal, der Fortschritt der Informationstechnik für die breite Öffentlichkeit sichtbar geworden. Die moderne Audio-Codierung verbindet fortschrittliche Methoden der digitalen Signalverarbeitung mit bezahlbarer, leistungsfähiger Mikroelektronik. Audiosignale werden bei vorgegebener Qualität so dargestellt, dass sie mit möglichst geringem Umfang gespeichert und übertragen werden können. Man spricht von einer Datenkompression. Erst sie macht Anwendungen wie die tragbaren MP3-Player oder das Internet-Radio über ISDN-Teilnehmeranschlüsse möglich. Je nach Anwendung werden Kompressionsfaktoren von etwa 10 bis 20 erzielt. In vielen Fällen kann ohne hörbare Qualitätseinbusen der Audio-Bitstrom einer Compact-Disc (CD-DA) von 1411,2 kbit/s auf 64 … 128 kbit/s reduziert werden. Im Folgenden werden die grundlegenden psychoakustischen Effekte der Audio-Codierung aufgezeigt und beispielhaft die Audio-Codierung nach MPEG-1 Layer III, bekannt auch als MP3, vorgestellt. MPEG-1 steht für das 1992 standardisierte Verfahren ISO/IEC 11172-3 der International Standard Organization (ISO) und International Electrotechnical Commission (IEC). Grundlage sind die Arbeiten zum Filmton der Motion Picture Experts Group (MPEG). Weiterentwicklungen sind MPEG-2 (1994) und MPEG-4 (1999) [BSH08]. Neben der Anpassung an neue Anwendungsfelder (Mehrkanalsysteme, Mobilkommunikation, usw.), sind zwei Innovationen hervorzuheben: das Advanced Audio Coding (AAC, 1997) und die Spectral Band Replication (SBR, 2002). Beide erlauben zu MP3 nochmals eine deutliche Datenkompression bei etwa gleicher Qualität [HeDi08]. Anmerkung: Die Audio-Codierung liefert auch ein interessantes Beispiel der wechselseitigen Abhängigkeit von technologischem Fortschritt und wirtschaftlichen Interessen. Die Entwicklung der Audio-Codierung wird wesentlich Beeinflusst von den im Konsumentenmarkt erzielbaren Preisen. Letztere setzen der Komplexität der digitalen Signalverarbeitung enge Grenzen, die aber, entsprechend dem moorschen Gesetz, rasch expandieren. Während im Konsumbereich stets neue Geräte abgesetzt werden sollen, ist das in der professionellen Audio-Technik anders. In Ton- und Filmaufnahmestudios für Rundfunk und Fernsehen und im Kino findet man den Wunsch nach der Sicherung der Investitionen, nach Abwärtskompatibilität und Beständigkeit. Nicht zu unterschätzen ist ferner der Einfluss von Firmen und Konsortien, die nach einer marktbeherrschenden Position streben.
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
100
3.8.1
Psychoakustische Effekte
Grundlage der Datenkompression durch die Audio-Codierverfahren ist die Orientierung am Nachrichtenempfänger, dem Menschen. Statt das mit dem Mikrofon aufgenommene AudioSignal möglichst genau wiederherzustellen, wird nur der Anteil codiert, der einen Einfluss auf den Höreindruck hat. Man spricht von verlustloser bzw. verlustbehafteter Codierung. Das menschliche Gehör nimmt nur Geräusche war, die in einem Frequenzbereich von etwa 20 Hz bis 20 kHz liegen und einen bestimmten Schalldruckpegel aufweisen. Man spricht vom Hörbereich des Menschen. Bild 3-29 fasst hierzu experimentelle Ergebnisse zusammen. Erst wenn der Schalldruckpegel des Eintonsignals die Hörschwelle überschreitet, wird der Ton wahrgenommen. Die Hörschwelle ist frequenzabhängig. Am besten werden Töne zwischen 1 und 4 kHz wahrgenommen. Untersuchungen mit Mehrton-Signalen zeigen, dass unter bestimmten Umständen auch Töne über der Hörschwelle in Bild 3-29 nicht wahrgenommen werden [Zwi82]. Man spricht von vom Verdeckungs- oder Maskierungseffekt. Der Maskierungseffekt ist sowohl frequenz- als auch zeitabhängig. Den Maskierungseffekt im Frequenzbereich verdeutlicht Bild 3-30 anhand dreier schmalbandiger Rauschsignale und ihrer Mithörschwellen. Tritt beispielsweise ein schmalbandiges Rauschsignal um die Frequenz von 1 kHz auf, dann werden weitere Töne mit Lautstärken unterhalb der Mithörschwelle verdeckt; in Bild 3-30 im grau hinterlegten Bereich. Bei der Audio-Codierung können die entsprechenden Signalanteile weggelassen werden. Eine Irrelevanzreduktion wird durchgeführt.
120
120
100 80
100
Musik
60
80 40
60
Sprache
Lautstärke in dB
Schalldruckpegel in dB
Schmerzgrenze
20
40 0
20 0 Hörschwelle 20
50
100
200
500
1000
2000
5000
10000
20000
Frequenz in Hz Bild 3-29 Hörbereich des Menschen Schalldruck und Lautstärke über der Frequenz nach [Bro04]
101
3.8 Audio-Codierung
Schalldruckpegel in dB
80
f1 = 0,25 kHz
60
f2 = 1 kHz
f3 = 4 kHz Mithörschwelle
40
20
Ruhehörschwelle
0
50
100
200
500
1000 2000
5000 10000 20000
Frequenz in Hz Bild 3-30 Maskierung im Frequenzbereich: Ruhehörschwelle und Mithörschwelle bei Anregung mit Schmalbandrauschen nach [Rei05], [Zwi82]
Schalldruckpegel in dB
Eine zeitliche Maskierung tritt nach einem lauten Geräusch auf. Erst nach einiger Zeit können leisere Geräusche wieder wahrgenommen werden. Man spricht von der Nach-Maskierung. Sie nimmt mit der Zeit schnell ab und dauert etwa 150 bis 200 ms. Bild 3-31 stellt den Effekt schematisch dar. Zunächst überraschend gibt es auch eine Vor-Maskierung. Sie erklärt sich aus den Signallaufzeiten im Gehörorgan und der verzögerten Verarbeitung im Gehirn. Dadurch können Signalanteil scheinbar andere überholen. Vor- und Nach-Maskierung führen zu Irrelevanzen die zur Datenreduktion weggelassen werden können.
Gleichzeitige Maskierung
VorMaskierung
NachMaskierung
40
20
0 -50
0
50
100
150
Zeit in ms 0
50
100
150
Bild 3-31 Maskierung im Zeitbereich nach [Rei05], [Zwi82]
3.8.2
Audio-Codierung für MPEG-1 Layer III
Die digitale Signalverarbeitung ermöglicht die besonderen Eigenschaften des menschlichen Gehörs zur Datenreduktion zu nutzen. Die Maskierungseffekte im Frequenz- und im Zeitbereich legen eine blockorientierte Signalverarbeitung im Frequenzbereich nahe; ähnlich der Kurzzeit-Spektralanalyse mit der FFT in Abschnitt 3.7.2. Die Anleitung zur Codierung der Blöcke liefert ein psychoakustisches Modell, das den Einfluss der Codierung auf den Hörein-
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
102
druck beschreibt. Damit wird der Empfänger in die Codierung im Encoder einbezogen. Man spricht von einer Analyse durch Synthese. Bild 3-32 zeigt das vereinfachte Blockdiagramm des Encoders. Den Ausgangspunkt bildet ein digitales Audiosignal in Mono, das üblicherweise bei einer Abtastfrequenz von 48 kHz mit 16 Bits PCM-codiert ist. Also eine Bitrate von 768 kbit/s aufweist. Im ersten Codierungsschritt wird das Audiosignal mit einer Filterbank in 32 Teilbänder zerlegt. Die Filterbank liefert an ihrem Ausgang 32 Signale, je ein Signal für ein Teilband im Frequenzspektrum. Im nachfolgenden Block MDCT wird die spektrale Aufteilung weiter verfeinert. Jedes Teilsignal wird in 18 Subbänder zerlegt, so dass insgesamt 576 Subbänder entstehen. Zur Anwendung kommt die Modifizierte diskrete Kosinus-Transformation (MDCT, Modified Discrete Cosine Transform), die mit der DFT eng verwandt ist. Parallel wird zum Audio-Signal mit einer FFT der Länge 1024 das Kurzzeit-Spektrum in relativ hoher Frequenzauflösung berechnet. Das Kurzzeit-Spektrum beschreibt den momentanen Zustand des Audio-Signals, wie er für die psychoakustische Bewertung, die Berechnung der Mithörschwellen, benötigt wird. Die Codierung mit Datenkompression wird im Block Quantisierung mit dynamischer Bitzuweisung vorgenommen. Die Datenkompression beruht im Prinzip darauf, dass jedem Teilsignal der 576 Subbänder zu seiner Darstellung so wenige Bits wie möglich zugeteilt werden, so dass die Quantisierungsfehler noch unterhalb der Mithörschwellen bleiben. Dabei werden auch zeitliche Verdeckungseffekte berücksichtigt. Die Bitratenanpassung beachtet äußere Vorgaben, wie die Zielbitrate des codierten Audio-Bitstromes.
768 kbit/s
Filterbank mit 32 Teilbändern
FFT N = 1024
32 Teilbänder
Digitales Audiosignal
576 Subbänder
Nach der Irrelevanzreduktion schließt sich eine Huffman-Codierung an. Dabei werden Redundanzen im Signal (Bitstrom) zur weiteren Datenkompression genutzt. Man spricht auch von einer Entropie-Codierung, siehe Abschnitt 7.2. Die Seiteninformation, das sind Daten die zur Steuerung der Decodierung im Empfänger benötigt werden, wird gesondert behandelt.
MDCT
Bitratenanpassung
Quantisierung mit dynamischer Bitzuweisung
Psychoakustisches Modell Codierter Audio-Bitstrom
HuffmanCodierung
Codierung der Seiteninformation
Rahmenbildung und Fehlerschutz
32… 192 kbit/s Bild 3-32 Blockdiagramm des Encoders für die Audio-Codierung nach MPEG-1 Layer III (Mono)
103
3.8 Audio-Codierung
Abschließend werden alle Daten in standardgemäße Rahmen gepackt und zusätzlich mit 16 Redundanzbits eines CRC-Codes (Cyclic Redundancy Check) zur Erkennung von Übertragungsfehlern versehen, siehe Abschnitt 7.3. Je nach gewünschter Qualität (Zielbitrate) entsteht so ein genormter Audio-Bitstrom mit einer Bitrate von 32 bis 196 kbit/s. In Erweiterung des vorgestellten Verfahrens wird nach MPEG-1 Layer III die Quantisierung mit dynamischer Bitzuweisung iterativ vorgenommen. Darüber hinaus wird eine BitreservoirTechnik zur Codierung schwieriger Passagen eingesetzt. D. h., bei einfach zu codierenden Blöcken werden nicht alle verfügbaren Bits benutzt, sondern Bits für schwierig zu codierenden Blöcke angespart. Eine Intensitäts- und Stereo-Codierung ist vorgesehen.
3.8.3
HE-AAC Codec
Neue Fortschritte in der Audiocodierung hat die ISO/IEC veranlasst im Jahre 2006 den High Efficency Advanced Audio Codec in der Version 2 (HE-AAC v2) zu standardisieren. Die technischen Einzelheiten würden hier den Rahmen sprengen [BSH08], [HeDi88]. Es kommen jedoch zwei Aspekte zum Tragen, die auch in anderen Bereichen der Informationstechnik eine wichtige Rolle spielen und deshalb exemplarisch herausgestellt werden: Die Kompatibilität und Skalierbarkeit. Der Aufbau des HE-AAC Codec ist in Bild 3-33 zu sehen. Im Encoder und Decoder wird, ähnlich den Schalen einer Zwiebel, der ACC-Kern durch zwei Erweiterungen umgeben: der Module zur Verbesserung des reproduzierten Spektrums (Spectral Band Replication (SBR) Bandwidth Enhancement Tool) und zur Komprimierung von Stereosignalen (Parametric Stereo (PS) Compression Tool). Im Encoder sind drei Betriebsarten möglich: AAC-Codierung HE-AAC v1 ( ACC-Codierung mit SBR-Vorverarbeitung) HE-AAC v2 (ACC-Codierung mit SBR- und PS-Vorverarbeitung) Man kann deshalb auch von der AAC-Codec-Familie sprechen.
PS
Encoder
SBR
ACC
AACBitstrom MUX
Audiosignal
Seiteninformation
PS
Decoder
SBR
ACC
Seiteninformation Bild 3-33 Aufbau des HE-AAC Codec
MUX
Audiosignal
AACFormat
104
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
Beim HE-AAC v2 Encoder wird das Audiosignal dem PS-Modul zugeführt. Das PS-Modul berücksichtigt die Abhängigkeiten zwischen den Stereosignalen und erhöht so die Effizienz der Komprimierung. Dabei erzeugte Daten müssen zusätzlich als Seiteninformation übertragen werden, was einen zusätzlichen Bitstrom von einigen kbit/s bedingt. Das vorverarbeitete Audiosignal wird an das SBR-Modul geleitet, das die Abhängigkeiten zwischen dem unteren und oberen Teil des Spektrums zur Komprimierung nützt. Auch hier entsteht Seiteninformation mit einem Bitstrom von etwa 2…3 kbit/s. Das zweimal vorverarbeitete Audiosignal wird schließlich AAC-codiert. Der ACC-Bitstrom und die Seiteninformationen werden zu einem AAC-Standard-kompatiblen Datenstrom zusammengeführt, in Bild 3-33 durch den Multiplexer (MUX) angedeutet. Aus dem AAC-konformen Bitstrom wird im Decoder wieder ein Audiosignal erzeugt. Das Audiosignal am Decoderausgang weicht mehr oder weniger vom ursprünglichen Audiosignal am Encodereingang ab, wobei der Höreindruck möglichst wenig verfälscht werden soll. Von besonderem Interesse an der AAC-Codec-Familie ist die realisierte Kompatibilität. Da dem Bitstrom das AAC-Format zugrunde liegt, kann der Decoder die Bitströme aller drei Encodervarianten optimal verarbeiten. Darüber hinaus kann auch ein AAC-Decoder die Bitströme der HE-AAC-Encoder zu einem Audiosignal umsetzten allerdings unterbleibt die SBR- und PS-Nachverarbeitung, so dass mit hörbare Qualitätseinbusen zu rechnen ist. In der Praxis auch deshalb, weil beim Einsatz der HE-AAC-Encoder die Bitrate des AAC-Anteils in der Regel relativ niedrig gewählt wird. Den Zusammenhang zwischen Bitrate und der wahrgenommenen Qualität, dem subjektiven Höreindruck, zeigt Bild 3-34. Als Referenz nach oben dient die typische Qualität einer AudioCD. Das Bild 3-34 weist auf die Skalierbarkeit des Codec hin. Mit der AAC-Codec-Familie wird, je nach gewünschter Qualität, der Bitratenbereich von ca. 24 bis 128 kbit/s abgedeckt. Für die Anwendung wurden Profile definiert, d. h. typische Kombinationen von Einstellung: Abtastfrequenz des Audiosignals 24, 48 oder 96 kHz; Zahl der Audiokanäle 2 (Stereo) oder 5 (Mehrkanalsystem).
Bild 3-34 Qualitätseindruck und Bitraten des HE-AAC Codec nach [HeDi08] Anmerkung: Würde man die AAC-Familie in der Telefonie einsetzen, könnte das Profil dynamisch vereinbart werden. Allerdings lässt der Einsatz in der Telefonie nur kurze Signalverzögerungen durch den Codec zu, weshalb der AAC-Codec zum AAC-LD(Low Delay)-Codec weiterentwickelt wurde. Der schnellere Algorithmus wird durch eine etwas geringere Effizienz der Codierung erkauft [BSH08].
3.9 Zusammenfassung
3.9
105
Zusammenfassung
Die Digitalisierung analoger Signale durch Abtastung und Quantisierung ermöglicht es, Informationen aus unserer Umwelt mit den elektronischen Mitteln der Digitaltechnik darzustellen, zu übertragen, zu speichern und zu verarbeiten. Während bei der Abtastung unter Beachtung des Abtasttheorems das Originalsignal prinzipiell durch die si-Interpolation fehlerfrei rekonstruiert werden kann, ist die Quantisierung in der Regel nicht reversibel. Der entstehende Quantisierungsfehler kann jedoch durch die Wortlänge der gewählten Zahlendarstellung eingestellt werden, so dass mit entsprechendem Aufwand eine hinreichende Genauigkeit in den praktischen Anwendungen erreicht wird. Ein interessanter Fall ergibt sich bei der Digitalisierung von Telefonsprache. Wegen der subjektiven Bewertung des Quantisierungsgeräusches durch das menschliche Gehör bietet es sich an, eine von der Signalaussteuerung abhängige ungleichförmige Quantisierung durch Kompandierung anzuwenden. Damit lässt sich die Wortlänge – und damit der Aufwand – bei gleicher Hörqualität von 12 auf 8 Bits reduzieren. Die heute weit verbreiteten Methoden zur Datenkompression für Audio- und Videosignalen machen sich ähnliche Überlegungen zunutze, indem sie die physiologischen Voraussetzungen des menschlichen Hörens und Sehens berücksichtigen. Bei der Codierung von Audio- und Videosignalen wird zwischen den verlustbehafteten und verlustlosen Verfahren, zwischen Irrelevanzreduktion bzw. Redundanzreduktion unterschieden. Die heute erzielbaren Kompressionsfaktoren, bis ca. 20 im Audiobereich (HE-AAC v2) und bis ca. 50 für Standbilder (Joint Picture Experts Group, JPEG 2000) und drüber hinaus im Videobereich, werden durch die digitale Signalverarbeitung erzielt. Wichtige Beispiele für die Methoden der digitalen Signalverarbeitung sind die digitale Filterung und die KurzzeitSpektralanalyse mit der FFT.
3.10
Aufgaben zu Abschnitt 3
Aufgabe 3.1
Das Audiosignal eines Stereokanals für die Übertragung mit dem neuen digitalen Hörrundfunk (Digital Audio Broadcasting, DAB) wird mit einer Abtastfrequenz von fa = 48 kHz und einer Wortlänge von 16 Bits digitalisiert. a) Wie groß darf die Frequenz eines Tones im Audiosignals höchstens sein, damit zumindest theoretisch und ohne Berücksichtigung der Quantisierung eine fehlerfreie Rekonstruktion anhand der Abtastwerte möglich ist? b) Schätzen Sie das Signal-Quantisierungsgeräusch-Verhältnis in dB ab. Aufgabe 3.2
Geben Sie die Abtastfrequenz fa, die Wortlänge w und die Bitrate Rb der PCM-Sprachübertragung in der Telefonie an. Aufgabe 3.3
In Bild A3.3-1 ist ein Ausschnitt eines Signals u(t) gezeigt. Es gelte max |u(t)| = 1. Das Signal soll beginnend bei t = 0 mit der Abtastfrequenz fa = 1 kHz und der Wortlänge von 3 Bits bzgl. des gesamten Aussteuerungsbereiches digitalisiert werden.
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
106
a) Markieren Sie die Abtastwerte in Bild A3.3-1. b) Tragen Sie die Quantisierungsintervalle ein und nummerieren Sie diese geeignet durch, so dass eine BCD-Codierung vorgenommen werden kann. c) Geben Sie die BCD-Codewörter zu den entsprechenden Quantisierungsintervallen an. d) Geben Sie den Bitstrom zu den Abtastwerten an. e) Geben Sie die zugehörige quantisierte Signalfolge (Repräsentanten) an. f) Zeichnen Sie die sich aus den Repräsentanten ergebende interpolierende Treppenfunktion zu u(t). CodewortNr.
BCDCodewort
Repräsentant
1 u(t)
0 0
5
t / ms 10
1 Bild A3.3-1 Digitalisierung eines Signals
Aufgabe 3.4
a) Nennen Sie zwei grundsätzliche Probleme, die bei der A/D-Umsetzung auftreten können. b) Wie können die beiden Probleme in beseitigt bzw. abgemildert werden? Aufgabe 3.5
Die Sound-Card eines Multimedia-PC bietet drei Optionen für die Audio-Aufnahme an: Telefonqualität ( fa = 11,025 kHz, PCM 8 Bits, Mono), Rundfunkqualität ( fa = 22,05 kHz, PCM 8 Bits, Mono) und CD-Qualität ( fa = 44,1 kHz, PCM 16 Bits, Stereo). a) Wie groß darf in den drei Fällen die maximale Frequenz fmax im Audiosignal sein, damit das Abtasttheorem nicht verletzt wird? b) Schätzen Sie das Signal-Quantisierungsgeräusch-Verhältnis S/N in dB für die drei Optionen ab. Hinweis: Gehen Sie von einer gleichförmigen Quantisierung und optimalen Aussteuerung aus. c) Welche Bitraten besitzen die von der Sound-Card für die drei Optionen erzeugten Bitströme? d) Zur Speicherung der Aufnahmedaten steht eine Hard-Disk mit 1 GB (Gigabyte) freiem Speicher bereit. Wie viele Sekunden des Audiosignals können je nach ausgewählter Option aufgezeichnet werden?
107
3.10 Aufgaben zu Abschnitt 3 Aufgabe 3.6
Stellen Sie die Zahlenwerte in Tabelle A3-1 in den angegebenen Festkomma-Formaten dar. Tabelle A3-1 PCM-Codierung xd
Gleichförmige Quantisierung mit w = 12 bit und Vorzeichen V
PCM-Format (w = 8 bit)
0,8 0,4 0,25 0,001 V = 1 für x t 0
Aufgabe 3.7
a) Ein Signal wird mit der Abtastfrequenz 48 kHz abgetastet und einer Kurzzeit-Spektralanalyse mit der FFT der Länge 1024 unterworfen. Wie groß ist die Frequenzauflösung bzgl. des zeitkontinuierlichen Signals? b) Wodurch unterscheiden sich die Spektren der DFT und FFT? Aufgabe 3.8
a) Was versteht man unter der Simulation durch ein digitales Filter? b) Welche Voraussetzungen müssen dafür erfüllt sein? c) Was versteht man unter einem FIR-Filter? d) Was versteht man unter einem IIR-Filter? Aufgabe 3.9
a) Erklären Sie die Begriffe: verlustlose Codierung, verlustbehaftete Codierung, Irrelevanzreduktion und Redundanzreduktion. b) Was versteht man in der Audio-Codierung unter der Maskierung. Erläutern Sie ihre Bedeutung. Aufgabe 3.10
Als Maß für die erreichte Kompression wird üblicherweise das Kompressionsverhältnis (compression ratio) CR, d. h. das Verhältnis aus der Datenmenge des Originalsignals zur Datenmenge des codierten Signals, verwendet. Schätzen Sie für die AAC-Codierung das Kompressionsverhältnis für typische Audio-CD-Qualtät ab. Um welchen Faktor kann die Kompression verstärkt werden, wenn gewisse Abstriche in der Qualität hingenommen werden.
108
4
Modulation eines sinusförmigen Trägers
4.1
Einführung
Das von einer Nachrichtenquelle erzeugte Signal kann meist nicht direkt übertragen werden. Eine Anpassung an das physikalische Übertragungsmedium, z. B. Koaxialkabel, Funkkanal, Lichtwellenleiter, usw., ist notwendig. Hinzu kommt aus technischen und wirtschaftlichen Gründen häufig eine Bündelung verschiedener Signale, man spricht von einem Multiplex. Die Übertragung der Nachrichten in elektrischer Form unterliegt den Gesetzen der Physik. Mit der Wellengleichung beschreibt die Elektrodynamik die physikalischen Grundtatsachen. Als Sonderfall ergibt sich die Telegraphengleichung, die zeitliche Änderung der Spannung auf der Leitung in Form einer Differentialgleichung nach Ort und Zeit. Als Lösung erhält man eine gedämpfte Welle, eine Sinusfunktion mit orts- und zeitabhängiger Amplitude und Phase. Für die Nachrichtenübertragung kommen somit als Träger sinusförmige Signale in Frage, denen in den Amplituden, Phasen und/oder Frequenzen die Nachrichten aufgeprägt werden. Bild 4-1 gibt einen Überblick über die für die Träger nutzbaren Frequenzlagen verschiedener Übertragungsmedien. LW MW KW UKW Hör-Rundfunk ADSL
GPS Fernseh-Rundfunk I, …, VI
IV I III V
aufw.
VI
abwärts sym. NF-Kabel
ADSL2+
10 1 Hz
3
10 1 kHz
LWL Hohlleiter
6
10 1 MHz
Mobilfunk, schnurlose Telefonie GSM-900 890915 und 935960 MHz GSM-1800 17101785 und 18051880 MHz DECT 18801900 MHz UMTS 18852025 und 21102200 MHz Wireless LAN, Nahfunksysteme (ISM-Bänder) IEEE 802.11/b/g, Bluetooth | 2,4 GHz IEEE 802.11a, HIPERLAN 1/2 | 5 GHz WiMAX IEEE 802.16
DAB Richtfunk
sym. TF-Kabel Koaxial-Kabel 0
Sichtbares Licht 400 ... 700 nm
9
10 1 GHz
1012 1015 Frequenz 1 THz 1 PHz
Optische Fenster der Lichtwellenleiter (LWL) I 0,33 0,375 PHz 800 900 nm II 0,23 0,3 PHz 1000 1300 nm III 0,176 0,32 PHz 1500 1700 nm Infrarot IrDA Tonübertragung
850 900 nm 950 nm
2,52,69 und 3,43,6 GHz
Bild 4-1 Nutzbare Frequenzlagen verschiedener Übertragungsmedien
4.2 Trägermodulation
109
Angefangen mit der einfachen Zweidrahtleitung für den Teilnehmeranschluss hat die Nachrichtentechnik mit der optischen Übertragung mit Lichtwellenleitern den Frequenzbereich bis hin zum sichtbaren Licht erschlossen. Dabei ging der technologische Fortschritt von der Patentanmeldung des Telefons durch Bell 1876 bis zur ersten industriellen Produktion von Lichtwellenleitern 1975 stets einher mit einem wachsenden Verkehrsbedarf. Ein Ende dieses Trends ist bis heute nicht zu erkennen. Die Einführung des hochauflösenden Fernsehens (HDTV, High Definition TV) und seine preiswerte Verteilung über Kabel und Funk stellt eine neue übertragungstechnische Herausforderung dar. Die Signalausbreitung ist in den physikalischen Medien stark unterschiedlich, so dass verschiedene Technologien und Übertragungsverfahren zum Einsatz kommen. Um den Rahmen einer Einführung nicht zu sprengen, beschränkt sich dieser Abschnitt auf einfache Beispiele. Exemplarisch werden die in der Nachrichtentechnik grundlegenden Prinzipien der Amplitudenmodulation, der Frequenzmodulation und des Frequenzmultiplex vorgestellt. Zum Schluss wird ein Ausblick auf die zunehmend wichtiger werdenden digitalen Modulationsverfahren gegeben. Anmerkung: Einen Einstieg in die weiterführende Literatur findet man beispielsweise in [Klo01], [MäGö02] und [OhLü07]. In [Kam08] und [PrSa94] wird die Nachrichtenübertragung mehr aus theoretischer Sicht behandelt. Grundlagen aus der Hochfrequenztechnik werden in [VlHa93] und [VlHa95] ausführlich dargestellt.
4.2
Trägermodulation
Liegt ein Signal im Basisband vor, z. B. ein Audiosignal am Ausgang eines Mikrofons, wird es in der Regel zur Übertragung über größere Entfernungen in den Bereich hoher Frequenzen verschoben. Ein Beispiel liefert die Übertragung mit Trägermodulation in der Rundfunk- und Fernsprechtechnik. Bei der Trägermodulation in Bild 4-2 wird im Modulator des Senders die Amplitude, Frequenz oder Phase eines sinusförmigen Trägers entsprechend dem modulierenden Signal variiert. Modulierendes Signal u1(t)
Sender Modulator
Modulationsprodukt
EmpfangsDemoduliertes signal Empfänger Signal
uM(t)
Kanal
Demodulator
ud(t)
uT(t)
Träger
Träger
Bild 4-2 Blockschaltbild einer Übertragung mit Trägermodulation
Je nach Verfahren spricht man von Amplitudenmodulation (AM), Frequenzmodulation (FM) oder Phasenmodulation (PM). In Bild 4-3 sind die Modulationsprodukte für ein Kosinussignal zu finden. Bei der gewöhnlichen AM wird das modulierende Signal der Amplitude des Trägers aufgeprägt. u AM (t )
>u1 (t ) U 0 @ uT (t )
(4.1)
110
4 Modulation eines sinusförmigen Trägers
mit dem Träger uˆT cos(ZT t MT )
uT (t )
(4.2)
mit der Trägerkreisfrequenz ZT und der Trägeranfangsphase MT . Eintonsignal
AM-Signal mit U0 = 0 uAM(t)
u1(t)
t
t
FM-Signal
Träger uT(t)
uFM(t) t
t
Bild 4-3 AM- und FM-Modulation eines Sinusträgers mit einem Eintonsignal
Dagegen besitzt das FM-Signal eine konstante Amplitude. Die Nachricht wird der Phase des Trägers, genauer der Momentanfrequenz, aufgeprägt. u FM (t )
t ª º uˆT cos «ZT t 2S'F u1 (W )dW » «¬ »¼ 0
³
(4.3)
Bei der FM ist das modulierende Signal in den Abständen der Nulldurchgänge oder äquivalent in der Momentanfrequenz des Trägers enthalten. Das PM-Signal ist dem FM-Signal prinzipiell ähnlich. Beide Modulationsverfahren sind eng miteinander verwandt und werden unter dem Begriff Winkelmodulation zusammengefasst. Im Unterschied zur einfacheren AM sind die FM und die PM nichtlineare Modulationsverfahren, deren Beschreibungen und insbesondere Demodulationsverfahren deutlich aufwändiger sind. Das Gegenstück zum Modulator bildet im Empfänger der Demodulator, siehe Bild 4-2 rechts. Er hat die Aufgabe, das Empfangssignal so aufzubereiten, dass die Sinke die für sie bestimmte Nachricht erhält. Der Demodulator stellt das kritische Element in der Übertragungskette dar, in dem der größte Aufwand getrieben werden muss. Dies gilt insbesondere, wenn das Signal im Kanal verzerrt und/oder durch Rauschen gestört wird. Wird im Empfänger die Nachbildung des Trägers zur Demodulation benutzt, spricht man von kohärenter ansonsten von inkohärenter Demodulation. Anmerkungen: (i) Allgemein lässt sich sagen, dass die kohärente Demodulation da sie Vorwissen über das Empfangssignal benutzt bei kleiner Störung eine bessere Empfangsqualität liefert als die inkohärente. Sie ist jedoch aufwändiger, denn sie benötigt zur Trägernachbildung eine Synchronisationseinrichtung. Und sie ist weniger robust, weil größere Störungen zum Verlust der Synchronisation führen können. (ii)
4.3 Amplitudenmodulation
111
Eine Baugruppe mit Modulator und Demodulator für eine Zweiwegekommunikation wird Modem genannt. (iii) In der Übertragungstechnik werden auch andere Träger eingesetzt, wie z. B. Impulse bei der optischen Übertragung oder der Basisbandübertragung in Abschnitt 5. Zur Unterscheidung spricht man von Sinusträgermodulation bzw. Pulsträgermodulation. (iv) Eine Neuentwicklung ist die Impulsübertragung mit UWB (Ultra-Wide Band), siehe IEEE 802.15.3. Mit besonders kurzen Impulsen wird ein leistungsschwaches, breitbandiges Funksignal zur Datenübertragung über wenige Meter erzeugt.
4.3
Amplitudenmodulation
Der Beginn des öffentlichen Rundfunks Anfang der 1920er Jahre ist mit der Amplitudenmodulation verknüpft. Sie war damals für Audiosignale praktisch einsetzbar und erlaubte Rundfunkempfänger mit einfachen Hüllkurvendetektoren. Im Folgenden wird das Prinzip der AM und ihre Anwendung in der Trägerfrequenztechnik kurz eingeführt. Hierbei wird auch der Nutzen der Signalbeschreibung im Frequenzbereich deutlich.
4.3.1
Prinzip der Amplitudenmodulation
Bei der AM wird ein in der Regel niederfrequentes Signal, z. B. ein Audiosignal, mit einem hochfrequenten sinusförmigen Träger, z. B. im Mittelwellenbereich bei etwa 1 MHz, übertragen. Das Grundprinzip lässt sich gut anhand zweier Kosinussignale erläutern: Dem modulierenden Signal u1 (t )
uˆ1 cos(Z1t )
(4.4)
uT (t )
uˆT cos(ZT t )
(4.5)
und dem Träger
mit der Trägerkreisfrequenz ZT mit
ZT Z1 Der Einfachheit halber werden hier die Anfangsphasen zu null angenommen. Trägersignal und modulierendes Signal werden im Modulator miteinander multipliziert. Der Modulator (Mischer) besteht aus einem nichtlinearen Bauelement, wie z. B. einer Diode, und einem Filter zur Abtrennung der unerwünschten Spektralanteile aus dem im nichtlinearen Bauelement entstehenden Signalgemisch. Bild 4-4 veranschaulicht das Konzept unter Verwendung eines idealen Multiplizierers.
(4.6)
u1(t)
uM(t) = u1(t)uT(t)
uT(t) Bild 4-4 Trägermultiplikation
Das Modulationsprodukt ergibt sich nach trigonometrischer Umformung uM (t )
uˆ1uˆT ªcos ZT Z1 t cos ZT Z1 t º¼ 2 ¬
(4.7)
Darin treten als neue Kreisfrequenzen die Differenz- und Summenkreisfrequenzen ZT r Z1 auf. In Bild 4-5 sind die (zweiseitigen) Spektren der Signale dargestellt. Im Zusammenhang
112
4 Modulation eines sinusförmigen Trägers
mit der Fourier-Transformation ist es üblich, diskrete Frequenzkomponenten durch die Impulsfunktion anzugeben, siehe Abschnitt 2.12.1. Die zugehörigen Amplituden werden meist an die Impulse geschrieben oder durch die Impulshöhe symbolisiert. Der Faktor S ergibt sich aus den Rechenregeln der Fourier-Transformation. cos Z0 t l S ª¬G Z Z0 G Z Z0 º¼
(4.8)
Anmerkung: Die Korrespondenz (4.8) überprüft man durch Einsetzen der rechten Seite in die Definitionsgleichung der inversen Fourier-Transformation (2.71) und Anwenden der Rechenregeln für die Impulsfunktion in Tabelle 2-2 und der eulerschen Formel (2.3).
Im unteren Teilbild ist das Spektrum des Modulationsproduktes (4.7) abgebildet. Es treten Frequenzkomponenten links und rechts von der Trägerkreisfrequenz ZT im Abstand Z1 auf. U1( jZ), UT ( jZ)
S uˆT
S uˆ1 ZT
Z1
Z1
UM ( jZ)
ZT Z1
ZT + Z1
Z
ZT
S ZT Z1
uˆ1uˆT 2
ZT + Z1
Z
Bild 4-5 Spektrum des modulierenden Signals U1( jZ), des Trägersignals UT ( jZ) und des Modulationsproduktes UM ( jZ)
4.3.2
Modulationssatz
Das Beispiel mit modulierendem Kosinussignal lässt sich verallgemeinern. Den analytischen Zusammenhang liefert der Modulationssatz der Fourier-Transformation x(t ) e jZ0t
l
X j >Z Z0 @
(4.9)
und seine Anwendung auf die Kosinusfunktion x(t ) cos(Z0 t ) l
1 ª X j >Z Z0 @ X j >Z Z0 @ º¼ 2 ¬
(4.10)
mit X( jZ) der Fourier-Transformierten von x(t). Anmerkung: Den Modulationssatz verifiziert man durch Einsetzen in die Definitionsgleichung der Fourier-Transformation (2.70). Die Anwendung auf die Kosinusfunktion erschließt sich aus der eulerschen Formel (2.3).
Die Multiplikation mit der Kosinusfunktion verschiebt in Bild 4-6 das Spektrum des modulierenden Signals aus dem Basisband symmetrisch um die Trägerkreisfrequenz. Man erhält ein oberes Seitenband (oS) in der Regellage, wie beim modulierenden Signal, und ein unteres Seitenband (uS) in der Kehrlage, d. h. frequenzmäßig gespiegelt. Wegen den beiden Seitenbän-
4.3 Amplitudenmodulation
113
dern wird die AM nach (4.10) auch Zweiseitenband-AM genannt. Man beachte auch die Gewichtung des Spektrums mit dem Amplitudenfaktor 1/2. Anmerkungen: (i) Die Nachrichtentechnik bedient sich einer vereinfachenden Darstellung der im allgemeinen komplexwertigen Spektren durch Dreiecke, wobei die Dreiecke mit zunehmender Frequenz ansteigen. (ii) Der Spiegelungseffekt ergibt sich nicht nur rein formal, sondern ist auch messtechnisch nachzuweisen. In der Funkkommunikation wurden früher gespiegelte Frequenzbänder übertragen, um das Abhören zu erschweren. Das Verfahren wird Sprachverschleierung, engl. Scrambling, genannt. U1( jZ) A Zg
Z
Zg
Multiplikation mit dem Kosinusträger UM ( jZ) A/2
ZT Zg ZT ZT +Zg
uS
ZT Zg
oS
ZT
Z
ZT + Zg
Bild 4-6
Betragsspektrum des modulierenden Signals U1( jZ) und des Modulationsproduktes UM ( jZ) (Vereinfachte Darstellung)
4.3.3
Gewöhnliche Amplitudenmodulation
Ein einfaches Beispiel erklärt das Prinzip der AM-Übertragung und der nachfolgenden kohärenten Demodulation bzw. inkohärenten Demodulation mit dem Hüllkurvendemodulator. In Bild 4-7 ist das Blockschaltbild des Senders dargestellt. Das modulierende Signal wird dem AM-Modulator zugeführt. Zunächst wird durch Addieren der Gleichspannung U0 der Arbeitspunkt eingestellt. Im nachfolgenden Mischer geschieht die Frequenzumsetzung mit dem Träger zum AM-Signal u AM (t )
>u1 (t ) U 0 @ uT (t )
ª u1 (t ) U 0 uˆT «1 m max u1 (t ) «¬
º » cos(ZT t ) »¼
(4.11)
mit dem Modulationsgrad m
max u1 (t ) U0
(4.12)
Anmerkung: In Bild 4-7 wurde die Addition mit der Gleichspannung gesondert gezeichnet. Oft wird nur das Symbol des Mischers zur Darstellung der AM-Modulation benutzt.
Im Modulationsprodukt ist der Träger mit der Amplitude U0 enthalten. Man spricht deshalb hier von einer AM mit Träger. Aus historischen Gründen ist auch die Bezeichnung gewöhnliche AM gebräuchlich. Für ein Signal mit der Amplitude 1, der Trägeramplitude ebenfalls 1 und den normierten Gleichspannungen U0 = 0,5 und 1,5 ergeben sich beispielhaft die AM-Signale in Bild 4-8.
114
4 Modulation eines sinusförmigen Trägers
Gleichspannung U0 Modulierendes Signal u1(t)
AM-Signal
AM-Mod.
uAM(t)
Träger uT(t)
G Bild 4-7 AM-Modulation mit Träger (Sender)
Ist der Modulationsgrad m kleiner eins, so bewegt sich die Einhüllende des modulierten Trägers im grau unterlegten Streifen in der Bildmitte. Ist der Modulationsgrad größer eins, so tritt die unten sichtbar eine Übermodulation auf. Wie noch gezeigt wird, führt die Übermodulation zu Signalverzerrungen bei der Hüllkurvendemodulation. Der Modulationsgrad m = 1 stellt den Grenzfall dar. Die tatsächliche Wahl des Modulationsgrades hängt von den praktischen Randbedingungen ab. Ein zu kleiner Modulationsgrad macht das AM-Signal anfälliger gegen Störungen durch Rauschen, da die Amplitude des demodulierten Signals proportional zum Modulationsgrad ist.
1
Modulierende Zeit
0 -1
AM-Signal mit U0 = 1,5
Einhüllende 1+m
2
1m Zeit
0 -2
Modulierter Träger AM-Signal mit U0 = 0,5
2 0
Übermodulation Zeit
-2
Bild 4-8 AM-Signal bei verschiedenen Modulationsgraden m (Vereinfachte Darstellung)
Das Spektrum des Modulationsproduktes der gewöhnlichen AM ist in Bild 4-9 skizziert. Man erkennt insbesondere den Trägeranteil und die beiden Seitenbänder oberhalb bzw. unterhalb des Trägers. Dementsprechend wird die AM nach Bild 4-7 auch Zweiseitenband-AM mit Träger genannt.
4.3 Amplitudenmodulation
115
UAM ( jZ) Träger
SU0
A/2
Z ZT Z1
ZT + Z1
ZT Z1
0
ZT + Z1
Bild 4-9 Spektrum des modulierten Signals der Zweiseitenband-AM mit Träger (Vereinf. Darstellung)
4.3.4
Kohärente AM-Demodulation
Für die kohärente Demodulation, die Synchrondemodulation, wird das Trägersignal im Empfänger frequenz- und phasenrichtig benötigt. Hierzu ist im Empfänger eine aufwendige Synchronisation erforderlich. Steht eine Nachbildung des Trägers zur Verfügung, kann die Demodulation ebenso wie die Modulation erfolgen, siehe Bild 4-10.
AM-Signal
u2(t)
uAM(t) Träger uT(t)
Tiefpass
ud(t)
U0/2 Gleichspannung
Zg,TP
G
Demod. Signal
u3(t)
Bild 4-10 Kohärenter AM-Demodulator
Multipliziert man das AM-Signal mit dem Träger
u2 (t ) u AM (t ) cos(ZT t )
1 2
>u1 (t ) U 0 @ cos2 (ZT t ) >u1 (t ) U 0 @ >1 cos(2ZT t )@
(4.13)
schiebt sich das Spektrum ins Basisband, wie in Bild 4-11 illustriert. Dabei entstehen auch Spektralanteile bei r 2ZT. Diese können durch einen Tiefpass mit der Grenzkreisfrequenz Zg vom gewünschten Signal abgetrennt werden. Zieht man noch den Gleichanteil U0 / 2 ab, so ist das demodulierte Signal proportional zum modulierenden Signal.
Tiefpass
U2( jZ)
Gleichanteil
SU0
A/2 2ZT
0
Zg Zg,TP
2ZT
Z
Bild 4-11 Kohärente AM-Demodulation im Frequenzbereich (Vereinfachte Darstellung)
116
4 Modulation eines sinusförmigen Trägers
4.3.5
Inkohärente AM-Demodulation mit Hüllkurvendetektor
Sind gewisse Abstriche an der Übertragungsqualität tolerierbar, wie beispielsweise beim AMRundfunk, stellt die inkohärente Demodulation mit einem Hüllkurvendetektor eine preiswerte Alternative dar. Bei der inkohärenten AM-Demodulation wird die Einhüllende des Empfangssignals gebildet. Eine Nachbildung des Trägers im Empfänger ist nicht notwendig. Bild 4-12 zeigt das Prinzipschaltbild des Hüllkurvendetektors. Das demodulierte Signal wird im Wesentlichen an der Kapazität C1 abgegriffen. Durch den Gleichrichter werden die negativen Halbwellen des AM-Signals abgeschnitten. Es entsteht im Prinzip das in Bild 4-12 grau unterlegte Signal. Während der positiven Halbwelle lädt sich die Kapazität C1. In der nachfolgenden negativen Halbwelle kann sich die Kapazität über den Widerstand R1 teilweise entladen. Die Dimensionierung von C1 und R1 geschieht so, dass einerseits die hochfrequente Schwingung des Trägers geglättet wird und andererseits die Spannung an der Kapazität der zum Träger vergleichsweise sehr langsamen Variation der Einhüllenden folgen kann. Die nachfolgende Kapazität hat die Aufgabe, den Gleichanteil U0 abzutrennen. Bild 4-12 illustriert den typischen Verlauf eines Signalausschnittes am Ausgang des Hüllkurvendetektors. Kapazität zur Gleichspannungsunterdrückung
Gleichrichter
uAM(t) u2(t)
C
uAM(t) C1
R
R1
u2(t)
t
Bild 4-12 Glättende Wirkung des Hüllkurvendetektors (links) in verinfachter Darstellung (rechts)
4.3.6
Quadraturamplitudenmodulation
Bei der Übertragung von Daten über Telefonkabel und Richtfunkstrecken steht eine hohe spektrale Effizienz im Vordergrund. Häufig wird die Quadraturamplitudenmodulation (QAM) eingesetzt. Die QAM ist eine direkte Erweiterung der bisherigen Überlegungen. Sie erschließt sich am schnellsten aus dem Blockschaltbild des Modulators und des Demodulators in Bild 4-13. Der QAM-Modulator besitzt zwei Signalzweige für die so genannten Quadraturkomponenten. Einen Zweig für die Normalkomponente mit der Modulation des Trägers (Kosinusfunktion) und einen für die Quadraturkomponente mit der Modulation des um S / 2-phasenverschobenen Trägers (Sinusfunktion). Beide Signalzweige werden getrennt AM-moduliert. Am Ausgang des Modulators wird das Signal gesendet s (t )
u1 (t ) cos(ZT t ) u2 (t ) sin(ZT t )
(4.14)
Für die Analyse wird angenommen, dass das Sendesignal ungestört zum Demodulator gelangt. Der Demodulator arbeitet kohärent; die Trägernachbildung ist synchron zum Träger im Empfangssignal. Normal- und Quadraturkomponente werden getrennt auf zwei Signalwegen demoduliert.
4.3 Amplitudenmodulation Normalkomponente
u1(t) +
y1(t) 2cos(ZTt)
Sendesignal s(t)
Träger
S/2 u2(t)
117
Quadraturkomponente
r(t) Empfangssignal
Träger
S/2
TrägerSynchronisation
2sin(ZTt) y2(t)
Bild 4-13 QAM-Modulator und QAM-Demodulator
Im oberen Signalzweig wird das Empfangssignal, im Idealfall r(t) = s(t), mit dem Kosinussignal des Trägers multipliziert. Es ergeben sich die Produkte von Sinus- und Kosinusfunktionen zum Träger. Im unteren Signalzweig geschieht entsprechendes. Mit den bekannten Produktformeln von Sinus- und Kosinusfunktionen und wegen der anschließenden idealen Tiefpassfilterung gibt es kein Übersprechen zwischen den Komponenten. 2 cos ZT t u1 (t ) cos ZT t
u1 (t ) ª¬1 cos 2ZT t º¼
TP
2 cos ZT t sin ZT t
sin 0 sin 2ZT t
TP
2 sin ZT t u2 (t ) sin ZT t
u2 (t ) ª¬1 cos 2ZT t º¼ o u2 (t )
o u1 (t )
o 0
(4.15)
TP
Man spricht deshalb auch von einer Übertragung mit orthogonalen Trägern. Im ungestörten Fall und perfekter Träger-Synchronisation sind die demodulierten Quadraturkomponenten gleich den gesendeten. Damit ist es prinzipiell möglich zwei Nachrichtensignale gleichzeitig im selben Frequenzband störungsfrei zu übertragen. Anmerkung: Für die Quadraturkomponenten sind unterschiedliche Sprechweisen gebräuchlich: Inphase/ Kophasal-Komponente (In-phase Component/Signal) und Quadratur-Komponente (Quadrature(-phase) Component/Signal). Daraus leiten sich auch die Kurzbezeichnungen I-Q- in verschiedenen Zusammensetzungen ab, wie I-Q-Modulator und I-Q-Demodulator. Betrachtet man primär die Umsetzung des Basisbandsignals in die Quadraturkomponenten bzw. umgekehrt, so spricht man von einem Quadratur-Mischer (Quadrature Mixer, I-Q-Mixer).
4.3.7
Trägerfrequenztechnik in der Telefonie
Die Trägerfrequenztechnik (TF-Technik) ermöglicht es, verschiedene Signale gleichzeitig über ein Medium, z. B. Koaxialkabel, zu übertragen. Hierbei werden die Signale im Spektrum nebeneinander im Frequenzmultiplex angeordnet. Eine wichtige Anwendung findet die TFTechnik in der Telefonie, bei der gemäß internationaler Normen bis zu 10.800 Gesprächskanäle in einem Koaxialkabel gemeinsam übertragen werden. Dadurch teilen sich auch 10.800 Teilnehmer die Übertragungskosten. Erst durch die Multiplextechnik wird Telekommunikation über größere Entfernungen erschwinglich. Das Prinzip der TF-Technik wird am Beispiel einer Vorgruppe vorgestellt. In einer Vorgruppe werden drei Gesprächskanäle zusammengefasst, siehe Bild 4-14. Dabei werden die Basisbandsignale mit Spektralkomponenten im Bereich von 300 Hz bis 3400 Hz mit den Trägern bei fT1
118
4 Modulation eines sinusförmigen Trägers
= 12 kHz, fT2 = 16 kHz und fT3 = 20 kHz multipliziert. Daran schließen sich Bandpassfilter (BP) an, die jeweils nur das obere Seitenband passieren lassen. Die zugehörigen Spektren sind in Bild 4-15 schematisch dargestellt. Das oberste Teilbild zeigt das Spektrum des Basisbandsignals mit der unteren Grenzfrequenz fu = 300 Hz und der oberen Grenzfrequenz fo = 3400 Hz. Das mittlere Teilbild gehört zu den Bandpass-Signalen nach der Multiplikation mit dem Träger. Zuletzt zeigt das untere Teilbild das Spektrum nach der Filterung. Nur das obere Seitenband wird übertragen. Dies geschieht ohne Informationsverlust, da die Spektren reeller Signale symmetrisch sind. Oberes und unteres Seitenband enthalten jeweils dieselbe Information. Durch die Einseitenbandübertragung (Einseitenbandmodulation, ESB-AM) wird die Übertragungskapazität verdoppelt.
a
b
c
c
cos(2SfT1t)
BP 1
Vorgruppe
d
cos(2SfT2t)
BP 2
e
cos(2SfT3t)
BP 3
Bild 4-14 Trägerfrequenztechnik in der Telefonie Vorgruppenbildung
Bild 4-15 zeigt rechts das resultierende Spektrum der Vorgruppe in der für den Frequenzmultiplex typischen Anordnung der Teilbänder (Kanäle). Die Spektralanteile bei negativen Frequenzen wurden in den Zeichnungen weggelassen. a) TP-Spektrum 0 fu fo b) BP-Spektrum
f fT1 f
0 |HBP( f )| c) ESB-Spektrum
c fT1
d fT2
e
f
fT3
f 0
Bild 4-15 Spektren zur Vorgruppenbildung in Bild 4-14 und Bandpass-Spektrum der Vorgruppe im Frequenzmultiplex (Vereinfachte Darstellung)
In Tabelle 4-1 ist die Hierarchie der TF-Systeme zusammengestellt. Vier Vorgruppen werden zu einer Gruppe des Z12-Systems zusammengefasst, usw. Der Vorteil der hierarchischen Gruppenbildung liegt darin, dass die Modulation und Demodulation für das nächst höhere TFSystem für die gesamte Gruppe gemeinsam vorgenommen werden kann. Der Nachteil besteht in der mangelnden Flexibilität. Damit ist gemeint, dass wenn auch nur ein Gesprächskanal mehr übertragen werden soll als die Gruppe fasst, so ist das Frequenzband einer ganzen Gruppe bereitzustellen und gegebenenfalls auf die nächste Hierarchieebene zu wechseln. Dies kann zu einer unbefriedigenden Auslastung der Übertragungseinrichtungen führen. In Tabelle 4-1 sind zusätzlich die typischen Entfernungen zwischen zwei Verstärkern eingetragen. Je mehr Gespräche gleichzeitig übertragen werden, desto höhere Frequenzen werden benutzt. Da die Leitungsdämpfung mit zunehmender Frequenz ansteigt, müssen Verstärker in immer kürzeren Abständen eingesetzt werden. Die TF-Technik stellt hohe Qualitätsansprüche an die analogen Übertragungseinsrichtungen, wie Verstärker, Filter und Leitungen. Heute ist
4.4 Frequenzmodulation
119
sie deshalb in vielen Ländern durch die robustere und flexiblere digitale Übertragungstechnik abgelöst. Tabelle 4-1 Trägerfrequenzsysteme in der analogen Telefonie Trägerfrequenzsystem Z 12
Kabelleitung Symmetrische Leitung
V 60 V 120 V 300 V 960 V 2700 * V 10800 *
Koaxialkabel
Bandbreite 6 ... 54 kHz 60 ... 108 kHz 12 ... 252 kHz 12 ... 552 kHz 60 ... 1 300 kHz 60 ... 4 028 kHz 316 ... 12 388 kHz 4 332 ... 59 684 kHz
Verstärkerabstand 32 km 18 km 18 km 8 km 9 km 4,5 km 1,5 km
Zweidrahtsystem (Z) mit getrennter Frequenzlage der Gesprächsrichtungen und Vierdrahtsystem (V) mit Frequenzgleichlage der Gesprächsrichtungen; * 1 bzw. insgesamt bis zu 6 analoge TV-Kanäle möglich
4.4
Frequenzmodulation
4.4.1
Modulation der Momentanfrequenz des Trägers
Die Frequenzmodulation, kurz FM genannt, stellt einen wichtigen Meilenstein in der Entwicklung zur modernen Kommunikationsgesellschaft dar. 1935 demonstrierte Armstrong1 in den USA die überlegene Qualität der FM-Übertragung. Konsequenterweise wurde die FM-Übertragung zum Standard in der mobilen Kommunikation im 2. Weltkrieg. Ihre überzeugende Klangqualität verschaffte der FM nach dem 2. Weltkrieg raschen Einzug in die Rundfunktechnik. Seit 1948 wird sie im UKW-Hörrundfunk in Mitteleuropa eingesetzt. Weitere Anwendungen finden sich in der Magnetbandaufzeichnung, der Mobilkommunikation, der Tonübertragung im Fernsehrundfunk und der drahtlosen Tonübertragung mit Infrarot-Licht für Kopfhörer. Bei der Frequenzmodulation wird die Nachricht der Phase des Sinusträgers aufgeprägt. u FM (t )
uˆT cos\ FM (t )
t ª º uˆT cos «ZT t 2S'F ³ u (W )dW » «¬ »¼ 0
(4.16)
Da die Nachricht in das Argument der Kosinusfunktion eingebracht wird, handelt es sich um eine nichtlineare Modulation. Es wird direkt die Momentankreisfrequenz moduliert.
Z FM (t )
1
d \ FM (t ) ZT 2S 'F u (t ) dt
(4.17)
Edwin Howard Armstrong: *1890, †1954, US-amerikanischer Elektrotechniker, Pionier der Nachrichtentechnik.
120
4 Modulation eines sinusförmigen Trägers
Das modulierende Signal wird üblicherweise auf seinen Maximalwert normiert, max |u(t)| = 1. Zur Parametrisierung der FM wird der Frequenzhub 'F verwendet. Er ist gleich der maximalen Abweichung der Momentanfrequenz von der Trägerfrequenz. Der Frequenzhub ist jedoch nicht mit der Bandbreite des FM-Signals gleichzusetzen, obwohl er einen wichtigen Einfluss auf sie ausübt. Bezieht man den maximalen Frequenzhub auf die Grenzfrequenz fg des modulierenden Signals, so erhält man den Modulationsindex.
K
'F fg
(4.18)
Zur praktischen Realisierung der FM-Modulation stehen verschiedene Möglichkeiten zur Verfügung. Beispielsweise kann die Kapazität einer Varaktordiode in einem Schwingkreis durch das modulierende Signal gesteuert werden. Oder es wird ein spannungsgesteuerter Oszillator (VCO, Voltage Controlled Oscillator) mit einem Schwingquarz verwendet. Beispiel FM-Signal für eine Eintonmodulation
Das Prinzip der FM-Modulation kann am Beispiel eines Eintonsignals gut veranschaulicht werden. u (t )
cos(Z1t )
(4.19)
Es folgt für die Phase des FM-Signals t
\ FM (t ) ZT t 2S'F ³ cos(Z1W )dW 0
ZT t
'F sin(Z1t ) ZT t K sin(Z1t ) f1
(4.20)
Die Phase und das zugehörige FM-Signal sind in Bild 4-16 zusehen. Für eine übersichtliche Darstellung wurden folgende Zahlenwerte gewählt. Der Zeitausschnitt ist auf eine Periode des modulierenden Signals begrenzt. Der Frequenzhub und die Frequenz des Trägers sind 'F = 4 f1 bzw. 'F = 8 f1. Für den Zeitausschnitt t = 1 / f1 ergibt sich insgesamt der Phasenzuwachs von 2S 8 | 50, 2 im oberen Bild. Zum Vergleich wird im Bild die Gerade zur Phase des unmodulierten Trägers ebenfalls gezeigt. Zunächst wird durch das modulierende Signal (4.19) die Momentanfrequenz, die Steigung der Phase, erhöht. Damit wächst die Phase (4.20) schneller als die des unmodulierten Trägers. Bei tf1 = 0,25 wechselt das Vorzeichen des modulierenden Signals. Der Phasenzuwachs verlangsamt sich. Nach tf1 = 0,5 ist die Phase des FM-Signals gleich der des unmodulierten Trägers, da das Integral in (4.20) über die erste halbe Periode der Kosinusfunktion den Wert null liefert. Den letzten Überlegungen entsprechend, entwickelt sich die Phase weiter. Jeweils nach einer halben Periode, gemäß der Nullstellen der Sinusfunktion in (4.20), stimmen die Phasen des modulierten und des unmodulierten Trägers überein. Im unteren Bild ist das FM-Signal zu sehen. Da die Momentanfrequenz zunächst größer ist als die des unmodulierten Trägers, ändert sich das FM-Signal schneller. Die Abstände der Nulldurchgänge sind kürzer. Dann jedoch nimmt die Steigung der Phase des FM-Signals ab. Die Abstände der Nulldurchgänge verlängern sich.
4.4 Frequenzmodulation
121
Bei tf1 = 0,5 ist die Momentanfrequenz am geringsten. Die Nulldurchgänge des FM-Signals haben dort den größten Abstand voneinander. Danach nimmt die Momentanfrequenz wieder zu und die Abstände der Nulldurchgänge ab. Bei der FM-Modulation ist die Nachricht in den Abständen der Nulldurchgänge enthalten.
\FM(t) 40
FM 20
uT 0
0
0,2
0,4
uT
1
0,6
0,8
tf1
1
0,8
tf1
1
FM
uFM(t) 0
-1
0
0,2
0,4
0,6
Bild 4-16 Phase und Signal zur Frequenzmodulation (FM) für ein modulierendes Eintonsignal im Vergleich zum unmodulierten Träger (uT)
Beispiel FM-Signal für ein Mehrtonsignal
Die FM-Modulation veranschaulicht ein weiteres Beispiel, das Mehrtonsignal in Bild 4-17, vergleiche Bild 4-8. Um die Wirkung der FM-Modulation zu verdeutlichen, sind die Nulldurchgänge des FM-Signals hervorgehoben. Man erkenn wieder, die Nachricht ist in den Abständen der Nulldurchgänge enthalten: Positive Flächenzuwächse der Modellierenden verdichten die Abstände, während negative die Abstände auseinanderziehen. Man beachte auch die konstante Einhüllende des FM-Signals, die für viele Anwendungen, wie dem Mobilfunk, vorteilhaft ist, vergleiche auch Bild 4-8. Modulierende 1
Zeit
0 -1 1 0
FM-Signal Zeit
-1
Bild 4-17 Frequenzmodulation für ein modulierendes Mehrtonsignal (vereinfachte Darstellung)
122
4.4.2
4 Modulation eines sinusförmigen Trägers
Spektrum und Bandbreite von FM-Signalen
Das Spektrum von FM-Signalen kann nicht so einfach wie bei der AM-Modulation angegeben werden, da ein nichtlineares Modulationsverfahren vorliegt. Im Falle eines modulierenden Eintonsignals ist jedoch die Berechnung möglich, weil das Eintonsignal (4.19) periodisch ist, und sich die Periodizität über die Phase (4.20) auf das FM-Signal überträgt. Also das FMSignal durch eine Fourier-Reihe dargestellt werden kann. Um den geplanten Rahmen einer Einführung nicht zu sprengen, wird direkt das Ergebnis vorgestellt. Man erhält u FM (t )
uˆT
f
¦
n f
J n (K ) cos > (ZT nZ1 )t @
(4.21)
mit den Fourier-Koeffizienten Jn(K), den Bessel- oder Zylinderfunktionen n-ter Ordnung 1. Gattung [BSMM99]. Einige Besselfunktionen sind beispielhaft in Bild 4-18 dargestellt. Für das Spektrum von FM-Signalen sind darin zwei Beobachtungen wichtig: Die Besselfunktionen kommen mit wachsender Ordnung immer flacher aus dem Ursprung heraus. Deswegen nehmen die Fourier-Koeffizienten ab einer gewissen Ordnung n mit wachsendem n rasch ab. Damit ist der größte Teil der Signalleistung auf relativ wenige Koeffizienten um die Trägerfrequenz konzentriert. Die Besselfunktionen besitzen Nulldurchgänge, so dass für bestimmte Werte des Modulationsindex gewisse Frequenzkomponenten null sind, wie z. B. J0(2,4048) = 0.
1
Jn(K)
n=0 1
0,5
2 3
4
K
0 0,5 0
2,40 3,83 5
10
15
20
Bild 4-18 Besselfunktionen n-ter Ordnung 1. Gattung
Wie in Abschnitt 2.6 diskutiert, besitzen periodische Signale Linienspektren, wobei die Amplituden der Spektrallinien proportional zu den Fourier-Koeffizienten sind. Beispiele für die Betragsspektren von FM-Signalen sind in Bild 4-19 zu sehen. Die Trägerfrequenz und die Frequenz des modulierenden Eintonsignals wurden so gewählt, dass die oben angesprochenen Effekte deutlich erkennbar sind. In allen vier Beispielen ist das Aussterben der Spektrallinien für größere Frequenzabstände vom Träger, d. h. für größere Werte von n, zu sehen. Ebenso deutlich ist die Verbreiterung der Spektren mit wachsendem Modulationsindex K zu erkennen. Jedoch bleibt der größte Anteil der Leistung auf wenige Spektrallinien symmetrisch um die Trägerfrequenz begrenzt.
4.4 Frequenzmodulation 0,5
123
Bc
|UFM ( f )|
0,5
K=1
K = 2,40
|UFM ( f )| Bc
0,25
0,25
0 0
10
in kHz 20
0
f
0
0,5
10
in kHz 20
f
0,5
K = 3,83
|UFM ( f )|
|UFM ( f )|
Bc 0,25
K=5 Bc
0,25
0
0 0
f 0
10
in kHz 20
f 10
in kHz 20
Bild 4-19 Berechnete Betragsspektren von FM-Signalen bei modulierendem Eintonsignal mit fS = 1 kHz und der Trägerfrequenz fT = 10 kHz
Eine Abschätzung der Bandbreite liefert die Carson-Formel mit der Carson-Bandbreite BC. Mit der parsevalschen Gleichung (2.19) kann im Beispiel der Eintonmodulation die Zahl der Spektrallinien um die Trägerfrequenz bestimmt werden, so dass mindestens 98% der Leistung des FM-Signals erfasst werden. BC
2(K 1) f g
(4.22)
Die resultierenden Carson-Bandbreiten sind in Bild 4-19 eingetragen. Messungen an FMSignalen im UKW-Rundfunk zeigen, dass die Carson-Bandbreite auch bei modulierenden Audiosignalen zur Abschätzung der Bandbreite verwendet werden darf. Es ergeben sich keine Linienspektren mehr, jedoch bleibt die Energie des FM-Signals im Wesentlichen auf den Bereich der Carson-Bandbreite konzentriert. In Bild 4-19 erkennt man weiter, dass für K = 2,4048 der Träger im FM-Signal unterdrückt wird. Für K = 3,8317 fehlen die Spektralanteile bei fT r f1. Anmerkung: J. R. Carson zeigte in den 1920er Jahren in den USA theoretisch, dass die FM-Modulation stets eine höhere Bandbreite als die Einseitenbandmodulation benötigt. Die überlegene Qualität wurde jedoch nicht erkannt, so dass die FM-Modulation zunächst nicht beachtet wurde.
Die Carson-Formel bietet die Gelegenheit, eine nachrichtentechnische Grundtatsache anzusprechen. Wir vergleichen dazu die Bandbreite des FM-Signals mit der Bandbreite des Signals bei Einseitenbandmodulation (ESB), d. h. der Bandbreite des modulierenden Signals.
BC BESB
2 (K 1) f g fg
2 (K 1)
(4.23)
Es ergibt sich eine Bandaufweitung, die durch die Wahl des Modulationsindex K eingestellt werden kann.
124
4 Modulation eines sinusförmigen Trägers
In technischen Übertragungssystemen kann die Bandbreite in gewissen Grenzen gegen die Übertragungsqualität und die Informationsrate ausgetauscht werden, siehe auch Kanalkapazität nach Shannon in Abschnitt 5.9. Daher rührt auch die überlegene Qualität der FM im Vergleich zur AM. Man spricht von einem Modulationsgewinn. Zu Definition des Modulationsgewinnes wird das Verhältnis der Leistung des Nachrichtensignals zu der des Störsignals (Geräusch bzw. Rauschen) herangezogen. Man spricht kurz vom Signal-Rausch-Verhältnis oder SNR (Signal-to-Noise Ratio). Der Modulationsgewinn ist definiert als der Quotient aus dem SNR nach der Demodulation (Empfängerausgang) durch das SNR vor der Demodulation (Empfängereingang). Eine Modellrechnung zeigt, dass bei üblichen Übertragungsbedingungen der Modulationsgewinn bei FM proportional zu K 2(K +1) ist. Eine beliebige Steigerung des Modulationsgewinnes ist jedoch nicht möglich, da mit wachsendem Modulationsindex K auch die Bandbreite (4.22) und damit die Leistung der empfangenen Rauschstörung ansteigt. Bei vorgegebener Sendeleistung nimmt dann das SNR am Empfängereingang ab und es zeigt sich die FM-Schwelle. Theoretische Überlegungen und experimentelle Untersuchungen belegen, dass bei unterschreiten des SNR-Wertes am Demodulatoreingang von etwa 10 die demodulierte Nachricht stark gestört ist. Die FM-Schwelle hängt von der Bauart des Empfängers ab. Der SNR-Wert 10 gilt für den konventionellen FM-Empfänger. Durch den Einsatz eines Phasenregelkreises kann die FM-Schwelle deutlich gesenkt werden. Beide Empfängertypen werden im nächsten Abschnitt kurz vorgestellt. Beispiel UKW-Rundfunk
Im UKW-Rundfunk (Ultrakurzwelle) wird der Frequenzhub 75 kHz verwendet. Mit der Grenzfrequenz des Audiosignals von 15 kHz erhalten wir BC
§ 75 kHz · 2¨ 1¸ 15 kHz 180 kHz © 15 kHz ¹
(4.24)
Ein Vergleich mit der Einseitenbandmodulation, deren Bandbreite ja gleich der Bandbreite des modulierenden Signals ist, ergibt eine Bandaufweitung um den Faktor 12. BC BESB AM
180kHz 15kHz
12
(4.25)
In dem für den UKW-Rundfunk vorgegebenen Frequenzspektrum werden somit weniger Programme ausgestrahlt als prinzipiell möglich wären. Für die überlegene Klangqualität wird dies jedoch in Kauf genommen. Anmerkungen: (i) Mit dem Übergang von AM zu FM wird Störfestigkeit gegen Bandbreite eingetauscht. Dies setzt voraus, das Sende- und Empfangseinrichtungen für die Trägersignale und Frequenzbänder bei entsprechend höheren Frequenzen zur Verfügung stehen. In den 1920er und 1930er Jahren wurde der AM-Hör-Rundfunk mit seinem relativ geringen Bandbreitebedarf in den Bändern LW (Langwelle, 148,5… 283,5 kHz), MW (Mittelwelle, 526,5…1606,5 kHz), KW (Kurzwelle, 2,3…26,1 MHz) eingeführt. Erst seit 1949 gibt es in Mitteleuropa den UKW- Rundfunk (Ultrakurzwelle, 87,5…108 MHz) mit der bandspreizenden FM. (ii) Wellenlänge O und Frequenz f stehen in reziprokem Zusammenhang: O = c / f mit der Lichtgeschwindigkeit c | 3 108 m/s im Vakuum. (iii) Der Hör-Rundfunk in Deutschland beruht im Wesentlichen auch heute noch auf den technischen Möglichkeiten vor 60 Jahren. Wegen der weit verbreiteten preiswerten UKW-Empfänger, insbesondere in Autoradios, und dem rasanten technischen Fortschritt konnte sich der digitale Standard T-DAB (Terrestrial Digital Audio Broadcasting) 1. Pilotprojekt mit Sendebetrieb 1995 in den Fernsehkanälen 8 (195-202 MHz) und 12 (223-230 MHz) und im L-
4.4 Frequenzmodulation
125
Band (1452-1492 MHz), Regelbetrieb seit 1999 nicht durchsetzen. Von der WorldDBM, früher World DAB Forum, wird deshalb vorgeschlagen ab 2009 DAB+ mit verbesserter Kanalcodierung und dem Audio-Codec HE-AAC v2 einzuführen.
4.4.3
Demodulation von FM-Signalen
FM-Signale zu demodulieren heißt, das die Momentankreisfrequenz bestimmende Signal zurück zu gewinnen. Zwei Empfängertypen werden kurz vorgestellt: der konventionelle FMEmpfänger und der FM-Empfänger mit Phasenregelkreis. Der konventionelle FM-Empfänger wird manchmal auch Modulationswandler genannt, da er den AM-Hüllkurvendetektor benutzt. Die Verarbeitungsschritte sind im Blockdiagramm in Bild 4-20 zusammengestellt. Zentrales Element ist der Differenziator. Er bewirkt eine Differenziation des sinusförmigen Trägers (4.16). Gemäß der Kettenregel der Ableitung tritt die Momentankreisfrequenz in der Amplitude des sinusförmigen Trägers auf und der Hüllkurvendetektor kann wie bei der gewöhnlichen AM verwendet werden. Die ersten beiden Blöcke sind für die Unterdrückung von Amplitudenschwankungen notwendig. Weil das FM-Signal eine konstante Einhüllende besitzt, rühren Amplitudenschwankungen von Störungen auf dem Übertragungsweg her. Wird das FM-Signal differenziert, wird deren störende Wirkung verstärkt. Aus diesem Grund werden die Amplitudenschwankungen zunächst durch eine harte Amplitudenbegrenzung mit nachfolgender Bandpassfilterung beseitigt. Der Differenziator wird, entsprechend dem Differenziationssatz der Fourier-Transformation, durch ein System mit linearem Frequenzgang im Übertragungsband realisiert. Ein derartiges Verhalten liefert beispielsweise der Gegentakt-Flankendiskriminator, der die Frequenzgänge zweier Reihenschwingkreise gegensinnig so kombiniert, dass im Übertragungsband und bezogen auf die Trägerkreisfrequenz der Frequenzgang proportional zu jZ ist. Hüllkurvendetektor für AM
uFM(t)
HD( jZ)
ud(t)
Amplituden Abtrennung des begrenzer Bandpass Differenziator Gleichrichter Tiefpass Gleichanteils Bild 4-20 Konventioneller FM-Empfänger
Der FM-Empfänger mit Phasenregelkreis (PLL, Phase-Locked Loop), ist im Prinzip ein FMModulator, der zum empfangenen FM-Signal ein Referenzsignal erzeugt. Seine Arbeitsweise wird anhand von Bild 4-21 erläutert. Am Eingang wird das FM-Signal eingespeist. Im Phasendiskriminator (PD) wird die Phase des FM-Signals mit der Phase des Referenzsignals verglichen. Der Phasendiskriminator erzeugt eine zur Phasendifferenz proportionale Spannung, die Phasendifferenzspannung ud(t). Letztere wird im Schleifenfilter mit Tiefpasscharakteristik vom Rauschen befreit und geglättet. Es resultiert die Nachstimmspannung uf(t), die einem spannungsgesteuerten Oszillator (VCO, Voltage Controlled Oscillator), zugeführt wird. Der VCO ist bereits durch die Spannung U0 auf die Trägerkreisfrequenz eingestellt. Durch die
126
4 Modulation eines sinusförmigen Trägers
Nachstimmspannung wird der Referenzspannung die Änderung ihrer Momentankreisfrequenz vorgegeben, also eine FM-Modulation durchgeführt. Sind gewisse Bedingungen erfüllt, versucht der PLL die Phasendifferenz zwischen der Eingangsspannung, dem FM-Signal, und der Referenzspannung, der Nachbildung des FM-Signals, zu null zu regeln. Man spricht auch von einer Nachlaufsynchronisation. Im Idealfall sind die beiden Phasen gleich und die Nachstimmspannung ist gleich dem modulierenden Signal. Sie kann als demodulierte Nachricht ausgegeben werden. Anmerkungen: Der Regelkreis im Allgemeinen spielt in der Nachrichtentechnik und insbesondere in der Regelungstechnik eine herausragende Rolle. In der Nachrichtentechnik findet der PLL wichtige Anwendungen bei der Trägerrückgewinnung. Eine tiefer gehende Analyse des PLL ist aufwändig. Mit den Mitteln der digitalen Signalverarbeitung kann der PLL auch vollständig digital realisiert werden.
FM-Signal
Eingangsspannung ue (t)
Phasendiskriminator
Schleifenfilter
uf (t)
ud (t)
PD
Nachstimmspannung Demoduliertes FM-Signal
LF
ur (t) Referenzspannung
VCO
U0
Spannungsgesteuerter Oszillator Bild 4-21 Blockschaltbild des Phasenregelkreises (PLL) zur FM-Demodulation
Eine Modellrechnung zum konventionellen FM-Empfänger zeigt, dass nach der Demodulation die Leistung der Störung mit wachsender Frequenz quadratisch zunimmt. Dies ist auf die Bewertung der Frequenzkomponenten durch den Frequenzgang des Differenziators zurückzuführen. Wegen der ungleichmäßigen Verteilung der Störleistung im Frequenzbereich bietet es sich an, die Störung durch eine Vor- und Nachverarbeitung gezielt zu bekämpfen, siehe Bild 4-22. Durch das Preemphase-System werden die Spektralanteile des modulierenden Signals mit wachsender Frequenz leistungsmäßig angehoben. Nach der FM-Übertragung werden diese im Deemphase-System auf das ursprüngliche Niveau abgesenkt. Da das Deemphase-System einen Tiefpasscharakter aufweist, wird die Störung deutlich reduziert. Im UKW-Rundfunk kann durch einfache elektrische Schaltungen, siehe Abschnitt 2.9, das SNR um den Faktor 6 verbessert werden. Modulierendes Preemphase Signal
HP( jZ
Deemphase
Kanal FMDemodulator
FMModulator
HD( jZ
Demoduliertes Signal
Rauschen Bild 4-22 Anwendung der Preemphase und Deemphase bei der FM-Übertragung
4.5 Digitale Modulationsverfahren
127
4.5
Digitale Modulationsverfahren
4.5.1
Binäre Modulationsverfahren
Mit der zunehmenden Digitalisierung der Nachrichten haben sich die Anforderungen an die Übertragungstechnik stark verändert. Neue Anwendungen finden sich im digitalen Audio- und Fernsehrundfunk, im digitalen Mobilfunk, in den drahtlosen lokalen Rechnernetzen, usw. Die Übertragung selbst unterliegt den physikalischen Randbedingungen, so dass das bekannte Wissen über die analogen Modulationsverfahren und die Übertragung elektromagnetischer Wellen nutzbringend angewendet werden kann. Eine tiefgehende Darstellung der digitalen Modulationsverfahren, ihrer spezifischen Vor- und Nachteile sowie ihre Anwendungen würde, auch wegen der historisch gewachsen Vielzahl von Varianten, den Rahmen einer Einführung sprengen. In den folgenden Unterabschnitten werden an wichtigen Beispielen grundlegende Überlegungen vorgestellt. Kennzeichnend für die digitale Modulation mit sinusförmigem Träger ist, dass die modulierende Nachricht in digitaler Form, d. h. zeit- und wertdiskret, vorliegt. In Bild 4-23 wird das Prinzip an einfachen Beispielen vorgestellt. Den Ausgangspunkt liefert ein Bitstrom der in das binäre Basisbandsignal mit der Bitdauer Tb abgebildet wird. Die binäre Information kann dann beispielsweise durch Austasten eines Trägers übertragen werden. Diese einfache Form der digitalen Trägermodulation durch Amplitudentastung (Amplitude-Shift Keying, ASK) wird OnOff Keying (OOK) genannt. Alternativ kann die Nachricht auch durch Umtasten der Frequenz (Frequenzumtastung, Frequency-Shift Keying, FSK) oder der Phase (Phasenumtastung, PhaseShift Keying, PSK) codiert werden. Anmerkung: Die binäre PSK mit Phasensprüngen um S entspricht einer Amplitudenmodulation des Trägers mit +1 und 1 jeweils entsprechend dem zu übertragenden Bit. Bitstrom
0
1
0
0
1
1
0
Basisbandsignal
t Tb OOK
t
FSK
t
PSK
t
Bild 4-23 Beispiele binärer Übertragung mit Sinusträger
Der Vorteil der digitalen Übertragung liegt besonders in ihrer Störfestigkeit. Der Empfänger braucht nicht wie bei der analogen AM und FM das modulierende Signal möglichst rauschund verzerrungsfrei zu demodulieren, sondern es genügt die diskreten Datenniveaus, die Amp-
128
4 Modulation eines sinusförmigen Trägers
lituden-, Frequenz- bzw. Phasenstufen, zu erkennen. Damit wirken sich Rauschstörungen und Signalverzerrungen – so lange ein gewisses Maß nicht überschritten wird – nicht auf die empfangene Nachricht aus. Die Detektion der Nachricht geschieht in der Regel anhand des demodulierten Basisbandsignals. Der Einfluss des Rauschens auf die Detektion wird in Abschnitt 5 genauer diskutiert. Beispiel Binäre Frequenzumtastung (BFSK) Einen grafisch einfach darstellbaren Sonderfall der digitalen FM liefert die BFSK-Modulation, die beispielsweise Anwendung bei Telefonmodems mit Sprachbandübertragung findet. Wir skizzieren in Bild 4-24 anhand eines kleinen Beispiels das modulierende (Basisband-)Signal, die Momentanphase und das FM-Signal. Zur besseren grafischen Darstellung wählen wir das Intervall zwischen den Umtastungen, das Bitintervall T = 2 / fT, also zwei Trägerperioden, und den Frequenzhub 'F = fT / 2. _______________________________________________________________________________ Ende des Beispiels
1
u(t)
t/T 1
1
2
20S
3
4
5
ZT t
\FM (t)
10S
t/T
0
uFM(t)
uˆT
t/T uˆT Momentanfrequenz 3fT/2
fT/2
fT/2
3fT/2
fT/2
Bild 4-24 Binäre Frequenzumtastung (BFSK) als Beispiel für die digitale Frequenzmodulation
Eine wichtige Größe zur Beurteilung eines digitalen Modulationsverfahren für seinen kommerziellen Einsatz ist seine spektrale Effizienz, da die zur Verfügung stehende Bandbreite, besonders in der Funkkommunikation, knapp und teuer ist. Anmerkungen: (i) Im Jahr 2000 werden in Deutschland die Frequenzbänder für die 3. Mobilfunkgeneration UMTS versteigert. Sechs Unternehmen zahlen zusammen etwa 50 Milliarden Euro für insgesamt 120 MHz, also ca. 417 Euro pro Hz Bandbreite. (ii) Auch bei der drahtgebunden Übertragung ist die spektrale Effizient wichtig, da mit steigender Frequenz die Verzerrungen zunehmen. Beispielsweise macht das digitale Übertragungsverfahren ADSL2+ (Asynchronous Digital Subscriber Line) aus dem Jahr 2003 auf den ursprünglich für die analoge Sprachtelefonie verlegten Zweidrahtleitungen das Frequenzband bis ca. 2,2 MHz nutzbar.
4.5 Digitale Modulationsverfahren
129
Das Nutzen-Kosten-Verhältnis bezogen auf das Spektrum, der Quotient aus übertragener Bitrate und belegter Bandbreite, beschreibt die spektrale Effizienz
ª Rb º «B» ¬ ¼
bit/s Hz
(4.26)
Die Verteilung der Leistung des Sendesignals im Frequenzbereich, und damit die Bandbreite, bestimmt sich im Wesentlichen aus der Form des Basisbandsignals. Liegen keine Abhängigkeiten zwischen den modulierenden Bits vor, so ist das Spektrum des Sendegrundimpulses, in Bild 4-23 der Rechteckimpuls des Basisbandsignals, ausschlaggebend. Aus Abschnitt 2 ergibt sich zum Rechteckimpuls im Spektrum die si-Funktion. Somit liefert Umtasten des Trägers mit Rechteckimpulsen, die BPSK-Modulation, als Betragsspektrum den um die Trägerfrequenz zentrierten Betragsverlauf der si-Funktion. In Bild 4-25 sind auf die jeweiligen Maximalwerte normierte Betragsspektren im logarithmischen Maß dargestellt. Als Parameter tritt die Bitdauer Tb auf. Man erkennt, dass im Fall der harten Umtastung mit rechteckförmigen Sendegrundimpulsen (REC) die Nebenmaxima des Betragsspektrums, die Nebenzipfel, mit wachsendem Abstand von der Trägerfrequenz relativ langsam abfallen. g(t)
REC
A
MSK t/Tb
0
1
0
G( f ) G (0)
0 MSK
REC
20
40 in dB 60 4
3
2
1
0
1
2
3
4
fTb
Bild 4-25 Betragsspektren der Sendegrundimpulse Rechteckimpuls (REC) und Kosinusimpuls (MSK)
Ein kompakteres Spektrum lässt sich durch eine weiche Umtastung mit stetigen Sendegrundimpulsen erzielen. In Bild 4-25 ist als Beispiele der Kosinusimpuls eingetragen, wie er auch bei der MSK-Modulation (Minimum-Shift Keying) verwendet wird. Im Vergleich zur harten Umtastung verbreitert sich zwar der Hauptbereich, der Hauptzipfel, jedoch konzentriert sich die Leistung stärker auf ihn. Praktisch wird dadurch eine engere Anordnung von Trägerfrequenzen in einem Frequenzmultiplexsystem möglich. Anmerkungen: (i) Die normierte Darstellung der Frequenzachse in Bild 4-25 kann wie im folgenden Beispiel interpretiert werden. Angenommen ein Bitstrom mit der Bitrate von 10 kbit/s wird binär bei einer Trägerfrequenz von 800 MHz übertragen. Die Bitdauer Tb ist 0,1 ms. Der im Bild angegebene normierte Wert fTb = 4 entspricht nun im Basisband der Frequenz 40 kHz und nach Trägermodulation 800,04 MHz. Für den normierten Wert fTb = 2 folgt entsprechend nach Trägermodulation 799,98 MHz. (ii) Durch die Wahl von stetig differenzierbaren Sendegrundimpulsen kann das Spektrum weiter konzentriert werden. Darüber hinaus können durch Codierung und Vorfilterung Abhängigkeiten zwischen den Bits, bzw. im
130
4 Modulation eines sinusförmigen Trägers
Basisbandsignal eingebracht werden, um das Sendesignalspektrums gezielt einzustellen. Dies geschieht z. B. beim AMI-Code in Abschnitt 5. Ein Beispiel für die Tiefpassfilterung (Glättung) des Basisbandsignals gibt die GMSK-Modulation für den Mobilfunk in Abschnitt 8.
Beispiel Spektrale Effizienz
Ein Nachteil der digitalen Übertragung liegt in der höheren Bandbreite, der geringeren spektralen Effizienz verglichen mit der AM-Übertragung. Dies veranschaulicht eine kurze Überlegung: Die Übertragung eines analogen Telefonsprachsignals erfordert als ESB-AM-Übertragung in der Trägerfrequenztechnik ca. 4 kHz Bandbreite. Überträgt man das Telefonsprachsignal digital als PCM-Sprache, so liegt zunächst eine Bitrate von 64 kbit/s zugrunde. Die anschließende BPSK-Übertragung belegt ein Frequenzband entsprechend Bild 4-25. Nehmen wir vereinfachend an, die tatsächlich belegte Bandbreite z. B. nach BP-Filterung entspricht der halben Breite des Hauptzipfels zu den REC-Impulsen, so ist die tatsächlich belegte Breite B = fb = 64 kHz. Die spektrale Effizienz beträgt 1 (bit/s) / Hz. Im Beispiel tritt eine Bandaufweitung um den Faktor 16 auf. Die Bandaufweitung der digitalen Modulation wird in der Praxis of durch eine höhere Störfestigkeit mehr als ausgeglichen, vergleiche auch FM-Übertragung. Oft macht erst die digitale Übertragung eine wirtschaftliche Nutzung stark gestörter Übertragungsmedien möglich, wie den Funkkanal beim digitalen Mobilfunk oder die herkömmliche Zweidrahtleitung im digitalen Teilnehmeranschluss. Darüber hinaus kann durch den Übergang auf eine mehrstufige Übertragung die spektrale Effizienz verbessert werden.
4.5.2
Mehrstufige Modulationsverfahren
Um größere Bitraten bei moderaten Bandbreiten zu übertragen, werden mehrstufige Modulationsverfahren verwendet. Ein einfaches Beispiel ist die vierstufige Pulsamplitudenmodulation, 4-PAM, in Bild 4-26. Jeweils 2 Bits werden zu einem Symbol zusammengefasst und als ein Amplitudenwert codiert. Die Zuordnung der Symbole zu den Datenniveaus des Signals geschieht so, dass sich die Symbole benachbarter Datenniveaus in nur einem Bit unterscheiden. Da typischerweise Übertragungsfehler zur Verwechslung benachbarter Datenniveaus führen, erhält man im Mittel weniger Bitfehler. Eine derartige Codierung wird Gray-Code genannt. Es resultiert ein digitales Basisbandsignal mit vier Datenniveaus. Die Dauer eines Symbols ist hier doppelt so lang wie die eines Bits. Wegen des reziproken Zusammenhangs zwischen der Zeitdauer und der Bandbreite, wird jetzt nur die halbe Bandbreite wie bei der binären ASK bzw. PSK benötigt. Oder umgekehrt, bei gleicher Bandbreite kann die doppelte Bitrate übertragen werden. Die Bitrate ist jedoch nicht beliebig steigerbar. Wie im Abschnitt 5.9 noch ausgeführt wird, wird die maximal erzielbare Bitrate, d. h. Anzahl der übertragenen Bit pro Zeit, durch die beschränkte Sendeleistung und die unvermeidliche Rauschstörung begrenzt. Mit dem 4-PAM-Basisbandsignal wird schließlich der Sinusträger multipliziert, so dass das Signal im unteren Teilbild entsteht. Anmerkung: Auch bei der digitalen Modulation spielt die Frage nach kohärentem oder inkohärentem Empfang eine Rolle. Beschränkt man sich beispielsweise bei der PAM auf positive Datenniveaus, so ist eine einfache inkohärente Demodulation mit dem Hüllkurvendetektor möglich.
4.5 Digitale Modulationsverfahren
131
Ts Tb Bitstrom Symbole
0
0
0
1
1
1
1
0
Datenniveaus Basisbandsignal
„11“
3
„10“
1
„00“
1
„01“
3
t
4-PAM mit Träger
uˆ t
0 uˆ Bild 4-26 4-PAM im Basisband und mit Sinusträger
Bei der Datenübertragung steht eine hohe spektrale Effizienz im Vordergrund. Deshalb wird häufig die digitale Quadaraturamplitudenmodulation (QAM) eingesetzt. Die digitale QAM ist eine direkte Erweiterung der Überlegungen in Abschnitt 4.3.6. Sie fußt darauf, dass prinzipiell alle zu übertragenden Bandpass-Signale wie in (4.14) als Überlagerung einer Normal- und einer Quadraturkomponente dargestellt werden können. Bei der digitalen QAM sind die Quadraturkomponenten digitale Basisbandsignale, die durch Abbildung des Bitstromes entstehen, siehe Bild 4-27. Das tatsächlich verwendete Modulationsverfahren wird durch die Art der Abbildung des Bitstromes, englisch Mapping genannt, auf die Quadraturkomponenten festgelegt. Die Umwandlung des Basisbandsignals in das BandpassSignal und umgekehrt geschieht durch einen Quadratur(Q)-Mischer, wie in Bild 4-13.
Bitstrom
Abbildung auf die Quadraturkomponenten (Mapping)
u1(t) QuadraturMischer
u2(t) Basisbandsignale
Detektierter Bitstrom
Abbildung auf den Bitstrom (Detection)
Bandpasssignale
Kanal
uˆ1 (t ) QuadraturMischer
uˆ2 (t )
Bild 4-27 Modulator und Demodulator für die digitale Quadraturamplitudenmodulation (QAM)
132
4 Modulation eines sinusförmigen Trägers
Im Beispiel einer 4-PAM in den Quadraturkomponenten wird in jedem Symboltakt ein Symbol von 16 möglichen übertragen, siehe Bild 4-26 und Bild 4-28. Man bezeichnet die Modulation deshalb kurz als 16-QAM. In der Richtfunktechnik und für die Übertragung des digitalen Fernsehens DVB-T (Digital Video Broadcasting Terrestrial) wird die QAM mit bis zu 256 Stufen verwendet. Der PLC(Power Line Communications)-Standard IEEE P1901 sieht sogar 1024 und 4096 Stufen vor. Bei jeder Verdopplung der Stufenzahl erhöht sich die spektrale Effizienz. Eine beliebige Steigerung ist jedoch nicht möglich, weil die Detektion höherstufiger digitaler QAM-Signale zunehmend anfälliger gegen Rauschen sowie Phasen- und Dämpfungsverzerrungen wird.
Quadraturkomponente 1000 1010
0010 0000
1001 1011
0011 0001
Normalkomponente 1101 1111
0111 0101
1100 1110
0110 0100
Bild 4-28 Signalraum-Konstellation der 16-QAM mit Gray-Code
Bevor dies anhand eines Simulationsbeispiels verdeutlicht werden kann, muss zunächst die Detektion im Empfänger etwas genauer betrachtet werden. Bild 4-29 zeigt einen Ausschnitt aus der Signalraum-Konstellation der 16-QAM. Eingetragen sind der Signalvektor s zum Symbol 0011, der aus den Quadraturkomponenten im Empfänger gewonnene Detektionsvektor d und der Fehlervektor e = d s, der sich bei der Übertragung durch Störungen und Verzerrungen ergibt. Anmerkung: Der Signalraum wird je nach Bedarf in bekannter Weise mit reellen Koordinaten, wie in Bild 4-28, als komplexe Zahlenebene oder 2-dimensionaler Vektorraum beschrieben. Spielt der Vektorcharakter keine Rolle wird auch von Detektionsvariablen gesprochen. Quadraturkomponente
d
e
Entscheidungsgebiet zum Symbol 0011
s Normalkomponente
Bild 4-29 Ausschnitt aus der Signalraum-Konstellation der rechteckförmigen 16-QAM im Empfänger mit dem Signalvektor s zum Symbol 0011, dem Detektionsvektor d und dem Fehlervektor e
Der Empfänger hat die Aufgabe aus den Detektionsvektoren die gesendeten Symbole zu schätzen. Dabei ist es das Ziel, möglichst wenig Fehler zu machen. In Abschnitt 5 wird die Detektionsaufgabe mit der Wahrscheinlichkeitsrechnung behandelt. Im Folgenden genügt es davon auszugehen, dass die Häufigkeiten von Fehlervektoren mit wachsenden Beträgen abnehmen. Die Zahl der Fehlentscheidungen wird folglich im Mittel möglichst klein, wenn die Entscheidungsregel des „nächsten Nachbarn“ zugrunde gelegt wird. Dass heißt, zu jedem Detektionsvektor wird das Symbol entschieden, dessen Signalvektor den kleinsten Abstand zu ihm hat.
4.5 Digitale Modulationsverfahren
133
Anwenden der Entscheidungsregel auf die Signalraum-Konstellation der 16-QAM liefert zum Symbol 0011 das in Bild 4-29 grau markierte Entscheidungsgebiet. Anmerkung: Die Signalraum-Konstellation wird als rechteckförmige QAM bezeichnet. Sie erlaubt eine einfache Entscheidung anhand der Normal- und Quadraturkomponenten. Aus diesem Grund wird sie häufig eingesetzt, obwohl die rechteckförmige Signal-Konstellation bei gleicher mittlerer Sendeleistung nicht die kleinste Fehlerwahrscheinlichkeit liefert.
Beispiel Schätzung des Error Vector Magnitude (EVM)
Die Beträge der Fehlervektoren spielen eine entscheidende Rolle für die Empfangsqualität. Dementsprechend sind Messungen von Fehlervektoren Bestandteile von Konformitäts- und Qualitätstests. Üblicherweise werden Vorgaben bezüglich des Maximalwertes und/oder des Mittelwerts des Betrags überprüft. Für Letzteres werden jeweils eine große Zahl von M Symbolen übertragen, die Detektionsvektoren ausgewertet und die normierte empirische Standardabweichung des Fehlervektorbetrags, Error Vector Magnitude (EVM) genannt, bestimmt.
EVM dB
§ M ¨ ¦ dm sm 10 log10 ¨ m 1 M ¨ 2 ¨¨ ¦ s m © m1
2
· ¸ ¸ dB ¸ ¸¸ ¹
(4.27)
Die Zahlenwerte werden üblicherweise im logarithmischen Maß angegeben. Im Beispiel des WLAN-Standards IEEE-802.11a/g darf der EVM am Senderausgang den Wert von 25 dB nicht überschreitet. Das heißt, eine mittlere Standardabweichung von 5,6 % ist noch zulässig. Anmerkungen: (i) Bei den Messungen sind im Testgerät die idealen Signale oft nicht verfügbar, so dass sie geschätzt und unter Umständen die Ergebnis verfälscht werden. (ii) Die von WLAN-Sendern ausgestrahlten Signale weichen bereits von der idealen Signalraum-Konstellation ab, so dass selbst mit einem idealen Empfänger nur noch eine begrenzte Qualität bzw. Reichweite zu erzielen ist.
Beispiel 16-QAM mit weißem gaußschen Rauschen (AWGN)
Den Einfluss des Rauschens auf die Detektion veranschaulicht das Simulationsbeispiel in Bild 4-30. Das Bilder entspricht der Darstellung in Bild 4-29 mit der Normalkomponente dc und der Quadraturkomponente ds des Detektionsvektors, d = (dc,ds). Die Achsen sind so normiert, dass das Sendesymbol 0011 bei idealem Empfang das Signal s0011 = (1,1) liefert. Die Detektionsvektoren werden als Punkte mit den Koordinaten (dc,ds) dargestellt. Bei der Übertragung wird dem Nutzsignal eine weiße gaußsche Rauschstörung (Additive White Gaussian Noise, AWGN) als Fehlervektoren überlagert. Es bilden sich Punktwolken um die idealen Signale. Fallen die Rauschamplituden relativ groß aus, rücken viele Punkte in die Nähe der Entscheidungsgrenzen; Überschreitungen der Entscheidungsgrenzen und damit Detektionsfehler können vermutet werden. Ist das SNR genügend groß, d. h. die Rauschamplituden im Mittel genügend klein, ziehen sich die Punktwolken der Detektionsvektoren um die idealen Signale zusammen. Anmerkungen: (i) Der Begriff AWGN und der Zusammenhang zwischen SNR und der Fehlerwahrscheinlichkeit werden in Abschnitt 5.5 vorgestellt. (ii) Im Bild wird ein SNR von 6 dB verwendet. Detektionsfehler sind unwahrscheinlich aber nicht ausgeschlossen. _______________________________________________________________________________ Ende des Beispiels
134
4 Modulation eines sinusförmigen Trägers
4 3
Quadraturkomponente
2
0011 1 0 -1 -2 -3 -4 -4
-3
-2
-1
0
1
2
3
4
Normalkomponente Bild 4-30 Detektionsvektoren (dc,ds) für die rechteckförmige 16-QAM mit AWGN-Rauschen bei einem SNR von 6 dB und Entscheidungsgebiet für das Symbol 0011
Durch Phasenfehler und Dämpfung auf dem Übertragungsweg kommt es zu einer Drehung bzw. einer Stauchung der Signalraum-Konstellation im Empfänger. Tritt, wie oben, noch das unvermeidliche Rauschen hinzu, können die Detektionsvektoren leicht außerhalb der Entscheidungsgebiete der zugehörigen Symbole liegen. Deshalb werden in praktischen Anwendungen zu Beginn der Kommunikation und gegebenenfalls auch danach immer wieder bekannte Bitmuster gesendet, so dass der Empfänger eine Phasenverschiebung und eine Amplitudendämpfung erkennen und kompensieren kann. Anmerkung: Ist die Übertragungsqualität ausreichend, kann eine Nachjustierung auch anhand der detektierten Symbole erfolgen; man spricht dann von einer Selbstadaption statt von Training.
Beispiel 16-QAM mit Phasendrehung und Dämpfung
Die Simulation kann einfach durch eine Phasendrehung und eine Dämpfung erweitert werden. Im Beispiel wurde ein Übertragungsfaktor 0,8exp( jS/8) vorgegeben: Die Signalraum-Konstellation zieht sich somit um den Faktor 0,8 zusammen und dreht um 22,5° gegen den Uhrzeigersinn. In Bild 4-31 ist die Wirkung zu sehen. Sind Phasendrehung und Dämpfung im Empfänger bekannt, so können auch die Entscheidungsgebiete nachgeführt werden, was im Bild am Beispiel des Symbols 0011 zu sehen ist. Anmerkung: Weil die Entscheidungsgrenzen in Bild 4-31 nicht mehr parallel zu den Achsen sind, ist es für die Entscheidung einfacher die Signalraum-Konstellation zurückzudrehen und aufzuspreizen, man spricht von Entzerrung. Allerdings wird das Rauschen mit verstärkt, so dass die Fehlerwahrscheinlichkeit dabei nicht abnimmt. _______________________________________________________________________________ Ende des Beispiels
4.5 Digitale Modulationsverfahren
135
4 3
Quadraturkomponente
2 1
0011
0 -1 -2 -3 -4 -4
-3
-2
-1
0
1
2
3
4
Normalkomponente Bild 4-31 Signalraum-Konstellation der rechteckförmigen 16-QAM mit Phasendrehung und Dämpfung, siehe Bild 4-30
Anmerkungen: (i) Die Quadraturdarstellung ist für alle Bandpass-Signale möglich. Es ergibt sich eine einheitliche Darstellung, unabhängig davon ob die Trägeramplitude, die Trägerphase oder beides moduliert werden. Die Unterschiede zwischen den digitalen Modulationsverfahren mit Träger bestehen in der Abbildung des Bitstromes auf die Quadraturkomponenten. (ii) Die Erzeugung der modulierenden Basisbandsignale kann, wie zum Beispiel in den GSM-Handgeräten, durch einen digitalen Signalprozessor mit nachfolgender Digital-Analog-Umsetzung erfolgen. Das Modulationsverfahren wird dann nur durch die verwendete Software bestimmt. Für die Mobilkommunikation der Zukunft wird am breitbandigen „Software-Radio“ gearbeitet, das sich durch Laden der Modulator- und Demodulator-Software über eine universelle Funk-Schnittstelle an die jeweiligen Gegebenheiten vor Ort anpasst. (iii) Die QAM ist ein wesentlicher Bestandteil des OFDM-Verfahrens und damit Grundlage vieler Anwendungen.
Das Problem der Dämpfungsverzerrungen kann bei der Detektion reduziert werden, wenn die Nachricht nur in der Trägerphase codiert wird. Bild 4-32 zeigt die Signalraumkonstellation für die 8-PSK-Modulation. Alle Symbole liegen auf einem Kreis um den Ursprung und haben so den gleichen Betrag. Die Codierung geschieht je nach zu übertragendem Symbol durch Amplitudenumtastung der Normal- und Quadraturkomponente.
Quadraturkomponente 011 001 010
000 Normalkomponente
A
110
100 111
101
Für die Dekodierung ist die Phasenlage wichtig, wie die Entscheidungsgebiete in Bild 4-32 Signalraum-Konstellation der 8-PSKBild 4-32, die radialen Sektoren, zeigen. Modulation mit Entscheidungsgebieten Amplitudenschwankungen im Empfangssigund Gray-Code nal spielen im Vergleich zur 16-QAM des-
136
4 Modulation eines sinusförmigen Trägers
halb keine so große Rolle. Auch langsame Phasendrehungen sind tolerierbar, wenn die Nachricht in der Phasendifferenz aufeinander folgender Symbole codiert wird. Diese Variante, differenzielle PSK (D-PSK) genannt, findet als besonders robustes Verfahren ihre Anwendung. Ein Beispiel liefert die Funkübertragung mit der 2005 eingeführtem Weiterentwicklung Bluetooth EDR (Enhanced Data Rate). Dort wird mit der 8-DPSK-Modulation im Kurzstreckenfunk eine Bitrate von ca. 3 Mbit/s erreicht. Die mehrstufige PSK-Modulation, die M-PSK, ist wegen ihrer Robustheit im Mobilfunk von besonderem Interesse. Als Modulation mit konstanter Einhüllenden, siehe auch FM, ist sie relativ unempfindlich gegen Nichtlinearitäten, was den Einsatz effizienterer Verstärker erlaubt. Anwendungen der 8-PSK findet man beispielsweise im der Erweiterung von GSM, Enhanced Data Rates for GSM Evolution (EDGE) genannt. Wegen ihrer relativen Einfachheit hat die 4PSK, die quaternäre PSK (Q-PSK), viele Anwendungen gefunden. Sie kann als „gleichzeitige“ binäre Amplitudenumtastung, also BPSK-Modulation, in den Quadraturkomponenten aufgefasst werden. Anwendungsgebiete reichen von Telefonmodems, z. B. der V.22 Empfehlung für die Übertragung mit 1200 kbit/s, bis zur Mobilkommunikation, wie beispielsweise dem USamerikanischen Mobilfunkstandard der 2. Generation U.S. Digital Cellular (USDC). Die QPSK-Modulation ist bei drahtlosen lokalen Netzen zu finden.
4.5.3
Orthogonal Frequency Division Multiplexing
In der modernen digitalen Nachrichtenübertragungstechnik hat sich das Orthogonal Frequency Division Multiplexing (OFDM) vielfach durchgesetzt. Anwendungen finden sich beispielsweise im digitalen Hörrundfunk (DAB, Digital Audio Broadcast, 1990/5), dem digitalen Fernsehrundfunk (DVB-T, Digital TV Terrestrial, 1995/7), in drahtlosen lokalen Rechnernetzen (WLAN, Wireless Local Area Network, IEEE 802.11a/g/n, 1999/2003/09) (HIPERLAN/2, High Performance LAN) in verschiedenen Varianten des digitalen Teilnehmeranschluss (DSL, Digital Subscriber Line, ab ca. 1995), im drahtlosen breitbandigen Internet-Teilnehmerzugang (WiMAX, Worldwide Interoperability for Microwave Access, IEEE 802.16, 2001/04) in der Datenübertragung über Stromversorgungsleitungen zu und in Gebäuden (PLC, Power Line Communications, IEEE P1901). Die technischen Einzelheiten und die Vorteile der OFDM-Modulation als Systemlösung aufzuzeigen, ist Aufgabe der Nachrichtenübertragungstechnik und würde den Rahmen dieses Buches sprengen, z. B. [Beh08], [Kam08] und [Rei05]. Im Folgenden werden deshalb die Grundlagen für den Einsatz der FFT und der QAM vorgestellt und die übertragungstechnischen Aspekte soweit gestreift, dass das Prinzip der OFDM-Modulation und ihr Potential sichtbar wird. Ein kurzer Einblick in die Anwendung des OFDM-Verfahrens im WLAN wird in Abschnitt 8.6 gegeben. Mehrträgerverfahren Frequenzmultiplex Den Ausgangspunkt der Überlegungen bildet der Wunsch nach einer Übertragung mit großen Bitraten, wie beim digitalen Fernseh-Rundfunk Beispiel Digitaler Fernseh-Rundfunk
Um uns an die Problemstellung heranzutasten, betrachten wir exemplarisch die Anforderungen an ein digitales Modulationsverfahren für das digitale Fernsehen mit circa 36 Mbit/s (kompri-
4.5 Digitale Modulationsverfahren
137
miert). Weil wegen der Knappheit an Frequenzbändern die digitalen Programme in den vorhandenen Frequenzkanälen des heutigen analogen Fernsehens übertragen werden müssen, stehen jeweils nur Bandbreiten von 6 bis 8 MHz zur Verfügung. Aus der Bandbreite von 6 MHz resultiert für das potentielle Modulationsverfahren eine spektrale Effizienz von bis zu 6 (bit/s)/Hz Bandbreite. Aus früheren Überlegungen in Abschnitt 4.5.1 wissen wir, dass sich bei einer BPSK mit rechteckförmigen Impulsen eine spektrale Effizienz von ca. 1 (bit/s)/Hz ergibt. Verwenden wir anstatt Symbole einer m-stufige QAM Amplitudenfaktoren für die Rechteckimpulse ändert sich die Bandbreite nicht. Mit 6 Bits pro Symbol wird die gewünschte spektrale Effizienz mit einer 64-QAM erreicht. Bevor wir Geräte in Auftrag geben, betrachten wir die besonderen Verhältnisse der terrestrischen Funkübertragung. Bei einer Symbolrate von 6106 symbol/s ist die Dauer eines Symbol 0,167 Ps. Da wir Funksignale von den Sendestationen zu den Fernseh-Teilnehmern übertragen wollen, schätzen wir ab, welchen Weg die elektromagnetischen Wellen während eines Symbolintervalls zurücklegen. Mit der Lichtgeschwindigkeit im Vakuum von ca. 3108 m/s ergibt sich ein Ausbreitungsweg pro Symbolintervall von ca. 50 m. Für die terrestrische Funkausbreitung ist typisch, dass die elektromagnetischen Wellen an Hindernissen im Funkfeld, wie Berge, Gebäude, Wände, Menschen, Möbel, usw., reflektiert, gestreut und gebeugt werden. Mit anderen Worten, das Funksignal erreicht auf vielen Wegen, und damit unterschiedlich zeitlich verschob, den Empfänger, siehe Bild 4-33. Man spricht von der Mehrwegeausbreitung bzw. dem Mehrwegeempfang. Im Beispiel eines Umwegs von 50 m überlagern sich die Empfangssignale zu zwei benachbarten Symbolen vollständig. Ohne weitere Maßnahmen ist mit einer Auslöschung der Information zu rechnen. _______________________________________________________________________________ Ende des Beispiels
Funkfeldhindernis Umwegpfad
Direkter Pfad Sender
S
E
Empfänger
Bild 4-33 Mehrwegeempfang in der terrestrischen Funkübertragung
Bei Übertragung mit hohen Bitraten zeigt sich, dass aufgrund physikalischer Effekte, wie Verzerrungen in Leitungen oder dem Mehrwegeempfang in der Funkübertragung, sich benachbarte Symbole überlagern. Man spricht von Nachbarsymbolinterferenzen (ISI, Intersymbol Interference), die einen Empfang unmöglich machen können. Abhilfe schaffen unter Umständen aufwändige Entzerrer oder ein grundsätzlich andere Denkansatz: das Mehrträgerverfahren. Das Mehrträgerverfahren in Bild 4-34 bietet eine Lösungsmöglichkeit an. Im Übertragungsband werden K Unterträger mit den Unterträgerfrequenzen fk im äquidistanten Frequenzabstand F verwendet und daraus K Unterkanäle gewonnen. Teilt man den Bitstrom in die Unterkanäle gleichmäßig auf, so vergrößert sich die Bit- bzw. Symboldauer in den Unterträgerkanälen entsprechend.
138
4 Modulation eines sinusförmigen Trägers
Wegen der frequenzmäßig getrennten Unterkanälen spricht man vom Frequenzmultiplex (FDM, Frequency Division Multiplexing). Anmerkungen: (i) Die Verlängerung der Symboldauer entschärft das Problem der ISI. Mit weiteren Maßnahmen wird in der Mobilfunkübertragung der Mehrwegeempfang sogar genutzt. Im Rundfunk werden Gleichwellennetze möglich, bei denen Nachbarsender die gleichen Signale im selben Frequenzband aussenden und die Empfänger die Signale nutzbringend kombinieren (Mehrwege-Diversität). (ii) Die Entscheidung für ein bestimmtes Übertragungsverfahren hängt von physikalischen Voraussetzungen, dem Stand der Technik und insbesondere im Rundfunk oder anderen „öffentlichen“ Anwendungen den gesellschaftlichen und wirtschaftlichen Bedingungen ab, siehe z. B. DAB.
Übertragungsband F f fK1
f0 f1
Bild 4-34 Mehrträgerverfahren mit Frequenzabstand F
So einfach die Lösung des ISI-Problems durch das Mehrträgerverfahren ist, so schwierig erscheint die technische Umsetzung: müssen doch jetzt K Sender und Empfänger bereitgestellt werden. Hier hilft die digitale Signalverarbeitung mit der DFT/FFT und die moderne Mikroelektronik und Systemintegration die Idee des Mehrträgerverfahrens effizient umzusetzen. Demodulation von OFDM-Signalen Die folgenden Überlegungen stellen das Prinzip der OFDM als spezielles Mehrträgerverfahren vor. Werden innerhalb eines gewissen Zeitintervalls, dem OFDM-Symbolintervall Ts, die K Unterträger jeweils mit konstanten Quadraturkomponenten ak und bk gesendet, liefert die Überlagerung der Signale aller Unterträger im m-ten Symbolintervall, d. h. für t [mTs, (m +1)Ts[, ein reelles Bandpass-Signal der allgemeinen Form K 1
sBP (t )
¦ ª¬ak cos 2S > f0 k F @ t bk sin 2S > f0 k F @ t º¼
(4.28)
k 0
Der Empfänger führt eine Demodulation in den Quadraturkomponenten durch, wie in Bild 4-35 illustriert wird. Im Quadratur-Mischer liefern die Multiplikationen mit der Trägernachbildung, 2cos(2Sf0t) im oberen Signalzweig und 2sin(2Sf0t) im unteren, nach Tiefpassfilterung die gewünschten Quadraturkomponenten. Idealer Tiefpass vc(t) Reelles Bandpass-Signal
Trägernachbildung
Normalkomponente
Realteil
2cos(2Sf0t)
sBP(t)
Komplexe Basisbandverarbeitung
Imaginärteil
S/2
Quadraturkomponente vs(t) Idealer Tiefpass
Bild 4-35 Umsetzung des Bandpass-Signals im Quadratur-Mischer in die Quadraturkomponenten
4.5 Digitale Modulationsverfahren
139
Wie man mit den trigonometrischen Formeln für die Produkte zeigen kann, resultieren für die Normal- (c) und die Quadraturkomponente (s) die Fourier-Summen K 1
vc (t )
¦ ª¬ak cos 2S F k t bk sin 2S F k t º¼
k 0
(4.29)
K 1
vs (t )
¦ ª¬ak sin 2S F k t bk cos 2S F k t º¼
k 0
Die Signale der Fourier-Summe sind orthogonal, daher der Name Orthogonale(O) FDM. Anmerkung: Die Fourier-Summen entsprechen (3.16) im Beispiel zur Spektralanalyse mit der DFT/FFT.
Die Quadraturkomponenten werden einer Basisbandverarbeitung zugeführt, die die Normalkomponente als Realteil und die Quadraturkomponente als Imaginärteil eines komplexen Basisbandsignals auffasst. Mit dem komplexen Datensymbol im m-ten Symbolintervall dk
ak jbk
(4.30)
gilt für das komplexe Basisbandsignal v(t )
K 1
¦ dk e j 2S F k t
vc (t ) jvs (t )
(4.31)
k 0
was man durch Einsetzen und Ausmultiplizieren rasch zeigen kann. Die Basisbandverarbeitung wird typischerweise auf einem Signalprozessor mit zeitdiskreter Verarbeitung durchgeführt. Für die Abtastung wird die Abtastfrequenz fa
1 Ta
K F
(4.32)
so gewählt, dass das Abtasttheorem in Abschnitt 3.3 eingehalten wird. Das zeitdiskrete Basisbandsignal im m-ten Symbolintervall ist dann K 1
v[n]
¦ dk e
j 2S F k nTa
k 0
K 1
¦ dk e
j
2S k n K
(4.33)
k 0
Der Vergleich mit der inversen DFT (3.22) zeigt, bis auf den Skalierungsfaktor 1/K, die Übereinstimmung mit den komplexen Datensymbolen als DFT-Koeffizienten. Da die Datensymbole anhand der Basisbandsignalfolge detektiert werden sollen, bietet es sich an, die DFT in Form der aufwandsgünstigen FFT einzusetzen, siehe Bild 4-36. K dk
V [k ]
DFT ^v[n]`
K 1
¦ v[n] e
j
2S k n K
(4.34)
n 0
Die besonderen Vorteile der OFDM-Modulation ergeben sich bei der gewählten Abstimmung zwischen der Dauer der OFDM-Symbole Ts und des Frequenzabstandes der Unterträger F.
140
4 Modulation eines sinusförmigen Trägers
Mit K Abtastwerten pro OFDM-Symbol folgt aus (4.32) F Ts
1
(4.35)
Mit der Demodulation nach Bild 4-36 werden alle Unterträger gemeinsam demoduliert. Eine gegenseitige Beeinflussung findet wegen der Orthogonalität der komplex Exponentiellen (3.25) nicht statt. Und für die Berechnung der DFT steht ein aufwandsgünstiger Algorithmus, die FFT, zur Verfügung. Anmerkungen: (i) Im Beispiel des DVB-T werden im 2K-Modus alle 280 Ps je ein Mehrträger-Symbol übertragen und eine DFT der Länge 2048 berechnet. Es resultiert die Symbolrate von circa 3571 symbol/s und ein geschätzter Aufwand für die Radix-2-FFT von etwa 402 MFLOPs/s mehr Rechenleistung als 1976 der erste Supercomputer der Welt, die Cray I, hatte. (ii) Die Umweglänge der elektromagnetischen Wellen beträgt nun pro OFDM-Symbolintervall rechnerisch 84 km. Tatsächlich werden die Funksignale auf ihren Ausbreitungswegen gedämpft, so dass die relevanten Umweglängen begrenzt werden. Normalkomponente
Reelles Bandpass-Signal sBP(t)
QuadraturMischer
d0
vc(t)
v[n] A/D
DFT
vs(t)
d1
Komplexe Datensymbole
dK1
Quadraturkomponente Bild 4-36 Demodulation von OFDM-Signalen mit der DFT (vereinfacht)
Spektrum von OFDM-Signalen Nachdem für ein OFDM-Bandpass-Signal die Möglichkeit der Demodulation mit der DFT/ FFT prinzipiell gezeigt wurde, soll das Signalspektrum genauer betrachtet werden. Dazu wird vom Basisbandsignal ausgegangen. Das Signal für den k-ten Unterträger beschreibt f
vk (t )
¦
m f
d k , m g (t mTs )
(4.36)
mit den Datensymbol im m-ten OFDM-Symbolintervall dk,m und dem rechteckförmigen Sendegrundimpuls der Dauer Ts g (t )
1 für t [0, Ts [ ® ¯0 sonst
(4.37)
Der rechteckförmige Sendegrundimpuls besitzt mit (2.74) das Betragsspektrum G ( jZ )
§ Z Ts · Ts si ¨ ¸ © 2 ¹
(4.38)
mit den äquidistant verteilten Nullstellen im Abstand 'Z = 2S / Ts = 2S F. Im Übertragungsband überlagern sich die Spektren zu allen Unterträgern. Bei unabhängigem Bitstrom resultiert das in Bild 4-37 schematisch dargestellt Leistungsdichtespektrum. Das Leistungsdichtespektrum zu einem Unterträger ist nicht auf den nominalen Frequenzkanal der
4.5 Digitale Modulationsverfahren
141
Leistungsdichtespektren der Unterkanäle
Breite F begrenzt, sondern fließt nach links und rechts aus: Es treten Interferenzen im Spektrum auf. Jedoch treffen auf die Frequenzen der Unterträger jeweils Nullstellen im Spektrum aller anderen Unterträger; somit treten an diesen Stellen keine spektralen Interferenzen auf womit sich abermals die Orthogonalität zeigt. F
F
Frequenz f0
f1
fk Übertragungsband
fK1
Bild 4-37 Leistungsdichtespektrum des OFDM-Multiträgersystems im Übertragungsband (schematisch)
Bild 4-37 erinnert an die si-Interpolation von Abtastfolgen in Bild 3-3. Hier überlagern sich die Spektren der Unterträger in idealer Weise zu einer gleichmäßigen Belegung des Übertragungsbandes, so dass es vollständig genutzt wird. Durch die begrenzte Zahl der Unterträger geschieht dies allerdings nur näherungsweise, wobei besonders an den Rändern des Übertragungsbandes Abweichungen auftreten. Für die ausstrahlten Leistungsdichtespektren realer Geräte sind Vorschriften in Form von Masken einzuhalten, die sogenannte Sendemaske (Transmitter Spectral Mask). Damit werden auch Grenzen für die Abstrahlung außerhalb des Übertragungsbandes, die Außerbandstrahlung (Spurious Emissions), vorgegeben. Bild 4-38 zeigt beispielhaft die Maske für den WLANStandard IEEE 802.11a/g und ein Simulationsergebnis für OFDM-Signale. Um die Vorgaben des Standards einzuhalten sind besondere Maßnahmen notwendig, wie z. B. das Weglassen von Unterträgern am Rand des Frequenzbandes, die Einführung eines Schutzbandes (Guard Band), oder eine besondere Impulsformung für das Basisbandsignal. Anmerkungen: (i) Die Sendemaske ist symmetrisch um die Mittenfrequenz fc des Übertragungsbandes. Der Unterträger bei der Mittenfrequenz wird nicht belegt, um bei der Demodulation mit direkt mischendem Empfänger, einem Geradeaus-Empfänger (Direct-conversion Receiver), eine Gleichspannungskomponente zu vermeiden. In Bild 4-38 wird die Forderung nach einer Dämpfung von 40 dB für Spektralkomponenten mit | f – fc | t 30 MHz verletzt. (ii) Unterträgerbelegung, siehe Abschnitt 8.6.3.
Erzeugung von OFDM-Signale Den Kern der Mehrträgermodulation OFDM stellt die IDFT in (4.33). Sie bildet jeweils K komplexen Datensymbole auf eine Folge von K komplexen Abtastwerten des OFDM-Basisbandsignals ab. Das Blockschaltbild in Bild 4-39 fasst die bisherigen Überlegungen zusammen. Darüber hinaus deutet es weitere notwendige Verfahrenschritte bzw. Optionen für Verbesserungen an, die zurzeit Gegenstand der Forschung sind [Roh08]. Am Anfang steht der zu übertragenden Bitstrom links. Jeweils ein Block von Bits wird auf die Unterkanäle aufgeteilt und in die komplexen Datensymbole abgebildet, englisch Mapping genannt. Üblich sind Zuweisungen aus den BPSK-, M-PSK- und M-QAM-Konstellationen. Die entstandenen K Symbole der Unterkanäle werden durch die IDFT gemeinsam OFDMmoduliert.
142
4 Modulation eines sinusförmigen Trägers
0
Normierte Leistungsdichte
0
in dB
in dB -10
Sendemaske -20
-20
-28
-30
-40 -10
0
9 11
20
-40
30
f fc in MHz
Bild 4-38 Maske für die vom Sender ausgestrahlte Leistungsdichte nach IEEE 802.11a/g und Leistungsdichtespektrum des OFDM-Signals (Simulation mit Schutzband und Schutzintervall, ohne Impulsformung oder Filterung)
Komplexe Datensymbole
Bitstrom
Komplexes Basisbandsignal
d0
D0
d1
D1
Schutzintervall
Quadraturkomponenten
Zyklische Erweiterung
Symbolzuweisung
IDFT
Spitzenwertreduktion
A D
QuadraturMischer
Impulsformung
dK1
DK1 Reelles Bandpass-Signal
Bild 4-39 Erzeugung von OFDM-Signalen (vereinfacht)
Auf der Ausgangsseite der IDFT entsteht das komplexe Basisbandsignal, Vor der Weitergabe an den Sender sind verschiedene Nachverarbeitungen notwendig bzw. vorteilhaft. Für die Detektion ist wichtig, ISI zu vermeiden. Deswegen werden in den praktischen Anwendungen zwischen den OFDM-Symbolen Schutzintervalle GI (Guard Interval) eingeführt. Durch den zusätzlichen Schutzintervall TG erhöht sich die Übertragungsdauer eines OFDMSymbols. Man spricht von einem Kernsymbol der Dauer Ts, was für die Abstände der Unterträger wichtig ist (4.35), und der tatsächlichen Dauer der Übertragung TT = Ts + TG. Die Dauer des Schutzintervalls ist eine kritische Größe. Einerseits soll es groß genug sein, damit „Ausschwingvorgänge“ im Übertragungskanal abgeschlossen sind, andererseits so klein wie möglich, damit der (Daten-)Durchsatz und der Anteil an Symbolenergie möglichst wenig reduziert wird.
4.5 Digitale Modulationsverfahren
143
Weil das Übertragungsmedium jeweils nur für die Zeit Ts zur Datenübertragung genutzt wird, reduziert sich der relative Durchsatz auf Drel
Ts Ts TG
(4.39)
Beträgt das Schutzintervall 20 %, wie beim WLAN Standard IEEE 802.11a/g, wird der Durchsatz auf 80 % gesenkt. Damit fällt auch die spektrale Effizienz auf 80 % des Wertes ohne Schutzintervall. Entsprechendes gilt für die Signalenergie des Kernsymbols, was bei der üblicherweise begrenzten Sendeleistung zu einer erhöhten Fehlerwahrscheinlichkeit führt. Anmerkungen: (i) Das Schutzintervall von TG = 0,8 Ps entspricht einer Umweglänge von 240 m. (ii) Für DVB-T sind die Verhältnis TG / Ts = 1/4, 1/8, 1/16 und 1/32 vorgesehen.
Für die Detektion ist weiter wichtig, dass die Basisbandsignale die Eigenschaft der Orthogonalität nicht verlieren. Deshalb sollten „Einschwingvorgänge“ vor der Detektion mit der DFT im Übertragungskanal abgeklungen sein. Abhilfe schafft hier die zyklische Erweiterung des Kernsymbols. Das heißt der hintere Abschnitt des Kernsymbols wird im Schutzintervall dem Kernsymbol vorangestellt, siehe Bild 4-40 mit der vorangestellten Präfix CP (Cyclic Prefix). Beim praktischen Betrieb der Sender zeigt sich ein weitere Schwierigkeit. Während Modulationsverfahren, wie die herkömmliche FM oder die M-PSK Signale mit konstanter Einhüllenden produzieren, liefert die OFDM-Modulation eine hohe Signaldynamik: Spitzenwerte des Betrags des Basisbandsignals können bis um den Faktor 10log10(K) dB von der mittlere Amplitude, dem Effektivwert, abweichen; bei K = 52 sind das ca. 17 dB.
m-tes Symbol
(m1)-tes Symbol CP
Zyklische Erweiterung
TG
Ts
(m+1)-tes Symbol
Bild 4-40 Zyklische Erweiterung mit Präfix im Schutzintervall
Letzteres stellt die Übertragung mit leistungseffizienten Verstärkern vor Probleme, weil diese nichtlineare Kennlinien aufweisen, die bei hoher Aussteuerung zu merklichen linearen Signalverzerrungen führen. Mögliche Maßnahmen gehen hier von nachträglicher Filterung zur Unterdrückung unzulässiger Außerbandstrahlung bis zur adaptive Kontrolle zur Spitzenwertreduktion. Die Maßnahmen haben ihre eigenen Vor- und Nachteile. Beispielsweise können einzelne Träger zur Spitzenwertreduktion reserviert werden. Ihre Amplituden werden jeweils so bestimmt, dass der Spitzenwert abgebaut wird. Damit gehen allerdings Unterträger für die Datenübertragung verloren, so dass der maximal erzielbare Durchsatz sink. Anmerkung: In der Literatur wird das Problem unter den Stichworten Peak-to-Average Ratio (PAR) bzw. Peak-to-Average Power Ratio (PAPR) behandelt.
Abschließend sei noch darauf hingewiesen, dass durch eine Impulsformung, vergleiche Bild 4-25, das Problem der Außerbandstrahlung in Bild 4-38 reduziert werden.
144
4 Modulation eines sinusförmigen Trägers
OFDM ist heute ein Standardverfahren für Übertragungssysteme in unterschiedlichen Anwendungsfeldern. Für die nahe Zukunft stellt sie eine vielversprechende Option dar [Roh08]; für die nächste Mobilfunkgeneration nach UMTS ist sie ein ernsthafter Kandidat.
4.6
Zusammenfassung
Durch Modulation von sinusförmigen Trägersignalen werden Sprachtelefonsignale, Audiound Fernsehsignale im Frequenzmultiplex gebündelt und gemeinsam über Weitverkehrsstrecken, Richtfunkstrecken oder im Rundfunk übertragen. Im Rundfunk wurde in den 1920er Jahren die technologisch einfacher zu beherrschende Amplitudenmodulation eingeführt. Sie zeichnet sich besonders als Einseitenbandmodulation durch eine hohe spektrale Effizienz aus. Die Amplitudenmodulation ist aber vergleichsweise anfällig gegen Störungen, so dass sie in der Funktechnik Ende der 1930 Jahre durch die Frequenzmodulation abgelöst wurde. Letztere ist ein nichtlineares Modulationsverfahren, bei dem Bandbreite gegen Störfestigkeit getauscht werden kann. Bei der leitungsgebundenen Übertragung wurde mit dem analogen Trägerfrequenzsystem für öffentliche Telefonnetze eine relativ leistungsfähige aber sehr aufwändige Technik auf der Basis der Einseitenbandmodulation weltweit eingeführt. Wegen der in der Rundfunktechnik bei technischen Neuerungen, wie dem Stereo-Tonrundfunk oder das Farbfernsehen, wichtigen Kompatibilität zu den bereits millionenfach vorhandenen Empfängern basiert der heutige analoge Hör- und Fernsehrundfunk vielfach noch auf dem Stand der Technik der 1950er Jahre. Eine Ablösung durch digitale Systeme hat jedoch bereits begonnen. Solange die digitalen Übertragungstechnik zur Ausstrahlung von mehr Kanälen statt besserer Bildqualität benutzt wird, werden die Vorteile der digitalen Technik jedoch nicht sichtbar. Spätestens in den 1960er Jahren wurden die Grenzen der analogen Übertragungstechnik in der Fachwelt allgemein erkannt. In modernen Telekommunikationsnetzen sind heute die analogen Trägerfrequenzsysteme durch digitale Übertragungssysteme und optische Systeme abgelöst. Auf Richtfunkstrecken wird die FM durch die QAM mit hoher Stufenzahl ersetzt. Weitere Beispiele sind der digitale Mobilfunk oder die terrestrische Ausstrahlung des digitalen Fernsehens. Digitale Modulationsverfahren, wie die digitale QAM, verbinden die Bandbreiteneffizienz der Amplitudenmodulation mit der Störfestigkeit der digitalen Übertragung. Insbesondere ermöglichen die Forschritte der Digitaltechnik zunehmend komplexere Verfahren der digitalen Signalverarbeitung und aufwändigere Fehlerkorrekturverfahren, so dass das Potential der digitalen Übertragungstechnik heute noch nicht ausgeschöpft ist. Dies gilt besonders für alle Arten der Funkkommunikation, wie die drahtlosen lokalen Netze oder die Mobilkommunikation, für die heute mit OFDM ein bewährtes Übertragungsverfahren mit weiterem Entwicklungspotential bereitsteht.
4.7
Aufgaben zu Abschnitt 4
Aufgabe 4.1
a) Wodurch unterscheiden sich die kohärente und die inkohärente Demodulation? b) Worin liegen Vor- und Nachteile der kohärenten Demodulation?
4.7 Aufgaben zu Abschnitt 4
145
Aufgabe 4.2
In Bild A4.2-1 ist ein Ausschnitt des Signals u(t) dargestellt. Das Signal hat die Grenzfrequenz fg und wird gemäß dem Blockschaltbild im Bild A4.2-3 moduliert. a) Um welches Modulationsverfahren handelt es sich? b) Was muss für die Trägerfrequenz fT sinnvoller weise gelten? c) Skizzieren Sie den prinzipiellen Verlauf des Modulationsproduktes. u(t) U0
uM(t)
u(t) t1
t2
t
cos(ZTt)
U0 Bild A4.2-1 Signalausschnitt
Bild A4.2-3 Blockdiagramm des Modulators
Aufgabe 4.3
In Bild A3.3-1 ist das Spektrum U( jZ) eines Telefonsprachsignals u(t) schematisch dargestellt. Das Signal wird mit einem Träger mit der Frequenz von 12 kHz moduliert, siehe Bild A4.3-2.
A 3,4
u(t)
Das Signal wird nun gemäß dem Blockdiagramm in Bild A4.3-3 demoduliert.
Ein FM-Trägersignal bei 1 MHz wird mit einem Eintonsignal mit der Signalfrequenz 10 kHz frequenzmoduliert. Der Frequenzhub ist 24,048 kHz.
in kHz
3,4
Z 2S
uM(t)
cos(Zt)
b) Skizzieren Sie den prinzipiellen Verlauf des resultierenden Betragspektrums von ud(t).
Aufgabe 4.4
0,3 0,3
Bild A4.3-1 Betragsspektrum (schem.)
a) Skizzieren Sie das Betragsspektrum des Modulationsproduktes uM(t).
c) Welche Grenzfrequenz fg muss der ideale Tiefpass (TP) haben, damit das Signal u(t) fehlerfrei zurück gewonnen werden kann?
U( jZ)
Bild A4.3-2 Modulator
ud(t)
uM(t)
id. TP ud,TP(t) fg
cos(Zt) Bild A4.3-3 Demodulator
a) Welche prinzipielle Form hat das Betragspektrum des FM-Signals? b) Wie groß ist die Bandbreite des FM-Signals? Begründen Sie Ihre Antwort. c) Ist die Trägerfrequenz im FM-Spektrum enthalten? Begründen Sie Ihre Antwort.
146
4 Modulation eines sinusförmigen Trägers
Aufgabe 4.5
Vergleichen Sie die analoge AM und die digitale ASK-Modulation bezüglich der Signalbandbreite und der Störfestigkeit. Aufgabe 4.6
a) Skizzieren Sie den Signalraum-Konstellation der QPSK-Modulation, die als BPSK in den Quadraturkomponenten erzeugt wird. b) Tragen Sie im Bild die Zuordnung der Signale zu den Bitkombinationen der Nachricht ein. Verwenden Sie einen Gray-Code. c) Welchen Vorteil bietet die Gray-Codierung und auf welche Annahme gründet sich dieser? d) Wodurch unterscheidet sich die M-PSK-Modulation gegenüber einer rechteckförmigen MQAM im Signalraum? e) Welcher Vorteil und Nachteil ergibt sich daraus für die M-PSK? Aufgabe 4.7
a) Was ist die Aufgaben eines Quadratur-Mischers? b) Erklären Sie das Prinzip der OFDM-Modulation? Welche Bedingung muss dabei eingehalten werden? c) Wofür steht das Akronym OFDM? Nennen Sie drei Anwendungen mit OFDM. Aufgabe 4.8
Für ein OFDM-Übertragungssystem mit Funkübertragung ist die Bandbreite 20 MHz vorgesehen. Es soll eine DFT/IDFT der Länge 64 verwendet werden. Um Störungen in den Nachbarbändern auf einen zulässigen Wert zu begrenzen, werden 6 bzw. 5 Unterträger am Rande des Übertragungsbandes nicht verwendet. Zusätzlich wird der Unterträger bei der Mittenfrequenz (Bandmitte) nicht übertragen, damit einfachere Empfängerschaltungen verwendet werden können. Als Schutzintervall wird 1/5 der OFDM-Symboldauer vorgeschlagen. Bewerten Sie den Systemvorschlag indem Sie folgende Fragen beantworten. a) Wie groß ist der Frequenzabstand der Unterträger? b) Wie groß ist die OFDM-Symboldauer? c) Zwischen welchen Werten schwankt die spektrale Effizienz, wenn eine Umschaltung zwischen einer BPSK- und einer 64-QAM-Modulation der Unterträger möglich sein soll? d) Warum sollte eine Umschaltmöglichkeit wie in (c) vorgesehen werden? e) Was ist für die Funkübertragung aufgrund des Schutzintervalls zu beachten?
147
5
Digitale Übertragung im Basisband
5.1
Einführung
Der Begriff digitale Übertragung im Basisband fasst eine Vielzahl von Anwendungen und entsprechend unterschiedliche, technische Lösungen zusammen, bei denen keine Frequenzumsetzung mit einem sinusförmigen Trägersignal wie in Abschnitt 4 geschieht. Die folgende Darstellung beschränkt sich auf die grundlegenden Prinzipen und wichtigsten Begriffe. Zunächst wird am Beispiel des ASCII-Codes und der weit verbreiteten RS-232-Schnittstelle eine Einführung in den Themenkreis gegeben. Danach werden die beiden wesentlichen Störeinflüsse, das Rauschen und die Bandbegrenzung, anhand einfacher Modellüberlegungen behandelt. Schließlich wird der Zusammenhang zwischen der Datenrate, der Bandbreite und dem SignalGeräuschverhältnis aufgezeigt. Anmerkung: Weiterführende Literatur, z. B. [Che98], [Con04], [Kam08], [Loc02], [Pro01], [SCS00], [SSCS03], [Sta00], [Wer05], [Wer06], [Wit02].
Typische Beispiele einer digitalen Übertragung im Basisband liefern die S0- und UK0-Schnittstellen des ISDN-Netzes in Bild 1-4 und die leitungsgebundene Datenkommunikation in lokalen Rechnernetzen. Hinzu kommt die leitungsgebundene Datenübertragung zwischen PCs, Druckern, speicherprogrammierbaren Steuerungen, Mikrocontrollern usw. Bei der Kommunikation von Maschine zu Maschine ergeben sich Anforderungen, die sich von den Bedingungen der bekannten Sprachtelefonie unterscheiden. So werden an die Fehlerrobustheit hohe bis höchste Anforderungen gestellt, bis hin zur fast fehlerfreien Übertragung. Typisch sind Wahrscheinlichkeiten kleiner 106 für einzelne quasizufällige Bitfehler, engl. Bit Error Rate (BER) genannt. Ebenso wichtig ist, dass die Daten in der richtigen Reihenfolge, vollständig und ohne Wiederholung, sowie ohne zusätzliche fremde Daten empfangen werden. Anders als in der Sprachtelefonie sind die zeitlichen Anforderungen in der Regel eher gering. Allerdings existieren auch Anwendungen, bei der es auf eine schnelle bzw. gleichmäßige Übertragung ankommt. Anmerkung: (i) In der Steuerungs- und Regelungstechnik ist die Echtzeitfähigkeit der Datenübertragung eine wichtige und unter Umständen sogar sicherheitsrelevante Frage. Darunter versteht man die Übertragung von Steuerinformationen innerhalb der von den Prozessen vorgegeben Zeit. (ii) Bei Videobetrachtung ist eine gleichmäßige Übertragung der Daten erwünscht, damit beispielsweise das Bild nicht plötzlich einfriert.
Mehr als bei der Verständigung zwischen Menschen, die zur Not improvisieren können, sind für die Datenkommunikation gemeinsame Protokolle und Schnittstellen erforderlich. Um eine länderübergreifende Telegrafie zu ermöglichen, wurde bereits 1865 in Paris der internationale Telegrafenverein gegründet. Aus ihm ist die heute für den TK-Sektor maßgebliche International Telecommunication Union (ITU) hervorgegangen. Eine wichtige Rolle spielt auch die International Standardization Organization (ISO), unter anderem mit dem bekannten OpenSystem-Interconnect (OSI) –Referenzmodell, das in Abschnitt 6 behandelt wird. Ein bekanntes Beispiel für die Standardisierung ist der American Standard Code for Information Interchange, kurz ASCII-Code genannt. Er hat als Internationales Alphabet Nr. 5 (IA5) der ITU-Empfehlung V3 von 1968 oder ISO-Standard ISO R 646 weltweite Bedeutung. Es
5 Digitale Übertragung im Basisband
148
existieren auch verschiedene lokale Anpassungen wie die deutsche Version DIN 66003, die acht in der deutschen Schriftsprache gebräuchliche Zeichen einführt, siehe Tabelle 5-1 und Tabelle 5-2. Anmerkung: DIN steht für das Deutsche Institute für Normung e.V., dem Nachfolger des 1917 gegründeten Nomenausschusses der Deutschen Industrie e.V., Berlin.
Beim ASCII-Code werden sieben binäre Zeichen, die Bits (Binary Digit), benutzt um 27 = 128 Zeichen, Meldungen und Befehle darzustellen. Die ersten beiden grau unterlegten Spalten in Tabelle 5-1 beinhalten Sonderzeichen für Meldungen und Befehle zur Kommunikationssteuerung, wie die positive Empfangsbestätigung ACK (Acknowledgement) oder wie dem (Schreibmaschinen-) Wagenrücklauf CR (Carriage Return) der Fernschreibtechnik. Eine Aufstellung der Bedeutungen der Sonderzeichen findet sich z. B. in [Wer05]. Die Zeichen werden als Bitmuster, in der Regel beginnend mit dem Bit b1, übertragen. Zusätzlich kann zur Einzelfehlererkennung ein Paritätsbit hinzugestellt werden. Dann sind pro ASCII-Zeichen 8 Bits, also ein Oktett oder Byte, zu senden.
Tabelle 5-1 ASCII-Code nach DIN 66003
0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 b4
0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 b3
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 b2
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 b1
Tabelle 5-2
0 0 0 NUL SOH STX ETX EOT ENQ ACK BEL BS HT LF VT FF CR SO SI
0 0 0 1 1 0 DLE Space DC1 ! DC2 ’’ DC3 # DC4 $ NAK % SYN & ETB ´ CAN ( EM ) SUB * ESC + FS , GS RS . US /
0 1 1 0 1 2 3 4 5 6 7 8 9 : ; < = > ?
1 0 0 § A B C D E F G H I J K L M N O
1 0 1 P Q R S T U V W X Y Z Ä Ö Ü ^ _
1 1 0 ` a b c d e f g h i j k l m n o
1 1 1 p q r s t u v w x y z ä ö ü ß DEL
Deutsche Norm DIN 66003 und ISO-Standard
DIN 66003
§
Ä
Ö
Ü
ä
ö
ü
ß
ISO R 646
@
[
\
]
{
|
}
~
b7 b6 b5
5.1 Einführung
149
Beispiel ASCII-Code-Darstellung mit gerader Parität Als Beispiel wählen wir die Initialen E.T. und stellen sie mit gerader Parität dar. Dazu entnehmen wir Tabelle 5-1 die Bitmuster für die Buchstaben „E“ und „T“ sowie das Satzzeichen „.“. Gerade Parität liegt vor, wenn die Zahl der Einsen im Codewort einschließlich des Paritätsbits gerade ist. Entsprechend wir das Paritätsbit jeweils gesetzt. Wir erhalten die Bitfolge 1010 001 0111 010 0010 101 0111 010. _______________________________________________________________________________ Ende des Beispiels
Grundsätzlich unterscheidet man bei der Datenübertragung zwischen asynchron und synchron. Bei der Asynchronübertragung liegt während der gesamten Übertragungszeit kein einheitliches Zeitraster, wie der Schritttakt, zugrunde. Die Übertragung geschieht mit einzelnen Datenwörtern oder kurzen Rahmen, z. B. den ASCII-Zeichen, die mit einer Synchronisationsphase beginnen und dazwischen unterschiedlich lange Pausen zulassen. Man spricht auch von einem Start-Stopp-Verfahren. Ein wichtiges Beispiel ist die auf PCs oft noch vorhandene RS-232Schnittstelle. Sie wird im nächsten Unterabschnitt beschrieben. Bei der Synchronübertragung wird ein Takt im Sender erzeugt und dem Empfänger zur Verfügung gestellt. Es liegt der Übertragung eines Rahmens ein einheitliches Zeitraster zwischen Sender und Empfänger zugrunde, was den Datenempfang erleichtert. Dadurch können lange Rahmen und deutlich höhere Datenraten als bei der asynchronen Übertragung realisiert werden, allerdings mit höherem Aufwand. Ferner wird zwischen serieller und paralleler Übertragung unterschieden. Werden die Bits eines Datenwortes oder Rahmens nacheinander über eine Leitung gesendet, spricht man von serieller Übertragung. Eine höhere Bitrate erreicht man bei paralleler Übertragung durch gleichzeitiges Versenden mehrerer Bits, meist ein Datenwort mit acht Byte oder ganzzahlige Vielfache davon, über entsprechend viele Leitungen. Die logische Einbettung der Datenübertragung in komplexere Kommunikationssysteme ist in Bild 5-1 dargestellt. Die Anbindung an das TK-System, z. B. das öffentliche TK-Netz, geschieht mit der Datenübertragungseinrichtung (DÜE) als Leitungsabschluss, engl. Data Circuit-terminating Equipment (DCE). Den Informationsaustausch zwischen DÜE und der Datenendeinrichtung (DEE), englisch Data Terminal Equipment (DTE), regelt die Datenschnittstelle DSS. Man unterscheidet je nachdem ob die Kommunikation nur in eine Richtung, abwechselnd in beide Richtungen oder gleichzeitig in beide Richtungen erfolgt, zwischen der Simplex-, Halb-Duplex bzw. Duplex-Übertragung.
DEE
DÜE DSS
Bild 5-1
TK-System
DÜE
DEE DSS
Einbettung der Datenübertragung mit Datenendeinrichtung DEE, Datenschnittstelle DSS und Datenübertragungseinrichtung DÜE
5 Digitale Übertragung im Basisband
150
5.2
RS-232-Schnittstelle
In diesem Abschnitt werden einige für die Datenübertragung im Basisband wichtige Zusammenhänge am Beispiel der RS-232-Schnittstelle aufgezeigt. 1962 wurde von der Electronic Industries Alliance (EIA) in den USA die Schnittstelle RS-232 als Recommended Standard zur seriellen Datenkommunikation eingeführt. Damit begann eine wahre Erfolgsgeschichte. Seit 1997 liegt die Schnittstellenbeschreibung in sechster Überarbeitung als EIA-232-F Standard vor. Anmerkung: Die EIA-232-F entspricht funktional der V24- und elektrisch der V28-Schnittstelle der ITU, die sich selbst bei ihrer Standardisierung an der damals aktuellen Version der RS-232-Schnittstelle orientierte. Die V24/V28-Schnittstelle regelt die Anbindung von Modems an öffentliche TK-Netze und wurde 1996 bzw. 1993 definiert. Der mechanische Aufbau folgt dem Standard ISO 2110. V24, V28 und ISO 2110 wurden in die deutsche Normen DIN 66020, DIN 66259 bzw. DIN 41652 übertragen.
Die RS-232-Schnittstelle sieht eine 25-polige Steckverbindung vor. Von den 25 Verbindungsleitungen werden nur zwei zur eigentlichen Datenübertragung verwendet. Zwei weitere stellen gemeinsame elektrische Bezugspotentiale her. Die anderen dienen zur Steuerung und Meldung, stellen Taktsignale und Hilfskanäle zur Verfügung, und unterstützen Tests bzw. sind nicht belegt. Häufig wird zur Realisierung einer Datenübertragung, zum Beispiel zum Anschluss an die analoge a/b-Schnittstelle der Telefonleitung, nur ein Teil der Leitungen benutzt. Typischer Weise werden 9 Leitungen plus Schutzerde verwendet [TiSc02]. Der Anschluss eines PC geschieht oft mit einer 9-poligen SUB-D-Steckverbindung. Die Umsetzung des 25-poligen Anschlusses auf einen 9-poligen zeigt Bild 5-2. 1 2 3 4 5 6 7 8 9 . . . 19 DTR 20 21 RI 22 23 24 25
1 2 3 4 5 6 7 8 9
TxD RxD RTS CTS DSR SG DCD
DCD RxD TxD DTR GND DSR RTS CTS RI
DCD
zeigt der DEE an, ob DÜE ausreichenden Signalpegel empfängt RxD Empfangsdaten von der DÜE zur DEE TxD Sendedaten von der DEE an die DÜE DTR zeigt der DÜE die Betriebsbereitschaft der DEE an GND Betriebserde DSR zeigt der DEE die Betriebsbereitschaft der DÜE an RTS zeigt der DÜE an, dass Sendebetrieb gefordert wird CTS zeigt der DEE die Sendebereitschaft der DÜE an (Quittung RTS) RI meldet ankommenden Ruf
Stift 1 2 3 4 5
6 7
8 9
Bild 5-2 Umsetzung der 25-poligen RS-232-Schnittstelle auf eine 9-polige Steckverbindung (SUB-D)
5.2 RS-232-Schnittstelle
151
Wenn keine Steuerleitungen benutzt werden können, spricht man von einem X-On/X-OffHandshake-Betrieb, siehe Bild 5-3. Hierbei wird das ASCII-Sonderzeichen DC1 zum einschalten bzw. Wiedereinschalten des Senders über die Datenleitungen TxD bzw. RxD verwendet. Mit dem ASCII-Sonderzeichen DC3 wird 1 DCD DCD 1 der Sender gestoppt. Handshaking heißt, dass 2 2 RxD RxD die Übertragung durch eine Sendeaufforde3 TxD TxD 3 rung angestoßen und durch eine Quittierung 4 DTR DTR 4 abgeschlossen wird. 5 GND GND 5 DSR Die elektrische Nachrichtenübertragung auf RTS den Schnittstellenleitungen RxD und TxD CTS wird am Beispiel der Übertragung des ASCIIRI Zeichens „E“ erläutert. In Bild 5-4 ist der Signalverlauf schematisch dargestellt. ZugelasBild 5-3 sen ist der Spannungsbereich von 25V bis +25V, wobei Werte kleiner 3V dem logischen Zustand „1“ und über 3V dem logischen Zustand „0“ entsprechen. Der grau markierte Bereich dazwischen ist nicht definiert.
6 7 8 9
6 7 8 9
DSR RTS CTS RI
Umsetzung zweier RS-232-Schnittstellen mit 9-poligen Steckverbindung (SUB-D) für den X-On/ X-OffHandshake-Betrieb
Vor der Übertragung liegt die Spannung auf dem typischen Wert von 12V. Die Übertragung beginnt mit einem positiven Rechteckimpuls, dem Startbit, der Dauer eines Taktintervalls T. Daran schließen sich die sieben Bits des ASCII-Zeichens und das Paritätsbit, hier für gerade Parität, an. Zum Schluss werden ein oder wie im Beispiel zwei Stoppbits eingefügt. Damit wird sichergestellt, dass der Beginn der nächsten Zeichenübertragung stets durch einen positiven Spannungssprung gekennzeichnet wird. Das Einfügen von Start-, Paritäts- und Stoppbits reduziert die effektive Bitrate. Ein Zahlenwertbeispiel erläutert die in der Übertragungstechnik eingeführten unterschiedlichen Größen und ihre Zusammenhänge. Bei einer typischen Übertragungsrate von 9600 Baud1, d. h. einer Schrittgeschwindigkeit von 9600 Schritten pro Sekunde, beträgt das Taktintervall T ca. 0,104 ms. Im Beispiel in Bild 5-4 werden 11 Taktintervalle benötigt um ein Symbol (Zeichen) zu übertragen. Damit ergibt sich eine Symboldauer Ts von ca. 1,15 ms. Die maximale Symbolrate beträgt dann 872 symbol/s, wobei die Übertragung von Steuerinformation und Meldungen diese aus der Sicht des Nutzers nochmals reduziert. Da pro Symbol sieben Informationsbits übertragen werden ist die (effektive) Bitrate Rb ca. 6,109 kbit/s. Die Übertragung besitzt eine Effizienz von 7/11 = 0,636. Die RS-232-Schnittstelle ist auf Übertragungsraten von 20 kBaud bei einer Leitungslänge von bis zu 15 m ausgelegt. Die Verwendung nur einer gemeinsamen Masseleitung (Betriebserde) macht sich einschränkend bemerkbar. Höhere Übertragungsraten können durch spezielle Maßnahmen erreicht werden, z. B. [TiSc02] und [Wit02].
1
Mit der Pseudoeinheit „Baud“ wird der französische Ingenieur und Pionier der Telegrafie Jean Maurice Emile Baudot geehrt: *1845, †1903.
Startbit
7 Datenbits
Paritätsbit Stoppbit Stoppbit
5 Digitale Übertragung im Basisband
152
Spannung in V
0 1 0 1 0 0 0 1 1 1 1
12 Logisch „0“ 3
Logisch unbestimmt Zeit
3
Logisch „1“
12 Taktintervall T
gesamte Übertragungsdauer Bild 5-4
Signal zur Übertragung des ASCII-Zeichens „E“ mit gerader Parität und einem Start- und zwei Stoppbits
Heute weit verbreitete Realisierungen der asynchronen Kommunikation auf dem Prinzip der RS-232-Schnittstelle benutzen einen integrierten programmierbaren Baustein, den UARTController (Universal Asynchronous Receiver/Transmitter). In manchen Mikrocontrollern ist ein UART-Controller bereits integriert. UART-Controller zeichnen sich im Allgemeinen durch eine große Flexibilität aus. Die Parameter der Übertragung sind per Software einstellbar. So werden typischer Weise die Schrittgeschwindigkeit 300, 600, 1200, 2400, 4800, 9600, 19200, 38400, 57600 und 115200 Baud unterstützt. In speziellen Anwendungen sind auch höhere Übertragungsgeschwindigkeiten anzutreffen. Es können jeweils 5, 6, 7 oder 8 Datenbits verwendet werden. Weiter kann in der Regel keine Parität, eine gerade oder eine ungerade Parität und die Zahl der Stoppbits 1, 1,5 oder 2 eingestellt werden. Auch die Spannungspegel können variieren. So existieren Bausteine, die mit den elektrischen Werten zwischen 0 und 5 V arbeiten. Speziell im PC-Multimedia-Bereich sind zunehmend zwei neue serielle Bus-Systeme im Einsatz. Mit dem Universal Seriell Bus (USB) sind in der Version USB 2.0 Bitraten bis zu 480 Mbit/s und Hot Plug and Play, also Verbinden und Trennen der Geräte im eingeschalteten Zustand und automatischer Erkennung, möglich. Dazu konkurriert der IEEE-1394-Bus mit Bitraten von bis zu 800 Mbit/s, der auch unter den Namen Fire Wire oder i.Link vermarktet wird [Wit02]. Schließlich sei auch auf den Kabelersatz durch Nahfunksysteme wie Bluetooth, ZigBee oder WLAN hingewiesen, siehe Abschnitt 8.
5.3
Digitale Basisbandübertragung
In diesem und den folgenden Unterabschnitten wenden wir uns den Übertragungstechnischen Grundlagen zu. Wir gehen vom shannonsche Übertragungsmodell aus und ergänzen darin die Leitungscodierung und Impulsformung im Sender und Synchronisation und Detektion im Empfänger, siehe Bild 5-5. Die Funktionen der Komponenten werden anhand eines einfachen Beispiels vorgestellt.
5.3 Digitale Basisbandübertragung
153
Bitstrom
bn Quelle
Sender Leitungscodierung
Impulsformung
u(t)
Basisbandsignal
Kanal Bitstrom Sinke
Empfänger
bˆn
y(t) Detektion
Takt Synchronisation
Bild 5-5 Modell der digitalen Basisbandübertragung
Quelle Wir nehmen an, dass die Quelle unabhängige gleichwahrscheinliche Binärzeichen bn {0,1} an den Sender abgibt. Eine Quelle mit binärem Zeichenvorrat wird Binärquelle genannt und die Zeichen kurz Bits. Die Unabhängigkeit und die Gleichverteilung der zu übertragenden Zeichen werden in der Informationstechnik in der Regel vorausgesetzt. Gegebenenfalls werden beide Eigenschaften durch geeignete Maßnahmen wie der (Daten-)Verwürfelung, auch Scrambling genannt, in der Zeichenfolge angenähert. Sender Der Sender besteht im Wesentlichen aus zwei Komponenten: der Leitungscodierung und der Impulsformung. Sie haben die Aufgabe, das Signal für eine effektive Übertragung an die physikalischen Eigenschaften des Kanals anzupassen. Dabei sind meist folgende Anforderungen zu berücksichtigen: x Das Signal soll gleichstromfrei sein. Also keine Spektralanteile um die Frequenz null aufweisen, damit eine galvanische Kopplung mit Übertragern (magnetisch gekoppelte Spulen) ohne Signalstörung möglich wird. x Das Signal soll eine hohe spektrale Effizienz besitzen, um bei begrenzter Bandbreite eine hohe Bitrate zu erreichen. x Das Signal soll mit einem hohen Taktgehalt die Synchronisation erleichtern. x Das Signal soll eine geringe Störempfindlichkeit besitzen, so dass die Detektion zuverlässig gelingt. x Sender und Empfänger sollen eine geringe Komplexität besitzen, um Kosten, Baugröße, Energieaufnahme usw. klein zu halten. Der Hintergrund und die Konsequenzen dieser Forderungen werden im Verlauf dieses Abschnittes noch genauer erläutert.
5 Digitale Übertragung im Basisband
154
Damit sind bereits zwei wichtige Parameter der Datenübertragung festgelegt: die Bitdauer Tb, auch Bitintervall genannt, und die Bitrate R = 1bit/Tb.
Basisbandsignal
Im Beispiel wird der Bitstrom in ein binäres Signal mit zwei entgegen gesetzten Amplituden, ein bipolares Signal, umgesetzt. Das Sendesignal u(t) ist für die Bitfolge 101101 in Bild 5-6 veranschaulicht, vgl. auch Bild 5-4. Jedem Bit wird ein Rechteckimpuls als Sendegrundimpuls Bitstrom 1 0 1 1 0 1 zugeordnet. Seine Amplitude ist positiv falls Tb eine „1“ gesendet wird, andernfalls negativ. 1
0 3 T/Tb 1 Bild 5-6 Bipolares Signal (normiert)
Anmerkungen: (i) Im Folgenden werden die Basisbandsignale meist in normierter Darstellung skizziert, d. h. mit den Amplituden 1, 0 und 1. (ii) In der digitalen Basisbandübertragung werden auch die Begriffe Schrittdauer und Schrittgeschwindigkeit verwendet. Diese Begriffe stammen aus der Telegrafie, siehe auch Pseudoeinheit Baud auf Seite 151. Eine Schrittgeschwindigkeit von 50 Baud entspricht 50 elementaren Schritten pro Sekunde. Wird, wie in Bild 5-6 binär übertragen, so entspricht ein elementarer Schritt einem Rechteckimpuls. Dann stimmen Schrittgeschwindigkeit und (Brutto-) Bitrate überein.
Die Annahme idealer Rechteckimpulse ist für die weiteren Überlegungen ausreichend. In der Übertragungstechnik werden die tatsächlichen Impulsformen durch die Angabe von Toleranzbereichen, den Sendeimpulsmasken, vorgegeben. Die Sendeimpulsmaske für die ISDN S0-Schnittstelle ist in Bild 5-7 zu sehen. Aus der zu übertragenden Bitrate von R = 192 kbit/s resultiert die Bitdauer Tb | 5,21 Ps. Anmerkung: Die Datenrate auf der S0-Schnittstelle bestimmt sich aus den Anteilen für die beiden BKanäle (2 x 64 kbit/s), dem D-Kanal (16 kbit/s) und weitere Bits für die Organisation der Übertragung (48 kbit/s). Zur einfacheren Taktableitung wurde R als Vielfaches der Bitrate eines B-Kanals gewählt.
110 % 100 % 90 % 50 %
5,73 Ps 5,21 Ps
4,69 Ps
0,75 V
5% 6,25 Ps 10,42 Ps
Bild 5-7 Sendeimpulsmaske (positiver Impuls) für die ISDN S0-Schnittstelle
Übertragungskanal Der physikalische Übertragungskanal, kurz Kanal, wird meist durch vereinfachte Modelle beschrieben. Im Falle eines idealen Kanals erhält der Empfänger das gesendete Signal. In der Realität treten zwei zusätzliche Effekte auf. Zum ersten ist das Empfangssignal mit einer rauschartigen Störung beaufschlagt. Zum zweiten resultiert durch den Kanal und/oder durch eine Filterung zur Unterdrückung des Rauschens im Empfänger eine Bandbegrenzung des Empfangssignals. Zur Veranschaulichung ist in Bild 5-8 ein Ausschnitt aus dem gemessenen Signal eines ISDN-S0-Busses zu sehen. Die Leitungslänge war etwa 150 m, so dass der Einfluss des Kanals und damit die Abweichung von der Wunschform in der Sendeimpulsmaske Bild 5-7 deutlich wird. Die Bandbegrenzung und das Rauschen werden in den Unterabschnitten 5.5 und 5.6 in die Überlegungen einbezogen.
5.3 Digitale Basisbandübertragung
155 10 Ps
Spannung
0,5 V
Zeit Bild 5-8 Basisbandsignal des ISDN-S0-Busses (gemessen)
Empfänger Die Aufgabe des Empfängers ist es, aus dem Empfangssignal y(t) die gesendete Bitfolge der Quelle zu rekonstruieren. Er führt dazu folgende drei Schritte durch, siehe Bild 5-9: Synchronisation o Rückgewinnung der Zeitlage der Rechteckimpulse. Abtastung
o Das Empfangssignal y(t) wird bei idealer Synchronisation in der Mitte der Rechteckimpulse abgetastet.
Detektion
o Der Detektion liegt eine Schwellwertentscheidung zugrunde. Ist der Abtastwert, die Detektionsvariable y[n], größer oder gleich 0, so entscheidet der Empfänger auf das Zeichen „1“, andernfalls wird das Zeichen zu „0“ gesetzt.
Anmerkung: Die Entscheidung für den Signalwert 0 kann beliebig gewählt werden, da sie die Fehlerwahrscheinlichkeit insgesamt nicht beeinflusst. Synchronisation des Bittakts
y(t) 1 Abtastzeitpunkte
t/Tb Entscheider b
y(t) Empfangssignal
nTb
y[n]
1 0 1 2 3 4 5
1 0
bˆn y
0
Detektierter Bitstrom
y[n] 1 n 1 0 1 2 3 4 5 ˆ bn = {1, 0, 1, 1, 0,1 , …}
Bild 5-9 Vereinfachtes Blockschaltbild des Empfängers und der zugehörigen normierten Signale
Häufig werden auch speziell an den Sendegrundimpuls angepasste Filter, so genannte Matched-Filter, verwendet die unter gewissen Randbedingungen das Verhältnis von Nutzsignalleistung und Störsignalleistung im Detektor maximieren. Der Einsatz eines Matched-Filters erhöht die Zuverlässigkeit der Detektion und wird im Abschnitt 5.7 vorgestellt. Als eine Anwendung sei die asynchrone serielle Schnittstelle eines Mikrocontrollers für das Signal in Bild 5-4 genannt, z. B. der HC-11 der Firma Motorola [Mot91]. Im Empfangsteil des
5 Digitale Übertragung im Basisband
156
Mikrocontrollers wird das Signal 16-fach höher abgetastet als die vorab eingestellte Übertragungsrate angibt. Eine spezielle Logik mit Fehlerbehandlung detektiert den Beginn der Datenwörter. Wird ein Startbit erkannt, werden von den 16 Abtastwerten innerhalb jedes der folgenden Datenbits die jeweils innersten drei Abtastwerte durch eine Schwellwertentscheidung ausgewertet und eine Mehrheitsentscheidung durchgeführt.
5.4
Leitungscodierung
Die Aufgaben der Leitungscodierung wurden in Abschnitt 5.3 bereits mit dem Sender vorgestellt. In der Datenübertragungstechnik haben sich historisch verschiedene Formen binärer Leitungscodes als firmenspezifische Lösungen entwickelt. Man unterscheidet grundsätzlich zwei Arten von binären Leitungscodes: Codes bei denen innerhalb eines Bitintervalls die Signalamplitude nicht auf null zurückkehrt, die NRZ-Codes (Nonreturn-to-Zero), und Codes bei denen dies geschieht, die RZ-Codes (Return-to-Zero).
1 0
Mark Space Mark Mark Space Space Mark Space
Bitstrom 1 0 1 1 0 0 1 0
Basisbandsignale (normiert)
In Bild 5-10 sind typische Beispiele abgebildet. Die Übertragung der Bits durch das unipolare NRZ-Signal, auch On-off Keying (OOK) genannt, und das bipolare NRZSignal unterscheiden sich nur durch eine Gleichspannungskomponente. OOK ist für den Übergang auf eine optische Übertragung von Interesse, da beispielsweise damit Leuchtdioden (Light Emitting Diode, LED) für eine Infrarot-Strecke angesteuert werden können.
Unipolar NRZ (On-off Keying) Zeit
1 Bipolar NRZ 1 1 0
Unipolar RZ
Bei der unipolaren RZ-Übertragung ist die Dauer der elektrischen Impulse im Ver1 gleich mit dem unipolaren NRZ-Signal Biphase-Code halbiert. Das Spektrum wird also um den (Manchester) 1 Faktor zwei verbreitert. Dem Nachteil des breiteren Spektrums steht der Vorteil gegenüber, dass das RZ-Signal den doppelten Bild 5-10 Beispiele für binäre Leitungscodes Takt enthält, d. h. die doppelte Anzahl von Flanken anhand derer die Synchronisationseinrichtung den Bittakt erkennt. Darüber hinaus ergibt sich ein Schutzabstand gegen die Impulsverbreiterung, siehe Abschnitt 5.6. In lokalen Rechnernetzen wird häufig der Manchester-Code verwendet, z. B. bei der 10BaseTEthernet-Übertragung über ein verdrilltes Kabelpaar (Twisted Pair, TP) oder bei der Übertragung mit Koaxialkabel nach IEEE 802.3. Bei einer Gleichverteilung der Bits ist er gleichstromfrei. Der Manchester-Code wird auch Biphase-Code genannt, da das Signal innerhalb eines Bitintervalls Tb zwischen den beiden Phasen „1“ (0) und „–1“ (S ) wechselt. Durch den Phasenwechsel in jedem Bitintervall besitzt er einen hohen Taktgehalt. Selbst bei langen Nulloder Eins-Folgen kann die Synchronisation im Empfänger aufrechterhalten werden. Dies ist bei den anderen Beispielen in Bild 5-10 nicht immer der Fall.
5.4 Leitungscodierung
157
Space
Mark
Space
Mark
Space
Space
Mark
Mark
Space
Mark
Eine weitere in den Anwendungen bedeutende Klasse von Leitungscodes bilden die ternären Leitungscodes. Ein wichtiger Vertreter ist der AMI-Code. Das Akronym AMI steht Bitstrom 1 0 1 1 0 0 1 0 1 0 für „Alternate Mark Inversion“ und 1 beschreibt die alternierende Codie0 rung der logischen Eins als positiven Zeit 1 und negativen Impuls. Die Null wird Bild 5-11 Basisbandsignal (norm.) zum AMI-Code ausgetastet. Ein Codierungsbeispiel ist in Bild 5-11 angegeben. Es werden zwar drei Symbole, gekennzeichnet durch die Amplitudenstufen –1, 0 und +1, verwendet, jedoch wird pro Symbolintervall nur je ein Bit übertragen. Man spricht deshalb von einem pseudoternären Code. Seine Effizienz im Sinne der im dreistufigen Codealphabet enthaltenen Redundanz, siehe Abschnitt 7.1, ist 1/ ld3 | 0, 63 . Der AMI-Code besitzt ausreichenden Taktgehalt, wenn lange Nullfolgen vermieden werden. Er wird deshalb häufig zusammen mit einem Scrambler eingesetzt. Alternativ kann eine speziellen Coderegel für den Fall dass n Nullen aufeinander folgen implementiert werden, man spricht dann vom High Density Bipolar Code, kurz HDBn-Code. Abschließend sind zum Vergleich die Verteilungen der Sendeleistungen im Frequenzbereich, die Leistungsdichtespektren bei der bipolaren NRZ-Übertragung, der Übertragung mit dem Manchester-Code und dem AMI-Code in Bild 5-12 gegenübergestellt. Für die NRZ-Übertragung folgt das Leistungsdichtespektrum dem Quadrat der si-Funktion, wegen der direkten Zuordnung der Bits zu den Rechteckimpulsen. Der Manchester-Code und der AMI-Code sind gleichstromfrei. Obwohl die Basisbandsignale zu den beiden Codes ebenfalls aus Rechteckimpulsen zusammengesetzt sind, ergibt sich insbesondere eine Nullstelle des Spektrums an der Frequenzstelle null. Beim Manchester-Code ist der Signalmittelwert in jedem Bitintervall selbst null, so dass unabhängig von den zu sendenden Bits im Mittel kein Gleichanteil auftreten kann. Beim AMI-Code ist die Gleichstromfreiheit auf die Codierungsregel zurückzuführen, die eine Abhängigkeit vom Signalverlauf einführt. Man spricht von einer Codierung mit Gedächtnis. Im Gegensatz dazu sind der bipolare NRZ- und der Manchester-Code gedächtnislos. Die Code-Regel mit Gedächtnis des AMI-Codes kann aus Bild 5-11 herausgelesen werden. Die Bits mit dem logischen Wert „1“ werden alternierend positiven und negativen Rechteckimpulsen zugeordnet. Damit ist die Codierung von der jeweils letzten Zuordnung abhängig. Wie in Bild 5-12 zu sehen ist, konzentriert sich bei der AMI-Codierung die Leistung im Spektrum um f | 1/(2T ). Das gilt besonders, wenn man eine zusätzliche Impulsformung, z. B. durch einen Sendetiefpass mit fg = 1 / T, berücksichtigt. Der Manchester-Code belegt dazu im Vergleich ein etwas breiteres Band. Anmerkung: Die Codierung mit Gedächtnis eröffnet die Möglichkeit gezielt Leitungscodes für Anwendungen zu entwickeln.
5 Digitale Übertragung im Basisband
158
Leistungsdichtespektrum (normiert)
1
NRZ-Code
0,8 AMICode 0,6
ManchesterCode
0,4 0,2 0
f T 0
1
2
Bild 5-12 Verteilung der Sendeleistung der Basisbandsignale im Frequenzbereich
5.5
Störung durch Rauschen
Ein physikalisches Phänomen der elektrischen Nachrichtenübertragung ist die Störung durch Rauschen. Durch die thermische Bewegung der Elektronen überlagern sich den elektrischen Signalen additive regellose Störkomponenten, die sich nur mit statistischen Größen im Mittel beschreiben lassen. Messungen sowie theoretische Überlegungen führen auf das in Bild 5-13 gezeigte Modell des additiven weißen gaußschen Rauschens (AWGN, Additive White Gaussian Noise). Der Begriff weißes Rauschen leitet sich aus der Betrachtung im Frequenzbereich ab. Da alle Frequenzkomponenten des Rauschsignals im Mittel gleiche Leistung haben, also ein konstantes Leistungsdichtespektrum vorliegt, wird in Anlehnung an die additive Farbmischung in der Optik das Rauschen als weiß bezeichnet. Man beachte, die parsevalschen Formel (2.76) liefert für ein konstantes Leistungsdichtespektrum eine unendliche Leistung. Weißes Rauschen stellt eine Idealisierung ähnlich der Impulsfunktion in Abschnitt 2.12.1 dar. Weißes Rauschen ist stets in Verbindung mit einer Bandbegrenzung, wie die Bandpass- oder Tiefpassfilterung, zu sehen. Wir verzichten hier auf theoretische Herleitungen und heben nur die im Weiteren wichtigen Eigenschaften des AWGN-Kanals hervor. Die Überlegungen werden durch das Modell der digitalen Übertragung in Bild 5-13 unterstütz. Dem bipolaren Sendesignal mit der Amplitude uˆ wird im Kanal ein Rauschsignal additiv überlagert. Am Kanalausgang tritt die Summe aus Sendesignal (Nutzsignal) und Rauschsignal auf.
1
Die Amplituden der Rauschstörung sind zu jedem Zeitpunkt t normalverteilt (gaußverteilt) mit Mittelwert P = 0 und Varianz V 2. Als Wahrscheinlichkeitsdichtefunktion erhält man demzufolge die gaußsche Glockenkurve1 in Bild 5-14 [BSMM99].
Carl Friedrich Gauß: *1777, †1855, deutscher Mathematiker, Astronom und Physiker.
5.5 Störung durch Rauschen
159
f ( x)
§ x2 exp ¨ ¨ 2V 2 V 2S © 1
· ¸ ¸ ¹
(5.1)
Die Amplituden der Rauschstörung zu zwei beliebigen verschiedenen Zeitpunkten t1 und t2 sind voneinander unabhängig. Die Schwellwertentscheidung im Empfänger darf deshalb für jedes Bit unabhängig von früheren oder späteren Entscheidungen betrachtet werden. Man spricht in diesem Fall auch von einem gedächtnislosen Kanal. Empfangssignal
Sendesignal Kanal 1 0 1
Zeit
1 0 1
Zeit
Rauschsignal 0
Zeit
Bild 5-13 Vereinfachtes Modell der digitalen Übertragung im Basisband mit additiver Rauschstörung
Der Einfluss des AWGN-Kanals auf das Empfangssignal ist in Bild 5-13 deutlich zu erkennen. Die gesendeten Rechteckimpulse, grau hinterlegt, liefern für jedes Bitintervall den Mittelwert um den das Empfangssignal zufällig schwankt. Die Größe der Schwankungen 0,4 hängt von der Varianz der Rauschstörung f(x) ab. Im Bild liegt, um das Rauschen sichtbar hervorzuheben, ein Verhältnis von StandardV=1 abweichung des normalverteilten Rauschens 0,2 zu der Amplitude des Sendesignals von V uˆ 1 2 vor. P(X >2) Die Wahrscheinlichkeit, dass die Rauschamplitude betragsmäßig den Wert der Sen0 0 2 4 2 deamplitude uˆ übersteigt, kann deshalb der x 4 2V-Regel der Normalverteilung entnommen werden. Um innerhalb eines RechteckimpulBild 5-14 Gaußsche Glockenkurve: Wahrses einen Nulldurchgang im Empfangssignal scheinlichkeitsdichtefunktion der zu erzeugen, muss die Rauschamplitude der Normalverteilung mit Mittelwert P = Sendesignalamplitude entgegen gerichtet 0 und Standardabweichung V = 1 sein. Die Wahrscheinlichkeit für einen Nulldurchgang innerhalb eines Rechteckimpulses ist dann etwa 0,023, was der grau hinterlegten Fläche in Bild 5-14 für x > 2 entspricht. Tatsächlich sind in Bild 5-13 nur wenige derartige Nulldurchgänge zu beobachten.
Nach der Vorüberlegung zur Rauschamplitude wird nun die Wahrscheinlichkeit für ein falsch detektiertes Bit berechnet. Wegen der additiven Rauschstörung sind jeweils für ein Bit die kontinuierlich verteilten Detektionsvariablen y ruˆ n auszuwerten. Bei der Detektion liegt
5 Digitale Übertragung im Basisband
160
die in Bild 5-15 dargestellte Situation vor. Wird das Zeichen „1“ übertragen (b = 1), resultiert als bedingte Wahrscheinlichkeitsdichtefunktion die rechte Kurve, andernfalls die linke (b = 0). Für die bedingte Wahrscheinlichkeitsdichtefunktion zum Zeichen „1“ ergibt sich aus dem AWGN-Modell fY /1 ( y )
§ ( y uˆ )2 · exp ¨ ¸ ¨ V 2S 2V 2 ¸¹ © 1
(5.2)
uˆ und Varianz V 2.
Sie entspricht einer Normalverteilung mit Mittelwert P
Der Schwellwertdetektor entscheidet auf den Wert „1“, wenn die Detektionsvariable nichtnegativ ist, d. h. y t 0. Wird für das Bit der Wert „1“, d. h. uˆ , übertragen und nimmt die Rauschamplitude einen Wert kleiner als uˆ an, so ist die Detektionsvariable negativ und der Detektor trifft eine 0,8 fY/0(y) fY/1(y) Fehlentscheidung. Ein Bitfehler tritt auf. Anmerkung: Da beide Bits „1“ und „0“ gleichwahrscheinlich auftreten und sich die bedingten Wahrscheinlichkeitsdichtefunktionen für y = 0 schneiden, wird die Entscheidungsschwelle auf den Wert 0 gelegt. Dadurch wird die Fehlerwahrscheinlichkeit minimal. Der Wert y = 0 kann ohne Einfluss auf die Fehlerwahrscheinlichkeit als „1“ oder „0“ entschieden werden, da er nur mit der Wahrscheinlichkeit null („so gut wie nie“) auftritt.
Die Wahrscheinlichkeit für einen Bitfehler, die Bitfehlerwahrscheinlichkeit Pb, wird nach Bild 5-15 und der Wahrscheinlichkeitsdichtefunktion (5.2) bestimmt. Die Wahr- Bild 5-15 scheinlichkeit für den geschilderten Übertragungsfehler entspricht der grau unterlegten Fläche in Bild 5-15.
uˆ
0
uˆ
y
Bedingte Wahrscheinlichkeitsdichtefunktionen der Detektionsvariablen
0
³
P (Y 0 | b 1)
f
Y /1 ( y ) dy
(5.3)
f
Die Symmetrie der gaußschen Glockenkurve führt auf eine Form, die mit einer Substitution der Variablen und wenigen Zwischenschritten in die komplementäre Fehlerfunktion (erfc) überführt werden kann [BSMM99]. p(Y 0 | b 1)
uˆ § y2 1 1 exp ¨¨ 2 ³ 2 0 V 2S © 2V
1 1 2 S
uˆ V 2
³ 0
e x dx 2
· ¸¸ dy ¹
(5.4)
1 § uˆ · erfc ¨ ¸ 2 ©V 2 ¹
Anmerkungen: (i) erfc(.) steht für Complementary Error Function; siehe auch Error Function erf(.) mit erfc(x) = 1 erf(x) und gaußsches Fehlerintegral oder Fehlerfunktion [BSMM99]. (ii) Für nichtnegative Argumente startet die komplementäre Fehlerfunktion bei erfc(0) = 1, und nimmt für wachsende Argumente schnell monoton ab, wobei sie asymptotisch gegen 0 geht.
Um die Bitfehlerwahrscheinlichkeit zu bestimmen, muss auch die Übertragung des Bits „0“ berücksichtigt werden. Da vorausgesetzt wird, dass beide Zeichen gleichwahrscheinlich auftre-
5.5 Störung durch Rauschen
161
ten, P(b=1) = P(b=0) = 1/2, und die bedingten Wahrscheinlichkeitsdichtefunktionen bzgl. der Entscheidungsschwelle symmetrisch liegen, erhält man für beide Zeichen die gleiche Beiträge, so dass sich insgesamt die Bitfehlerwahrscheinlichkeit einstellt Pb
1 § uˆ · erfc ¨ ¸ 2 ©V 2 ¹
(5.5)
In der Nachrichtentechnik ist es üblich, die Bitfehlerwahrscheinlichkeit auf das Verhältnis der Nutzsignalleistung S zu der Rauschsignalleistung N, dem Signal-Rausch-Verhältnis, zu beziehen. Man spricht kurz vom SNR (Signal-to-Noise Ratio). Weiter ist es üblich, das SNR im logarithmischen Maß anzugeben. Man beachte, dass bei Leistungsgrößen der Vorfaktor 10 zu nehmen ist. §S· ¨ ¸ © N ¹dB
§S· 10 log10 ¨ ¸ dB ©N¹
(5.6)
Anmerkungen: (i) Bei Amplituden, wie z. B. der Dämpfung, wird der Vorfaktor 20 verwendet. Da die Signalleistung proportional zum Quadrat der Amplitude ist, liefern beide Ansätze den gleichen dB-Wert. (ii) Mit den Anfängen der Telefonie und des Sprech- und Hörfunks hat sich die Bezeichnung SignalGeräuschverhältnis eingebürgert, weil dort die Störungen oft als Geräusche hörbar waren. Heute wird häufig der Begriff Signal-Rauschverhältnis verwendet, da die Störungen, z. B. in der Bildverarbeitung (Bildrauschen) oder der digitalen Datenübertragung, nicht mehr nur Audiosignalen zugeordnet sind. (iii) Das Signal-Rauschverhältnis ist erfahrungsgemäß ein gutes Maß, um den benötigten technischen Aufwand bzw. die Qualität der Nachrichtenübertragung abzuschätzen. Insbesondere wird oft die Leistungsfähigkeit verschiedener digitaler Übertragungsverfahren auf der Basis der Bitfehlerwahrscheinlichkeit und des dazu notwendigen minimalen SNR verglichen.
Im Beispiel ergibt sich mit S N
uˆ 2 V 2 für die Bitfehlerwahrscheinlichkeit
Pb
1 S erfc 2 2N
(5.7)
Die Abhängigkeit der Bitfehlerwahrscheinlichkeit vom SNR zeigt Bild 5-16. Denkt man sich die Rauschleistung als konstant, so wird das SNR durch die Signalaussteuerung bestimmt. Sind die Signalleistung und die Rauschleistung im Mittel gleich, so liegt ein SNR von 0 dB vor. In diesem Fall ist die Bitfehlerwahrscheinlichkeit mit 0,16 relativ hoch. Mit zunehmender Signalamplitude vergrößert sich das SNR. Bei dem in Bild 5-13 vorliegenden Verhältnis resultiert ein SNR von 6 dB. Die zugehörige Bitfehlerwahrscheinlichkeit ist in Bild 5-16 markiert und entspricht dem vorher abgeschätzten Wert für einen Nulldurchgang des Empfangssignals innerhalb eines Rechteckimpulses. Wächst das SNR weiter, so nimmt die Bitfehlerwahrscheinlichkeit rasch ab. Ein in realen Datenübertragungssystemen typischer Wert für die Bitfehlerwahrscheinlichkeit ist 106. Durch Kanalcodierverfahren lässt sich dieser, weiter senken. Durch eine Kanalcodierung mit Fehlererkennung und Wiederholungsanforderung ist oft eine Bitfehlerwahrscheinlichkeit von 10-9 und darunter erreichbar. Einfache Verfahren zum Schutz gegen Übertragungsfehler werden in Abschnitten 7 vorgestellt.
5 Digitale Übertragung im Basisband
162
10
0
Pb 10
10
10
10
S 1 erfc 2 2N
0,023
-2
6 -4
-6
-8
0
5
10
S/N in dB
15
Bild 5-16 Bitfehlerwahrscheinlichkeit Pb bei bipolarer Basisbandübertragung im AWGN-Kanal in Abhängigkeit vom Signal-Rauschverhältnis (SNR)
5.6
Übertragung im Tiefpass-Kanal
Im Falle eines tiefpassbegrenzten Kanals, z. B. durch die frequenzabhängige Leitungsdämpfung, die Bandbegrenzung am Empfängereingang oder den Matched-Filterempfang, entsteht das Empfangssignal aus dem gesendeten Signal durch Tiefpassfilterung. Anmerkung: Die Berechnung der Dämpfung einer homogener Leitungen (ideale Zweidrahtleitung) zeigt, dass die Dämpfung ab 1 kHz mit etwa f wächst [VlHa95].
Ein Tiefpass schneidet die Spektralkomponenten bei hohen Frequenzen ab. Da diese für die schnellen Änderungen im Zeitsignal verantwortlich sind, tritt eine Glättung des Signals ein. Für das bipolare Signal bedeutet das: die senkrechten Flanken der Rechteckimpulse werden verschliffen und benachbarte Impulse überlagern sich. Man spricht von der Impulsverbreiterung und der sich daraus ergebenden Nachbarzeicheninterferenz (ISI, Intersymbol Interference). Die Impulsverbreiterung lässt sich auch im Zeitbereich anhand der Faltung des gesendeten Signals mit der Impulsantwort des Tiefpasses nachvollziehen, vgl. Bild 2-39. Im Falle eines RC-Tiefpasses werden die Rechteckimpulse wie in Bild 5-17 verzerrt. Aus der Bitfolge 1011010010 resultiert als Sendesignal zunächst die grau hinterlegte Folge von Rechteckimpulsen. Am Ausgang des RC-Tiefpasses sind die Lade- und Entladevorgänge an der Kapazität sichtbar, siehe auch Bild 2-13 und 2-25. Die beiden Grafen unterscheiden sich im Verhältnis der Zeitkonstanten W = RC zur Bitdauer Tb. Basisbandsignal
1 0,5
t / Tb
0
W = 2Tb /S W = Tb /S
-0,5 -1 0
1
2
3
4
5
6
7
8
9
10
Bild 5-17 Rechteckimpulsfolge vor (grau) und Signal nach der Tiefpassfilterung mit dem RC-Glied mit der Zeitkonstante W und der Bitdauer Tb (normierte Darstellung)
5.6 Übertragung im Tiefpass-Kanal
163
Im Fall W = Tb /S und damit für die 3dB-Grenzfrequenz aus (2.56) f3dB = 1/(2Tb) wird die Kapazität bei jedem Vorzeichenwechsel des Signals fast vollständig umgeladen. Tastet der Empfänger das Signal jeweils am Ende des Bitintervalls ab, y[n] = yTP(t = nTb) und n = 1, 2, ... , so resultiert im Wesentlichen die Amplitude des Sendesignals gleich dem Maximalwert. Der Einfluss der Tiefpassfilterung auf die Detektion ist gering. Halbiert man jedoch wie im gestrichelten Grafen die Bandbreite, d. h. f3dB = 1/(4Tb), hängen die Amplituden der Abtastwerte deutlich von der Bitfolge ab. Insbesondere bleiben die Lade- und Entladevorgänge sichtbar unvollständig; besonders gut zu erkennen, wenn das Vorzeichen des Sendesignals schnell wechselt, wie bei der Bitkombination 1,0,1. Die Nachbarzeicheninterferenzen lassen sich am Oszilloskop sichtbar machen. Dazu zeichnet man durch geeignete Triggerung die empfangenen Impulse übereinander. Das Augendiagramm entsteht. Aus dem punktierten Signalverlauf in Bild 5-17 resultiert das Augendiagramm in Bild 5-18. Es zeigt zwei Bitintervalle. Die möglichen Abtastwerte in den optimalen Detektionszeitpunkten sind durch weiße Kreise markiert. Anmerkungen: (i) Im Bild lassen sich grob 8 mögliche Abtastwerte unterscheiden. Wegen 23 = 8 überlagern sich im wesentlichen jeweils 3 Nachbarsymbole. (ii) Das Augendiagramm wurde durch Simulation aus einer zufälligen Bitfolge der Länge 100 bestimmt.
Optimaler Detektionszeitpunkt
Basisbandsignal
1
Rauschreserve 0
Entscheidungsschwelle
Auge
Augenöffnung
-1
Bitdauer
Zeit
Bild 5-18 Augendiagramm zu Bild 5-17 (W = 2Tb /S , normierte Darstellung)
Je nachdem welche Vorzeichen benachbarte Impulse tragen, ergeben sich verschiedene Signalübergänge. Der ungünstigste Fall resultiert bei wechselnden Vorzeichen. Dann löschen sich die benachbarten Impulse zum Teil gegenseitig aus. Der dort abgetastete Signalwert liegt demzufolge näher an der Entscheidungsschwelle. Entscheidend für die Robustheit der Übertragung gegenüber additivem Rauschen ist die vertikale Augenöffnung. Der minimale Abstand zur Entscheidungsschwelle im Detektionszeitpunkt gibt die Rauschreserve an, d. h. um wie viel der Abtastwert durch die additive Rauschkomponente entgegen seinem Vorzeichen verfälscht werden darf, ohne dass eine Fehlentscheidung eintritt.
5 Digitale Übertragung im Basisband
164
In Bild 5-18 ist dabei eine ideale Synchronisation vorausgesetzt. Dann wird das Detektionssignal in der maximalen Augenöffnung abgetastet. Tritt jedoch ein Synchronisationsfehler wie in Bild 5-19 auf, so nimmt die Rauschreserve merklich ab und die Zahl der Übertragungsfehler spürbar zu. Fehlerhafter Detektionszeitpunkt
Basisbandsignal
1
Effektive Rauschreserve 0
Auge Effektive Augenöffnung
-1
Bitdauer
Zeit
Bild 5-19 Augendiagramm zu Bild 5-17 mit Synchronisationsfehler (W = 2Tb /S, normierte Darstellung)
Reale Datenübertragungsstrecken können oft in guter Näherung als tiefpassbegrenzte Kanäle modelliert werden, wobei dem Empfangssignal zusätzlich ein Rauschsignal n(t) überlagert wird. y (t )
yTP (t ) n(t )
(5.8)
In Bild 5-20 ist das zugehörige Übertragungsmodell dargestellt. Der prinzipielle Verlauf des Empfangssignals ist in Bild 5-21 skizziert. Durch die Nachbarzeicheninterferenzen und die Überlagerung mit dem Rauschsignal weichen die Abtastwerte y[n] (weiße Kreise) mehr oder weniger von den beiden ursprünglich gesendeten Amplitudenwerten ruˆ Kanal n(t) ab. Im Beispiel ist ein SNR von 20 dB vorgegeben. u(t) yTP(t) y(t) Demzufolge fallen im Bild die Rauschamplituden relativ klein aus. Die Bitfehlerwahrscheinlichkeit kann wie folgt abgeschätzt werden: Zunächst wird die Augenöffnung bestimmt. Aus Bild 5-18 ergibt sich eine relative Bild 5-20 Digitale Basisbandübertragung mit Bandbegrenzung und Augenöffnung von ca. 58 %. Da die Fehler vor additivem Rauschen allem dann auftreten, wenn die Nachbarzeicheninterferenzen die Abtastwerte der Detektionsvariablen nahe an die Entscheidungsschwelle heranführen, legen wir der Rechnung den ungünstigsten Fall zugrunde. Die Augenöffnung von 58 % entspricht einem um den Faktor (0,58)2 reduzierten effektiven SNR von nunmehr 15,26 dB. Aus Bild 5-16 kann nun die BER zu Pb | 108 abgeschätzt werden. Die BER ist relativ klein was dem Eindruck aus Bild 5-21 entspricht.
5.6 Übertragung im Tiefpass-Kanal
165
Anmerkungen: (i) Die BER ist hier klein in dem Sinne, dass im Mittel nur ein Bitfehler pro 100.000.000 übertragenen Bits beobachtet wird. Groß aber in dem Sinne, dass in manchen Anwendungen Bitfehlerwahrscheinlichkeiten kleiner 109 gefordert werden. (ii) Ein Vergleich mit den Verhältnissen in Bild 5-13 zeigt, dass die zusätzliche Berücksichtigung der Nachbarzeichenstörungen dort ein effektives SNR von 1,26 dB ergibt. Die in Bild 5-16 eingetragene Bitfehlerwahrscheinlichkeit erhöht sich dann von 2,3 % auf über 10 %.
Basisbandsignal
1
t / Tb
0
-1 0
1
2
3
4
5
6
7
8
9
10
Bild 5-21 Empfangssignal nach TP- Filterung und additiver Rauschstörung, vgl. Bild 5-17 und Bild 5-18 (W = 2Tb /S, S/N = 20 dB, normierte Darstellung)
Die geringe Bitfehlerwahrscheinlichkeit spiegelt auch das simulierte Augendiagramm in Bild 5-22 links wider. Durch die Rauschstörung verschmieren sich die Signalübergänge zwar zu breiten Bändern, aber das Auge bleibt in der Simulation deutlich geöffnet. Keines der 100 übertragenen Bits wurde falsch detektiert. Anmerkung: Da in beiden Bildern die Leistung des Rauschens klein ist, treten große Störamplituden selten auf. Werden für das Augendiagramm mehr Bits übertragen, so verbreitern sich die Übergänge. Letztenendes schließen sich bei genügend langer Messung die Augen, weil Bitfehler nicht ausgeschlossen sind. Bitdauer
Bitdauer 1
Basisbandsignal
Basisbandsignal
1
0
-1
0
-1
Zeit
Zeit
Bild 5-22 Augendiagramme nach TP- Filterung und additiver Rauschstörung, vgl. Bild 5-17 und Bild 5-18 (W = 2Tb /S, S/N = 20 dB (links) und 30 dB (rechts), Simulation mit 100 Bits)
5 Digitale Übertragung im Basisband
166
An dieser Stelle bietet es sich an, die bisherigen Überlegungen zur digitalen Übertragung im Basisband zusammenzufassen. Die Aufgabe des Empfängers ist es, die gesendeten Daten anhand des Empfangssignals zu rekonstruieren. Dazu tastet er im Bittakt das Empfangssignal ab Je weiter die vertikale Augenöffnung und führt eine Schwellwertdetektion durch. Ist im ist, desto robuster ist die DatenüberFalle der bipolaren Übertragung die Amplitude des tragung gegen additive RauschstöAbtastwertes größer gleich 0, so wird auf das Bit rungen. auf „1“ entschieden, andernfalls auf „0“. Durch die Je flacher der Augenverlauf in der Bandbegrenzung auf dem Übertragungsweg entmaximalen Öffnung ist, umso stehen Nachbarzeicheninterferenzen, deren Einfluss robuster ist die Datenübertragung auf die Detektion anhand des Augendiagramms begegen Synchronisationsfehler. urteilt werden kann. Die am Beispiel von Rechteckimpulsen und RCTiefpassfilterung vorgestellten Effekte sind typisch für die digitale Übertragung im Basisband. Hier wird ein wesentlicher Vorteil der digitalen Übertragungstechnik gegenüber der analogen deutlich. Solange die Rauschkomponente die Rauschreserve nicht überschreitet, kann im Empfänger die gesendete Nachricht (Bitfolge) fehlerfrei rekonstruiert werden. Dies ist insbesondere dann Bei der digitalen Übertragung kann, von Interesse, wenn Signale zum Transport über solange kein Detektionsfehler auftritt, weite Strecken in Zwischenverstärkern mehrmals die gesendete Nachricht im verstärkt werden müssen, vgl. Tabelle 4-1. Im Empfänger fehlerfrei rekonstruiert Gegensatz zur digitalen Übertragung werden bei werden. der analogen Übertragung der Rauschanteil jedes Mal mit verstärkt und zusätzlich das Rauschen des Verstärkers hinzugefügt, so das SNR nach jedem Zwischenverstärker kleiner wird. Das begrenzt die Reichweite und setzt eine teuere, weil rauscharme Übertragungstechnik voraus.
5.7
Matched-Filterempfänger
Wie im letzten Abschnitt gezeigt wurde, kann die Rauschstörung untolerierbar viele Übertragungsfehler verursachen. Eine Rauschunterdrückung ist deshalb wünschenswert bzw. notwendig. Dies leistet das Matched-Filter. Wir nähern uns der Idee des Matched-Filters zunächst auf anschaulichem – und historischem – Weg. Ein in der Luftfahrttechnik wichtiges Problem ist die Detektion von Flugzeugen durch zurückgestrahlte Radarsignalechos im unvermeidlichen Hintergrundrauschen. Gehen wir von einem gesendeten und unverzerrt empfangenen Rechteckimpuls aus, so erhält man für die Energie- bzw. Leistungsbetrachtung im Frequenzbereich die Überlagerung des si2-Energiespektrums, siehe auch Bild 2-27, für den Nutzanteil und das konstante Rauschleistungsdichtespektrum der Rauschstörung in Bild 5-23. Das Rauschleistungsdichtespektrum sei näherungsweise konstant im betrachteten Frequenzbereich, so dass der Einfachheit halber das Modell des weißen Spektrums verwendet werden darf. Anmerkung: Da es sich im Beispiel des Radarsignals um ein gepulstes Trägersignal handelt, siehe OOK in Abschnitt 4.5, liegt nach dem Modulationssatz das si2-Spektrum symmetrisch um die Trägerfrequenz fT. Im Falle der Basisbandübertragung ist fT gleich null zu setzen.
5.7 Matched-Filterempfänger
167
Überall dort, wo das Rauschleistungsdichtespektrum größer als das Energiespektrum des Nutzsignals ist, dominiert das Rauschen. Es ist nahelie| XT ( f ) |2 gend, all diese Frequenzkomponenten durch Filterung zu unterdrücken und so das Signal-Geräuschverhältnis zu verbessern. Im Beispiel wäre ein einRauschfaches Bandpass- bzw. Tiefpass-Filter mit passenleistungsder Sperrfrequenz geeignet, siehe Abschnitt 2.7-3. dichtespektrum Dabei wird allerdings auch dem Nutzsignal Energie entzogen und das Signal verzerrt. Hier kommt 5 3 1 0 1 ( f fT )T 5 die besondere Fragestellung der Detektion, wie sie auch bei der digitalen Übertragung auftritt, zum tragen. Eine formtreue Signalrekonstruktion ist Bild 5-23 Energiedichte des Nutzsignals und Leistungsdichte des Rauschsignals nicht notwendig, sondern nur das Auftreten des im Frequenzbereich Echos soll möglichst zuverlässig detektiert werden. Wir gehen nun das Problem in Bild 5-24 systematisch an. Es soll ein lineares Empfangsfilter, das spätere Matched-Filter, so entworfen werden, dass das Signal-Rausch-Verhältnis (SNR) im Detektionszeitpunkt für ein Signal x(t) der endlichen Dauer T bei additiver weißer Rauschstörung maximal wird.
Weißes Rauschen
n(t)
Optimaler Detektionszeitpunkt t0
Empfangsfilter
Nutzsignal
x(t)
h(t)
y(t)
y(t0)
Dauer T Bild 5-24 Empfangsfilter zur Rauschunterdrückung
Am Filterausgang ergibt sich die Nutzsignalleistung im, zunächst noch nicht bestimmten, optimalen Detektionszeitpunkt t0 mit dem Frequenzgang des Filters durch inverse FourierTransformation der Eingangs-Ausgangsgleichung im Frequenzbereich (2.78) mit (2.72)
S
y
2
t0
§ 1 ¨ ¨ 2S ©
f
³
X ( jZ ) H ( jZ ) e
jZ t0
f
· dZ ¸ ¸ ¹
2
(5.9)
Für die Störleistung gilt mit der Leistungsübertragungsfunktion des Filters bei konstantem Rauschleistungsdichtespektrum N0 N
Das zu maximierende SNR ist dann
N0
1 2S
f
³
f
H ( jZ )
2
dZ
(5.10)
5 Digitale Übertragung im Basisband
168
f
S N
1 1 N 0 2S
³
(5.11)
2 jZ t0
X ( jZ ) H ( jZ ) e
f
f
³
H ( jZ )
2
dZ
dZ
f
wobei für das Quadrat des reellen Wertes y(t0) auch das Betragsquadrat eingesetzt werden darf. Wir lösen die Aufgabe mit der schwarzschen Ungleichung, z. B. [Unb02], indem wir den Zähler abschätzen. f
³
2
X ( jZ ) H ( jZ )e jZt0 d Z d
f
f
³
f
f
2
X ( jZ ) d Z ³ H ( jZ )e jZt0 d Z 2
(5.12)
f
Wichtig ist, dass die Gleichheit in der Abschätzung nur gilt, wenn X ( jZ ) und H ( jZ )e jZt zueinander proportional sind. Mit anderen Worten, das Empfangsfilter auf das Sendesignal angepasst ist, d. h. ein Matched-Filter vorliegt. 0
H MF ( jZ ) X * ( jZ ) e jZ t0
(5.13)
Die Proportionalitätskonstante wird eins gewählt. Die Rücktransformation in den Zeitbereich geschieht durch Anwenden der Sätze der FourierTransformation. Die Bildung des konjugiert komplexen Spektrums bedeutet für die Zeitfunktion eine Spiegelung der Zeitachse. Für ein gesendetes rechtsseitiges Signal x(t) ergibt sich dann zunächst formal ein linksseitiges Zwischenergebnis. Der Faktor exp( jZ0t) bedeutet eine Zeitverschiebung um t0 nach rechts. Wählt man t0 gleich der Zeitdauer des Nutzsignals T resultiert schließlich die rechtsseitige Impulsantwort des reellwertigen Matched-Filters hMF (t )
x ( t T )
(5.14)
Für das SNR im optimalen Detektionszeitpunkt am Ausgang des Matched-Filters gilt
S N
1 2S MF
f
³
X ( jZ )
f
N0
2
(5.15) dZ Ex N0
Damit ist das SNR mit der parsevalschen Formel (2.77) gleich dem Verhältnis aus der Energie des Sendesignals (2.9) zur Rauschleistungsdichte. Man beachte auch, dass das SNR nicht von der speziellen Form des Sendegrundimpulses abhängt. Nachdem das Konzept und die Dimensionierungsvorschrift für das Matched-Filter vorgestellt wurde, wird noch auf drei für die Anwendung wichtige Punkte hingewiesen: Betrachtet man rückblickend nur den Betrag des Frequenzganges (5.13), dann wird die Überlegung der Rauschunterdrückung durch eine einfache Bandpass- bzw. Tiefpassfilterung in Bild 5-24 bestätigt und präzisiert. Modellrechnungen wie z. B. in [Wer08b] zeigen, dass sich bei rechteckförmigen Sendegrundimpulsen bereits mit dem einfachen RC-Tief-
5.7 Matched-Filterempfänger
169
pass ein SNR erreichen lässt, das nur etwa 1 dB unterhalb des mit dem Matched-Filter erzielbaren Wertes (5.15) liegt. Im Falle der AWGN-Störung kann gezeigt werden, dass beim Matched-Filter-Empfänger auch die Wahrscheinlichkeit für eine Fehlentscheidung minimal wird. Man spricht von einer Maximum-Likelihood-Detektion und in der Radartechnik von einem optimalen Suchfilter. Die Herleitung des Matched-Filters kann unmittelbar auf stationäres farbiges Rauschen, d. h. Rauschen mit nicht konstantem Rauschleistungsdichtespektrum, erweitert werden [Unb02]. Dann erhält man als Matched-Filter das so genannte Wiener-Filter, in dessen Frequenzgang die Form des Leistungsdichtespektrums der Störung mit eingeht. Beispiel Bipolare Basisbandübertragung im AWGN-Kanal mit Matched-Filter-Empfang
Wird die Datenübertragung durch additives Rauschen stark gestört, so bietet sich der Einsatz eines Matched-Filter-Empfängers an. Dessen Empfangsfilter ist speziell an den Sendegrundimpuls angepasst, so dass in den Detektionszeitpunkten ein größtmögliches Signal-Rausch-Verhältnis erreicht wird. Bild 5-25 stellt das zugrunde liegende Übertragungsmodell vor. Die linearen Verzerrungen werden als vernachlässigbar vorausgesetzt. MatchedFilter
Impulsformer Kanal
bn
g(t)
u(t)
r(t)
hMF(t)
Abtastzeitpunkte
nTb y(t)
y[n]
Bitstrom AWGN
Abtaster
n(t)
Bild 5-25 Basisbandübertragung im AWGN-Kanal
Der zu übertragende Bitstrom bn {0,1} wird im Impulsformer in das bipolare zeitkontinuierliche Sendesignal umgesetzt u (t )
¦A
n
g (t nTb )
n
(5.16)
mit den Amplituden An = 2bn 1 (= r1) und dem auf das Bitintervall [0,Tb[ zeitbegrenzten rechteckförmigen Sendegrundimpuls g(t), siehe auch Bild 5-6. Das Empfangsfilter wird als Matched-Filter an den Sendegrundimpuls angepasst. Die Impulsantwort des Matched-Filters wird gleich dem zeitlich gespiegelten und um eine Bitdauer verschobenen Sendegrundimpuls gesetzt. Die Impulsantwort des Matched-Filters ist hier wegen der Symmetrie des Sendegrundimpulses dazu identisch. hMF (t )
g (Tb t )
g (t )
(5.17)
Nach Bild 2-41 liefert die Faltung von g(t) mit hMF(t) als Detektionsgrundimpuls einen Dreieckimpuls der Breite 2Tb. Dessen Höhe ist gleich der Energie des Sendegrundimpulses Eg. Demgemäß ergibt sich der Nutzanteil am Abtastereingang als Überlagerung von um ganzzahlig
5 Digitale Übertragung im Basisband
170
Vielfache der Bitdauer verzögerten Dreieckimpulsen der Höhe Eg, die entsprechend dem jeweilig korrespondierenden Bit noch mit +1 bzw. 1 gewichtet sind. In Bild 5-26 werden das Empfangssignal (oben) und das Detektionssignal (unten) gezeigt. Die Übertragung wurde am PC simuliert. Um den Effekt der Störung deutlich zu machen, wurde bei der Simulation ein relativ großer Rauschanteil vorgegeben. Man erkennt im Empfangssignal ein typisches regelloses Rauschsignal, dem in den Bitintervallen die Sendesignalamplituden uˆ bzw. uˆ als Mittelwerte aufgeprägt sind. Das Detektionssignal ist darunter gezeigt. Zusätzlich ist das Detektionssignal im unverrauschten Fall als grau schattiert angedeutet. Man kann erkennen, wie sich im ungestörten Fall (Nutzsignal) das Detektionssignal aus der Überlagerung der Empfangsimpulse zusammensetzt. Deutlich zeigt sich, wie die Rauschstörung durch die Filterung reduziert „herausgemittelt“ wird.
Anhand des Bildes lassen sich zwei wichtige Eigenschaften erkennen: x Die zu den Abtastzeitpunkten t = nTb gewonnenen Detektionsvariablen y[n] liefern nach der Schwellwertdetektion die gesendeten Bits. x Zu den Abtastzeitpunkten ist jeweils nur ein Empfangsimpuls wirksam, so dass in den Detektionsvariablen keine Interferenzen benachbarter Zeichen auftreten. r(t) 1
t /Tb 1 0
y(t) 1
2 y[1] y[3]
4
6
8
y[4]
y[6] y[9]
t /Tb 1 y[2]
y[5]
y[7]
y[8]
Bild 5-26 Durch AWGN gestörtes Empfangssignal r(t) und Detektionssignal y(t) mit den Detektionsvariablen y[n] (normierte Darstellung)
5.8
Nyquist-Bandbreite und Impulsformung
Im Abschnitt 5.6 wird deutlich, dass die Bandbegrenzung des Kanals wegen der Nachbarzeichenstörungen die Bitfehlerwahrscheinlichkeit stark erhöhen kann. Es stellt sich die wichtige Frage: Wie viele Bits lassen sich in einem Kanal mit vorgegebener Bandbreite übertragen? Eine erste Antwort kann dem Spektrum der Rechteckimpulse entnommen werden. Unter der Annahme der Unabhängigkeit der Quellensymbole ist das Leistungsdichtespektrum des bipolaren Signals durch das Spektrum des Rechteckimpulses (2.75) vorgegeben.
5.8 Nyquist-Bandbreite und Impulsformung
171 (5.18)
§ T · S (Z ) Tb2 si 2 ¨ Z b ¸ © 2¹
Es liegt keine strikte Bandbegrenzung vor, siehe Bild 2.27. Eine grobe Abschätzung für die benötigte Bandbreite liefert die erste Nullstelle im Leistungsdichtespektrum f0 = 1/Tb. Bei einer Bitrate von 64 kbit/s entspricht das einer Bandbreite von 64 kHz. Anmerkungen: Für stochastische Signale wird die Verteilung der mittleren Signalleistung im Frequenzbereich durch das Leistungsdichtespektrum beschrieben, siehe auch parsevalsche Formel. Da Leistungen betrachtet werden, ist das Betragsspektrum des Rechteckimpulses zu quadrieren. Sind die Symbole der Quelle korreliert, wie z. B. bei einer Codierung mit Gedächtnis, gilt die einfache Beziehung nicht mehr. Das wird in der Leitungscodierung gezielt benutzt um beispielsweise gleichstromfreie Basisbandsignale wie den AMI-Code zu erzeugen, siehe Bild 5-12.
Eine zweite, anschaulichere Antwort liefert die folgende Überlegung zur Nyquist-Bandbreite1. Wir betrachten ein bipolares Signal bei dem abwechselnd die Bits 0 und 1 gesendet werden. Zum ersten ergibt sich dann ein Signal mit größter Variation und damit größter Bandbreite. Zum zweiten erhält man das periodische Signal in Bild 5-27, welches in eine Fourier-Reihe entwickelt werden kann.
Basisbandsignal
Periode
2Tb
1
Grundschwingung 0 0
2
4
t/Tb
1
Bild 5-27 Bipolares Signal zur alternierenden Bitfolge 101010... (normierte Darstellung)
Es ist offensichtlich, dass der in Bild 5-9 beschriebene Empfänger aus der Grundschwingung in Bild 5-27 die zum bipolaren Signal identischen Abtastwerte entnimmt. Der Kanal muss also mindestens die Grundschwingung übertragen. Wir schätzen die notwendige Bandbreite mit der Nyquist-Frequenz ab. fN
1 2Tb
(5.19)
Im Vergleich zur ersten Abschätzung wird hier nur noch die halbe Bandbreite benötigt. Bild 5-17 zeigt, dass im Falle des RC-Tiefpasses, dessen 3dB-Grenzfrequenz der NyquistBandbreite entspricht, die Nachbarzeichenstörungen tatsächlich sehr gering sind.
1
Harry Nyquist: *1889, †1976, US-amerikanischer Physiker und Ingenieur schwedischer Abstammung. In den 1920er und 1930er Jahren grundlegende Arbeiten zum Abtasttheorem und Rauschvorgängen.
5 Digitale Übertragung im Basisband
172
Zur binären Übertragung mit der Bitrate Rb wird eine Kanalbandbreite benötigt, die mindestens gleich der Nyquist-Bandbreite ist. BN
1 Rb 2 bit
(5.20)
Die bisherigen Überlegungen gingen von einem bipolaren Signal aus. Die verwendeten Rechteckimpulse führen zu Sprungstellen im Signal und damit zu einem relativ langsam abklingenden Spektrum. Es stellt sich hier die Frage: Würde eine andere Impulsform eine bandbreiteneffizientere Übertragung ermöglichen? Zur Beantwortung der Frage gehen wir von einem Tiefpasskanal aus, dessen Grenzfrequenz gleich der Nyquist-Frequenz ist. Dazu wählen wir für den Sendegrundimpuls ein ideales Tiefpass-Spektrum, das den Kanal vollständig ausfüllt. Mit Hilfe der inversen Fourier-Transformation kann das Zeitsignal, der Sendeimpuls, bestimmt werden. Aufgrund der Symmetrie zwischen der Fourier-Transformation (2.70) und ihrer Inversen (2.71) erhält man zu einem Rechteckimpuls im Frequenzbereich, dem idealen Tiefpass-Spektrum, einen si-Impuls im Zeitbereich, siehe Bild 5-28. § t · 2T si ¨ S ¸ l ® b ¯0 © Tb ¹
für f d f N sonst
1/ 2Tb
(5.21)
Anmerkung: Diese fundamentale Symmetrieeigenschaft der Fourier-Transformation wird Dualität zwischen Zeit- und Frequenzbereich genannt, siehe auch Bild 2-27.
x(t)
X( f ) F
Äquidistante Nullstellen
t/Tb 6
4
2
0
2
4
6
fTb 1/2
0
1/2
Bild 5-28 si-Impuls und Spektrum des idealen Tiefpasses als Fourier-Paar in normierter Darstellung
Man beachte die Nullstellen des si-Impulses. Sie liegen äquidistant im Abstand Tb. Benützt man si-Impulse zur Datenübertragung, so überlagern sich zwar die Impulse; sie liefern aber in den optimalen Detektionszeitpunkten keine Interferenzen, siehe Bild 5-29. Impulse mit dieser Eigenschaft erfüllen das 1. Nyquist-Kriterium. Damit ist gezeigt, dass eine interferenzfreie Datenübertragung bei der Nyquist-Bandbreite prinzipiell möglich ist. Anmerkung: Vergleiche Interpolationsbedingung der si-Interpolation in Bild 3-3 und Spektrum des OFDM-Signals in Bild 4-37.
Mit si-Impulsen als Sendegrundimpulse ist eine digitale Übertragung mit der NyquistBandbreite im Basisband ohne störende Nachbarzeicheninterferenzen prinzipiell möglich.
5.8 Nyquist-Bandbreite und Impulsformung
173
Abtastzeitpunkte 1 Abtastwert si-Impuls t / Tb
1 Bild 5-29 Digitale Übertragung mit interferenzfreien si-Impulsen
Bei der realen Nachrichtenübertragung ist jedoch weder ein ideales Tiefpass-Spektrum gegeben noch liegt exakte Synchronität vor. Letzteres führt dazu, dass der optimale Abtastzeitpunkt nicht genau getroffen wird. Deshalb werden je nach Anwendung verschiedene Impulsformen eingesetzt, wobei ein guter Kompromiss zwischen Realisierungsaufwand, Bandbreite und Robustheit gegen Störungen angestrebt wird. Eine häufig verwendete Familie von Impulsen sind die Impulse mit Raised-Cosine-Spektrum, kurz RC-Spektrum [PrSa94].
X RC ( f )
°A ° ° ª § S °A ® «1 cos ¨ © 2D f N ° 2 ¬« °0 ° °¯
für
·º f 1 D f N ¸ » für ¹ ¼»
f fN
d 1D
1D
f fN
d 1 D
(5.22)
sonst
Zwei Beispiele für RC-Spektren sind in Bild 5-30 rechts zu sehen. Sie sind strikt bandbegrenzt mit der Grenzfrequenz fg = (1+D)fN. Der Parameter D, mit 0 d D d 1, bestimmt die Flankenbreite und damit das Abrollen der Flanke. Er wird Roll-off-Faktor genannt. Ist D = 0, so liegt ein ideales Tiefpass-Spektrum vor. Ist D = 1, so erhält man eine nach oben verschobene Kosinus-Halbwelle. Ein in den Anwendungen üblicher Wert ist D = 1/2. Die tatsächlich benötigte Bandbreite für die Datenübertragung ist dann 1,5fN. Die dazu gehörenden Impulse haben die Form
xRC (t )
§ t · cos ¨ SD ¸ § t · © Tb ¹ A si ¨ S ¸ 2 T © b¹ § t · 1 ¨ 2D ¸ © Tb ¹
(5.23)
5 Digitale Übertragung im Basisband
174
1D 1 1+D
1
1
D = 0,5
xRC(t)
NyquistFlanke
XRC( f )
0,5
D = 0,5
0,5 0 0,5 5
0
1
t/Tb
5
0
f/fN
2
1
1
D = 0,2
xRC(t)
0 2
NyquistFlanke
XRC( f )
0,5
D = 0,2
0,5 0 0,5 5
0
t/Tb
5
0 2
0
f/fN
2
Bild 5-30 Raised-Cosine-Spektren X( f ) und zugehörige Impulse x(t) für die Roll-off-Faktoren D = 0,5 und 0,2
Es lassen sich zwei wichtige Eigenschaften ablesen. Zum Ersten sorgt die si-Funktion wie in Bild 5-28 für äquidistante Nullstellen, so dass wieder wie in Bild 5-29 theoretisch ohne Nachbarzeicheninterferenzen abgetastet werden kann. Zum Zweiten bewirkt der Nenner einen zusätzlichen quadratischen Abfall der Impulse mit wachsender Zeit t. In der linken Hälfte von Bild 5-30 sind die Impulse für die Roll-off-Faktoren D = 0,5 und 0,2 zu sehen. Es bestätigen sich die gemachten Aussagen. In der Anwendung, siehe Bild 5-25, wird die Übertragungsfunktion XRC( jZ) gleichmäßig auf den Impulsformer und das Empfangsfilter aufgeteilt mit G ( jZ ) X RC ( jZ ) . Man bezeichnet den Sendegrundimpuls deshalb auch als Root-RC-Impuls. Anmerkung: Bei dieser Wahl ist die Autokorrelationsfunktion des Rauschanteils des Detektionssignals gleich dem Detektionsgrundimpuls. Die abgetasteten Detektionsvariablen sind dann unkorreliert (weißes Rauschen) bzw. im gaußschen Fall sogar unabhängig, so dass ein optimaler Matched-Filter-Empfänger vorliegt.
In Bild 5-31 ist das zugehörige simulierte Augendiagramm für die Übertragung mit RootRC-Impulsen gezeigt. Ohne Bandbegrenzung ergibt sich die maximale Augenöffnung in der Bildmitte. Bei einer Bandbegrenzung durch einen RC-Tiefpass mit W = 2Tb / S erhält man das rechte Teilbild. Im Vergleich zur Übertragung mit Rechteckimpulsen in Bild 5-19 resultiert mit 0,69 eine deutlich größere Augenöffnung. Die SNR-Degradation beträgt hier 3,2 dB, also 1,5 dB weniger als bei der Übertragung mit Rechteckimpulsen. Durch spezielle Impulsformen, wie z. B. solche mit Raised-Cosine-Spektrum, kann eine binäre Datenübertragung im Basisband mit einer Bandbreite von ca. 1,5fN verwirklicht werden.
175
Basisbandsignal
Basisbandsignal
5.9 Kanalkapazität
1 0 1 Bitdauer
1 0 1 Bitdauer
Zeit
Zeit
Bild 5-31 Augendiagramme für die Übertragung mit Root-RC-Impulsen in Kanälen ohne (links) und mit Bandbegrenzung durch einen RC-Tiefpass (rechts) (normierte Darstellung)
5.9
Kanalkapazität
Die bisherigen Überlegungen zeigen, wie die Kanalbandbreite die maximale Bitrate beschränkt. Für die Datenübertragung in Telefonkanälen mit der Bandbreite von 4 kHz liefert die Nyquist-Bandbreite (5.20) eine maximale Bitrate von 8 kbit/s. Heutige Modems für analoge Telefonanschlüsse stellen Bitraten bis zu 56 kbit/s bereit. Wie ist das möglich?
Datenniveaus
Die Steigerung der Bitrate wird durch die Verwendung mehrstufiger Modulationsverfahren erreicht. Statt wie bei der bipolaren Symbole Übertragung nur die Amplituden uˆ und uˆ zuzulassen, werden 11 1 beispielsweise bei der Pulsamplitudenmodulation (PAM) mehrere Amplitudenstufen, so genannte Datenniveaus, verwendet, siehe 10 1/3 auch Abschnitt 4-5. Ein einfaches Beispiel macht dies deutlich: Fasst man zwei Bits zu einem Symbol zusammen, so ergeben sich 00 1/3 vier mögliche Symbole die mit vier unterschiedlichen Amplitudenwerten dargestellt werden können. Ist die maximale Sende01 1 amplitude auf uˆ beschränkt, so bieten sich die Amplituden uˆ , uˆ / 3 , uˆ / 3 und uˆ an. Der Schwellwertdetektor legt dann die Entscheidungsschwellen genau zwischen diese Werte. Dadurch Bild 5-32 Amplitudenstufen für die 4-PAM wird erreicht, dass der Abstand zwischen den Datenniveaus und (normiert) den Entscheidungsschwellen mit uˆ / 3 jeweils gleich sind. Entsprechend zu Bild 5-15 ist dann die Wahrscheinlichkeit für eine Fehlentscheidung zwischen benachbarten Symbolen identisch. Es ist offensichtlich, dass hier bei Rauschstörung die Zahl der Bitfehler deutlich ansteigt, da im Vergleich zur bipolaren Übertragung bereits eine um 1/3 geringere Rauschamplitude eine Fehlentscheidung herbeiführen kann. Bei fester Bandbreite und Anwendung von mehrstufigen Modulationsverfahren begrenzt das Signal-Geräuschverhältnis die maximale Bitrate. Diese grundsätzlichen Überlegungen finden in der Informationstheorie als shannonsche Kanalkapazität ihre mathematische Formulierung. Mit C der Kanalkapazität in bit/s, B der Bandbreite des Kanals in Hz, und S der Signalleistung und N der Störleistung des AWGN gilt [Sha48].
5 Digitale Übertragung im Basisband
176
C bit
S· § B log 2 ¨1 ¸ © N¹
(5.24)
Anmerkung: Man beachte den Zweierlogarithmus (binärer Logarithmus, Logarithmus Dualis), der in Verbindung mit der Pseudoeinheit „bit“ in der Informationstheorie üblich ist, siehe Abschnitt 7.
Die Bedeutung der shannonschen Kanalkapazität liegt vor allem darin, dass sie den grundlegenden Zusammenhang von der zur Verfügung stehenden Bandbreite, dem SNR und der theoretisch fehlerfrei übertragbaren maximalen Bitrate auf mathematischem Wege herstellt. Damit objektiviert sie die Erfahrungen aus der Praxis und liefert einen wichtigen Vergleichsmaßstab zur Beurteilung neuer Übertragungskonzepte in der Forschung. Nicht zuletzt rechtfertigt sie die axiomatische Begründung der Informationstheorie in Abschnitt 7. Die maximal übertragbare Bitrate wird durch die Bandbreite und das SignalGeräuschverhältnis begrenzt. Bitrate, Bandbreite und Signal-Geräuschverhältnis sind in gewissen Grenzen gegeneinander austauschbar.
Auf praktische nachrichtentechnische Systeme ist die Formel (5.24) mit Vorsicht anzuwenden, da ihr spezielle Modellannahmen zugrunde liegen (AWGN-Kanal, Bandbegrenzung im Kanal wie beim idealen Tiefpass oder Bandpass, normalverteiltes Nutzsignal), die in der Realität so nicht gegeben sind. Beispiel Telefonmodemübertragung im Teilnehmeranschluss
Wir zeigen die Anwendung anhand eines vereinfachten Beispiels. Im Zusammenhang mit der TF-Technik der Telefonie wird einem Teilnehmer für die transparente Übertragung ein Kanal mit etwa 4 kHz Bandbreite zur Verfügung gestellt. Für das SNR im Empfänger kann ein Wert von 60 dB in der Nähe der Endvermittlungsstelle bzw. 20 dB im Abstand von 4,2 km (40 dB Kabeldämpfung bei Aderdurchmesser 0,4mm) angenommen werden [KaKö99], [Loc02]. Wie groß ist die maximale theoretisch fehlerfreie übertragbare Bitrate? Wir schätzen mit (5.24) die Kanalkapazität ab C60dB C20 dB
kbit / s | 79, 7 kbit / s 4 log 2 1 1020 /10 kbit / s | 26, 6 kbit / s
4 log 2 1 1060 /10
(5.25)
Wir schließen daraus, dass dem Teilnehmer nahe der Endvermittlungsstelle theoretisch eine Bitrate von deutlich mehr als der üblichen 56 kbit/s angeboten werden könnte. Der weiter entfernte Teilnehmer wird trotz seines neuen Modems die Bitrate von 56 kbit/s nicht erreichen.
5.10
Digitaler Teilnehmeranschluss
Hundert Jahre nach der Patentanmeldung eines gebrauchsfähigen Telefons durch A. G. Bell wurde die Zahl der Telefone 1976 weltweit auf ca. 380 Millionen geschätzt. In nur 100 Jahren hatte sich ein weltumspannenden Telefonnetz entwickelt, das in den industrialisierten Ländern seine Fäden in Form von Kupferdoppeladern in fast jedes Haus erstreckt. Vor dem Hintergrund der hohen Kosten für neue Teilnehmeranschluss-Leitungen und der fast überall verfügbaren Kupferdoppeladern war Ende des letzten Jahrhunderts offensichtlich, dass ein Eintritt in das
5.10 Digitaler Teilnehmeranschluss
177
Informationszeitalter für viele Menschen nur möglich ist, wenn die bestehenden Kupferdoppeladern für die Datenübertragung effektiv genutzt werden. Anmerkung: Heute spricht man von der Teilhabe am Internet und einer drohenden digitalen Spaltung, die viele Bürger ohne „schnellen“ Internetzugang zurücklässt.
Die damit verbundenen technische Herausforderungen haben in den letzten 10 Jahren zunächst zu einer Vielfalt an technischen Lösungen geführt, wobei einige als Zwischenschritte keine Marktbedeutung erlangten oder bereits wieder verloren haben. Im Folgenden soll eine kleine Übersicht der Entwicklung ohne technische Details gegeben werden. Den Ausgangspunkt bildet der herkömmliche Teilnehmeranschluss in Bild 5-33: Von der Ortsvermittlungstelle OVSt (Local Central Office, End Office) aus wird über mehrere Verzweiger (Cabinet) der „Teilnehmer“ (Customer Premises) angeschlossen. Dabei können je nach örtlichen Gegebenheiten unterschiedliche Kabeltypen, weitere Verzweiger oder auch Verstärker zu Einsatz kommen.
Endverzweiger Installationskabel
Vzk EVz
„Teilnehmer“
Kabelverzweiger
Ortsvermittlungsstelle Hk
KVz
Verzweigungskabel
OVSt Hauptkabel
Teilnehmeranschlussleitung Bild 5-33 Teilnehmeranschlussleitung als Teil des Zugangsnetz mit symmetrischem Kupferkabelnetz
Im digitalen Netzzugang ist die Bandbegrenzung der Telefonie auf 4 kHz bedeutungslos, so dass auch Signale mit größerer Bandbreite übertragen werden können. Allerdings degradiert die Übertragungsfähigkeit der Kupferdoppelader-Leitungen langsam mit steigender Frequenz; der Dämpfungskoeffizient nimmt mit etwa f zu. Auch die Störungen nehmen mit steigender Frequenz zu, wie das Übersprechen (Crosstalk) zwischen den Leitungen in den Kabelbündeln und das Einstreuen von Amateur-Funksignalen (Radio Noise). Anmerkung: Man spricht von NEXT (Near-End Crosstalk) und FEXT (Far-End Crosstalk). Die NEXTStörung ist kritischer, weil sie in der Nähe des Empfängers entsteht, meist durch das Signal des eigenen (Self-NEXT) oder benachbarten (Foreign-NEXT) Senders, während die FEXT-Störung durch die Leitung gedämpft wird.
Die herkömmliche Teilnehmeranschlussleitung für die Sprachtelefonie wird mit aufeinander abgestimmten Modems in der Endvermittlungsstelle und beim Teilnehmer breitbandig genutzt. Die digitalen Übertragungsverfahren werden unter dem Begriff xDSL (Digital Subscriber Line) zusammengefasst, siehe Tabelle 5-3. Sie ermöglichen die Übertragung von hohen Bitraten für Multimedia-Anwendungen mit Audio- und Videokomponenten [BlMa08], [Che98], [SCS00], [SSCS03]. Anmerkungen: (i) Eine weitere Steigerung der effektiven Datenrate ist unter Umständen durch Datenkompression möglich, siehe Abschnitt 7. (ii) Moderne Kabelmodems vermessen vor Beginn der Datenübertragung den Übertragungskanal. Sie passen die Bitrate/Symbolrate auf den Kanal an und entzerren das Empfangssignal vor der Detektion. Darüber hinaus wenden sie Datenkompressionsverfahren und Kanalcodierverfahren an und benutzen fehlertolerante Übertragungsprotokolle.
5 Digitale Übertragung im Basisband
178
Tabelle 5-3
Digitale Anschlusstechniken für das herkömmliche Kupferkabel der Teilnehmeranschlussleitung (Digital Subscriber Line, DSL)
DSL-Technik
Bitraten und Bemerkungen
DSL
Herkömmlicher ISDN-Anschluss mit 2 x 64 kbit/s (B-Kanäle) und 16 kbit/s (D-Kanal) im Duplex (1986*)
ADSL (Asymmetric)
1, 2, 3 x 1,544 Mbit/s (T1) bzw. 2,048 Mbit/s (E1) im hochratigen Übertragungskanal (abwärts/zum Teilnehmer) und 64 (128) ... 768 kbit/s ( ...1 Mbit/s) im sogenannten Steuerkanal (aufwärts/zur Vermittlungsstelle) 1995 ADSL2 mit …8,192 Mbit/s und …1,024 Mbit/s 2002, ITU-T G.992.3 ADSL2+ mit …24,576 Mbit/s und …1,024 Mbit/s, doppelte Bandbreite (2,208 MHz, DMT mit 512 Unterträgern) 2003, ITU-T G.992.5
HDSL (High bit-rate)
1,544 Mbit/s (T1) oder 2,048 Mbit/s (E1) im Duplex, Vierdrahtleitung 1992, ITU G.991.1 HDSL2, Bitrate wie HDSL über Zweidrahtleitung 1998/2000 HDSL4, Bitrate wie HDSL mit vergrößerter Reichweite über Vierdrahtleitung
SHDSL (Symmetric)
Wie HDSL, Bitrate skalierbar von 192 kbit/s bis 2,304 Mbit/s, herkömmliche Telefone können weiter benutzt werden (Notspeisefähigkeit), Zweidrahtleitung 2000, ITU-T G.991.2
ESHDSL
Enhanced SHDSL, …5,696 Mbit/s 2003/5, ITU-T G.991.2
VDSL (Very high-rate)
VDSL(1) für kurze Anschlusslänge (…300m), sehr hohe Bitrate (… 52 Mbit/s) 2001 VDSL2, 30 MHz Bandbreite, DMT mit 4096 Unterträgern 2004/6, ITU-T G.993.2
T1-System: in Nordamerika um 1960 entwickeltes PCM-System. E1-System: Weiterentwicklung von T1 für Europa (ITU-Standard), siehe Abschnitt 6. * Die Jahreszahlen beziehen sich auf die Veröffentlichung relevanter Standards bzw. die Markteinführung.
Ein wichtiges Beispiel liefert die digitale ADSL-Übertragung (Asymmetric Digital Subscriber Line) über eine verdrillte Zweidrahtleitung als Teilnehmeranschluss. In Bild 5-34 ist die Frequenzbelegung schematisch dargestellt. Zur Kompatibilität wird der Frequenzbereich unterhalb 4 kHz für die herkömmliche analoge Telefonie (Plain Old Telephone Service, POTS) frei gehalten. Durch einen Tiefpass (Splitter) kann das analoge Telefonsignal abgetrennt werden. Bei einer ISDN-Übertragung im Basisanschluss wird der Bereich bis ca. 120 kHz belegt. Werden eine ISDN-Anlage und ein ADSL-Modem gleichzeitig betrieben, ergibt sich eine frequenzmäßige Überlappung mit dem ADSL-Signal in Aufwärts-Richtung, d. h. vom Teilnehmer zur Vermittlungsstelle, da die spektrale Leistung des Aufwärts-Signals (Upstream Signal) hauptsächlich im Frequenzband von ca. 25 bis 140 kHz liegt. In diesem Fall kann vorgesehen werden, die Bitrate zu reduzieren, um eine mögliche ISDN-Sprachübertragung nicht zu stören. Durch das Abwärts-Signal (Downstream Signal) wird hauptsächlich das Frequenzband von etwa 25 bis 1100 kHz belegt. Wegen des in Abwärts-Richtung breiteren Frequenzbandes lassen
5.10 Digitaler Teilnehmeranschluss
179
ISDN
ADSL aufwärts
POTS
Leistungsdichte
sich entsprechend höhere Bitraten als in Aufwärts-Richtung realisieren. So sind in den verschiedenen Varianten der ADSL-Technik in Aufwärtsrichtung (16) 64...768 (1024) kbit/s und in Abwärtsrichtung ...6 (...10) Mbit/s vorgesehen. Die tatsächlich erreichbaren Bitraten hängen von den örtlichen Gegebenheiten (Aderdurchmesser, Leitungslänge, usw.) und Störungen (Funkrauschen, Impulsgeräusche, Übersprechen, usw.) ab. Zum Schluss sei angemerkt, dass die angegebenen Frequenzen nur Richtwerte darstellen, auf die die Signale nicht strikt bandbegrenzt sind.
ADSL abwärts
Frequenz in kHz 4 25
120 140
1100
Bild 5-34 Frequenzbelegung auf der Zweidraht-Teilnehmeranschlussleitung bei ADSL-Übertragung (schematische Darstellung)
Seit ca. 2005 ist die Weiterentwicklung ADSL2+ verfügbar. ADSL2+ ist kompatibel zu seinen Vorgängern. Es benutzt ebenso ein Mehrträgerverfahren, genannt DMT (Discrete Multitone), das auf dem OFDM-Verfahren in Abschnitt 4.5, allerdings ohne HF-Träger, beruht. Im Sender und Empfänger kommt die IFFT bzw. FFT der Blocklänge 512 zum Einsatz. Da doppelt so viele Unterträger wie bei ADSL verwendet werden, verdoppelt sich die Bandbreite auf 2,208 MHz. Als Besonderheit verfügt ADSL2+ über eine dynamischen Anpassung der Unterträger, genannt DSM (Dynamic Spectrum Management). Die Sendepegel der einzelnen Unterträger werden während des Betriebs an die sich verändernden Bedingungen oder Anforderungen angepasst. So ist es möglich, Störungen zu erkennen, die Datenrate zu maximieren oder die Sendeleistung auf das notwendige Maß zu begrenzen und so den Durchsatz des Kabels (Bündel von Zweidrahtleitungen) für alle Teilnehmer gemeinsamen zu verbessern. Vorgesehen ist ADSL2+ mit der Bitrate von mindestens 16 Mbit/s für die Anwendungen TriplePlay (Telefon+Internet+Fernsehen) und IPTV (Internet-Fernsehen). Bild 5-35 gibt einen Überblick über die Leistungsfähigkeit modernen DSL-Verfahren. Beeindruckend ist die rasante Entwicklung in den letzten zwanzig Jahren. Seit der Einführung von ISDN 1986 bis heute hat sich die verfügbare Bitrate von 144 kbit/s auf 52 Mbit/s gesteigert. Anmerkungen: (i) Ein Preisvergleich pro Bit zwischen ISDN vor 20 Jahren und VDSL heute, würde wahrscheinlich noch eindrucksvoller Zahlen liefert. (ii) Für die Verteilung von HDTV (High Definition TV) kommt ADSL2+ jedoch an seine Grenzen. So wird zurzeit an passiven optischen Netzwerken (PON, Passive Optical Network) mit Lichtwellenleitern gearbeitet, die zu bezahlbaren Preisen Bitraten über 1 Gbit/s zu den Teilnehmern (FTTH, Fiber To The Home) bzw. in deren Nähe (FTTC, Fiber To The Curb) (Endverteiler) bringen sollen.
Beispiel Übertragungskapazität von ADSL2+ im Teilnehmeranschluss
Einen Hinweis auf die Größe der erzielbaren Bitrate liefert die shannonsche Kanalkapazität. Dazu betrachten wir nochmals (5.25), jetzt aber mit der Bandbreite 2,2 MHz. Die Auswertung
5 Digitale Übertragung im Basisband
180
der Formel liefert für die SNR-Werte 60 dB und 20 dB die Kapazitäten von ca. 43 bzw. 14 Mbit/s. Also in etwa die in Bild 5-35 für ADSL2+ angegeben Werte. _______________________________________________________________________________ Ende des Beispiels
50M
0,3 km
VDSL 25M
1 km 0,3 km
Bitrate in Abwärtsrichtung in bit/s
1 km 1 km
ADSL2+
1,3 km
2 km
12M 10M
ADSL2
6M
3 km
ESHDSL o 1,2 km
ADSL SDSL o 2 km SHDSL o 2,6 km
2M 1,5M
4 km
SDSL o 2,3 km SHDSL/HDSL2 o 3km
1M 768k
SDSL o 3 km SHDSL o 4km
400k
SDSL o 4,3 km SHDSL o 5km 5 km
144k
ISDN o 5km 144k
768k
400k
2M
1M 1,5M
12M
6M 10M
Bitrate in Aufwärtsrichtung in bit/s Bild 5-35 DSL-Datenraten und Reichweiten (nach [SSCS03] und ergänzt, die Angaben zu den Reichweiten beziehen sich jeweils auf bestimmte Leitungstypen)
5.11
Zusammenfassung
Die digitale Basisbandübertragung ist überall dort anzutreffen, wo es gilt digitale Information über kurze Entfernungen auszutauschen. Je nach Anwendung existieren sehr unterschiedliche Anforderungen bzgl. Komplexität, Störfestigkeit und Bitrate. Als wichtigste Komponenten der Übertragungskette sind die Leitungscodierung und die Impulsformung im Sender, der Kanal und der Empfänger mit Synchronisations- und Detektionseinrichtung hervorzuheben:
5.11 Zusammenfassung
181
x Die Leitungscodierung und Impulsformung hat die Aufgabe, den Bitstrom in ein an den Kanal angepasstes Signal umzusetzen. Spezielle Anforderungen, wie ein kompaktes Spektrum oder Gleichstromfreiheit, können durch die Wahl des Leitungscodes und der Form des Sendegrundimpulses erfüllt werden. Als wichtige Beispiele sind hier Codes mit Gedächtnis, wie der AMI-Code, und interferenzfreie Impulsformen, wie der RC-Impuls, zu nennen. x Die Übertragungsstrecken lassen sich oft näherungsweise als Tiefpässe modellieren, an deren Ausgängen den Nachrichtensignalen Störgeräusche überlagert werden. Durch die Bandbegrenzung im Tiefpass-Kanal treten Dämpfungs- und Phasenverzerrungen auf, die die gesendeten Impulse verbreitern, so dass sie sich gegenseitig stören. Die Nachbarzeicheninterferenzen machen die Übertragung anfällig gegen Störung durch Rauschen. Wie stark die Übertragungsqualität jeweils degradiert, kann an der Augenöffnung im Augendiagramm abgelesen werden. x Der erfolgreiche Empfang der Nachricht setzt das Erkennen des Bittaktes im Empfangssignal voraus. Dazu dient die Synchronisationseinrichtung. Sie wird durch einen hohen Taktgehalt im Sendesignal unterstützt. Halten sich die Störungen in normalen Grenzen, arbeiten die üblicherweise eingesetzten Synchronisationseinrichtungen zuverlässig. Ein Verlust der Synchronisation macht den Nachrichtenempfang meist unmöglich. Für die digitale Übertragung ist deshalb typisch, dass sie entweder zuverlässig funktioniert oder gar nicht. Um die Wirkung der Rauschstörung zu verringern, kann ein Matched-Filterempfänger eingesetzt werden. Er maximiert das Signal-Geräuschverhältnis und verringert demzufolge die Wahrscheinlichkeit für Übertragungsfehler. Im Falle eines AWGN-Kanals wird die Fehlerwahrscheinlichkeit sogar minimiert. Als wichtige allgemeine Zusammenhänge sind die Nyquist-Bandbreite und die shannonsche Kanalkapazität zu nennen: x Die Nyquist-Bandbreite liefert eine Abschätzung der erforderlichen Bandbreite für die binäre Basisbandübertragung. Sie ist gleich dem Kehrwert der zweifachen Bitdauer, bzw. Symboldauer bei mehrstufiger Übertragung. In praktischen Anwendungen ist mit einem etwa 1,5-fachen Wert zu rechnen. x Die shannonsche Kanalkapazität beschreibt den grundlegenden Zusammenhang zwischen dem für die Übertragung notwendigen Aufwand in Form von Bandbreite und Signalleistung und dem erzielbaren Gewinn in Form der Bitrate bei vorgegebener Rauschleistung. Moderne Standards zur digitalen Basisbandübertragung bedienen sich komplexer Methoden der digitalen Signalverarbeitung, die sich dynamisch an die Übertragungsbedingungen anpassen, wie die adaptive Entzerrung des Empfangssignals, die Berücksichtigung der Nachbarzeicheninterferenzen durch Detektion ganzer Bitfolgen, den Einsatz aufwändiger Kanalcodierverfahren, usw. Die Darstellung dieser Verfahren würde den Rahmen einer Einführung sprengen, weshalb darauf verzichtet wird. Es sind jedoch erst diese anspruchsvollen Methoden die zusammen mit den Fortschritten der Mikroelektronik die moderne Informationstechnik ermöglichen. Anmerkung: Ergänzt werden die vorgestellten Methoden durch die drahtlose Kommunikation, sei es durch die Infrarotübertragung, z. B. IrDA-Standard (Infrared Data Association), oder durch die Funkübertragung, z. B. Bluetooth, WLAN nach IEEE 802.11, HIPERLAN 1 und 2 (High Performance LAN). Vergessen werden sollte auch nicht, dass die physikalische Übertragung sowie die damit unterstützten Dienste die Existenz eines leistungsfähigen an die jeweilige Aufgabe angepassten Protokolls voraussetzen.
5 Digitale Übertragung im Basisband
182
5.12
Aufgaben zu Abschnitt 5
Aufgabe 5.1
a) Geben Sie das Bitmuster nach ASCII-Code für das Zeichenpaar „NT“ an. b) Skizzieren Sie für das Zeichenpaar in a) das Basisbandsignal entsprechend der RS-232Schnittstelle. Verwenden Sie eine Codierung mit ungerade Parität und 1,5 Stoppbits. Aufgabe 5.2
a) Was versteht man unter einem Leitungscode mit Gedächtnis und wozu werden sie verwendet? b) Skizzieren Sie das Basisbandsignal der Bitfolge 0101110... bei AMI-Codierung. Aufgabe 5.3
a) Geben Sie die drei prinzipiellen Verarbeitungsschritte im Empfänger bei der digitalen Übertragung im Basisband an. b) Mit welchen Störeinflüssen ist bei der digitalen Übertragung im Basisband zu rechnen? c) Was versteht man unter Nachbarzeichenstörungen? d) Welche Bedeutung hat die Augenöffnung? e) Wie wirkt sich ein Synchronisationsfehler bei der Detektion aus? f) Welchen Zweck dient die Impulsformung bei der digitalen Basisbandübertragung. Nennen Sie eine häufig verwendete Impulsform. Aufgabe 5.4
a) Es soll ein Datenstrom von 64 kbit/s im Basisband binär übertragen werden. Wie groß muss die Bandbreite B des zugehörigen Übertragungskanals theoretisch mindestens sein und wie nennt man diese minimale Bandbreite? Wie groß ist die in den Anwendungen tatsächlich benötigte Bandbreite typischer Weise? b) In welchem Verhältnis stehen bei der Nachrichtenübertragung die Bitrate, die Bandbreite und das Signal-Geräuschverhältnis zueinander? c) Wie kann die Bitrate einer Datenübertragung bei fester Bandbreite gesteigert werden? Mit welchem Nachteil wird dies erkauft? d) Nennen Sie einen wichtigen Vorteil der digitalen Nachrichtenfernübertragung gegenüber der analogen. Aufgabe 5.5
a) Welches Problem soll das Matched-Filter in der Datenübertragungstechnik lösen? b) Worauf ist das Matched-Filter anzupassen? c) Was bedeutet optimal im Zusammenhang mit dem Matched-Filter? Aufgabe 5.6
a) Wofür steht das Akronym ADSL? b) Warum ist die Bitrate von DSL-Anschlüssen von der Länge der Anschlussleitung abhängig? c) Warum kann ein Modem für ADSL2+ wesentlich höhere Bitraten übertragen als Sprachtelefon-Modems?
183
6
Telekommunikationsnetze
6.1
Einführung
Moderne öffentliche Telekommunikationsnetze bestehen aus einer Vielzahl unterschiedlicher Netzkomponenten und ermöglichen verschiedenartige Dienste. Da es den Teilnehmern frei gestellt ist, welchen Dienst sie zu welcher Zeit von welchem Ort aus in Anspruch nehmen möchten, kann der Telekommunikationsverkehr nicht im einzelnen vorhergeplant werden. Endgeräte und Netzkomponenten müssen situationsbedingt untereinander Nachrichten austauschen und Übertragungswege gesucht werden. In diesem Abschnitt wird zunächst das Zeitmultiplex zur Bündelung digitaler Nachrichtenströme vorgestellt. Danach werden Grundbegriffe der Nachrichtenübermittlung behandelt und mit dem OSI-Referenzmodell das Protokoll als Grundlage des geregelten Nachrichtenaustausches eingeführt. Als Beispiel wird das historisch wichtige und heute noch aktuelle High-level Data Link Control (HDLC) Protokoll vorgestellt. Die darauf folgenden Abschnitte stellen Anwendungen, wie ATM, Breitband-ISDN, Lokale Netze und die Protokollfamilie TCP/IP kurz vor. Anmerkung: Einen Einstieg in die weiterführende Literatur zum Thema Telekommunikationsnetze und Datenkommunikation findet man z. B. in [Con04], [Loc02], [Noc05], [Sta00], [Tan03] und [Wer05].
6.2
Zeitmultiplex, PDH und SHD
Für die Übertragung analoger Sprachkanäle wurden Systeme zur Vielfachnutzung von Übertragungsmitteln, wie Koaxialkabel und Richtfunkstrecken, eingeführt, siehe Abschnitt 4.3.7. Bei den herkömmlichen Trägerfrequenzsystemen werden die Sprachkanäle im Frequenzmultiplex, also jeder Sprachkanal spektral getrennt, übertragen. Ebenso wie bei der analogen Sprachübertragung wäre es unwirtschaftlich, wollte man jedes digitale Sprachsignal, siehe PCM in Abschnitt 3.6, über eine eigene Leitung übertragen. Zur Bündelung der digitalen Gesprächskanäle in der Telefonie wurde Ende der 1960er Jahre die PDH-Hierarchie, die Plesiochronous Digital Hierarchy, eingeführt. Nachfolgend wird ein kurzer Überblick über das PDH-System gegeben. An ihm lassen sich grundlegende Tatsachen erkennen und bis heute gültige Festlegungen verstehen. Die Grundstufe des PDH-Systems ist das PCM-30-System, bei dem 30 PCM-Kanäle zum Primärmultiplexsignal zusammengefasst werden. Die PCM-Kanäle werden oktettweise zeitlich ineinander verschränkt. Man spricht von einer Zeitmultiplex-Übertragung. Den 30 Gesprächskanälen werden zusätzlich zwei Organisationskanäle beigefügt. Es werden aufeinander folgende Rahmen gebildet, die je Kanal ein Oktett aus 8 Bits (1 Byte) tragen. Daraus ergeben sich 256 Bits pro Rahmen. Bei einer Abtastfrequenz von 8 kHz stehen für den Rahmen 125 Ps zur Verfügung. Der Rahmenaufbau wird in Bild 6-1 gezeigt. Das 1. Oktett im Rahmen ist abwechselnd entweder ein Rahmenkennungswort (R) oder ein Meldewort (M). Das 2. bis 16. Oktett gehört zu den ersten 15 Gesprächskanälen mit jeweils einer Bitrate von 64 kbit/s für PCM-Sprache. Das 17. Oktett dient zur Zeichengabe, wie der
6 Telekommunikationsnetze
184
Zielinformation, z. B. der Rufnummern. Danach schließen sich die Oktette der restlichen 15 Gesprächskanäle an. Rahmenkennungswort und Meldewort sind typisch für die digitale Übertragung. Da die Zuordnung der Oktette zu den Gesprächskanälen sowie den Funktionen Zeichengabe und Meldung von der Lage im Rahmen abhängen, ist die Erkennung des Rahmenanfangs für die Kommunikation unverzichtbar. Mit dem Meldewort besteht die Möglichkeit der Inbandsignalisierung, d. h. der Übertragung für die Steuerung der Verbindung wichtiger Informationen während laufender Gespräche. PCM-30-Zeitmultiplexrahmen 256 Bits in 125 Ps
29 30 R 1 2 3
15 Z 16
Rahmenkennung
X 0 0 1 1 0 1 1
28 29 30 M 1
Zeichengabe
Meldung
1 2 3 4 5 6 7 8
X 1 D N Y Y Y Y
Bild 6-1 PCM-30-Zeitmultiplexrahmen
Der Aufbau des Rahmenerkennungs- und des Meldeworts und die Bedeutung der einzelnen Bits werden im Schnittstellenprotokoll festgelegt. Im Meldewort ist das Bit X für die internationale Verwendung reserviert; das Bit D dient als Meldebit für dringenden Alarm und Bit N als Meldebit für nichtdringenden Alarm. Die vier Bits Y sind für die nationale Verwendung reserviert. Obwohl pro Meldewort nur ein D- und ein N-Bit zur Verfügung stehen, entspricht das einer Datenverbindung mit der Bitrate von je 4 kbit/s, da alle 250 Ps ein D- und ein N-Bit übertragen werden. PCM-30-Systeme wurden in Deutschland ab 1971 eingesetzt Man beachte den Unterschied zu ISDN, dass erst Ende der 1980 Jahre eingeführt wurde. Aus Kompatibilitätsgründen wurden für die ISDN-Basiskanäle ebenfalls 64 kbit/s festgelegt. Bei der Übertragung von ISDN-Verbindungen im PCM-30-System müssen die zugehörigen ISDN-D-Kanäle auf das Z-Oktett abgebildet werden. Dies ist jedoch nur eingeschränkt möglich. Aus PCM-30-Systemen wird die PDH-Hierarchie in Bild 6-2 aufgebaut. Jeweils vier Untersysteme werden in einem Multiplexer zusammengeführt bis schließlich im PCM-7680-System 7680 Gesprächskanäle gebündelt werden. Durch Hinzufügen von weiteren Organisationszeichen bzw. eventuellen Stopfbits zur Taktanpassung wird die Bitrate jeweils etwas mehr als vervierfacht. Wegen der nicht strikten Synchronität zwischen den Datenströmen spricht man hier von einem plesiochronen (annähernd synchronen) digitalen Multiplexsystem. PCM 7680 PCM 1920 PCM 480 PCM 120
565 Mbit/s
PCM 30
140 Mbit/s 34 Mbit/s 8 Mbit/s
64 kbit/s
2 Mbit/s Bild 6-2 PCM-Zeitmultiplexsysteme (PDH, Bitraten gerundet)
185
6.2 Zeitmultiplex, PDH und SHD
In Tabelle 6-1 sind einige weitere interessante Details zusammengestellt. Insbesondere die Verwendung von Lichtwellenleitern macht eine wirtschaftliche Übertragung bei hohen Bitraten über weite Strecken möglich, vgl. Tabelle 4-1. Anmerkungen: (i) Das erste transatlantischen Kabel aus zwei Lichtwellenleitern (TAT-8) mit je 280 Mbit/s wurde 1988 in Betrieb genommen. Zum Vergleich, ab 1956 stellte TAT-1 36 analoge Sprachkanäle bereit. (ii) In den USA, Kanada und Japan werden jeweils 24 PCM-Kanäle im T1-System (DS-1 Format mit 1,544 Mbit/s) zusammengefasst, und ein eigenes PDH-System aufgebaut. Tabelle 6-1 PCM-Zeitmultiplexsysteme [BFH95] System Zahl der Nutzkanäle Bitrate in Mbit/s Leitung Regeneratorabstand in km
PCM 30
PCM 120
PCM 480
PCM 1920
PCM 7680
30
120
480
1920
7680
2,048
8,448
34,368
139,264
564,992
sym. Kabel (verdrilltes Adernpaar)
sym. Kabel / Koaxialkabel
2
6,5
Koaxialkabel (Koax.) / Lichtwellenleiter (LWL) 4 (Koax.) 40 (LWL)
4 (Koax.) 40 (LWL)
1,5 (Koax.) 35 (LWL)
Das PDH-Konzept in Bild 6-2 spiegelt den Stand der Technik Anfang der 1980er Jahre wider, d. h. insbesondere den Stand der Mikroelektronik und der Übertragungstechnik für Koaxialkabel. Es besitzt einen grundsätzlichen Nachteil. Wie fädelt man einen einfachen Gesprächskanal, in dem Hierarchiesystem ein und aus? Indem man alle Hierarchiestufen von unten bis oben bzw. oben bis unten durchläuft. Es ist klar, dass ein derartig aufwändiges und unflexibles Verfahren wirtschaftlich nicht optimal sein kann. 1987 wurde deshalb von der ITU-T, vormals CCITT, die synchrone digitale Hierarchie, die Synchronous Digital Hierarchy (SDH), vorgeschlagen. Bei der Ausarbeitung der Details wurde berücksichtigt, die bisher inkompatiblen Multiplexsysteme in Europa, Japan und Nordamerika zu harmonisieren und die sich abzeichnenden neuen Möglichkeiten der optischen Übertragung zu nutzen. Anmerkungen: (i) In Nordamerika wird das zur ITU-T kompatible System SONET genannt, von Synchronous Optical Network, da zur Übertragung optische Systeme eingesetzt werden. (ii) Die Grenzen der optischen Übertragungstechnik sind heute noch nicht ausgereizt. Bereits 1996 wurden in Japan und den USA Übertragungsversuche mit über 1 Tbit/s (1012 bit/s) über 40 ... 150 km erfolgreich durchgeführt. Zurzeit werden typisch faseroptische Fernübertragungsstrecken mit 10 Gbit/s pro Wellenlänge und 16 unterschiedliche Wellenlängen pro Faser kommerziell eingesetzt. Durch den Wellenlängenmultiplex stehen so 160 Gbit/s zur Verfügung. Die Standardisierung eines Optical Transport Network (OTN) mit Bitraten von 2,5, 10, 40 und 120 Gbit/s durch die ITU-T ist in Vorbereitung. (iii) Unter den Schlagwörtern Fiber To The Home (FTTH) und Fiber To The Curb (FTTC) wird zurzeit ebenfalls der „breitbandige“ Teilnehmeranschluss mit Lichtwellenleitern, z. B. als 1G Ethernet und darüber hinaus, vorangetrieben.
Als Grundelement wird das STM-1 Transport-Modul mit einer Bitrate von 155,52 Mbit/s verwendet, das die bisherigen PCM-Multiplexsysteme niedrigerer Bitrate zusammenführt. Möglich wird dies durch die moderne Mikroelektronik, die schnellen Zugriff und Auswertung der übertragenen Oktette erlaubt. Bild 6-3 zeigt den prinzipiellen Aufbau des STM-1 TransportModuls.
6 Telekommunikationsnetze
186
Innerhalb eines Rahmens von 125 Ps Dauer werden 2430 Oktette übertragen. Die Oktette sind in Form einer Matrix angeordnet, die 9 Zeilen und 270 Spalten aufweist. Die ersten 9 Oktette einer Zeile haben jeweils organisatorische Aufgaben. Dazu gehören die Bits der Verkehrslenkung und der Qualitätsüberwachung des SDH-Netzes im Feld SOH (Section Overhead) und die Zeiger im Feld PTR (Pointer). Die Zeiger verweisen auf die im STM-1 Transport-Modul eingebetteten niederratigeren Multiplex-Systeme, den Transportgruppen und virtuellen Containern. Transportgruppen und virtuelle Container besitzen wiederum jeweils Kopffelder, die POH-Bits (Path Overhead), die die Information über den inneren Aufbau enthalten. So können mehrerer Container bzw. Transportgruppen ineinander verschachtelt werden. Die Verschachtelung der Bits unterschiedlicher Containern und Transportgruppen geschieht oktettweise. Es werden jeweils 8 Bits eines niederratigen Systems zusammengefasst. Oktette
9
3
SOH
1
PTR
5
260
Transportgruppen und virtuelle Container
SOH
Bild 6-3 Aufbau des STM-1 Transport-Moduls (schematische Darstellung)
STM-1 Transport-Module erlaubt eine relativ flexible Gestaltung des Kommunikationsnetzes. Durch den Einsatz von leistungsfähigen Netzknoten, SDH-Cross-Connect genannt, und einfacheren Add/Dropp-Multiplexern wird der Zugriff auf Signale bestimmter Bitraten ermöglicht. Allerdings entsteht ein zusätzlicher Aufwand durch die notwendige Übertragung der Kopffelder. Hinzu kommt, dass Transportgruppen und Container feste Größen besitzen, so dass gegebenenfalls Stopfbits eingefügt werden müssen und so die effektive Bitrate etwas gemindert wird. Beginnend mit den STM-1 Transport-Modulen wird die SDH-Hierarchie mit den STM-4, STM-16 und STM-64 Transport-Modulen aufgebaut. Ein STM-64 Transport-Modul kann über LWL mit 10 Gbit/s (SONET OC192) transportiert werden.
6.3
Nachrichtenübermittlung
Der Begriff Nachrichtenübermittlung setzt sich zusammen aus den Begriffen Nachrichtenübertragung, der Übertragung von Nachrichten zwischen zwei Geräten oder Netzknoten, und der Nachrichtenvermittlung, der zielgerichteten Organisation des Nachrichtenflusses in einem Telekommunikationsnetz zwischen bestimmten Teilnehmern. Das Telekommunikationsnetz, kurz TK-Netz genannt, ermöglicht dabei den Nachrichtenaustausch zwischen zwei Netzzugangspunkten an denen die Teilnehmer mit dem TK-Netz verbunden sind, siehe Bild 6-4.
187
6.3 Nachrichtenübermittlung
Teilnehmer/ Benutzer A
TK-Netz Verbindungsleitung
Quelle/ Ziel Netzknoten/ Vermittlungsstelle
Übertragungsweg Teilnehmer/ Benutzer B NetzzugangsQuelle/ Ziel punkt
Bild 6-4 Telekommunikationsnetz
Das TK-Netzes hat die Aufgabe, den Teilnehmern Dienste zur Verfügung zu stellen. Darunter versteht man die Fähigkeit des TK-Netzes Nachrichten einer bestimmten Art mit bestimmten Merkmalen, wie zeitlichen Vorgaben und Qualitätsindikatoren, zu übertragen. Aus der Sicht der Teilnehmer steht über allem die Anwendung, die über die Benutzerschnittstelle auf die jeweilige Endeinrichtung zugreifen kann. Die Endeinrichtungen wiederum nutzen über die Netzschnittstelle an den Netzzugangspunkten den Dienst des TK-Netzes. Die dazu notwendige Kopplung der Geräte untereinander wird Nachrichtenverbindung genannt. Meist wird der Begriff in Zusammenhang mit den Endeinrichtungen gebraucht. Man spricht dann von der Nachrichtenverbindung zwischen den Teilnehmern, Einrichtungen oder Stationen A und B. Sie kann z. B. mittels einer fest geschalteten und exklusiv zu nutzenden Leitung oder einer virtuellen Verbindung geschehen. Anmerkung: Als Symbol für eine Vermittlungsstelle wird in Bild 6-4 in Anlehnung an die früheren Bretter mit steckbaren Leitungen (Koppelfelder), bei denen die Verbindungen von Hand durchgeführt wurden (Durchschaltevermittlung), ein sich überkreuzendes Leitungspaar verwendet.
Ein weiterer wichtiger Begriff ist der Kanal (Channel). Damit ist die kleinste logisch einem Dienst zugeordnete physikalische Einheit des Übertragungsmediums gemeint, wie z. B. dem D-Bit im Meldewort des PCM-30-Zeitmultiplexrahmens, ein Frequenzband bei der GSMFunkübertragung, eine Wellenlänge bei der optischen Übertragung in einem Lichtwellenleiter, oder ein Code bei der UMTS- Funkübertragung. In der Nachrichtentechnik werden verschiedene Vermittlungsarten eingesetzt. Es werden die Leitungsvermittlung und die Paketvermittlung unterschieden. Tabelle 6-2 enthält eine kurze Gegenüberstellung. Die Paketvermittlung wird entweder als verbindungsorientiert oder verbindungslos bezeichnet. Die verbindungsorientierte Paketübertragung (im Virtual-circuit – Packet Network) zeichnet sich wie die Leitungsvermittlung durch die drei Phasen Verbindungsaufbau (Call Establishment), Nachrichtenaustausch (Data Transfer) und Verbindungsabbau (Call Disconnect) aus.
6 Telekommunikationsnetze
188 Tabelle 6-2 Arten der Vermittlung Leitungsvermittlung
Paketvermittlung
Durchschaltevermittlung (Circuit Switching)
Speichervermittlung (Packet Switching, Storeand-forward Switching)
Der physikalisch fest zugeteilte Kanal wird zu Beginn der Kommunikation aufgebaut (Verbindungsaufbau, Circuit Establishment) und erst am Ende der Übertragung wieder abgebaut (Verbindungsabbau, Circuit Disconnect)
Die Nachricht wird in (Daten-)Pakete zerlegt. Die Übertragung geschieht entweder verbindungsorientiert (connection-oriented) oder verbindungslos (connection-less)
Herkömmliche analoge öffentliche Fernsprechnetze (POT, Plain Old Telephony), digitale Netze auf PCM-Basis mit plesiochroner digitalen Hierarchie (PDH), GSM-Sprachübertragung im Mobilfunknetz
Datex-P, LAN (Ethernet), synchrone digitale Hierarchie (SDH), ATM Backbone, GPRSDatenübertragung im Mobilfunknetz, Internet
- Zuverlässige schnelle Übermittlung der Nachricht, wenn Verbindung aufgebaut
- Kanal wird nicht während der gesamten Verbindungszeit belegt
- Kanäle können von mehreren Teilnehmern quasi gleichzeitig genutzt werden / Verbindungsaufbau erfordert freien Kanal von - Optimierte Netzauslastung durch dynamische A nach B Kanalzuteilung möglich (unsymmetrischer / Verbindung belegt den Kanal auch dann, Verkehr) wenn keine Daten ausgetauscht werden (Sprechpausen, Lesen am Bildschirm, Tastatureingabe)
/ Zwischenspeichern der Pakete erfordert Speicher in den Netzknoten / Zustellzeit ist eine Zufallsgröße
Kritische Qualitätsmerkmale: Paketverlust Kritisches Qualitätsmerkmal: Blockierwahrschein(Packet Loss) und schwankende Zustellverlichkeit (Blocking Probability) zögerung (Cell-delay, Jitter)
Entsprechend der Zielinformation und Dienstmerkmale wird zunächst ein geeigneter Weg durch das Netz gesucht (Routing). Dem gefundenen Weg zwischen zwei Netzknoten wird eine Verbindungsnummer VCN (Virtual-circuit Number, Logical Channel Number) zugeordnet und in die entsprechenden Wegwahl-Tabellen (Routing-Table) eingetragen. Bild 6-5 veranschaulicht das Prinzip. In den Netzknoten werden die VCN gemäß den Wegwahl-Tabellen umgewertet und die Datenpakete weitergeleitet. Der Vorteil der verbindungsorientierten Übermittlung liegt auf der Hand. Durch die vorbereitende Wegsuche und die kurzen VCN-Nummern wird die Vermittlung der Pakete stark vereinfacht. Darüber hinaus können Ressourcen reserviert werden, so dass gewisse Dienstgüten (QoS, Quality of Service) garantiert werden können. Bei der verbindungslosen Paketvermittlung, auch Zellenvermittlung genannt (im Connectionless Packet Network, Message Switching) geschieht kein Verbindungsaufbau und –abbau. Jedes Paket trägt die zur Zustellung notwendige Information. Man spricht von einem Datagramm (Datagram) mit dem Absender (Source), der Zieladresse (Destination), einer eventuellen Steuerinformation (Control) und der eigentlichen Nachricht (Payload). Ein typisches Beispiel ist die ATM-Zelle, die später noch vorgestellt wird.
189
6.4 OSI-Referenzmodell
Pakete nach E Wegwahl-Tabelle (C) ein aus Port VCN Port VCN A 3 D 3 B 7 D 4
Weg 1 3
A
3
Weg 2 7
7
3 7
C
Pakete nach F
4 3
B
3
Wege 1 und 2 Wegwahl-Tabelle (D) ein aus Port VCN Port VCN C 3 E 1 C 4 F 3
4
E 3 1
1
1
D 3
3 3
F
Bild 6-5 Verbindungsorientierte Paketvermittlung mit Wegwahl-Tabellen in den Netzknoten
6.4
OSI-Referenzmodell
Um die Entwicklung offener Telekommunikationssysteme voranzutreiben, hat die internationale Organisation ISO (International Standards Organization) 1984 ein Referenzmodell, das OSI-Referenzmodell (Open Systems Interconnection, ISO-Norm 7489) vorgestellt. Die ursprüngliche Absicht der ISO, ein einheitliches Protokoll für alle Telekommunikationsanwendungen zu schaffen, hat sich nicht verwirklicht. Durch die unterschiedlichen Anforderungen in verschiedenen Anwendungsbereichen, wie z. B. der Datenübertragung in lokalen Rechnernetzen und der Funkübertragung in der Mobilkommunikation, kommen heute unterschiedliche Protokolle, wie das TCP/IP (Transmission Control Protocol/Internet Protocol) oder das Protokoll RLC/MAC (Radio Link Control/Medium Access Control) für GSM, zum Einsatz. Trotzdem ist der Erfolg des OSI-Referenzmodells unbestritten. Er beruht auf dem hierarchischen Architekturmodell, das auch heute noch Vorbildcharakter hat. Die Kommunikationsfunktionen werden in 7 überschaubare, klar abgegrenzte Funktionseinheiten geschichtet, wobei benachbarte Schichten (Layer) über definierte Aufrufe und Antworten, den Dienstelementen (Service Primitives), miteinander verknüpft sind. In Bild 6-6 wird das OSI-Referenzmodell für eine Nachrichtenübertragung vom Endsystem A über ein Transitsystem, z. B. dem öffentlichen TK-Netz, zum Endsystem B vorgestellt. Die Kommunikation läuft prinzipiell beim sendenden Endsystem von oben nach unten und beim empfangenden Endsystem von unten nach oben. Gleiche Schichten verschiedener Systeme sind über logische Kanäle verbunden. Das sind Kanäle, die in der Regel physikalisch so nicht vor-
6 Telekommunikationsnetze
190
handen sind, aber von den Protokoll-Instanzen wie solche behandelt werden dürfen. Sie werden durch geeignete Dienstelemente unterstützt. Die Datenübertragung zwischen den Systemen erfolgt über die physikalischen Übertragungseinrichtungen, die jeweils aus der Bitübertragungsschicht gesteuert werden. Nach ihren Aufgaben lassen sich die Schichten in Bild 6-6 in vier Gruppen einteilen: Die oberen drei Schichten stellen primär den Bezug zur Anwendung her. Zusammen mit der Transportschicht werden die obersten vier Schichten meist im Endgerät implementiert. Die unteren vier Schichten regeln den Transport der Daten von A nach B. Die Vermittlungsschicht, die Datensicherungsschicht und die Bitübertragungsschicht entsprechen den üblichen Funktionen eines TK-Netzes.
Endsystem B
Endsystem A
7
Application Layer
6
Presentation Layer
Anwendung
Darstellung
Kommunika- 5 tionssteuerung
anwendungsorientierte Schichten
Session Layer
4 Transport Layer Ende-zu-Ende-Verbindung
Transport Transitsystem
3 Vermittlung
Vermittlung
Network Layer
Sicherung
Data Link L.
Bitübertragung
Physical Layer
2 Sicherung
netzorientierte Schichten
1 Bitübertragung
physikalische Übertragungseinrichtungen
Bild 6-6 OSI-Referenzmodell für Telekommunikationsprotokolle
6.4 OSI-Referenzmodell
191
Nachfolgend werden die einzelnen Schichten kurz vorgestellt. Die Anwendungsschicht (7) stellt die kommunikationsbezogenen Funktionen der Anwendung bereit. Hierzu gehören beispielsweise die Funktionen eines Anwendungsprogramms zum gemeinsamen Erstellen eines Dokumentes eine Text-Übertragung und eine Bildtelefonie aus einem Textverarbeitungsprogramm heraus zu starten. Dafür ist beispielsweise auch die Nachfrage notwendig ob eine Bildübertragung zum gewünschten Partner verfügbar ist. Die Darstellungsschicht (6) befasst sich mit der Darstellung (Syntax und Semantik) der Information soweit sie für das Verstehen der Kommunikationspartner notwendig ist. Im Beispiel der gemeinsamen Dokumentbearbeitung sorgt die Darstellungsschicht dafür, dass den Teilnehmer gleichwertige Text- und Grafikdarstellungen angeboten werden, obwohl sie Hard- und Software von unterschiedlichen Herstellern mit unterschiedlichen Grafikauflösungen benutzen. Die Kommunikationssteuerungsschicht (5) dient zur Koordinierung (Synchronisation) der Kommunikation einer Sitzung (Sitzungsschicht). Sie legt fest, ob die Verbindung einseitig oder wechselseitig (nacheinander oder gleichzeitig) stattfinden soll. Die Kommunikationssteuerungsschicht verwaltet die Wiederaufsatzpunkte (Checkpoints), die einen bestehenden Zustand solange konservieren bis der Datentransfer gültig abgeschlossen ist. Sie sorgt dafür, dass bei einer Störung der Dialog bei einem definierten Wiederaufsatzpunkt fortgesetzt werden kann. Auch Berechtigungsprüfungen (Passwörter) sind ihr zugeordnet. Beispielsweise könnte durch die Synchronisation verhindert werden, dass die Partner einen Textabschnitt gleichzeitig verändern oder nach einer Störung mit Hilfe der Wiederaufsatzpunkte überarbeitete Textabschnitte richtig eingefügt werden. Die Transportschicht (4) verbindet die Endsysteme unabhängig von den tatsächlichen Eigenschaften des benutzten TK-Netzes. Sie übernimmt aus der Schicht 5 die geforderten Dienstmerkmale (z. B. Datenrate, Laufzeit, zulässige Bitfehlerrate, usw.). Sie wählt gegebenenfalls das TK-Netz entsprechend den dort verfügbaren Diensten aus und fordert von dessen Vermittlungsschicht den geeigneten Dienst an. Sie ist auch für eine Ende-zu-EndeFehlersicherung der Übertragung zuständig, d. h. dass die Daten fehlerfrei, in der richtigen Reihenfolge, ohne Verlust oder Duplikationen zur Verfügung stehen. Im Beispiel einer gemeinsamen Dokumentbearbeitung könnte die Textübertragung und die Bildtelefonie wegen der unterschiedlichen Dienstanforderungen in verschiedene Netzverbindungen aufgeteilt werden. Die Vermittlungsschicht (3) legt anhand der Dienstanforderung und der verfügbaren logischen Kanäle die notwendigen Verbindungen zwischen den Netzzugangspunkten der Teilnehmer fest (Verkehrslenkung, Routing). Sie organisiert den Verbindungsaufbau und Verbindungsabbau zwischen den Netzzugangspunkten. Gegebenenfalls kann die Verbindung über mehrere Teilstrecken (Transitsysteme) erfolgen. Die Datensicherungsschicht (2) ist für die Integrität der empfangenen Bits auf den Teilstrecken zwischen zwei Netzknoten zuständig. Bei der Datenübertragung werden in der Regel mehrere Bits zu einem Übertragungsblock ((Daten-)Rahmen, (Data) Frame) zusammengefasst und es wird ein bekanntes Synchronisationswort eingefügt, um im Empfänger den Anfang und das Ende der Rahmen sicher zu detektieren. Durch gezieltes Hinzufügen von Prüfbits im Sender kann im Empfänger eine Fehlererkennung und/oder Fehlerkorrektur
6 Telekommunikationsnetze
192
durchgeführt werden. Wird ein nicht korrigierbarer Übertragungsfehler erkannt, so wird in der Regel die Wiederholung des Rahmens angefordert (Automatic Repeat Request, ARQ). Die Bitübertragungsschicht (1) stellt alle logischen Funktionen für die Steuerung der physikalischen Übertragung der Bits zur Verfügung. Sie passt den zu übertragenden Bitstrom an das physikalische Übertragungsmedium an und erzeugt aus den ankommenden Signalen einen Bitstrom. Die Schichten der Endsysteme A und B sind in Bild 6-6 über logische Kanäle miteinander verbunden. Sie ermöglichen den Nachrichtenaustausch zwischen den Instanzen, den aktiven Elementen, der jeweiligen Schichten nach im Protokoll vorab festgelegten Regeln. In Bild 6-7 wird die logische Abfolge der elementaren Nachrichten, Dienstelemente (Service Primitives) genannt, zwischen den Partner-Instanzen (Peer Entities) der Protokollschichten dargestellt, wobei ein Dienst mit Bestätigung (Confirmed Service) angenommen wird. Im System A ruft die Instanz der Schicht N mit dem Dienstelement Request eine Instanz der nachfolgenden Schicht N-1 auf und übergibt die notwendigen Parameter. Die Instanz der Schicht N-1 stellt ein passendes Protokolldatenelement (Protocol Data Unit, PDU) für die Übertragung zu einer Partner-Instanz des Systems B zusammen. In den eventuell weiteren darunter liegenden Schichten wird ganz entsprechend verfahren. Logisch gesehen kommunizieren die Partnerinstanzen der Schicht N direkt miteinander, weshalb von einem Peer-to-peer-Protokoll gesprochen wird. Deshalb werden die tiefer liegenden Schichten in Bild 6-7 nicht dargestellt. Die Partner-Instanz des B-Systems übergibt die Daten im Dienstelement Indication an die adressierte Instanz der Schicht N im System B. Da ein Dienst mit Bestätigung aktiviert wurde, sendet die Instanz mit dem Dienstelement Response eine Nachricht über eine PDU der Schicht N-1 zurück. Diese wird schließlich als Dienstelement Confirm der den Dienst auslösenden Instanz übergeben. Anmerkung: Im TCP/IP-Referenzmodell für das „Internet“ werden für die Transportschicht mit dem Transport Control Protocol (TCP) und für die Internetschicht (Vermittlungsschicht) mit dem Internet Protocol (IP) Prozeduren und Formate vorgegeben.
Layer N
System A
System B
Source Entity
Destination Entity
c Request Layer
h Confirm
Serving Entity
e Indication
f Response
Serving Entity
N-1 g (N-1)-PDU
d (N-1)-PDU Peer-to-peer Protocol (Layer N-1) Bild 6-7
Abfolge der Dienstelemente zur Kommunikation zwischen den Partnerinstanzen einer Protokollschicht
193
6.4 OSI-Referenzmodell
Eine für den Nachrichtenaustausch gängige Methode ist in Bild 6-8 dargestellt. Die Darstellungsschicht des sendenden Systems packt die zu übertragende Nachricht als Daten in die PDU. Sie stellt die der Darstellungsschicht im empfangendem System zugedachte Nachricht als Kopf (Header, H) voran und reicht das Paket an die Kommunikationssteuerungsschicht weiter. Die Schichten 5 bis 2 verfahren im Prinzip ebenso. Die Sicherungsschicht stellt die Daten in einer für die Bitübertragung geeigneten Form zusammen. Ein häufig verwendetes Übertragungsprotokoll der Schicht 2 ist das HDLC-Protokoll (Highlevel Data Link Control). In diesem Fall werden die Rahmen wie in Bild 6-8 zusammengestellt. Anfang und Ende eines Rahmens werden jeweils mit 8 Flagbits (F) „01111110“ angezeigt. Es schließt sich ein Oktett für die Adresse (A) und ein oder zwei Oktette für die Steuerung (Control, C) des Rahmenflusses an. Hinter dem Datenfeld werden 16 Paritätsbits als Rahmenprüfsumme (Frame Check Sequence, FCS) angehängt, die eine Fehlerüberwachung durch Fehlererkennung im Empfangssystem erlauben. Das empfangende System nimmt die Bits in der untersten Schicht entgegen und rekonstruiert die Rahmen. Die jeweiligen PDUs werden von unten zur obersten Schicht hin aufgeschnürt. Jede Schicht entnimmt den für sie bestimmten Anteil, den Kopf, und reicht den Rest nach oben weiter. Es ist offensichtlich, dass durch das Protokoll ein zusätzlicher Übertragungsaufwand entsteht, der sich bei manchen Anwendungen als Übertragungsverzögerung störend bemerkbar machen kann. Andererseits wird es durch die Kommunikationssteuerung möglich, nicht nur die Nachrichtenübertragung zwischen den Teilnehmern zu organisieren, z. B. das Nummerieren der Pakete damit sie in der richtigen Reihenfolge zugestellt werden können, sondern auch den Netzbetrieb zu optimieren. Pakete und Rahmen können als reine Steuernachrichten markiert werden. Betriebsinformationen, wie die Komponentenauslastung oder eine Fehlermeldung, lassen sich so in den normalen Nachrichtenverkehr einschleusen. Moderne digitale TK-Netze werden zentral in einer OAM-Einrichtung (Operation Administration and Maintenance) überwacht und ihr Betrieb nach aktuellem Verkehrsbedarf optimiert.
DH
Darstellung
PDU PDU Bits
FCS F
Empfangsrichtung
Senderichtung
PDU
PDU
TH
F A C
Anwendung
PDU
KH
VH
Daten
Kommunikationssteuerung Transport Vermittlung Sicherung Bitübertragung
Bild 6-8 Nachrichtenaustausch zwischen den Protokollschichten des Sende- und Empfangssystems
6 Telekommunikationsnetze
194
6.5
HDLC- und LAP-Protokoll
Anfang der 1970er Jahre wurde von der Firma International Business Machines (IBM) das bitorientierte Protokoll Synchronous Data Link Control (SDLC) entwickelt. Es entspricht der Sicherungsschicht, der Schicht 2 im OSI-Referenzmodell. Daran angelehnt hat 1976 die OSI das Protokoll High-Level Data Link Control (HDLC) als ISO-Norm verabschiedet. Im gleichen Jahr wurde von der CCITT, heute ITU, das Protokoll unter dem Namen Link Access Protocol (LAP) für die Schicht 2 des weit verbreiteten X.25-Protokolls für Paketdatennetze adaptiert. Eine Erweiterung zu einem symmetrischen Duplex-Protokoll, bei dem beide Seiten gleichberechtigt Steuerfunktionen wahrnehmen, wurde 1980 von der CCITT als Link Access Protocol in Balanced Mode (LAPB) festgelegt. Modifikationen des HDLC-Protokolls finden sich heute beispielsweise im ISDN-Teilnehmeranschluss als LAPD-Protokoll (Link Access Procedure on D-Channel) oder in GSM als RLPProtokoll (Radio Link Protokoll). Weitere Beispiele finden sich auf der Infrarot-Schnittstelle der Infrared Data Association (IrDA) oder in der Bluetooth-Empfehlung für Kleinzellen-Funknetze (Personal Area Network, PAN). Das HDLC-Protokoll hat beispielgebenden Charakter. Es löst die elementaren Aufgaben einer Schicht-2-Verbindung in effizienter Weise. Je nach Ausprägung, z. B. durch Auswahl einer Untermenge der möglichen Steuerbefehle und Meldungen, können unterschiedliche Anwendungen realisiert werden. Die Steuerung und Nutzdatenübertragung wird bitorientiert mit Rahmen durchgeführt. Bild 6-9 zeigt den Aufbau. Jeder Rahmen beginnt mit einem Kopffeld aus einem Oktett (Octet), dem Header, und endet mit einem Nachspann aus einem Oktett, dem Trailer. Der Header fungiert als Rahmenerkennungswort und besitzt deshalb ein eindeutiges Bitmuster, das Flag genannt wird. Das Flag wird ebenfalls im Trailer übertragen und schließt so jeden Rahmen ab. Es darf deshalb nicht anderswo im Rahmen vorkommen. Durch systematisches Einfügen von Nullen, dem Zero Insertion, in die Informationsfolge wird die Bittransparenz gewährleistet. Anmerkungen: (i) Bittransparenz bedeutet, dass jede beliebige Kombination von Bits als Information zugelassen ist. Sollen sechs oder mehr aufeinander folgende Einsen übertragen werden, so wird jeweils nach fünf Einsen eine Null eingefügt, Zero Insertion oder allgemeiner Bit Stuffing genannt. Im Empfänger werden die eingefügten Nullen erkannt und entfernt. (ii) Da die Bitfolge der Nachricht vorab nicht bekannt ist, wird hier die Zahl der tatsächlich zu übertragenden Bits eine Zufallsgröße.
Header
Address
Control
Information
FCS
Trailer
1 Octet 01111110
1 Octet
1 or 2 Octets
t0
2 Octets
1 Octet 01111110
Bild 6-9 Rahmenaufbau des HDLC-Protokolls
Als zweites Oktett wird das Adressfeld mit der Zieladresse übermittelt. Daran schließen sich ein oder zwei Oktette mit Steuerinformation, das Steuerfeld, an. Anmerkung: Durch die Verwendung von Adressen wird die Kommunikation zwischen mehreren Stationen, wie die Punkt-zu-Mehrpunkt-Verbindung im Normal-Response Mode (NRM), möglich.
Das optionale Informationsfeld, auch Datenfeld (Data oder Information Field) oder Nutzlast (Payload) genannt, besitzt eine variable Länge mit bis zu 128 Oktetten.
195
6.5 HDLC- und LAP-Protokoll
Die Bitfehlererkennung im Adressfeld, Steuerfeld und Datenfeld wird durch die Prüfzeichen im Feld Frame Check Sequence (FCS) unterstützt. Üblicherweise wird der zyklische Code CRC-16 (CCITT), Cyclic Redundancy Check Code, eingesetzt, siehe Abschnitt 7.3.9. Man unterscheidet zwischen Rahmen mit Daten, Information Frames genannt, Rahmen mit Meldungen zur Flusskontrolle, so genannte Supervisory Frames, und nicht nummerierten Rahmen mit Steuersignalen, den Unnumbered Frames. Man spricht kurz vom I-, S- bzw. U-Format. Anmerkung: Die Flusskontrolle regelt den zeitlichen Ablauf der Übertragung der Rahmen, wie Reihenfolge und Wiederholungen. Durch die Flusskontrolle und die spezialisierten Formate wird eine effektive Kommunikation im Sinne einer schnellen, möglichst fehlerfreien Übertragung der Nutzinformation unterstützt.
Die unterschiedlichen Formate sind an den Steuerfeldern wie in Bild 6-10 zu erkennen. Bit 1 unterscheidet zwischen dem I-Format und den Steuernachrichten. Mit dem Bit 2 werden das Sund das U-Format auseinander gehalten. Bit
1
Information (I)
0
Supervisory (S)
1
Unnumbered (U)
1
2
3
4
5
6
7
N(S)
P/F
N(R)
0
S
P/F
N(R)
1
M
P/F
M
8
Bild 6-10 Control Field der Steuermeldungen im HDLC-Rahmen
Im I-Format wird in Bit 2 bis 4 die Sendenummer N(S) übertragen, so dass ein korrekter Empfang von der Gegenstation mit der Empfangsnummer N(R) = N(S)+1 im I-Format und SFormat quittiert werden kann. Anmerkungen: Mit drei Bits für die Sende- bzw. Empfangsnummer werden zur Flusskontrolle 23 = 8 aufeinander folgende Rahmen durchnummeriert. Es wird modulo-8 durchgezählt, so dass nach der Nummer sieben mit null wieder von vorne begonnen wird. In der Extended Version des Protokolls, der Version mit einem Steuerfeld aus zwei Oktetten, werden die Sende- und Empfangsnummern auf jeweils 7 Bits erweitert. Damit lassen sich 128 Rahmen fortlaufend nummerieren. Die Nummerierung der Rahmen erlaubt eine effizientere Übertragen als beim einfachen Stop-and-WaitARQ-Verfahren (Automatik Repeat Request, ARQ) möglich ist. Bei letzterem wird ein neuer Rahmen erst übertragen, wenn sein Vorgänger quittiert wurde. Dadurch entstehen u. U. lange Wartezeiten, die den Datendurchsatz reduzieren. Mit den nummerierten Rahmen des HDLC-Protokolls ist der Einsatz des Goback-n-ARQ-Verfahren mit Selective Repeat möglich. Dabei werden auch ohne Quittierung zunächst weitere Rahmen übertragen, so dass etwas verspätete Quittierungen die Übertragung nicht unterbrechen. Darüber hinaus werden mit einer Quittierung auch vorherige Rahmen mit quittiert.
Das Bit 5 im Control Field dient in Befehlen als Poll-Bit. P gleich „1“ fordert die Gegenstation zum sofortigen Senden einer Meldung auf. Die Gegenstation antwortet in ihrer Meldung mit Bit 5 als Final-Bit mit F gleich „1“. Die mit S und M markierten Bitpositionen in den S- bzw. U-Formaten kennzeichnen unterschiedliche Steuernachrichten. In Tabelle 6-3 wird die Codierung für einige wichtige Steuernachrichten vorgestellt.
6 Telekommunikationsnetze
196
Tabelle 6-3
Beispiele der Codierung von Befehlen (B) und Meldungen (M) der I-, S- und U-Formate im Steuerfeld des HDLC-Rahmens
Format
Nachricht
Funktion
I S S S S U U U U U U
I RR RNR REJ SREJ SABM SABME DISC UA DM FRMR
B/M B/M B/M B B B B M M M
1 0 1 1 1 1 1 1 1 1 1 1
2 0 0 0 0 1 1 1 1 1 1
3 N(S) 0 1 0 1 1 1 0 0 1 1
Bitmuster 4 5 P/F 0 P/F 0 P/F 1 P/F 1 P/F 1 P 1 P 0 P 0 F 1 F 0 F
6
1 1 0 1 0 0
7 N(R) N(R) N(R) N(R) N(R) 0 1 1 1 0 0
8
0 0 0 0 0 1
Rahmen im S-Format dienen der Steuerung und Überwachung der Datenübertragung. Mit den zwei Bits 3 und 4 können vier Nachrichten dargestellt werden. Die Nachricht Receive Ready (RR) zeigt die Empfangsbereitschaft für einen weiteren Rahmen an. Mit Receive Not Ready (RNR) wird der Gegenstation signalisiert, dass keine weiteren Daten empfangen werden können. Reject (REJ) weist auf einen fehlerhaft erkannten Rahmen hin. In Verbindung mit einer Quittierung jedes Rahmens, bedeutet REJ, dass der Rahmen mit der Empfangsnummer N(R) als fehlerhaft erkannt wurde. Werden mehrere Rahmen quittiert, so müssen alle Rahmen mit N(S) t N(R) wiederholt werden. Mit Selective Reject (SREJ) wird der Empfang eines bestimmten Rahmens als fehlerhaft zurückgemeldet und eine erneute Übertragung angefordert. Rahmen im U-Format signalisieren keine Empfangsnummern. Sie dienen zum Aufbau und Abbau der Verbindung und der Übertragung von Mitteilungen innerhalb der Sicherungsschicht zwischen den Stationen. Die Befehle Set Asynchronous Balanced Mode (SABM) und SABM Extended (SABME) initialisieren die Schicht-2-Verbindung. Im ersten Fall wird die Rahmennummerierung modulo-8 und im zweiten, der Extended Version, modulo-128 vorgenommen. Mit Disconnect (DISC) wird der Verbindungsabbau ausgelöst. Die Meldung Unnumbered Acknowledgement (UA) bestätigt den Empfang eines Rahmens ohne Folgennummer. Die Meldung Disconnect Mode (DM) zeigt an, dass Befehle der Schicht-2-Verbindung nicht ausgeführt werden können. Mit Frame Reject (FRMR) wird ein Fehlerzustand angezeigt, der nicht durch Rahmenwiederholung beseitigt werden kann. Im Datenfeld wird eine Fehlerbeschreibung mitgeliefert. Abschließend sei daran erinnert, dass in den Anwendungen nicht alle Steuerbefehle und Meldungen realisiert sein müssen. Die Anwendung des HDLC-Protokolls in typischen Verbindungssituationen wird in Bild 6-11, dem Nachrichtenflussdiagramm (Message Sequence Chart, MSC) skizziert.
197
6.5 HDLC- und LAP-Protokoll
A
B
Timeout
SABM
A
B I(0,0) I(0,1)
A
B I(3,0)
I(1,1)
RNR(4)
SABM
I(2,1)
RR(0,P)
UA
I(1,3)
RNR(4,F)
I(3,2)
RR(0,P)
I(2,4)
RR(4,F)
DISC
I(3,4)
I(4,0)
UA
RR(4)
Verbindungsaufbau und Verbindungsabbau
Datenaustausch I(N(S),N(R))
Überlastsituation I(N(S),N(R))
Bild 6-11 Nachrichtenflussdiagramm: HDLC-Protokoll [Sta00]
Das linke Bild zeigt den Verbindungsaufbau und -abbau in der zeitlichen Reihenfolge von oben nach unten. Dabei wird auch eine Zeitüberwachung (Timer) verwendet. Da die Bestätigung des Befehls SABM durch die Meldung UA nicht innerhalb der vorgesehenen Zeit eintrifft, wird der Befehl wiederholt. Anmerkung: Der Verbindung liegt ein Zustandsmodell mit Zeitüberwachung und Fehlerbehandlung zugrunde, dessen Darstellung den hier abgesteckten Rahmen sprengen würde.
In der Bildmitte wird ein typischer Datenaustausch dargestellt. Rechts ist die Situation einer Überlastung der Station A zu sehen. Nach dem Empfang von Daten (I-Format) mit Sendenummer N(S) = 3 ist beispielsweise der Empfangspuffer für Daten voll. Die Station A kann keine neuen Daten (I-Format) aufnehmen. Sie signalisiert dies mit der Meldung RNR, wobei sie gleichzeitig den Empfang des letzten Rahmens quittiert. Die Station B stellt die Übertragung von Daten (I-Format) ein. Sie signalisiert in gewissen Zeitabständen der Station A, dass sie empfangsbereit ist und fordert dabei die Station mit dem Poll-Bit, P = 1, auf sich zu melden. Die Station A antwortet solange sie nicht Empfangsbereit für Daten ist mit der Meldung RNR, wobei sie mit dem Final-Bit, F = 1, den Polling-Aufruf quittiert. Schließlich ist die Station A wieder empfangsbereit und die Datenübertragung wird fortgesetzt. Zwei typische Fehlerbehandlungen sind in Bild 6-12 dargestellt. Links wird die Reihenfolge der Rahmen verletzt. B erkennt den Fehler und sendet die Meldung REJ, wobei der Rahmen 3 quittiert wird. Die Sation A wiederholt die Übertragung beginnend mit Rahmen 4. Rechts in Bild 6-12 wird eine ähnliche Situation vorgestellt. Allerdings wird nun der Fehler durch Ablaufen eines Timers erkannt; B quittiert nicht rechtzeitig den Empfang. Station A signalisiert Empfangsbereitschaft verbunden mit einen Polling-Aufruf. Die Station B antwortet mit der Meldung „Empfangsbereitschaft“ und quittiert den Polling-Aufruf sowie den letzten „richtig“ empfangenen Rahmen mit Daten.
6 Telekommunikationsnetze
198
A
B
A
I(3,0)
RR(4) Timeout
I(4,0) I(5,0)
B I(3,0)
I(4,0)
REJ(4)
RR(0,P)
I(4,0)
RR(4,F)
I(5,0)
I(4,0)
I(6,0)
Fehlerbehandlung (Reject Recovery)
RR(5)
Fehlerbehandlung (Timeout Recovery)
Bild 6-12 Nachrichtenflussdiagramm: Fehlerbehandlung mit HDLC-Protokoll [Sta00]
6.6
ATM und Breitband-ISDN
Vom ITU ATM-Forum wurde 1988 ein weltweites, diensteintegrierendes und breitbandiges digitales Telekommunikationsnetz, das Breitband-ISDN (B-ISDN), mit ATM-Übertragungstechnik vorgeschlagen. ATM steht für Asynchronous Transfer Mode und bedeutet einen Strom von Paketen, wobei die Synchronisation Paket-für-Paket erfolgt. Die Nachrichten, wie digitalisierte Sprache, Facsimile-Daten, Videodaten, usw., werden in kurze Abschnitte zerlegt und in Paketen übertragen, siehe Bild 6-13. Motivation für die Ausgestaltung des Paketformats war die Herausforderung sehr unterschiedliche Dienste, wie die zeitkritische Sprachtelefonie, mit jeweils relativ geringem Datenvolumen, und der zeitunkritische Filetransfer, mit relativ großem Datenvolumen, in einer gemeinsamen TK-Infrastruktur effizient zu bedienen. Zur Lösung wurden zwei Prinzipien herangezogen:
Atomisierung: Da kein einheitliches Paketformat für alle Dienste optimal sein kann, werden die Datenströme in sehr kurze Abschnitte zerlegt und so die notwendige Flexibilität auch für zukünftige Anforderungen geschaffen.
Verkehrsvertrag: Um den Anforderungen der unterschiedlichen Dienste gerecht zu werden und insbesondere auch von deren Mix im Multiplex profitieren zu können, werden an den Netzzugangspunkten die Dienstparameter ausgehandelt und eine verbindungsorientierte Paketübertragung mit Verbindungsauf- und -abbau durchgeführt. Die Pakete tragen wie gewöhnliche Postpakete eine vollständige Zieladresse, so dass jedes einzelne für sich zugestellt werden kann. Derartige Pakete werden in der Übertragungstechnik als Datagramme bezeichnet. Im Zusammenhang mit ATM spricht man von ATM-Zellen.
199
6.6 ATM und Breitband-ISDN Bild 6-14 zeigt das Format einer ATM-Zelle. Am Anfang stehen 5 Oktette im Zellenkopf (Header) mit der für die Zellenlenkung notwendigen Information. Danach folgen 48 Oktette mit der eigentlich zu übertragenden Information (Information Field, Payload).
Sprache Audio Fax Daten Video
Ein Blick auf die Struktur des Header lässt die Vorteile der ATM-Technik erahnen. Zunächst steht mit 28 Bits zur Adressierung prinzipiell die enorme Zahl von über 268 Millionen Adressen innerhalb des Netzwerks zur Verfügung. Anders als beispielsweise beim Internet-Protokoll unterstützt das Adressfeld die Kanalbündelung durch die Oktette VPI (Virtual Path Identifier) und VCI (Virtual Channel Identifier). ATM-Zellenströme lassen sich somit logisch zusammenfassen, so dass in ATM-Netzen eine Netzebene mit VP-Vermittlungsknoten aufgebaut werden kann, die nur auf der Basis des VPI eine vereinfachte Vermittlung wie in Bild 6-5 vornehmen kann.
B-ISDN
Bild 6-13 Einheitliches Übertragungs-
Durch die drei Bits des PT-Feldes (Payload Type) format für das B-ISDN wird der Nachrichtentyp angegeben. Es kann zwischen Sprachkommunikation, Datenkommunikation oder internen Nachrichten zur Netzsteuerung unterschieden werden. Von den 8 Möglichkeiten ist die Bitkombination „111“ für etwaige spätere Spezifikationen reserviert. Das Bit CLP (Cell Loss Priority) erlaubt die Deklarierung der Nachrichtenpriorität und damit eine dynamische Anpassung des Datenverkehrs an die Netzbelastung. Eine denkbare Anwendung ist, Pakete mit geringer Nachrichtenpriorität bei Netzüber1 Octet 5 6 53 lastung zu verwerfen, aber ansonsten zu günstiInformation Field gen Sondertarifen zu befördern. Header
Man beachte auch, dass in der ATM-Zelle auf einen zusätzlichen Schutz der Information gegen Bitfehler verzichtet wird. Anmerkung: Da die für die Ende-zu-Ende-Verbindung zuständige Transportschicht üblicherweise eine Fehlerkontrolle durchführt und Bitfehler bei der Übertragung zwischen den Netzknoten sehr selten sind, wird mit dem Verzicht auf eine Fehlerprüfung in den Netzknoten der Aufwand reduziert.
1 2 3 4 5 CLP GFC HEC PT VCI VPI
4 5
8 Bits
GFC
VPI
VPI
VCI
Address
1 Octets
Schließlich enthält das HEC-Oktett (Header Error Control) die Prüfsumme eines zyklischen Blockcodes (Cyclic Redundancy Check, CRC), so dass Fehler im Kopffeld erkannt werden können, siehe Abschnitt 7.3.7. Darüber hinaus erlaubt das HEC-Oktett auch das Erkennen eines ATM-Header im Bitstrom, da Bitfehler üblicherweise sehr selten auftreten, und der CRC-Code fast alle Fehlermuster erkennt.
VCI VCI
PT
CLP
HEC Cell Loss Priority Generic Flow Control Header Error Control Payload Type Virtual Channel Identifier Virtual Path Identifier
Bild 6-14 Aufbau einer ATM-Zelle
200
6 Telekommunikationsnetze
Die Übertragung mit ATM-Zellen bietet grundsätzlich die Möglichkeit im so genannten ATMCross-Connect einzelne Zellen nach Bedarf in den Bitstrom einzufädeln, zu entnehmen bzw. umzuleiten. Damit wird es prinzipiell möglich, die „Infobahn mit Auf- und Abfahrten für Jedermann“ zu realisieren. Darüber hinaus lassen sich flexible Netze mit zentralen Überwachungs- und Steuerungseinrichtungen realisieren. Mit der ATM-Zelle als Transportmittel sollte das von der ITU-T in den 1980er Jahren definierte Ziel des Broadband Integrated Services Digital Network (B-ISDN) realisiert werden. Kernstück der Überlegungen war eine Verkehrssteuerung, bei der die Dienste und Verkehrsparameter mit den Teilnehmern fallweise vereinbart werden; sogenannte Verkehrsverträge abgeschlossen werden. Als Grundlage wurden fünf Dienstklassen spezifiziert, die typische Anforderungen abdecken: Constant Bit Rate (CBR) Die Dienstklasse CBR unterstützt Anwendungen mit permanenter und fester Datenrate. Ein typisches Beispiel liefert die isochronen Übertragungen von Datenströmen, wie sie bei Audio- und Videoanwendungen auftritt, die keine Kompressionsverfahren einsetzten, wie z. B. die PCM-Sprachtelefonie mit der festen Bitrate 64 kbit/s. Real-Time Variable Bit Rate (rt-VBR) Die Dienstklasse rt-VBR umfasst Dienste mit isochroner, aber variabler Bitrate. Hierzu gehören Audio- und Videoanwendungen mit Audio- und Videokompressionsverfahren, z. B. MPEG-Codierung (Moving Pictures Expert Group). Abhängig von den Signalen treten zeitlich schwankende Bitraten auf. Anmerkung: Werden zur gleichen Zeit viele derartige Signale übertragen, tritt in Summe ein Ausgleichseffekt ein. Man spricht von statistischem Multiplexing. So können mehr Verbindungen gleichzeitig angeboten werden als die nominelle, statische Übertragungskapazität erlaubt, siehe auch Bündelgewinn in der Nachrichtenverkehrstheorie [Wer05]. Bei Paketvermittlungssystemen lässt sich der Effekt des statistischen Multiplexing in natürlicher Weise nutzen. Nachteilig ist, dass der Verkehr stoßartigen Charakter annehmen und zu Überlastsituation mit Blockaden führen kann. Für den Betrieb sind deshalb besondere Maßnahmen zu treffen, um einer Überlast vorzubeugen bzw. sie abzubauen.
Non-Real-Time Variable Bit Rate (nrt-VBR) Die Dienstklasse nrt-VBR ist für Anwendungen vorgesehen, bei denen die Informationen stoßartig im Bündel (Burst) übertragen werden und nur gemäßigte Anforderungen bzgl. der Dauer (Delay) und Schwankungen der Paket-Zustellzeiten (Jitter) gestellt werden. Beispiele sind die Online-Registrierung für Bahn und Flugreisen, das Telebanking und allgemein die Datenkommunikation bei der „hochwertige“ asynchrone Übertragungen bereitgestellt werden müssen. Unspecific Bit Rate (UBR) Diese Dienstklasse ergänzt die oben genannten im Sinne eines Best-Effort-Paketnetzes. Das heißt, es werden den Anwendungen freie Übertragungskapazitäten ohne Garantie der Dienstgüte angeboten. Datenanwendungen, ähnlich wie in TCP/IP-Netzen, werden unterstützt. Im Falle von Überlast im Netz werden zuerst Zellen der UBR-Dienste verworfen. Der Verlust einer ATM-Zelle kann unter Umständen durch die externe Flusskontrolle zum Nachsenden eines größeren Datenblocks also vieler ATM-Zellen durch die Quelle führen, so dass ein sich aufschaukelnder Effekt einsetzt und die Überlastsituation verschärft.
201
6.6 ATM und Breitband-ISDN Available Bit Rate (ABR)
Mit der Dienstklasse ABR sollen Nachteile von UBR vermieden werden. Ziel ist, die von den anderen Dienstklassen nicht genutzte Übertragungskapazität im Netz fair zwischen den Teilnehmern aufzuteilen und dabei Überlastsituationen zu vermeiden. Hierfür werden bei ABR-Diensten im ATM-Transportsystem Flusskontrollen eingeführt und Dienstgüten vereinbart. Eine spezielle AAL-Protokollanpassung (ATM Adaption Layer) sorgt in verschiedenen Varianten für die Zusammenarbeit mit bestehenden Diensten, wie auch dem TCP/IP-Protokoll des Internets. 100 %
Capacity
Die Idee der verbesserten Nutzung der Übertragungskapazität durch die Dienstklassen spiegelt Bild 6-15 wider. Je nach Netzbelastung durch CBR- und VBR-Dienste kann die noch verfügbare Kapazität den ABR- und UBR-Diensten zur Verfügung gestellt werden. Für ABR-Dienste werden spezielle Verkehrsparameter vereinbart: Die minimale und maximale Zellenrate (Minimum Cell Rate, Peak Cell Rate) und eine Quote für den Zellverlust (Cell Loss Ratio). Die maximale Zellenrate ist nicht verbindlich. Die Zellenrate kann durch das Netz bei Bedarf bis zur minimalen Rate reduziert werden.
0%
Available Bit Rate (ABR) Unspecific Bit Rate (UBR)
Variable Bit Rate (VBR)
Constant Bit Rate (CBR) Time
Bild 6-15 Verbesserte Nutzung der Über-
Der Aufbau eines Breitband-ISDN mit ATMtragungskapazität durch die Technik stellt eine technische Herausforderung ATM-Dienstklassen dar. Anders als bei der leitungsorientierten Über(schematische Darstellung) tragung, bei der beim Verbindungsaufbau ein Übertragungsweg fest zugeschaltet wird, muss bei der ATM-Übertragung in der Vermittlungsstelle der Kopf oder zumindest der VPI jeder ankommenden Zelle ausgewertet werden. Der damit verbundene Aufwand ist enorm. Im Beispiel einer STM-4-Verbindung mit der Bitrate von 622,08 Mbit/s sind pro Sekunde ca. 1,467 Mio. Zellen zu verarbeiten. Seit 1997 ist ATM bei der deutschen Telekom im Regelbetrieb. In Backbone-Netzen verbindet Hochgeschwindigkeits-ATM-Technik auf Glasfaserstrecken Verkehrszentren im Weitverkehr. Insbesondere lassen sich SDH-Strecken ohne besonderem Aufwand nutzen, wenn man die Transportmodule STM-1 und STM-4 mit ATM-Zellen füllt. Heute kann festgestellt werden: Das von der ITU-T geplante B-ISDN hat sich beim Teilnehmer nicht durchgesetzt. Die grundsätzlichen Lösungen, der Verkehrsvertrag mit Dienstgütevereinbarungen und die verbindungsorientierte Paketvermittlung, sind jedoch wegweisend für zukünftige Netze und werden sich in der ein oder anderen Form in den so genannten All-IPNetzen wiederfinden.
6 Telekommunikationsnetze
202
6.7
Lokale Netze
In den letzten Jahren hat die Verbreitung von lokalen Netzen (Local Area Network, LAN) und Internet-Zugängen stark zugenommen. Dazu beigetragen haben preiswerte Netztechnologien und die Etablierung des TCP/IP-Protokolls (Transmission Control Protocol/ Internet Protocol). Unter einem LAN versteht man ein örtlich begrenztes Netz mit hoher Übertragungsrate zwischen den Arbeitsstationen (Client) und zentralen Diensterbringern (Server), siehe Bild 6-16. Dabei können die Rollen für verschiedene Dienste (Email-Server, Datenbank-Server, Programm-Server, usw.) unter den Stationen getauscht werden. Die Kommunikation innerhalb eines LAN erfolgt mit Datenrahmen ohne Auf- und Abbau der Verbindung, also verbindungslos. Somit sind nur die beiden untersten Schichten des OSI-Referenzmodells betroffen: die Bitübertragungsschicht und die Datensicherungsschicht.
Local Area Network
Bild 6-16 Lokales Rechnernetz (LAN)
Es können verschiedene Übertragungsverfahren und -medien sowie Protokolle zum Einsatz kommen. Die physikalischen Übertragungsmedien wie ungeschirmte, verdrillte Zweidrahtleitungen (Unshielded Twisted Pair), Koaxialkabel (Baseband Coaxial Cable) oder Lichtwellenleiter (Optical Fiber) sowie die physikalische bzw. logische Architektur als Bus-, Ring-, Baum- oder Stern-Struktur haben einen großen Einfluss auf die Leistungsfähigkeit des LAN. Deshalb werden jeweils maßgeschneiderte Verfahren und Protokolle verwendet. Von besonderer Bedeutung ist dabei die Art des Zugriffs der Stationen auf das physikalisch gemeinsam benutzte Übertragungsmedium. In Anlehnung an das OSI-Referenzmodell hat das IEEE (Institute of Electrical and Electronic Engineers) das IEEE-802-Referenzmodell entwickelt. Die Arbeiten wurden 1980 begonnen und bis heute erfolgreich fortgesetzt. Das IEEE-802-Referenzmodell in Bild 6-17 ermöglicht die Integration der verschiedenen LAN-Technologien in den Anwendungen. Da keine Vermittlungsfunktion anfällt, korrespondiert das Modell mit den beiden untersten Schichten des OSI-Referenzmodells: dem Physical Layer und dem Data Link Layer. Weil der Zugriff auf ein geteiltes Übertragungsmedium nicht im üblichen Data Link Layer geregelt wird, werden die für den Zugriff auf das Übertragungsmedium logischen Funktionen in einer eigenen Zwischenschicht, Medium Access Control (MAC) genannt, zusammengefasst. Im Folgenden werden kurz die Ideen skizziert, die hinter den unterschiedlichen MAC-Formen stehen. Der Name CSMA/CD (Carrier Sense Multiple Access/Collision Detection) bezieht sich auf das quasi wahlfreie Zugriffsverfahren durch die Stationen (IEEE 1985). Beim gleichzeitigen Zugriff mehrerer Stationen auf den gemeinsamen Bus (Übertragungsmedium) kollidieren die gesendeten Rahmen der unterschiedlichen Stationen.
203
6.7 Lokale Netze Upper Layer Data Link Layer MAC Physical Layer
802.2 Logical Link Control (LLC) 802.3
802.4
802.5
CSMA/CD Token Bus Token Ring
802.6
802.11
802.15
802.16
DQDB
WLAN
WPAN
WMAN
Bild 6-17 IEEE-802-Referenzmodell für LAN Protokolle mit der Zwischenschicht Medium Access Control (MAC) (vereinfacht)
Die kollidierenden Rahmen sind verloren und müssen neu übertragen werden. Um dies zu vermeiden, beobachten die Stationen den Bus und senden erst dann, wenn der Bus nicht belegt ist (CSMA). Bei zwei oder mehr wartenden Stationen sind Kollisionen nicht ausgeschlossen. Kollisionen werden jedoch entdeckt (CD) und planmäßig aufgelöst. Realisierungen sind gemeinhin als Ethernet bekannt. Je nach Bitrate spricht man von Ethernet, Fast Ethernet (802.3u, 1995) und Gigabit Ethernet (802.3z, 1998) für 10 Mbit/s, 100 Mbit/s bzw. 1 Gbit/s. Die IEEE-802.3-Empfehlung verwendet die Bezeichnungen 10BASE, 100BASE und 1000BASE. Je nach Übertragungsmedium werden Erläuterungen angehängt, wie 10BASE-T für die Verwendung von ungeschirmten, verdrillten Zweidrahtleitungen (Unshielded Twisted Pair). In Bild 6-18 ist das zugehörige Rahmenformat zu sehen. Die alternierende Folge von Nullen und Einsen der Preamble unterstützt die Synchronisation der Empfangsstation. Der Start Frame Delimiter zeigt den Beginn der Zielinformation (Destination Address, DA) an. Der Absender steht in der Source Address (SA). Mit den folgenden beiden Oktetten wird die Zahl der Oktette der Information, der LLC-Daten, angegeben. Damit ist eine bedarfsabhängige Rahmenlänge möglich. Um die vorgeschrieben Mindestlänge einzuhalten, können „Füll-Oktette“ angehängt (Padding) werden. Den Schluss bilden die 32 Prüfbits des CRC-Codes. Sein Schutz erstreckt sich über alle Felder ausgenommen die Preamble. Anmerkung: Unter der Bezeichnung 1G-EPON und 10G-EPON wird eine Weiterentwicklung des Ethernet IEEE 802.3ah für passive optische Netzwerke zum Teilnehmeranschluss mit Lichtwellenleitern (FTTH, FTTC) für die Bitraten 1 bzw. 10 Gbit/s vorgeschlagen, vergleiche auch GPON, ITUT G.984. Octets
7
1
Preamble SFD
6
6
2
46 to 1500
t0
4
DA
SA
L
LLC data
Pad
FCS
Start Frame Delimiter “10101011”
Length of LLC data field in octets
Bild 6-18 Rahmenaufbau nach IEEE 802.3
Token Bus und Token Ring sind Zugriffsverfahren die mit Zuteilung der Sendeberechtigung arbeiten (IEEE 1985). Bei den Token-Verfahren sind die Stationen in einem logische (Token Bus) oder physikalischen Ring (Token Ring) angeordnet. Im Ring wird eine Sendeberechtigung, das Token, zwischen den Stationen herumgereicht. Ein Reservierungssystem mit Prioritätssteuerung sorgt für eine faire, bedarfsgerechte Zuteilung der Sendeberechtigung an die Stationen. Eine Station übernimmt als Monitor die Überwachung der Token.
6 Telekommunikationsnetze
204
DQDB steht für Distributed Queue Dual Bus, der aus zwei Glasfaserringen (DB) besteht und einen Duplexbetrieb unterstützt (IEEE 1991). Das Zugriffsverfahren fußt auf der Akquisition von Zeitschlitzen mit Hilfe eines verteilten Anmelde- und Wartesystems (DQ) und ist besonders für hohe Bitraten geeignet, wie sie in MAN (Metropolitan Area Network) benötigt werden. FDDI, für Fiber Distributed Data Interface, ist ein speziell auf die Übertragung mit Lichtwellenleitern zugeschnittenes Token-Ring-Verfahren, das dem IEEE-802.5-Verfahren sehr ähnlich ist. WLAN steht für drahtlose (Wireless) LAN auf Funkbasis bzw. seltener mit Infrarotübertragung. WPAN (Wireless Personal Area Network) und WMAN (Wireless Metropolitan Area Network) sind ebenso wie WLAN funkbasierte Systeme. Sie werden in Abschnitt 8.6 noch ausführlicher behandelt.
6.8
Protokollfamilie TCP/IP
In den meisten LAN stehen Internet-Dienste zur Verfügung. Bekannte Beispiele sind die Übertragung von Dateien und Programmen (File Transfer Protocol, FTP), die elektronische Post (Simple Mail Transfer Protocol, SMTP), der Informationsaustausch zwischen Hypertext-Informationssystemen, wie das World Wide Web, (Hypertext Transfer Protocol, HTTP) und der Dialog zwischen Stationen via virtuellem Terminal (TELNET). Die Realisierung dieser Anwendungen im LAN erfordert zusätzliche Funktionalitäten, die im OSI-Referenzmodell in den Schichten Network Layer, Transport Layer und Session Layer anzusiedeln sind. Heute hat sich hierfür die TCP/IP-Protokollfamilie (TCP/IP Protocol Suite) durchgesetzt. Bild 6-19 zeigt eine Übersicht [JuWa98], [Sta00]. Den Schichten des OSI-Referenzmodells 3 bis 7 entsprechen die drei Schichten der Protokollfamilie TCP/IP. Die Struktur der TCP/IP-Protokollfamilie erschließt sich aus der Entstehungsgeschichte des Internet. Am Anfang, Ende der 1960er Jahren, stand der simple Austausch von Datagrammen zwischen Arbeitsstationen, die über Modem und öffentliche Telefonleitungen Verbindung aufnehmen konnten. Die Protokollfamilie um TCP/IP ist schrittweise entstanden. Neue technische Möglichkeiten, Probleme und Anwendungen haben zu Lösungen geführt, die unter eigenem Namen als Protokolle in die Familie aufgenommen wurden. Beispiele sind WWW als Anwendung und IPSec als Ergänzung zur Verschlüsselung auf der Netzschicht. TCP (Transport Control Protocol) realisiert einen verbindungsorientierten, gesicherten Übertragungsdienst. Es übernimmt die Ende-zu-Ende-Sicherung, die Flusskontrolle und die Adressierung der Anwendung. Die Funktionalität entspricht etwa den OSI-Schichten Session Layer und Transport Layer. Die TCP-Schicht nimmt von der Anwendungsschicht Nachrichten entgegen und reicht sie in Form von Segmenten an die IP-Schicht weiter. Das Internet-Protokoll (Internet Protocol, IP) löst die Aufgaben der OSI-Schicht Network Layer. Es stellt eine verbindungslose, ungesicherte paketorientierte Übertragung zur Verfügung. Man beachte das IP-Protokoll stellt nicht sicher, dass alle Pakte in der richtigen Reihenfolge oder überhaupt zugestellt werden. Das IP-Protokoll wurde entwickelt um den Datenverkehr zwischen und über Netze unterschiedlicher Art zu ermöglichen. Weshalb im IP-Protokoll nur geringe Anforderungen an die Fähigkeiten der beteiligten Netze gestellt werden. Anmerkung: Eine ausführliche Darstellung der Protokollfamilie TCP/IP würde den Rahmen dieses Buches sprengen, weshalb hier nur ein erster Eindruck vermittelt werden soll. Für eine Vertiefung siehe z. B. [Sta00], [Tan03] und [Wer05].
205
6.8 Protokollfamilie TCP/IP Protokollfamilie TCP/IP
OSI
WWW
DNS
FTP
TELNET
HTTP
6
MIME SMTP
7
Others
4
5 4 3 2
ARP DNS FTP HTTP ICMP IP IPSec MIME
TCP
UDP
IP Ethernet
NVP
ICMP ARP HDLC
ATM
Token Ring
Address Resolution Protocol Domain Name Service File Transfer Protocol HyperText Transfer Protocol Internet Control Message Protocol Internet Protocol IP Security Multi-Purpose Internet Mail Extension
FDDI NVC RARP SIP SMTP TCP TELNET UDP WWW
RARP
DQDB
3 2
Others
Network Voice Protocol Reverse ARP Session Initiation Protocol Simple Mail Transfer Protocol Transmission Control Protocol Telecommunications Network P. User Datagram Protocol World Wide Web
Bild 6-19 Beispiele aus der Protokollfamilie TCP/IP
Das TCP/IP-Protokoll bildet das Bindeglied zwischen der Anwendung und der LLC-Schicht, siehe Bild 6-20. Die Übertragung der Nachrichten geschieht wie in Bild 6-8 bereits skizziert. Jede Protokollschicht fügt ihre, der jeweiligen Partnerinstanz zugedachte Nachricht in einem eigenen Kopffeld hinzu. Gegebenenfalls können Protokolldatenelemente (PDU) der höheren Schicht für die Übertragung in kleinere Elemente zerlegt und in den Empfangsstation wieder zusammengesetzt werden (Fragmentation and Reassembly). Die der physikalischen Übertragung nahe MAC-Schicht ergänzt üblicherweise einen Nachspann (Trailer), beispielsweise wie in Bild 6-18 die Prüfzeichen der FCS. MAC Header
LLC IP Header Header
TCP Header
APDU
MAC Trailer
TCP Segment IP Datagram LLC Protocol Data Unit MAC Frame Bild 6-20 Rahmenaufbau des LAN-Protokolls mit TCP/IP-Anwendung [Sta00] (AP Application Layer, TCP Transmission Control Protocol Layer, IP Internet Protocol Layer, LLC Logical Link Control Layer, MAC Medium Access Control Layer)
Für das Verständnis des Transports der Daten im Internet sind die zwei Konzepte Port und Socket wichtig. In Bild 6-21 wird die Definition der Dienstzugangspunkte Service Access Points (SAPs) an den Schnittstellen der Netzwerk- und Transport-Schichten, NSAP bzw.
6 Telekommunikationsnetze
206
TSAP, vorgestellt. Die Adressierung der Zugangspunkte übernimmt auf der Netzwerk-Schicht die IP-Adresse. Die Zugangspunkte der Transportschicht werden mit 16 Bits durchnummeriert und Ports genannt. Es lassen sich 216 = 65536 mögliche Ports einrichten. Im Internet sind manchen Portnummern gewisse Dienste fest zugeordnet. Es wird dabei zwischen den „wellknown“, d. h. verbindlichen Portnummern 0…1023, und den „registered“ Portnummern ab 1024 unterschieden. Beispielsweise steht 21 für den Dienst File Transfer (FTP), 25 für Simple Mail Transfer Protocol (SMTP) oder 80 für Hyper Text Transfer Protocol (HTTP, World Wide Web). Die Angabe einer IP-Adresse und eines Ports aktiviert einen bestimmten Dienst am Ziel-Host. Ist der Dienst/Rechner nicht abgesichert, kann er leicht missbraucht werden. So kann über Port 49, dem Login Host Protocol, eine Anmeldung als aktiver Nutzer oder gar Systemadministrator am Host erfolgen.
TSAPs “Ports”
Application 3
TPDU Transport Layer
NSAPs “IP address”
Application 2
Host 2
Application 1
Application 3
Application 2
Host 1
Application 1
Unter einem Socket, englisch für Steckdose, versteht man eine Programmschnittstelle, einen Aufruf (Dienstelement) der einen neuen Kommunikationsendpunkt erzeugt. Dieser kann danach im Programm über eine Device Number als Ein- und Ausgabemedium, vergleichbar dem Bildschirm, der Tastatur, der Festplatte, usw., angesprochen werden.
Network Layer
Transport Layer NPDU
Network Layer
Bild 6-21 Dienstzugangspunkte (SAP, Service Access Point) in der Netzschicht (NSAP, Network ASP) und in der Transportschicht (TSAP, Transport SAP)
Das Internetprotokoll hat die Aufgabe die Verbindungen zwischen den höheren Schichten, wie TCP und UDP, und den unteren Schichten des LLC bereitzustellen. Dafür gibt es zwei Dienstelemente (Service Primitive). Das Sendeelement und das Empfangselement mit den Adressen von Absender und Ziel sowie Steuerinformationen. Die Übertragung geschieht in Form von Protocol Data Units (PDU), im Folgenden kurz IPv6-Pakete genannt. Anmerkung: Die Entwicklung der Version 6 des Internetprotokolls wurde bereits 1992 angestoßen. 1995 wurde mit „The Recommendation for the IP Next Generation Protocol“ (RCF 1752) die Grundlage für die heute aktuelle Version 6 gelegt. Heute ist IPv6 die Standardeinstellung am PC mit dem Betriebssystem Windows Vista.
IP-Pakete der Version 6, siehe Bild 6-22, können durch Erweiterungs-Kopffelder (Extension Header) variabler Länge sehr flexibel zusammengestellt werden. Auch für zukünftige Entwicklungen ist somit Platz geschaffen. Durch die Zusatzinformationen lassen sich Dienste und Nachrichtenverkehr bedarfsgerecht steuern. Als Kopffelder sind vorgesehen:
207
6.8 Protokollfamilie TCP/IP
IPv6 Header, notwendige Angaben, siehe unten. Hop-by-Hop Header, enthält Zusatzinformationen
Octets
für die Netzkonten; muss von jedem vermittelnden Netzknoten (Router) im Übertragungsweg ausgewertet werden.
Routing Header, enthält Liste mit den Netzknoten
IPv6 Header
40
Hop-by-Hop Options Header
variable
Routing Header
des Übertragungsweges, wobei erst der letzte Eintrag die Zieladresse enthält. Die Übertragung geschieht entsprechend der Liste, wobei jeweils der nächste Netzknoten als Adresse in den IPv6 Header eingetragen wird.
Fragment Header
Fragment Header, liefert Informationen zur Optimierung der Paketlängen durch die Netzknoten mit Sendefunktionalität (Source Nodes) entsprechend der Übertragungsbedingungen.
variable 8
Destination Options Header TCP Header
variable
Application Data
variable
20
Next Header Field
Authentication Header, unterstützt die Integrität und Authentifikation des Paketes (nicht im Bild).
Bild 6-22 Beispiel eines IPv6-Pakets mit Erweiterungs-Kopffeldern und TCP-Segment
Encapsulation Security Payload Header, unterstützt Maßnahmen zur Sicherung der Vertraulichkeit der Nachricht (nicht im Bild).
Destination Options Header, enthält Zusatzinformation für den letzten Zielknoten. Die Extension Header sind optional, jedoch in der Reihenfolge der Aufzählung zu platzieren. Sie beginnen mit dem Oktett „Next Header“, das auf das nächste Kopffeld verweist, und falls erforderlich schließt sich das Oktett „Header Extension Length“ an, das die Länge des jeweiligen Kopffeldes angibt. Damit ist es in den empfangenden Netzknoten möglich, nicht relevante Kopffelder zu überspringen und schnell nach Steuerinformationen zu suchen, und so insgesamt die Belastung der Netzknoten zu reduzieren. Der Aufbau des Kopfes des IPv6-Paketes ist in zu Bild 6-23 sehen. Neben der Versionsnummer (Vers) des Protokolls, hier 6, sind 8 Bits für Angaben der Art des Verkehrs (Traffic Class) vorgesehen. Es könnten z. B. die Sprachtelefonie für eine schnellere Übertragung ausgewiesen werden. Anmerkung: Da wegen der gewünschten Zusammenarbeit mit Netzen unterschiedlicher Leistungsfähigkeiten nur geringe Anforderungen an die Netze gestellt werden, ist nicht festgelegt, dass das empfangene Paket die gleichen Traffic-Class-Bits enthält wie das ursprünglich gesendete. Hier wird auch das Qualitätsproblem der InternetTelefonie (Voice over IP, VoIP) deutlich. Erst wenn alle verwendeten Netze durchgehend soweit ausgebaut sind, also die für die Telefonie geforderten Leistungsmerkmale (QoS) unter-
0
4
12
Vers Traffic Class Payload Length
Bits 31
Flow Control Next Header Hop Limit
Source Address
Destination Address
Bild 6-23 Kopffeld des IPv6-Pakets
0 Octets 1 2 3 4 5 6 7 8 9
208
6 Telekommunikationsnetze
stützen, ist Telefonieren in der gewohnten Qualität möglich.
Die folgenden 20 Bits der Flusskontrolle (Flow Control) sollen den effektiven Transport, d. h. insbesondere die Weglenkung, der Pakete einer Anwendung im Netz unterstützten. Ihre Funktion ist vergleichbar mit den virtuellen Kanal- und Wegangeben VCI bzw. VPI der ATM-Zellen. Anmerkung: Auch hiervon kann erst nutzbringend Gebrauch gemacht werden, wenn die Netzknoten die Flow-Control-Bits tatsächlich zur Verkehrslenkung auswerten.
Für die Angabe der Zahl der dem Kopffeld folgenden Oktette des Paketes (Payload Length) sind 16 Bits vorgesehen. Das entspricht einer maximalen Länge von 65536 Oktetten. Anmerkung: Die Länge, die von allen Netzen mindestens unterstützt werden muss, beträgt 1280 Oktette.
Das Feld Next Header verweist auf den eventuell folgenden Extension Header. Schließlich gibt das Hop Limit die maximale Zahl der Netzknoten an, die das Paket jeweils weiterleiten. Jeder Knoten reduziert den Wert des Feldes um eins. Ist das Hop Limit null, wird das Paket verworfen. Für die Adresse des Absenders sowie des Zieles stehen jeweils 128 Bits zur Verfügung. Ein wesentlicher Anstoß zur Einführung der Version 6 war der Wunsch die Längen der Adressen von 32 Bits der Version 4 auf nunmehr 128 Bits zu vergrößern. Damit stehen theoretisch etwa 6·1023 Adressen pro Quadratmeter der Erdoberfläche zur Verfügung. Wegen der beabsichtigten hierarchischen Vergabe der Adresse, z. B. nach Regionen, Dienstanbietern, usw. und Vergabe mehrerer Adressen pro Gerät besteht ein noch nicht absehbarer Bedarf. Beabsichtigt ist auch, dass durch die hierarchische Vergabe der Adressen die Verkehrslenkung der Pakete verbessert und damit die Netzbelastung insgesamt reduziert werden kann. Mit der Version 6 werden drei Arten von Adressen eingeführt:
Unicast-Adresse, adressiert einen speziellen Übergabepunkt, das IPv6-Paket wird genau zu diesem gesendet.
Anycast-Adresse, adressiert eine Gruppe von Übergabepunkten, das IPv6-Paket wird an den „nächsten“ Übergabepunkt gesendet.
Multicast-Adresse, adressiert eine Gruppe von Übergabepunkten, das IPv6-Paket wird an alle zugehörigen Übergabepunkten gesendet. Mit der Multicast-Adresse sollen neue Internet-Anwendungen unterstützt werden, wie beispielsweise die Verteilung von Audio- und Video-Signalen ähnlich dem heutigen Rundfunk. Weitere Beispiele sind Telekonferenzen mit mehreren Teilnehmern und verteiltes Rechnen, bei dem mehrere Computer an einer Aufgabe arbeiten und Zwischenergebnisse austauschen. Damit derartige Multimedia-Dienste für viele Anwender praktisch umgesetzt werden können, muss überflüssiges mehrfaches Versenden der Pakete und damit eine Überlastung der Netze vermieden werden. Hierfür ist es wichtig, dass die Netzknoten die „kürzesten“ Wege zu den Teilnehmerinnen und Teilnehmern kennen und die Pakete so spät wie möglich vervielfältigt werden. Man beachte, dass hierfür eine „Revolution“ des Internets erforderlich ist. Wurde die Internet TCP/IP-Protokollfamilie ursprünglich zum Datenaustausch zwischen unterschiedlichen Netzen konzipiert, wobei die Netzknoten zum Transport der Pakete nicht viel mehr als den nächsten Netzknoten wissen mussten, so erfordert die breite Anwendung von MulticastDiensten eine Gruppenverwaltung mit dynamischer An- und Abmeldung der Teilnehmer (Internet Group Management Protocol, IGMP) sowie eine gezielte Verkehrslenkung auf der Basis der bekannten Netzstrukturen.
6.9 Zusammenfassung
6.9
209
Zusammenfassung
Telekommunikationsnetze (TK-Netze) werden nach verschiedenen Kriterien eingeteilt: öffentliche und private Netze; lokale Netze (LAN), regionale Stadtnetze (MAN) und Weitverkehrsnetze (WAN); Festnetze und Mobilfunknetze. Hinzu kommen drahtlose lokale Netze (WLAN) und sich spontan bildende und wieder auflösende Kleinzellenfunknetze (Personal Area Networks, PAN). Eine scharfe Trennung von TK-Netzen nach diesen Kategorien wird zukünftig schwieriger, da die Netze immer mehr zusammenwachsen und Dienste unter Beteiligung verschiedener Netze und Zugriffstechnologien angeboten werden. Ein Beispiel könnte das Abrufen des persönlichen Adressenverzeichnisses auf dem LAN-Server einer Firma in Fulda durch einen Außendienstmitarbeiter in Barcelona sein. Dazu benutzt der Außendienstmitarbeiter möglicherweise seinen Personal Digital Assistant (PDA), um über den Umweg eines WLAN des gerade besuchten Kaufhauses schließlich in ein öffentliches TK-Netz zu gelangen. Auch wenn die moderne Nachrichtenübertragungstechnik die einzelnen Verbindungen prinzipiell zur Verfügung stellen kann, so sind derartige Dienste sollen sie für die Teilnehmer attraktiv sein heute noch eine große Herausforderung. Ebenso wichtig sind die technischen Voraussetzungen in Form von effizienten Protokollen. Wertvolle Hilfe bei der Suche nach den angemessenen Protokollen leisten die in Abschnitt 6 vorgestellten Prinzipien und Beispiele. Das OSI-Referenzmodell zeigt mit der klaren Trennung von Funktionalitäten und dem hierarchischen Aufbau wie ein brauchbares Protokoll grundsätzlich auszusehen hat. Beim IEEE-802-Referenzmodell ist die MAC-Schicht besonders erwähnenswert. Sie vermittelt zwischen der LLC-Schicht, die eine einheitliche Verbindung zu den höheren Schichten herstellt und den speziellen Anforderungen der physikalischen Übertragungstechnik. Durch neue MAC-Varianten wird es möglich neue Netzzugangstechnologien wie z. B. die Funktechnik in bestehende TK-Strukturen einzubinden. Das IPv6-Paket des TCP/IP-Protokolls trägt der Forderung nach potentieller Erweiterbarkeit durch die optionalen Erweiterungs-Kopffelder Rechnung. Zukünftige Dienste mit noch nicht absehbaren Parametern und Anforderungen lassen sich damit in bestehende Netze einführen. Besonders beachtenswert ist der geplante Paradigmenwechsel im Internet, den die MulticastDienste der Version 6 erfordern. Die neuen Möglichkeiten haben allerdings auch ihren Preis. Mit Zunahme der Steuerinformation werden nicht nur die zu übertragenden Daten mehr, sondern diese Informationen müssen in den Netzknoten gelesen, auf Fehler geprüft und schließlich in Aktionen umgesetzt werden. Trotz der Fortschritte in der Digitaltechnik bleibt es auch zukünftig wichtig die Netzbelastung durch die Protokolle in vernünftigen Grenzen zu halten, da mit einem weiter anwachsenden Datenverkehrsvolumen zu rechnen ist. Vor diesem Hintergrund ist auch das ATM-Konzept mit der kurzen Paketlänge und der Unterstützung von virtuellen Kanälen mit einfacherer Vermittlung interessant. Damit eignet sich ATM insbesondere für zeitkritische Anwendungen wie die Sprachübertragung. Um eine ATMZelle vor dem Versenden zu füllen werden 48 Oktette benötigt. Das entspricht bei PCM-Codierung einem Sprachsignalausschnitt der Dauer 6 ms. Um ein IP-Paket mit der Länge von ca. 1200 Oktetten zu füllen wird schon eine Wartezeit von 150 Millisekunden benötigt. Dieses
6 Telekommunikationsnetze
210
Beispiel deutet an, welch großen Einfluss das Protokoll auf die Leistungsfähigkeit des TKNetzes bzw. des unterstützten Dienstes haben kann. Heute sind die grundsätzlichen Fragen der Nachrichtenübermittlung beantwortet und technische Lösungen verfügbar. An weiteren Innovationen wird gearbeitet. Aus Anwendersicht zeichnet sich für die Zukunft ein weiteres Zusammenwachsen unterschiedlicher TK-Netze Technologien, regionale Verbreitung, Betreiber zu einer einheitlichen globalen TKInfrastruktur ab. Damit wendet sich der Blick verstärkt den organisatorischen Fragen zu, die durch technische Einrichtungen im TK-Netz gewährleistet werden müssen, der Frage nach Sicherheit (Datenschutz und Datenintegrität) und korrekter Leistungsabrechnung. Man spricht in diesem Zusammenhang von der AAA-Architektur für Authentification, Authorization und Accounting; also der Authentifizierung der Benutzer, der Prüfung der Rechte der Benutzer und der Aufzeichnung der Aktivitäten der Benutzer zur Abrechnung und Kontrolle entsprechend gesetzlicher Vorgaben.
6.10
Wiederholungsfragen zu Abschnitt 6
A6.1 In der PCM-Multiplexhierarchie werden Kanäle zur gemeinsamen Übertragung zusammengefasst. Wie nennt man das System der Grundstufe und wie wird diese Art der gemeinsamen Übertragung bezeichnet? A6.2 Im PCM-30-System werden 30 Teilnehmerkanäle mit je 64 kbit/s zu einem Datenstrom der Bitrate 3264 kbit/s = 2,048 Mbit/s zusammengefasst. Erklären Sie die höhere Datenrate. A6.3 Im PCM-30-Zeitmultiplexrahmen sind im Meldewort vier Bits für die nationale Verwendung reserviert. Diese lassen sich als Kanal für netzinterne Meldungen nutzen. Welche Bitrate hat der Kanal? A6.4 Was ist die Aufgabe eines TK-Netzes? A6.5 Was versteht man unter der Nachrichtenübermittlung? A6.6 Was ist ein Dienst in einem TK-Netz? A6.7 Nennen Sie die beiden grundsätzlichen Vermittlungsprinzipien. A6.8 Nennen Sie die drei Phasen der verbindungsorientierten Kommunikation. A6.9 Was ist eine verbindungslose Nachrichtenübermittlung? Welche Art der Übertragung setzt sie voraus? A6.10 Nennen Sie die 7 Schichten des OSI-Referenzmodells in richtiger Reihenfolge. Welche Schichten sind anwendungsorientiert und welche netzorientiert? Welche besondere Rolle spielt die Transport-Schicht? Hinweis: in alphabetischer Reihenfolge: Anwendung, Bitübertragung, Darstellung, Kommunikationssteuerung, Sicherung, Transport, Vermittlung alternativ: Application L., Data Link L., Network L., Physical L., Presentation L., Session L., Transport L. A6.11 Erklären Sie, wie die Kommunikation zwischen den Partner-Instanzen einer Protokollschicht logisch erfolgt. A6.12 Was bedeuten die Akronyme HDLC und LAP?
6.10 Wiederholungsfragen zu Abschnitt 6
211
A6.13 Geben Sie den Rahmenaufbau des HDLC-Protokolls an und erklären Sie die Funktion der einzelnen Abschnitte. A6.14 Welche Rahmenformate gibt es im HDLC-Protokoll? Geben Sie die zugehörigen Steuerfelder an. A6.15 Wodurch unterscheiden sich I- und S-Format besonders vom U-Format? A6.16 Was sind die Aufgaben des Poll- und Final-Bits? A6.17 Wozu dienen die Sende- und Empfangsnummern? A6.18 Was versteht man unter Bittransparenz? Wie wird sie im HDLC-Protokoll sichergestellt? A6.19 Was versteht man unter einer gesicherten Übertragung? A6.20 Was bedeuten das Akronyme ATM? A6.21 Worin besteht der Vorteil der ATM-Übertragung? A6.22 Was versteht man unter einer Dienstklasse im TK-Netz? Geben Sie zwei Beispiele an. A6.23 Nennen Sie zwei Vorteile, die für die Verwendung von Dienstklassen in TK-Netzen sprechen? A6.24 Welche Schichten des OSI-Referenzmodells finden sich im LAN? A6.25 Wofür steht MAC und welche Funktion hat es? A6.26 Was bedeuten die Akronyme TCP und IP? A6.27 Warum spricht man von einer Protokollfamilie TCP/IP? A6.28 Welche Funktion hat die Protokollschicht TCP? Wie ist sie im OSI-Referenzmodell einzuordnen? A6.29 Welche Funktion hat die Protokollschicht IP? Wie ist sie im OSI-Referenzmodell einzuordnen? A6.30 Was versteht man unter einem Extension Header? A6.31 Welche Arten von Adressen kennt das IP-Protokoll Version 6? Erklären Sie Funktionen. A6.32 Welche Konsequenzen hat die Einführung von „Rundverteilungs“-Diensten im Internet ähnlich dem heutigen Hör- und Fernsehrundfunk. Welche Art von Adressen unterstützt derartige Dienste im IP-Protokoll? A6.33 Was bedeutet das Akronym AAA?
212
7
Grundbegriffe der Informationstheorie und der Kanalcodierung
Die Informationstheorie liefert eine mathematisch-physikalische Definition der Information und macht sie so zu einer messbaren Größe wie Stromstärke oder Temperatur. Damit wird es möglich, Information in technischen Systemen quantitativ zu bestimmen und ihren Fluss zu optimieren. Eine wichtige Anwendung der Informationstheorie ist die redundanzmindernde Quellencodierung. Als Beispiel wird in Abschnitt 7.2 die Huffman-Codierung vorgestellt. Die Kanalcodierung hingegen fügt der Nachricht gezielt Redundanz hinzu, so dass der Empfänger Übertragungsfehler erkennen oder sogar korrigieren kann. Dies kann in einfacher Wiese, wie in Abschnitt 7.3 gezeigt wird, durch die zusätzlichen Prüfzeichen des Hamming-Codes oder CRC-Codes geschehen. Anmerkung: Die über eine Einführung hinausgehende Fachliteratur zur Informationstheorie und Kanalcodierung ist meist mathematisch abstrakt und anspruchsvoll. Die im Folgenden behandelten Themen werden z. B. in [Fri95], [LiCo04], [Sch98] und [Wer08d] vertieft und ergänzt.
7.1
Information, Entropie und Redundanz
Aus der täglichen Erfahrung wissen wir: Eine Information (Nachricht) hat einen Neuigkeitswert sie ist überraschend. Tatsachen, die wir bereits kennen, stellen für uns keine Information dar. Diese Überlegung führt zur Wahrscheinlichkeit, denn Ereignisse die man erwartet, haben eine hohe Wahrscheinlichkeit. Umgekehrt haben unerwartete, überraschende Ereignisse eine kleine Wahrscheinlichkeit. Informationsgehalt und Wahrscheinlichkeit stehen in gegenläufigem Zusammenhang. Aus der Vorstellung eines grundsätzlichen Zusammenhangs von Zufallsexperiment und Information entwickelte Claude E. Shannon den mathematisch-technischen Informationsbegriff: Wenn es das Wesen der Information ist, Ungewissheit auf zu lösen, dann stellt jedes Zufallsexperiment eine Informationsquelle dar. Das Wissen um den Versuchsausgang beseitigt die dem Experiment innewohnende Ungewissheit. Ebenso wie das Experiment mit Hilfe der Wahrscheinlichkeitsrechnung im Mittel beschrieben werden kann, sollte auch Information im Mittel beschreibbar sein. Hierzu führte Shannon den mittleren Informationsgehalt, die Entropie, ein [Sha48]. Die Gründung des Informationsbegriffes auf Experimente und die sie beschreibenden Wahrscheinlichkeiten macht die Information zu einer mit statistischen Mitteln empirisch zugänglichen Größe. X Aus didaktischen Gründen und der Kürze halber x1, x3, x1, x2, x2, x3,… Q wird im Folgenden der Informationsbegriff anhand des Informationsgehaltes eines Zeichens eingeführt. Ausgangspunkt ist eine einfache Informationsquelle, die pro Zeittakt ein Zeichen absetzt, Bild 7-1 Diskrete Informationsquelle mit Zeichenvorrat X {x1, x2, x3, x4} siehe Bild 7-1. Es soll die typische Fragestellung
213
7.1 Information, Entropie und Redundanz beantwortet werden:
Eine diskrete (Nachrichten-)Quelle X mit dem Zeichenvorrat (Alphabet) X = {x1, x2, ..., xN} sendet pro Zeitschritt ein Zeichen. Die Wahrscheinlichkeit des i-ten Zeichens xi ist pi. Welchen Informationsgehalt hat das i-te Zeichen? Der zur Beantwortung der Frage benötigte Informationsbegriff kann auf den folgenden drei Axiomen aufgebaut werden: Axiom 1 Der Informationsgehalt I eines Zeichens xi X mit der Wahrscheinlichkeit pi ist ein nichtnegatives Maß. I ( pi ) t 0
(7.1)
Axiom 2 Die Informationsgehalte unabhängiger Zeichen (xi, xl) mit der Verbundwahrscheinlichkeit pi,l = pi pl addieren sich. I ( pi ,l )
I ( pi ) I ( pl )
(7.2)
Axiom 3 Der Informationsgehalt ist eine stetige Funktion der Wahrscheinlichkeiten der Zeichen. Axiom 1 und 2 stellen sicher, dass sich Information nicht gegenseitig auslöscht. Andernfalls würde der Grundsatz, Information löst stets Ungewissheit auf, verletzt. Axiom 3 drückt den Wunsch aus, dass eine kleine Änderung der Auftrittswahrscheinlichkeit nur zu einer kleinen Änderung des Informationsgehaltes führen soll. Im zweiten Axiom wird aus dem Produkt der Wahrscheinlichkeiten die Addition der Informationsgehalte. Dies führt zur Logarithmusfunktion, die die Multiplikation in die Addition abbildet. Man definiert: Der Informationsgehalt eines Zeichens mit der Wahrscheinlichkeit p ist I(p) = ld p mit [ I ] = bit
(7.3)
Es wird meist der Zweier-Logarithmus in Verbindung mit der Pseudoeinheit bit verwendet. Übliche Schreibweisen sind log2(x) = ld(x) = lb(x) für den Logarithmus Dualis bzw. binary logarithm. 10 Anmerkung: Die Umrechnung der log-Funktion zu verschiedenen Basen erfolgt mit: loga(x) = logb(x) / logb(a) = logb(x) loga(b).
I ( p) bit
unmögliches Ereignis (p = 0)
5 Bild 7-2 zeigt den Funktionsverlauf des Informationssicheres Ereignis gehaltes. Der Informationsgehalt des sicheren Er(p = 1) eignisses ist null. Mit wachsender Unsicherheit nimmt der Informationsgehalt stetig zu, bis er schließlich im 0 0 0,5 1 Grenzfall des unmöglichen Ereignisses gegen unendp lich strebt. Die Definition des Informationsgehalts Bild 7-2 Informationsgehalt I(p) eines (7.3) spiegelt die eingangs gemachten grundsätzlichen Zeichens mit der AuftrittswahrÜberlegungen wider und erfüllt offensichtlich die scheinlichkeit p
214
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
Axiome 1 und 3. Der Informationsgehalt einer diskreten Quelle wird als Erwartungswert der Informationsgehalte aller Zeichen bestimmt. Man spricht vom mittleren Informationsgehalt oder in Anlehnung an die Thermodynamik von der Entropie der Quelle. Anmerkung: Shannon verwendet, den grundsätzlichen Überlegungen folgend, eine axiomatische Definition der Entropie, woraus der Informationsgehalt eines Zeichens wie in (7.3) folgt [Sha48]. Er führt als Beispiel die damals weit verbreiteten Lochkarten an. Eine Lochkarte mit N möglichen Positionen für ein bzw. kein Loch kann genau eine aus 2N verschiedenen Nachrichten aufnehmen. Nimmt man zwei Lochkarten, so ergeben sich bereits 22N verschiedene Möglichkeiten. Die Zahl der möglichen Nachrichten steigt quadratisch. Andererseits sollte erwartet werden, dass zwei Lochkarten zusammen doppelt soviel Information speichern können als eine. Es drängt sich die Logarithmusfunktion zur Beschreibung des Informationsgehaltes auf. Mit log 2N = N log 2 und log 22N = 2N log 2 ergibt sich die erwartete Verdopplung. Man beachte, dass 2N und 22N genau die Wahrscheinlichkeiten der Nachrichten widerspiegeln, wenn alle Nachrichten gleichwahrscheinlich sind, so dass die Definition des Informationsgehaltes gemäß log 2N sinnvoll ist.
Für den Fall einer (endlichen) diskreten gedächtnislosen Quelle, bei der die Wahrscheinlichkeiten der einzelnen Zeichen nicht von den vorhergehenden Zeichen abhängen, definiert man: Eine diskrete, gedächtnislose Quelle X mit dem Zeichenvorrat (Alphabet) X = {x1, x2,…, xN} und den zugehörigen Wahrscheinlichkeiten p1, p2, ..., pN besitzt die Entropie N
H (X )
¦ pi ld pi bit
(7.4)
i=1
Das einfachste Beispiel einer diskreten gedächtnislosen Quelle ist die Binärquelle mit dem Zeichenvorrat X = {0, 1} und den Wahrscheinlichkeiten p0 = p und p1 = 1 p. Ihre Entropie Hb(p), auch shannonsche Funktion genannt, ist
H b ( p) bit
p ld p (1 p ) ld (1 p)
(7.5)
Der Funktionsverlauf ist in Bild 7-3 zu sehen. Setzt die Quelle stets das Zeichen „1“ ab, p = 0, so ist die Entropie gleich null. Da man in diesem Fall weiß, dass die Quelle stets „1“ sendet, gibt sie keine Information ab. Sind beide Zeichen gleichwahrscheinlich, p = 1/2, so wird die Entropie 1 maximal. Ein Beobachter, der die Aufgabe hätte, jeweils das nächste Zeichen vorherzusagen, würde im H b ( p) maximale Mittel genauso häufig richtig wie falsch raten. bit Die Entropie der Binärquelle nimmt im Maximum den Wert 1 bit an. Dies entspricht genau einer Ja/Nein-Entscheidung (Antwort) um das aktuelle Zeichen zu erfragen: ist das Zeichen „0“? Die Entropie gibt Antwort auf die zwei Fragen: x Wie viele Ja/Nein-Entscheidungen sind mindestens notwendig, um das aktuelle Zeichen zu erfragen? x Wie viele Bits benötigt man mindestens, um die Zeichen der Quelle zu codieren?
Ungewissheit
0,5
0
Gewissheit 0
Gewissheit 0,5
p
Bild 7-3 Entropie der Binärquelle
1
215
7.1 Information, Entropie und Redundanz
Um die Bedeutung der Entropie aufzuzeigen, betrachten wir das Zahlenwertbeispiel in Tabelle 7-1. Die Entropie der diskreten, gedächtnislosen Quelle mit sechs Zeichen ist ca. 2,25 bit. Tabelle 7-1 Diskrete gedächtnislose Quelle mit dem Zeichenvorrat X = {a, b, c, d, e, f}, den Wahrscheinlichkeiten pi, den Informationsgehalten I(pi) und der Entropie H(X)
xi
a
b
c
d
e
f
pi
0,05
0,15
0,05
0,4
0,2
0,15
I(pi)
4,32 bit
2,74 bit
4,32 bit
1,32 bit
2,32 bit
2,74 bit
| 2,25 bit
H(X)
Zunächst betrachten wir in Tabelle 7-2 die einfache BCD-Codierung anhand des Zeichen-Index. Der BCD-Code ist ein Blockcode mit gleichlangen Codewörtern. Da sechs Zeichen vorliegen, müssen je Codewort drei Bits verwendet werden.
BCD-Codierung der Zeichen nach ihren Indizes
Tabelle 7-2
Zeichen
a
Codewort 001
b
c
d
e
f
010
011
100
101
110
Anmerkung: BCD steht für Binary Coded Decimal. Im Beispiel werden die Zeichen entsprechend ihren Spaltennummern 1 bis 6 binär codiert.
Andererseits kann überlegt werden, wie groß die Entropie einer Quelle mit sechs Zeichen maximal sein kann. Die Entropie einer diskreten gedächtnislosen Quelle mit N Symbolen wird maximal, wenn alle Symbole gleichwahrscheinlich sind, also maximale Ungewissheit vorliegt. Dieses Maximum ist der Entscheidungsgehalt (des Zeichenvorrats) der Quelle. H0
ld N bit
(7.6)
Der Entscheidungsgehalt einer diskreten gedächtnislosen Quelle mit sechs Symbolen ist 2,58 bit. Dem steht im Beispiel die Entropie von 2,25 bit gegenüber. Die Differenz aus dem Entscheidungsgehalt einer Quelle und ihrer Entropie wird Redundanz genannt. R
H0 H ( X )
(7.7)
Die Entropie besagt im Beispiel, dass im Mittel 2,25 Ja/Nein-Entscheidungen notwendig sind und deshalb die Zeichen der Quelle im Mittel mit 2,25 Bits codiert werden können. Ein Verfahren, das einen in diesem Sinne aufwandsgünstigen Code liefert, ist die Huffman-Codierung im nächsten Abschnitt.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
216
7.2
Huffman-Codierung
Die Huffman-Codierung1 gehört zur Familie der Codierungen mit variabler Codelänge. Ein bekanntes Beispiel ist das Morsealphabet 2. Die zugrunde liegende Idee ist, häufige Zeichen möglichst mit kurzen Codewörtern zu belegen, um so den mittleren Aufwand klein zu halten. Derartige Codierverfahren bezeichnet man auch als redundanzmindernde Codierung oder Entropiecodierung. Im Beispiel des Morsealphabets in Tabelle 7-3 wird der häufige Buchstabe E mit dem einen Zeichen „ . “ und der seltene Buchstabe X mit den vier Zeichen „ - . . - “ codiert. Tabelle 7-3 Buchstaben, Morsezeichen [Obe82] und relative Häufigkeiten hr in der deutschen Schriftsprache [Küp54]
Buchstabe A B C D E F G H I
Morsezeichen
.-... -.-. -.. . ..-. --. .... ..
hr
Buchstabe
0,0651
J
0,0257
K
0,0284
L
0,0541
M
0,1669
N
0,0204
O
0,0365
P
0,0406
Q
0,0782
R
Morsezeichen
.---..-.. --. --.--. --..-.
hr
Buchstabe
0,0019
S
0,0188
T
0,0283
U
0,0301
V
0,0992
W
0,0229
X
0,0094
Y
0,0007
Z
Morsezeichen
... ......--..-.---..
hr 0,0678 0,0674 0,0370 0,0107 0,0140 0,0002 0,0003 0,0100
0,0654
Anmerkungen: (i) Die Ziffern 0 bis 9 werden mit je 5 Zeichen codiert. Für Sonderzeichen, Satzzeichen und Meldungen stehen weitere Codewörter zur Verfügung [Bro04]. (ii) Das Morse-Alphabet benötigt ein Komma-Zeichen.
Huffman hat für diskrete gedächtnislose Quellen gezeigt, dass die von ihm angegebene Codierung mit variabler Wortlänge einen optimalen Präfixcode liefert [Huf52]. Das heißt, der Huffman-Code liefert die kleinste mittlere Codewortlänge. Er ist außerdem ohne Komma-Zeichen zur Trennung der Codewörter eindeutig decodierbar.
Bei einem Präfixcode ist kein Codewort Anfang eines anderen Codeworts.
Anmerkung: Die Huffman-Codierung spielt in der Bildcodierung eine wichtige Rolle. Sie ist Bestandteil des JPEG-, MPEGund H.261-Standards. Auch zur Codierung von digitalen Audio-Signalen, wie bei MP3, wird die Huffman-Codierung eingesetzt.
Die Huffman-Codierung geschieht in drei Schritten, siehe Kasten auf der nächsten Seite. Am Beispiel der Quelle in Tabelle 7-1 wird die Codierung vorgeführt.
1 2
David Huffman: *1925, †1999, US-amerikanischer Ingenieur. Samuel F. B. Morse: *1791, †1872, US-amerikanischer Maler und Erfinder, „Vater der Telegraphie“
217
7.2 Huffman-Codierung Huffman-Codierung
1. Ordnen Ordne die Zeichen nach fallenden Wahrscheinlichkeiten. 2. Reduzieren Kombiniere* die beiden Zeichen mit den kleinsten Wahrscheinlichkeiten zu einem neuen zusammengesetzten Zeichen. Ordne die Liste neu wie in Schritt 1 und fahre fort, bis alle Zeichen zusammengefasst sind. 3. Codieren Beginne bei der letzten Zusammenfassung; ordne jeder ersten Ziffer des Codeworts eines Zeichens der ersten Komponente des zusammengesetzten Zeichens eine „0“ und der zweiten Komponente eine „1“ zu. Fahre sinngemäß fort, bis alle Zeichen codiert sind. * Im Falle mehrerer Zeichen mit derselben Wahrscheinlichkeit werden die Zeichen kombiniert, die am wenigsten bereits zusammengefasste Zeichen beinhalten. Damit erreicht man bei gleicher mittlerer Codewortlänge eine in der Übertragungstechnik günstigere, weil gleichmäßigere Verteilung der Codewortlängen.
Im Beispiel erhält man im ersten Schritt die in Bild 7-4 angegebene Reihenfolge der Zeichen in der ersten Spalte mit den Wahrscheinlichkeiten pi in der zweiten Spalte. Im zweiten Schritt werden die beiden Zeichen mit den kleinsten Wahrscheinlichkeiten „c“ und „a“ zu einem Zeichen kombiniert. Die neuen beiden Zeichen mit den kleinsten Wahrscheinlichkeiten „ca“ und „e“ werden jetzt zusammengefasst. Für das zusammengesetzte Zeichen erhält man die Wahrscheinlichkeit 0,25. Damit ist sie größer als die Wahrscheinlichkeiten für „b“ und „f“. Letztere sind nun die beiden kleinsten Wahrscheinlichkeiten. Es werden „b“ und „f“ zusammengefasst. Die zugehörige Wahrscheinlichkeit hat den Wert 0,35. Die nunmehr beiden kleinsten Wahrscheinlichkeiten, für „bf“ und „cae“, ergeben zusammen die Wahrscheinlichkeit 0,6. Die beiden verbleibenden Wahrscheinlichkeit für „d“ und „caebf“ müssen zusammen den Wert eins ergeben. Anmerkung: Bei dem von Hand durchgeführten Beispiel haben wir auf das explizite Sortieren verzichtet, d. h. das Hochziehen des Zusammengesetzten Zeichens „cae“ unter das Zeichen „d“. Dadurch erhält man im Allgemeinen ein grafisch einfacheres Verfahren, dessen Code allerdings nicht mehr bitkompatibel zu dem Code mit Umsortieren wie für Programmieraufgaben typisch sein muss.
Zeichen
pi
d
0,4
f
0,2
b
0,15
e
0,15
0 0 1,0
0,35 0
a
0
0,05
1
1 0
0,25 0,1
c
0,6
0,05
1 1 Bild 7-4 Huffman-Codierung
1
218
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
Im dritten Schritt werden den Zeichen die Codewörter zugewiesen. Hierbei beginnt man ganz rechts und schreitet nach links fort. Bei jeder Weggabelung (Zusammenfassung von Zeichen) wird dem Pfad nach oben die „0“ und dem Pfad nach unten die „1“ (oder jeweils umgekehrt) zugewiesen. Der Pfad für die Codezuteilung für das Zeichen „a“ ist in Bild 7-4 fett gedruckt. Man erhält schließlich den Huffman-Code in Tabelle 7-4. Tabelle 7-4 Huffman-Code zu Bild 7-4
Zeichen xi Wahrscheinlichkeit pi
d
f
b
e
a
c
0,4
0,2
0,15
0,15
0,05
0,05
Codewort
0
100
101
110
1110
1111
Codewortlänge Li in bit
1
3
3
3
4
4
Ein Code ist umso effizienter, je kürzer seine mittlere Codewortlänge ist. Die mittlere Codewortlänge bestimmt sich aus der Länge der einzelnen Codewörter Li gewichtet mit der Wahrscheinlichkeit der jeweiligen Codewörter (Zeichen) pi. N
L
¦ pi Li
(7.8)
i 1
Im Beispiel ist die mittlere Codewortlänge mit L | 2,3 bit nahe an der Entropie H(X) | 2,25 bit. Eine wichtige Kenngröße der Codierung ist das Verhältnis von Entropie zu mittlerer Codewortlänge, die Effizienz des Codes oder auch Datenkompressionsfaktor genannt. Sie erreicht im Beispiel den Wert K | 0,976. Effizienz des Codes
K
H (X ) L
(7.9)
Aus dem Beispiel wird deutlich: Je größer die Unterschiede zwischen den Wahrscheinlichkeiten der Zeichen sind, desto größer ist die Ersparnis an mittlerer Wortlänge durch die Huffmann-Codierung. Für die Anwendung ist die Frage wichtig: Wie effizient kann der Code bestenfalls sein? Die Antwort gibt das Quellencodierungstheorem von Shannon für diskrete gedächtnislose Quellen. Quellencodierungstheorem
Es existiert ein binärer Code, so dass die mittlere Codewortlänge beliebig nahe an die Entropie herankommt. Die Informationstheorie zeigt aber auch, dass dabei durch Kombination der Zeichen unter Umständen sehr lange Codewörter entstehen, die einer praktischen Umsetzung des Quellencodierungstheorems entgegenstehen.
219
7.2 Huffman-Codierung
Für den Empfänger ist die Umkehrung der Codierung wichtig. Die Decodiervorschrift des Huffman-Codes folgt unmittelbar aus Bild 7-4. Durch den Verzicht auf das Umordnen, kann der Codebaum in Bild 7-5 direkt aus dem Bild 7-4 abgelesen werden. Er liefert die anschauliche Interpretation der Codiervorschrift. Für jedes neue Codewort beginnt die Decodierung an der Wurzel. Wird eine „0“ empfangen, so schreitet man auf dem mit „0“ gewichteten Zweig, auch Kante genannt, nach oben. Im Beispiel erreicht man das Blatt „d“. Das gesendete Symbol ist demzufolge „d“ und man beginnt mit dem nächsten Bit von neuem an der Wurzel. Wird eine „1“ empfangen, wählt man den Zweig nach unten. Man erreicht im Beispiel einen Verzweigungsknoten. Das nächste Bit wählt einen der beiden folgenden Zweige aus. So verfährt man, bis man ein Blatt erreicht. Danach beginnt die Decodierung für das nächste Zeichen wieder an der Wurzel. Anmerkung: Man spricht von einem gerichteten Baum: von der Wurzel über die Zweige (Äste) zu den Blättern.
So einfach die Huffman-Codierung und Decodierung ist, sie besitzt drei Nachteile: Die unterschiedlichen Codewortlängen führen zu einer ungleichmäßigen Bitrate und Decodierverzögerung.
Wurzel (Anfangsknoten)
d
0
Blatt (Endknoten) f 0
0
1
1 Zweig (Kante)
0
1 1
Verzweigungsknoten
b e 0
a
1
c
Bild 7-5 Codebaum zum HuffmanCode in Bild 7-4
Datenkompressionsverfahren reduzieren die Redundanz und erhöhen deshalb die Fehleranfälligkeit. Im Falle der Huffman-Codierung bedeutet das, dass durch ein falsch erkanntes Bit gegebenenfalls alle nachfolgenden Zeichen falsch detektiert werden können. Die Huffman-Codierung setzt die Kenntnis der Wahrscheinlichkeiten der Zeichen oder zumindest geeigneter Schätzwerte voraus. Diese sind jedoch oft nicht bekannt bzw. ihre Schätzung ist relativ aufwendig. Für die Komprimierung von großen Dateien werden deshalb oft universelle Codierverfahren wie der Lempel-Ziv-Welch- (LZW-) Algorithmus eingesetzt, die die Komprimierung ohne a priori Wissen über die Statistik der Daten beginnen, siehe z. B. [Loc02], [Str05], [Wer08d]. Anmerkungen: (i) Bei der Datenkompression in der Audio- und der Video-Codierung unterscheidet man zwischen Redundanz und Irrelevanz. Man spricht daher von Redundanz bzw. Irrelevanzreduktion, siehe Abschnitt 3.8. (ii) Das vorgestellte Konzept der Entropie lässt sich auf Quellen mit Gedächtnis, d. h. Quellen bei denen bereits gesendete Zeichen den weiteren Verlauf beeinflussen, und die Informationsübertragung über Nachrichtenkanäle erweitern. Letzteres führt auf den wichtigen Begriff der Transinformation und schließlich der shannonschen Kanalkapazität. Eine einführende Darstellung hierzu findet man z. B. in [Wer08d].
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
220
7.3
Kanalcodierung
7.3.1
Paritätscodes
Bei der Übertragung und Speicherung von Information existieren zahlreiche Fehlermöglichkeiten. Um wichtige Daten gegen Fehler zu schützen werden jeweils passende Verfahren der Kanalcodierung eingesetzt. Zur Einführung in die Aufgabenstellung der Kanalcodierung betrachten wir beispielhaft die weit verbreiteten Paritätscodes. Anmerkung: Eine Einführung in deren die mathematischen Grundlagen gibt z. B. [BeZs02].
Binäre Paritätscodes Ein wichtiges Beispiel für die Anwendung von Paritätscodes wird in Abschnitt 5.2 mit der RS-232-Schnittstelle vorgestellt. Dort werden die sieben Bits des Nachrichtenwortes durch ein Paritätsbit so zum Codewort ergänzt, dass die Exor-Verknüpfung „“ (Modulo-2-Addition, siehe Tabelle 7-5) aller Bits entweder „0“ oder „1“ ist. Man spricht von gerader bzw. ungerader Parität. Im Beispiel ergänzen wir die sieben Bits der ASCII-Codewörter der Zeichen „M“ und „W“ zur geraden bzw. ungeraden Parität. Wir erhalten aus Abschnitt 4.1, Tabelle 4.1, die ASCII-Codewörter und ergänzen sie in Tabelle 7-6 zum Codewort.
Tabelle 7-5 Wahrheitstafel der Exor-Verknüpfung 0 1
0 0 1
1 1 0
Tabelle 7-6 Codewörter mit Paritätsbits
Zeichen M W
ASCII-Code 1101 001 0111 101
Parität gerade ungerade 0 1 1 0
Wir überprüfen das Ergebnis anhand des Zahlenwertbeispiel für M und gerader Parität. 11 0 1 0 0 1 0
0
(7.10)
Anmerkung: Die Exor-Verknüpfung ist assoziativ und kommutativ.
Mit dem Paritätscode werden durch die Prüfsumme (7.10) einfache Fehler im Codewort erkannt. Eine Reparatur des fehlerhaften Bits ist nicht möglich, da die Fehlerstelle unbekannt ist. Treten zwei Fehler auf, so ist das nicht erkennbar, wie man durch ein Beispiel schnell zeigen kann. Bei binären Paritätscodes sind alle n-fachen Fehler mit n gerade nicht erkennbar. Man spricht dann von einem Restfehler. Anmerkung: In Anwendungen können Restfehler ein Problem bereiten. Tritt beispielsweise bei einer Softwareaktualisierung ein unerkannter Fehler auf, entsteht ein ungewollter Programmabschnitt der sporadisch zu Fehlern führen kann. Erst durch den Einsatz geeigneter Fehlerschutzmaßnahmen werden Geschäftsmodelle mit Online-Upgrade-Diensten möglich.
Paritätscode mit Kreuzsicherung Sollen Doppelfehler erkennbar sein, ist ein zusätzlicher Fehlerschutz erforderlich. Dies ermöglicht der zweidimensionale Paritätscode mit Kreuzsicherung. Die Idee lässt sich anhand eines Lochstreifens erklären, siehe Bild 7-6.
221
7.3 Kanalcodierung
Blockparität (Längsparität) Zeichenparität (Querparität)
Tritt beispielsweise ein Doppelfehler in einer Querspalte des Lochstreifens (erweitertes Zeichen) auf, dann ist dies zwar anhand der Querparität nicht zu erkennen, jedoch werden durch die Längsparität zwei Spuren als fehlerhaft erkannt. Da der Paritätscode für jede Zeile und jede Spalte n Fehler mit n ungerade erkennt, sind alle einfachen, doppelten und dreifachen Fehler erkennbar. Für einen Restfehler müssen mindestens vier Fehler in bestimmten Mustern auftreten, wie z. B. in zwei benachbarten Zeilen und Spalten.
Paritätszeichen der Längsparität Transportrichtung Vorschublöcher Paritätszeichen der Querparität
Anmerkungen: (i) Für Lochstreifen existieren Bild 7-6 8-Spur-Lochstreifen mit Kreuzparität unterschiedliche Formate, wie 5-Spur, 7-Spur (ungerade Parität mit Stanzloch für die und 8-Spur-Lochstreifen mit herstellerspezifilogische „1“) schen Codes [MLS89]. Für das Beispiel wurden der Einfachheit halber der ASCII-Code und die ungerade Parität gewählt. Die logische Eins wird durch ein Stanzloch repräsentiert. (ii) Bei der Fehlererkennung werden die Zeilen und Spalten einschließlich der Paritätsbits betrachtet. Durch die zusätzlichen Paritätsbits entstehen zusätzliche Fehlermöglichkeiten.
Paritätscodes mit Erkennung von Vertauschungsfehlern Die Idee des Paritätscodes kann allgemein formuliert und auf den praktisch wichtigen Fall der Erkennung von Vertauschungsfehlern erweitert werden. Bei der Eingabe von Daten, wie Kontonummern, Bestellnummern, usw., durch Menschen treten als Fehler meist Zahlendreher auf. Statt der Ziffernfolge „3 4“ wird „4 3“ eingetippt. Es ist deshalb von besonderem Interesse derartige Fehler anhand von Prüfzeichen erkennen zu können. Wir stellen das Konzept anhand der Codierung der International Standard Book Number (ISBN) vor. Dazu führen wir schrittweise die notwendigen Begriffe und Zusammenhänge ein. Wir gehen von einem Alphabet (Zeichenvorrat) mit den Ziffern 0, 1, …, q1 aus der Menge der ganzen Zahlen aus. Ein Code der Länge n zur Basis q ist dann eine beliebige Menge von Folgen a1, a2, …, an mit Elementen aus dem Alphabet. Die Folgen werden Codewörter genannt. Ein Paritätscode liegt vor, wenn für jedes Codewort gilt (a1 a2 " an ) mod q
0
(7.11)
also die Summe a1 + … + an ein Vielfaches von q ist. Jeder Paritätscode erkennt Einzelfehler
Durch elementare Überlegungen kann gezeigt werden, dass durch Auswerten der Prüfgleichung (7.11) alle Einzelfehler erkannt werden. Dazu behaupten wir die Fehlerprüfung erkennt den Fehler nicht und zeigen den Widerspruch.
Wir gehen von einem Codewort aus und nehmen an, dass das i-te Element fehlerhaft sei. Ein unerkannter Fehler tritt auf, wenn die Prüfgleichung (7.11) mit dem Fehler ai ergibt
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
222
?
(a1 a2 " ai " an ) mod q 0
(7.12)
Wegen der Modulo-q-Operation und weil ursprünglich ein Codewort vorlag, dürfen wir auch schreiben ?
0 (a1 " ai " an ) mod q (a1 " ai " an ) mod q
0
(7.13)
(a1 a1 " ai ai " an an ) mod q (ai ai ) mod q
Damit die Gleichung erfüllt wird, muss die Zahl ai ai durch q teilbar sein. Anmerkung: Eine natürliche Zahl a ist durch eine andere natürliche Zahl b teilbar, wenn sie ein Vielfaches von b ist. Beispielsweise ist 8 durch 4 teilbar, 9 nicht. 4 ist nicht durch 8 teilbar.
Da jedoch für alle Ziffern des Zeichenvorrats gilt 0 d ai q
(7.14)
0 d ai ai q
(7.15)
gilt insbesondere auch für die Differenz
Somit ist die Differenz in (7.13) nicht durch q teilbar und die Prüfsumme kann nicht wie gefordert null ergeben. Der Fehler wird erkannt. Um zusätzlich Vertauschungen zu erkennen, führen wir die ganzzahligen Gewichte w1, w2, …, wn-1 so ein, dass für den Paritätscode mit Gewichten gilt ( w1a1 w2 a2 " wn 1an 1 an ) mod q
0
(7.16)
also die Summe w1a1 + … + wn-1an-1 + an ein Vielfaches von q ist. Anmerkung: Es kann auch ein zusätzliches Gewicht wn eingeführt werden, das jedoch teilerfremd zu q sein muss. Zwei Zahlen sind teilerfremd, wenn ihr größter gemeinsamer Teiler 1 ist. Beispielsweise sind zwei Primzahlen, z. B. 3 und 5, teilerfremd. Die Zahlen 6 und 8 sind nicht teilerfremd, da sie den gemeinsamen Teiler 2 besitzen.
Bei der Wahl der Gewichte ist zu beachten, dass alle Gewichte wi und q teilerfremd sind. Dies kann wie in (7.13) gezeigt werden. Damit Einzelfehler nicht erkannt werden muss gelten
> wi (ai ai )@ mod q
?
0
(7.17)
Und da die Differenz der Ziffern teilerfremd ist, kann die Prüfgleichung nicht null ergeben wenn das Gewicht wi teilerfremd zu q ist. Der Code erkennt Einzelfehler. Nun zeigen wir, dass bei geeigneter Wahl der Gewichte Vertauschungsfehler an den beliebigen Stellen i und j erkannt werden. Dazu gehen wir wieder wie in (7.13) vor. Damit der Vertauschungsfehler nicht erkannt wird muss gelten
223
7.3 Kanalcodierung
?
0 ¬ª ( wi ai w j a j ) ( w j ai wi a j ) º¼ mod q
ª ( wi w j )(ai a j ) º mod q ¬ ¼
(7.18)
Wie oben erhalten wir den Widerspruch für (wi wj) teilerfremd zu q, da die Zahl (ai aj) stets teilerfremd zu q ist. Ein Paritätscode der Länge n zur Basis q mit den Gewichten w1, w2, …, wn erkennt die Vertauschung an den Stellen i und j, falls die Zahl wi wj teilerfremd zu q ist
Nachdem die Konstruktionsvorschriften für Paritätscodes mit Erkennung von Vertauschungsfehlern vorgestellt wurden, wenden wir uns dem Beispiel des ISBN-Codes zu.
Beispiel ISBN-Code
Für den ISBN-Code ist es praktisch für die Ziffern des Codes die üblichen, auf Schreibmaschinen, Tastaturen, usw. vorhandenen Ziffern 0, 1, …, 9 zu wählen. Damit kommt als Basis q eine Zahl größer gleich 10 in Frage. Die Forderung nach teilerfremden Gewichten legt die Wahl der Basis als Primzahl nahe, so dass als Basis die kleinste mögliche Primzahl 11 gewählt wird. Mit der Basis 11 ist im Code die Zahl 10 als Ziffer aufzunehmen. Um Verwechslungen vorzubeugen, wird für die Zahl 10 die römische Ziffer X verwendet. Mit diesen Vorüberlegungen kann der ISBN-Code definiert werden: Der ISBN-Code ist ein Paritätscode der Länge n = 10 zur Basis q = 11 mit dem Alphabet {0, 1, …, 9, 10 = X} und den Gewichten g1 = 10, g2 = 9, …, g10 = 1. Der ISBN-Code erkennt einen Einzelfehler und eine Vertauschung zweier Elemente. Seine Prüfziffer a10 berechnet sich aus
10a1 9a2 8a3 " 2a9 a10 mod11
0
(7.19)
Als Beispiel wählen wir das Buch des Verfassers „Digitale Signalverarbeitung mit MATLAB, 2. Aufl.“ im VIEWEG Verlag mit der ISBN 3-528-13930-7. Darin steht 3 für Deutschland, 528 für den VIEWEG Verlag und 13930 für das Buch im Verlagsprogramm. Für die letzte Ziffer, die Prüfziffer, folgt § · ¨10 6 1 5 3 4 9 3 3 2 3 9 5 8 2 7 8 0 a10 ¸ mod11
N¸ ¨ 213 1911 4 7 ¹ ©
0
(7.20)
Wir verifizieren die Aussagen zur Fehlererkennung, indem wir den Ländercode für die U.S.A. als erste Ziffer in die Prüfgleichung eingeben. § · 0 9 5 8 2 7 8 6 1 53 4 9 3 3 2 0 ¨10
7 ¸¸ mod11 ¨ 190 17113 © ¹
3
(7.21)
3
(7.22)
Vertauschen der 5. und 6. Ziffern wird ebenfalls erkannt. § · ¨10 3 9 5 8 2 7 8 6 3 5 1 4 9 3 3 2 0 7 ¸ mod11
¸ ¨ 223 20113 © ¹
224
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
Anmerkung: Der 10-stellige ISBN-Code ist 2007 durch den 13-stelligen ISBN-Code ersetzt worden, der kompatibel zum EAN-13-Code (European Article Number) ist [Wer08d]. Mit den heute üblichen Balkencode-Lesegeräten (Barcode reader) an den Kassen ist der Schutz vor Zahlendrehern überflüssig geworden.
7.3.2
Kanalcodierung zum Schutz gegen Übertragungsfehler
Das Beispiel der digitalen Übertragung in Abschnitt 5 zeigt: reale Übertragungssysteme sind nicht perfekt. In vielen Anwendungen muss mit Fehlern bei der Übertragung und Speicherung von Daten gerechnet werden, insbesondere bei Speichermedien hoher Dichte (Magnetspeicher, Compact Disc (CD), … ); der Nachrichtenübertragung bei begrenzter Signalleistung (Satellitenkommunikation); der Nachrichtenübertragung über stark gestörte Kanäle (Funk, Stromleitungen) und bei extremen Zuverlässigkeitsanforderungen (CAD-Daten, Programmcode, nach Datenkompression). In all diesen Fällen wird die Kanalcodierung zur Fehlerkontrolle eingesetzt. Die Codierungstheorie stellt auf die jeweilige Anwendung bezogene Verfahren zur Verfügung. Es lassen sich zwei grundsätzliche Fälle unterscheiden: Fehlerkorrigierende Codes, der Empfänger erkennt und korrigiert Fehler; Fehlererkennende Codes, der Empfänger erkennt Fehler und fordert gegebenenfalls die nochmalige Übertragung der Nachricht an. Die letzte Methode setzt einen Rückkanal voraus und findet vor allem in der Datenübertragung ihre Anwendung, wenn die Fehlerwahrscheinlichkeit ohne Codierung bereits klein ist und es auf eine hohe Zuverlässigkeit ankommt. Ein typischer Wert für die Bitfehlerwahrscheinlichkeit ohne Codierung in Datennetzen ist 106. Durch zusätzliche Kanalcodierung auf der Übertragungsstrecke kann in der Netzschicht eine Bitfehlerwahrscheinlichkeit von 109 und darunter erreicht werden. Durch weitere Fehlerschutzmaßnahmen der Transportschicht bzw. höherer Schichten können Restfehler quasi ausgeschlossen werden. Anmerkung: Gefahren durch Restfehler können nur anwendungsbezogen diskutiert werden.
Die Darstellung der verschiedenen Kanalcodierverfahren würde den Rahmen einer Einführung bei weitem sprengen. In den folgenden Unterabschnitten wird deshalb die Idee der Kanalcodierung exemplarisch anhand einfacher linearer Blockcodes vorgestellt. Den Abschluss bildet die Vorstellung der in der Datenkommunikation am weitesten verbreiteten Fehlerprüfung, die Anwendung zyklischer Codes. Zur Einführung betrachte man das Übertragungsmodell mit Kanalcodierung in Bild 7-7. Es wird von einer blockorientierten Übertragung ausgegangen. Die Quellencodierung liefert ein binäres Nachrichtenwort fester Länge, z. B. u = (1010). Die Kanalcodierung ordnet im Encoder dem Nachrichtenwort ein binäres Codewort entsprechend der Codetabelle, Tabelle 7-7, zu. Im Beispiel ist das Codewort v = (0011010). Dort wird ein Hamming-Code1 verwendet, dessen Besonderheiten später noch genauer erläutert werden.
1
Richard W. Hamming: *1915, †1998, US-amerikanischer Mathematiker und Computerwissenschaftler.
225
7.3 Kanalcodierung
Quelle
Sinke
Quellencodierung
Quellendecodierung
Nachrichtenwort u
uˆ
Encoder
Kanalcodierung
Decoder
Codewort v
decodiertes Nachrichtenwort (Schätzwert)
r Empfangswort
Sender
Kanal
Empfänger
Bild 7-7 Übertragungsmodell mit Kanalcodierung
Der Sender generiert ein dem Codewort entsprechendes Signal, welches über den Kanal an den Empfänger gesandt wird. Im Empfänger wird das ankommende Signal ausgewertet und ein binäres Empfangswort r erzeugt. Der Decoder vergleicht das Empfangswort mit den Codewörtern. Stimmt das Empfangswort mit einem Codewort überein, so wird das zugehörige Nachrichtenwort ausgegeben. Stimmt das Empfangswort mit keinem Codewort überein, so wird ein Übertragungsfehler erkannt. Soll eine Fehlerkorrektur stattfinden, müssen dazu geeignete Regeln existieren. Aus diesen einfachen Überlegungen folgen bereits zwei wichtige Aussagen:
Restfehler: Wird ein Codewort durch die Kanalstörung in ein anderes Codewort abgebildet, kann die Störung nicht erkannt werden.
„Gute Codes“ besitzen eine mathematische Struktur, die die Fehlererkennung und gegebenenfalls die Fehlerkorrektur unterstützt.
Im Beispiel des (7,4)-Hamming-Codes werden die 24 = 16 möglichen Nachrichtenwörter auf 16 Codewörter der Länge 7, d. h. auf 16 von 27 = 128 möglichen binären Vektoren der Länge 7 abgebildet. Die Auswahl der Codewörter erfolgt so, dass sie sich in möglichst vielen Komponenten unterscheiden. Wie in Tabelle 7-7 nachzuprüfen ist, unterscheiden sich alle Codewörter in mindestens drei Elementen. Tabelle 7-7 Codetabelle des (7,4)-Hamming-Codes
Nachrichtenwort
Codewort
Nachrichtenwort
Codewort
0000 1000 0100 1100 0010 1010 0110 1110
000 0000 110 1000 011 0100 101 1100 111 0010 001 1010 100 0110 010 1110
0001 1001 0101 1101 0011 1011 0111 1111
101 0001 011 1001 110 0101 000 1101 010 0011 100 1011 001 0111 111 1111
226
7.3.3
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
Lineare Blockcodes
Eine wichtige Familie von Codes sind die linearen binären Blockcodes. Sie sind dadurch gekennzeichnet, dass die Nachrichten- und Codewörter als Vektoren aufgefasst und der Codier- und Decodiervorgang mit der linearen Algebra beschrieben werden kann. Die Komponenten der auftretenden Vektoren und Matrizen sind „0“ oder „1“. Mit ihnen wird im Weiteren unter Beachtung der Modulo-2-Arithmetik in Tabelle 7-8 in geTabelle 7-8 Verknüpfungstafeln der wohnter Weise gerechnet. Modulo-2-Arithmetik Wegen der Vektoreigenschaft der Codewörter wird auch von Codevektoren, Empfangsvektoren, usw. gesprochen.
Addition 0 1 0 0 1 1 1 0
Multiplikation : 0 1 0 0 0 1 0 1
Anmerkung: Mathematisch gesehen liegt ein binärer Körper oder Galois-Körper (Galois Field) der Ordnung 2 vor. Erwähnt sei hier eine wichtige Erweiterungsmöglichkeit der Codierung durch den Übergang auf Galois-Körper höherer Ordnung. Eine Familie derartiger Codes sind die Reed-Solomon-Codes, die beispielsweise bei Audio-CDs verwendet werden.
Der Encoder eines (n,k)-Blockcodes bildet die 2k möglichen Nachrichtenwörter bijektiv auf 2k n-dimensionale Codewörter ab, siehe Bild 7-8. Nachrichtenwort
Codewort Encoder
u = (u0, u1, …, uk1)
v = (v0, v1, …, vn1)
Bild 7-8 Encoder eines (n,k)-Blockcodes
Statt der k Bits des Nachrichtenwortes sind nun die n Bits des Codewortes zu übertragen. Man spricht von einer redundanten Codierung mit der Coderate R
k n
(7.23)
Je kleiner die Coderate, umso mehr Redundanz besitzt die Codierung. Desto größer ist allerdings auch der Übertragungsaufwand. Die Codierung linearer (n,k)-Blockcodes wird durch die Generatormatrix Gkun und die Codiervorschrift v
u:G
(7.24)
festgelegt. Es wird das Nachrichtenwort als Zeilenvektor von links mit der Generatormatrix multipliziert. Im Beispiel des (7,4)-Hamming-Codes ist die Generatormatrix eine Matrix mit vier Zeilen und sieben Spalten.
227
7.3 Kanalcodierung
G 4u7
§1 ¨ ¨0 ¨1 ¨ ©1
1 0 1 0 0 0· ¸ 1 1 0 1 0 0¸ 1 1 0 0 1 0¸ ¸ 0 1 0 0 0 1¹
(7.25)
Anwenden der Codiervorschrift liefert alle Codewörter der Tabelle 7-7. Für das Nachrichtenwort u = (1 0 1 0) erhält man beispielsweise das Codewort
v
§1 ¨ 0 1 0 1 0 : ¨¨ 1 ¨ ©1
1 0 1 0 0 0· ¸ 1 1 0 1 0 0¸ 1 1 0 0 1 0¸ ¸ 0 1 0 0 0 1¹
0
0 1 1 0 1 0
(7.26)
In Tabelle 7-7 fällt auf, dass in allen Codewörtern das jeweilige Nachrichtenwort im hinteren Teil direkt abgelesen werden kann. Einen solchen Code bezeichnet man als systematisch. Bei einem systematischen Code kann die Nachricht direkt aus dem Codewort abgelesen werden. Dass ein systematischer Code vorliegt, ist an der Generatormatrix festzustellen. Es tritt die Einheitsmatrix Ik als Untermatrix auf. G k un
Pk unk
Ik
(7.27)
Anmerkung: Ik steht für Identity Matrix. Der Index k gibt die Dimension der Matrix an. In der Literatur wird die Einheitsmatrix auch oft an den Anfang gestellt. Damit vertauschen sich nur die Plätze der Komponenten im Codewort. An den Eigenschaften des Codes ändert sich nichts.
Demgemäß spricht man im Codewort von Nachrichtenzeichen und wie später deutlich wird von Prüfzeichen.
v
7.3.4
§ ¨ v0 " vn k 1 ¨
n k Prüfzeichen ©
· vn k " vn 1 ¸ ¸ k Nachrichtenzeichen ¹
(7.28)
Syndrom-Decodierung
Die Aufgabe des Decoders ist es, anhand des Empfangswortes r und dem Wissen über die Codierung die gesendete Nachricht zu rekonstruieren. Im Beispiel des systematischen (7,4)-Hamming-Codes ist eine Fehlerprüfung einfach möglich. Da ein systematischer Code vorliegt, können die Nachrichtenzeichen des Empfangsworts neu codiert werden. Stimmen die so erzeugten Prüfzeichen nicht mit den empfangenen überein, liegt ein Fehler vor. Die Idee wird mathematisch als Prüfgleichungen formuliert. Für den (7,4)Hamming-Code ergeben sich aus der Codiervorschrift und der angenommenen Nachricht uˆ (r3 , r4 , r5 , r6 ) die drei Prüfgleichungen entsprechend den ersten drei Spalten der Generatormatrix.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
228
r6
s0 s1
r2 r4 r5 r6
s2
r0
r3 r3
r1 Prüfzeichen
r4
r5 r5
(7.29)
Codierungsvorschrift
Liefert eine Prüfsumme nicht 0, liegt ein Übertragungsfehler vor. Denn durch die Addition des jeweiligen Prüfzeichens r0, r1 bzw. r2 ergeben die Prüfgleichungen unter Beachtung der Modulo-2-Arithmetik bei Übereinstimmung den Wert 0. Die Prüfgleichungen eines systematischen linearen Blockcodes lassen sich direkt aus der Generatormatrix ablesen und in Matrixform angeben. Mit der Prüfmatrix H n k un
I nk
(7.30)
§ I · r : ¨ nk ¸ P © k un k ¹
(7.31)
PkTun k
erhält man die Prüfvorschrift der Syndrom-Decodierung s
r : HT
mit dem Syndrom s. Ein Fehler wird erkannt, wenn mindestens ein Element des Syndroms ungleich 0 ist. Im Beispiel des (7,4)-Hamming-Codes erhält man für den Fall einer ungestörten Übertragung, d. h. r = v = (0011010).
s
§1 ¨ ¨0 ¨0 ¨ 0 0 1 1 0 1 0 : ¨ 1 ¨0 ¨ ¨1 ¨1 ©
0 1 0 1 1 1 0
0· ¸ 0¸ 1¸ ¸ 0¸ 1¸ ¸ 1¸ 1 ¸¹
0
0 0
(7.32)
Tritt ein Übertragungsfehler auf, z. B. im vierten Element, d. h. r = (0010010), zeigt das Syndrom den Fehler an.
s
§1 ¨ ¨0 ¨0 ¨ 0 0 1 0 0 1 0 : ¨ 1 ¨0 ¨ ¨1 ¨1 ©
0 0· ¸ 1 0¸ 0 1¸ ¸ 1 0¸ 1 1¸ ¸ 1 1¸ 0 1 ¸¹
1
1 0
(7.33)
229
7.3 Kanalcodierung
Probiert man alle möglichen Fehlerstellen einzeln durch, erhält man die Syndrom-Tabelle für Einzelfehler in Tabelle 7-9. Man erkennt, dass der i-ten Fehlerstelle die i-te Spalte der Prüfmatrix als Syndrom zugeordnet ist. Da alle Zeilen von HT verschieden sind, kann die Fehlerstelle eindeutig erkannt und korrigiert werden. Anmerkung: Die Spalten von H sind verschieden, wenn Zeilen von Pkunk zueinander verschieden sind und mindestens zwei Elemente gleich 1 sind, was bei der Konstruktion von Hamming-Codes in Abschnitt 7.3.8 noch eine Rolle spielen wird.
Man beachte auch: Mit n k = 3 stehen drei Prüfstellen und somit drei Elemente für das Syndrom zur Verfügung. Damit lassen sich genau 23 = 8 verschiedene Syndrome darstellen. Das Syndrom mit nur „0“ in den Elementen zeigt den Empfang eines Codeworts an. Die restlichen Sieben sind jeweils einer der n = 7 möglichen Fehlerstellen im Empfangswort zugeordnet. Tabelle 7-9 Syndrom-Tabelle des (7,4)-Hamming Codes für Einzelfehler
r0
r1
r2
r3
r4
r5
r6
100
010
001
110
011
111
101
Fehlerstelle im Empfangswort r Syndrom s
Die am Beispiel des (7,4)-Hamming-Codes eingeführten Größen und Beziehungen für lineare Blockcodes werden nachfolgend mit Hilfe der linearen Algebra zusammengefasst. Den Ausgangspunkt bildet der n-dimensionale binäre Vektorraum mit Modulo-2-Arithmetik. In ihm ist der k-dimensionale Unterraum C mit 2k Codewörtern eingebettet, siehe Bild 7-9. Der Code C wird durch k linear unabhängige Basisvektoren g1, ..., gk aufgespannt. Sie bilden die Zeilen der Generatormatrix des Codes.
G k un
§ g1 · ¨ ¸ ¨ # ¸ ¨g ¸ © k¹
Pk unk
Ik
(7.34)
Im Falle eines systematischen Codes kann die Generatormatrix in die Matrix P und die Einheitsmatrix I zerlegt werden. Zu C existiert ein dualer Unterraum Cd so, dass das Skalarprodukt zweier Vektoren aus C und Cd stets null ergibt. D. h., alle Vektoren aus C sind zu allen Vektoren aus Cd orthogonal und alle Vektoren mit dieser Eigenschaft sind in den beiden Unterräumen enthalten. Der duale Vektorraum wird durch die n k linear unabhängigen Basisvektoren h1, ..., hn-k aufgespannt. Sie liefern die Prüfmatrix
H n k un
§ h1 · ¨ ¸ ¨ # ¸ ¨h ¸ © nk ¹
I nk
PkTun k
wobei der rechte Teil der Gleichung für systematische Codes gilt.
(7.35)
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
230
n-dim. binärer Vektorraum mit Modulo-2-Arithmetik Code C
Code Cd
k-dim. Unterraum
(n-k)-dim. Unterraum
Nullvektor 0
Bild 7-9 Vektorraumstruktur des Codes
Bei der Syndrom-Decodierung benutzt der Empfänger die Eigenschaft der Orthogonalität des Codes. G : HT
(7.36)
0
Für jedes Codewort v C liefert die Syndromberechnung den Nullvektor.
s
v : HT
(7.37)
0
Jedes Empfangswort, das nicht im Code enthalten ist, führt zu einem vom Nullvektor verschiedenen Syndrom. s
r : HT z 0 für r C
(7.38)
Für die Analyse der Syndrom-Decodierung kann die Übertragung wie in Bild 7-10 auf der Bitebene modelliert werden. Der Kanal stellt sich als Modulo-2-Addition (Exor-Verküpfung) des zu übertragenden Codewortes v mit dem Fehlerwort e (Error) dar. Ist das i-te Element des Fehlerworts „1“, so ist das i-te Element des Empfangsworts gestört. Das Fehlerereignis im letzten Beispiel, die Störung des vierten Elements im Empfangswort in (7.33), wird mit dem Fehlerwort e = (0 0 0 1 0 0 0) ausgedrückt. Kanal Nachrichtenwort u
Codewort Encoder
Empfangswort EXOR
v
r = v e
Decoder
decodiertes Nachrichtenwort
e Fehlerwort Bild 7-10 Übertragungsmodell auf der Bitebene
Die Syndrom-Decodierung liefert wegen der Linearität und der Orthogonalität
s
r : HT
v e : HT
e : HT
(7.39)
231
7.3 Kanalcodierung
Die Gleichung bildet die Grundlage für das Verständnis der Fehlererkennungs- und Fehlerkorrektureigenschaften der Syndrom-Decodierung. Es lassen sich die folgenden Fälle unterscheiden:
Fall 1: s = 0 e C mit e = 0 ) fehlerfreie Übertragung e z 0 ) Restfehler, Fehler nicht erkennbar Fall 2: s z 0 e C
) Übertragungsfehler wird erkannt
Für den Decodierprozess bedeutet das:
Im 1. Fall gibt der Decoder das decodierte Nachrichtenwort aus. Ein Übertragungsfehler wird nicht erkannt. Im 2. Fall stellt der Decoder einen Übertragungsfehler fest. Er kann nun eine Fehlermeldung ausgeben und oder einen Korrekturversuch durchführen. Am Beispiel des (7,4)-Hamming-Codes kann das Fehlerkorrekturvermögen verdeutlicht werden. Die Syndrom-Tabelle zeigt, dass jeder Einzelfehler eindeutig erkannt wird. In diesem Fall ist es möglich, die Fehlerstelle zu korrigieren. Tritt jedoch ein Doppelfehler auf, wie beispielsweise bei u = (1 0 1 0), v = (0 0 1 1 0 1 0) und r = (1 1 1 1 0 1 0), so kann er am Syndrom nicht eindeutig erkannt werden. Im Beispiel erhält man als Syndrom die vierte Spalte der Prüfmatrix s = (1 1 0). Der Korrekturversuch würde einen Fehler im detektierten Nachrichtenwort uˆ (0 0 1 0) erzeugen. Das Beispiel macht deutlich, dass der Einsatz der Kanalcodierung auf die konkrete Anwendung und Der Decoder kann ein falsches insbesondere auf den Kanal bezogen werden muss. Nachrichtenwort ausgeben, wenn Liegt ein AWGN-Kanal wie in Abschnitt 5 vor, sind ein nicht erkennbarer Restfehler die Übertragungsfehler unabhängig. Die Wahrscheinauftritt oder ein fehlerhafter Korlichkeit für einen Doppelfehler ist demzufolge viel rekturversuch durchgeführt wird. kleiner als für einen Einfachfehler. Der Korrekturversuch wird dann in den meisten Fällen erfolgreich sein. Liegt ein Kanal mit nur Fehlerpaaren vor, z. B. durch Übersteuerungseffekte denkbar, ist die Korrektur von Einzelfehlern sinnlos. Anmerkung: Ebenso wichtig für die praktische Auswahl des Kanalcodierverfahren sind die Einbeziehung der Eigenschaften der Sinke und die Frage nach den Randbedingungen der technischen Realisierung.
7.3.5
Hamming-Distanz und Fehlerkorrekturvermögen
Im vorhergehenden Abschnitten werden die grundsätzlichen Eigenschaften linearer binärer Blockcodes und der Syndrom-Decodierung vorgestellt und am Beispiel des (7,4)-HammingCodes veranschaulicht. Offen bleibt dort jedoch die Fragen: Was unterscheidet „gute Codes“ von schlechten und wie findet man gute Codes? Im Folgenden wird auf diese Fragen eine kurze einführende Antwort gegeben. Zum leichteren Verständnis des Decodiervorgangs benützt man die geometrische Vorstellung des Vektorraums. Bild 7-11 veranschaulicht einen Ausschnitt des n-dimensionalen binären Vektorraums mit den Codewörtern und den restlichen Vektoren. Der Nullvektor ist gesondert markiert. Der Encoder sende ein Codewort v1. Die Übertragung sei gestört. Es können die im letzten Abschnitt diskutierten drei Fälle auftreten:
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
232
c Im ersten Fall sei die Störung durch den Fehlervektor e1 beschrieben. Man erhält das Empfangswort r1 innerhalb der grau unterlegten Korrigierkugel zu v1. Die Korrigierkugel eines Codeworts ist dadurch gekennzeichnet, dass alle Empfangswörter in der Korrigierkugel bei der Decodierung auf das Codewort abgebildet werden. Im Beispiel wird ein Fehler erkannt und das richtige Codewort v1 decodiert. d Im zweiten Fall sei e2 wirksam. Das Empfangswort r2 liegt in der Korrigierkugel von v2, so dass die Detektion das falsche Codewort v2 ergibt. Da das Empfangswort kein Codewort ist, wird ein Fehler erkannt. e Im dritten Fall wird das Codewort durch e3 in das Codewort v2 verfälscht und ein nicht erkennbarer Restfehler tritt auf. c erkennbarer und korrigierbarer Fehler
d erkennbarer Fehler
e1 v2
r1
e Restfehler
e3
e2
v1
v2
v1
r2
v1 r3 = v2
Korrigierkugel zu v1 0
0
0
Bild 7-11 Vektorraum mit Codewörtern v und Empfangswörtern r
Aus dem Bild wird deutlich, dass für das Fehlerkorrekturvermögen des Codes die Abstände zwischen den Codewörtern wichtig sind. Da es sich um binäre Vektoren handelt, muss der Abstand geeignet gemessen werden. Man definiert den Abstand zweier binärer Vektoren als die Zahl ihrer unterschiedlichen Komponenten und nennt ihn Hamming-Distanz
d vi , v j
n 1
¦ vi,l v j,l
(7.40)
l 0
Äquivalent zu (7.40) ist die Formulierung mit dem Hamming-Gewicht, der Zahl der von „0“ verschiedenen Elemente eines Vektors.
d vi , v j
wH vi v j
(7.41)
Ein kleines Beispiel mit den Codewörtern v1 = (1101000) und v2 = (0110100) aus Tabelle 7-7 veranschaulicht die letzten beiden Definitionen. Die Hamming-Distanz der beiden Codewörter beträgt d v1 , v 2
1 0 1 1 0 1 1 0 0 1 0 0 0 0
4
(7.42)
und für das Hamming-Gewicht der Exor-Verknüpfung der beiden Codewörter gilt d v1 , v 2
wH v1 v 2
wH ª¬1011100 º¼
4
(7.43)
233
7.3 Kanalcodierung
Will man den für das Fehlerkorrekturvermögen entscheidenden minimalen Abstand zwischen den Codewörtern bestimmen, so ist die Hamming-Distanz für alle Codewort-Paare zu betrachten. Da wegen der Abgeschlossenheit des Vektorraumes jede Linearkombination von Codewörtern wieder ein Codewort ergibt, ist die minimale Hamming-Distanz zweier Codewörter gleich dem minimalen Hamming-Gewicht im Code ohne Nullvektor. d min
min wH v
(7.44)
vC \^0`
Im Beispiel des (7,4)-Hamming-Codes ergibt sich aus Tabelle 7-7 die minimale HammingDistanz dmin = 3. Für das Fehlerkorrekturvermögen folgt aus den bisherigen Überlegungen und Beispielen: Ein linearer binärer (n,k)-Blockcode mit minimaler Hamming-Distanz dmin t 2t + 1 kann dmin 1 Fehler erkennen und bis zu t Fehler korrigieren.
7.3.6
Perfekte Codes und Hamming-Grenze
In Bild 7-11 wird der Fall ausgeklammert, dass ein Empfangswort keiner Korrigierkugel eindeutig zuzuordnen ist. Man spricht von perfekten oder dichtgepackten Codes wenn alle Empfangswörter innerhalb der Korrigierkugeln liegen und somit auch bei Übertragungsfehlern eindeutig decodiert werden können. Nur wenige bekannte Codes sind wie die Hamming-Codes perfekt. Ein Code ist perfekt oder dichtgepackt, wenn alle Empfangswörter innerhalb der Korrigierkugeln liegen.
Aus den Überlegungen zu perfekten Codes kann die Anzahl der Prüfstellen abgeleitet werden, die notwendig sind, um t Fehler korrigieren zu können.
Geht man von einem dichtgepackten linearen binären (n,k)-Blockcode mit minimaler HammingDistanz dmin = 2t + 1 aus, so existieren genau 2k Codewörter und damit 2k Korrigierkugeln. In jeder Korrigierkugel sind alle Empfangsvektoren mit Hamming-Distanz d d t vom jeweiligen Codevektor enthalten. Dann ist die Zahl der Empfangswörter in jeder Korrigierkugel §n· §n· 1 n ¨ ¸ " ¨ ¸ 2 © ¹ ©t¹
t
§n·
¦ ¨© l ¸¹
(7.45)
l 0
Da die Anzahl der korrigierbaren Empfangswörter nicht größer als die Gesamtzahl aller Elemente im n-dim. binären Vektorraum sein kann, folgt t n § · 2n t 2k ¦ ¨ ¸ l l 0© ¹
und
(7.46)
234
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
t n § · 2n k t ¦ ¨ ¸ l l 0© ¹
(7.47)
Die Gleichheit gilt nur bei perfekten Codes. Die Gleichung (7.47) wird die Hamming-Grenze genannt. Sie verknüpft die Anzahl der Prüfstellen n k mit dem Fehlerkorrekturvermögen t des Codes. Am Beispiel des (7,4)-Hamming-Codes mit t = 1 verifiziert man (7.47) schnell. 27 4
7.3.7
1 §7· 8 t ¦¨ ¸ l 0©l ¹
§7· §7· ¨ ¸ ¨ ¸ 1 7 ©0¹ ©1¹
8
(7.48)
Restfehlerwahrscheinlichkeit
Ausgehend von den bisherigen Überlegungen kann die Wahrscheinlichkeit für einen nicht erkannten Übertragungsfehler bestimmt werden. Ein Übertragungsfehler wird nicht erkannt, wenn das gesendete Codewort in ein anderes Codewort verfälscht wird. Aus der Abgeschlossenheit des Codes (Vektorraums) C folgt, dass das Fehlerwort selbst ein Codewort sein muss. Damit sind alle Fehlermöglichkeiten bestimmt und die Summe ihrer Wahrscheinlichkeiten Unabhängigkeit vorausgesetzt liefert die Restfehlerwahrscheinlichkeit. Hierzu gehen wir von unabhängigen Übertragungsfehlern mit der Wahrscheinlichkeit Pe für jedes Element, der Bitfehlerwahrscheinlichkeit, aus. Damit beispielsweise das Fehlerwort e = (0011010) resultiert, müssen genau drei fehlerhafte und vier fehlerfreie Bits auftreten. Die Wahrscheinlichkeit hierfür ist (Pe)3(1Pe)4. Man erkennt: für die Wahrscheinlichkeit eines Fehlerwortes ist das Hamming-Gewicht von e entscheidend. Für die Restfehlerwahrscheinlichkeit sind alle möglichen Fehlerwörter in Betracht zu ziehen. Demzufolge kommt es auf die Häufigkeiten der Hamming-Gewichte im Code, die Gewichtsverteilung des Codes, an. Mit Ai gleich der Anzahl der Codewörter mit Hamming-Gewicht i erhält man die Restfehlerwahrscheinlichkeit n
PR
¦
Ai Pei (1 Pe ) n i
(7.49)
i d min
Für den (7,4)-Hamming-Code mit der minimalen Hamming-Distanz dmin = 3 kann die Gewichtsverteilung aus Tabelle 7-7 entnommen werden. Es gilt A0 = 1, A1 = A2 = 0, A3 = 7, A4 = 7, A5 = A6 = 0 und A7 = 1. Ist die Fehlerwahrscheinlichkeit Pe bekannt, liefert (7.49) die Restfehlerwahrschein- Tabelle 7-10 Restfehlerwahrscheinlichkeit PR des (7,4)Hamming-Codes für die Bitfehlerwahrlichkeit, siehe Tabelle 7-10. scheinlichkeit P e
Die Bestimmung der Gewichtsverteilung kann bei längeren Codes aufwändig sein. Deshalb ist es wünschenswert, die Restfehlerwahrscheinlichkeit ohne Kenntnis der Gewichtsverteilung
-3
-4
Pe
10
10
10-5
10-6
PR
7,010-9
7,010-12
7,010-15
7,010-17
235
7.3 Kanalcodierung abzuschätzen. Eine Abschätzung von oben liefert
PR
Pedmin
n
¦
i d min
Ai Pei dmin (1 Pe ) n i (2k 1) Pedmin
(7.50)
1
Beispiel (7,4)-Hamming-Code Bei einer binären Datenübertragung im Basisband werde ein (7,4)-Hamming-Code eingesetzt. Die Übertragung sei hinreichend genau durch das Modell eines AWGN-Kanals mit einem SNR von 6 dB und einer Bitrate von 16 kbit/s beschrieben. Wird ein Übertragungsfehler detektiert, so wird ein nochmaliges Senden des Codeworts veranlasst. a) Wie groß ist die Wahrscheinlichkeit, dass das Codewort ungestört übertragen wird? b) Wie groß ist die Wahrscheinlichkeit, dass ein Übertragungsfehler nicht detektiert wird? c) Welche effektive Netto-Bitrate, tatsächlich im Mittel übertragene Zahl an Nachrichtenbits, stellt sich bei der Übertragung ein? Lösungen a) Ein Codewort wird dann fehlerfrei übertragen, wenn jedes einzelne Bit des Codeworts fehlerfrei detektiert wird. Da bei der Übertragung im AWGN die Detektion der Bits unabhängig ist, gilt mit Pe, der Wahrscheinlichkeit für einen Bitfehler, für die gesuchte Wahrscheinlichkeit P0
1 Pe 7
(7.51)
Die Bitfehlerwahrscheinlichkeit kann Bild 5-16 entnommen werden Pe | 0, 023
(7.52)
Es resultiert die gesuchte Wahrscheinlichkeit für ein fehlerfrei übertragenes Codewort P0
1 0, 023 7 | 0,85
(7.53)
b) Die Wahrscheinlichkeit für einen unerkannten Übertragungsfehler, die Restfehlerwahrscheinlichkeit, ergibt sich nach (7.49) PR
7 0, 0233 0,977 4 7 0, 0234 0,9773 0, 0237 | 7,9 105
(7.54)
Die obere Schranke (7.50) liefert die gleiche Größenordnung PR (2k 1) Ped min
15 0, 0233 | 18 105
(7.55)
c) Die effektive Bitrate des Kanals verringert sich durch das Nachsenden fehlerhaft erkannter Empfangswörter. Im Mittel werden nur etwa 85% der Codewörter richtig empfangen. Der Fall des mehrmaligen Nachsendens wird der Einfachheit halber weggelassen. Der Fall der unerkannten Fehler kann hier wegen der kleinen Restfehlerwahrscheinlichkeit vernachlässigt werden.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
236
Die Zahl der tatsächlich pro Zeiteinheit übertragenen Nachrichtenbits ist nochmals kleiner, da die übertragenen Prüfbits abzuziehen sind. Man erhält insgesamt eine effektive Bitrate Rb,eff
k 4 0,85 16 kbit/s P0 Rb | | 7, 77 kbit/s n 7
(7.56)
Anmerkung: Das im Beispiel gewählte SNR von 6 dB liefert für eine Bitübertragung eine ungewöhnlich große Bitfehlerwahrscheinlichkeit. Dementsprechend ungewöhnlich groß ist auch der Verlust an effektiver Bitrate.
_______________________________________________________________ Ende des Beispiels Im Beispiel wird die Abhängigkeit der Bitfehlerwahrscheinlichkeit von dem SNR im Übertragungsmodell des AWGN-Kanals angesprochen. Hier ergibt sich ein Aspekt der digitalen Übertragung, der nicht übersehen werden darf. Der Einfachheit halber gehen wir von einer binären Übertragung mit konstanter „Nutz“-Bitrate und gleichbleibender mittlerer Sendeleistung aus. Weiter sei das typische Modell des AWGNKanals mit Matched-Filterempfänger aus Abschnitt 5.5 zugrunde gelegt. Dann ist das SNR (5.15) proportional zur Dauer des Sendegrundimpulses. Der Übergang von den Nachrichtenwörtern mit vier Elementen auf die Codewörter mit sieben bewirkt, dass statt vier jetzt sieben Sendegrundimpulse im gleichen Zeitintervall zu übertragen sind. Folglich verkürzen sich die Sendegrundimpulse auf 4/7 der Dauer im uncodierten Fall. Die Energie der Sendegrundimpulse nimmt nun ebenfalls um den Faktor 4/7 ab, so dass sich das SNR um ca. 2,4 dB verschlechtert. Oder umgekehrt, im uncodierten Fall läge ein SNR von 8,4 dB vor, was die Bitfehlerwahrscheinlichkeit (4-7) von Pb = 0,0043 ergibt. Im uncodierten Fall ist die Wahrscheinlichkeit für eine fehlerfreie Übertragung der vier Informationsbits wesentlich größer als in (7.53). P0
1 0, 0043 4 | 0,98
(7.57)
Zusammenfassend ist festzustellen: Durch die Codierung nimmt zunächst die Bitfehlerwahrscheinlichkeit wegen des reduzierten SNR bei der Übertragung zu. Diesen SNR-Verlust gilt es bei der Decodierung wettzumachen. Man spricht dann von einem Codierungsgewinn. Eine genauere Betrachtung des Problems führt auf ein Schwellenverhalten. Zunächst muss die Bitfehlerwahrscheinlichkeit durch konventionelle Mittel auf einen gewissen Wert reduziert werden, dann kann mit der Kanalcodierung die Bitfehlerwahrscheinlichkeit im Rahmen des Übertragungsmodells weitgehend beliebig klein gehalten werden.
237
7.3 Kanalcodierung
7.3.8
Eigenschaften und Konstruktion der Hamming-Codes
Eine wichtige Familie von einfachen linearen Blockcodes bilden die Hamming-Codes. Für jede natürliche Zahl m t 3 existiert ein Hamming-Code mit folgenden fünf Eigenschaften: Codewortlänge
n = 2m 1
Anzahl der Nachrichtenstellen
k=nm
Anzahl der Prüfstellen
m=nk
Fehlerkorrekturvermögen
t = 1, dmin = 3
Perfekter Code
;
Anmerkung: Anwendungen der Hamming-Codes finden sich beispielsweise im Kleinzellenfunkstandard Bluetooth und dem Mobilfunk nach GSM.
Die Konstruktion der Hamming-Codes erfolgt anhand der Prüfmatrix (7.35). Folgende Überlegungen liefern die Konstruktionsvorschrift. c Entsprechend den früheren Ergebnissen zur Syndrom-Decodierung kann jeder Einzelfehler nur dann eindeutig erkannt werden, wenn alle Spalten der Prüfmatrix paarweise verschieden sind. d Damit die Bedingung für die minimale Hamming-Distanz, dmin = 3, erfüllt ist, muss jede Zeile der Generatormatrix G mindestens dreimal eine „1“ enthalten, weil jede Zeile von G selbst ein Codewort ist. Aus (7.34) folgt, dass dann jede Zeile der Matrix P bzw. jede Spalte der transponierten Matrix PT mindestens zweimal eine „1“ aufweist. e Die transponierte Matrix PT liefert k unabhängige Spalten mit je m Zeilen zur Prüfmatrix. Da die Zeilenelemente der Spalten nur mit „0“ oder „1“ belegt werden können, existieren zunächst 2m Möglichkeiten verschiedene Spalten anzugeben. Weil in jeder Spalte mindestens zweimal eine „1“ vorkommen muss, sind die Spalten mit nur null (1 Möglichkeit) und nur einer eins (m Möglichkeiten) nicht zugelassen. Es verbleiben genau 2m m 1 = k Möglichkeiten unterschiedliche Spalten anzugeben.
Daraus folgt: Die Spalten der transponierten Matrix PT werden durch alle m-Tupel mit Hamming-Gewicht t 2 gebildet.
Beispiel (15,11)-Hamming-Code Das Beispiel des (15,11)-Hamming-Codes verdeutlicht den Zusammenhang.
H 4u15
§ ¨ 1 0 0 0 ¨ ¨ 0 1 0 0 ¨ 0 0 1 0 ¨ 0 0 0 1 ¨
¨ I4 ©
1 0 0 1 0 1
1 0 1 1
1 1 0 0 1 0 0 1 1 1 0 0 0 0 1 0 1 1
1 1 0 1 1 1 1 0 0 1 1 1
Hamming Gewicht
wH 2
wH 3
· 1 ¸ ¸ 1 ¸ 1 ¸ ¸ 1 ¸ N ¸ wH 4 ¹
Aus der Prüfmatrix kann mit (7.35) und (7.34) die Generatormatrix bestimmt werden.
(7.58)
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
238
G11u15
7.3.9
§ · ¨ 1 1 0 0 1 0 0 0 0 0 0 0 0 0 0 ¸ ¨ ¸ 0 1 0 0 0 0 0 0 0 0 0 ¸ ¨ 0 1 1 0 ¨ 0 0 1 1 0 0 1 0 0 0 0 0 0 0 0 ¸ ¨ ¸ 0 0 0 1 0 0 0 0 0 0 0 ¸ ¨ 1 0 1 0 ¨ ¸ 0 0 0 0 1 0 0 0 0 0 0 ¸ ¨ 0 1 0 1 ¨ 1 0 0 1 0 0 0 0 0 1 0 0 0 0 0 ¸ ¨ ¸ 0 0 0 0 0 0 1 0 0 0 0 ¸ ¨ 1 1 1 0 ¨ 0 1 1 1 0 0 0 0 0 0 0 1 0 0 0 ¸ ¨ ¸ 0 0 0 0 0 0 0 0 1 0 0 ¸ ¨ 1 0 1 1 ¨ 1 1 0 1 0 0 0 0 0 0 0 0 0 1 0 ¸ ¨ ¸ ¨ 1 1 1 1 0 0 0 0 0 0 0 0 0 0 1 ¸
¸ ¨ P I11 11u4 © ¹
(7.59)
CRC-Codes
Sollen Daten, z. B. beim Online-Aktualisieren der Betriebssystem-Software, über das Internet oder LAN übertragen werden, so ist eine zuverlässige Erkennung von Bitfehlern in den Übertragungsrahmen unverzichtbar. Als wichtigstes Hilfsmittel hierfür haben sich Cyclic Redundancy Check (CRC) Codes etabliert. In den einschlägigen Protokollen, siehe Abschnitt 6, werden ihre Prüfsummen in den Rahmenfeldern CRC, FCS (Frame Check Sequence), kurz auch Checksum, und HEC (Header Error Control) sichtbar. Für CRC-Codes sprechen die herausragenden Fehlererkennungseigenschaften und die flexible und effiziente Implementierung. Eine Fehlerkorrektur ist in gewissen Grenzen möglich. Auf sie wird jedoch in der Regel zu Gunsten einer zuverlässigeren Fehlererkennung verzichtet. Bild 7-12 zeigt das Prinzip der Fehlerprüfung. Die Berechnung der binären Prüfsumme FCS aus dem binären Nachrichtenwort u ist allgemein eine Funktion f (u). Das binäre Codewort v der Länge n liegt in systematischer Form vor, d. h. in k Nachrichtenstellen und (nk) Prüfstellen getrennt. Bei der Übertragung können in allen Elementen Bitfehler auftreten. Dabei wird angenommen, dass einzelne Bitfehler (Bit Error) oder Gruppen von Bitfehlern, Fehlerbündel (Error Burst) genannt, quasi zufällig im binären Empfangswort r auftauchen. Im Empfänger wird aus r der empfangene Nachrichtenanteil ur entnommen und eine Berechnung der Prüfsumme FCSr vorgenommen. Sind die empfangene Prüfsumme FCSr und die vor Ort berechnete Prüfsumme FCSc verschieden, so liegt ein Übertragungsfehler im Nachrichtenteil und/oder der Prüfsumme vor. Man beachte: Die umgekehrte Aussage ist nicht richtig! Trotz identischer Prüfsummen kann eine Verfälschung eines Codewortes in ein anderes Codewort, ein so genannter Restfehler, vorliegen. Die Wahrscheinlichkeit für einen Restfehler ist allerdings bei den üblichen CRC-Codes gering, wie noch gezeigt wird.
239
7.3 Kanalcodierung
Encoder
Sender
Rahmenprüfsumme
FCS = f (u)
Nachrichtenwort
Codewort
u
u
FCS
v
Kanal Empfänger
Decoder
Fehler entdeckt
r
ur
FCSr
Empfangswort
nein FCSr = FCSc ?
FCSc = f (ur)
ja kein Fehler entdeckt Bild 7-12 Prinzip der Fehlerprüfung
Die Fehlerprüfung durch CRC-Codes beruht darauf, dass alle Codewörter als Produkt aus dem zugehörigen Nachrichtwort und einem, den Code erzeugenden Generatorwort dargestellt werden können. Mathematisch geschieht das mit der Polynomdarstellung der binären Nachrichtenwörter, Codewörter und Generatorwörter. Man spricht von Polynomen über dem GaloisKörper GF(2). Das heißt, die Bits der Wörter bilden entsprechend ihrem Platz im Wort die Koeffizienten der zugeordneten Polynome. Den eineindeutigen Zusammenhang zwischen der Vektordarstellung (Blockdarstellung) und der Polynomdarstellung zeigt das Zahlenwertbeispiel. u
(u0
u1 u2 )
(0 1 1) l u ( X )
u0 X 0 u1 X 1 u2 X 2
X X2
(7.60)
In der Polynomdarstellung spielt die Variable X selbst keine Rolle, außer dass der zugehörige Exponent die Position des Koeffizienten im Vektor anzeigt. Gerechnet wird mit den Polynomen wie gewohnt. Nur die Rechenoperationen der binären Koeffizienten werden nach der bekannten Modulo-2-Arithmetik durchgeführt. CRC-Codes stellen eine Erweiterung der Hamming-Codes dar. Um Nachrichtenwörter, die mehrer tausend Bits umfassen, effektiv zu codieren und zu decodieren, sind die Codier- und Decodiervorschrift mit der Generatormatrix bzw. Prüfmatrix nicht geeignet. Hier sind effektive Algorithmen notwendig, die nur von zusätzlichen Strukturen im Code abgeleitet werden können. Eine wichtige Familie derartiger Codes sind die zyklischen linearer (n,k)-Blockcodes. Sie kennzeichnet zusätzlich, dass jede zyklische Vertauschung eines Codewortes stets wieder ein Codewort liefert. Diese zunächst wenig auffällige Eigenschaft liefert die Grundlage der CRC-Codes. Um den hier abgesteckten Rahmen nicht zu sprengen, wird auf die mathematische Herleitung zugunsten einer ausführlicheren Vorstellung der Anwendung verzichtet. Die mathematische Herleitung und weitere Literaturhinweise findet man z. B. in [Fri95], [LiCo04], [Wer08d].
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
240
Ausgehend von einem primitiven Polynom p(x) mit einem Grad m eines zyklischen HammingCodes, wird das den Code erzeugende Generatorpolynom als Produkt definiert g( X )
(1 X ) p ( x)
(7.61)
Ein derartiger Code wird auch Abramson-Code genannt. In Tabelle 7-11 sind einige wichtige meist von der ITU empfohlene Beispiele zusammengestellt. Es ergibt sich ein binärer zyklischer (n,k)-Code mit der Codewortlänge n, der Zahl der Prüfstellen r, gleich dem Grad des Generatorpolynoms, und der Zahl der Nachrichtenstellen k 2m 1 ; r
n
m 1 ; k
nr
(7.62)
Anmerkungen: (i) Der aus dem zyklischen (n,m)-Hamming-Code entstandene (n,k)-CRC-Code hat die gleiche Codewortlänge wie der Hamming-Code. Durch die Code-Erweiterung ist die zu codierende Nachricht um eine Stelle verkürzt. Aus dem zyklischen (7,4)-Hamming-Code (m = 3) wird durch die Code-Erweiterung der (7,3)-CRC-Code (r = 4) (ii) Ein Polynom p(x) vom Grad m über GF(2) wird primitiv genannt, wenn es (a) irreduzibel ist, d. h. durch kein anderes Polynom mit Grad größer null und kleiner m ohne Rest geteilt werden kann, und (b), wenn die kleinste Zahl n für die p(x) das Polynom X n + 1 ohne Rest teilt, n = 2m 1 ist. (iii) Primitive Polynome findet man durch gezieltes Probieren mit dem Computer oder entnimmt sie aus Tabellen in der Literatur. (iv) Eine Erweiterung der Theorie auf nichtbinäre Codes liefert die in der Informationstechnik häufig verwendeten Reed-Solomon- (RS-) und die Bose-Chaudhuri-Hoquenhem (BCH-) Codes. (v) Man beachte, der Begriff CRC wird in der Literatur auch verwendet, wenn ein zyklischer Code eingesetzt wird, z. B. bei GSM in der Sprachübertragung oder bei der ISDN S2M-Schnittstelle. Tabelle 7-11 Generatorpolynome einiger wichtiger CRC-Codes (Abramson-Codes)
Generatorpolynom g(X)
Code 2
4
1+X +X +X
CRC-5 1
2
8
2
5
1+X+X +X
CRC-8
Bluetooth DM-Rahmen Header Error Control (HEC) bei ATM 7
1+X+X +X +X +X
CRC-121 3
CRC-16 (IBM ) 1
1 + X + X 2 + X 3 + X 11 + X 12
UMTS
2
15
5
12
1+X +X
+X
16
+X
16
firmenspezifische Lösung
CRC-24
5
6
1+X+X +X +X
23
2
4
5
2 3
HEC bei Bluetooth UMTS2
1+X +X
1
8
1 + X + X 3 + X 4+ X 7 + X 8
CRC-16
CRC-321
Anwendung
5
HDLC, LAPD, PPP, Bluetooth, UMTS, u. a. +X
24
7
UMTS 8
1+X+X +X +X +X +X +X + X 12 + X 16 + X 22 + X 23 + X 26 + X 32
10
+
HDLC, PPP, ATM AAL-Typ 5, u. a.
Comite Consultatif International des Télégraphes et Téléphones (CCITT), 1956 aus der International Telephone Consultative Committee (CCIF, 1924) und International Telegraph Consultative Committee (CCIT, 1925) entstanden. 1993 in der International Telecommunication Union (ITU) aufgegangen. Universal Mobile Telecommunications System (UMTS) International Business Machines (IBM), in den USA häufiger verwendet
241
7.3 Kanalcodierung
Die durch ein Generatorpolynom nach (7.61) definierten CRC-Codes haben bzgl. der Fehlererkennung besondere Eigenschaften: Alle Fehlermuster bis zum Hamming-Gewicht drei, d. h. bis zu drei fehlerhaften Bits im Empfangswort, werden erkannt. Alle Fehlermuster mit ungeradem Gewicht werden erkannt, also 1, 3, 5, 7, 9, … Bitfehler. Alle Fehlerbündel1 bis zur Länge m + 1 werden erkannt. Von allen möglichen Fehlerbündeln1 der Länge m + 2 wird nur eine Quote von 2m nicht erkannt. Von allen möglichen Fehlerbündeln1 mit größerer Länge als m + 2 wird nur eine Quote von 2(m+1) nicht erkannt. 1
einschließlich der End-Around-Fehlerbündel, siehe Bild 7-13.
Anmerkung: Zyklische Codes mit Generatorpolynomen mit Grad r, haben das gleiche Fehlererkennungsvermögen bzgl. der Fehlerbündel wie die CRC-Codes, wenn oben r statt m + 1 gesetzt wird.
0 ... 0 1001 0 … 0 0 ... 0 1101 0 … 0 0 ... 0 1011 0 … 0 0 ... 0 1111 0 … 0
0 ... 0 10001 0 … 0 0 ... 0 10111 0 … 0 0 ... 0 11111 0 … 0 0 ... 0 11001 0 … 0
Fehlerbündel der Länge 4
Fehlerbündel der Länge 5
11 0 ... 0 101 End-AroundFehlerbündel der Länge 5
Bild 7-13 Beispiele für Codewörter mit Fehlerbündel mit „1“ für einen Bitfehler und „0“ für keinen Bitfehler
Beispiel CRC-16-Codes Der CRC-16-Code in Tabelle 7-11 besitzt ein Generatorpolynom mit Grad r = m + 1 = 16. Den Nachrichten werden in den Codewörtern je 16 Prüfzeichen beigestellt. Die Länge der Codewörter beträgt n = 2m1 = 215 = 32768. Davon sind k = 32752 Nachrichtenstellen. Damit lassen sich binäre Nachrichten mit bis zu 212 = 2048 Oktette codieren. Anmerkungen: (i) Kürzere Nachrichten können gedanklich durch vorangestellte Bits mit den Werten null passend verlängert werden. Praktischerweise lässt man sie weg, so dass kein zusätzlicher Aufwand entsteht. Man spricht dann von verkürzten Codes. (ii) Verkürzte Codes haben weniger Bits und damit weniger mögliche Positionen für Bitfehler. Die Fehlerwahrscheinlichkeit, d. h. insbesondere auch die Restfehlerwahrscheinlichkeit, wird dadurch kleiner.
Durch den CRC-16-Code werden alle Fehlerbündel der Länge r = 16 erkannt. Sind im gesicherten Teil des Rahmens maximal zwei benachbarte Oktette von Bitfehlern betroffen, so wird ein Fehler angezeigt. Von Fehlerbündeln der Länge 17 werden 1215, d. h. mehr als 99,996 %, erkannt. Bei allen längeren Fehlerbündeln ist die Erkennungsquote größer als 99,9998 %. Bei den berechneten Quoten ist noch nicht berücksichtigt, dass alle Fehlerereignisse mit drei oder weniger Bitfehlern und alle ungeraden Anzahlen von Bitfehlern durch die Fehlerprüfung erkannt werden. _______________________________________________________________________________ Ende des Beispiels
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
242
Bevor ein praktisches Zahlenwertbeispiel zur Fehlerprüfung vorgestellt werden kann, ist noch eine Modifikation des Algorithmus einzuführen. Die theoretischen Überlegungen gehen von der Produktdarstellung der Codewörter mit dem Generatorpolynom (7.61) aus. Dies führt allerdings nicht zu systematischen Codes. Mit einer relativ einfachen Modifikation kann ein äquivalenter systematischer Code angegeben werden. Es ergibt sich ein systematischer CRCCode mit gleichen Eigenschaften, wenn die um r Positionen verschobenen Nachrichtenwörter mit ihren Divisionsresten zu Codewörtern ergänzt werden. In der Polynomdarstellung X r u ( X ) b( X )
v( X )
(7.63)
Darin ist b(X) der Rest, der sich nach Division von X ru(X) mit dem Generatorpolynom ergibt b( X )
X r u( X ) mod g ( X )
(7.64)
Das Verfahren ermöglicht unmittelbar die Fehlerprüfung nach Bild 7-12. Es wird nachfolgend an einem Beispiel erläutert.
Beispiel CRC-4-Code - Codierung und Fehlerprüfung Für das Beispiel wählen wir den CRC-4-Code mit dem Generatorpolynom mit Grad r = 4. g( X )
(1 X ) p( x)
(1 X ) (1 X X 3 ) 1 X 2 X 3 X 4
(7.65)
Anmerkungen: (i) Man beachte die Modulo-2-Arithmetik in den Polynomkoeffizienten mit 11 = 0. (ii) p(x) = 1 + X + X 3 ist das primitive Polynom zum zyklischen (7,4)-Hamming-Code.
Es resultiert ein (7,3)-CRC-Code mit der Codewortlänge n = 7 und k = 3 Nachrichtenstellen. Die Codierung stellen wir beispielhaft für das Nachrichtenwort u = (1 0 1) vor. Hierfür dividieren wir X 4 u(X) durch das Generatorpolynom g(X) mit dem euklidischen Divisionsalgorithmus in Tabelle 7-12. Wir erhalten das Codepolynom v(X) = X 6 + X 4 + X + 1 bzw. den Codevektor v = (1 1 0 0 1 0 1). Das Empfangswort wird auf die Zugehörigkeit zum Code geprüft. Dazu führen wir erneut die Division mit dem Generatorpolynom durch, siehe Tabelle 7-13. Wie gefordert ergibt sich das Nullpolynom 0(X) als Rest. Bei der Decodierung spricht man von dem Syndrom s(X), da im Falle s(X) z 0(X) ein Fehler sicher erkannt wird. Tabelle 7-12 Euklidischer Divisionsalgorithmus für die Codierung des CRC-4-Codes
verschobene Nachricht X6 X6
Generatorpolynom
+X 4 +X 5
:
+X 4
+X 2
X5 X5
X4+X3+X2+1
+X 2 +X 4
+X 3
+X
4
+X
3
+X
4
+X
3
+X +X
2
+X
2
+X +1 X
+1
= b(X) Rest
Faktor =
X2 + X + 1
243
7.3 Kanalcodierung
Euklidischer Divisionsalgorithmus für die Syndromberechnung (Fehlerprüfung) mit dem Empfangswort r = v = (1 1 0 0 1 0 1)
Tabelle 7-13
Empfangspolynom X6
Generatorpolynom
+X 4
X6
+X 5
+X 4
X
+X 2 +X
4
+X
4
+X
4
+1
+X
+1
:
X4+X3+X2+1
=
X2 + X + 1
+X 2
X5 5
+X
Faktor
+X
3
+X
3
+X
3
+X +X
2
+1
+X
2
+1 0
= 0(X) = s(X) Syndrom
Anmerkungen: (i) Syndrom, griechisch für das Symptom in der Medizin, an dem eine Krankheit erkannt werden kann. (ii) Der systematische Aufbau der Tabelle 7-12 und Tabelle 7-13 und ihrer Einträge verifiziert die allgemeine Gültigkeit des Codierverfahrens. Dass die guten Eigenschaften der Fehlererkennung des CRC-Codes zu g(X) tatsächlich vorliegen, d. h. der Code äquivalent ist, kann allgemein gezeigt werden.
Die Fehlererkennung demonstrieren wir an zwei Beispielen. Im ersten bringen wir einen Bitfehler in der ersten Nachrichtenstelle im Codewort ein und berechnen das Syndrom in Tabelle 7-14. Tabelle 7-14
Euklidischer Divisionsalgorithmus für die Syndromberechnung (Fehlerprüfung) mit dem Empfangswort r = (1,1,0,0,0,0,1), also Fehler bei r4
Empfangspolynom mit Fehler X
6
X6
+X 5
+X 4
X5
+X 4
5
4
X
+X
Generatorpolynom
+X
+1
+X
+1
:
4
3
2
X +X +X +1
Faktor =
X2 + X
+X 2
+X
3
+X
3
+X +1
= s(X) z 0(X) Syndrom zeigt Fehler an!
Im zweiten Beispiel verifizieren wir die Behauptung, dass eine ungerade Anzahl von Bitfehlern stets erkannt wird. Dazu nehmen wir alle sieben Bits als gestört an und berechnen das Syndrom in Tabelle 7-15. Das Syndrom zeigt wie erwartet den Fehler an. _______________________________________________________________________________ Ende des Beispiels
Die Codier- und Decodier-Algorithmen auf der Basis des euklidischen Divisionsalgorithmus sind oben in Form von systematischen Bearbeitungen von Tabellen realisiert. Eine Umsetzung in eine relativ einfache Hardware ist deshalb möglich. Es wird im Encoder und Decoder jeweils ein linear rückgekoppeltes Schieberegister benötigt. Die prinzipiellen Schaltungen erklären sich am einfachsten anhand eines Beispiels.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
244 Tabelle 7-15
Euklidischer Divisionsalgorithmus für die Syndromberechnung (Fehlerprüfung) mit dem Empfangswort r = (0 0 1 1 0 1 0) Empfangspolynom
+X
5
+X
5
+X
4
+X
4
+X
4
+X
3
+X
3
+X
3
+X 3
Generatorpolynom
+X
2
+X
2
+X
2
:
4
3
2
X +X +X +1
Faktor =
X+1
+X +X +1 +X
+1
Syndrom zeigt Fehler an!
Beispiel CRC-4-Code Schaltungen zur Syndromberechnung Wir beginnen der Einfachheit halber mit der Schaltung zur Syndromberechnung. Sie führt die Polynomdivision entsprechend dem euklidischen Divisionsalgorithmus wie in Tabelle 7-13 durch. Die Schaltung und ihre Funktion werden in Bild 7-14 gezeigt. Sie besteht aus einer Kette von sieben (n) 1-Bit-Registern. Die vier (r) letzten Register, s0 bis s3 (sr), sind die Syndromregister. Sie enthalten nach drei (k) Takten den Divisionsrest, das Syndrom. Dabei wird in zwei Phasen vorgegangen. Anmerkungen: (i) Die Ergänzungen in Klammern beziehen sich auf den allgemeinen Fall eines (n,k)CRC-Codes. (ii) Im Fall eines verkürzten Codes werden die nicht übertragenen Bits übersprungen.
Im ersten Schritt, der Ladephase, wird das Empfangswort rechtsbündig in die Registerschaltung geladen, d. h. s3 (sr) enthält v6 (vn1), s2 (sr1) enthält v5 (vn2), usw. In Bild 7-14 sind für v = (u0 u1 u2 u3 u4 u5 u6) = (1 1 0 0 1 0 1) die Werte in der Zeile für den Takt „0“ eingetragen. Mit dem zweiten Schritt beginnt die Rückführungsphase. Das ganz rechte Syndromregister s3 (sr) koppeln wir entsprechend dem Generatorpolynom g(X) = (g0 g1 g2 g3) = (1 0 1 1) zurück. Dabei wird jeweils eine Modulo-2-Addition eingesetzt. Nach dem ersten Takt erhalten wir in Bild 7-14 die zweite Zeile der Tabelle, nach dem zweiten Takt die dritte, usw. Nach drei (k) Takten resultiert der Divisionsrest in den Syndromregistern. Im Beispiel ist das Empfangswort ein Codewort. Das Syndrom ist demzufolge das Nullpolynom. _______________________________________________________________________________ Ende des Beispiels
Anmerkung: Unter Berücksichtigung der Eigenschaften des Galois-Körper GF(2) handelt es sich bei der Schaltung um ein rekursives lineares zeitinvariantes System. Man spricht deshalb auch von einem linear rückgekoppelten Schieberegister.
Die Codierung mit einer Schieberegister-Schaltung, d. h. Ergänzen der Nachricht durch den Divisionsrest, geschieht ähnlich wie die Syndromberechnung. Durch eine leichte Modifikation ergibt sich eine besonders effiziente Schaltung. Zur Codierung ist die verschobene Nachricht, allgemein X r u(X), durch das Generatorpolynom zu dividieren. Die Verschiebung des Nachrichtenwortes um r Positionen nach rechts vor der Division ist äquivalent zu einer Einspeisung des Nachrichtenwortes nach dem Syndromregister sr.
245
7.3 Kanalcodierung
g0 Empfangswort
g1 = 0 s0
g2
s1
Takt
g3
s2
s3
Syndromregister
0
1
1
1
0
0
1
0
1
1
1
1
0
0
1
1
0
1
1
1
0
0
0
0
2 3
Bild 7-14 Schieberegister-Schaltung zur Syndromberechnung für den CRC-4-Code mit Generatorpolynom g(X) = 1 + X 2 + X 3 + X 4
Beispiel CRC-4-Code Schaltungen zur Codierung Die Schaltung zur Codierung des CRC-4-Codes ist in Bild 7-15 zu sehen. Sie arbeitet in zwei Phasen, gekennzeichnet durch die Schalterstellungen c bzw. d. In der ersten Phase wird unten die Nachricht in drei (k) Takten in das Codewortregister geschoben und gleichzeitig oben in den b-Registern der Divisionsrest berechnet. Danach wird in der zweiten Phase in vier (r) Takten der Divisionsrest als Prüfstellen b0 bis b3 unten in das Codewortregister geschoben. Damit es dabei zu keiner Neuberechnung in den b-Registern kommt, wird oben die Rückführung aufgetrennt. Es ergibt sich schließlich das systematische Codewort, das nun übertragen werden kann. Das Zahlenwertbeispiel in Tabelle 7-12 kann in Bild 7-15 ganz entsprechend zu Bild 7-14 nachvollzogen werden. d Schalter g0
g2 b0
b1
Nachrichtenwort
g3 b2
u0
u1
b3
u2
S2
c
Schalter d S1
c
Codewort v0
v1
v2
v3
v4
v5
v6
b0
b1
b2
b3
u0
u1
u2
Bild 7-15 Schieberegister-Schaltung zur Codierung für den CRC-4-Code mit Generatorpolynom g(X) = 1 + X2 + X 3 + X 4
Anmerkung: Da im Internet nicht alle Stationen über spezielle Hardware zur Codierung und Decodierung der CRC-Codes verfügen, wird oft ein schneller Algorithmus eingesetzt, der sich auf eine oktettweise Decodierung mit vorbereiteten Tabellen stützt. Es wird eine Geschwindigkeit mit höherem Speicherbedarf erkauft.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
246
Beispiel (10,15)-CRC-Code für Bluetooth Durchsatz Für die Datenübertragung in Kleinzellenfunknetzen mit Bluetooth ist ein Rate-2/3-Code optional. Es wird der zu übertragende Bitstrom in Blöcke à 10 Bits zerlegt und jeder Block um 5 Prüfbits ergänzt. Zum Einsatz kommt der (10,15)-CRC-Code mit dem Generatorpolynom aus Tabelle 7-11. (1 X ) p( x)
g( X )
(1 X ) (1 X X 4 ) 1 X 2 X 4 X 5
(7.66)
Aus dem Generatorpolynom leitet sich die Schaltung des systematischen Encoders in Bild 7-16 ab. Anmerkung: Eine Schaltung zur Decodierung mit Korrektur eines einzelnen Bitfehlers, Meggitt-Decoder genannt, findet man z. B. in [Wer8d].
d Schalter g0
g2 b0
b1
g4 b2
b3
S2
c b4
Schalter
d S1
Nachrichtenwort u0
u1
u2
u3
u4
u5
u6
u7
u8
u9
v0
v1
v2
v3
v4
v5
v6
v7
v8
v9 v10 v11 v12 v13 v14
b0
b1
b2
b3
b4
u0
u1
u2
u3
u4
c
Codewort
u5
u6
u7
u8
u9
Bild 7-16 Schieberegister-Schaltung zur Codierung für den (10,15)-CRC-Code mit Generatorpolynom g(X) = 1 + X 2 + X 4 + X 5
Der CRC-Code erlaubt die Korrektur eines Bitfehlers und besitzt die oben genannten Fehlererkennungseigenschaften. Gehen wir vom üblichen Fehlermodell der unabhängigen Einzelfehler mit einer typischen Bitfehlerwahrscheinlichkeit von Pe = 103 aus, so ist die Wahrscheinlichkeit für eine fehlerfreie (successful) Übertragung bzw. fehlerhafte Ps
P0 P1
(1 Pe )15 15 Pe (1 Pe )14 Ps
1 14 Pe (1 Pe )14 | 0,999896
1 Ps | 1, 041 10
4
(7.67)
Die Wahrscheinlichkeit für einen unerkannten Fehler, einen Restfehler, kann mit der minimalen Hamming-Distanz dmin = 3 nach (7.50) abgeschätzt werden.
PR 2k 1 Ped min
210 1 Pe3
1, 023 106
(7.68)
247
7.3 Kanalcodierung
Von allen Fehlerbündel beliebiger Länge werden bei einem CRC-Code höchstens 2m =24 = 1/16 nicht erkannt. Also kann die obere Grenze für den Restfehler noch etwas enger gezogen werden.
PR 2 m 2k 1 Ped min
0, 64 106
(7.69)
Anmerkung: Die tatsächliche Restfehlerwahrscheinlichkeit lässt sich durch eine Monte-Carlo-Simulation schätzen.
Für Anwender ist der Datendurchsatz wichtig, d. h. wie viele Bits werden pro Zeit im Mittel übertragen. Mit obigen Überlegungen sind die Grundlagen gelegt, um der Frage nach dem Durchsatz noch etwas nachzugehen und wertvolle Hinweise für die Anwendung zu gewinnen. Die Funkübertragung geschieht bei Bluetooth im Zeitmultiplex mit Zeitschlitzen der Dauer von 625 Ps. Unter anderem sind für die (Daten-)Rahmen (Baseband Packet) die drei Formate, DM1, DM3 und DM5 (Data medium speed) definiert. Dabei belegen die Rahmen 1, 3 bzw. 5 Zeitschlitze. Sie enthalten 240, 1500 bzw. 2745 Bits im jeweiligen Datenfeld, so dass bei der Coderate 2/3 160, 1000 bzw. 1830 Informationsbits pro Rahmen übertragen werden. Ein Rahmen wird störungsfrei übertragen, wenn alle Codewörter richtig empfangen werden die relativ unwahrscheinlichen Restfehler können vernachlässigt werden. Damit ergibt sich mit L, der Anzahl der Codewörter im Rahmen, die Wahrscheinlichkeit für die erfolgreiche Übertragung bzw. nicht erfolgreiche
Ps , Rahmen
PsL bzw. Ps , Rahmen
1 PsL
(7.70)
Dementsprechend beträgt der relative Durchsatz an Rahmen Drel
Ps, Rahmen
ª (1 Pe )15 15 Pe (1 Pe )14 º ¬ ¼
L
(7.71)
Einen interessanten Aufschluss über die Leistungsfähigkeit der Formate in Abhängigkeit von der Übertragungsqualität liefert die Auswertung des relativen Durchsatzes bzgl. der Zahl der übertragenen Nachrichtenbits und der belegten Zeitschlitze für typische Bitfehlerwahrscheinlichkeiten. Die Berechnung der Formel (7.71) für die drei Formate liefert die Grafen in Bild 7-17. Bei geringer Bitfehlerwahrscheinlichkeit, links im Bild, liefert das Format DM5 den größten Durchsatz. Nimmt die Bitfehlerwahrscheinlichkeit zu, nimmt der Durchsatz ab, da weniger Rahmen erfolgreich übertragen werden. Etwa ab der Bitfehlerwahrscheinlichkeit 3103 schneidet das Format DM3 besser ab; die Wahrscheinlichkeit eines Bitfehlers ist bei kürzerem Rahmen geringer. Ab der Bitfehlerwahrscheinlichkeit von ca. 102 ist es günstiger das Rahmenformat DM1 zu verwenden. Die relativ einfachen Modellüberlegungen zeigen bereits, dass es für einen möglichst hohen Durchsatz vorteilhaft ist, unterschiedliche Rahmenlängen zu definieren und die Formate entsprechen der Übertragungsqualität umzuschalten. Insbesondere liefert Bild 7-17 mit den beiden Schnittpunkten der Grafen (o) Zahlenwerte für die Umschaltpunkte. Anmerkungen: (i) In der Literatur werden unter Berücksichtigung weiterer Bluetooth-spezifischer Überlegungen für die drei Rahmenformate im ungestörten Fall die gerundeten Werte 109, 387 bzw. 478 kbit/s als maximale Durchsätze angegeben. (ii) Ähnliche Überlegungen zeigen, dass bei einem Verzicht auf die Rate 2/3-Codierung mit Fehlerkorrektur der Durchsatz bereits ab einer Bitfehlerrate von 103 deutlich einbricht.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
248
400
DM5
Durchsatz in Bit pro Zeitschlitz
350 300
DM3
250 200 150
DM1 100 50 0 -4 10
-3
10
-2
10
-1
10
Bitfehlerwahrscheinlichkeit Pe Bild 7-17 Bitdurchsatz bei Bluetooth für die drei Rahmenformate DM1, DM3 und DM5 in Abhängigkeit von der Übertragungsqualität, der Bitfehlerwahrscheinlichkeit Pe
7.4
Zusammenfassung
Information ist in unserer alltäglichen Vorstellung subjektiv und kontextbezogen. Formulierungen wie „wichtige Information“ oder „irreführende Information“ machen das deutlich. Will man Information im physikalisch-technischen Sinne erfassen, so ist eine Definition als messbare Größe notwendig. Hier hat sich die axiomatische Definition durch Shannon bewährt. Zu deren Verständnis geht man von der Vorstellung aus, dass Information Ungewissheit auflöst. Ungewissheit herrscht überall da, wo ein Zufallsexperiment stattfindet. Ist der Versuchsausgang bekannt, so ist die Ungewissheit beseitigt. Jedes Ereignis eines Zufallsexperimentes besitzt demzufolge einen Informationsgehalt. Shannon weist den Ereignissen eines Zufallsexperimentes nach ihren Auftrittswahrscheinlichkeiten einen Informationsgehalt zu. Dabei erweist es sich als nützlich, das Negative der Logarithmusfunktion der Auftrittswahrscheinlichkeit zu verwenden. Im Falle des Zweierlogarithmus wird die Pseudoeinheit „bit“ gesetzt. Sie spiegelt die praktische Anwendung wider. So kann eine Informationsquelle mit mittlerem Informationsgehalt, Entropie genannt, nach dem Quellencodierungstheorem auch prinzipiell durch einen binären Code dargestellt werden, dessen mittlere Codewortlänge in Binärzeichen beliebig nahe an die Entropie herankommt. Ein praktisches Verfahren hierzu ist die redundanzmindernde HuffmanCodierung. Zu der Frage „Was ist Information?“ kommt in der Nachrichtentechnik eine zweite wichtige Frage hinzu: wie kann die Information gegen technische Fehler bei der Übertragung und Speicherung geschützt werden? Die Antwort darauf liefert die Kanalcodierung. Durch gezieltes hinzufügen von Prüfzeichen können Fehler erkannt und gegebenenfalls korrigiert werden. In einfacher Form geschieht dies
249
7.5 Aufgaben zu Abschnitt 7
bei Paritätscodes. Eine wichtige Familie von Kanalcodierverfahren sind die linearen Blockcodes, wie z. B. die Hamming-Codes. Die Codewörter linearer Blockcodes werden als binäre Vektoren aufgefasst. Codierung und Fehlerdetektion durch die Syndromdecodierung fußen auf den Eigenschaften des zugrunde liegenden Vektorraums. Wichtig ist der minimale HammingAbstand. Er gibt an, an wie vielen Stellen sich die Codewörter mindestens unterscheiden und damit, wie robust der Code gegen Übertragungsfehler ist. Als in der Praxis besonders nützlich hat sich eine spezielle Art der linearen Blockcodes erwiesen, die CRC-Codes. Fordert man, dass jede zyklische Vertauschung eines Codeworts eines linearen Blockcodes wieder ein Codewort liefert, entsteht die Familie der zyklischen Codes. CRC-Codes besitzen neue mathematische Eigenschaften die besonders nützlich sind für effektive Konstruktion der Codes, effiziente Codier- und Decodierschaltungen mit Schieberegistern und nicht zuletzt hervorragende Fehlererkennungseigenschaften. Letzteres macht sie besonders Interessant für alle Arten der gesicherten, rahmenorientierten Datenübertragung mit Fehlerüberwachung und Wiederholungsanforderung.
7.5
Aufgaben zu Abschnitt 7
Aufgabe 7.1 Einer diskreten gedächtnislosen Quelle sind die Wahrscheinlichkeiten pi in Tabelle A7.1 zugeordneten.
Tabelle A7.1 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
5
6
7
8
pi
1/2
1/4
1/8
1/16
1/32
1/64
1/128
1/128
Berechnen Sie den Entscheidungsgehalt, die Entropie und die Redundanz der Quelle. Aufgabe 7.2 Einer diskreten gedächtnislosen Quelle sind die Wahrscheinlichkeiten pi in Tabelle A7.2 zugeordneten. a) Berechnen Sie den Entscheidungsgehalt, die Entropie und die Redundanz der Quelle.
Tabelle A7.2 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
5
6
pi
0,08
0,20
0,05
0,12
0,30
0,25
b) Führen Sie eine Huffman-Codierung durch und geben Sie die Effizienz des Codes an. c) Skizzieren Sie den Codebaum zum Huffman-Code. Aufgabe 7.3
Eine diskrete gedächtnislose Quelle habe das Alphabet X = {x1, x2, ..., x4} mit den in Tabelle A7.3 zugeordneten Wahrscheinlichkeiten pi. a) Führen Sie eine Huffman-Codierung durch.
Tabelle A7.3 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
p
0,4
0,2
0,2
0,2
i b) Führen Sie erneut eine Huffman-Codierung durch, wobei Sie x1 beim Zusammenfassen zuletzt mit einbeziehen. Welcher der beiden Codes ist zur Datenübertragung besser geeignet? Begründen Sie Ihre Antwort.
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
250 Aufgabe 7.4
Eine diskrete gedächtnislose Quelle habe den Zeichenvorrat X = {x1, x2, ..., x6} mit den in Tabelle A7.4 zugeordneten Wahrscheinlichkeiten pi. a) Berechnen Sie den Entscheidungsgehalt, die Entropie und die Redundanz der Quelle. b) Führen Sie eine für die Datenübertragung günstige Huffman-Codierung durch und geben Sie die Effizienz des Codes an.
Tabelle A7.4 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
5
6
c) Skizzieren Sie den Codebaum zum Huffman-Code.
pi
0,4
0,2
0,2
0,1
0,05
0,05
Aufgabe 7.5 a) Überprüfen Sie die Richtigkeit der ISBN-Nummer 3-528-03951-5. b) Bestimmen Sie die ISBN-Nummer für ein Buch des Verlages Mc Graw-Hill, U.S.A., mit der Verlagskennung 07 und der internen Nummer 085971. Aufgabe 7.6 Zu einem linearen, binären und systematischen (6,3)-Blockcode sind die Gleichungen zur Berechnung der Prüfzeichen gegeben. v1
u1 u2
v2
u1 u2 u3
v3
u1 u3
a) Geben Sie die Generatormatrix an. b) Stellen Sie die Codetabelle auf. c) Geben Sie die minimale Hamming-Distanz des Codes an. d) Es wird r = (110110) empfangen. Geben Sie die Nachricht an. Führen Sie gegebenenfalls eine Fehlerkorrektur durch. Aufgabe 7.7 Zur Fehlererkennung werden die 7 Bits der ASCII-Zeichen (American Standard Code for Information Interchange) oft durch ein Paritätsbit zu einem Datenwort ergänzt. Tatsächlich war dieser Gedanke der Grund dafür, dass man sich beim ASCII-Code auf 27 = 128 Symbole beschränkte, um mit dem Paritätsbit die typische Wortlänge von 8 Bit = 1 Byte zu erreichen. Man unterscheidet zwischen gerader und ungerader Parität. Bei gerader Parität werden die 7 Bits des ASCII-Zeichens durch das Paritätsbit so ergänzt, dass die Modulo-2-Addition aller 8 Bits, die Prüfsumme, „0“ ergibt. Bei ungerader Parität liefert die Prüfsumme den Wert „1“. Für die folgenden Überlegungen wird eine Störung entsprechend dem AWGN-Kanalmodell mit der Bitfehlerwahrscheinlichkeit Pe angenommen. a) Bestimmen Sie die Wahrscheinlichkeit für ein fehlerfreies Datenwort. b) Bestimmen Sie die Wahrscheinlichkeit für einen erkennbaren Wortfehler. c) Bestimmen Sie die Wahrscheinlichkeit für einen nicht erkennbaren Wortfehler.
7.5 Aufgaben zu Abschnitt 7
251
d) Schätzen Sie die Größen in (a), (b) und (c) für Pe = 103, 106 und 109 ab. Aufgabe 7.8 Bei einer binären Datenübertragung im Basisband wird ein (7,4)-Hamming-Code eingesetzt. Die Übertragung kann hinreichend genau durch das Modell eines AWGN-Kanals mit einer Bitfehlerwahrscheinlichkeit Pe = 106 und einer Bitrate von 16 kbit/s beschrieben werden. Wird ein Übertragungsfehler detektiert, so wird ein nochmaliges Senden des Codeworts veranlasst. a) Wie groß ist die Wahrscheinlichkeit, dass das Codewort ungestört übertragen wird? b) Schätzen Sie die Wahrscheinlichkeit ab, dass ein nicht erkennbarer Übertragungsfehler auftritt. c) Welche effektive Netto-Bitrate (tatsächlich im Mittel übertragene Nachrichtenbits) stellt sich bei der Übertragung näherungsweise ein? Aufgabe 7.9 Nennen Sie die Vor- und Nachteile der Huffman-Codierung. Aufgabe 7.10 Erklären Sie den Begriff Restfehlerwahrscheinlichkeit im Zusammenhang mit der SyndromDecodierung. Aufgabe 7.11 Was versteht man unter einem CRC-Code? Warum werden CRC-Codes häufig in der Datenübertragung häufig eingesetzt? Begründen Sie Ihre Antwort. Aufgabe 7.12 Erklären Sie das Prinzip der Fehlerprüfung mit Prüfsummen. Werden bei der mit CRC-Code geschützten Datenübertragung alle Fehler erkannt? Begründen Sie Ihre Antwort. Aufgabe 7.13 Bei der Übertragung von ATM-Zellen wird des HEC-Feld mit der CRC-8-Prüfsumme nach Tabelle 7-11 gesetzt. a) Welche Codewortlänge besitzt der CRC-8-Code? Wie groß ist der Nachrichtenanteil? b) Nimmt die Fehlerwahrscheinlichkeit bei Code-Verkürzung zu, bleibt gleich oder nimmt ab? Begründen Sie Ihre Antwort. c) Codieren Sie die Nachricht u = (1 0 1 0 … 0). d) Ist im Empfangswort r = (0 0 1 1 0 0 0 1 0 … 0) ein Fehler enthalten? Begründen Sie Ihre Antwort.
252
8
Mobilkommunikation
8.1
Einführung
Im 19. Jahrhundert begann mit der Telegrafie und später dem Telefon der Siegeszug der elektrischen Nachrichtentechnik. 1832 sagte Michael Faraday die Existenz elektromagnetischer Wellen voraus. 1864 stellte James C. Maxwell die grundlegende mathematische Theorie bereit und beschrieb die Wellenausbreitung 1873. Und als 1888 Heinrich R. Herz die experimentelle Bestätigung der maxwellschen Theorie gelang, war die Zeit reif für die drahtlose Telegrafie. Bereits 1895 führten Guglielmo M. Marconi in Bologna, Alexander St. Popov in Sankt Petersburg und Ferdinand Schneider in Fulda die drahtlose Telegrafie vor. 1899 gelang Marconi die Funkübertragung von Morsezeichen über den Ärmelkanal (52 km) und 1901 von England nach Neufundland (3600 km). Anmerkung: In Deutschland unternahmen zunächst A. K. H. Slaby und G. W. A. H. v. Arco Funkexperimente in größerem Maßstab, wobei militärische Anwendungen im Blickpunkt lagen.
Vor 1900 wurde die drahtlose Telegrafie bereits für die Seenotrettung eingesetzt. Schon 1901 experimentierte Marconi mit einer Funkanlage in einem Autobus. Zunächst waren jedoch die Funkgeräte und die benötigten Generatoren bzw. Batterien groß und schwer. Und weil bei den anfänglich niedrigen Frequenzen Antennen großer Abmessungen eingesetzt werden mussten, wurden die Funkgeräte zunächst in Schiffen und erst später in Flugzeugen und Kraftfahrzeugen eingebaut. Erst die Miniaturisierung durch die Mikroelektronik, die mit der Erfindung des Transistor 1947 durch J. Bardeen, W. H. Brattain und W. Shockley eingeleitet wurde, machte Funkgeräte „tragbar“. Heute ermöglicht die Mikroelektronik komplexe Algorithmen der modernen Nachrichtentechnik in handliche und bezahlbare Geräte zu integrieren. Im Folgenden werden wichtige technische Grundlagen der modernen Mobilkommunikation mit Blick auf die Systemlösungen vorgestellt. Zunächst wird mit GSM (Global System for Mobile Communications) ein öffentliches, zellulares, digitales Mobilfunknetz erläutert. Es wurde primär für die leitungsvermittelte Sprachtelefonie entwickelt und wird darum als Mobilfunknetz der 2. Generation bezeichnet. Die ersten GSM-Netze gingen 1991/92 in den kommerziellen Betrieb. Anmerkungen: (i) Als Netze der 1. Generation, werden die früheren analogen Netze wie das A-, B- und C-Netz in Deutschland bezeichnet. (ii) Das C-Netz benutzte bereits eine digitale Signalisierung, die Sprachübertragung war jedoch analog.
Danach wird die Ergänzung von GSM zu einem paketvermittelten Datennetz vorgestellt: GPRS (General Packet Radio Service) genannt und 2001 kommerziell eingeführt. Man bezeichnet GPRS als ein Netz der 2,5-ten Generation, einen Zwischenschritt zur 3. Generation. Mit UMTS (Universal Mobile Telecommunication System) wird die 3. Generation von öffentlichen Mobilfunknetzen behandelt. Erstmals steht damit ein System zur Verfügung, das primär
8.2 Global System for Mobile Communications (GSM)
253
für paketorientierte Datenübertragungen und Multimedia-Anwendungen konzipiert wurde. Dementsprechend werden an UMTS besondere Anforderungen an Flexibilität und Übertragungskapazität gestellt. Neben den öffentlichen, zellularen Mobilfunknetzen kommen heute neue Möglichkeiten der drahtlosen Vernetzung von Notebooks, Personal Digital Assistants (PDAs), usw. zum Einsatz. Eine Einführung in das Thema WLAN (Wireless Local Area Network) rundet das Thema Mobilkommunikation ab.
8.2
Global System for Mobile Communications (GSM)
8.2.1
Einführung
Anfang der 1990er Jahre ist in Deutschland die Mobilkommunikation durch die digitalen Mobilfunknetze D1 und D2 erstmals für die breite Öffentlichkeit erschwinglich geworden. Der heute erreichte Ausbau mit vier Netzbetreibern ermöglicht einen Zugang praktisch „überall und jederzeit“, siehe Bild 8-1. Darüber hinaus werden bereits Merkmale zur Verfügung gestellt, die unter dem Schlagwort intelligente Netze die öffentlichen Telekommunikationsnetze in Zukunft prägen werden. Darunter versteht man Telekommunikationsnetze die durch den massiven Einsatz von Mikrocomputern zur Informationsverarbeitung die nötige Flexibilität und „Intelligenz“ besitzen, um die Teilnehmermobilität und die kundenspezifische Dienstanforderung zu ermöglichen. Das Angebot an mobilen Telekommunikationsdiensten, kurz Teledienste genannt, ist bei GSM noch eingeschränkt. Mobilfunknetze der 2. Generation sind primär auf die leitungsvermittelte Sprachübertragung und „schmalbandige“ Teledienste, wie die Übermittlung von Kurznachrichten, ausgelegt.
Durchdringung
100 % 80 % 64,8 56,1
60 %
59,1
48,2 40 % 23,5 13,9
20 % 1
1,8
2,5
3,8
5,6
1992
1993
1994
1995
1996
8,3 1997
1998
1999
2000
2001
2002
2003
Jahr
Bild 8-1 GSM-Teilnehmer in Deutschland in Millionen [Quelle: Der Spiegel 12/04] bei ca. 82,5 Millionen Einwohnern in Deutschland 2003 und prozentualer Anteil an der Bevölkerung (Durchdringung)
254
8 Mobilkommunikation
Die Erwartungen der Konsumenten stellen an Mobilfunknetze hohe Anforderungen bei schwierigen physikalischen Ausbreitungsbedingungen der die Information tragenden elektromagnetischen Wellen. Dieser Abschnitt will einen Einblick in die Mobilkommunikation am Beispiel des weltweit am meisten verbreiteten Mobilfunksystems GSM geben und so auch eine Vorstellung vermitteln, welch enormer technischer und organisatorischer Aufwand für die moderne Mobilkommunikation erforderlich ist. Die technische Grundlage bildet der GSM-Standard, eine umfassende Empfehlung für den Aufbau und den Betrieb eines kompletten Mobilfunksystems. Die Geschichte von GSM beginnt etwa 1979. Einige wichtige Stationen der Entwicklung sind: 1979
Freigabe des Frequenzspektrums für die öffentliche Mobilkommunikation durch die World Administrativ Radio Conference (WARC).
1982
Einsetzen der Studiengruppe Groupe Spéciale Mobile durch die Conférence Européen des Administrations des Postes et des Télécommunications (CEPT).
1987
Vorlage des Systemkonzepts. Wesentliche europäische Netzbetreiber verpflichten sich zur Einführung von GSM-Netzen ab 1991/92.
1988
Spezifizierung von GSM durch das European Telecommunications Standards Institute (ETSI) beginnt.
1992
In Deutschland werden unter den Namen D1 (T-Mobile Deutschland) und D2 (Vodafone D2) Mobilfunknetze nach dem GSM-Standard in Betrieb genommen; 1994 folgt E-Plus (E-Plus Mobilfunk) und 1998 E2 (O2 Germany).
1993
Die GSM-Netze erreichen weltweit über 1 Million Teilnehmer.
1995
Die GSM Phase 2 mit Zusatzdiensten, wie FAX-Daten und Short Message Service (SMS), wird verabschiedet und 1996 eingeführt. Das verbesserte Sprachcodierverfahren Enhanced Full Rate Codec (EFR) wird eingesetzt. Das erste GSM-Netz in den USA geht in den kommerziellen Betrieb.
1997
ETSI standardisiert General Packet Radio Service (GPRS) für GSM
1999
ETSI standardisiert Universal Mobile Telecommunication System (UMTS, Release 3, auch unter Release 99 bekannt)
2000
Die Datenübertragung High Speed Circuit Switched Data (HSCSD) wird verfügbar. Auf der CeBIT 2000 wird GPRS mit der Datenrate von 53,6 kbit/s vorgeführt. Die Versteigerung der UMTS-Lizenzen in Deutschland erbringt ca. 50 Milliarden Euro.
2001
Die GSM Phase 2+ geht mit dem General Packet Radio Service (GPRS) Phase 1 in den kommerziellen Betrieb. Die Einführung eines neuen Kanalkodierverfahrens ermöglicht in einem Verkehrskanal eine maximale Datenrate von 14,4 statt bisher 9,6 kbit/s. Erste umfangreichere Feldversuche mit UMTS auf der Isle of Man.
2002
GPRS Phase 2 mit Bitraten bis 112 kbit/s geplant; Datenübertragung mit Enhanced Data Rates for GSM Evolution (EDGE). In Österreich geht UMTS-Netz in den kommerziellen Betrieb. UMTS Release 5 mit HSDPA (High-Speed Downlink Packet Access) festgelegt.
2004
GSM ist der weltweit führende Mobilfunkstandard mit mehr als 1,2 Milliarden Teilnehmern. UMTS-Netze in Deutschland im kommerziellen Betrieb.
2007
Weltweit werden mehr als 1 Milliarde Mobilfunkgeräte im Gesamtwert von über 140 Milliarden US-Dollar verkauft. Anmerkung: Mit der Weiterentwicklung des Mobiltelefons (Mobile Phone) zum praktischen Multifunktionsgerät scheint der zunächst in Deutschland verbreitete Name „Handy“, englisch unter anderem für bequem oder praktisch, angemessen.
2008
Mehr als 10 Millionen UMTS-Anschlüsse in Deutschland.
8.2 Global System for Mobile Communications (GSM)
255
Der überwältigende Erfolg von GSM beruht letzten Endes auf nichttechnischen Faktoren. GSM ist von der ETSI als offener Standard so konzipiert, dass ein Wettbewerb zwischen den Herstellern von Netzkomponenten, den Netzbetreibern und den Anbietern von Zusatzdiensten jeweils möglich wird. GSM ist ein gelungenes Beispiel dafür, wie konkurrierende Wettbewerber durch Zusammenarbeit einen neuen Markt zum Nutzen der Kunden erschließen können. Für den Teilnehmer bedeutet GSM statt der bis Anfang der 1990er Jahren herkömmlichen apparatbezogenen Telefonie eine am Teilnehmer orientierte Telekommunikationsinfrastruktur, siehe Tabelle 8-1. GSM unterstützt die Mobilität der Teilnehmer und der Mobilgeräte. Tabelle 8-1 Mobilkommunikation mit GSM Zugang und Sicherheit
Mobilitätsmanagement für Teilnehmer und Mobilgeräte, Geräteidentifizierung, Zugangskontrolle, Nachrichtenverschlüsselung Anonymität der Teilnehmer
Dienste
Digitale Übertragung in unterschiedlichen Formaten: x Sprache in normaler (13 kbit/s, „full rate“) und etwas reduzierter Qualität (ca. 5,6 kbit/s, „half rate“) x Leitungsorientierte Datenübertragung mit bis zu 9,6 kbit/s (14,4 kbit/s) und mit HSCSD bis zu 57,6 kbit/s x Paketorientierte Datenübertragung mit GPRS mit mittleren Bitraten von ca. 1 bit/s bis 112 kbit/s x EDGE mit Bitraten bis 384 kbit/s x Zusatz- und Mehrwertdienste
Anbieter
Offener Standard mit internationaler GSM-Gerätezulassung, Wettbewerb der Netzbetreiber
Die Teilnehmermobilität wird ähnlich wie bei Geldausgabeautomaten durch die geräteunabhängige SIM-Card (Subscriber Identity Module) und die PIN (Personal Identification Number) ermöglicht. Die SIM-Card unterstützt das temporäre Wechseln zwischen den GSMNetzen in In- und Ausland, das Roaming. Damit kann ein GSM-Teilnehmer jedes SIM-Cardfähige Mobilgerät „wie sein eigenes“ benutzen. Bei den Mobilgeräten werden zwei Betriebsarten unterschieden: der aktive Betrieb und der Betrieb im „Idle Mode“. Im aktiven Betrieb wird durch den Handover, d. h. dem „Weiterreichen“ von einer Funkstation zur nächsten, dafür gesorgt, dass eine laufende Sprach- oder Datenverbindung auch dann aufrecht erhalten bleibt, wenn der Teilnehmer sich bewegt. Ein Beispiel ist das Telefonieren im fahrenden Auto. Im Idle Mode tauschen Mobilgerät und Netz in gewissen Abständen Nachrichten über die Qualität der Funkverbindung (Messprotokolle) aus. Dadurch ist es möglich, die Aufenthaltsorte der erreichbaren Teilnehmer zu verfolgen und die Teilnehmer gezielt zu rufen. Erst durch Abschalten des Mobilgeräts wird der Kontakt zum Netz beendet. Die international anerkannte Zulassung des Mobilgeräts erlaubt den Betrieb in jedem Land mit GSM-Netz. Die Mobilität setzt einen Netzzugang voraus, egal wo im Funkbereich des Netzes ein Teilnehmer sein Mobilgerät einschaltet. Dieser physikalisch offene Netzzugang „über die Luft“ muss gegen Missbrauch besonders geschützt werden. GSM-Netze verfügen dazu über vier Sicherheitsmerkmale:
256
8 Mobilkommunikation
Endgeräteidentifizierung durch das Netz anhand der eindeutigen Gerätekennung Zugangsberechtigung nur nach Teilnehmeridentifizierung Vertraulichkeit der Daten auf dem Funkübertragungsweg durch Verschlüsselung Anonymität der Teilnehmer und ihrer Aufenthaltsorte durch temporäre Teilnehmerkennungen Zu den Sicherheitsmerkmalen tritt der Aspekt der elektromagnetischen Verträglichkeit hinzu. Durch die Einführung von Geräteklassen und Sicherheitsabständen für Sendeanlagen, einer aufwändigen Planung der Senderstandorte und einer adaptiven Steuerung, bei der die Sender mit möglichst niedriger Ausgangsleistung arbeiten, werden die gesetzlichen Vorsorgewerte für die erlaubte elektromagnetische Abstrahlung meist deutlich unterschritten. Hinzu kommt, dass die Leistungsflussdichte elektromagnetischer Wellen bei Freiraumausbreitung quadratisch mit dem Abstand zum Sender abnimmt, also pro Verdopplung des Abstandes um den Faktor 4 (6 dB), siehe Tabelle 8-2. Modellrechnungen für die Ausbreitung über einer ebenen Fläche ergeben sogar eine Abnahme um den Faktor 16 (12 dB) bei Verdopplung des Abstandes. Tabelle 8-2 Abnahme der Leistungsflussdichte mit wachsendem Abstand vom Sender Abstand relative Leistung bei Freiraumausbreitung
1m
2m
4m
8m
16 m
32 m
100 %
25 %
6,25 %
1,56 %
0,391 %
0,098 %
In der modernen, öffentlichen Mobilkommunikation treten neben die klassische Sprachübertragung weiterer Dienste. Da es sich hierbei letzten Endes um Datenübertragungen handelt, bleibt es der Phantasie der Dienstanbieter und Teilnehmer überlassen, welchen Nutzen sie daraus ziehen. Ein typisches Beispiel ist die Übermittlung von Kurznachrichten (SMS) an eine einzelne Person oder als Rundruf an eine Benutzergruppe. SMS-Dienste finden auch zunehmend bei der automatischen Fernüberwachung Anwendung. Die bei GSM anfänglich verfügbaren Datenübertragungsraten bis 9,6 kbit/s reichen jedoch nicht aus, um typische Internetseiten oder gar Audio- oder Videosequenzen in annehmbarer Zeit zu übertragen. Hinzu kommt, dass die einfachen Mobiltelefone nicht zur Darstellung von Web- und Multimediainhalten geeignet sind. Der Versuch der speziellen Anpassungen von Internetinhalten durch das Wireless Application Protocol (WAP) und die Wireless Markup Language (WML) an die Möglichkeiten von GSM hat sich zunächst nicht durchgesetzt. Eine für die meisten Teilnehmer akzeptable einfache Internetfähigkeit von GSM ist erst in Verbindung mit den neuen Datendiensten GPRS und EDGE möglich. Anmerkung: Zusätzliche Informationen zum Thema GSM findet man bei der GSM Association, der Vereinigung von GSM-Netzbetreibern und Herstellern, im Internet unter www.gsmworld.com und zur Entwicklung von GSM und UMTS www.umtsworld.com.
8.2.2
GSM-Netzarchitektur
Moderne öffentliche Mobilkommunikationsnetze zeichnen sich durch die Teilnehmermobilität, die Sicherheitsmerkmale und eine hohe Teilnehmerzahl aus. Die GSM-Netzarchitektur in Bild 8-2 trägt dem Rechnung. Sie besteht aus einem zellularen Netzaufbau mit den Betriebs- und Wartungszentren, den Operation and Maintenance Center (OMC), und den Vermittlungsstel-
8.2 Global System for Mobile Communications (GSM)
257
len, den Mobile Switching Center (MSC). Ein Einblick in die Funktionen der Netzkomponenten und ihres Zusammenwirkens lässt sich am einfachsten am Beispiel des Verbindungsaufbaus zwischen einer Mobilstation, der Mobile Station (MS), und dem GSM-Festnetz gewinnen: Befindet sich die MS nach dem Einschalten im Funkbereich eines GSM-Netzes, so passt sie sich den lokalen Funkparametern (Trägerfrequenz, Sendezeitpunkte und Sendeleistung) einer geeigneten Basisstation, der Base Transceiver Station (BTS), an und nimmt mit ihr Funkverbindung auf. In der BTS wird das Funksignal empfangen und die enthaltene Nachricht über die Steuereinrichtung der Basisstation, dem Base Station Controller (BSC), an die MSC weitergeleitet. Dabei wird die Mobilgerätenummer, die International Mobile Station Equipment Identity (IMEI), der MS mit übertragen und anhand des Mobilgeräteregisters, dem Equipment Identification Register (EIR), überprüft. Ist das Mobilgerät nicht gesperrt, wird von der MSC die Teilnehmeridentifizierung angestoßen.
RSS
NSS
BSS
OSS
SSS
HLR BTS
VLR B
BSC
C MSC
MS
OMC
E A interface
Abis interface
BTS
Um (air) interface AUC BSC BSS BTS EIR GMSC HLR MS
EIR
F
O interface
MS
AUC
GMSC
other networks
BSC
BTS
Authentification Center Base Station Controller Base Station Subsystem Base Transceiver Station Equipment Identity Register Gateway MSC Home Location Register Mobile Station
MSC NSS OMC OSS RSS SSS VLR
Mobile Switching Center Network and Switching Subsystem Operation and Maintenance Center Operation and Maintenance Subsystem Radio Subsystem Switching Subsystem Visitor Location Register
Bild 8-2 GSM-Netzarchitektur der Phase 1
258
8 Mobilkommunikation
Befindet sich die MS in ihrem Heimatbereich, wird sie in der MSC im Heimatregister, dem Home Location Register (HLR), geführt und die Teilnehmeridentifizierung kann mit der lokalen Identifizierungseinrichtung, dem Authentification Center (AUC), durchgeführt werden. Danach ist die MS im Netz als erreichbar gemeldet und kann selbst einen Dienst anfordern oder gerufen werden. Befindet sich der Teilnehmer nicht in seinem Heimatbereich, sucht die MSC zunächst im Besucherregister, dem Visitors Location Register (VLR), ob er bereits gemeldet ist. Ist das der Fall, wird die Teilnehmeridentifizierung mit den vorliegenden Daten durchgeführt. Andernfalls nimmt die besuchte MSC Verbindung mit der Heimat-MSC auf und trägt nach der Identifizierung den Teilnehmer in das VLR ein. Die Heimat-MSC wird über den neuen Aufenthalt des Teilnehmers informiert. Für den Teilnehmer ankommende Anrufe werden anhand der Rufnummer zur Heimat-MSC geleitet und dann von dort zur besuchten MSC weitervermittelt. Die Kommunikation zwischen den Teilnehmern innerhalb eines GSM-Netzes wird intern abgewickelt. Die Vermittlungsfunktionen werden in den MSCen durchgeführt. Ist ein Teilnehmer außerhalb des GSM-Netzes, z. B. im normalen Telefonnetz, so wird über eine geeignete Gateway-MSC die Verbindung nach außen hergestellt. Der Aufwand, der für den Aufbau und den Betrieb der in Deutschland nahezu flächendeckenden GSM-Netze notwendig ist, wird anhand der folgenden Zahlen (Stand 1997) deutlich. Im E-Plus-Netz wurden mit seinen bis dahin etwa 750.000 Teilnehmern an den elf Standorten in Bild 8-3 14 MSCen mit insgesamt 230 BSCen und 5500 BTSen eingesetzt. Für den Netzaufbau wurden ca. 2,5 Mrd. EUR investiert und damit etwa 3500 neue Arbeitsplätze geschaffen.
Hamburg(2)
Hannover Dortmund
Berlin(2)
Düsseldorf Leipzig(2) Frankfurt a.M.
Nürnberg Karlsruhe Stuttgart München
Der Aufbau der bestehenden vier digitalen Mo- Bild 8-3 MSC Standorte im Netz von E-Plus bilfunknetze ist noch nicht abgeschlossen. (Mitte 1997) Stand früher die flächendeckende Versorgung im Vordergrund, so geht es heute um den bedarfsgerechten Ausbau und die Einführung neuer Dienste. Mit den später noch beschriebenen GSM-Erweiterungen GPRS und EDGE steht ein Migrationspfad zu einem Netz der 3. Generation offen.
8.2.3
GSM-Funkschnittstelle
Das Beispiel des Verbindungsaufbaus macht deutlich, dass zum ordnungsgemäßen Betrieb des GSM-Netzes ständig eine Vielzahl unterschiedlicher Nachrichten zwischen den Netzkomponenten ausgetauscht werden muss. Damit ein solcher Informationsaustausch stattfinden kann, muss vereinbart sein wer, was, wann, wo und wie senden darf. Das geschieht durch die Schnittstellen und ihre Protokolle.
8.2 Global System for Mobile Communications (GSM)
259
Das Nadelöhr eines jeden Mobilfunksystems ist die Funkschnittstelle zwischen den Mobilstationen und den Basisstationen, die auch Luftschnittstelle genannt wird. Über sie werden sowohl die von den Teilnehmern angeforderten Teledienste durchgeführt als auch für den Netzbetrieb notwendige Nachrichten ausgetauscht. Der Vergleich mit einem Nadelöhr trifft zu, weil das zur Verfügung stehende Frequenzband aus physikalischen Gründen begrenzt ist und die benötigte Bandbreite mit der zu übertragenen Informationsmenge in der Regel wächst. Für den wirtschaftlichen Aufbau und Betrieb eines öffentlichen Mobilfunknetzes ist eine hohe spektrale Effizienz gefordert, um bei vorgegebenem Frequenzband möglichst viele Teilnehmer bedienen zu können.
8.2.3.1
Funkzellen und Frequenzkanäle
Auf der Basis des Ende der 1980er Jahre freigegebenen Frequenzbandes und der damals verfügbaren Technologie, wurde für GSM eine digitale Übertragung für schmalbandige Teledienste konzipiert. Die gewählte Frequenz- und Kanalaufteilung im 900-MHz-Bereich (GSM 900) ist in Bild 8-4 zusammengestellt. Das verfügbare Frequenzband teilt sich in ein unteres Band (890-915 MHz) für die Kommunikation von den Mobilstationen (MSen) zu den Basisstationen (BTSen) und in ein oberes Band (935-960 MHz) für die Kommunikation in umgekehrter Richtung. Das Frequenzband von 2 u 25 MHz ist in 2 u 125 Frequenzkanäle a 200 kHz Bandbreite aufgeteilt. Zwei Frequenzkanäle im Abstand von 45 MHz bilden jeweils ein Duplexpaar für die wechselseitige Kommunikation. Die Duplexfrequenzkanäle 0 und 125 werden zum Schutz der Nachbarbänder freigehalten. In Deutschland teilen sich zwei Netzbetreiber das Frequenzspektrum. Dem D1-Netz der Deutschen Telekom sind die Duplexfrequenzkanäle 14 bis 49 sowie 82 bis 102 zugeordnet. Für das D2-Netz der Mannesmann AG Mobilfunk stehen die Duplexfrequenzkanäle 1 bis 12, 51 bis 80 und 105 bis 119 zur Verfügung. Seit 2002 werden für das D1- und D2-Netz die Marktnamen T-Mobile- bzw. Vodafone-Netz verwendet. Zusätzlich zur Aufteilung in die Frequenzkanäle tritt bei GSM eine Time-Division-MultipleAccess (TDMA) -Komponente hinzu, siehe Bild 8-4. Jeder Frequenzkanal wird durch zeitlich aufeinander folgende TDMA-Rahmen belegt. Jeder TDMA-Rahmen beinhaltet acht Zeitschlitze der Dauer von etwa 0,57 ms. Fordert ein Teilnehmer eine Full-Rate-Sprachübertragung an, wird ihm falls verfügbar vom Netz ein Frequenzkanal und Zeitschlitz zugewiesen. Das Mobilgerät nutzt den zugewiesenen Zeitschlitz in jedem folgenden TDMA-Rahmen bis die Sprachübermittlung beendet wird. Im Fall der Half-Rate-Sprachübertragung teilen sich zwei Teilnehmer einen Zeitschlitz. Dadurch können doppelt so viele Gespräche gleichzeitig abgewickelt werden. Die digitale Übertragung innerhalb eines Zeitschlitzes wird im nächsten Abschnitt genauer erläutert. Hier sollen zunächst die Überlegungen zur spektralen Effizienz und den Frequenzkanälen weitergeführt werden. Mit der Anzahl der Frequenzkanäle und der Zeitschlitze ist die Funkkapazität der ursprünglichen GSM-900-Netze von D1 und D2 ungefähr 8 u 124 = 992 Sprachkanäle für die Full-RateSprachübertragung. Eine BTS könnte über maximal 992 Full-Rate-Sprachkanäle gleichzeitig verfügen. Die Zahl der Sprachkanäle pro BTS ist jedoch weiter eingeschränkt, da sich die Funksignale benachbarter BTSen stören können.
260
8 Mobilkommunikation
960 MHz
BTSÖMS
Frequenzkanäle 125
Sendeband Mobilstationen (MS) Basisstationen (BTS) Duplex-Abstand Duplex-Frequenzkanalbandbreite Teilnehmer pro Frequenzkanal
100 99 98
890-915 MHz 935-960 MHz 45 MHz 2 x 200 kHz 8 / 16 (Full/Half Rate)
0 935 MHz
Frequenz
Duplex-Abstand 45 MHz 915 MHz
MSÖBTS
Time Division Multiple Access (TDMA) -Rahmen
125 100 99 98
0
4,615 ms Frequenzkanal 200 kHz
7 0 1 2 3 4 5 6 7 0 1 Zeit
576,9 Ps Zeitschlitz
890 MHz
Bild 8-4 GSM-900-Frequenzbänder und TDMA-Kanalaufteilung
Die Aufteilung der Frequenzkanäle auf die BTSen, die Frequenzplanung, ist für die Kapazität von GSM-Netzen von entscheidender Bedeutung. Bild 8-5 zeigt das Prinzip eines Frequenzplans mit regelmäßiger Frequenzwiederholung. Im Bild werden vier bzw. sieben Funkzellen zu je einem Cluster zusammengefasst. Deren Frequenzbelegungen wiederholen sich im Funknetz. Aus geometrischen Gründen können die Cluster-Größen nur die Werte 1, 3, 4, 7, 9, 12, 13, usw. annehmen. Anmerkung: Die Ähnlichkeit der Funkzellen mit Bienenwaben im Modell ist nicht zufällig. Nur mit gleichseitigen Dreiecken, Quadraten bzw. Hexagonen kann die Ebene überlappungsfrei und vollständig abgedeckt werden, siehe auch Parkettierung.
Dem rechten Teilbild liegt der GSM-typische Wert eines Frequenzwiederholungsfaktors von 7 zugrunde. Damit ergibt sich die zellulare Funkkapazität von 992 / 7 = 142 Full-Rate-Sprachkanälen pro Funkzelle. Bei der Funkzellenplanung ist die Funkzellengröße entsprechend dem erwarteten Verkehrsaufkommen in einem Gebiet so zu wählen, dass die Funkzelle gut ausgelastet wird, aber auch keine für die Teilnehmer störende Überlast auftritt. Des Weiteren ist zu beachten, dass mindestens ein Kanal pro BTS für die Übertragung von Funkparametern und Signalisierung zu reservieren ist.
8.2 Global System for Mobile Communications (GSM)
261
2 4 2 4 3 1 2
3 1
2
4
4 3
3 2 3 1
2
2
1 4 1
1
1 3
1
3 2
4
4
4 1
2 2
6
3 1 2
3
4
4 5
4 1
1
3
7
2 1
2
5 6
3 5 2 4
5 1 3
1
6
4 1
7 2
5 1 6
7 4
3 5
7
6 3
2 5
2
2 7
6 4
3 4
7
3
1
6
2
3
4 5
1
N=7 6
7 3
4 5
3 2
2
3
4
4
1 6
7
3
2
5 6
2
1 3
2 1
1 2
3
2
4
3
4 1
1
1
3
4 2
2
5 2
7
4
3
3 2
6
4 1
2
3 4
2
4
4
4
1
1
N=4
2 1
1
Bild 8-5
3 4
1
6 4
1
3
7
3 5
Frequenzplan mit Gruppenbildung für die Funkzellen (4er- und 7er-Cluster links bzw. rechts in schematischer Darstellung)
Die tatsächliche Funkkapazität eines Mobilfunknetzes hängt von den Verhältnissen vor Ort, der Topologie und der Morphologie, und der Robustheit des Funkübertragungsverfahrens gegen Störungen ab. Dabei spielt nicht zuletzt das erwartete Verkehrsaufkommen eine Rolle. In GSM ist – ohne weitere Maßnahmen – der Funkzellenradius außerdem durch eine systembedingte Begrenzung der zulässigen Laufzeiten der empfangbaren Funksignale auf maximal 35 km beschränkt. Die Frequenzplanung mit Standortwahl wird mit speziell dafür entwickelten Planungswerkzeugen an Rechnern vorgenommen. Typische Abmessungen der Funkzellen variieren von etwa hundert Meter in Innenstädten, wie z. B. in Bahnhofs-, Flughafen- oder Messehallen, bis einige Kilometer auf dem Land. Das Mobilfunknetz E1 von E-Plus (1994) und E2 von Viag Interkom (1998, seit 2002 O2 Germany) basiert auf einem für den Frequenzbereich um 1800 MHz modifizierten GSM, dem GSM-1800-Standard, früher DCS 1800 genannt. Für die GSM-1800-Netze sind die Frequenzbänder von 1710-1785 MHz für die Kommunikation von MS zur BTS bzw. 1805-1880 MHz für die umgekehrte Richtung vorgesehen. E-Plus sind davon die 75 Frequenzkanäle im Bereich 1760,2-1775 MHz bzw. 1855,2-1870 MHz zugeteilt. Da sich die Funksignale bei den Frequenzen um 1800 MHz etwas schlechter ausbreiten als bei 900 MHz, ist das Netz für kleinere Funkzellen ausgelegt als bei D1 und D2. Der Nachteil der höheren Anzahl der erforderlichen BTSen wird durch eine größere Teilnehmerkapazität und eine geringere Sendeleistung wettgemacht. Die Kapazität der GSM-Netze in Deutschland wurde ursprünglich auf zusammen annähernd 30 Millionen Teilnehmer geschätzt (vorausgesetzt höchstens 10% der Teilnehmer telefonieren gleichzeitig). Tatsächlich wurde in Deutschland im Jahr 2003 die Zahl von 64 Millionen Teilnehmern überschritten. Die große Nachfrage nach GSM-Diensten und die weltweit teilweise unterschiedlich verfügbaren Frequenzbänder haben bis heute zu den GSM-Frequenzbändern in Tabelle 8-3 geführt. Die Frequenzbereiche 880-890 bzw. 925-935 werden als GSM-Erweiterungsbänder, Extension
262
8 Mobilkommunikation
Bands, bezeichnet. Die Frequenzen um 1900 MHz werden z. B. in den USA verwendet. In Skandinavien sollen bisher analoge Mobilfunksysteme durch GSM 400 ersetzt werden. Mit RGSM (Railway) wurde eine spezielle Anpassung für den Betriebsfunk bei Eisbahngesellschaften geschaffen. Tabelle 8-3 GSM Frequenzbänder (nicht überall verfügbar) Frequenzband im Uplink 450,4 457,6 MHz
460,4 467,6 MHz
478,8 486 MHz
488,8 496 MHz
GSM 850
824 849 MHz
869 894 MHz
GSM 900
890 915 MHz
925 960 MHz
E-GSM1
880 915 MHz
925 960 MHz
GSM 400
R-GSM2
1 2
Frequenzband im Downlink
876 915 MHz
921 960 MHz
GSM 1800
1710 1785 MHz
1805 1880 MHz
GSM 1900
1850 1910 MHz
1830 1990 MHz
E-GSM wie GSM 900 mit je 10 MHz Erweiterungsbändern (Extended) R-GSM für Eisenbahnanwendungen (Railway)
8.2.3.2
Mobilfunkübertragung
Die Sprachsignale werden in den MSen bzw. im GSM-Festnetz fortlaufend digitalisiert und als Folge von Binärzeichen (Bits) dargestellt. Die Bits werden in Blöcken zusammengefasst und ähnlich wie ein Strom von Paketen auf einem Fließband Block für Block in den zugeordneten Zeitschlitzen der kontinuierlich aufeinander folgenden TDMA-Rahmen übertragen. Die digitale Übertragung innerhalb eines Zeitschlitzes geschieht mit so genannten Bursts. Bild 8-6 zeigt den logischen Aufbau des für die Full-Rate-Sprachübertragung verwendeten Normal Burst. Ohne tief in die Einzelheiten zu gehen fällt auf, dass von den 148 (+8,25) Bits nur 114 für die eigentlichen Teledienste zur Verfügung stehen. Bis auf die beiden Stealing Flag zur Kennzeichnung einer bei dringendem Bedarf eingefügten Signalisierungsnachricht ist der Rest für die reine Funkübertragung notwendig. Hinzu kommt, dass die 114 Informationsbits nicht uneingeschränkt für die Nutzinformation des Teledienstes zur Verfügung stehen. Bei der Full-Rate-Sprachübertragung ist zum Schutz gegen Übertragungsfehler eine redundante Kanalcodierung erforderlichen. Tatsächlich werden nur 65 „Sprachbits“ pro Burst effektiv übertragen. Damit wird pro Normal Burst mehr als die Hälfte der Funkübertragungskapazität für den Fehlerschutz und die Signalisierung aufgewendet. Diese Überlegungen lassen sich anhand der Bitraten nochmals nachvollziehen. Aus der Dauer eines TDMA-Rahmens mit acht Zeitschlitzen mit je ca. 156 Bits ergibt sich theoretisch eine maximale Bitrate pro Frequenzkanal von etwa 8 u 156 bit / 4,615 ms = 270 kbit/s; also je Zeitschlitz rund 33,8 kbit/s.
8.2 Global System for Mobile Communications (GSM)
263
TDMA-Rahmen 4,615 ms
Zeit
012345670123456701234567 Zeitschlitz
Stealing Flag
0,577ms 3 Anzahl der Bits 57
1
26
1
57 Information (Sprache,Daten)
Information (Sprache,Daten)
3 8,25 Schutzabstand
Flankenformungsbits „000“ Trainingsfolge „00100 10111 000001 00100 10111“
Flankenformungsbits „000“
Bild 8-6 Struktur des Normal Burst
Für die eigentliche Nachricht pro Zeitschlitz reduziert sich die Bitrate auf 22,8 kbit/s, wovon für die Full-Rate-Sprachübertragung schließlich nur noch ca. 13 kbit/s übrig bleiben. In den letzten beiden Bitraten ist ferner berücksichtigt, dass jede 13. Wiederholung eines Zeitschlitzes für die Signalisierung, z. B. zur Übertragung von Messprotokollen, freizuhalten ist. Der geringe Anteil an effektiv zur Verfügung stehender Bitrate ist typisch für die Mobilkommunikation. Grund dafür sind im Wesentlichen die in Bild 8-7 veranschaulichten Störeinflüsse durch den Mehrwegeempfang und die im Netz selbst erzeugte Störung, die Gleichkanalstörung. Funkfeldhindernis Umwege
BTS Beugung
Streuung Reflexion Gleichkanalstörung
direkter Weg
MS
BTS Bild 8-7 Mobilfunkübertragung mit Mehrwegeempfang und Gleichkanalstörung
Das von der BTS als elektromagnetische Welle ausgesandte Funksignal wird in der Umgebung der MS am Boden, Bäumen, Häusern, usw. reflektiert und gestreut, so dass sich viele Teilwellen an der Empfangsantenne überlagern. Es treten die für die Mobilkommunikation typischen kurzzeitigen starken Einbrüche in der Empfangsfeldstärke aufgrund gegenseitiger Auslöschungen auf.
264
8 Mobilkommunikation
Große Funkfeldhindernisse, wie Berge oder Hochhäuser, können das Funksignal abschatten, so dass die Empfangsfeldstärke stark abnimmt. Man spricht dann anschaulich auch von einem „Funkloch“. Große Funkfeldhindernisse können durch Reflexionen starke Signalechos mit großen Laufzeitdifferenzen hervorrufen. Umwege von ca. 1100 m führen bereits zu einer Laufzeitverschiebung um etwa die Dauer eines Bits und damit zur gegenseitigen Störung der Bits, Nachbarzeichenstörung bzw. englisch Intersymbol Interference genannt. Wegen der Frequenzwiederholung im Netz können sich die Funksignale der MSen bzw. der BTSen gegenseitig stören, was als Gleichkanalstörung bezeichnet wird. Die Bewegung der MS führt zu veränderlichen Übertragungsbedingungen. Die genannten Störeinflüsse treten meist gleichzeitig auf und können die Mobilfunkübertragung unmöglich machen. Bei GSM werden deshalb in Verbindung mit der digitalen Übertragung verschiedene Maßnahmen zur Verbesserung der Übertragungsqualität durchgeführt: Leistungsregelung ) Die Empfangsqualität wird bezüglich der Empfangsleistung sowie der erkannten Bitfehler in der BTS und MS fortlaufend überwacht und die Sendeleistung so eingestellt, dass die geforderte Übertragungsqualität mit möglichst niedriger Sendeleistung eingehalten wird. Handover ) Weil die MS nur jeweils während zweier Zeitschlitze sendet bzw. empfängt, kann sie auch im aktiven Betrieb regelmäßig die Empfangsleistungen von bis zu sechs benachbarten BTSen messen. Die Messprotokolle werden von der MS zur BTS übertragen. Ist die Funkversorgung durch eine andere BTS besser, so wird vom Netz ein unterbrechungsfreier Wechsel, Handover genannt, zur besser empfangbaren BTS durchgeführt. Ein Wechsel kann auch entfernungsabhängig durchgeführt werden. Man unterscheidet wie in Bild 8-8 zwischen internem und externem Handover. Im letzteren Fall wird beim Funkzellenwechsel der Bereich einer MSC überschritten. Eine aufwändige Gesprächsumleitung im Netz wird dann notwendig. Da der Handover für den Teilnehmer während eines Gespräches unterbrechungsfrei erfolgt, spricht man bei GSM von einem Seamless Handover.
AnchorMSC BSC
MSC-A
BTS BTS MSC-B BTS BSC
Interner Handover
BTS Externer Handover
Bild 8-8 Funkzellenwechsel (Handover) während eines laufenden Gesprächs
8.2 Global System for Mobile Communications (GSM)
265
Frequenzsprungverfahren ) Um Störungen aus anderen Funkzellen zu verringern, kann optional im GSM-Netz die starre Frequenzkanalzuordnung aufgegeben werden. Nach fest vereinbarten Regeln wird je Zeitschlitz ein anderer Frequenzkanal benutzt. Sich gegenseitig störende BTSen bzw. MSen werden entkoppelt, da sie die Frequenzkanäle nach verschiedenen Mustern variieren. In GSM spricht man von einem Slow Frequency Hopping im Gegensatz zu Fast Frequency Hopping bei dem etwa für jedes Bit ein Frequenzsprung durchgeführt wird. Diskontinuierliche Übertragung von Sprache ) Während der vom Sprachcodierer erkannten Sprechpausen werden (fast) keine Bursts gesendet. Damit werden nur etwa 2/3 der Rahmen benutzt und so die Gleichkanalstörungen reduziert. Da ein völliges Abschalten in den Sprechpausen durch die Teilnehmer als störend empfunden wird, werden sie im Empfänger durch angepasste Pausengeräusche, dem Comfort Noise, gefüllt. Ungleichmäßige Kanalcodierung für Sprache ) Bei der Kanalcodierung werden zusätzliche Prüfbits erzeugt, mit denen sich Übertragungsfehler erkennen bzw. korrigieren lassen. GSM verwendet für die Sprachübertragung ein gestuftes Verfahren. Die Digitalisierung der Sprache geschieht für die Full-Rate-Übertragung nach dem RELP-Verfahren (Residual Excitation Linear Prediction). Der Sprach-Encoder erzeugt aus je 20 ms langen Ausschnitten des Sprachsignals einen Block mit 260 „Sprachbits“. Die Bits werden nach ihrer Bedeutung für den Höreindruck in weniger wichtige, wichtige und sehr wichtige Bits eingeteilt, siehe Bild 8-9. Die 50 sehr wichtigen Bits werden mit 3 Prüfzeichen eines CRC-Codes (Cyclic Redundancy Check) zur Fehlererkennung ergänzt und danach gemeinsam mit den 132 wichtigen Bits durch einen Faltungscode der Rate 1/2 codiert, d. h. pro Bit wird ein zusätzliches Prüfbit erzeugt. Zusätzlich entstehen bei der Faltungscodierung acht Bits, da die zu codierenden Bits mit vier Bits, auch Tailbits genannt, definiert abgeschlossen werden. Die 78 weniger wichtigen Bits bleiben ungeschützt. Aus einem Block von 260 „Sprachbits“ werden so insgesamt 456 Bits für die Übertragung. Werden weniger wichtige Bits bei der Übertragung gestört, mindert das den Höreindruck kaum. Störungen der wichtigen Bits werden durch die Decodierung meist repariert. Erkennt der Empfänger an den Prüfbits des CRC-Codes der sehr wichtigen „Sprachbits“, trotz des vorhergehenden Reparaturversuches, einen Fehler, so wird der gesamte Block verworfen und durch eine Sprachextrapolation, dem Error Concealment, ersetzt. So kann die Störung von bis zu 16 aufeinander folgenden Sprachrahmen verschleiert werden. Anmerkung: Das Sprachcodierverfahren RELP für die Full-Rate-Übertragung beruht auf dem Stand der Technik Anfang der 90er Jahre. Mit der damals verfügbaren Komplexität der Mikroelektronik sollte die Bitrate bei noch akzeptabler Qualität möglichst klein werden. Für eine kurze Darstellung des RELP-Verfahrens siehe z. B. [VHH98]. CRC-Codes und Faltungscodes werden in [Wer08] kurz behandelt.
Interleaving (Bitverschachtelung) ) Da die Übertragungsqualität von Zeitschlitz zu Zeitschlitz stark schwanken kann, was besonders bei der Anwendung des Frequenzsprungverfahrens gilt, werden die Sprachbit-Rahmen ineinander verschränkt übertragen. Die Hälfte der Informationsbits eines Zeitschlitzes ist von je einem Sprachbit-Rahmen. Die 456 Bits werden auf 8 u 57 Bits, also auf acht Bursts (ca. 37 ms), aufgeteilt. Fällt ein Zeitschlitz wegen einer Übertragungsstörung oder einer mit Hilfe des Stealing-Flag eingeschobenen Signalisierungsmeldung aus, so kann der Fehler durch die Kanalcodierung korrigiert werden. Die Bitverschachtelung ist bei der Datenübertragung besonders wirksam, da dort die Verschachtelungstiefe ohne Rücksicht auf die Verarbeitungszeit relativ groß gewählt wer-
266
8 Mobilkommunikation
den kann. Bei GSM Phase 2 beträgt die Bitverschachtelungstiefe für Datendienste bis zu 19 Bursts, d. h. ca. 87 ms. Kanalentzerrung ) Durch die in der Mitte der Bursts übertragene bekannte Trainingsfolge, die Midamble, kann im Empfänger die bei der Übertragung erfolgte Verzerrung des Signals gemessen und zur Rekonstruktion der Nachricht berücksichtigt werden. Bei GSM können Laufzeitunterschiede über etwa 4 Bits ausgeglichen werden, was einer Umweglänge von ca. 4,8 km entspricht.
Sprachcoder
260 Bits
alle 20ms
Umsortieren nach Fehlerempfindlichkeit höchste 0 Ia49 50 0 49 53
niedrigste Empfindlichkeit
Ib
Blockcode
Ia 0
181 184
182 378
II 188
378
455
Bit
kein Fehlerschutz
Faltungscode R = 1/2
Ia+Ib 0
259
455 Bit
Tail
Ib 52 53
II
II 377 378
455
Bit
Bild 8-9 Aufbau eines Sprachbit-Rahmens (Full-Rate)
Die zum Teil aufwändigen Maßnahmen zur Verbesserung der Übertragungsqualität sind die Voraussetzung für die im Vergleich zur bisherigen Analogtechnik hohe Sprachqualität. Ebenso wichtig sind die nicht unmittelbar hörbaren Vorteile. Die Maßnahmen reduzieren die Störungen in den anderen Funkzellen und sorgen insgesamt für eine höhere spektrale Effizienz. Für den Teilnehmer bedeuten sie einen sparsamen Energieverbrauch in den Mobilgeräten, und nicht zuletzt eine möglichst geringe elektromagnetische Exposition. Aus den letztgenannten Gründen empfiehlt es sich beispielsweise nicht, bei schlechtem Empfang in abgeschirmten Räumen oder im Auto ohne Außenantenne mit einem Handgerät zu telefonieren. Ein Nachteil der digitalen Übertragungstechnik ist der abrupte Zusammenbruch der Übertragung bei zu starker Störung. Während bei der analogen Sprachübertragung eine zunehmende Störung als solche hörbar ist, wird sie bei der digitalen Übertragung durch die Kanalcodierung zunächst unterdrückt. Ist die Störung jedoch so stark, dass nicht mehr ausreichend viele Bits richtig erkannt werden, ist die Nachricht verloren. Das Gespräch bricht unvermittelt ab. Die ungünstigen Übertragungseigenschaften im Mobilfunk sind für die Datenübertragung besonders kritisch. Bleibt die Sprache auch bei einer Störung von einigen Prozent der übertragenen Bits noch verständlich, so sollte bei einer Datenübertragung, z. B. einem Software-Download, zum Schluss jedes einzelne Bit korrekt sein. Aus diesem Grund sieht der GSM-Standard
8.2 Global System for Mobile Communications (GSM)
267
Datenübertragungsdienste mit stärkerem Fehlerschutz als bei der Sprachübertragung vor. Wenn es die physikalische Mobilfunkübertragung erlaubt, sind in GSM Phase 2 seit 1996 transparente Datenübertragungsdienste bis zu 9,6 kbit/s möglich. Mit den später noch vorgestellten, Datenübertragungsdiensten bzw. -verfahren HSCSD, GPRS und EDGE sind in GSMNetzen heute wesentlich höhere Bitraten möglich.
8.2.3.3
Logische Kanäle und Burst-Arten
Der Betrieb der Funkschnittstelle eines öffentlichen Mobilfunknetzes erfordert einen hohen organisatorischen Aufwand. Deshalb stellt GSM maßgeschneiderte Steuer- (Signalisierungs-) und Verkehrskanäle als logische Kanäle bereit, deren Nachrichten innerhalb der beschriebenen Frequenzkanäle und Zeitschlitze übertragen werden. Bild 8-10 zeigt die Struktur der Verkehrskanäle, die Traffic Channel (TCH). Sie werden je nach dem, ob sie den Zeitschlitz mit einem anderen Teledienst teilen, in zwei Gruppen unterschieden, die nochmals in Sprach- und Datenkanäle untergliedert werden. Etwas aus der Rolle fällt der Rundfunkkanal CBCH, der Cell Broadcast Channel, der beispielsweise dazu benutzt wird, Kurznachrichten an alle Mobilgeräte in einer Funkzelle zu senden.
TCH/FS Mobile B-Channel 22.8 kbit/s Traffic Channel
Full-rate Speech 11.4 kbit/s Data
TCH/F9.6 9.6 kbit/s
Bm Data
TCH/F4.8 4.8 kbit/s
TCH
TCH/F2.4 Data
d 2.4 kbit/s
Lower-rate Mobile Channel 11.4 kbit/s Cell Broadcast Channel
CBCH
Lm
TCH/HS
Half-rate Speech 6.5 kbit/s Data
TCH/H4.8 4.8 kbit/s Data
TCH/H2.4 d 2.4 kbit/s
Bild 8-10 GSM-Verkehrskanäle
Für die Organisation der Funkübertragung werden die Steuerkanäle, die Control Channel (CCH), in Bild 8-11 verwendet. Sie erfüllen jeweils ganz spezielle Aufgaben. Ihre genaue Beschreibung würde den vorgesehenen Rahmen sprengen, weshalb hier nur beispielhaft das Einbuchen einer MS vorgestellt wird. Da nach dem Einschalten der MS vor dem eigentlichen Einbuchen erst die Funkzellenparameter bestimmt werden müssen, kommen dabei spezielle Bursts zur Anwendung.
268
8 Mobilkommunikation
Broadcast Control Channel Group
BCCH
Broadcast Control Channel : 782 bit/s
BCCH
FCCH
Frequency Correction Channel
BS
Control Channel
CCH Dm
MS MS MS
Common Control Channel Group
CCCH
Dedicated Control Channel Group
DCCH BS
MS
SCH
Synchronization Channel
PCH
Paging Channel : 782 bit/s BS
MS
RACH
Random Access Channel : 34 bit/s BS MS
AGCH
Access Grant Channel : 782 bit/s BS MS
SDCCH
Stand-alone Dedicated Control Channel : 782 bit/s
SACCH
Slow Associated Control Channel T : 382 bit/s; C : 391 bit/s
FACCH
Fast Associated Control Channel FR : 9200 bit/s; HR : 4600 bit/s
Bild 8-11 GSM-Steuerkanäle
Bild 8-12 fasst den Vorgang nach dem Einschalten der MS zusammen und Bild 8-13 zeigt eine Übersicht über die fünf verschiedenen GSM-Burst-Arten. Nach dem Einschalten durchsucht die MS die GSM-Bänder nach einem empfangbaren Broadcast Control Channel (BCCH) mit Frequency Correction Burst (FCB). Der FCB zeichnet sich durch ein festes Bitmuster aus lauter Nullen aus. Zusammen mit dem Modulationsverfahren, dem Gaussian Minimum Shift Keying (GMSK), resultiert daraus ein relativ schmalbandiges Signal, das mit 67 kHz über der Bandmitte des Frequenzkanals liegt. Nach erfolgreichem Empfang des FCB kennt die MS den Frequenzkanal und grob das Zeitschlitz-Raster für den Empfang der BTS. Als nächstes versucht die MS im Synchronization Channel (SCH) den Synchronization Burst (SB) zu detektieren. Weil die MS noch nicht richtig synchronisiert ist, wird die Detektion der Nachricht im SB durch eine 64 Bit lange Trainingsfolge unterstützt. Nach der erfolgreichen Detektion des SB ist die MS zeitlich synchronisiert und kennt die für das Anklopfen wesentlichen Netzparameter. Sie sendet dazu im Random Access Channel (RACH) den Access Burst (AB). Der AB ist deutlich kürzer als der Normal Burst. Da die MS die Entfernung und damit die Laufzeit zur BTS nicht kennt, muss verhindert werden, dass der AB außerhalb des für den RACH vorgesehenen Zeitschlitzes bei der BTS eintrifft. Mit der verkürzten Länge des AB ist dies für Funkzellenradien bis etwa 35 km gegeben. Anmerkung: Wird der darauf folgende Zeitschlitz vom Verkehr ausgeschlossen, also der Schutzabstand de facto um einen Zeitschlitz verlängert, so können auch größere Funkzellen unterstützt werden. Dies ist beispielsweise zur Anbindung des küstennahen Schiffverkehrs sinnvoll.
8.2 Global System for Mobile Communications (GSM)
269
Mobilstation (MS)
Basisstation (BTS)
1. Frequenzsynchronisation Frequenzkanal der BCCH-Gruppe in der Funkzelle suchen und grobes Zeitraster feststellen 2. Zeitsynchronisation
FCCH mit Frequency Correction Burst (FB) regelmäßig senden
FCCH
SCH mit Syncronization Burst (SB) regelmäßig senden
SCH
Zeitstruktur der Funkzelle feststellen und Daten über die Funkzelle detektieren 3. Anklopfen mit dem Access Burst über den RACH
RACH
regelmäßig horchen
DCCH (D) Bestätigung und Zuteilung eines Steuerkanals für die weitere Signalisierung DCCH (U)
4. weitere Signalisierung über den zugewiesenen Steuerkanal
Bild 8-12 Verbindungsaufbau MS – BTS
Legend:
Tail Bits
Midamble
Stealing Flag
Data
Guard Period
Normal Burst Training Sequence - 26 bits
Encrypted Data 57 bits
3
Encrypted Data 57 bits
3 8.25
Frequency Correction Burst 3
Fixed Bitpattern - 142 bits
3 8.25
Synchronization Burst 3
Extended Training Sequence 64 bits
Data - 39 bits
Data - 39 bits
3 8.25
Fixed Bitpattern - 58 bits
3 8.25
Dummy Burst 3
Fixed Bitpattern - 58 bits
Training Sequence - 26 bits
Access Burst 8
Syncronization Sequence - 41 bits
Data - 36 bits
3
68.25
576.9 Ps Bild 8-13 Bursts für die GSM-Übertragung
270
8 Mobilkommunikation
Empfängt die BS einen AB, so antwortet sie im Access Grant Channel (AGCH) mit einer Bestätigung und weist der Mobilstation für die weitere Signalisierung einen exklusiven Steuerkanal, den Dedicated Control Channel (DCCH), für Senden im Uplink (U) und Empfangen im Downlink (D) zu. Abschließend sei angemerkt, dass SMS-Nachrichten über die SDCCH- bzw. SACCH-Kanäle zugestellt werden. Die Verwendung des SDCCH ermöglicht die Übertragung während eines laufenden Telefongespräches. Über den SDCCH werden auch die Messprotokolle zur Unterstützung der Handover-Steuerung (Mobile Assisted Handover) gesendet.
8.2.4
High Speed Circuit Switched Data (HSCSD)
Mit der weiten Verbreitung des Internet mit seinen Multimedia-Inhalten sind die Ansprüche an die Geschwindigkeit der Datenübertragung gestiegen. Hier blieb GSM Phase 2 mit den im günstigsten Fall erreichbaren 9,6 kbit/s hinter dem aus dem Festnetz als Standard bekannten 56 kbit/s für analoge Modems bzw. 64 kbit/s für ISDN-B-Kanal-Modems weit zurück. Aus diesem Grund wurden in GSM die Bündelung von Verkehrskanälen eingeführt. Als High Speed Circuit Switched Data (HSCSD) ist der entsprechende Dienst seit dem Jahr 2000 für HSCSDfähige MSen in Deutschland verfügbar. Durch Zusammenfassen von bis zu vier Verkehrskanälen für einen Teilnehmer, Half-Rate sowie Full-Rate-Kanäle (mit modifizierter Kanalkodierung mit 14,4 kbit/s), lassen sich Datenraten bis 57,6 kbit/s realisieren. Die HSCSD hat jedoch für den Teilnehmer den Nachteil, dass ihm die gebündelten Verkehrskanäle exklusiv zugeordnet und somit verrechnet werden, auch wenn z. B. beim Editieren am Notebook oder beim Betrachten einer Web-Seite, keine Daten zur Übertragung anstehen. Man spricht von leitungsvermittelter oder leitungsorientierter Datenübertragung (Circuit Switched Data). Eine denkbare Anwendung ist beispielsweise der kurzzeitige Download „großer“ Datenmengen in verkehrsschwachen Zeiten und bei guter Verbindung zur Basisstation. Durch die Einführung von GPRS und UMTS hat die Attraktivität von HSCSD abgenommen. HSCDS ist nicht in allen GSM-Netz in Deutschland verfügbar.
8.2.5
GSM-Sicherheitsmerkmale
Die Grundvoraussetzung für die Akzeptanz eines öffentlichen Mobilfunknetzes ist der Schutz vor missbräuchlichem Netzzugang, die Vertraulichkeit der Nachrichten und die Anonymität der Teilnehmer und ihres Aufenthaltsorts. In GSM-Netzen haben deshalb die Sicherheitsmerkmale einen sehr hohen Stellenwert. Besonders angreifbar ist die Funkübertragung, da sie für jedermann zugänglich ist. Auf sie konzentrieren sich die Sicherheitsvorkehrungen. Für die leitungsgebundene Übertragung sind keine besonderen Maßnahmen vorgesehen, da die Telefonate meist in das öffentliche Telekommunikationsnetz gehen und ein höherer Sicherheitsstandard als dort demzufolge auch nicht garantiert werden kann. Anmerkung: Letzteres ist heute mit zunehmendem Datenverkehr über das Internet überholt. Zukünftige Mobilkommunikationssysteme sollen Ende-zu-Ende-Verschlüsselung unterstützen, wie z. B. bei UMTS vorgesehen.
Die Prüfung der Netzzugangsberechtigung nach Teilnehmeridentifizierung geschieht in zwei Schritten. Im ersten Schritt identifiziert sich der Teilnehmer durch die PIN bei der SIM-Card im Mobilgerät. Dadurch wird das Übertragen der PIN über die angreifbare Luftschnittstelle vermieden. Im zweiten Schritt wird die SIM-Card durch das Netz überprüft. Dies geschieht
8.2 Global System for Mobile Communications (GSM)
271
vereinfachend gesprochen durch eine zufällig ausgewählte Frage an die SIM-Card, die nur sie anhand ihres eingebauten Sicherheitsalgorithmus richtig beantworten kann. Nach dem Einschalten des Mobilgerätes ist als erstes falls nicht bereits als Plug-In fest eingebaut die SIM-Card einzuführen. Die SIM-Card ist eine Plastikkarte, in die ein Chip mit Mikrocontroller und Speicher eingesetzt ist, siehe Bild 8-14. Mit der vier- bis achtstelligen Geheimzahl (PIN) identifiziert sich der Teilnehmer gegenüber der SIM-Card. Wird die PIN dreimal hintereinander falsch eingegeben, wird die Karte gesperrt und kann nur mit der separaten achtstelligen Geheimzahl PUK (PIN Unblocking Key) wieder freigegeben werden. Zehnmaliges falsches Eingeben der PUK macht die SIM-Card unbrauchbar. Als einziger Dienst ohne SIM-Card ist der Notruf zugelassen. Anmerkung: Die SIM-Card hat sich mittlerweile mehr und mehr zu einem Mittel des elektronischen Bezahlens entwickelt. Heute lassen sich beispielsweise über Mobiltelefone Fahrkarten für den öffentlichen Nahverkehr lösen, Parktickets lösen und Internetzugänge über WLAN-Hotspots freischalten.
I/O
EPROM 16…64 KByte
Data
ME
CPU 8/16 bit
Address
Clock 1…5 (10) MHz
RAM 1…3 KByte
CPU Central Processing Unit EPROM Erasable Programmable ROM I/O Input/Output
ROM 40…100 KByte
ME ROM RAM
Mobile Equipment Read Only Memory Random Access Memory
Bild 8-14 Funktionsblöcke einer SIM-Card nach [Sau04]
Die Teilnehmeridentifizierung durch das Netz erfolgt auf der Basis der SIM-Card nach dem Challenge-Response-Verfahren in Bild 8-15. Dabei wird wieder weder Schlüssel noch Geheimzahl über die angreifbare Luftschnittstelle übertragen. Stattdessen generiert das AUC nach dem Zufallsprinzip eine 128 Bit lange Zahl RAND, von Random Number. Bei der Länge von 128 Bits gibt es etwa 3,41038 verschiedene Möglichkeiten, sodass ein zweimaliges Auftreten der gleichen Zahl – hier der gleichen Frage an den gleichen Teilnehmer – sehr unwahrscheinlich ist. Die Zahl RAND wird an die MS übertragen. Dort wird in der SIM-Card die Zahl RAND zusammen mit einem geheimen, teilnehmerspezifischen Schlüssel Ki aus 128 Bits in dem ebenfalls geheimen Algorithmus A3 verarbeitet. Das Ergebnis, der 32 Bit lange Wert SRES, von Signed Response, wird ans Netz zurückgegeben. Im AUC wird der Wert SRES ebenfalls berechnet. Das Netz vergleicht die beiden Werte und nur wenn sie übereinstimmen wird der MS die Zugangsberechtigung erteilt.
272
8 Mobilkommunikation
Ki
MS
Funkstrecke
Netz
Ki
RAND
RAND c A3-Algorithmus d
SRESMS
c SRES MS
A3-Algorithmus
d
SRES =? Nein
SRESMS Ja
Bild 8-15 Teilnehmeridentifizierung mit dem Challenge-Response-Verfahren
Die Einzelheiten des Verfahrens und die Teilnehmerschlüssel sind geheim und werden bei den jeweiligen Netzbetreibern unter besonderen Sicherheitsvorkehrungen verwaltet. Die notwendige Geheimhaltung des Verfahrens wird von Experten kritisiert, da sie ein zusätzliches Sicherheitsrisiko darstellt. Im Gegensatz dazu kennt die Kryptologie Verfahren, bei denen die Algorithmen öffentlich bekannt sein dürfen. Bei der Verschlüsselung der Nachrichten zeigt sich ein weiterer Vorteil der digitalen Übertragung. Durch eine einfache Exor-Verknüpfung der Bits mit der Verschlüsselungssequenz wird die Nachricht für den, der die Verschlüsselungssequenz nicht kennt, unkenntlich gemacht, siehe Bild 8-16. Verschlüsselungssequenz ...1101 0001
Verschlüsselungssequenz Funkübertragung
...1101 0001
Nachricht
verschlüsselt
verschlüsselt
entschlüsselt
...0100 1101
...1001 1100
...1001 1100
...0100 1101
EXOR
EXOR
Bild 8-16 Verschlüsselung der binären Nachrichten durch Exor-Verknüpfung
Die Verschlüsselungssequenzen werden in GSM mit speziellen Verfahren in der MS und im Festnetz erzeugt. Das Prinzip ist in Bild 8-17 skizziert. Um die angreifbare Luftschnittstelle zu umgehen, wird der Schlüssel Kc für die Verschlüsselungssequenz nicht übertragen. Der Schlüssel Kc umfasst 64 Bits und wird anhand des Schlüssels Ki, der Zufallszahl RAND und dem netzbetreiberspezifischen geheimen Algorithmus A8 ebenfalls auf der SIM-Card berechnet. Mit Hilfe von Kc, der auf der Luftschnittstelle signalisierten TDMA-Rahmennummer (RNr.) und dem geheimen, in der MS befindlichen Algorithmus A5 werden dann die Verschlüsselungssequenzen S1 und S2 fortlaufend berechnet. Die Verschlüsselung wird bereits bei der Teilnehmeridentifizierung durch das Prüfwort CKSN getestet. Während der Kommunikation im Normal Burst werden jeweils die 114 Nachrichtenbits der Teilnehmer verschlüsselt.
8.3 General Packet Radio Service (GPRS)
Ki
273
MS
RAND
Netz RAND
A8-Algorithmus RNr.
A8-Algorithmus
Kc
Kc
A5-Algorithmus S1
Ki
A5-Algorithmus
Funkübertragung
S2
RNr.
S1
c
d
d
c
S2
Bild 8-17 Verschlüsselung und Entschlüsselung der Nachrichten
Bei der Signalisierung zwischen dem Netz und der MS, wie beispielsweise das Rufen des Teilnehmers, muss eine unverschlüsselte Teilnehmerkennung übertragen werden. Um das Erstellen von Teilnehmer-Bewegungsprofilen auszuschließen, wird in GSM dem Teilnehmer bereits bei seiner Identifizierung eine temporäre Mobilteilnehmerkennung, die Temporary Mobile Subscriber Identity (TMSI), verschlüsselt zugewiesen. Die TMSI ist im gesamten Bereich der MSC gültig und wird auch im Netz verwendet. Wechselt die MS in den Bereich einer anderen MSC, wird von der aufnehmenden MSC eine neue TMSI zugeteilt.
8.3
General Packet Radio Service (GPRS)
8.3.1
Einführung
Eine üblicherweise kostspielige, leitungsorientierte Übertragung ist für eine typische InternetAnwendung mit stoßweisem Nachrichtenverkehr wenig geeignet. Beim Blättern in Web-Seiten mit abwechselnden Pausen für das Betrachten und Laden der Seiten ist nur kurzzeitig eine hohe Übertragungskapazität erforderlich. Hierfür eignet sich die aus dem Internet bekannte paketorientierte Übertragung besser. Ein weiteres Beispiel ist die häppchenweise Übertragung kleiner bis mittlerer Datenvolumina in verkehrsschwachen Zeiten. So könnten Außendienstmitarbeiter via Mobiltelefon über Nacht ihre Bestellungen übermitteln und Kataloge und Preislisten aktualisieren. Der Bedarf an paketorientierten Diensten mit entsprechend attraktiven Tarifmodellen wurde von den GSM-Netzbetreibern so hoch eingeschätzt, dass GSM um einen paketorientierten Teledienst, dem General Packet Radio Service (GPRS), ergänzt wurde. Bedingung war, die Kompatibilität mit der GSM-Luftschnittstelle. Die Frequenzkanäle und die Zeitschlitze mussten beibehalten werden. Neu gestaltet wurden die Verwaltung und Zugriffssteuerung der Funkressourcen sowie die Architektur auf Seiten des Festnetzes. GPRS ist seit 2001 in Deutschland verfügbar.
274
8.3.2
8 Mobilkommunikation
Paketübertragung mit Dienstmerkmalen
Die leitungsvermittelte Sprachtelefonie fußt auf dem Prinzip Geht-oder-geht-nicht und erfolgt in den drei Phasen: Verbindungsaufbau, Nachrichtenaustausch und Verbindungsabbau. Ganz anders ist das bei der Paketübertragung konkurrierender MSen auf der Luftschnittstelle. Die paketorientierte Datenübertragung in GPRS bringt neue Dienstanforderungen mit sich. Sie werden durch Dienstgüteprofile festgelegt. Während die Übertragung von Sprachrahmen den Sprachfluss nicht unterbrechen darf, liegen bei der Datenübertragung in der Regel keine eng begrenzenden Zeitanforderungen vor. Dafür sollen die empfangenen Daten fehlerfrei sein. Ist ein Sprachrahmen gestört oder gar verloren, so ist ein Nachsenden wegen der damit verbundenen unzulässigen Verzögerung überflüssig. Ist hingegen ein Datenrahmen gestört oder geht gar verloren, sollte er erneut übertragen werden. Für die Paketübertragung ist deshalb in der Regel eine gesicherte Übertragung erwünscht. Fehlererkennende Codes, Flusskontrolle, Quittierung und Übertragungswiederholung sind in den entsprechenden Protokollschichten vorzusehen. Der Vorteil der Paketübertragung, die bessere Systemauslastung, erschließt sich für GPRS erst, wenn die Übertragungskapazitäten der Luftschnittstelle flexibel genutzt werden können (Capacity on Demand). Hierfür sind der Vielfachzugriff durch die MSen und die Verteilung der Frequenzkanäle und Zeitschlitze effektiv zu lösen (Radio Ressource Management). Im Folgenden werden grundsätzliche Konzepte und Anforderungen der Paketübertragung und die Umsetzung bei GPRS kurz vorgestellt.
8.3.2.1
GPRS-Dienstgüte
Mit GPRS werden paketorientierte Teledienste eingeführt, die sich durch die Dienstgüte, die Geräteklasse und/oder Benutzerklasse, wie z. B. die gleichzeitige Benutzung unterschiedlicher Dienste, unterscheiden können. Die Einbeziehung der Dienstgüte (QoS, Quality of Service) spielt in Datennetzen eine zunehmend wichtigere Rolle. In GPRS sind die fünf Merkmale Dringlichkeit, Verzögerung, Verlässlichkeit, Spitzendurchsatz und mittlerer Durchsatz festgelegt. Die Dienstgüteeigenschaften sind definiert oder können durch Messungen statistisch erfasst und im Betrieb überprüft werden. GPRS kennt drei Dringlichkeitsklassen. Klasse 1 steht für hohe, Klasse 2 für normale und Klasse 3 für niedrige Priorität. Beispielsweise können bei hohem Verkehrsaufkommen Datenpakete der Klasse 1 übertragen werden, während andere Datenpakete zurückgestellt werden. Die zulässigen Verzögerungen bei der Übertragung zwischen zwei GPRS-Dienstzugangspunkten werden in die vier Verzögerungsklassen in Tabelle 8-4 eingeteilt. Es wird zwischen kurzen und langen Paketen unterschieden. Angegeben wird jeweils die mittlere Verzögerung und der Wert der bei 95% der Pakete nicht überschritten wird. Die Werte schwanken zwischen etwa einer Sekunde und sechs Minuten. Mit den relativ langen Verzögerungen wird den typischen Störungen der Mobilfunkübertragung Rechnung getragen. Bei der Klasse 4 werden vom Netz keine Werte garantiert. Hierfür hat sich der englische Begriff „Best Effort“ eingebürgert. Die Verlässlichkeit der zugestellten Datenpakete wird über die Art der Übertragungssicherung charakterisiert. Dabei wird zwischen fünf Fehlerarten unterschieden: ein verloren gegangenes Paket, ein dupliziertes Paket, ein Paket in falscher Reihenfolge oder ein verfälschtes Paket. Die ersten vier Fehlerarten können durch eine Flusskontrolle und das verfälschte Paket durch eine Kanalcodierung bekämpft werden.
8.3 General Packet Radio Service (GPRS)
275
Tabelle 8-4 GPRS-Verzögerungsklassen 128-Byte-Paket
1024-Byte-Paket
QoS
Mittelwert
95%-Wert
Mittelwert
95%-Wert
1
0,5 s
1,5 s
2s
7s
2
5s
25 s
15 s
75 s
3
50 s
250 s
75 s
375 s
4
Best Effort
Es existieren fünf Verlässlichkeitsklassen. In Tabelle 8-5 sind in der ersten Spalte die Klassen genannt. Von Klasse 1 nach Klasse 5 nimmt die Verlässlichkeit ab. Die zweite bis fünfte Spalte bezieht sich jeweils auf den GPRS-Protokollstapel. Er wird im nächsten Unterabschnitt vorgestellt. In Tabelle 8-5 bewegt man sich von links nach rechts logisch gesehen von oben nach unten im Protokollstapel. Man nähert sich quasi der Luftschnittstelle an. GTP steht für das GPRS Tunnel Protocol mit dem die Daten im Festnetzteil übertragen werden. Die Protokollschicht Logical Link Control (LLC) ist für den Austausch der Datenpakete zwischen Vermittlungsschicht und Mobilstation in Form von LLC-Rahmen zuständig. Für die LLC-Rahmen kann optional eine Flusskontrolle mit Quittierung (ACK, Acknowledgement) und ein fehlererkennender Code (Frame Check Sequence) (PR, Protected) eingesetzt werden. Die Segmentierung der LLC-Rahmen in zu den Zeitschlitzen der Luftschnittstelle passende Blöcke, siehe Bild 8-6, wird in der Schicht Radio Link Control (RLC) durchgeführt. Dabei kann optional ein Faltungscode verwendet werden, mit dem Fehler erkannt und korrigiert werden können. Tabelle 8-5 GPRS-Verlässlichkeitsklassen Klasse
GTP1
LLCRahmen2
LLCDaten
RLCBlock3
Verkehrsart
1
ACK4
ACK
PR5
ACK
nrt
2
UACK4
ACK
PR
ACK
nrt
3
UACK
UACK
UPR5
ACK
nrt
4
UACK
UACK
UPR
UACK
rt
5
UACK
UACK
UPR
UACK
rt
1 2 3
GTP LLC RLC
GPRS Tunnel Protocol Logical Link Control Radio Link Control
4 5 6
ACK / UACK PR / UPR RT / NRT
Sicherheit verlustsensitiv fehlersensitiv gering verlustsensitiv fehlersensitiv nicht verlustsensitiv fehlersensitiv nicht verlustsensitiv fehlersensitiv nicht verlustsensitiv nicht fehlersensitiv
Acknowledged / Unacknowledged Protected / Unprotected Real Time / Non Real Time
Je nachdem welche Sicherungsverfahren eingesetzt werden, können Paketverluste oder gestörte Pakete erkannt werden. Klasse 1 stellt mit der Flusskontrolle und der fehlererkennenden Codierung einen verlustsensitiven und fehlersensitiven Übertragungsmodus zur Verfügung. Bei
276
8 Mobilkommunikation
der Klasse 3 wird keine Flusskontrolle und kein fehlererkennder Code in der LLC-Schicht verwendet. Jedoch werden die RLC-Blöcke mit dem Faltungscode geschützt, so dass viele Fehler erkannt werden können. Bezüglich der Zeitanforderungen sind zwei Modi vorgesehen: Echzeit- (Real-Time-, rt-) und Nicht-Echzeit- (Non-Real-Time-, nrt-)-Übertragung. Im Falle des nicht zeitkritischen nrt-Verkehrs können zuverlässige Verfahren zur Flusskontrolle (ACK) und Fehlersicherung (PR) auf den höheren Protokollschichten eingesetzt werden. Damit lassen sich im üblichen Rahmen der Restfehlerwahrscheinlichkeiten verlässliche Dienste konfigurieren. Wird, wie in den Klassen 4 und 5, rt-Verkehr gewählt, also eine harte Zeitanforderung gestellt, wird auf die Flusskontrolle und die Fehlersicherung auf GTP- und LLC-Ebene verzichtet. Damit lassen sich der Verlust von LLC-Rahmen und RLC-Blöcken nicht mehr erkennen. Die Übertragung ist nicht verlustsensitiv. Wird auch noch, wie bei der Klasse 5, auf die Kanalcodierung in der RLC-Schicht verzichtet, so sind auch Bitfehler nicht mehr erkennbar. Die Übertragung ist nicht fehlersensitiv. Anmerkung: Die Anwendung der Klasse 5 muss nicht bedeuten, dass die Daten überhaupt nicht geschützt sind. Hier wird nur seitens des GPRS-Netzes kein Schutz vorgesehen. Es bleibt den Anwendern überlassen, die Daten vor dem (Sende-) GPRS-Zugangspunkt mit der gewünschten Redundanz zu versehen und nach Übernahme am (Empfangs-) GPRS-Zugangspunkt zu kontrollieren. Unter Umständen ist es nützlicher auf den zusätzlichen Fehlerschutz durch GPRS zu verzichten.
Explizite Werte für die Fehlerwahrscheinlichkeiten findet man in [EVB01] Tabelle 11.2. Sie geben einen Eindruck von der geplanten Zuverlässigkeit der GPRS-Datenübertragung. Für die Klasse 1 wird die Wahrscheinlichkeit für ein verloren gegangenes Paket, ein dupliziertes Paket, ein Paket in falscher Reihenfolge oder ein verfälschtes Paket jeweils mit 10-9 angegeben. Und in der Klasse 3 sind die entsprechenden Wahrscheinlichkeiten 10-2, 10-5, 10-5 und 10-2. Als letztes Dienstgütemerkmal wird der Durchsatz betrachtet. Für GPRS sind Klassen für den Spitzendurchsatz und den mittleren Durchsatz festgelegt. Für den mittleren Durchsatz ist eine weite Spanne mit 19 Klassen vorgegeben. Sie beginnt mit Klasse 1 für „Best Effort“, Klasse 2 für | 0,22 bit/s, Klasse 3 für | 0,44 bit/s, Klasse 4 für | 1,11 bit/s und endet mit Klasse 19 mit | 111 000 bit/s (112 kbit/s). Anmerkung: Die Werte für die anderen Klassen erhält man, wenn man die Werte der Klassen 2 bis 4 jeweils um den Faktor 10 erhöht.
8.3.2.2
Zugriff auf die GSM-Luftschnittstelle
Endgeräte mit der Fähigkeit zur Multislot-Operation, d. h. auf mehreren Zeitschlitzen eines TDMA-Rahmens zu übertragen, kommen den Wünschen der Teilnehmer nach leistungsfähigen mobilen Internet-Anwendungen entgegen. Die Multislot-Fähigkeit von GPRS verbindet den Vorteil der Kanalbündelung von HSCSD ohne den Nachteil der exklusiven Kanalbelegung. Kurzzeitig können freie Ressourcen aus dem Pool der GSM-Frequenzkanäle und ihrer Zeitschlitze zu einem schnellen Download genutzt und wieder frei gegeben werden. Die dynamische Kanalzuteilung ermöglicht eine verbesserte Systemauslastung. Die Kunden profitieren von meist schnellen Datenübertragungen mit attraktiveren Abrechnungsmodellen nach Datenvolumen. Aber auch Anwendungen mit eher sporadischem Verkehr profitieren von der dynamischen Kanalzuteilung, da ihre gelegentlichen Datenpakete aufwandsgünstig eingeschoben werden können. Anmerkung: Die dynamische Kanalzuteilung und die nachfolgend beschriebene Codeumschaltung sind zwei Beispiele, wie durch den Einsatz von Mikrocontrollern und Software nachrichtentechnische Syste-
8.3 General Packet Radio Service (GPRS)
277
me adaptiv werden. Die Leistungsfähigkeit der modernen Mobilkommunikation, speziell bei UMTS und WLAN, beruht auf der Anpassungsfähigkeit der Übertragungsverfahren allerdings für den Preis größerer Komplexität in Hard- und Software.
Für das Verständnis des Zugriffs auf die GSM-Luftschnittstelle Um in Bild 8-2 ist ein kurzer Blick auf die GPRS-Protokollarchitektur notwendig. Bild 8-18 zeigt die Protokollschichten für die Datenübertragung (Transmission Plane). Für die logische Steuerung der Verbindung zwischen MS und BSS ist die Radio-Link-Control- (RLC-) Schicht zuständig. Sie verbindet die Logical-Link-Control- (LLC-) Schicht mit der Medium-Access-Control- (MAC-) Schicht.
MS
Data Link Layer Physical
BSS BSSGP RFL LLC MAC
SNDCP LLC RLC MAC PLL RFL
BSS
SGSN
Relay
Um
Base Station Subsystem BSS GPRS application protocol physical Radio Frequency Layer Logical Link Control Medium Access Protocol
RLC MAC PLL RFL
NSP PLL RLC SGSN SNDCP
BSSGP NSP Physical Layer
Gb
SNDCP LLC RLC MAC Physical Layer
Network Service Protocol Physical Link Layer Radio Link Control Serving GPRS Support Node SubNetwork Dependent Convergence Protocol
Bild 8-18 GPRS-Protokollarchitektur für die Datenübertragung auf der Luftschnittstelle (Transmission Plane)
Die LLC-Schicht stellt für die Übertragung LLC-Rahmen, wie in Bild 8-19 gezeigt, bereit. Sie bestehen in der Regel aus Rahmenkopf (FH, Frame Header), z. B. für Steuerinformation für die Flusskontrolle, dem Informationsfeld mit den zu übertragenden Daten (Information, Payload) und der Fehlerprüfsumme (FCS, Frame Check Sequence). Die RLC-Schicht nimmt die LLC-Rahmen entgegen, segmentiert sie auf geeignete Länge und fügt eigene Steuerinformation und Redundanz hinzu. Bild 8-19 zeigt das Prinzip für die BSS. Die Zahlenwerte beziehen sich beispielhaft auf das Codierschema CS3 (Coding Scheme 3), was später noch erläutert wird. Eine besondere Rolle spielen die Bits im Feld USF. Sie helfen beim Lösen des Vielfachzugriffproblems. Um Kollisionen von Datenpaketen der MSen, d. h. gegenseitige Zerstörung der Nachrichten auf der Luftschnittstelle, zu vermeiden, wird in GPRS das Master-Slave-Konzept umgesetzt. Das BSS (Master) zeigt im Feld USF an, welche Kanäle im Uplink frei sind und welche MSen (Slave) sie jeweils nutzen dürfen. Man bezeichnet die Signalisierungsbits deshalb als Uplink State Flags (USF). Ihrer Wichtigkeit entsprechend, werden die USF-Bits vorab durch zusätzliche Codierung geschützt. Aus je einem RLC-Block wird für die Funkübertragung ein Radio Block mit der festen Länge von 456 Bits erzeugt. Dazu wird ein Faltungscode eingesetzt. Im Beispiel des CS3 wird der RLC-Block unter Hinzunahme von vier Schlussbits (Tailbits) mit der Rate 1/2 codiert. Aus den 338 Bits des RLC-Blocks entsteht ein Codewort der Länge 676 Bits. Um die für die GSM-
278
8 Mobilkommunikation
Burststruktur geforderte Länge von 456 Bits zu erhalten, werden nach einem bestimmten Muster etwa 1/3 der Bits entfernt. Man spricht von Punktieren, bzw. punktiertem Faltungscode. Die resultierende Coderate ist ca. 1/(22/3) = 3/4. Anmerkung: Die punktierten Stellen in den Codewörtern sind auch im Empfänger bekannt. Bei der Decodierung werden die punktierten Bits entsprechend berücksichtigt, so dass die Punktierung zwar keine Prüfstellen liefert aber selbst keine Fehler induziert. Allerdings verringern sich die Coderaten und damit die Robustheit der Codierungen gegen Übertragungsfehler.
Die Bits des Radio-Blocks werden verschachtelt und in vier Segmente à 114 Bits aufgeteilt, entsprechend den 114 Informationsbits eines Normal-Burst. Die weitere Übertragung kann nun von der physikalischen Schicht übernommen werden.
LLC-Rahmen
FH
Information
FCS
Segmentierung Segment
RLC-Block (CS3) Bits
USF
H
6
19
Segment
Segment
Faltungscodierung mit Rate 1/2
Codewort
Segment
Information
BCS
293
16
334 Bits + 4 Tailbits
676 Bits Punktierung
Radio Block
456 Bits Interleaving und Segmentierung Burst-Segment Burst-Segment Burst-Segment Burst-Segment Bits
114
114
114
114
Bild 8-19 Rahmenverarbeitung der Radio-Link-Control-Schicht (RLC) für das Codierschema CS3 in der BSS
In der RLC-Schicht ist je nach Übertragungsverhältnissen bzw. Dienstanforderungen pro Zeitschlitz eine der vier Kanalcodierungsschemata CS1 bis CS4 vorgesehen, so dass sich die Datenraten 9,05, 13,4, 15,6 oder 21,4 kbit/s ergeben. Erreicht wird das durch Punktierung eines Faltungscodes. Dabei wird der Anteil der Bits zum Fehlerschutz bei guten bis sehr guten Übertragungsbedingungen von 50 % auf | 33 %, | 25 % oder 0 % reduziert, was den Coderaten 1/2, | 2/3, | 3/4 und 1 (keine Redundanz) entspricht. Steuernachrichten werden mit CS1 bestmöglich geschützt.
8.3 General Packet Radio Service (GPRS)
279
Bei Bündelung von acht Zeitschlitzen, entsprechend multimodefähige MS und BTS vorausgesetzt, und CS4-Codierung bei störungsfreier Übertragung ergibt sich ein theoretischer Maximalwert der Datenrate von 171,2 kbit/s. Vor der Codierung werden auch einige Signalisierungsbits (z. B. USF, Header, BCS) hinzu gegeben, siehe Bild 8-19. Aus der Sicht der Teilnehmer reduziert sich die effektive Bitrate ohne Kanalbündelung deshalb auf 8, 12, 14,4 oder 20 kbit/s. Durch zusätzliche Kanalbündelung sind im praktischen Einsatz Nettobitraten von ca. 56 kbit/s, vergleichbar zu einfachen Telefonmodems, darstellbar.
8.3.3
GPRS-Systemarchitektur
Die GSM-Netzarchitektur in Bild 8-2 wurde primär für die mobile Sprachtelefonie konzipiert. Für die Realisierung der paketorientierter Übertragungsdienste von GPRS muss eine neue Systemarchitektur eingesetzt werden. Sie wird, wie in Bild 8-20 gezeigt, parallel zum ursprünglichen Network Subsystem (NSS) in Bild 8-2 aufgebaut, das GPRS Switching Subsystem (GSS).
NSS
RSS
OSS
BSS HLR
AUC
GR MS
BTS
MSC VLR
BSC
Gr MS
EIR
D
OMC
Gs
Gf
BTS SGSN
Gb BSC BTS
GGSN SGSN GR GSS Gx
Gateway GPRS Support Node Serving GPRS Support Node GPRS Register GPRS Switching Subsystem GSS Interfaces
GGSN
Gn
Gd SMS-GMSC SMS-IWMSC
GMSC IWMSC MSC PDN SMS
PDN
Gi Gp
GPRS PLMN
Gateway MSC Interworking MSC Mobile Switching Center Packet Data Network Short Message Service
Bild 8-20 GSM-Systemarchitektur für GPRS
280
8 Mobilkommunikation
Der externe Netzzugang geschieht über den Gateway GPRS Support Node (GGSN). Er dient als Verbindung zu externen paketorientierten Netzen (Packet Data Network) und ist für die Protokollumsetzung zuständig, wie z. B. das Zuordnen von Internetpaketen zu den GPRS-Teilnehmern. Der Serving GPRS Support Node (SGSN) unterstützt die Funktionalitäten der GPRSDienste, -Geräte und -Teilnehmer. Er hat Zugriff zu den dafür notwendigen Datenbankerweiterungen im HLR und im EIR. Für das Mobilitätsmanagement der GPRS-Teilnehmer steht ihm das VLR zur Verfügung. Die Übertragung der Datenpakete vom SGSN geschieht direkt auf die BSC und dann über die Luftschnittstelle, wo Frequenzkanäle und Zeitschlitze je nach Verkehrsbedarf dynamisch zwischen Sprachübertragung, leitungsorientierter (HSCSD) und paketorientierter (GPRS) Datenübertragung aufgeteilt werden. Da grundsätzlich auch MSen vorgesehen sind, die nur GPRS unterstützen, muss GPRS die bereits aus GSM bekannten Aufgaben eines Mobilfunksystems ebenfalls lösen. Dazu gehören beispielsweise das Einbuchen von Teilnehmern, die Unterstützung von Sicherheitsmerkmale, das Bereitstellen eines Mobilitätsmanagement, usw. Konsequenterweise besitzt GPRS dafür auf der Luftschnittstelle eine Struktur logischer Kanäle wie GSM mit Verkehrskanälen, z. B. den Packet Data Traffic Channel (PDTCH) und maßgeschneiderten Steuerkanälen, wie den Packet Random Access Channel (PRACH). Eine Übersicht über die logischen Kanäle gibt Bild 8-21.
PRACH Packet Random Access Channel Packet Common Control Channel
BS
PPCH
PCCCH
Packet Data Channel
PDCH
MS
Packet Paging Channel BS
MS
PAGCH
Packet Access Grant Channel BS MS
PNCH
Packet Notification Channel BS MS
PBCCH Packet Broadcast Control Channel BS Packet Traffic Channel
MS MS MS
PDTCH Packet Data Traffic Channel
PTCH PACCH BS
Packet Associated Control Channel
MS Bild 8-21 Logische GPRS-Kanäle
8.4 Enhanced Data Rates for GSM Evolution (EDGE)
8.4
281
Enhanced Data Rates for GSM Evolution (EDGE)
Zu den wirtschaftlichen Gründen treten zwei wichtige technische Impulse für die Weiterentwicklung der GSM-Netze. Zum ersten hat der zunehmende Ausbau der GSM-Netze in Ballungsräumen zu Funkzellen mit Abmessungen von wenigen hundert Metern und darunter geführt. Deren momentane Zustände sind den Steuerrechnern im Mobilfunknetz durch die ständigen, automatischen Erhebungen von Verbindungs- und Funkparametern bekannt. Zum zweiten ermöglicht der Fortschritt der Digitaltechnik heute leistungsfähige Mikroprozessoren in den Endgeräten. Damit lassen sich anspruchsvolle Algorithmen der digitalen Signalverarbeitung softwaregesteuert einsetzen. Beide Impulse münden in die Idee des „Software Radio“; also eines Endgeräts, welches die Funkschnittstelle in Absprache mit dem Netz je nach gewünschtem Dienst und den speziellen Bedingungen in der Funkzelle einstellt. Mit Enhanced Data Rates for GSM Evolution (EDGE) gehen die GSM-Netze einen weiteren Schritt in Richtung „Software Radio“. EDGE wurde 1997 als Weiterentwicklung der HSCSDund GPRS-Datendienste von der ETSI vorgeschlagen. Um den gleichzeitigen Betrieb von herkömmlichen Endgeräten und neuen EDGE-Geräten zu ermöglichen, werden die Frequenzkanäle und das TDMA-Raster beibehalten. Durch ein Bündel von Maßnahmen können falls die Situation in der Funkzelle es erlaubt auf der Funkschnittstelle höhere Bitraten zur Verfügung gestellt werden. EDGE ersetzt das bisherige Modulationsverfahren GMSK durch die 8-PSK-Modulation (Phase Shift Keying, Phasenumtastung). Statt wie bei GMSK ein Bit pro Zeitschritt, werden gleichzeitig 3 Bits übertragen, wie Bild 8-22 veranschaulicht. Die 8-PSK-Modulation besitzt acht Symbole, die gleichmäßig auf einem Kreis angeordnet sind. Hier kann pro Zeitschritt beliebig gewechselt werden, so dass mit jedem Symbol drei Bit (23 = 8) angezeigt werden. Anmerkung: Die GMSK-Modulation von GSM kann im Wesentlichen als modifizierte MSK-Modulation auf die Offset-QPSK mit Impulsformung zurückgeführt werden. Pro Zeitschritt, d. h. Bitintervall Tb = 576,9 Ps / 156,25 | 3,69 Ps, wird ein Bit übertragen, da ein Symbolwechsel nur zu einem der beiden Nachbarsymbole möglich ist. Im
Im 000
010 011
„1“ „0“
Re
001
Re 111
101 MSK Übertragung eines Bits pro Zeitschritt (Übergangsmöglichkeiten beschränkt)
100 8-PSK
110
Übertragung dreier Bits pro Zeitschritt (alle Übergänge möglich)
Bild 8-22 Symbole der MSK-Modulation (| GSM) und 8-PSK-Modulation (EDGE) Warum wurde nicht gleich die 8-PSK-Modulation bei GSM eingesetzt? Die Antwort findet man in den Besonderheiten der Mobilfunkübertragung, siehe Abschnitt 8.2.3.2. Die GMSKModulation stellt einen guten Kompromiss zwischen hoher Bandbreiteneffizienz und großer
282
8 Mobilkommunikation
Robustheit gegen Störungen dar. Für GSM-Empfänger ist die Zielgröße des Quotienten aus der Leistung des Nutzsignals (Carrier) durch die Leistung der Störsignal (Interferer), C/IVerhältnis genannt, 15 bis 20 dB (30…100). Für die 8-PSK-Modulation ist ein etwa 20 dB größeres C/I-Verhältnis, also etwa der Faktor 100, erforderlich. Da die Funkübertragung mit der 8-PSK-Modulation störanfälliger als das bisherige Verfahren ist, werden, eine neue Sendeleistungsregelung (Link Quality Control, LQC) und eine von aktuellen Messdaten abhängige dynamische Anpassung der Modulation und der Codierung nach einem neuen Enhanced Coding Scheme (ECS) eingesetzt. Pro Zeitschlitz sind Bruttobitraten von 29, 32 und 43 kbit/s vorgesehen. Mit Kanalbündelung sind bei ausreichender Kanalqualität bis zu 384 kbit/s möglich. EDGE kann prinzipiell für GPRS und HSCSD eingesetzt werden. Man spricht dann von Enhanced GPRS (EGPRS) oder Enhanced CSD (ECSD). Anmerkungen: (i) Da die EDGE-Übertragung bei höheren Datenraten anfälliger ist, ist abhängig von der jeweiligen Situation mit Abstrichen im tatsächlich erzielten Datendurchsatz zu rechnen. (ii) Als Mindestkriterium für Mobilfunknetze der 3. Generation hat die ITU die Datenrate von 384 kbit/s festgelegt. Für Betreiber von GSM/GRPS-Netzen eröffnet EDGE somit einen Migrationspfad zu einem Netz der 3. Generation, was im Zusammenhang mit Verlängerungen von Betriebsgenehmigungen und Frequenzvergaben eine wichtige Rolle spielen kann.
8.5
Universal Mobile Telecommunication System
8.5.1
Einführung
Beflügelt von GSM, Internet und den Erfolgen der New Economy setzte sich bei den in Wirtschaft und Politik Verantwortlichen die Meinung durch, nur durch eine rasche Einführung eines neuen multimediafähigen Mobilfunknetzes mit neuen Frequenzbändern könne der Bedarf an neuen Diensten und Übertragungskapazitäten in naher Zukunft gedeckt werden. Internationale Forschungsprojekte wurden aufgelegt und in Koordinierungsgremien und Standardisierungsorganisationen weltweit die Arbeit intensiviert. So sollte um das Jahr 2000 ein möglichst global harmonisiertes Mobilfunksystem der 3. Generation eingeführt werden. Die Arbeiten in China, Europa, Korea, Japan und den USA führten schließlich nicht zu einem einheitlichen System, jedoch entstand ein hohes Maß an gegenseitiger Abstimmung im 3rd Generation Partnership Project (3GPP und 3GPP2). Anmerkungen: (i) Die weltweite Einführung der digitalen Mobilfunksysteme der 2. Generation geschah uneinheitlich. Wichtig waren neben den aktuellen technischen Entwicklungen und den wirtschaftlichen Überlegungen der Hersteller und Betreiber auch industriepolitische Entscheidungen in den jeweiligen Ländern. Es haben sich zwei Systeme durchgesetzt: GSM/GPRS und cdmaONE, ein in den USA entwickeltes System mit CDMA-basierter Luftschnittstelle. (ii) Für die wirtschaftlich erfolgreiche Einführung der 3. Generation ist wichtig, die in die 2. Generation getätigten Investitionen weiter nutzen zu können. Man spricht von einer Migration der Systeme. Dementsprechend haben sich zur Standardisierung durch die ITU, dort IMT 2000 (International Mobile Telecommunications) genannt, zwei Partnerschaften gebildet. In der Projektgruppe 3GPP schlossen sich zur Unterstützung von UMTS zusammen: ANSI T1 (ANSI Standards Committee T1, USA), ARIB (Association of Radio Industries and Businesses, Japan), CWTS (China Wireless Telecommunication Standard Organization, China), ETSI (European Telecommunications Standards Institute, Europa), TTA (Telecommunication Technology Association, Korea) und TTC (Telecommunication Technology Committee, Japan). Die Weiterentwicklung des Systems
8.5 Universal Mobile Telecommunication System
283
cdmaONE zu CDMA 2000 hat sich die Projektgruppe 3GGP2 vorgenommen. Mitglieder sind: ANSI T1, ARIB, CWTS, TIA, TTA und TTC. Beide Projektgruppen arbeiten zusammen, was auch durch die Mehrfachmitgliedschaften zum Ausdruck kommt.
In Europa definierte ETSI 1999 mit dem Release 3, auch Release 99 genannt, wesentliche Eckdaten für die erste Phase des Universal Mobile Telecommunication System (UMTS). UMTS stützt sich auf die bei der WARC 1992 zugewiesenen Frequenzbänder für den öffentlichen Mobilfunk von 1885 … 2025 MHz und 2110 … 2200 MHz. Diese sind nicht ausschließlich für terrestrische Systeme der 3. Generation bestimmt und werden in manchen Ländern teilweise auch anderweitig genutzt. Für UMTS steht in Europa das Frequenzband von 1900 … 1980 MHz und 2110 … 2170 MHz exklusiv zur Verfügung. Man beachte die unterschiedlichen Breiten der beiden Bänder. Zweimal 60 MHz sind für den Frequenzduplex-Modus (FDD, Frequency Division Duplex) mit dem Duplexabstand 190 MHz reserviert. Im unteren Band findet der Abschnitt von 1900 … 1920 MHz keine Entsprechung. Deshalb wurde unter anderem auch ein Zeitduplex-Modus (TDD, Time Division Duplex) standardisiert. Für ihn steht zusätzlich der Bereich von 2010 … 2025 MHz zur Verfügung. Im Jahr 2000 versteigerte die Bundesrepublik Deutschland öffentlich Frequenzbänder mit je 5 MHz Breite. Den Zuschlag erhielten sechs Unternehmen für zusammen etwa 50 Milliarden €. In den Informations- und Kommunikationstechnik- (ITK-) Sektor wurden große Erwartungen gesetzt. Sie haben sich nicht erfüllt. Die Börsennotierungen vieler Dotcom- und ITK-Firmen sind weltweit stark gefallen und manche Unternehmen mussten ganz aufgeben. Zwei der Firmen mit ersteigerten UMTS-Lizenzen haben inzwischen ihre Pläne fallen gelassen. Die Einführung von UMTS wird neben der allgemein gedämpften wirtschaftlichen Lage auch dadurch gehemmt, dass aus heutiger Sicht das Potential von GPRS nicht ausgeschöpft wurde; d. h., der Markt an Datendiensten nicht ausreichend entwickelt wurde und der Branche dadurch die für die UMTS-Investitionen erforderliche Wertschöpfung versagt blieb. Anmerkung: Das Platzen der sogenannten Dotcom-Blase im Jahre 2000 verdeutlicht das Beispiel der Deutschen Telekom besonders. Die Aktie der Deutschen Telekom fiel nach ihrem Höchststand am 6. März 2000 von 103,5 € bis 30. September 2002 auf 8,42 €, also unterhalb ihres Ausgabekurses.
Auch wenn die Einführung von UMTS nicht in der erhofften Geschwindigkeit erfolgte, die Geschäftspläne von Herstellern und Netzbetreiber bzw. die politischen Vorgaben zu optimistisch waren, sind die UMTS-Netze in ihren Möglichkeiten GSM/GPRS-Netzen so weit überlegen, dass sich UMTS schließlich durchsetzte. Im Jahr 2008 werden in Deutschland bereits mehr als 10 Mio. UMTS-Anschlüsse gezählt. Als 3. Generation kann UMTS auf GSM und GPRS aufbauen. Mit GSM wurde ein Mobilitätsmangement für Teilnehmer und Mobilstationen mit einem bewährten Sicherheitskonzept eingeführt. GPRS erweiterte das leitungsorientierte GSM um die Paketübertragung mit effektivem Dienst-Management. Die bei GSM und GPRS implementierten Lösungen findet man entsprechend bei UMTS wieder. Deshalb und weil eine ausführliche Darstellung den abgesteckten Rahmen sprengen müsste werden im Folgenden drei wichtige Innovationen bei UMTS kurz vorgestellt: das Dienstspektrum, die Systemarchitektur und die Luftschnittstelle.
8.5.2
UMTS-Dienste
Am Anfang der technischen Planungen für UMTS standen unter anderem die Fragen nach dem verfügbaren und benötigten Frequenzspektrum. Dazu wurden ein Dienstemodell eingeführt
284
8 Mobilkommunikation
und die Fragen spezifischer gestellt: Welche heutigen und zukünftigen Teledienste in Festnetzen sollen in UMTS unterstützt werden? Welche Teledienste sollen für UMTS hinzukommen? Welche Parameter haben die Dienste? Welche Vorgaben an Nettobitraten, Dienstsymmetrien, Nutzungsgraden, Codierfaktoren, Bitfehlerquoten und Übertragungszeiten sind zu beachten? Nimmt man noch die Betriebsumgebungen, wie Wohngegend, Geschäftsgebäude, usw. mit typischen Zahlen an Benutzern und Verkehrsverhalten hinzu, resultieren Modelle mit denen sich für bekannte Übertragungsverfahren Schätzwerte für den zukünftigen Bandbreitenbedarf bestimmen. Eine Betrachtung der Modelle würde hier zu weit gehen. In [Wal01] wird eine Schätzung der Bandbreitenbedarf von ca. 400 MHz für das Jahr 2005 und 580 MHz für 2010 geschätzt. Anmerkung: Bei der Abschätzung des Verkehrsbedarfes in der (Vor-) Planungsphase spielen wirtschaftspolitische Überlegungen eine große Rolle. Geht es doch darum, in internationalen Gremien kostbare Frequenzbänder für die Mobilkommunikation zu akquirieren und in den Firmen Investitionsentscheidungen in beträchtlichen Höhen vorzubereiten. Letzten Endes überzeugen nur rational nachvollziehbare Modelle.
Aus den Überlegungen zum Dienstmodell ergeben sich drei besondere Anforderungen für UMTS: Kundenzufriedenheit: effiziente Unterstützung des Dienste-Mix mit hoher Dienstgüte wie im Festnetz. Dienstangebot: Datenraten für Multimedia-Anwendungen auf der Luftschnittstelle von bis zu 384 kbit/s in der Fläche und bis zu 2 Mbit/s in geschlossenen Räumen. Frequenzressourcen: effiziente Nutzung durch dynamische Bitratenzuteilung auf der Luftschnittstelle nach Dienstanforderungen und Kanaleigenschaften.
8.5.3
UMTS-Systemarchitektur
Die Systemarchitektur von UMTS fußt auf GSM/GPRS und der von ETSI vorgeschlagenen globalen Multimedia-Transportplattform für Mobilität, Global-Multimedia-Mobility (GMM) Architektur genannt. Sie unterstützt die Migration bestehender Systeme der 2. Generation zu UMTS und die zukünftige Weiterentwicklung durch Trennung in physikalische Bereiche. Die physikalischen Bereiche werden Domänen genannt und UMTS wird wie in Bild 8-23 gegliedert. Auf der Teilnehmerseite der Luftschnittstelle Uu wird vom Mobile Equipment (ME) gesprochen. Es enthält die logischen Funktionen für die Funkübertragung und Bedienung der Teilnehmerschnittstelle. Die entsprechenden Teile werden Mobile Termination (MT) bzw. Terminal Equipment (TE) bezeichnet. Eine besondere Rolle spielt das Subscriber Identification Module, kurz USIM für UMTS SIM oder Universal SIM genannt. Das Sicherheitskonzept von UMTS wurde verglichen mit GSM erweitert und die USIM-Card selbst wesentlich leistungsfähiger. Die Luftschnittstelle verbindet das ME in der User Equipment Domain (UED) mit dem Funkzugangsnetz (Radio Access Network, RAN) in der Access Network Domain (AND). Das Funkzugangsnetz kann ein UMTS Terrestrial Radio Access Network (UTRAN) oder ein GSM/ EDGE (GERAN) basiertes Base Station Subsystem (BSS) sein. Das Funkzugangsnetz stellt die Träger zur drahtlosen Nachrichtenübertragung bereit. Ihm obliegen das Management der Funkressourcen und die Unterstützung der Gerätemobilität, wie Handover und Makrodiversity.
8.5 Universal Mobile Telecommunication System
285
Das Funkzugangsnetz stellt über die Schnittstelle Iu den Zugang zum Kernnetz (Core Network, CN) in der Core Network Domain (CND) her. Um eine möglichst große Flexibilität und das Zusammenwirken unterschiedlicher Netze bzw. Technologien zu ermöglichen, wird die CND in drei Teilbereiche durch die Schnittstellen Yu und Zu getrennt: der Serving Network Domain (SND), der Transport Network Domain (TND) und der Home Network Domain (HND). Beispielsweise könnte, die SIM-Card-Kompatibilität und ein Roaming-Abkommen vorausgesetzt, ein UMTS-Kunde aus Österreich seine USIM in den USA in einem cdma2000-Gerät benutzten. Vom jeweiligen Ort des Teilnehmers unabhängige Dienste, wie die Authentifizierung oder das Freischalten zusätzlicher Diensten durch den Teilnehmer, würden im Teilnehmernetz (HDN) in Österreich vorgenommen werden. Als Transportnetz könnte eine B-ISDN-Netz oder ein TCP/IP-Netz auftreten. Das benutzte Mobilfunknetz in den USA entspricht dem SND. Es erbringt die ortsbezogenen Funktionen im Kernnetz.
Cu
Mobile Equipment Domain
User Equipment Domain
Uu Air Interface
USIM Domain
Access Network Domain
Iu
Serving Network Domain
Yu Transport Zu Network Domain
Home Network Domain
Core Network Domain Infrastructure Domain
Bild 8-23 Beschreibung der UMTS-Systemarchitektur mit Domänen
Eine weitere Sichtweise auf die Systemarchitektur von UMTS liefert der Blick auf die Zugangsebene in Bild 8-24. Die Systemarchitektur unterstützt die Migration von GSM und GPRS auf UMTS. Sie orientiert sich im Kernnetz (CN) an GSM und GPRS. Entsprechend GSM und GPRS besitzt sie einen leitungsvermittelten Teil (Circuit Switching Domain, CSD) und einen paketvermittelten Teil (Packet Switching Domain, PSD). Über die Schnittstellen IuCS und IuPD werden die Verbindungen zum Funkzugangsnetz UTRAN hergestellt. Anmerkung: Parallel dazu können übergangsweise an MSCen im CSD und SGSNs im PSD BSSen weiter betrieben werden.
Die Schnittstelle Iu ist von besonderer Bedeutung. Sie ermöglicht eine Abtrennung der die Funktechnologien, und die Funkressourcenverwaltung betreffenden Funktionen vom Kernnetz. Dahinter steht der Wunsch, die GSM/GPRS-Systemarchitektur im Kernnetz schrittweise zu ersetzen. Geplant sind neben neuen Funktionalitäten, z. B. für Multimediadienste, den Nachrichtentransport und die Signalisierung neu zu organisieren. Eine verbindungsorientierte ATM-Paketübertragung von Nachrichten und Signalisierung, ähnlich dem B-ISDN, ist zunächst geplant. Ein Umstieg auf ein All-IP-Network mit einem IP Multimedia Subsystem (IMS) auf der Grundlage der Protokolle RTP/TCP/IP ist in den Standardpaketen 4 und 5 vorgesehen. Anmerkung: ATM Asynchronous Transfer Mode, B-ISDN Broadband Integrated Services Digital Network, IP Internet Protocol, RTP Real Time Protocol, TCP Transport Control Protocol.
Bild 8-24 zeigt eine mögliche zukünftige Systemarchitektur. Die Schnittstellen im Kernnetz im Bild der Übersichtlichkeit halber nicht eingetragen basieren auf einer Internetprotokollversion mit Dienstgütesteuerung. Die teilnehmerspezifischen Daten werden im Home Sub-
286
8 Mobilkommunikation
scriber Server (HSS) bereitgestellt, ähnlich dem HLR und AuC in GSM. Die Packet Switching Domain wird durch ein IP Multimedia Subsystem (IMS) ergänzt. Es ist für die Steuerung und den Paketzugriff auf Multimediadienste mit bestimmten Dienstgüteparametern zuständig. Die Dienste selbst werden über das Service Subsystem angeboten. Sie können von den Netzbetreibern oder externen Dienstanbietern zur Verfügung gestellt werden. Mit der UMTS-Systemarchitektur wird in mehrerlei Hinsicht Neuland betreten. Die wirtschaftliche Verbindung von Multimedia und Dienstgüte mit Internetprotokoll und Mobilfunk stellt eine große technische und organisatorische Herausforderung dar. Über Erfolg und Misserfolg der Konzepte wird die praktische Erfahrung in der Zukunft entscheiden.
Radio Access Network
IuCS
Uu
Network Operator Circuit Switching Domain (4)
(3) Air Interface
Service Subsystem (5) Home Subscriber Server (5)
UTRAN
User Equipment
Service Provider
Core Network
IuPS
Packet Switching Domain (3)
IP Multimedia Subsystem (5)
Bild 8-24 UMTS-Systemarchitektur nach den Standardpaketen 3 (1999), 4 und 5 (2004) [BGT04]
8.5.4
UMTS-Luftschnittstelle
Für GSM wurden in den 1980er Jahren bereits breitbandigere Konzepte erörtert, als das schließlicht ausgewählte GMSK-Verfahren mit Frequenzkanälen je 200 kHz Bandbreite. 1995 wurde in den USA ein Übertragungsverfahren mit 1,25 MHz Bandbreite vorgeschlagen. Der Systemvorschlag wurde als TIA/IS-95 (Telecommunication Industry Association Interim Standard 1995) bekannt und zu cdmaONE weiterentwickelt. Der Name weist auf die Funktechnologie Code Division Multiple Access (CDMA) hin. Es handelt sich um eine Spreizbandtechnik, bei der die informationstragenden Signale, z. B. Telefonsprache, über die Luftschnittstelle mit einer wesentlich größeren Bandbreite übertragen werden. Die Vorteile von CDMA werden jedoch bei der Bandbreite von 1,25 MHz meist nicht ausreichend genutzt. Das Übertragungsverfahren von cdmaOne wird deshalb als Schmalband-CDMA bezeichnet. Für UMTS wurde die Bandbreite 5 MHz gewählt. Man spricht vom Breitband-CDMA oder WCDMA (Wideband). Anmerkung: Bei den Bandbreiten handelt es sich um Frequenzkanalabstände. Die tatsächlich genutzten Bandbreiten sind etwas geringer; bei UMTS ca. 4,6 MHz.
8.5 Universal Mobile Telecommunication System
8.5.4.1
287
Spreizbandtechnik mit RAKE-Empfänger
Charakteristisch für die Mobilfunkübertragung ist der Mehrwegeempfang. An der Empfangsantenne überlagern sich unterschiedlich verzögerte, phasenverschobene und gedämpfte Kopien des Sendesignals, siehe Bild 8-7. Die Überlagerung führt zu Interferenzen, die bis zur Signalauslöschung führen können. In GSM wird deshalb eine aufwändige Kanalschätzung und Entzerrung eingesetzt. Der Mehrwegeempfang kann jedoch durch die Spreizbandtechnik in Verbindung mit einem RAKE-Empfänger genutzt werden. Der RAKE-Empfänger sammelt die Teilsignale ein, wie ein Rechen (Harke, engl. Rake) mit seinen „Fingern“ Laub einsammelt. Man spricht von der Mehrwegediversität (Multipath Diversity). Bild 8-25 veranschaulicht das Prinzip. In der Sendestation (S) wird ein Spreizcode ausgesandt. Der Spreizcode besteht aus einer binären Folge von Rechteckimpulsen, den Chips mit der Chipdauer Tc. Das Sendesignal gelangt als elektromagnetische Wellen auf verschiedenen Wegen zur Empfangsstation (E). Im Bild sind vereinfachend drei Wege eingezeichnet, darunter die kürzeste möglich Verbindung, die Sichtverbindung (LOS, Line of Sight). Je nach Länge der Wege ergeben sich die Laufzeiten W0, W1 und W2. An der Empfangsantenne überlagern sich die elektromagnetischen Wellen und somit die Signale zu den Wegen. Die Signale weisen zu den Laufzeiten unterschiedliche Phasenverschiebungen und Dämpfungen auf. Der RAKE-Empfängers soll die Signale konstruktiv kombinieren. Seine Realisierung greift auf die digitale Signalverarbeitung zurück. Das von der Antenne kommende Signal wird zunächst gemäß der Chipdauer Tc abgetastet. Bei UMTS ist die Chiprate von 3,84 Mchip/s vorgegeben. Die Chipdauer Tc beträgt somit ca. 0,2604 Ps. Das abgetastete Signal wird in eine Kette von Verzögerern eingespeist. Hinter jedem Verzögerer befindet sich ein Abzweig, RAKE-Finger genannt. Jede Verzögerung um Tc entspricht mit der (Vakuum-) Lichtgeschwindigkeit von ungefähr 3108 m/s einer Weglängendifferenz von ca. 78 m. Bei L RAKE-Fingern können so Signalechos in einem Zeitfenster von LTc erfasst werden. Da für UMTS überwiegend kleine Zellen mit Radien von einigen hundert Meter vorgesehen sind, reichen wenige RAKE-Finger aus. Innerhalb des Echofensters ist der linke RAKE-Finger für das Signale mit der längsten Laufzeit im Mobilfunkkanal und der rechte RAKE-Finger für das Signal mit der kürzesten Laufzeit zuständig. Zur Detektion wird in jedem RAKE-Finger das Signal mit der Spreizfolge multipliziert (u) und über die Dauer der Spreizfolge summiert (6). Die Operation entspricht einem signalangepassten Filter, einem Matched-Filter, oder äquivalent einem Korrelator. Es resultiert prinzipiell die Autokorrelationsfunktion des Spreizcodes gewichtet mit einer vom Mobilfunkkanal herrührenden Phasenverschiebung und Dämpfung. Das Maximum der Autokorrelationsfunktion ist gleich der Energie der Spreizfolge. Wegen des Mehrwegeempfanges liegt jedoch ein Gemisch aus verschoben und gewichteten Kopien der Spreizfolge an. Darum liefert jeder RAKE-Finger entsprechend verschobene und gewichtete Kopien der Autokorrelationsfunktion. Zur späteren konstruktiven Kombination darf jedoch nur das dem RAKE-Finger zugedachte Teilsignal mit der passenden Wegverzögerung beitragen. Deshalb muss die Autokorrelationsfunktion bis auf die Stelle null, wo sie gleich der Signalenergie ist, näherungsweise verschwinden. Dies muss vorab durch die Auswahl der Spreizfolge sichergestellt werden.
288
8 Mobilkommunikation
Funkfeldhindernisse Spreizcode
Tc
2. Echo 1. Echo
W2 Laufzeiten
W1
t
W0
LOS S
E
Abtaster nTc
Matched-Filter / Korrelator
Spreizcode 1,1,1,1, 1,1, 1, 1
Kanalkoeffizienten
Summen über die Länge des Spreizcodes
Kanalkoeffizientenadaption
Verzögerungskette
Tc
Kombinierer
Signalgemisch von der Antenne
RAKE-Empfänger
6
Tc
6
Tc
6
6
c0
c1
c2
cL-1
KA0
KA1
KA2
KAL1
Entscheider Bild 8-25 Spreizbandtechnik mit RAKE-Empfänger in der Mobilfunkübertragung Anmerkung: Zur Vereinfachung der weiteren Verarbeitung kann am Ausgang des Match-Filters die Abtastfrequenz entsprechend der Zahl der Chips der Spreizfolge reduziert werden.
Die Mehrwegediverstiät wird in einer Kombinationsschaltung, kurz Combiner, durch konstruktives Addieren der Ausgangssignale der Machtched-Filter realisiert. Es wird das Prinzip des Maximum-Ratio-Combiner angewandt, der das Verhältnis der Leistungen von Nutzsignal und Rauschen maximiert. Im idealen Fall resultiert als Nutzanteil die Summe der Energien der empfangenen Spreizcodes aller RAKE-Finger. Dazu werden in den RAKE-Fingern die Phasenunterschiede durch Multiplikation mit den komplexen Kanalkoeffizienten c0, c1, … ausgeglichen. Die Teilsignale überlagern sich phasenrichtig und addieren sich konstruktiv. Die Beträge der Koeffizienten berücksichtigen die Dämpfung der Signale. Das heißt, ein Weg mit relativ großer Ausbreitungsdämpfung wird vor dem Zusammenführen relativ gesehen nochmals abgeschwächt, da er vergleichsweise wenig
8.5 Universal Mobile Telecommunication System
289
Signal und viel Rauschen beiträgt. Ein RAKE-Finger ohne Nutzanteil erhöht nur das Rauschen. Er sollte erkannt und abgeschaltet werden. Der Combiner verwendet Schätzwerte für die Phasenverschiebungen und Dämpfungen im Mobilfunkkanal. Sie werden von speziellen Einrichtungen zur Kanalkoeffizientenadaption (KA) bereitgestellt. Die Güte der Schätzungen beeinflusst die Qualität der Detektion im Entscheider. Anmerkungen: Im realen Betrieb ändern sich die Kanalkoeffizienten mit der Zeit und müssen fortlaufend geschätzt werden. Zur Kanalschätzung werden, wie in der Midamble bei GSM, im Empfänger bekannte Bitmuster (Pilot Bits) gesendet.
Die Chipdauer ist ausschlaggebend für die Fähigkeit des Empfängers, die Mehrwegeausbreitung zu nutzen. Die für UMTS gewählte Chipdauer stellt einen Kompromiss zwischen den Gegebenheiten des Mobilfunkkanals und der Komplexität des Übertragungsverfahrens dar. Nimmt man, wie in Bild 8-25 zu sehen, vereinfachend Rechteckimpulse für die Spreizfolge an, ergibt eine Bandbreite des Funksignals von etwa 1/Tc. Durch eine Impulsformung wird bei UMTS eine Bandbreite von ca. 4,6 MHz eingestellt.
8.5.4.2
CDMA-Vielfachzugriff
Im Sender werden die Nachrichten auf die Bandbreite von ca. 4,6 MHz gespreizt. Der Vorteil der Bandspreizung liegt nicht nur in der gesteigerten Robustheit der Übertragung, der Mehrwegediversität, sondern auch in der effizienten Lösung des vielfachen Zugriffs auf die Funkressourcen durch die Teilnehmer und der flexiblen Dienstabwicklung. Bild 8-26 illustriert das Prinzip des Vielfachzugriffs durch Codespreizung. Die Funkübertragung in UMTS basiert auf dem Prinzip des Code Division Multiple Access (CDMA). CDMA bedeutet: Es werden Daten für mehrere Teilnehmer und/oder Dienste gleichzeitig und im gleichen Frequenzband übertragen. Die Signale unterscheiden sich durch spezifischer Codes. Dabei werden die Bandbreiten der Nachrichtensignale für die Übertragung typischerweise um Faktoren von 10 bis 1000 aufgeweitet. Daher der Name Spreizbandtechnik (Spread-spectrum Techniques).
Empfänger für A
Sender A Code A
Code A
++++
t Nachricht A
Codierte Nachricht A
t
„Bit“ Tb
Decodierte Nachricht A
Codierte Nachricht A t
„Chip“ Tc
t
t
Empfänger für B Code B ++++
t
Codierte Nachricht A Bild 8-26 Prinzip des Code Division Multiple Access (CDMA) im Zeitbereich
t
290
8 Mobilkommunikation
In Bild 8-26 wird das Basisbandsignal (Bitstrom) der Nachricht des Teilnehmers A fortlaufend mit dem Codesignal A multipliziert. Das Codesignal besteht aus einer bestimmten Folge von kurzen Rechteckimpulsen, den Chips, mit positiven oder negativen Vorzeichen. Im Beispiel treffen auf ein Bit der Nachricht acht Chips des Codesignals. Wegen dem reziproken Zusammenhang von Zeitdauer und Bandbreite wird das Spektrum des Nachrichtensignals um den Faktor acht gespreizt. Man spricht vom Spreizfaktor oder Prozessgewinn Gp , engl. Processing Gain, wie später noch erläutert wird. Und es gilt Gp = Tb / Tc. Im Empfänger A wird synchron nochmals mit dem Code A multipliziert. Dadurch heben sich die im Sender durch den Code eingeprägten Vorzeichenwechsel auf. Das Nachrichtensignal wird wiederhergestellt. Im Empfänger B wird der Code des Teilnehmers B verwendet. Die Bandspreizung bleibt im Wesentlichen bestehen. Eine anschließende Tiefpassfilterung unterdrückt die unerwünschten Signale weitgehend. Die Wirkung der Spreizung im Frequenzbereich veranschaulicht Bild 8-27. Die Nachrichtensignale werden zur Übertragung gespreizt und überlagern sich auf dem Übertragungsweg. Durch das codespezifische Bündeln (Entspreizen) werden die jeweiligen Nachrichtensignale wieder hergestellt. Die unerwünschten, überlagerten Signale bleiben breitbandig, so dass sie nach Tiefpassfilterung nur wenig stören. Die Störung wird um so kleiner, desto größer der Prozessgewinn ist. Im Übertragungsband ist zusätzlich das Spektrum eines schmalbandigen Störers eingezeichnet. Das Entspreizen wirkt für fremde Signale wie Spreizen. Schmalbandige Störsignale werden über eine größere Bandbreite verschmiert, so dass nur ein kleiner Teil als Störung nach der Tiefpass-Filterung wirksam wird.
zu Nachricht A
Tiefpass Schmalbandiger Störer
f
zu Nachricht A f
zu Nachricht A Bündeln
Spreizen f f
zu Nachricht B f
zu Nachricht B Bild 8-27 Prinzip des Code Division Multiple Access (CDMA) im Frequenzbereich
Die für die CDMA-Übertragung notwendigen Operationen entsprechen der Signalverarbeitung in den Matched-Filtern des RAKE-Empfängers. Zu den Interferenzen aufgrund des Mehrwegeempfangs (Multipath Interference) kommen nun noch Interferenzen durch die Signale der anderen Teilnehmer bzw. Dienste, die Vielfachzugriffsinterferenzen (Multiuser Interference) hinzu. Am Ausgang des Matched-Filters treten zusätzlich die Kreuzkorrelationen zwischen den Spreizcodes als Störungen auf. Sie sollten null sein. Dies wird vorab durch die Auswahl der Spreizcodes näherungsweise erreicht. Es verbleibt jedoch ein gewisser Störanteil. Je größer der Prozessgewinn ist, umso kleiner ist die Störung. Demzufolge wird die mögliche Zahl der Teilnehmer durch den Prozessgewinn beschränkt. Man spricht von einem interferenzbegrenzten Übertragungssystem.
8.5 Universal Mobile Telecommunication System
291
Die sich aus dem CDMA-Verfahren ergebenden Möglichkeiten lassen sich am Beispiel der Abwärtsstrecke des UMTS-FDD-Modus anschaulich erläutern. Bild 8-28 zeigt den prinzipiellen Aufbau der Nachrichtenaufbereitung in der Basisstation (Node B). Den Ausgangspunkt bilden die zu erbringenden Dienste, wie z. B. die Sprachtelefonie mit einer Nettobitrate von 12,2 kbit/s, die leitungsvermittelte Übertragung eines ISDN-B-Kanals mit 64 kbit/s oder die leitungsvermittelte Übertragung mit der Bitrate 384 kbit/s. Die zugehörigen Bitströme werden entsprechend ihren Bitraten auf die Chiprate 3,84 Mchip/s gespreizt. Anmerkung: In UMTS werden obige Basisdienste CS64 und CS384 (CS, Carrier Switched) genannt.
Spreizcode 1 Chipstrom 1 Bitstrom 1
Verwürfelungscode
Spreizcode 2 Chipstrom 2
zur Sendeantenne
Bitstrom 2 Spreizcode n Chipstrom n Bitstrom n
Bild 8-28 Spreizen und Verwürfeln im Node B für die Abwärtsstrecke
Als Spreizfaktoren können die Werte von 4 bis 256 in Tabelle 8-6 gewählt werden. Damit ist es möglich, Dienste mit sehr unterschiedlichen Bitraten mit einem einheitlichen Übertragungsverfahren zu realisieren. Wichtig für den praktischen Betrieb ist, dass die Wirkungen der wechselseitigen Störungen direkt von den Spreizfaktoren abhängen. Eine Übertragung mit kleinem Spreizfaktor und hoher Bitrate, z. B. das schnelle Laden eines Videos aus dem Internet, verdrängt entsprechend viele Übertragungen mit großen Spreizfaktoren und kleinen Bitraten, wie z. B. Sprachtelefonie-Kanäle, und umgekehrt. Tabelle 8-6 Konfigurationen der Datenübertragung in UMTS im Dedicated Physical Data Channel (DPDCH) Formate
0
1
2
3
4
5
6
(Brutto-)Bitraten in kbit/s
15
30
60
120
240
480
960
Spreizfaktoren
256
128
64
32
16
8
4
Die gespreizten Signale der Teilnehmer bzw. Dienste, die Chipströme, werden zur Übertragung zusammengeführt. Vor der eigentlichen Funkübertragung wird ein Verwürfelungscode (Scrambling Code) eingesetzt. Es handelt sich um einen pseudozufälligen Code (Pseudo-noise Sequence) mit günstigen Korrelationseigenschaften. Da benachbarten Sendern unterschiedliche Verwürfelungscodes zugeordnet werden, wird die Störung bei Interferenz stark reduziert. Ebenso wichtig ist, dass dadurch eine Identifikation der Node B möglich wird und die Spreizcodes in jedem Node B und UE unabhängig vergeben werden können. Man beachte auch, dass durch das Verwürfeln keine Spreizung erfolgt, da der Verwürfelungscode ebenfalls im Chiptakt Tc generiert wird.
292
8.5.4.3
8 Mobilkommunikation
Nah-Fern-Effekt, Leistungsregelung und Zellatmung
Der CDMA-Vielfachzugriff zur gleichen Zeit im gleichen Frequenzband setzt voraus, dass sich die Signale der Teilnehmergeräte (UE) mit etwa gleicher Leistung an der Basisstation (Node B) überlagern. Bild 8-29 veranschaulicht die Situation. UE 1 befindet sich relativ nah am Node B und UE 2 relativ fern. Durch den größeren Abstand erfährt das Funksignal von UE 2 eine größere Dämpfung als das von UE 1. Würden beide Teilnehmergeräte mit gleicher Leistung senden, könnten die durch UE 1 verursachten Interferenzen den Empfang des Signals von UE 2 übermäßig stören. Der Effekt der unterschiedlichen Empfangsleistungen aufgrund der entfernungsabhängigen Funkfelddämpfungen wird Nah-Fern-Effekt bezeichnet.
UE 3 Node B
UE 1 UE 2
UE k Bild 8-29 Varianz der mittleren Empfangsleistung (Nah-Fern-Effekt)
In realen Funkfeldern ist die Situation komplizierter als in Bild 8-29 dargestellt. Unabhängig von den tatsächlichen Entfernungen der Stationen können beispielsweise Unterführungen und Häuserzeilen mit Straßenkreuzungen zu kurzzeitig starken Schwankungen der Empfangsleistung führen. Um nachhaltige Störungen durch den Nah-Fern-Effekt zu vermeiden, ist bei CDMA-Mobilfunksystemen eine schnelle Leistungssteuerung in den Funksendern besonders wichtig. Zur Einstellung der Sendeleistungen werden im UMTS FDD-Modus zwei Regelkreise verwendet. Als Regelgröße tritt das Verhältnis der Leistungen von Nutzsignal und Störsignal im Empfänger, das C/I-Verhältnis (Carrier-to-Interference Ratio), auf. Der Sollwert wird dynamisch im jeweils zugeordneten Steuerungsmodul des Funkzugangsnetzes (RAN), dem Radio Network Controller (RNC), bestimmt. Wichtige Einflussgrößen sind die Bitfehlerquote und Übertragungsparameter, wie der Spreizfaktor und die Art der Kanalcodierung. Die Dynamik der Regelung ergibt sich aus der zeitlichen Organisation der Luftschnittstelle bzw. beeinflusst deren Spezifikation. Die Übertragung im FDD-Modus ist in Rahmen und Zeitschlitzen strukturiert. Ein Funkrahmen dauert 10 ms und umfasst genau 38400 Chips. Die Funkrahmen werden in je 15 Zeitschlitze unterteilt. Folglich ist die Dauer eines Zeitschlitzes 2/3 ms und entspricht 2560 Chips, siehe Bild 8-30. Die beiden Regelkreise werden innerer und äußerer Regelkreis genannt. Der innere Regelkreis ermöglicht eine schnelle Anpassung auf Basis der Zeitschlitze in typischen Schritten von 1 dB, d. h. 25% mehr oder weniger Sendeleistung. Es werden 1500 Steuerbefehle pro Sekunde übertragen. Der äußere Regelkreis stellt den C/I-Sollwert für den inneren Regelkreis zur Verfügung. Seine Zeitbasis liefern die Funkrahmen. Gegebenenfalls wird alle 10 ms ein neuer C/ISollwert generiert. Die beiden Regelungen setzen eine wechselseitige Kommunikation zwischen Teilnehmergerät und Funknetz voraus. Ist dies nicht der Fall, wie z. B. beim Verbindungsaufbau, wird die Leistung des Senders zunächst aufgrund der im Empfänger gemessenen Leistung der Gegenstation eingestellt.
8.5 Universal Mobile Telecommunication System
293
10 ms Funkrahmen n-1
Funkrahmen n
Funkrahmen n+1
38400 Chips 2/3 ms Zeitschlitz 0
Zeitschlitz 1
Zeitschlitz 2
Zeitschlitz 14
2560 Chips Bild 8-30 Zeitstruktur der Luftschnittstelle mit Chipintervall TC = 1/3,84 Ps
Aus der CDMA-typischen Kapazitätsbegrenzung durch die Vielfachzugriffsinterferenzen ergibt sich ein weiterer wichtiger Effekt: die verkehrsabhängige Vergrößerung und Verkleinerung des Versorgungsgebietes einer Funkzellen, anschaulich Zellatmung genannt. Bild 8-31 stellt den Effekt vor. In Bild 8-31 links ist eine Funkzelle bei geringer Verkehrslast dargestellt. Der Teilnehmer (UE k) kann mit der Basisstation (Node B) nur verbunden sein, wenn das C/I-Verhältnis den minimal zulässigen Wert nicht unterschreitet. Dabei ist näherungsweise die Störleistung (I) durch die Vielfachzugriffsinterferenzen proportional der Zahl der aktiven Teilnehmer. Die Empfangsleistung (C) wird über den Sollwert für das C/I-Verhältnis eingestellt. Dazu wird die Sendeleistung so geregelt, dass die mit zunehmender Entfernung wachsende Ausbreitungsdämpfung kompensiert wird. Ist die maximal zulässige Sendeleistung erreicht, kann eine weitere Zunahme der Funkfelddämpfung nicht mehr ausgeregelt werden. Die Verbindung wird beendet.
UE k UE 3
UE k
R1
Node B
UE 3 R2
Unversorgtes Gebiet
UE 1
Node B UE 1 UE 2
UE 2 Geringe Verkehrslast
Versorgtes Gebiet
Hohe Verkehrslast
Bild 8-31 Funkzellengröße in Abhängigkeit von der Verkehrslast (Zellatmung, R1 > R2)
Sind, wie in Bild 8-31 rechts veranschaulicht, beispielsweise doppelt soviel Teilnehmer aktiv, so wird zur Erreichung des C/I-Sollwertes entsprechend mehr Sendeleistung benötigt, um die etwa verdoppelte Vielfachzugriffsinterferenz auszugleichen. Zur Kompensation der Funkfelddämpfung steht dann weniger Leistungsreserve im Sender zur Verfügung. Mit der Vereinfachung, dass im Funkfeld die Empfangsleistung proportional zum Quadrat der Entfernung ge-
294
8 Mobilkommunikation
dämpft wird (Freiraumausbreitung), reduziert sich der maximale Abstand im Beispiel um etwa den Faktor 2. Anmerkung: Im realen Betrieb unterliegt die Funkzellengröße zufälligen Schwankungen. Dies erschwert die Funkzellenplanung erheblich.
8.5.4.4
Zellulare Funkkapazität
Im Regelbetrieb begrenzt die Vielfachzugriffsinterferenzen die Anzahl der aktiven Teilnehmer und Dienste. Mit den vereinfachenden Annahmen kann die zellulare Funkkapazität grob abgeschätzt werden [Vit95]. Wir gehen von gleichem Dienst, z. B. nur Sprachtelefonie, und optimaler Leistungsregelung für alle Teilnehmer aus. Die maximale Zahl an aktiven Teilnehmern Kmax, die an einer Basisstation empfangen werden können, hängt wesentlich ab vom Spreizfaktor (Spreizgewinn) Gp und der Robustheit des Modulationsverfahrens gegen Störungen ab. Letzteres wird durch das für einen Empfang mindestens notwendige Verhältnis von empfangener Energie pro Bit Eb und effektiver Rauschleistungsdichte N0,eff erfasst. Dabei berücksichtigt die effektive Rauschleistungsdichte die Vielfachzugriffsinterferenz. Es resultiert die Abschätzung K max d 1
Eb
Gp N 0,eff
min
Anmerkungen: (i) Eine Verdoppelung des Spreizfaktors Gp bei gleicher Netto-Bitrate führt im Wesentlichen auf die doppelte zellulare Funkkapazität Kmax. Allerdings zieht sie auch die doppelte Funksignalbandbreite nach sich. (ii) Eine Verdoppelung des Spreizfaktors bei halber Netto-Bitrate führt ebenfalls auf die doppelte zellulare Funkkapazität. Dabei bleibt die Funksignalbandbreite gleich. Allerdings steht dann pro Teilnehmer / Dienst nur noch die halbe Netto-Bitrate zur Verfügung. Dies ist bei UMTS beispielsweise durch Umschalten des Sprachcoders zwischen 4,75 bis 12,2 kbit/s möglich (AMR-Codec, Adaptiv Multi-Rate), siehe auch GSM Full- und Half-Rate-Codec.
Das in die Formel einzusetzende minimale Verhältnis Eb / N0,eff wird durch das gewählte Modulationsverfahren bestimmt. Typische Werte liegen zwischen 6 und 10 dB. Der Spreizfaktor orientiert sich am gewünschten Dienst. Für die Sprachtelefonie sind Netto-Bitraten von 4,75 bis 12,2 kbit/s vorgesehen. Berücksichtigt man noch eine Codierung mit der Coderate von typisch 1/3, so folgen für die Spreizfaktoren aus Tabelle 8-6 die Werte von 128 bzw. 64. Mit den beiden Spreizfaktoren und dem optimistischen Wert von 6 dB ergibt sich die zellulare Funkkapazität für (nur) Sprachtelefonie von 33 bzw. 17 gleichzeitig aktiven Teilnehmern. Soll eine hohe Teilnehmerdichte bedient werden, wie z. B. in Fußgängerzonen, Sportstadien, usw., sind viele kleine Funkzellen erforderlich. Der Aufwand wird dadurch gemildert, dass bei der Sprachübertragung häufig Mikropausen auftreten. Diese können im Sprachcoder erkannt (VAD, Voice Activity Detection) und Sprachrahmen durch SID-Rahmen (Silence Descriptor) mit einer Netto-Datenrate von 1,8 kbit/s ersetzt werden. Die Funkkapazität bei reinem Sprachnetzbetrieb verdoppelt sich dadurch in etwa. Werden an den Basisstationen zusätzlich Richtantennen eingesetzt, typischer Weise drei Antennen mit je 120° Hauptkeulenbreite, entstehen kleinere Funkzellen, Sektoren genannt. Damit lassen sich ca. 102… 198 aktive Gespräche an einer Basisstation bedienen. Anmerkungen: (i) Die vorgestellte Abschätzung der Funkkapazität ist stark vereinfacht und lässt weitere positive und negative Einflussfaktoren des realen Betriebes außer Acht. Sie gibt eine grobe Orientierung. Die tatsächlich erreichbare Kapazität von UMTS wird sich erst in der Praxis bei den ausgebauten Netzen zeigen. (ii) Für ein flächendeckendes UMTS-Netz werden kleineren Funkzellen und damit mehr Basis-
8.5 Universal Mobile Telecommunication System
295
stationen als für GSM/GPRS benötigt. Diesem Nachteil steht der Vorteil kleinere Sendeleistungen gegenüber. So ist die maximale Sendeleistung typischer Teilnehmergeräte auf 1W statt 2W bei GSM begrenzt. (iii) Weltweit wird daran geforscht die Mehrfachzugriffsinterferenzen zu senken. Anordnungen mit mehreren Antennen (MIMO, Multiple Input Multiple Output) und fortschrittliche Verfahren der digitale Signalverarbeitung ermöglichen es, die jeweiligen Funksignale auf die einzelnen Teilnehmer zu richten (Adaptive Beam-forming) sowie Interferenzen rechnerisch zu reduzieren (Multi-user Interference Cancellation).
8.5.4.5
Handover
Die Mobilität der Teilnehmer erfordert in UMTS-Funknetzen ein Mobilitätsmanagement ähnlich dem in GSM/GPRS-Netzen um beispielsweise Teilnehmern einzubuchen oder zu rufen. Für bestehende leitungsorientierte Verbindungen, z. B. Telefongesprächen, ist ein unterbrechungsfreier Wechsel zwischen den Funkzellen, ein Handover, zu realisieren. Bei GSM wird dazu hart vom Frequenzkanal der aktuellen Basisstation (BTS) zum Frequenzkanal der neuen umgeschaltet. Anders beim UMTS FDD-Modus. Da benachbarte Basisstationen (Node B) im gleichen Frequenzband empfangen und senden, kann die Nachricht prinzipiell von mehreren Basisstationen empfangen bzw. gesendet werden. Bild 8-32 veranschaulicht die drei Arten des Handover.
Soft Handover FDD-Modus
Hard Handover GSM, TDD-Modus
Sektor 1 Softer Handover
Sektor 2
FDD-Modus Node B Sektor 3 Echo
Bild 8-32 Arten des Handover
296
8 Mobilkommunikation
Beim Hard Handover ist die Mobilstation jeweils nur mit einer Basisstation verbunden. Der Hard Handover eignet sich besonders für die zeitschlitzbasierenden TDD-Verfahren wie bei GSM und dem TDD-Modus des UMTS. Beim Soft Handover im FDD-Modus kann eine Verbindung mit bis zu drei Basisstationen gleichzeitig bestehen. Die den Teilnehmern zugeordneten Nachrichten werden netzseitig im RNC auf die jeweiligen Basisstationen aufgeteilt bzw. von diesen kommend kombiniert (Selection Combining Auswahl des zuverlässigeren Bitstroms). Dabei gibt es keinen festen Umschaltzeitpunkt zwischen den Basisstationen, deshalb der Name Soft Handover. Die Verbindung zur alten Station wird entsprechend der Signalqualität schließlich abgebaut. Der Soft Handover bietet drei entscheidende Vorteile für das Funknetz: Da sich die Funkstrecken zu den Basisstationen unterscheiden, werden Abschattungen unwahrscheinlicher. Ebenso ergeben sich unkorrelierte schnelle Schwundprozessen, so dass kurzzeitige Signalauslöschungen unwahrscheinlicher werden. Der Nah-Fern-Effekt wird reduziert. Insgesamt ermöglicht der Soft Handover das Funknetz mit geringeren Sendeleistungen und damit Interferenzen zu betreiben und dadurch seine Kapazität zu erhöhen. Nachteilig ist die zu seiner Realisierung notwendige höhere Komplexität im Funknetz. Anmerkungen: (i) Man spricht auch von Macro-Diversität oder Base-Station-Diversität. (ii) Anders als bei GSM, wo die BSC nicht direkt verbunden sind, existiert bei UMTS die Schnittstelle Iur zwischen benachbarten RNC. (iii) Wegen der spezifischen Verwürfelungscodes der Basisstationen (Node B) müssen beim Soft Handover die Signal der Basisstationen als unterschiedliche Datenströme im Teilnehmergerät (UE) detektiert werden, was den Aufwand in den Geräten enorm erhöht.
Der Softer Handover ist ein Sonderfall des Soft Handover. Wird an einer Basisstation eine Sektorisierung mit Richtantennen vorgenommen, so können die Sende- und Empfangssignale der Antennen getrennt verarbeitet werden. Da die Funksignale an einem Ort vorliegen, sind zur gemeinsamen Verarbeitung aufwändige Verfahrend er digitalen Signalverarbeitung (z. B. Maximum Ratio Combining) einsetzbar.
8.5.4.6
Protokollstapel für die UMTS-Luftschnittstelle
GSM und GPRS weisen bereits die grundlegenden Funktionen eines modernen öffentlichen Mobilfunksystems auf: die Verwaltung der Mobilität von Teilnehmern und Geräten (Mobility Management) und die Bereitstellung von Dienste durch Zuteilung geeigneter Betriebsmittel (Radio Resource Management) wie Funkzellen, Frequenzkanäle und Zeitschlitze. UMTS knüpft an GSM/GPRS an, unterstützt jedoch Dienste mit einem weiten Bereich an Dienstmerkmalen sowie die schnelle dynamische Anpassung der Funkübertragung an den wechselnden Verkehrsbedarf im Dienstemix. Die damit verbundene Komplexität im Detail wird durch den Protokollstapel für den Zugriff und die Steuerung der Luftschnittstelle in Bild 8-33 in eine übersichtlichere Darstellung gebracht. Bild 8-33 illustriert beispielhaft die Kommunikation von TCP/IP-Datagrammen (Transport Control Protocol / Internet Protocol) über die Luftschnittstelle. Das TCP/IP-Szenario ist auch deshalb interessant, weil UMTS-Netze zukünftig als All-IPNetze Signalisierungsnachrichten und Nutzdaten mit IP-Datagrammen austauschen werden. Anmerkung: Vergleiche GPRS-Protokollarchitektur in Bild 8-1.
8.5 Universal Mobile Telecommunication System
Radio Resource Control
297
UE
RAN
TCP/ UDP
TCP/ UDP
Transport Layer
IP
IP
Network Layer
PDCP
PDCP
Packet Data Convergence Protocol
RLC
RLC
Radio Link Control
MAC
Medium Access Control
RRC
IP Datagrams
Logical Channels MAC
Data Link Layer
Radio Bearers
Transport Channels PHY
PHY
Physical Layer
Uu Air Interface Bild 8-33 Protokollstapel für die Luftschnittstelle am Beispiel einer TCP/IP-Übertragung für den UMTS FDD-Modus
Im Folgenden werden exemplarisch einige wichtige Begriffe und Zusammenhänge vorgestellt. Die Abbildung der IP-Datagramme auf die Luftschnittstelle geschieht in vier Schritten: in der PDCP-Schicht (Packet Data Convergence Protocol), der RLC-Schicht (Radio Link Control), der MAC-Schicht (Medium Access Control) und der PHY-Schicht (Physical Layer). Die PDCP-Schicht stellt die Brücke zum IP-Protokoll her. Im Beispiel nimmt sie IP-Datagramme entgegen bzw. stellt sie zu. Von besonderer Bedeutung ist sie bei der Internet-Telefonie VoIP (Voice over IP). Es werden typisch kurze IP-Datagramme übertragen, bei denen das Kopffeld mit 20 Oktetten (IPv4) ebenso lang wie die Sprachinformation ist. Dabei sind viele Kopffeldinformationen statisch bzw. bei der Funkübertragung impliziert, wie z. B. die Teilnehmeradresse. Weglassen redundanter Kopffeldinformationen (Header Compression) reduziert die Belastung der Luftschnittstelle deutlich und erhöht so die zellulare Funkkapazität. Anmerkungen: Bei einer Punkt-zu-Multipunkt-Übertragungen wird die BMC-Schicht (Broadcast and Multicast Control) vor der RLC-Schicht durchlaufen. In Bild 8-33 ist sie der Einfachheit halber weggelassen.
RLC-Schicht und MAC-Schicht übernehmen die Aufgaben der Datensicherungsschicht (Data Link Layer) im OSI-Referenzmodell. Der Schutz gegen Übertragungsfehler obliegt der RLCSchicht und die Anpassung an das Übertragungsmedium geschieht in der MAC-Schicht. Die RLC-Schicht bietet (gegebenenfalls via PDCP) der Netzschicht Trägerdienste (Radio Bearer) an, wobei sie die speziellen Eigenschaften des Funknetzes verbirgt. Die IP-Datagramme werden in der RLC-Schicht gegebenenfalls segmentiert bzw. assembliert. Mit der MACSchicht tauscht sie Datenblöcke bestimmter Längen aus und vereinfacht somit die Organisation von Warteschlangen und Sendezeitpunkten. Die typischen Aufgaben der Datensicherungsschicht erfüllt sie durch die drei möglichen Übertragungsmodi:
298
8 Mobilkommunikation
Gesicherte Übertragung mit Wiederholung (Acknowledged Mode): Datenblöcke mit Flusskontrolle und Fehlererkennung mit gegebenenfalls Anforderung einer Übertragungswiederholung (ARQ, Automatic Repeat Request), Verschlüsselung (Ciphering); Gesicherte Übertragung ohne Wiederholung (Unacknowledged Mode): als fehlerhaft erkannte Datenblöcke werden verworfen, Verschlüsselung; Ungesicherte Übertragung (Transparent Mode): Übertragung ohne Zusatzinformationen (Kopffeld) durch RLC-Schicht, keine Verschlüsselung. Die MAC-Schicht stellt logische Kanäle zur Verfügung. Die Art der transportierten Information, ob Verkehrskanäle oder Steuerkanäle, steht im Vordergrund. Beispiele sind die Nutzdaten (DTCH, Dedicated Traffic Channel), Signalisierung bei bestehender Verkehrsverbindung (DCCH, Dedicated Control Channel) oder außerhalb (CCCH, Common Control Channel) und Systeminformation für alle (BCCH, Broadcast Control Channel). Mit den logischen Kanälen verbunden sind gewisse Anforderungen wie Bitraten, Zustellzeiten, usw. Die MAC-Schicht bildet die logischen Kanäle auf die Transportkanäle der Bitübertragungsschicht (PHY) ab. Aus den Datenblöcken der logischen Kanäle werden Transportblöcke (TB) der Transportkanäle und umgekehrt. Dabei kommt die für den Dienstemix notwendige Flexibilität, aber auch Komplexität, der Funkübertragung im UMTS FDD-Modus zum Vorschein. Um die möglichen Kombinationen von Diensten mit ihren spezifischen Merkmalen effizient zu unterstützen, werden Transportformate (TF) definiert. Sie legen genau fest, wie Transportblöcke in der physikalischen Schicht zu behandeln sind. Beispielsweise wie groß der TB ist. Welche Art des Fehlerschutzes verwendet wird. Und wie groß die zulässige Übertragungszeit (TTI, Transmission Time Interval) in Vielfachen der Dauer eines Funkrahmens, also 10, 20, 40 oder 80 ms, ist. Die TB werden zu Transport Block Sets (TBS) gruppiert und so der Aufwand verringert. Ähnlich werden Transport Format Sets (TFS) mit kompatiblen Transportformaten gebildet. TBS und TFS bilden die Basis für die Abbildung der logischen Kanäle durch die MACSchicht. Anmerkung: Nachrichten unterschiedlicher Teilnehmer können im Multiplex übertragen werden, da sie unabhängig verschlüsselt sind. Für den Fall des transparenten Modus in der RLC-Schicht wird die Verschlüsselung in der MAC-Schicht vorgenommen.
Die Bitübertragungsschicht (PHY) ist für die unmittelbare Funkübertragung der Daten zuständig. Sie stellt die Transportkanäle bereit und unterstützt die Funktionen, die direkt für die Funkübertragung relevant sind, wie Handover, Synchronisation, Leistungsregelung, und Messprotokolle. Die PHY-Schicht ist im Funkzugangsnetz (RAN) in den Node B angesiedelt. Dort wird auch die Kanalcodierung und -decodierung vorgenommen. Im Beispiel einer Coderate von 1/3 wird dadurch aufwändiger Datenverkehr im RAN vermieden. Anmerkung: Siehe auch Soft Handover im Radio Network Controller (RNC) und Softer Handover im Node B.
Der reibungslose und effiziente Betrieb der Luftschnittstelle erfordert eine schnelle und umfassende Steuerung auf der Grundlage aktueller Daten über die Funkbedingungen und die Dienste. Hierfür dient die Funkbetriebsmittelsteuerung (RRC, Radio Resource Control) in der Netzwerkschicht. In der RRC-Schicht werden Daten aus den RLC-, MAC- und PHY-Schichten gesammelt, verarbeitet und die genannten Schichten gesteuert.
8.5 Universal Mobile Telecommunication System
8.5.5
299
High-speed Packet Access (HSPA)
Mit GSM wurde die Mobiltelefonie für viele Menschen zum erschwinglichen Massenprodukt. Eine ähnliche Entwicklung erlebte der PC, der insbesondere auch wegen des Preisverfalls der LCD-Bildschirme als Notebook, oder Sub-Notebook, mobil geworden ist. Hinzu kommen die DSL-Festnetzanschlüsse, die Sprachtelefonanschlüsse in Internetzugängen mit Multimedia-Diensten umgewandelt haben. Diese drei Entwicklungen haben wesentlich dazu beigetragen, den heutigen Bedarf nach einem mobilen, „breitbandigen“ Internetzugang zu wecken; sei es aus geschäftlichen Gründen oder zu privaten Zwecken, wie Echtzeitspiele im Internet. Für die Mobilfunk-Branche liegt die Herausforderung darin, den Teilnehmern größere Datenvolumen in immer kürzerer Zeit zu liefern, siehe Bild 8-34. Darin sind Werte für die Bitrate und die Signallaufzeit für eine Ende-zu-Ende-Verbindung (Round-trip delay) zusammengestellt, wie sie für eine Funkzelle typisch sind [HoTo06]. Mit dem neuen Dienst High-speed Downlink Packet Access (HSDPA) werden heute auf der Basis der WCDMA-Netze Bitraten über 3 Mbit/s bei Verzögerungszeiten von weniger als 100 ms realisiert.
Round-trip delay in ms
600
300
GPRS, 2000
EDGE(GERAN), 2003 UMTS/WCDMA, 2002 UMTS/HSDPA, 2006
0 100 300
1000
Bitrate in kbit/s
3000
Bild 8-34 Entwicklung der Datenübertragung in GSM- und UMTS-Mobilfunknetzen (typische Werte in einer Funkzelle nach [HoTo06])
Im Jahr 2000 begannen im 3GPP-Projekt die ersten Studien für einen schnellen, breitbandigen Datendienst für UMTS. Ähnlich wie bei der Ergänzung von GSM durch GPRS, sollte eine kompatible Lösung für die WCDMA-Luftschnittstelle gefunden werden, die im Zugangsnetz im Wesentlichen durch ein Software-Update verwirklicht werden kann. Zunächst wurde die Abwärtsverbindung (Downlink) in den Mittelpunkt gestellt und im März 2002 mit dem UMTS Release 5 mit der Spezifikation der Systemerweiterung HSDPA begonnen. Avisiert wurde eine Einführung von HSDPA mit einer schrittweisen Steigerung der Bitrate von 1,8, 3,6, 7,2 bis 14,4 Mbit/s. Bei den Zahlenwerten handelt es sich um theoretische Brutto-Bitraten für den Spitzendurchsatz des typisch stoßartigen Verkehr. Im Jahr 2006 war HSDPA erstmals kommerziell verfügbar. Die technische Umsetzung von HSDPA beruht auf der Beobachtung, dass sowohl das Verkehrsangebot der Teilnehmer als auch die Qualität der Funkübertragung zu den Teilnehmern statistisch schwanken. Da bei der WCDMA-Luftschnittstelle die Übertragungsqualität in kurzen Zeitintervallen überwacht wird, bietet es sich an, die Daten in den Basisstationen (Node B)
300
8 Mobilkommunikation
zu speichern und dann stoßartig zu jeweils dem Teilnehmer (UE) zu übertragen, dessen Übertragungskanal einen hohen Durchsatz erlaubt, siehe Bild 8-35. Die Steuerung für den Datenfluss der HSDPA-Funkübertragung bedient sich dazu unter anderem der Kanalqualität CQI (Channel Quality Information) und dem Pufferstatus. Die Priorität einer Übertragung steigt mit der zugehörigen Kanalqualität und dem Füllstand des zugehörigen Pufferspeichers.
RNC Pufferspeicher UE1 UE2 Daten, …1 Mbit/s Node B CQI groß CQI klein UE1
UE2
Bild 8-35 Steuerung der HSDPA-Übertragung in Abhängigkeit von der Kanalqualität (CQI, Channel Quality Information) und des Füllstands des Pufferspeichers
Um die Verzögerungszeit klein zu halten, wird die Fluss-Steuerung im Node B durchgeführt. Der Pufferspeicher im Node B glättet darüber hinaus den Datenverkehr im Funkzugangsnetz. Die Funkübertragung geschieht logisch im HS-DSCH (High-Speed Downlink Shared Channel), der in einer Funkzelle im Zeitmultiplex geteilt wird. Physikalisch wird stoßartig in Zeitintervallen von 10, 20, 40 oder 80 ms übertragen. Eine schnelle Anpassung ist dabei durch auf 2 ms verkürzte Funkrahmen möglich. Es wird ein Spreizcode mit dem Spreizfaktor 16 verwendet. Weil nur bei guter Kanalqualität Datenblöcke mit starkem Fehlerschutz übertragen werden, ist die Wahrscheinlichkeit für eine wiederholte Übertragung gering, was für hohen Durchsatz sorgt. Als Fehlerschutz wird ein Turbo-Code mit Punktierung eingesetzt, der mit einem hybriden ARQ-Verfahren (Automatic Repeat Request) ergänzt wird. Das heißt, kann ein fehlerhafter Datenblock nicht mit der mitgesendeten Redundanz korrigiert werden, so wird im nächsten Block nur die vorher durch Punktierung weggelassene Redundanz nachgesendet. Der Empfänger kombiniert im neuen Decodierversuch die Information beider Datenblöcke. Eine Verdopplung der Bitrate liefert bei hoher Kanalqualität das Umschalten der Modulation von QPSK auf 16-QAM. Auch eine dynamische Coderatenanpassung ist möglich. Falls vom UE unterstützt, werden bis zu 15 Codes für eine Verbindung gleichzeitig genutzt. Theoretisch wird so eine Bitrate von bis zu 14,4 Mbit/s möglich. Ein entsprechender Dienst für die Datenübertragung vom UE zum Node B (Uplink) wurde mit dem Release 6 im Dez. 2006 als HSUPA (High-Speed Uplink Packet Access) definiert und ist seit 2007 verfügbar. Da die technischen Anforderungen an ein tragbares Teilnehmergerät (UE) geringer sein müssen als an eine Basisstation (Node B) und weil sich die Signale aller Teil-
8.6 Wireless Local Area Network (WLAN)
301
nehmer einer Funkzelle an der Basisstation störend überlagern, sind die erzielbaren Bitraten mit 1… 2 MBit/s für die erste bzw. 3… 4 Mbit/s für die zweite Ausbaustufe geringer. Mit der HSPA-Erweiterung der WCDMA-Luftschnittstelle haben sich die UMTS-Netze weit von den GSM basierten Mobilfunknetzen der 2. Generation abgesetzt und den Wettbewerb mit WLAN-Lösungen angenommen.
8.6
Wireless Local Area Network (WLAN)
8.6.1
Einführung
Seit etwa dem Jahr 2000 finden WLAN-Technologien (Wireless Local Area Network) schnell wachsende Verbreitung. Der positive Rückkopplungseffekt zwischen den technischen Innovationen und den sinkenden Preisen des entstandenen Massenmarktes setzte diese Entwicklung in Gang. Mobiltelefone, Notebooks und PDAs (Personal Digital Assistant) sind heute oft ab Fabrik WLAN-fähig. Die Geräte können spontan verbunden werden (Ad-hoc Connectivity). Die WLAN-Technologien spielen ihre Stärken besonders im Heim- und Bürobereich aus: Über kurze Strecken können in Wohnungen bequem drahtlos Verbindungen zu DSL-Modems mit hohen Bitraten bereitgestellt werden. Der Vernetzungen von Unterhaltungsgeräten wie Fernseher, Projektoren, Audioanlagen und Heim-PCs als Medienserver wird wachsende Bedeutung vorhergesagt. In Büros ersetzt WLAN die Verkabelung von Rechnern und Peripherie. WLAN vereinfacht die Anpassung der IT-Infrastruktur an sich wandelnde Organisationsstrukturen. Mit Blick auf die zellularen Mobilfunknetze GSM und UMTS sind WLAN-Angebote an öffentlichen Orten, wie Restaurants, Flughäfen, Hotels, usw., von besonderem Interesse. Hotspots genannte Zugangspunkte zu WLANs ermöglichen Menschen unterwegs den Zugang zum Internet. Sie treten damit in direkte Konkurrenz zu den Datendiensten in UMTS-Netzen. Die marktbeherrschenden WLAN-Technologien fußen auf der LAN-Standardisierung durch den weltweiten Ingenieursverband Institute for Electrical and Electronics Engineers (IEEE). Im Februar 1980 wurde die IEEE Arbeitsgruppe 802 gegründet. Zunächst aufbauend auf existierende Firmenlösungen, wie Ethernet, wurde ein Protokollmodell, die Serie 802, entwickelt. Es ersetzt die Datensicherungsschicht (Data Link Layer) des OSI-Referenzmodells, siehe Bild 8-36. Unterschiedliche physikalische Bedingungen (Busleitung, Koaxialkabel, Lichtwellenleiter, Infrarot, Funk) und Architekturen (Linienbus, Ring) werden in ein einheitliches Modell integriert. Hierfür wird die Datensicherungsschicht in zwei Teilschichten gespalten: der LLCSchicht (Logical Link Control) und der MAC-Schicht (Medium Access Control). Die LLCSchicht fasst die von der physikalischen Übertragung unabhängigen Funktionen zusammen und stellt die Verbindung zu den übergeordneten Schichten her. Die Funktionen der MACSchicht realisieren den Zugriff auf die physikalische Übertragung. Insbesondere regelt sie den Vielfachzugriff auf das Übertragungsmedium durch die konkurrierenden Stationen. Ein verbreitetes Beispiel ist die unter dem Begriff „Ethernet“ bekannte Empfehlung 802.3 aus dem Jahr 1985. Die Stationen des LAN sind über ein Kommunikationskabel verbunden auf das alle Stationen Zugriff haben. Es liegt ein Mehrfachzugriffskanal mit Konkurrenz vor, dessen Gebrauch durch das CSMA/CD-Zugriffsverfahren (Carrier Sense Multiple Access/ Collision Detection) geregelt wird. Dazu beobachten die Stationen den Kanal und senden nur, wenn er als frei erkannt wird. Beginnen zwei Stationen zur gleichen Zeit zu senden, tritt ein Konflikt
302
8 Mobilkommunikation
mit Kollision der elektrischen Signale auf. Konflikte werden erkannt und nach bestimmten Regeln abgebaut.
Transport Control Protocol (TCP) / User Datagram Protocol (UDP)
Transport Layer
Internet Protocol (IP)
Network Layer
802.2 Logical Link Control (LLC) 802.3
802.11
802.15
802.16
“Ethernet“
WLAN
WPAN
WMAN
Physical Layer (PHY)
Medium Access Control (MAC)
Data Link Layer
Physical Layer
Bild 8-36 IEEE-Referenzmodell für LAN- und MAN-Protokolle, im Beispiel mit TCP/IP-Anbindung
Ersetzt man die Übertragung über eine gemeinsame Leitung durch die Funkübertragung über die gemeinsame Luftschnittstelle, so liegt ein im Prinzip ähnliches Zugriffsproblem vor. Es ist deshalb nicht verwunderlich, dass sobald preiswerte Technologien für lizenzfreie Frequenzbänder verfügbar waren das IEEE-Referenzmodell um entsprechende Funkvarianten erweitert wurde: 802.11 für WLAN, 802.15 für WPAN (Wireless Personal Area Network) und 802.16 für WMAN (Wireless Metropolitan Area Network). Eine Auswahl von IEEE-802-Empfehlungen stellt Tabelle 8-7 vor. Bemerkenswert ist der technische Wandel in wenigen Jahren, der sich in der Tabelle an den verfügbaren BruttoBitraten ablesen lässt. Die Frequenzangaben beziehen sich auf die beiden ISM-Bänder (Industrial, Scientific and Medical) von 2,40 … 2,4835 GHz und 5,15 ... 5,35 GHz. Sie können in vielen Ländern ohne Zulassung oder Anmeldung benutzt werden. Anmerkungen: (i) Der Funkbetrieb in den ISM-Bändern ist lizenz- aber nicht regulierungsfrei. Er ist an die Einhaltung technischer Spezifikationen gebunden. Dazu gehört die Begrenzung der gesendeten Strahlungsleistung (EIRP, Equivalent Isotropic Radiated Power). Überschreiten des Grenzwertes durch nachträgliches Anbringen einer Sende-Antennen mit Richtwirkung ist unzulässig. Steigerung der Reichweite durch eine Empfangs-Antenne mit hohem Gewinn ist selbstverständlich möglich. (ii) Spielt die Reichweite eine wichtige Rolle, sind Verfahren mit kleiner Bitrate aber robusterer Übertragung vorteilhafter. Zum Teil ist bei ungenügender Übertragungsqualität ein automatisches Umschalten zu niedrigeren Bitraten in den Geräten vorgesehen. (iii) Die angegebenen Bitraten beinhalten Steuerinformation und Redundanz zur Fehlerbeherrschung. Faustregel: Für Nutzerdaten stehen unter günstigen Bedingungen etwa 50 % der Brutto-Bitrate zur Verfügung. In vielen praktischen Fällen bleibt die Netto-Bitrate sogar deutlich darunter. Sie muss darüber hinaus zwischen allen Stationen einer Funkzelle geteilt werden.
Die Arbeitsgruppe 802 versucht auch externe Entwicklungen zu integrieren. Dazu gehören die Ergebnisse der HIPERLAN- (High Performance LAN-) Aktivitäten der ETSI (European Telecommunication Standards Institute) und die Empfehlungen verschiedener Konsortien wie der Bluetooth SIG (Special Interest Group) und der ZigBee-Alliance.
8.6 Wireless Local Area Network (WLAN)
303
Tabelle 8-7 Auswahl von Empfehlungen für drahtlose Netze nach IEEE 802 Empfehlung
Jahr
Bitraten
Kommentar Drei alternativen Übertragungsverfahren: Diffuse Infrarot-Übertragung bei den Wellenlängen 0,85 oder 0,95 Pm
802.11
1997
1 oder 2 Mbit/s
Frequency Hopping Spread Spectrum (FHSS) mit Frequenzspringen zwischen 79 Frequenzträgern im Abstand von 1 MHz im ISM-Band bei 2,4-GHz Direct Sequence Spread Spectrum (DSSS) mit Bandspreizung durch Barker-Code der Länge 11 im ISMBand bei 2,4-GHz
802.11a
1999
6, 9, 12, 18,24, 36 und 54 Mbit/s
802.11b
1999
5,5 oder 11 Mbit/s
802.11d
2001
Automatische Anpassung der Stationen auf länderspezifische Gegebenheiten (International Roaming)
802.11e
2005
MAC-Erweiterung zu QoS und VoIP
802.11f
2003
Kommunikation zwischen Zugangspunkten (Inter Access Point Protocol)
802.11g
2003
…54 Mbit/s
802.11h
2003
802.11i
2004
802.11n
20091
2002 2004
1
Erweiterung von 802.11 mit HR-DSSS (High Rate)
802.11b mit OFDM für höhere Bitraten, Koexistenz Ergänzungen für 802.11a für internationale Zulassung (Europa), dynamische Kanalauswahl (Dynamic Frequency Selection) und Sendeleistungsregelung (Transmit Power Control) Sicherheit/Verschlüsselung (WEP40, WEP128, WPA, WPA2)
72,2… 150… 600 Mbit/s
802.11p/r/s
802.15.1
Orthogonal Frequency Division Multiplexing (OFDM) im ISM-Band bei 5-GHz
…1 Mbit/s
Next Generation WLAN, OFDM-Übertragung, 40 MHz Bandbreite und mehrere Antennen (MIMO, Multiple Input Multiple Output) optional Studiengruppen zu mobilen Stationen (Roaming) und drahtlos vermaschten Netzen (Mesh WLAN) Bluetooth V1.1 (Bluetooth SIG) im 2,4-GHz-ISM-Band, V1.2 (2003)
…2, 3 Mbit/s
Bluetooth V2.0 + EDR (Enhanced Data Rate), V2.1 (2007)
802.15.3
11, 22, 33, 44 und 55 Mbit/s …
High Rate WPAN (low power, low cost)
802.15.4
20, 40 oder 250 kbit/s
Für die erste Hälfte des Jahres 2009 geplant
Tabelle wird auf der nächsten Seite fortgesetzt
Low Rate WPAN (ZigBee Alliance, 2002), besonders für 868/915-MHz-Bänder (868-868,6 MHz in Europa, 902928 MHz in USA)
304
8 Mobilkommunikation
Fortsetzung Tabelle 8-7
Worldwide Interoperability for Microwave Access (WiMAX), drahtloser Breitband-Internetzugang mit hoher Bitrate und QoS-Unterstützung für stationäre Teilnehmer bis 50 km von der Basisstation
802.16
(2001) 2004
… (134) 260 Mbit/s
Einträger-Übertragung WirelessMAN-SC (Single Carrier) mit Sichtverbindung, im Bereich von 10 bis 66 GHz, Einträger-Übertragung WirelessMAN-SCa ohne Sichtverbindung, im Bereich von 2 bis 11 GHz Mehrträger-Übertragung WirelessMAN-OFDM ohne Sichtverbindung, im Bereich von 2 bis 11 GHz (in Deutschland 2,52,59 und 3,43,6 GHz)
Um die WLAN-Technologie im Umfeld der Mobilkommunikation einordnen zu können, wird im Folgenden der Medienzugriff der WLAN-Technologie vorgestellt. Zunächst wird das Problem des Vielfachzugriffs und seine Lösung in der MAC-Schicht erörtert. Danach richtet sich der Blick auf die physikalische Übertragung. Beispielhaft wird die zunehmend wichtiger werdende Übertragung mit OFDM (Orthogonal Frequency Division Multiplexing) behandelt. Weitere, für den praktischen Einsatz ebenso wichtige Fragen, wie z. B. die nach der Sicherheit, werden der Kürze halber hier nicht vertieft. Obwohl Prozeduren der Authentifizierung, Verschlüsselung (WEP, Wired Equivalent Privacy; WPA, WiFi Protected Access), und ähnliches für die Anwendung von entscheidender Bedeutung sein können.
8.6.2
Zugriff auf die Luftschnittstelle und Netzstrukturen
Während in GSM- und UMTS-Netzen die Funkübertragungen von den Basisstationen zu den Mobilstationen und umgekehrt frequenzmäßig unterschieden werden, konkurrieren im WLAN alle Stationen einer Funkzelle um das gleiche Frequenzband. Weil die Funkreichweite eng begrenzt ist, kann ein Zeitduplexverfahren TDD (Time Division Duplex) eingesetzt werden. Der Zugriff auf die Luftschnittstelle ist nur erfolgreich, wenn jeweils nur eine Station ihren Rahmen sendet. Andernfalls treten Kollisionen auf, ähnlich wie im Ethernet-LAN beim CDMA/ CD-Verfahren. Anders als bei der Übertragung mit einer Leitung können die Stationen über die Funkantenne entweder nur senden oder empfangen. Eine Kollision ist damit für die sendenden Stationen nicht erkennbar. Die Stationen senden ihre Rahmen weiter und belegen so nutzlos den Funkkanal. In WLANs ist es deshalb noch wichtiger Kollisionen zu vermeiden. Anmerkung: (i) Für ein TDD-Verfahren sprechen auch die relativ kurzen Signallaufzeiten in WLANs, die große Schutzabstände zwischen den Rahmen erübrigen. Die kurzen Signallaufzeiten resultieren aus den geringen Sendeleistungen und damit verbunden eingeschränkten Funkreichweiten von bis zu einigen hundert Metern, typisch einigen zehn Metern bzw. innerhalb eines geschlossenen Raumes. (ii) In GSMund UMTS werden die Funkressourcen über die Basisstationen zentral zugeteilt. Nur beim Einbuchen stehen die Mobilstationen kurz im Wettbewerb um den Access-Channel.
Wie Kollisionen vermieden werden können, wird am Beispiel der 802.11-Empfehlung aufgezeigt. Der Aufbau der Kommunikation im WLAN basiert auf dem Prinzip des „Ist-da-Jemand?“. Eine Station mit Verbindungswunsch horcht zunächst in das vorgesehene Frequenzband ob sie
8.6 Wireless Local Area Network (WLAN)
305
eine andere Station empfangen kann. Ist keine andere Station aktiv, sendet sie ein BeaconSignal (Leuchtfeuer) mit allen für den Beginn des Verbindungsaufbaus notwendigen Informationen. Gegebenenfalls wird das Beacon-Signal regelmäßig wiederholt. Beim Ad-hoc-Betrieb mehrerer Stationen ohne zentrale Steuerung können zwei Fälle den Durchsatz der WLAN-Verbindungen stark vermindern: verborgende Stationen (Hidden Station) und herausgehobene Stationen (Exposed-Station). Anmerkungen: (i) Durchsatz: pro Zeit übertragenes Datenvolumen. (ii) Hierin unterscheiden sich ad-hoc gebildete WLAN von zentral organisierten zellularen Mobilfunknetzen. Sie bieten nur Best-EffortDienste ohne garantierte Dienstgüte, wie die maximale Zustellzeit, an.
Bild 8-37 oben illustriert das Hidden-Station-Problem. Station A möchte an Station B senden. Sie kann wegen der begrenzten Funkreichweite nicht erkennen, dass Station B von Station C (Hidden Station) empfängt. Von Station A gesendete Rahmen kollidieren bei Station B mit denen von Station C und deshalb später nochmals übertragen werden. Während beim Hidden-Station-Problem der Durchsatz durch Wiederholungen reduziert wird, geschieht dies beim Exposed-Station-Problem indem mögliche Sendezeit ungenutzt verstreicht. Bild 8-37 unten macht die Situation deutlicht. Es besteht eine Verbindung von Station B (Exposed Station) zu Station A. Station C möchte an Station D senden. Weil aber bereits Station B aktiv ist, sendet Station C nicht obwohl ein kollisionsfreier Empfang durch Station D möglich wäre. Hidden-Station-Problem A sendet an B, da A nicht erkennen kann, dass B von C empfängt ) B kann wegen einer Kollision nicht empfangen
A
B
Funkzone A
C Funkzone C
Exposed-Station-Problem B sendet an A; C kann nicht erkennen kann, dass D ohne Kollision erreichbar ist
A
B
C
D
) C wartet und sendet nicht
Bild 8-37 Situationen im WLAN die den Durchsatz vermindern
Die Empfehlung 802.11 sieht für den Betrieb ohne zentralen Steuerung (DCF, Distributed Coordination Function) das CSMA/CA-Zugriffsverfahren (Carrier Sense Multiple Access with Collision Avoidance) vor. Zwei Modi sind möglich. Der erste entspricht dem vom Ethernet bekannten Wettbewerb um den Zugriff auf das freie Medium (CAA, Clear Cannel Assessment) mit einer Kollisionsauflösungsstrategie nach dem Backoff-Algorithmus. Hierbei ist eine gewisse Wartezeit, DIFS (DCF Inter-frame Spacing) genannt, bis zum Zugriff mindestens einzuhalten. Ist sie im Vergleich zur typischen Rahmendauer relativ klein, so ist der durch die Wartezeit resultierende Verlust an Durchsatz ebenso klein und tolerierbar. Diese Betriebsart eignet sich bei kleiner Verkehrslast, so dass Kollisionen selten auftreten.
306
8 Mobilkommunikation
Anmerkung: Grundlage des Zugriffs bildet das Slotted-Aloha-Verfahren mit Zeitschlitzen der Dauer von 20 Ps für die DSSS- und 50 Ps für die FHSS-Übertragungen.
Mit zunehmender Verkehrslast nimmt die Kollisionswahrscheinlichkeit zu. Der Durchsatz nimmt also genau dann ab, wenn ein hoher Durchsatz gebraucht wird. Kollisionen von wiederholt übertragenen Rahmen führen schließlich zur Blockierung des WLAN. Die Stationen reagieren darauf, indem sie die Übertragungswiederholungen einstellen und eine Fehlermeldung generieren. Um die Wahrscheinlichkeit für solche Blockaden zu reduzieren und insbesondere das HiddenStation-Problem zu umgehen, wird optional ein Verfahren mit virtuellen Reservierungen eingesetzt Anmerkung: Die Anwendung ist optional, die technischen Voraussetzungen in den Geräten sind jedoch im Standard verpflichtend.
Stationen die senden wollen, kündigen dies zunächst an und die Zielstationen bestätigen die Empfangsbereitschaft. Bild 8-38 veranschaulicht das Prinzip anhand von vier Stationen, wobei sich die jeweils benachbarten Stationen in Funkreichweite befinden, siehe auch Bild 8-37. Mit dem RTS-Rahmen (Request To Send) kündigt Station C die Übertragung und die geplante Dauer der Station B an. Station B ist empfangsbereit und bestätigt das mit dem CTS-Rahmen (Clear To Send), der die geplante Dauer enthält. Die Station D empfängt ebenfalls den RTSRahmen und sperrt ihren Sender für die angegebene Übertragungszeit. Die für Station C verborgene Station A empfängt den CTS-Rahmen und sperrt ebenfalls ihren Sender für die dort angegebene Übertragungszeit. Das Verfahren wird deshalb auch RTS/CTS-Erweiterung genannt. Die Stationen A und D reagieren so, als ob der CCA-Test einen belegten Kanal ergäbe. Daher die Bezeichnung virtuelle Reservierung. Die Reservierungsdauer wird im Protokoll-Parameter NAV (Network Allocation Vector) gespeichert. Der Parameter schließt die Zeit für die Quittung, die Übertragung des ACK-Rahmens (Acknowledgement), ein. Stationen NAV
A CTS
B
ACK
RTS
Datenrahmen
C NAV D Zeit ACK CTS
Acknowledgement Clear To Send
NAV Network Allocation Vector RTS Request To Send
Bild 8-38 Virtuelle Reservierung
Die RTS/CTS-Erweiterung reduziert das Hidden-Station-Problem, indem es die beiden Funkzonen der Stationen C und B berücksichtigt und das Zeitfenster für mögliche Kollisionen auf die relativ kurze Dauer der Signalisierung einschränkt werden. Im Vergleich mit drahtgebunden LANs steigt wegen der relativ hohen Bitfehlerwahrscheinlichkeit der Funkübertragung die Wahrscheinlichkeit für Rahmenfehler mit wachsender Rah-
8.6 Wireless Local Area Network (WLAN)
307
menlänge stark an. Deshalb gibt es eine Erweiterung bei der Datenrahmen in Teilen übertragen werden, das Fragment-Burst-Verfahren. Die vorgestellten Zugriffsmodi gelten für Konfigurationen ohne zentrale Steuerung (DCFModus). Wird beispielsweise eine Anbindung an das Internet (E-Mail, WWW) gewünscht, ist ein leitungsgebundener Zugangspunkt AP (Access Point) erforderlich, der in der Regel die zentralen Steuerfunktionen übernimmt. Darüber hinaus verspricht eine zentrale Steuerung einen fairen Zugriff auf die Luftschnittstelle und kollisionsfreiem Betrieb mit hohem Durchsatz. Eine mögliche Betriebsmittelreservierung unterstützt Dienstgütemerkmale. Eine Konfiguration mit AP wird Infra-structure Configuration genannt und der Zugriffsmodus Point Coordination Function (PCF) bezeichnet. Die Empfehlung 802.11 sieht zwei derartige Betriebsarten für WLANs vor. Bild 8-39 zeigt links die Grundanordnung (BSS, Basic Service Set) mit einem AP zur fixen Infrastruktur und über Funk angebundene Stationen. Rechts ist eine erweiterte Anordnung (ESS, Extended Service Set) zu sehen. Hier werden mehrere BSS über eine gemeinsame feste Infrastruktur verbunden. Ein quasi unterbrechungsfreies weiterreichen mobiler Stationen, z. B. ein Teilnehmer mit PDA wird möglich. Hierzu wird die Funkversorgung so ausgelegt, dass sich benachbarte BSS-Zellen teilweise überlappen. Eine Frequenzplanung ist in diesem Fall erforderlich. Die folgenden Angaben beziehen sich auf das DSSS-Verfahren. Die Signalbandbreite des DSSS-Verfahrens beträgt 22 MHz. Beginnend mit der Mittenfrequenz 2,412 GHz für den Kanal 1 stehen in USA 11 und Europa 13 Frequenzkanäle mit jeweiligem Trägerabstand von 5 MHz zur Verfügung. Ein Kanalabstand von mindestens fünf Ordnungszahlen (25 MHz) vermeidet Interferenzen. Es empfiehlt sich deshalb für das ESS in Bild 8-39 die Kanalwahl von 1 (2,412 GHz), 6 (2,437 GHz) und 11 (2,462 GHz). In Europa sind beispielsweise auch die Kanäle 1, 7 und 13 möglich. Anmerkung: Die Ad-hoc-Kommunikation zwischen zwei Stationen innerhalb einer BSS wird optional durch 802.11e mit der Erweiterung Direct Link Protocol (DLP) unterstützt.
Basic Service Set (BSS)
Extended Service Set (ESS) BSS1
BSS2 A1
A B C
BSS3 A2
B1
C2
C1
Fixed Access
B2 B3
C3 AP1
AP
A3
AP2
AP3
Fixed Access Bild 8-39 Netzstrukturen für WLAN mit Zugangspunkten (AP)
Ein WLAN mit AP verfügt über eine ausgezeichnete Station, die zentrale Steuerungsaufgaben übernehmen kann. Insbesondere kann sie in als Taktgeber fungieren, der alle Stationen im Funkbereich folgen. Damit wird ein Zugriffsverfahren mit Prioritäten möglich, die sogar den gleichzeitigen PCF- und DCF-Betrieb zulassen.
308
8 Mobilkommunikation
Die Grundlage bildet der ca. 10- bis 100-mal pro Sekunde gesendete Beacon-Rahmen des AP (Basisstation) auf das sich die Stationen im BSS synchronisieren. Nach Abschluss einer Übertragung durch den Quittungsrahmen ACK erfolgt der Medienzugriff jetzt prioritätsgesteuert durch die Stationen. Bild 8-40 veranschaulicht das Verfahren mit unterschiedlichen Rahmenabständen. Nur die Stationen in aktiver Verbindung, z. B. im Fragment-Burst-Verfahren, können nach dem kürzesten Rahmenabstand SIFS (Short Inter-frame Spacing) die Übertragung mit einem RTS- bzw. CTS-Rahmen fortsetzen. Geschieht dies nicht, kann nach der Zeit PIFS (PCF Inter-frame Spacing) der zentral gesteuerte Verkehr des PCF-Modus abgewickelt werden. Falls keine Station zum Senden aufgefordert wird, kann der AP einen Beacon- oder Polling-Rahmen senden. Beim Polling-Verfahren werden die Stationen abgefragt und gegebenenfalls Sendeberechtigungen durch den AP gegeben. Der Medienzugriff nach den Rahmenabständen SIFS und PFIS erfolgt ohne Wettbewerb, da das Protokoll den Zugriff eindeutig einschränkt. Verstreicht die Zeit DIFS (DCF Inter-frame Spacing) ohne Zugriff, beginnt die Wettbewerbsphase des DCF-Modus. Durch den eingesetzten Backoff-Algorithmus mit zufälligen Verzögerungen ist die Wahrscheinlichkeit klein, dass mehrere sendewillige Stationen gleichzeitig zugreifen. Nach der zugriffsfreien Zeit EIFS (Extended Inter-frame Spacing) kann von einer Station der empfang eines fehlerhaften Rahmens gemeldete werden. Dieses Ereignis hat die geringste Priorität, da die Kommunikation von der Zielstationen durch Quittungen gesichert wird. Anmerkung: Wegen dem Hidden-Station-Problem können die Stationen nicht eindeutig entscheiden ob ein Rahmen tatsächlich gesendet wird oder nicht. EIFS DIFS PIFS SIFS ACK
Zeit
*
*
*
Steuerrahmen oder nächstes Fragment kann ab hier gesendet werden
DCF-Rahmen kann ab hier gesendet werden, wenn frei
PCF-Rahmen kann ab hier gesendet werden, wenn zugeteilt ACK Acknowledgement DCF Distributed Coordination Function DIFS DCF Inter-frame Spacing
EIFS PIFS SIFS
Extended Inter-frame Spacing PCF Inter-frame Spacing Short Inter-frame Spacing
Bild 8-40 Prioritätsgesteuerter Medienzugriff
Wie beschrieben wurde, unterstützt die IEEE-802.11-Empfehlung den quasi wahlfreien Zugriff auf das Übertragungsmedium im Wettbewerb durch den DCF-Modus sowie den zentral gesteuerten Betrieb im PCF-Modus. Beides sogar in Koexistenz.
8.6 Wireless Local Area Network (WLAN)
309
Der PCF-Modus ermöglicht die Stationen eines BSS mit dem Polling-Verfahren durch den AP (Basisstation) zentral zu steuern. Die Stationen senden dann nur nach Aufforderung durch den AP. Zwei Stationen können im BSS nur über den AP miteinander kommunizieren. Darüber hinaus ist es möglich Stationen für gewisse Zeiten in einen Ruhezustand (Power-Save-Betrieb) zu versetzen. Anmeldungen neuer Stationen und Übertragungen unvorhergesehener Meldungen durch die Stationen können regelmäßig durch den DCF-Modus ermöglicht werden. Der PCF-Modus erlaubt die Reservierung und Zuteilung von Übertragungszeiten, so dass Stationen bzw. Dienste bevorzugt werden können. Damit ist eine Unterstützung von Dienstmerkmalen, wie Bitraten und maximalen Zustellzeiten in gewissen Grenzen möglich. Die Qualität der WLAN-Funkübertragung kann zufällig schwanken, da die Konfiguration eines WLAN in der Regel nicht genau geplant ist. Im Büro beispielsweise kann es eine Rolle spielen wo Mitarbeiter und Gäste gerade ihre Notebooks abstellen. Dazu kommt, dass das ISM-Band für das WLAN nicht exklusiv reserviert ist. Reale Netto-Bitraten liegen meist deutlich unter 50 % der in Tabelle 8-7 angegebenen BruttoWerte, die auch noch zwischen den Stationen geteilt werden muss. So ergab sich in einer Testinstallation eines Audio-Video-Heimnetzwerkes mit 802.11g (54 Mbit/s) eine Netto-Bitrate für Punkt-zu-Punkt-Übertragungen von nur 2 bis 16 Mbit/s [HaZo05]. Eine neuerer, vergleichbarer Test mit Geräten nach dem IEEE 802.11g und IEEE 802.11n (Draft) ergab Bitraten von 17…23 Mbit/s bzw. 26 bis 94 Mbit/s [Ahl08]. Anmerkung: In [Ahl08] findet man auch einen Vergleich mit der PowerLine-Technik.
In vielen WLANs für den Internetzugang wird die Übertragungskapazität durch den Festnetzanschluss begrenzt.
8.6.3
WLAN-Übertragung mit OFDM
Das Orthogonal Frequency Division Multiplexing (OFDM)-Verfahren kann sowohl als Multiträger- wie auch als Frequenzmultiplex-Verfahren interpretiert werden. Im Gegensatz zum traditionellem Frequenzmultiplex mit für jeden Frequenzkanal eigener Sende- und Empfangseinrichtung und relativ großem Trägerfrequenzabstand, wird beim OFDM die digitale Signalverarbeitung eingesetzt, um den Datenstrom gezielt auf viele Unterträger aufzuteilen und bei der Detektion die Signale der verschiedenen Unterträger gemeinsam auszuwerten. Die Idee des OFDM wurde bereits 1957 angewendet und 1966 ein relevantes U.S.-Patent eingereicht. Heute kann OFDM mit digitalen Signalprozessoren sehr effizient implementiert werden, siehe Abschnitt 4.5.3. Als software-basiertes Verfahren ist im laufenden Betrieb eine Anpassung an veränderte Funkfeldbedingungen und Dienstcharakteristika möglich. OFDM wird deshalb in der Empfehlung IEEE 802.11a und von der ETSI als Hiperlan/2 vorgeschlagen. Beide Empfehlungen sind bezüglich der physikalischen Übertragung sehr ähnlich. Im Frequenzbereich um 5 GHz werden Bitraten von 6 Mbit/s bis 54 Mbit/s unterstützt. Dabei werden je nach Bedarf und Funkfeldbedingungen für die Unterträger die Modulationsverfahren BPSK, QPSK, 16-QAM und 64-QAM eingesetzt und die Fehlerschutzcodierung angepasst. Die tatsächlich erzielbare Bitrate ist entfernungsabhängig. Tests im Freien zeigen, dass sich Bitraten von 6 und 54 Mbit/s über Funkstrecken von etwa 200…300 m bzw. 20…30 m übertragen lassen. Für WLAN-Anwendungen wurden in Europa ursprünglich die Frequenzbänder von 5,15 bis 5,35 GHz und 5,47 bis 5,725 GHz vorgesehen. Eine Erweiterung für das ISM-Band bei 2,4 GHz wurde 2003 mit der Empfehlung 802.11g eingeführt.
310
8 Mobilkommunikation
Anmerkungen: (i) USA: 5,15 bis 5,35 GHz und 5,725 bis 5,825 GHz ; Japan: 5,15 bis 5,25 GHz. (ii) Für 2009 ist die Verabschiedung der Empfehlung IEEE 802.11n angekündigt, die ebenfalls auf der OFDMÜbertragung fußt. Erste Geräte, die die Empfehlung im Wesentlichen vorwegnehmen, sind bereits seit 2008 im Handel, siehe auch Tabelle 8-7.
Im vorgesehenen Frequenzbereich sind 20 MHz breite Teilbänder jeweils für eine OFDMÜbertragung mit theoretisch 64 Unterträgern reserviert. Benachbarte Unterträger besitzen gleiche Frequenzabstände, so dass sich der Unterträgerabstand F = 20 MHz / 64 = 0,3125 MHz ergibt. Um Störungen in den Nachbarbändern zu vermeiden, werden sechs Unterträger am unteren Rand und fünf am oberen Rand nicht verwendet. Der Unterträger in der Bandmitte, wird um im Empfänger eine störende Gleichkomponente nach abmischen ins Basisband zu ver20 MHz meiden ebenfalls nicht verwendet. Weitere 1 6 7 8 31 32 33 58 59 60 64 vier Unterträger, die Unterträger 12, 26, 40 und 54, sind für die Synchronisation belegt, weshalb für die eigentliche Datenübertragung nur 48 Unterträger zur Verfügung steFrequenz hen, siehe Bild 8-41. Bild 8-41 Frequenzlagen der 64 Unterträger im Die Bandbreiteneffzienz des OFDM-VerfahTeilband mit Schutzbändern rens beruht auf der „starken“ Überlappung der Spektren der Unterkanäle. Diese scheint zunächst der Erfahrung aus der Frequenzmultiplextechnik zu widersprechen. Bei Orthogonalität der Unterträger ist jedoch eine Signaltrennung möglich, siehe Abschnitt 4.5.3. Dafür sind der Unterträgerabstand F und die Symboldauer der Unterträgermodulation T fest miteinander verkoppelt.
T
1 F
3, 2s
Betrachtet man die Signale der Unterträger gemeinsam, so stellt sich die Erzeugung des OFDM-Sendesignals als Kombination aus Harmonischen der Fourier-Reihe dar. Darin ist die Teilnachricht in den komplexwertigen Fourier-Koeffizienten zu den Unterträgern codiert. Die digitale Signalverarbeitung stellt hierfür einen effizienten Algorithmus, die inverse schnelle Fourier-Transformation, Inverse Fast Fourier Transform (IFFT), bereit, siehe Bild 4-39. Entsprechend den Teilnachrichten werden die Fourier-Koeffizienten den jeweilig gültigen Signalraum-Konstellationen für BPSK, QPSK, 16-QAM oder 64-QAM entnommen. Ähnliche Überlegungen für den Empfang von OFDM-Signalen liefern eine entsprechende Struktur. Statt der IFFT wird im Empfänger die fast identische FFT verwendet. Abschließend wird eine kurze Überlegung zur Bitrate in der WLAN-Anwendung vorgestellt und ein wichtiger Hinweis zur praktischen Realisierung gegeben. Mit dem Frequenzabstand F der 48 Unterträgern und der 64-QAM-Modulation der Unterträger ergibt sich die geschätzte Bitrate Rˆb
6 bit 48 0,3125 MHz
90 Mbit/s
Tatsächlich werden in den Empfehlungen IEEE 802.11a und Hiperlan/2 nur 54 Mbit/s realisiert. Dies hat zwei Gründe. Zum ersten werden zusätzliche Prüfbits mit übertragen, so dass nur 3/4 der codierten Bits tatsächlich zu den Nachrichten gehören. Zum zweiten wird aus prak-
8.6 Wireless Local Area Network (WLAN)
311
tischen Gründen eine so genannte zyklische Erweiterung vorgenommen. Überträgt man nämlich, wie in den bisherigen Überlegungen, nur eine Periode des Basisbandsignals, so resultieren strikte Forderungen an die Genauigkeit der Synchronisation im Empfänger. Insbesondere machen sich dann die im Funkfeld typischen Mehrwegeübertragungen mit unterschiedlichen Laufzeiten störend bemerkbar. Aus diesem Grund wird das Basisbandsignal periodisch etwas fortgesetzt, also zyklisch erweitert. Man spricht von einem Schutzintervall, auch GI (Guard Interval) genannt. Der Empfänger kann dann aus dem „verlängerten“ Signal leichter eine Periode für die Detektion entnehmen. Es wird ein Schutzintervall TG von 800 ns verwendet. Damit verlängert sich die tatsächliche Symboldauer TT = T + TG = 3,2 Ps + 0,8 Ps = 4 Ps Die Bitrate beträgt einschließlich der Kanalcodierung deshalb Rb
3 6 bit 48 4 TT
3 6 bit 48 4 4s
54 Mbit/s
HT-OFDM Heute ist es möglich, noch komplexere Algorithmen für die Übertragungssteuerung und digitale Signalverarbeitung sowie die analoge Signalverarbeitung in miniaturisierten Schaltungen zu integrieren, zum Single-Chip WLAN [Beh08]. Die neue WLAN-Empfehlung 802.11n, mit n für Next Generation, stützt sich auf 802.11a/g und bietet eine erweiterte Auswahl von Optionen für die Funkübertragung an, siehe Tabelle 8-8. Zur Unterscheidung wird von HTOFDM (High-Throughput) gesprochen. Das Frequenzband wird effizienter genutzt, indem die Zahl der Unterträger für die Datenübertragung von 48 auf 52 erhöht wird, was einen Zuwachs von ca. 8,3 % mit sich bringt. Treten in der Funkzelle nur kurze Signallaufzeiten auf, kann das Schutzintervall von 800 ns auf 400 ns halbiert werden. Damit reduziert sich die tatsächliche Übertragungsdauer eines OFDMSymbols auf 3,6 Ps, was für sich einen Zuwachs des Durchsatzes von 10 % mit sich bringt. Schließlich kann bei sehr guter Übertragungsqualität die Redundanz des Fehlerschutzes verringert werden. Mit der Code-Rate 5/6 statt bisher 3/4 erhöht sich die Nutzbitrate um etwa 11 %. Insgesamt erlauben die drei Maßnahmen bei HT-OFDM eine Steigerung der Bitrate von 54 auf 72,2 Mit/s. Die technologischen Fortschritt der letzten Jahre spielen IEEE-802.11n-Systeme erst richtig aus, wenn zwei benachbarte Frequenzkanäle zur Verfügung stehen. Dann können die Beiden konstruktiv zusammengelegt werden. Das heißt, HT-OFDM nutzt das durchgehende 40-MHzBand. Die Zahl der Unterträger erhöht sich auf 108 und damit die Datenrate auf maximal 150 MHz. Besonders leistungsfähige Geräte können optional mehrere Antennen nutzen, siehe Bild 8-42. Man spricht von der MIMO-Übertragung (Multiple Input Multiple Output). Mehrantennensysteme können genutzt werden zur Antennen-Diversität, zur Strahlungsbündelung (Beamforming) oder zum Raum-Multiplex. Damit kann die Sendeleistung reduziert und/oder der Datendurchsatz gesteigert werden. Setzt man das Raum-Multiplex-Verfahren ein, werden komplexe Algorithmen der Signalverarbeitung zur Kanalschätzung benötigt. Je nachdem, ob die Kanaleigenschaften im Sender und im Empfänger bekannt sind, werden unterschiedliche Verfahren möglich [Kam08]. Im Beispiel
312
8 Mobilkommunikation
in Bild 8-42 werden vier Sende und zwei Empfangsantennen benutzt. Es ergeben sich vier Kanäle und somit die Möglichkeit vier unabhängige Signale zu übertragen. Unter idealen Bedingungen vervierfacht sich die Datenrate, also bei 40 MHz Frequenzkanalbandbreite auf insgesamt 600 Mbit/s. Tabelle 8-8 Bitraten der HT-OFDM-Übertragung (52 Unterträger, 20 MHz Kanalbandbreite, MSC Modulation and Coding Scheme, GI Guard Interval) Bitrate in Mbit/s MCS
0 1 2 3 4 5 6 7
Modulation
BPSK QPSK QPSK 16-QAM 16-QAM 64-QAM 64-QAM 64-QAM
Bit pro Unterträger
Bit pro OFDMSymbol
1 2 2 4 4 6 6 6
52 104 104 208 208 312 312 312
Datenbit pro FEC-Coderate OFDMSymbol 1/2 1/2 3/4 1/2 3/4 2/3 3/4 5/6
26 52 78 104 156 208 234 260
GI
GI
800 ns
400 ns
6,5 13 19,5 26 39 52 58,5 65
7,2 14,4 21,7 28,9 43,3 57,8 65 72,2
Signal 1 Kanal 1 Signal 2 Kanal 2 MIMOSender
Signal 3 Kanal 3
MIMOEmpfänger
Signal 4 Kanal 4 Bild 8-42 MIMO-Übertragung (Multiple Input Multiple Output) für das Raum-Multiplex-Verfahren
8.7
Zusammenfassung
Mobilkommunikationsnetze nach dem GSM-Standard integrieren seit Anfang der 1990er Jahre die Fortschritte der modernen digitalen Nachrichtentechnik in ein sicheres, zuverlässiges und preiswertes Kommunikationssystem. GSM war von Anfang an als „lebender“ Standard konzipiert, der sich mit den wachsenden Kundenanforderungen und technischen Fortschritten weiterentwickeln sollte. Dass dies nach etwa 16 Jahren der ersten Netzeinführung gelungen ist, beweist die überwältigende Zahl von weltweit über 1 Milliarde Teilnehmern. Architektur und Sicherheitsmerkmale von GSM sind auch heute noch beispielhaft.
8.7 Zusammenfassung
313
Seit dem Beginn der 1990er-Jahre haben sich die Telekommunikation und ihr Umfeld stark gewandelt. An der Abschaffung des Monopols für Sprachdienste 1998 und der Verbreitung des paketorientierten Internet ist dies besonders erkennbar. Hinzu kommt zunehmend der Wunsch nach Multimedia-Inhalten, was Zugänge mit hohen Datenraten erfordert. Die technologischen Grenzen von GSM/EDGE als Mobilfunkstandard der 2. Generation sind offensichtlich. Aus diesem Grund wird bereits seit Anfang der 1990er-Jahre weltweit unter der Koordination der International Telecommunication Union (ITU) und in Europa des European Telecommunications Standards Institut (ETSI) an der 3. Generation gearbeitet. Parallel wurden neue Frequenzbänder um 2000 MHz für die Mobilkommunikation reserviert. In Europa werden diese Aktivitäten unter dem Namen Universal Mobile Telecommunication Services (UMTS) zusammengefasst. Im Jahr 2000 wurden in Deutschland die für UMTS-Netze vorgesehenen Frequenzbänder für etwa 50 Milliarden € versteigert. UMTS trat zunächst in eine schwierige Konkurrenz mit der Qualität von Festnetzanschlüssen, wie z. B. ADSL und Breitbandkoaxialkabel, und den Preisen etablierter GSM/GPRS-Netze. Heute hat sich UMTS mit über 10 Millionen Teilnehmeranschlüsse in Deutschland etabliert. Mit den Datendienst HSPA hat UMTS die Herausforderung um mobile breitbandige Internet-Zugänge angenommen. Parallel dazu nimmt die Verbreitung von WLANs stark zu, die Brutto-Bitraten bis zu 54 Mbit/s bei einer Reichweite von 50 bis 300 m bieten. Leistungsfähige WLAN-Funkschnittstellen gehören heute zur Serienausstattung von Notebooks und PDAs. WLAN-Technologien werden immer häufiger in öffentlichen Zugangspunkten (Hotspots) für das Internet verwendet. Mit der nächsten Generation an WLAN-Geräten nach der Empfehlung IEEE 802.11n, wird die Leistungsfähigkeit nochmals wesentlich gesteigert. Hinzu kommen ad-hoc um eine „Person“ herum aufgebaute Funknetze, so genannte Personal Area Networks (PAN). Seit 2001 steht für PAN-Anwendungen mit der Bluetooth-Empfehlung V1.1 ein breit unterstützter Standard zur Verfügung. Bluetooth ermöglicht, je nach lokalen Bedingungen, Datenraten bis zu 721 kbit/s über Entfernungen von 10 bis 100 m. Seit Ende 2004 werden mit der Weiterentwicklung V2.0 + EDR Bitraten bis zu 3 Mbit/s angeboten. Nicht zu vergessen ist auch WiMAX, ein Standard für den drahtlosen breitbandigen Internetzugang, der noch an Bedeutung zunehmen wird. An all diesen Standards wird weiter gearbeitet. Varianten mit verbesserten Leistungsmerkmalen sind in der Entwicklung. Die Existenz unterschiedlicher Standards ist im Rückblick teilweise auf die historische Entwicklung der Technik und der Märkte zurückzuführen. Um das Frequenzspektrum möglichst effizient zu nutzen und preisgünstige Geräte anbieten zu können, werden spezifische Lösungen bevorzugt. Anwender wünschen sich jedoch einfach zu bedienende, preiswerte Geräte die alles können. Es zeichnet sich deshalb eine Entwicklung zu Multimodegeräten ab, die die jeweils geeignete Luftschnittstelle vor Ort unterstützen. Multimodegeräte geben den Anwendern die Freiheit zu entscheiden, ob beispielsweise ein Zugriff auf das Internet über ein Mobilfunknetz oder über einen WLAN-Hotspot geschieht. Die Geschäftsmodelle der Netzbetreiber und Dienstanbieter werden sich darauf einzustellen haben. Für spezielle Aufgaben, z. B. zur Prozess-Steuerung, Gebäudeüberwachung, usw., werden leistungs- und kostenoptimierte Funkmodule auch in Zukunft den Vorzug erhalten. Ihre breite Anwendung steht erst noch bevor. Von Interesse ist dabei auch die Entwicklung auf dem
314
8 Mobilkommunikation
Gebiet der so genannten Funketiketten (RFID, Radio Frequency Identification), die mit zunehmender Komplexität Eigenschaften von Kommunikationsendgeräten aufweisen.
8.8
Aufgaben zu Abschnitt 8
A8.1 Nennen Sie die drei Sicherheitsmerkmale von GSM aus der Anwendersicht. Wie werden Sie umgesetzt? A8.2 Es wird zwischen Teilnehmermobilität und Endgerätemobilität unterschieden. Geben Sie je ein Beispiel an. Wie werden beide durch GSM unterstützt? A8.3 Welches Vielfachzugriffsverfahren wird bei GSM eingesetzt. Geben Sie wesentliche Parameter an. A8.4 Was versteht man unter einem zellularen Funknetz bei GSM? A8.5 Nennen Sie drei Maßnahmen in GSM, um die Funkübertragung robuster gegen Fehler zu machen. A8.6 Wofür steht das Akronym GPRS? Welche Art von Dienst wird durch GPRS bereitgestellt? A8.7 Was heißt EDGE? Was soll mit EDGE erreicht werden? Wie wird EDGE umgesetzt? A8.8 Wofür steht das Akronym UMTS? Auf welchem Prinzip fußt die Funkübertragung im FDD-Modus und warum wurde es ausgewählt? A8.9 Erklären Sie den Nah-Fern-Effekt. Welche negative Auswirkung hat er? Wie wird ihm entgegen gewirkt? A8.10 Was ist die zellulare Funkkapazität? Wodurch wird sie bei UMTS begrenzt? A8.11 Wofür steht das Akrony HSDPA? A8.12 Nach welchem Prinzip funktioniert die Datenfluss-Steuerung bei HSDPA? A8.13 Erklären Sie das Hidden Station Problem und das Exposed Station Problem. A8.14 Wie kann das Hidden Station Problem und das Exposed Station Problem bekämpft werden? A8.15 Wofür steht das Akronym OFDM? Aufgabe 8.16 a) Wieso kann die OFDM-Übertragung sowohl als Frequenzmultiplex-Verfahren als auch als Modulationsverfahren gedeutet werden? b) Welche zwei Parameter des OFDM-Verfahrens sind wie zu wählen? c) Wodurch wird die „theoretische“ Übertragungskapazität aus b) vermindert? d) Nennen Sie ein typisches Anwendungsgebiet der OFDM-Übertragung. Aufgabe 8.17 a) Welcher Art von Übertragungstechniken wird CDMA zugeordnet?
8.8 Aufgaben zu Abschnitt 8
315
b) Erklären Sie anhand einer Skizze die Wirkungsweise des CDMA-Modulators. c) Wenn die Chiprate 3,84 Mchip/s und die Bitrate 60 kbit/s beträgt, wie groß ist der Spreizfaktor? d) Erklären Sie anhand einer Skizze die Wirkungsweise des CDMA im Frequenzbereich. e) Was versteht man bei CDMA unter Prozessgewinn und warum ist der Prozessgewinn wichtig? Aufgabe 8.18 a) Wie wird bei der HT-OFDM-Übertragung der IEEE-802.11n-Empfehlung der Datendurchsatz im Vergleich mit IEEE 802.11a/g erhöht? b) Wofür steht das Akronym MIMO? c) Wie kommt die Angabe der Datenrate 600 Mbit/s für das Next Generation WLAN zustande?
316
Lösungen zu den Aufgaben Lösungen zu Abschnitt 1 A1.1 Die (elektrische) Nachrichtentechnik befasst sich mit der Darstellung, der Übertragung, der Vermittlung und der Verarbeitung von Nachrichten (in elektronischer Form). A1.2 Ein Signal ist der physikalische Repräsentant einer Nachricht. Eine Schnittstelle definiert die Bedeutung und Reihenfolge und die physikalischen Eigenschaften der ausgetauschten Signale, sowie die Orte an denen die Schnittstellenleitungen auf einfache Weise unterbrochen werden können. Die Regeln für den Datenaustausch an einer Schnittstelle werden durch das Protokoll festgelegt. Es definiert die Datenformate, die möglichen Befehle und Meldungen und die zugehörigen Zeitvorgaben. A1.3 Die Quellencodierung stellt die Nachricht in einer Form dar, die für eine aufwandsgünstige Übertragung geeignet ist. Oft wird dabei eine Datenkompression durch Beseitigung von redundanten und irrelevanten Anteilen vorgenommen. Die Kanalcodierung sichert die Nachricht gegen Übertragungsfehler durch zusätzliche Prüfzeichen, sodass im Empfänger Fehler erkennbar und/oder korrigiert werden. Die Leitungscodierung bzw. Modulation erzeugt zur Nachricht ein an die physikalischen Eigenschaften des Kanals angepasstes (Sende-)Signal. A1.4 Shannonsches Kommunikationsmodell: Quelle o Sender o Kanal (+ Störung) o Empfänger o Sinke A1.5 TK-Netze ermöglichen die Übermittlung (Vermittlung + Übertragung) von Nachrichten zwischen zwei Netzzugangspunkten. Sie stellen Dienste mit bestimmten Dienstmerkmalen zur Verfügung. A1.6 Anwendungsgebiete der digitalen Signalverarbeitung: die Mobilkommunikation (z. B. der Sprachcodec im Mobilgerät), die Medizintechnik (z. B. die Computertomographie, bei der aus Röntgenschichtaufnahmen räumliche Bilder erstellt werden) und die Kommunikationstechnik (z. B. xDSL-Modems für die schnelle Datenübertragung auf der Teilnehmeranschlussleitung).
Lösungen zu den Aufgaben
317
Lösungen zu Abschnitt 2 Aufgabe 2.1 wertdiskret
Tabelle A2.1-1 Analoges Signal Digitales Signal Abtastfolge Binäres Basisbandsignal
wertkontinuierlich 9
9
9
9 9
9
9
zeitkontinuierlich
zeitdiskret
9
Aufgabe 2.2 a) Frequenzgang 1 jZC 1 R 1 R jZC 1 R
H ( jZ )
1 2 jZCR
1 1 2 1 jZ CR 2
1 1 2 1 jZW
b) Frequenzgang der Dämpfung
c) Skizze des Frequenzgangs der Dämpfung (siehe auch Bild 2-15) mit der 3dB-Grenzkreisfrequenz
Z3dB = 1/ W Hinweis: Die 3dB-Grenzfrequenz bezieht sich auf das Maximum des Betragsfrequenzganges, siehe (2.52) d) Tiefpass e) 3dB-Grenzfrequenz f3dB
20 lg H ( jZ ) dB 10 lg 1 Z 2W 2 dB 6 dB
adB (Z )
1 1 | 8 kHz 2S RC 2
24
a(Z)
18
in dB 12 6dB Steigung pro Oktave
9
6
1/2
1/4
1
2
Bild A2.2-2 Frequenzgang der Dämpfung
0,5
Aufgabe 2.3
|ck|
Amplitudenspektrum (Betrag der FourierKoeffizienten) zur periodischen Sägezahnschwingung Hinweis: Ergänzend sind die Werte auf der linken Seite, k < 0, eingetragen, um die gerade Symmetrie hervorzuheben.
Z / Z3dB 8
~1/k
4
0
k 0
4
Bild A2.3-2 Amplitudenspektrum
318
Lösungen zu den Aufgaben
Aufgabe 2.4 a) Reaktion am Ausgang des Bandpasses mit Z0 = 2S 1 kHz y (t )
1
S
4
sin kZ0 t
k 1
k
¦
1 ª
1
1
1
º
sin Z0 t sin 2Z0 t sin 3Z0 t sin 4Z0 t » S «¬ 2 3 4 ¼
b) Skizze des Amplitudenspektrums (einseitig) 0,2
|ck| 0,1 0
k 0
4
Bild A2.4-2 Amplitudenspektrum
Ergänzung: Reaktion des BP, Ausgangssignal y(t) 1/2 0 1/2
t 0
T0
Bild A2.4-3 Ausgangssignal des BP
Aufgabe 2.5 a) Die Fourier-Transfomierte eines Signals bezeichnet man als (Fourier-)Spektrum. Das Betragsquadrat des Spektrums gibt die Verteilung der (Signal-)Energie über der Frequenz an. Ist das Signal periodisch mit der Periode T, so erhält man aus der harmonischen Analyse eine Fourier-Reihe mit Gleichanteil bei der Frequenz null und Harmonischen bei ganzzahligen Vielfachen der Grundkreisfrequenz Z0 = 2S / T. Es ergibt sich ein Linienspektrum. Anmerkung: Bei periodischen Signalen wird zur Berechnung der Fourier-Koeffizienten eine Periode betrachtet. Man erhält die Energie pro Periode, also die mittlere Leistung, siehe Methode der Ersatzspannungsquellen.
b) In RLC-Netzwerken lassen sich bei sinusförmigen Quellenströmen und Quellenspannungen Zweigströme und Zweigspannung im eingeschwungenen Zustand mit der komplexen Wechselstromrechnung bestimmen. Die harmonische Analyse liefert eine mathematische Darstellung periodischer Ströme und Spannungen durch sinusförmige Ersatzquellen, sodass die bekannten Beziehungen der komplexen Wechselstromrechnung angewendet werden können.
Lösungen zu den Aufgaben
319
c) Die parsevalsche Gleichung stellt die Verbindung zwischen der Energie bzw. Leistung des Zeitsignals und dem Betragsquadrat seines Spektrums her. Damit können Energie- und Leistungsbetrachtungen äquivalent in Zeit- und Frequenzbereich durchgeführt werden. d) Unter der Bandbreite eines Signals versteht man die Breite des Frequenzbereiches im Spektrum, kurz (Frequenz-)Band genannt, in dem sich die wesentlichen Frequenzkomponenten des Signals befinden. Liegt eine strikte Bandbegrenzung vor, so besitzt das Signal keine Frequenzkomponente außerhalb des Bandes. e) Einem periodischen Signal mit der Periode T ist eine Fourier-Reihe und damit ein Linienspektrum zugeordnet. Die Frequenzkomponenten finden sich bei der Frequenz null für den Gleichanteil und ganzzahligen Vielfachen der jeweiligen Grundkreisfrequenz Z0 = 2S / T für die Harmonischen. f) Die zeitliche Dauer eines Signals und dessen Bandbreite stehen in reziprokem Zusammenhang. Je schneller sich ein Signal ändert, umso größer ist seien Bandbreite. Aufgabe 2.6 siehe Bild 2-18 Aufgabe 2.7 Klirrfaktor d
0,12 0, 042 2 0,12 0, 042 2
| 0, 054 5, 4%
Aufgabe 2.8 a) Frequenzgang H ( jZ )
R 1 R R jZC
jZCR 1 jZC 2 R
1 jZW 2 1 jZW
b) Frequenzgang der Dämpfung adB (Z )
§1 Z 2W 2 20 lg ¨ ¨ 2 1 Z 2W 2 ©
2 2· · § ¸ dB 10 lg ¨ 1 Z W ¸ dB 6 dB ¨ Z 2W 2 ¸ ¸ © ¹ ¹
c) Skizze des Frequenzganges der Dämpfung mit der 3dB-Grenzkreisfrequenz Z3dB = 1/(2RC) Bild A2.8-2 Frequenzgang der Dämpfung
d) Hochpass e) 3dB-Grenzfrequenz f3dB
1 1 | 1 kHz 2S 2 RC
a(Z)
24 18
in dB 12 9 6 1/8
6dB Steigung pro Oktave 1/4
1/2
1
Z / Z3dB 4
320
Lösungen zu den Aufgaben
Aufgabe 2.9 a) siehe c) links b) x(t ) l X ( jZ )
2 AT si ZT
c) x(t)
X( jZ)
2AT
A
Z
t T
T
0
0
S/T
Bild A2.9-1 Rechteckimpuls der Dauer 2T und sein Spektrum e) f0 = 1/(2T )
Aufgabe 2.10 a) Frequenzgang H ( jZ )
R jZ L R
1 1 jZ L / R
b) Frequenzgang der Dämpfung adB (Z ) 10 lg 1 Z 2 L R
2
dB
c) Siehe auch Lösung zu Aufgabe 2.2 mit der 3dB-Grenzkreisfrequenz Z3dB = R/L
18
adB(Z) 12 in dB
6 6 dB Steigung pro Oktave
3 0 1/4
1/2
1
2
Z / Z3dB 8
Bild A2.10-2 Frequenzgang der Dämpfung
d) Tiefpass e) Induktivität zur 3dB-Grenzfrequenz L
R | 0,8 mH 2S f3dB
Lösungen zu den Aufgaben
321
Aufgabe 2.11 Frequenzbereich
Zeitbereich
AT1 A
1/T1 t
f
T1 AT2
A
1/T2
t
f
T2 Bild A2.11-1 Zum Zeitdauer-Bandbreite-Produkt
Aufgabe 2.12 a) LTI-Systeme sind linear (L) und zeitinvariant (TI). b) Ist ein System linear, so erhält man bei einer Linearkombination von Eingangssignalen (Erregungen) am Systemeingang die gleiche Linearkombination der zugehörigen Ausgangssignale (Reaktionen) am Systemausgang. c) Das Übertragungsverhalten eines LTI-Systems wird durch die Impulsantwort und den Frequenzgang (Übertragungsfunktion) beschrieben. Impulsantwort und Frequenzgang bilden ein Fourier-Paar. d) Das Eingangssignal wird mit der Impulsantwort zum Ausgangssignal gefaltet. e) Das Eingangsspektrum wird mit dem Frequenzgang zum Ausgangsspektrum multipliziert. f) Der Frequenzgang charakterisiert die Übertragungseigenschaften des LTI-Systems im Frequenzbereich. Stellt man, wie in der komplexen Wechselstromrechnung, das sinusförmige Eingangssignal als komplexe Amplitude dar, so ergibt sich die komplexe Amplitude des Ausgangssignals aus der komplexen Amplitude am Eingang mal dem Wert des Frequenzgangs bei der entsprechenden Kreisfrequenz. Damit ist die Amplitude des sinusförmigen Ausgangssignals proportional zum Betrag des Frequenzgangs bei der entsprechenden Kreisfrequenz. Die Phase des Frequenzgangs bei der entsprechenden Kreisfrequenz tritt im Ausgangssignal als Phasenverschiebung in Erscheinung. g) Eine Übertragung ist verzerrungsfrei, wenn das Empfangssignal dem Sendesignal bis auf einen konstanten Amplitudenfaktor und einer konstanten Zeitverschiebung gleicht. Aufgabe 2.13 a) Die Impulsfunktion stellt die mathematische Idealisierung eines sehr kurzen und sehr energiereichen Signals dar. Am Beispiel der Aufladung der Kapazität eines RC-Glieds kann man sich die Impulsfunktion als Spannungsimpuls vorstellen, der die Kapazität so schnell lädt, dass im Rahmen der Messgenauigkeit der Ladevorgang selbst nicht mehr beobachtet werden kann.
322
Lösungen zu den Aufgaben
b) Die Ausblendeigenschaft der Impulsfunktion ist unmittelbar mit der Definition der Impulsfunktion verknüpft. Wird die Impulsfunktion auf ein (im Ursprung t = 0 stetiges) Signal angewendet, so erhält man den Signalwert im Ursprung. Der restliche Signalverlauf wird ausgeblendet. c) Die Faltung zweier identischer Rechteckimpulse ergibt einen dreieckförmigen Impuls mit der doppelten Dauer der Rechteckimpulse. Die maximale Höhe ist gleich der Energie der Rechteckimpulse. Aufgabe 2.14
y(t) T
Das Signal x(t) kann in eine Folge t/T von Rechteckimpulsen der Dauer T 0 zerlegt werden. Wegen der Linearität 1 7 der Faltung, darf jeder einzelne T Rechteckimpuls für sich mit h(t) geBild A2.14-2 Ausgangssignal faltet werden. Es ergeben sich jeweils Dreieckimpulse der Dauer 2T und Höhe T, siehe Bild 2-41. Das Ergebnis y(t) = x(t) h(t) setzt sich aus deren Überlagerung zusammen.
Lösungen zu Abschnitt 3 b) (S/N )dB | 16 6 dB = 96 dB
Aufgabe 3.1
a) fg < fa / 2 = 24 kHz
Aufgabe 3.2
Abtastfrequenz fa = 8 kHz; Wortlänge w = 8 bit; Bitrate Rb = 64 kbit/s
Aufgabe 3.3 a) Signalausschnitt von u(t), b) Codenummern, c) Codewörter CodewortNr.
BCDCodewort
Repräsentant
7
111
7/8
6
110
5/8
5
101
3/8
4
100
1/8
3
011
1/8
2
010
3/8
1
001
5/8
0
000
7/8
1
u(t)
0 0
1
5
t in ms
10
Bild A3.3-1 Digitalisierung eines Signals
d) Bitstrom
{110, 100, 010, 001, 011, 101, 101, 100, 100, 100, 101}
e) Repräsentanten
{5/8 , 1/8 , 3/8 , 5/8 , 1/8 , 3/8, 3/8, 1/8, 1/8, 1/8, 3/8}
f) Interpolierende Treppenfunktion, siehe Bild oben
Lösungen zu den Aufgaben
323
Aufgabe 3.4 a) Übersteuerung und granulares Rauschen b) Die Übersteuerung kann durch eine Sättigungskennlinie vermieden werden. Bei expliziter Darstellung der Amplitude 0 tritt kein granulares Rauschen auf. Aufgabe 3.5 Sound-Card
a) max. Signalfrequenz fmax b) S/N c) Bitrate Rb d) Aufnahmezeit
Telefonqualität
Rundfunkqualität
CD-Qualität
< 5,5125 kHz
< 11,025 kHz
< 22,05 kHz
48 dB
48 dB
96 dB
88,2 kbit/s
176,4 kbit/s
1411,2 kbit/s *
| 27 h
| 13,5 h
| 101 min
* stereo
Hinweis: 1 GB = 1024 MB (Megabyte) = 10241024 KB (Kilobyte) = 102410241024 B (Byte) = = 8 1’073’741’824 Bit = 8’589’934’592 Bit. Aufgabe 3.6 PCM-Codierung xd
gleichförmige Quantisierung mit w = 12 bit und Vorzeichen V
PCM-Format w = 8 bit
0,8
1 110 0110 0110
1 111 1001
0,4
0 011 0011 0011
0 110 1001
0,25
1 010 0000 0000
1 110 0000
0,001
1 000 0000 0010
1 000 0010
V = 1 für |x| t 0 Aufgabe 3.7 a) Frequenzauflösung 'f = 48 kHz / 1024 | 46,9 Hz b) Kein Unterschied! Die FFT ist nur ein besonders effizienter Algorithmus zur Berechnung der DFT. Aufgabe 3.8 a) Ersetzen eines analogen Filters durch ein digitales Filter nach A/D-Umsetzung mit anschließender D/A-Umsetzung, so dass die gewünschte Funktion des analogen Filters erfüllt wird. b) Es ist das Abtasttheorem zu beachten und eine ausreichende Wortlänge bei der digitalen Signalverarbeitung bereitzustellen. Ferner sind die Eigenschaften realer A/D- und D/A-Umsetzer zu berücksichtigen.
324
Lösungen zu den Aufgaben
c) Ein FIR-Filter ist ein zeitdiskretes Filter mit einer Impulsantwort von endlicher Dauer. Für gewöhnlich wird darunter ein digitales Filter in transversaler Struktur verstanden. d) Ein IIR-Filter ist ein zeitdiskretes Filter mit einer Impulsantwort von unendlicher Dauer. In der Regel wird damit ein digitales Filter mit rekursiver Struktur gemeint. Aufgabe 3.9 a) Verlustlose Codierung ) Aus dem codierten Signal kann im Prinzip das ursprüngliche Signal fehlerfrei wieder gewonnen werden o nur Redundanzminderung. Verlustbehaftete Codierung ) Aus dem codierten Signal kann das ursprüngliche Signal nicht mehr exakt wieder gewonnen werden o auch Irrelevanzreduktion und/oder bewusste Inkaufnahme von Abweichungen. Irrelevanzreduktion ) weglassen von Signalanteile die für den eigentlichen Zweck nicht benötigt werden o siehe z. B. Maskierungseffekte beim Hören. Redundanzreduktion ) Die im Signal mehrfach vorhandene Information (Redundanz) wird benutzt um überflüssige Signalanteile zu entfernen o siehe z. B. Huffman-Codierung. b) Unter der Maskierung versteht man in der Audio-Codierung den Effekt, dass bei Mehrtonsignalen gewisse Töne vom menschlichen Gehör nicht wahrgenommen werden. Es gibt sowohl eine Maskierung im Frequenzbereich als auch im Zeitbereich. In der Audio-Codierung wird die Maskierung zur Datenkompression durch Irrelevanzreduktion benutzt. Die hohen Kompressionsgrade moderner Audio-Codierverfahren sind im Wesentlichen auf die Ausnutzung des Maskierungseffektes zurückzuführen. Aufgabe 3.10 Das Kompressionsverhältnis kann für den AAC-Codec bei etwa CD-Qualität mit CR = 1411,2 kbit/s / 128 kbit/s | 11 abgeschätz werden. Gibt man sich mit etwas geringerer Qualität zufrieden, z. B. beim Einsatz in Umgebungen mit erheblichen Störgeräuschen (Auto, Tram, usw.), so kann mit dem HE-AAC-v2-Codec bei 32 kbit/s das Verhältnis nochmals um den Faktor 4 erhöht werden.
Lösungen zu Abschnitt 4 Aufgabe 4.1 Bei der kohärenten Demodulation muss im Empfänger das Trägersignal frequenz- und phasenrichtig bereitgestellt werden. Bei der inkohärenten Demodulation entfällt die Trägernachbildung.
Lösungen zu den Aufgaben
325
Aufgabe 4.2
u(t)
a) Es handelt sich um eine Zweiseitenband-AM mit Träger.
U0 t
b) fT >> fg t1
c) Modulationsprodukt siehe schematische Darstellung rechts.
t2
Aufgabe 4.3 Betragsspektrum des Modulationsprodukts (a) und des demodulierten Signals (b) in schematischer Darstellungen c) Grenzfrequenz des Tiefpasses 3,4 kHz < fg < 20,6 kHz
|UM( jZ)|
A a) 24
16
8
0
8
16
24
16
24
Z/2S in kHz
|Ud( jZ)|
A b) 24
16
8
0
8
Z/2S in kHz
Aufgabe 4.4 a) Da es sich um eine Eintonmodulation handelt, erhält man ein Linienspektrum mit Frequenzanteilen bei ZT r n Z1 2S 1 r n 0, 01 MHz . b) Carson-Bandbreite BC
2 (K 1) f g
§ 24, 048 kHz · 2¨ 1¸ 10 kHz © 10 kHz ¹
68,1 kHz
c) Die Trägerfrequenz ist nicht im FM-Spektrum enthalten, da die Besselfunktion J0(K) für den Modulationsindex K = 2,4048 gleich 0 ist.
Aufgabe 4.5 Die analoge AM benötigt für das ESB-Signal dieselbe Bandbreite wie das modulierende Signal selbst. Störungen bei der Übertragung (Rauschen und Verzerrungen) wirken sich auch auf das demodulierte Signal aus. Die ASK-Modulation besitzt wegen dem harten Umtasten Sprünge im Signal und damit ein relativ breites Spektrum. Solange die Störungen und Verzerrungen bei der Übertragung eine fehlerfrei Detektion der digitalen Nachricht zulassen, ist die empfangene Nachricht gleich der gesendeten.
326
Lösungen zu den Aufgaben
Aufgabe 4.6 a,b) Signalraum-Konstellation der QPSKModulation mit Gray-Codierung
Quadraturkomponente
c) Die Graycodierung ordnet im Symbolraum benachbarten Symbolen binäre Codewörter mit möglichst wenig unterschiedlichen Stellen zu. Wird ein Symbol bei der Übertragung durch Rauschen gestört, treten meist Verfälschungen in Nachbarsymbole auf. Somit wird insgesamt die mittlere Bitfehlerquote möglichst klein gehalten.
01 00 Normalkomponente
11
10
d) Bei der M-PSK-Modulation liegen die Signale zu den Symbolen auf einem Kreis um den Ursprung der komplexen Ebene (Signalraum) und haben somit gleichen Betrag. Bei der rechteckförmigen M-QAM sind die Signale auf einem rechteckförmigen Gitter um den Ursprung, ähnlich kariertem Papier, angeordnet. e) Durch die Anordnung der Signale auf einem Kreis, spielt der Betrag der empfangenen Signale für die Detektion eine untergeordnete Rolle. Die Detektion kann vorteilhaft allein aufgrund der Phaseninformation durchgeführt werden, so dass die Übertragung relativ robust gegen Dämpfungsverzerrungen ist. (Siehe auch differentielle M-PSK.) Nachteilig ist, dass bei wachsender Anzahl von Symbolen, die Phasenunterschiede zwischen den Signalen kleiner werden, sodass die Detektion störanfälliger wird. Aufgabe 4.7 c) Ein Quadratur-Mischer setzt ein Bandpass-Signal in die Quadraturkomponenten um, bzw. erzeugt aus den Quadraturkomponenten ein Bandpass-Signal. b) OFDM ist ein digitales Modulationsverfahren für die Mehrträgerübertragung. Dabei sind die Trägersignale zueinander orthogonal, so dass vorteilhaft eine Trägermodulation/-demodulation mit der IDFT bzw. der DFT durchgeführt werden kann. Für das Produkt aus Frequenzabstand der Unterträger F und der Dauer der Kernsymbole Ts muss gelten FTs = 1. a) Orthogonal Frequency Division Multiplexing Digitaler Rundfunk (DAB), digitales Fernsehen (DAB) (sowohl terrestrisch (DAB-T) als auch über Kabel (DAB-C)), WLAN (IEEE 802.11a/g, HIPERLAN/2), drahtloser digitaler Teilnehmeranschluss (WiMAX), digitaler Teilnehmeranschluss (ADSL) Aufgabe 4.8 a) Frequenzabstand der Unterträger
F = 20 MHz / 64 = 312,5 kHz
b) Dauer des Kernsymbols
Ts = 1 / F = 3,2 Ps
Dauer des OFDM-Symbols c) Bitrate
TT = Ts + TG = 4 Ps Rb, BPSK Rb,64QAM
52 1 bit 4 s 52 6 bit 4 s
13 Mbit/s 78 Mbit/s
Lösungen zu den Aufgaben Spektrale Effizienz
327
BPSK
13 Mbit/s / 20 MHz = 0,65 (bit/s)/Hz
64-QAM
78 Mbit/s / 20 MHz = 3,9 (bit/s)/Hz
Die spektrale Effizient schwankt zwischen 0,65 und 3,9 (bit/s)/Hz Anmerkung: In realen Systemen ist die (Netto-)Bitrate, die den Teilnehmern/Diensten zur Verfügung steht, deutlich geringer, weil Informationen zur Steuerung der Übertragung und Redundanz zum Fehlerschutz als Gemeinkosten (Overhead) noch hinzugefügt werden. In der Regel werden zur Unterstützung der Demodulation und Detektion zusätzlich Pilotsignale (Pilotträger) verwendet. Da diese nicht für die Datenübertragung zur Verfügung stehen, reduziert sich die Zahl der Unterträger für die Datenübertragung weiter.
d) Die BPSK-Übertragung ist robuster gegen Störungen als die Übertragung mit 64-QAM. Auf sie kann umgeschaltet werden, wenn die 64-QAM-Übertragung nicht (mehr) möglich ist. Andererseits, ist die Übertragungsqualität für die 64-QAM ausreichend, kann mit ihr ein um den Faktor 6 höherer Durchsatz erzielt werden. e) Das Schutzintervall korrespondiert mit einer Umweglänge der elektromagnetischen Wellen von ca. (3108 m/s) 0,8 Ps = 240 m. Da sich die Symbole bei Mehrwegeausbreitung nicht gegenseitig überlagern sollen (Intersymbolinterferenz), handelt es sich um ein Nahfunksystem mit Reichweiten bis etwa 300 m.
Lösungen zu Abschnitt 5 Aufgabe 5.1 a) b) Parität „N”
Spannung in V
0 1 1 1 0 0 1 1
Stopp
Start
„T”
0 0 1 0 1 0
1 0
12 3 3
Zeit t
12
Aufgabe 5.2 a) Bei einem Leitungscode mit Gedächtnis wird durch die Codierungsregel eine Korrelation zwischen den Bits des übertragenen Bitstroms herbeigeführt. Dadurch lässt sich die Verteilung der Leistung im Frequenzbereich formen. Insbesondere lassen sich gleichstromfreie Signale erzeugen, wie z. B. beim AMI- und Basisbandsignal Manchester Code. b) Basisbandsignal mit AMI-Codierung für die Bitfolge 0101110.
1 0 1
t/T 0
1
2
3
4
5
328
Lösungen zu den Aufgaben
Aufgabe 5.3 a) Synchronisation, Abtastung und Detektion. b) Nachsymbolinterferenzen durch Bandbegrenzung (Tiefpasskanal) und Rauschen c) Durch die Bandbegrenzung im Kanal werden die Sendegrundimpulse verbreitert, sodass sich benachbarte Impulse (Symbole) überlagern (Intersymbolinterferenz). Kommt es zur gegenseitigen (teilweisen) Auslöschung, treten in der Detektion Fehler mit erhöhter Wahrscheinlichkeit auf. d) Das Augendiagramm erlaubt eine augenscheinliche Beurteilung der Signalqualität. Je weiter die Augenöffnung, desto robuster ist die Übertragung gegen Störungen durch additives Rauschen und Synchronisationsfehler (Jitter). e) Ein Synchronisationsfehler bewirkt, dass die Detektionsvariable nicht mehr im optimalen Detektionszeitpunkt gewonnen wird und deshalb nicht mehr die volle Rauschreserve des Augendiagramms zur Verfügung steht. f) Durch die Impulsformung wird das Datensignal an den physikalischen Kanal angepasst. Eine geeignete Impulsformung reduziert die benötigte Bandbreite und/oder erhöht die Störsicherheit. Häufig werden Impulse mit Raised-cosine-Spektrum verwendet. Anmerkung: Auch der sogenannte cos2-Impuls, d. h. x(t) = cos2(St/T) für T/2 < t < T/2 ist verbreitet. Seine Form im Zeitbereich entspricht dem RC-Spektrum mit D = 0.
Aufgabe 5.4 a) Die Bandbreite muss mindestens gleich der Nyquist-Bandbreite BN = 32 kHz sein. Typisch für die Anwendung ist eine Bandbreite von ca. 1,5BN. b) Bitrate, Bandbreite und Signal-Geräuschverhältnis sind im Sinne der Kanalkapazität in gewissen Grenzen gegenseitig austauschbar. Je größer die Bandbreite und das Signal-Geräuschverhältnis sind, umso größer ist die maximale, theoretisch fehlerfrei übertragbare Bitrate. c) Durch die Verwendung einer mehrstufigen Modulation kann die Bitrate ohne Bandaufweitung gesteigert werden. (Die spektrale Effizienz nimmt zu.) Nachteilig dabei ist die mit wachsender Stufenzahl ebenfalls zunehmende Störempfindlichkeit. d) Bei der digitalen Übertragung wird in den Zwischenverstärkern das Sendesignal solange kein Detektionsfehler auftritt ohne Rauschen und unverzerrt regeneriert. Aufgabe 5.5 a) Durch das Matched-Filter im Empfänger wird die Detektion robuster gegen Rauschen. b) Das Matched-Filter ist auf den Sendegrundimpuls anzupassen. c) Für eine gegebene Sendegrundimpulsform und additiver Rauschstörung maximiert das Matched-Filter das Signal-Rauschverhältnis im optimalen Detektionszeitpunkt. Ist die Rauschstörung normalverteilt, so wird die Fehlerwahrscheinlichkeit minimiert. Aufgabe 5.6 a) Asymmetric Digital Subscriber Line Asymmetrischer digitaler Teilnehmeranschluss
Lösungen zu den Aufgaben
329
Anmerkung: In Aufwärtsrichtung (zur Vermittlungsstelle/Netz) wird eine geringere Datenrate zur Verfügung gestellt als in Abwärtsrichtung (zum Teilnehmer). Daher die Bezeichnung asymmetrisch
b) Mit wachsender Länge nimmt die Signaldämpfung zu. Hinzu kommt dass im Allgemeinen auch mehr Störungen, wie Übersprechen, eingefangen werden. c) Sprachtelefon-Modems nutzen nur den herkömmlichen Sprachkanal mit 4 kHz Bandbreite. Modems für ADSL2+ können bis zu 2,2 MHz Bandbreite nutzen und verwenden ein adaptives Mehrträgerverfahren: Discrete Multitone (DMT) mit 512 Unterträgern und Dynamic Spectrum Management (DSM). Anmerkung: Sprachtelefon-Modems haben auch heute noch ihre Bedeutung, wenn auf die weltweit (fast) überall verfügbaren Sprachtelefon-Netze zurückgegriffen werden muss.
Lösungen zu Abschnitt 6 A6.1 Primärmultiplexsignal (PCM-30-System), Zeitmultiplex A6.2 Das Primärmultiplexsignal enthält pro Zeitrahmen zu den 30 Oktetten für die Teilnehmerkanäle zwei zusätzliche Oktette. Davon dient ein Oktett zur Rahmenerkennung bzw. für Meldungen und das zweite für die Zeichengabe. A6.3 Das Meldewort wird in jedem zweiten PCM-30-Multiplexrahmen gesendet, also alle 250 Ps. Pro Sekunde sind das 4000 Meldewörter à 4 Bits. Somit ist die Bitrate des Melde-Kanals 4 kbit/s. A6.4 Die Aufgabe eines TK-Netzes ist es, den Nachrichtenaustausch zwischen den Netzzugangspunkten zu ermöglichen, also Nachrichten zu übermitteln. A6.5 Der Begriff Nachrichtenübermittlung fasst die Aufgaben der TK-Netze, das Übertragen und Vermitteln von Nachrichten, in einem Wort zusammen. A6.6 Unter einem Dienst eines TK-Netzes versteht man die Fähigkeit Nachrichten unter Beachtung bestimmter Merkmale, wie z. B. Datenrate, Zeitvorgaben, usw., zu übertragen. A6.7 Leitungsvermittlung und Paketvermittlung A6.8 Verbindungsaufbau, Nachrichtenaustausch und Verbindungsabbau A6.9 Bei der verbindungslosen Nachrichtenübermittlung werden die Nachrichten in Form von Datenpaketen übertragen. Die Datenpakete enthalten Ursprungs- und Zieladresse. A6.10 Die netzorientierten Schichten des OSI-Modells sind: (1) Bitübertragung, (2) Sicherung, (3) Vermittlung. Die anwendungsorientierten Schichten des OSI-Modells sind: (4) Transport, (5) Kommunikationssteuerung, (6) Darstellung, (7) Anwendung. A6.11 Die Kommunikation zwischen den Partnerinstanzen einer Protokollschicht erfolgt nach dem Modell der Dienstanforderung und Diensterbringung. Dabei fordert die Instanz der Schicht N mit einem vordefinierten Dienstelement einen Dienst von einer Instanz der Schicht N-1 an. Für die Partnerinstanzen scheint es so, als ob zwischen ihnen ein (virtueller) Kanal bestünde. A6.12 High Level Data Link Control (HDLC), Link Access Protocol (LAP) A6.13 siehe Bild 6-9 und zugehörige Erklärung A6.14 siehe Bild 6-10
330
Lösungen zu den Aufgaben
A6.15 Das U-Format kann keine Empfangsnummer N(R) übertragen und somit den Empfang von Rahmen nicht quittieren. Das U-Format ist für den Auf- und Abbau der Verbindungen und zur Übertragung von reiner Steuernachrichten vorgesehen. A6.16 Mit dem Poll Bit (=1) wird die Gegenstation zum sofortigen Senden einer Meldung, am Final Bit (=1) erkenntlich, aufgefordert. A6.17 Sende- und Empfangsnummern dienen zur gesicherten Übertragung mittels Flusskontrolle. Durch Sende- und Empfangsnummern werden empfangene Rahmen quittiert bzw. die Gegenstation zum Senden des nächsten Rahmens aufgefordert. A6.18 Bittransparenz bedeutet, dass das Bitmuster der zu sendende Bitfolge beliebig sein darf. Im HDLC-Protokoll wird nach fünf Einsen eine Null eingefügt (Zero Insertion), die im Empfänger wieder entfernt wird. A6.19 Bei einer gesicherten Übertragung wird der „richtige“ Empfang eines Rahmens durch die Gegenstation quittiert. A6.20 Asynchronous Transfer Mode (ATM); Übertragung von Datagrammen (ATM-Zellen) mit Paketvermittlung. A6.21 Der besondere Vorteil der ATM-Übertragung besteht in den relativ kleinen ATM-Zellen mit nur 53 Oktetten, so dass lange Wartezeiten zum Füllen der Zellen vermieden werden. Der Header unterstützt die Bündelung von logischen Kanälen und die verbindungsorientierte Paketvermittlung. A6.22 In Dienstklassen werden Dienste mit gleichen oder ähnlichen Merkmalen zusammengefasst, wie z. B. Dienste mit konstanten Bitraten (CBR) oder variablen Bitraten (VBR). Ein Beispiel für einen CBR-Dienst ist die Sprachtelefonie mit einem PCM-Kanal mit 64kbit/s; für den VBR-Dienst die Sprachtelefonie mit einem Audio-Codec mit variabler, d. h. signalabhängiger, Bitrate. A6.23 Die Kennzeichnung von Dienstklassen in den Datenpaketen erlaubt die Differenzierung der Datenpakete und ermöglicht so eine unterschiedliche Behandlung. Damit lassen sich unterschiedliche Dienstgüten (QoS) und realisieren und die Auslastung der Netze optimieren. A6.24 Nur die beiden untersten Schichten, die Bitübertragungsschicht und die Sicherungsschicht. A6.25 Medium Access Control (MAC); die MAC-Schicht regelt den Zugriff der Stationen auf das gemeinsame Übertragungsmedium (Leitung, Glasfaser, Funkkanal, usw.). Sie ist der Sicherungsschicht zugeordnet und verbindet die Bitübertragungsschicht mit der ebenfalls der Sicherungsschicht zugeordneten Schicht Logical Link Control, siehe Bild 6-17. A6.26 Transport Control Protocol (TCP), Internet Protocol (IP) A6.27 Durch die Bezeichnung Protokollfamilie TCP/IP wird ausgedrückt, dass es sich um eine Gruppe von Protokollen handelt, die verschiede Kommunikationsdienste auf der Basis des TCP und IP (oder verwandter Protokolle) realisieren, siehe Bild 6-19. Gemeinsam sind die Verwendung von TCP (verbindungsorientiert, gesichert) und IP (verbindungslos, ungesichert) als Transportschicht- bzw. Vermittlungsschicht-Protokolle. A6.28 Die Protokollschicht Transport Control Protocol (TCP) entspricht der Transportschicht im OSI-Referenzmodell. Sie stellt eine verbindungsorientierte und gesicherte Übertragung bereit. Es werden die drei Phasen Verbindungsaufbau, Nachrichtenaustausch
Lösungen zu den Aufgaben
331
und Verbindungsabbau umgesetzt. Die Übertragung wird durch eine Ende-zu-EndeFlusskontrolle mit Quittierung und gegebenenfalls Übertragungswiederholung gesichert. A6.29 Die Protokollschicht Interent Protocol (IP) entspricht der Vermittlungsschicht im OSIReferenzmodell. Die IP-Schicht unterstützt die verbindungslose und ungesicherte Übertragung von Datagrammen (IP-Pakete). A6.30 Unter einem Extension Header versteht man die Möglichkeit im IPv6-Protokoll optional zusätzliche Header-Abschnitte zu verwenden. Durch das Konzept der Extension Header konnte der obligatorische IPv6-Header vereinfacht und die Flexibilität des Protokolls verbessert werden A6.31 IPv6 kennt drei Arten von Adressen: Unicast-, Anycast- und Multicast-Adressen, siehe Abschnitt 6.8. A6.32 Rundfunkdienste erfordern wegen der Vielzahl von Teilnehmern eine effektive Verkehrslenkung, die unnötiges Duplizieren von Paketen vermeidet. Dazu ist jeweils eine zentrale Planung auf Kenntnis der aktuellen Netzstruktur vom zentralen Server (Rundfunkstation) zu den Clients (Hörer) erforderlich. Dies steht im Widerspruch zum ursprünglichen Konzept des dezentralen „nicht“ organisierten Netzes. Für Rundfunkdienste sind die Multicast-Adressen vorgesehen. A6.33 AAA, auch Triple A genannt, steht für Authentification, Authorization und Accounting. Damit werden wichtige Funktionen im Zusammenhang mit dem Betrieb von TK-Netzen angesprochen, die durch technische Einrichtungen zu ermöglichen sind. Anmerkung: Für die Akzeptanz eines öffentlichen TK-Netzes spielen Datenschutz, Datensicherheit und faire Leistungsabrechnung einer wichtige Rolle. Man beachte auch die gesetzlichen Vorschriften zur Strafverfolgung (Law Enforcement) die für einen ordnungsgemäßen Betrieb von TK-Anlagen einzuhalten sind.
Lösungen zu Abschnitt 7 Aufgabe 7.1 Entscheidungsgehalt
H0 = ld(8) bit = 3 bit
Entropie
H(X) = 127/64 bit | 2 bit
Redundanz
R | 1 bit
Aufgabe 7.2 a) Entscheidungsgehalt H0 = ld 6 bit | 2,58 bit Entropie
H(X) | 2,36 bit
Redundanz (relative) R | 2,58 bit 2,36 bit = 0,22 bit bzw. r | (12,36/2,58) | 0,085
332
Lösungen zu den Aufgaben
b) Huffman-Codierung Zeichen
pi
x5
0,30
x6
0,25
x2
0,20
x4
0,12
x1
0,08
x3
0,05
0 1
0,13
0 1
0,45
0 1
0,25
0 1
0,55 0 1
Tabelle Huffman-Code Zeichen xi x5 x6 x2 x4 x1 x3
Codewort
Wahrscheinlichkeit pi 0,30 0,25 0,20 0,12 0,08 0,05 ¦=1
mittlere Codewortlänge
L | 2,38 bit
Effizienz des Codes
K | 0,99
Codewortlänge Li in bit 2 2 2 3 4 4
00 10 11 010 0110 0111
c) Codebaum x5 0
x4 x1
x3
0
0 1
1
0
x6
0
1
x2
1
1
Lösungen zu den Aufgaben
333
Aufgabe 7.3 a) Huffman-Codierung (1) links und (2) rechts i
pi
Codewort Li / bit
i
pi
Codewort Li / bit
1
0,4
00
2
1
0,4
0
1
2
0,2
01
2
2
0,2
10
2
3
0,2
10
2
3
0,2
110
3
4
0,2
11
2
4
0,2
111
4
Obwohl beide Codes die minimale mittlere Wortlänge liefern, ist Code (1) vorzuziehen, da die unterschiedlichen Codewortlängen bei (2) zusätzliche Anforderungen an den Empfänger stellen, wie unterschiedliche Decodierzeiten und zusätzlichen Datenspeicher. Aufgabe 7.4 a) Entscheidungsgehalt H0 = ld(6) bit | 2,58 bit Entropie
H(X) | 2,22 bit
Redundanz
R | 2,58 bit 2,22 bit = 0,36 bit
b) Huffman-Codierung Zeichen
pi
x1
0,40
x2
0,20
x3
0,20
x4
0,10
x5
0,05 0 0,10 1
x6
0,05 1
0 1
0,40 0 1
0
0,60
0 1
0,20
Tabelle Huffman-Code Zeichen xi x1 x2 x3 x4 x5 x6
Wahrscheinlichkeit pi 0,40 0,20 0,20 0,10 0,05 0,05 Summe = 1
Codewort 10 00 01 110 1110 1111
Codewortlänge Li in bit 2 2 2 3 4 4
334
Lösungen zu den Aufgaben
mittlere Codewortlänge
L = 2,3 bit
Effizienz des Codes
K | 0,965
0
x2 x3
0
c) Codebaum
1
x1 0 1
0
Aufgabe 7.5
x4
1
a) ISBN-Code(wort), da ohne Rest durch 11 teilbar
0
103 + 95 + 82 + 78 + 60 + 53 + 49 + 35 + 21 + 5 = 220
x5
1
b) 0-07-085971- X
1
x6
100 + 90 + 87 + 70 + 68 + 55 + 49 + 37 + 21 + ? = 188 + ? = 198 = 18 11 Aufgabe 7.6
a) Generatormatrix
G
§1 1 1 1 0 0· ¨ ¸ ¨1 1 0 0 1 0¸ ¨ 0 1 1 0 0 1¸ © ¹
b) Codetabelle und Hamming-Gewichte Nachricht 000 100 010 110 001 101 011 111
Codewort 000 000 111 100 110 010 001 110 011 001 100 101 101 011 010 111
Hamming-Gewicht 0 4 3 3 3 3 4 4
c) minimale Hamming-Distanz dmin = 3 d) Syndrom-Decodierung mit Prüfmatrix Da das Syndrom gleich der 4. Spalte der Prüfmatrix ist, wird unter der Annahme, dass ein Einfachfehler vorliegt, die 4. Komponente des Empfangswortes korrigiert und die Nachricht u = (0 1 0) detektiert.
s
r : HT
§1 ¨ ¨0 ¨0 1 1 0 1 1 0 : ¨ ¨1 ¨1 ¨¨ ©0
0· ¸ 0¸ 1¸ ¸ 1¸ 0¸ ¸ 1 1 ¸¹
0 1 0 1 1
1
1 1
Lösungen zu den Aufgaben
335
Aufgabe 7.7 a) Ein fehlerfreies Datenwort liegt vor, wenn kein Bit im Wort gestört ist P0 = (1 Pe)8 b) Ein erkennbarer Wortfehler tritt auf, wenn die Zahl der gestörten Bits im Wort ungerade ist. Dabei sind alle möglichen Fehlermuster (Kombinationen) zu berücksichtigen. §8· § 8· 7 5 3 3 § 8· 5 § 8· 7 ¨ ¸ 1 Pe Pe ¨ ¸ 1 Pe Pe ¨ ¸ 1 Pe Pe ¨ ¸ 1 Pe Pe 1 3 5 7 © ¹ © ¹ © ¹ © ¹
Pw,erk
c) Ein nicht erkennbarer Wortfehler tritt auf, wenn die Zahl der gestörten Bits im Wort gerade ist. Dabei sind alle möglichen Fehlermuster (Kombinationen) zu berücksichtigen. Pw,unerk
§8· 6 4 2 2 §8· 4 §8· 6 8 ¨ ¸ 1 Pe Pe ¨ ¸ 1 Pe Pe ¨ ¸ 1 Pe Pe Pe 2 4 6 © ¹ © ¹ © ¹
d) Für hinreichend kleine Bitfehlerwahrscheinlichkeit (Pe<<1) gilt näherungsweise Pw,erk | 8Pe und Pw,unerk | 28Pe2 so dass sich die folgenden Zahlenwerte ergeben Pe P0 Pw,erk Pw,unerk
103 0,992 | 8103 | 2,8105
106 0,999 992 | 8106 | 2,81011
109 0,999 999 992 | 8109 | 2,81017
Aufgabe 7.8 a) Wahrscheinlichkeit für eine fehlerfreie Übertragung P0 = (1 Pe)7 | 0,999 993 mit Pe = 106 b) Restfehlerwahrscheinlichkeit PR | (2k 1)Pe3 = 1,51017 c) Effektive mittlere uncodierte (Netto-)Bitrate
Rb,eff
k 4 0,999993 16 kbit/s P0 Rb | | 9,14 kbit/s n 7
Aufgabe 7.9
Vorteile
Die Huffman-Codierung liefert einen optimalen präfixfreien Code im Sinne der redundanzmindernden Codierung.
Nachteile
Unterschiedliche Codewortlängen führen zu ungleichmäßigen Bitraten und Decodierverzögerungen; erhöhte Fehleranfälligkeit der codierten Nachricht; Kenntnis der Wahrscheinlichkeitsverteilung der zu codierenden Zeichen erforderlich.
336
Lösungen zu den Aufgaben
Aufgabe 7.10
Die Restfehlerwahrscheinlichkeit ist die Wahrscheinlichkeit, mit der ein gestörtes Empfangswort nicht als gestört erkannt wird. Restfehler entstehen bei der Syndrom-Decodierung, wenn das gestörte Empfangswort ein Codewort ist, da die Syndrom-Decodierung nur prüft ob ein Codewort empfangen wurde oder nicht. Aufgabe 7.11
CRC-Codes sind lineare (n,k)-Blockcodes, die durch Erweiterung von zyklische HammingCodes mit dem Faktor 1+X im Generatorpolynom entstehen. Sie zeichnen sich durch relativ einfache Codier- und Decodierschaltungen mit rückgekoppelten Schieberegistern und besonders vorteilhaften Fehlererkennungseigenschaften aus. Sie eignen sich besonders gut für die Übertragung mit Datenrahmen und Fehlererkennung mit Wiederholungsanforderung. Aufgabe 7.12
Üblicherweise werden in der Datenübertragung systematische Codes mit Prüfsummen eingesetzt, so dass im Empfänger zu der erhaltenen Nachricht die Prüfsumme berechnet werden kann. Stimmen die berechnete Prüfsumme und die empfangene Prüfsumme nicht überein, wird ein Fehler erkannt. Weil nur der Empfang eines Codeworts geprüft wird, nicht aber ob ein Codewort in ein anders verfälscht wurde, ist ein Restfehler nicht ausgeschlossen. Aufgabe 7.13
a) n = 27 1 = 127, k = 127 8 = 119, in der ATM-Zelle tatsächlich benützt werden 4 Oktette, d. h. 32 Bits. b) Die Fehlerwahrscheinlichkeit, insbesondere auch die Restfehlerwahrscheinlichkeit nimmt bei Codeverkürzung ab, da bei weniger Bits die Fehlermöglichkeiten in Empfangswort entsprechend abnehmen. c) b(X) = [X 8 (1 + X 2)] mod g(X) = X 4 + X 3 v(X) = X 8 (1 + X 2) + X 4 + X 3 = X 3 + X 4 + X 8 + X 10 v = (0 0 0 1 1 0 0 0 1 0 1 0 … 0) Codewort
d) Das Empfangspolynom, r(X) = X 2 + X 3 + X 7, ist vom Grad kleiner als das Generatorpolynom, d. h. grad r(X) = 7 < 8 = grad g(X). Somit ist das Empfangspolynom gleich dem Divisionsrest, also dem Syndrom s(X) = X 2 + X 3 + X 7 z 0. Da das Syndrom ungleich null ist, wird ein Fehler erkannt.
Lösungen zu Abschnitt 8 A8.1 Zugangsberechtigung durch die Teilnehmeridentifizierung (SIM-Card), Vertraulichkeit durch die Verschlüsselung und Anonymität durch die temporäre Teilnehmerkennung. A8.2 Unter Teilnehmermobilität versteht man die Möglichkeit der Teilnehmer überall im Mobilfunknetz die gebuchten Dienste in Anspruch nehmen zu können, wie z. B. Roaming
Lösungen zu den Aufgaben
337
in ausländischen Netzen. Die Gerätemobilität betrifft die Bewegung der Geräte im Netz, wie z. B. den Funkzellenwechsel während eines bestehenden Gesprächs. Die Mobilität der Teilnehmer und Endgeräte wird in GSM durch Datenbanken (HLR/ VLR/ EIR) und Sicherheitseinrichtungen (AUC) unterstützt, die aktuelle Informationen über den Zugang, die gebuchten Dienste und den Aufenthaltsorte enthalten. A8.3 Frequenz- und Zeitmultiplex, FDMA bzw. TDMA. Die Frequenzkanäle haben die Bandbreite 200 kHz. Im Frequenzkanal sind bis zu 8 (FR) bzw. 16 (HR) Gesprächskanäle möglich. A8.4 Das GSM-Funknetz besteht aus Funkzellen. Benachbarte Funkzellen unterscheiden sich durch die verwendeten Frequenzbänder um Gleichkanalstörungen zu vermeiden. Bei genügendem Abstand der Funkzellen können die Frequenzbänder wiederholt werden, um die Kapazität des Funknetzes zu vergrößern. A8.5 Antennen-Diversität, Diskontinuierliche (Sprach-)Übertragung, Frequenzspringen, Handover, Interleaving (Bitverschachtelung), Leistungsregelung, (Kanal-)Entzerrung (Kanalschätzung mit Trainingsfolge), ungleichmäßiger Fehlerschutz durch Codierung. A8.6 General Packet Radio Service. Paketübertragung mit Dienstmerkmalen (Dienstgüte, Verlässlichkeitsklassen). A8.7 Enhanced Data Rates for GSM Evolution. EDGE soll eine im Vergleich zu GPRS höherer Datenrate ermöglichen. Hierfür ist ein Umschalten des Modulationsverfahrens auf 8-PSK bei ausreichender Signalqualität (LQC) und des Codierungsschemas (ECS) auf eine größere Coderate (geringerer Fehlerschutz) vorgesehen. A8.8 Universal Mobile Telecommunication System. Im FDD-Modus wird durch einen Spreizcode das ursprüngliche Frequenzband für die Funkübertragung aufgeweitet (Code Division Multiple Access, CDMA). Durch die im Vergleich zu GSM (200 kHz) größere Bandbreite (5 MHz) wird die Übertragung robuster. Darüber hinaus lassen sich mit unterschiedlichen Spreizfaktoren Dienste unterschiedlicher Bitraten/Dienstmerkmalen relativ einfach realisieren. A8.9 Der Nah-Fern-Effekt beschreibt die Tatsache, dass an der Basisstation (Node B) die Signale der Mobilstationen (UE) aufgrund der unterschiedlichen Funkfelddämpfungen mit verschiedenen Leistungspegeln empfangen werden. Leistungsstarke Signale überdecken leistungsschwache, so dass letztere nicht mehr ausreichend detektiert werden können.
Eine schnelle Leistungsregelung hilft den Nah-Fern-Effekt abzumildern. A8.10 Die zellulare Funkkapazität ist eine Maßzahl die angibt, wie oft ein Dienst (i. d. R. die Sprachtelefonie) in einer Funkzelle unabhängig angeboten werden kann. Bei UMTS (CDMA) wird die Funkkapazität durch interferierende Funksignale (Vielfachzugriffsinterferenz) begrenzt. A8.11 High-Speed Downlink Packet Access. Ein Datendienst zur Paketübertragung bei UMTS mit WCDMA. A8.12 Die Datenfluss-Steuerung von HSDPA berücksichtigt insbesondere die Kanalqualität (CQI) zur UE und den Füllstand des zugehörigen Datenspeichers im Node B. Hohe Kanalqualität und Füllstand erhöhen die Wahrscheinlichkeit für eine Übertragung.
338
Lösungen zu den Aufgaben
A8.13 Das Hidden Station Problem treten bei der Station B Kollisionen auf, da die für den Sender A verborgene Station C ebenfalls an B sendet. Wegen der notwendigen Übertragungswiederholung sinkt der Durchsatz.
Beim Exposed Station Problem sendet die Station A nicht an B, da A von C ein Signal beobachtet, das aber B nicht stören würde. Wegen der unterlassenen Übertragung sinkt der Durchsatz. A8.14 Durch die Methode der virtuellen Reservierung. A8.15 Orthogonal Frequency Übertragungsverfahren.
Division
Multiplexing,
einem
speziellen
Mehrträger-
Aufgabe 8.16
a) Der Modulator für die OFDM-Übertragung entspricht einem QAM-Modulator mit speziell geformten Signalen für die Normal- und Quadraturzweige, also einer speziellen Form der QAM. Betrachtet man das Sendesignal genauer, so liegt eine Multiplexübertragung vor. Die Nachricht wird auf viele Unterträger verteilt übertragen. b) Bei der OFDM-Übertragung stehen die Symboldauer T und der Frequenzabstand der Unterträger F im reziproken Zusammenhang, T F = 1. c) Die theoretische Übertragungskapazität (Datendurchsatz) wird dadurch verringert, dass in den Anwendungen die Symbole während eines gewissen Schutzintervalls periodisch fortgesetzt werden. Also das Übertragungsmedium während des Schutzintervalls nicht für die Datenübertragung zur Verfügung steht. d) Ein wichtiges Anwendungsgebiet ist die Datenübertragung in lokalen Funknetzen (WLAN) nach dem IEEE-802.11a- und HIPERLAN/2-Empfehlungen. Weitere Anwendungsgebiete sind PowerLine, DSL, WiMAX, DVB-T, IEEE 802.11n. Aufgabe 8.17
a) Bei der CDMA-Übertragung handelt es sich um eine Spreizbandtechnik, da die Bandbreite des CDMA-Signals im Vergleich zur Bandbreite des originären Nachrichtensignals stark aufgeweitet ist. b) Siehe Bild 8-26. c) Der Spreizfaktor ist Gp = Tb /Tc = 3,84106 / 60103 = 64. d) Siehe Bild 8-27. e) Der Prozessgewinn (Processing Gain, Gp) gibt den Vorteil im SNR durch die Spreizung an, der sich gegenüber einem schmalbandigen Störsignal ergibt, siehe Bild 8-27. Aufgabe 8.18
a) Bei HT-OFDM wird die Zahl der Unterträger für die Datenübertragung von 48 auf 52 vergrößert, eine optionale Coderate von 5/6 bei guter Übertragungsqualität eingesetzt und, falls keine darüber hinausgehende Signalechos vorhanden sind, das Schutzintervall auf 400 ns halbiert. Die drei Maßnahmen erhöhen die Datenrate von maximal 54 Mbit/s auf maximal 72,2 Mbit/s. Anmerkung: Es wurden auch das MAC-Protokoll verbessert.
b) Multiple Input Multiple Output, siehe Mehrantennen-Systeme.
Lösungen zu den Aufgaben
339
c) Durch Zusammenfassen von zwei Frequenzkanälen kann die maximale Datenrate auf 150 Mbit/s verdoppelt werden. Wird zusätzlich die Option MIMO mit vier Antennen umgesetzt, so erhöht sich die Datenrate idealerweise auf 600 Mbit/s.
340
Abkürzungen A AAA AAC AAL AB ABR ACK A/D ADSL AGCH AM AMI AMR AND ANSI AP ARP ARQ ASCII ASK ATM AUC AWGN
Authentification, Authorization and Accounting Advanced Audio Coding ATM Adaption Layer Access Burst Available Bit Rate Acknowledged Analog/Digital Asynchronous DSL Access Grant Channel Amplitudenmodulation Alternate Mark Inversion Adaptive Multi-Rate Access Network Domain American National Standards Institute Access Point Address Resolution Protocol Automatic Repeat Request American Standard Code for Information Interchange Amplitude-Shift Keying Asynchronous Transfer Mode Authentification Center Additive White Gaussian Noise
B BCCH BCS BFSK BIBO B-ISDM BP BS BSC BSS BTS
Broadcast Control Channel Block Check Sequence Binary FSK Bounded Input Bounded Output Breitband-ISDN Bandpass Bandsperre Base Station Controller Basic Service Set, Base Station Subsystem Base Transceiver Station
C CBCH CBR CCCH CCH CCIR CCITT CD CD-DA
Cell Broadcast Channel Constant Bit Rate Common Control Channel Control Channel Comité Consultatif International des Radiocommunication Comité Consultatif International Télégraphique et Téléphonique Compact Disc Compact Disc Digital Audio
Abkürzungen CDMA CEPT CLP CND CP CQI CRC CS CSD CSMA/CD CSMA/CA CTS
341 Code Division Multiple Access Conférence des Administrations Européennes des Postes et Télécommunications Cell Loss Priority Core Network Domain Cyclic Prefix/ Postfix Channel Quality Information Cyclic Redundancy Check Coding Scheme Circuit Switching Domain, Circuit Switched Data Carrier Sense Multiple Access / Collision Detection Carrier Sense Multiple Access / Collision Avoidance Clear To Send
D dB D/A DAB DCCH DCE DCF DECT DEE DFT DIFS DIN DISC DIV DLP DM DMT DNS DQDB 3GGP DSL DSM DSS DTCH DTE DTMF DÜE DVB DVD
Dezibel Digital/Analog Digital Audio Broadcast Dedicated Control Channel Data Circuit-terminating Equipment Distributed Coordination Function Digital Enhanced Cordless Telephony Datenendeinrichtung Diskrete Fourier-Transformation, Discrete-time Fourier Transform DCF Inter-frame Spacing Deutsches Institut für Normung Disconnect Digitale Vermittlungsstelle Direct Link Protocol Disconnect Mode Discrete Multitone Domain Name Service Distributed Queue Dual Bus 3rd Generation Partnership Project Digital Subscriber Line Dynamic Spectrum Management Datenschnittstelle Dedicated Traffic Channel Data Terminal Equipment Dual-tone Multifrequency Datenübertragungseinrichtung Digital Video Broadcast Digital Versatile Disc
E ECS ECSD EDGE EGPRS E-GSM EIA
Enhanced Coding Scheme Enhanced CSD Enhanced Data Rates for GSM Evolution Enhanced GPRS Extended GSM Electronic Industries Alliance
342 EIFS EIR EPON ESB ESS ETSI
Abkürzungen Extended Inter-frame Spacing Equipment Identity Register Ethernet PON Einseitenband Extended Service Set European Telecommunication Standards Institute
F FCB FCC FCCH FCS FDD FDDI FFT FLAG FIR FM FP FRMR FSK FTP FTTC FTTH
Frequency Correction Burst Federal Communication Commission Frequency Correction Channel Frame Check Sequence Frequency Division Duplex Fiber Distributed Data Interface Fast Fourier Transform Fiber-optic Link around the Globe Finite Impulse Response Frequenzmodulation Fixed Part Frame Reject Frequency-Shift Keying File Transfer Protocol Fiber To The Curb Fiber To The Home
G GERAN GFC GGSN GI GMM GMSK GPRS GPS GR GSM GSN GSS
GSM/EDGE RAN Generic Flow Control Gateway GSN Guard Interval Global Multimedia Mobility Gaussian Minimum Shift Keying General Packet Radio Service Global Positioning System GPRS Register Global System for Mobile Telecommunications GPRS Support Node GPRS Switching Subsystem
H HE-AAC HEC HP HDBC HDLC HDSL HIPERLAN HLR HSCSD HSDPA
High Efficiency AAC Header Error Control Hochpass High Density Bipolar Code High-level Data Link Control High bit-rate DSL High Performance LAN Home Location Register High Speed Circuit Switched Data High Speed Downlink Packet Access
Abkürzungen HSUPA HT-OFDM HTTP
343 High Speed Uplink Packet Access High Throuput OFDM HyperText Transfer Protocol
I IA IAB ICMP IDFT IEC IEEE IETF IFFT IGMP IIR IKT IMEI IMS IMT-2000 IN IP, IPv6 IPSec IrDA ISBN ISDN ISI ISM ISO ITG ITK ITU IWMSC
International Alphabet Internet Architecture Board Internet Control Message Protocol inverse DFT International Electrotechnical Commission Institute of Electrical and Electronics Engineers Internet Engineering Task Force inverse FFT Internet Group Management Protocol Infinite Impulse Response Informations- und Kommunikationstechnologie International Mobile Equipment Identity IP Multimedia Subsystem International Mobile Telecommunication 2000 Intelligentes Netz Internet Protocol, IP Version 6 IP Security Infra-red Data Association International Standard Book Number Integrated-services Digital Network Intersymbol Interference Industrial Scientific Medical International Organization for Standardization Informationstechnische Gesellschaft im VDE Informations- und Telekommunikationstechnologie International Telecommunication Union Interworking MSC
J JPEG
Joint Picture Experts Group
K KW
Kurzwelle
L LAP /B LAPD LAN LLC LOS LQC LSB LTI LW LWL
Link Access Protocol / in Balanced Mode Link Access Procedure on D-Channel Local Area Network Logical Link Control Line of Sight Link Quality Control Least Significant Bit Linear Time-Invariant Langwelle Lichtwellenleiter
344
Abkürzungen
M MAC MAN MDCT ME MF MIME MIMO MOPS MPEG MP3 MS MSC MSK MT MW
Medium Access Control / Multiply and Accumulate Metropolitan Area Network Modified Discrete Cosine Transform Mobile Equipment Matched Filter Multi-Purpose Internet Mail Extension Multiple Input Multiple Output Mega Operations per Second Moving Picture Experts Group MPEG-1 Layer III Mobile Station Mobile Switching Center Minimum Shift Keying Mobile Termination Mittelwelle
N NAV nrt NRZ NSP NT NVC
Network Allocation Vector non-real-time Nonreturn-to-Zero Network Service Protocol Network Termination Network Voice Protocol
O O&M QAM QoS OAM OFDM OMC OOK OSI OTN
Operation and Maintenance Quadraturamplitudenmodulation Quality of Service Operation, Administration and Maintenance Orthogonal Frequency Division Multiplexing Operation and Maintenance Center On-Off Keying Open System Interconnection Optical Transport Network
P PAM PAN PA(P)R PCF PCM PD PDA PDCH PDCP PDH PDN PDTCH PDU
Pulsamplitudenmodulation Personal Area Network Peak-to-Average(-Power) Ratio Point Coordination Function Pulse-Code-Modulation Phasendiskriminator Personal Digital Assistant Packet Data Channel Packet Data Convergence Protocol Plesiochrone Digitale Hierarchie Packet Data Network Packet Data Traffic Channel Protocol Data Unit
Abkürzungen PIFS PIN PLL PM POH PON POT PP PR PRACH PSD PSK PT PTR PUK
345 PCF Inter-frame Spacing Personal Identity Number Phase-Locked Loop, Physical Link Control Phasenmodulation Path Overhead Passive Optical Network Plain Old Telephony Portable Part Protected Packet Random Access Channel Packet Switching Domain Phase-Shift Keying Payload Type Pointer Pin Unblocking Key
Q QPSK QoS
Quaternary PSK Quality of Service
R RACH RAN RAND RARP RC REC REJ RFL R-GSM RLC RNC RNR ROM RR RRC rt RTS RZ
Random Access Channel Radio Access Network Domain Random Number Reverse ARP Raised-Cosine Rectangular Reject physical Radio Frequency Layer Railway GSM Radio Link Control Radio Network Controller Receive Not Ready Read Only Memory Receive Ready Radio Resource Control real-time Request To Send Return-to-Zero
S SABM(E) SAP SBR SCB SCH SDH SGSN SHDSL SID
Set Asynchronous Balanced Mode (Extended) Service Access Point Spectral Band Replication Synchronization Burst Synchronization Channel Synchronous Digital Hierarchy Serving GSN Symmetric HDSL Silence Descriptor
346 SIFS SIG SIP SMS SMTP SNR SOH SREJ SRES SS7 STM
Abkürzungen Short Inter-frame Spacing Special Interest Group Session Initiation Protocol Short Message Service Simple Mail Transfer Protocol Signal-to-Noise Ratio Section Overhead Selective REJ Signed Response Signaling System Number 7 SDH Transport Module
T TA TAT TB TBS TCH TCP TDD TDMA TE TELNET TF TFS TIA/IS-95 TK TKG TMSI TND TP TTI
Terminal Adapter Transatlantic Trunk Transport Block Transport Block Set Traffic Channel Transport Control Protocol Time Division Duplex Time Division Multiple Access Terminal Equipment Telecommunications Network Protocol Trägerfrequenz, Transport Format Transport Format Set Telecommunication Industry Association Interim Standard 95 Telekommunikation Telekommunikationsgesetz Temporary Mobile Subscriber Identity Transport Network Domain Tiefpass Transmission Time Interval
U UA UACK UART UBR UDP UE UED UKW UMTS UPR USB USF USIM UTRAN UWB V
Unnumbered Acknowledgement Unacknowledged Universal Asynchronous Receiver/ Transmitter Unspecific Bite Rate User Datagram Protocol User Equipment User Equipment Domain Ultra-Kurzwelle Universal Mobile Telecommunication System Unprotected Universal Serial Bus Uplink State Flag UMTS SIM UMTS Terrestrial Radio Access Network Ultra-Wide Band
Abkürzungen VAD VBR VCI VCN VCO VDE VDSL VLR VoIP VPI
347 Voice Activity Detection Variable Bit Rate Virtual Channel Identifier Virtual-circuit Number Voltage Controlled Oscillator Verband der Elektrotechnik, Elektronik und Informationstechnik Very high-bit-rate Visitor Location Register Voice over IP Virtual Path Identifier
W WAP WARC WCDMA WDM WEP WLAN WML WMAN WPAN WWW
Wireless Application Protocol World Administrative Radio Conference Wideband CDMA Wavelength Division Multiplexing Wired Equivalent Privacy Wireless LAN Wireless Markup Language Wireless Metropolitan Area Network Wireless Personal Area Network World Wide Web
Z ZSB
Zweiseitenband
348
Literaturverzeichnis [Ahl08]
E. Ahlers: „Netz-Antrieb. Handreichungen für den schnellen Netzverkehr“. Magazin für Computertechnik. c’t 2008/20, S. 114-117 [Asc87] V. Aschoff: Geschichte der Nachrichtentechnik. Band 1: Beiträge zur Geschichte der Nachrichtentechnik von ihren Anfängen bis zum Ende des 18. Jahrhunderts. 2. Aufl. Berlin: Springer-Verlag, 1989 Band 2: Nachrichtentechnische Entwicklungen in der 1. Hälfte des 19. Jahrhunderts. Berlin: Springer-Verlag, 1987 [Beh08] A. Behzad: Wireless LAN Radios. System Definition to Transistor Design. Hoboken, NJ: John Wiley & Sons, 2008 [BeSt02] Th. Benkner, Ch. Stepping: UMTS. Universal Mobile Telecommunications System. Weil der Stadt: J. Schlembach Fachverlag, 2002 [BeZs02] A. Beutelspacher, M.-A. Zschiegner: Diskrete Mathematik für Einsteiger. Mit Anwendungen in Technik und Informatik. Braunschweig/Wiesbaden: Verlag Vieweg, 2002 [BFH00] K.-D. Bach, u. a.: Tabellenbuch Kommunikationselektronik. 5. Aufl.: Verlag Europa-Lehrmittel, 2000 [BGT04] F.-J. Banet, A. Gärtner, G. Teßmar: UMTS. Netztechnik, Dienstarchitektur, Evolution. Bonn: Hüthig Telekommunikation, 2004 [BlMa08] A. Bluschke, M. Matthews: xDSL-Fibel. Ein Leitfaden von A wie ADSL bis Z wie ZipDSL. 2. Aufl. Berlin: VDE Verlag, 2008 [Bri97] R. Brigola: Fourieranalysis, Distributionen und Anwendungen. Braunschweig / Wiesbaden: Verlag Vieweg, 1997 [Bro00] Brockhaus-Redaktion (Hrsg.): Technologien für das 21. Jahrhundert. Leipzig / Mannheim: Brockhaus, 2000 [BSH08] J. Benesty, M. M. Sondhi, Y. Huang (Hrsg.): Springer Handbook of Speech Processing. Berlin: Springer-Verlag, 2008 [BSMM99] I. N. Bronstein, K. A. Semendjajew, G. Musiol, H. Mühlig: Taschenbuch der Mathematik. 4. Aufl. Frankfurt a. Main: Verlag Harri Deutsch, 1999 [BuHi03] B. Bundschuh, J. Himmel: Optische Informationsübertragung. München: Oldenbourg, 2003 [Cas01] J. P. Castro : The UMTS Network and Radio Access Technology. Air Interface Techniques for Future Mobile Systems. New York: John Wiley & Sons, 2001 [CDG05] C. Chaudet, D. Dhoutaut, I. G. Lassous: „Performance Issues with IEEE 802.11 in Ad Hoc Networking.“ IEEE Communications Magazine, Vol. 43, No. 7, 2005, S. 110-116 [Che98] W. Y. Chen: DSL Simulation Techniques and Standards Development for Digital Subscriber Line Systems. Indianapolis, IN: Macmillan Techn. Publ., 1998 [Con04] Dieter Conrads: Datenkommunikation: Verfahren – Netze – Dienste. 5. Aufl. Braunschweig/ Wiesbaden: Verlag Vieweg, 2004
Literaturverzeichnis
349
K. David, T. Benkner: Digitale Mobilfunksysteme. 2. Aufl. Stuttgart: B. G. Teubner Verlag, 2001 [Dam97] P. Dambacher: Digitale Technik für den Fernsehrundfunk. Systemtechnik des DVB-T vom Studio bis zum Empfänger. Berlin: Springer-Verlag, 1997 [Des01] J. Desel [Hrsg.]: Das ist Informatik. Berlin: Springer-Verlag, 2001 [DHM57] M. L. Doelz, E. T. Heald, D. L. Martin: „Binary Data Transmission Techniques for Linear Systems.“ Proc. of the IRE, Bd. 45 (1957), Nr. 5, S. 656-661. [Duq02] M. Duque-Anton: Mobilfunknetze. Grundlagen. Dienste und Protokolle. Wiesbaden: Vieweg Verlag, 2002 [EVB01] J. Eberspächer, H.-J. Vögel, C. Bettstettert: GSM Global System for Mobile Communication: Vermittlung, Dienste und Protokolle in digitalen Mobilfunksystemen. 3. Aufl. Stuttgart: B. G. Teubner Verlag, 2001 [EcSc86] M. Eckert, H. Schubert: Kristalle, Elektronen, Transistoren: Von der Gelehrtenstube zur Industrieforschung. Reinbeck bei Hamburg : Rowohlt Taschenbuch Verlag, 1986 [FaKa05] F. Fazel, S. Kaiser: Multi-Carrier and Spread Spectrum Systems. Chichester, West Sussex, UK: John Wiley & Sons, 2005 [FKL08] Taschenbuch der Nachrichtentechnik, 2008 [FrBo08] Th. Frey, M. Bossert: Signal- und Systemtheorie. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2008 [Fre97a] U.G.P. Freyer: DAB - Digitaler Hörfunk. Berlin: Verlag Technik, 1997 [Fre97b] U.G.P. Freyer: DVB - Digitales Fernsehen. Berlin: Verlag Technik, 1997 [Fri95] B. Friedrichs: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin: Springer-Verlag, 1995 [GaLo08] S. Galli, O. Logvinov: “Recent Developments in the Standardization of Power Line Communications within the IEEE.” IEEE Communications Magazine, Vol. 46, No. 7, 2008, S. 64-71 [Gap99] W. Gappmair: Claude E. Shannon: “The 50th Ainniversary of Information Theory.“ IEEE Communications Magazine, Vol. 37, No. 4, 1999, S. 102-105 [GeKr08] R. Gessler, Th. Krause: Wireless-Netzwerke für den Nahbereich. Grundlagen, Verfahren, Vergleich, Entwicklung. Wiesbaden: Vieweg+Teubner Verlag, 2008 [GiKa04] N. Gilson, W. Kaiser: „Von der Nachrichtentechnik zur Informationstechnik. Zum 50-jährigem Bestehen der NTG / ITG“. Erschienen in Tagungsband der Jubiläumsfachtagung der ITG im VDE, Frankfurt a. M., 26/27. April, 2004 [Gla01] W. Glaser: Von Handy, Glasfaser und Internet: So funktioniert moderne Kommunikation: Braunschweig/Wiesbaden: Verlag Vieweg, 2001 [GRS07] B. Girod, R. Rabenstein, A. Stenger: Einführung in die Systemtheorie. Signale und Systeme in der Elektrotechnik und Informationstechnik. 4. Aufl. Stuttgart: B.G. Teubner Verlag, 2007 [Gra86] T. Grams: Codierungsverfahren. Mannheim: Bibliographisches Institut, 1986 [Gra01] T. Grams: Grundlagen des Qualitäts- und Risikomanagements. Zuverlässigkeit, Sicherheit, Bedienbarkeit. Braunschweig/ Wiesbaden: Verlag Vieweg, 2001 [DaBe01]
350 [Grü04] [Haa97] [HaMo05] [HaZo05] [HeDi08] [HHK96] [HeGr94] [HeLö00] [Hof00] [HoTo04]
[HoTo06] [Huf52] [Huf07] [Huu03] [JaRö02] [JuWa98] [Kad91] [Kad95]
[Kah90] [KaKö99] [KaKr06]
Literaturverzeichnis D. Ch. v. Grünigen: Digitale Signalverarbeitung. 3. Aufl. München: Fachbuchverlag Leipzig, 2004 W.-D. Haaß: Handbuch der Kommunikationsnetze. Berlin: Springer-Verlag, 1997 S. Haykin, M. Moher: Modern Wireless Communications. Upper Saddle River, NJ: Pearson Education, 2005 S. Hansen, V. Zota: „Mediale Grundversorgung. Audio-Video-Heimnetz in der Praxis.“ Magazin für Computertechnik. c’t 18/05, S. 92-95 J. Herre, M. Dietz: „MPEG-4 High-Efficiency AAC Coding.“ IEEE Signal Processing Magazine. Mai 2008, S. 137 - 142 G. Häberle u.a.: Fachkunde Radio, Fernseh- und Funkelektronik. 3. Aufl.: Verlag Europa-Lehrmittel, 1996. E. Herter, M. Graf: Optische Nachrichtentechnik. München: Hanser Verlag, 1994 E. Herter, W. Lörcher: Nachrichtentechnik: Übertragung, Vermittlung und Verarbeitung. 8. Aufl. München: Hanser Verlag, 2000 W. Hoffmann: Nachrichtenmesstechnik. Berlin: Verlag Technik, 2000 H. Holma, A. Toskala (Hrsg.): WCDMA for UMTS. Radio Access for Third Generation Mobile Communications. 3. Aufl. New York: John Wiley & Sons, 2004 H. Holma, A. Toskala (Hrsg.): HSDPA/HSUPA for UMTS. High Speed Radio Access for Mobile Communications. New York: John Wiley & Sons, 2006 D. A. Huffman: „A method for the construction of minimum redundancy codes.“ Proc. IRE, vol. 40, 1952, S. 1098-1101 M. Hufschmid: Information und Kommunikation. Grundlagen und Verfahren der Informationsübertragung. 2007 A. A. Huurdeman: The Worldwide History of Telecommunications. Hoboken, NJ: John Wiley & Sons, 2003 H. Jansen u. H. Rötter (Hrsg): Informationstechnik und Telekommunikationstechnik. 2. Aufl. Verlag Europa-Lehrmittel, 2002 V. Jung, H.-J. Warnke (Hrsg.): Handbuch für die Telekommunikation. Berlin: Springer-Verlag, 1998 F. Kaderali: Digitale Kommunikationstechnik I: Netze - Dienste - Informationstheorie - Codierung. Braunschweig/Wiesbaden: Verlag Vieweg, 1991 F. Kaderali: Digitale Kommunikationstechnik II: Übertragungstechnik - Vermittlungstechnik - Datenkommunikation - ISDN. Braunschweig/ Wiesbaden: Verlag Vieweg, 1995 P. Kahl (Hrsg.): ISDN: Das neue Fernmeldenetz der Deutschen Bundespost TELEKOM. 3. Aufl. Heidelberg: R. v. Decker's Verlag, 1990 A. Kanbach, A. Körber: ISDN - Die Technik. 3. Aufl. Heidelberg: Hüthing Buch Verlag, 1999 K.-D. Kammeyer, K. Kroschel: Digitale Signalverarbeitung. Filterung und Spektralanalyse mit MATLAB-Übungen. 6. Aufl. Stuttgart: B. G. Teubner Verlag, 2006
Literaturverzeichnis [Kam08] [Kar08] [KiJä08] [Klo01] [KoSc95] [Küp54] [LiCo04] [Loc02] [Lüd01] [Lük95] [Lük99] [MBW08]
[MaFu07] [MäGö02] [Mat08] [Mäu03] [MeHo04] [Mey06] [Mey08] [Mit06] [MLS88]
351
K.-D. Kammeyer: Nachrichtenübertragung. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2008 S. Kartalopoulos: Next Generation Intelligent Optical Networks. From Access to Backbone. Berlin: Springer-Verlag, 2008 U. Kiencke, H. Jäkel: Signale und Systeme. 4. Aufl. München: Oldenbourg, 2008 R. Klostermeyer: Digitale Modulation: Grundlagen, Verfahren, Anwendungen. Braunschweig/Wiesbaden: Verlag Vieweg, 2001 R. Kories, H. Schmidt-Walter: Taschenbuch der Elektrotechnik. 2. Aufl. Frankfurt a. Main: Verlag Harri Deutsch, 1995 K. Küpfmüller: „Die Entropie der deutschen Sprache.“ Fernmeldetechnische Zeitschrift (FTZ), Bd. 7, 1954, S. 265 - 272 S. Lin, D. J. Costello: Error Control Coding. 2. Aufl. Upper Saddle River, NJ: Pearson Prentice Hall, 2004 D. Lochmann: Digitale Nachrichtentechnik: Signale, Codierung, Übertragungssysteme, Netze. 3. Aufl. Berlin: Verlag Technik, 2002 Ch. Lüders: Mobilfunksysteme. Grundlagen, Funktionsweisen. Planungsaspekte. Würzburg: Vogel Buchverlag, 2001 H. D. Lüke: Signalübertragung. Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme. 6. Aufl. Berlin: Springer-Verlag, 1995 H. D. Lüke: “The Origins of the Sampling Theorem.” IEEE Communications Magazin, Vol. 37, No. 4, 1999, S. 106-108 P. Mandel, A. Bakomenko, J. Weiß: Grundkurs Datenkommunikation. TCP/IPbasierte Kommunikation: Grundlagen, Konzepte und Standards. Wiesbaden: Vieweg+Teubner Verlag, 2008 J. Maucher, J. Furrer: WiMAX. Der IEEE-802.16-Standard: Technik, Anwendung, Potenzial. Hannover: Heise Zeitschriften Verlag, 2007 R. Mäusl, J. Göbel: Analoge und digitale Modulationsverfahren. Basisband und Trägermodulation. Heidelberg: Hüthig Buch Verlag, 2002 Ph. Mattheis: „Der Reishändler“. Süddeutsche Zeitung, Nr. 251, 28. Okt. 2008, S. 32 R. Mäusl: Fernsehtechnik. Vom Studiosignal zum DVB-Sendesignal. 3. Aufl. Heidelberg: Hüthig Buch Verlag, 2003 B. Meffert, O. Hochmuth: Werkzeuge der Signalverarbeitung. Grundlagen, Anwendungsbeispiele, Übungsaufgaben. München: Pearson Studium, 2004 M. Meyer: Signalverarbeitung. Analoge und digitale Signale, Systeme und Filter. 4. Aufl. Wiesbaden: Vieweg Verlag, 2006 M. Meyer: Kommunikationstechnik. Konzepte der modernen Nachrichtenübertragung. Wiesbaden: Vieweg+Teubner Verlag, 2008 S. K. Mitra: Digital Signal Processing. A Computer-Based Approach. 3. Aufl. New York, NY: McGraw-Hill, 2006 P. Müller, G. Löbel, H. Schmid: Lexikon der Datenverarbeitung. 10. Aufl. Landsberg am Lech : Verlag Moderne Industrie, 1988
352 [Mot91] [NMG01] [Noc04] [Noc05] [Obe82] [OhLü07] [Ohm04] [OpWi89] [OSB98] [OSB04] [OWN97] [Pre94] [Pro01] [PrSa94] [PrMa96] [Rap96] [RaWa97] [Rec08] [Rei05] [Rhe98] [Roh08]
Literaturverzeichnis Motorola INC: Handbuch zum HCMOS Single-Chip Microcontroller MC68HC11A8, 1991 E. Nett, M. Mock, M. Gergleit: Das drahtlose Ethernet. Der IEEE 802.11 Standard: Grundlagen und Anwendung. München: Addision-Wesley, 2001 R. Nocker: Digitale Kommunikationssysteme 1. Grundlagen der Basisband-Übertragungstechnik. Wiesbaden: Verlag Vieweg, 2004 R. Nocker: Digitale Kommunikationssysteme 2. Grundlagen der Vermittlungstechnik. Wiesbaden: Verlag Vieweg, 2005 R. Oberliesen: Information, Daten und Signale: Geschichte technischer Informationsverarbeitung. Reinbeck bei Hamburg: Rowohlt Taschenbuch Verlag, 1982 J.-R. Ohm, H. D. Lüke: Signalübertragung: Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme. 10. Aufl. Berlin: Springer-Verlag 2007 J.-R. Ohm: Multimedia Communication Technology. Representation, Transmission and Identification of Multimedia Signals. Berlin: Springer-Verlag, 2004 A. V. Oppenheim, A. S. Willsky: Signale und Systeme: Lehrbuch. Weinheim: VCH Verlagsgesellschaft, 1989 A. V. Oppenheim, R. W. Schafer, J. R. Buck: Discrete-Time Signal Processing. 2nd Ed. Upper Saddle River, NJ: Prentice-Hall, 1998 A. V. Oppenheim, R. W. Schafer, J. R. Buck: Zeitdiskrete Signalverarbeitung. 2. Aufl. München: Pearson Studium, 2004 A. V. Oppenheim, A. S. Willsky, H. Newab: Signals and Systems. 2. Aufl. Upper Saddle River, NJ: Prentice-Hall, 1997 H. Preibisch (Hrsg.): GSM-Mobilfunk-Übertragungstechnik. Berlin: Schiele & Schön, 1994 J. G. Proakis: Digital Communications. 4. Aufl. New York, NY: McGraw-Hill, 2001 J. G. Proakis, M. Salehi: Communication Systems Engineering. 3. Aufl. Englewood Cliffs, NJ: Prentice-Hall, 1994 J. G. Proakis, D. G. Manolakis: Digital Signal Processing. Principles, Algorithms, and Applications. 3rd Ed. Upper Saddle River, NJ: Prentice Hall, 1996 Th. S. Rappaport: Wireless Communications: Principles and Practice. Upper Saddle River, NJ: Prentice-Hall, 1996 E. Rathgeb, E. Wallmeier: ATM - Infrastruktur für Hochleistungskommunikation. Berlin: Springer-Verlag, 1997 J. Rech: Wireless LANs. 802.11-WLAN-Technologie und praktische Umsetzung im Detail. 3. Aufl. Hannover: Heise Zeitschriften Verlag, 2008 U. Reimers (Hrsg.): DVB. The Family of International Standards for Digital Video Broadcasting. 2. Aufl. Berlin: Springer-Verlag, 2005 M. Y. Rhee: CDMA Cellular Mobile Communications and Network Security. Upper Saddle River, NJ: Prentice-Hall, 1998 H. Rohling (Hrsg.): Proceedings of the 13th International OFDM-Workshop, InOWo’08, Hamburg, 27. u. 28. August
Literaturverzeichnis
353
M. Sauter: Grundkurs: Mobile Kommunikationssysteme. Von UMTS und HSDPA, GSM und GPRS zu Wireless LAN und Bluetooth Piconetzen. 3. Aufl. Wiesbaden: Vieweg Verlag, 2007 [Sch82] H. W. Schüßler: „Die Technik der Nachrichtenübertragung gestern – heute – morgen.“. Erlanger Universitätsreden, 3. Folge, Nr. 9, 1982 [Sch88] H. W. Schüßler: Netzwerke, Signale und Systeme, Band I: Systemtheorie linearer elektrischer Netzwerke. 2. Aufl. Berlin: Springer-Verlag, 1988 [Sch91] H. W. Schüßler: Netzwerke, Signale und Systeme, Band II: Theorie kontinuierlicher und diskreter Signale und Systeme. 3. Aufl. Berlin: Springer-Verlag, 1991 [Sch97] H. Schwetlick: PC-Meßtechnik: Grundlagen und Anwendungen der rechnergestützten Meßtechnik. Braunschweig / Wiesbaden: Verlag Vieweg, 1997 [Sch98] H. Schneider-Obermann: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Braunschweig / Wiesbaden: Verlag Vieweg, 1998 [Sch00] U. Schmidt: Professionelle Videotechnik. Analoge und digitale Grundlagen, Signalformen, Videoaufnahmen, Wiedergabe, Speicherung, Signalverarbeitung und Studiotechnik. 2. Aufl. Berlin: Springer-Verlag, 2000 [Sch02] U. Schmidt: Digitale Film- und Videotechnik. München: Fachbuchverlag Leipzig, 2002 [Sch03] J. Schiller: Mobilkommunikation. 2. Aufl. München: Pearson Studium, 2003 [Sch05] M. Schwartz: Mobile Wireless Communications. Cambridge: Cambridge University Press, 2005 [Sch06] J. Scherff: Grundkurs Computernetze. Eine kompakte Einführung in die Rechnerkommunikation. Wiesbaden: Vieweg Verlag, 2006 [Sch08] H. W. Schüßler: Digitale Signalverarbeitung 1. Analyse diskreter Signale und Systeme. 5. Aufl. Berlin: Springer-Verlag, 2008 [SCS00] T. Starr, J. M. Cioffi, P. J. Silverman: xDSL: Eine Einführung: ISDN, HDSL, ADSL und VDSL. München: Addison-Wesley Verlag, 2000 [SDHT07] J. Seitz, M. Debes, M. Heubach, R. Tosse: Digitale Sprach- und Datenkommunikation. Netze – Protokolle – Vermittlung. München: Fachbuchverlag Leipzig im Carl Hanser Verlag, 2007 [Sha48] C. E. Shannon: “A mathematical theory of communication.“ Bell Sys. Tech. J., Vol. 27, 1948, S. 379-423 und 623-656 [Sie99] G. Siegmund: Technik der Netze. 4. Aufl. Heidelberg: R. v. Decker’s Verlag, 1999 [Spe99] The Institute of Electrical and Electronics Engineers (IEEE): „Technology 1999: Analysis & Forcast Issue“ in IEEE Spectrum, Januar 1999 [SSCS03] T. Starr, M. Sorbara, J. M. Cioffi, P. J. Silverman: DSL Advances. Upper Saddle River, NJ: Prentice-Hall, 2003 [Sta00] W. Stallings: Data and Computer Communications. 6. Aufl. Upper Saddle River, NJ: Prentice-Hall, 2000 [Ste05] Ch. Stepping: Drahtlose Netze. Wilburgstetten: J. Schlembach Fachverlag, 2005 [Str05] T. Strutz: Bilddatenkompression. Grundlagen, Codierung, Wavelets, JPEG, MPEG, H.264. 3. Aufl. Wiesbaden: Verlag Vieweg, 2005 [Sau07]
354 [Tan03]
[Tar98] [TiSc02] [Unb93] [Unb98] [Unb02]
[VHH98] [Vit95] [VlHa93] [VlHa95] [Vog95] [Wal00]
[Wal01]
[WAS02] [WSA03] [Web92] [Wei02] [Wer05] [Wer06] [Wer08a]
Literaturverzeichnis A. S. Tanenbaum: Computer Networks. 4. Aufl. Upper Saddle River, NJ: PrenticeHall, 2003 deut. Übersetzung: Computernetzwerke. 4. Aufl. München, Pearson Studium, 2003 L. Tarassow: Wie der Zufall will? Vom Wesen der Wahrscheinlichkeit. Heidelberg, Berlin: Spektrum, Akad. Verlag, 1998 U. Tietze, Ch. Schenk: Halbleiter-Schaltungstechnik. 12. Aufl. Berlin: SpringerVerlag, 2002 R. Unbehauen: Netzwerk- und Filtersynthese: Grundlagen und Anwendungen. 4. Aufl. München: Oldenbourg Verlag, 1993 R. Unbehauen: Systemtheorie 2: Mehrdimensionale, adaptive und nichtlineare Systeme. 7. Aufl. München: Oldenbourg Verlag, 1998 R. Unbehauen: Systemtheorie 1: Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich. 8. Aufl. München: Oldenbourg Verlag, 2002 P. Vary, U. Heute, W. Hess: Digitale Sprachsignalverarbeitung. Stuttgart: B. G. Teubner, 1998 A. J. Viterbi: CDMA. Principles of Spread Spectrum Communication. Reading, Mass.: Addision-Wessley A. Vlcek, H. L. Hartnagel (Hrsg.): O. Zinke, H. Brunswick: Hochfrequenztechnik 2: Elektronik und Signalverarbeitung. 4. Aufl. Berlin: Springer-Verlag, 1993 A. Vlcek, H. L. Hartnagel (Hrsg.): O. Zinke, H. Brunswick: Hochfrequenztechnik 1: Hochfrequenzfilter, Leitungen, Antennen. 5. Aufl. Berlin: Springer-Verlag, 1995 H. Vogel: Gerthsen Physik. 18. Aufl. Berlin: Springer-Verlag, 1995 B. Walke: Mobilfunknetze und ihre Protokolle: Bd. 2 Bündelfunk, Schnurlose Telefonsysteme, W-ATM, HIPERLAN, Satellitenfunk, UPT. 2. Aufl. Stuttgart, B. G. Teubner Verlag, 2000 B. Walke: Mobilfunknetze und ihre Protokolle: Bd. 1 Grundlagen, GSM, UMTS und andere zellulare Mobilfunknetze. 3. Aufl. Stuttgart, B. G. Teubner Verlag, 2001 B. Walke, M. P. Althoff, P. Seidenberg: UMTS - Ein Kurs. Universal Mobile Telecommunications System. 2. Aufl. Weil der Statt: J. Schlembach Fachverlag, 2002 B. Walke, P. Seidenberg, M. P. Althoff: UMTS. The Fundamentals. Chichester, West Sussex, UK: John Wiley & Sons, 2003 H. Weber: Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure. Stuttgart: B.G. Teubner Verlag, 1992 H. Weidenfeller: Grundlagen der Kommunikationstechnik. Stuttgart: B. G. Teubner, 2002 M. Werner: Netze, Protokolle, Schnittstellen und Nachrichtenverkehr. Grundlagen und Anwendungen. Wiesbaden: Vieweg Verlag, 2005 M. Werner: Nachrichtenübertragungstechnik. Analoge und digitale Verfahren mit modernen Anwendungen. Wiesbaden: Verlag Vieweg, 2006 M. Werner: Digitale Signalverarbeitung mit MATLAB-Praktikum. Zustandsraumdarstellung, Lattice-Strukturen, Prädiktion und adaptive Filter. Wiesbaden: Vieweg Verlag, 2008
Literaturverzeichnis [Wer08b] [Wer08c] [Wer08d] [Wie48]
[Wit02] [Zöl05] [Zwi82]
355
M. Werner: Signale und Systeme. Ein Lehr- und Arbeitsbuch. 3. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2008 M. Werner: Digitale Signalverarbeitung mit MATLAB. Grundkurs mit 16 ausführlichen Versuchen. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2008 M. Werner: Information und Codierung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2008 N. Wiener: Cybernetics or Control and Communication in the Animal and the Machine. Paris: Hermann, 1948 N. Wiener: Regelung und Nachrichtenübertragung in Lebewesen und in der Maschine. Düsseldorf / Wien: Econ Verlag, 1963 F. Wittgruber: Digitale Schnittstellen und Bussysteme. Einführung für das technische Studium. 2. Aufl. Braunschweig / Wiesbaden: Verlag Vieweg, 2002 U. Zölzer: Digitale Audiosignalverarbeitung. 3. Aufl. Stuttgart: B. G. Teubner Verlag, 2005 E. Zwicker: Psychoakustik. Berlin: Springer Verlag, 1982
356
Sachwortverzeichnis A AAA-Architektur 210 AAC-Codec-Familie 104 Abramson-Code 240 absolute Bandbreite 52 Abtast -folge 14, 72, 90 -frequenz 74 -intervall 14, 74 -ung (ideale) 72, 155 Access Burst 268 Access Grant Channel (AGCH) 270 Access Network Domain (AND) 284 Access Point (AP) 307 Accounting 210 8-PSK (Phase-shift Keying) 135, 281 Acknowledgement (ACK) 306 Ad-hoc Connectivity 301 Adressfeld 194 Advanced Audio Coding (AAC) 99 A-Kennlinie 81 Alphabet 221 Alternate Mark Inversion Code (AMI-) 157 American Standard Code for Information Interchange (ASCII) 15, 147 Amplituden -modulation (AM) 109, 113 -spektrum 28 -tastung (ASK, Amplitude-shift Keying) 127 Analog-Digital-Umsetzer (A/D-) 73 Analyse durch Synthese 102 Anonymität 256 Anwendungsschicht 191 Anycast-Adresse 208 Asymmetric Digital Subscriber Line (ADSL) 178 Asynchronous Transfer Mode (ATM) 198 Asynchronübertragung 149 ATM-Cross-Connect 200 ATM-Zelle 198 Atomisierung 198 Audio-Codierung 99 Augendiagramm /-öffnung 163 Ausblendeigenschaft 56 Auserbandstrahlung 141 äußerer Regelkreis 292 Authentification Center (AUC) 258 Authentification Header 207, 210
Authorization 210 Available Bit Rate (ABR) 201 AWGN-Kanal 158 B Bandaufweitung 123 Bandbreite 30, 51, 288 Bandpass 35, 36 Bandpass-Spektrum 52 Bandsperre 35, 36 Base Station Controller (BSC) 257 Base Tranceiver Station (BTS) 257 Basic Service Set 307 Basisband /-signal 127, 147 Bessel-Funktion 122 Betragsfrequenzgang 32 BIBO-Stabilität 63 Binary Coded Decimal Code (BCD-) 76 binäre Frequenzumtastung (BFSK) 128 Binärquelle 153, 214 Biphase-Code 156 Bit (bit, Binary Digit) 127, 154, 213 Bitdauer 127 Bitfehler /- wahrscheinlichkeit (BER, Bit Error Rate) 160, 164 Bitfolge /-strom 73, 154 Bitrate 151, 153 Bitübertragungsschicht 192 Bitverschachtelung 265 B-Kanal 9, 184 Bluetooth /-SIG 246, 302 Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e. V. (BITKOM) 5 Breitband-ISDN 198 Broadcast Controll Channel (BCCH) 267 Byte 183 C Carson-Bandbreite 123 Challenge-Response-Verfahren 271 Carrier Sense Multiple Access / Collision Detection (CSMA/CD) 202, 301 Carrier-to-Interference Ratio (C/I) 292 Channel Quality Information (CQI) 300 Chip /-dauer /-rate 287, 290 Clear Channel Assessment 305 Clear-to-Send-Rahmen (CTS-) 306
Sachwortverzeichnis Cluster 260 Code 221 pseudoternärer 157 Codebaum 219 Codemultiplex 10 Codenummer 75 Coderate 226 Codetabelle 73, 76 Codewort 220, 224 Code Division Multiple Access (CDMA) 289 Codiergewinn 236 Codierung 72, 99 mit Gedächtnis 157 verlustbehaftet 8, 100 verlustlos 8, 100 Codiervorschrift 226 Coding Scheme (CS) 278 Combiner 288 Comfort Noise 265 Confirm 192 Constant Bite Rate (CBR) 200 Control Channel (CCH) 267 Core Network (Domain) 284 Cyclic Prefix 143 Cyclic Redundancy Check Code (CRC-) 103, 195, 238, 265 D Dämpfung 32 Dämpfungsfrequenzgang 32 Dämpfungsverzerrungen 49 Darstellungsschicht 191 Datagramm 188, 198 Datendurchsatz 247 Datenendeinrichtung /-schnittstelle /-übertragungseinrichtung 149 Datenkompression 99 Datensicherungsschicht 191 DCS-1800 261 Dedicated Control Channel (DCCH) 270 Deemphase 47, 126 D1- /D2-Netz 259 Demodulation inkohärent 110, 116 kohärent 110, 115 Demodulator 110 Destination Options Header 207 Detektion 155 Detektionsgrundimpuls 169 Detektionsvariable 155 Detektionsvektor 132 Deutsche Intsitut für Normung (DIN) 148 Dezibel 32 DFT-Koeffizienten 139
357 Dienst 8, 11, 187, 256 Dienstelement 189, 192 Dienstemodell 283 Dienstgüte (QoS) 188 Differenziator 125 digitale Übertragung 147 digitale Signalverarbeitung 4, 11, 85 Digitalisierung 72 DIN 66003 148 Dirichlet-Bedingungen 21 Disconnect (DISC) 196 Disconnect Mode (DM) 196 diskontinuierliche (Sprach-)Übertragung 265 diskrete Fourier-Transformation (DFT) 86, 91 Digital-Analog-Umsetzer (D/A-) 73 D-Kanal 9 Distributed Queue Dual Bus (DQDB) 204 Domäne 284 Downlink 270 3dB-Bandbreite 52 3dB-Grenzfrequenz 33, 48, 52 3rd Generation Partnership Project 282 13-Segment-Kennlinie 82 Duplex-Übertragung 249 Durchlassbereich /-frequenz /-toleranz 35 Durchsatz (Daten-) 143, 276 dynamische Kanalzuteilung 276 E effektive Wortlänge 82 Effizienz 151, 153 EIA-232-F 150 Eingangs-Ausgangsgleichung für Fourier-Reihen 38 im Frequenzbereich 46 im Zeitbereich 61 Einhüllende 17 Einseitenbandmodulation (ESB) 118 Electronic Industries Alliance 150 elektromagnetische Verträglichkeit 256 Empfänger 6, 155 Empfangsnummer 195 Empfangswort 225 Encapsulation Security Payload Header 207 Encoder 72, 102, 224 End-around-Fehlerbündel 241 Energie 19 Energiedichte 45 Energiesignal 19 Enhanced Coding Scheme (ECS) 282 Enhanced Data Rates for GSM Evolution (EDGE) 136, 254, 281 Enhanced Full Rate Codec 254 Entropie 2
358 Entropiecodierung 216 Entscheidungsgebiet 133 Entscheidungsgehalt 215 E-Plus-Netz 258 Equipment Identification Register (EIR) 257 Equirippel-Verhalten 98 Error Concealment 265 Error Vector Magnitude 133 Ersatzspannungsquellen 26 1. Nyquist-Kriterium 172 Erweiterungs-Kopffeld (Extension Header) 206 Ethernet 203 euklidischer Divisionsalgorithmus 242 European Telecommunication Standards Institute (ETSI) 254 Expander 81 Exponentielle 16 angefachte, 17 gedämpfte 17 harmonische 17 Exposed-Station-Problem 304 Extended Service Set 307 F Faltungscode 265 Faltung /-sintegral 61 Fast Fourier Transform (FFT) 86, 91, 102, 179 Fehlerbündel 238 Fehlerkorrekturvermögen 233 Fehlerprüfung 238 Fehlersignal 78 Fehlervektor 132 Fernsehrundfunk 2 Fiber Ditributed Data Interface (FDDI) 204 Filter /-ung 33, 47 Filterentwurf 35 Final-Bit 195 Finite Impulse Response Filter (FIR-) 92, 93 Flag /-bits 194 FM-Empfänger (konventioneller) 125 FM-Schwelle 124 Fourier-Koeffizient 21 Fourier-Reihe 21, 87 Fourier-Paar 44 Fourier-Summe 87 Fourier-Transformation 44 Fragment Header 207 Frame Check Sequence (FCS) 195, 238 Frame Reject (FRMR) 196 Frequency Correction Burst (FCB) 268 Frequenz (komplexe) 17 Frequenzbereich 45 Frequenzgang 31, 56, 94 Frequenzhub 120
Sachwortverzeichnis Frequenzkanal 259 Frequenzkomponente 28 Frequenzlagen /-bänder 108 Frequenzmodulation (FM) 109, 119 Frequenzmultiplex 117, 138 Frequenzplanung 260 Frequenzsprungverfahren 265 Frequenzumtastung (FSK, Frequency-shift keying) 127 Funkzugangsnetz 284 G Gateway GPRS Support Node (GSN) 281 Gateway MSC (GMSC) 258 Gaussian Minimum Shift Keying 268 gaußsche Glockenkurve 148 gedächtnisloser Kanal 159 General Packet Radio Service (GPRS) 252, 254, 273 Generatormatrix 226 Generatorpolynom 240 GERAN (GSM/EDGE RAN) 284 Geräteerkennung 256 Gewichtsverteilung 234 gibbsches Phänomen 24, 40 Gleichanteil 22 gleichförmige Quantisierung 75 Gleichkanalstörung 263, 264 gleichstromfrei 153 Global System for Mobile Communications (GSM) 252 granulares Rauschen 76 Gray-Code 130 Grundkreisfrequenz 21 Grundschwingung 22 Gruppenlaufzeit 51 Guard-Intervall 142 H Halb-Duplex 149 Hamming-Abstand 232 Hamming-Code 237 Hamming-Gewicht 232 Hamming-Grenze 234 Handover 255, 264, 295 hard 296 soft 296 softer 296 Harmonische 22 harmonische Analyse 21, 44, 86, 88 Header 206 Header Compression 297 Hidden-Station-Problem 305 High Density Bipolar Code (HDBn-) 157
Sachwortverzeichnis High Efficiency Advanced Audio Codec (HEAAC) 103 High-level Data Link Control (HDCL)-Protokoll 193 High Speed Circuit Switched Data (HSCSD) 254, 270 High Speed Downlink Packet Access (HSDPA) 299 High Speed Upnlink Packet Access (HSUPA) 300 High Performance LAN (HIPERLAN) 302 High Througput OFDM (HT-) 311 Hochpass 35, 36 Home Location Register (HLR) 258 Home Network Domain 285 Hop-by-Hop Header 207 Hop Limit 208 Hörbereich /-schwelle 100 Hörrundfunk 2 Huffman-Codierung 102, 217 Hüllkurvendetektor 116 I IEEE-802-Referenzmodell 202 Impulsantwort 56, 93, 99, 168 Impulsformer 169 Impulsfunktion 56 Impulsverbreiterung 162 Inbandsignalisierung 184 Indication 192 Industrial, Scientific and Medical Band (ISM-) 302 Infinite Impulse Response Filter (IIR-) 92, 96 Informatik 3 Information /-stechnik 3 Information Frame 195 Informationsfeld 194 Informationsgehalt (Zeichen) 213 Informationstechnische Gesellschaft im VDE (ITG) 5 innerer Regelkreis 292 Instanz 192 Institute of Electrical and Electronic Engineers (IEEE) 300 Intelligentes (TK-)Netz (IN) 11, 253 interferenzbegrenzte Übertragung 290 Interleaving 265 International Mobile Station Equipment Identity (IMEI) 257 International Standard Book Number (ISBN) 221, 223 International Standards Organization (ISO) 147 International Telecommunication Union (ITU) 3, 147
359 Internationaler Telegraphenverein 3 Internet Protocol (IP) 204 Interpolation 73 Intersymbol-Interferenzen (ISI, Intersymbol Interference) 137, 264 inverse FFT 310 IP Multimedia Subsystem 285 IPv6 Header 207 Irrelevanzreduktion 8, 100 ISDN-Basisanschluss 8 K Kanal 6, 154, 187 Kanalentzerrung 266 Kaskadenform 96 Kausalität 62 Kehrlage 112 Kernnetz 283 Kernsymbol (OFDM) 142 Klirrfaktor 51 Kommunikationssteuerschicht 191 Korrigierkugel 232 Kosinusimpuls 129 Kompandierung 81 Kompatibilität 104 komplementäre Fehlerfunktion (erfc) 160 komplexe Wechselstromrechnung 19, 27 Komplexität 153 Kompressionsfaktor (Daten-) 99 Kompressor 81 Korrelator 286 Kreuzsicherung 220 Kupferdoppelader 177 Kurzzeit-Spektrum /-Spektralanalyse 91 L Least Significant Bit (LSB) 77 Leistung /-ssignal 19 Leistungsdichtespektrum 46 Leistungsregelung 264 Leistungsspektrum 28 Leistungsübertragungsfunktion 47 Leitungscode 156 Leitungsvermittlung 187 linearer Blockcode 226 Link Access Procedure on D-Channel (LAPD) 194 Link Access Protocol / in Balanced Mode (LAP/B) 194 Linearität 62 Linienspektrum 29, 122 Link Quality Control 282 Lochstreifen 220 logarithmische PCM 81
360 logischer Kanal 189 lokales Netz 202 Luftschnittstelle 259 M MAC-Befehl 93 Manchester-Code 156 Mapping 131, 141 Maskierungseffekt 100 Master-Slave-Verfahren 277 Matched-Filter 63, 168, 287 MATLAB 42, 93, 98 Maximum-Likelihood-Detektion 169 Medium Access Control (MAC) 202, 297, 301 Mehrfrequenzwahlverfahren 91 Mehrträgerverfahren 136, 137, 179 Mehrwegeausbreitung /-empfang 137, 263 Mehrwegediversität 287 Meldewort 183 minimaler Hamming-Abstand 233 Minimum Shift Keying (MSK-)Modulation 129 Mischer 113 Mithörschwelle 100 mittlere Codewortlänge 218 Mobile Station (MS) 257 Mobile Switching Center (MSC) 257 Mobilität 255 Modulo-2-Arithmetik 226 mooresches Gesetz 2 Modifizierte diskrete Kosinus-Transformation (MDCT) 102 Modulation 109, 111, 119 mehrstufige 130 nichtlineare 119 Modulationsgewinn 124 Modulationsgrad 113 Modulationsindex 120 Modulationsprodukt 111 Modulationssatz der Fourier-Transformation 112 Modulator 109, 111 modulierendes Signal 111 Momentankreisfrequenz 119 Morsealphabet 216 MPEG-1 Layer III 99 P-Kennlinie 81 Multicast-Adresse 208 Multipath Interference 290 Multiple Input Multiple Output (MIMO) 311 Multiplexer 184 Multiuser Interference 290 N Nachbarsymbol-Interferenzen (ISI, Intersymbol Interference) 137, 162
Sachwortverzeichnis Nachlaufsynchronisation 126 Nachricht /-entechnik 3 Nachrichtenflussdiagramm 196 Nachrichtenquelle /-senke 6 Nachrichtenübermittlung /- übertragung /vermittlung 5, 186 Nachrichtenwort 220, 224 Nachrichtenzeichen 227 Nah-Fern-Effekt 291 Nennerkoeffizienten /-polynom 31 Network Allocation Vector (NAV) 306 Normalkomponente 116 normierte Zeitvariable 14 normierte Kreisfrequenz 90 Non-Real-Time Variable Bit Rate (nrt-VBR) 200 Nonreturn-to-Zero Code (NRZ-) 156 Normal Burst 262 Nullstellen 31 Nutzsignalleistung 161 Nyquistbandbreite /-frequenz 171 O Oberschwingungen 22 Oktett (Octet) 183 On-off Keying 127 Open-Sytems-Interconnection-Referenzmodell (OSI-) 189 Operation and Maintenance Center (OMC) 256 optimaler Detektionszeitpunkt 163 optimales Suchfilter 169 Orthogonal Frequency Division Multiplexing (OFDM) 136, 309 Orthogonalität (Exponentielle) 89 Ortskurve 17 P Packet Data Convergence Protocol 297 Paketvermittlung 187 parallele Übertragung 149 Parametric Stereo (PS) 103 Parität /-sbit /-scode 148, 221, 222 parsevalsche Formel 45, 168 parsevalsche Gleichung 23, 123 PCM-30-System 183 PDH-Multiplexhierarchie 183 Peer-to-peer-Protokoll 192 perfekter Code 233 Personal Identifcation Number (PIN) 255 Phasenfrequenzgang 32 Phasenmodulation 109 Phasenumtastung (PSK, Phase-shift Keying) 127, 135, 281 Phasenregelkreis (PLL, Phase-Locked Loop) 125 Phasenverzerrungen 49
Sachwortverzeichnis photonisches Netz 2 Physical Layer 297 plesiochrones Multiplexsystem 184 Point Coordination Function (PCF) 307 Pole 31 Polynomdarstellung 239 Poll-Bit 195 Port 206 Preemphase 47, 126 Primärmultiplexsignal 183 Protokoll 189 Protokolldatenelement 192 Prozessgewinn 290 Prüfgleichung /-zeichen 227 Psychoakustisches Modell 101 Pulsamplitudenmodulation (PAM) 130, 175 Pulsdauer 16 Pulse-Code-Modulation (PCM) 72 Q Quadraturamplitudenmodulation (QAM) 116, 131 Quadraturkomponente(n) 116 Quadratur-Mischer 131 Quality of Service (QoS) 8 Quantisierung 72 Quantisierungsbereich 75 Quantisierungsgeräusch 78 Quantisierungkennlinie 72, 76 Quantisierungsintervall 75 Quelle 6, 153, 213 Quellencodierungstheorem 218 R Radio Access Network 284 Radio Bearer 297 Radio Block 277 Radio Link Control (RLC) 297 Radio Link Protocol (RLP) 194 Radio Newtork Controller 292 Radio Network Subsystem 285 Radio Resource Control 298 Radix-2-FFT 91 Rahmenerkennungswort 183, 194 Rahmenprüfsumme 193 Raised-Cosine-Impulse /-Spektrum 173 RAKE-Empfänger 287 Random Access Channel (RACH) 268 Raum-Multiplex 312 Rauschreserve 163 Rauschsignal /-leistung 158, 161 RC-Glied 25, 30, 31, 32, 34, 39 RC-Hochpass 40 RC-Tiefpass 40, 57, 65
361 Real-Time Variable Bit Rate (rt-VBR) 200 Rechteckimpuls 16, 45, 53, 65, 129, 154, 170 Rechteckimpulszug 16, 23, 25, 29, 39, 40 Recive Not Ready (RNR) 196 Receive Ready (RR) 196 redundante /redundanzmindernd Codierung 226 Redundanz 8, 215 Regellage 112 Reject (REJ) 196 Repräsentant 75 Request 192 Request-to-Send-Rahmen (RTS-) 306 Response 192 Restfehler /-wahrscheinlichkeit 220, 225, 234, 238 Return-to-Zero Code (RZ-) 156 RLC-Netzwerk 19 Roaming 255 Roll-off-Faktor 173 Root-Raised-Cosine-Impuls 174 Round-trip Delay 299 Routing Header 207 Routing Table 188 RS-232-Scnittstelle 15, 150 S Sättigung /-skennlinie 76 schnelle Fourier-Transformation (FFT) 86, 91, 102 Schnittstelle 9, 10 Schrittgeschwindigkeit 151 Schutzintervall 142 Schwellwertentscheidung 155 Scrambler 157 Seamles Handover 264 16-QAM (Quadratur Amplitude Modulation) 132 6dB-pro-Bit-Regel 79 Seitenband (uS, oS) 112 Selctive Reject (SREJ) 196 Sendegrundimpuls 129, 154 Sendeimpulsmaske 141, 154 Sendenummer 195 Sender 6, 119, 153 serielle Übertragung 149 Service Access Point (SAP) 205 Serving GPRS Support Node (SGSN) 281 Serving Network Domain 285 Set Asynchronous Balanced Mode (SABM) 196 shannonische Funktion 214 shannonische Kanalkapazität 175 shannonsches Kommunikationsmodell 6 Short Message Service (SMS) 254 Sicherheitsmerkmale 255
362 si-Funktion 23, 45, 53 Signal 3, 13 analoges 15 binäres 15 bipolares deterministisches 17 digitales 15 periodisch 16 stochastisches 18 wertdiskret /-kontinuierlich 15 zeitdiskret /-kontinuierlich 14 Signal-Quantisierungsgeräusch-Verhältnis, Signal-Geräusch-Verhältnis, Signal-RauschVerhältnis (SNR, S/N) 78, 124, 161 Signalraum-Konstellation 132 Signalrückführung 96 Signalvektor 132 Signalverzögerung 50 si-Impuls 172 si-Interpolation 74 Simulation 92 Simplex-Übertragung 149 Skalierbarkeit 104 Slow Frequency Hopping 265 Socket 206 Spectral Band Replication 99, 103 Spektralanalyse 86 spektrale Auflösung 91 spektrale Effizienz 129, 153, 259 Spektrum 28, 44, 90 Sperrbereich /-frequenz /-toleranz 35 Spitzenwertreduktion 143 Splitter 178 Spreizbandtechnik 287, 289 Spreizcode 287 Spreizfactor 290 Spurious Emissions 141 Stabilität (BIBO) 63 Start-Stop-Verfahren 149 Stealing Flag 262 Steuerfeld (Control) 194 STM-1 Transport-Modul 185 Subscriber Identification Module Card (SIM-) 255 Superpositionsprinzip 19, 27 Supervisory Frame 195 Symbol 130 Symboldauer /-rate 151 Synchrone Digitale Hierarchie (SDH) 185 Synchronisation 155 Synchronisation Burst 268 Synchronisation Channel (SCH) 268 Synchronisationsfehler 164 Synchronübertragung 149
Sachwortverzeichnis Syndrom 228, 242 Syndrom-Decodierung 228 Syndromregister 224 systematischer Code 227 systematischer CRC-Code 242 System 13 1. Ordnung 31 kausales 62 lineares 62 lineares zeitinvariantes (LTI) 19, 54 stabiles (BIBO) 63 zeitinvariantes 62 Systemtheorie 13 T Takt /- intervall 151 Taktgehalt 153 Tastverhältnis 16 TCP/IP-Protokollfamilie 204 Teilnehmeranschluss 177 Teilnehmeridentifizierung 270 Telefon 1 Telegrafie 1 Telekommunikation 5 Telekommunikationsgesetz (TKG) 11 Telekommunikationsnetz (TK-Netz) 5, 8, 186 Temporary Mobile Subscriber Identity (TMSI) 273 ternärer Leitungscode 157 Tiefpass 33, 35, 36 Butterworth- 36, 96 Cauer- 37, 96 Chebyshev- 36, 96 idealer 35 RC- 32, 57 Tiefpass-Kanal 162 Tiefpass-Spektrum 52 Time Division Multiple Access (TDMA) 259 Token Bus /Ring 203 Toleranzschema 35 Traffic Channel (TCH) 267 Träger (sinusförmig) 109, 110 Trägerfrequenztechnik (TF-) / -systeme 117, 119 Trägerkreisfrequenz 109, 110 Trägermodulation 109, 110 Trailer (Nachspann) 194 Transmission Time Interval (TTI) 298 Transmitter Spectral Mask 141 Transportblock 298 Transport Control Protocol (TCP) 204 Transport Network Domain 285 Transportschicht 191 TriplePlay 179 Tschebyschow o Chebyshev
Sachwortverzeichnis
363
Ü
W
UART-Controller 152 Übermittlung 11 Übermodulation 114 Übersteuerung 76 Übertragungsfunktion 30 Übertragungsgeschwindigkeit/ -rate 151 Übertragungsmodell (Basisband) 153 UKW-Rundfunk 48, 124 Umtastung (hart, weich) 129 Ungleichmäßige Kanalcodierung 265 Unicast-Adresse 208 Universal Mobile Telecommunication System (UMTS) 252, 283 Unnumberd Acknowledgement (UA) 196 Unnumberd Frames 195 Unspecific Bitrate (UBR) 200 Untersteuerung 76 Unterträgerabstand 139, 310 Uplink 270 User Equipment Domain 284
Wegwahl-Tabelle 188 weißes Spektrum 56 Wideband CDMA (WCDMA) 286 Wiener-Filter 160 Winkelmodulation 110 Wireless Application Protocol (WAP) 256 Wireless Local Area Network (WLAN) 204, 253, 301 Wireless Markup Language (WML) 256 Wireless Metropolitan Area Network (WMAN) 204, 302 Wireless Personal Area Network (WMAN) 204, 302 World Wide Web (WWW) 205 Wortlänge 75
V
Zählerkoeffizienten /-polynm 31 Zeichengabekanal (D-Kanal) 9, 183 Zeigertelegrafie 1 Zeitdauer-Bandbreite-Produkt 53 Zeitinvarianz 62 Zeitkonstante 27, 34, 162 Zeitmultiplex 10, 183, 259 Zeitreihe 15 Zellatmung 293 Zellenvermittlung 188 zellulare Funkkapazität 260, 294 Zero Insertion 194 ZigBee-Alliance 302 Zugangsberechtigung 256 2er-Komplement-Format 76 Zweiseitenband-AM 101 mit Träger 103 Zweitor 30 zyklische Erweiterung 143, 311
verbindungslos /-orientiert 187 Verkehrslenkung 10 Verkehrsparameter 201 Verkehrsvertrag 198, 200 Vermittlungsschicht 191 Verschlüsseleung 272 Vertraulichkeit 256 Verwürfelungscode 291 Verzerrungen lineare 49 nichtlineare 51 verzerrungsfreie Übertragung 49 Vielfachzugriffsinterferenz 290 Virtual Channel Identifier (VCI) 199 Virtual-circit Number (VCN) 188 Virtual Path Identifier (VPI) 199 Visitors Location Register (VLR) 258 Voltage Controlled Oscillator (VCO) 125
X, Y xDSL (Digital Subscriber Line) 177 X-On/X-Off-Handshake 151 Z