Shannon-Hartley-Gesetz

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Shannon Limit)
Zur Navigation springen Zur Suche springen

Das Shannon-Hartley-Gesetz beschreibt in der Nachrichtentechnik die theoretische Obergrenze der Bitrate eines Übertragungskanals in Abhängigkeit von Bandbreite und Signal-zu-Rausch-Verhältnis, über den mit einer gewissen Wahrscheinlichkeit eine fehlerfreie Datenübertragung möglich ist. Es ist nach Claude Elwood Shannon und Ralph Hartley benannt.[1][2]

In der Praxis wird die erzielbare Bitrate von Eigenschaften wie der Kanalkapazität und von Verfahren wie der Kanalkodierung beeinflusst. Das Shannon-Hartley-Gesetz liefert das theoretische Maximum, das mit einer hypothetischen optimalen Kanalkodierung erreichbar ist, ohne darüber Auskunft zu geben, mit welchem Verfahren dieses Optimum zu erreichen ist.

Über einen perfekten (d. h. störungsfreien) Übertragungskanal könnte man theoretisch Daten in unbegrenzter Menge übertragen. Da aber real existierende Kanäle sowohl in ihrer Bandbreite begrenzt als auch Störungen wie Einstreuungen, thermischem Rauschen, endlichem Widerstand des Leiters usw. unterworfen sind, ist die maximal mögliche Übertragungsrate begrenzt. Die Übertragungsrate wird durch die folgenden beiden Faktoren begrenzt:

  1. Die Bandbreite des Übertragungsweges bestimmt die maximal mögliche Symbolrate, also wie viele einzelne Symbole in einer gegebenen Zeitspanne sicher übertragen werden können.
  2. Die Stärke der auf dem Übertragungsweg entstandenen bzw. eingefangenen Störungen, beschrieben durch das Signal-Rausch-Verhältnis, begrenzt den maximalen Informationsgehalt eines Symbols, d. h., wie viele unterschiedliche Symbole am Empfänger noch sicher unterschieden werden können.

Vereinfachend gesagt bestimmt die Bandbreite, wie oft bei der Übertragung durch ein Kabel die Spannung in einer gegebenen Zeitspanne geändert werden kann, und das Signal-Rausch-Verhältnis, wie viele verschiedene Spannungspegel dabei beim Empfänger noch sicher unterschieden werden können.

Präziser drückt das Shannon-Hartley-Gesetz den Umstand aus, dass bei einem durch Störungen wie Rauschen gestörten Übertragungskanal eine mittels Kanalcodierung erzielbare fehlerfreie Datenübertragung mit einer Wahrscheinlichkeit von δ > 0 möglich ist, wenn die realisierte Bitrate CR kleiner als die durch das Shannon-Hartley-Gesetz gebildete Grenze CS ist. Ein Merkmal ist dabei, dass dabei keine Aussage getroffen wird, mit welcher konkreten Kanalcodierung oder welchem technischen Verfahren dieser Fall erreicht werden kann. Liegt die realisierte Bitrate CR über der Grenze von CS, beträgt die Wahrscheinlichkeit für Fehlerfreiheit δ = 0, was bedeutet, dass unabhängig von den eingesetzten Verfahren keine fehlerfreie Datenübertragung möglich ist.

Mathematische Beschreibung

[Bearbeiten | Quelltext bearbeiten]

Rauschfreier Übertragungskanal

[Bearbeiten | Quelltext bearbeiten]

Die maximale Datenübertragungsrate CN bei einem störungsfreien Übertragungskanal mit der Bandbreite B ist gegeben durch:

Die Bandbreite B wird in Hertz angegeben, die Datenübertragungsrate in Symbole pro Sekunde (Baud).

Bei binärem Symbolalphabet mit nur zwei Zeichen ist die Bitrate, gemessen in bit/s (bps), gleich der Symbolrate, gemessen in Baud. Stehen L Symbole zur Verfügung, lassen sich ld(L) Bits pro Symbol darstellen:

wobei der Ausdruck ld(·) den Logarithmus zur Basis 2 bezeichnet.

Beispiel: Bei einer Bandbreite von 1000 Hz können maximal 2000 baud übertragen werden. Bestehen die Symbole aus einem Bit, z. B. „0“ oder „1“, erreicht man eine Datenrate von 2000 bit/s. Handelt es sich um 26 Zeichen des deutschen Alphabets (ohne Sonderzeichen), ist die Datenrate mit 9400 bit/s um den Faktor ld(26) größer. Durch Wahl hinreichend vieler unterschiedlicher Symbole kann auf einem rauschfreien, bandbegrenzten Übertragungskanal eine beliebig hohe Bitrate erzielt werden.

Übertragungskanal mit Rauschen

[Bearbeiten | Quelltext bearbeiten]

Claude Shannon verallgemeinerte dieses Theorem. Für einen mit additivem weißem gaußschem Rauschen gestörten Kanal, abgekürzt AWGN-Kanal, nimmt das Shannon-Hartley-Gesetz folgende Form an:

CS stellt die (bei diesem Kanalmodell) maximal mögliche Bitrate (Bits pro Sekunde) dar, S die Signalleistung. Der Parameter N stellt die spektral konstante Rauschleistung dar, das Verhältnis S/N wird auch als Signal-Rausch-Verhältnis (SNR) bezeichnet. Die Rauschleistung N kann auch durch die Energie der Rauschleistungsdichte N0 über die Bandbreite B ausgedrückt werden.

Die maximal mögliche Bitrate stellt eine obere Grenze unter der Voraussetzung von weißem Rauschen dar. Bei Kanalmodellen, die nicht dem AWGN-Kanal entsprechen, wie auch bei unterschiedlichen spektralen Rauschleistungsdichten ergeben sich andere Zusammenhänge.

Beispiel: Über eine Leitung mit dem SNR von 20 dB lassen sich bei einer verfügbaren Bandbreite von 1000 Hz maximal 6,7 kbit/s übertragen.

Rechnung:

  1. Umwandlung von SNR in S/N: SNR = 10 · log10(S/N) → 20 dB = 10 · log10(x) ↔ 2 dB = log10(x) ↔ 10² = x ↔ x = 100 → S/N = 100
  2. Berechnung der Übertragungskapazität: CS = fmax · log2(1 + S/N) = 1000 Hz · ln(1 + 100) ÷ ln(2) bit = 1000 · ln(101) ÷ ln(2) bit/s ≈ 6658 bit/s ≈ 6,7 kbit/s

Diese Bitrate lässt sich beispielsweise durch entsprechende Kanalcodierung wie den Turbo-Codes annähernd in der Praxis erreichen.

Weitere Werte zur Abschätzung bei einer Bandbreite von B = 1 Hz (Werte gerundet):

SNR Cs SNR Cs SNR Cs
–30 dB 0,001 442 bit/s 0 dB 1,000 bit/s +20 dB 06,658 bit/s
–20 dB 0,014 355 bit/s +3 dB 1,582 bit/s +40 dB 13,288 bit/s
–10 dB 0,137 503 bit/s +6 dB 2,316 bit/s +60 dB 19,932 bit/s
–6 dB 0,323 299 bit/s +10 dB 3,459 bit/s +80 dB 26,575 bit/s
–3 dB 0,586 104 bit/s +15 dB 5,028 bit/s +100 dB 33,219 bit/s
Bitfehlerhäufigkeit als Funktion von Eb/N0

Wird bei konstant gehaltener Signalleistung S und konstanter spektraler Rauschleistungsdichte N0 nur die Bandbreite B erhöht, lässt sich die maximal mögliche Bitrate CS bis auf

steigern. Dies bedeutet, dass sich auch durch eine gegen unendlich ausgedehnte Bandbreite B des Übertragungskanals die maximal mögliche Bitrate nur begrenzt steigern lässt.

In realen Übertragungssystemen lässt sich auch die Energie Eb, die zur Übertragung von einem Bit aufgewendet werden muss, variieren. Zur Übertragung erfordert dies eine Signalleistung S für die Dauer T. Die tatsächliche Bitrate CR liegt immer unter der maximal möglichen Bitrate CS:

Diese Gleichung beschreibt die Shannon-Grenze (engl. Shannon limit) als Funktion von Eb/N0: x(Eb/N0). Die Relation CR/B = x beschreibt, wie viele bit/s pro Hertz Bandbreite mit einer bestimmten Übertragungstechnik in Abhängigkeit vom SNR übertragen werden können, und wird als die spektrale Effizienz bezeichnet. In der rechten Darstellung sind die Verläufe von unterschiedlichen Übertragungsverfahren mit Farben blau, rot und grün dargestellt.

Als Grenzfall bei Gleichsetzung der obigen Ungleichung und wenn die spektrale Effizienz gegen 0 bit/s pro Hz Bandbreite geht, ergibt sich nach Umformen das untere Limit des SNR zu:

Dies drückt den Umstand aus, dass unter einem Verhältnis von Eb/N0 = −1,6 dB in einem AWGN-Kanal keine fehlerfreie Datenübertragung möglich ist. Bei diesem Verhältnis handelt es sich nicht um das S/N, sondern um die Energie Eb, die zur Übertragung der Informationsmenge von einem Bit bei spektraler Rauschleistungsdichte N0 minimal aufgewendet werden muss. Sie ist im rechts dargestellten Diagramm für die Verhältnisse von Eb/N0 bei verschiedenen Kanalcodierungen als senkrechte schwarze Grenzlinie eingezeichnet.[3]

Jener Grenzwert gilt für kleine spektrale Effizienz mit x ≪1. Solche Signale werden auch als leistungsbegrenzte Signale bezeichnet, in denen die Bandbreite groß, aber die zur Verfügung stehende Leistung limitiert ist. Beispielsweise ist die Kommunikation zu Raumsonden leistungsbegrenzt, während die Abstrahlung auf einem großen Frequenzband erfolgt. Dieser Abschnitt der Shannon-Grenze ist in der rechten Abbildung in der Farbe Schwarz dargestellt.

Für die spektrale Effizienz x ≫1 ist hingegen die Bandbreite B der limitierende Faktor, diese Signale werden als bandbegrenzte Signale bezeichnet. Beispielsweise sind terrestrische digitale Funkverbindungen mit spektral effizienten Modulationsverfahren wie 1024-QAM typische bandbreitenbegrenzte Signale.

Shannons geometrisch-stochastischer Ansatz

[Bearbeiten | Quelltext bearbeiten]

In der Arbeit „Communication in the presence of noise“ modellierte Claude Elwood Shannon den Übertragungskanal als reellen Vektorraum. Jedes übertragbare Symbol ist eine Koordinate in diesem Vektorraum. Da in der Zeit beliebig viele Symbole übertragen werden können, ist der Vektorraum unendlichdimensional. Jeder Koordinate entspricht ein Basissignal, d. h. eine reellwertige, von der Zeit abhängige Funktion. Der Einfachheit des Modells halber sollen sich die Basissignale periodisch wiederholen, wobei die Kopien sich nur um eine Zeitverschiebung unterscheiden. Z. B. könnte das (k + nD)-te Basissignal identisch zum k-ten Basissignal sein bis auf eine Zeitverschiebung um nT. Dabei ist D die Anzahl der „elementaren“ Basissignale, deren Abfolge sich mit Periode T wiederholt. Man kann dann davon sprechen, dass im Zeitraum nT eine Anzahl von nD Symbolen übertragen werden kann.

Es sei angenommen, dass die den Koordinaten zugeordneten Basissignale zueinander orthogonal sind und insgesamt eine orthonormale Basis des Signalvektorraums aufspannen. Ein beliebiges Signal ist dann eine (unendliche) Linearkombination dieser Basissignale. Die Koeffizienten dieser Linearkombination, die den übertragenen Symbolen entsprechen, können nun durch Bilden der Skalarprodukte des Signals mit den Basissignalen zurückgewonnen werden.

Im wichtigen, theorieleitenden Beispiel der bandbeschränkten Übertragungskanäle ist die Symbolrate durch die maximale Frequenz W auf 2 W begrenzt. In einem Zeitintervall endlicher Länge T kann also nur eine endliche Anzahl D von Symbolen übertragen werden. Diese spannen einen Untervektorraum der Dimension D im Signalvektorraum auf. Es sei die nach dem Abtasttheorem maximale Dimension D = 2WT angenommen.

Beispiele für Basissignale

[Bearbeiten | Quelltext bearbeiten]

Im Folgenden werden einige mathematische, d. h. idealisierte Übertragungskanäle mit ihren Systemen von Basisfunktionen aufgeführt, die die obigen Annahmen für einen Signalvektorraum erfüllen. Diese sind sämtlich bandbeschränkt, wobei neben dem „elementaren“ Basisbandkanal auch Systeme von Basissignalen für Kanäle mit von Null verschiedener minimaler Frequenz angegeben werden können.

Shannon benutzte als einfachstes Signalmodell die Basisbandsignale mit einer höchsten Frequenz W. Nach dem WKS-Abtasttheorem (für Whittaker-Kotelnikow-Shannon, siehe Nyquist-Shannon-Abtasttheorem) können in diesem Kanal gerade 2WT Symbole im Zeitraum T übertragen werden, die Basissignale sind sinc-Funktionen

,

n = …, −1, 0, 1, … Diese haben jeweils ihr Zentrum bzw. Maximum bei , d. h. die Symbolrate beträgt 2 W. Dieses Orthonormalsystem ist die ideale theoretische Modellierung des frequenzbeschränkten PCM-Verfahrens (Puls-Code-Modulation).

Das ideale QAM-System (Quadraturamplitudenmodulation) überträgt mit Symbolrate W Daten auf dem Frequenzband [F-W/2, F+W/2]. Dabei muss die mittlere Trägerfrequenz F ein ganzzahliges Vielfaches der Bandbreite W sein. Die Symbole sind hier komplexe Zahlen , d. h. Punkte in der Gaußschen Zahlenebene. Es werden also wieder 2WT reelle Zahlen im Zeitraum T übertragen. Pro komplexem Symbol muss es auch zwei Basisfunktionen geben, diese können zu einer komplexwertigen Funktion zusammengefasst werden:

,

n = …, −1, 0, 1, … Jedes Signal ergibt sich dann als Summe über .

Das ideale OFDM-System (Orthogonal Frequency Division Multiplexing) überträgt mit Symbolrate W/M einen komplexwertigen Vektor der Dimension M auf dem Frequenzband [F-W/(2M),F+W+W/(2M)]. F muss ein ganzzahliges Vielfaches der Datenrate W/M sein. Es muss also 2M reellwertige Basissignale pro vektorwertigem Symbol geben, die zu M komplexwertigen Funktionen zusammengefasst werden können

,

j = 0, …, M-1, n = …, −1, 0, 1, …

Da die sinc-Funktion technisch nicht zu realisieren ist, muss man andere Lösungen finden. Durch Frequenzfilter wird die Orthogonalität der Basissignale zerstört, es entstehen gegenseitige Störungen innerhalb des Symbols (ICI) und zwischen den Symbolen (ISI). Erhöht man die Taktrate der Signalerzeugung, ohne die Datenrate zu erhöhen, so kann man die gewonnene Freiheit zur Formung eines schon ohne Filterung frequenzbeschränkten Signals nutzen. Eine Variante davon benutzt Wavelet-Paket-Bäume.

Übertragung im rauschgestörten Kanal

[Bearbeiten | Quelltext bearbeiten]

Es seien die reellen Basissignale mit einem einzelnen Index durchnummeriert und ein Zeitraum T so fixiert, dass innerhalb dieses Zeitraums D=2WT Basissignale liegen. Gleichmäßiges, auf den Übertragungskanal beschränktes Rauschen kann durch Linearkombinationen ebendieser Basissignale mit normalverteilten, voneinander unabhängigen zufälligen Koeffizienten der Varianz simuliert werden.

Ein Code der Länge D, d. h. ein Tupel reeller Zahlen, wird als kontinuierliches Signal gesendet. Während der Übertragung wird diesem eine Störung linear überlagert, das empfangene, gestörte Signal ist

.

Geometrie der Signalpunkte

[Bearbeiten | Quelltext bearbeiten]

Sei das Signal auf eine durchschnittliche Leistung beschränkt, wobei Leistung direkt dem Amplitudenquadrat entspreche. Das ist zulässig, da am Ende nur Verhältnisse verschiedener Leistungen verglichen werden, weitere konstante Faktoren sich also kürzen. Da die Basissignale orthonormal sind, hat das kontinuierliche Signal die Quadratsumme seiner Koeffizienten als Leistung, d. h. .

Anders gesagt, der Code ist ein Punkt auf einer D-dimensionalen Sphäre mit Radius .

Die Quadratsumme der D voneinander unabhängigen Fehler liegt nach dem Gesetz der großen Zahlen dicht bei ihrem Erwartungswert DN. Damit liegt der empfangene Code mit sehr hoher Wahrscheinlichkeit innerhalb einer Kugel vom Radius mit dem gesendeten Code als Mittelpunkt. Da die Störungen als von Signal unabhängig vorausgesetzt werden, liegt die Quadratsumme des empfangenen Codes mit hoher Wahrscheinlichkeit nahe dem Erwartungswert , d. h. nahe der Sphäre mit dem Radius um den Nullpunkt.

Zufällige Konfiguration

[Bearbeiten | Quelltext bearbeiten]

Es sei eine Konfiguration von M = 2DB zufällig ausgewählten Codes mit mittlerer Leistung P fixiert, welche M verschiedenen digitalen Botschaften entsprechen soll, d. h. es werden Bit mittels D Basissignalen oder B Bit pro Basissignal kodiert.

Von den kleinen Kugeln mit Radius um die Codes der Konfiguration passen maximal

Stück in die große Kugel der empfangbaren Signale, d. h. für die maximale Bitrate gilt (mit D/2 = WT)

.

Abschätzung des Übertragungsfehlers

[Bearbeiten | Quelltext bearbeiten]

Für sehr großes D liegen die gesendeten Codes auf einer Kugel mit Radius und die empfangenen Codes mit hoher Wahrscheinlichkeit in Kugeln mit Radius um diese und auf der Kugel mit Radius . Man kann also den empfangenen Code mit allen Codes aus der Konfiguration vergleichen, um den zu bestimmen, der einen Abstand kleiner r hat.

Die Fehlerkugel mit Radius r und mit Mittelpunkt auf der Sphäre der empfangenen Codes überstreicht einen Bereich in der Sphäre der gesendeten Codes, welcher seinerseits innerhalb einer Kugel mit Radius liegt. Die Wahrscheinlichkeit, dass ein zufälliger Code außerhalb dieses Bereichs liegt, ist also größer als

.

Dass alle M-1 von dem gesendeten Code verschiedenen Codes der Konfiguration außerhalb dieses Bereichs liegen, hat also eine Wahrscheinlichkeit, die größer ist als

.

Soll eine Fehlerwahrscheinlichkeit e unterschritten werden, d. h. obiger Ausdruck größer als 1 − e sein, so erhält man nach Umstellen für die Bitrate

.

im zweiten Summanden ist negativ und im Betrage sehr groß, der Beitrag des zweiten Summanden kann aber beliebig klein gestaltet werden, wenn der Zeitraum T und damit auch die Mächtigkeit M der Konfiguration groß genug sind.

Damit kann, mit wachsender Länge der Signale in der Konfiguration, die Bitrate beliebig nahe an die ideale Bitrate herangeführt werden. Jedoch stellen Verwaltung der Konfiguration und das Suchen des am besten dem empfangenden ähnelnden Signals einer direkten praktischen Anwendung schnell wachsende Anforderungen entgegen.

  • John G. Proakis, Masoud Salehi: Communication Systems Engineering. 2. Auflage. Prentice Hall, Upper Saddle River NJ 2002, ISBN 0-13-095007-6.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Ralph V. L. Hartley: Transmission of Information. Bell System Technical Journal, 1928 (dotrose.com [PDF]).
  2. Claude E. Shannon: The Mathematical Theory of Communication. University of Illinois Press, 1949.
  3. John G. Proakis, Masoud Salehi: Communication Systems Engineering. 2. Auflage. Pearson Education International, ISBN 0-13-095007-6.