Diskussion:Claude Shannon

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 1 Jahr von T. Wirbitzki in Abschnitt Übersetzung
Zur Navigation springen Zur Suche springen
Zum Archiv
Wie wird ein Archiv angelegt?
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 7 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.
Vorlage:Autoarchiv-Erledigt/Wartung/Festes_Ziel

Abtastfrequenz[Quelltext bearbeiten]

"Demnach muss die Abtastfrequenz (Sampling rate) für ein Signal mehr als doppelt so groß sein wie die höchste Frequenz, die in ihm enthalten ist, bzw. die Datenrate (Symbolrate) kann maximal doppelt so hoch sein wie die zur Verfügung stehende Bandbreite (Nyquist-Shannon-Abtasttheorem)."

Hier müsste doch eigentlich die Datenrate maximal halb so hoch sein, wie die zur Verfügung stehende Bandbreite? --62.180.118.126 12:35, 23. Sep. 2008‎

Meines Erachtens nicht. Ein Gegenbeispiel ist die digitale NRZ-Kodierung. Hier wird ein Strom an binären Symbolen (0 oder 1) dadurch kodiert, daß ein digitales Übertragungssignal stabil bleibt, wenn eine 0 kodiert werden soll, und seinen Wert ändert, wenn ein Symbol "1" kodiert werden soll.
Beispiel:
000000101010111111111  Symbolfolge, wird kodiert zu:
000000110011010101010  Übertragungssignal
Wenn die Symbolrate 2Hz beträgt, dann ist die höchste Frequenz im Übertragungssignal 1Hz. Man erhält sie bei Kodierung der Symbolfoge "111111" zu "010101"
Das bedeutet, daß die Symbolrate(2Hz) doppelt so groß sein kann wie die Bandbreite (1Hz) - die ursprüngliche Aussage
Dies gilt auch wohl dann noch, wenn man das entstehende Rechteck-Übertragungssignal filtert.
Da ich nicht weiß, ob die ursprüngliche Aussage direkt von Shannon stammt und/oder wirklich korrekt ist, habe ich den Halbsatz zunächst nur entfernt, damit sicher nichts Falsches im Artikel steht.
Wer es bestätigen kann, möge es ggfs. wieder einfügen. Danke! (nicht signierter Beitrag von 85.176.232.205 (Diskussion | Beiträge) 03:46, 10. Jul 2009 (CEST))

Informationstheorie[Quelltext bearbeiten]

Kommentar aus dem Artikel hierher verschoben --84.130.244.38 18:16, 6. Feb. 2012 (CET) Beantworten

Hinweis: Das ist leider so nicht richtig: "Die Informationstheorie wurde entwickelt von [[Claude Elwood Shannon]" - Shannon hat keine "Informationstheorie" entwickelt. Es ist ein Unding, daß immer und immer wieder falsch voneinander abgeschrieben und sogar so gelehrt wird.

Shannon hat stets darauf bestanden, daß er eine "Kommunikationstheorie" entwickelt hat, all dieweil die Information seinerzeit erst noch der Ergründung und Beschreibung bedurfte und weil diese substanziell weit über die Arbeit Shannons an den Signalen der Informations-Technik, der Kommunikation, hinausreiche und nichts mit seinen technisch mathematischen Erkenntnissen zu tun habe, er beschäftige sich mit Signalen, nicht mit Information. Signale können Information tragen, müssen aber nicht. Datenübertragung sei noch lange keine Informationsübertragung. (Leider von unterwegs, die Quellen nicht zur Hand, dürfte nicht schwer sein, sie bei Shannon zu finden). Lu.R. (nicht signierter Beitrag von 77.186.177.140 (Diskussion) 04:21, 5. Feb. 2012‎ (CET)) Beantworten

was willst du uns damit sagen? die informationstheorie gibt es zweifellos, und Shannon hat wensentlich zu ihr beigetragen, auch wenn er sie nicht so genannt hat. wenn du anderslautende quellen findest, kannst du sie gerne posten. --Mario d 18:58, 6. Feb. 2012 (CET)Beantworten

Übersetzung[Quelltext bearbeiten]

Woher stammt „Mathematische Grundlagen in der Informationstheorie“ als Übersetzung von „A Mathematical Theory of Communication“?—Godung Gwahag (Diskussion) 15:26, 8. Aug. 2019 (CEST)Beantworten

Ist der deutsche Titel des Buchs, z.B. hier--Claude J (Diskussion) 16:38, 8. Aug. 2019 (CEST)Beantworten
Das genannte Buch besteht aus zwei Artikeln, einer von Weaver und einer von Shannon, siehe z.B. hier.
Die Abhandlung von Shannon heißt dort Die mathematische Theorie der Kommunikation. 24 Jahre später wurde die Übersetzung noch einmal überarbeitet, siehe z.B. hier, nunmehr unter dem Titel Eine mathematische Theorie der Kommunikation.
Ist es Ok, wenn ich diesen Titel nachpflege? --T. Wirbitzki (Diskussion) 15:55, 8. Okt. 2022 (CEST)Beantworten

Entropie[Quelltext bearbeiten]

Entropie verlinkt aktuell auf den physikalischen Begriff, nicht auf den aus der Informationstheorie.—Godung Gwahag (Diskussion) 15:26, 8. Aug. 2019 (CEST)Beantworten

Soll es auch, Informationstheorie im zweiten Teil des Satzes verlinkt auf die informationstheoretische Entropie.--Claude J (Diskussion) 16:40, 8. Aug. 2019 (CEST)Beantworten

Shannon-Index[Quelltext bearbeiten]

Sollte der Shannon-Index nicht irgendwo erwähnt werden? --Lsky (Diskussion) 15:24, 24. Jan. 2022 (CET)Beantworten

jetzt unter "siehe auch"--Claude J (Diskussion) 18:20, 24. Jan. 2022 (CET)Beantworten