Diskussion:UTF-7

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 11 Jahren von Wernfried in Abschnitt Unicode-Kodierung
Zur Navigation springen Zur Suche springen

Also, ich bin noch fast ganz neu hier, und hab da einProblem mit diesem Artikel:

"Unicode hingegen verwendet 16 oder 32 Bit, um ein Zeichen zu kodieren. Eine Übermittlung von Unicode-Zeichen per E-Mail oder im Usenet erfordert daher eine Umwandlung in eine 7-bit-Kodierung."

Unicode verwendet überhaupt keine Bits um Zeichen zu kodieren, da Unicode kein encoding ist. (nicht signierter Beitrag von 87.172.104.73 (Diskussion | Beiträge) 21:02, 29. Dez. 2009 (CET)) Beantworten

Das ist nicht ganz richtig. UTF-7 zum Beispiel verwendet 7 bit. Und utf-8 benutzt 8 bit ketten.

Gruß, Jogla

Ja, UTF-7 kodiert Unicode-Texte so, dass sie nur mit 7-bit-ASCII-Zeichen dargestellt werden. Was ist daran nicht verständlich? --RokerHRO 18:07, 19. Aug 2004 (CEST)
Ich meine die Aussage, dass Unicode 16 oder 32 Bit Ketten benutzt. Utf-8 zum Beispiel ist ja Unicode und benutz 8, 16, 24 oder 32 Bit Ketten, wenn ich das richtig verstanden habe. -- Jogla
Hm, du kannst doch auch die 16- oder 32-bittigen Unicode-Zeichen in einem 8-bit-Datenstrom transportieren. Eben einfach Highbyte+Lowbyte für jedes Zeichen hintereinander. :-) Nur können die dabei auftretenden 8-bit-Werte jeden Wert von 0...255 annehmen, womit viele Mail-Gateways nicht klarkommen. UTF-7 kodiert die 16-bit-Unicode-Zeichen so um, dass sie ebenfalls einen Strom (engl. stream) von 8-bittigen Zeichen ergeben. Nur ist in diesem Bytestrom das oberste Bit in jedem Byte 0. Somit werden effektiv nur 7bit pro Oktett genutzt. Und von diesen 128 möglichen Bytewerten werden noch weitere "nicht mail-sicherer" ausgeschlossen, sprich: umkodiert. --RokerHRO 15:22, 27. Aug 2004 (CEST)

Vorschlag für eine totale Überarbeitung des Artikels[Quelltext bearbeiten]

Der Artikel enthält einige sachliche Fehler, beispielsweise:

  • UTF-7 ist kein Unicode Transformation Format, vgl. [1]
  • die Zeichen A-Za-z0-9'(),./:?- werden nicht immer so übermittelt, wie sie sind

Der Artikel ist auch nicht gut gegliedert und lässt einige wesentliche Aspekte aus.

Wesentlich besser ist der englische Artikel en:UTF-7.

Ich schlage vor,

  • entweder den englischen Artikel zu übersetzen, eventuell zu ergänzen und mit aussagekräftigeren Beispielen [2] zu versehen
  • oder einen ganz neuen Artikel zu schreiben, gegliedert wie [3], aber ausführlicher.

Meinungen dazu?

  • Grundlegend neu oder einzelne Fehler korrigieren?
  • Aus Wikipedia (en) übersetzen oder neu schreiben?

--134.34.1.209 16:41, 30. Nov. 2007 (CET)Beantworten

Dann mal los! --Benji 21:19, 30. Nov. 2007 (CET)Beantworten

Unicode-Kodierung[Quelltext bearbeiten]

"nicht Bestandteil der Unicode-Kodierung. " - was heisst das bitte(speziell im Vergleich zu UTF-8 &Co)? und was ist 'die Unicode-Kodierung'? --Itu 14:45, 18. Sep. 2011 (CEST)Beantworten

Ganz einfach, du wirst auf der www.unicode.org Webseite, bzw. in den Dokumenten nirgendwo die Definition für UTF-7 finden.
In der Unicode Spezifikation (Kapitel 3.9 Unicode Encoding Forms, ) steht eindeutig: "The Unicode Standard supports three character encoding forms: UTF-32, UTF-16, and UTF-8.", siehe http://www.unicode.org/versions/Unicode6.1.0/ch03.pdf#G7404.--Wernfried (Diskussion) 09:23, 17. Aug. 2012 (CEST)Beantworten