Unit Interval

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Das Unit Interval, abgekürzt UI, ist eine Hilfsmaßeinheit zur Bewertung von Jitter (zeitliches Taktzittern bei der Übertragung von Digitalsignalen) im Rahmen der digitalen Signalverarbeitung und wird unter anderem in der ITU-T G.810 und bei digitalen Videoschnittstellen wie dem Serial Digital Interface (SDI) verwendet.[1][2]

Ein Unit Intervall (1 UI) entspricht der Zeitdauer zur Übertragung eines Sendesymbols. Durch Jitter treten bei der konkreten Zeitdauer Abweichungen auf, wodurch es infolgedessen zu Übertragungsfehlern kommen kann. Typische Grenzwerte für Jitter liegen im Bereich von 0,1 UI bis 0,3 UI. Ab 0,5 UI ist die so genannte horizontale Öffnung im Augendiagramm geschlossen und es tritt Symbolübersprechen auf.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Mike Peng Li: Jitter, Noise, and Signal Integrity at High-Speed. Prentice Hall, Upper Saddle River NJ u. a. 2008, ISBN 978-0-13-242961-0.
  • Dennis Derickson, Marcus Müller: Digital Communications Test and Measurement. High Speed Physical Layer Characterization. Prentice Hall, Upper Saddle River NJ u. a. 2007, ISBN 978-0-13-220910-6.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. ITU-T Recommendation G.810: Definitions and Terminology for Synchronization Networks, August 1996
  2. Jitter Measurement for Serial Digital Video Signals. Tektronix Inc. Firmenschrift, 2006 (PDF).