Census-Transformation

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Census-Transformation (CT) (engl. Census Transform) wurde von Zabih und Woodfill vorgeschlagen[1] und berechnet für jeden quadratischen Pixelbereich eines Bildes einen Bit-String als Signatur[2].

Dadurch können insbesondere über die Hamming-Distanz der Bit-Strings schnell übereinstimmende Bereiche der Bilder ermittelt werden – beispielsweise zur Erzeugung einer disparity map als Vorstufe zur Bestimmung des optischen Flusses (optical flow) oder einer Stereo Disparität (stereo matching) von zeitlich folgenden bzw. gleichzeitig aufgenommenen Bildern.

Algorithmus[Bearbeiten | Quelltext bearbeiten]

Der Grauwert des zentralen Pixels wird einzeln mit seinen Nachbarn (Anzahl N) verglichen und das Ergebnis (N × 1 Bit) als Zahl abgespeichert (Bit-String) – wobei das Bit „0“ einen Wert größer und das Bit „1“ einen Wert kleiner oder gleich dem Grauwert des zentralen Pixels kennzeichnet. Meist wird eine 3×3-Umgebung betrachtet und der triviale Vergleich mit sich selbst ausgelassen (3 × 3 − 1 = 8 Bit = 1 Byte). Jedoch ist auch die Betrachtung einer 5×5-Umgebung gebräuchlich (5 × 5 − 1 = 24 Bit).

Die Reihenfolge der Ergebnisbits ist beliebig (aber fest) und kann beispielsweise im Uhrzeigersinn angeordnet sein.

Dadurch entsteht ein Signatur-Vektor (z. B. „11001011“ bei einer 3x3 Umgebung) für den zentralen Pixel, welcher mit anderen Signatur-Vektoren verglichen werden kann.

Dreiwertige Census-Transformation[Bearbeiten | Quelltext bearbeiten]

Die von Zabih und Woodfill vorgeschlagene Census-Transformation wurde von Stein durch einen -Parameter erweitert, wodurch ähnliche Pixel repräsentiert werden können (und damit eine gewisse Unschärfe bzw. Rauschen toleriert wird). Dadurch entsteht eine 3-wertige (three-moded) Census-Transformation, die hier in der von Stein gewählten Definition zusammen mit einem Beispiel gezeigt wird:

Bei der dreiwertigen Census-Transformation werden also zwei Bit benötigt, was die Länge des Vergleichsvektors verdoppelt.

Modifizierte Census-Transformation[Bearbeiten | Quelltext bearbeiten]

Andererseits wird bei der erstmals von Fröba und Ernst vorgeschlagenen modifizierten Census-Transformation (modified CT, MCT) die Umgebung (Nachbarn und Zentralpixel) mit dem Mittelwert der 3×3-Umgebung verglichen. Dadurch hat die Filterantwort jedes Pixels ein Bit mehr (9 bzw. 25 Bit).

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

  • kaum abhängig von Helligkeitsschwankungen (Belichtungszeit, regionale Schatten)
  • unterscheidet Rotation und Spiegelung
  • lokaler Filter
  • Informationsverlust (d. h. das Bild ist aus der Filterantwort nicht rekonstruierbar)

Anwendungen[Bearbeiten | Quelltext bearbeiten]

Die Census-Transformation kann zur Berechnung des optischen Flusses (feature tracking), zur Bildsegmentierung oder bei der Gesichtserkennung verwendet werden. Sie ähnelt vom Konzept her den BRIEF-Features (ein Descriptor) und geht mehrfach in die Berechnung von Local Binary Patterns (LBP) ein.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. ZABIH, Ramin; WOODFILL, John. Non-parametric local transforms for computing visual correspondence. In: European conference on computer vision. Springer, Berlin, Heidelberg, 1994, S. 151–158. doi:10.1007/BFb0028345
  2. PEÑA, Dexmont; SUTHERLAND, Alistair. Non-parametric image transforms for sparse disparity maps. In: Machine Vision Applications (MVA), 14th IAPR International Conference on. IEEE, 2015, S. 291–294. doi:10.1109/MVA.2015.7153188

Quellen[Bearbeiten | Quelltext bearbeiten]

  • Ramin Zabih, John Woodfill: Non-parametric local transforms for computing visual correspondence. In: Jan-Olof Eklundh (Hrsg.): Computer Vision — ECCV ’94 (= Lecture notes in computer science. Band 801). Springer-Verlag, Berlin/ Heidelberg 1994, ISBN 3-540-57957-5, S. 151–158, doi:10.1007/BFb0028345.
  • Fridtjof Stein: Efficient Computation of Optical Flow Using the Census Transform. In: Pattern Recognition (= Lecture notes in computer science. Band 3175). Springer, Berlin/ Heidelberg 2004, ISBN 3-540-22945-0, S. 79–86, doi:10.1007/978-3-540-28649-3_10.
  • Bernhard Fröba, Andreas Ernst: Face Detection with the Modified Census Transform. In: Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition (FGR’04). doi:10.1109/AFGR.2004.1301514.
  • Zucheul Lee, Jason Juang, Truong Q. Nguyen: Local Disparity Estimation With Three-Moded Cross Census and Advanced Support Weight. In: IEEE Transactions on Multimedia. Band 15, Nr. 8, 2013, S. 1855–1864, doi:10.1109/TMM.2013.2270456.
  • Bogusław Cyganek: Comparison of Nonparametric Transformations and Bit Vector Matching for Stereo Correlation. In: R. Klette, J. Žunić (Hrsg.): Combinatorial Image Analysis. IWCIA 2004 (= Lecture Notes in Computer Science (LNCS). Band 3322). 2004, S. 534–547, doi:10.1007/978-3-540-30503-3_39.
  • Michael Calonder, Vincent Lepetit, Christoph Strecha, Pascal Fua: BRIEF: Binary Robust Independent Elementary Features. In: Computer Vision – ECCV 2010 (= Lecture notes in computer science. Band 6314). Springer, Berlin/ Heidelberg 2010, ISBN 978-3-642-15560-4, S. 778–792, doi:10.1007/978-3-642-15561-1_56 (online).