Benutzer:TheRubyC/Apache Parquet

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Dieser Artikel (Apache Parquet) ist im Entstehen begriffen und noch nicht Bestandteil der freien Enzyklopädie Wikipedia.
Wenn du dies liest:
  • Der Text kann teilweise in einer Fremdsprache verfasst, unvollständig sein oder noch ungeprüfte Aussagen enthalten.
  • Wenn du Fragen zum Thema hast, nimm am besten Kontakt mit dem Autor TheRubyC auf.
Wenn du diesen Artikel überarbeitest:
  • Bitte denke daran, die Angaben im Artikel durch geeignete Quellen zu belegen und zu prüfen, ob er auch anderweitig den Richtlinien der Wikipedia entspricht (siehe Wikipedia:Artikel).
  • Nach erfolgter Übersetzung kannst du diese Vorlage entfernen und den Artikel in den Artikelnamensraum verschieben. Die entstehende Weiterleitung kannst du schnelllöschen lassen.
  • Importe inaktiver Accounts, die länger als drei Monate völlig unbearbeitet sind, werden gelöscht.
Vorlage:Importartikel/Wartung-2023-07

Apache Parquet ist ein freies, quelloffenes, spaltenbasiertes Format zur Datenspeicherung aus dem Apache Hadoop Ökosystem. Es ist ähnlich zu den ebenfalls aus Hadoop stammenden Formaten RCFile und ORC und ist kompatibel mit den meisten Datenverarbeitungs-Frameworks rund um Hadoop. Es bietet eine effiziente Komprimierung und Encoding Schemes mit verbesserter Performance.

Geschichte[Bearbeiten | Quelltext bearbeiten]

Apache Parquet entstand als Gemeinschaftsprojekt von Twitter und Cloudera. Parquet sollte das Trevni columnar storage Format verbessern, das von Doug Cutting, dem Entwickler von Hadoop, entwickelt wurde.

Die erste Version, Apache Parquet 1.0, wurde im Juli 2013 veröffentlicht. Seit 27. April 2015 ist Apache Parquet ein Top-Level-Projekt der Apache Software Foundation.


Parquet wurde als Verbesserung des Trevni columnar storage Formates entwickelt, das von Doug Cutting, dem Entwickler von Hadoop erstellt wurdeThe open-source project to build Apache Parquet began as a joint effort between Twitter[1] and Cloudera.[2] Parquet was designed as an improvement on the Trevni columnar storage format created by Doug Cutting, the creator of Hadoop. The first version, Apache ParquetVorlage:Nbsp1.0, was released in July 2013. Since April 27, 2015, Apache Parquet has been a top-level Apache Software Foundation (ASF)-sponsored project.[3][4]

Features[Bearbeiten | Quelltext bearbeiten]

Apache Parquet ist mit dem Record-Shredding- und Assembly-Algorithmus [5] implementiert, der die komplexen Datenstrukturen, die zur Speicherung von Daten verwendet werden können[6], berücksichtigt. Die Werte in jeder Spalte werden an zusammenhängenden Speicherplätzen gespeichert, was folgende Vorteile mit sich bringt:[7]

  • Die spaltenweise Komprimierung ist effizient im Speicherplatz
  • Kodierungs- und Komprimierungstechniken, die auf den Datentyp in jeder Spalte abgestimmt sind, können verwendet werden
  • Abfragen, die bestimmte Spaltenwerte abrufen, müssen nicht die gesamte Zeile lesen, was die Leistung verbessert.

Apache Parquet ist mit dem Apache Thrift-Framework implementiert, was seine Flexibilität erhöht; es kann mit einer Reihe von Programmiersprachen wie C++, Java, Python, PHP usw. arbeiten. [8]


Seit August 2015[9] unterstützt Parquet die Big-Data-Verarbeitungsframeworks wie Apache Hive, Apache Drill, Apache Impala, Apache Crunch, Apache Pig, Cascading, Presto und Apache Spark. Es ist eines der externen Datenformate, die von der Python-Datenverarbeitungs- und -Analysebibliothek Pandas verwendet werden.

Komprimierung und Kodierung[Bearbeiten | Quelltext bearbeiten]

In Parquet wird die Kompression spaltenweise durchgeführt, so dass für Text- und Integer-Daten unterschiedliche Kodierungsverfahren verwendet werden können. Das ermöglicht auch die Verwendung neuerer und besserer Kodierungsverfahren, die in der Zukunft noch entwickelt werden könnten.

Kodierung von Wörterbüchern[Bearbeiten | Quelltext bearbeiten]

Parquet verfügt über eine automatische Wörterbuchkodierung, die dynamisch für Daten mit einer geringen Anzahl eindeutiger Werte (d. h. unter 105) aktiviert wird und eine erhebliche Komprimierung ermöglicht und die Verarbeitungsgeschwindigkeit erhöht.[10]

Bit packing[Bearbeiten | Quelltext bearbeiten]

Die Speicherung ganzer Zahlen erfolgt in der Regel mit 32 oder 64 Bit pro Ganzzahl. Bei kleinen Ganzzahlen ist die Speicherung effizienter, wenn mehrere Ganzzahlen in denselben Speicherplatz gepackt werden.[10]

Run-length encoding (RLE)[Bearbeiten | Quelltext bearbeiten]

Um die Speicherung des mehrfachen Auftretens desselben Wertes zu optimieren, wird ein einzelner Wert zusammen mit der Anzahl des Auftretens einmal gespeichert.[10]

Parquet implementiert eine Mischform aus Bitpacking und RLE, bei der die Kodierung je nachdem, was die besten Komprimierungsergebnisse liefert, umgeschaltet wird. Diese Strategie funktioniert gut für bestimmte Arten von Integer-Daten und lässt sich gut mit der Wörterbuchkodierung kombinieren.[10]

Vergleich[Bearbeiten | Quelltext bearbeiten]

Apache Parquet ist vergleichbar mit den Dateiformaten RCFile und Optimized Row Columnar (ORC) - alle drei fallen unter die Kategorie der kolumnaren Datenspeicherung innerhalb des Hadoop-Ökosystems. Sie alle haben eine bessere Komprimierung und Kodierung mit einer verbesserten Leseleistung auf Kosten einer langsameren Schreibgeschwindigkeit. Zusätzlich zu diesen Funktionen unterstützt Apache Parquet eine begrenzte Schema-Evolution, d. h. das Schema kann entsprechend den Änderungen in den Daten geändert werden. Es bietet auch die Möglichkeit, neue Spalten hinzuzufügen und Schemata zusammenzuführen, die sich nicht widersprechen.


Apache Arrow ist als In-Memory-Ergänzung zu On-Disk-Spaltenformaten wie Parquet und ORC konzipiert. Die Projekte Arrow und Parquet enthalten Bibliotheken, die das Lesen und Schreiben zwischen den beiden Formaten ermöglichen.

See also[Bearbeiten | Quelltext bearbeiten]

Portal: Free and open-source software – Übersicht zu Wikipedia-Inhalten zum Thema Free and open-source software

Referenzen[Bearbeiten | Quelltext bearbeiten]

Vorlage:Reflist

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Release Date.
  2. Introducing Parquet: Efficient Columnar Storage for Apache Hadoop - Cloudera Engineering Blog. 13. März 2013, archiviert vom Original am 4. Mai 2013; abgerufen am 22. Oktober 2018 (amerikanisches Englisch).
  3. Apache Parquet paves the way for better Hadoop data storage. 28. April 2015;.
  4. The Apache Software Foundation Announces Apache™ Parquet™ as a Top-Level Project : The Apache Software Foundation Blog. 27. April 2015;.
  5. The striping and assembly algorithms from the Google-inspired Dremel paper. In: github. Abgerufen am 13. November 2017.
  6. Apache Parquet Documentation.
  7. Apache Parquet Cloudera.
  8. Apache Thrift.
  9. Supported Frameworks.
  10. a b c d Announcing Parquet 1.0: Columnar Storage for Hadoop | Twitter Blogs. In: blog.twitter.com. Abgerufen am 14. September 2016.