Avro ist ein Daten-Serialisierungssystem, das im Rahmen des Apache Hadoop Projekts entwickelt wurde. Es bietet eine reichhaltige Datenstruktur, ein kompaktes, schnelles, binäres Datenformat, eine Containerdatei zur Speicherung persistenter Daten, Remote Procedure Call (RPC) und eine einfache Integration in dynamische Sprachen. Avro verwendet JSON zur Definition von Datentypen und Protokollen und serialisiert Daten in einem kompakten Binärformat. Die primäre Anwendung liegt in Hadoop, wo es für die Daten-Serialisierung und den Datenaustausch genutzt wird. Avro eignet sich besonders gut für Anwendungen, die eine Schema-Evolution erfordern, da es das Schema zusammen mit den Daten speichert. Dies ermöglicht es Leseprogrammen, Daten zu verarbeiten, selbst wenn sich das Schema seit dem Schreiben der Daten geändert hat. Die Schema-Evolutionsfähigkeiten von Avro, kombiniert mit seinem effizienten Binärformat, machen es zu einer beliebten Wahl für die Datenspeicherung und den Austausch in Big-Data-Umgebungen. Es unterstützt komplexe Datentypen und ist darauf ausgelegt, sowohl beim Lesen als auch beim Schreiben von Daten hochperformant zu sein. Avro-Dateien werden häufig zur verteilten Speicherung großer Datensätze verwendet.