GAIA Visual Language Fernerkundungsbild-Verständnisdatensatz
Datum
Größe
Veröffentlichungs-URL
GAIA ist ein globaler, multimodaler, mehrskaliger Bildsprachendatensatz für die Fernerkundungsbildanalyse, der die Lücke zwischen Fernerkundungsbildern (RS) und dem Verständnis natürlicher Sprache schließen soll. Es wurde 2025 von Forschern der Nationalen Technischen Universität Athen, der Harokopio-Universität Athen und der Technischen Universität München veröffentlicht.GAIA: Ein globaler, multimodaler, mehrskaliger Vision-Language-Datensatz für die Fernerkundungsbildanalyse". Es bietet 205.150 Bild-Text-Paare (41.030 Bilder mit jeweils 5 synthetischen Beschreibungen), um die Entwicklung fernerkundungsspezifischer Vision-Language-Modelle (VLMs) voranzutreiben. Der Datensatz umfasst 25 Jahre Erdbeobachtungsdaten (1998-2024) und deckt ein breites Spektrum geografischer Gebiete, Satellitenmissionen und Fernerkundungsmodalitäten ab.
Datensatzstruktur
GAIA wurde in Trainingssatz (70%), Testsatz (20%) und Validierungssatz (10%) unterteilt, und diese Unterteilungen sind zeitlich und räumlich geschichtet. Die Partitionierung des Datensatzes wird als JSON-Datei bereitgestellt, die mit dem Tool img2dataset kompatibel ist. Dieser Ansatz ermöglicht es Forschern, nahtlos auf Datensätze zuzugreifen und diese für Forschungszwecke zu rekonstruieren.
Jeder Eintrag enthält einen Satz aus dem Web gescrapter Daten (z. B. Bildquelle, Bildbeschreibung, Copyright-Hinweis), extrahierter Daten (z. B. Standort, Tags, Auflösung, Satellit, Sensor, Modalität) oder synthetisch generierter Daten (z. B. Breitengrad, Längengrad, Beschreibung).
