Navigation überspringen

Data Engineering

Von der Analyse historischer Daten über das Streaming von Daten in Echtzeit bis hin zu Predictions im Bereich Machine Learning - wir begleiten unsere Kunden auf jedem Schritt entlang der Data Journey und helfen ihnen dabei, alle Daten zu berücksichtigen, optimal zu organisieren und zu analysieren.

Wir legen einen besonderen Fokus auf Streaming Data, wie zum Beispiel Telemetrie- oder Standortdaten, die in Echtzeit verarbeitet werden müssen. Dabei berücksichtigen wir auch die besonderen Herausforderungen von ortsbezogenen Daten, die beispielsweise in den Bereichen Mobilität, Logistik oder Kundendaten auftreten können. 

Wir entwickeln über den Einsatz von Produkten der Google Cloud stabile, performante und hoch skalierbare Data Pipelines und Data Stacks, die im Betrieb geringen Aufwand verursachen. Als Data Engineers mit sehr starkem Fokus auf Geodaten entwickeln wir individuelle Webservices. Unter Verwendung von Google Maps und Looker entwickeln wir für unsere Kunden komplexe Dateninfrastruktur-Anwendungen oder leichtgewichtige Webanwendungen zur Visualisierung und Analyse von Daten.

Unsere Leistungen umfassen das  Extrahieren von Daten aus verschiedenen Quellen, die Datenverarbeitung, das Aggregieren der Daten und schließlich die Visualisierung der Daten in webbasierten Anwendungen. Wir verwenden hierfür verschiedene Produkte wie GeoServer und Google Cloud Produkte wie, BigQuery, Dataflow und Pub/Sub.

Unsere Leistungen:

Backends zur Datenverwaltung

Wir entwickeln maßgeschneiderte Backends für geographische Daten, die das Anzeigen von einfachen Punkte als auch komplexen Geometrien auf der Karte ermöglichen. Dabei implementieren wir Prozesse, die auf individuelle Kundenanforderungen angepasst sind. Wir setzen auf eine serverlose Entwicklung, die auf einer Micro-Services-Architektur mit austauschbaren Komponenten basiert. Die Backends werden in der Cloud gehostet und helfen bei der Strukturierung, Verwaltung und Qualitätssteigerung der Daten.

Ca. 80.000 Händlerdaten weltweit werden im Backend gespeichert und verarbeitet

Geo Data Quality Tools für Conti

Für unseren Kunden Conti entwickelten wir ein Backend für einen internationalen Dealer Locator. Die Anforderungen umfassten ein dezentrales System, bei dem Adressdaten in einem bestimmten Format vorliegen müssen. Wir bauten ein Backend, das die Geocodierung der Adressdaten von 80.000 Händlern mittels Google Geocoding API umfasst. Außerdem haben wir eine Adressvalidierung kosteneffizient in die Prozesse des Backends der Anwendung integriert.

Projekt Adressvalisierung für Conti

Data Streaming

Data Streaming bezeichnet die Echtzeit-Verarbeitung von hochdynamischen Daten wie Tracking- und Sensordaten, um einen aktuellen Zustand zu evaluieren. Wir entwickeln Prozesse, um die Daten zu  übertragen, zu verarbeiten und zu aggregieren. 

Das Streaming erfolgt in der Cloud. Während die Daten im Frontend dargestellt werden, laufen automatische Prozesse im Hintergrund ab, wie z.B. das Versenden von Nachrichten bei bestimmten Schwellenwerten. Unser Team unterstützt Sie beim Aufbau dieser Prozesse, beim Data Engineering auf der Cloud und der Entwicklung von ETL-Pipelines.

In einem gemeinsamen Forschungsprojekt mit dem HVCC analysierten wir die Bewegungen von Binnenschiffen und visualisierten die Daten in Looker Dashboards.

Real-Time Tracking & Operational Dashboards

Für das Hamburg Vessel Coordination Center (HVCC) entwickelten wir ein cloudbasiertes Data-Analytics-Konzept von der Datenaufbereitung bis zur -analyse und visualisierten die Ergebnisse in Looker-Dashboards und Kepler.

Die Datengrundlage bildeten seit Anfang 2021 gespeicherte AIS Streamingdaten aus unserem AIS Cloud Data Streaming Forschungsprojekt. Das HVCC stellte GPS Daten von Leichtern zur Verfügung, die wir mit offenen Wetter- und Tidedaten ergänzten. Im AIS Dashboard werden die Ergebnisse aus der data collection und dem Tracking der Assets mittels Data Streaming visualisiert.

Projekt AIS Dashboard

Machine Learning

Machine Learning bietet Unternehmen ein breites Spektrum an Möglichkeiten, um Prozesse zu automatisieren, Vorhersagen auf Basis historischer Daten zu treffen und um Geschäftsprozesse zu optimieren. 

Mit unserer Expertise im Bereich Location Data & Cloud beziehen sich unsere Leistungen im Bereich Machine Learning vor allem auf die Themen Demand Prediction, Image Recognition und ETA-Berechnung. Wir setzen dabei auf Cloud-Produkte wie BigQuery ML und Vision ML in der Cloud und APIs wie die Google Directions API. Unsere Lösungen ermöglichen es unseren Kunden, komplexe Zusammenhänge zu verstehen und datenbasierte Entscheidungen zu treffen.

ETA Berechnung

Bei der Berechnung der ETA (Estimated time of Arrival) führen wir Routenberechnungen abhängig von von Verkehrslage und Position der Assets durch. Wir arbeiten mit großen Datenmengen an Routen und Adressdaten, um Fahrzeit-Polygone zu berechnen und abzuleiten, welche Punktdaten in dem Bereich liegen. Wir entwickelten beispielsweise ein Erreichbarkeits-Tool für die Feuerwehr Düsseldorf.

Standortplanungstool Feuerwehr

Demand Prediction

Auch im Bereich der Mobilität lassen sich basierend auf historischen Daten Vorhersagen ableiten. Für einen Sharing-Anbieter erstellten wir eine Data Stream Pipeline, um Echtzeitdaten von Mobility-Sharing-Anbietern weltweit zu verarbeiten, zu speichern und auszuwerten. Die aufbereiteten Daten liefern interessante Erkenntnisse über Hotspots und typische Routen zu verschiedenen Tageszeiten, Wochentagen und Jahreszeiten. Mit Hilfe von Google Datastudio, Looker und Customized Frontends können wir die Ergebnisse visualisieren und veranschaulichen.

Daten als Treibstoff für Sharing-Anbieter

Image Recognition

Zu den Anwendungsfällen im Bereich Image Recognition gehören beispielsweise die Ableitung von Wetterbedingungen anhand von Verkehrskameras oder die Klassifizierung von Satellitendaten, um illegale Abholzung oder den Anbau von Getreide zu kontrollieren. Bei der Klassifizierung von Satellitendaten trainieren wir einen Algorithmus, welche Art von Gebäude gezeigt wird oder welches Getreide auf dem Bild zu sehen ist.

Ihre Experten für Location Data & Cloud:

  • Wir sind Experten im Umgang mit Geodaten und beantworten Fragestellungen, die nicht mit Standardlösungen beantwortet werden können.
  • Wir kennen uns sehr gut aus mit den gängigen Anbietern von Geo APIs (Google, Mapbox, Targomo, here, Graphhopper, etc.) und wissen, wie man Geodaten am besten aggregiert und analysiert
  • Wir haben über 15 Jahre Expertise im Umgang mit besonders großen Datenmengen und dynamischen Location-Daten
  • Wir unterstützen unsere Kunden als Sparringspartner und Berater, schaffen ein gutes Verständnis der technischen Basis und arbeiten uns schnell in komplexe Fragestellungen ein.
  • Wir nutzen einen ganzheitlicher Ansatz und denken Anwendung vom Ende her: Erst wenn wir wissen, was mit der Präsentation der Daten erreicht werden soll, treffen wir fundierte Entscheidungen für die Datenaufbereitung und Präsentation.
  • Wir konzentrieren uns auf die Data Cloud von Google und bringen daher ein sehr tiefes Wissen in den relevanten Produkten wie Dataflow, BigQuery und Dataproc mit. Wir können die Cloud-Technologien passend auf die (Geo-) Daten Projekte anwenden.