Sebista

FFG COMET, 2019 – 2022

Secure Big Stream Data Processing

Motivation

Künstliche Intelligenz (KI) Anwendungen großer Unternehmen wie Google und Facebook profitieren am meisten vom Trend der massiven Datensammlung. Neben den enormen Vorteilen der dadurch möglich gewordenen Anwendungen müssen jedoch auch datenschutzrechtliche Aspekte berücksichtigt werden.

Auch im industriellen Bereich werden immer mehr und mehr Daten über Prozesse und Produkte gesammelt. Allerdings reduzieren (berechtigte) Datenschutzbedenken oft immens die Menge der verfügbaren Daten und verhindern so innovative Digitalisierungsprojekte. Die Entwicklung eines sicheren, verteilten Lernsystems wird den Maschinenbedienern die Kontrolle über ihre Daten geben und verhindern, dass ihre Daten für unbeabsichtigte Zwecke verwendet werden.

Eine besonders schwierige Herausforderung bei verteilten Lernalgorithmen sind heterogene Datenquellen, welche oft in realen Anwendungen anzutreffen sind. Dies erfordert die Entwicklung heterogener Transfer Learning Methoden, die in Kombination mit verteiltem Lernen eingesetzt werden können.

Die effiziente Speicherung von Massendaten aus verteilten Quellen (Internet der Dinge (IoT), Industrial Internet, ...) und die Verarbeitung der zugrundeliegenden Zeitreihendaten in Echtzeit (Stream Processing) bilden die Basis für viele Anwendungen und neue Geschäftsfelder.

In diesem Projekt werden anwendungsspezifische Methoden zur Integration heterogener Datenquellen auf Basis bestehender Big Data Technologien entwickelt, wobei insbesondere das Datenqualitätsmanagement eine wesentliche Rolle spielt. Die Echtzeitverarbeitung wird durch den Einsatz und die Entwicklung effizienter verteilter Algorithmen gewährleistet.

Erwartete Ergebnisse

  • Die Entwicklung von State-of-the-Art Deep Learning Algorithmen für sichere und kollaborative Modelle sowie deren Einsatz für die Verbesserung von industriellen Anwendungen
  • Erweiterung unserer Online Transfer Learning Methode (GOTL) auf heterogene Transfer Learning Probleme und verteiltes Lernen
  • Neuartige Verfahren und Werkzeuge zur kontinuierlichen Datenqualitätsüberwachung in großen IoT-Systemen, die nicht-relationale Datenmodelle (NoSQL) verwenden, wie sie typischerweise z. B. in Zeitreihen-Datenbanken vorkommen

Fördergeber

Das Projekt wird im Rahmen von COMET – Competence Centers for Excellent Technologies durch BMK, BMDW, Land Oberösterreich und den wissenschaftlichen Partnern des SCCH gefördert. Das Programm COMET wird durch die FFG abgewickelt.

Lettner Christian

Senior Research Project Manager Data Science
Research Team Lead Data Centric AI Engineering