AISEC

FFG COMET, 2023 – 2026

AI regulations & security

Kontext und Motivation

Damit die Ethik in der künstlichen Intelligenz angemessen behandelt werden kann, müssen alle Komponenten, die miteinander interagieren, gemeinsam betrachtet werden. Dies gewinnt zunehmend an Bedeutung und muss bei der Entwicklung von modernen Datenlösungen bereits in der Design-Phase berücksichtigt werden.

Themen wie der Schutz der Daten und der Modelle, die Erklärbarkeit der Ergebnisse sowie mögliche Angriffe auf diese Lösungen sind in einer Vielzahl von Anwendungsgebieten zu finden: von Industrieanwendungen wie Predictive Maintenance, über automatisierte Qualitätssicherung bis hin zur personalisierten Medizin.

Besonders relevant ist dies, wenn Daten oder Modelle in öffentlicher Cloud Infrastruktur gesammelt und verarbeitet werden. Weiters kommt es häufig vor, dass mehrere Parteien dasselbe Ziel verfolgen, aber aus verschiedenen Gründen nicht bereit oder in der Lage sind, die notwendigen Trainingsdaten zu teilen.

Für einzelne Komponenten dieser Fragestellungen stehen eine Vielzahl von Lösungsansätzen zur Verfügung: von Federated Learning für das Training von Modellen mit verteilten Daten, über Fully Homomorphic Encryption für die Ausführung von Berechnungen auf verschlüsselten Daten bis zu Differential Privacy, das den Rückschluss auf die Trainingsdaten aus den Modellen adressiert. Diese Techniken müssen nicht nur getrennt – sowohl analytisch als auch experimentell – für konkrete Lösungen getestet, sondern auch im Kontext einer komplexen Anwendung analysiert werden.

Motiviert werden diese wissenschaftlichen Fragestellungen durch konkrete Anwendungsfälle unserer Industriepartner, die uns sowohl mit ihrer Domänenexpertise bei der Entwicklung konkreter Lösungen als auch mit der Validierung der Wirksamkeit und wirtschaftlichen Relevanz unterstützen.

Erwartete Ergebnisse

  • Praktisches, sicheres und datenschutzfreundliches (Deep) Machine Learning mit verteilten Daten: Die Kernprobleme der vollständig homomorphen Verschlüsselung, der differentiellen Privatsphäre und des skalierbaren Lernens werden angegangen, um ein effizientes und sicheres, datenschutzfreundliches föderiertes Lernsystem zu entwickeln.
  • Vertrauenswürdiges föderiertes Lernen: Es wird ein informations-theoretisches Framework entwickelt, um die Aspekte der Privatsphäre, Interpretierbarkeit und Übertragbarkeit von Machine (Deep) Learning-Modellen zu studieren und zu optimieren, um das Vertrauen in das föderierte Lernsystem zu erhöhen.
  • Sichere und datenschutzfreundliche verteilte Datensysteme: Moderne Digitalisierungslösungen werden zunehmend verteilt aufgebaut. Die in diesem Projekt entwickelten Datenschutzmethoden haben das Ziel, die Privatsphäre der Daten auf den peripheren Geräten und während der Kommunikation zwischen verschiedenen Geräten zu gewährleisten.
  • Einhaltung der aufkommenden rechtlichen und ethischen Anforderungen an den Datenschutz: Neue rechtliche Anforderungen wie die DSGVO werden den Schutz personenbezogener Daten weiter erhöhen und den Datenbesitzern effektiv die volle Kontrolle über diese Daten geben. Die in diesem Projekt entwickelten vertrauenswürdigen KI-Methoden haben das Ziel, die Einhaltung bestehender und aufkommender Standards für jeden Teil des verteilten Systems zu gewährleisten.

Fördergeber

Das Projekt wird im Rahmen von COMET – Competence Centers for Excellent Technologies durch BMK, BMAW, Land Oberösterreich und den wissenschaftlichen Partnern des SCCH gefördert. Das Programm COMET wird durch die FFG abgewickelt.