SCCH startet High Performance Cluster

Steigende Datenmengen und komplexe KI-Anwendungen besser managen

Das Software Competence Center Hagenberg (SCCH) hat seinen High Performance Cluster (HPC) in Betrieb genommen. Der Vorteil: Steigende Datenmengen in Projekten und komplexe KI-Anwendungen lassen sich damit wesentlich besser managen. „Für Unternehmen ist der Einsatz von HPC schwer zu realisieren. Das SCCH schließt die Lücke zwischen Wissenstransfer und Infrastruktur, indem es einen hochmodernen On-Prem-Cloud-Service für Wissenschaft und SCCH-Partner aufbaut. Dies ermöglicht eine kosten- und zeiteffiziente Entwicklung vom ersten KI-Modell bis hin zu Prototypen und deren Services“, erklärt Volkmar Wieser.

Warum ist HPC Computing für das SCCH so wichtig?

„HPC ist ein wichtiger Beitrag, um die wissenschaftliche Wettbewerbsfähigkeit des SCCH zu steigern. Für unsere Kund*innen ist das ein großer Mehrwert. Normalerweise verwenden wir für industrielle Anwendungsfälle Standardmodelle, die wir entsprechend modifizieren. Der Kunde bekam am Ende ein Modell, welches er weiterverwenden konnte. Jetzt können wir viel interaktiver und serviceorientierter arbeiten. Oft haben Kund*innen Sensordaten, die sie nach dem Training der KI-Modelle integrieren wollten. Sie haben aber nun die Möglichkeit, diese Modelle bereits während des Entwicklungsprozesses auszuprobieren und zu evaluieren. Damit fühlen sie sich viel besser eingebunden und sehen sofort, ob das Ergebnis passt oder wo noch nachgebessert werden muss. Die Modelle können schneller an die Kundenwünsche adaptiert werden, wodurch auch die Qualität der Ergebnisse steigt. Für uns ist es sehr wichtig während der Modellentwicklung, rasch ein Feed-back des Kunden zu bekommen“, erklärt Wieser. Aber auch die Mitarbeiter*innen profitieren, denn der Rechenbedarf steigt und steigt. Es wäre ein falscher Weg, wenn alle den eigenen Rechner mit Multi-CPU, GPU und Speicher ausgestattet hätten. Jetzt ist das in Kubernetes Containern organisiert. Das ist State oft the Art und viel ressourcenschonender als die alten Systeme.

Christian Rachle hat das neue System operativ umgesetzt. Das heißt, nicht nur die Hardware angeschafft, sondern er hat sich auch um die Software gekümmert, die das System verwaltbar, konfigurierbar und analysierbar macht. „Wir haben die Softwareumgebung für die unterschiedlichen Anforderungen von intern und extern entwickelt. Diese können über die Weboberfläche einfach gestartet werden und stehen für die Entwickler*innen sofort zur Verfügung. Wir sind die Ersten in Europa, die ein hpe apollo 6500 gen10 plus System haben“, so Rachle. Der Cluster ist auf Basis von Kubernetes voll orchestriert und bietet einen einfachen und sicheren Zugang zur Infrastruktur anhand eines Webinterfaces. Dieser Webstore ermöglicht nicht nur einen einfachen und schnellen Start von Entwicklungsumgebungen, sondern ermöglicht auch eine Integration bzw. einen kontinuierlichen Einblick unserer wissenschaftlichen und wirtschaftlichen Partner in aktuelle Forschungsentwicklungen, die z.B. aus den Bereichen der Künstlichen Intelligenz, Daten Analyse oder der Softwareentwicklung kommen. Der Cluster ist flexibel aufgebaut und unterstützt von Multi-Cloud-Services bis zu Edge Devices eine Vielzahl an Umgebungen. Der Cluster wird fortlaufend erweitert und unterstützt Worker-Nodes, die jeweils 48 CPU-Cores, 1TB RAM, 32TB NVMe SSD und 4x HRX A100 GPUs mit 40GB Ram beinhalten.  Die Planung um Umsetzung der Anlage wurde mit Kapsch und HPE umgesetzt. Wobei Kapsch den Hard- und Softwareservice vor Ort macht und HPE die Hard und Software bereitstellte. Der große Vorteil ist, dass die Daten nicht in einer Cloud liegen, sondern lokal beim SCCH auf eigenen Servern gespeichert sind. Das garantiert Datensicherheit.  

Ist HPC ein Energiefresser?

Früher gab es monolithische Systeme, die alle vorhandenen Ressourcen starteten, auch wenn sie nicht unmittelbar benötigt wurden. Jetzt ist alles als „Function as a Service“ aufgebaut, die mittels Container verwaltet werden. Die Verwaltung der Container mittels Kubernetes ist State of the Art und aufgrund der hohen Flexibilität viel ressourcenschonender, da nicht benötigte Ressourcen abgeschaltet werden. Das verbraucht weniger Ressourcen und somit weniger Energie, was einen wesentlichen Beitrag für die klimaschonende Berechnung von KI –Modellen liefert. 

Für welche Projekte ist HPC besonders sinnvoll?

Am SCCH gibt es viele Projekte, deren Fokus auf Transferlearning, Simulationen im Industriebereich, Bilddatenverarbeitung, Machine Learning, Big Data, Datenqualität und KI liegt. Im S3AI COMET-Modul (www.s3ai.at) werden die Grundlagen für den Aufbau sicherer kollaborativer künstlicher Intelligenzsysteme entwickelt. Das sind Methoden zur Wahrung der Privatsphäre, Schutz vor Hackerangriffen und Garantien für das beabsichtigte Verhalten des Systems. Die verwendeten Ansätze kommen dabei aus dem Bereich des Transfer Learnings. Hier profitieren die im Projekt beteiligten Unternehmespartner wie PKE Holding, KTM Innovation, RUBBLE MASTER HMH, TissueGnostics, Ventopay und EYYES von HPC am SCCH.

Wie ist die Situation in Österreich?

Es gibt unterschiedliche Institute, die sich zusammenschließen, um HPC-Cluster zu bilden. Der Cluster „High Performance Computing - EuroCC Austria“ visualisiert anhand öffentlich sichtbarer und ausgewählter Forschungsinfrastrukturen den österreichischen Aufbau eines wettbewerbsfähigen Supercomputing-Ökosystems. Das nationale Kompetenzzentrum ist Teil davon.

Am Foto: Christian Rachle (rechts) und Volkmar Wieser.