Vorteile der Flüssigkühlung für KI

Vorstellung des Prototyp beim OÖ Zukunftsforum

Künstliche Intelligenz (KI) ist die wohl trendigste Form der Digitalisierung. KI erkennt selbständig Gesichter und Verkehrszeichen oder unterstützt Ärzte in der Diagnose. Dass KI bzw. Deep Learning-Modelle trainieren viel Rechenleistung bzw. Strom braucht, ist Fakt. Um dabei Energie sparen zu können, sollten sie kühl laufen. Eine so genannte Immersionskühlung, sprich Flüssigkühlung, schafft das effektiv, da alle Hardwarekomponenten gekühlt werden und nicht nur die Recheneinheit. Das zeigt der neue Prototyp der KI-Experten des Software Competence Center Hagenberg (SCCH) eindrucksvoll.

Ein wichtiger Aspekt im gesamten KI-Bereich ist die Rechenleistung, ganz nach dem Motto: je höher desto besser bzw. schneller. Allerdings, je höher die Taktfrequenz, sprich Leistung, desto heißer werden CPU und Komponenten; und je heißer die Einzelteile, desto mehr Widerstand, was wiederum mehr Strom verbraucht. Ein Teufelskreis. Wurden bisher Computer mit Ventilatoren gekühlt, so drängt sich mehr und mehr die Flüssigkühlung, die so genannte Immersionskühlung, in den Fokus der Anwender. Die ersten praktischen Testläufe des neuen Prototyps unter der Leitung des SCCH-Teams Dr. Volkmar Wieser und Christian Rachle sind vielversprechend und untermauern den Vormarsch.

Weniger Energie, mehr Rechenleistung

„Bei uns am SCCH laufen Deep-Learning-Anwendungen, um Prozesse aus der Industrie und Wirtschaft, aber auch der Forschung zu verbessern. Diese verbrauchen täglich Strom im Ausmaß eines durchschnittlichen Haushaltes. Um hier einsparen zu können, müssen die Komponenten kühl sein. Denn je heißer der Rechner, desto mehr Strom verbraucht er. Daher testen wir Alternativen zu den aktuellen, herkömmlichen Hardwarekühlungen.“, beschreibt Dr. Volkmar Wieser, Senior Research Project Manager Data Science, das Ziel des Forschungsprojekts. Und er resümiert weiter: „Großes Potenzial sehen wir in der Immersionskühlung, die unser Demonstrator in der Praxis zeigt. Mit ihr könnte man gleich zwei Ziele erreichen: Energieeffizienz, um die Umwelt zu schonen und die Rechnerleistung heben.“

Praxistest bestanden

Bei der Immersionskühlung werden Hardware-Komponenten in eine chemisch hergestellte, transparente Flüssigkeit getaucht, die keinen Strom leitet. Und gleich vorweg: Die Flüssigkeit ist ungiftig, ja sogar trinkbar. Es können also gefahrlos stromführende, elektronische Bauteile eingetaucht werden. Um das auch in der Praxis demonstrieren zu können, bauten Samuel Reichör und Christian Rachle (beide SCCH) einen Prototyp aus Plexiglas. Die benötigten Akkus werden induktiv geladen und die Kommunikation basiert über WLAN, was den Prototypen eigenständig und mobil macht.

Dive into AI

Der Demonstrator ist ein weiterer Schritt in Richtung der Vision „Dive into AI“. Einerseits werden vier Raspberry Pis in eine 3M Novec Flüssigkeit eingetaucht. Andererseits zeigt der Prototyp mit Hilfe der Open Source 3D Visualisierungssoftware „Tensorspace“ die einzelnen „Schichten“ der KI – hier kann man quasi visuell in die KI eintauchen.
„Bei der Immersionskühlung lässt sich das System besser übertakten, sprich eine höhere Rechenleistung erzielen, da alle Hardwarekomponenten gekühlt werden. Gerade bei rechenintensiven Deep Learning-Trainings kann man dadurch bei der Kühlung ca. 90 Prozent an Energie einsparen. Um die künstliche Intelligenz „grün“ und klimafreundlicher zu machen – Stichwort Green AI –, kommt man an einer effektiven, effizienten Kühlung nicht vorbei“, erklärt Christian Rachle seinen Projektansatz.

Wer KI denkt, muss zukünftig auch an Kühlung denken 

Aus wissenschaftlicher Sicht, nämlich im Bereich „verteiltes Lernen“ (Federated Learning), ist der Demonstrator auch interessant. Dazu erklärt Wieser ein Beispiel: „In unserem Forschungsprojekt S3AI (Security and Safety for Shared Artificial Intelligence) wollen wir sichere, kollaborative KI-Systeme entwickeln, die sich wiederum vielfältig auf die Nutzbarmachung von KI-Anwendungen auswirken sowie auf die darauf basierenden Geschäftsmodelle. Dabei geht es z. B. darum, Entwicklungskosten zu senken, indem vorgefertigte Modelle wiederverwendet werden. Der Aufwand für die Datenerfassung sinkt, gleichzeitig erhöht sich aber die Datensicherheit, da keine sensiblen Daten ausgetauscht werden.“

An anderer Stelle heißt ‚verteiltes Lernen‘, dass entweder unternehmensübergreifend oder ein Unternehmen mit verschiedenen Standorten KI-Modelle mit standortbezogenen Daten trainiert. Während des Trainings werden nur Merkmale mit dem errechneten Wissen an einer zentralen Stelle zusammengeführt, ohne sensible Firmendaten austauschen zu müssen.

Europa ist die Hochburg der „Dateninseln“ – keiner möchte Daten preisgeben. Daher braucht es neue Ansätze, um dezentrales Wissen sicher über Unternehmensgrenzen hinweg nutzen zu können, um so die Qualität des Lernens zu erhöhen.