iX 9/2022
S. 100
Wissen
Machine Learning

Deep Learning: Modelle an Hardware anpassen

Um Deep-Learning-Modelle auf unterschiedlicher Zielhardware effizient einzusetzen, sind auch 2022 noch einige Klimmzüge erforderlich. Spezielle Deep-Learning-Compiler wie TensorFlow XLA und Apache TVM nutzen den LLVM-Compilerstack für die Hardwareoptimierung.

Von Ramon Wartala

Das LLVM-Projekt hat nicht nur ein allseits etabliertes Compilerframework für die Übersetzung von Hochsprachen in Maschinensprachen auf unterschiedlichen Prozessorarchitekturen hervorgebracht. Immer stärker wird es auch für das Optimieren von Machine-Learning-Modellen eingesetzt. Der spezielle Zwischencode von LLVM hilft dabei, hardwarespezifische Funktionen und Datenstrukturen von Deep-Learning-Modellen auf unterschiedlicher Zielhardware optimal ausführbar zu übersetzen (siehe Kasten „Von JVM zu LLVM“). Sowohl Open-Source- als auch kommerzielle Produkte buhlen um die Gunst der Datenwissenschaftler und Hersteller spezifischer KI-Hardware.

Kommentieren