Konkret statt Hype: Red Hat baut die KI-Zukunft mit OpenShift und Ansible

Auf seinem Summit zeigt auch Red Hat, dass an KI kein Weg vorbeiführt. Doch noch einen Chatbot oder eine weitere OpenAI-Partnerschaft sucht man vergeblich.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: iX)

Lesezeit: 4 Min.
Von
  • Udo Seidel

Jedes Jahr im Frühjahr lädt Red Hat zu seiner Hauskonferenz ein. Und natürlich kann es 2024 keine IT-Konferenz geben, die nicht von KI durchdrungen ist. Das ist auch beim Summit nicht anders.

Prinzipiell dreht sich die Red-Hat-Welt seit ein paar Jahren um zwei Dinge: Da ist einmal OpenShift als die hauseigene Kubernetes-Version und Ansible für die Automatisierung. Damit ist die Verknüpfung beider mit KI die Basis und sogar der Kern der Neuankündigungen während des Summits.

OpenShift AI existiert schon länger. Mit der neuen Version gibt es gleich mehrere Neuerungen. So lassen sich KI-Modelle im Bereich Edge-Computing mithilfe eines einzigen Nodes bereitstellen. Außerdem kann der Anwender nun mehrere sogenannte Modell-Server im Verbund verwenden. Mit dabei ist ferner die Unterstützung von Kserve. Das ist aus der allgemeinen Kubernetes-Welt als Plattform für Modell-Inferenz bekannt.

Zur beschleunigten Datenverarbeitung kann OpenShift AI jetzt auch die Technik von Ray verwenden. Die Verwaltung erleichtern KubeRay und CloudFlare. Erster fokussiert sich mehr auf die tatsächliche Auslastung im Kubernetes-Cluster, letztere kümmert sich mehr um die Orchestrierung einzelner Aufgaben. Es lassen sich nun mehrere verschiedene Beschleunigungsprofile anlegen und konfigurieren. Das macht vor allem den Anwendern das Leben leichter: Sie können nun ganz einfach die Beschleunigungsplattform ihrer Wahl auswählen. Ebenfalls verbessert sind Modellentwicklung und -überwachung.

Zu den eben genannten Beschleunigungsprofilen passen zudem die Früchte der Zusammenarbeit von Red Hat mit Nvidia und Intel. Der Intel-CEO Pat Gelsinger – leider nur virtuell beim Summit vertreten – verkündete die Integration von OpenShift mit Intels KI-Technik. Das betrifft Hardware wie die Gaudi-Chips oder auch Arc-GPUs als auch die zugehörigen Software-Plattformen. Nvidia hatte auf seiner Hausmesse GTC im März die NIM (Nvidia Inference Microservices) vorgestellt – einen Satz von Mikrodiensten für GenAI auf der hauseigenen Hardware-Plattform CUDA. Sie sollen OpenShift bald unterstützen; auch hier erfolgt die Integration über das bereits genannte Kserve. Die Zusammenarbeit mit AMD ist ebenfalls noch in einem frühen Stadium. Das erklärte Ziel ist die Bereitstellung eines entsprechenden OpenShift-Operators, der bereits als technische Vorschau für Entwickler verfügbar und installierbar ist.

iX-Workshop: Systemdeployment & -management mit Ansible

In dem viertägigen Online-Workshop lernen Sie Ansible und seine Einsatzgebiete anhand vieler praktischer Übungen von Grund auf kennen. Hierbei bauen Sie eine eigene Ansible-Umgebung auf und erledigen komplexe Aufgaben mithilfe von Playbooks. Auch das Rollenkonzept von Ansible zeigen wir Ihnen genau. Der Workshop findet online statt, weitere Informationen und Tickets gibt es unter heise.de/s/wNL8A.

Die letzte Ankündigung in diesem Umfeld ist die Integration von Lightspeed. Dies gilt sowohl für OpenShift als auch für das hauseigene Enterprise Linux. Kennern ist dieses schon seit letztem Jahr aus dem Ansible-Umfeld bekannt. Dabei soll die KI dahinter den Anwender beim Tagesgeschäft unterstützen, beispielsweise bei Skalierungsaufgaben oder der Erkennung eines drohenden Kapazitätsengpasses. Auf der RHEL-Seite möchte Red Hat den Administrator beim Verteilen von Sicherheits-Updates unterstützen: Die KI soll Aspekte wie Wartungsfenster oder Dienstleistungsvereinbarungen in die Patch-Organisation einbringen. Noch ist das aber Zukunftsmusik.

Noch einmal zu Ansible: Automatisierung erstreckt sich schon länger auf deutlich mehr als nur Infrastruktur. Regulierungen, Konformität oder andere juristisch relevante Bedingungen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Mit dem KI-Hype und den zahlreichen Anwendungen in diesem Umfeld ist die Komplexität erneut stark angestiegen. Mit Ansible Policy as Code will Red Hat diesen Bereich für Administratoren und Anwender vereinfachen. Im Hintergrund werkelt dann wieder eine KI, laut Anbieter für Ansible eine natürliche Evolution von klassischer Automatisierung.

Außerdem veröffentlicht Red Hat InstructLab und will damit die LLM entscheidend verbessern. Dabei kommt die LAB-Technik zum Einsatz, die aus der IBM-Forschungsabteilung stammt. Der Name leitet sich von "Large-Scale Alignment for ChatBots" ab. LAB generiert dabei synthetische Daten nach einem einheitlichen Verfahren und passt diese in einem mehrstufigen Verfahren an. Die genauen Details hat IBM in einem Whitepaper dokumentiert. Quasi unterstützend dazu veröffentlicht Big Blue mehrere ausgewählte Sprachmodelle aus der Granit-Familie unter der Apache-Lizenz.

Wenn Red Hat das Tempo der Ankündigungen beim Summit beibehält, sind weitere Neuerungen in den nächsten Tagen zu erwarten. Übrigens: Diesmal findet der Summit weder in San Francisco noch in Boston, sondern in Denver statt. Dort ist vom 7. bis 9. Mai der Mittelpunkt des Red-Hat-Universums.

(fo)