Einstieg in MLOps, Teil 3: Modelltraining für Fortgeschrittene in Kubeflow
Wir zeigen Ihnen, wie man mit großen Modellen wie ChatGPT, Bard oder LLaMA umgeht und wie Transferlernen, Feintuning und Retraining funktioniert.
- Dr. Sebastian Lehrig
Für das Arbeiten mit großen Sprachmodellen wie ChatGPT, Bard oder LLaMA mit mehreren Milliarden an Parametern muss man den eigenen MLOps-Ansatz um fortgeschrittene Techniken erweitern. Zum Optimieren von Trainingszeiten und Modellgüte nutzen Data Scientists etwa Transferlernen und Feintuning von vorgefertigten Basismodellen, setzen zusätzliche oder spezialisierte Hardware ein, mieten Ressourcen aus der Cloud an und verteilen das Training über mehrere Rechenknoten.
Ein Monitoring per TensorBoard gibt Entwicklern hierbei kontinuierlich Rückmeldung zu Trainingsstatus und Modellgüte. Nach dieser Groboptimierung wiederholt man gegebenenfalls das Modelltraining auf aktuelleren Trainingsdaten und verfeinert die Trainingsparameter per AutoML und Hyperparameter-Tuning. Wie sich alle diese Techniken in Kubeflow integrieren lassen, zeigt dieser letzte Teil des Tutorials.
Die beiden ersten Artikel dieser Serie haben gezeigt, wie Data Scientists mit Kubeflow-Pipelines KI-Modelle erstellen, deployen, managen und nutzen können. Die Klassifizierung des Iris-Datasets als Beispiel war hierfür zweckmäßig, da es sich mit wenigen Ressourcen und einfachen Modellen gut analysieren lässt. Die bisher vorgestellten Techniken eignen sich allerdings nicht, um rechenintensivere und komplexere Modelle zu trainieren.
Das war die Leseprobe unseres heise-Plus-Artikels "Einstieg in MLOps, Teil 3: Modelltraining für Fortgeschrittene in Kubeflow". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.