Einstieg in MLOps, Teil 3: Modelltraining für Fortgeschrittene in Kubeflow

Wir zeigen Ihnen, wie man mit großen Modellen wie ChatGPT, Bard oder LLaMA umgeht und wie Transferlernen, Feintuning und Retraining funktioniert.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
Lesezeit: 13 Min.
Von
  • Dr. Sebastian Lehrig
Inhaltsverzeichnis

Für das Arbeiten mit großen Sprachmodellen wie ChatGPT, Bard oder LLaMA mit mehreren Milliarden an Parametern muss man den eigenen MLOps-Ansatz um fortgeschrittene Techniken erweitern. Zum Optimieren von Trainingszeiten und Modellgüte nutzen Data Scientists etwa Transferlernen und Feintuning von vorgefertigten Basismodellen, setzen zusätzliche oder spezialisierte Hardware ein, mieten Ressourcen aus der Cloud an und verteilen das Training über mehrere Rechenknoten.

Ein Monitoring per TensorBoard gibt Entwicklern hierbei kontinuierlich Rückmeldung zu Trainingsstatus und Modellgüte. Nach dieser Groboptimierung wiederholt man gegebenenfalls das Modelltraining auf aktuelleren Trainingsdaten und verfeinert die Trainingsparameter per AutoML und Hyperparameter-Tuning. Wie sich alle diese Techniken in Kubeflow integrieren lassen, zeigt dieser letzte Teil des Tutorials.

Mehr zu Machine Learning
Dr. Sebastian Lehrig

Dr. Sebastian Lehrig leitet MLOps mit Open Source bei IBM. Sein Ziel: Lösungen optimiert auf IBM-Infrastruktur anbieten – maximal effizient, sicher und zuverlässig.

Die beiden ersten Artikel dieser Serie haben gezeigt, wie Data Scientists mit Kubeflow-Pipelines KI-Modelle erstellen, deployen, managen und nutzen können. Die Klassifizierung des Iris-Datasets als Beispiel war hierfür zweckmäßig, da es sich mit wenigen Ressourcen und einfachen Modellen gut analysieren lässt. Die bisher vorgestellten Techniken eignen sich allerdings nicht, um rechenintensivere und komplexere Modelle zu trainieren.

Das war die Leseprobe unseres heise-Plus-Artikels "Einstieg in MLOps, Teil 3: Modelltraining für Fortgeschrittene in Kubeflow". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.