iX 6/2021
S. 88
Wissen
Machine Learning

Universelles Übersetzungstool für neuronale Netze

KI-Dolmetscher

Christoph Brandl, Florian Gabsteiger, Philipp Grandeit

Der Neural-Network-Translator verbindet die Entwicklungsphase und den Einsatz eines neuronalen Netzes auf Mikrocontrollern. Dabei nimmt er Programmiererinnen Übersetzungsarbeit ab.

Wo große Datenmengen verfüg­bar sind, lassen sich (fast) alle erdenklichen Aufgabenstellungen mit ML-Ansätzen wie künstlichen neuronalen Netzen lösen. Komplexität und Umfang der Fragestellungen haben dabei mit der Zeit stetig zugenommen, was den Bedarf an Rechenleistung und Hardwareanforderungen bei Training und Ausführung der neuronalen Netze hat steigen lassen. In der Entwicklungsphase lässt sich dieser Aspekt meist noch vernachlässigen, da hier hoch spezialisierte Komponenten mit ausreichend Rechenleistung zum Einsatz kommen.

In konkreten Einsatzszenarien neuro­naler Netze fällt jedoch auf, dass die Leistungsfähigkeit der dort genutzten Hardware im Vergleich zur Entwicklungsphase häufig geringer gewählt wird. So kommen auch in Autos mit Funktionen zum autonomen Fahren minimal ausgestattete Microcon­troller Units (MCUs) zum Einsatz. Sie bieten nur einen Bruchteil der Rechenleistung eines durchschnittlichen Laptops, ganz zu schweigen von der eines ML-Beschleunigers à la Nvidia Jetson. Für Entwickler, die neuronale Netze für solche MCUs mit Arbeitsspeicher im Kilobytebereich konzipieren, stellen sich damit Fragen wie „Wie groß darf mein Netz sein, damit es auf meinen Mikrocontroller passt?“ oder „Welche ML-Frameworks funktionieren auf meinem Mikrocontroller?“.

Kommentieren