Machine Learning: Google Coral lernt zu sortieren

Die ML-Plattform bekommt eine Anbindung an das Framework MediaPipe zum Verarbeiten von Audio- und Videostreams.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Machine Learning: Google Coral reagiert auf Audio- und Videostreams
Lesezeit: 3 Min.
Inhaltsverzeichnis

Google hat seine aus Hard- und Softwarekomponenten zusammengesetzten Machine-Learning-Plattform (ML) Coral aktualisiert. Neben einer neuen Betriebssystemsversion ist vor allem die Anbindung an das ML-Framework MediaPipe nennenswert. Außerdem finden Entwickler vortrainierte Modelle für Coral auf TensorFlow Hub und ein frisches Tutorial zum Bau einer Sortiermaschine.

Die neue Version 4.0 von Mendel Linux zielt vor allem auf verbesserte Performance und Stabilität. Mendel Linux ist eine schlanke, angepasste Variante von Debian, die speziell auf die Coral-Entwicklerboards zugeschnitten ist. Wie bis zu Android 9 vergibt Google den Releases zusätzlich zur Nummer Namen nach dem Alphabet, wenn auch nicht nach Süßigkeiten. Der Beiname für das aktuelle Linux-Mendel-Release lautet "Day". Als Grundlage dient Debian 10 Buster, und beim Linux Kernel ist Coral derzeit auf Version 4.14.

Das Cross-Plattform-Framework MediaPipe dient zur Verarbeitung von Daten wie Audio- und Videostreams über eine ML-Perception-Pipeline. Es ist vor allem auf das Prototyping ausgelegt. Ein Beispiel aus dem Google AI-Blog zeigt den Einsatz zum Tracken einer Hand inklusive der Details wie der einzelnen Gelenke in einem Video.

Entwickler können MediaPipe-Graphen auf dem Desktop erstellen und für das Coral-Board konvertieren, um es dort als TensorFlow-Lite-Modell auszuführen. Im Zuge der Umsetzung für das Coral Board sind speziell zugeschnittene Beispiele für die Gesichts- und Objekterkennung im GitHub-Repository von MediaPipe verfügbar.

Das Framework befindet sich derzeit noch im Alpha-Stadium, und laut der MediaPipe-Projektseite sind durchaus noch Breaking Changes bis zum 1.0-Release zu erwarten. Auch die Anbindung an das Coral Board gilt als experimentell.

Google hat zudem ein Beispielprojekt als Einstiegshilfe für den Einsatz von Coral veröffentlicht: Der "Teachable Sorter" nutzt Bildklassifizierung für das Sortieren von Gegenständen. Entwickler können ihr eigenes Modell trainieren und auf das Board übertragen, um Objekte nach Kategorie zu sortieren. Als mehr oder weniger schmackhafte Basis zeigt ein Video das Sortieren von Frühstücksflocken in die Kategorien "Marshmallows" und "keine Marshmallows".

Modelle für das Board wird Google weiterhin auf der Coral-Site veröffentlichen. Neuerdings sind sie auch über TensorFlow Hub, die zentrale Anlaufstelle für vortrainierte TensorFlow-Modelle verfügbar.

Google hatte Coral im März diesen Jahres erstmals im Rahmen des TensorFlow Dev Summit vorgestellt. Nach gut sechs Monaten hat die Plattform Ende Oktober die Betaphase verlassen. Das Coral System on Module (SOM) setzt auf den Koprozessor Google Edge TPU als ML-Beschleuniger und hat als CPU einen NXP i.MX 8M SoC (System on a Chip).

Es hat ein GByte RAM und acht GByte Flash-Speicher. Hinzu kommt ein WiFi- und ein Bluetooth-Modul. Die TPU soll bis zu vier Billionen Operationen pro Sekunde (TOPS, Tera-ops per second) verarbeiten können. Dabei ist er auf Energieeffizienz optimiert und ist auf zwei TOPS/Watt ausgelegt.

Mehr Infos

Die ML-Konferenz Minds Mastering Machines von heise Developer und dem dpunkt.verlag geht nächstes Jahr in die dritte Runde. Der Call for Proposals, bei dem Experten ihre Vortragsvorschläge einreichen können, läuft noch bis zum 17. Januar 2020.

Nächstes Jahr startet zudem mit den ML-Essentials eine neue Veranstaltung, die 18 dreistündige Deep-Dive-Trainings an insgesamt drei Tagen bietet und in ihrem Programm einen tiefen Einblick sowohl in Einsteiger- als auch fortgeschrittene Themen bietet.

Coral setzt auf TensorFlow Lite: Entwickler können entsprechende Modelle quantisieren und kompilieren, damit sie direkt auf der Edge TPU arbeiten. Neben vortrainierten Modellen bietet Google Werkzeuge zum erweiterten Training der Modelle an.

Weitere Details lassen sich dem Entwicklerblog bei Google entnehmen. (rme)