Reinforcement Learning: Neuronale Netze mit Atari-Spielen trainieren

Reinforcement Learning lässt sich gut mit Videospielen ausprobieren – im Beispiel mit TensorFlow und Python.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Reinforcement Learning, Teil 3: Neuronale Netze mit Atari-Spielen trainieren
Lesezeit: 19 Min.
Von
  • Gerhard Völkl
Inhaltsverzeichnis

Die Herausforderung, Software zu entwickeln, die besser Schach spielen kann als ein Mensch, haben Programmierer schon lange gemeistert. Aber dass Computer mehr Punkte in Videospielen holen als ein Durchschnittsspieler, hat die Firma DeepMind erst 2013 mit Reinforcement Learning – Lernen durch Belohnung – überzeugend geschafft.

2014 kaufte Google DeepMind. Der Kaufpreis, der nie offiziell bestätigt wurde, wird auf etwa 500 Millionen Dollar geschätzt. DeepMind verwendete Q-Learning, eine bestimmte Variante des Reinforcement Learning. Der dritte Teil konzentriert sich darauf, das Verfahren von DeepMind in Python mit der Bibliothek TensorFlow vereinfacht nachzubilden – ganz nach dem Prinzip: Nur wer einen Algorithmus nachbauen kann, hat die Grundzüge des Verfahrens verstanden.

Schwerpunkt: Reinforcement Learning

Klassische Atari-Videospiele bieten eine gute Möglichkeit, Reinforcement-Algorithmen zu testen.

Normalerweise benötigen Q-Learning-Algorithmen einiges an Rechenleistung, die häufig aus zusätzlicher Hardware – etwa Grafikkarten – kommt. Das Beispielprogramm q_learning.py ist nicht für eine bestimmte Hardware optimiert, da es auf möglichst vielen Plattformen laufen soll. Im Fokus steht, dass auf "einfachen" Rechnern einige Lernvorgänge damit möglich sind. Professionelle Lernprogramme benötigen aber einige Hunderttausende oder gar Millionen davon, um die gewünschte Qualität zu erreichen. Der Original-Quellcode von DeepMind ist auf GitHub zu finden.