Künstliche Intelligenz - neuronales Netz "Deep Q-Network" kann selbständig lernen

Google hat ein neues künstliches neuronales Netz namens "Deep Q-Network" vorgestellt

Von Dörte Rösler
26. Februar 2015

Denkende Maschinen sind das Thema der Zukunft. Mit "Deep Q-Network" (DGN) hat Google nun ein künstliches neuronales Netz vorgestellt, das sich selbst Computerspiele beibringen kann. Im Test lernte das Programm 49 Spieleklassiker wie Space Invaders bis zum Niveau von erfahrenen menschlichen Spielern.

Wie lernen Mensch?

Die menschliche Intelligenz ist ein Geheimnis, dass die Forscher noch nicht restlos gelüftet haben. Im Laufe der Evolution hat das Gehirn einen solchen Detailreichtum entwickelt, dass es kaum analysierbar ist.

Um zu lernen, muss das Gehirn unzählige Reize auswerten, sortieren und mit bisherigen Erfahrungen abgleichen. Die hierfür erforderliche Rechenleistung ist so vielfältig, dass automatische Systeme dem Menschenhirn aktuell noch hinterherhinken.

Deep Q-Network

Das Deep Q-Network zeigt jedoch, dass die Lernverfahren in künstlichen neuronalen Netzen vielseitiger werden. DQN kann ohne viel Vorwissen eingehende Reize filtern und ähnlich wie das Gehirn durch positive oder negative Verstärkungen Neues lernen.

Experiment zum Lernverhalten von Maschinen

Im Experiment ließen die Forscher ihre neuronales Netzwerk insgesamt 49 unterschiedliche Spiele jeweils 30 Mal hintereinander spielen. Am Ende notierten sie den Highscore und verglichen diesen mit menschlichen Spielern, die jedes Spiel zuvor zwei Stunden üben durften.

Resultat

Das Deep Q-Network entwickelte durch die positiven oder negativen Rückmeldungen in den einzelnen Spielphasen teilweise bessere Strategien als die menschlichen Spieler. In mehr als 50 Prozent der Spiele erreichte die künstliche Intelligenz mehr als 75 Prozent vom Highscore der menschlichen Konkurrenten.