Neuronale KI
Es waren Geoffrey Hinton und zwei seiner Kollegen, die 1986 die neuronale KI-Forschung und damit das Forschungsfeld der artificial intelligence wiederbelebten. Mit ihrer Weiterentwicklung des Backpropagation-Algorithmus schufen sie die Grundlage für das Deep Learning, mit dem heute fast jede KI arbeitet. Dank dieses Lernalgorithmus können tiefe neuronale Netzwerke stetig dazulernen und eigenständig wachsen – und so Herausforderungen meistern, bei denen die symbolische KI versagt.
Neuronale künstliche Intelligenz (auch: konnektionistische oder subsymbolische KI) verabschiedet sich also vom Prinzip der symbolischen Wissensrepräsentation. Ähnlich wie beim menschlichen Gehirn ist das Wissen stattdessen in winzige Funktionseinheiten segmentiert, die künstlichen Neuronen, die sich zu immer größer werdenden Gruppen vernetzen (Buttom-up-Ansatz). Es entsteht ein vielfältig verzweigtes Netzwerk künstlicher Neuronen.
Die neuronale KI versucht das Funktionsprinzip des Gehirns möglichst präzise nachzubilden und seine neuronalen Netze künstlich zu simulieren. Im Gegensatz zur symbolischen KI wird das neuronale Netz „trainiert“ – in der Robotik beispielsweise mit sensomotorischen Daten. Aus diesen Erfahrungen generiert die KI ihr ständig wachsendes Wissen. Hier liegt die große Innovation: Zwar beansprucht das Training verhältnismäßig viel Zeit, doch ist das System schließlich in der Lage, eigenständig zu lernen. Man spricht daher auch von „selbstlernenden Systemen“ oder „maschinellem Lernen“. Das macht neuronale künstliche Intelligenzen zu sehr dynamischen, anpassungsfähigen Systemen – die für Menschen mitunter nicht mehr vollständig nachvollziehbar sind.
Der Aufbau eines künstlichen neuronalen Netzwerks folgt allerdings fast immer denselben Prinzipien:
- Unzählige künstliche Neuronen sind in Schichten übereinander platziert. Sie sind über simulierte Leitungen miteinander verbunden.
- Gegenwärtig befinden sich vor allem tiefe neuronale Netze in der Anwendung. „Tief“ bedeutet, dass sie mit mehr als zwei Schichten arbeiten. Die Zwischenschichten liegen hierarchisch übereinander – in manchen Systemen werden Informationen über Millionen von Verbindungen nach oben gereicht. Zur Orientierung: AlphaGo (Google DeepMind) verfügt über 13 Zwischenschichten, Inception (Google) schon über 22 Schichten.
- Die oberste Schicht oder Input-Schicht funktioniert wie ein Sensor: Sie nimmt den Input – etwa Text, Bilder oder Geräusche – in das System auf. Von dort aus wird der Input nach bestimmten Mustern durch das Netzwerk gereicht und mit bisherigem Input verglichen. Über die Input-Schicht wird das Netzwerk also gefüttert und trainiert.
- Die tiefste Schicht oder Output-Schicht dagegen hat meist nur wenige Neuronen – eines für jede zu klassifizierende Kategorie (Bild eines Hundes, Bild einer Katze etc.). Die Output-Schicht zeigt dem Benutzer das Ergebnis des neuronalen Netzwerks an und kann z. B. auch das Bild einer Katze erkennen, das ihm vorher unbekannt war.
- Es gibt drei grundsätzliche Lernverfahren, mit denen sich neuronale Netzwerke trainieren lassen: überwachtes, nicht überwachtes und bestärkendes Lernen. Diese Verfahren regulieren auf jeweils unterschiedliche Weise, wie ein Input zum gewünschten Output eines Systems führt.
Die überwältigende Mehrzahl der jüngsten KI-Erfolge gehen auf das Konto neuronaler Netzwerke. Unter dem Schlagwort Deep Learning setzt man in der Innovationsforschung auf die außerordentlichen Leistungen selbstlernender Systeme – sei es bei der Sprach- und Handschrifterkennung oder beim autonomen Fahren. Dank tiefer neuronaler Netze besiegte Google DeepMinds AlphaGo 2016 den südkoreanischen Profi-Go-Spieler Lee Sedol. Go gilt als eines der komplexesten strategischen Brettspiele der Welt.
Googles Inception wiederum, eigentlich ein System zur Bilderkennung, erschafft verblüffende Traumbilder, die 2015 unter dem Hashtag #DeepDreams einen viralen Hype auslösten. Dieser „Nebeneffekt“ des Systems wurde von seinen Entwicklern zufällig entdeckt: Sie wollten herausfinden, wie die von ihnen geschaffene künstliche Intelligenz genau funktioniert.