Long Short-Term Memory (LSTM) ist eine Mög­lich­keit, neuronale Netzwerke zu trai­nie­ren und wichtige In­for­ma­tio­nen lang­fris­tig zu speichern. Die Technik nutzt dafür einen Kurzzeit- und einen Lang­zeit­spei­cher und ist von ent­schei­den­der Bedeutung für die Wei­ter­ent­wick­lung von künst­li­cher In­tel­li­genz.

Was ist Long Short-Term Memory (LSTM)?

Bei der Long Short-Term Memory (LSTM) handelt es sich um eine Technik aus der In­for­ma­tik, die genutzt wird, um In­for­ma­tio­nen innerhalb eines neu­ro­na­len Netzwerks über einen längeren Zeitraum zu speichern. Dies hat vor allem bei der Ver­ar­bei­tung von se­quen­zi­el­len Daten eine große Bedeutung. Durch die Long Short-Term Memory kann das Netz auf frühere Er­eig­nis­se zu­rück­grei­fen und diese für neue Be­rech­nun­gen be­rück­sich­ti­gen. Dadurch grenzt es sich ins­be­son­de­re von Recurrent Neural Networks (RNN) ab oder kann diese ideal ergänzen. Statt eines einfachen „Kurz­zeit­ge­dächt­nis­ses“ verfügt die LSTM über ein zu­sätz­li­ches „Lang­zeit­ge­dächt­nis“, in dem aus­ge­wähl­te In­for­ma­tio­nen über einen längeren Zeitraum ge­spei­chert werden.

Netzwerke mit Long Short-Term Memory können In­for­ma­tio­nen also über lange Zeiträume bewahren und dadurch lang­fris­ti­ge Ab­hän­gig­kei­ten erkennen. Dies ist ins­be­son­de­re im Bereich Deep Learning und KI von großer Bedeutung. Die Basis dafür sind die so­ge­nann­ten Tore oder Gates, deren Funk­ti­ons­wei­se wir Ihnen im weiteren Verlauf dieses Artikels noch näher erklären. Die Netzwerke liefern ef­fi­zi­en­te Modelle für die Vor­her­sa­ge und Ver­ar­bei­tung auf Basis von Zeit­rei­hen­da­ten.

KI-Lösungen
Mehr Digital-Power dank Künst­li­cher In­tel­li­genz
  • In Sekunden zur Online-Präsenz
  • Mehr Wachstum mit KI-Marketing
  • Zeit und Res­sour­cen sparen

Aus welchen Elementen besteht eine LSTM-Zelle?

Eine Zelle, die über Long Short-Term Memory verfügt, besteht aus un­ter­schied­li­chen Bau­stei­nen, die dem Netzwerk ver­schie­de­ne Optionen bieten. Dieses muss die Mög­lich­keit haben, In­for­ma­tio­nen über einen langen Zeitraum zu speichern und sie bei Bedarf mit neuen In­for­ma­tio­nen zu ver­knüp­fen. Gleich­zei­tig ist es wichtig, dass die Zelle un­wich­ti­ges oder über­hol­tes Wissen ei­gen­stän­dig aus dem „Ge­dächt­nis“ löscht. Aus diesem Grund besteht sie aus vier un­ter­schied­li­chen Kom­po­nen­ten:

  • Input Gate: Das Ein­gangs­tor ent­schei­det, welche neuen In­for­ma­tio­nen auf welche Weise in den Speicher auf­ge­nom­men werden sollen.
  • Forget Gate: Das „Tor des Ver­ges­sens“ bestimmt, welche In­for­ma­tio­nen in einer Zelle ge­spei­chert und welche dort wieder entfernt werden sollen.
  • Output Gate: Das Aus­gangs­tor legt fest, wie Werte aus einer Zelle aus­ge­ge­ben werden. Die Ent­schei­dung basiert dabei auf dem aktuellen Zustand und den je­wei­li­gen Ein­gangs­in­for­ma­tio­nen.

Die vierte Kom­po­nen­te ist das Zell­in­ne­re. Dieses un­ter­liegt einer eigenen Ver­knüp­fungs­lo­gik, die regelt, wie die anderen Kom­po­nen­ten in­ter­agie­ren und wie mit In­for­ma­ti­ons­flüs­sen und Spei­cher­vor­gän­gen verfahren werden soll.

Wie funk­tio­niert Long Short-Term Memory?

Ähnlich wie das bereits an­ge­spro­che­ne Recurrent Neural Network oder das simplere Feed­for­ward Neural Network (FNN) agieren auch Zellen mit Long Short-Term Memory in Schichten. Im Gegensatz zu anderen Netz­wer­ken speichern sie In­for­ma­tio­nen al­ler­dings über lange Zeiträume und können diese nach­träg­lich ver­ar­bei­ten oder abrufen. Dafür nutzt jede LSTM-Zelle die oben genannten drei Tore sowie eine Art Kurz­zeit­ge­dächt­nis und ein Lang­zeit­ge­dächt­nis.

  • Das Kurz­zeit­ge­dächt­nis, also der Speicher, in dem kurz­zei­tig In­for­ma­tio­nen aus vor­he­ri­gen Be­rech­nungs­schrit­ten abgelegt werden, ist auch aus anderen Netz­wer­ken bekannt. Er nennt sich im Bereich der Long Short-Term Memory Hidden State. Anders als andere Netzwerke kann eine LSTM-Zelle In­for­ma­tio­nen aber auch lang­fris­tig behalten. Diese werden dazu im so­ge­nann­ten Cell State hin­ter­legt. Neue In­for­ma­tio­nen durch­lau­fen nun die drei Tore.
  • Im Input Gate wird der aktuelle Input mit dem Hidden State und der Ge­wich­tung des letzten Durch­laufs mul­ti­pli­ziert. So ent­schei­det das Ein­gangs­tor, wie wertvoll der neue Input ist. Wichtige In­for­ma­tio­nen werden dann mit dem bis­he­ri­gen Cell State addiert und so zum neuen Cell State.
  • Im Forget Gate wird ent­schie­den, welche In­for­ma­tio­nen wei­ter­ver­wen­det und welche entfernt werden sollen. Be­rück­sich­tigt werden dafür der letzte Hidden State und der aktuelle Input. Mithilfe einer Sigmoid-Funktion (Schwa­nen­hals­funk­ti­on), die Werte zwischen 0 und 1 ausgibt, wird diese Ent­schei­dung getroffen. 0 bedeutet, dass eine vorherige In­for­ma­ti­on vergessen wird, während 1 die vorherige In­for­ma­ti­on als aktuellen Status beibehält. Das Ergebnis wird mit dem aktuellen Cell State mul­ti­pli­ziert. Werte mit 0 fallen somit raus.
  • Der letzt­end­li­che Output wird dann im Aus­gangs­tor berechnet. Dafür werden der Hidden State und die Sigmoid-Funktion genutzt. Im Anschluss wird der Cell State mit einer tanh-Funktion (hy­per­bo­li­scher Tangens) aktiviert und mul­ti­pli­ziert, um zu bestimmen, welche In­for­ma­ti­on durch das Aus­gangs­tor gelangen soll.

Welche un­ter­schied­li­chen Ar­chi­tek­tu­ren gibt es?

Während diese Funk­ti­ons­wei­se bei allen Netz­wer­ken mit Long Short-Term Memory ähnlich ist, gibt es teilweise gra­vie­ren­de Un­ter­schie­de bei der Ar­chi­tek­tur von LSTM-Varianten. Weit ver­brei­tet sind zum Beispiel so­ge­nann­te Peephole LSTMs, die ihren Namen dem Umstand verdanken, dass die einzelnen Gates den Status der je­wei­li­gen Zelle einsehen können. Der Begriff „Peephole“ bedeutet soviel wie „Guckloch“. Eine Al­ter­na­ti­ve sind Peephole kon­vo­lu­tio­na­le LSTMs, die neben einer Ma­trix­mul­ti­pli­ka­ti­on eine diskrete Faltung verwenden, um die Aktivität eines Neurons zu berechnen.

IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

Was sind die wich­tigs­ten An­wen­dungs­ge­bie­te von Long Short-Term Memory?

Unzählige An­wen­dun­gen setzen mitt­ler­wei­le ganz oder teilweise auf neuronale Netzwerke mit Long Short-Term Memory. Die Ein­satz­ge­bie­te sind dabei sehr viel­schich­tig. Die Technik leistet einen wert­vol­len Beitrag in folgenden Bereichen:

  • au­to­ma­ti­sier­te Text­ge­ne­rie­rung
  • Analyse von Zeit­rei­hen­da­ten
  • Sprach­er­ken­nung
  • Prognose von Bör­sen­ent­wick­lun­gen
  • Kom­po­si­ti­on

Auch für die Iden­ti­fi­zie­rung von Anomalien zum Beispiel bei Be­trugs­ver­su­chen oder Angriffen auf Netzwerke wird Long Short-Term Memory genutzt. Ent­spre­chen­de An­wen­dun­gen können auch Medien wie Filme, Serien, Bands oder Bücher anhand von Nut­zer­da­ten empfehlen oder Videos, Bilder oder Songs ana­ly­sie­ren. So lässt sich auf einfache Weise nicht nur die Si­cher­heit erhöhen, sondern auch der Aufwand erheblich re­du­zie­ren.

Zahl­rei­che große Konzerne nutzen Long Short-Term Memory für ihre Services und Produkte. Google verwendet ent­spre­chen­de Netzwerke für seine smarten As­sis­tenz­sys­te­me, das Über­set­zungs­pro­gramm Google Translate, die Spiel­soft­ware AlphaGo oder die Sprach­er­ken­nung in Smart­phones. Die beiden sprach­ge­steu­er­ten As­sis­ten­ten Siri (Apple) und Alexa (Amazon) basieren ebenso auf Long Short-Term Memory wie die Tas­ta­tur­ver­voll­stän­di­gung von Apple.

Zum Hauptmenü