2. Dezember 2021

Long short-term memory (LSTM)

Long short-term memory (LSTM) oder "langes Kurzzeitgedächtnis" ist eine Technik, die stark zur Verbesserung der Entwicklung von künstlicher Intelligenz (KI) beigetragen hat. LSTM wurde von Sepp Hochreiter und Jürgen Schmidhuber entwickelt und in einer Veröffentlichung 1997 vorgestellt.

LSTM ermöglicht im Gegensatz zu herkömmlichen rekurrenten neuronalen Netzen eine Art Erinnerung an frühere Erfahrungen: Also so etwas wie ein künstliches Kurzzeitgedächtnis, das lange anhält. LSTM sorgt dafür, dass genau solche mehrschichtige neuronale Netze gut funktionieren können.

Seit etwa 2016 feiert LSTM weltweit bedeutende Erfolge, da seitdem große Datenmengen und leistungsfähigere Rechner zum Training genutzt werden können. Große Technologieunternehmen wie Google, Apple und Microsoft setzen LSTM als grundlegende Komponente für neue Produkte ein.

So verwendet Google beispielsweise LSTM für die Spracherkennung auf dem Smartphone. Apple verwendet LSTM für die „Quicktype“-Funktion auf dem iPhone und für Siri, Amazon verwendet LSTM für Amazon Alexa. Google DeepMind entwickelte unter anderem auch auf der Grundlage von LSTM seine Spielsoftware AlphaGo, die zum ersten Mal sehr starke asiatische Profispieler im Brettspiel Go schlagen konnte.

 

Michael Katzlberger

Michael Katzlberger war von 2001-2021 Geschäftsführer von TUNNEL23, einer der führenden, meistausgezeichneten digitalen Kreativagenturen in Österreich. Seit 2016 widmet sich Katzlberger intensiv dem Thema Künstliche Intelligenz in der Kreativindustrie, berät Unternehmen und gibt sein Wissen in Seminaren, Lehrveranstaltungen und Gastvorträgen im In- und Ausland weiter. Sein Schwerpunkt liegt hierbei darauf, das Thema KI zu entmystifizieren, um es EPUs, KMUs und der breiteren Öffentlichkeit besser zugänglich zu machen.

Alle Beiträge ansehen von Michael Katzlberger →