11. Dezember 2023

GPT-2 Text Generator

GPT-2 steht für "Generative Pretrained Transformer 2" und ist ein Machine Learning Modell von der Non-Profit-Oganisation OpenAI. Es wurde darauf trainiert, komplett eigenständig und autonom, zusammenhängende Texte zu schreiben. Diese synthetisch geschriebenen Zeilen sind von menschlichen Texten kaum zu unterscheiden. Als Trainingsbasis für dieses KI-Modell dienten Rohtexte von 8 Millionen Websites.

Füttert man GPT-2 beispielsweise mit der ersten Zeile einer Kurzgeschichte, schreibt es diese eigenständig fertig. GPT-2 kann aber auch Texte übersetzen, lange Artikel zusammenfassen oder Quizfragen beantworten.

OpenAI hat die Veröffentlichung von GPT-2 eingeschränkt und nicht Open Source freigegeben, da man die Möglichkeit des Missbrauchs dieser Technologie sieht. Dieser Schritt führte in der Entwicklergemeinde zu gemischten Reaktionen. Die Organisation macht im Normalfall ihre Patente und Forschungsergebnisse für die Öffentlichkeit zugänglich.

Mit  GPT-2 wäre es zum Beispiel einfach, Amazon-Rezensionen zu fälschen, Spam und Phishing Mails oder Fake News zu schreiben.

Michael Katzlberger

Michael Katzlberger widmet sich mit Leidenschaft dem Thema Künstliche Intelligenz in der Kreativindustrie, berät Unternehmen und gibt sein Wissen in Seminaren, Lehrveranstaltungen und Gastvorträgen im In- und Ausland weiter. Sein Schwerpunkt liegt hierbei darauf, das Thema KI zu entmystifizieren, um es EPUs, KMUs und der breiteren Öffentlichkeit besser zugänglich zu machen. 2022 gründete er 3LIOT.ai, eine hybride Kreativagentur aus Mensch und KI. Das Ziel: Die Grenzen menschlicher Kreativität zu erweitern.

Alle Beiträge ansehen von Michael Katzlberger →