GPT-2 steht für "Generative Pretrained Transformer 2" und ist ein Machine Learning Modell von der Non-Profit-Oganisation OpenAI. Es wurde darauf trainiert, komplett eigenständig und autonom, zusammenhängende Texte zu schreiben. Diese synthetisch geschriebenen Zeilen sind von menschlichen Texten kaum zu unterscheiden. Als Trainingsbasis für dieses KI-Modell dienten Rohtexte von 8 Millionen Websites.
Füttert man GPT-2 beispielsweise mit der ersten Zeile einer Kurzgeschichte, schreibt es diese eigenständig fertig. GPT-2 kann aber auch Texte übersetzen, lange Artikel zusammenfassen oder Quizfragen beantworten.
OpenAI hat die Veröffentlichung von GPT-2 eingeschränkt und nicht Open Source freigegeben, da man die Möglichkeit des Missbrauchs dieser Technologie sieht. Dieser Schritt führte in der Entwicklergemeinde zu gemischten Reaktionen. Die Organisation macht im Normalfall ihre Patente und Forschungsergebnisse für die Öffentlichkeit zugänglich.
Mit GPT-2 wäre es zum Beispiel einfach, Amazon-Rezensionen zu fälschen, Spam und Phishing Mails oder Fake News zu schreiben.