GPT-2
GPT-2 ist ein gängiges Sprachmodell, das auf Deep Learning basiert und von OpenAI zur Textgenerierung entwickelt wurde. Es ist Open-Source und wurde anhand von über 1,5 Milliarden Parametern trainiert, um die nächste Textsequenz für einen bestimmten Satz zu generieren.
Das Modell ist in der Lage, Sprachaufgaben wie Lesen, Zusammenfassen und Übersetzen aus einem Rohtext zu lernen. Zu diesem Zweck sind keine domänenspezifischen Trainingsdaten erforderlich. Im Vergleich zu seinem Vorgänger GPT verfügt GPT-2 über die zehnfachen Parameter sowie die zehnfache Datenmenge.
Quellen: