Lexikon
Hier finden Sie ein Lexikon zu dem Thema Künstliche Intelligenz.
Es wird nach und nach ergänzt, um Sie durch den Dschungel der Begrifflichkeiten zu lotsen.
GPT-2
GPT-2 ist ein gängiges Sprachmodell, das auf Deep Learning basiert und von OpenAI zur Textgenerierung entwickelt wurde. Es ist Open-Source und wurde anhand von über 1,5 Milliarden Parametern trainiert, um die nächste Textsequenz für einen bestimmten Satz zu generieren.
GPT-3
Weiterentwicklung von GPT-2 (siehe oben). Beide Modelle benutzen in etwa die gleiche Architektur, GPT-3 hat jedoch mehr Schichten (s. Neuronales Netz) und wurde mit mehr Daten trainiert.
GPU
Graphics Processing Unit / Grafikkarte. Grafikkarten bieten eine sehr hohe Rechenleistung und werden daher für das Training von Deep Learning Modellen eingesetzt.