+49 221 - 77 268 261
  • en
  • de
  • Lexikon

    Hier finden Sie ein Lexikon zu dem Thema Künstliche Intelligenz.
    Es wird nach und nach ergänzt, um Sie durch den Dschungel der Begrifflichkeiten zu lotsen.

    GPT-2

    GPT-2 ist ein gängiges Sprachmodell, das auf Deep Learning basiert und von OpenAI zur Textgenerierung entwickelt wurde. Es ist Open-Source und wurde anhand von über 1,5 Milliarden Parametern trainiert, um die nächste Textsequenz für einen bestimmten Satz zu generieren. 

    (mehr …)

    GPT-3

    Weiterentwicklung von GPT-2 (siehe oben). Beide Modelle benutzen in etwa die gleiche Architektur, GPT-3 hat jedoch mehr Schichten (s. Neuronales Netz) und wurde mit mehr Daten trainiert.

    GPU

    Graphics Processing Unit / Grafikkarte. Grafikkarten bieten eine sehr hohe Rechenleistung und werden daher für das Training von Deep Learning Modellen eingesetzt.