• en
  • de
  • Public Offering

    Unsere Meinung zu ChatGPT

    ChatGPT: Wegweisend, aber noch nicht ganz ausgereift

    ChatGPT hat in den letzten Monaten für viel Aufmerksamkeit gesorgt. In der Tat ist die Leistung von ChatGPT beeindruckend – und zusammen mit Lösungen wie Midjourney oder Lensa trägt das Tool KI als Instrument bei der Erstellung kreativer Inhalte in die breite Öffentlichkeit.

    ChatGPT zeigt eindrucksvoll, wie ein gelungenes Design und ein niedrigschwelliger Zugang Menschen dazu bringt, sich der Nutzung von KI zu öffnen – und was damit möglich wird. E-Mails, Bewerbungen, Aufsätze, Programm-Code, Wortspiele: Der Vielseitigkeit von ChatGPT sind kaum Grenzen gesetzt.

    💡 Wissen, womit man es zu tun hat

    Hinter ChatGPT steht ein Sprachmodell, dessen Qualität alles bisher Bekannte in den Schatten stellt. Es ist als Generalist ausgelegt: ChatGPTs Text Completion setzt auf einer großen Bandbreite von Inhalten in den Trainingsdaten auf. Doch wir müssen uns bewusst sein, dass wir es bei ChatGPT nicht mit qualitätsgesicherten Daten zu tun haben. Das Modell aggregiert sprachgewandten Output aus Wahrscheinlichkeiten und Mustern, die in den breiten Trainingsdaten vorliegen. Faktentreue garantiert es nicht: Nutzer:innen wissen nicht, ob eine Information „erfunden“ wurde oder eine verlässliche Quelle hat. Menschliche Expertise ist gefragt, um mögliche Falschaussagen zu identifizieren.

    ➡ Wie bei allen Tools müssen Nutzer:innen also auch bei ChatGPT lernen, mit ihm umzugehen und sich seiner Schwächen bewusst zu sein.

    Die Sorgfalt bei der Auswahl und Vorbereitung der Trainingsdaten für KI-Modelle ist ein großer Faktor für den Erfolg von Modellen der künstlichen Intelligenz. Große KI-Modelle, die sich ausschließlich auf wahllose Online-Inhalte und Wissen stützen, können falsche, gar katastrophale Ergebnisse liefern, die wiederum von nachfolgenden KI-Modellen als Lerngrundlage verwendet werden können.

    Es ist jedoch nahezu unmöglich, bei der großen Datenmenge für Large Language Models alle Falschinformationen herauszufiltern. Auch korrekte Trainingsdaten können mit der Zeit veralten oder in einem falschen Kontext zu falschen Ergebnissen führen. Daher ist neben der Sicherstellung der Nutzung von genauen und vertrauenswürdigen Daten, eine sorgfältige Überprüfung der Outputs und ein Postprocessing wichtig. Durch eine gesicherte Faktizität über die gesamte Pipeline hinweg, kann dieser Kreislauf von Fehlern, die sich im Laufe der Zeit potenzieren und verfestigen können, durchbrochen werden.

    Ellas generative KI-Forschung und – Entwicklung zeichnet sich durch hohe Ansprüche und Standards aus, die an die Qualität von Input und Output gestellt werden. Wir bewerten die Fähigkeiten und verifizieren die Leistung unserer Sprachmodelle durch unsere spezielle TextQA, die von einem Team von Sprachexperten durchgeführt wird, die eng mit unseren Teams für maschinelles Lernen und Data Science zusammenarbeiten. So stellen wir sicher, dass unsere Kunden und Nutzer von einer marktführenden Sorgfalt profitieren.

    Setzen Sie auf die Qualitätsstandards von Ella.