SEARCH ONE SEARCH ONE
Das Magazin für erfolgreiche Webseiten
Wieso ChatGPT keine Suchmaschine ist und Google auch nicht gefährlich wird
12. Januar 2023

Ich stecke mitten in der Endphase meiner Master Thesis und habe eigentlich keine Zeit zum Bloggen, aber was ich seit einigen Wochen auf LinkedIn und Co. zum Thema ChatGPT lese, macht mich zum Teil fast wahnsinnig. Hier scheint es sehr viel Halbwissen und Missverständnisse zu geben, mit denen ich in meinem Beitrag versucht habe aufzuräumen.

In diesem Beitrag erkläre ich, was ChatGPT ist, was es nicht ist, was es kann und was es eben nicht kann und gebe meine Einschätzung darüber ab, ob bing und You mit derartigen Interfaces Google wirklich gefährlich werden kann.


In meinem Artikel zu GPT-3 habe ich bereits erklärt:

GPT ist ein Sprachmodell und wurde konzipiert, um natürliche Sprache und dessen Struktur abbilden zu können.

Diese Sprachmodelle lassen sich unterschiedlichen Methoden und Layern „fine-tunen“, in dem man sie dazu „erzieht“ bestimmte Dinge eher zu tun und andere Dinge zu lassen.

ChatGPT ist ein „finegetuntes GPT-3.5

Wieso benutzt man nicht einfach GPT-3?

Die klassischen GPT-3-Modelle, die man bereits seit einiger Zeit via API bei OpenAI nutzen kann, sind nicht darauf trainiert, Benutzeranweisungen in natürlicher Sprache zu befolgen.

Das derzeit mächtigste Modell von GPT-3 „text-davinci-003“ (auch GPT-3.5 genannt) ist in der Lage bis zu 4.000 Token auf einmal zu verarbeiten, die sich jedoch auf Input und Output gemeinsam beziehen! Das bedeutet: Je länger also die an das Modell gestellte Anfrage ist, desto kürzer wird der mögliche Output, weil das Fenster nicht erweitert werden kann.

Promt-Engineering als Hürde

Um mit GPT-3 sinnvolle Ergebnisse zu erhalten, muss man also etwas Verständnis und Einarbeitungszeit mit bringen, um das sogenannte Promt-Engineering zu beherrschen, also die Formulierung von Anfragen an das Sprachmodell. Das erklärt übrigens auch, wieso spezialisierte KI-Text-Tools wie jasper, frase und Co. für viele Nutzer einfacher zu benutzen sind und man damit schneller zu besseren Ergebnissen kommt. Diese nehmen einem quasi das Promt-Engineering ab und liefern bewährte Templates und optimierte User Interfaces.

Einfache Benutzer scheitern daran

Irgendwann wurde die OpenAI-API dann für alle geöffnet und unbedarfte Nutzer konnten über den Playground plötzlich ohne Vorkenntnisse oder Programmierkenntnisse mit GPT-3 spielen. Dort sind offenbar derart viele Nutzer daran gescheitert, sinnvolle Ergebnisse zu erhalten, weil ihre Promts einfach schlecht waren, dass man sich bei OpenAI folgendes überlegt hat:

  1. Man fine-tuned ein vortrainiertes GPT-3-Modell mittels sogenanntem „Reinforcement Learning from Human Feedback (RLHF)“, was nichts anderes bedeutet als, das zunächst menschliche KI-Trainer komplette Gespräche vorgaben, in denen sie beide Seiten spielten, also den Nutzer und einen KI-Assistenten. Diese Daten wurden sozusagen als Grundmodell mittels SFT auf GPT geprägt, damit GPT grundsätzlich Dialoge führen kann.
  2. Anschließend wurden neue Anfragen an das geprägte Modell gestellt und menschliche Labeler haben die Antworten nach dessen Qualität sortiert. Diese Daten wurden genutzt, um eine Art Belohnungssystem (RM) zu trainieren, das bei besseren Antworten größere Belohnung ausschüttet, als bei schlechten Antworten, damit GPT quasi lernen kann immer bessere Antworten zu liefern.
  3. Nun konnte die ursprünglich durch Menschen geprägte Policy im ersten PPO-Modell mittels des Feedbacks des trainierten Reward Modells immer weiter verbessert und verfeinert werden.

Dadurch erzeugt ChatGPT viel hilfreichere Ergebnisse als Reaktion auf Benutzeranweisungen als reguläre GPT-3-Modelle. Okay, soweit so gut.

Was kann ChatGPT nicht?

Im Kern ist ChatGPT also eine Art spezialisierte Version von GPT-3.

Wie auch GPT schreibt ChatGPT daher manchmal plausibel klingende, aber falsche oder unsinnige Antworten.

Denn,

GPT erzeugt Text einzig und alleine auf der Wahrscheinlichkeit der Reihenfolge von Wörtern.

Dieses Problem zu beheben, ist eine Herausforderung, wie OpenAI selbst schreibt, denn:

Während des fine-tuning des Modells gibt es derzeit keine Quelle der Wahrheit. Daher wurde das Modell darauf trainiert wird, etwas vorsichtiger zu sein, was dazu führt dass es Fragen ablehnt, die es „glaubt“ nicht richtig beantworten zu können, wie man in diesem Beispiel sehen kann:

Quelle: https://www.linkedin.com/feed/update/urn:li:activity:7019205710622162944/

Einschub: Wie kommt mein Unternehmen in ChatGPT?

Die Liste der Shops sind übrigens die am häufigsten in ähnlichem Kontext genannten Onlineshops innerhalb der Trainingsdaten. Falls Du Dich also fragst, wie Dein Unternehmen „in ChatGPT“ kommt:

Sorge dafür, dass Du die bekannteste Marke in Deiner Nische bist, dann ist die Chance hoch, dass das Modell Dich nennt und nicht den weniger häufig genannten Mitbewerber.

Leider führt das überwachte Training das Modell in diesem Konstrukt auch zum Teil in die Irre, weil die ideale Antwort immer davon abhängt, was das Modell weiß, und das Modell nicht wissen kann, was der menschliche Labeler weiß, der die Antworten bewertet.

Das bedeutet allerdings, dass die derzeitige Version von ChatGPT ist nicht in der Lage ist, Information von extern URLs abzurufen oder diese zu validieren!

Wenn man also beispielsweise fragt:

Quelle: https://www.linkedin.com/feed/update/urn:li:activity:7019205710622162944/

Dann bedeutet dass, die ausgegebenen Preise stammen im besten Falle aus den Trainingsdaten, die aus dem November 2021 sind, im schlimmsten Fall aber, dass diese kompletter Blödsinn sind.

Das ist der WAHRSCHEINLICHSTE PREIS. Nichts Anderes.

In diesem Fall ist es sogar sehr viel wahrscheinlicher, dass die Preise nicht korrekt sind und es auch nie waren! Denn, durch das Training mit der gigantischen Textmenge hinterlassen nur häufig vorkommende Muster ihre Spuren. Ein einzelnes Datum (Singular von Daten) wie ein Preis, kann sich also rein theoretisch garnicht korrekt abbilden, wenn nicht auf hunderten Seiten immer wieder dieser zu finden ist.

Wieso „trainiert“ man ChatGPT nicht mit aktuellem Wissen?

Auf meinen Hinweis, dass es sich dabei nicht um korrekte Antworten handelt, kommt oft der Vorschlag, man müsse doch nur das Modell mit aktuelleren Daten trainieren und schon müssten die Informationen doch korrekt sein. Doch das ist nicht richtig. Denn:

Die Art und Weise, wie das Modell aufgebaut ist, ist nicht dazu geeignet, mit aktuellen Fakten nach trainiert zu werden.

GPT ist grundsätzlich nicht besonders dazu geeignet Informationen und Fakten abzuspeichern und wiederzugeben!

Dass GPT-3 überhaupt in der Lage ist, zu vielen Anfragen plausibel klingende und zum Teil auch korrekte Informationen wiederzugeben, ist das Ergebnis der Tatsache, dass diese Information sehr häufig in den Trainingsdaten enthalten war und sich daher (neben der Grammatik der Sprache) im Modell abgebildet wurde.

ChatGPT als Suchmaschine?

Aus dem letzten Absatz sollte klar geworden sein, wieso ChatGPT nicht dazu geeignet ist, als Suchmaschine verwendet zu werden, auch wenn viele das im Moment natürlich gerne in der Demo ausprobieren!

ChatGPT kann weder auf Webseiten zugreifen, noch ist das trainierte Modell dahinter besonders gut dazu geeignet Fakten zu speichern und wiederzugeben.

Aber bing will doch ChatGPT integrieren?!

Ja, Microsoft will sein ursprüngliches Investment von 1 Mrd. USD in OpenAI mit einer erneuten Zahlung von weiteren 10 Mrd. Dollar angeblich auf stolze 49% der Anteile ausweiten. Berichten zufolge arbeitet man daran, eine Version seiner Suchmaschine bing auf den Markt zu bringen, die die künstliche Intelligenz hinter ChatGPT nutzt.

Wie so etwas aussehen könnte, lässt sich derzeit bereits bei der Suchmaschine von KI-Wunderkind Richard Socher unter You.com in Form von You Chat ausprobieren!

Dies wurde durch die Integration von Zitaten und Echtzeitdaten ermöglich, dass das Sprachmodell von You mit mehr Relevanz und Genauigkeit ausstattet.

Man verwendet hierbei ein zusätzliches Layer, das aus der Nutzeranfrage eine Suchanfrage an die Web Index erstellt. Diese Suchanfrage wird im Hintergrund ausgeführt und die Informationen auf den ersten drei rankenden Webseiten werden extrahiert und wiederum dem Sprachmodell zur Verfügung stellt. Diese erstellt aus der Nutzerfrage und den Inhalten der rankenden Seite schließlich eine Antwort, sozusagen als Zusammenfassung.

Kann das nicht jeder?

Und hier wird es jetzt besonders spannend, denn man muss das Modell nicht permanent nachtrainieren, um aktuelle und korrekte Antworten zu erhalten.

Man muss nur die Frage des Nutzers mittels GPT in eine Anfrage an die eigene Datenbank umformulieren lassen und die Liste der Ergebnisse mittels GPT wieder versprachlichen.

Texttransformation

Genau dafür ist GPT gebaut worden.
Nicht dafür Antworten zu geben oder Fakten zu speichern.

Wieso macht Google das nicht einfach?

Natürlich kannst Du jetzt einfach ein Sprachmodell vor deine Produkt-Datenbank packen. Dann hast du sofort einen vollautomatisierten Verkaufs-Chatbotberater. Theoretisch zu mindest, doch in der Praxis ist es extrem schierig mit unerwarteten Anfragen umzugehen und die Nutzererwartung nicht zu enttäuschen.

Probiere einfach mal ein paar Anfragen bei You Chat aus, dann siehst Du, wie schnell man derzeit noch an die Grenzen des Machbaren stößt.

Außerdem kostet jede Abfrage an ein derart komplexes Modell noch richtig viel. Im Falle von ChatGPT angeblich mehrere Millionen pro Tag. Und laut Co-Founder Greg Brockmann arbeitet man bereits einer schnelleren aber kostenpflichtigen Pro-Version:

https://twitter.com/gdb/status/1612986134048698369

Als Branchenführer hat man hier viel mehr zu verlieren, wenn man falsche Antworten liefert, als ein Neuling in der Beta-Phase.

Daher hat Google aus meiner Sicht auch (noch) kein derartiges Interface.

Ich glaube allerdings nicht, dass Google dem „Innovators Dilemma“ zum Opfer fällt, bei dem etablierte Unternehmen den Wettbewerb um bahnbrechende Innovationen häufig verlieren.

Denn sollte sich ein derartiges Interface tatsächlich durchsetzen, wird Google mit seinen eigenen Modellen wie Lamda, MuM und Co. ein nicht weniger gutes Produkt nachziehen.

Google arbeitet mit Hochdruck daran seine Sprachmodelle effizienter zu machen, ist technologisch mit Sicherheit nicht schlechter aufgestellt, als OpenAI, hat mehr und bessere Trainingsdaten und tiefe Taschen und eigene Spezialhardware, um seine Modelle effizient zu trainieren!

Abmelden   |   Verwalte dein Abonnement   |   Online ansehen
SEARCH ONE Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg, E-Mail: [email protected] https://www.afaik.de/impressum/
Umsatzsteuer-Identifikationsnummer gemäß §27 a Umsatzsteuergesetz: DE283102737, https://www.afaik.de/datenschutz/