Zum Inhalt springen

Interview zu ChatGPT & Co: Was war, was ist – und wie geht’s weiter? Search Camp Folge 282

ChatGPT hat uns die letzten sechs Monate in Atem gehalten. Aber wie geht’s weiter mit GPT? Welche Tricks gibt es beim Prompt Engineering? Was passiert in rechtlicher und legislativer Sicht? Und wie sind Bing Chat und Google SGE zu bewerten? ➡ In der neuen Folge von Search Camp hat Markus Hövener genau das mit Kai Spriestersbach besprochen. 🎧

Heute möchte ich euch von meinem Gespräch mit Markus Hövener im Search Camp Podcast erzählen. Wir haben selbstverständlich über das aktuell heißeste Thema ChatGPT und Content gesprochen. Es war ein schönes Gespräch und ich möchte euch nun die interessantesten Aussagen daraus präsentieren.

Die aktuelle Folge könnt ihr euch hier direkt anhören:

Markus und ich haben uns schon im September 2021 in einer Podcast-Folge mit dem Thema GPT beschäftigt, lange bevor es richtig populär wurde. Ihr könnt gerne in der Podcast-Episode „Maschinelle Text Herstellung mittels KI – taugt das?“ reinhören, wenn ihr mehr darüber erfahren möchtet.

Zusammenfassung

Zunächst wollte Markus wissen, wie ich zu meinem Buch gekommen bin: Der Prozess, das Buch zu schreiben, war für mich relativ einfach: Der Verlag ist auf mich zugekommen, da sie das Thema als interessant erachteten und nach Experten suchten. Ich hatte gerade an meiner Masterarbeit gearbeitet und dachte mir, warum nicht auch ein Buch schreiben? Es war die perfekte Gelegenheit, da mich das Thema schon lange fasziniert.

Das letzte halbe Jahr war wirklich verrückt: Als ChatGPT veröffentlicht wurde, gab es tagelang nichts anderes mehr in den sozialen Medien. Rückblickend kann ich sagen, dass ich nicht erwartet hätte, dass das Thema so durch die Decke geht. Wir haben bereits 2021 darüber gesprochen, aber damals basierte die textgenerierende KI noch auf dem alten GPT-3-Modell. Mit dem Release von GPT-4 hat sich alles schlagartig geändert. Plötzlich konnte jeder kostenlos mit der KI chatten und das Interface war für jeden verständlich. Das hat dazu geführt, dass sich GPT so schnell verbreitet hat. Es war abgefahren, wie breit es im Mainstream angekommen ist. Sogar beim Friseur und in der Metzgerei wurde darüber gesprochen. Mich persönlich hat das ebenso überrascht, wie die Entwickler bei OpenAI.

Markus erzählte mir, dass seine Frau, die Lehrerin ist, vor Kurzem einen Schüler erwischt hatte, der mit ChatGPT eine Hausarbeit erstellt hat. Leider hatte er dabei einen Anfängerfehler gemacht und den Prompt mit reinkopiert. Die aktuelle KI führt natürlich zu Problemen, insbesondere unter Lehrern ist das Thema ChatGPT sehr präsent und heiß diskutiert. Als Lehrbeauftragter an der Hochschule bekomme auch ich viel davon mit. Ich denke, wir sollten diese Entwicklung akzeptieren, denn die Büchse der Pandora ist bereits geöffnet. Statt dagegen anzukämpfen, sollten wir die Prüfungsformen anpassen und den Schülerinnen und Schülern beibringen, wie sie mit KI-Texten umgehen sollen. Es bietet sich die Möglichkeit, die genutzten Modelle zu reflektieren und die Ergebnisse zu hinterfragen. Denn die KI ist nicht perfekt und kann auch falsche Informationen liefern.

Markus und ich haben anschließend über die Halluzinationen gesprochen, die bei der Verwendung von GPT-3 und Co. auftreten können: Diese entstehen, weil das Modell darauf trainiert wird, die Wahrscheinlichkeit des nächsten Tokens vorherzusagen. Das bedeutet, dass die generierte Antwort nicht immer korrekt sein muss. Es gibt Bestrebungen, die Wahrscheinlichkeiten durch Alignment und Feintuning zu verbessern, um falsche Informationen zu reduzieren. Allerdings ist es unwahrscheinlich, dass wir von diesem Funktionsprinzip abweichen werden.

Ich persönlich habe während des Schreibens meines Buches die Verbesserungen von GPT miterlebt. Ich habe immer wieder meine Texte durch das Modell gejagt, um aktuelle Ergebnisse zu erhalten. Es ist erstaunlich, wie gut sich die Ausgaben verbessert haben. Man kann heute sogar nach wissenschaftlichen Quellen für Hausarbeiten fragen und bekommt brauchbare Ergebnisse. Dennoch bleibt die Schwäche, dass die generierten Texte nicht immer vollständig korrekt sind.

Um dem entgegenzuwirken, habe ich auf meiner Webseite Tipps veröffentlicht, wie man in der Praxis verhindern kann, dass falsche Fakten in den Texten erzeugt werden. Es ist wichtig zu verstehen, dass das Modell für sprachliche Aufgaben gemacht ist und nicht als Wissensmaschine konzipiert wurde!

Danach haben wir kurz über verschiedene Tools wie Jasper, Neuroflash und Co. gesprochen und wie sie sich voneinander unterscheiden: Grundsätzlich basieren die meisten dieser Tools auf derselben Technologie und nutzen in der Regel GPT-4-API von OpenAI. Daher sind die Ergebnisse qualitativ nicht stark unterschiedlich. Die Unterschiede liegen eher in den Workflows und Oberflächen der einzelnen Tools. Einige bieten die Möglichkeit, das Internet nach Informationen zu durchsuchen und diese in den generierten Text einzubeziehen. Es kommen aber auch immer mehr alternative Modelle auf den Markt, zum Beispiel das Modell Claude von Anthropic AI oder Luminous von Aleph Alpha aus Heidelberg. Ich erwarte, dass in den nächsten Wochen und Monaten noch mehr Vielfalt in diesem Bereich entstehen wird.

Ein weiteres Thema, das in meinem Buch behandelt wird, ist das Prompt Engineering: Es geht darum, wie man gute Fragen stellt, um gute Ergebnisse zu erzielen. Auf LinkedIn werden täglich unzählige Prompts und Ideen geteilt. Für Nicht-Experten kann es schwierig sein, hier den Überblick zu behalten. Die Frage ist, wie viele Prompts, Strukturen und Ideen man wirklich kennen sollte, um gute Ergebnisse zu erzielen.

Die Antwort hängt natürlich vom Anwendungsfall ab. Wenn man beispielsweise Blogbeiträge für das eigene Unternehmensblog schreiben möchte, reichen in der Regel 5-6 sinnvolle Anweisungen aus, wie z.B. eine Inhaltsliste oder mögliche Titel und Überschriften und die Einleitung, Absätze und Zusammenfassung am Ende. Es ist jedoch wichtig, sich mit der Technologie auseinanderzusetzen und selbst damit zu experimentieren, um ein grundlegendes Verständnis dafür zu entwickeln. Die KI kann einem nicht sagen, was sie nicht kann. Man muss selbst herausfinden, welche Anweisungen funktionieren und welche nicht.

In meinem Buch gebe ich auch einen speziellen Prompt preis, der alle anderen Prompts generiert. Es ist ein schönes Konstrukt, bei dem die KI nachfragt, was sie tun soll und Vorschläge für Verbesserungen liefert. Theoretisch könnten wir also nur diesen einen Prompt nutzen. In der Praxis ist es jedoch wichtig, sich intensiv damit auseinanderzusetzen und seinen eigenen Workflow zu finden.

Anschließend haben wir über die Wahrnehmungsprobleme mit GPT und die Frage diskutiert, ob künstliche Intelligenz wirklich intelligent ist: Es ist bekannt, dass wir Menschen dazu neigen, Technologie zu vermenschlichen und hinter ihr eine höhere Intelligenz zu sehen. Doch letztendlich handelt es sich bei GPT nur um eine Textgenerierungstechnologie. Auch Entwickler, die genau wissen, wie solche Systeme funktionieren, sind davor nicht gefeit. Die Frage, ob GPT als künstliche Intelligenz bezeichnet werden kann, ist komplex. Die bisherigen Systeme haben definitiv ihre Grenzen, aber sie können schon erstaunlich viel. Es entstehen sogar unerwartete Fähigkeiten, die die KI-Forscher selbst nicht vorhergesehen haben. Die Definition von Intelligenz ist in der KI-Forschung schwierig. Die Messbarkeit der Leistung durch Aufgabenbewertung hat sich bewährt, aber ob das nun als Intelligenz bezeichnet werden kann, ist eine Diskussion über die Begrifflichkeit.

Ein weiteres Thema, das wir besprochen haben, ist die Frage, ob die Google-Richtlinien in Bezug auf GPT und SEO klar sind: Ich finde, dass Google klar gemacht hat, dass es ihnen nicht darum geht, ob ein Text von einer KI generiert wurde oder nicht. Es ist entscheidend, dass der Text für die Nutzer geschrieben wurde und einen Zweck erfüllt, und nicht, um Suchmaschinenergebnisse zu manipulieren. Daher ist es nicht möglich, dass Google generierte Texte von GPT erkennt. Es gibt Tools, die das zwar behaupten, aber das ist Quatsch. Es ist schlicht nicht möglich, mit Sicherheit nachzuweisen, dass ein Text von einem KI-Modell erstellt wurde.

Für Google zählt letztendlich nur, ob der Text gut ist und die Frage des Nutzers beantwortet. Daher sollte man sich darauf konzentrieren, gute Inhalte zu schreiben, gerne auch mit Unterstützung der KI.

Wir haben diskutiert, ob man mit einem einzigen Prompt GPT darum bitten kann, einen Artikel über ein bestimmtes Thema zu schreiben und diesen anschließend veröffentlichen sollte: Hierbei sollte man kritisch sein und sich fragen, ob der generierte Text wertvoller ist als bereits verfügbare Informationen. Wenn ja, kann es sinnvoll sein, den Text auf der eigenen Webseite zu veröffentlichen. Es ist jedoch wichtig, sich nicht selbst zu täuschen und sich bewusst zu machen, dass der Text von einer KI generiert wurde.

Als Nächstes haben über die Herausforderungen des Wettbewerbs im SEO-Bereich und die Entwicklungen von Google und Bing gesprochen: Es ist kein Geheimnis, dass der Wettbewerb in der SEO-Branche hart ist. Wenn man viel Zeit und Arbeit in einzigartige Inhalte investiert, besteht die Gefahr, dass sie von Mitbewerbern abgeschrieben werden. Doch trotzdem lohnt es sich, vorne mit dabei zu sein und ein Wissensführer in einem bestimmten Bereich zu werden.

Dabei geht es nicht nur darum, Informationen zu haben, die andere nicht haben, sondern auch darum, diese Informationen auf eine besondere Art und Weise aufzubereiten und zu präsentieren. Wenn man beispielsweise das Wetterbericht-Thema betrachtet, kann schon allein die unterhaltsamste Art der Präsentation einen Mehrwert bieten.

Wir haben selbstverständlich auch über die Entwicklungen von Google und Bing gesprochen: Markus erwähnte New Bing mit dem Chat-Interface und die Search Generative Experience von Google mit den Snapshots, die Informationen von Webseiten zusammenfassen. In der Theorie könnte dies zu einer verbesserten Suche führen, aber derzeit sehen wir, dass es oft noch nicht gut funktioniert. Wenn jedoch die Probleme behoben werden, könnte es tatsächlich eine bessere Suche sein. Dabei ist es jedoch wichtig, dass die Quellen der Informationen transparent sind und der Nutzer nachvollziehen kann, woher die Informationen stammen.

Als Website-Betreiber haben wir auch ein Interesse daran, dass unsere Informationen nicht nur von Google genutzt werden, sondern dass wir damit auch Besucher auf unsere Webseite generieren können. Bing hat sogar vorgeschlagen, Website-Betreiber an den Werbeeinnahmen zu beteiligen, was ein interessantes Modell ist.

Ein weiterer Aspekt, den wir besprochen haben, sind legislative Ideen und Vorstöße, die sich mit der Kennzeichnungspflicht solcher Inhalte befassen: Es geht hierbei um die Frage, wie man generierte Inhalte, sowohl Text als auch Bild, kennzeichnen kann. In Zukunft könnte es sein, dass wir in Deutschland eine KI-Verwertungsgesellschaft haben werden, bei der KI-Betreiber einen Teil ihres Umsatzes zahlen müssen und dieser dann wieder aufgeteilt wird.

Wir haben ebenso über die Herausforderungen der Künstlichen Intelligenz (KI) und die rechtliche Bewertung von generierten Texten gesprochen: Ein Hauptanliegen für mich ist es, dass wir als Gesellschaft ein Verständnis für das Thema KI entwickeln und uns darüber unterhalten, wie die KI in Zukunft funktionieren soll. Es ist wichtig, dass wir als Gesellschaft mitbestimmen, was wir zulassen und was nicht. Dabei müssen wir uns bewusst sein, dass sowohl Unternehmensinteressen als auch politische Einflussnahmen eine Rolle spielen können. Die EU hat den EU AI Act vorgelegt, der einige Stärken und Schwächen hat, aber grundsätzlich richtig und gut ist. Wir haben auch schon viele Gesetze, die sich mit Problemen wie Desinformation befassen. Es geht darum, Transparenz zu schaffen und sicherzustellen, dass die Verantwortlichen für ihre Inhalte haftbar gemacht werden können. In den USA droht eine Lawine von Prozessen, da es dort das sogenannte Case Law gibt, bei dem erst in einem konkreten Fall ein Grundsatzurteil gefällt werden muss. In Deutschland gelten die bisherigen Gesetze, aber es ist schwierig, eine klare Linie zu ziehen. Wenn ein Text mit Hilfe von KI generiert wird, ist die Frage, ab wann der Prozess der Texterstellung als schöpferischer Akt angesehen werden kann. In der Praxis muss dies im Einzelfall geklärt werden.

Ich persönlich finde es in Ordnung, KI-Technologien einzusetzen, solange man als Urheber dafür haftbar ist und den Text zu einem gewissen Teil zu eigen macht. Eine Kennzeichnungspflicht für generierte Inhalte halte ich für wichtig. Im EU AI Act sind solche Texte als Hochrisiko-Anwendungen eingestuft und unterliegen besonderen Auflagen. Dieser Ansatz ermöglicht es, Innovationen voranzutreiben, ohne die rechtliche Verantwortung zu vernachlässigen.

Es ist ein ständiger Kampf zwischen verschiedenen Interessen, aber wir leben nicht in einem rechtsfreien Raum. Die Rechtslage kann komplex sein, aber es ist wichtig, dass wir uns darüber austauschen und gemeinsam Lösungen finden.

Anschließend haben wir über die Zukunft der Texter in Bezug auf Künstliche Intelligenz (KI) und die kommenden Entwicklungen im Bereich der KI gesprochen: Die Frage, ob sich Texter Sorgen machen sollten, dass KI sie arbeitslos macht, ist interessant. Meine Antwort darauf ist, dass es darauf ankommt, was für Texte man bisher produziert hat. Wenn man Texte mit geringer Qualität und ohne Recherche erstellt hat, sollte man sich in der Tat Sorgen machen. Denn KI kann diese Aufgabe besser, schneller und günstiger erledigen. Wenn man jedoch Wert auf Struktur, Storytelling und hochwertige journalistische Beiträge legt, braucht man sich keine Sorgen zu machen. KI kann die Arbeit eines Texters unterstützen und verbessern, aber sie wird keinen qualitativ hochwertigen Text ersetzen können.

Abschließend haben wir über die Zukunft der KI gesprochen: In den nächsten Monaten werden wir wahrscheinlich viele kleine Verbesserungen sehen, speziell für bestimmte Branchen wie Medizin und Gartenbau. Es wird immer mehr Anwendungen geben, bei denen KI integriert ist, aber große Durchbrüche werden voraussichtlich noch einige Jahre auf sich warten lassen. Ich freue mich jedoch schon auf die Weiterentwicklung der KI und bin gespannt, was die Zukunft bringt.

Zum Abschluss möchte ich mich bei Markus Hövener für das interessante Interview bedanken. Es hat mir viel Spaß gemacht, seine Fragen zu beantworten. Ich kann euch nur empfehlen, den Search Camp Podcast anzuhören, um weitere spannende Themen rund um Online Marketing und KI zu entdecken.

Diese Zusammenfassung wurde mittels ChatGPT auf Basis des Podcast-Transkriptes erstellt und von mir kontrolliert und in einigen Punkten händisch korrigiert.

Kai Spriestersbach

Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer und digitaler Stratege mit einem Master-Abschluss in Web Science. Er ist Inhaber von AFAIK und WebmasterPro und verfügt über mehr als 20 Jahre Erfahrung im Aufbau und der Optimierung von webbasierten Geschäftsmodellen. Als einer der erfahrensten Search Marketing Experten im deutschsprachigen Raum hat er mehr als 25 Vorträge auf SEO- und Online-Marketing-Konferenzen in Deutschland und Österreich gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt und sich als Experte für die Textgenerierung mit Hilfe künstlicher Intelligenz etabliert. Seine Karriere begann er mit einer Ausbildung zum Mediengestalter (IHK), bevor er den Bachelor of Science (B.Sc) in E-Commerce absolvierte. Anschließend erwarb er den Master of Science (M.Sc) in Web Science und forscht aktuell an der RPTU im Bereich angewandter generativer KI.

×