Zum Inhalt springen

Bullshit Alarm: Wieso LLMO/GenAIO nicht die Zukunft von SEO ist

In einem aktuellen Artikel im Harvard Business Review wird das Thema LLMO aufgegriffen. Vielleicht hast Du bereits an anderer Stelle schon einmal von LLMO oder GenAIO gehört und Dich gefragt, was es damit auf sich hat? Da ich das für ziemlichen Unsinn halte, habe ich den Artikel einmal genauer unter die Lupe genommen. Immerhin ist der Artikel im HBR erschienen, ein ziemlich einflussreiches englischsprachiges Management-Magazin, in dem nicht jeder Möchtegern-Experte seine wirren Ideen veröffentlichen kann.

Obwohl der Artikel durchaus interessante Einblicke in die potenziellen Auswirkungen großer Sprachmodelle (LLMs) auf die Suchmaschinenoptimierung bietet, zeigt sich bei genauer Betrachtung, dass die Autoren offenbar grundlegende Missverständnisse über die Funktionsweise moderner Suchmaschinen und LLMs aufweisen, die den praktischen Nutzen ihrer Empfehlungen infrage stellen.

In solchen Fällen hilft es in der Regel, die Autoren näher zu betrachten, dann wird meistens schnell klar, wieso und mit welchem Ziel Unsinn verbreitet wird. Und siehe da: Neben einem Marketing-Professor sind die beiden weiteren Autoren, Jarvis Bowers und Mike Ensing zufällig COO und CEO einer Firma, die sich auf die Aufwertung von Marken mit LLMs und generativer KI konzentriert. Ihnen kann man also mindestens Voreingenommenheit und einen Interessenkonflikt unterstellen.

Was steht überhaupt in dem Artikel?

Der Artikel beschreibt zunächst, wie große Sprachmodelle (LLMs) die Sucherfahrung revolutionieren und welche Auswirkungen dies auf SEO haben wird. Im Gegensatz zu traditionellen Webbrowsern, die Suchanfragen mit Links beantworten, liefern LLMs direkte Antworten in natürlicher Sprache. Diese Entwicklung stellt ohne jede Frage für Marketer neue Herausforderungen, aber auch neue Chancen dar.

Es kommt zu einer Veränderung der Sucherfahrung: LLMs wie ChatGPT, Perplexity und Googles Search Generative Experience liefern direkte Antworten statt Links. Nutzer erfahren über Produkte und Marken durch KI-erzeugte, natürliche Sprache, bevor sie überhaupt auf eine Website gelangen.

Hierfür sind einige neuer Marketingstrategien notwendig. Marketer müssen beispielsweise überwachen, ob und wie ihre Marken in den KI-Zusammenfassungen erscheinen. Dabei ist es ist wichtig zu analysieren, wie positiv oder negativ ihre Marken dargestellt werden und wie sichtbar sie im Vergleich zur Konkurrenz sind.

Doch beim dritten Punkt, der Entwicklung neuer Optimierungstechniken greifen die Autoren aus meiner Sicht deutlich zu kurz. Sie postulieren, dass eine neue Disziplin, die LLM-Optimierung (LLMO), analog zur Suchmaschinenoptimierung (SEO) entstehen wird.

Richtig ist, LLMs nutzen andere Algorithmen und Faktoren als traditionelle Suchmaschinen, wobei sie Inhalte aus verschiedenen Quellen und Modalitäten (Text, Bild, Video) integrieren können.

Auch richtig ist, dass Studien zeigen, dass das Hinzufügen strategischer Textsequenzen zu Produktseiten die Wahrscheinlichkeit erhöhen kann, dass diese Produkte von LLMs empfohlen werden. Ein Beispiel dafür ist die Hervorhebung der Erschwinglichkeit eines Produkts, was zu häufigeren Empfehlungen führt. Dies trifft aber nur für bestimmte Modelle in engen Anwendungsszenarien zu und darf keinesfalls verallgemeinert werden.

Unzureichendes Verständnis moderner Suchmaschinen

Die Autoren scheinen jedoch nicht zu verstehen, dass moderne Suchmaschinen wie Perplexity, Bing und Google’s Search Generative Experience (SGE) keine Antworten ausschließlich auf Basis der Trainingsdaten der LLMs generieren. Vielmehr nutzen diese Suchmaschinen klassische Information Retrieval Systeme, das relevante Textabschnitte aus normalen Webseiten oder Reddit-Beiträgen extrahiert. Diese Abschnitte werden dann von einem LLM formuliert und präsentiert. Selbst Chatbots wie ChatGPT und Microsoft Co-Pilot greifen für Fragen zu Informationen häufig auf deren eingebaute Suchmaschinen-Schnittstelle zurück.

Dies bedeutet konkret, dass es keinen Bedarf für LLMO im naheliegenden Sinne gibt, wie die Autoren es beschreiben.

Die Autoren postulieren jedoch die Notwendigkeit einer neuen Disziplin namens LLM-Optimierung (LLMO). Sie gehen davon aus, dass Marketer die Trainingsdaten der LLMs direkt beeinflussen müssen, um die Sichtbarkeit und Darstellung ihrer Marken zu verbessern. In Wirklichkeit ist dies jedoch nicht der Fall.

Die entscheidende Rolle spielt hier die Optimierung der Dokumente, die für die semantische Suche relevant sind und die Texte liefern, die für das Retrieval-Augmented-Generation (RAG) genutzt werden. Marketer müssen sich darauf konzentrieren, Inhalte zu erstellen und zu optimieren, die von diesen Retrieval-Systemen bevorzugt werden, anstatt direkt die Trainingsdaten der LLMs zu beeinflussen.

Effizienz von RAG gegenüber direktem LLM-Training

Ein weiterer Punkt, den die Autoren unterschlagen, ist der Grund, warum Informationen über RAG eingefügt werden und nicht als Trainingsdaten permanent in ein LLM integriert werden. Die Integration aller relevanten Informationen als Trainingsdaten wäre ineffizient und unpraktisch. Das kontinuierliche Aktualisieren eines LLMs mit neuen Daten ist äußerst ressourcenintensiv und zeitaufwändig. Zudem würde das Modell enorm an Größe zunehmen, was die Verarbeitung und das Training verlangsamen würde.

Stattdessen ermöglicht RAG eine flexible und dynamische Aktualisierung der Informationen. Durch die Nutzung eines Information Retrieval Systems können aktuelle und relevante Daten in Echtzeit abgerufen und in die Antwortgenerierung eingebunden werden. Dies stellt sicher, dass die bereitgestellten Informationen immer auf dem neuesten Stand sind, ohne dass das gesamte Modell ständig neu trainiert werden muss.

Fazit

Aufgrund dieser Missverständnisse sehe ich die avisierten Auswirkungen auf den Arbeitsmarkt ebenso kritisch. Ich bezweifle, dass sich die Rolle von SEO-Spezialisten zu LLMO-Experten entwickeln wird.

Richtig ist jedoch, dass SEOs neue Optimierungsmethoden für RAG-Systeme und LLM-Zusammenfassungen beherrschen müssen. Richtig ist auch, dass die Optimierung von Inhalten zunehmend von LLMs übernommen werden wird, was die Nachfrage nach traditionellem SEO reduziert. Ebenso können wir davon ausgehen, dass neue Rollen entstehen, die sich auf die Optimierung und Verwaltung von Marken in (reinen) LLM-Umgebungen konzentrieren.

Zusammengefasst betont der Artikel die Notwendigkeit für Marketer, sich an die veränderte Suchlandschaft anzupassen, indem sie neue Optimierungsstrategien entwickeln und kontinuierlich lernen, um im Wettbewerb bestehen zu können.

Die vorgeschlagenen Maßnahmen der Autoren, wie das Hinzufügen strategischer Textsequenzen zu Produktseiten, um die Wahrscheinlichkeit einer Erwähnung durch LLMs zu erhöhen, sind in der Praxis nur begrenzt anwendbar. Da die Antworten der LLMs auf der Grundlage von Inhalten generiert werden, die durch semantische Suche extrahiert wurden, sollten Marketer vielmehr die Prinzipien der semantischen Suche und des Information Retrievals verstehen und anwenden. Dies bedeutet, dass die Inhalte so gestaltet werden müssen, dass sie für diese Systeme leicht zugänglich und inhaltlich relevant sind.

Insgesamt lässt der Artikel wesentliche Aspekte der modernen Funktionsweise von LLM-basierten Suchmaschinen außer Acht und bietet daher nur begrenzt umsetzbare Empfehlungen. Ein tieferes Verständnis der semantischen Suche und der Prinzipien des Information Retrievals wäre notwendig, um wirklich effektive Strategien zur Optimierung der Markenpräsenz in der Ära der LLMs zu entwickeln. Die Unkenntnis der Autoren in diesen grundlegenden Bereichen unterminiert die Glaubwürdigkeit und den praktischen Wert ihrer Vorschläge erheblich.

Wenn du vermeiden möchtest, die gleichen Missverständnisse zu haben wie die Autoren dieses Artikels und wirklich verstehen willst, wie moderne Suchmaschinen funktionieren und wie man sie effektiv beeinflusst, dann solltest du dich weiterbilden.

Genau dafür habe ich meinen neuen Onlinekurs „Die Zukunft der SEO!“ entwickelt. In diesem Kurs lernst du alles über die neuesten Entwicklungen in der Suchmaschinenoptimierung, einschließlich der Integration von Künstlicher Intelligenz und maschinellem Lernen.

Melde dich an und bereite dich optimal auf die Herausforderungen und Möglichkeiten der neuen SEO-Welt vor.

Abonniere das kostenlose KI-Update

Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!

Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.

Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.

Kai Spriestersbach

Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer und digitaler Stratege mit einem Master-Abschluss in Web Science. Er ist Inhaber von AFAIK und verfügt über mehr als 20 Jahre Erfahrung im Aufbau und der Optimierung von webbasierten Geschäftsmodellen. Als einer der erfahrensten Search Marketing Experten im deutschsprachigen Raum hat er mehr als 25 Vorträge auf SEO- und Online-Marketing-Konferenzen in Deutschland und Österreich gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt und sich als Experte für die Textgenerierung mit Hilfe künstlicher Intelligenz etabliert. Seine Karriere begann er mit einer Ausbildung zum Mediengestalter (IHK), bevor er den Bachelor of Science (B.Sc) in E-Commerce absolvierte. Anschließend erwarb er den Master of Science (M.Sc) in Web Science und forschte an der RPTU im Bereich angewandter generativer KI.

×