Skip to content

GEO-Expertenbefragung 2026: Was 22 SEO-Profis wirklich über KI-Sichtbarkeit denken

22 der erfahrensten SEO-Köpfe im DACH-Raum, eine Umfrage mit 50 Fragen, null Konsens bei den spannendsten Themen. Die Ergebnisse der GEO-Expertenbefragung für mein kommendes Buch „SEO für KI“ (O’Reilly Verlag) sind da — und sie räumen mit einigen Mythen auf.

Im Januar 2026 habe ich für mein Buch „SEO für KI — Auf den Punkt“ (O’Reilly Verlag, geplant Q3 2026) eine umfangreiche Expertenbefragung durchgeführt. 22 deutschsprachige SEO- und GEO-Experten haben sich die Zeit genommen, 50 Fragen zu beantworten — von der Relevanz einzelner KI-Systeme über Prompt-Recherche bis hin zu Agentic AI. 91 Prozent der Teilnehmer bringen mehr als zehn Jahre SEO-Erfahrung mit, verteilt auf Agenturen, Beratung, Tool-Anbieter und Inhouse-Positionen.

Was dabei herausgekommen ist, überrascht an vielen Stellen. Nicht weil die Antworten besonders exotisch wären, sondern weil sie so nüchtern sind. Hier die wichtigsten Erkenntnisse.

Infografik zur GEO-Expertenbefragung 2026 mit Ergebnissen von 22 SEO/GEO-Experten zu 50 Fragen. Sektion 1 zeigt die Relevanz der KI-Systeme: Google AI Overviews führt mit 96 Prozent (73 Prozent sehr relevant), ChatGPT erreicht 87 Prozent, während 64 Prozent der Experten für Perplexity weniger als 5 Prozent Marktanteil erwarten. Sektion 2 zur Einordnung von GEO als Disziplin: 59 Prozent sehen GEO als SEO mit Anpassungen, 36 Prozent fordern substanzielle Ergänzungen, 82 Prozent investieren mindestens 11 Prozent ihrer Zeit in GEO. Sektion 3 zu Taktiken: 55 Prozent sehen keinen Bedarf für llms.txt, 82 Prozent betreiben Prompt-Recherche, 68 Prozent halten FAQs für nützlich. Sektion 4 zu Traffic-Prognosen: 82 Prozent erwarten weniger organischen Google-Traffic, 50 Prozent messen KI-Traffic nicht oder nur teilweise, 64 Prozent erwarten dass KI-Suche dominant wird. Sektion 5 zeigt die Konsens-Übersicht: Sehr hoher Konsens bei Google-Dominanz (96 Prozent) und weniger Traffic (82 Prozent), hoher Konsens bei Earned Media und Snake-Oil-Warnung, niedriger Konsens bei GEO als eigenständige Disziplin, sehr niedriger Konsens bei llms.txt-Wirksamkeit (27 Prozent). Stärkste Polarisierung bei Agentic AI.
Daten: GEO-Expertenbefragung 2026 · afaik.de/geo-expertenbefragung-2026 · Kai Spriestersbach · Visualisierung: TikZ/LATEX via Claude Cowork

1. Google dominiert, der Rest kämpft um Aufmerksamkeit

Die deutlichste Botschaft der Umfrage: Wer über KI-Sichtbarkeit spricht, spricht zuerst über Google. 73 Prozent der Befragten halten Googles AI Mode und AI Overviews für „sehr relevant“, weitere 23 Prozent für „relevant“. Kein einziger Experte stuft Google als wenig oder nicht relevant ein. Das ist der stärkste Konsens aller Relevanz-Bewertungen in der gesamten Umfrage.

ChatGPT folgt mit Abstand auf Platz zwei: 32 Prozent „sehr relevant“, 55 Prozent „relevant“. Dahinter wird es dünn. Perplexity, Copilot und Claude werden von der Mehrheit als nachrangig eingestuft. Die KI-Suchlandschaft ist in der Wahrnehmung der Experten ein Zweikampf — und Google führt deutlich.

Besonders aufschlussreich sind die Prognosen für die kommenden drei Jahre. 64 Prozent erwarten für Perplexity einen Marktanteil von unter 5 Prozent. Und bei ChatGPT gehen die Meinungen so weit auseinander wie bei keiner anderen Frage: Von „unter 5 Prozent“ bis „über 50 Prozent“ ist alles vertreten. 18 Prozent trauen sich nicht einmal eine Einschätzung zu — die höchste Enthaltungsrate der gesamten Befragung. Johannes Beus (Geschäftsführer, SISTRIX GmbH) erklärt die Skepsis gegenüber Perplexity: Es fehle an eigenen Modellen, eigenem Index und Distributionskanälen. Eric Kubitz (Head of AI, Wort & Bild Verlag) merkt pragmatisch an: „Kommt darauf an, wer Perplexity kauft.“

Meine Meinung dazu: Angesichts der jünsten Werbeintegration bei ChatGPT und immer besserer KI in Googles Suchergebnissen, gehe ich nicht davon aus, dass OpenAI weiter an Marktanteilen gewinnt. Perplexity ist seit der integration der Deep Research Funktion in so gut wie allen Chatbots auch kein besseres Produkt mehr – also wieso sollte man wechseln?

2. GEO ist kein neues SEO — aber auch kein altes

Die Gretchenfrage: Ist GEO eine eigene Disziplin oder nur SEO mit neuem Anstrich? Die Antwort fällt differenzierter aus als der LinkedIn-Diskurs vermuten lässt. 59 Prozent sehen GEO als „SEO mit Anpassungen“, 36 Prozent halten „substanzielle Ergänzungen“ für nötig, und ein einzelner Befragter sieht „unterschiedliche Disziplinen“.

Die qualitative Analyse zeigt: Die meisten Experten verankern GEO klar im SEO-Kontext, sehen aber gleichzeitig echten Zusatzaufwand. Astrid Kramer (Senior SEO & UX Consultant, Get Em All Consult) bringt es auf den Punkt: „Allerdings ist das bei genauer Betrachtung kein GEO, sondern einfach hochwertiges SEO, wie es bereits seit Jahren gemacht werden sollte.“

Michael Weber (Geschäftsführer, searchVIU GmbH) argumentiert technisch: „Solange KI-Systeme auf klassische Such-Indizes für ihr Grounding zurückgreifen, bleibt SEO das Fundament jeder LLM-Optimierung.“ Und Philipp Götza (SEO Consultant, Wingmen Online Marketing) erdet die Diskussion: „Es sind immer die langweiligen Sachen, die wir lange und konsistent gut machen müssen, um erfolgreich zu sein. Das ändert sich nicht, nur weil es ein neues Akronym gibt.“

Marcus Tandler (Chief Evangelist at Ryte, Semrush) sieht es anders: Für ihn ist der Ratschlag „Klassisches SEO ist genug!“ einer der am meisten überbewerteten Tipps der Branche. Er fordert ein fundamentales Umdenken: „Klassisches SEO optimiert für den Crawler. Modernes SEO über das Standardmaß hinaus optimiert für den Reasoning-Prozess der KI. Wir müssen aufhören, nur Dokumente zu bauen, und anfangen, Wissensmodelle zu füttern.“

Eoghan Henn (Freier Berater, rebelytics.com) bleibt dagegen bei der Erfahrung: „Bisher kann ich nicht behaupten, dass ich mit gezielten Maßnahmen den GEO-Erfolg meiner Kunden verbessern konnte. Allerdings sehe ich, dass eine starke SEO-Basis auch eine gute Voraussetzung für den GEO-Bereich ist.“

Trotzdem: Kein einziger Befragter investiert null Prozent seiner Arbeitszeit in GEO-Themen. 82 Prozent investieren mindestens 11 Prozent, fast die Hälfte sogar über 25 Prozent. Für eine Disziplin, die erst seit rund zwei Jahren existiert, ist das bemerkenswert.

Ich persönliche sehe GEO als Erweiterung des bisherigen SEO, man könnte auch sagen eine Weiterentwicklung, denn in Zukunft wird kein Suchsystem mehr ohne KI auskommen!

3. llms.txt: Der Mythos, der nicht sterben will

Eines der vielleicht überraschendsten Ergebnisse: 55 Prozent der Experten haben llms.txt nicht implementiert und sehen auch keinen Bedarf. Nur 27 Prozent haben es umgesetzt. Angesichts des medialen Hypes ein klares Signal.

Philipp Götza ist deutlich: „llms.txt. Vorgeschlagen, nie wieder vom Autor befeuert und hält sich als Mythos bis heute in den Köpfen. Niemand kann eine direkte Wirkung auf KI-Suchsysteme nachweisen und niemand unterstützt den Vorschlag offiziell.“

Eoghan Henn (Freier Berater, rebelytics.com) liefert Daten dazu: „Ich war überrascht, als ich Anfang 2026 auf 50 Traffic-starken Domains analysiert habe, ob KI-Crawler gezielt nach einer llms.txt-Datei suchen. Das Ergebnis war wirklich sehr ernüchternd, da kein einziger KI-Crawler auf diesen 50 stark besuchten Domains gezielt nach einer llms.txt-Datei gesucht hat.“

Thomas Peham (CEO, OtterlyAI) bestätigt aus Tool-Anbieter-Perspektive: „Unsere LLMs.txt Datei wird von AI Bots gecrawled, wir sehen aber keine positive Auswirkung auf unsere Sichtbarkeit.“ Johannes Beus differenziert: „Die Nutzung von llms.txt wird aktuell häufig überschätzt. Zwar kann sie ein zusätzliches Signal für AI-Systeme darstellen, ihr tatsächlicher Einfluss auf Zitierung oder Sichtbarkeit in AI-Antworten ist jedoch bislang nicht belegt und stark systemabhängig.“

Johan v. Hülsen (SEO Consultant & Geschäftsführer, Wingmen Online Marketing GmbH) kommentiert trocken: „Von LLMs.txt hab ich keine Wirkung erwartet und konnte keine feststellen.“ Eric Kubitz testet auf seine Art: „Wir haben diese leer implementiert und geschaut, ob sie überhaupt aufgerufen wird.“ Und Udo Raaf (Geschäftsführer, ContentConsultants) urteilt: „Sehe keinen Sinn in Formaten, die anfällig für Spam sind.“

Dem kann ich nichts hinzufügen, mein letzter Artikel hat die llms.txt bereits für tot erklärt:

4. Prompt-Recherche: Alle machen es, keiner weiß wie

82 Prozent der Befragten betreiben bereits Prompt-Recherche, 50 Prozent sogar regelmäßig. Das klingt nach einer etablierten Praxis — ist es aber nicht. Denn das Kernproblem ist ungelöst: Es gibt kein Äquivalent zum Suchvolumen, und es wird vermutlich nie eines geben.

Marcus Tandler beschreibt den Paradigmenwechsel: „Die größte Herausforderung besteht darin, die deterministische Denkweise zu verlassen. Im klassischen SEO war eine Suchanfrage ein starrer Befehl in Form eines Keywords. Bei Prompts bewegen wir uns hingegen in einem probabilistischen Raum.“

Auch wenn Microsofts Bing Webmaster Tools jetzt separate Daten zur KI-Leistung ausweisen, sehen wir dort nur die Grounding Queries und nicht die von den Nutzern eingegebenen Prompts. Philipp Götza untermauert das quantitativ: „Wir haben keinen vergleichbaren Nachfrage-Proxy wie Suchvolumen. Prompts sind deutlich länger und bis auf wenige Ausnahmen n = 1, daher kann es solche Daten auch nicht geben.“

Alexander Rus (Inhaber & Geschäftsführer, Evergreen Media AR GmbH) geht noch weiter: „Für einen bestimmten Prompt aufzuscheinen zu wollen, ist nicht sinnvoll. Das ist aus meiner Sicht nicht wie das Ganze funktioniert, weil es viel zu viele Variablen gibt.“ Er kritisiert auch die Tool-Landschaft: „Die meisten AI-Tracking Tools von SEOs wurden gebaut und wollen das alles wieder auf Keywords reduzieren, wobei die Transformation von KI-Assistenten ist, dass sie dialogbasiert arbeiten.“

Johan v. Hülsen ergänzt eine oft übersehene Nuance: „Kaum aber wird diskutiert, dass ein Prompt kein einzelnes Ereignis ist. Sondern Teil einer fluiden Diskussion zwischen Mensch und Maschine.“ Stefan Fischerländer (Selbständiger Consultant) stellt sogar die Kategorie „Suche“ grundsätzlich infrage: „Ich halte den Ausdruck ‚Suchanfrage‘ im Zusammenhang mit KI-Chatsystemen für völlig falsch.“ Jens Fauldrath (Geschäftsführender Gesellschafter, get traction GmbH) bleibt bewusst lakonisch: „Hirn und Verstand“ seien die beste Methode — man müsse wissen, „dass das alles nicht sehr belastbar ist“.

Die Methoden sind entsprechend heterogen: Von Kundenbefragungen und Sales-Ticket-Analyse über klassische SEO-Tools als Proxy bis hin zu spezialisierten KI-Monitoring-Tools wie Peec.ai, OtterlyAI und SISTRIX. Götza unterscheidet zudem: „Klassische Suchmaschinen sind deterministisch, KI-Suchsysteme probabilistisch.“ Das verändert die Herangehensweise fundamental.

Ein besonders praxisrelevantes Detail: Mehrere Experten betonen, dass Erwähnung und Zitierung unterschiedliche Optimierungspfade erfordern. Zitierung liegt näher an klassischem SEO, Erwähnung erfordert stärkeres Brand-Building.

Ich stimme dem uneingeschränkt zu und habe im Oktober 25 geschrieben, dass trotz aller Schwächen, die Prompt Extraktion mittels Verbalized Sampling derzeit die beste Möglichkeit ist, so etwas wie repräsentativen Prompts wenigstens nahe zu kommen:

5. Was KI-Systeme zitieren: Fakten schlagen Marketing

Die Befragten sind sich erstaunlich einig darüber, was in KI-Antworten erscheint: klare, faktenorientierte, gut strukturierte Inhalte mit echtem Informationsgewinn. Marcus Tandler formuliert es bildhaft: „KI-Antworten filtern den ganzen ‚SEO-Füllstoff‘ gnadenlos raus und krallen sich nur die Essenz.

Eoghan Henn liefert dafür ein anschauliches Beispiel: „Ich habe in mehreren Fällen beobachtet, dass ein Pressemitteilungs-Boilerplate in einer vergrabenen PDF-Datei öfter zitiert wurde, als die offizielle Über Uns-Seite des Unternehmens.“ Der Grund: PR-Boilerplates sind faktenorientiert und für Journalisten geschrieben, die offenbar einen ähnlichen Informationsbedarf wie KI-Systeme haben.

Florian Stelzner (Geschäftsführender Gesellschafter, Wingmen Online Marketing GmbH) bringt es auf eine Formel: „Die KI zitiert lieber klare Aussagen als schwammige oder lyrisch möglichst ausschweifende Erklärungen.“ Oder kürzer: „Don’t make Systems think.“ Johan v. Hülsen wird konkret: „Kurze klare Sätze mit Belegen. Sätze die nicht in unterschiedliche Richtungen interpretiert werden können und eindeutige Antworten auf Fragen geben.“

Christopher Wagner (AI Architect, ehem. Head of SEO Rheinische Post Mediengruppe) bringt die technische Perspektive ein: „Hohe semantische Dichte und logische Stringenz machen Inhalte besonders zitierfähig. LLMs […] bevorzugen Kausalität und faktische Härte gegenüber narrativen Einleitungs-, Zwischentext- und Fazitweichmachern.“

Überraschend positiv werden FAQ-Abschnitte bewertet: 68 Prozent halten sie für „nützlich“ oder „sehr nützlich“ für die KI-Sichtbarkeit. Das ist bemerkenswert, da FAQs in der klassischen SEO-Community zuletzt eher kritisch gesehen wurden. Alexander Rus erklärt warum: „Sie sind sehr einfach extrahierbar, weil sie für sich allein stehen können.“

Astrid Kramer widerspricht allerdings dem populären Rat, Content gezielt „in Snippet-Form für KI“ zu schreiben: Gute Nutzertexte würden zitiert, künstliche KI-Snippets eher nicht. Das Spannungsfeld zwischen „kurz und prägnant“ und „tiefgehend und kontextreich“ löst sich vermutlich in der Struktur: kurze, extrahierbare Abschnitte innerhalb eines umfassenden Gesamttexts.

Ich halte FAQs grundsätzlich für eine gute Möglichkeit, klare Antworten auf Fragen der Nutzerinnen und Nutzer zu geben, werde das Thema aber im Buch nochmal ausführlicher analysieren.

6. Fast alle (82 Prozent) erwarten weniger organischen Traffic

Die vielleicht beunruhigendste Zahl: 82 Prozent der Experten erwarten eine Abnahme des organischen Traffics durch Google. Das ist die am häufigsten gewählte Option bei der Frage zur Google-Entwicklung — noch vor „Mehr KI-Antworten“ (68 Prozent).

Udo Raaf rät trotzdem zu Gelassenheit: „Auch wenn die Klicks sich im letzten Jahr halbiert haben, rate ich zu stoischer Gelassenheit.“ Die Messproblematik verschärft die Situation: Die Hälfte der Befragten misst KI-Traffic nicht oder nur teilweise. Referrer-Daten sind unvollständig, KI-Systeme übergeben sie uneinheitlich oder gar nicht.

Philipp Götza beschreibt das Dilemma: „Jemand der eine Empfehlung bekommen hat, wird im Tracking, egal wie ich es mache, nicht aufschlagen, da es keinen Klick gab.“ Alexander Rus denkt das weiter: „Ich halte generell nichts davon, an Klicks festzuhalten, wenn wir in eine Richtung gehen, wo KI Menschen berät und die machen dann irgendwas.“ Julian Strote (Geschäftsführer, rankeffect digital GmbH) verschiebt den Fokus: „Konzentriert euch auf die Conversion! SEO ist Mittel zum Zweck und auch GEO wird Mittel zum Zweck werden.“ Und Jens Fauldrath relativiert grundsätzlich: „Sichtbarkeit ist halt nichts, was in sich ein Ziel ist. Ist es im SEO auch nicht.“

Auch hier kann ich nur zustimmen, speziell die Messbarkeit halte ich für ein Riesen-Problem angesichts fehlender Referrer-Informationen und utm-Parametern bei vielen Chatbots, worüber ich im Dezember hier schon berichtet hatte:

7. Earned Media ist der neue Hebel

Der deutlichste neue Trend: Digitale PR und Markenpräsenz jenseits der eigenen Domain werden als zentral bewertet. Über zwei Drittel der Teilnehmer nennen Digitale PR, Brand Mentions und externe Präsenz als wichtigste Ergänzung zu klassischem SEO.

Alexander Rus bringt es auf den kürzesten Nenner: „Werde eine Brand, die man nicht ignorieren kann.“ Michael Weber beschreibt die Verschiebung: „External Reputation statt Linkbuilding. Der Fokus verschiebt sich: Es geht weniger um Backlinks als darum, in externen Quellen genannt und positiv bewertet zu werden. Die KI liest mit — und gewichtet Reputation.“Anja Höbarth (CSO & Head of SEO, SlopeLift PM Media GmbH) bestätigt: „Ganz eindeutig die Digitale PR. Was wo und wie über eine Brand offpage gesagt wird ist wichtiger denn je und geht weit über das, was man bei SEO als Backlink versteht, hinaus.“

Johan v. Hülsen macht es greifbar: „Bisher konnte man mit gutem SEO einen Mangel an Produktqualität und USP teilweise verschleiern. Mit KI-Suchsystemen funktioniert das nicht mehr.“ Julian Strote formuliert es ähnlich: „Es reicht nicht mehr, dass eine Webseite verlinkt wird. Die eigene Marke muss im Kontext relevanter Themen im Web diskutiert werden.“

Ich sehe es ganz ähnlich und habe Kunden sogar schon dazu geraten ein Affiliate-Programm zu starten, damit andere Webseiten, die eine hohe Relevanz als zitierte Quellen besitzen, deren Produkte testen und besprechen. Von einfachem Linkbuilding über gekaufte Links auf Seiten die ohnehin niemand besucht halte ich nach wie vor nichts.

8. Die Fragmentierung: Google vs. ChatGPT vs. der Rest

Ob man für verschiedene KI-Systeme unterschiedlich optimieren muss, ist die am stärksten polarisierte Frage der Umfrage — keine Antwortoption erreicht auch nur 33 Prozent. Die Branche hat hier kein einheitliches Bild.

Johannes Beus beschreibt die Systemunterschiede fundiert: „Die Unterschiede zwischen den AI-Systemen sind erheblich. Google-basierte Systeme orientieren sich in der Bewertung von Quellen stark an etablierten Mechanismen der Google-Websuche. ChatGPT verfügt über diese Such- und Bewertungshistorie in dieser Form nicht.“ Florian Stelzner geht weiter: „Die Unterschiede sind sogar in der selben Systemlandschaft unterschiedlich, je nachdem welches Modell genutzt wird.“

Die Mehrheit empfiehlt dennoch eine generelle Strategie statt systemspezifischer Optimierung. Eric Kubitz hält separate Optimierung sogar für „Unsinn“. Michael Weber sagt: „Die Grundprinzipien sind identisch, nur die Details variieren.“

Ich halte eine unterschiedliche Optimierung, trotz der Unterschiede in den Systemen für wenig sinnvoll. Die Unterschiede ergeben sich aktuell noch aus dem Rückstand der relativ neuen Suchsysteme von Perplexity und ChatGPT und dem Datenvorsprung von Googles vor bing und allen anderen Suchmaschinen. Mittelfristig wird es jedoch, wie im SEO auch, so sein, dass „Was für Googles KI gut ist, ist für die anderen KIs auch gut.“ Zumindest habe ich noch keinen grundsätzlich neuen oder anderen Ansatz gesehen, der etwas anderes erfordern würde.

9. Warnung vor Snake Oil

Der Tenor bei den Praxisratschlägen ist auffällig konservativ. Die Experten warnen geschlossen vor Aktionismus und Hype. Jens Fauldrath ist dabei am deutlichsten: „Aktuell wird sehr viel Snake Oil verkauft. Da will sich eine Branche wohl schnell den Ruf ruinieren.“ Michael Weber vergleicht die aktuelle Situation mit dem „Wildwest der SEO-Anfangsjahre“ und warnt: „Wer sich von selbsternannten Experten und vermeintlichen Patentlösungen wie llm.txt oder Schema-Kosmetik blenden lässt, wiederholt die Fehler der SEO-Frühzeit.“

Christopher Wagner fordert Quellenkritik: „Ich rate dazu, radikal zu hinterfragen: ‚Wer spricht da gerade? Ein Tool-Anbieter mit Verkaufsdruck oder ein erfahrener AI-Architect?’“ Johannes Bornewasser (Consultant & Herausgeber, Teneriffa News) wird knapp: „Hört auf, jeden Test als Geheimtrick zu verkaufen!“ Anke Probst (Head of SEO, 1337 UGC GmbH) wählt eine einprägsame Metapher: „Springt nicht auf jeden vorbeifahrenden Zug auf, hinterfragt erst wohin er fährt, ob ihr die richtige Fahrkarte habt bzw. ob ihr da mit eurem Business überhaupt hin müsst.“

Astrid Kramer empfiehlt einen Perspektivwechsel: „Hört auf, GEO als Optimierungsproblem zu denken — und fangt an, es als Qualitätsaufgabe zu behandeln.“ Stefan Fischerländer fordert ein Umdenken: „Bitte hört auf, die KI-Chatsysteme als Suchsysteme zu betrachten. Menschen möchten nicht suchen, Menschen möchten ihre Probleme lösen.“

Eoghan Henn rät: „Ruhig bleiben, nachdenken, experimentieren und analysieren — anstatt in Aktionismus zu verfallen.“ Udo Raaf hält sich lieber an „seriöse wissenschaftliche Untersuchungen“ als an das, was auf LinkedIn kursiert. Und Florian Stelzner bringt eine ethische Dimension ein: „Ich bin einst angetreten, um das Netz besser zu machen und nicht, um es systematisch vollzuspammen.“

Ich möchte von Udo Raaf gerne mal erfahren, welchen „wissenschaftlichen Untersuchungen“ er hier vertraut, denn ich forsche und promoviere gerade genau in diesem Bereich und so viel gibt es dazu (noch) nicht aus der akademischen Welt. Mich persönlich nerven die ganzen Pseudowissenschaftlichen „Studien“, die irgendwelche Firmen auf Basis proprietärer Daten in intransparenten Prozessen „analysieren“ und die Erkenntnisse daraus als „Die Wahrheit“ verkaufen. Das ist übrigens ein weiterer Grund, wieso ich nach meiner SEO-Abstinenz mich verstärkt wieder diesen Themen widme.

10. Agentic AI: Die nächste Front

Bei Agentic AI zeigt sich die stärkste Spreizung der gesamten Umfrage. Alexander Rus sieht eine fundamentale Verschiebung: „Der Begriff Optimierung in all diesen Zusammenhängen ist zu klein gedacht. Es wird mehr brauchen als Optimierung, nämlich wirkliche Infrastrukturarbeit.“ Christopher Wagner formuliert einen klaren Handlungsauftrag: „Die Beschäftigung mit Agentic AI und der Nutzung des MCP sollte unbedingt auf der Agenda und Roadmap aller Firmen sein, die im KI-Zeitalter bestehen wollen.“

Johan v. Hülsen macht es konkret: „Die KI Agenten mit der mutmaßlich größten Verbreitung dürften mittelfristig agentische Browser sein. Da diese Systeme verstehen müssen, was auf dem Bildschirm passiert, profitieren sie massiv von einer klaren Informationsarchitektur und Accessibility-Optimierung.“

Auf der anderen Seite steht Udo Raaf: „Ich halte das Thema für massiv überschätzt.“ Johannes Beus sieht „noch keinen konkreten Handlungsbedarf“. Anke Probst reagiert mit einem ehrlichen: „Ohgott — gar nicht.“

Philipp Götza beobachtet die Konvergenz: „Browser werden zunehmend agentisch und können Dinge für mich erledigen. Menschen sind bequem. Wir werden trainiert, nicht mehr zu klicken, selbst zu suchen, sondern lassen suchen.“ Oder poetischer: „Suchen klingt anstrengend. Finden klingt einfach. Mit KI suchen wir weniger und finden mehr.“

Ich bin hier selbst noch unentschlossen. Auf der einen Seite sehe ich die Vorteile agentischer Systeme, andererseits ist mir die Zuverlässigkeit aktuell noch viel zu gering, um den Human aus dem Loop zu entfernen.

11. KI wird dominant — aber nicht allein

64 Prozent der Befragten erwarten, dass KI-Suche dominant wird oder die klassische Suche weitgehend ersetzt. Aber 32 Prozent sehen eine parallele Koexistenz. Die Mehrheit rechnet mit einem Szenario, in dem KI für informationelle und beratende Anfragen dominiert, während klassische Suche für navigationale und transaktionale Aufgaben bestehen bleibt.

Nina Baumann (Unternehmerin, Linkspiel) wirft dabei einen kritischen Blick auf die gesellschaftliche Dimension: „Je besser die KI-Suche wird, desto weniger kommt der Nutzer aus der ‚eigenen‘ Bubble raus. Man bekommt gute Antworten aber eben immer aus demselben Denkraum. Ich halte das für enorm gruselig!“

Eric Kubitz warnt vor Scheinsicherheit: „Ich warne davor, den aktuellen Stand als stabil anzusehen. Welche der Annahmen von vor ein oder zwei Jahren sind heute noch korrekt?“ Und Philipp Götza erinnert an das, was in der Optimierungs-Euphorie oft vergessen wird: „Wie wir damit umgehen, dass diese Technologie so teuer ist und unseren Planeten zerstört.“

Das kann ich nur unterstreichen, wobei ich nicht davon ausgehe, dass in 5 Jahren noch irgendeine Suche ohne KI auskommen wird. Das heißt jedoch nicht, dass ein Chat-Interface für alles das Richtige ist!

Fazit: Was ich aus der Umfrage gelernt habe

Die GEO-Expertenbefragung hat mein Verständnis an mehreren Stellen verschoben. Drei Erkenntnisse haben mich besonders geprägt:

Erstens: Die Branche ist nüchterner als ihr Ruf. Hinter dem lauten GEO-Diskurs auf LinkedIn und Konferenzen steht eine Praxis-Community, die experimentiert, abwägt und vor Aktionismus warnt. Das Bild des „GEO-Goldrausches“ hält der empirischen Prüfung nicht stand.

Zweitens: Die Messlücke ist das zentrale ungelöste Problem. Nicht die Optimierung selbst, sondern der Nachweis ihrer Wirkung stellt die Branche vor die größte Herausforderung. Wer KI-Sichtbarkeit nicht messen kann, kann sie auch nicht systematisch steuern.

Drittens: GEO ist keine Revolution, sondern eine Beschleunigung. Was als „GEO-Strategie“ verkauft wird, ist in den meisten Fällen das, was gutes SEO immer hätte sein sollen: klare Inhalte, technische Exzellenz, echte Expertise, starke Marke. Die KI macht nur sichtbar, was vorher schon fehlte. Oder: „Im KI-Zeitalter ist ‚Average Content‘ der neue ‚Duplicate Content‘.“, was Marcus Tandler in seiner Antwort schrieb, aber leider nicht mehr wusste, von wem dieses Zitat stammt.

Mehr dazu im Buch

Die vollständigen Ergebnisse — inklusive der Detailanalysen, der kontroversen Gegenstimmen und der offenen Dissense — fließen in mein Buch „SEO für KI — Auf den Punkt“ ein, das voraussichtlich im Q3 2026 beim O’Reilly Verlag erscheint. Es ist Teil der „Auf den Punkt“-Reihe und behandelt die Verschmelzung von Suchmaschinenoptimierung und Künstlicher Intelligenz — von den technischen Grundlagen über Prompt-Recherche und Content-Strategien bis hin zu Agentic AI.

Mein Dank gilt allen 22 Expertinnen und Experten, die sich die Zeit für diese ausführliche Befragung genommen haben.

Teilnehmer der GEO-Expertenbefragung 2026: Philipp Götza (Wingmen), Anja Höbarth (SlopeLift), Eoghan Henn (rebelytics), Thomas Peham (OtterlyAI), Johannes Bornewasser (Freelancer), Alexander Rus (Evergreen Media), Florian Stelzner (Wingmen), Astrid Kramer (Get Em All Consult), Anke Probst (1337 UGC), Johan v. Hülsen (Wingmen), Julian Strote (rankeffect), Nina Baumann (Linkspiel), Benjamin O’Daniel (Jaeckert & O’Daniel), Jens Fauldrath (get traction), Stefan Fischerländer, Johannes Beus (SISTRIX), Eric Kubitz (Wort & Bild Verlag), Michael Weber (searchVIU), Dr. Beatrice Eiring (eology), Udo Raaf (ContentConsultants), Marcus Tandler (Semrush) und Christopher Wagner.

Abonniere das kostenlose KI-Update

Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!

Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.

Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.

Kai Spriestersbach

Kai Spriestersbach

Kai Spriestersbach ist Unternehmer, Autor und digitaler Stratege mit einem Master-Abschluss in Web Science. Er promoviert an der RPTU Kaiserslautern-Landau im Bereich angewandter generativer KI und ist Head of AI bei einer Online Marketing Agentur. Mit mehr als 20 Jahren Erfahrung im Aufbau und der Optimierung webbasierter Geschäftsmodelle zählt er zu den erfahrensten SEO-Experten im deutschsprachigen Raum und hat dutzende Vorträge auf SEO- und Online-Marketing-Konferenzen gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt, mehrere Bücher über künstliche Intelligenz veröffentlicht und sich als Experte für generative KI etabliert. Er unterstützt Unternehmen bei der Nutzung generativer AI, berät Marketing-Abteilungen, die in Chatbots und KI-Suchmaschinen sichtbar werden wollen, und entwickelt eigene KI-Tools und digitale Geschäftsmodelle. Offenlegung der Verwendung von KI: Kai verwendet generative KI, wenn er über seine eigenen Erfahrungen, Ideen, Konzepte, Tools, Experimente oder Forschungsergebnisse schreibt. Sein bevorzugtes Tool für diesen Prozess ist Anthropics Claude. Alle Inhalte wurden von Kai konzipiert, bearbeitet und auf ihre Korrektheit überprüft.

×