Skip to content

EAT SEO? So kannst Du das E-A-T Deiner Webseite verbessern

Es ist nach wie vor nicht wirklich klar, ob Googles große Core Algorithmus Updates wirklich von E-A-T beeinflusst werden. Webmaster, die von einem  Core-Update getroffen wurden, sollten laut Google einen Blick auf die Panda-Checkliste sowie in die Google-Qualitätsrichtlinien werfen. Soviel so gut – oder schlecht, denn wirklich konkret sind die Hinweise darin nicht. Finden wir also in diesem Artikel gemeinsam heraus, welche Rolle E-A-T in Googles Algorithmen spielt. Und welche nicht! Dazu verrate ich ein paar Taktiken, um das Vertrauen der Suchmaschine in Deine Website aktiv zu beeinflussen und zu fördern.

Wenn man sich Websites mit besonders guter Sichtbarkeitsentwicklung ansieht, stößt man automatisch auf Hinweise für gutes E-A-T. Davon kann man sich eine Menge an Taktiken und Strategien abschauen, die möglicherweise Vertrauensprobleme mit der eigenen Website lösen können.

Was ist E-A-T eigentlich?

Google definiert E-A-T in seinen Search Quality Rater Guidelines als

Expertise, Authoritativeness, and Trustworthiness

Frei übersetzt bezeichnet Google dort die Menge an Fachwissen, Autorität und Vertrauenswürdigkeit (E-A-T) für alle Seiten, die einen nutzbringenden Zweck haben als sehr wichtig. Dabei soll explizit das Fachwissen des Schöpfers des Hauptinhalts, die Autorität des Schöpfers des Hauptinhalts, des Hauptinhalts selbst und der Website ebenso berücksichtigt werden, wie die Vertrauenswürdigkeit des Urhebers des Hauptinhalts, des Hauptinhalts selbst und der Website.

Besonders interessant finde ich, dass Google an dieser Stelle explizit darauf hin weist, dass es in jedem Bereich Seiten mit hohem E-A-T gibt, sogar Klatsch-, Mode-, Humor-Websites, Foren und F&A-Seiten, etc. Darin steht, dass sich einige Arten von Informationen fast ausschließlich in Foren und Diskussionen finden lässt, bei denen eine Gemeinschaft von Experten wertvolle Perspektiven zu bestimmten Themen liefern.

Übrigens hat Kenichi Suzuki erst kürzlich entdeckt, dass Webseiten, die in Googles Discover erscheinen, offenbar über ein relativ hohes Maß von E-A-T verfügen.

Dort steht, dass Googles automatisiertes System in Discover Inhalte von Websites anzeigen, die viele Seiten haben und darüber hinaus Kompetenz, Autorität und Vertrauenswürdigkeit (E-A-T) demonstrieren.

Für einige spezielle Webseitentypen gibt Google seinen Quality Ratern sogar konkretere Angaben:

  • Medizinische Ratschläge sollten von Personen oder Organisationen geschrieben oder produziert werden, die über geeignete medizinische Expertise oder Akkreditierung verfügen. Medizinische Ratschläge oder Informationen mit hohem E-A-T sollten in einem professionellen Stil geschrieben sein und sollten regelmäßig redigiert, überprüft und aktualisiert werden.
  • Nachrichtenartikel sollten mit journalistischer Professionalität produziert werden. Sie sollten sachlich präzise Inhalte aufweisen, die auf eine Weise präsentiert werden, die den Benutzern zu einem besseren Verständnis der Ereignisse verhilft. Diese Art von Quellen arbeiten nach etablierten redaktionellen Richtlinien und veröffentlichen diese.
  • Informationsseiten zu wissenschaftlichen Themen sollten von Personen oder Organisationen mit geeignetem wissenschaftlichen Fachwissen veröffentlicht werden und sollen einen gut etablierten, wissenschaftlichen Konsens darstellen, wenn es einen solchen gibt.
  • In den Themen Finanzberatung, Rechtsberatung, Steuerberatung usw. sollte der Inhalt aus vertrauenswürdigen Quellen stammen und regelmäßig gewartet und aktualisiert werden.
  • Ratgeberseiten zu Themen wie dem Hausumbau, der Tausende von Dollar kosten kann und Auswirkungen auf die Lebenssituation des Lesers haben kann oder auch Ratschläge zu Erziehungsfragen, die das zukünftige Glück einer Familie beeinflussen können, sollten auch von Experten oder erfahrenen Quellen stammen, denen die Benutzer vertrauen können.
  • Auch normale Seiten über Hobbys wie Fotografieren oder das Erlernen des Gitarrenspiels erfordern aus Googles Sicht ebenfalls Fachwissen.

Du merks also schon, dass es sich um relativ weiche Faktoren handelt, die man nicht so einfach in Zahlen oder gar Binäre Entscheidungen packen oder deren Werte irgendwo herauslesen kann.

E-A-T ist demnach kein (klassischer) Ranking-Faktor!

Wie kann Google denn E-A-T messen oder berechnen?

Hier kommen mal wieder ziemlich komplexe Anwendungen aus dem Bereich des maschinellen Lernens, also Machine Learning zum Einsatz. Google verwendet laut diesem Patent Website-Darstellungsvektoren zur Klassifizierung mit Expertise und Autorität. Das bedeutet, dass sie wohl versuchen Websites anhand von Merkmalen zu klassifizieren, die auf diesen Websites gefunden wurden. Das beschriebene Verfahren verwendet sogenannte künstliche Neuronale Netzwerke, um Muster und Merkmale hinter Websites zu verstehen und diese Websites anschließend zu klassifizieren. Dieses Klassifizierungssystem bezieht sich auf „eine Komposit-Darstellung“ also beispielsweise einen hochdimensionalen Vektor, für eine Website-Klassifizierung innerhalb einer bestimmten Wissensdomäne.

Bei diesen Wissensdomänen könnte es sich um Themengebiete wie Gesundheit, Finanzen und andere handeln. Websites, die in bestimmten Wissensdomänen klassifiziert sind, können also einen Vorteil im Ranking haben, falls Google diese Klassifizierung verwendet, um die Suchergebnisse zu verbessern.

Dies beschriebenen Klassifikationen sind sehr ausdifferenziert und abgestuft. So könnte beispielsweise die eine Kategorie Websites umfassen, die von Experten im Wissensbereich, z.B. Ärzten, erstellt wurden, die zweite Kategorie Websites, die von Auszubildenden im Wissensbereich, z.B. Medizinstudenten, erstellt wurden, und die dritte Kategorie von Websites, die von Laien im Wissensbereich erstellt wurden.

Es geht im Kern also darum, dass die Maschine erkennen kann, dass Du, Deine Webseite & Deine Autoren Fachwissen, Autorität und Vertrauenswürdigkeit besitzen!

Google weiß, wer welche Artikel geschrieben hat

Naturgemäß interessiert sich Google besonders dafür, wer bestimmte Inhalte im Web erstellt hat, denn dies hat unmittelbar mit den Kernkonzepten hinter E-A-T zu tun. Daher kann man vermuten, dass diese Information auch als Signal für das Ranking von Seiten im Web sein könnte.

Bei Artikeln, die eine Autorenbox oder andere Kennzeichnung des Autors tragen, ob strukturiert oder nicht, ist die Zuordnung für Google relativ einfach. Doch Googles kürzlich erteiltes Patent auf Autoren-Vektoren zeigt sehr schön, dass sie sogar in der Lage sein könnten, die Autoren von nicht gekennzeichneten Inhalten zu identifizieren. Bereits 2007 tauchte ein Patent zum sogenannten Agent-Rank auf, in dem Reputationswerte beschrieben wurden, die die Rankings für Seiten, basierend auf der Identität von Autoren oder Herausgebern oder Kommentatoren oder Rezensenten auf Seiten, potenziell verbessern würden. Als später das soziale Netzwerk Google+ erschaffen wurde, und man via rel=“me“ dorthin verweisen konnte, mutmaßte ich selbst noch, dass Google dieses Autorenmarkup nutzen könnte, um einen Profildienst aufbauen würde, der Autoren mit ihren Inhalten verknüpft und deren Fachwissen, Autorität und Vertrauenswürdigkeit entsprechend berücksichtigen könnte.

Klar, wir können nicht mit Sicherheit sagen ob dies tatsächlich eingesetzt wird, aber Google hat Patente über die Erkennung von Autoren angemeldet und mit schema.org längst technische Möglichkeiten für die Ersteller von Inhalten bereitgestellt, um anzuzeigen, dass sie irgendwo im Netz etwas veröffentlicht haben.

Mache auf Deiner Webseite kenntlich wer was geschrieben hat!

Dabei ist es egal, ob Du eine Autorenbox einsetzt, am Anfang des Artikels steht, wer diesen geschrieben hat, oder Du „nur“ über strukturierte Daten auszeichnest, wer den Text verfasst hat.

Je mehr Hinweise Du Google lieferst, wer und wieso den Content geschrieben hat und wieso der*die*jenige*n dazu qualifiziert sind, desto besser für Dein E-A-T!

Update: Neue Hinweise von Google

Google hat in einem sehr interessanten Blogbeitrag nun detailliertere Hinweise darüber geliefert, wie die menschlichen Quality Rater bei der Festlegung von E-A-T vorgehen sollen:

To evaluate things like expertise, authoritativeness, and trustworthiness—sometimes referred to as “E-A-T”—raters are asked to do reputational research on the sources.

Here’s what that looks like in practice: imagine the sample query is “carrot cake recipe.” The results set may include articles from recipe sites, food magazines, food brands and perhaps blogs. To determine if a webpage meets their information needs, a rater might consider how easy the cooking instructions are to understand, how helpful the recipe is in terms of visual instructions and imagery, and whether there are other useful features on the site, like a shopping list creator or calculator for recipe doubling.

To understand if the author has subject matter expertise, a rater would do some online research to see if the author has cooking credentials, has been profiled or referenced on other food websites, or has produced other great content that has garnered positive reviews or ratings on recipe sites. Basically, they do some digging to answer questions like: is this page trustworthy, and does it come from a site or author with a good reputation?

Danny Sullivan, Public Liaison for Search

Frei übersetzt heißt das:

Um Dinge wie Fachkompetenz, Autorität und Vertrauenswürdigkeit – manchmal als „E-A-T“ bezeichnet – zu bewerten, werden die Gutachter gebeten, Reputationsrecherchen zu den Quellen durchzuführen.

So sieht das in der Praxis aus: Stellen Sie sich vor, die Beispielabfrage sei „Karottenkuchenrezept“. Die Ergebnismenge kann Artikel von Rezeptseiten, Lebensmittelmagazinen, Lebensmittelmarken und vielleicht Blogs enthalten. Um festzustellen, ob eine Webseite ihren Informationsbedarf deckt, könnte ein Bewerter überlegen, wie leicht die Kochanleitungen zu verstehen sind, wie hilfreich das Rezept in Bezug auf visuelle Anleitungen und Bilder ist und ob es weitere nützliche Funktionen auf der Website gibt, wie z.B. einen Einkaufslisten-Ersteller oder einen Rechner zur Rezeptverdoppelung.

Um zu verstehen, ob der Autor über Fachkompetenz verfügt, würde ein Bewerter einige Online-Recherchen durchführen, um zu sehen, ob der Autor über Kochreferenzen verfügt, ein Profil erstellt hat oder auf anderen Lebensmittel-Websites erwähnt wird oder ob er andere großartige Inhalte produziert hat, die positive Kritiken oder Bewertungen auf den Rezeptseiten erhalten haben. Im Grunde genommen werden Nachforschungen angestellt, um Fragen zu beantworten wie: Ist diese Seite vertrauenswürdig, und stammt sie von einer Website oder einem Autor mit einem guten Ruf?

Das bedeutet im Endeffekt, dass Du nicht nur auf Deiner eigenen Seite kenntlich machen solltest, wer den Inhalt verfasst hat und warum derjenige/diejenige dazu geeignet ist, sondern jeder Autor/jede Autorin auch auf anderen Webseiten oder Quellen nachvollziehbar als Experte/Expertin in diesem Themengebiet für einen Suchenden auffindbar sein sollte.

Daher gehe ich davon aus, dass die maschinellen Algorithmen auch die Suchtreffer zum Autorennamen als Lerndaten-Input erhalten, und daraus lernen sollen, die Reputation und Expertise eines Autoren abzuleiten.

Gute Inhalte sind die Quelle oder verlinken auf die Original-Quellen

Diese Regel ist relativ einfach und sollte eigentlich auch Nichts Neues für Dich sein: Gute und vertrauenswürdige Seiten erhalten Links von anderen Seiten. Dieser Umstand ist Grundlage des PageRanks und wird seit den Anfängen von Google als wichtiges Signal für die Popularität einer Webseite, aber auch über den sogenannten Trust Rank, für deren Vertrauenswürdigkeit genutzt.

In einer Welt vor hocheffizienten Machine-Learning-Algorithmen hat Google E-A-T offenbar ausschließlich über Erwähnungen und Links von vertrauenswürdigen Seiten, jedenfalls hat Gary Illyes das wohl 2018 auf der Pubcon zu einer Teilnehmerin gesagt:

Du solltest mit Deiner Webseite also relevante Verlinkungen anderer vertrauenswürdigen Webseiten einsammeln und dies auch aktiv verfolgen, was im SEO-Bereich klassisch als Linkbuilding, Link-Earning oder Offpage-Optimierung bezeichnet wird. Tust Du das nicht, kannst Du Dich aber auch anders als vertrauenswürdige Seite darstellen:

Wenn Du nicht die Quelle bist, musst du auf die Quelle verlinken.

Das sollte eigentlich auch klar sein, oder? Ausgehende Links sind nichts Böses, ganz im Gegenteil! Google weist immer wieder darauf hin, dass es zum guten Journalismus gehört, auf die Original-Quellen zu verlinken. Noch immer würden sich zahlreiche Publikationen fälschlicherweise als das Original ausgeben und einfach Inhalte abschreiben, statt den Autor anzugeben. Als Journalist sollte man stets den Lesern Zugang zu seinen Quellen gewähren, denn nur so können diese auch bewertet werden und die Leser haben dadurch die Möglichkeit, weiterführende Informationen zu finden.

Es gibt im Journalismus natürlich auch Gründe, keine Quellen zu nennen und keine Links zu setzen. Zum Einen will man vielleicht nicht verraten, wo man abgeschrieben hat, oder hat eben keine verlässlichen Quellen, möchte aufgrund wirtschaftlicher Interessen aber dennoch die Story bringen oder aus Prinzip den Leser nicht auf andere Webseiten als die eigene Führen.

Das Verlinken bzw. das Referenzieren der Original-Quellen sollte jedoch Bestandteil jeder journalistischen wie wissenschaftlichen Arbeit sein.

Gute Webseiten sehen aus wie gute Webseiten

Da es sich bei den verwendeten Algorithmen um selbstlernende System handelt, die offenbar mit sämtlichen Informationen über eine Webseite gefüttert werden, die Google vorliegen und dann auf Basis menschlicher Qualitätseinschätzungen „lernen“ welche Webseiten gut und welche schlecht sind, würde ich am Ende noch einen Schritt weiter gehen und meine Empfehlungen wie folgt formulieren:

Wenn Du eine vertrauenswürdige Webseite betreiben willst, muss diese auch vertrauenswürdig aussehen.

Ich denke es war nie wichtiger, die Best-Practices des Webs zu adaptieren und zu antizipieren welche Merkmale eine gute von einer schlechten Webseite aus maschineller Sicht unterscheiden könnte. Neben Dingen wie der Auszeichnung erwähnter Entitäten mittels strukturierter Daten, Lesbarkeit der Texte und der Ladezeit der Webseite könnten demnach also auch Usability-Patterns, Layouts, Farben oder der Einsatz von Fotos und Grafiken oder Videos einen Einfluß auf die Wahrnehmung und damit Klassifizierung der Webseite nehmen!

Der Einsatz von professionellen Fotos und Videos gehört also ebenso dazu, wie ein professionelles Webdesign sowie eine gute User Experience. Achte also auf eine übersichtliche Darstellung und Menüführung. Der Besucher sollte die wichtigsten Informationen auf einen Blick sehen und nicht umständlich weit nach unten scrollen oder gar in versteckten Seiten oder Tabs im Untermenü suchen müssen.

Im Kern wird nun also langsam das wahr, was Google den SEOs seit Jahrzehnten predigt:

Baut einfach gute Webseiten.

Jeder Googler. Immer.

Abonniere das kostenlose KI-Update

Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!

Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.

Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.

Kai Spriestersbach

Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer und digitaler Stratege mit einem Master-Abschluss in Web Science. Er ist Inhaber von AFAIK und verfügt über mehr als 20 Jahre Erfahrung im Aufbau und der Optimierung von webbasierten Geschäftsmodellen. Als einer der erfahrensten Search Marketing Experten im deutschsprachigen Raum hat er mehr als 25 Vorträge auf SEO- und Online-Marketing-Konferenzen in Deutschland und Österreich gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt und sich als Experte für die Textgenerierung mit Hilfe künstlicher Intelligenz etabliert. Seine Karriere begann er mit einer Ausbildung zum Mediengestalter (IHK), bevor er den Bachelor of Science (B.Sc) in E-Commerce absolvierte. Anschließend erwarb er den Master of Science (M.Sc) in Web Science und forschte an der RPTU im Bereich angewandter generativer KI.

×