Herzlich willkommen im neuen Jahr 2025 – Wir leben nun offiziell in der Zukunft!
Zumindest hört sich die Jahreszahl für mich total abgefahren futuristisch an. Ich hoffe ihr hattet eine besseres Jahresende als ich, mich hatte die Erkältungswelle mehrfach fies erwischt und ich komme erst seit ein paar Tagen dazu, an meinem neuen Buch zuarbeiten.
Andereseits freue ich mich auf das neue Jahr und werde vielleicht auch wieder meine beiden Schwerpunkte, SEO und KI näher zusammen bringen, denn ich merke immer stärker, wie wichtig ein Verständnis für LLMs, RAG und Embeddings für die zukünftige Arbeit von Suchmaschinenoptimierer:innen wird.
In den letzten Wochen gab es jedenfalls jede Menge spannender News und Updates, die ich heute für Euch in diesem Newsletter zusammengefasst habe.
Mal sehen, wie es weiter geht!
Euer Kai |
| |
Die Zukunft der Suche: Wie KI die Suchmaschinen revolutioniert
Die Art und Weise, wie wir im Internet nach Informationen suchen, steht vor einem grundlegenden Wandel. In einem Artikel für die MIT Technology Review beschreibt Mat Honan sehr anschaulich, wie KI die Internetsuche in eine neue Ära katapultiert – weg von klassischen Keyword-basierten Suchanfragen und blauen Links, hin zu einer konversationellen Suche, die Antworten liefert, als würde man mit einer sachkundigen Person sprechen.
Doch diese Veränderungen bringen nicht nur Chancen, sondern auch Herausforderungen und Risiken mit sich, die weitreichende Folgen für Nutzer:innen, Publisher und SEO haben könnten.
Im Zentrum der Revolution stehen generative KI-Systeme, die Suchergebnisse nicht mehr nur auslisten, sondern in präzise, zusammenhängende Antworten umwandeln. Google experimentiert seit 2023 mit „AI Overviews“, einem Ansatz, bei dem Antworten aus KI-generierten Texten und Datenbanken wie dem Knowledge Graph kombiniert werden. Die Idee ist, komplexe Fragen direkt zu beantworten – sei es, ob Surfbedingungen in Kamakura im März gut sind, oder welche Festivals in der Nähe von Tokio stattfinden. Ähnliche Entwicklungen gibt es auch bei Microsofts Bing und OpenAIs ChatGPT, das inzwischen webbasierte Echtzeitsuche integriert hat.
Doch dieser Fortschritt hat seinen Preis. KI-generierte Antworten, so leistungsfähig sie auch sein mögen, sind nicht fehlerfrei. Honan berichtet von einem Vorfall im Mai 2024, als Google seine AI Overviews in den USA breit ausrollte. Schnell häuften sich Beispiele fehlerhafter Antworten – darunter die bizarre Empfehlung, „Steine zu essen“ oder „Kleber auf Pizza zu streichen“. Diese Fehler waren zwar größtenteils das Resultat von „adversarial queries“, also absichtlich irreführenden Suchanfragen, doch sie offenbarten grundlegende Schwächen der Systeme.
Generative KI „halluziniert“ gelegentlich – sie liefert Antworten, die zwar überzeugend wirken, aber schlichtweg falsch sind. Noch gefährlicher ist es, wenn solche Fehler nicht sofort erkennbar sind, wie etwa bei falschen Fakten zu historischen Ereignissen oder wissenschaftlichen Themen.
Neben der Genauigkeit der Antworten sorgt die Art und Weise, wie KI Suchinhalte verwendet, für Spannungen. Verlage und Publisher blicken mit Sorge auf eine mögliche „Zero-Click“-Zukunft. Mat Honan schildert, wie die Plattform Perplexity AI eine Meldung über ein Startup von Eric Schmidt zusammenstellte – basierend auf exklusiven Forbes-Inhalten, die hinter einer Paywall lagen. Der Text und die verwendeten Bilder waren nahezu identisch mit denen des Originals, doch Nutzer:innen mussten nicht auf die Forbes-Seite klicken, um die Informationen zu lesen. Solche Praktiken haben bereits zu rechtlichen Konflikten geführt, etwa durch Klagen von News Corp oder Condé Nast. Google und OpenAI versuchen zwar, mit Medienhäusern Partnerschaften und faire Vergütungsmodelle zu entwickeln, doch viele Details bleiben ungeklärt. Während Google KI-Überblicke aus seiner Knowledge Graph-Datenbank generiert, experimentiert OpenAI mit direkten Lizenzvereinbarungen. Allerdings bleibt unklar, wie solche Modelle auf die Vielzahl der kleineren Publisher ausgedehnt werden könnten, die ebenfalls von diesen Veränderungen betroffen sind.
Neben den Herausforderungen und Konflikten gibt es jedoch auch eine Vision, die weit über das bloße Beantworten von Fragen hinausgeht. Google-CEO Sundar Pichai beschreibt eine Zukunft, in der KI-Suche nicht nur Wissen vermittelt, sondern auch praktische Aufgaben übernimmt. Die Integration von Echtzeitdaten aus dem Internet könnte dazu führen, dass KI-Agenten selbstständig Flüge buchen, Restaurantreservierungen vornehmen oder Reparaturen planen. OpenAIs Produktchef Kevin Weil skizziert eine ähnliche Zukunft, in der ChatGPT nicht nur auf Webinhalte zugreift, sondern auch direkt in den Alltag integriert wird – vom Bestellen von Essen bis zur Automatisierung komplexer Reiseplanungen.
Doch diese neue Welt birgt auch Gefahren: Honan betont, dass KI nicht nur harmlose Fragen beantworten wird, sondern auch für potenziell schädliche Zwecke missbraucht werden kann. Google hat beispielsweise entschieden, dass bei Suchanfragen wie „Wie baue ich eine Bombe?“ keine KI-generierten Antworten geliefert werden dürfen. Doch die bloße Existenz solcher Möglichkeiten zeigt, wie sensibel der Umgang mit dieser Technologie sein muss.
Eine weitere Herausforderung ist die subjektive Natur der KI-Auswahl: Welcher Quelle wird Vertrauen geschenkt? Welche Faktenbasis wird genutzt? Diese Fragen haben weitreichende Auswirkungen, wenn KI immer stärker zur „primären Realität“ für Nutzer:innen wird.
Mat Honan beschreibt also genau das, was wir im SEO alle spüren, nämlich dass wir an einem Wendepunkt stehen, der das Potenzial hat, nicht nur die Internetsuche, sondern die Art, wie wir mit Informationen interagieren, grundlegend zu verändern.
Diese Entwicklung ist nicht frei von Fehlern und Konflikten, aber sie eröffnet auch Möglichkeiten, die vor wenigen Jahren noch undenkbar schienen. Für SEO-Expert:innen, Publisher und Unternehmen bedeutet dies, sich schnell anzupassen und neue Strategien zu entwickeln, um in dieser neuen Realität sichtbar zu bleiben. |
| |
Google bringt „AI Mode“ direkt in die Suche!
Google will die Integration von KI in seine Suche weiter vorantreiben und plant offenbar, einen speziellen „AI Mode“ direkt auf der Hauptsuchseite einzuführen!
Dieser Modus soll es Nutzer*innen ermöglichen, direkt mit dem Gemini-Agenten zu interagieren – Googles leistungsstarkem Sprachmodell, das bereits in anderen Produkten wie Gmail und Drive integriert ist.
Die neue Funktion soll prominent auf der Suchseite und in der Google-App sichtbar sein, wie aus Berichten und Analysen der App hervorgeht. Der „AI Mode“ wird voraussichtlich über einen eigenen Bereich in der App zugänglich sein, mit Funktionen wie Sprachnachrichten an die KI oder der Möglichkeit, Bilder zur Analyse hochzuladen. Auch eine Chat-Historie scheint geplant zu sein, sodass Nutzer*innen jederzeit auf vorherige Gespräche mit der KI zugreifen können. (Quelle)
Google hat bereits erste Schritte in diese Richtung unternommen. KI-generierte „AI Overviews“, die Antworten auf Suchanfragen zusammenfassen, sind seit einiger Zeit Teil der Suchergebnisse. Gemini wird zudem zunehmend in anderen Google-Diensten beworben – etwa auf der Startseite der Suche mit Artikeln wie „5 Wege, wie Gemini dir in der Weihnachtszeit helfen kann“.
Mit der Einführung des „AI Mode“ reagiert Google auf den wachsenden Wettbewerb im Bereich KI-gestützter Suchfunktionen. OpenAI hat kürzlich die Websuche für ChatGPT auch für kostenlose Nutzer*innen freigeschaltet und rollt diese Funktion derzeit breit aus. Microsoft setzt mit seinem Copilot-Assistenten ebenfalls auf KI-gestützte Suche, während Perplexity und sogar der datenschutzorientierte Anbieter DuckDuckGo ähnliche KI-Features in ihre Plattformen integriert haben.
Durch den „AI Mode“ könnte Google seine generative KI einem noch breiteren Publikum zugänglich machen und gleichzeitig seine Position als führender Suchanbieter stärken. Die Herausforderung wird darin bestehen, den Nutzer*innen eine intuitive und fehlerfreie Erfahrung zu bieten, während die Konkurrenz den Druck auf den Suchgiganten weiter erhöht.
Wenn Du wissen willst, wie Du als SEO oder Publisher darauf reagieren kannst, antworte einfach auf diese E-Mail :) |
| |
DeepSeek: Wie ein chinesisches AI-Startup trotz US-Sanktionen Innovation vorantreibt
|
| |
Es hat mich ehrlich gesagt nicht überrascht, von DeepSeeks bemerkenswerten Fortschritten zu lesen. Nachdem ich vor 8 Jahren bereits die WIRED-Dokumentation „Shenzhen: The Silicon Valley of Hardware“ gesehen habe, sehe ich nun jeden Tag, wie die offene Hardware-Kultur in China kreative Lösungen ermöglicht. Die Evolution des sogenannten „Shanzhai“-Modells – ursprünglich für Nachahmerprodukte bekannt – hat sich in einen Ansatz für Innovation und Zusammenarbeit gewandelt, von dem die Welt lernen kann. DeepSeek zeigt eindrucksvoll, wie dieser Innovationsgeist auch die AI-Entwicklung prägt.
Ein Modell, das mit ChatGPT o1 konkurriert
Mit dem neuen reasoning-Modell „R1“ hat DeepSeek ein System geschaffen, das in puncto mathematische und programmiertechnische Aufgaben mit ChatGPT o1 mithalten kann. Trotz der Einschränkungen durch US-Exportkontrollen hat das Unternehmen nicht nur kreative Lösungen entwickelt, sondern auch Effizienz und Ressourcennutzung revolutioniert.
Das ist ein wirklicher Durchbruch, besonders für Forscher*innen mit begrenzten Ressourcen!
Innovation unter schwierigen Bedingungen
Die USA haben China den Zugang zu High-End-Chips wie Nvidias A100 erschwert. DeepSeek musste daher auf abgespeckte Chips zurückgreifen, die nur die Hälfte der Leistung der Top-Modelle erbringen. Doch statt daran zu scheitern, hat das Team die Herausforderung genutzt, um seine Prozesse zu optimieren. Ein Beispiel ist die Reduzierung des Speicherbedarfs und die Beschleunigung von Berechnungen, ohne die Genauigkeit zu opfern.
Besonders beeindruckend ist, dass DeepSeek auch sechs kleinere Versionen von R1 entwickelt hat, die lokal auf Laptops laufen können. Eine davon soll sogar OpenAIs o1-mini in einigen Benchmarks übertreffen. Gleichzeitig hat das Unternehmen den Code von R1-mini als Open Source freigegeben, was es Entwickler*innen weltweit ermöglicht, darauf aufzubauen.
Ein Startup mit langfristigen Zielen
DeepSeek wurde 2023 von Liang Wenfeng gegründet, einem Alumnus der Zhejiang-Universität. Sein Hintergrund in Informationstechnik und seine frühzeitige Vorbereitung auf die Sanktionen – darunter die strategische Beschaffung von Nvidia-Chips – haben das Unternehmen in die Lage versetzt, ein ambitioniertes Ziel zu verfolgen: die Entwicklung von künstlicher allgemeiner Intelligenz (AGI).
Liang ist nicht nur ein Visionär, sondern auch aktiv in die Forschung eingebunden. Die Teamkultur bei DeepSeek ist laut Insidern stark kollaborativ und von Hingabe zur Forschung geprägt“.
Open Source als treibende Kraft in China
Es ist aber im Grunde nicht China, das die USA schlägt, auch wenn DeepSeek OpenAI geräde ärgert, es ist eher so, dass OpenSource gerade dabei ist, proprietäre Entwicklungen zu überholen und hier ist China traditionell sehr stark, denn auch Tech-Giganten wie Alibaba und Startups wie Minimax fördern die Open-Source-Kultur, die zunehmend junge chinesische Entwicklerinnen prägt. Laut einer Studie der China Academy of Information and Communications Technology stammen 36 % der weltweit 1.328 großen Sprachmodelle aus China. Diese Offenheit stärkt nicht nur die Forschung, sondern bietet Entwicklerinnen in ressourcenarmen Regionen neue Möglichkeiten.
Fazit: Von Sanktionen zu Innovation
US-Sanktionen sollten Chinas AI-Entwicklung bremsen, haben aber das Gegenteil bewirkt. Unternehmen wie DeepSeek zeigen, dass sich mit Effizienz, Kreativität und Zusammenarbeit neue Wege finden lassen. Während die Konkurrenz weltweit wächst, beweist DeepSeek, dass Innovation auch unter widrigen Bedingungen florieren kann.
Die Fortschritte des Unternehmens sind nicht nur ein Gewinn für die AI-Branche, sondern vielleicht sogar ein Vorbild für den Umgang mit globalen Herausforderungen.
Nicht verschweigen sollte man dabei allerdings, dass Deepseeks Modelle – wie auch andere Modelle aus China – Inhalte und Antworten zensiert! Das lässt sich mit Tricks zwar umgehen, allerdings muss man dafür erstmal wissen, wann und was zensiert wurde. |
| |
Google revolutioniert seine KI: Mit Gemini 2.0 und Project Astra in eine neue Ära
Google DeepMind präsentiert mit Gemini 2.0 und dem experimentellen Project Astra zwei Innovationen, die das Potenzial haben, generative KI im Alltag zu verankern. Unterstützt wird das Line-up durch neue Produkte wie den Web-Agenten Mariner, den KI-Coding-Assistenten Jules sowie Gemini for Games, eine KI, die Spieler:innen in Echtzeit unterstützt.
Was macht Project Astra so besonders?
Astra ist eine universelle Assistenten-Plattform, die Sprache, Text, Bilder und Videos nahtlos verbindet. Mithilfe von Gemini 2.0 kann Astra Aufgaben in Echtzeit ausführen, indem es auf Google-Apps wie Search, Maps und Lens zugreift. Es merkt sich frühere Interaktionen, erkennt Objekte in der Umgebung und liefert nützliche Informationen – sei es eine Weinempfehlung zum Abendessen oder Details zu Kunstwerken, an denen man vorbeiläuft.
Neue Dimension der KI-Integration
Google kombiniert erstmals multimodale Fähigkeiten wie Bilderkennung, Sprachverarbeitung und Videoanalyse in einer Plattform. Diese Verschmelzung eröffnet neue Möglichkeiten, um KI noch persönlicher und vielseitiger zu gestalten. Erste Beispiele zeigen, wie Astra etwa Passwörter aus E-Mails extrahieren, Wegbeschreibungen liefern oder Aufgaben wie das Lesen von Rezepten erleichtern kann.
Risiken und Chancen
Während das Potenzial enorm ist, gibt es auch Kritik: Expert:innen warnen vor Datenschutzrisiken und fordern mehr Transparenz über die Funktionsweise der Technologie. Google versichert, dass Datenschutz, Sicherheit und Missbrauchsprävention zentrale Prioritäten haben – eine Herausforderung, die in der KI-Branche zunehmend wichtig wird.
Auch wenn ein Veröffentlichungsdatum für Astra noch aussteht, zeigt sich deutlich: Mit Gemini 2.0 und Project Astra hat Google einen großen Schritt gemacht, generative KI für den Alltag zugänglich zu machen und eine neue Dimension der digitalen Assistenten einzuläuten. |
| |
OpenAI stellt „Operator“ vor: Eine KI, die deinen Computer für dich nutzt
OpenAI hat Operator vorgestellt, einen KI-Agenten, der eigenständig Webbrowser navigieren und alltägliche Aufgaben erledigen kann – etwa Restaurantreservierungen buchen, Lebensmittel bestellen oder Tickets für Veranstaltungen kaufen. Die App markiert OpenAIs ersten großen Schritt in Richtung autonomer KI-Assistenten.
Die wichtigsten Details:
- Technologie hinter Operator: Operator basiert auf dem neuen Computer-Using Agent (CUA)-Modell, das die visuellen Fähigkeiten von GPT-4o mit fortschrittlichem logischen Denken kombiniert. Dadurch kann die KI Websites auf natürliche Weise verstehen und mit ihnen interagieren.
- Eindrucksvolle Demo: Während eines Livestreams zeigte OpenAI, wie Operator Aufgaben wie das Planen eines Abends, das Bestellen bei einem Lebensmittellieferdienst und das Kaufen von Sporttickets erledigen kann.
- Strategische Partnerschaften: OpenAI arbeitet mit Plattformen wie DoorDash, Instacart und Uber zusammen, um sicherzustellen, dass Operator nahtlos und regelkonform funktioniert.
- Sicherheitsmaßnahmen: Eingebaute Funktionen wie die Zustimmung der Nutzer*innen für Käufe, Bedrohungserkennung und ein „Takeover Mode“ schützen sensible Informationen wie Passwörter und Zahlungsdaten.
- Verfügbarkeit: Der Dienst wird derzeit leider nur als Vorschau exklusiv für US-Pro-Nutzer*innen angeboten, mit geplanten Erweiterungen auf Plus-, Team- und Enterprise-Konten nach weiteren Tests.
Operator demonstriert, wie agentenbasierte Modelle unser Verhältnis zu Technologie verändern könnten. OpenAI ist damit nicht allein: Tools wie Anthropics Computer Use oder Googles Mariner haben ebenfalls das Ziel, KI direkt mit unserer digitalen Umgebung zu verbinden. Operator hebt sich jedoch durch seine fortschrittliche Kombination von Vision- und Denkfähigkeiten hervor. Während es in der Anfangsphase noch Verbesserungspotenzial geben mag, ist klar, dass OpenAIs Schritt ein Meilenstein ist – der Beginn einer neuen Ära autonomer KI-Interaktionen.
Ich bin sehr gespannt, ob OpenAIs neue Agent zuverlässiger funktioniert, als Anthropics Bildschirm-Agent. |
| |
OpenAI erweitert Canvas: Neue Funktionen und breiter Rollout
OpenAI macht seinen Canvas, das kollaborative Split-Screen-Tool für Schreiben und Programmieren, jetzt für alle Nutzer:innen zugänglich – und erweitert es um spannende neue Features, die sehr stark an Anthropic Claudes Artefakte erinnern.
Der neue Canvas bietet ab sofort:
- Python-Integration: Direkte Codeausführung innerhalb des Interfaces, inklusive Echtzeit-Debugging und Ausgabe-Visualisierung.
- Nahtlose Integration mit GPT-4o: Canvas kann nun direkt über Prompts gestartet werden, ohne dass Nutzer:innen das Modell manuell auswählen müssen.
- ´Custom GPT-Unterstützung: Canvas-Funktionen stehen jetzt auch benutzerdefinierten GPTs standardmäßig zur Verfügung – eine willkommene Erweiterung, die bestehende KI-Assistenten aufwertet.
- Erweiterte Bearbeitungswerkzeuge: Optimierungen für Schreibaufgaben (Lesbarkeit, Längenanpassung) und fortschrittliche Programmier-Tools (Code-Reviews, Debugging).
Canvas verändert, wie Nutzer:innen mit ChatGPT arbeiten, indem es Schreiben, Codieren und interaktive Kollaboration in einer übersichtlichen Split-Screen-Umgebung vereint
Besonders die Python-Integration macht es zu einem leistungsstarken Tool für Entwickler:innen. Gleichzeitig haucht die Integration in Custom GPTs einer oft übersehenen Funktionalität neues Leben ein und zeigt, wie flexibel OpenAIs Plattform wirklich sein kann.
ch bin gespannt, ob mich ChatGPT damit wieder von Claude zurück gewinnen kann, um kleine Apps zu programmieren! |
| |
Alibaba präsentiert Qwen-Modelle mit Unterstützung für 1 Million Token
Das Qwen-Team von Alibaba hat zwei neue Open-Source-Modelle vorgestellt, die bis zu 1 Million Tokens verarbeiten können. Neben längeren Kontexten überzeugen die Modelle durch erhebliche Geschwindigkeitsverbesserungen und eine aktualisierte Chat-Oberfläche.
- Neue Modelle: Die Qwen2.5-1M-Serie umfasst 7- und 14-Milliarden-Parameter-Modelle, die bei einer Kontextlänge von 1 Million Tokens hohe Genauigkeit beibehalten.
- Schnellere Verarbeitung: Mit einem maßgeschneiderten vLLM-Inferenz-Framework erreicht Qwen bis zu 7-fach schnellere Verarbeitung im Vergleich zu anderen Long-Context-Systemen.
- Leistungsstärke: In Tests übertrafen die Qwen-1M-Modelle andere Long-Context-Modelle wie Llama-3, GLM-4 und GPT-4 bei komplexen Aufgaben mit langen Texten.
- Qwen Chat v0.2: Das Upgrade bringt Web-Suche, Text-zu-Video-Generierung und verbesserte Bildverarbeitung.
Die neuen Qwen-Modelle setzen einen Maßstab für die Branche: Kontextlängen von 1 Million Tokens – ein Trend, der auch von Googles Gemini (2M) und Flash 2.0 Thinking (1M) vorangetrieben wird – ermöglichen eine Datenverarbeitung auf nahezu „übermenschlichem“ Niveau.
Mit schnelleren Rechenzeiten und neuen Features eröffnen sich Potenziale für komplexe Anwendungsfälle, die bisher undenkbar waren. |
| |
Meta investiert bis zu 65 Milliarden Dollar in AI-Infrastruktur
Meta-CEO Mark Zuckerberg hat ein ehrgeiziges Investitionsprogramm in Höhe von 60-65 Milliarden US-Dollar für 2025 angekündigt, das vollständig auf den Ausbau der AI-Infrastruktur abzielt. Damit will Meta seine AI-Systeme – insbesondere den digitalen Assistenten Meta AI und das Sprachmodell Llama 4 – an die Spitze der Branche bringen.
Die wichtigsten Details:
- Rechenpower im Fokus: Meta plant den Aufbau eines gigantischen Rechenzentrums mit 1 GW Leistung – das entspricht einer Fläche, die einen großen Teil Manhattans abdecken würde.
- Hardware-Offensive: Bis Ende 2025 sollen 1,3 Millionen GPUs angeschafft werden – eine der größten AI-Hardware-Beschaffungen weltweit. Was mich als NVIDIA-Aktionär sehr freut ;o)
- Investitionssprung: Das geplante Budget für 2025 stellt eine Steigerung von rund 70 % im Vergleich zu 2024 dar. Zuckerberg erwartet außerdem, dass Meta AI bis Ende 2025 eine Milliarde Nutzer*innen erreicht.
Die Ankündigung folgt auf zwei große Nachrichten aus der AI-Branche. Zum einen DeepSeek R1, das chinesische AI-Modell, demonstrierte jüngst Weltklasse-Leistung bei einem Bruchteil der üblichen Trainingskosten. Und zum anderen OpenAI’s Stargate-Projekt, das 500 Milliarden Dollar in die U.S.-AI-Infrastruktur fließen lassen soll.
Der Wettlauf um die leistungsstärkste AI-Infrastruktur beschleunigt sich. Während westliche Giganten wie Meta und OpenAI gigantische Summen in neue Rechenzentren investieren, zeigt DeepSeek, dass Innovation auch mit effizientem Ressourceneinsatz möglich ist. Der globale Wettbewerb um die Zukunft der AI erreicht damit eine neue Dimension. |
| |
Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg
Impressum: afaik.de/impressum
| |
|