Skip to content

Knowledge Graphen in der Praxis: Der Google-Ansatz

Trotz der Herausforderungen und potenziellen Fallstricke, die mit der Erstellung und Nutzung von Knowledge Graphen verbunden sind und die ich in meinem letzten Beitrag beschrieben habe, setzen große Technologieunternehmen wie Google weiterhin auf diese Technologie, insbesondere im Bereich der Websuche. Dies wirft die Frage auf: Warum nutzt Google noch immer Knowledge Graphen, wenn die Erstellung mit Hilfe von unzuverlässigen LLMs weder besonders effektiv noch effizient… 

Warum Knowledge Graphen das Problem der Unverlässigkeit von KI-Anwendungen oft nicht lösen

Generative künstliche Intelligenz gewinnt immer mehr Einfluss auf unser tägliches Leben und zieht ebenso Stück für Stück auch in Suchmaschinen und andere Information Retrieval Systeme ein. Dabei stehen wir jedoch vor einer grundlegenden Herausforderung: Wie können wir sicherstellen, dass KI-Systeme zuverlässige und faktisch korrekte Informationen liefern? Eine Möglichkeit das sogenannte Grounding über das Einbeziehen von Informationen aus einer Websuche über Googles eigene Grounding API zu… 

Googles KI-Revolution: Wie Chatbots faktenbasiert werden und die Suche transformieren

Als jemand, der seit Jahren in der KI-Forschung und SEO-Branche tätig ist, bin ich immer auf der Suche nach bahnbrechenden Entwicklungen. Und lasst mich Euch sagen: Google hat gerade einen Volltreffer gelandet! Stellt Euch vor, Ihr fragt Euren KI-Assistenten nach dem Wetter und bekommt eine Vorhersage vom letzten Jahr. Oder Ihr erkundigt Euch nach dem aktuellen Oscar-Gewinner und hört von einer Verleihung, die schon ewig… 

KI-SEO-Tool der Zukunft? Googles Enterprise Search mit RankBrain, Gecko & Knowledge Graph als Vertex AI Search nutzen

Für meinen aktuell laufenden Onlinekurs „The Future of Search“ entwickle ich gerade ein kleines Tool, mit dem man gezielt die Relevanz von Dokumenten zu Suchanfragen messen kann, um gezielter für die kommenden „AI Overviews“ oder „Search Generative Experience“ optimieren zu können. Bei meinen Recherchen bin ich auf etwas unglaublich spannendes gestoßen… Das Unternehmen hat seine Suchtechnologie, die bis dato als „Enterprise Search“ vermarktet wurde und… 

Divi Theme Deutsch 20% Rabatt

Das richtige WordPress Theme für deine nächste Website

Nach den Plugins stelle ich nun die besten WordPress Themes vor. Diese Liste umfasst alle populären und beliebten Themes und wird permanent aktualisiert und bei Bedarf erweitert. Ich habe mich mit meinem 20 Jahren Erfahrung beim Aufbau und der Optimierung webbasierter Vertriebs- und Geschäftsmodelle also der Frage gewidmet: Welches ist das beste WordPress Theme? Diese Frage lässt sich leider nicht mit einer einzigen, kurzen Antwort… 

Risikomanagement von Halluzinationen generativer KI

Ian P. McCarthy, Timothy R. Hannigan und André Spicer haben sich in einem sehr guten Artikel im Harvard Business Review dem Thema Halluzinationen von Chatbots und großen Sprachmodellen angenommen und das Ganze mal aus Sicht des Risikomanagements von Unternehmen bewertet. Sie verwenden für ungenaue und unwahre Inhalte von Chatbots, die von Menschen unkritisch für Aufgaben verwendet werden den Begriff „Botshit“ und machen zu Recht darauf… 

Generative KI in Unternehmen: Chancen, Herausforderungen und Best Practices

In der sich rasant entwickelnden Welt der künstlichen Intelligenz stehen Unternehmen vor der Herausforderung, generative KI-Technologien effektiv in ihre Geschäftsprozesse zu integrieren. Als KI-Experte möchte ich einen Einblick in die Schlüsselfaktoren für eine erfolgreiche Integration geben, mögliche Fallstricke aufzeigen und die Rolle der Mitarbeiter in diesem Transformationsprozess beleuchten. Erfolgreiche Integration von generativer KI Die Integration von generativer KI in Unternehmen erfordert zunächst eine solide Grundlage.… 

Grokking: Der Schlüssel zu neuen Erkenntnissen?

In meinem Beitrag „Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?“ habe ich mich schon einmal mit dem Phänomen des Grokkings beschäftigt. Zu diesem unglaublich faszinierendem Phänomen ist im letzten Monat ein sehr interessantes Paper erschienen: „Grokked Transformers are Implicit Reasoners: A Mechanistic Journey to the Edge of Generalization“ untersucht, ob Transformer-Modelle implizites logisches Denken über parametrisches Wissen erlernen können.… 

Fehlerhafte Google KI: Warum die neue Suchfunktion misslingt

Passend zu den vielen unglaublichen AI Summary Fails, die in den letzten Tagen in den sozialen Medien kursierten, erschien heute ein Artikel von Rhiannon Williams im MIT Technology Review. Darin wurde kritisch beleuchtet, warum Googles neue KI-gestützte Suchfunktion namens AI Overviews fehlerhafte und teilweise gefährliche Empfehlungen gibt. Dieser Kritik möchte ich mich mit meinem Beitrag hier anschließen… Google hat Anfang dieses Monats die Einführung seiner… 

Bullshit Alarm: Wieso LLMO/GenAIO nicht die Zukunft von SEO ist

In einem aktuellen Artikel im Harvard Business Review wird das Thema LLMO aufgegriffen. Vielleicht hast Du bereits an anderer Stelle schon einmal von LLMO oder GenAIO gehört und Dich gefragt, was es damit auf sich hat? Da ich das für ziemlichen Unsinn halte, habe ich den Artikel einmal genauer unter die Lupe genommen. Immerhin ist der Artikel im HBR erschienen, ein ziemlich einflussreiches englischsprachiges Management-Magazin,… 

Anthropics Einblicke in die Monosemantische Skalierung von Sprachmodellen

Anthropic hat kürzlich einen faszinierenden Blogbeitrag veröffentlicht, der tief in die Mechanismen großer Sprachmodelle eintaucht und erklärt, wie sie es geschafft haben, diese besser verständlich zu machen. Hier ist eine verständliche Erklärung der wichtigsten Punkte und Erkenntnisse aus dem Artikel. Was ist monosemantische Skalierung? Normalerweise sind die Neuronen in neuronalen Netzwerken polysemantisch, was bedeutet, dass sie mehrere Bedeutungen gleichzeitig repräsentieren. Diese Eigenschaft erschwert es, die… 

Tutorial: So sperrst Du OpenAIs ChatGPT, Googles Gemini und andere Bots aus, die deine Texte für ihre KI nutzen wollen

Sprachmodelle wie GPT-4 und Google Gemini müssen mit großen Mengen an Text gefüttert werden, um daraus Muster zu lernen, die dann erstaunliche Fähigkeiten aufweisen. Für das Training komplexer Sprachverarbeitungsmodelle greift man im wissenschaftlichen Umfeld gerne auf bekannte und öffentlich verfügbare Datensätze zurück. Dies ist insbesondere in der Forschung sinnvoll, denn so lassen sich Algorithmen besser mit deren Vorgängern und Konkurrenten vergleichen, die schließlich mit den… 

Konfabulieren statt Halluzinieren – Wissenschaftler schlagen präzisere Sprache für Fehler der KI vor

Künstliche Intelligenz (KI) liegt manchmal daneben und gibt falsche Antworten. Sie erfindet Fakten, Bücher und Webseiten. Oft wird dann gesagt, dass die KI „halluziniert“. Doch Aljoscha Burchardt, Research Fellow am DFKI und Xenia Kersting, Oberärztin in der Universitätsmedizin Mainz halten diesen Begriff für irreführend und schlagen eine präzisere Alternative vor. Es ist mittlerweile üblich geworden, den Begriff „Halluzinieren“ zu verwenden, wenn große Sprachmodelle wie ChatGPT… 

Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?

Immer mehr Unternehmen drängen auf die Markteinführung von KI-Produkten, obwohl es viele Beweise dafür gibt, dass sie schwer zu kontrollieren sind und sich oft auf unvorhersehbare Weise verhalten. Dieses Verhalten ist besonders besorgniserregend, wenn man sich klar macht, dass niemand genau weiß, wie oder warum Deep Learning, die grundlegende Technologie hinter dem heutigen KI-Boom, funktioniert. Denn, es ist nach wie vor ein großes Rätsel, wie… 

KI-Schlagabtausch: Claude 3 Opus vs. GPT-4, GPT-4 Turbo und ChatGPT – Die Top-Modelle von Anthropic und OpenAI im Vergleich

Für die Vorbereitung auf meine Teilnahme am 121WATT Podcast 121Stunden, der wahrscheinlich erst in ein paar Wochen erscheinen wird, hatte ich mir ein paar Stichpunkte darüber notiert, was generative KI nicht kann. Nun wollte ich diese Notizen in einen unterhaltsamen Blogartikel überführen. Und was läge dabei näher, als dies mittels KI zu tun. Da ich mit den Ergebnissen aus ChatGPT (GPT-4), im ersten Anlauf nicht… 

Models-all-the-way

Models all the Way: Ein tiefer Blick in die Datensätze der KI

Im Zeitalter der künstlichen Intelligenz (KI) stehen wir an der Schwelle zu Entwicklungen, die das Potenzial haben, unser Verständnis von Technologie und Interaktion grundlegend zu verändern. Doch was geschieht, wenn die Grundlagen dieser revolutionären KI-Systeme in Frage gestellt werden? Ein spannendes Projekt namens „Knowing Machines“, initiiert von Christo Buschek und Jer Thorp, wirft ein kritisches Licht auf die Fundamente der generativen KI: Die Datensätze, auf… 

Skandal-KI in Schulen: Große Sprachmodelle würfeln Noten!

Der Zugang zu Bildung ist ein Grundrecht (Art. 7 GG), was unter anderem das Recht auf chancengleiche Zugänglichkeit zu höherer Bildung, basierend auf persönlicher Leistung und Eignung umfasst. Das betrifft sowohl die allgemeine Bildung als auch die berufliche Bildung. Daher ist es aus meiner Sicht nicht verwunderlich, dass der Anwendungsbereich Bildung im EU AI Act als hochriskant klassifiziert. Insbesondere wenn es um Zugänge zu Bildung, die… 

Sam Altman spricht über GPT-5, Elon Musk, Sora, AGI und die Zukunft der KI

In der neuesten Folge des Lex Fridman Podcast hatte der KI-Forscher ein faszinierendes Gespräch mit Sam Altman, dem CEO von OpenAI. Das Unternehmen steht hinter bahnbrechenden KI-Systemen wie GPT-4, ChatGPT und zuletzt Sora. Möglicherweise wird OpenAI eines Tages sogar künstliche generelle Intelligenz (AGI) entwickeln. Sam war zum zweiten mal bei Fridman zu Besuch und ich finde das Interview sehr interessant: In diesem faszinierenden Podcast-Interview mit… 

×