Risikomanagement von Halluzinationen generativer KI
Ian P. McCarthy, Timothy R. Hannigan und André Spicer haben sich in einem sehr guten Artikel im Harvard Business Review… Zum Artikel »Risikomanagement von Halluzinationen generativer KI
Kai Spriestersbach ist erfolgreicher Unternehmer und digitaler Stratege mit einem Master-Abschluss in Web Science. Er verfügt über mehr als 20 Jahre Erfahrung im Aufbau und der Optimierung von webbasierten Geschäftsmodellen. Als einer der erfahrensten SEO-Experten im deutschsprachigen Raum hat dutzende Vorträge auf SEO- und Online-Marketing-Konferenzen gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt und sich als Experte für generative künstliche Intelligenz etabliert und forscht im Bereich angewandte generative KI. Er unterstützt Unternehmen bei der Nutzung generativer AI und berät Marketing-Abteilungen, die in Chatbots und KI-Suchmaschinen gefunden werden wollen und entwickelt eigene KI-Tools und digitale Geschäftsmodelle. Offenlegung der Verwendung von KI: Kai verwendet generative KI, wenn er über seine eigenen Erfahrungen, Ideen, Erlebnisse, Konzepte, Tools, Experimente oder Forschungsergebnisse schreibt. Sein bevorzugtes Tool für diesen Prozess ist Anthropics Claude Opus 4.5. Alle Inhalte wurden von Kai konzipiert, bearbeitet und auf ihre Korrektheit überprüft.
Ian P. McCarthy, Timothy R. Hannigan und André Spicer haben sich in einem sehr guten Artikel im Harvard Business Review… Zum Artikel »Risikomanagement von Halluzinationen generativer KI
In der sich rasant entwickelnden Welt der künstlichen Intelligenz stehen Unternehmen vor der Herausforderung, generative KI-Technologien effektiv in ihre Geschäftsprozesse… Zum Artikel »Generative KI in Unternehmen: Chancen, Herausforderungen und Best Practices
In meinem Beitrag „Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?“ habe ich mich schon… Zum Artikel »Grokking: Der Schlüssel zu neuen Erkenntnissen?
Passend zu den vielen unglaublichen AI Summary Fails, die in den letzten Tagen in den sozialen Medien kursierten, erschien heute… Zum Artikel »Fehlerhafte Google KI: Warum die neue Suchfunktion misslingt
In einem aktuellen Artikel im Harvard Business Review wird das Thema LLMO aufgegriffen. Vielleicht hast Du bereits an anderer Stelle… Zum Artikel »Bullshit Alarm: Wieso LLMO/GenAIO nicht die Zukunft von SEO ist
Anthropic hat kürzlich einen faszinierenden Blogbeitrag veröffentlicht, der tief in die Mechanismen großer Sprachmodelle eintaucht und erklärt, wie sie es… Zum Artikel »Anthropics Einblicke in die Monosemantische Skalierung von Sprachmodellen
Sprachmodelle wie GPT-4 und Google Gemini müssen mit großen Mengen an Text gefüttert werden, um daraus Muster zu lernen, die… Zum Artikel »Tutorial: So sperrst Du OpenAIs ChatGPT, Googles Gemini und andere Bots aus, die deine Texte für ihre KI nutzen wollen
Künstliche Intelligenz (KI) liegt manchmal daneben und gibt falsche Antworten. Sie erfindet Fakten, Bücher und Webseiten. Oft wird dann gesagt,… Zum Artikel »Konfabulieren statt Halluzinieren – Wissenschaftler schlagen präzisere Sprache für Fehler der KI vor
Immer mehr Unternehmen drängen auf die Markteinführung von KI-Produkten, obwohl es viele Beweise dafür gibt, dass sie schwer zu kontrollieren… Zum Artikel »Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?
Für die Vorbereitung auf meine Teilnahme am 121WATT Podcast 121Stunden, der wahrscheinlich erst in ein paar Wochen erscheinen wird, hatte… Zum Artikel »KI-Schlagabtausch: Claude 3 Opus vs. GPT-4, GPT-4 Turbo und ChatGPT – Die Top-Modelle von Anthropic und OpenAI im Vergleich