Risikomanagement von Halluzinationen generativer KI
Ian P. McCarthy, Timothy R. Hannigan und André Spicer haben sich in einem sehr guten Artikel im Harvard Business Review… Zum Artikel »Risikomanagement von Halluzinationen generativer KI
Kai Spriestersbach ist Unternehmer, Autor und digitaler Stratege mit einem Master-Abschluss in Web Science. Er promoviert an der RPTU Kaiserslautern-Landau im Bereich angewandter generativer KI und ist Head of AI bei einer Online Marketing Agentur. Mit mehr als 20 Jahren Erfahrung im Aufbau und der Optimierung webbasierter Geschäftsmodelle zählt er zu den erfahrensten SEO-Experten im deutschsprachigen Raum und hat dutzende Vorträge auf SEO- und Online-Marketing-Konferenzen gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt, mehrere Bücher über künstliche Intelligenz veröffentlicht und sich als Experte für generative KI etabliert. Er unterstützt Unternehmen bei der Nutzung generativer AI, berät Marketing-Abteilungen, die in Chatbots und KI-Suchmaschinen sichtbar werden wollen, und entwickelt eigene KI-Tools und digitale Geschäftsmodelle. Offenlegung der Verwendung von KI: Kai verwendet generative KI, wenn er über seine eigenen Erfahrungen, Ideen, Konzepte, Tools, Experimente oder Forschungsergebnisse schreibt. Sein bevorzugtes Tool für diesen Prozess ist Anthropics Claude. Alle Inhalte wurden von Kai konzipiert, bearbeitet und auf ihre Korrektheit überprüft.
Ian P. McCarthy, Timothy R. Hannigan und André Spicer haben sich in einem sehr guten Artikel im Harvard Business Review… Zum Artikel »Risikomanagement von Halluzinationen generativer KI
In der sich rasant entwickelnden Welt der künstlichen Intelligenz stehen Unternehmen vor der Herausforderung, generative KI-Technologien effektiv in ihre Geschäftsprozesse… Zum Artikel »Generative KI in Unternehmen: Chancen, Herausforderungen und Best Practices
In meinem Beitrag „Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?“ habe ich mich schon… Zum Artikel »Grokking: Der Schlüssel zu neuen Erkenntnissen?
Passend zu den vielen unglaublichen AI Summary Fails, die in den letzten Tagen in den sozialen Medien kursierten, erschien heute… Zum Artikel »Fehlerhafte Google KI: Warum die neue Suchfunktion misslingt
In einem aktuellen Artikel im Harvard Business Review wird das Thema LLMO aufgegriffen. Vielleicht hast Du bereits an anderer Stelle… Zum Artikel »Bullshit Alarm: Wieso LLMO/GenAIO nicht die Zukunft von SEO ist
Sprachmodelle wie GPT-4 und Google Gemini müssen mit großen Mengen an Text gefüttert werden, um daraus Muster zu lernen, die… Zum Artikel »Tutorial: So sperrst Du OpenAIs ChatGPT, Googles Gemini und andere Bots aus, die deine Texte für ihre KI nutzen wollen
Künstliche Intelligenz (KI) liegt manchmal daneben und gibt falsche Antworten. Sie erfindet Fakten, Bücher und Webseiten. Oft wird dann gesagt,… Zum Artikel »Konfabulieren statt Halluzinieren – Wissenschaftler schlagen präzisere Sprache für Fehler der KI vor
Immer mehr Unternehmen drängen auf die Markteinführung von KI-Produkten, obwohl es viele Beweise dafür gibt, dass sie schwer zu kontrollieren… Zum Artikel »Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?
Im Zeitalter der künstlichen Intelligenz (KI) stehen wir an der Schwelle zu Entwicklungen, die das Potenzial haben, unser Verständnis von… Zum Artikel »Models all the Way: Ein tiefer Blick in die Datensätze der KI
Als ich Anfang 2023 mein Buch über ChatGPT & Co. geschrieben habe, habe ich mich auch damit auseinander gesetzt, ob… Zum Artikel »AI Content Detektoren: Kann man KI-Texte erkennen?