Zum Inhalt springen

KI-News

Fehlerhafte Google KI: Warum die neue Suchfunktion misslingt

Passend zu den vielen unglaublichen AI Summary Fails, die in den letzten Tagen in den sozialen Medien kursierten, erschien heute ein Artikel von Rhiannon Williams im MIT Technology Review. Darin wurde kritisch beleuchtet, warum Googles neue KI-gestützte Suchfunktion namens AI Overviews fehlerhafte und teilweise gefährliche Empfehlungen gibt. Dieser Kritik möchte ich mich mit meinem Beitrag hier anschließen… Google hat Anfang dieses Monats die Einführung seiner… 

Bullshit Alarm: Wieso LLMO/GenAIO nicht die Zukunft von SEO ist

In einem aktuellen Artikel im Harvard Business Review wird das Thema LLMO aufgegriffen. Vielleicht hast Du bereits an anderer Stelle schon einmal von LLMO oder GenAIO gehört und Dich gefragt, was es damit auf sich hat? Da ich das für ziemlichen Unsinn halte, habe ich den Artikel einmal genauer unter die Lupe genommen. Immerhin ist der Artikel im HBR erschienen, ein ziemlich einflussreiches englischsprachiges Management-Magazin,… 

Anthropics Einblicke in die Monosemantische Skalierung von Sprachmodellen

Anthropic hat kürzlich einen faszinierenden Blogbeitrag veröffentlicht, der tief in die Mechanismen großer Sprachmodelle eintaucht und erklärt, wie sie es geschafft haben, diese besser verständlich zu machen. Hier ist eine verständliche Erklärung der wichtigsten Punkte und Erkenntnisse aus dem Artikel. Was ist monosemantische Skalierung? Normalerweise sind die Neuronen in neuronalen Netzwerken polysemantisch, was bedeutet, dass sie mehrere Bedeutungen gleichzeitig repräsentieren. Diese Eigenschaft erschwert es, die… 

Tutorial: So sperrst Du OpenAIs ChatGPT, Googles Gemini und andere Bots aus, die deine Texte für ihre KI nutzen wollen

Sprachmodelle wie GPT-4 und Google Gemini müssen mit großen Mengen an Text gefüttert werden, um daraus Muster zu lernen, die dann erstaunliche Fähigkeiten aufweisen. Für das Training komplexer Sprachverarbeitungsmodelle greift man im wissenschaftlichen Umfeld gerne auf bekannte und öffentlich verfügbare Datensätze zurück. Dies ist insbesondere in der Forschung sinnvoll, denn so lassen sich Algorithmen besser mit deren Vorgängern und Konkurrenten vergleichen, die schließlich mit den… 

Konfabulieren statt Halluzinieren – Wissenschaftler schlagen präzisere Sprache für Fehler der KI vor

Künstliche Intelligenz (KI) liegt manchmal daneben und gibt falsche Antworten. Sie erfindet Fakten, Bücher und Webseiten. Oft wird dann gesagt, dass die KI „halluziniert“. Doch Aljoscha Burchardt, Research Fellow am DFKI und Xenia Kersting, Oberärztin in der Universitätsmedizin Mainz halten diesen Begriff für irreführend und schlagen eine präzisere Alternative vor. Es ist mittlerweile üblich geworden, den Begriff „Halluzinieren“ zu verwenden, wenn große Sprachmodelle wie ChatGPT… 

Messen wir künstliche Intelligenz falsch? Und verstehen wir überhaupt was große Sprachmodelle tun?

Immer mehr Unternehmen drängen auf die Markteinführung von KI-Produkten, obwohl es viele Beweise dafür gibt, dass sie schwer zu kontrollieren sind und sich oft auf unvorhersehbare Weise verhalten. Dieses Verhalten ist besonders besorgniserregend, wenn man sich klar macht, dass niemand genau weiß, wie oder warum Deep Learning, die grundlegende Technologie hinter dem heutigen KI-Boom, funktioniert. Denn, es ist nach wie vor ein großes Rätsel, wie… 

KI-Schlagabtausch: Claude 3 Opus vs. GPT-4, GPT-4 Turbo und ChatGPT – Die Top-Modelle von Anthropic und OpenAI im Vergleich

Für die Vorbereitung auf meine Teilnahme am 121WATT Podcast 121Stunden, der wahrscheinlich erst in ein paar Wochen erscheinen wird, hatte ich mir ein paar Stichpunkte darüber notiert, was generative KI nicht kann. Nun wollte ich diese Notizen in einen unterhaltsamen Blogartikel überführen. Und was läge dabei näher, als dies mittels KI zu tun. Da ich mit den Ergebnissen aus ChatGPT (GPT-4), im ersten Anlauf nicht… 

Models-all-the-way

Models all the Way: Ein tiefer Blick in die Datensätze der KI

Im Zeitalter der künstlichen Intelligenz (KI) stehen wir an der Schwelle zu Entwicklungen, die das Potenzial haben, unser Verständnis von Technologie und Interaktion grundlegend zu verändern. Doch was geschieht, wenn die Grundlagen dieser revolutionären KI-Systeme in Frage gestellt werden? Ein spannendes Projekt namens „Knowing Machines“, initiiert von Christo Buschek und Jer Thorp, wirft ein kritisches Licht auf die Fundamente der generativen KI: Die Datensätze, auf… 

Skandal-KI in Schulen: Große Sprachmodelle würfeln Noten!

Der Zugang zu Bildung ist ein Grundrecht (Art. 7 GG), was unter anderem das Recht auf chancengleiche Zugänglichkeit zu höherer Bildung, basierend auf persönlicher Leistung und Eignung umfasst. Das betrifft sowohl die allgemeine Bildung als auch die berufliche Bildung. Daher ist es aus meiner Sicht nicht verwunderlich, dass der Anwendungsbereich Bildung im EU AI Act als hochriskant klassifiziert. Insbesondere wenn es um Zugänge zu Bildung, die… 

Sam Altman spricht über GPT-5, Elon Musk, Sora, AGI und die Zukunft der KI

In der neuesten Folge des Lex Fridman Podcast hatte der KI-Forscher ein faszinierendes Gespräch mit Sam Altman, dem CEO von OpenAI. Das Unternehmen steht hinter bahnbrechenden KI-Systemen wie GPT-4, ChatGPT und zuletzt Sora. Möglicherweise wird OpenAI eines Tages sogar künstliche generelle Intelligenz (AGI) entwickeln. Sam war zum zweiten mal bei Fridman zu Besuch und ich finde das Interview sehr interessant: In diesem faszinierenden Podcast-Interview mit… 

Claude 3 Opus: Das beste Sprachmodell der Welt?

Anthropic hat vor etwa zwei Wochen mit Claude 3 ein neues KI-System veröffentlicht, das in Tests besser abschneiden soll als GPT-4. Davon gibt es drei Versionen: Opus (stärkste, kostenpflichtig), Sonet (mittlere, kostenlos) und Haiku (kleinste, noch nicht verfügbar). In offiziellen Benchmarks schlägt Claude 3 die Konkurrenz wie GPT-4 und Google Gemini in Bereichen wie Allgemeinwissen, Argumentieren, Problemlösung und Programmieren. Beeindruckend ist, dass es bei einigen… 

Durchbruch bei denkender KI: Ist Quiet-STaR OpenAIs Q-Star?

Ein neues Forschungspapier der Stanford University „Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking“ bringt gerade die KI-Welt in Bewegung. Darin wird eine KI beschrieben, die sich im Grunde selbst beibringt, vor dem Sprechen zu denken. Nach Einschätzung von Experten hat dieser Ansatz das Potenzial, die Art und Weise, wie KI Sprache versteht und verarbeitet, tatsächlich zu revolutionieren! Eine Revolution des selbstgesteuerten Denkens?… 

AI Content Detektoren: Kann man KI-Texte erkennen?

Als ich Anfang 2023 mein Buch über ChatGPT & Co. geschrieben habe, habe ich mich auch damit auseinander gesetzt, ob Suchmaschinen wie Google oder Lehrkräfte an Schulen und Hochschulen zuverlässig erkennen können, ob ein Text vollständig oder teilweise von einer generativen KI geschrieben wurde. GPTZero, eine der ersten Ansätze, die mir in meiner Recherche aufgefallen sind, war zum damaligen Zeitpunkt noch nicht öffentlich verfügbar, also… 

Die Zukunft generativer KI: Revolution oder Sackgasse?

Die jüngste Veröffentlichung von „Sora“, einem KI-Modell von OpenAI, das realistische und phantasievolle Videoszenen aus Textanweisungen erzeugen kann, befeuert gerade die hitzige Debatte darüber, ob solche Modelle grundsätzlich dazu geeignet sind, die Welt zu verstehen, oder ob sie letztendlich stochastische Papageien bleiben werden. OpenAI betont in seiner Ankündigung explizit, sie lehrten KI, die physische Welt in Bewegung zu verstehen und zu simulieren, mit dem Ziel,… 

Bild, das die komplexe Beziehung zwischen den USA, der EU und Fragen des Datenschutzes visuell darstellt, mit Schwerpunkt auf dem Cloud Act und der NSA

Die Illusion der DSGVO-Konformität: Warum Chatbots und KI in der Cloud nicht sicher sind

In meiner Rolle als KI-Berater begegne ich in letzter Zeit immer wieder der Behauptung, dass Anbieter von KI- und Chatbot-Lösungen mit der DSGVO-Konformität ihrer Produkte werben. Auf den ersten Blick scheint dies eine beruhigende Versicherung für Unternehmen im Einsatz dieser Systeme zu sein, doch bei genauerer Betrachtung entpuppt sich diese vermeintliche Konformität als trügerisch. Offenbar ist vielen nicht klar, dass es nicht ausreicht, ein in… 

Revolution in den Datenwissenschaften: Große Sprachmodelle öffnen neue Horizonte

Ich freue mich riesig, euch heute etwas ganz Besonderes vorstellen zu dürfen: Ein brandneues Paper, das gerade frisch als Pre-Print auf arXiv gelandet ist – und an dem ich mitgewirkt habe. Was haben wir konkret untersucht? In der Welt der Datenwissenschaften stoßen Forschende oft auf das knifflige Problem, mit unvollständigen Datensätzen arbeiten zu müssen. Die meisten herkömmlichen Algorithmen kommen mit diesen Lücken in den Daten… 

WordPress Hosting

Finde das richtige WordPress-Hosting – Die besten Hoster im Vergleich

In meiner Artikelserie über WordPress habe ich bereits über Plugins und Themes geschrieben und mich nun intensiv mit Managed WordPress-Hostern beschäftigt. Klassische Webspace-Anbieter habe ich mit dem Blick auf ein WordPress-Hosting ebenfalls verglichen. Dabei haben wir die Anbieter selbst getestet und stellen Dir unsere Erkenntnisse vor. Von Hostingpaketen für ein paar Euros pro Monat bis hin zu mehreren Hundert Euro für große Server ist der… 

Wie funktioniert Textgenerierung mit GPT-3, GPT-4, Gemini, Llama 2 und Co.?

Es ist mal wieder Zeit für einen Grundlagenartikel. Heute erkläre ich, wie Textgenerierung mit großen Sprachmodellen wie GPT-3, GPT-4, Gemini, Llama 2 und Co. funktioniert. Übrigens: Alle in meinem Artikel „Die besten Tools für die KI-Text-Generierung“ vorgestellten Tools arbeiten nach den gleichen Prinzip: Es wird auf Basis des Prompts und des bereits erzeugten Outputs jeweils das nächste Wort vorhergesagt. Der Algorithmus hat durch das Training… 

×