In seinem aktuellen Newsletter analysiert Sayash Kapoor, Doktorand in Informatik am Center for Information Technology Policy der Princeton University, die aktuellen Entwicklungen und Herausforderungen im Bereich generativer KI. Kapoor, dessen Forschung den gesellschaftlichen Einfluss von KI untersucht, bringt umfangreiche Erfahrungen aus der Industrie und der Wissenschaft mit, unter anderem durch seine Tätigkeiten bei Facebook, der Columbia University und der EPFL in der Schweiz. Er wurde mehrfach ausgezeichnet, unter anderem mit dem Best Paper Award bei ACM FAccT und einem Impact Recognition Award bei ACM CSCW, und zählt laut TIME zu den 100 einflussreichsten Personen im Bereich KI. In diesem Beitrag beschreibt Kapoor die strategischen Fehler führender KI-Unternehmen und erläutert die fünf großen Hürden, die noch überwunden werden müssen, um generative KI zu kommerziell erfolgreichen Produkten weiterzuentwickeln.
Fehlender Product-Market-Fit
Zu Beginn des Hypes um ChatGPT entdeckten Nutzer:innen zahlreiche unerwartete Anwendungen für KI-Modelle. Das führte zu einer Überbewertung der Technologie und dem Irrglauben, dass die Vielseitigkeit dieser Modelle eine umfassende Produktentwicklung ersetzen könnte. Unternehmen wie OpenAI und Anthropic setzten daher zunächst auf die Entwicklung immer leistungsfähigerer Modelle, ohne sich um die Umsetzung in benutzerfreundliche Produkte zu kümmern.
Das Ergebnis: Trotz milliardenschwerer Investitionen dauerte es Monate, bis einfache Anwendungen wie ChatGPT-Apps für iOS und Android verfügbar waren. Gleichzeitig integrierten Google und Microsoft KI nahezu hektisch in eine Vielzahl von Produkten, oft ohne Rücksicht darauf, ob diese Integration wirklich sinnvoll war. Die Folge waren halbherzig umgesetzte Funktionen, die oft mehr störten als nutzten.
Ein Beispiel hierfür ist Microsofts „Sydney“-Chatbot, der aufgrund unzureichender Tests negative Schlagzeilen machte. Auch Googles Bildgenerator „Gemini“ verursachte durch fehlerhafte Ergebnisse Frustration bei den Nutzer:innen. Diese Fehltritte trugen dazu bei, dass sich das öffentliche Bild von generativer KI verschlechterte.
Inzwischen beginnen die Unternehmen, ihre Ansätze zu überdenken. OpenAI wandelt sich von einem forschungsorientierten Labor hin zu einem Produktunternehmen, während Anthropic weiterhin stark auf die Erforschung allgemeiner künstlicher Intelligenz (AGI) fokussiert bleibt, aber ebenfalls den Druck spürt, marktfähige Produkte zu entwickeln.
Google und Microsoft scheinen noch langsamer zu reagieren, könnten jedoch durch den technologisch vorsichtigeren Ansatz von Apple gezwungen werden, ihre Strategie zu überarbeiten. Apple, das zunächst als „AI-Nachzügler“ galt, verfolgt einen bedächtigeren Ansatz, wie auf der Entwicklerkonferenz WWDC gezeigt wurde. Dies könnte langfristig besser bei den Nutzer:innen ankommen.
Die fünf großen Herausforderungen für KI-basierte Produkte
Kapoor und Narayanan nennen fünf zentrale Hürden, die Entwickler:innen überwinden müssen, um generative KI in erfolgreiche Konsumprodukte zu verwandeln:
- Kosten: Obwohl die Kosten für die Nutzung von KI-Modellen in den letzten 18 Monaten drastisch gesunken sind – um den Faktor 100 – bleibt dies ein entscheidender Faktor. In Anwendungen wie Chatbots bestimmen die Kosten, wie viel Konversation ein Modell sinnvoll verarbeiten kann. Günstigere Modelle ermöglichen es, Aufgaben häufiger zu wiederholen und so durch Versuch und Irrtum die Erfolgsrate zu steigern. Obwohl einige Unternehmen behaupten, dass KI bald „zu günstig zum Messen“ sein wird, bleiben Zweifel bestehen, insbesondere da genauere Modelle oft teurer sind.
- Zuverlässigkeit: Ein häufig unterschätztes Problem ist die mangelnde Zuverlässigkeit generativer KI. Systeme, die nur 90 % der Aufgaben korrekt erledigen, gelten zwar als fähig, erfüllen aber nicht die Erwartungen der Nutzer:innen an verlässliche Software. Das ist besonders kritisch in sensiblen Anwendungen wie Reisebuchungen oder anderen Bereichen, in denen Fehler gravierende Folgen haben können. Aktuell bleibt unklar, ob es möglich ist, deterministische Systeme aus den grundlegend stochastischen LLMs zu entwickeln.
- Datenschutz: Obwohl LLMs überwiegend mit öffentlichen Daten trainiert wurden, gewinnen Datenschutzbedenken wieder an Bedeutung, insbesondere bei KI-Assistenten, die auf persönliche Daten zugreifen müssen. Ein Beispiel ist Microsofts geplanter „CoPilot“, der durch regelmäßige Screenshots die Aktivitäten der Nutzer:innen verfolgen sollte, um bessere Kontexte zu schaffen. Diese Idee stieß auf heftige Kritik, und Microsoft musste zurückrudern. Unternehmen müssen hier den Spagat zwischen nützlichen Funktionen und der Wahrung der Privatsphäre meistern.
- Sicherheit: Kapoor betont, dass unabsichtliche Fehler wie Verzerrungen in Bildgeneratoren oder Missbrauch von KI für Deepfakes und Stimmklonungen ernsthafte Probleme darstellen. Besonders alarmierend ist jedoch das Risiko von Hacks. Angriffe wie „Prompt Injection“ könnten dazu führen, dass KI-Systeme manipuliert und für schädliche Zwecke missbraucht werden. Während Unternehmen hier bisher größtenteils improvisierte Abwehrmaßnahmen ergriffen haben, bleibt die Gefahr schwerwiegenderer Angriffe bestehen.
- Benutzeroberfläche: Eine der größten Herausforderungen bei der Entwicklung benutzerfreundlicher KI-Produkte liegt in der Gestaltung der Schnittstellen. Bei vielen Anwendungen müssen Nutzer:innen die Möglichkeit haben, einzugreifen, wenn die KI Fehler macht. Das ist bei Textschnittstellen noch vergleichsweise einfach, wird aber in komplexeren Szenarien, wie Sprachassistenten, deutlich schwieriger. Die Vision einer unsichtbaren, ständig präsenten KI – zum Beispiel in einer Brille, die automatisch hilft, ohne aktiv gefragt zu werden – bleibt zwar faszinierend, aber die Grenzen aktueller Benutzeroberflächen machen sie noch schwer erreichbar.
Fazit
Kapoor und Narayanan stellen klar, dass die vielbeschworenen Revolutionen durch generative KI wohl langsamer kommen werden als von vielen erhofft. Selbst wenn die technischen Fähigkeiten weiter rasch zunehmen, bleiben die beschriebenen Herausforderungen, die nicht nur technischer, sondern auch gesellschaftlicher Natur sind. Der Weg zu breiter Akzeptanz und wirklicher Nützlichkeit von KI wird daher eher ein langfristiger sein. Entwickler:innen müssen lernen, KI so in bestehende Produkte und Arbeitsabläufe zu integrieren, dass sie wirklich wertschöpfend ist, ohne gleichzeitig die beschriebenen Risiken zu ignorieren.
Buchempfehlung
Gemeinsam mit Arvind Narayanan arbeitet Kapoor an dem Buch AI Snake Oil, das kritisch beleuchtet, was KI wirklich leisten kann – und was nicht. Viele ihrer Ideen teilen die beiden bereits über Substack mit einem breiteren Publikum.
Abonniere das kostenlose KI-Update
Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!
Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.
Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.