Jenseits von RLHF: Die Zukunft des KI-Trainings
Andrej Karpathy, ehemaliger OpenAI-Forscher und KI-Pionier, hat in einem Tweet kürzlich auf ein grundlegendes Problem in der KI-Entwicklung hingewiesen, über das aus meiner Sicht viel zu wenig gesprochen wird: Die Schwächen des Reinforcement Learning from Human Feedback (RLHF). Damit bringt er das Dilemma in der KI-Forschung hoffentlich wieder ins Rampenlicht. Wie können wir Systeme entwickeln, die nicht nur menschenähnliche Texte produzieren, sondern echtes Verständnis und…