Diese Woche war mal wieder eine Woche, in der meine Liste für den KI-Fundus schon dienstags voll war. Ich versorge euch in dieser Reihe immer am Ende der Woche mit den spannendsten Entwicklungen – und diese Woche haben die News einiges zu bieten:
- ein Podcast über das neue OpenAI o3 Modell
- ein Modell, das während der Inference lernen kann
- ganz vielen Gerüchten zur AGI und dem chinesischen Modell DeepSeek
Pocast über OpenAI o3
Die neuen Modell-Versionen kommen in letzter Zeit Schlag auf Schlag auf den Markt. So viele Tests und Evaluationen kann man gar nicht starten, so schnell gelten die Ergebnisse wieder als veraltet. Deshalb fassen die beiden Experten Sigurd Schacht und Carsten Lanquillon in ihrem Podcast den Hype um das neue OpenAI o3 Modell zusammen und erklären, warum es so außergewöhnliche Ergebnisse erzielt und die Erwartungen so hoch schraubt.
Ein wirklich lernendes Modell
Normalerweise werden Modelle trainiert, dann landen sie in der Realität und können eigentlich nur weiterlernen, indem sie regelmäßig mit ihren Fehlern neu trainiert werden, im sogenannten Retraining. Mit ihrem neuen Transformer-Ansatz „Transformer-squared“ veröffentlicht sakana.ai nun einen neuen Ansatz: ein Modell, das während der Vorhersage seine Gewichtungen justieren und verbessern kann. Wenn dies auch im großen Stil möglich ist, könnte es einiges an den Standard-Architekturen für große Transformermodelle revolutionieren.
https://github.com/SakanaAI/self-adaptive-llms
Schon wieder – Artificial General Intelligence?
Ich habe schon oft in der Vergangenheit über AGI (Artificial General Intelligence) im KI-Fundus berichtet. Nun ist OpenAI wieder mit von der Partie, von denen es Gerüchte gibt, sie stünden nur noch einen Schritt vor dem Erreichen von AGI. Auch ein chinesischer Mitbewerber hat wohl ein Modell veröffentlicht, das in den allgemeinen Benchmarks mit den Modellen von OpenAI mithalten kann. Wer sich beides im Detail anschauen möchte, sei eingeladen bei „AI Peanuts“ vorbeizuschauen 🙂
https://www.aipeanuts.com/p/valley-gefl-ster-hat-openai-agi-geknackt