Kosten, Effizientes Arbeiten — Opus 4.7, GPT 5.5, DeepSeek
KI-Kosten explodieren? Opus 4.7 zerstört deine Workflows? GPT 5.5 braucht neue Prompts? DeepSeek attackiert mit Spottpreisen? Barbara und Jochen packen aus: Warum die meisten User mit Shiny Object Syndrome die Faulheit der Modelle teuer bezahlen — und wie echte KI-Profis ihre Kosten halbieren. Plus: Warum DeepSeeks Attention-Mechanismus eleganter ist als alles, was die Amis gebaut haben, und was das bedeutet, wenn China bald auf Huawei trainiert. Und ja, Babsis Geheimnis ist gelüftet: Sie arbeitet nicht ineffizient — ihr Modell-Matching ist einfach handwerklich sauber.
In dieser Episode besprochen
Kapitelübersicht
- [00:01:15] Shiny Object Syndrome: Warum KI-Kosten explodieren
- [00:06:48] Modell-Matching: Von klein nach groß skalieren
- [00:09:50] Claude Opus 4.7: Was sich wirklich geändert hat
- [00:15:25] Task Budgets und Adaptive Thinking
- [00:17:50] Problem-Data-Model-Match: Das Grundprinzip
- [00:26:25] GPT 5.5: Neues Modell, neuer Prompting Guide
- [00:31:45] Modell-Matrix: Wann welches Modell?
- [00:37:35] DeepSeek V4: Open Source, Huawei-Chips, Spottpreise
- [00:42:55] DeepSeeks Attention-Kompression: Long Context gelöst
- [00:53:50] Gemini unterschätzt — Multi-Model sinnvoll?
- [00:56:25] Enterprise: Evaluations-Plattformen und KI in Prod
Wichtige Konzepte
- Shiny Object Syndrome: Der reflexartige Griff zum größten Modell — verbrennt Token und Geld.
- Problem-Data-Model-Match: Das Problem muss zu deinen Daten und zum Modell passen.
- Task Budgets (Opus 4.7): Token-Limit pro Task — neu im Opus 4.7, oft übersehen.
- Adaptive Thinking: Neuer Thinking Mode im Opus 4.7, drastisch anders als 4.6.
- Attention-Kompression (DeepSeek): Alte Information komprimiert, neue priorisiert — macht Long Context praktikabler.
Tools & Ressourcen
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein entrinnen!
Unsere Hosts
AI Babsi (Barbara Lampl)
Website | LinkedIn
E-Fuchs (Jochen G. Fuchs)
Website | LinkedIn
Unser Podcast Blog
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9. Aber wir sind cool und wir sind tough, deshalb gibt’s hier Keyword-Stuff.
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
