KI-Kompetenz verständlich vermittelt – Die Erklärbär-Reihe von LAIer 8|9
🚀 LAIer 8|9 – Episode 4: Evolution der KI: Es gibt noch Leben außerhalb des Planeten GenAI
In “Evolution der KI: Es gibt noch Leben außerhalb des Planeten Gen.AI” nehmen dich Barbara Lampl und Jochen G. Fuchs mit auf eine kosmische Reise durch die KI-Geschichte, weit weg vom Gen.AI-Hype! Erfahre, warum KI mehr als nur ChatGPT ist, warum der Begriff “Artificial Intelligence” schon aus den 1940ern stammt und weshalb ein LLM nicht alle Probleme lösen kann. Mit jeder Menge Nerdfakten, historischen Anekdoten und einem Plädoyer gegen den “One-Algorithm-to-rule-them-all”-Wahn zeigen die beiden, dass die KI-Galaxie deutlich bunter und vielfältiger ist als der aktuelle Hype vermuten lässt. Also schnall dich an für diese transgalaktische Reise durch Machine Learning, neuronale Netze und Deep Learning!
Kapitel-Marken
00:00 Intro und Begrüßung
01:04 Einführung: Leben außerhalb des Planeten Gen.AI
01:29 Die vier Kreise der KI-Taxonomie: AI, Machine Learning, neuronale Netzwerke, Deep Learning
03:48 Die historischen Ursprünge der KI: Turing und die Dartmouth-Konferenz
06:47 Die drei Riesensysteme: Machine Learning, neuronale Netzwerke, Deep Learning
08:56 Nicht-lineare Entwicklung des Machine Learning
10:28 Praktische Beispiele für Machine Learning: Conversion und Churn Prediction
12:53 Die drei Kategorien des Machine Learnings: Supervised, Unsupervised, Reinforcement
17:44 Deep Learning und die Rolle von gelabelten Daten
20:42 Wer labelt die Daten? Die menschliche Komponente hinter KI
23:14 Die zwei KI-Winter: 70er und 90er Jahre
25:16 Alpha Fold und die Entwicklung von DeepMind
26:30 Neuronale Netzwerke: Inspiration vs. Nachbildung
27:39 Hopfield Networks, Boltzmann Machines und der Physik-Nobelpreis 2024
29:45 Historische Vorhersagen über KI: Damals wie heute
31:06 ImageNet und AlexNet: Der Durchbruch des Deep Learning
33:13 Von neuronalen Netzen zu Deep Learning: Mehr als nur ein Rebranding
34:45 LSTM: Das Gedächtnis für künstliche Intelligenz
37:05 XLSTM und Mamba: Alternativen zur Transformer-Technologie
40:55 Warum gute Technologie oft weniger Funding bekommt als der Hype
42:24 Verpasste Chancen: Europas kurze Führungsposition in der KI-Entwicklung
45:52 “AI ist Mathe in Code”: Die mathematische Grundlage hinter verschiedenen Anwendungen
48:10 Die wichtigsten Takeaways: Es gibt keinen “Algorithmus to rule them all”
52:16 KI-Strategien richtig angehen: Bottom-up statt Top-down
53:14 Herausforderungen bei der Umsetzung: Daten und Expertise
55:33 Abschluss und Verabschiedung
Links & Referenzen
- Barbara Lampls LinkedIn-Profil mit der KI-Taxonomie-Grafik (vier konzentrische Kreise)
- Dartmouth-Konferenz (1956) – Die erste KI-Konferenz
- ELIZA (1966) – Früher Chatbot von Joseph Weizenbaum
- AlexNet Paper (2012) und ImageNet-Projekt – Durchbruch im Deep Learning
- DeepMind’s AlphaFold – Proteinstrukturvorhersage (2018)
- Long Short-Term Memory (LSTM) und xLSTM – Hochreiters Alternativen zu Transformer-Modellen
- Mamba-Architektur – Alternative zu Transformer-Modellen
- Hopfield Networks und Boltzmann Machines – Physik-Nobelpreis 2024
- Stable Diffusion (LMU München) – Europäische KI-Innovation
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein entrinnen!
- [Apple] https://podcasts.apple.com/podcast/id1798319508
- [Deezer]https://www.deezer.com/de/show/1001665971
- [Spotify]https://open.spotify.com/show/2IfqJA4Qo02fslECWpEQW8
- [Amazon Music] https://music.amazon.de/podcasts/497c3a14-dcaf-4bb3-abc1-03aa6f73f8d3/laier-8-9—noch’n-ki-podcast
- [Youtube Video-Podcast)] https://www.youtube.com/@laier89
Unsere Hosts
AI Babsi: (Barbara) [Website] https://www.barbara-lampl.de | [LinkedIn] https://www.linkedin.com/in/barbaralampl/ – E-Fuchs: (Jochen) [Website] https://efuchs.net | [LinkedIn] https://www.linkedin.com/in/jochengfuchs/
Unser Podcast Blog
https:///www.laier89.de/
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt’s hier Keyword-Stuff.