Die Art von Daten zu lernen, die ich im Talk skizziert habe (mit den Drehknöpfen) trifft tatsächlich auch auf ChatGPT, GPT-4 und Co zu. Ich konnte ChatGPT leider im Talk nicht erwähnen, da es genau eine Woche nach dem Talk gelaunched wurde 😅 Die Kernidee der neuen Large-Language-Models ist lustigerweise aber die gleiche wie beim einfachen Bild-Klassifizierer: viele Daten, viele Parameter (Drehknöpfe) und dann einfach Gradient Descent mit Back Propagation. Was hättest du im Talk noch gern gehört? 😀
Inhaltlich und vor allem technisch ein wahnsinnig guter Talk. Respekt! 🚀😍
Unglaublich auf den Punkt gebracht! Danke Marcel!
Für jeden verständlich erklärt. Wahnsinnig guter Talk!
Genialer Vortrag!
Guter, aber alter und mittlerweile überholter Vortrag.
Die Art von Daten zu lernen, die ich im Talk skizziert habe (mit den Drehknöpfen) trifft tatsächlich auch auf ChatGPT, GPT-4 und Co zu. Ich konnte ChatGPT leider im Talk nicht erwähnen, da es genau eine Woche nach dem Talk gelaunched wurde 😅 Die Kernidee der neuen Large-Language-Models ist lustigerweise aber die gleiche wie beim einfachen Bild-Klassifizierer: viele Daten, viele Parameter (Drehknöpfe) und dann einfach Gradient Descent mit Back Propagation. Was hättest du im Talk noch gern gehört? 😀