Er erklärt ganz viel wie toll und einfach er erklären will, fummelt dann am Bildschirm rum, macht ein bisschen liniar undceine Prise anders, Kästchen irgendwie, fragt nach Informatikern, hält for ond while Sprachen für wichtig wegen Touring, da feuern due Neuronen, ohne Aspirin unerträglich.
Hey, ich hab das als Startvideo für meine Einarbeitung in neuronale Netze genutzt und in meinem Hinterkopf höre ich noch das Echo einiger Leute sagen "neuronale Netze mit ihren hidden layers, das isttotal undurchsichtig, da kann man gar nicht nachvollziehen was passiert"... Aber ich habe doch theoretisch alle Gewichte und bias und so... Vielleicht kann mir jemand helfen das Fragezeichen in meinem Kopf zu klären? :)
Mag ja sein das man die Weights und Biases hat, aber du kannst bei größeren Netzen nicht nachvollziehen warum das genau funktioniert, wenn du in ein solches Netz reinschaust ergibt das meist kaum Sinn und man kann nicht nachvollziehen warum am Ende doch das richtige Ergebnis rauskommt.
Seltsam, aber ich werde das Gefühl nicht los, daß wenn man bei dem Cost-Term 1/2 rechnet und die Dinger aufaddiert, daß das nicht das gleiche ist, wie den Mittelwert durch N zu nehmen, also durch die Anzahl zu teilen. Warum sollte ich von dem Fehler jedes einzelnen nur die Hälfte nehmen und die dann addieren, wenn ich den Mittleren Fehler aller Neuronen haben will, grübel ^.^
Er erklärt ganz viel wie toll und einfach er erklären will, fummelt dann am Bildschirm rum, macht ein bisschen liniar undceine Prise anders, Kästchen irgendwie, fragt nach Informatikern, hält for ond while Sprachen für wichtig wegen Touring, da feuern due Neuronen, ohne Aspirin unerträglich.
Hey, ich hab das als Startvideo für meine Einarbeitung in neuronale Netze genutzt und in meinem Hinterkopf höre ich noch das Echo einiger Leute sagen "neuronale Netze mit ihren hidden layers, das isttotal undurchsichtig, da kann man gar nicht nachvollziehen was passiert"... Aber ich habe doch theoretisch alle Gewichte und bias und so... Vielleicht kann mir jemand helfen das Fragezeichen in meinem Kopf zu klären? :)
Mag ja sein das man die Weights und Biases hat, aber du kannst bei größeren Netzen nicht nachvollziehen warum das genau funktioniert, wenn du in ein solches Netz reinschaust ergibt das meist kaum Sinn und man kann nicht nachvollziehen warum am Ende doch das richtige Ergebnis rauskommt.
Seltsam, aber ich werde das Gefühl nicht los, daß wenn man bei dem Cost-Term 1/2 rechnet und die Dinger aufaddiert, daß das nicht das gleiche ist, wie den Mittelwert durch N zu nehmen, also durch die Anzahl zu teilen. Warum sollte ich von dem Fehler jedes einzelnen nur die Hälfte nehmen und die dann addieren, wenn ich den Mittleren Fehler aller Neuronen haben will, grübel ^.^
multipliciert