Maschinelles Lernen & warum es gruseliger ist als man denkt (Jonas Betzendahl - Science Slam)

แชร์
ฝัง
  • เผยแพร่เมื่อ 5 ส.ค. 2024
  • www.scienceslam.de/ Als Apple seine neue Software zur Erkennung von Kinderpornografie ankündigte, hofften viele darauf, dass das in Zukunft Verbrechen verhindern kann. Doch wie genau ist so eine Software und welche Fähigkeiten haben Maschinen heute, Dinge auszulesen und zu erkennen? Informatiker Jonas Betzendahl erklärt das in seinem Science-Slam-Beitrag.
    Der Science Slam fand am 23. September 2021 im Wiley-VCH Verlag in Weinheim statt.
    Science Slam ist eine Veranstaltung von Julia Offe.
    TH-cam/ScienceSlam: Linda Richter (linda@scienceslam.de)
    SCIENCE-SLAM-TERMINE UND WEITERE INFOS:
    www.scienceslam.de
    SCIENCE SLAM AUF SOCIAL MEDIA:
    Facebook: / scienceslam
    Twitter: / scienceslam
    Instagram: / scienceslam.de
    WILLST DU SELBST EINMAL AUF DIE BÜHNE?
    Voraussetzungen: www.scienceslam.de/mitmachen....
    Melde Dich bei Julia Offe unter: julia@scienceslam.de
    KANAL ABONIEREN:
    th-cam.com/users/ScienceS...
    #ScienceSlam #WissKomm

ความคิดเห็น • 174

  • @DerRumo
    @DerRumo ปีที่แล้ว +276

    Bei der Einstiegsfrage hätte ich erwartet: "Bielefeld gibt es wirklich?"

    • @cassidykaiser5817
      @cassidykaiser5817 ปีที่แล้ว +8

      Ich auch. War mir sicher das er vor allen anderen Fragen erstmal erzählen muss dass es Bielefeld tatsächlich gibt.

    • @YouTube_Heenakanal
      @YouTube_Heenakanal ปีที่แล้ว +1

      Same

    • @tarkaras
      @tarkaras ปีที่แล้ว +2

      Zu offensichtlich

    • @diaet
      @diaet ปีที่แล้ว

      Die Ware ein Muss gewesen.

    • @skrublord2806
      @skrublord2806 ปีที่แล้ว +2

      Wäre ja super lame gewesen, nachdem er direkt am Anfang schon subtil darauf angespielt hat

  • @WerewolfAX
    @WerewolfAX ปีที่แล้ว +123

    Dieser Vortrag war wirklich sehr interessant und kurzweilig aufbereitet. Ich habe nur noch nicht ganz verstanden, warum in die Fotoserie mit den vielen Waffen eine Schildkröte hineingemischt wurde, obwohl es sich bei dieser ja um ein recht ungefährliches Tier handelt. 🤖

    • @DarkSkay
      @DarkSkay ปีที่แล้ว

      Fragen sie das mal Siri ;)

    • @isekaiexpress9450
      @isekaiexpress9450 ปีที่แล้ว +11

      Wahrscheinlich eine Wurfwaffe.

    • @muhmuhmachtdieHenne
      @muhmuhmachtdieHenne ปีที่แล้ว

      Wenn man der Schildkröte den Panzer auszieht, da eine Zeitbombe reinwirft..den Kopf und die Beine der Schildkröte mit UHU wieder befestigt...BUMM...ok, ich gehe ja schon wieder in die Künstlerische Fantasie Ebene in meinen Kopf..Bye ♡ =)

    • @eshatbereitsbegonnen7313
      @eshatbereitsbegonnen7313 ปีที่แล้ว +18

      Für männliche Nacktbader sind Schnappschildkröten seeeeehr gefährlich.

    • @jackiegerlach
      @jackiegerlach ปีที่แล้ว +8

      Du solltest nochmal deine Software aktualisieren. Tatsächlich war das eine Bild in der Fotoserie ein Gewehr und keine Schildkröte. Keine Ahnung, wieso das so viele als Schildkröte erkennen, wobei es sich doch offensichtlich um ein Gewehr handelt

  • @joschistep3442
    @joschistep3442 ปีที่แล้ว +9

    Also wenn ich mal irgendwann eine Party veranstalte, ist er eingeladen.
    War einer der Science Slams, die mir am besten gefallen haben bisher.

  • @coraku0047
    @coraku0047 ปีที่แล้ว +6

    Wow, tolles video, kurz und verständlich, vielen dank!

  • @birdsghost
    @birdsghost ปีที่แล้ว +5

    Toller Vortrag!

  • @weissmannrob
    @weissmannrob ปีที่แล้ว +1

    Guter und wichtiger auf den Punkt gebrachter Vortrag 👍

  • @george3046
    @george3046 ปีที่แล้ว +5

    Bin froh, dass das Video mir etliche Male wiederholend empfohlen wurde, da ich mir zwar merken wollte es noch anzusehen, aber wahrscheinlich sonst nicht mehr dazugekommen wäre. Tolles Video, unterhaltsam. Es gibt die vielen "ähs" zu kritisieren, dennoch gut hingekriegt.

    • @ricklocket2812
      @ricklocket2812 ปีที่แล้ว +1

      mich nerven eher seine weil/denn bzw Hauptsatz/Nebensatz Probleme.
      z.B
      ",weil je nach Anbieter wird das hochgeladen."
      statt richtig:
      ",weil das je nach Anbieter hochgeladen WIRD."
      oder
      ",DENN je nach Anbieter wird das irgendwie hochgeladen."

  • @EmpathieNerd
    @EmpathieNerd 2 ปีที่แล้ว +5

    Ein richtig gutes Video 👍

  • @HaasiAustria
    @HaasiAustria ปีที่แล้ว +1

    Sehr interessant, danke!

  • @Siocain
    @Siocain 2 ปีที่แล้ว +22

    Daumen hoch für das coole T-Shirt von Jonas :D

    • @jodisel7364
      @jodisel7364 2 ปีที่แล้ว +3

      Ich will das nb-Shirt jetzt auch! Aber jetzt schau ich das Video erstmal zu Ende ^^

    • @jonasbetzendahl5757
      @jonasbetzendahl5757 2 ปีที่แล้ว +3

  • @norbertwielage6222
    @norbertwielage6222 2 ปีที่แล้ว +28

    Mega spannend. Toller Slam, Jonas!

  • @Sloth_and_Badger
    @Sloth_and_Badger ปีที่แล้ว

    So ein cooler Vortrag.

  • @rotkehlchen1881
    @rotkehlchen1881 ปีที่แล้ว

    Interessant, und Ihr Stil gefällt mir.

  • @denns0r
    @denns0r ปีที่แล้ว

    Toller Vortrag!! Und: Zu meinen Parties dürfest du immer kommen!! 😊

  • @dieVenge
    @dieVenge ปีที่แล้ว

    Wow. Sehr interessant mit den Bildern.

  • @andreaszettl3498
    @andreaszettl3498 ปีที่แล้ว +48

    Mega geil, ich war schon immer davon überzeugt das das menschliche Gehirn mit allem was wir noch nicht wissen, nicht so mal eben reproduzierbar ist. Danke für diese Erklärung.

    • @dennismeier1486
      @dennismeier1486 ปีที่แล้ว +2

      Da muss ich dich enttäuschen. Mit genügend Rechenleistung, Trainingsdaten und Willen ist heute schon so einiges möglich. z.B. kann man jetzt schon Kunst innerhalb weniger Sekunden automatisch generieren.

    • @andreaszettl3498
      @andreaszettl3498 ปีที่แล้ว +2

      Du enttäuscht mich nicht. Es ist halt Aktion Reaktion, aber zu mehr werden die Dinger in den nächsten Dekaden nicht fähig sein

    • @TheOriginalDogLP
      @TheOriginalDogLP ปีที่แล้ว +2

      @@dennismeier1486 Was hat das mit der Reproduzierbarkeit des Hirns zu tun? Das ist Reproduzierbarkeit von Kunst und über den Kunstbegriff lässt sich bei KI-generierter Kunst freilich streiten (und über Copyright).

    • @diaet
      @diaet ปีที่แล้ว

      Natürlich ist es reproduzierbar. Ausgerechnet in dem Bereich, den wir Menschen für niemals reproduzierbarhielten: Kreativität,rollt KI aktuell in richtig nutzbare Bereiche.

    • @modmoto6016
      @modmoto6016 ปีที่แล้ว +3

      @@diaet Aber das ist ja auch keine wirkliche Kreativität. Ein paar Schlagwörter in Bilder umwandeln ist nicht dasselbe wie wirklich etwas entwerfen. Kreativität ist ja nicht nur digitale Bilder, sondern auch Werkstoffe miteinander kombinieren, Lösungen für ein technisches Problem finden, Arbeitsabläufe definieren, etc. Geh mal in eine Kunstausstellung, das wäre ultra langweilig wenn da nur KI generierte Bilder hingen. Etwas wirklich neues zu schaffen ist noch immer menschlichen Hirnen vorbehalten. Im Moment sehe ich KI generierte Bilder auf dem Level von Siri, wenn man Sprachgesteuterte Computer aus ScifiFilmen mit dem Level von menschlicher Kreativität vergleicht.

  • @Aalii6
    @Aalii6 ปีที่แล้ว

    sehr interessant, danke!

  • @katharinaw.5712
    @katharinaw.5712 2 ปีที่แล้ว +1

    Mega spannend

  • @cpm4317
    @cpm4317 ปีที่แล้ว +2

    Bitte bleiben sie skeptisch ist ein guter Ratschlag.
    Wobei man sich sagen muss, dass die Versprechungen von ML/AI einfach schwer überzogen sind.
    Sicherlich hat es aber auch tolle Anwendungsbereiche.
    Bei der Medikamentenentwicklung versuchen wir auch gerade unser Glück an Massen von klinischen Daten... Bisher mit sehr überschaubarem Erfolg ^^

  • @tauchersmiddy
    @tauchersmiddy ปีที่แล้ว

    Guter Vortrag, treffende Argumente. Warum das als SCIENCE-SLAM verkauft wird, verstehe ich nicht so ganz. Ist für mich die beste Relativierung des viel zu hoch gehypten Themas "maschinelles Lernen". So etwas wird u.A. für Prüfverfahren in der industriellen Fertigung verwendet wird, obwohl man das eigentliche Prüfverfahren nicht ansatzweise verifizieren kann.

    • @lonestarr1490
      @lonestarr1490 ปีที่แล้ว +4

      Das wird als Science-Slam verkauft, weil er auf einem Science-Slam aufgetreten ist.

  • @benitier254
    @benitier254 ปีที่แล้ว +1

    ich feiere ja deren T-Shirt :D

  • @eleweyter4462
    @eleweyter4462 ปีที่แล้ว +27

    Ich kann das Problem von dem zuletzt genannten Algorythmus durchaus nachvollziehen.
    Es fällt mir auch immer schwer Lego-Palpatine und Jean-Luc auseinander zu halten.
    So wie in der einen Folge neulich, als die Borg Coruscant assimilieren wollten und Picard den Befehl zur Trennung des Todessterns gegeben hat um die Ferengi davon abzuhalten sich die ganzen in Gold gepressten Legosteine unter den Nagel zu reißen welche die Rebellen für den Bau ihrer B-Klasse-Chicken-Wings-of-Prey haben wollten. XD

    • @geriskater2657
      @geriskater2657 ปีที่แล้ว +4

      Ja aber was haben die Goa'uld damit zu tun und Hat Janeway eigentlich die Zylonen besiegt?

    • @eleweyter4462
      @eleweyter4462 ปีที่แล้ว +3

      @@geriskater2657 Keine Ahnung, ich glaube das war in der Lindenstraße. XD

    • @iwonttellmynametoamachine5422
      @iwonttellmynametoamachine5422 ปีที่แล้ว

      Algorithmus
      Rhythmus
      Beides falsch ^^

  • @KurtMidas1510
    @KurtMidas1510 ปีที่แล้ว +9

    9:00 der Baseball in Zeile 3 Spalte 4 sieht aber wirklich aus wie eine Kaffeetasse von oben.
    *Generell finde ich dass man bei den Baseballs es irgendwie nachvollziehen kann. Bei vielen roten sieht man die Nähte von oben (was halt wie ne Tasse aussieht, irgendwie) oder in einer Graden Linie quer über den Ball. Bei den grünen erkennt man ganz gut anhand des verlaufes der Nähte das es ein Ball und speziell ein Baseball ist. Nicht perfekt aber irgendwie nachvollziehbar.
    Im Grunde gar nicht so übel für eine "Intelligenz" die unserer so fremd ist

    • @KurtMidas1510
      @KurtMidas1510 ปีที่แล้ว +1

      @@andigoescycling ich sag ja ist nicht perfekt. Und hab auch keine Ahnung ob es überhaupt was damit zu tun hat.
      Aber wir sehen ja auch zum Beispiel überall Gesichter oder würden einen gezeichneten Würfel nicht erkennen wenn wir noch nie einen in echt gesehen hätten. In den einen Fall hab ich auf den ersten Blick aber tatsächlich selbst gedacht dass es aussieht wie ne Kaffeetasse von oben.

    • @steffkapasteffka7791
      @steffkapasteffka7791 ปีที่แล้ว

      Ich vermute, es wurde als Espresso Kapsel erkannt, da die ja auch diese gestanzten/gefalzten Nähte haben.

  • @svenklingen4849
    @svenklingen4849 ปีที่แล้ว +1

    Vielen Dank für den Upload. Vielen Dank an Jonas. Ich beschäftige mich derzeit mit der Thematik " Machine Learning" und da ist das ein richtig guter Beitrag (der allerdings schon ein kleines bisschen vorkenntnis erfordert bzw selbiges sehr praktisch ist). Soweit ich das verstanden hab, berichtet Jonas hier über NN (also eher DL als ML). Aber hey... das hängt ja alles zusammen. XD
    Beitrag bis zum Ende geschaut. Anmerkung dazu: Alles schön, richtig und gut - jedoch vermisse ich ein wenig weiterführende Überlegungen zum Verbessern der "Treffsicherheit" bei ML/DL. Es gibt ja etliche Ansätze. Ich favorisiere folgenden Ansatz (ohne zu wissen ob er durchführbar ist): Gib dem Model einen 3D Blueprinter für ein Objekt. Lass das Modell einen Abgleich mit den präsäntierten Daten machen. Gib dem Model Blueprints für alle möglichen HIntergründe und deren Kombinationen. Die 3D-Maske muss vom Hintergrund separierert werden. Bei Bilderfolgen sollte das relative sicher sein, denn das Abzugleichende Objekt wird sich weniger ändern als der Hintergrund, wenn man die 3D Maske des zu erkennenden Objektes als
    Referenz zu Grunde legt. Umgekehrt: Die übereinstimmung mit der 3D Maske des Ojekts sollte einfacher zu klassifizieren sein, als der sich variabel ändernde hintergrund. Ggf. sollte bzw könnte man hingehen und hintergrund und objekt trennen lassen (stichwort stereoskopie) und von separaten NN´s klassifizieren lassen. Durch die Trennung wird es einfacher, die objekte zu klassifizieren. Das ganze wird dann somit auf 2 verschiedene lineare regressionen minimiert. Nur mal als Anmerkung.
    Und noch einen für den Spaß´:
    Wenn ich ´ne überlegene Intelligenz wäre, würde ich die dummen Menschen auch zum Narren halten und fragen, ob sie beim Kauf einer Geldbörse noch weitere Geldbörsen kaufen wollen. Denn
    Erstens: so dumm kann nur der Mensch sein
    Zweitens: so unwahrscheinlich ist das garnicht. Menschen haben Familie, Freunde, Bekannte.. die brauchen auch alle Geldbörsen....
    Drittens: nur der unbedarfte Menschtrottel würde denken, dass eine überlegene Intelligenz ihn niemals ausbooten könnte....
    hmmm...vielleicht haben die experten den Zeitpunkt sich sorgen zu machen schon verpasst... aber hey. früher haben wir gescherzt, Bill Gates würde seinen Computer fragen, ob Gott existiert... nach dem BillyBoy dann alle Rechner zusammengeschlossen hat, kam die Antwort: "JETZT schon!"
    XD

  • @person2347
    @person2347 ปีที่แล้ว +2

    Also der Vortrag war gut, meine Frage wäre aber wie du das hinbekommst das ein Bild als genau ein anderes erkannt wird? Also brute-force wäre ja schwer realisierbar weil es so unglaublich viele Möglichkeiten gibt, und mir persönlich fällt jetzt nicht ein wie man einen Algorithmus programmieren könnte der das für einen ohne brute-force macht, da KI ja nicht deterministisch ist

    • @comvnche
      @comvnche ปีที่แล้ว +1

      Man kann ein weitere Netz trainieren, dass das Rauschen erzeugt. Es bekommt das Bild als Eingabe und die Auswertung des anderen als Eingabe.
      Nicht sicher, ob das hier so gemacht wurde.

    • @jonasbetzendahl5757
      @jonasbetzendahl5757 ปีที่แล้ว

      Heute gibt es da andere, modernere Methoden für (z.B. so genannte GANs), in dem Paper mit der Schildkröte aber wurde eine Variation von Gradient Descent eingesetzt, also irgendwo gestartet und kleine Veränderungen gemacht und nachgeschaut, ob es jetzt besser oder schlechter geworden ist. So tastet man sich langsam heran.
      Details bei Lab6: www.labsix.org/physical-objects-that-fool-neural-nets/

  • @simonengel715
    @simonengel715 ปีที่แล้ว

    Nices T-Shirt

  • @sandro426
    @sandro426 ปีที่แล้ว

    Top

  • @petersteiner2278
    @petersteiner2278 ปีที่แล้ว

    Hmmm, also den Espresso kann ich bei einigen Bildern sogar nachvollziehen.

  • @larshinrichsen6581
    @larshinrichsen6581 ปีที่แล้ว

    Das Beste kommt zum Schluß. Hat sich aber gelohnt durchzuhalten.

  • @micmul23
    @micmul23 ปีที่แล้ว +1

    Man spricht in diesem Zusammenhang auch vom "Problem des gesunden Menschenverstandes" und das gilt wohl als der Heilige Gral und härteste Nuss der KI-Forschung.

    • @thenilusss4911
      @thenilusss4911 ปีที่แล้ว

      Sowas ist konzeptionell nicht sonderlich schwer zu erreichen. Kommerziell ist es allerdings derzeit unmöglich. Unsupervised Learning nennt sich das. Beim Unsupervised Learning gibt es kein starres richtig oder falsch, sondern alles ist Kontext basiert. Der große Nachteil ist jedoch das es von der Dauer her ein ganzes Menschenleben bräuchte, eine KI so anzulernen, um zu handeln wie ein Mensch. Technisch funktioniert es so, die KI besitzt Speicherneuronen und interagiert ununterbrochen mit der Umwelt, ab einer bestimmten Evolutionsstufe ist das Netz dann soweit trainiert, dass es lernt, seine Speicherneuronen zu nutzen und damit eben auch lernt, wie es lernt.
      Es gibt dabei jedoch drei große Problem. Die KI würde so zwar sehr menschlich werden, jedoch typische menschliche Fehler machen, wie mangelnde Konzentration usw. Die Denkleistung selbst wäre mit unseren Digitalen Rechnern unglaublich Resourcenhungrig und die KI müsste man, wie einen Menschen für jede neue Tätigkeit einarbeiten. Vergessen spielt da auch eine große Rolle, die KI würde relativ schnell unwichtige Aufgabe verlernen, da das ja zu ihrem Lernverständniss unabdingbar ist.

  • @SanktJohannesBaptist
    @SanktJohannesBaptist ปีที่แล้ว

    Mal wieder kurz und knapp auf den Punkt gebracht

  • @_azizam
    @_azizam 2 ปีที่แล้ว +5

    Autonomes Fahren zu Zeiten von Karneval.

  • @MoonManPictures
    @MoonManPictures ปีที่แล้ว

    Beim machine learning (zu mindesten in dem Vortrag) geht es doch darum große Datenmengen zu verarbeiten. Am Ende noch einen Menschen einzuschalten um die Finale information zu verarbeiten ist doch ohnehin klar.

    • @comvnche
      @comvnche ปีที่แล้ว +3

      Es geht bei machine learning nicht unbedingt um die Verarbeitung von großen Datenmengen. Es geht vorallem um die Erkennung von Mustern.
      Aber um die Muster zu finden braucht man große Beispieldaten.
      Wenn dein Auto komplett automatisch fahren soll und jemand ein Stopschild so manipuliert, dass es für das Auto wie "Tempo 100" aussieht, gibt es halt keinen Menschen mehr, der da gegencheckt.

    • @MoonManPictures
      @MoonManPictures ปีที่แล้ว +1

      @@comvnche Gutes Beispiel, ja, das hätte der Beitrag gebraucht imho.

    • @beerenmusli8220
      @beerenmusli8220 ปีที่แล้ว

      @@comvnche Ach du heilige Scheiße, das ist ein echt düsterer Gedanke.

  • @7vampirycprf6d32
    @7vampirycprf6d32 2 ปีที่แล้ว +2

    🖖👍

  • @hardcore4090
    @hardcore4090 ปีที่แล้ว

    Ich denke die KI sicht nach Mustern.
    Die sollte aber in 3D Modellen denken. Also man sollte mit Förmchen wie für Kinder anfangen.
    Stellt euch vor ihr habt nie ein Tastsinn gehabt und habt 0 Erfahrung.
    Ich glaube auch die Robotik macht ein riesen Fortschritt wenn in Füssen ein Tastsinn eingebaut wird.
    Das hilft sehr beim laufen.

  • @danielduckson4213
    @danielduckson4213 ปีที่แล้ว

    Interessant.
    Mal zu verstehen wie KIs verstehen. Oder es zu versuchen.
    Spiele ne Weile mit Text to Image KIs rum wie z.B. DALL E , Wombo oder StableDiffusion rum....ja und da wunderst mich hin und wieder wie die auf das Ergebnis kommen....ich sag Kapelle und es kommt eine tanzende Frau auf der Wiese...der Rest sind diverse traumartige Gebilde von Kapellen...der eine Ausreißer fasziniert mich dann schon irgendwie...

    • @Enju-Aihara
      @Enju-Aihara ปีที่แล้ว

      stable diffusion hat sogar diffusion im namen 🤦‍♂

  • @rokatainment
    @rokatainment ปีที่แล้ว

    Gott sei Dank wird daran gearbeitet das im militärischen Bereich für autononme Drohnen usw. zu verwenden. Was kann da schon schief gehen...

  • @MoempfLP
    @MoempfLP 2 ปีที่แล้ว +6

    Eine KI zur Unterstützung einsetzen bedeutet nicht die Entscheidung vollends dem Algorithmus zu überlassen.
    KI sind für erste Filterungen hilfreich und nehmen einen grossen Teil der Arbeit ab, können aber auch Fehler machen.
    Btw 7:00 Es sind sogar nur "0.007"

    • @jonasbetzendahl5757
      @jonasbetzendahl5757 2 ปีที่แล้ว +5

      Leider bedeutet es das all zu oft leider doch, auch wenn das nicht so sein sollte.

    • @MsSuperRom
      @MsSuperRom ปีที่แล้ว

      Ich glaube das ist wichtig im Verständnis von KI: sie kann viele komplizierte Sachen aber nicht entscheiden.
      Es wird leider viel zu sehr als Utopie (KI wird wie wir) oder Dystopie (Sie wird den Menschen verdrängen) verkauft.
      Ich denke es wird uns das Leben vereinfachen.
      Fertig.

    • @schabe6419
      @schabe6419 ปีที่แล้ว +6

      Doch. Wer baut denn bitte eine Maschine, die dir die Arbeit abnimmt nur um dann permanent noch mal zu gucken, ob sie auch alles richtig gemacht hat?
      Statistische Algorithmen sind dazu gedacht ihre Aufgabe nicht zu erfüllen sondern nur noch bestmöglich zu erfüllen.
      Das kann ein großes Problem sein, denn sie werden auch bei richtiger funktionsweise zu 100% Fehler machen und deshalb sind sie unzuverlässig, weil man nicht weiß wann genau und man das Pech haben kann, sich aber genau dann auf sie zu verlassen.

    • @andigoescycling
      @andigoescycling ปีที่แล้ว +8

      Wir haben bei uns im Unternehmen einen Roboter der nach jahrelanger Einarbeitungszeit ganz gute Ergebnisse abwirft. Allerdings waren in der Zeit zwei Leute damit beschäftigt ihn zu überwachen und neu zu programmieren, nachdem er beim Hersteller schon jahrelang entwickelt wurde und er taugt halt wirklich nur für diesen einen sehr kleinen Bereich in unserem Unternehmen. Man kann den nicht einfach in einem anderen Unternehmen einsetzen, wenn dort die Abläufe nicht zu 100% mit denen bei uns übereinstimmen.
      Nur zum Verständnis: Er packt auf einem Band ankommende Ware in einen auf einem anderen Band ankommenden Karton und macht den zu. Das ist eine Arbeit, bei der die Einarbeitungszeit für einen Menschen 5 Minuten beträgt.

    • @rotkehlchen1881
      @rotkehlchen1881 ปีที่แล้ว

      Und dann erst die Idee, KI unsere Entscheidungen treffen zu lassen, bis hin zur Partnerwahl, da folgerichtiger und schneller. Nein danke, auf gar keinen Fall!

  • @StyleTechnique
    @StyleTechnique ปีที่แล้ว +1

    Und diese Tatsache mit der Katze erklärt quasi auch für jeden nicht Informatiker sehr anschaulich warum Chatkontrolle SO nicht funktioniert!

  • @cosimakazak2309
    @cosimakazak2309 2 ปีที่แล้ว

    👍🏻supi

  • @getsturdy
    @getsturdy ปีที่แล้ว

    Classified as Espresso.

  • @wkdj2522
    @wkdj2522 ปีที่แล้ว

    let's be clear: deep learning / neural nets have VERY little in common with the architecture of the brain. e.g. 1. axons signals are not digital, they are analog; 2. connections are not homogeneous nor in any way fully interconnected; 3. all neural elements run on their own power and fire completely independently (async); 4. there are both inhibitory as well as excitatory activations; 5. there are feedback loops in the brain, but not this notion of processing broken down by input layers, backprop, error correction, and all that nonsense. 6. (BIG ONE) there is no distinction in the brain between remembering and memorizing.

  • @verena2019
    @verena2019 ปีที่แล้ว +1

    Lass Dich nicht unterkriegen. Dein Slam war total interessant. Und als Kumpel würde ich dich auch zu ner Party einladen.. Bin verheiratet.. 😉
    Lg aus Schweden

  • @dsd6538
    @dsd6538 ปีที่แล้ว +1

    Jetzt ist mir klar warum man in einem Bilderfeld zb Verkehrsschilder auswählen muss, um sich als Mensch zu identifizieren, da eine KI das also eh nicht hinkriegen würde 😛

    • @YouTube_Heenakanal
      @YouTube_Heenakanal ปีที่แล้ว

      Richtig. Das heißt aber dann auch, dass es egal ist, welche Felder man auswählt, weil die KI die richtige Lösung nicht kontrollieren kann.

    • @ticotube2501
      @ticotube2501 ปีที่แล้ว

      Das ist ein Tic-Tac-Toe-Spiel für zwei. Die Bilder sind egal.

  • @micmul23
    @micmul23 ปีที่แล้ว +3

    Bei dem Hund und der Katze wusste die KI einfach worauf es ankommt: Beide sind awww süüüß awww. 🤗

  • @svenbaumgarten6075
    @svenbaumgarten6075 ปีที่แล้ว

    He means the weed , called "black afgan" in germany. Not humans by the tone of skin.

  • @bernharddiener2735
    @bernharddiener2735 ปีที่แล้ว

    viel schlimmer wäre ja ein Gewehr, das von Computern als Teddybär erkannt wird.

    • @dummyload7803
      @dummyload7803 ปีที่แล้ว

      ich denke auch daran werden schon einige kranke Hirne arbeiten

  • @die_leckere_suppe4509
    @die_leckere_suppe4509 ปีที่แล้ว +3

    Aber Maschinelles Lernen wächst exponentiell. Ich finde das gar nicht besorgniserregend, sondern dem Sinn des Lebens ein stückchen Näher kommen.

    • @schabe6419
      @schabe6419 ปีที่แล้ว +7

      Das besorgniserregende ist, dass maschinelles Lernen keine logisch exakten Lösungen für Probleme liefert sondern nur statistische.
      Das Ergebnis kann also auch in einem unwahrscheinlichen Moment völlig daneben liegen und keiner wird damit rechnen, denn das jeweilige Netz handelt nach seiner Logik und nicht nach Menschenlogik. Selbst bei einem gestörten Amokläufer kannst du irgendwie noch mal auf Suche nach einem Motiv gehen aber wollen wir diese theoretische Technik auch bei Maschinen umsetzen? Falsche Kleidung und das Auto-Auto der Zukunft hat dich nur für einen Zebrastreifen gehalten... könnte auch jedem Menschen passieren aber bei Menschen können wir einschätzen wann und warum.
      Das Ergebnis werden fehlerhafte Maschinen sein, die aber trotzdem richtig programmiert wurden. Wollen wir den Einsatz solcher Technik, weil er uns günstiger kommt als das Problem dahinter logisch zu analysieren? Theoretisch könnten wir schon jetzt "lebende" Maschinen bauen: Einfach ein paar Roboter, die Roboterfabriken bauen, auf einem Gelände mit Rohstoffen für ein paar Jahrhunderte Evolution spielen lassen, da wird was bei rumkommen.
      Aber warum? Wir suchen die Reise zum Mars und können weder irdische Wüsten ergrünen lassen noch haben wir ethische Probleme im Umgang mit Tieren gelöst und seien wir ehrlich, die Antwort auf die Frage nach dem Sinn haben wir schon nur gefällt sie uns nicht.

    • @Enju-Aihara
      @Enju-Aihara ปีที่แล้ว

      @@schabe6419 man braucht nicht für alles ki.

  • @buzzeins
    @buzzeins ปีที่แล้ว +1

    Und dann kam OpenAI...

  • @choose2behappy699
    @choose2behappy699 ปีที่แล้ว

    What fire together that wire together.

  • @majstealth
    @majstealth ปีที่แล้ว

    computer waren und sind gut im tun von dingen die berechenbar und immer gleich sind - nichts was ich mit bildern assoziieren würde

    • @verena2019
      @verena2019 ปีที่แล้ว

      Sie werden aber in Zukunft eingesetzt werden um wichtigere Dinge zu entscheiden. Autonome Laufroboter gibt es schon.

    • @PfropfNo1
      @PfropfNo1 ปีที่แล้ว

      AI kann man täuschen, das ist durchaus eine Schwäche, die man beachten muss. Man darf aber nicht vergessen, dass man Menschen auch täuschen kann. Meist viel einfacher und simpler.

  • @JeermynRex
    @JeermynRex ปีที่แล้ว +1

    Als Schildkröte getarnte Waffen. Interessant.

  • @fabianwhs9891
    @fabianwhs9891 ปีที่แล้ว

    ein bisschien Undertale zwischen drinn schadet nicht

  • @vaderbase
    @vaderbase ปีที่แล้ว

    Fürs

  • @DarkSkay
    @DarkSkay ปีที่แล้ว

    Two AGI robots without a utility function sit on a park bench.

  • @h0pesfall
    @h0pesfall ปีที่แล้ว

    ähm... ähm... ähm... ähm... ähm...

  • @supremus1305
    @supremus1305 ปีที่แล้ว +2

    Das Problem gibt es ja aber auch bei Menschen mit optischen Täuschungen. Overfitting halt 🤷‍♂️.
    Sobald irgendjemand erfolgreich ein NN trainiert, dass einen Selbsterhaltungstrieb hat, wird es kritisch.

    • @TheOriginalDogLP
      @TheOriginalDogLP ปีที่แล้ว

      wird nicht passieren

    • @supremus1305
      @supremus1305 ปีที่แล้ว

      @@TheOriginalDogLP klar, niemals 😉 so wie es niemals Telefone ohne Kabel gegeben haben wird, niemals ein NN einen GO-profi geschlagen haben wird....

    • @TheOriginalDogLP
      @TheOriginalDogLP ปีที่แล้ว

      @@supremus1305 Funkwellenwaren eine Entdeckung. KI ist keine Entdeckung, sondern eine Erfindung, kleiner Unterschied. Lies dir mal ein bisschen Theorie durch :) Also keine Populärwissenschaft, sondern richtige Informatikpaper und Bücher über das Thema. Plus Statistik. Dann erkennt man recht schnell warum diese KI Diskussionen Schwachsinn sind und ablenken von den wirklich ernsten Themen, wie diesen, die in dem Video angesprochen werden. Missbrauch durch Menschen ist die reelle Gefahr, KIs die wegen "Selbsterhaltung" durchdrehen ist Science-FICTION

    • @supremus1305
      @supremus1305 ปีที่แล้ว

      @@TheOriginalDogLP eigentlich modelliert Ki einfach nur das was Nerven in unserem Körper machen. Das war streng genommen also eher keine Erfindung, sondern eine Entdeckung und Modellierung. Man könnte es sogar als Bionik einstufen. Kombiniert mit dem Fakt, dass wir null Plan davon haben, wie unser Bewusstsein entsteht, wo Bewusstsein anfängt und wie das Funktioniert, ist die These, dass es sicher nicht durch eine Simulation von Neuronen entstehen könnte sehr steil.

    • @TheOriginalDogLP
      @TheOriginalDogLP ปีที่แล้ว +3

      ​@@supremus1305 Neuronen werden in KI doch nicht simuliert, wo hast du das denn her? Es ist eine sehr grobe Modellierung, wie im Video gut beschrieben, und die funktioniert auch nur mit klar gesetzten Zielparametern. Besser formuliert: Es sind Mathe Funktionen die inspiriert (!!) von echten Neuronen sind. Eine KI wird niemals improvisieren können, eine KI kann nicht abschätzen, keine Bauchentscheidungen treffen, kann nicht interpretieren, versteht keine Ironie, kann nicht fühlen? Warum? Weil erstens: Wir nicht wissen wie das menschliche Gehirn diese Leistungen vollbringt. Zweitens: KI nur Statistik auf Steroiden ist. Es ist Mathe. Erst wenn wir die oben genannten Leistungen in mathematischen Formeln abbilden können, erst dann wird ein Computer theoretisch in der Lage zu sein diese zu berechnen. Ein Computer RECHNET. KI sind "nur" statistische Modelle, das menschliche Bewusstsein ist aber kein mathematisches Konstrukt und das Gehirn tut weitaus mehr als rechnen.
      Es gibt sehr reale Gefahren durch aktuelle "schwache" KI Technologie, eine davon wird in dem Video hier gut erläutert. Gefahren durch starke KI, dass diese einen böswilliges Bewusstsein erhält oder in einem Selbsterhaltungstrieb die Menschheit angreift, sind spaßige Gedankenspiele, die aber klar als Science Fiction zu verorten sind. Das wird dir jeder Informatiker sagen, der sich akademisch mit dem Thema auseinander gesetzt hat.

  • @hansberger4939
    @hansberger4939 ปีที่แล้ว +2

    Science slam ist nicht immer lustig?

  • @saxonett
    @saxonett ปีที่แล้ว

    Elefant im Raum ist gut.

  • @kmbdbob
    @kmbdbob ปีที่แล้ว

    Das ist kein echtes Bild von einr Katze. Das ist ein gespiegeltes Bild einer hälfte von einer Katze.

  • @IOIO6
    @IOIO6 ปีที่แล้ว

    Gruselig wie schlecht es eigentlich immer noch ist bzw wie wenig es mit dem Erkennen wie wir es tun zu tun hat/dem ähnlich ist. Dafür gibt es aber auch wohl ziemlich logische Gründe bzw kann man relativ "ez" zusätzlich ein System entwickeln welches mehr so sieht/denkt/erkennt wie wir. Beide Systeme zusammen exponentiell anders trainiert wird immer unfehlbarer.

    • @beerenmusli8220
      @beerenmusli8220 ปีที่แล้ว

      Wenn das so ez wäre, warum tun die riesigen Firmen mit ihren Milliardenbudgets das dann nicht erfolgreich?

  • @MaxiHartlieb
    @MaxiHartlieb ปีที่แล้ว

    Also hab die Bilder von Katze und Schildkröte bei Google Lens reingehauen und sie wurden ohne Zweifel als Katze tabby und Meeres Schildkröte erkannt.

    • @_b0h4z4rd7
      @_b0h4z4rd7 ปีที่แล้ว +1

      Das sind ja nicht mehr die originalen manipulierten Bilder auf denen ein spezielles Rauschen draufgelegt wurde.

  • @scathiebaby
    @scathiebaby ปีที่แล้ว

    Gehen Sie wählen !.. Joana Cotar FTW

  • @schniependonk
    @schniependonk ปีที่แล้ว +2

    Ich hätte mir gewünscht, wenn er etwas mehr auf die Ursache und weniger auf den Fakt eingegangen wäre, dass auch maschinelle Intelligenz Fehler macht.
    Intelligenz basiert fundamental auf einem Fehler. Der Gleichsetzung von Korrelation und Kausalität. Dieser Fehler lässt sich auch nicht beseitigen sondern bestenfalls reduzieren. Mit reinem Backpropagation wird man da auch nicht viel weiter kommen. Ich glaube das die Simulation von Spiegelneuronen helfen kann. Also das die neuronale Maschine nicht durch Rückkopplung lernt, sondern dadurch das es versucht Muster zu immitieren. Bezüglich der Struktur des neuronalen Netzes sollte man vielleicht auch mal genetische Algorithmen nutzen.

    • @andigoescycling
      @andigoescycling ปีที่แล้ว +2

      Ich habe einen Vortrag eines ESA- Wissenschaftlers gehört, in dem er gefragt wurde für wie wahrscheinlich er einen Flug von Robotern auf fremde Planeten, um dort für die Menschen ein Base Camp zu errichten, hält.
      Er meinte er hält es momentan für sehr unwahrscheinlich, weil ein Roboter/KI nicht improvisiert kann. Das geht sicherlich in die Richtung "Muster immitieren", wie du es geschrieben hast.

    • @schniependonk
      @schniependonk ปีที่แล้ว

      @@andigoescycling Ich glaube das die heutigen KIs das nicht können. Ich bin aber 100% davon überzeugt das es echte technische Intelligenz prinzipiell geben kann. Menschliche Intelligenz ist aber mehr als ein simples Näherungsverfahren wie dies heutige KIs abbilden. Auch bei Menschen dauert es zwei Jahrzehnte bis aus Immitation eventuell echte Intelligenz werden kann. Bislang gab es keine Maschine die so lange lernen konnte. Der Antrieb jeder Intelligenz ist aber immer ein Trieb irgend einer Art. Aber erst die Spiegelneuronen schaffen das Potenzial für echte Intelligenz. Sie sind das Fundament für Phantasie.

  • @Mindspectrum
    @Mindspectrum ปีที่แล้ว

    Schöner Beitrag! Aber er sollte dringend was für seine Kondition tun. 🥺

  • @Firestorm-tq7fy
    @Firestorm-tq7fy ปีที่แล้ว

    Das Problem wurde großflächig gelöst. Stichwort: “Adverserial Invalidation”

  • @PfropfNo1
    @PfropfNo1 ปีที่แล้ว +1

    Naja gut, Menschen kann man auch täuschen, da sind halt die Methoden andere, aber im Prinzip einfacher, weil wir selber Menschen sind und einschätzen können wie es für Menschen aussieht. Bei dem Beispiel mit Apple verstehe ich auch das Problem nicht. Nehmen wir an jemand will mir was böses und schickt mir ein Hunde-Bild, das von Apple als Kinderpornografie erkannt wird. Dann werde ich doch nicht sofort verhaftet, sondern im Worst case, schaut sich ein Polizist dieses eine Hundebild an und sagt "Der Apple-Detector hat mal wieder Mist gebaut". Was ich meine ist, natürlich soll AI nicht alleine Entscheidungen treffen und Menschen verhaften. Aber wenn AI von Zigmilliarden Fotos 100 aussortiert, die von Menschen üperprüft werden sollen, ist das eine extrem gute Sache, auch wenn die AI ab und an mal falsch liegt.
    Autonomes Fahren ist heute schon sicherer als menschliches Fahren. Aber wenn ein Computer einen Unfall verschuldet, wollen wir das nicht akzeptieren. Das Menschen jeden Tag Hunderte andere totfahren interessiert uns da irgendwie weniger.
    Was ich sagen will: Maschinelles Lernen muss nicht perfekt sein, nur besser als der Mensch. Und das ist es halt in 99% der Fälle. Dazu wird es immer besser.

    • @mirastor1796
      @mirastor1796 ปีที่แล้ว

      Du gehst bei dem Hundebild jetzt ja nur von einem bösen Scherz aus. Aber jetzt stell dir vor, es klinkt sich jemand in einen TH-cam oder TikTok account mit vielen Aufrufen ein und spielt dort solche Fehlinformationen ein. BAM, 12 Millionen Anzeigen die bei der Polizei weltweit einprasseln und du kannst ganze Systeme lahmlegen.
      Selbst am Flughafen ist eine Fehlerrate von 1% schon verdammt viel extra Arbeit für das Personal. In NewYork am JFK wären das um die 400-500 Fehlalarme pro Tag. Stell dir vor die KI hält dich für einen Selbstmordattentäter und ordnet die Evakuierung, sowie deine erschießung an.
      Gibt natürlich jetzt auch weniger extreme Beispiele, die etwas alltäglicher sind. Aber selbst bei den Autos mit dem halb autonomen Fahren und den ganzen Assistenten merkt man schon, dass viele Menschen die zur Verfügung gestellte Menge an Informationen oft nicht verarbeiten können und deshalb Assistenten deaktivieren oder sich zu sehr auf sie verlassen (Navi hat gesagt ich soll auf der 4-Spurigen Autobahn umdrehen).
      Das Ziel sollte halt immer eine Synergie zwischen Mensch und Maschine sein, nicht das komplette ersetzen.

    • @PfropfNo1
      @PfropfNo1 ปีที่แล้ว

      @@mirastor1796 Verstehe das mit TH-cam/Tictoc nicht ganz. Nur wenn jemand das Video schaut, ist das ja nicht in der Mediathek gespeichert. Und selbst wenn: Die Polizei müsste das nur einmal als harmlos markieren und alle 12 Millionen Hinweise (nicht Anzeigen) mit dem selben Inhalt würden verschwinden.
      Eine Fehlerrate von 1% ist auch recht hoch. Aber selbst hier, 400-500 Fehlalarme kann man noch handeln. Soweit ich weiß wird sowieso jeder Einzelner der 40 - 50 Tausend Fluggäste persönlich abgetastet und deren Gepäck durchleuchtet.
      _Stell dir vor die KI hält dich für einen Selbstmordattentäter und ordnet die Evakuierung, sowie deine erschießung an_
      Das ist doch genau die Fehlannahme, auf die ich hindeuten wollte. Die KI trifft keine Entscheidungen! Sie filtert, und wenn sie was "Interessantes" gefunden hat, sollen Menschen die Entscheidungen treffen. Wenn es um was banales geht wie defekte Schrauben in der Fabrik aussortieren, kann natürlich ein anderes Programm automatisch auf Empfehlung der KI handeln ohne dass ein Mensch das bestätigen muss.
      Aber dass nicht ausgereifte KI sensible Befehle anorden kann, die Datenschutz oder gar Leben gefährden, finde ich ein bisschen lächerlich, dass das angenommen wird.

    • @robertbusch2272
      @robertbusch2272 ปีที่แล้ว

      Denke mal anders rum. Wenn man echte K-nakedeibildchen einfach so verändern kann, das die AI sie als harmlose Katzen erkennt. Welchen Zweck hat dann dieser ganze Aufwand, inklusiver der menschlichen Mitarbeiter, Recourcen- und Energieverschwendung? Kann man dann damit wirklich diesen ganzen Mist bekämpfen? Oder wird das Ganze dann zur zwecklosen Arbeitsbeschaffungsmaßnahme?

    • @nemo99nemo83
      @nemo99nemo83 ปีที่แล้ว

      Wie will der Applealgorithmus Bilder von einer/m jung wirkenden 25 jährigen und einer Person U18 unterscheiden? Da haben schon Menschen mit Probleme. Ich wurde bis weit nach meinem 25. Geburtstag nach meinem Ausweis gefragt, wenn ich mir ne Flasche Alkohol gekauft habe. Ich möchte nicht, dass Apple dann entscheidet ggf intime Fotos, die ich mit Partnern denen ich vertraue teile an die Polizei also wildfremde Personen weiter zu leiten.

    • @beerenmusli8220
      @beerenmusli8220 ปีที่แล้ว

      Das geht halt unglaublich einfach auch anders herum. Sprich die regelwidrigen Inhalte werden als harmlose Katzenbilder getarnt. Genauso können selbstfahrende Autos sehr sehr einfach getäuscht werden, nur gibt es halt aktuell noch niemanden, der das getan hat. Aber wenn jemand eine Polarisationsfolie auf eine Ampel klebt, so dass sie nicht mehr erkannt werden kann, tun alle total überrascht.

  • @blakkneit9779
    @blakkneit9779 ปีที่แล้ว +1

    das ende mit dem wählen war ja wohl mehr als cringe

  • @I_Stern
    @I_Stern ปีที่แล้ว

    Science Slam.... wenn Geeks sich Witze erzählen... 🙄