Warum Künstliche Intelligenz gar nicht intelligent ist

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 ส.ค. 2024
  • Was uns Menschen so einfach erscheint, kann für eine Maschine unfassbar komplex sein. Zum Beispiel: kausale Zusammenhänge. Kann Künstliche Intelligenz wirklich verstehen, was eine Kuh oder ein Apfel ist? Und wenn nicht, können wir KI dann überhaupt trauen, Entscheidungen für uns zu treffen?
    Das Doktor Whatson Team hat sich mit dem Max-Planck-Institut für Intelligente Systeme zusammengetan, um eine große Videoserie zum Thema “Künstliche Intelligenz” zu machen. Wir werden euch in den nächsten Folgen zusammen mit Dr. Annika Buchholz erklären, wie Künstliche Intelligenz tatsächlich funktioniert und wie sie gerade erforscht wird.
    Zu Teil 1 kommt ihr hier: • Künstliche Intelligenz...
    Eine ganze Playlist zum Thema KI gibt's hier: • Künstliche Intelligenz
    Vielen Dank an das Max-Planck-Institut für Intelligente Systeme für die wunderbare Zusammenarbeit und an die Körber-Stiftung für die Unterstützung bei dieser Video-Serie.
    0:00 - Intro
    1:30 - Was ist Intelligenz
    3:00 - Zusammenhänge und Ursachen
    4:04 - Wie KI Kühe sieht
    5:05 - Statistik schadet Menschen
    7:43 - Unabhängig erkennen
    11:29 - Verstehen können
    Patreon: / doktorwhatson
    Instagram: / doktorwhatson
    Twitter: / doktorwhatson
    Discord: discord.me/DoktorWhatson
    Musik von NOVAH: / novahmedia
    Outro-Song: spoti.fi/2Wbh1Nw
    Weitere Musik von artlist.io/
    Quellen:
    1 - Pearl, Judea: The Book Of Why (2018), Hernán MA, Robins JM (2020). Causal Inference: What If. Boca Raton: Chapman & Hall/CRC
    2 - / mfms8p
    3 - academic.oup.com/jn/article/1...
    4 - blogs.scientificamerican.com/...
    5 - www.bpb.de/internationales/we...
    6 - • What is causal inferen...
    7 - www.newsobserver.com/news/bus...
    8 - www.washingtonpost.com/busine...
    9 - www.technologyreview.com/2019...
    10 - papers.ssrn.com/sol3/papers.c...
    11 - poseidon01.ssrn.com/delivery.... S.28/29
    12 - ieeexplore.ieee.org/abstract/...
    13 - Pearl, Judea: The Book Of Why (2018), Schölkopf, Janzing, Peters: Causal Inference
    14 - towardsdatascience.com/why-ro... , towardsdatascience.com/the-ro...
    15 - arxiv.org/abs/2106.16091
    16 - ieeexplore.ieee.org/stamp/sta...

ความคิดเห็น • 243

  • @byJavaYT
    @byJavaYT 3 ปีที่แล้ว +242

    Seitdem ich weiß wie der Hintergrund funktioniert, fasziniert er mich jedes Mal mehr 😂💥

    • @lamalaurenz662
      @lamalaurenz662 3 ปีที่แล้ว +1

      Wie funktioniert der

    • @IroAppe
      @IroAppe 3 ปีที่แล้ว +8

      Das Video hat die ID I4iub7qvJ8c (z.B. aufrufbar durch youtu(dot)be/), an Stelle 8:42.
      Hier eine Kurzerklärung: Der blaue Screen wird anhand seiner Farbe ausgewählt, die Auswahl invertiert und dadurch hat man Cedric und die Gegenstände (Globus, Regal usw.) in einer zweiten Ebene. Dadurch sind zwei Ebenen vorhanden: Der blaue Hintergrund und der Vordergrund mit Cedric und den Gegenständen.
      Zwischen die beiden Ebenen kann man so die Animationen einfügen, die sich dann hinter Cedric und den Objekten, aber noch vor dem blauen Screen aufhalten, sodass sich nichts überschneidet. Tada.
      Aber gerne trotzdem noch das ganze Video anschauen, ich habe nur das Gröbste beschrieben. Außerdem geht es da um Greenscreens bei Filmproduktionen und deren moderne Alternative.

    • @_j0shua
      @_j0shua 3 ปีที่แล้ว +1

      same 😅

    • @SuperTruperHans
      @SuperTruperHans 3 ปีที่แล้ว +1

      Ja das stimmt 😂

    • @chrisdanger-godlike3048
      @chrisdanger-godlike3048 3 ปีที่แล้ว

      besteht das ganze Geheimnis nicht bloß auf Scripte und Informationen? If... else...also...go to bla?

  • @kimjong-un4080
    @kimjong-un4080 3 ปีที่แล้ว +55

    Deine Videos sind wirklich Klasse. Danke für den Beitrag!

    • @julianeiler6686
      @julianeiler6686 3 ปีที่แล้ว +9

      Alles nur für dich, Kim :)

    • @hdy6919
      @hdy6919 2 ปีที่แล้ว

      Ach übrigens; weist du eigentlich wie sein Bruder heißt?

  • @pedaa
    @pedaa 3 ปีที่แล้ว +33

    Vielen Dank für dieses spannende, super aufbereitete und einfach erklärte Video. Auch Danke für die ruhige und strukturierte Präsentation an Cedric und das gesamte Team. Ich bin Fan. :)

  • @harveyfear6244
    @harveyfear6244 3 ปีที่แล้ว +52

    Hey, hatte deinen Kanal zuletzt etwas aus den Augen verloren.. Respekt für die Körper Transformation, siehst jetzt einfach richtig sportlich aus

    • @NICEFINENEWROBOT
      @NICEFINENEWROBOT 3 ปีที่แล้ว

      Pah, alles KI und CGI.
      ?:o) Bin heut ganz schön frech.

  • @RedCrafter07
    @RedCrafter07 3 ปีที่แล้ว +14

    Deine Videos sind so interessant, danke dafür :)

  • @nilsbl5901
    @nilsbl5901 3 ปีที่แล้ว

    Deine Videos zum Thema KI sind echt super! Würde mich sehr freuen wenn es dazu noch viele weitere Folgen gäbe. :-)

  • @jetteml
    @jetteml 3 ปีที่แล้ว +2

    Super cooles Video! Das Thema ist allgemein sehr interessant und ihr bereitete das, finde ich, sowohl visuell als auch inhaltlich sehr gut und vor allem verständlich auf. Ich freue mich jedes Mal, wenn ein neues Video online kommt!

  • @OTurki-oh2ch
    @OTurki-oh2ch 3 ปีที่แล้ว

    Big up, it was amazing !!

  • @Ahris_aus_der_8._Dimension
    @Ahris_aus_der_8._Dimension 3 ปีที่แล้ว +32

    Diese "Criminal Risk Assessment Algorithms" erinnern mich i.wie an den Film Minority Report ^^

    • @philippschmitz1787
      @philippschmitz1787 3 ปีที่แล้ว +2

      Nur, dass das ein Missverständnis ist. Die Precogs in MR sind Wahrsager-Telepathen, die ungefähr so mächtig sind, wie Doctor X von den Xmen, während er im Cerebro sitzt und die Readonly Einstellung aktiviert hat.
      Das hat halt nix mit CRAA zu tun. Ein Algorithmus ist halt keine magische Zauberformel, sondern eigentlich nur eine besonders komplexe Excelltabelle, die ihre Füllung automatisiert hat. Wir Menschen missverstehen dann diese Automation - da das System ja scheinbar von alleine, ohne menschliches Zutun einen Vorgang erledigt - als eine Art Protoleben. Aber wenn wir beispielsweise mit einer Sprach-KI reden, die in der Lage ist für uns einen Friseurtermin zu vereinbaren, dann ist diese zwar in der Lage uns sinngemäße Antworten zu geben, aber eigentlich ist es nicht viel mehr als ein Converter, der den Input als Paket verarbeitet, in ein anderes Paket übersetzt und als Paket wieder an uns herausgibt. Was in dem Paket drin ist, welche Information wir damit genau übertragen wollen und was das Ganze überhaupt soll, davon hat der Algorithmus keine Ahnung. Tatsächlich fehlen uns die Vokabeln, um zu beschreiben, wie ein ML-Algorithmus arbeitet. Wir verwenden zwar menschliche Begriffe wie "Verständnis", "Erinnerung" uÄ, aber eigentlich sind das falsche Begriffe. Ein Excell Sheet denkt nicht, ein Excell Sheet erinnert nicht, ein Excell Sheet weiß nicht, ein Excell Shet erfährt nicht, ein Excell Sheet ist ein Werkzeug, kein Lebewesen... und so wie ML-Algorithmen funktionieren werden sie auch niemals mehr sein. Egal wieviele Interationen dieser Code durch"lebt", aus einem Excell Sheet wird kein denkende Individuum werden.
      Da das aber fast alle Menschen missverstehen, die kaum oder keine Ahnung haben, wie solche System überhaupt funktionieren, besteht das Missverständnis, dass CRAAs funktionieren können. Es sind keine Precogs, sondern nur simple Excelltabellen, die andere Excelltabellen abgleichen und daraus Schlüsse ziehen, die sie selbst nicht versteht. Aber wie du vielleicht daran merkst, dass auch ich bei solchen Systemen mit menschlichen Begriffen wie "Selbst", "Lernen", "Verständnis" jongliere, fehlen uns derzeit noch die richtigen Termina, das präzise zu beschreiben, was solche Systeme tatsächlich leisten und was sie nicht leisten.

    • @NICEFINENEWROBOT
      @NICEFINENEWROBOT 3 ปีที่แล้ว

      @@philippschmitz1787 Das ist alles leider nur zu wahr. Auch die Kollegin im Video schlampt da bei der Begrifflichkeit und scheint darauf hinzuarbeiten, in einem perfekten "Chinesischen Zimmer" mehr zu sehen und zu erhoffen als tumbe maschinelle Automation.

    • @philippschmitz1787
      @philippschmitz1787 3 ปีที่แล้ว

      @@NICEFINENEWROBOT Naja, sie lächelt ja ein wenig, als sie dabei quasi erwischt, wie sie diese Begriffe verwendet.
      Sie versucht nicht mehr zu sehen, ich denke eher, dass das Gegenteil der Fall ist. Aufgrund der unpräzisen Termina, kultivieren wir einen Bias, der uns denken lässt, KIs seien mehr als sie sind.
      Das fiese an Biasses ist, das niemand sich vor ihnen immunisieren kann. Sie sind immer da. Man kann sich ihnen lediglich bewusst werden und im Nachhinein unser Denken analysieren und über unsere Beschränktheit lachen, wenn es uns mal wieder passiert ist.
      Darüber nachzudenken, wie man einen Algorithmus dazu bringen kann, Zusammenhänge zu analysieren hat nichts damit zu tun, das chinesische Zimmer auszublenden. Es ist eher die Frage, wie die Flügel für ein Flugzeug aussehen müssen, damit es fliegt.
      Achtung: Wenn man sagt, dass man einem Algorithmus beibringen will, Zusammenhänge zu verstehen, dann sind zwei Worte missverständlich für den Laien: Beibringen und Verständnis.
      Wir erklären dem nix, wie wir das mit einem Kind tun würden, auch wenn es ein paar Parallelen gibt, sondern füttern die Tabelle mit Werten bzw. verändern die Einstellungen oder schreiben den Code um, damit er ein wenig anders über die Daten drüberiteriert. Aber das verstehen ja noch viel weniger, darum sagt man verkürzt: "Ich lerne eine KI an!" oder "Meine KI ist im Stande zu lernen!". Das ist zwar falsch oder zumindest unpräzise, aber für den Ottonormalidioten da draußen, wenigstens ansatzweise nachvollziehbar, was man da überhaupt tut.
      Für die allermeisten Menschen sind Programmierer Cyberpunkmagier und Code eine okkulte Schrift, mit der man Dämonen beschwören kann (überspitzt formuliert), aber Code ist reine Logik, denn Logik ist die einzige Sprache, die Maschinen verstehen.
      Jedem der die oben genannte vorurteilige Meinung von Programmcodes hat, empfehle ich, mal ein x-beliebiges Coding-Einsteiger-Tutorial anzuschauen.
      TH-cam ist voll davon, und die meisten davon sind irre gut... Brackeys, Jason Weimann und Programmieren-Starten seien hier unter anderem genannt.

    • @c.augustin
      @c.augustin 3 ปีที่แล้ว

      @@philippschmitz1787 Wie, ich kann mit Code keine Dämonen beschwören? Na so'n Sch…, wozu habe ich dann Programmieren gelernt??? ;-)
      (Aber so ein bisschen "zaubern" geht schon, zumindestens sieht es für die Laien so aus. ;-)) Sehr gut geschriebene Antworten, finde ich. Das mit den "Ottonormalidioten" hätte ich mir allerdings verkniffen (nur gedacht).

    • @philippschmitz1787
      @philippschmitz1787 3 ปีที่แล้ว

      @@c.augustin Danke... aber immer daran denken, wir sind alle nur Idioten. Manche mehr manche weniger, aber spätestens seit Sokrates müssten wir eigentlich wissen, dass wir nicht wissen. Ansonsten bringt es Idioten immer total auf die Palme, wenn man sie so nennt... und nichts macht mehr Spaß, als Leute auf die Palme zu bringen. ;)

  • @Klaxxon_93
    @Klaxxon_93 2 ปีที่แล้ว

    Ich lese seit einigen Monaten viel zum Thema Ai(ML, DL etc.) und eure Videos sind eine perfekte Ergänzung, danke dafür!

  • @lover.fpsONig
    @lover.fpsONig 3 ปีที่แล้ว +2

    War als Kind immer sehr an Technischen dingen wie zb. KI interessiert.
    Aber mittlerweiler habe ich die Hoffnung aufgegeben

    • @tk_2378
      @tk_2378 3 ปีที่แล้ว +1

      Mich auch. Jetzt will ich es nicht mehr, denn es kann leicht missbraucht werden zur absoluten Kontrolle und totalitären Systemen.

  • @ryangewheelt
    @ryangewheelt 3 ปีที่แล้ว

    Richtig gutes Video - danke dafür!

  • @MarsCorporations
    @MarsCorporations 3 ปีที่แล้ว +48

    KI ist weder fair, noch unfair. Sie ist im Prinzip nur eine ziemlich lange Rechnung die alte Daten in Betracht zieht, um neue Daten zu evaluieren. Wenn wir ihr "unfaire" alte Daten geben ist die KI unfair, wenn wir ihr "faire" alte Daten geben ist sie fair. Wie ein Stift, je nach Benutzer kann er das nächste Meisterwerk, oder ein abscheuliches Etwas zeichnen.

    • @felistrix7163
      @felistrix7163 3 ปีที่แล้ว +3

      Mit anderen Worten: Eine KI (künstliche „Intelligenz“) ist nicht wirklich intelligenter als ein Stift.
      Wie intelligent ist ein Stift? Gar nicht.
      Was ist eine künstliche „Intelligenz“ ohne Intelligenz?
      Das Problem ist weniger der Unterschied zwischen fairen und unfairen Daten, sondern eher das mangelnde Verständnis für die Unterscheidung zwischen relevanten und irrelevanten Teilen der Daten.

    • @raphaell4808
      @raphaell4808 3 ปีที่แล้ว +2

      Aber die alten Daten sind doch nicht unfair, oder? Die alten Daten spiegeln doch einfach nur die Realität wieder, oder?

    • @Capdo97
      @Capdo97 3 ปีที่แล้ว +1

      @@raphaell4808 So versteh ich das auch, aber wenn die Realität unfair war, sind damit die Daten auch unfair.

    • @raphaell4808
      @raphaell4808 3 ปีที่แล้ว +2

      @@Capdo97 Womit zu beweisen wäre, dass die Realität unfair war. Es könnte ja genauso gut sein, dass gewisse Bevölkerungsgruppen sich durchschnittlich schlechter verhalten haben und es also Eigenverschulden ist.

    • @Capdo97
      @Capdo97 3 ปีที่แล้ว +1

      @@raphaell4808 Dann kämme die Frage auf, ist es Sinnvoll, Straftäter heute härter zu bestrafen, weil sie aus einer anderen Gegend/Land etc. kommen nur weil etwaige Vorfahren härter bestraft wurden? Meiner Meinung sollten Straftaten und die damit verbundenen Strafen von früher nicht ins Gewicht fallen wie hart eine Person Heute bestraft wird.

  • @jojo-sm6kn
    @jojo-sm6kn 3 ปีที่แล้ว

    Sehr nices video:)

  • @vasilis9526
    @vasilis9526 2 ปีที่แล้ว

    sehr nices video danke

  • @iliaskurku
    @iliaskurku 2 ปีที่แล้ว

    Interessant es zu verstehen. Danke!

  • @maje804
    @maje804 3 ปีที่แล้ว

    Danke für dieses super interessante Video 👍😊

  • @fractofususmisrai237
    @fractofususmisrai237 3 ปีที่แล้ว +1

    Die Frau Buchholz strahlt viel positive Energie aus.
    Frau/Man bekommt hier oft eine Ahnung vom "Wissenschaftlichen Denken".

    • @nomisfurste2932
      @nomisfurste2932 3 ปีที่แล้ว +1

      Sie kann kaum Reden, spricht brutal Langsam und Stockend kann kein Ch aussprechen und hat mindestens 5 Fehler Drin.

  • @KeramikMalSpass
    @KeramikMalSpass 3 ปีที่แล้ว

    Cooler Channel. Kam durch den Google News Feed drauf. Mach weiter so.
    Da warten viele interessante Videos auf mich😅

  • @Edi-yd7fl
    @Edi-yd7fl 3 ปีที่แล้ว

    Junge - was für Genies - danke euch für den neuen Denkanstoß und dass hamer Video

  • @Chabalaba83
    @Chabalaba83 3 ปีที่แล้ว +43

    „Es gibt viele weitere Bespiele in dem KI für unfaire Entscheidungen sorgt“ warum denke ich da direkt an FIFA 😂

    • @Strak64
      @Strak64 3 ปีที่แล้ว

      Hast du ein mal nen auto resolve bei total war gesehen? Gefühlt fährt die ki die streitwägen gegen die wand statt in den gegner ^^

    • @kneet9091
      @kneet9091 2 ปีที่แล้ว +1

      Fifa ist aber gescripted 😁

  • @FloWoelki
    @FloWoelki 3 ปีที่แล้ว +1

    Sehr cooler Beitrag! Echt faszinierend ist Gradient Weighted Class Activation Mapping, wo visualisiert wird wie ein Computer Vision Modell "sieht" und welche Features/Pixel für diese Klassifikation beigetragen haben. Kann ich nur empfehlen :)

  • @MagicJonathan
    @MagicJonathan 3 ปีที่แล้ว

    Du hast krass abgenommen. Respekt!

  • @brunohadlich3845
    @brunohadlich3845 3 ปีที่แล้ว +1

    Cedric und das Team, haben wieder ein super leicht verständliches Video rausgehauen! Vielen Dank, an das Team! Nur für den Algorithmus;-), Annika, kommt unglaublich sympathisch rüber!
    Ps. Die Filmfortsetzung, Schweine im Weltall, mit dem Titel, Kühe im Weltall, würde einen Algorithmus also verwirren ;-)

  • @arthurbenke974
    @arthurbenke974 3 ปีที่แล้ว

    Sehr gut

  • @Heasd_O7
    @Heasd_O7 2 ปีที่แล้ว

    Wirklich eine tolle Videoreihe und danke an Dr. Buchholz für die super einfachen Erklärungen :)
    Filmtechnisch wäre denke ich auch I Robot oder Eagle Eye sehr interessant...immerhin geht's dort auch darum, dass sich KI weiter entwickelt :D

  • @jamesdelaney8980
    @jamesdelaney8980 3 ปีที่แล้ว +1

    Ex Machina, toller Film.

  • @YoSomePerson
    @YoSomePerson 3 ปีที่แล้ว +4

    Eine echte AGI wird meiner Einschätzung nach ein Meta-programm sein, dass in der Lage ist ein Netzwerk an Modellen aufbauen zu können. Im Prinzip, so schätze ich, funktionieren Gehirne genauso.
    Eine Ansammlung von Unmengen an kleinen "Modellen" die am Ende einen binären Wert aufgrund eines Inputs herausgeben. Inputs können dabei dann wiederrum durch andere Modelle miteinander verknüpft werden. So hat man am Ende eine riesiges Netzwerk an Spezialisten die alle immer nur auf sehr spezifische Muster trainiert sind.

  • @Hizungaya
    @Hizungaya 3 ปีที่แล้ว +3

    In 200 Jahren wird es doch keine Diskriminierung mehr geben......
    Wir sollten die KI eher für andere wichtige dinge einsetzen

  • @c.i.a.8476
    @c.i.a.8476 3 ปีที่แล้ว +6

    Laut einer KI geht es in diesem Video über Züge. Ich bin schon gespannt!

  • @PutinIsAEvil
    @PutinIsAEvil 3 ปีที่แล้ว +6

    Ich wünschte das alle Menschen zwischen Korrelation und Kausalität unterscheiden können. 🙃

    • @le-hu1638
      @le-hu1638 3 ปีที่แล้ว +2

      Das kann mir nicht passieren, immerhin esse ich viel Schockolade!

  • @proohit99
    @proohit99 3 ปีที่แล้ว +1

    Das Problem von schwankenden Daten kann übrigens auch durch “data augmentation” adressiert werden. Das ist ein Verfahren des Pre-Processing in Data Science. Einfaches Beispiel: Ein Bild wird leicht gedreht/unschärfer gemacht/gezoomt etc., wodurch “neue” Bilder entstehen und als Datengrundlage dienen können.

  • @KarmaDorje25
    @KarmaDorje25 3 ปีที่แล้ว +1

    Ich freue mich schon echt riesig auf die kommende Folge mit "ExMachina"

  • @datguy6745
    @datguy6745 3 ปีที่แล้ว +2

    Faszinierend und Beängstigend zugleich. Mir ist egal was mit mir passiert aber KI ist schon irgendwie Creepy xD

  • @Caller900
    @Caller900 3 ปีที่แล้ว

    Top

  • @bobbyweber7772
    @bobbyweber7772 3 ปีที่แล้ว

    Nur ein weiterer Hype

  • @Store-rh8rj
    @Store-rh8rj 3 ปีที่แล้ว

    Woww einfach nur woww

  • @erpel1test88
    @erpel1test88 3 ปีที่แล้ว

    Sehr gutes Video, schön erklärt!😃 Unabhängige Faktoren können übrigens schon eigenständig gelernt werden (Disentangled Variational Auto Encoder, kurz DVAE), wobei dann auch automatisch zusammenhängenden Faktoren zusammengefasst werden. Das Modell mit den drei Stufen finde ich hier nicht so passend, weil KIs schon Vorhersagen treffen (zB für Aktienkurse) und hypothetische Szenarien beurteilen können (zB eine Kuh auf dem Mond erkennen 😉). Eher würde ich sagen, dass wie angesprochen Transfer und Verallgemeinerung entscheidende Baustellen sind. Danke für diese tolle Kooperation!

    • @DoktorWhatson
      @DoktorWhatson  3 ปีที่แล้ว +1

      Danke. Zum 3-Stufen-System: Annika sagt ja sogar genau das: Es gibt teilweise schon Modelle, die auf Stufe 2 und 3 agieren.

  • @karlbesser1696
    @karlbesser1696 3 ปีที่แล้ว +1

    KI setzt gut gefüllte Wissensdatenbanken voraus. Dann wären ultraschnell parallel arbeitende Suchalgorithmen und Interpretierer notwendig, um Entscheidungen in Echtzeit zu fällen.

  • @EinEgomane2
    @EinEgomane2 3 ปีที่แล้ว +5

    3:01 Du hast gut abgenommen, Respekt

  • @georgvonclausewitz2024
    @georgvonclausewitz2024 3 ปีที่แล้ว +2

    Man ist gerade mal vielleicht 20 Jahre dabei KI`s zu entwickeln... mein Gott bleibt locker wartet erst mal ab was so in 243 Jahren alles so abgeht ;)

    • @philippb3084
      @philippb3084 3 ปีที่แล้ว +2

      Nicht ganz, der perceptron algorithmus, welcher das mathematische model eines einzelnen neurons darstellt wurde schon 1958 erfunden.

    • @user-gd5tr7gw7s
      @user-gd5tr7gw7s 3 ปีที่แล้ว +1

      Nichts tun lässt das Schlechte ungestört wachsen.

    • @georgvonclausewitz2024
      @georgvonclausewitz2024 3 ปีที่แล้ว

      @@philippb3084 ja mein Gott du weiß was ich meine...

    • @georgvonclausewitz2024
      @georgvonclausewitz2024 3 ปีที่แล้ว

      @@user-gd5tr7gw7s ich habe auch nicht gesagt man solle nichts tun sondern man darf von der KI keinen wunder oder gar ein Wunderwerk erwarten! schritt für schritt!

    • @georgvonclausewitz2024
      @georgvonclausewitz2024 3 ปีที่แล้ว

      @Unmei dein Pech!

  • @manuelkant3685
    @manuelkant3685 3 ปีที่แล้ว +20

    Ich finde, die Korrelation von Schwarzen und Kriminalität ist ein gutes Beispiel für das was du im Video sagst. Es ist ja tatsächlich so, dass schwarze Menschen in den USA weit mehr Gewaltverbrechen begehen als jede andere Ethnie. Rassisten verwechseln dann eben ganz schnell Korrelation und Kausalität und implizieren daraus, dass das Gewaltpotenzial an der Hautfarbe und damit in den Genen liegt und setzen damit den Wert eines Menschen fest. Hier wird aber eben die dritte Variable -die Armut - außer Acht gelassen. Es sind nämlich auch weit mehr schwarze Menschen arm in den USA und es gibt ebenfalls eine starke Korrelation zwischen Gewaltverbrechen und den finanziellen Verhältnissen der Täter. Das ist wiederum auf die Sklavengeschichte und noch den Rassismus danach zurückzuführen. Hier haben wir den eigentlichen kausalen Zusammenhang: Die USA ist komplett kaputt :D

    • @LordRapter
      @LordRapter 3 ปีที่แล้ว +7

      Richtig. Es ist auch ein gutes Beispiel dafür das Begriffe wie "rassistische KI" oder dergleichen unangebracht und inhaltlich falsch sind. Wenn man eine KI mit unvollständigen Daten füttert, dann findet ein solche Algorithmus eben solche falschen Zusammenhänge, weil sie sich einfach schlicht durch die Lernalgorithmen ergeben. Eine KI entscheidet anhand der Daten und nicht, weil die KI spontan "Rassismus" für sich entdeckt hat. "Rassistisch sein" ist eine rein menschliche Eigenschaft, die man nicht auf Algorithmen übertragen kann, die keine Moral, kein Bewusstsein und keine Chance haben zwischen "richtig" und "falsch" zu unterscheiden.
      Nichtdesdotrotz muss man bei so etwas sehr vorsichtig sein und solche Fehler als solche erkennen und beheben bzw. solche Algorithmen nicht als Entscheidungsgrundlage verwenden, wenn man nicht der Lage ist, die technischen Probleme in den Griff zu bekommen.

  • @Nilo.Steiner
    @Nilo.Steiner 3 ปีที่แล้ว +1

    Ich wäre absolut Deiner Meinung, wenn ich nicht die Konferenz "Globale Krise. das betrifft bereits jeden" gesehen hätte. Dort gibt es solche Beispiele, die es bereits jetzt gibt und die uns wirklich ersetzen können. Wirklich heftig!

  • @Krumelur
    @Krumelur ปีที่แล้ว

    Es ist jetzt 1 Jahr seit diesem Video vergangen. Fun Fact: ich habe gerade das Beispiel mit der nassen Straße aus dem Intro mit ChatpGPT durchgespielt. Die KI hat tadellos assoziiert, vorhergesagt und eine Hypothese aufgestellt. Crazy times.

  • @dragoran149
    @dragoran149 3 ปีที่แล้ว +1

    Sibyl System ist also schon Realität, das ist ultra gruselig. Ich hoffe, die Menschen verstehen, dass Neugier gut ist, aber man muss nicht allem Nachgeben und automatisieren.

  • @mclenn7128
    @mclenn7128 3 ปีที่แล้ว

    kann es sein das bei 6:53 ein Fehler bei der X Achse ist?

  • @MyProjectsTV
    @MyProjectsTV 3 ปีที่แล้ว +5

    Aww das ist aber ein süßer umm... Hund?

  • @a.a.r.r.386
    @a.a.r.r.386 3 ปีที่แล้ว

    10:15 min..was ist das runde Teil auf ihrer Stirn???

  • @technofreak39
    @technofreak39 3 ปีที่แล้ว +1

    Was mich mal interessieren würde ist wie sehr KI sich selbst beeinflusst.
    Angenommen eine KI hilft auf Basis von bestimmten Daten bei der Beschaffung von neuem Personal. Werden dann die Angestellten, die von der KI ausgewählt wurden, ebenfalls als zusätzliche Trainingsdaten verwendet? Das würde bedeuten, dass nach einer gewissen Zeit nur noch extrem spezifische Menschen ausgewählt werden würden.. oder nicht?

  • @3dfun711
    @3dfun711 3 ปีที่แล้ว

    Ich finde das Thema extrem spannend. Könnte es vieleicht sein das das Problem der KI der Verstehens darin besteht das eingegebene Bilder und oder Objekte immer nur 2 dimensional gesehen und gelesen werden? Vieleicht sollte man versuchen KI mit 3 dimensionalen Objekten zu füttern.

  • @aleksj344
    @aleksj344 3 ปีที่แล้ว

    Ich weiß das ist am Thema vorbei, aber ich muss einmal positiv hervorheben wie viel Sadrik abgenommen hat, wenn man sich mal den Einspieler bei 3:05 ansieht! Ist mir gar nicht so wirklich aufgefallen bis da mal der direkte Vergleich gegeben war

  • @tobias8488
    @tobias8488 3 ปีที่แล้ว

    Also mich würde mal interessieren was passiert, wenn man ein solches neuronales Netz aus analogen Bauteilen wie Operationsverstärker, Kondensatoren, Spulen, transistor (als Verstärker nicht als Schalter), Dioden und ko aufbaut, dann müssten doch diese digitalen Ungenauigkeiten wegfallen oder es besser funktionieren, also wenn man es dann auch analog "füttert".
    Vielleicht habt ihr dazu auch Infos ob es solche Projekte gibt, wie sie im vergleich sind etc.

  • @chrisk2712
    @chrisk2712 3 ปีที่แล้ว +2

    Yoo das ist jetzt vielleicht ne dumme frage, aber ist die Akinator app auch eine "frühe" KI?

    • @LordRapter
      @LordRapter 3 ปีที่แล้ว

      Ja, denn es ist ja gemäß der Einteilung im Video zu Stufe 1 Assoziationen fähig. Der Akinator ist vor allem deswegen ziemlich beeindruckend, weil er techisch recht primitiv ist, aber dennoch erstaunlich präzise Raten kann. Dies wurde durch die vielen hundertausenden Interaktionen mit den Spielern des Akinators erreicht. Zudem: Laut Wikipedia wurde der Akinator mit Hilfe von KI-Algorithmen entwickelt, das sollte die Frage also mit einem klaren "Ja" beantworten :)

    • @chrisk2712
      @chrisk2712 3 ปีที่แล้ว +1

      @@LordRapter danke dir bro. Peace

  • @yeetyeet7070
    @yeetyeet7070 3 ปีที่แล้ว +1

    Quelle 2 ist schon jetzt nicht mehr verfügbar

  • @ismirdochegal4804
    @ismirdochegal4804 3 ปีที่แล้ว

    [05:20] Beim Thema Criminal Risk Assessment Algorithms war mein erster Gedanke halt nicht Entscheidungen aufgrund von ein paar wenigen Zahlen zu treffen, die ein Computer ausspuckt. Aber so einfach ist es dann halt leider doch nicht. Oft sind Datensätze zu Groß und zu unübersichtlich. Aber wir wollen trotzdem fundierte Entscheidungen treffen. Also müssen die unübersichtlichen Daten auf das wesentliche reduziert werden.Und dann stehen wir wieder vor dem Ausgangsproblem: wir treffen Entscheidungen aufgrund von ein paar wenigen Zahlen.

    • @DoktorWhatson
      @DoktorWhatson  3 ปีที่แล้ว

      Exakt. Und das ganze leider um Kosten zu sparen… >.

    • @DoktorWhatson
      @DoktorWhatson  3 ปีที่แล้ว

      Exakt. Und das ganze leider um Kosten zu sparen… >.

  • @CUBETechie
    @CUBETechie 2 ปีที่แล้ว

    Es ist einfach ein Algorithmus der abgefahren wird

  • @marcotronic
    @marcotronic 3 ปีที่แล้ว +1

    Wie es ausschaut, können wir uns also in Ruhe zurücklehnen... Skynet wird die Welt so schnell nicht übernehmen :)

    • @NICEFINENEWROBOT
      @NICEFINENEWROBOT 3 ปีที่แล้ว

      Skynet wohl nicht, aber Interessengruppen, die uns mit KI gefundene Entscheidungen überstülpen und dann nicht verhindern können, dass das in die Hose geht.

  • @nurkert
    @nurkert 3 ปีที่แล้ว +1

    12:23 Ich glaub wir simulieren auch nur, dass wir was verstehen 🙃

  • @romeojenny
    @romeojenny 3 ปีที่แล้ว

    Jetzt wo es Netflix gibt reden die Leute oft von Filmen die es gerade dort Präsent sind. Finde das cool 😊

  • @rudigo9191
    @rudigo9191 3 ปีที่แล้ว

    Deshalb mußte es eigentlich auch VI und nicht KI heißen. Den Unterschied gab es auch in dem Spiel Mass Effect. KI ist das wo wir vielleicht hin wollen.

  • @DJM_ME
    @DJM_ME 3 ปีที่แล้ว +4

    12:57 Das liegt ja nicht an der KI, sondern am Menschen der die KI mit falschen/diskriminierende Daten füttert.

    • @DoktorWhatson
      @DoktorWhatson  3 ปีที่แล้ว +1

      Ja, natürlich. KI ist nur ein lebloses Werkzeug, das von uns Menschen benutzt wird. Es ist immer die Schuld des Menschen, wenn da was schief geht.

    • @ismirdochegal4804
      @ismirdochegal4804 3 ปีที่แล้ว +1

      @@DoktorWhatson Ganz genau. Deswegen halte ich es auch für so gefährlich, sich blind auf das zu verlassen, was der Algorythmus da ausspuckt.
      Ich sehe Roboter und KI als Werkzeug. Und wie bei jedem Werkzeug kommt es auf den an, der es führt.
      "Vertraue keinem Ding, von dem du nichtsehen kannst, wo es sein Gehirn hat." - Arthur Weasley

  • @blauwiese35
    @blauwiese35 3 ปีที่แล้ว

  • @michelbruns
    @michelbruns 3 ปีที่แล้ว +1

    da muss ich an dieses beispiel denken wo man einer ki hunde und huskies gezeigt hat und sie sich nicht den hund/huskie zur unterscheidung genommen hat, sodnern den hintergrund welcher bei hunden grün, braun etc. war, und bei den huskies weiß, wenn dann ein hund im schnee zb. war dachte die ki es ist ein huskie

  • @jafra9999
    @jafra9999 3 ปีที่แล้ว

    versuche es weiter

  • @masteriokernel6239
    @masteriokernel6239 3 ปีที่แล้ว

    Darum tuhe ich mich schwer damit diese art als KI zu bezeichnen da es eigentlich nur Algorythmen sind die von imput des Programmierers abhängig sind.
    Aber diese werden immer KI ähnlicher.

  • @HansMaurer.
    @HansMaurer. 3 ปีที่แล้ว +2

    Ich nehme an, die Nobelpreisträger geben das Preisgeld hauptsächlich für Schokolade aus.

  • @starcrafter9967
    @starcrafter9967 3 ปีที่แล้ว

    5:10 kennt ihr das Buch QualityLand? Der dritte Weltkrieg wurde dort ausgelöst, weil eine KI eine Kuh nicht erkannt hat... wollte ich nur angemerkt haben.

  • @dankeman5266
    @dankeman5266 3 ปีที่แล้ว

    Ich hoffe du und dein Team haben die Schokoladentafel dann trotzdem gegessen ❤️😂

  • @DanieltheGhost
    @DanieltheGhost 2 ปีที่แล้ว

    Theorie theorie Millionaire brauchen keine Theorie sie machens eh einfach 😂💪

  • @sabiplaypuzzles7332
    @sabiplaypuzzles7332 3 ปีที่แล้ว

    Ich denke es werden noch sehr viele Jahre vergehen bis eine KI wirklich autark lernen kann. Zur Zeit sind alle KI-Programme für ein bestimmtes "Verständnis" hin trainiert worden. In anderen Worten, diese trainierten Programme sind Inselbegabt. Um alleine das visuelle "Verständnis" eines Apfels zu haben, muesste man viele Inselbegabte Programme zu einer Super-KI zusammenschalten.

  • @brathorun9922
    @brathorun9922 3 ปีที่แล้ว

    Es wird so viel über KI fabuliert. Dabei naviegiert mich Google seit eh und je zuverlässig - auch nach dem drölfzigsten mal - bis vor meine Haustür.

    • @DoktorWhatson
      @DoktorWhatson  3 ปีที่แล้ว

      "Es wird immer über den Klimawandel gesprochen, dabei scheint doch gerade die Sonne."

  • @zaneinsam649
    @zaneinsam649 3 ปีที่แล้ว

    Ich bin der Meinung, dass Intelligenz einfach nur die Neuverknüpfung von alten Erfahrungen ist, dadurch würde ich bei deiner Frage, ob Ki nicht nur eine Intelligenz simuliert, da sie nur den Input generalisiert wieder geben (was sie aus meiner Perspektive machen), sagen, dass die Menschen doch nur das Selbe in besser machen.

  • @blubberbernd
    @blubberbernd 3 ปีที่แล้ว +1

    Minute 3:04 und du erschreckst, wie schnell du abgenommen hast. Wow! 😎💯💪

  • @ludooo2368
    @ludooo2368 3 ปีที่แล้ว +1

    Ich wäre arbeitslos aber hätte eine besser Lunge :D

  • @strafbefehl8218
    @strafbefehl8218 3 ปีที่แล้ว +1

    Was ist Intelligenz...
    Weiss ich nicht...
    Lass uns einfach eine KI entwickeln...
    😆😆😆
    👻👻👻

  • @antman7673
    @antman7673 3 ปีที่แล้ว

    Ich weiß auch nicht, was ein Apfel ist. Welche Molekül-Varianten in verschiedenen Sorten in welchen Maßen vorhanden sind und zu welchem Zweck.
    Schon allein der Anschein, wir wüssten mehr was ein Apfel ist, verwundert mich. Wir haben genauso eine Representation eines Apfels, wie ein Computer. Und wenn wir einen Apfel noch nicht von Innen gesehen, noch jemals Früchte/Gemüse gesehen hätten, wie sollten wir wissen können, wie der Apfel Innen aussieht.
    Das eine KI, die die Pixel analysiert nicht um die Ecke schauen kann, ist klar.

  • @Toeb01
    @Toeb01 2 ปีที่แล้ว

    Der Kanal ist super, aber mir ist schon in mehreren Videos aufgefallen, dass sie Klimahysterie subtil vermittelt wird.

  • @dieguterute4401
    @dieguterute4401 3 ปีที่แล้ว

    Wenn eine ki von alleine lernen kann. Und sich dadurch weiter entwickelt.
    Hat die dann ein Bewusstsein? Ich meine als Kind fängt man auch an zu lernen. Man sieht Bilder verarbeitet sie und gewinnt dadurch Informationen. Dann haben wir ein Bewusstsein.

    • @LordRapter
      @LordRapter 3 ปีที่แล้ว +2

      Nein. Menschen haben eine hochkomplexe "Hardware" wenn man so will, die das Ergebnis von Millionen Jahre Evolutionen ist und somit kann man diese komplexe Struktur nicht einfach nachbilden. Selbst die größten und komplexesten neuronalen Netze die es heute gibt, sind im Vergleich zum Aufbau des menschlichen Gehirns hochgradig primitiv.
      Das menschliche Bewusstsein entsteht durch eine anzahl komplexer Gehirnareale die nicht nur massiv parallelisiert sind sondern auch hochspezialisiert. Erst durch dieses komplexes Zusammenwirken entsteht "Bewusstsein". Würde man z.B. nur einen Teil der Großhirnrinde des Menschen betrachten, würde es sich zwar um ein sehr komplexes Gewebe aus Neuronen handeln, aber es wäre für sich genommen noch lange kein Bewusstsein. Wenn man ein Stück des Gehirns eines Menschen entfernt, dann bleibt sein Bewusstsein zum Großteil intakt. Deine Persönlichkeit sitzt also nicht in einem spezielen Areal. Sie ist die Summe aller Zusammenwirkungen deines Gehirns.
      Künstliche neuronale Netze sind dagegen ultraprimitv, noch deutlich primitiver als kleine Lebewesen(z.B. eine Ratte) und können daher nicht einfach so ein Bewusstsein entwickeln. Auch nicht wenn man so ein Netz mit Terabytes an Daten füttern würde und das über 10-20 Jahre. Daraus wird kein Bewusstsein, weil künstliche neuronale Netze dafür nicht genug Verbindungen eingehen können, auch keine Plastizität aufweisen(also die Fähigkeit die Architektur zu verändern) und ihnen wie gesagt spezialisierte Gebilde fehlen, die auch nur im Ansatz menschliches Denken nachahmen könnten. Zumindest nicht auf diesem Weg.

  • @chrisroedel
    @chrisroedel 3 ปีที่แล้ว +1

    Da treffen sich zwei aber oft.....

  • @Cyberlisk
    @Cyberlisk 3 ปีที่แล้ว +3

    Gabs nicht mal so ne KI die Bewerber für Jobs beurteilen sollte und automatisch alle Frauen rausgefiltert hat weil sie statistisch seltener in den Führungsetagen landen?

    • @3picHamster
      @3picHamster 3 ปีที่แล้ว +3

      ja, das war Amazon

  • @HeadHunterASL
    @HeadHunterASL 3 ปีที่แล้ว

    Also nur mal vorne weg: Sich mit der Frage "Was wäre passiert, wenn?" auseinander zusetzen, ist eine Sache der menschlichen Natur... Aber eigentlich hat man ein Ergebnis aus einer Situation, ständig und fortlaufend. Wenn wir logisch an die Sache gehen, würde sich eine "was wäre passiert, wenn..." Frage gar nicht ergeben. Anders sieht es bei "Was wäre, wenn" oder "try and error" Fragen aus, bei denen man den Anfangszustand beliebig oft unter anderen Bedingungen, wiederholen kann. Natürlich nur solange, wie man nicht die Exstistenz eines ganzen Planeten aufs Spiel setzt ^^

  • @GMista-lg3kh
    @GMista-lg3kh 3 ปีที่แล้ว

    Bin fassungslos ey

  • @vincentlaw1415
    @vincentlaw1415 3 ปีที่แล้ว

    letztens gesehen wie ein Tesla einen gelblichen Vollmond als gelbe Ampel 🚦 erkannt hat.

  • @archy3070
    @archy3070 3 ปีที่แล้ว

    Woher weiß er, wie lange ich rauche? o_O

  • @EnergiZeScuba
    @EnergiZeScuba 3 ปีที่แล้ว

    Rauche aber seit fast 4 jahren nicht mehr.. was nu?

  • @gloomey369
    @gloomey369 3 ปีที่แล้ว

    Lasst das program lernen"durch beobachten"

  • @e.v.k.3632
    @e.v.k.3632 3 ปีที่แล้ว +2

    Und da haben wir es wieder
    12:10 Apfel*innen
    Ihr könnt es nicht lassen zu gendern XD

  • @nekojack4558
    @nekojack4558 3 ปีที่แล้ว

    Verstehen wir Menschen überhaupt irgendetwas wirklich?

  • @ebkolamancha3153
    @ebkolamancha3153 3 ปีที่แล้ว

    Ich glaube ja, dass es Wiesen ohne Kühe gar nicht geben würde. Oder war das andersrum? 🤔

  • @Handelsbilanzdefizit
    @Handelsbilanzdefizit 3 ปีที่แล้ว +7

    3:05 Meinst du Korrelation oder Koinzidenz?
    Eine Bilderkennung die Kühe bei falschem Hintergrund nicht erkennt, ist eigentlich nicht mehr zeitgemäß. Moderne Algorithmen (CNNs) erkennen die Features einer Kuh, egal in welchem Kontext. Es sollte aber auch etwas Kuhähnliches zu sehen sein, und keine Mutante.
    Die Qualität der Trainingsdaten ist natürlich entscheidend. Wenn man eine KI mit Vorurteilen trainiert, kommen auch Vorurteile heraus. Das hat aber mal nix mit dem Algorithmus zu tun,
    sondern "rein menschlich" mit der Auswahl der Daten. KI ist ja nur ein Werkzeug.
    6:00 Über deinen Gefängnisaufenthalt entscheidet auch das psychologische Gutachten. Und psychol. Gutachten dürfen sogar von Zahnärzten gemacht werden.
    Jeder der eine medizinische Grundausbildung hat, ist berechtigt, psychologische Gutachten für Gerichtsprozesse zu erstellen. Nur anhand von Angaben in Dokumenten, ohne den Angeklagten jemals gesehen zu haben.
    Was einer "starken KI", die eigenständig schlussfolgern kann, am nächsten kommt, sind wohl "Graph Neuronale Netze (GNNs)". Da liegt die Hauptinformation nicht in einer mehrdimensionalen Hyperfläche, sondern in einem strukturierten Graphen.
    Aber das Hauptproblem ist, dass mit jeder neuen Eingabe, neuen Sensor- oder Sinneseindrücken, ... ein KI-Modell neu geupdatet/trainiert werden muss. Wir Menschen können unser Weltbild schneller aktualisieren, wenn neue Infos kommen. Einige zumindest.

    • @Handelsbilanzdefizit
      @Handelsbilanzdefizit 3 ปีที่แล้ว +1

      Ach ja, wer in das Thema einsteigen möchte. Hier gibt's einen guten Kurs zum Thema "Graph Neural Networks":
      th-cam.com/play/PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn.html
      Kann ich empfehlen. Hab ich mir schon komplett reingezogen ;-)

    • @felistrix7163
      @felistrix7163 3 ปีที่แล้ว

      Zu den Auswahldaten bei der Erkennung einer Kuh. Das stimmt nur bedingt. Ein Mensch, der als Messlatte für den Begriff Intelligenz steht, könnte auch von klein auf Kühe nur auf Wiesen zu sehen bekommen und wäre dennoch in der Lage eine Kuh am Strand als Kuh zu erkennen.

    • @Handelsbilanzdefizit
      @Handelsbilanzdefizit 3 ปีที่แล้ว +1

      @@felistrix7163 Ich behaupte mal, das gilt auch für CNNs, sofern diese die richtigen features gelernt haben. Sicher, es gibt gute und schlechte KIs, aber ich sehe kein grundsätzliches Problem darin, warum ein Künstliches Neuronales Netz das nicht auch können soll.

    • @tttrrr5011
      @tttrrr5011 3 ปีที่แล้ว +3

      Ich stimme deinen Ausführungen zu. Leider ist das Video etwas einseitig. KI ist grundsätzlich neutral und nur so gut, wie sie erstellt wurde. Leider wird hier von KI menschliches Denken gefordert und gejammert das es fehl schlägt. Das würde ja auch bedeuten, dass das menschliche Denken nachgebildet werden muss. So etwas ist meines Wissens nach nicht angestrebt. Z. B. Zerlegung eines Bildes mit dem Auge. Trotzdem ein Anfang.

  • @hanskywalker1246
    @hanskywalker1246 3 ปีที่แล้ว +1

    Bwbr

  • @nclsDesign
    @nclsDesign 3 ปีที่แล้ว

    Hab' gestern nur durch Zufall Ex Machina gesehen😂

  • @wenbockts5030
    @wenbockts5030 3 ปีที่แล้ว

    Ich finde das Video etwas zu populärwissenschaftlich. Der Kern von maschine learning ist Gradient Descent und das sollte wenigstens mal angesprochen werden.

    • @rafalrafal3469
      @rafalrafal3469 3 ปีที่แล้ว

      Hast du akademische Vorlesung erwartet?

  • @petergehre8809
    @petergehre8809 3 ปีที่แล้ว

    Dr Watson wenn ich Dein Gesicht hätte und würde mich im Spiegel ansehen würde ich mich ganz bestimmt umdrehen

  • @AtronixYT
    @AtronixYT 3 ปีที่แล้ว

    Wenn ich die letzten zwei jahre nicht geraucht hätte, hätte ich mein leben genauso gelebt, da ich nichtraucher bin

  • @hanskywalker1246
    @hanskywalker1246 3 ปีที่แล้ว +1

    Algorithmus

  • @ProjectIncredible
    @ProjectIncredible 3 ปีที่แล้ว

    8:11 wohl eher Kuh-Intervention 😄

  • @Teilzeitotaku
    @Teilzeitotaku 3 ปีที่แล้ว +2

    04:43 - 05:01
    Würde ich bei diesem Beispiel nicht mal sagen...er hat nur die falschen Korrelationen gelernt.
    Denn...der Mensch erkennt eine Kuh am Ende auch nur, weil sie wie eine Kuh aussieht...was am Ende auch nur eine Korrelation verschiedener Faktoren ist...nur halt nicht von der Umgebung, sondern von der Kuh.

    • @ThatSux
      @ThatSux 3 ปีที่แล้ว

      Wir erkennen Kühe an ihrem Aussehen? Also ich weiß ja nicht wie es bei dir ausschaut, aber ich kann dir auch sagen das es sich um eine Kuh handelt wenn ich sie lediglich rieche, höre oder schmecke.
      Zu sehen, ist für uns Menschen nur die Bestätigung.

    • @olge1355
      @olge1355 3 ปีที่แล้ว

      Es handelt sich immer um eine Kuh und wenn sich etwas Drumherum ändert, sollte trotzdem eine Kuh erkannt werden. Das ist doch genau der Punkt des Beispiels. Klar kannst du in dein Training auch Bilder von Kühen am Strand miteinbeziehen, aber dann trifft das Beispiel halt bei einer anderen Szene zu.

    • @Teilzeitotaku
      @Teilzeitotaku 3 ปีที่แล้ว

      @@ThatSux
      ...was widerrum weitere Beispiele für Korrelationen sind.
      Ein Bild kann man allerdings weder riechen, noch schmecken oder sonst was...zumindest noch nicht...man kann es nur anschauen, um eine Kuh darauf zu erkennen.
      Was der Mensch nur anders macht, ist, dass er Variationen in Farbe und Umgebung zulässt. Aber auch das hat Grenzen...er erkennt ne lila Kuh, die auf ner Harley sitzt, auf einem Foto nur deswegen trotzdem als Kuh, weil sie nicht wie eine Giraffe aussieht.

  • @matthias4
    @matthias4 3 ปีที่แล้ว

    4:18 „dann füttern wir dem Algorithmus natürlich eine Menge Bilder von Kühen“ jemandem etwas füttern?😳

  • @ThatSux
    @ThatSux 3 ปีที่แล้ว

    Es wundert mich doch immer wieder .. die Leute hören Intelligenz & denken ernsthaft das es so ist. Ich hatte erst letztens dieses Gespräch mit meinem Nachbarn der zu Alexa Bitte & Danke sagt, nachfragt wie es "ihr" geht etc. weil nach seinem Verständnis, muss das ja schon Intelligent sein sonst könnte ja nicht vernünftig geantwortet werden. 🙄🤦🏻‍♂️
    Es ist doch einfach nur dumm .. genauso wie die Menschen welche der Meinung sind ihre Hunde oder Katzen würden sie verstehen. 🙄