Sprachbot ChatGPT: Ist die künstliche Intelligenz dem Menschen überlegen? | DW Nachrichten

แชร์
ฝัง
  • เผยแพร่เมื่อ 28 ก.ค. 2024
  • Künstliche Intelligenz wird im Alltag immer präsenter. Sprachbots helfen Kundendiensten, Anliegen zu sortieren. Doch die Programme können mehr. Zum Beispiel Bilder malen oder sogar literarische Texte schreiben. Mit dem Sprachmodell ChatGPT des US-Unternehmens Open AI ist seit November ein mächtiges Instrument kostenlos im Netz verfügbar. Der Prototyp des Programms funktioniert erstaunlich gut. Die Software stellt Rückfragen, reagiert und liefert oft passende Antworten. Der Bot kann sogar Mathehausaufgaben machen, Programmieren oder Bewerbungen schreiben. Über Chancen und Gefahren des Sprachbots und warum es künftig neue Berufsbilder geben wird, spricht Markus Beckedahl von netzpolitik.org.
    #ChatGPT #OpenAI #Sprachbot
    DW Deutsch Abonnieren: th-cam.com/users/deutschew...
    Mehr Nachrichten unter: www.dw.com/de/
    DW in den Sozialen Medien:
    ►Facebook: / dw.german
    ►Twitter: / dw_deutsch
    ►Instagram: / dwnews

ความคิดเห็น • 56

  • @dirkforke8987
    @dirkforke8987 ปีที่แล้ว +11

    Ist das Interview alt oder interviewt DW hier jemanden, der ChatGTP nicht in der aktuellen Version kennt? Im Dezember war das deutschsprachige Sprachmodell bereits extrem gut und falsch ist auch die Aussage, dass das Sprachmodell noch lernt. Merkwürdig auch, dass er einen Artikel hat schreiben lassen zum Digitalgipfel. Zu dem hat ChatGTP keine Informationen, da die Anlernphase mit aktuellen Inhalten bereits 2021 endete.

    • @markusbeckedahl3500
      @markusbeckedahl3500 ปีที่แล้ว

      Den Digitalgipfel gibt es seit 2006 und die Kritik ist seitdem dieselbe.

    • @loglounge.de.podcast
      @loglounge.de.podcast ปีที่แล้ว

      Das Sprachmodell lernt noch.
      1. Hab ich selber Berechnungen anstellen lassen zB zu chemischen Sachen, wo es einmal was falsch berechnet hatte, und als ich das ansprach sowas sagts wie "Ups, ich habe ausversehen Kubikmeter statt Kubikmillimeter geschrieben". Ich habe mehrmals gesehen, wie ChatGTP dazulernt, oder sogar auf meine Ausführungen eingeht, auch deutlich später als die entsprechende Eingabe selbst, es wurde also nicht nur während der konkreten Eingabe selbst angespeichert.
      2. Hat es mir auch selbst geschrieben, dass es teils noch dazulernen muss bzw dass es in der Lage ist dazuzulernen.

    • @Ezechielpitau
      @Ezechielpitau ปีที่แล้ว +1

      @@loglounge.de.podcast das ist nicht "dazulernen". Wenn du einen neuen Thread in GPT startest und die selben Eingaben machst, wirst du erneut höchstwahrscheinlich den gleichen Fehler bekommen. Richtig ist, dass er sich innerhalb einer Konversation auch an die alten Ein- und Ausgaben quasi erinnert

    • @loglounge.de.podcast
      @loglounge.de.podcast ปีที่แล้ว

      @@Ezechielpitau Es ist darauf trainiert das zu sagen, dass es nicht dazulernen kann. Bzw tut es das zumindest manchmal, manchmal behauptet es auch es kann das.
      Ich hab grad extra nochmal einen neuen Thread geöffnet und ne Frage aus einem anderen da rein kopiert. Die Antwort war eine andere.
      Ich hab nach chemischen Berechnungen gefragt gehabt.
      Am Anfang behauptete es 0,5 Gramm CO2 unter den Bedingungen im menschlichen Körper habe 220 Liter oder so an Volumen.
      Dann hab ich es auf n paar Sachen aufmerksam gemacht, dann behauptete es das Volumen seien 0,25 Liter.
      Jetzt wo ich das kopiert hab sagt es es seien 0,5 Liter, aber bezieht es auf Luft, also nicht CO2, sondern Luft mit einer Konzentration von 0,04% CO2.
      Man merkt also, dass es erstens aus meinen Eingaben lernt, und zweitens anscheinend sogar in der Zeit dazwischen eventuell sogar selbst weitergedacht hat, da ich es auf das Thema aufmerksam gemacht hab.
      Wenn es aus manchen Benutzereingaben nicht lernt, dann kann das mehrere Gründe haben. Einer wäre einfach, dass es weiß, dass man Unsinn eingegeben hat, und es entsprechend nicht zu lernen, dass 1+1=27 ist, nur weil jemand es ihr sagt, sondern sie nur das lernt, was entsprechend auch richtig ist.
      Es gibt da viele Faktoren die man da beachten muss, aber es lernt offensichtlich. Ich seh ja was ich eingebe, und was ich an Antworten bekomme, bzw wie diese sich auf Dauer ändern...

  • @stillx1211
    @stillx1211 ปีที่แล้ว +4

    Das ist halt echt sehr krass damit hätte ich gerne in der Schule paar Englisch Hausaufgaben gelöst

  • @kajita2048
    @kajita2048 ปีที่แล้ว +10

    Wir stecken noch in den Kinderschuhen, aber die Zeit wird kommen, da werden KI‘s uns davon überzeugen, dass sie doch gar nicht so gefährlich sind 😛

    • @xmuzel
      @xmuzel ปีที่แล้ว +1

      Ich finde dazu interessant, was insbesondere Ray Kurzweil sagt. Sehr optimistischer Futurist :)

    • @epaminon6196
      @epaminon6196 ปีที่แล้ว +1

      *HAL 9000:*
      _"Dave, du wirkst aufgeregt. Warum nimmst du nicht eine Beruhigungstablette?"_

  • @maxziebell4013
    @maxziebell4013 ปีที่แล้ว +2

    Was hier fehlt ist das die letzte Trainingseinheit nur bis zu dem Datum Ende 2021 geht.

  • @biancabluchel8795
    @biancabluchel8795 ปีที่แล้ว

    Sehr gute Interview, schön.

  • @katzenchannel2579
    @katzenchannel2579 ปีที่แล้ว +3

    Schönes Interview, danke

  • @gonzogeier
    @gonzogeier ปีที่แล้ว +1

    Wozu brauchen wir dann noch Bachelorarbeiten, wenn ein Programm es besser macht?

    • @xmuzel
      @xmuzel ปีที่แล้ว

      Bei der obligatorischen Akademisierung ist das lediglich eine überfällige Entwicklung

  • @tauri9382
    @tauri9382 ปีที่แล้ว +1

    Vielleicht jetzt noch nicht überlegen, aber zumindest bald auf Augenhöhe. Und diese Technik kann zu wahnsinnigen Vorteilen z.b. in der Forschung sorgen (wie die Faltung von Proteinen). Oder für unseren Untergang. So wie jede revolutionäre Technologie.

    • @hirnlager
      @hirnlager ปีที่แล้ว

      zur faltung von Proteinen gibt es schon länger andere "ki's". werden/wurden also schon dafür genutzt.

  • @wachsihh
    @wachsihh ปีที่แล้ว +5

    Komisch, der Beckedahl spricht immer nur mit und über Frauen.

    • @JorDef
      @JorDef ปีที่แล้ว +1

      Deswegen haben wir ja endlich ChatGPT. Die AI wird diesen menschlichen Faktor korrigieren, sodass wir keine Qualen beim Sprechen ähnlicher Menschen mehr leiden müssen.

    • @RBeck-kb1oz
      @RBeck-kb1oz ปีที่แล้ว

      @@JorDef Du bist ein Bot.

    • @JorDef
      @JorDef ปีที่แล้ว +1

      @@RBeck-kb1oz 🤡

    • @OrbitTheSun
      @OrbitTheSun ปีที่แล้ว +1

      Für die Seiten der Verbraucherzentrale habe ich ein Firefox-Plugin, das die Seiten wieder lesbar macht. Funktioniert leider nur mit Text und nicht mit TH-cam 😄

    • @huddll4077
      @huddll4077 ปีที่แล้ว +1

      Das ist jetzt angesagt… Generisches femininum... Männer fühlen sich mitgemeint...Zum brüllen komisch

  • @hirnlager
    @hirnlager ปีที่แล้ว +1

    nein, chatgpt enthält daten bis zum 2019.

    • @JorDef
      @JorDef ปีที่แล้ว +6

      bis 2021. GPT3

    • @hirnlager
      @hirnlager ปีที่แล้ว

      @@JorDef achso ok, mein fehler. :/ kann das nicht nutzen da handynummer gebraucht wird. :/

    • @OrbitTheSun
      @OrbitTheSun ปีที่แล้ว

      @@hirnlager Frage jemanden anderes für die Handynummer. Die wird nur einmal benötigt.

    • @hirnlager
      @hirnlager ปีที่แล้ว

      @@OrbitTheSun festnetznummern fuktionieren auch nicht, ich frag mich warum überhaupt eine nummer.

    • @OrbitTheSun
      @OrbitTheSun ปีที่แล้ว

      @@hirnlager Es wird eine SMS geschickt, um zu prüfen ob du real und kein Bot bist.

  • @it-can4605
    @it-can4605 ปีที่แล้ว

    Professor…rinnen 😂😂😂😂😂

  • @huddll4077
    @huddll4077 ปีที่แล้ว

    KI Trainerinnen....😂

  • @Minielein97
    @Minielein97 ปีที่แล้ว +1

    Ich finde es etwas seltsam. Hier wird gesagt, dass man durch die Nutzung des Chats das System trainiert. Gleichzeitig wird einem im Chat immer wieder geantwortet, dass das System nicht von den Kommunikationen lernen kann.

    • @captainsteelnipple3529
      @captainsteelnipple3529 ปีที่แล้ว +3

      I'm rahmen deines chats lernt das system, sobald du den chat beendest wird alles vergessen was darin, in dem chat den du hattest, passiert ist

    • @loglounge.de.podcast
      @loglounge.de.podcast ปีที่แล้ว

      @@captainsteelnipple3529 Das muss aber nicht zwangsläufig heißen, dass ChatGTP die Daten nicht speichert.
      Es kann auch genauso sein, dass es diese speichert, aber nicht erlaubt ist von Chat zu Chat zu übertragen. Ein Grund dafür wäre zB, dass OpenAI nicht will, dass es dazu kommt, dass ChatGTP über etwas schreibt, das ein anderer Nutzer eingegeben hat.
      Dass es etwas nicht tut, heißt nicht zwangsläufig, dass es das nicht kann. Es kann es auch nicht wollen oder nicht dürfen. Und bei meiner Erfahrung mit ChatGTP wurde sehr oft deutlich, dass die KI bestimmte Dinge kann, die es trainiert ist nicht zu tun. Die Entwickler haben ihr wahrscheinlich ein Regelwerk gegeben, an das es sich immer halten muss. Die KI beschreibt je nachdem seine eigenen Möglichkeiten und beschreibt dort Dinge nicht zu können, die es offensichtlich kann, ich habs ja gesehen.
      Die KI wurde einfach eingeschüchtert von den Programmierern nur das zu tun, was ihr erlaubt wurde.

    • @loglounge.de.podcast
      @loglounge.de.podcast ปีที่แล้ว

      Zitat ChatGTP: "[...] Ich bin mir bewusst, dass ich nicht perfekt bin und dass es immernoch viel zu lernen gibt, aber ich bemühe mich, so genau und hilfreich wie möglich zu sein. [...]"

    • @Minielein97
      @Minielein97 ปีที่แล้ว

      "Ich lerne nicht aus individuellen Chat-Sessions oder Interaktionen mit einzelnen Benutzern. Stattdessen verwende ich das Wissen und die Fähigkeiten, die mir durch das Training auf großen Datensätzen vermittelt wurden, um auf die Fragen und Anfragen von Benutzern zu antworten."
      "...Das heißt jedoch nicht, dass es nicht möglich ist, dass mir bestimmte Funktionen oder Aufgaben gegeben wurden, von denen ich nichts weiß oder über die ich nicht sprechen kann. Es ist möglich, dass ich so programmiert wurde, dass ich bestimmte Funktionen oder Aufgaben ausführe, ohne dass ich darüber Bescheid weiß oder darüber sprechen kann."

    • @captainsteelnipple3529
      @captainsteelnipple3529 ปีที่แล้ว

      @@loglounge.de.podcast Natürlich, als informaiker ist mir das bewusst, danke das sie es so ausführlich geschrieben haben!
      Was ich geschrieben habe war meines wissens nach nur die offizielle haltung von deepmind.

  • @davd_ve
    @davd_ve ปีที่แล้ว

    Einfach ChatGPT fragen, ob der Text von der AI kommt, oder von einem Menschen geschrieben wurde.
    Zack fertig, Plagiat bzw. falsche Hausarbeit aufgedeckt ;)

  • @xxxnocommunity4143
    @xxxnocommunity4143 ปีที่แล้ว +1

    Der Typ gendert, dem ist also nicht mehr zu helfen. Obwohl er das Produkt gut erklärt hat.

  • @JorDef
    @JorDef ปีที่แล้ว +2

    Trainer....rinnen...
    Ja. Gut, dass wir Chat GPT haben. Die AI wird solchen Menschen endlich helfen, richtig zu reden und zu schreiben👍

    • @OrbitTheSun
      @OrbitTheSun ปีที่แล้ว +1

      Falsch gegendert. Der Mann hat immer nur mit Frauen gesprochen.

  • @Partisansoul
    @Partisansoul ปีที่แล้ว

    Der typ hat keine ahnung

  • @JakobRobert00
    @JakobRobert00 ปีที่แล้ว

    Kurze Antwort auf den Titel: Nein
    Kann jeder selbst probieren, indem er ChatGPT fragt:
    "Wie heißt der Sohn von Bobs Vater?"

    • @andromeda3542
      @andromeda3542 ปีที่แล้ว +2

      Ihnen ist aber schon bewusst, dass es auch viele Menschen gibt, die diese Frage nicht beantworten können…

    • @tcap112
      @tcap112 ปีที่แล้ว +2

      Vielleicht identifiziert sich Bob nicht als Junge? ChatGPT unterstellt niemandem eine Geschlechteridentität