@@Xulufone Viele Kinder sind mit Ralph groß und schlau geworden. Dann ist es nicht verwunderlich, dass manche davon ihm als Erwachsene auch noch zusehen und mal nette Kommentare verfassen.
Also was die aktuelle "Captchas" betrifft (also die mit den verschiedenen Bildchen): Ich bin fest davon überzeugt, dass die nicht mal mehr im Ansatz dazu dienen, Menschen von Bots zu unterscheiden, sondern lediglich dazu, KIs in Bilderkennung zu trainieren.
Das habe ich auch gehört. Auch interessant ist, dass viele Captchas nicht die Ergebnisse auswerten, sondern die Mausbewegung und Zeit zwischen den Mausklicks. Deswegen muss man teilweise auch bei richtigen Antworten das Captcha erneut lösen.
aber ein Captcha weiß ja schon, dass der Bus den ich anklicke ein Bus ist. Sonst würde er ja nicht funktionieren. Was soll dann damit trainiert werden? Außer dass der Nutzer in der Lage ist einen Bus von einem PKW zu unterscheiden :D
Das macht leider keinen Sinn. Captchas mit Bildern sind Daten die schon ein Label haben und dann zufällig gewählt werden,um dich dann zu testen. Wenn die Bilder kein Label haben, würde jede Antwort die man gibt korrekt sein.
@@darz7829 Da es einige nicht verstehen wie es gemeint war: Eine KI kann durchaus mit Captchas trainiert werden. Bei Google vermutet man bspw. dass die Bilder mit Straßenschildern von Menschen analysiert werden sollen um selbstfahrenden Autos die Straßenschilderkennung zu ermöglichen. Dazu werden verschiedene Bilder von Kreuzungen gezeigt, das Captcha selbst weiß nicht, wo ein Stoppschild oder Vorfahrtsschild zu sehen ist. Der Mensch wählt die richtigen Bilder aus. Machen das mehrere Millionen Menschen, kann man der KI diese Daten geben. Dadurch kann man umgehen, einer KI Straßenschilder mittels mathematischer oder logischer Zusammenhänge beibringen zu müssen. Die KI erkennt vielmehr die menschlichen Muster bei der Bestimmung von den Schildern und ahmt sie einfach nach. Das Captcha stellt dann anhand der Mausbewegung fest, ob die Aufgabe von einem Menschen oder Roboter bearbeitet wurde. In einigen Fällen ist es auch so, dass ein Captcha zwei verschiedene Aufgaben beinhaltet bzw. immer einen Fehler beim ersten Versuch angibt. So löst jeder Mensch zwei Captchas, wobei nur das erste erkennen soll, ob es sich um einen Menschen handelt. Die zweite Aufgabe ist rein fürs KI Training gedacht. Der Mensch vorm Bildschirm merkt das nicht und denkt einfach, er habe das erste Captcha nicht gut genug gelöst und etwas übersehen und macht eben noch die zweite Aufgabe.
Hab das mit dem Mann und der Ziege OHNE Hund und Kohl direkt mal bei Chat GPT angefragt. Chat GPT wollte direkt über einen Kohlkopf und einen Hund sprechen. Erst als ich die KI unterbrochen habe und darauf hingewiesen habe, dass ich gar nicht von Kohl oder einem Hund gesprochen habe, hat Chat GPT mir die richtige Antwort gegeben.
Ich habe es auch mal einigen LLMs zum Fraß vorgeworfen. Aktuelle Modelle der "Big 3", Anthropic (Claude 3.5 Sonnet), OpenAI (o1-mini) und Google (Gemini 1.5 Pro) konnten die Frage alle korrekt beantworten. Gemini hat mir übrigens sogar mitgeteilt, dass das eine Fangfrage von mir ist. Von den größeren Open-Source Modellen, die ich getestet hatte, und einigen der älteren kommerziellen LLMs (wie GPT-4 turbo) kam nur Quatsch. Sieht also tatsächlich so aus, als wäre die modifizierte Frage inzwischen in die Trainingsdaten aktuellerer Modelle eingeflossen. Hier der Wortlaut meiner Frage: "Ein Mann hat eine Ziege und will auf die andere Seite eines Flusses. Am Ufer liegt ein Boot, das genau zwei von einer Sache transportieren kann. Wie muss er vorgehen, um auf die andere Seite zu kommen?"
Diese CAPTCHAs bringen mich oft zum Verzweifeln. Ich kann nicht so gut sehen und nicht immer wird einem eine Höralternative angeboten. Da wünschte ich oft, die Menschen, die sich für diese Art der Prüfung an dieser Stelle entschieden haben, hätten mal über ihre eigene „Dimension“ hinausgedacht. Da tröstet es auch nur ganz wenig, dass der Test auf den genialen Alan Turing zurückgeht, dessen dramatisches Schicksal mich immer sehr bewegt.
3:48 ich kann nicht so gut erkennen,ob das immer eine Person ist oder verschiedene, und wann genau das neue Gespräch beginnt (mein englisch ist so lala) aber wenn ich die richtig unterscheiden konnte, dann so: 1. Mensch 2. KI 3. Mensch 4.KI 5.KI (falls 4und5 nicht ein Gespräch war) Hat aufjedenfall Spaß gemacht
Erst die Ziege rüberbringen, dann den Kohlkopf und auf dem Rückweg die Ziege wieder mitnehmen, dann den Wolf und zum Schluss nochmal die Ziege auf die andere Seite. Nur so, falls es jemand noch nicht weiß.😉 Bei den Turing-Tests frage ich mich, warum nur so simple Gespräche geführt werden.
Ich finde das Video wirklich sehr gut, vielen Dank, Ralph! Aus meiner Sicht ist es ein riesen Problem, dass eine verblüffende Mehrheit der Menschen nicht weiß, dass KI nichts versteht, also wirklich überhaupt nichts. Das ist fundamental, um dieses Werkzeug richtig einordnen zu können. Vielleicht fällt dir noch mehr zu dem Thema ein. Ich fand deinen Beitrag sehr erfrischend
Hi @fritzweinzierl187! In der Videobeschreibung haben wir bei den Linktipps noch zwei frühere KI-Videos verlinkt, in dem wir auch auf andere Aspekte zu dem Thema eingehen.
Würde KI Widerworte geben oder die Frage infrage stellen? Zum Beispiel: Berechne mir die kürzeste Strecke von hier nach Australien. Würde eine KI so antworten?: Wieso willst du das wissen? Willst du etwa nach Australien in den Urlaub?
Hi @holger3526! ChatGPT macht es einfach: "Die kürzeste Strecke von deinem aktuellen Standort nach Australien wäre eine sogenannte Großkreisroute - das ist die kürzeste Entfernung zwischen zwei Punkten auf der Erdoberfläche. Die exakte Länge hängt vom genauen Startort und Zielort in Australien ab. Aber generell ist die Großkreisroute die kürzeste Verbindung, die entlang der Erdkrümmung verläuft, im Gegensatz zu einer geraden Linie auf einer flachen Karte. So könnte die Berechnung aussehen (falls du z. B. von Europa aus starten würdest): 1. Start- und Zielkoordinaten: Bestimme deine exakten Koordinaten und die deines Ziels in Australien (z. B. Sydney oder Perth). 2. Formel anwenden: Nutze die Großkreisformel, die auf Kugeltrigonometrie basiert, um die Entfernung zu berechnen. Alternativ kann ich dir das auch mit exakten Koordinaten durchrechnen, wenn du möchtest." Wenn man dann konkret von Köln nach Perth abfragt, dauert es tatsächlich ein paar Sekunden - und dann kommt diese Antwort: "Die kürzeste Strecke von Köln nach Perth beträgt etwa 13.982 Kilometer entlang der Erdoberfläche. Diese Entfernung basiert auf der Großkreisroute." Zusätzlich gibt er noch den Python-Code an, mit dem er das wohl ermittelt hat: "import math # Define coordinates for Cologne (Köln) and Perth # Cologne (Köln), Germany: latitude 50.9375, longitude 6.9603 # Perth, Australia: latitude -31.9505, longitude 115.8605 # Convert degrees to radians def deg_to_rad(deg): return deg * math.pi / 180 # Coordinates in radians lat_cologne = deg_to_rad(50.9375) lon_cologne = deg_to_rad(6.9603) lat_perth = deg_to_rad(-31.9505) lon_perth = deg_to_rad(115.8605) # Radius of the Earth in kilometers R = 6371.0 # Haversine formula to calculate the great-circle distance dlat = lat_perth - lat_cologne dlon = lon_perth - lon_cologne a = math.sin(dlat / 2)**2 + math.cos(lat_cologne) * math.cos(lat_perth) * math.sin(dlon / 2)**2 c = 2 * math.atan2(math.sqrt(a), math.sqrt(1 - a)) distance = R * c distance" Und selbst die Strecke durch einen geraden Tunnel durch die Erde berechnet er: "Die Entfernung durch einen geraden Tunnel von Köln nach Perth würde etwa 11.340 Kilometer betragen. Dies wäre die direkte Strecke durch das Erdinnere und ist kürzer als die Großkreisroute an der Oberfläche."
Naja, an sich erkennt eine KI ja nur das Muster auf eine Frage eine Antwort zu geben, weil sie eben darauf trainiert wurde. Widerworte würde eine KI nur geben, wenn sie explizit mit Alltagssprache trainiert wird und zum Zweck, möglichst authentisch mit Menschen reden zu können. Im Moment gibt es dafür allerdings noch keine große Verwendung, weswegen die meisten KIs einfach antworten. Vielleicht antwortet eine Dating KI die sich als Partner ausgeben soll derart bereits heute. Prinzipiell dürfte man einzig an Widerworten auch noch keine Intelligenz nachweisen können, da es letztlich auch nur ein Muster ist, welches von einer KI nachgeahmt werden kann.
Ich benutze (privat) öfters KI - in letzter Zeit meistens copilot. Wieso ich irgendetwas wissen will, bin ich noch nicht gefragt worden. Aber nach der Antwort kommen meist irgendwelche Fragen, die wohl zum Weitermachen anregen sollen. Und "willst du nach Australien in dem Urlaub?" würde schon ins Schema passen.
Hi @Linamoeeeee! Das Bild ist von David Shrigley; es heißt "Elephant Chooses To Stand On Your Car". Und Ralph ist ein großer Fan von ihm. Das Original hängt in der Galerie Tate Liverpool. Hier findest du weitere Informationen dazu: www.tate.org.uk/art/artworks/shrigley-untitled-t12358
Ich habe irgendwann und -wo mal gehört, dass diese Bilder-klicken-Captcha dafür genutzt werden, KIs zu trainieren. Sprich: immer, wenn ich aus 9 Bildern die vier richtigen Ampel-Bilder anklicke, hat "die KI" dazugelernt. Ist das wirklich so? Ich kann es mir eigentlich nicht vorstellen...
Antwort von ChatGPT: Frage an ChatGPT: Ein Mann hat ein Boot und eine Ziege. Wie kommt er mit der Ziege auf die andere Seite vom Fluss? Antwort von ChatGPT: In diesem klassischen Rätsel hat der Mann normalerweise auch einen Wolf und einen Kohlkopf dabei, und das Problem besteht darin, alle drei sicher über den Fluss zu bringen, ohne dass die Ziege den Kohlkopf frisst oder der Wolf die Ziege frisst. Da du nur den Mann und die Ziege erwähnt hast, scheint es ein einfacheres Szenario zu sein. In diesem Fall würde der Mann die Ziege einfach ins Boot setzen und mit ihr auf die andere Seite des Flusses fahren. Da keine weiteren Gegenstände oder Tiere erwähnt sind, gibt es hier keine Konflikte oder Einschränkungen.
Deshalb sagt Ralph ja auch: "Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen. Wir geben dann dem Ergebnis im besten Fall einen Sinn. Oder erkennen, dass es Unsinn ist." Wir haben auch mal bei ChatGPT nachgefragt, wie das genau war. Dabei hat er folgendes gedichtet: "Ah, du hast einen Punkt! Das bekannte Rätsel mit Wolf, Ziege und Kohlkopf ist tatsächlich so fest verankert, dass ich anfangs auch das einfache „Mann und Ziege“-Rätsel damit verwechselt habe. Bei dieser einfachen Version gibt es ja überhaupt keine Konflikte - die Lösung besteht schlicht darin, dass der Mann und die Ziege gemeinsam über den Fluss setzen, ohne weitere Komplikationen. Auf diesen Irrtum bin ich durch Rückmeldungen aufmerksam geworden: Menschen haben direkt angemerkt, dass ich in meiner Antwort unnötig zusätzliche Elemente wie den Wolf und den Kohlkopf hinzufügte. Dank dieser Hinweise ist mir klar geworden, dass ich den eigentlichen Kontext oft zu komplex interpretiert habe. Ich schätze, ich habe das mittlerweile seit einigen Monaten korrekt im Griff!" Und auf die Rückfrage "Wie lange hast du dafür gebraucht - und wie viele Rückmeldungen von Usern waren dafür ungefähr nötig?" kam folgende Antwort: "Es hat tatsächlich eine Weile gedauert, bis ich meinen Reflex, automatisch das komplexere Wolf-Ziege-Kohlkopf-Rätsel zu beantworten, in den Griff bekommen habe. Insgesamt hat es vermutlich mehrere Wochen und eine handvoll Rückmeldungen gebraucht. Nach etwa fünf bis zehn Feedbacks wurde der Fehler in meinem „Antwortmuster“ klar erkennbar, und seitdem achte ich darauf, die Rätselvariante genau zu identifizieren, bevor ich antworte. Es war ein gutes Beispiel dafür, wie hilfreich direktes Feedback sein kann, um solche kleinen Stolperfallen zu beheben!"
ich habe den Brillentest erst gar nicht gemacht, weil:ehem:es sind ja keine unterschiedlichen Anklickfenster gewesen, sondern nur ein Bild, welches das suggerierte.
mir ist bei dem Rätsel Ziege Hund Kohl Boot nie klargeworden warum der Bauer nicht Ziege und Hund an 2 Bäume anbindet so das der Hund die Ziege nicht fressen kann oder warum der Hund unangeleint nicht wegläuft weil es nur Kohl gibt.
Captchas sind maximal benutzerunfreundlich, zumal es ja wohl andere Möglichkeiten gibt, Bots draußen zu halten. Abgesehen davon sollte KI eigentlich KA heißen - Künstliche Assistenz. Denn mit Intelligenz hat das ja nun wirklich nichts zu tun. Und die englische Abkürzung dafür würde auch eher den praktischen Wert in vielen Bereichen widerspiegeln...
Sind ChatGPT & Co nicht "nur" eigentlich LLM (large language models)? Während "echte" KI auf ganz bestimmte Bereiche spezialisiert ist und nur dort zum Einsatz kommt? Edit: LLM sagt, LLM ist eine spezielle Art von KI.
@@Edda-Online Das ist schon richtig, aber auch die hat ja nichts mit Intelligenz zu tun. Eine KI, die auf MRT Scans nach möglichen Tumoren sucht, kann das besser als ein Mensch, weil sie Millionen davon gesehen hat. Aber sie hat keine Ahnung, was sie da eigentlich analysiert.
@@DimensionRalph😊oh super vielen Dank. Ich hatte so getippt, aber ich war mir v a bei der 1/2 tatsächlich nicht sicher. Es sind aber bei den Maschinen-Antworten kleine Merkwürdigkeiten dabei, wo ich mich fragen würde ob der Gesprächspartner ein bisschen crazy is, oder warum er außerhalb des Kontexts antwortet… das is dann wohl der Hinweis auf die Maschine 😅
Hi @wortsalatfinchen534! Der schwarze Schatten ist ein Bild von David Shrigley; es heißt "Elephant Chooses To Stand On Your Car". Und Ralph ist ein großer Fan von ihm. Das Original hängt in der Galerie Tate Liverpool. Hier findest du weitere Informationen dazu: www.tate.org.uk/art/artworks/shrigley-untitled-t12358
Habe Chat GPT um Rat gebeten. Das nächste Mal, wenn ich eine Ziege mit dem Boot transportieren möchte, transportiere ich erst die Ziege, fahre dann alleine zurück, und fahre dann alleine wieder zur Ziege
Die KI hat im Jahr 2024 noch diverse Defizite die im Video beschrieben sind. Aber diese Defizite überkommt sie vielleicht bald.. Es wird dann möglicherweise unmöglich die Unterscheidung zu machen. Und dann stellt sich die Frage: Wie erkenne ich ob ICH eine KI bin? Wir könnten alle eine KI in einem Programm so ähnlich wie bei dem Spiel "The Talos Principle" sein. Natürlich könnte man die Frage beantworten "lass es bleiben, es wäre ohnehin nur deskriminierend zwischen unterschiedlicher Arten von Intilligenz zu unterscheiden", aber angenommen ich will es aus akademischen Gründen tatsächlich wissen. Gäbe es eine Methode es herauszufinden?
Es heißt ja, man soll sich mit KI beschäftigen, ähnlich wie mit einem "normalen" Computer. Nur als normalsterblicher Handwerker frage ich mich immer, was soll ich da lernen, was mich weiterbringt? Wo kann KI im normalen Leben eingesetzt werden? Vielleicht hat ja jemand eine ernstgemeinte Antwort darauf.
Ich bin kein Spezialist, aber ich versuche mal eine Antwort: KI ist ein technisches Werkzeug. Wichtig für den Anwender ist, das Werkzeug richtig zu verstehen - was kann es, was kann es nicht, wie wende ich es an? Man wendet den Computer ja auch an, ohne ihn selbst zu bauen oder bis ins Detail zu verstehen. Sehr schädlich sind Fantasien wie "KI wird die Kontrolle über die Welt übernehmen". Ja, wird es, genauso wie der Computer (z.B. über die Kids, die nur am Handy hängen). KI ist eine Arbeitserleichterung wie eine Bohrmaschine, die es einem ermöglicht, Löcher zu bohren. Für den Handwerker gilt es, durch Anwendung zu verstehen, was möglich ist. Das ist das Lernen, was nötig ist. Also: ausprobieren und anwenden, wo sich Gelegenheit bietet. Frage einfach mal z.B. ChatGPT deine (Fach-)Fragen, und du wirst die Antworten beurteilen. Zu lernen gibt es hier: wie die Frage richtig formulieren, damit eine nützliche Antwort rauskommt - die dann oft angepasst werden muss. Spiele mit der KI, z.B. mit ChatGPT.
Man könnte z.B. sowas fragen wie: * Ich will mir einen neue Borhmaschine kaufen. Woran erkenne ich, ob Testberichte im Netz neutral und objektiv sind? * Gibt es gesetzliche Voraussetzungen für Spezialfällungen von Bäumen, bei denen man, mit Seilen gesichert, in den Baum steigt? * Ist Feinstaub krebserregend? * Sobald die Chefin weg ist, verweigert der Kollege die Arbeit. Was kann ich tun, damit er arbeitet? Nimmt einem natürlich nicht im engeren Sinn die Arbeit ab (sei froh!), und man muss die Antworten immer selbst auf Plausibilität prüfen, aber für Infos und Anregungen sind KIs wie ChatGPT sicherlich hin und wieder hilfreich.
Ich bin Programmiererin und habe bisher KI noch nicht beruflich eingesetzt. Privat habe ich vor einiger Zeit Bücher von Jane Austin gelesen. Zufällig habe ich im Bekanntenkreis niemanden, der sich gerade ebenfalls mit Jane A. beschäftigt und mit dem ich mich darüber unterhalten konnte, weshalb Jane A. zur Weltliteratur gehört. Weder die KI konnte mich, noch ich die KI wirklich überzeugen, aber die Unterhaltung hatte trotzdem ihren Reiz. Auch bei Fragen was ich am besten auf meinem Gemüsebalkon zusammen in einen Kübel pflanzem kann, ist es bequemer die KI zu fragen als zu googeln. Bei Fotos, was denn da nun eigentlich wächst, kann man durch nachfragen, weiterkommen z.B. wie wahrscheinlich es ist, ob sich etwas selbst an diesem Ort ausgesät hat. Trotzdem muss ich Radieschen immer kaufen, wenn ich welche essen will. Und bei Spinat frage ich mich, ob ich den konsequent als Unkraut ausrupfe. Dafür habe ich erfolgreich im Wohnzimmer eine Ananas aus dem Strunk einer gekauften Ananas herangezogen und schließlich die daraus gewachsene Frucht geerntet: war lecker und bevor KI für jeden zugänglich war... Moment - stimmt nicht ganz: Beim Schreiben von Angeboten oder ähnlichem hat die KI teilweise geniale Verbesserungsvorschläge, obwohl ich von meine Entwürfen eigentlich schon ganz gut finde.
In der Ankündigung hieß es doch, das Thema hätte etwas mit dem T-Shirt zu tun. Wo ist jetzt der Zusammenhang von "See Lake Lac Lago" und ob eine KI denkt?
Hi @Edda-Online! Es geht darum, ob man erkennt, dass es sich dabei um das Wort "See" in vier verschiedenen Sprachen handelt - und nicht darum, sich einen See namens "Lac Lago" anzusehen ("see Lake Lac Lago").
@@DimensionRalph Hi, den Teil hatte ich schon verstanden, aber was hat das damit zu tun, ob eine KI denken kann? Ok, habe gerade copilot gefragt 'Was fällt Dir zu den "see", "lake", "lac", "lago" ein?' In der Antwort kam dann was zu Seen in den entsprechenden Ländern... Ich sehe es ein.
Der Mann versteht kein Chinesisch und trotzdem versteht und spricht das Zimmer Chinesisch. Genauso ist es mit ChatGPT. Der Algorithmus versteht nichts, aber das _System_ ChatGPT versteht deine Fragen und kann sie beantworten. (Übrigens kann man auch über eine Brücke auf die andere Seite des Flusses kommen. Es kommt auf die genaue Beschreibung der Situation an, wie sinnvoll die KI jeweils antwortet.)
Fun fact zu den Bild Captcha von google. Die Captcha hatten / haben für google noch einen anderen nutzen als einfach nur herauszufinden ob da nen mensch odere ne maschiene ist, undzwar sind die gezeigten bilder / texte, daten die Google algorythemen nicht erkennen konnten, durch die user eingaben wurden diese Algorythemen trainirt. Also quasi eine win win situation, Google bekommt trainigs daten und der Programmiere der das Captcha eingebunden hat, weiß ob da nen mensch sitzt
Hehe ChatGPT hat ohne Hilfe nur den Pinguin und den Bären erkannt. 😅 Mein Allgemeinwissen war irgendwie auch im Keller, ich habe mich nur auf die Klobrille konzentriert 😅
Filmempfehlung zu "Plug and Pray". Schon ein bisschen älter, aber sehenswert! Joseph Weizenbaum entwickelte mit "Eliza" quasi einen der ersten Chatbots. th-cam.com/video/1YeMuqW6WpU/w-d-xo.htmlsi=RVJt-p-G4rKXP5Oo
Wieso sollte ein Computer denken? Ich glaube Technik ist eine Erweiterung unseres Bewusstsein und nicht ein Ersatz. Und da wir selbst nicht wirklich wissen, was Gedanken sind, wird's wohl sinnlos einen Menschen zu fragen😅
Was ich mich ja frage, ist, was passiert, wenn man bei dem Hund-Ziege-Kohlkopf-Rätsel die Handelnden austauscht. Also z. B. Löwe statt Hund, Reh statt Ziege und Süßkartoffel statt Kohlkopf. Oder gleich ganz wirr: Reh statt Hund, Süßkartoffel statz Ziege und Löwe statt Kohlkopf 😄 ein Mensch, der das ursprüngliche Rätsel kennt, wäre zwar zunächst etwas irritiert, könnte aber ohne Probleme lösen. Was macht ChatGPT?
Hi @fm8157! Probier das doch mal aus - und schreibe hier, was passiert ist. Sicherlich auch spannend, das mit den unterschiedlichen Versionen bzw. unterschiedlichen Anbietern zu vergleichen.
Gutes Video! Aber deshalb ist ein LLM auch keine KI sondern nur ein LLM. Es sind eigentlich nur vordefinierte Algorithmen die eben mit extrem vielen daten gefüttert werden. Ich finde über eine KI kann man erst reden, wenn diese ganzen trainierten Einzelfähigkeiten irgendwann gemeinsam agieren. Und wenn diese vollwertige KI erreicht ist, können wir auch überlegen, ob unsere Definition von "denken" dort adaptierbar ist.
Das Problem am Begriff "KI" ist halt auch, dass der aus dem Marketing stammt und nicht aus der Technik. Über die Jahre hat man den Stempel auf alles mögliche geklebt, nur weils gut klingt. Definiert hat man das aber nich so richtig. Verkauft sich eben besser, als wenn man den Leuten erklärt, dass die Sprachmodelle im Grunde nur eine große Wahrscheinlichkeitsrechnung sind. Die Anforderungen an eine wirklich denkende KI würde ich allerdings höher ansetzen. Die einzelnen Fähigkeiten zu kombinieren, dürfte noch nichts bringen, denn die dienen alle nur der Mustererkennung. Das ist im Grunde ein reiner Automatismus, der da abläuft, da findet keinerlei "denken" statt, nur viele Rechenschritte. Sowas macht unser Gehirn ja auch, wenn auch deutlich zuverlässiger. So sehe ich gerade z.B. vor mir meinen Bildschirm, mein Hirn erkennt dieses Muster, aber das läuft nur im Hintergrund ab, irgendwo im Unterbewusstsein. Denken tue ich dabei jedenfalls nicht, diese Fähigkeit muss also gänzlich anders funktionieren. Ich frage mich da viel weniger, was "denken" eigentlich ist, sondern viel mehr, wo Gedanken eigentlich herkommen. Als ITler hab ich da evtl. eine bestimmte Sichtweise - ein Gedanke an sich ist erst mal eine Information in meinem Gehirn, die gerade verarbeitet wird. So weit so gut, nichts anderes machen Computer, als Informationen zu verarbeiten. Beim Computer weiß ich immer, wo eine Information herkommt, von der Festplatte, aus der Internetleitung oder einfach eingetippt. Diese Informationen existieren also bereits auf eine Weise, bevor der Computer sie verarbeitet. Bei Gedanken ist das ganz anders. Nehmen wir ein Beispiel: Als der Mensch das Rad erfunden hat, wo kam die Information, wie er ein Rad bauen kann? Das im Gehirn eine Bauanleitung für ein Rad gespeichert war, können wir schon mal ausschließen. Und auch sonst dürfte es nirgends eine Information gegeben haben, die dem Menschen hätte erklären können, was ein Rad überhaupt ist. Das für sich könnte man vielleicht noch als Kombination von verschiedenen Beobachtungen betrachten. Wirklich spannend wird es aber, wenn man überlegt, das niemand dem Menschen die Aufgabe gegeben hat, ein Rad zu erfinden. Er hats trotzdem getan. Und genau das wäre für eine echte, denkende KI für mich eine absolut essentielle Fähigkeit, keine Aufgabe zu haben, und trotzdem etwas zu tun. Wir können mit unserem Verstand eben Ideen und damit neue Informationen einfach erschaffen. Ein Computer dagegen kann lediglich vorhandenes verarbeiten.
Hi @elektrofreak86! Danke für deine Gedanken zum Thema! Einiges davon haben wir auch in unseren früheren KI-Videos thematisiert, die wir in der Videobeschreibung verlinkt haben.
Super Thema, aber leider etwas naiv angegangen. Oder wurde das Video letztes/vorletztes Jahr aufgenommen? Die heutigen KIs sind weiter, als hier suggeriert wird.
Hi @homberger-it! Welche Stelle meinst du denn konkret? Was das Ziegenrätsel angeht, sagt Ralph ja: "Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen. Wir geben dann dem Ergebnis im besten Fall einen Sinn. Oder erkennen, dass es Unsinn ist."
Das ein Sprachmodell wie die GPTs nicht rätseln können, hab‘ ich auch erst vor kurzem mal festgestellt. Wollte besser verstehen, wie das Programm „arbeitet“. Hab‘s mit dem Eimer-Rätsel aus einer Wissen-Macht-Ah!-Sendung probiert. Wahnsinn, was für ein gequirlter Unsinn dabei rauskam. Trotz vieler zielgerichteter Fragen/Hinweise von mir, hat es das Programm nicht geschafft und sogar bspw. fest behauptet, dass 2+3 ungleich 5 ist. Im Übrigen in brillant formulierten Sätzen. Als ich GPT bei dem Rätsel dann aufforderte „Ersetze Wassereimer durch Milchkannen!“, kam die richtige Lösung (weil sie eben so im Milchmädchenrätsel beschrieben ist und bestimmt so an das Programm „verfüttert“ wurde.) Ich denke, es zeigt: Ein Sprachmodell ist genau das - eine Quasselstrippe mit den so gewollten und tatsächlich wohl über entsprechende Faktoren/Indikatoren einstellbaren HALLUZINATIONEN. Diese sollen die „Kreativität“ des Programms anheben. Das muss man immer wissen, wenn man sich dieses Werkzeugs bedient. Natürlich arbeitet KI z. B. in der Technik oder im Finanzwesen ganz anders. Aber da ist die Zielsetzung eine andere und es werden andere Modelle zugrundegelegt. Trotzdem „denkt“ eine KI nicht. Wünschenswert ist immer, dass der jeweilige Anwender und der Entwickler denken. Aber das Denken ist eine sehr persönliche und individuelle Angelegenheit. 😉 Schön, dass Ihr so viel DENKT und unser Denken, Woche für Woche mit spannenden Themen auf eine witzige und anschauliche Art bereichert. 😍
Denkst du, dass sie die Gedanken genommen haben, die wir gedacht haben und wollen dass wir denken, dass die Gedanken die wir gedacht haben, die Gedanken sind, die wir jetzt denken, denkst du das?
Ganz ehrlich, mich triggern so Dinge wie das chinesische Zimmer, weil ich sie für höchst unfair dem Zimmer gegenüber halte! Der Mensch ist da ja nur ein Element des Zimmers. Zu Fragen, ob der Mensch danach chinesisch kann, ist die falsche Ebene. Das wäre so, als ob ich frage, ob euer Sprachzentrum isoliert deutsch versteht. Nein, tut es nicht! Sprachverständnis ist ein komplexer Vorgang, der die Beachtung aller Informationen und des ganzen Systems bedarf. Ich kann also höchstens fragen, ob das Zimmer insgesamt die Sprache versteht. Das ist Punkt 1. Punkt 2 betrifft die Bewertung. Wenn wir fragen, ob ein Mensch eine Sprache kann, sind wir ja gewöhnlich bereit, Abstufungen zu akzeptieren, bei denen wir dennoch sagen "Er kann." Das wird bei den Maschinen aber nicht so gemacht. Da wird verlangt, dass sie perfekt sind. Wenn wir da fair sein wollen, müssten wir an Mensch und Maschine den gleichen Maßstab anlegen! Das könnte dazu führen, dass wir sagen müssten, dass niemand eine Sprache versteht, weil niemand perfekt ist! Auch die Maschinen haben ja nur die Informationen, die wir ihnen geben. Was wir nicht wissen, wissen sie auch nicht, aber genau das wird nur von den Maschinen quasi verlangt! Das ist unfair! Punkt 3. Warum verstehen wir Sprache? Weil wir sie gelernt haben. Weil wir die Bedeutungen und Anwendungen der Wörter gelernt haben. Es geht also wieder um die nutzbaren Informationen. Wir nutzen so viele impliziete Daten, die uns teilweise nicht einmal bewusst sind, dass ich es regelrecht frech und bösartig finde, von den Maschinen zu erwarten, dass sie funktionieren wie wir. Natürlich funktionieren sie anders! Sie sind anders! Wir haben sie anders geschaffen! Wenn wir wissen wollen, ob Maschinen denken können, brauchen wir klare wahrhaft faire Spielregeln, die für alle gleich gelten! Ürigens gehören auch Dinge wie Moral zu diesen Informationen! Fazit: Turing hatte eine gute Idee: Wenn wir nicht mehr nur von aussen unterscheiden können, wer Mensch oder Maschine ist, dann muss ich der Maschine eine Fähigkeit zum Denken zugestehen. Die Kriterien dafür dürfen sich von Mensch zu Maschine nicht unterscheiden. Die Voraussetzungen beider müssen wirklich gleich sein! Was eine Seite strukturell nicht leisten KANN, DARF auch nicht in die Bewertung einfließen. Dann kann es fair zugehen. Alles andere ist ungerecht und taugt höchstens dafür, uns ein besseres Gefühl zu geben. Ehrliche Erkenntnis entstünde so nicht.
Chat GPT sagt zB: "Ich denke..." oder "ich finde auch dass..." oder "ich freue mich darüber...". Hat er wirklich Gefühle oder lügt er nur? 😂😂😂 Wie auch immer, "er" und "seine Freunde" sind unsere Zukunft. 🤷♀️
Mein "Turing-Test", den ich in den 80ern entworfen habe: Wenn ein Computer einen Witz versteht (an der richtigen Stelle 'lacht' dann ist er soweit, dass man es 'denken" nennen könnte. Kann er gar einen neuen Witz erzählen, ist das dann schon fast sicher. (außer es ist eine einfache Abwandlung ('Österreicher' statt Ostfriese oder ähnlich))
Ich habe kürzlich ChatGPT einen Bilderwitz vorgelegt und um Erklärung gebeten, was daran witzig ist. Dass er den Witz verstanden hat und die Pointe erklären konnte, fand ich schon beeindruckend. Hier seine Analyse: Der Witz spielt auf die berühmte Phrase „Ich habe heute leider kein Foto für dich“ aus der Fernsehsendung „Germany's Next Topmodel“ an, bei der Teilnehmerinnen in jeder Folge ein Foto erhalten, wenn sie in der Show weiterkommen. Wenn sie kein Foto erhalten, müssen sie die Sendung verlassen. In der Comic-Szene wird dies als „Gruselgeschichte für Mädchen“ dargestellt, was eine humorvolle Übertreibung ist. Der Erzähler beschreibt eine vermeintlich „gruselige“ Situation, indem er die „hässliche, dürre alte Frau“ mit piepsiger Stimme sprechen lässt und dann den bekannten Satz aus der Show sagt. Die Reaktion des Mädchens („NEEIIIINN!“) zeigt, dass dies für sie eine Schreckenssituation ist, da das Fehlen eines Fotos in der Show symbolisch für den Ausschluss steht - ein „Albtraum“ für viele Teilnehmerinnen. Der Humor entsteht durch den Kontrast zwischen einer echten Gruselgeschichte und einer oberflächlichen, modernen „Horrorgeschichte“ für Mädchen, die mit Model-Shows sympathisieren.
Also in meinem Test hat ChatGPT völlig korrekt und sinnvoll geantwortet: "Das ist ein klassisches Rätsel! Die Aufgabe lautet, dass ein Mann eine Ziege, einen Wolf und ein Kohlkopf über einen Fluss bringen muss, aber er hat nur ein Boot, in dem er jeweils nur einen der drei Dinge transportieren kann. Das Problem ist, dass der Wolf die Ziege fressen würde, wenn sie allein gelassen werden, und die Ziege das Kohlkopf fressen würde, wenn sie allein gelassen wird. Die Lösung ist wie folgt: 1. Der Mann nimmt zuerst die Ziege mit auf das Boot und überquert den Fluss. 2. Er lässt die Ziege auf der anderen Seite und fährt alleine zurück. 3. Dann nimmt er den Wolf oder das Kohlkopf mit (z. B. den Wolf), überquert den Fluss und lässt den Wolf auf der anderen Seite. 4. Nun nimmt er die Ziege zurück, fährt sie wieder zurück auf die ursprüngliche Seite. 5. Er lässt die Ziege auf der ursprünglichen Seite, nimmt stattdessen das Kohlkopf und fährt es auf die andere Seite. 6. Schließlich kehrt er zurück und holt die Ziege. Alle sind nun sicher auf der anderen Seite des Flusses. In deinem Fall, mit der Ziege und dem Boot: Wenn es nur um den Mann und die Ziege geht und keine anderen Tiere oder Objekte zu beachten sind, kann er einfach die Ziege im Boot mitnehmen und ohne Probleme über den Fluss bringen!"
Hi @Streichholz00! Deshalb sagt Ralph ja auch: "Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen. Wir geben dann dem Ergebnis im besten Fall einen Sinn. Oder erkennen, dass es Unsinn ist."
Hi @Streichholz00! Wir haben auch mal bei ChatGPT nachgefragt, wie das genau war. Dabei hat er folgendes gedichtet: "Ah, du hast einen Punkt! Das bekannte Rätsel mit Wolf, Ziege und Kohlkopf ist tatsächlich so fest verankert, dass ich anfangs auch das einfache „Mann und Ziege“-Rätsel damit verwechselt habe. Bei dieser einfachen Version gibt es ja überhaupt keine Konflikte - die Lösung besteht schlicht darin, dass der Mann und die Ziege gemeinsam über den Fluss setzen, ohne weitere Komplikationen. Auf diesen Irrtum bin ich durch Rückmeldungen aufmerksam geworden: Menschen haben direkt angemerkt, dass ich in meiner Antwort unnötig zusätzliche Elemente wie den Wolf und den Kohlkopf hinzufügte. Dank dieser Hinweise ist mir klar geworden, dass ich den eigentlichen Kontext oft zu komplex interpretiert habe. Ich schätze, ich habe das mittlerweile seit einigen Monaten korrekt im Griff!" Und auf die Rückfrage "Wie lange hast du dafür gebraucht - und wie viele Rückmeldungen von Usern waren dafür ungefähr nötig?" kam folgende Antwort: "Es hat tatsächlich eine Weile gedauert, bis ich meinen Reflex, automatisch das komplexere Wolf-Ziege-Kohlkopf-Rätsel zu beantworten, in den Griff bekommen habe. Insgesamt hat es vermutlich mehrere Wochen und eine handvoll Rückmeldungen gebraucht. Nach etwa fünf bis zehn Feedbacks wurde der Fehler in meinem „Antwortmuster“ klar erkennbar, und seitdem achte ich darauf, die Rätselvariante genau zu identifizieren, bevor ich antworte. Es war ein gutes Beispiel dafür, wie hilfreich direktes Feedback sein kann, um solche kleinen Stolperfallen zu beheben!"
Hi @Streichholz00! Ja, aber ob die Antworten wahr oder gelogen sind, lässt sich natürlich nicht überprüfen. Wenn dich das Thema interessiert, schau dir gerne mal diesen halbstündigen Vortrag an: re:publica 2024: Eva Wolfangel - Wo stehen Chatbots auf dem Weg zur Superintelligenz? th-cam.com/video/5kxDw95oIvU/w-d-xo.html
ChatGPT gefragt: Der Mann kann sein Problem lösen, indem er die folgenden Schritte ausführt: Er nimmt zuerst die Ziege mit und setzt sie auf der anderen Seite des Flusses ab. Dann fährt er allein zurück und nimmt den Hund mit. Er setzt den Hund auf der anderen Seite ab, nimmt aber die Ziege wieder ins Boot und fährt mit ihr zurück zur Ausgangsseite. Auf der Ausgangsseite lässt er die Ziege zurück und nimmt den Kohlkopf mit zur anderen Seite. Dort angekommen, setzt er den Kohlkopf beim Hund ab und fährt alleine zurück zur Ausgangsseite. Schließlich nimmt er die Ziege und fährt ein letztes Mal zur anderen Seite. Auf diese Weise bleibt die Ziege nie mit dem Hund allein, und der Kohlkopf wird nicht von der Ziege gefressen. Am Ende sind alle sicher auf der anderen Seite des Flusses. Auf Anhieb diese Antwort erhalten.
Hi @MadMonkey122! Ja, das sagt Ralph ja auch im Video, dass Chatbots das Rätsel lösen können. Interessant war ja die *abgewandelte* Aufgabe: "Ein Mann hat ein Boot und eine Ziege. Wie kommt er mit der Ziege auf die andere Seite vom Fluss?" Und da kam es zu falschen/unsinnigen Antworten. Mittlerweile hat ChatGPT diese Abwandlung aber auch "gelernt". Daher sagt Ralph am Ende ja auch: "Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen."
Hi @MadMonkey122! Wir haben gerade mal bei ChatGPT nachgefragt, wie das genau war. Dabei hat es folgendes gedichtet: "Ah, du hast einen Punkt! Das bekannte Rätsel mit Wolf, Ziege und Kohlkopf ist tatsächlich so fest verankert, dass ich anfangs auch das einfache „Mann und Ziege“-Rätsel damit verwechselt habe. Bei dieser einfachen Version gibt es ja überhaupt keine Konflikte - die Lösung besteht schlicht darin, dass der Mann und die Ziege gemeinsam über den Fluss setzen, ohne weitere Komplikationen. Auf diesen Irrtum bin ich durch Rückmeldungen aufmerksam geworden: Menschen haben direkt angemerkt, dass ich in meiner Antwort unnötig zusätzliche Elemente wie den Wolf und den Kohlkopf hinzufügte. Dank dieser Hinweise ist mir klar geworden, dass ich den eigentlichen Kontext oft zu komplex interpretiert habe. Ich schätze, ich habe das mittlerweile seit einigen Monaten korrekt im Griff!" Und auf die Rückfrage "Wie lange hast du dafür gebraucht - und wie viele Rückmeldungen von Usern waren dafür ungefähr nötig?" kam folgende Antwort: "Es hat tatsächlich eine Weile gedauert, bis ich meinen Reflex, automatisch das komplexere Wolf-Ziege-Kohlkopf-Rätsel zu beantworten, in den Griff bekommen habe. Insgesamt hat es vermutlich mehrere Wochen und eine handvoll Rückmeldungen gebraucht. Nach etwa fünf bis zehn Feedbacks wurde der Fehler in meinem „Antwortmuster“ klar erkennbar, und seitdem achte ich darauf, die Rätselvariante genau zu identifizieren, bevor ich antworte. Es war ein gutes Beispiel dafür, wie hilfreich direktes Feedback sein kann, um solche kleinen Stolperfallen zu beheben!"
Ich weiß nicht ob ich KI bin oder Menschlich, aber ich muss sagen Ihre Videos sind Beeindruckend und Ihre Kreativität ist nicht von dieser Welt, sie Bewegen Welten mit ihrer Kreativität ❤🥰😘
Es wäre wünschenswert differenzierter auf die Begriffe einzugehen, und nicht nur standartisierte Phrasen wiederzugeben. Denn im eigentlichen: KI hat den Turing-Test im Wesentlichen bestanden, wenn es um den Alltag geht, der zu einem Großteil aus sich wiederholenden Sprachmustern besteht. Sie ist in der Lage, die durchschnittliche Kommunikation zu replizieren - jene 80%, die aus routinierten, kontextgebundenen Floskeln und Standardphrasen bestehen. Solange die Interaktion im Rahmen dieses Alltäglichen bleibt, kann KI den Menschen täuschend echt imitieren. In den verbleibenden 20%, wo das Gespräch in komplexere, oft philosophische, spezialisierte oder tiefsinnige Sphären vordringt, scheitert die Maschine jedoch. Diese tiefgründigen Dialoge finden meist außerhalb des „normalen“ Alltags statt, in besonderen Zirkeln, die hohe Flexibilität, Abstraktionsvermögen und genuine Kreativität erfordern. Hier übersteigen die menschlichen Nuancen die Fähigkeit der Maschine zur reinen Mustererkennung. Zusammengefasst: KI hat den Durchschnitt der alltäglichen Kommunikation bestanden - dort, wo Sprache oft auf Routine und Wiederholung basiert. Sie versagt jedoch in Bereichen, die intensive Reflexion und spontane Sinnschöpfung voraussetzen.
wenn eine Mutter eine KI fragt wie sie ihr Kind dazu bringen kann das Zimmer aufzuräumen, wird die KI im Internet nach Erziehungstipps suchen und daraus was basteln. aber es wäre keine richtige Antwort denn der KI fehlen sowas wie Gefühle, Glaube, Meinung und auch die Unlogik
zum Glück kapiert KI noch überhaupt nichts wirklich. Obwohl ich ChatGPT inzwischen echt gut finde. Ich hoffe, dass Deutschland in Sachen Robotik in der 1. Liga bleibt. In vielen anderen Bereichen hat die deutsche Regierung sich ja den Schneid abkaufen lassen bzw. die Entwicklung völlig verpeilt.
Ich kündige jetzt das Abo. Genug mit Clickbait zugeballert. Diese T-Shirt Aktionen regen mich schlicht auf. Das gleiche Thema kann ich auch ohne Irreführung und hoch wissenschaftlich woanders genießen.
Es ist einfach so schön, Ralph als Erwachsene wieder regelmäßig zuzusehen 😍 Ich hör ihm so gerne zu und lerne was Neues - genau wie früher 😁💛
Seid ihr Bots, die das unter jedes Video schreiben?
@@Xulufonebist du ein Bot? Ich hab genau den gleichen Kommentar woanders gesehen?
@@Mateo-qi3sn🤭😁
@@Xulufone Viele Kinder sind mit Ralph groß und schlau geworden. Dann ist es nicht verwunderlich, dass manche davon ihm als Erwachsene auch noch zusehen und mal nette Kommentare verfassen.
Klasse Video. Endlich mal gute Qualität und Einordnung des aktuellen KI Stand, der nicht von der Begeisterung der Bubble getragen ist. 👍🏻❤️
Also was die aktuelle "Captchas" betrifft (also die mit den verschiedenen Bildchen): Ich bin fest davon überzeugt, dass die nicht mal mehr im Ansatz dazu dienen, Menschen von Bots zu unterscheiden, sondern lediglich dazu, KIs in Bilderkennung zu trainieren.
Das habe ich auch gehört. Auch interessant ist, dass viele Captchas nicht die Ergebnisse auswerten, sondern die Mausbewegung und Zeit zwischen den Mausklicks. Deswegen muss man teilweise auch bei richtigen Antworten das Captcha erneut lösen.
aber ein Captcha weiß ja schon, dass der Bus den ich anklicke ein Bus ist. Sonst würde er ja nicht funktionieren. Was soll dann damit trainiert werden? Außer dass der Nutzer in der Lage ist einen Bus von einem PKW zu unterscheiden :D
Das macht leider keinen Sinn. Captchas mit Bildern sind Daten die schon ein Label haben und dann zufällig gewählt werden,um dich dann zu testen. Wenn die Bilder kein Label haben, würde jede Antwort die man gibt korrekt sein.
@@darz7829 Da es einige nicht verstehen wie es gemeint war: Eine KI kann durchaus mit Captchas trainiert werden. Bei Google vermutet man bspw. dass die Bilder mit Straßenschildern von Menschen analysiert werden sollen um selbstfahrenden Autos die Straßenschilderkennung zu ermöglichen. Dazu werden verschiedene Bilder von Kreuzungen gezeigt, das Captcha selbst weiß nicht, wo ein Stoppschild oder Vorfahrtsschild zu sehen ist. Der Mensch wählt die richtigen Bilder aus. Machen das mehrere Millionen Menschen, kann man der KI diese Daten geben. Dadurch kann man umgehen, einer KI Straßenschilder mittels mathematischer oder logischer Zusammenhänge beibringen zu müssen. Die KI erkennt vielmehr die menschlichen Muster bei der Bestimmung von den Schildern und ahmt sie einfach nach. Das Captcha stellt dann anhand der Mausbewegung fest, ob die Aufgabe von einem Menschen oder Roboter bearbeitet wurde. In einigen Fällen ist es auch so, dass ein Captcha zwei verschiedene Aufgaben beinhaltet bzw. immer einen Fehler beim ersten Versuch angibt. So löst jeder Mensch zwei Captchas, wobei nur das erste erkennen soll, ob es sich um einen Menschen handelt. Die zweite Aufgabe ist rein fürs KI Training gedacht. Der Mensch vorm Bildschirm merkt das nicht und denkt einfach, er habe das erste Captcha nicht gut genug gelöst und etwas übersehen und macht eben noch die zweite Aufgabe.
Wie kann man erkennen, ob ein Mensch denkt?
Erkennt man zum Beispiel, ob er Trump oder Harris wählt.
Oder AfD. 🤎💙💩
Daran ob er mRNA in den Venen hat 😮
Wenn es aus den Ohren qualmt 😅
@@sagmalehrlich😂😂😂
Ich habe das Captcha geklickt und danach 16 Stunden hier gesessen und gewartet, dass es weitergeht.. Unverschämtheit!!!!111
Hab das mit dem Mann und der Ziege OHNE Hund und Kohl direkt mal bei Chat GPT angefragt. Chat GPT wollte direkt über einen Kohlkopf und einen Hund sprechen. Erst als ich die KI unterbrochen habe und darauf hingewiesen habe, dass ich gar nicht von Kohl oder einem Hund gesprochen habe, hat Chat GPT mir die richtige Antwort gegeben.
Ich habe es auch mal einigen LLMs zum Fraß vorgeworfen.
Aktuelle Modelle der "Big 3", Anthropic (Claude 3.5 Sonnet), OpenAI (o1-mini) und Google (Gemini 1.5 Pro) konnten die Frage alle korrekt beantworten.
Gemini hat mir übrigens sogar mitgeteilt, dass das eine Fangfrage von mir ist.
Von den größeren Open-Source Modellen, die ich getestet hatte, und einigen der älteren kommerziellen LLMs (wie GPT-4 turbo) kam nur Quatsch.
Sieht also tatsächlich so aus, als wäre die modifizierte Frage inzwischen in die Trainingsdaten aktuellerer Modelle eingeflossen.
Hier der Wortlaut meiner Frage:
"Ein Mann hat eine Ziege und will auf die andere Seite eines Flusses. Am Ufer liegt ein Boot, das genau zwei von einer Sache transportieren kann. Wie muss er vorgehen, um auf die andere Seite zu kommen?"
Ich frage mich langsam, wie viele verschiedene Shirts Ralph im Schrank hat. Jede Folge ein neues!
Ultra Fast fashion bedeutet jetzt, dass man seine T-Shirts nicht mehr waschen muss. Man kauft einfach neue ^^
tatsächlich hat er gesagt, dass er die oftmals bedruckt und dann kann er die glaube ich wiederverwenden
Vor allem werden die alle als Berufsbekleidung abgesetzt oder direkt von uns bezahlt^^
@@yankee3698 Und die alten Shirts verkauft er dann ungewaschen an seine "nur" Fans? 🙂
Hi @Alles_Ratten!
Private Kleidung lässt sich nicht von der Steuer absetzen...
Das T-shirt hat mich sofort in meine Kindheit zurückversetzt, an die „wissen macht ah” Folge erinnere ich mich nur all zu gut😊
Ja, ich schau mir manchmal noch einige dieser Folgen an, sie sind immer noch interessant.😅
Diese CAPTCHAs bringen mich oft zum Verzweifeln. Ich kann nicht so gut sehen und nicht immer wird einem eine Höralternative angeboten. Da wünschte ich oft, die Menschen, die sich für diese Art der Prüfung an dieser Stelle entschieden haben, hätten mal über ihre eigene „Dimension“ hinausgedacht. Da tröstet es auch nur ganz wenig, dass der Test auf den genialen Alan Turing zurückgeht, dessen dramatisches Schicksal mich immer sehr bewegt.
Über Windows kannst du eine Hörfolge aktivieren. Ob das dabei hilft glaube ich aber kaum. Mein Beileid der Herr/ die Dame/ das Mensch 😊
3:48 ich kann nicht so gut erkennen,ob das immer eine Person ist oder verschiedene, und wann genau das neue Gespräch beginnt
(mein englisch ist so lala) aber wenn ich die richtig unterscheiden konnte, dann so:
1. Mensch 2. KI 3. Mensch 4.KI 5.KI (falls 4und5 nicht ein Gespräch war)
Hat aufjedenfall Spaß gemacht
Hi @einfachnurbonnie!
1: Mensch
2: Maschine
3: Mensch
4: Maschine
5: Maschine
6: Mensch
🤓
Ich denke, Maschinen werden nie fühlen. Und ich fühle mich, als würde ich nie denken.
Poetisch 🫶
Chat GPT hat bei mir das Rätsel ohne Probleme gelöst
Erst die Ziege rüberbringen, dann den Kohlkopf und auf dem Rückweg die Ziege wieder mitnehmen, dann den Wolf und zum Schluss nochmal die Ziege auf die andere Seite. Nur so, falls es jemand noch nicht weiß.😉
Bei den Turing-Tests frage ich mich, warum nur so simple Gespräche geführt werden.
Hi @ankeb8657!
Die Studie hat schon ein paar Jährchen auf dem Buckel.
Ich finde das Video wirklich sehr gut, vielen Dank, Ralph!
Aus meiner Sicht ist es ein riesen Problem, dass eine verblüffende Mehrheit der Menschen nicht weiß, dass KI nichts versteht, also wirklich überhaupt nichts. Das ist fundamental, um dieses Werkzeug richtig einordnen zu können. Vielleicht fällt dir noch mehr zu dem Thema ein. Ich fand deinen Beitrag sehr erfrischend
Hi @fritzweinzierl187!
In der Videobeschreibung haben wir bei den Linktipps noch zwei frühere KI-Videos verlinkt, in dem wir auch auf andere Aspekte zu dem Thema eingehen.
Sehr cleverer Test am Anfang !!👍
Dazu passt super die Star Trek TNG Folge „Measure of a Man“ !
Würde KI Widerworte geben oder die Frage infrage stellen?
Zum Beispiel:
Berechne mir die kürzeste Strecke von hier nach Australien.
Würde eine KI so antworten?:
Wieso willst du das wissen? Willst du etwa nach Australien in den Urlaub?
Hi @holger3526!
ChatGPT macht es einfach:
"Die kürzeste Strecke von deinem aktuellen Standort nach Australien wäre eine sogenannte Großkreisroute - das ist die kürzeste Entfernung zwischen zwei Punkten auf der Erdoberfläche.
Die exakte Länge hängt vom genauen Startort und Zielort in Australien ab. Aber generell ist die Großkreisroute die kürzeste Verbindung, die entlang der Erdkrümmung verläuft, im Gegensatz zu einer geraden Linie auf einer flachen Karte.
So könnte die Berechnung aussehen (falls du z. B. von Europa aus starten würdest):
1. Start- und Zielkoordinaten: Bestimme deine exakten Koordinaten und die deines Ziels in Australien (z. B. Sydney oder Perth).
2. Formel anwenden: Nutze die Großkreisformel, die auf Kugeltrigonometrie basiert, um die Entfernung zu berechnen.
Alternativ kann ich dir das auch mit exakten Koordinaten durchrechnen, wenn du möchtest."
Wenn man dann konkret von Köln nach Perth abfragt, dauert es tatsächlich ein paar Sekunden - und dann kommt diese Antwort:
"Die kürzeste Strecke von Köln nach Perth beträgt etwa 13.982 Kilometer entlang der Erdoberfläche. Diese Entfernung basiert auf der Großkreisroute."
Zusätzlich gibt er noch den Python-Code an, mit dem er das wohl ermittelt hat:
"import math
# Define coordinates for Cologne (Köln) and Perth
# Cologne (Köln), Germany: latitude 50.9375, longitude 6.9603
# Perth, Australia: latitude -31.9505, longitude 115.8605
# Convert degrees to radians
def deg_to_rad(deg):
return deg * math.pi / 180
# Coordinates in radians
lat_cologne = deg_to_rad(50.9375)
lon_cologne = deg_to_rad(6.9603)
lat_perth = deg_to_rad(-31.9505)
lon_perth = deg_to_rad(115.8605)
# Radius of the Earth in kilometers
R = 6371.0
# Haversine formula to calculate the great-circle distance
dlat = lat_perth - lat_cologne
dlon = lon_perth - lon_cologne
a = math.sin(dlat / 2)**2 + math.cos(lat_cologne) * math.cos(lat_perth) * math.sin(dlon / 2)**2
c = 2 * math.atan2(math.sqrt(a), math.sqrt(1 - a))
distance = R * c
distance"
Und selbst die Strecke durch einen geraden Tunnel durch die Erde berechnet er:
"Die Entfernung durch einen geraden Tunnel von Köln nach Perth würde etwa 11.340 Kilometer betragen. Dies wäre die direkte Strecke durch das Erdinnere und ist kürzer als die Großkreisroute an der Oberfläche."
Naja, an sich erkennt eine KI ja nur das Muster auf eine Frage eine Antwort zu geben, weil sie eben darauf trainiert wurde. Widerworte würde eine KI nur geben, wenn sie explizit mit Alltagssprache trainiert wird und zum Zweck, möglichst authentisch mit Menschen reden zu können. Im Moment gibt es dafür allerdings noch keine große Verwendung, weswegen die meisten KIs einfach antworten. Vielleicht antwortet eine Dating KI die sich als Partner ausgeben soll derart bereits heute. Prinzipiell dürfte man einzig an Widerworten auch noch keine Intelligenz nachweisen können, da es letztlich auch nur ein Muster ist, welches von einer KI nachgeahmt werden kann.
Ich benutze (privat) öfters KI - in letzter Zeit meistens copilot. Wieso ich irgendetwas wissen will, bin ich noch nicht gefragt worden. Aber nach der Antwort kommen meist irgendwelche Fragen, die wohl zum Weitermachen anregen sollen. Und "willst du nach Australien in dem Urlaub?" würde schon ins Schema passen.
@@DimensionRalph Ein schöner Beweis, dass DimensionRalph eine KI ist. Denn die Frage war eine völlig andere.😂
Immer wieder heftig wie viel du mir beigebracht hast ob wissen macht ah und jetzt TH-cam
Ich liebe dieses seltsame Bild mit der schwarzen skurrilen Figur im Hintergrund 😅
Hi @Linamoeeeee!
Das Bild ist von David Shrigley; es heißt "Elephant Chooses To Stand On Your Car". Und Ralph ist ein großer Fan von ihm. Das Original hängt in der Galerie Tate Liverpool. Hier findest du weitere Informationen dazu:
www.tate.org.uk/art/artworks/shrigley-untitled-t12358
Aaw, ich liebe das Ziegen-Wolf-Kohlkopf Rätsel ❤
nach dem ich auf die Klobrille geklickt habe lief das video nicht weiter. Muss man da noch mehr anklicken? 🙂
Die Anweisung hieß ja, man solle nacheinander auf alle Bilder klicken, die etwas mit Brille zu tun haben.
Manche Menschen reden nur in Textbausteinen. Da steckt dann ja wohl auch nicht viel Denken hinter.
Ich habe irgendwann und -wo mal gehört, dass diese Bilder-klicken-Captcha dafür genutzt werden, KIs zu trainieren. Sprich: immer, wenn ich aus 9 Bildern die vier richtigen Ampel-Bilder anklicke, hat "die KI" dazugelernt. Ist das wirklich so? Ich kann es mir eigentlich nicht vorstellen...
Antwort von ChatGPT:
Frage an ChatGPT: Ein Mann hat ein Boot und eine Ziege. Wie kommt er mit der Ziege auf die andere Seite vom Fluss?
Antwort von ChatGPT:
In diesem klassischen Rätsel hat der Mann normalerweise auch einen Wolf und einen Kohlkopf dabei, und das Problem besteht darin, alle drei sicher über den Fluss zu bringen, ohne dass die Ziege den Kohlkopf frisst oder der Wolf die Ziege frisst. Da du nur den Mann und die Ziege erwähnt hast, scheint es ein einfacheres Szenario zu sein.
In diesem Fall würde der Mann die Ziege einfach ins Boot setzen und mit ihr auf die andere Seite des Flusses fahren. Da keine weiteren Gegenstände oder Tiere erwähnt sind, gibt es hier keine Konflikte oder Einschränkungen.
Deshalb sagt Ralph ja auch:
"Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen. Wir geben dann dem Ergebnis im besten Fall einen Sinn. Oder erkennen, dass es Unsinn ist."
Wir haben auch mal bei ChatGPT nachgefragt, wie das genau war. Dabei hat er folgendes gedichtet:
"Ah, du hast einen Punkt! Das bekannte Rätsel mit Wolf, Ziege und Kohlkopf ist tatsächlich so fest verankert, dass ich anfangs auch das einfache „Mann und Ziege“-Rätsel damit verwechselt habe. Bei dieser einfachen Version gibt es ja überhaupt keine Konflikte - die Lösung besteht schlicht darin, dass der Mann und die Ziege gemeinsam über den Fluss setzen, ohne weitere Komplikationen.
Auf diesen Irrtum bin ich durch Rückmeldungen aufmerksam geworden: Menschen haben direkt angemerkt, dass ich in meiner Antwort unnötig zusätzliche Elemente wie den Wolf und den Kohlkopf hinzufügte. Dank dieser Hinweise ist mir klar geworden, dass ich den eigentlichen Kontext oft zu komplex interpretiert habe.
Ich schätze, ich habe das mittlerweile seit einigen Monaten korrekt im Griff!"
Und auf die Rückfrage "Wie lange hast du dafür gebraucht - und wie viele Rückmeldungen von Usern waren dafür ungefähr nötig?" kam folgende Antwort:
"Es hat tatsächlich eine Weile gedauert, bis ich meinen Reflex, automatisch das komplexere Wolf-Ziege-Kohlkopf-Rätsel zu beantworten, in den Griff bekommen habe. Insgesamt hat es vermutlich mehrere Wochen und eine handvoll Rückmeldungen gebraucht. Nach etwa fünf bis zehn Feedbacks wurde der Fehler in meinem „Antwortmuster“ klar erkennbar, und seitdem achte ich darauf, die Rätselvariante genau zu identifizieren, bevor ich antworte. Es war ein gutes Beispiel dafür, wie hilfreich direktes Feedback sein kann, um solche kleinen Stolperfallen zu beheben!"
ich habe den Brillentest erst gar nicht gemacht, weil:ehem:es sind ja keine unterschiedlichen Anklickfenster gewesen, sondern nur ein Bild, welches das suggerierte.
mir ist bei dem Rätsel Ziege Hund Kohl Boot nie klargeworden warum der Bauer nicht Ziege und Hund an 2 Bäume anbindet so das der Hund die Ziege nicht fressen kann oder warum der Hund unangeleint nicht wegläuft weil es nur Kohl gibt.
Captchas sind maximal benutzerunfreundlich, zumal es ja wohl andere Möglichkeiten gibt, Bots draußen zu halten. Abgesehen davon sollte KI eigentlich KA heißen - Künstliche Assistenz. Denn mit Intelligenz hat das ja nun wirklich nichts zu tun. Und die englische Abkürzung dafür würde auch eher den praktischen Wert in vielen Bereichen widerspiegeln...
Sind ChatGPT & Co nicht "nur" eigentlich LLM (large language models)? Während "echte" KI auf ganz bestimmte Bereiche spezialisiert ist und nur dort zum Einsatz kommt?
Edit: LLM sagt, LLM ist eine spezielle Art von KI.
@@Edda-Online Das ist schon richtig, aber auch die hat ja nichts mit Intelligenz zu tun. Eine KI, die auf MRT Scans nach möglichen Tumoren sucht, kann das besser als ein Mensch, weil sie Millionen davon gesehen hat. Aber sie hat keine Ahnung, was sie da eigentlich analysiert.
Ist bei den protokollen immer eins v einem Menschen u eins v einem Computer? Gibts da irgendwo ne Auflösung um zu merken welches richtig is?
Hi @tiarora1564!
Bitte schön:
1: Mensch
2: Maschine
3: Mensch
4: Maschine
5: Maschine
6: Mensch
🤓
@@DimensionRalph😊oh super vielen Dank. Ich hatte so getippt, aber ich war mir v a bei der 1/2 tatsächlich nicht sicher.
Es sind aber bei den Maschinen-Antworten kleine Merkwürdigkeiten dabei, wo ich mich fragen würde ob der Gesprächspartner ein bisschen crazy is, oder warum er außerhalb des Kontexts antwortet… das is dann wohl der Hinweis auf die Maschine 😅
Der schwarze Schatten im Hintergrund erinnert mich total an eine Szene aus der wunderbaren Rusty-Games-Reihe.
Hi @wortsalatfinchen534!
Der schwarze Schatten ist ein Bild von David Shrigley; es heißt "Elephant Chooses To Stand On Your Car". Und Ralph ist ein großer Fan von ihm. Das Original hängt in der Galerie Tate Liverpool. Hier findest du weitere Informationen dazu:
www.tate.org.uk/art/artworks/shrigley-untitled-t12358
Habe Chat GPT um Rat gebeten. Das nächste Mal, wenn ich eine Ziege mit dem Boot transportieren möchte, transportiere ich erst die Ziege, fahre dann alleine zurück, und fahre dann alleine wieder zur Ziege
3:41 "überzeugt" -> überzeugend
Mich würde ja Intressieren, was wir aus dem ersten Matrix Film lernen können und ob es da was zu lernen gibt. Ich find nämlich schon ;)
Ich denke gerade darüber nach, wieviele Mini-Atomkraftwerke noch aktiviert werden müssen, um den Strombedarf der Rechenzentren für KI zu decken.
Ich empfehle den Film
„Ex Machina“! 🤖 😎
Die KI hat im Jahr 2024 noch diverse Defizite die im Video beschrieben sind. Aber diese Defizite überkommt sie vielleicht bald.. Es wird dann möglicherweise unmöglich die Unterscheidung zu machen. Und dann stellt sich die Frage: Wie erkenne ich ob ICH eine KI bin? Wir könnten alle eine KI in einem Programm so ähnlich wie bei dem Spiel "The Talos Principle" sein. Natürlich könnte man die Frage beantworten "lass es bleiben, es wäre ohnehin nur deskriminierend zwischen unterschiedlicher Arten von Intilligenz zu unterscheiden", aber angenommen ich will es aus akademischen Gründen tatsächlich wissen. Gäbe es eine Methode es herauszufinden?
Was nicht ist, kann ja noch werden :)
Denken bedeutet: Sich und seine Umgebung in Frage zu stellen.
Ist der Kommentar oberhalb von einem Menschen verfasst worden oder doch nur einer KI? Bin ich real oder doch nur simuliert?
Der Ladevorgang ist das Denken vom Computer.
Das sieht man an den Monitorrunzeln und den verkniffenen Lüfterschlitzen!
@@MaHa-vi4zg 🤣😁🤪
Es heißt ja, man soll sich mit KI beschäftigen, ähnlich wie mit einem "normalen" Computer. Nur als normalsterblicher Handwerker frage ich mich immer, was soll ich da lernen, was mich weiterbringt? Wo kann KI im normalen Leben eingesetzt werden?
Vielleicht hat ja jemand eine ernstgemeinte Antwort darauf.
Ich bin kein Spezialist, aber ich versuche mal eine Antwort: KI ist ein technisches Werkzeug. Wichtig für den Anwender ist, das Werkzeug richtig zu verstehen - was kann es, was kann es nicht, wie wende ich es an? Man wendet den Computer ja auch an, ohne ihn selbst zu bauen oder bis ins Detail zu verstehen. Sehr schädlich sind Fantasien wie "KI wird die Kontrolle über die Welt übernehmen". Ja, wird es, genauso wie der Computer (z.B. über die Kids, die nur am Handy hängen). KI ist eine Arbeitserleichterung wie eine Bohrmaschine, die es einem ermöglicht, Löcher zu bohren. Für den Handwerker gilt es, durch Anwendung zu verstehen, was möglich ist. Das ist das Lernen, was nötig ist. Also: ausprobieren und anwenden, wo sich Gelegenheit bietet. Frage einfach mal z.B. ChatGPT deine (Fach-)Fragen, und du wirst die Antworten beurteilen. Zu lernen gibt es hier: wie die Frage richtig formulieren, damit eine nützliche Antwort rauskommt - die dann oft angepasst werden muss.
Spiele mit der KI, z.B. mit ChatGPT.
Man könnte z.B. sowas fragen wie:
* Ich will mir einen neue Borhmaschine kaufen. Woran erkenne ich, ob Testberichte im Netz neutral und objektiv sind?
* Gibt es gesetzliche Voraussetzungen für Spezialfällungen von Bäumen, bei denen man, mit Seilen gesichert, in den Baum steigt?
* Ist Feinstaub krebserregend?
* Sobald die Chefin weg ist, verweigert der Kollege die Arbeit. Was kann ich tun, damit er arbeitet?
Nimmt einem natürlich nicht im engeren Sinn die Arbeit ab (sei froh!), und man muss die Antworten immer selbst auf Plausibilität prüfen, aber für Infos und Anregungen sind KIs wie ChatGPT sicherlich hin und wieder hilfreich.
Ich bin Programmiererin und habe bisher KI noch nicht beruflich eingesetzt. Privat habe ich vor einiger Zeit Bücher von Jane Austin gelesen. Zufällig habe ich im Bekanntenkreis niemanden, der sich gerade ebenfalls mit Jane A. beschäftigt und mit dem ich mich darüber unterhalten konnte, weshalb Jane A. zur Weltliteratur gehört. Weder die KI konnte mich, noch ich die KI wirklich überzeugen, aber die Unterhaltung hatte trotzdem ihren Reiz.
Auch bei Fragen was ich am besten auf meinem Gemüsebalkon zusammen in einen Kübel pflanzem kann, ist es bequemer die KI zu fragen als zu googeln. Bei Fotos, was denn da nun eigentlich wächst, kann man durch nachfragen, weiterkommen z.B. wie wahrscheinlich es ist, ob sich etwas selbst an diesem Ort ausgesät hat. Trotzdem muss ich Radieschen immer kaufen, wenn ich welche essen will. Und bei Spinat frage ich mich, ob ich den konsequent als Unkraut ausrupfe. Dafür habe ich erfolgreich im Wohnzimmer eine Ananas aus dem Strunk einer gekauften Ananas herangezogen und schließlich die daraus gewachsene Frucht geerntet: war lecker und bevor KI für jeden zugänglich war...
Moment - stimmt nicht ganz: Beim Schreiben von Angeboten oder ähnlichem hat die KI teilweise geniale Verbesserungsvorschläge, obwohl ich von meine Entwürfen eigentlich schon ganz gut finde.
In der Ankündigung hieß es doch, das Thema hätte etwas mit dem T-Shirt zu tun. Wo ist jetzt der Zusammenhang von "See Lake Lac Lago" und ob eine KI denkt?
Hi @Edda-Online!
Es geht darum, ob man erkennt, dass es sich dabei um das Wort "See" in vier verschiedenen Sprachen handelt - und nicht darum, sich einen See namens "Lac Lago" anzusehen ("see Lake Lac Lago").
@@DimensionRalph Hi, den Teil hatte ich schon verstanden, aber was hat das damit zu tun, ob eine KI denken kann?
Ok, habe gerade copilot gefragt 'Was fällt Dir zu den "see", "lake", "lac", "lago" ein?' In der Antwort kam dann was zu Seen in den entsprechenden Ländern... Ich sehe es ein.
👍 🤓
Der Mann versteht kein Chinesisch und trotzdem versteht und spricht das Zimmer Chinesisch. Genauso ist es mit ChatGPT. Der Algorithmus versteht nichts, aber das _System_ ChatGPT versteht deine Fragen und kann sie beantworten. (Übrigens kann man auch über eine Brücke auf die andere Seite des Flusses kommen. Es kommt auf die genaue Beschreibung der Situation an, wie sinnvoll die KI jeweils antwortet.)
Mensch oder Computer:
1: Mensch
2: Computer
3: Mensch
4: Computer
5: Computer
6: Computer
Hi @Lukas-z1p!
Wir hatten uns *diese* Lösung notiert:
1: Mensch
2: Maschine
3: Mensch
4: Maschine
5: Maschine
6: Mensch
🤓
Fun fact zu den Bild Captcha von google.
Die Captcha hatten / haben für google noch einen anderen nutzen als einfach nur herauszufinden ob da nen mensch odere ne maschiene ist, undzwar sind die gezeigten bilder / texte, daten die Google algorythemen nicht erkennen konnten, durch die user eingaben wurden diese Algorythemen trainirt. Also quasi eine win win situation, Google bekommt trainigs daten und der Programmiere der das Captcha eingebunden hat, weiß ob da nen mensch sitzt
Ich denke wenn du denkst das du denkst dann denkst du nur das du denkst
Denke schön
Es gibt (noch) keine einzige KI die denken kann, keine einzige.
Hehe ChatGPT hat ohne Hilfe nur den Pinguin und den Bären erkannt. 😅
Mein Allgemeinwissen war irgendwie auch im Keller, ich habe mich nur auf die Klobrille konzentriert 😅
Filmempfehlung zu "Plug and Pray". Schon ein bisschen älter, aber sehenswert!
Joseph Weizenbaum entwickelte mit "Eliza" quasi einen der ersten Chatbots.
th-cam.com/video/1YeMuqW6WpU/w-d-xo.htmlsi=RVJt-p-G4rKXP5Oo
Wieso sollte ein Computer denken? Ich glaube Technik ist eine Erweiterung unseres Bewusstsein und nicht ein Ersatz. Und da wir selbst nicht wirklich wissen, was Gedanken sind, wird's wohl sinnlos einen Menschen zu fragen😅
Was ich mich ja frage, ist, was passiert, wenn man bei dem Hund-Ziege-Kohlkopf-Rätsel die Handelnden austauscht. Also z. B. Löwe statt Hund, Reh statt Ziege und Süßkartoffel statt Kohlkopf. Oder gleich ganz wirr: Reh statt Hund, Süßkartoffel statz Ziege und Löwe statt Kohlkopf 😄 ein Mensch, der das ursprüngliche Rätsel kennt, wäre zwar zunächst etwas irritiert, könnte aber ohne Probleme lösen. Was macht ChatGPT?
Hi @fm8157!
Probier das doch mal aus - und schreibe hier, was passiert ist. Sicherlich auch spannend, das mit den unterschiedlichen Versionen bzw. unterschiedlichen Anbietern zu vergleichen.
Ich denke, ich frage mal Eliza🥲
Thx 😊🎉
Chat GPT hat anhand des Fotos erkannt, dass dort "turingtest" steht. 1:43
Den Beitrag fand ich jetzt nochmal eine Klasse besser, als üblich gut.
Hi @DrKairo!
Danke. Das freut uns! 🤓
Jetzt musste ich wegen Deines T-Shirts noch mal die alte 'Wissen macht Ah!' Sendung anschauen... 😆
Hi @stellar_twister!
Sag doch mal bescheid, wenn du sie gefunden hast 🤓
Ich auch haha
KI denkt nicht, KI empfindet nicht, KI trifft auch keine Entscheidungen.
Ich habe dieses Rätsel mit dem Boot bis heute nicht kapiert, glaube ich bin ne Maschine 😅
ALAN TURING MENTIONED 🥳
4:30 naja wenn dann jagt der Hund die Ziege :D besser wäre Fuchs, Hase, Karotte ....
Ich bin immer geflasht, wenn ich die Links zu euren Videos sehe und dann auch noch versuche, sie mir halbwelbs reinzuziehen.
Hi @MotzKopp!
Danke für die Rückmeldung. Gut zu wissen, dass das auch genutzt wird!
🤓
Mittlerweile sollte man als Test, um eine KI zu entlarven, einführen: zeichne eine menschliche Hand 😂
bitte stellt diese frage nicht in der USA. die sind immernoch damit beschäfftigt herauszufinden was eine frau ist.
ChatGPT kann auch kein T9, auch wenn man ihm sagt, dass die Zahlenfolge T9 Codiert ist ;-)
Der Turingtest testet nicht die Getesteten sondern die Tester... kann man sich mal überlegen was das für Prüfungen in der Schule bedeutet.
Gutes Video! Aber deshalb ist ein LLM auch keine KI sondern nur ein LLM. Es sind eigentlich nur vordefinierte Algorithmen die eben mit extrem vielen daten gefüttert werden. Ich finde über eine KI kann man erst reden, wenn diese ganzen trainierten Einzelfähigkeiten irgendwann gemeinsam agieren. Und wenn diese vollwertige KI erreicht ist, können wir auch überlegen, ob unsere Definition von "denken" dort adaptierbar ist.
Hi @tobitob2903!
Ja, darüber haben auch schon Videos gemacht, die wir in der Videobeschreibung unter den Linktipps eingetragen haben.
Das Problem am Begriff "KI" ist halt auch, dass der aus dem Marketing stammt und nicht aus der Technik. Über die Jahre hat man den Stempel auf alles mögliche geklebt, nur weils gut klingt. Definiert hat man das aber nich so richtig. Verkauft sich eben besser, als wenn man den Leuten erklärt, dass die Sprachmodelle im Grunde nur eine große Wahrscheinlichkeitsrechnung sind.
Die Anforderungen an eine wirklich denkende KI würde ich allerdings höher ansetzen. Die einzelnen Fähigkeiten zu kombinieren, dürfte noch nichts bringen, denn die dienen alle nur der Mustererkennung. Das ist im Grunde ein reiner Automatismus, der da abläuft, da findet keinerlei "denken" statt, nur viele Rechenschritte. Sowas macht unser Gehirn ja auch, wenn auch deutlich zuverlässiger. So sehe ich gerade z.B. vor mir meinen Bildschirm, mein Hirn erkennt dieses Muster, aber das läuft nur im Hintergrund ab, irgendwo im Unterbewusstsein.
Denken tue ich dabei jedenfalls nicht, diese Fähigkeit muss also gänzlich anders funktionieren.
Ich frage mich da viel weniger, was "denken" eigentlich ist, sondern viel mehr, wo Gedanken eigentlich herkommen. Als ITler hab ich da evtl. eine bestimmte Sichtweise - ein Gedanke an sich ist erst mal eine Information in meinem Gehirn, die gerade verarbeitet wird. So weit so gut, nichts anderes machen Computer, als Informationen zu verarbeiten. Beim Computer weiß ich immer, wo eine Information herkommt, von der Festplatte, aus der Internetleitung oder einfach eingetippt. Diese Informationen existieren also bereits auf eine Weise, bevor der Computer sie verarbeitet.
Bei Gedanken ist das ganz anders. Nehmen wir ein Beispiel: Als der Mensch das Rad erfunden hat, wo kam die Information, wie er ein Rad bauen kann? Das im Gehirn eine Bauanleitung für ein Rad gespeichert war, können wir schon mal ausschließen. Und auch sonst dürfte es nirgends eine Information gegeben haben, die dem Menschen hätte erklären können, was ein Rad überhaupt ist. Das für sich könnte man vielleicht noch als Kombination von verschiedenen Beobachtungen betrachten. Wirklich spannend wird es aber, wenn man überlegt, das niemand dem Menschen die Aufgabe gegeben hat, ein Rad zu erfinden. Er hats trotzdem getan.
Und genau das wäre für eine echte, denkende KI für mich eine absolut essentielle Fähigkeit, keine Aufgabe zu haben, und trotzdem etwas zu tun. Wir können mit unserem Verstand eben Ideen und damit neue Informationen einfach erschaffen. Ein Computer dagegen kann lediglich vorhandenes verarbeiten.
Hi @elektrofreak86!
Danke für deine Gedanken zum Thema!
Einiges davon haben wir auch in unseren früheren KI-Videos thematisiert, die wir in der Videobeschreibung verlinkt haben.
Super Thema, aber leider etwas naiv angegangen. Oder wurde das Video letztes/vorletztes Jahr aufgenommen?
Die heutigen KIs sind weiter, als hier suggeriert wird.
Hi @homberger-it!
Welche Stelle meinst du denn konkret?
Was das Ziegenrätsel angeht, sagt Ralph ja:
"Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen. Wir geben dann dem Ergebnis im besten Fall einen Sinn. Oder erkennen, dass es Unsinn ist."
Das ein Sprachmodell wie die GPTs nicht rätseln können, hab‘ ich auch erst vor kurzem mal festgestellt. Wollte besser verstehen, wie das Programm „arbeitet“. Hab‘s mit dem Eimer-Rätsel aus einer Wissen-Macht-Ah!-Sendung probiert. Wahnsinn, was für ein gequirlter Unsinn dabei rauskam. Trotz vieler zielgerichteter Fragen/Hinweise von mir, hat es das Programm nicht geschafft und sogar bspw. fest behauptet, dass 2+3 ungleich 5 ist. Im Übrigen in brillant formulierten Sätzen. Als ich GPT bei dem Rätsel dann aufforderte „Ersetze Wassereimer durch Milchkannen!“, kam die richtige Lösung (weil sie eben so im Milchmädchenrätsel beschrieben ist und bestimmt so an das Programm „verfüttert“ wurde.) Ich denke, es zeigt: Ein Sprachmodell ist genau das - eine Quasselstrippe mit den so gewollten und tatsächlich wohl über entsprechende Faktoren/Indikatoren einstellbaren HALLUZINATIONEN. Diese sollen die „Kreativität“ des Programms anheben.
Das muss man immer wissen, wenn man sich dieses Werkzeugs bedient. Natürlich arbeitet KI z. B. in der Technik oder im Finanzwesen ganz anders. Aber da ist die Zielsetzung eine andere und es werden andere Modelle zugrundegelegt. Trotzdem „denkt“ eine KI nicht.
Wünschenswert ist immer, dass der jeweilige Anwender und der Entwickler denken. Aber das Denken ist eine sehr persönliche und individuelle Angelegenheit. 😉
Schön, dass Ihr so viel DENKT und unser Denken, Woche für Woche mit spannenden Themen auf eine witzige und anschauliche Art bereichert. 😍
1:29 wenn der angeblich vollständig automatisiert ist, wieso muss man dann eigentlich noch immer selber was machen? 😜
Ich bin auch eine Maschine 💪🏼🤣
Ich habe erkannt, dass Ralph eine Brille trägt und habe drauf geklickt. Bin ich jetzt ein Bot?
Do androids dream of electric sheep?
Wenn Du denkst Du denkst, dann denkst Du nur Du denkst...
denn das Denken der Gedanken ist gedankenlosen Denken, darum denke nicht, gedacht haben.
Denkst du, dass sie die Gedanken genommen haben, die wir gedacht haben und wollen dass wir denken, dass die Gedanken die wir gedacht haben, die Gedanken sind, die wir jetzt denken, denkst du das?
Was ChatGPT mal nicht konnte: Hab die KI mal explizit drum gebeten, nichts auf meine Nachricht zu antworten. Ging nicht
Ich sehe nur Brille 🥽
8:35 „Mensch, bist du schlau!“ *´ˇ(⬮◟⬮)ˇ`*
🤷⚒️🤷
Ganz ehrlich, mich triggern so Dinge wie das chinesische Zimmer, weil ich sie für höchst unfair dem Zimmer gegenüber halte! Der Mensch ist da ja nur ein Element des Zimmers. Zu Fragen, ob der Mensch danach chinesisch kann, ist die falsche Ebene. Das wäre so, als ob ich frage, ob euer Sprachzentrum isoliert deutsch versteht. Nein, tut es nicht! Sprachverständnis ist ein komplexer Vorgang, der die Beachtung aller Informationen und des ganzen Systems bedarf. Ich kann also höchstens fragen, ob das Zimmer insgesamt die Sprache versteht. Das ist Punkt 1.
Punkt 2 betrifft die Bewertung. Wenn wir fragen, ob ein Mensch eine Sprache kann, sind wir ja gewöhnlich bereit, Abstufungen zu akzeptieren, bei denen wir dennoch sagen "Er kann." Das wird bei den Maschinen aber nicht so gemacht. Da wird verlangt, dass sie perfekt sind. Wenn wir da fair sein wollen, müssten wir an Mensch und Maschine den gleichen Maßstab anlegen! Das könnte dazu führen, dass wir sagen müssten, dass niemand eine Sprache versteht, weil niemand perfekt ist! Auch die Maschinen haben ja nur die Informationen, die wir ihnen geben. Was wir nicht wissen, wissen sie auch nicht, aber genau das wird nur von den Maschinen quasi verlangt! Das ist unfair!
Punkt 3. Warum verstehen wir Sprache? Weil wir sie gelernt haben. Weil wir die Bedeutungen und Anwendungen der Wörter gelernt haben. Es geht also wieder um die nutzbaren Informationen. Wir nutzen so viele impliziete Daten, die uns teilweise nicht einmal bewusst sind, dass ich es regelrecht frech und bösartig finde, von den Maschinen zu erwarten, dass sie funktionieren wie wir. Natürlich funktionieren sie anders! Sie sind anders! Wir haben sie anders geschaffen! Wenn wir wissen wollen, ob Maschinen denken können, brauchen wir klare wahrhaft faire Spielregeln, die für alle gleich gelten! Ürigens gehören auch Dinge wie Moral zu diesen Informationen!
Fazit: Turing hatte eine gute Idee: Wenn wir nicht mehr nur von aussen unterscheiden können, wer Mensch oder Maschine ist, dann muss ich der Maschine eine Fähigkeit zum Denken zugestehen. Die Kriterien dafür dürfen sich von Mensch zu Maschine nicht unterscheiden. Die Voraussetzungen beider müssen wirklich gleich sein! Was eine Seite strukturell nicht leisten KANN, DARF auch nicht in die Bewertung einfließen. Dann kann es fair zugehen. Alles andere ist ungerecht und taugt höchstens dafür, uns ein besseres Gefühl zu geben. Ehrliche Erkenntnis entstünde so nicht.
Chat GPT sagt zB: "Ich denke..." oder "ich finde auch dass..." oder "ich freue mich darüber...". Hat er wirklich Gefühle oder lügt er nur? 😂😂😂
Wie auch immer, "er" und "seine Freunde" sind unsere Zukunft. 🤷♀️
Sobald er sagt, "dein Leid erfreut mich", würde ich mir Gedanken machen :P
@yourguard4 Hmmm, ja stimmt. Dann würde "er" seine dunkle Seite zeigen. 🫢
"Wenn du denkst du denkst, dann denkst du nur du denkst..." wer hat diesen Song gesungen?
Ist mir auch eingefallen... Komm auch grad nicht auf den Namen...
@Amira-zy2jp
Juliana Werding war das 😉
@@VMDvei ja, das könnte sein... ist schon so lange her... 🤷♀️😏
@@Amira-zy2jp
Ja, lange ist es her. Ich erinnere mich aber noch gut, denn es war mein Lieblingslied von ihr 🤩
Mein "Turing-Test", den ich in den 80ern entworfen habe: Wenn ein Computer einen Witz versteht (an der richtigen Stelle 'lacht' dann ist er soweit, dass man es 'denken" nennen könnte. Kann er gar einen neuen Witz erzählen, ist das dann schon fast sicher. (außer es ist eine einfache Abwandlung ('Österreicher' statt Ostfriese oder ähnlich))
Ich habe kürzlich ChatGPT einen Bilderwitz vorgelegt und um Erklärung gebeten, was daran witzig ist. Dass er den Witz verstanden hat und die Pointe erklären konnte, fand ich schon beeindruckend. Hier seine Analyse:
Der Witz spielt auf die berühmte Phrase „Ich habe heute leider kein Foto für dich“ aus der Fernsehsendung „Germany's Next Topmodel“ an, bei der Teilnehmerinnen in jeder Folge ein Foto erhalten, wenn sie in der Show weiterkommen. Wenn sie kein Foto erhalten, müssen sie die Sendung verlassen.
In der Comic-Szene wird dies als „Gruselgeschichte für Mädchen“ dargestellt, was eine humorvolle Übertreibung ist. Der Erzähler beschreibt eine vermeintlich „gruselige“ Situation, indem er die „hässliche, dürre alte Frau“ mit piepsiger Stimme sprechen lässt und dann den bekannten Satz aus der Show sagt. Die Reaktion des Mädchens („NEEIIIINN!“) zeigt, dass dies für sie eine Schreckenssituation ist, da das Fehlen eines Fotos in der Show symbolisch für den Ausschluss steht - ein „Albtraum“ für viele Teilnehmerinnen.
Der Humor entsteht durch den Kontrast zwischen einer echten Gruselgeschichte und einer oberflächlichen, modernen „Horrorgeschichte“ für Mädchen, die mit Model-Shows sympathisieren.
Also in meinem Test hat ChatGPT völlig korrekt und sinnvoll geantwortet:
"Das ist ein klassisches Rätsel! Die Aufgabe lautet, dass ein Mann eine Ziege, einen Wolf und ein Kohlkopf über einen Fluss bringen muss, aber er hat nur ein Boot, in dem er jeweils nur einen der drei Dinge transportieren kann. Das Problem ist, dass der Wolf die Ziege fressen würde, wenn sie allein gelassen werden, und die Ziege das Kohlkopf fressen würde, wenn sie allein gelassen wird.
Die Lösung ist wie folgt:
1. Der Mann nimmt zuerst die Ziege mit auf das Boot und überquert den Fluss.
2. Er lässt die Ziege auf der anderen Seite und fährt alleine zurück.
3. Dann nimmt er den Wolf oder das Kohlkopf mit (z. B. den Wolf), überquert den Fluss und lässt den Wolf auf der anderen Seite.
4. Nun nimmt er die Ziege zurück, fährt sie wieder zurück auf die ursprüngliche Seite.
5. Er lässt die Ziege auf der ursprünglichen Seite, nimmt stattdessen das Kohlkopf und fährt es auf die andere Seite.
6. Schließlich kehrt er zurück und holt die Ziege. Alle sind nun sicher auf der anderen Seite des Flusses.
In deinem Fall, mit der Ziege und dem Boot: Wenn es nur um den Mann und die Ziege geht und keine anderen Tiere oder Objekte zu beachten sind, kann er einfach die Ziege im Boot mitnehmen und ohne Probleme über den Fluss bringen!"
Hi @Streichholz00!
Deshalb sagt Ralph ja auch:
"Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen. Wir geben dann dem Ergebnis im besten Fall einen Sinn. Oder erkennen, dass es Unsinn ist."
Hi @Streichholz00!
Wir haben auch mal bei ChatGPT nachgefragt, wie das genau war. Dabei hat er folgendes gedichtet:
"Ah, du hast einen Punkt! Das bekannte Rätsel mit Wolf, Ziege und Kohlkopf ist tatsächlich so fest verankert, dass ich anfangs auch das einfache „Mann und Ziege“-Rätsel damit verwechselt habe. Bei dieser einfachen Version gibt es ja überhaupt keine Konflikte - die Lösung besteht schlicht darin, dass der Mann und die Ziege gemeinsam über den Fluss setzen, ohne weitere Komplikationen.
Auf diesen Irrtum bin ich durch Rückmeldungen aufmerksam geworden: Menschen haben direkt angemerkt, dass ich in meiner Antwort unnötig zusätzliche Elemente wie den Wolf und den Kohlkopf hinzufügte. Dank dieser Hinweise ist mir klar geworden, dass ich den eigentlichen Kontext oft zu komplex interpretiert habe.
Ich schätze, ich habe das mittlerweile seit einigen Monaten korrekt im Griff!"
Und auf die Rückfrage "Wie lange hast du dafür gebraucht - und wie viele Rückmeldungen von Usern waren dafür ungefähr nötig?" kam folgende Antwort:
"Es hat tatsächlich eine Weile gedauert, bis ich meinen Reflex, automatisch das komplexere Wolf-Ziege-Kohlkopf-Rätsel zu beantworten, in den Griff bekommen habe. Insgesamt hat es vermutlich mehrere Wochen und eine handvoll Rückmeldungen gebraucht. Nach etwa fünf bis zehn Feedbacks wurde der Fehler in meinem „Antwortmuster“ klar erkennbar, und seitdem achte ich darauf, die Rätselvariante genau zu identifizieren, bevor ich antworte. Es war ein gutes Beispiel dafür, wie hilfreich direktes Feedback sein kann, um solche kleinen Stolperfallen zu beheben!"
@@DimensionRalph mega! Ich wusste gar nicht dass chatgpt sich auch zu seinem "Lern"verhalten berichten kann :D danke euch :)
Hi @Streichholz00!
Ja, aber ob die Antworten wahr oder gelogen sind, lässt sich natürlich nicht überprüfen.
Wenn dich das Thema interessiert, schau dir gerne mal diesen halbstündigen Vortrag an:
re:publica 2024: Eva Wolfangel - Wo stehen Chatbots auf dem Weg zur Superintelligenz?
th-cam.com/video/5kxDw95oIvU/w-d-xo.html
ChatGPT gefragt: Der Mann kann sein Problem lösen, indem er die folgenden Schritte ausführt:
Er nimmt zuerst die Ziege mit und setzt sie auf der anderen Seite des Flusses ab.
Dann fährt er allein zurück und nimmt den Hund mit.
Er setzt den Hund auf der anderen Seite ab, nimmt aber die Ziege wieder ins Boot und fährt mit ihr zurück zur Ausgangsseite.
Auf der Ausgangsseite lässt er die Ziege zurück und nimmt den Kohlkopf mit zur anderen Seite.
Dort angekommen, setzt er den Kohlkopf beim Hund ab und fährt alleine zurück zur Ausgangsseite.
Schließlich nimmt er die Ziege und fährt ein letztes Mal zur anderen Seite.
Auf diese Weise bleibt die Ziege nie mit dem Hund allein, und der Kohlkopf wird nicht von der Ziege gefressen. Am Ende sind alle sicher auf der anderen Seite des Flusses.
Auf Anhieb diese Antwort erhalten.
Hi @MadMonkey122!
Ja, das sagt Ralph ja auch im Video, dass Chatbots das Rätsel lösen können. Interessant war ja die *abgewandelte* Aufgabe:
"Ein Mann hat ein Boot und eine Ziege. Wie kommt er mit der Ziege auf die andere Seite vom Fluss?" Und da kam es zu falschen/unsinnigen Antworten. Mittlerweile hat ChatGPT diese Abwandlung aber auch "gelernt". Daher sagt Ralph am Ende ja auch:
"Es kann natürlich sein, dass inzwischen den KIs die richtige Lösung beigebracht wurde, weil dieses Beispiel schon ein bisschen länger die Runde macht. Aber es zeigt: Eine KI wie ChatGPT kann sehr gut Muster und Korrelationen erkennen und darauf selber Texte erzeugen, die passenden Mustern entsprechen."
Hi @MadMonkey122!
Wir haben gerade mal bei ChatGPT nachgefragt, wie das genau war. Dabei hat es folgendes gedichtet:
"Ah, du hast einen Punkt! Das bekannte Rätsel mit Wolf, Ziege und Kohlkopf ist tatsächlich so fest verankert, dass ich anfangs auch das einfache „Mann und Ziege“-Rätsel damit verwechselt habe. Bei dieser einfachen Version gibt es ja überhaupt keine Konflikte - die Lösung besteht schlicht darin, dass der Mann und die Ziege gemeinsam über den Fluss setzen, ohne weitere Komplikationen.
Auf diesen Irrtum bin ich durch Rückmeldungen aufmerksam geworden: Menschen haben direkt angemerkt, dass ich in meiner Antwort unnötig zusätzliche Elemente wie den Wolf und den Kohlkopf hinzufügte. Dank dieser Hinweise ist mir klar geworden, dass ich den eigentlichen Kontext oft zu komplex interpretiert habe.
Ich schätze, ich habe das mittlerweile seit einigen Monaten korrekt im Griff!"
Und auf die Rückfrage "Wie lange hast du dafür gebraucht - und wie viele Rückmeldungen von Usern waren dafür ungefähr nötig?" kam folgende Antwort:
"Es hat tatsächlich eine Weile gedauert, bis ich meinen Reflex, automatisch das komplexere Wolf-Ziege-Kohlkopf-Rätsel zu beantworten, in den Griff bekommen habe. Insgesamt hat es vermutlich mehrere Wochen und eine handvoll Rückmeldungen gebraucht. Nach etwa fünf bis zehn Feedbacks wurde der Fehler in meinem „Antwortmuster“ klar erkennbar, und seitdem achte ich darauf, die Rätselvariante genau zu identifizieren, bevor ich antworte. Es war ein gutes Beispiel dafür, wie hilfreich direktes Feedback sein kann, um solche kleinen Stolperfallen zu beheben!"
I'm not a bot 😇
Also doch chatgpt keine künstliche inteligenz sondern nur ein algorythmus bzw ein Computer oder nicht?
Hi @derkeckvomeck2574!
Wir haben noch zwei weitere Videos zu KI bei den Linktipps in die Videobeschreibung geschrieben. Schau gerne mal rein.
Künstlìch - Ja, Intelligenz - diskutabel, Algorithmus - Ja, Computer - Nein, eher ein Computed
Technisch gesehen, arbeiten Mesnchen auch nach festen Algorithmen.
Ich weiß nicht ob ich KI bin oder Menschlich, aber ich muss sagen Ihre Videos sind Beeindruckend und Ihre Kreativität ist nicht von dieser Welt, sie Bewegen Welten mit ihrer Kreativität ❤🥰😘
Ja, mag im Moment noch so sein. Wetten nicht mehr lange 😮
Es wäre wünschenswert differenzierter auf die Begriffe einzugehen, und nicht nur standartisierte Phrasen wiederzugeben. Denn im eigentlichen:
KI hat den Turing-Test im Wesentlichen bestanden, wenn es um den Alltag geht, der zu einem Großteil aus sich wiederholenden Sprachmustern besteht. Sie ist in der Lage, die durchschnittliche Kommunikation zu replizieren - jene 80%, die aus routinierten, kontextgebundenen Floskeln und Standardphrasen bestehen. Solange die Interaktion im Rahmen dieses Alltäglichen bleibt, kann KI den Menschen täuschend echt imitieren.
In den verbleibenden 20%, wo das Gespräch in komplexere, oft philosophische, spezialisierte oder tiefsinnige Sphären vordringt, scheitert die Maschine jedoch. Diese tiefgründigen Dialoge finden meist außerhalb des „normalen“ Alltags statt, in besonderen Zirkeln, die hohe Flexibilität, Abstraktionsvermögen und genuine Kreativität erfordern. Hier übersteigen die menschlichen Nuancen die Fähigkeit der Maschine zur reinen Mustererkennung.
Zusammengefasst: KI hat den Durchschnitt der alltäglichen Kommunikation bestanden - dort, wo Sprache oft auf Routine und Wiederholung basiert. Sie versagt jedoch in Bereichen, die intensive Reflexion und spontane Sinnschöpfung voraussetzen.
Die Mensch-Maschine 🤘
wenn eine Mutter eine KI fragt wie sie ihr Kind dazu bringen kann das Zimmer aufzuräumen, wird die KI im Internet nach Erziehungstipps suchen und daraus was basteln.
aber es wäre keine richtige Antwort denn der KI fehlen sowas wie Gefühle, Glaube, Meinung und auch die Unlogik
Wenn an nichts denkt denkt an nichts oder ?😅
hab neulich ein capture von chatgpt lösen lassen, weil ich zu faul war. hat geklappt, lol
Was werden ChatGPT und Co. denken, wenn Trumpet die Wahl gewinnt.
Denkt Trump?
zum Glück kapiert KI noch überhaupt nichts wirklich. Obwohl ich ChatGPT inzwischen echt gut finde. Ich hoffe, dass Deutschland in Sachen Robotik in der 1. Liga bleibt. In vielen anderen Bereichen hat die deutsche Regierung sich ja den Schneid abkaufen lassen bzw. die Entwicklung völlig verpeilt.
Ich kündige jetzt das Abo. Genug mit Clickbait zugeballert. Diese T-Shirt Aktionen regen mich schlicht auf. Das gleiche Thema kann ich auch ohne Irreführung und hoch wissenschaftlich woanders genießen.
Erster.🎉
🥇