Die Wahrscheinlichkeit ist nicht gering, dass wir uns sehr schnell einem Plateau nähern, oder dieses bereits erreicht haben, was die Verbesserungsmöglichkeiten der derzeitigen Technologien für KI angeht. Die haben mittlerweile alle Daten gefressen und mit dem eigenen Output zu lernen läuft nicht so gut. Was die jetzt mit 4o gemacht haben, kann man vielleicht auch schon als Zeichen dafür sehen. Es ist nicht unbedingt eine Verbesserung des Modells, wenn man einfach mehr und mehr Rechenleistung hereingibt, um drei oder viermal hintereinander über die gleiche Frage nachzudenken.
Ist doch kein Wunder bei den Chips die Nvidia raushaut 440.000 Blackwell Chips an Open AI. das wird gigantisch die Rechenzentren werden Fußballfeld groß
Bin einfach hyped af. Hab meine privat entwickelte front-end library einmal durchlaufen lassen und jede klasse um durchschnittlich 5-10 parameter erweitert, das teil hat hunderte lines perfekt refaktorierten und kontexturierten code innerhalb von Minuten ausgespuckt. Ich bin so viel produktiver mit dem model, das ist einfach wahnsinnig. Mein Job ist dadurch nicht in Gefahr, eine KI kann nur grobmotorisch prompts interpretieren, visionäres reproduzieren von Anforderungen ist unmöglich durch künstliche intelligenz zu ersetzen.
Ein Format, indem du mit GPT-o1 ein komplettes Projekt umsetzt wäre echt spannend. Die Tests und Fragen haben ja eine gewisse Form und Umfang, wie bei Hausaufgaben oder Klausuren. Diese Form wird in den Trainingsdaten garantiert enthalten sein. Ein reales Projekt verlangt neben dem reinen Fachwissen auch die Fähigkeit es in einem Kontext anwenden zu können. Genauso wird die Nutzbarkeit der Modelle stark davon abhängen wie gut wir mit dem Output umgehen können.
Am besten ein Projekt erweitern welches schon besteht. Neues einbauen und altes erweitern. Solang die nicht meine gesamte Code-Base können, bringt es mir wenig das er mir ein Leetcode Problem lösen kann. ( Hab in 4 Jahren gefühlt seltenst solch ein Problem lösen müssen )
Das fände ich mega spannend! @Morpheus : Das Thema Softwarearchitektur fehlt mir bei deinen Benchmarks auch irgendwie ein bisschen. Ich fange gerade privat an, ein großes Projekt umzusetzen und was mir am meisten Kopfzerbrechen bereitet ist, wie ich meine Microservices schneide. Hab sowas noch nie gemacht, weil ich immer an legacy code gearbeitet habe und noch nie ein riesiges Refactorig mitgemacht habe.
@@mcdonal3387 wie die Zeit vergeht. O1 kann jetzt 128k Tokens. Jetzt ist Code sehr tokenlastig, aber ~60k Wörter sollte reichen um die meisten Codeblöcke am Stück zu lesen. Da dürfte die Begrenzung auf 16k Token im Output jetzt eher problematisch sein. Wobei Morpheus den Umgang in seinem RSS-Feed Projekt wunderschön beschrieben hat.
@@BugTrampler Ich bin eigentlich Mechatroniker und die Projekte an die ich gewöhnt bin sind für einen reinblütigen Informatiker wahrscheinlich winzig. Aber wir arbeiten viel an der Architektur um jedes unnötige Bit im Code los zu werden, und ich finde GPT klasse um sehr viel auszuprobieren. Ich leg mir einen Chat pro Projekt an, gebe was ich darf rein, und lass GPT dann mal ein zwei Handvoll an Implementierungen ausspucken. Die Benchmarke ich dann auf der Hardware. Das macht bisweilen richtig Laune und geht erschreckend gut. Das Teil braucht halt wenige Sekunden um eine Idee konsequent auf eine Codebasis anzuwenden, die es fassen kann. Sollte deine Basis zu groß sein, müsste man Teile des Codes in Module fassen und dem Modell nur wesentliche .h Dateien / Bibliotheken etc. geben.
Ich bin Softwareentwickler und wir haben seit 3 Monaten Copilot im Einsatz. Ich schreibe jetzt öfter Mal Prompts statt Code und das wird sicher noch mehr werden. Die Arbeit geht damit etwas schneller. Ob man nun Code oder Prompts schreibt, ist aber im Prinzip egal. Auch Prompts sind nur ne Art Programmierung. 🤷
Mit chatgpt40 war schon fürs coden nicht schlecht , aber O one ist einfach der absolute Knaller , eine Controller Platine die ich auf einer esp32 Basis programmiert habe dauerte ca. Knapp zwei Wochen , mit O one keine 2 Tage , OOne macht viel weniger Fehler und ist Geschwindigkeits mäßig einfach komplett Irre .
super geil. Hab direkt heute auf Arbeit die erste anspruchsvolle SQL Aufgabe damit erledigt (ich arbeite im BigData Bereich). Das lief wie geschmiert. Langsam hab ich bisschen Angst um meinen Job :D
Also ich halte diese Bewertungen mit Doktoranden Niveau nicht für realistisch, mindestens was die fluide Intelligenz betrifft. Ich habe versucht nach genauer Anleitung einen Machine Learning Algorithmus implementieren zu lassen und dafür war o1 preview auch nach mehreren Versuchen schlicht zu dumm.
Claude hat es mal geschafft, mir Code zu geben den ich nicht verstanden habe. Ich musste mir also von einer KI den Code erklären lassen ... mit über 20 Jahren Erfahrung in der Programmierung. Das Modell wird mich wahrscheinlich direkt auslachen. 🤷🏼♂️
@@efficiencyvi8369 In den allermeisten Fällen ist das schlechter Code. Code sollte immer verständlich geschrieben sein, auch wenn man geringe Performance-Einbussen in Kauf nimmt.
@@efficiencyvi8369 Bitte schön wenn ich Dir dabei helfen konnte darauf zu kommen 😂 Wenn Du solchen Code nicht verstehst, dann sag Claude er ist schlecht geschrieben. Hilft mehr als klammheimlich GPT zu fragen. So wird Euer Codebase nie besser. Auch mit allem Sarkasmus nicht.
@@rainair402 Nein, ernsthaft. Das war wirklich elegant gelöst. Nachdem ich es verstanden hatte, machte es auch absolut Sinn. Das war also eher meine Codebasis, die in dem Fall Mist war.
Ich teste die Modelle immer mit der gleichen Aufgabe: Erzeuge ein Initiales Beispiel für ein vim Clone in c++ unter Linux. Das interessante ist, die Modelle werden besser. Aber es wird immer schwerer ein Problem im Code zu fixen. Sowohl für die KI als auch für den Anwender der des Tools. Und hier kommt jetzt auch das Problem, der Entwickler baut kein Verständnis für den Code auf und der Code ist zu diesem Zeitpunkt Legacy. Dies bedeutet, jede Änderung dauert Ewig und kann nur unter schmerzen durchgeführt werden.
aha gä, die KI versteht den code lass ihn beschreiben, und wie du was bestimmtes einbaust. ich sehe da jetzt keine schmerzen. die Kontext Fenster werden immer größer von daher lokales Programm und schon versteht die KI den ganzen code. ich denke früher oder später befasst man sich nur noch mit bugfix, die KI kann die Optimierungen machen.
@@TheSoliver84 Mal eine Frage selbst Informatiker oder Entwickler? Wenn ja, dann frage ich dich, wie lange brauchst du in einem dir fremden Code einen Bug zu fixen? Selbst wenn der Ursprüngliche Entwickler dir den Code erklärt. Aber dir nicht verrät wo du suchen sollst? Wenn nein, wie kommst du darauf ?
@@TheCefourich mache das auch und es hat sich bewährt, den generierten Code in einem neuen Chat auf Funktion und Korrektheit prüfen zu lassen. Oft genug ist GPT erst mal auf einer falschen "Gedankenspur" und ist nicht davon abzubringen. Neuer Chat, Reset, zur Not mehrfach neuer Chat 😎. Man merkt sehr schnell, ob er diesmal in der richtigen Spur ist
@TheCefour, Ich bin sowohl Informatiker als auch Entwickler, Aktuell betreiben wir 10 Server mit 20 Nvidia H100 GPUs und haben eigene Modelle entwickelt, an denen wir bereits seit 2019 arbeiten (feilen). Zusätzlich haben wir OpenAI als API integriert, wodurch unsere Modelle miteinander kommunizieren können. Wir sind auch Partner von Replit und Coursor, was uns ermöglicht, diese Plattformen direkt anzubinden. Unser Fokus liegt auf der Entwicklung von Softwarelösungen für den Pharmabereich es ist das führende Unternehmen.
Mal ehrlich, in einem Jahr schreibe ich meine Bachelorarbeit in Informatik. Bis dahin werden die Modelle noch viel besser sein. Und sie sind jetzt schon besser als ich selbst. Ich frag mich echt ob es sich noch lohnt die BA zu schreiben?
@@Xcf_341 Wenn alles andere den Bach runter geht hat aber auch keiner mehr das Geld für Handwerker oder Pfleger. Das müsste dann steuerfinanziert werden, aber die Steuereinnahmen sind dann ja auch weg.
Bin aktuell im 3. Semester von Informatikstudium mit dem Ziel softwareentwicklung und habe mitlerweile wegen Ki jeden einzelnen Tag zweifel ob ich weiter machen soll oder doch lieber was im Handwerk machen sollte..
Ich hab deswegen auch den Bereich etwas gewechselt. Bei uns werden viele Arbeiten mit Frontend Fokus über KI generiert. Klar überprüft man den Code noch oder muss was korrigieren. Aber es werden deutlich weniger Entwickler mehr benötigt.
Schöner Abriss über LLMs beim Coden. Ich hatte O1 ausprobiert bin dann aber wieder zu Claude 3.5 zurück, ist einfach besser. Vielleicht verstehen Claude und ich uns zwischen auch einfach sehr gut. 😉 Mein OpenAI Abo hab ich wieder pausiert, bis was wirklich releventes kommt. Ich habe nur langsam das Gefühl ich verlerne selber zu coden, an und an muss man sich eben zwingen selbst was zu schreiben.
Heute habe ich o1 verwendet, um bestehende Codes zu refaktorisieren und zu optimieren. Das hat super funktioniert. Allerdings war das Neuschreiben bei der Problembeschreibung eher unbefriedigend.
Wer weiß wie lange. Ich hab vieles wo ich früher unseren Designer beauftragt hätte durch KI lösen lassen. Im Prinzip kann man mit der KI wie mit dem Designer sprechen und die passt alles an. Jeder Wunsch wird beachtet und die KI ist auch nicht genervt wenn man zum 10. mal Änderungen anfragt.
@@TheMorpheusTutorials Danke für die Antwort. Inwiefern sollte das meine Studienwahl beeinflussen? Es gibt viele Richtungen von "Angewandter Informatik" zu "Software Engeering" zu "IT Sicherheit" usw.
Immer diese Panik, ich studiere auch gerade Informatik. Es gibt einen massiven Mangel allein in Deutschland durch die wegbrechenden Seniorentwickler der Babyboomer. Das kann Ki nur Ansatzweise auffangen. Und mit Ki muss man immer noch coden und implementieren es geht nur schneller und effizienter. Trotzdem braucht man sich da keine Gedanken um langsamer steigende Löhne oder ein überangebot zu machen es wird eher noch knapper als es jetzt schon ist. Der Informatikerbedarf wird in den nächsten 20 Jahren expotentiell zunehmen und es kommen nur linear leicht mehr nach.
Folgende Challenge ist FEHLGESCHLAGEN: Ich bat GPT-o1 darum, ein Python script zu schreiben, dass die aktuelle GPT API benutzt um auf eine Frage zu antworten. Dazu habe ich sogar einen Link zur aktuellen Dokumentation mit angefügt. Leider hat es GPT-o1 nicht geschafft. Erst nach ca. 15 (!!!) Korrekturhilfen. Nachdem es dann mal einigermaßen funktioniert hatte, bat ich um eine kleine Anpassung und schon war wieder alles im Eimer.
Ist es denkbar, ein ganzes Unternehmen (KMU Level) mit allen Legacy Applikationen und Business kritischen Schnittstellen einzulesen, um Applikationen in den Griff zu bekommen, deren Autoren nicht mehr im Unternehmen sind (und tiefes Business Logik Verständnis mit sich nehmen).
Würde sagen nein. Auch die KI hat kein Verständnis der Business Logik, sie kann nur mit dem vorhandenen code arbeiten. Und ich gehe Mal davon aus, dass nicht alles bis ins kleinste Detail beschrieben ist, warum Dinge so gehandhabt werden wie sie's tun, denn dann könnte das Programm ja auch jmd warten ;) und das wäre dann auch unter der Annahme, dass die KI ein komplett fehlerfreies und perfektes Resultat liefern kann. Hilft nix, stellt jmd ein der sich durchwühlt und das Ding wieder wartbar macht, oder ersetzt es wenn möglich Stück für Stück durch wieder wartbare Software. Dabei baut die Person auch automatisch das Wissen mit auf und ist ein wertvoller Teil bei der Planung von Erweiterungen/Bugfixes.
Also ich nutze das o1 Model momentan für webentwicklung ist super für Optimierung und refactoring neu Entwicklung ist teilweise noch nicht da einfach weil die Anforderungen relativ genau definiert sein müssen. Ich bin tatsächlich obwohl ich es viel nutze noch nicht in die Limits gerutscht.
Ich sehe nur spezifisches Domainwissen innerhalb eines Unternehmens als Vorteil ggü der KI an allerdings muss man sich dieses erst mal aufbauen. Hier haben oft auch nicht die Entwickler die Nase vorne sondern operative Mitarbeiter. Beispiel: Einkaufsabteilung mit eigener Analytik-Stabstelle. Die Analytiker werden sich von ihrem Job verabschieden können. Die Einkäufer, mit dem spezifischen Domänenwissen, nutzen KI selbst für ihre Analysen und Verhandlungen mit Lieferanten. Change my Mind
Offtopic Frage: Hat jmd eine Lösung (Win, PC), wie man ausgewählte dateien nur anhand des namens und ohne dateiendung (zB aus einer liste) aus einem ordner in einen anderen kopiert? Mit einer batch lösung finde ich leider nur ansätze dateien mit endung zu kopieren ...
Bei chat gpt fällt mir ganz stark auf Funktionen und Konzeptionen sehr gut gemacht wird. Problem ist nur wenn ein Entwickler nicht Grund Struktur und Prinzipien kennt und natürlich was er überhaupt machen soll. Ist leider mir schon öfter in der Wirtschaft aufgefallen
Ich werde nächstes Jahr im Oktober Informatik Studium beginnen - das heißt Oktober 28 Bachelor und wenn alles gut läuft Oktober 30 Master- wo denkst du wird KI Ende 2030 stehen ? Lohnt es sich noch ?😊
Lässt sich mit das o1-Modell ein maßgeschneideter Computer für deine Oma erstellen? Also es werden nur die Programme installiert, die deine Oma braucht, für Updates ist keine Passworteingabe erforderlich. Die Updates erfolgen automatisch aber nicht ungefragt. Sie erhält auch eine ausgedruckte Anleitung. Als Betriebssystem schwebt mir NixOS vor. Da deine Oma das Betriebssystem auch selbst installieren soll, braucht sie auch dafür eine ausgedruckte leicht lesbare Anleitung.
claude ist aber für mich Laien in meiner Erfahrung viel besser und wenn ich next js app haben will dann. Ist v0 noch besser, aber allgemein glaube ich dass o1 bestimmt viel besser sein wird sobald limitations weg sind.
mögliches Angstszenario 🤔 Je besser das Ding wird, umso weniger werden programmieren, umso weniger Programmierer wird es geben, und irgendwann versteht kein Mensch mehr was das Teil überhaupt macht - bzw. wie man mögliche Fehlentwicklungen korrigieren könnte. Was dann?
@@huibert_devet das auf jeden Fall 😀 und ich hab sicher keine Angst vor KI. Trotzdem wäre es glaub ich sinnvoll auch mal an die andere Seite zu denken 🫣
@@Hilfe mache ich ja 😉, Du an Deine, ich an meine In gewisser Weise ist das eine Demokratisierung wie "damals", als uns die PC und Mac erlaubten, mit den Möglichkeiten dieser neuen Technik Firmen zu gründen, was wir sonst nie hätten tun können. Seit 1998 mit dem Internet kann ich mich darum als Lebensunterhalt im Web tummeln 🤗
AI requires more electricity to complete even simple tasks compared to typical search queries. In the U.S., about 60% of that electricity comes from burning fossil fuels, which is the primary driver of climate change
Hello my fellow Coding nerdies. Also ich bin gerade am Anfang einer Umschulung zum Anwendungsentwickler und stelle mir die Frage ob wir dann bald arbeitslos werden wenn Ki vermeidlich besser und schneller programmieren kann als wir
Man kriegt nie guten Code, aber Boilerplate. Viel anstrengender die Scheiße von dem durchzulesen als ihn selbst zu schreiben. Umgekehrt wäre das viel hilfreicher.
Leider nein. Gegen Halluzinationen gibt es kein Fix. Das ist eine Eigenschaft von neuronalen Netzen. Ist eigentlich das gleiche Problem wie bei Wetterberichte. Neuronale Netze sind nichtlineare Gleichungssysteme, also chaotisch. Das heißt Logik macht LLM Probleme. Große Projekte wird immer ein Problem werden. Den meisten Entwickler wird LLM nicht helfen, weil die Daten in die USA gehen. Also ein No-Go sind.
Das o-Modell hat meiner Erfahrung nach einen Hang zum völligen umcoden, und lässt essenzielle Teile des Codes weg, besonders die, die es nicht versteht. Das o1-Modell kann ich nicht beurteilen, habe keinen Zugriff darauf. Habe OpenAI verlassen, weil die Erfahrung einfach nur nervig war.
@@TheTaimon und wenn es anspruchsvoller wird. Meine Coding-Beispiele haben schon ziemlich viele Zeilen und diese Zeile sprich APP's wollte ich dann mit einem KI-Bot noch weiter verbessern und dann passiert es meistens, dass die Zeilen zu lang sind und daher nicht verarbeitet werden können. Was dann natürlich ärgerlich ist. Vielleichst hast Du mir da noch einen Tipp?
@@andrinSkyleider habe ich bisher hier keine guten Erfahrungen gemacht. Wenn ich Zeit habe teste ich mit o1. Aber mein HTML Code ist vermutlich auch kein gutes Beispiel 😂
Die 30 Request hatte ich nach 4 Stunden schon voll, daher schwer ausgiebig zu testen, aber mittlerweile würde ich fast sagen es ist schon mit einem durchschnittlichen Senior zu vergleichen, während es früher gefühlt nur ein sehr schneller Junior war. Oft hab ich 20-30 diskutieren müssen, bis ich eine Lösung in der Qualität habe die ich haben wollte. Als Senior mit 30 Jahren Erfahrung löse ich aber ja üblicherweise aber auch keine leichten Probleme. Aber man merkt wirklich einen deutlichen Qualitätssprung und das freut mich. Aber es sind immer noch viele Fehler drin. Am Ende ist es ja vermutlich nicht intelligenter geworden, sondern evaluiert nur mehrfach um die Ergebnisse zu verbessern. Und das lest sich vermutlich nur beheben wenn man einfach eigenen Trainingsdaten erstellen bzw. die Modelle einfacher selbst anpassen kann.
Das Niveau auf dem GPT sich selbst prompten kann ist enorm. Der Ansatz wurde ja schon manuell mit anderen Modellen gemacht. Allerdings gehe ich stark davon aus das Open AI eine Art von Teilen und Herrschen hierbei verwendet. Hunderte Juniors richtig geprompted können auch sehr viel bewerkstelligen.
Es ist ja schon lange klar das die Transformer Modelle mit Iteration viel besser werden. Problem ist halt die benötigte Rechenleistung. Da muss Nvidia (oder wer auch immer) noch sehr viel schnellere NPU's entwickeln. Damit müssen dann neue Rechenzentren gebaut werden. Das kostet mehr als der gesamte Staatshaushalt von Deutschland und China zusammen. Ich glaube 7 Billionen Dollar wollte Sam Altman, CEO von OpenAI, dafür einsammeln. Absoluter Wahnsinn.
Sam möchte 7 Mrd. investieren. Das ist noch deutlich weniger als die 9XX Mrd. die Deutschland jährlich ausgibt, oder die 1'5XX Mrd. die China dieses Jahr ausgeben wird. Open AI wird dabei vor allem auf viel mehr Chipfläche aus sein, da der Stromverbrauch von Chips exponentiell mit dem Takt geht. Ist sehr vereinfacht gesprochen auch der große Unterschied zwischen A100 und RTX Karten.
Das ist jetzt schon eine Frage nach welcher Abstraktion du haben möchtest. GPT kann Maschinencode generieren. Allerdings braucht das deutlich mehr Tokens als eine höhere Sprache und dürfte für kaum jemanden lesbar/prüfbar sein. Und wenn dein Code auf unterschiedlicher Hardware laufen soll, ist es ein Nachteil.
@@MrHaggyy Wie kann ich das denn erreichen, dass GPT Maschinencode erzeugt? Ich hab es ca. 20 mal immer wieder aufgefordert das zu tun und es hat sich vehement geweigert. Punkto Prüfbarkeit und unterschiedliche Hardware sind Kinderkrankheiten, die in 20 Jahren keine Rolle mehr spielen werden, schätze ich mal. Spätestens wenn man o1 sagt, dass es einmal für jedes OS den Maschinencode erzeugen soll, hat sich das selbst heute schon erledigt. Und die Prüfung könnte durch eine entsprechende Prüf-KI durchgeführt werden. Die einzige Frage ist, ob es in 20 Jahren KI-Anbieter geben wird, die entsprechend vertrauenswürdig sind. Aber technisch sehe ich da nicht die geringsten Schwierigkeiten, wenn man berücksichtigt wie schnell die Entwicklung allein in den letzten 3 Jahren gewesen ist.
Und am Ende sind es doch nur statische Wörtertaschenrechner, die es aktuell nicht schaffen stichfest zu begründen. Macht mir Angst dass eine irrelevante Information mehr dazu führt dass die Modelle aufeinmal grundlegend falsche Aussagen treffen.. das betrifft aber alle Modelle aktuell
Wenn du links einbaust oder in den Filter von TH-cam fällst, wird es automatisch gelöscht, da hab ich nicht Mal Kontrolle darüber. Ich selbst habe unter diesem Video nicht 1 Kommentar gelöscht, wie du an diesem vielleicht merkst
Ich hab das auch mal getestet gehabt mit meinem zig Projekt und o1 konnte mir leider auch nicht helfen. Musste auch ständig Code korrigieren. Und das Projekt gibt es auch ganz sicher schon 100 mal, also war jetzt nix was es noch nie gab, wo die ja eh versagen, aber zig ist definitiv nicht so seins.
Ja man geht auch nicht hin und macht so Code Generierung als one shot mit nem dicken Modell. Ich empfehle hier einfach Plandex und/oder Aider in Kombination mit Continue zu nutzen. Plandex/Aider um die Projektplanung abzudecken und Continue um dann Finetuning zu machen. Schön mit nem yi-coder Modell da kostet der Kontext nicht soviel, kannste auf 20 GB VRAM locker 24K context starten, da packste schon das halbe Projekt rein. Plandex muss man leider mit OpenAI oder Claude nutzen, aber das Resultat ist unglaublich (auch ohne o1 haha).
du musst halt nach wie vor genau beschreiben was du möchtest. Wenn du den code nicht selbst erklären kannst, kann o1 ihn auch nicht schreiben. Das ding ist kein ersatz für Entwickler, sondern eine virtuelle compiler ebene. Du schreibst nur eben keinen code mehr, sondern prompts. Das heisst nicht dass du dich zurücklehnen kannst und nichts mehr tun musst.
@@hitbox7422 Ich wollte das er eine Funktion schreibt, die die höchste Pokerstraße (also 5 in einer reihe) aus 7 Karten gibt, aber berücksichtigt, dass ein Straight Flush mehr gewicht hat als ein normales Straight mit vielleicht höherer Abschlusskarte. Ein Szenario das schon mehrfach programmiert worden ist. Was soll ich dem Poker erklären, wenn dann erklärt GPT MIR das, würde ich erwarten. Diese Aufgabe kann kein ChatGPT 4o, kein o1, kein Claude, kein gar nix. Jede AI ist zu blöd dafür. Da is nix zu erklären.
@@MrOnePieceRuffy dann unterteile das Problem. Ich bin Front-End Entwickler und schreibe fast alle meine Libraries selber, ich hasse nichts mehr als unnötige Funktionen die im selben scope liegen wie das was ich davon verwende. Wenn ich eine Klasse mit 20 Parametern auf einmal requeste kommt nur dünne Soße raus, egal wie präzise die promts sind.
Was für ein Schwachsinn, was hilft es so kleingeistige Challenges zu lösen?! Interessant wäre es reale Probleme zu lösen, z.b. Performance zu verbessern bei 1.000.000 Datenbankzeilen die aber gebraucht werden. Das ist kein Problem der Größe sondern dass man kreativ arbeiten muss und evtl. auch Kompromisse eingehen muss, Strukturen ändert, herausfindet was genau so aufwendig ist und das angeht. unlösbar für ki. was bringen tests wo ich nicht weis was die testen und ob das dabei ist was ein Entwickler testen wollen würde, und ob die tests überhaupt richtig testen oder die bugs mit?! Eines der grunderkenntnise eines programmieres, was man als erstes überhaupt lernt, ist das es um Potenzen einfacher ist code neu zu schreiben als zu lesen UND zu verstehen UND zu debuggen UND testen. was bringt mir refactoring, wenn die Wahrscheinlichkeit >0.000000001% ist dass es falsch ist, so dass ich alles lesen muss, und sicherzustellen dass er keine neuen bugs hat? du tust so als ob das ohne der Halluzinationen von ki schon jemand machen würde... so erst recht nicht! komplett NUTZLOS in der Praxis. wenn ich so arbeite, wie du es beschreibst, geht die Qualität total in den arsch: tests die bugs mittesten , irgendwas testen, Keiner sieht mehr ob überhaupt etwas wichtiges getestet wird, gute teste sind nicht mehr von bullshit zu unterscheiden. Refactored code der neue bugs erzeugt und nutzlos zeit verschwendet, bei denen die es können und gerne prokratinieren um mit der ki zu spielen oder irgendeinen perfektionswahn nachzugehen, und im besten Fall kommt was total elegantes raus was mich überfordert zu verstehen und ich muss es darum verwerfe oder commite komplett ungetesteten und unverstandenen code. Jeder normale Entwickler spart sich jeder die zeit und schreibt den code selbst neu, den er dann auch versteht und beurteilen kann, ENTWICKELN kann, bevor er den automatischen mist lesen und verstehen muss und den er dann, wenn er ihn überfordert, gar nicht mehr anfasen kann. und auch hier ist qualitativ guter refactoring Code von bullshit nicht mehr zu unterscheiden, wo jede dummbirne refactored und commited a la "hab nen gutes Gefühl" oder "hat ja immer jut gegangen" Nach deiner Arbeitsweise weis keiner wozu man testet oder wozu man verstehen sollte was man hier eigentlich tut.
Wer zahlt denn die Handwerker und Pfleger wenn die ganzen Büroarbeiter arbeitslos zuhause sitzen? Die haben genug Zeit um das nötigste selbst zu machen und können auch selbst auf ihre ältere Verwandtschaft aufpassen.
Bei dem lächerlichen Lohn arbeitest du nur für den Porsche deines Chefs. Und für die Selbstständigkeit braucht man einen Meister, was 10 Jahre dauert, und dann sechsstelliges Startkapital. Keine Lösung.
Handwerk: ja. Pflege: auf keinen Fall. Lasse mich doch nicht für knapp über 20€ zum Sklaven absurder Personalschlüssel machen. Dann noch Schichtarbeit, die einen auf kurz, oder lang, zum physischen und mentalen Krüppel macht - nein, danke.
In Problemen die auf ein Optimum hinaus laufen funktioniert das. Z.b. bei Schachbots hat man sie irrsinnig viele Partien gegen sich selbst spielen lassen. Manche Probleme wie z.b. Logik verlangen aber einen festen Datensatz an richtigen und falschen Beispielen. Hier ist KI im Lernen nicht hilfreich, weil entweder ist die Antwort falsch oder richtig. Und dann gibt es noch das Problem der Bennennung. Sozusagen die Vokabeln eines Fachgebietes. Hierbei müssen wir Menschen uns vor allem erstmal einig sein, wie das Schweinchen heißen soll. Und danach müssen wir es in die Trainingsdaten richtig einpflegen. Würden wir das Modell sich wahllos Informationen aus dem Internet ziehen lassen, dann würde das Modell wieder vom Level eines Doktoranden auf das Niveau eines üblichen YT-Kommentares oder Redit Posts abrauschen. Aber auf dem Weg zu einer AGI müssen wir auch das Lernen der Modelle automatisieren.
Das model basiert nicht auf Optimisierungstechniken (oder zumindest nur teilweise), sondern auf Datenmengen. Je mehr Daten du hast, desto mehr Kontext kann generiert werden. In diesem fall ist es nunmal so das theoretisch alle praktisch existierenden Daten erfasst wurden, weshalb eine Optimierung technisch nicht mehr möglich ist.
Gehe bald in Rente. Gut dass es nun einen würdigen Nachfolger gibt.
Wild😂
Wie schnell das besser wird ist krass
Und das lustige daran ist wir kriegen nur eine deutliche schwächere version öffentlich intern haben die modelle mit ganz anderen fähigkeiten
@@kecksbelit3300 das ist bei sony auch so kollege sein dad arbeitet dort und die haben dort schon playstation 13 aber die geben uns nur die 5
Die Wahrscheinlichkeit ist nicht gering, dass wir uns sehr schnell einem Plateau nähern, oder dieses bereits erreicht haben, was die Verbesserungsmöglichkeiten der derzeitigen Technologien für KI angeht. Die haben mittlerweile alle Daten gefressen und mit dem eigenen Output zu lernen läuft nicht so gut. Was die jetzt mit 4o gemacht haben, kann man vielleicht auch schon als Zeichen dafür sehen. Es ist nicht unbedingt eine Verbesserung des Modells, wenn man einfach mehr und mehr Rechenleistung hereingibt, um drei oder viermal hintereinander über die gleiche Frage nachzudenken.
Ist doch kein Wunder bei den Chips die Nvidia raushaut 440.000 Blackwell Chips an Open AI. das wird gigantisch die Rechenzentren werden Fußballfeld groß
@@un1kum42Guter Ansatz, aber die trainieren ja schon gpt 5
Bin einfach hyped af. Hab meine privat entwickelte front-end library einmal durchlaufen lassen und jede klasse um durchschnittlich 5-10 parameter erweitert, das teil hat hunderte lines perfekt refaktorierten und kontexturierten code innerhalb von Minuten ausgespuckt. Ich bin so viel produktiver mit dem model, das ist einfach wahnsinnig. Mein Job ist dadurch nicht in Gefahr, eine KI kann nur grobmotorisch prompts interpretieren, visionäres reproduzieren von Anforderungen ist unmöglich durch künstliche intelligenz zu ersetzen.
Ein Format, indem du mit GPT-o1 ein komplettes Projekt umsetzt wäre echt spannend. Die Tests und Fragen haben ja eine gewisse Form und Umfang, wie bei Hausaufgaben oder Klausuren. Diese Form wird in den Trainingsdaten garantiert enthalten sein. Ein reales Projekt verlangt neben dem reinen Fachwissen auch die Fähigkeit es in einem Kontext anwenden zu können. Genauso wird die Nutzbarkeit der Modelle stark davon abhängen wie gut wir mit dem Output umgehen können.
Am besten ein Projekt erweitern welches schon besteht. Neues einbauen und altes erweitern. Solang die nicht meine gesamte Code-Base können, bringt es mir wenig das er mir ein Leetcode Problem lösen kann. ( Hab in 4 Jahren gefühlt seltenst solch ein Problem lösen müssen )
@@MrHaggyy Klingt interessant
Das fände ich mega spannend! @Morpheus : Das Thema Softwarearchitektur fehlt mir bei deinen Benchmarks auch irgendwie ein bisschen. Ich fange gerade privat an, ein großes Projekt umzusetzen und was mir am meisten Kopfzerbrechen bereitet ist, wie ich meine Microservices schneide. Hab sowas noch nie gemacht, weil ich immer an legacy code gearbeitet habe und noch nie ein riesiges Refactorig mitgemacht habe.
@@mcdonal3387 wie die Zeit vergeht. O1 kann jetzt 128k Tokens. Jetzt ist Code sehr tokenlastig, aber ~60k Wörter sollte reichen um die meisten Codeblöcke am Stück zu lesen. Da dürfte die Begrenzung auf 16k Token im Output jetzt eher problematisch sein. Wobei Morpheus den Umgang in seinem RSS-Feed Projekt wunderschön beschrieben hat.
@@BugTrampler Ich bin eigentlich Mechatroniker und die Projekte an die ich gewöhnt bin sind für einen reinblütigen Informatiker wahrscheinlich winzig. Aber wir arbeiten viel an der Architektur um jedes unnötige Bit im Code los zu werden, und ich finde GPT klasse um sehr viel auszuprobieren.
Ich leg mir einen Chat pro Projekt an, gebe was ich darf rein, und lass GPT dann mal ein zwei Handvoll an Implementierungen ausspucken. Die Benchmarke ich dann auf der Hardware. Das macht bisweilen richtig Laune und geht erschreckend gut. Das Teil braucht halt wenige Sekunden um eine Idee konsequent auf eine Codebasis anzuwenden, die es fassen kann.
Sollte deine Basis zu groß sein, müsste man Teile des Codes in Module fassen und dem Modell nur wesentliche .h Dateien / Bibliotheken etc. geben.
Vielen lieben Dank für deinen tollen TH-cam Kanal 🙏🏻🫶🏻
Ich danke dir vielmals!
Ich hab ab jetzt einen Doktor in meiner Hosentasche
Defensio schon erledigt?
Du wirst später auch keinen Taschenrechner immer dabei haben!
Vielen Dank für die neuen Videos zu o1 das hast Du wirklich gut gemacht!
Wo sind die Zeiten hin, bei denen Frontendprogrammierung noch Copy and Paste aus Stack Overflow war..
@@dogonbb 😅
@@TheSoliver84
lol....ich hab legit vor 10min noch gedacht wie geil einfach das alles mit 4o in der Schule geworden ist und bekomm jetzt instant n update :D
@@valrach7303 Es ist nicht so geil für dich geworden. Dein Gehirn wird nicht mehr trainiert.
Ich bin Softwareentwickler und wir haben seit 3 Monaten Copilot im Einsatz. Ich schreibe jetzt öfter Mal Prompts statt Code und das wird sicher noch mehr werden. Die Arbeit geht damit etwas schneller. Ob man nun Code oder Prompts schreibt, ist aber im Prinzip egal. Auch Prompts sind nur ne Art Programmierung. 🤷
Mega authentischer tiefgreifender Content !!
Jungs und Mädels: wir leben in der Zukunft. Ich bin echt gespannt, wie sich das in den nächsten 5 jahren entwickelt
Mit chatgpt40 war schon fürs coden nicht schlecht , aber O one ist einfach der absolute Knaller , eine Controller Platine die ich auf einer esp32 Basis programmiert habe dauerte ca. Knapp zwei Wochen , mit O one keine 2 Tage , OOne macht viel weniger Fehler und ist Geschwindigkeits mäßig einfach komplett Irre .
50:24 wenn ein O2 Modell kommt, ziehen dann auch Vodafone und Telekom nach?
Sorry, geht schon wieder
Danke, dass du da sogar mitmachst ❤️😂
super geil. Hab direkt heute auf Arbeit die erste anspruchsvolle SQL Aufgabe damit erledigt (ich arbeite im BigData Bereich). Das lief wie geschmiert.
Langsam hab ich bisschen Angst um meinen Job :D
Keine angst um den Job, Lerne Promting. Promting wird eine große Geschichte
@@felikowski hoffentlich noch im Rahmen deiner Sicherheitsregelungen in der Arbeit ;)
@@Gl8Dy natürlich, ich hab nur das SQL erstellen lassen, keine Daten übertragen 🫡
@@TheSoliver84 promt engineering wird in naher Zukunft auch von KI übernommen
@@SonGoku-zr9nc Deshalb Handwerk oder Pflege
Also ich halte diese Bewertungen mit Doktoranden Niveau nicht für realistisch, mindestens was die fluide Intelligenz betrifft. Ich habe versucht nach genauer Anleitung einen Machine Learning Algorithmus implementieren zu lassen und dafür war o1 preview auch nach mehreren Versuchen schlicht zu dumm.
Oh krass, das ist interessant. 👍 danke
Claude hat es mal geschafft, mir Code zu geben den ich nicht verstanden habe. Ich musste mir also von einer KI den Code erklären lassen ... mit über 20 Jahren Erfahrung in der Programmierung. Das Modell wird mich wahrscheinlich direkt auslachen. 🤷🏼♂️
Das Modell wird sich höflich erkunden wo du arbeitest und sich direkt dort bewerben. 😆
@@efficiencyvi8369 In den allermeisten Fällen ist das schlechter Code. Code sollte immer verständlich geschrieben sein, auch wenn man geringe Performance-Einbussen in Kauf nimmt.
@@rainair402 Na, das war super elegant. Ich wäre da nur im Leben nicht drauf gekommen. 🤣
@@efficiencyvi8369 Bitte schön wenn ich Dir dabei helfen konnte darauf zu kommen 😂 Wenn Du solchen Code nicht verstehst, dann sag Claude er ist schlecht geschrieben. Hilft mehr als klammheimlich GPT zu fragen. So wird Euer Codebase nie besser. Auch mit allem Sarkasmus nicht.
@@rainair402 Nein, ernsthaft. Das war wirklich elegant gelöst. Nachdem ich es verstanden hatte, machte es auch absolut Sinn. Das war also eher meine Codebasis, die in dem Fall Mist war.
Ich teste die Modelle immer mit der gleichen Aufgabe: Erzeuge ein Initiales Beispiel für ein vim Clone in c++ unter Linux. Das interessante ist, die Modelle werden besser. Aber es wird immer schwerer ein Problem im Code zu fixen. Sowohl für die KI als auch für den Anwender der des Tools. Und hier kommt jetzt auch das Problem, der Entwickler baut kein Verständnis für den Code auf und der Code ist zu diesem Zeitpunkt Legacy. Dies bedeutet, jede Änderung dauert Ewig und kann nur unter schmerzen durchgeführt werden.
aha gä, die KI versteht den code lass ihn beschreiben, und wie du was bestimmtes einbaust. ich sehe da jetzt keine schmerzen. die Kontext Fenster werden immer größer von daher lokales Programm und schon versteht die KI den ganzen code. ich denke früher oder später befasst man sich nur noch mit bugfix, die KI kann die Optimierungen machen.
@@TheSoliver84 Mal eine Frage selbst Informatiker oder Entwickler? Wenn ja, dann frage ich dich, wie lange brauchst du in einem dir fremden Code einen Bug zu fixen? Selbst wenn der Ursprüngliche Entwickler dir den Code erklärt. Aber dir nicht verrät wo du suchen sollst? Wenn nein, wie kommst du darauf ?
@@TheSoliver84 fremden code zu fixen ist so ziemlich die nervigste Arbeit, die man sich vorstellen kann
@@TheCefourich mache das auch und es hat sich bewährt, den generierten Code in einem neuen Chat auf Funktion und Korrektheit prüfen zu lassen. Oft genug ist GPT erst mal auf einer falschen "Gedankenspur" und ist nicht davon abzubringen.
Neuer Chat, Reset, zur Not mehrfach neuer Chat 😎. Man merkt sehr schnell, ob er diesmal in der richtigen Spur ist
@TheCefour, Ich bin sowohl Informatiker als auch Entwickler, Aktuell betreiben wir 10 Server mit 20 Nvidia H100 GPUs und haben eigene Modelle entwickelt, an denen wir bereits seit 2019 arbeiten (feilen). Zusätzlich haben wir OpenAI als API integriert, wodurch unsere Modelle miteinander kommunizieren können. Wir sind auch Partner von Replit und Coursor, was uns ermöglicht, diese Plattformen direkt anzubinden. Unser Fokus liegt auf der Entwicklung von Softwarelösungen für den Pharmabereich es ist das führende Unternehmen.
Mal ehrlich, in einem Jahr schreibe ich meine Bachelorarbeit in Informatik. Bis dahin werden die Modelle noch viel besser sein. Und sie sind jetzt schon besser als ich selbst.
Ich frag mich echt ob es sich noch lohnt die BA zu schreiben?
Nope, geh ins Handwerk oder die Pflege, alles andere gehe den Bach unter
@@Xcf_341 Wenn alles andere den Bach runter geht hat aber auch keiner mehr das Geld für Handwerker oder Pfleger. Das müsste dann steuerfinanziert werden, aber die Steuereinnahmen sind dann ja auch weg.
Wenn du soweit denken willst, Roboter sind auch schon bei BMW in der Fabrik 🤷
Gibt noch genug Aufgaben für Informatiker neben programmieren
Keine Angst ihr bekommt eh keine vernünftigen Vorgaben im echten Leben.
@@Xcf_341 Sagte der Pfleger🤡
Bin aktuell im 3. Semester von Informatikstudium mit dem Ziel softwareentwicklung und habe mitlerweile wegen Ki jeden einzelnen Tag zweifel ob ich weiter machen soll oder doch lieber was im Handwerk machen sollte..
Man muss als Informatiker doch kein Entwickler werden. Zudem wird Softwareentwicklung generell eh nicht so gut bezahlt wie andere Bereiche in der IT.
@@Robi-m4d du musst ja trotzdem wissen und vor allem verstehen was dein code macht und dann ggf anpassen
@@sansmoi4168 Welche Bereiche in der IT kannst du empfehlen?
Es gibt echt viele spannende Unterbereiche, Security, Projektmanagement, Data science, administration
Ich hab deswegen auch den Bereich etwas gewechselt. Bei uns werden viele Arbeiten mit Frontend Fokus über KI generiert. Klar überprüft man den Code noch oder muss was korrigieren. Aber es werden deutlich weniger Entwickler mehr benötigt.
Geiles Video wieder einmal! Kannst du auch mal ein Video zur IDE Cursor machen?
Schöner Abriss über LLMs beim Coden. Ich hatte O1 ausprobiert bin dann aber wieder zu Claude 3.5 zurück, ist einfach besser. Vielleicht verstehen Claude und ich uns zwischen auch einfach sehr gut. 😉 Mein OpenAI Abo hab ich wieder pausiert, bis was wirklich releventes kommt. Ich habe nur langsam das Gefühl ich verlerne selber zu coden, an und an muss man sich eben zwingen selbst was zu schreiben.
der exakte farbton, wichtig und richtig.
wie Menschen nicht wie Wissenschaftler ... göttlich 😆
Yeah, endlich. Jemand der sixh da mal dransetzt und ahnung hat
Heute habe ich o1 verwendet, um bestehende Codes zu refaktorisieren und zu optimieren. Das hat super funktioniert. Allerdings war das Neuschreiben bei der Problembeschreibung eher unbefriedigend.
Vorhandenem. Was ist da los?
@@i-am-the-slime Niemand interessiert sich für deine Klugscheisserei.
Was mich interessieren würde: Wie Leistungsfähig ist das Modell, wenn du es strukturierte Daten analysieren lässt?
Geiler typ. Ich sag auch reflektieren ist passender!😅
Das heißt als UX/UI-Designer habe ich noch etwas Zeit bis ich durch KI ersetzt werde. Puh, Glück gehabt!
Wer weiß wie lange. Ich hab vieles wo ich früher unseren Designer beauftragt hätte durch KI lösen lassen. Im Prinzip kann man mit der KI wie mit dem Designer sprechen und die passt alles an. Jeder Wunsch wird beachtet und die KI ist auch nicht genervt wenn man zum 10. mal Änderungen anfragt.
@@BlueM_ Ja, wer weiß wie lange ... Die Frage müssen wir uns alle stellen.
Lohnt sich ein Software-Engineering-Studium überhaupt noch oder sollte man eine andere Vertiefung wählen?
Andere Vertiefung bringt da nicht viel, da du wohl kaum der einzige mit der Idee sein wirst.
Gibt auch noch viele andere Themen für Informatiker, die nach wie vor relevant bleiben 😊
@@TheMorpheusTutorials Danke für die Antwort. Inwiefern sollte das meine Studienwahl beeinflussen? Es gibt viele Richtungen von "Angewandter Informatik" zu "Software Engeering" zu "IT Sicherheit" usw.
Immer Informatik. Software Engineering ist ein Scam. Uncle Bob 🤮
Immer diese Panik, ich studiere auch gerade Informatik. Es gibt einen massiven Mangel allein in Deutschland durch die wegbrechenden Seniorentwickler der Babyboomer. Das kann Ki nur Ansatzweise auffangen. Und mit Ki muss man immer noch coden und implementieren es geht nur schneller und effizienter. Trotzdem braucht man sich da keine Gedanken um langsamer steigende Löhne oder ein überangebot zu machen es wird eher noch knapper als es jetzt schon ist. Der Informatikerbedarf wird in den nächsten 20 Jahren expotentiell zunehmen und es kommen nur linear leicht mehr nach.
Richtig interessant
Was wird KI in 10 oder 20 Jahren können ?
Folgende Challenge ist FEHLGESCHLAGEN: Ich bat GPT-o1 darum, ein Python script zu schreiben, dass die aktuelle GPT API benutzt um auf eine Frage zu antworten. Dazu habe ich sogar einen Link zur aktuellen Dokumentation mit angefügt. Leider hat es GPT-o1 nicht geschafft. Erst nach ca. 15 (!!!) Korrekturhilfen. Nachdem es dann mal einigermaßen funktioniert hatte, bat ich um eine kleine Anpassung und schon war wieder alles im Eimer.
Ist es denkbar, ein ganzes Unternehmen (KMU Level) mit allen Legacy Applikationen und Business kritischen Schnittstellen einzulesen, um Applikationen in den Griff zu bekommen, deren Autoren nicht mehr im Unternehmen sind (und tiefes Business Logik Verständnis mit sich nehmen).
Würde sagen nein. Auch die KI hat kein Verständnis der Business Logik, sie kann nur mit dem vorhandenen code arbeiten. Und ich gehe Mal davon aus, dass nicht alles bis ins kleinste Detail beschrieben ist, warum Dinge so gehandhabt werden wie sie's tun, denn dann könnte das Programm ja auch jmd warten ;) und das wäre dann auch unter der Annahme, dass die KI ein komplett fehlerfreies und perfektes Resultat liefern kann. Hilft nix, stellt jmd ein der sich durchwühlt und das Ding wieder wartbar macht, oder ersetzt es wenn möglich Stück für Stück durch wieder wartbare Software. Dabei baut die Person auch automatisch das Wissen mit auf und ist ein wertvoller Teil bei der Planung von Erweiterungen/Bugfixes.
Also ich nutze das o1 Model momentan für webentwicklung ist super für Optimierung und refactoring neu Entwicklung ist teilweise noch nicht da einfach weil die Anforderungen relativ genau definiert sein müssen. Ich bin tatsächlich obwohl ich es viel nutze noch nicht in die Limits gerutscht.
Likes für den Like-Gott, Kommentare für den Kommentarthron.
Ich sehe nur spezifisches Domainwissen innerhalb eines Unternehmens als Vorteil ggü der KI an allerdings muss man sich dieses erst mal aufbauen. Hier haben oft auch nicht die Entwickler die Nase vorne sondern operative Mitarbeiter. Beispiel: Einkaufsabteilung mit eigener Analytik-Stabstelle. Die Analytiker werden sich von ihrem Job verabschieden können. Die Einkäufer, mit dem spezifischen Domänenwissen, nutzen KI selbst für ihre Analysen und Verhandlungen mit Lieferanten. Change my Mind
Kann das vernünftig PureScript?
Kann man die genutzten internen prompts für eine Antwort abfragen?
Danke
Offtopic Frage:
Hat jmd eine Lösung (Win, PC), wie man ausgewählte dateien nur anhand des namens und ohne dateiendung (zB aus einer liste) aus einem ordner in einen anderen kopiert?
Mit einer batch lösung finde ich leider nur ansätze dateien mit endung zu kopieren ...
Was spricht dagegen, einfach ChatGPT zu fragen?
@@Dzatoah jo, nicht dran gedacht, thx!!!
@@Vision-IT_1 hahahaahahaaha
Bei chat gpt fällt mir ganz stark auf Funktionen und Konzeptionen sehr gut gemacht wird. Problem ist nur wenn ein Entwickler nicht Grund Struktur und Prinzipien kennt und natürlich was er überhaupt machen soll. Ist leider mir schon öfter in der Wirtschaft aufgefallen
bin mal gespannt wie es aussieht, wenn ich das endlich testen kann
Ich werde nächstes Jahr im Oktober Informatik Studium beginnen - das heißt Oktober 28 Bachelor und wenn alles gut läuft Oktober 30 Master- wo denkst du wird KI Ende 2030 stehen ? Lohnt es sich noch ?😊
Lässt sich mit das o1-Modell ein maßgeschneideter Computer für deine Oma erstellen? Also es werden nur die Programme installiert, die deine Oma braucht, für Updates ist keine Passworteingabe erforderlich. Die Updates erfolgen automatisch aber nicht ungefragt.
Sie erhält auch eine ausgedruckte Anleitung. Als Betriebssystem schwebt mir NixOS vor. Da deine Oma das Betriebssystem auch selbst installieren soll, braucht sie auch dafür eine ausgedruckte leicht lesbare Anleitung.
GPT o1 kann nahezu perfekt promten in GPT 4o - that's amazing
claude ist aber für mich Laien in meiner Erfahrung viel besser und wenn ich next js app haben will dann. Ist v0 noch besser, aber allgemein glaube ich dass o1 bestimmt viel besser sein wird sobald limitations weg sind.
Wir brauen das als open source
mögliches Angstszenario 🤔 Je besser das Ding wird, umso weniger werden programmieren, umso weniger Programmierer wird es geben, und irgendwann versteht kein Mensch mehr was das Teil überhaupt macht - bzw. wie man mögliche Fehlentwicklungen korrigieren könnte. Was dann?
Was dann?
Dann können Leute wie ich ohne Proggeraudbildung aber Kenntnis komplexe Projekte selbst aufbauen 😉
Alles eine Frage des Blickwinkels 😎
@@huibert_devet das auf jeden Fall 😀 und ich hab sicher keine Angst vor KI. Trotzdem wäre es glaub ich sinnvoll auch mal an die andere Seite zu denken 🫣
@@Hilfe mache ich ja 😉,
Du an Deine, ich an meine
In gewisser Weise ist das eine Demokratisierung wie "damals", als uns die PC und Mac erlaubten, mit den Möglichkeiten dieser neuen Technik Firmen zu gründen, was wir sonst nie hätten tun können. Seit 1998 mit dem Internet kann ich mich darum als Lebensunterhalt im Web tummeln 🤗
Wer werden
A) assimiliert werden.
Oder
B) terminiert.
P.S.: Ich tippe auf B.
AI requires more electricity to complete even simple tasks compared to typical search queries. In the U.S., about 60% of that electricity comes from burning fossil fuels, which is the primary driver of climate change
Eigentlich nicht, den halluzinieren ist System immanent.
Ich liebe nichtlineare Tensorrechnung. Dagegen hilft keine Statistik oder Prompts.
Ein Agentensystem gibt es doch schon in der SAP BTP das zusammen mit LLMs arbeitet und Anforderungen löst.
Bei der ICE bucket challenge ist meine ki abgeraucht 😞 sad to say 😂
das ding ist zu blöd firefox auf colab zu installieren und es hängt sich immer auf. also nach einer minute brech ich dann einfach ab und nutze mini
Hello my fellow Coding nerdies. Also ich bin gerade am Anfang einer Umschulung zum Anwendungsentwickler und stelle mir die Frage ob wir dann bald arbeitslos werden wenn Ki vermeidlich besser und schneller programmieren kann als wir
Muss man jetzt nur noch 10x fragen statt 20x damit man guten code bekommt ?
So ungefähr.
Aber dagegen haben andere Modelle keine Chance
Man kriegt nie guten Code, aber Boilerplate. Viel anstrengender die Scheiße von dem durchzulesen als ihn selbst zu schreiben. Umgekehrt wäre das viel hilfreicher.
Leider nein. Gegen Halluzinationen gibt es kein Fix. Das ist eine Eigenschaft von neuronalen Netzen. Ist eigentlich das gleiche Problem wie bei Wetterberichte.
Neuronale Netze sind nichtlineare Gleichungssysteme, also chaotisch.
Das heißt Logik macht LLM Probleme.
Große Projekte wird immer ein Problem werden.
Den meisten Entwickler wird LLM nicht helfen, weil die Daten in die USA gehen. Also ein No-Go sind.
Geiler scheiß...direkt mal schauen ob er mein Logik problem lösen kann an dem ich jetzt schon knapp ne woche sitz 😅
und? :D
Wo findet man diese Coding Challenge?
Das neue Modell schafft also jetzt eine coding challenge die schon ausgiebig an vorherige Modelle verfüttert wurde?
Und das verwundert?
Cool :)
Lass die KI eine Challenge erstellen, die du lösen musst. Solange, bis du es nicht mehr schaffst :P
Das o-Modell hat meiner Erfahrung nach einen Hang zum völligen umcoden, und lässt essenzielle Teile des Codes weg, besonders die, die es nicht versteht. Das o1-Modell kann ich nicht beurteilen, habe keinen Zugriff darauf. Habe OpenAI verlassen, weil die Erfahrung einfach nur nervig war.
4o mochte ich tatsächlich auch nicht so gern zum coden, da fand ich Claude tatsächlich besser
Hallo Morpheus, welchen KI Bot würdest Du für HTML-Programming benützen?
@@TheTaimon und wenn es anspruchsvoller wird. Meine Coding-Beispiele haben schon ziemlich viele Zeilen und diese Zeile sprich APP's wollte ich dann mit einem KI-Bot noch weiter verbessern und dann passiert es meistens, dass die Zeilen zu lang sind und daher nicht verarbeitet werden können. Was dann natürlich ärgerlich ist. Vielleichst hast Du mir da noch einen Tipp?
@@andrinSkyleider habe ich bisher hier keine guten Erfahrungen gemacht. Wenn ich Zeit habe teste ich mit o1. Aber mein HTML Code ist vermutlich auch kein gutes Beispiel 😂
Die 30 Request hatte ich nach 4 Stunden schon voll, daher schwer ausgiebig zu testen, aber mittlerweile würde ich fast sagen es ist schon mit einem durchschnittlichen Senior zu vergleichen, während es früher gefühlt nur ein sehr schneller Junior war. Oft hab ich 20-30 diskutieren müssen, bis ich eine Lösung in der Qualität habe die ich haben wollte. Als Senior mit 30 Jahren Erfahrung löse ich aber ja üblicherweise aber auch keine leichten Probleme. Aber man merkt wirklich einen deutlichen Qualitätssprung und das freut mich. Aber es sind immer noch viele Fehler drin. Am Ende ist es ja vermutlich nicht intelligenter geworden, sondern evaluiert nur mehrfach um die Ergebnisse zu verbessern. Und das lest sich vermutlich nur beheben wenn man einfach eigenen Trainingsdaten erstellen bzw. die Modelle einfacher selbst anpassen kann.
Wurde auf 50 pro Woche erhöht und das Mini 50 am Tag
Das Niveau auf dem GPT sich selbst prompten kann ist enorm. Der Ansatz wurde ja schon manuell mit anderen Modellen gemacht. Allerdings gehe ich stark davon aus das Open AI eine Art von Teilen und Herrschen hierbei verwendet.
Hunderte Juniors richtig geprompted können auch sehr viel bewerkstelligen.
Nur kurz: Das Modell heißt nicht ChatGPT o1 sondern OpenAI o1 :)
Es ist ja schon lange klar das die Transformer Modelle mit Iteration viel besser werden. Problem ist halt die benötigte Rechenleistung. Da muss Nvidia (oder wer auch immer) noch sehr viel schnellere NPU's entwickeln. Damit müssen dann neue Rechenzentren gebaut werden. Das kostet mehr als der gesamte Staatshaushalt von Deutschland und China zusammen. Ich glaube 7 Billionen Dollar wollte Sam Altman, CEO von OpenAI, dafür einsammeln. Absoluter Wahnsinn.
7 billion in amerika =. 7 milliarden
@@Denis-hn5cx Grundsätzlich im Englischen. Million = Million, Billion = Milliarde, Trillion = Billion.
Sam möchte 7 Mrd. investieren. Das ist noch deutlich weniger als die 9XX Mrd. die Deutschland jährlich ausgibt, oder die 1'5XX Mrd. die China dieses Jahr ausgeben wird.
Open AI wird dabei vor allem auf viel mehr Chipfläche aus sein, da der Stromverbrauch von Chips exponentiell mit dem Takt geht. Ist sehr vereinfacht gesprochen auch der große Unterschied zwischen A100 und RTX Karten.
Ich habe einen Strike bekommen, weil ich nen Fehlerlog reingeworfen habe 😅
Frage an Morpheus: Was glaubst du, wie lange AI überhaupt noch Code generiert, anstatt sofort Maschinencode auszuspucken?
Maschinencode ist auch Code
01001110 01101111 01110100 00100000 01101100 01101111 01101110 01100111
Das ist jetzt schon eine Frage nach welcher Abstraktion du haben möchtest.
GPT kann Maschinencode generieren. Allerdings braucht das deutlich mehr Tokens als eine höhere Sprache und dürfte für kaum jemanden lesbar/prüfbar sein.
Und wenn dein Code auf unterschiedlicher Hardware laufen soll, ist es ein Nachteil.
@@MrHaggyy Wie kann ich das denn erreichen, dass GPT Maschinencode erzeugt? Ich hab es ca. 20 mal immer wieder aufgefordert das zu tun und es hat sich vehement geweigert.
Punkto Prüfbarkeit und unterschiedliche Hardware sind Kinderkrankheiten, die in 20 Jahren keine Rolle mehr spielen werden, schätze ich mal. Spätestens wenn man o1 sagt, dass es einmal für jedes OS den Maschinencode erzeugen soll, hat sich das selbst heute schon erledigt. Und die Prüfung könnte durch eine entsprechende Prüf-KI durchgeführt werden. Die einzige Frage ist, ob es in 20 Jahren KI-Anbieter geben wird, die entsprechend vertrauenswürdig sind. Aber technisch sehe ich da nicht die geringsten Schwierigkeiten, wenn man berücksichtigt wie schnell die Entwicklung allein in den letzten 3 Jahren gewesen ist.
Größere Projekte nie. Logik ist die einzige Schwäche von LLMs.
wow cool
Und am Ende sind es doch nur statische Wörtertaschenrechner, die es aktuell nicht schaffen stichfest zu begründen. Macht mir Angst dass eine irrelevante Information mehr dazu führt dass die Modelle aufeinmal grundlegend falsche Aussagen treffen.. das betrifft aber alle Modelle aktuell
Also bin ich bald doch arbeitslos
Schade, dass hier kritische Kommentare gelöscht werden, dann kann ich mich auch verabschieden. Tschüss
Perfekt, das als Kommentar zu verfassen
Wenn du links einbaust oder in den Filter von TH-cam fällst, wird es automatisch gelöscht, da hab ich nicht Mal Kontrolle darüber. Ich selbst habe unter diesem Video nicht 1 Kommentar gelöscht, wie du an diesem vielleicht merkst
@@TheMorpheusTutorials Ich habe keinen Link hinterlassen. Nun gut, wenn dem so ist, entschuldige ich mich.
top
post-work-society incoming
oder auch post society work ;)
Ich hab das auch mal getestet gehabt mit meinem zig Projekt und o1 konnte mir leider auch nicht helfen. Musste auch ständig Code korrigieren. Und das Projekt gibt es auch ganz sicher schon 100 mal, also war jetzt nix was es noch nie gab, wo die ja eh versagen, aber zig ist definitiv nicht so seins.
Ja man geht auch nicht hin und macht so Code Generierung als one shot mit nem dicken Modell. Ich empfehle hier einfach Plandex und/oder Aider in Kombination mit Continue zu nutzen. Plandex/Aider um die Projektplanung abzudecken und Continue um dann Finetuning zu machen. Schön mit nem yi-coder Modell da kostet der Kontext nicht soviel, kannste auf 20 GB VRAM locker 24K context starten, da packste schon das halbe Projekt rein. Plandex muss man leider mit OpenAI oder Claude nutzen, aber das Resultat ist unglaublich (auch ohne o1 haha).
Die Dinger können keine guten Sprachen. Wie die meisten Entwickler
du musst halt nach wie vor genau beschreiben was du möchtest. Wenn du den code nicht selbst erklären kannst, kann o1 ihn auch nicht schreiben. Das ding ist kein ersatz für Entwickler, sondern eine virtuelle compiler ebene. Du schreibst nur eben keinen code mehr, sondern prompts. Das heisst nicht dass du dich zurücklehnen kannst und nichts mehr tun musst.
@@hitbox7422 Ich wollte das er eine Funktion schreibt, die die höchste Pokerstraße (also 5 in einer reihe) aus 7 Karten gibt, aber berücksichtigt, dass ein Straight Flush mehr gewicht hat als ein normales Straight mit vielleicht höherer Abschlusskarte. Ein Szenario das schon mehrfach programmiert worden ist. Was soll ich dem Poker erklären, wenn dann erklärt GPT MIR das, würde ich erwarten.
Diese Aufgabe kann kein ChatGPT 4o, kein o1, kein Claude, kein gar nix. Jede AI ist zu blöd dafür. Da is nix zu erklären.
@@MrOnePieceRuffy dann unterteile das Problem. Ich bin Front-End Entwickler und schreibe fast alle meine Libraries selber, ich hasse nichts mehr als unnötige Funktionen die im selben scope liegen wie das was ich davon verwende.
Wenn ich eine Klasse mit 20 Parametern auf einmal requeste kommt nur dünne Soße raus, egal wie präzise die promts sind.
Davin hat sich doch als Scam herausgestellt
Noch, auf 5 Jahre fliegen hier einige raus
pareto lässit grüßen
Mit nur 30 Nachrichten pro Woche ist das neue Model aktuell noch komplett nutzlos.
Wurde heute aktualisiert, siehe Video 😊
Wenn es gut wäre, würde es sich weigern Python zu schreiben.
Was für ein Schwachsinn, was hilft es so kleingeistige Challenges zu lösen?!
Interessant wäre es reale Probleme zu lösen, z.b. Performance zu verbessern bei 1.000.000 Datenbankzeilen die aber gebraucht werden.
Das ist kein Problem der Größe sondern dass man kreativ arbeiten muss und evtl. auch Kompromisse eingehen muss, Strukturen ändert, herausfindet was genau so aufwendig ist und das angeht. unlösbar für ki.
was bringen tests wo ich nicht weis was die testen und ob das dabei ist was ein Entwickler testen wollen würde, und ob die tests überhaupt richtig testen oder die bugs mit?!
Eines der grunderkenntnise eines programmieres, was man als erstes überhaupt lernt, ist das es um Potenzen einfacher ist code neu zu schreiben als zu lesen UND zu verstehen UND zu debuggen UND testen. was bringt mir refactoring, wenn die Wahrscheinlichkeit >0.000000001% ist dass es falsch ist, so dass ich alles lesen muss, und sicherzustellen dass er keine neuen bugs hat? du tust so als ob das ohne der Halluzinationen von ki schon jemand machen würde... so erst recht nicht! komplett NUTZLOS in der Praxis.
wenn ich so arbeite, wie du es beschreibst, geht die Qualität total in den arsch: tests die bugs mittesten , irgendwas testen, Keiner sieht mehr ob überhaupt etwas wichtiges getestet wird, gute teste sind nicht mehr von bullshit zu unterscheiden. Refactored code der neue bugs erzeugt und nutzlos zeit verschwendet, bei denen die es können und gerne prokratinieren um mit der ki zu spielen oder irgendeinen perfektionswahn nachzugehen, und im besten Fall kommt was total elegantes raus was mich überfordert zu verstehen und ich muss es darum verwerfe oder commite komplett ungetesteten und unverstandenen code.
Jeder normale Entwickler spart sich jeder die zeit und schreibt den code selbst neu, den er dann auch versteht und beurteilen kann, ENTWICKELN kann, bevor er den automatischen mist lesen und verstehen muss und den er dann, wenn er ihn überfordert, gar nicht mehr anfasen kann. und auch hier ist qualitativ guter refactoring Code von bullshit nicht mehr zu unterscheiden, wo jede dummbirne refactored und commited a la "hab nen gutes Gefühl" oder "hat ja immer jut gegangen"
Nach deiner Arbeitsweise weis keiner wozu man testet oder wozu man verstehen sollte was man hier eigentlich tut.
Klar schlägt es die, was an den Trainingsdaten liegt!!! MANN EY!
warum eig noch studieren wenn ki in einem jahr eh alles kann
erster
Bin ich dumm? Wo ist der Unterschied zu dem anderen Video? 😅
Coding challenge, refactoring und Co 😂
Geht ins Handwerk oder die Pflege, sage ich euch wie es auf 15 Jahre ist.
Wer zahlt denn die Handwerker und Pfleger wenn die ganzen Büroarbeiter arbeitslos zuhause sitzen? Die haben genug Zeit um das nötigste selbst zu machen und können auch selbst auf ihre ältere Verwandtschaft aufpassen.
Bei dem lächerlichen Lohn arbeitest du nur für den Porsche deines Chefs. Und für die Selbstständigkeit braucht man einen Meister, was 10 Jahre dauert, und dann sechsstelliges Startkapital. Keine Lösung.
Handwerk: ja.
Pflege: auf keinen Fall.
Lasse mich doch nicht für knapp über 20€ zum Sklaven absurder Personalschlüssel machen. Dann noch Schichtarbeit, die einen auf kurz, oder lang, zum physischen und mentalen Krüppel macht - nein, danke.
@@forben3523universelles Grundeinkommen. Muss früher oder später eh Kommen, sonst hast du 20% Arbeitslosigkeit wegen KI
@@forben3523 Zeit ja, Bock nein. Das ist der Key
wo guckt der mann eigentlich immer hin?
Auf seine slides
@@TheMorpheusTutorials guter mann
@mihao-runs weird boy
Sprech bitte GPT englisch aus. Echt unangenehm auf deutsch 😅
ist der hype um promt engineering durch Chain-ofthought wieder ausgebrannt?
Kann man nicht ein loop bauen, dass chat gpt selbst sein eigenes Modell entwickelt, dann wäre das Ergebnis ja besser als jetzt, und das sukzessiv.
In Problemen die auf ein Optimum hinaus laufen funktioniert das. Z.b. bei Schachbots hat man sie irrsinnig viele Partien gegen sich selbst spielen lassen.
Manche Probleme wie z.b. Logik verlangen aber einen festen Datensatz an richtigen und falschen Beispielen. Hier ist KI im Lernen nicht hilfreich, weil entweder ist die Antwort falsch oder richtig.
Und dann gibt es noch das Problem der Bennennung. Sozusagen die Vokabeln eines Fachgebietes. Hierbei müssen wir Menschen uns vor allem erstmal einig sein, wie das Schweinchen heißen soll. Und danach müssen wir es in die Trainingsdaten richtig einpflegen.
Würden wir das Modell sich wahllos Informationen aus dem Internet ziehen lassen, dann würde das Modell wieder vom Level eines Doktoranden auf das Niveau eines üblichen YT-Kommentares oder Redit Posts abrauschen.
Aber auf dem Weg zu einer AGI müssen wir auch das Lernen der Modelle automatisieren.
Das model basiert nicht auf Optimisierungstechniken (oder zumindest nur teilweise), sondern auf Datenmengen. Je mehr Daten du hast, desto mehr Kontext kann generiert werden. In diesem fall ist es nunmal so das theoretisch alle praktisch existierenden Daten erfasst wurden, weshalb eine Optimierung technisch nicht mehr möglich ist.
SelfTaughtReasoningAWEberry