LLama 2: Best Open Source Chatbot in GPT4All

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ต.ค. 2024
  • Was nutzt ihr? LLama oder ChatGPT?
    Hier ist die Linksammlung:
    ai.meta.com/ll...
    economictimes....
    Papier: arxiv.org/pdf/...
    huggingface.co...
    huggingface.co...
    huggingface.co...
    github.com/oob...
    Selbst kostenlos Informatik lernen auf meiner Website: bootstrap.acad...
    Alle meine Social Media Portale *:
    bio.link/themo...
    Discord:
    the-morpheus.d...
    Unterstützt mich - Danke!:
    www.patreon.co...
    www.paypal.me/...

ความคิดเห็น • 72

  • @marc.w.7692
    @marc.w.7692 ปีที่แล้ว +4

    du machst die umfänglichsten aktuellsten videos, und dazu holst du noch so ziemlich jeden ab. tiptop!

  • @tinkerpaper
    @tinkerpaper ปีที่แล้ว +20

    Toll! Mich interessieren solche Videos mit Ai! Kannst du auch noch ein Video für finetuning machen?

  • @soerengebbert
    @soerengebbert ปีที่แล้ว +17

    Kleine Korrektur: es sind nicht Milliarden Neuronen, sondern Milliarden Parameter. Jedes Neuron hat ja sehr viele Gewichte, dazu kommen noch die Gewichte der Attention Layer.

    • @sovielsand
      @sovielsand ปีที่แล้ว +2

      nunja... hier wird ganz viel halbwissen vermittelt. bspw ist ggml das bereits fertig errechnete sprachmodell in der jeweiligen ausprägung. gpt4all hat derzeit nicht die aktualisierte llama.cpp um ein llama2-70b sprachmodell zu laden. auf die jeweilige quantirisierung und was K_S oder K_M angeht auch nicht. schade eigentlich, das hier nur so oberflächlich an dem thema "drüber gerutscht" wird.

  • @quentinquarantino8261
    @quentinquarantino8261 ปีที่แล้ว +1

    Ich bin ein Fan von dir von der ersten Stunde. Deine Videos sind echt stark!

  • @HakanBacon
    @HakanBacon ปีที่แล้ว +6

    Das ist so crazy, dass das alles open source ist. Sobald 70B nutzbar wird für den einfachen user wird das mega!
    Tolles video, gefällt mir!

  • @wasgeht2409
    @wasgeht2409 ปีที่แล้ว +1

    Auf das Video habe ich gewartet :) Danke

  • @floppyDisk616
    @floppyDisk616 ปีที่แล้ว +1

    Hammer Tutorial und sehr verständlich erklärt 😄👍
    ... habe allerdings das gefühl, dass man mit der unzenierten version pandoras box geöffnet hat. Wenn man die richtigen fragen stelöt bekommt man informationen, die nicht umbedingt jedem in die Hände fallen sollte 😅

    • @Legija0ne
      @Legija0ne ปีที่แล้ว

      aber was könnte man den fragen? die texte sind ja eh alle aus dem internet (open source)

  • @RainerK.
    @RainerK. ปีที่แล้ว +4

    "The best offering in the game Dead by Daylight would be a character with a unique personality, such as a ghost or an angel. The best offering in the game Dead by Daylight would also depend on the player's preferences and playstyle." (13b)

  • @xReTuneSx
    @xReTuneSx ปีที่แล้ว

    Danke für das Tutorial 🤗

  • @christopherklein3829
    @christopherklein3829 ปีที่แล้ว +2

    5:20 das ist doch ein Thema für dich. Gpt-engineer mit llama2 und fine tuned coding Modellen. Jetzt die spannende frage: wo?

  • @traumerle369
    @traumerle369 ปีที่แล้ว

    Das Lami ist immer noch niedlich und trotzdem sollten wir unser eigenes Ding machen, was allein eine Frage des Prinzips ist.

  • @Olaf_Schwandt
    @Olaf_Schwandt ปีที่แล้ว +2

    eine Frage noch: kann ich mit GPT4All auf lokale Dateien zugreifen? Auch auf mehrere gleichzeitig bzw. automatisch nacheinander?

  • @rishiraj2548
    @rishiraj2548 ปีที่แล้ว +1

    Danke

  • @MMSummer26
    @MMSummer26 ปีที่แล้ว +1

    Wurde vor 13 Minuten bei TheBloke zu den Mode-Downloads hinzugefügt:
    Llama 2 70B Instruct v2 - GGML

    • @ichbinderroboter
      @ichbinderroboter ปีที่แล้ว

      Wie kann man den zu GPT4All hinzufügen?

  • @eliteeimer5346
    @eliteeimer5346 ปีที่แล้ว +5

    Ein Video, wie ich selber ein Modell "fine-tunen" kann, wäre nice.

    • @sovielsand
      @sovielsand ปีที่แล้ว

      nunja... hier wird ganz viel halbwissen vermittelt. bspw ist ggml das bereits fertig errechnete sprachmodell in der jeweiligen ausprägung. gpt4all hat derzeit nicht die aktualisierte llama.cpp um ein llama2-70b sprachmodell zu laden. schade eigentlich, das hier nur so oberflächlich an dem thema "drüber gerutscht" wird.

    • @ratside9485
      @ratside9485 ปีที่แล้ว

      Zumindest nicht so einfach wie Bild KIs alles was ich dazu gesehen habe schaut noch ziemlich kompliziert aus. Ich glaube das schwerste wird die Aufarbeitung der Trainingsdaten sein. Basiert halt alles auf Frage und Antwort. Wüsste nicht wie ich da z.b Wissen aus ein Fachbuch Tranieren könnte.

    • @Silberschweifer
      @Silberschweifer ปีที่แล้ว

      @@ratside9485 Mhm Lernkarteien sind da nicht schlecht was Fragen + Antworten angeht

    • @Silberschweifer
      @Silberschweifer ปีที่แล้ว +1

      @@sovielsand du könntest gerne Videos dazu machen oder Blogbeiträge, ich würde mich über mehr Tiefgang freuen. falls zu aufwändig hier im Kommentarbereich gerne

    • @sovielsand
      @sovielsand ปีที่แล้ว

      @@Silberschweifer : ich bin kein content creator wie morpheus. aber die nummer und das video war halt verflucht _niederschwellig_ / diffus / abseits vom thema....
      im grunde genommen ist der gesamte fachliche content hier seit wochen unter aller *hütte*, weil es nur um klicks geht. wenn es schön und reich macht? bitte sehr! es gibt halt keinen echten mehrwert.

  • @n-i-n-o
    @n-i-n-o ปีที่แล้ว

    Dankeschön!

  • @hellerqr8588
    @hellerqr8588 ปีที่แล้ว +1

    70b GGML sind jetzt auch schon verfügbar 🤩

  • @3pcgi959
    @3pcgi959 7 หลายเดือนก่อน

    Was ist dieses "TheBloke/KafkaLM-70B-German-V0.1-AWQ"
    Gibt es Erklärungen für all die Modele? Da sind so viele Modelle dabei und kein Mensch weiß, wozu die gut sind?

  • @trojaner180
    @trojaner180 ปีที่แล้ว

    Issues sind einfach Programmier-Tickets und nicht nur Fehler, sonderm im Allgemeinen Anforderungen und Tasks an die Entwicklung 😁

  • @stefanchuck
    @stefanchuck 9 หลายเดือนก่อน

    Hi, was hältst du von LM Studio als Programm?

  • @compuglobalhypermeganet
    @compuglobalhypermeganet ปีที่แล้ว

    Kriege ich das auf nem Notebook mit Ryzen 7 5700U ohne GPU bertieben ?

  • @ratside9485
    @ratside9485 ปีที่แล้ว +1

    Gibt auch ein LLama 2 das auf ein paar deutsche Datensätze verfeinert wurde. Funktioniert nur noch nicht so gut. Fantasiert bei mir nur ständig und wechselt ins Englische.

  • @cfo3049
    @cfo3049 ปีที่แล้ว

    Kannst du mal was zu Leonardo AI machen und ein Vergleich zu anderen AI Image Generatoren ziehen?

  • @PalusiYt
    @PalusiYt ปีที่แล้ว

    Kannst du mal ein Video über das falcon llm machen? Denke das könnte auch interessant werden.

  • @tobene
    @tobene ปีที่แล้ว

    Gibt auch ein colab notebook in dem man das llama2-13b model ausprobieren kann ohne was zu installieren

  • @quentinquarantino8261
    @quentinquarantino8261 ปีที่แล้ว

    Könntest du bitte zeigen ob es Opensource Alternativen zu RunwayML gibt. Also videogenerierung mittels KI.

  • @bci3937
    @bci3937 10 หลายเดือนก่อน

    Ich will Datenbanken verbinden wie geht das?

  • @alitz
    @alitz ปีที่แล้ว

    Da sind ja nun auch einige 70b Modelle - keines von denen hat bei mir funktioniert (RAM müsste ich ausreichend haben). Hat jemand einen Hinweis parat?

  • @ChrisW1234
    @ChrisW1234 ปีที่แล้ว

    Gibt es auch eine Lokale Version mit Upload von PDF Dateien zum Auswerten ?

  • @jamesmor5305
    @jamesmor5305 ปีที่แล้ว +1

    Kann die Weboberfläche auch als API genutzt werden wie bei StableDeffusion?

    • @JustAn0therSoul
      @JustAn0therSoul ปีที่แล้ว

      guck dir oobabooga an, das hat ein webui wie a1111 und weniger bugs als gpt4all

  • @Laurin2003queer
    @Laurin2003queer ปีที่แล้ว

    Danke für das Tutorial ich habe, aber noch ein paar Probleme damit. Llama2 70B GGML funktioniert bei mir nicht mit GPT4All und die 7B braucht einfach fast eine Minute um zu antworten. Was für ein paar Usecases wie zum Beispiel eine realistische NPC-Dialoge Mod, Contraproduktiv ist. Kann mir vielleicht jemand in den Kommentaren helfen, wie ich das Problem lössen kann.

  • @marwo8618
    @marwo8618 ปีที่แล้ว +1

    kannst du ein Video machen wie man wie man ein Modell mit seinen eigenen Daten füttert ?

  • @overlord09931
    @overlord09931 ปีที่แล้ว

    ich bin gespannt wann die 13b Chat Version unzensiert kommt 😁

  • @compuglobalhypermeganet
    @compuglobalhypermeganet ปีที่แล้ว

    Graucht man ne heftige Grafikkarte für

  • @enndee9353
    @enndee9353 ปีที่แล้ว +1

    Was für Hardware sollte man denn für die jeweiligen Modelle im Rechner haben?
    Reicht ne 4090 schon für das 70B Modell? :D

    • @supportend
      @supportend ปีที่แล้ว +1

      Grafikkarte weiß ich nicht, beim Ram Verbrauch per CPU siehts so aus mit dem llama-2-70b.ggmlv3.q5_0.bin Modell:
      llama_model_load_internal: mem required = 45827,21 MB (+ 160,00 MB per state)
      Ist aber von der Quantisierungsmethode abhängig, auf den Modellseiten stehen oft so Tabellen.

    • @realtuxi
      @realtuxi ปีที่แล้ว

      Mit GPT4All reicht ein Laptop ohne Grafikkarte mit einer 4-Kern CPU und 8 GB RAM für 7B oder 16 GB RAM für 23B, wenn du nicht allzu viel Geschwindigkeit erwartest.

    • @ratside9485
      @ratside9485 ปีที่แล้ว

      @@supportend Wird ziemlich langsam sein ^^ mit PC Arbeitspeicher

    • @supportend
      @supportend ปีที่แล้ว

      Ist relativ, ich hab große Modelle so laufen und warte halt bisschen. :-)

    • @ratside9485
      @ratside9485 ปีที่แล้ว

      @@supportend Wieviel RAM brauchst du zum ausführen? Glaube die Geduld habe ich nicht. 😀 Und wüsste auch nicht was ich fragen sollte was mir das 13b oder demnächst das 32b Modell nicht auch beantworten kann.

  • @myzel394
    @myzel394 ปีที่แล้ว

    Ich hab eine Idee für ein Video, das wir alle sicher brauchen würden: Wie kann ich mir die neueste Nvidia-Grafikkarte für 50€ kaufen?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  ปีที่แล้ว

      😂😂😂 oder gar die neuste Server Karte für 10€ statt 30000€

  • @Olaf_Schwandt
    @Olaf_Schwandt ปีที่แล้ว

    Hi, danke für das Video.
    Ich habe eine Bitte. Ich würde das Video gerne einer Bekannten empfehlen, aber sie kann kein Deutsch. Kannst Du das automatische Erzeugen des Tra nsskripts und das automatische Übersetzen ins Englische einstellen. Dann kann sie sich das Video mit englischen Untertiteln ansehen. Das wäre super. Danke schon mal.
    PS: was (oder wer) ist TheBloke?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  ปีที่แล้ว +2

      Oh ja natürlich, ich erstelle direkt welche mit whisper, Gib mir ne Stunde 👍

    • @Olaf_Schwandt
      @Olaf_Schwandt ปีที่แล้ว

      @@TheMorpheusTutorials Danke, kein Stress, ich erreich sie eh erst heute Abend. Und wg. Whisper: Ich dachte, das macht TH-cam selbst, aber vielleicht ist Whisper besser.

    • @supportend
      @supportend ปีที่แล้ว

      Eine Stunde für 17 Minuten Audio sind aber flott. Mit dem größten Modell brauchts bei mir ca. 16 mal solange wie das Original, läuft allerdings per CPU. Vielleicht deshalb.

    • @Olaf_Schwandt
      @Olaf_Schwandt ปีที่แล้ว

      @@supportend danke

    • @Sunnygoesbrr
      @Sunnygoesbrr ปีที่แล้ว

      @@supportend warum audio? er fragte nach untertitel :D

  • @John83er
    @John83er ปีที่แล้ว

    Könnte man lama2 auch dazu verwenden bestimmte Töne in Audio Dateien zu erkennen? Also zb einen Frosch.
    Wenn ja wie würde man das Finetuning machen?

    • @tunk930
      @tunk930 ปีที่แล้ว

      Nein dafür gibt es z.B. für Sprache Whisper, ein audio zu text model. Für deinen anwendungszweck müsste man das finetunen oder vielleicht gibt es bereits ähnliche modelle

  • @TitusKotlin
    @TitusKotlin ปีที่แล้ว +2

    erster

    • @TitusKotlin
      @TitusKotlin ปีที่แล้ว

      kann ich auch irgendwie in python drauf zugreifen wie bei der chatgpt api nur ohne api

    • @supportend
      @supportend ปีที่แล้ว

      Ja, Pythonbindings für llama.cpp und GPT4All gibts.

    • @realtuxi
      @realtuxi ปีที่แล้ว

      Jap, gpt4all hat sogar einen eingebauten openai api server!

  • @kikierikiii183
    @kikierikiii183 ปีที่แล้ว +3

    bitte Video zu top_p/top_k, thx :D

  • @aketo8082
    @aketo8082 ปีที่แล้ว +2

    Vielen Dank. llama-2-13b-chat.ggmlv3.q4_K_M.bin ist interessant, schreibt auch auf Deutsch.
    Nachtrag: Sehr spannend, der Test mit einer kleinen Geschichte und Fragen dazu läuft interessant ab. :-)
    Wäre mal interessant zu wissen/sehen, wie man einen Fehler korrigieren kann. Also, wie das bei diesem Sprachmodell funkioniert und man die "Inteligenz" trainiert. Vielen Dank.

    • @realtuxi
      @realtuxi ปีที่แล้ว +1

      Q4_K_M ist eine viel bessere Wahl als Q2_K wie im Video! Wenn nicht sogar die beste, da es wohl den besten Ausgleich zwischen Qualität und Größe hergibt. Unter Q4_x sollte man eigentlich gar nicht gehen.

    • @aketo8082
      @aketo8082 ปีที่แล้ว

      @@realtuxi Ich hatte das "einfach so" ausgewählt. Heute sieht es anscheinend anders aus, LLAMA 2 kann sich kaum an das "Gespräch" von gestern "erinnern".
      Mich würde mal interessieren, wie ein LLM z.B. Namen und Orte "erkennt". Kann mir das Anhang einer "Statistik" nicht so wirklich vorstellen. Sind jedenfalls heute nur fehlerhafte Antworten. GPT4All hat seit heute die Version 2.4.14. Bleibt spannend!

    • @realtuxi
      @realtuxi ปีที่แล้ว

      ​@@aketo8082 Ja, moeglicherweise ist bei der neuen Version etwas im Zusammenhang mit LLaMA 2 kaputt gegangen. Danke fuer den ganz inoffiziellen Report.