Come Addestrare un LLM con i Tuoi Dati Personali: Guida Completa con LLaMA 3.2

แชร์
ฝัง
  • เผยแพร่เมื่อ 3 ม.ค. 2025

ความคิดเห็น • 98

  • @unokometanti8922
    @unokometanti8922 3 วันที่ผ่านมา +1

    OTTIMO stile: conciso, dritto al punto, senza sacrificare la spiegazione quando necessaria. Continua così!

    • @simone_rizzo98
      @simone_rizzo98  วันที่ผ่านมา

      certamente, avanti tutta!

  • @AldoPederzolli
    @AldoPederzolli 4 วันที่ผ่านมา +1

    Molto interessante, utile e facile da capire...👍

  • @faustokoronica3638
    @faustokoronica3638 20 วันที่ผ่านมา +10

    Gran bel video complimenti. Sarebbe interessante un video sui data set. Dove trovarli....Come crearli.... buona domenica a tutti

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +14

      Va bene posso prepararne uno!

    • @faustokoronica3638
      @faustokoronica3638 20 วันที่ผ่านมา

      @simone_rizzo98 grandioso! Grazie mille

  • @shaice
    @shaice 7 วันที่ผ่านมา +1

    bravo bravo bravo, chiaro, conciso, utile. Inoltre tutto gratis. Veramente bravo.

  • @Stefanot_AI
    @Stefanot_AI 18 วันที่ผ่านมา

    Ci sono riuscito! Ottime e chiare istruzioni anche per un non esperto come me. Sono partito dall'inizio ed ho installato Ollama e sono arrivato fino a fare girare in locale il tutto.
    Devo studiare meglio Colab, che mi ha creato i maggiori problemi. Grazie Simone!!

    • @simone_rizzo98
      @simone_rizzo98  18 วันที่ผ่านมา +1

      Grande Stefano! Evvaii aspettavo un commento del genere di qualcuno che effettivamente provasse tutto il flusso!

    • @Stefanot_AI
      @Stefanot_AI 18 วันที่ผ่านมา

      @@simone_rizzo98 😉 Grazie a te per l'ottima guida. Faccio notare a tutti quelli che ci proveranno, che servirebbero oltre 6gb liberi sul Google Drive. Nell'account che ho usato per Colab non li avevo e quindi ho salvato manualmente sul pc i due file menzionati "Modelfil" (da editare come indicato nel video) e unsloth.F16.gguf (di circa 6gb che con calma verrà scaricato in locale). In ogni caso tutto liscio fino a "Esporto in GGUF per Ollama" e ottime istruzioni!!

  • @MauroC74
    @MauroC74 20 วันที่ผ่านมา +2

    grazie, molto interessante e pratico, dritto al punto senza fronzoli

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      Esattamente non voglio farvi perdere tempo, solo informazioni di alta qualità!

  • @paolo_fantinel
    @paolo_fantinel 20 วันที่ผ่านมา +1

    Finalmente qualcosa di super concreto e nuovo... bravo davvero.

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      Solo fatti! Fanne buon uso🙌

  • @fabioauditore7777
    @fabioauditore7777 5 ชั่วโมงที่ผ่านมา

    Bellissimo video! Bravissimo! Ho provato anche io! Il problema è stato con quel dannato llama.ccp che pare sia stato aggiornato con un certo CMake... E poi, nel Terminale di Colab non trovava le Directory giuste quando faceva la conversione... Vabbè, alla fine ne sono venuto a capo 😁

  • @FabioFoglia
    @FabioFoglia 20 วันที่ผ่านมา +2

    bravo un bel video per dare un'idea concreta del lavoro che c'è dietro questa tecnologia

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      Esattamente ma soprattutto che la parte principale è la preparazione del dataset, i dati sono tutto!

  • @marcomarchetti6605
    @marcomarchetti6605 20 วันที่ผ่านมา +1

    Un gran bel video e soprattutto concreto. Complimenti.

  • @paoloscicutella739
    @paoloscicutella739 14 วันที่ผ่านมา

    Video super completo e dritto al punto, sarebbe molto bello lo stesso tipo di contenuto su modelli multimodali (ex. llama 3.2 11b) e di come si crea un set di immagini su cui addestrarli e dell'addestramento effettivo.

    • @simone_rizzo98
      @simone_rizzo98  14 วันที่ผ่านมา

      Bellissimo commento grazie vedo di proporre un video come riesco!

  • @waltergiannattasio
    @waltergiannattasio 19 วันที่ผ่านมา

    Video utilissimo. Complimenti Simone!

  • @AnnabellaHogg-p8o
    @AnnabellaHogg-p8o 20 วันที่ผ่านมา +3

    Video utilissimo!

  • @nugh1975
    @nugh1975 20 วันที่ผ่านมา +2

    Grazie tantissime, video utile e semplice, E poi grazie per lo script!

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Di nulla, fanne buon uso!

    • @nugh1975
      @nugh1975 20 วันที่ผ่านมา

      Il 18 faccio una lezione sull'AI per degli studenti della triennale. Metterò il tuo video tra le risorse come esempio per il training di un AI. Va bene come uso?

  • @nikolaus004
    @nikolaus004 20 วันที่ผ่านมา +1

    Sei bravissimo. Complimenti. Nuovo iscritto :)

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Grazie e benvenuto 🙌

  • @alessandro2882
    @alessandro2882 4 วันที่ผ่านมา +1

    Grazie Simone per il tuo video! A quando un video dove mostri anche come fare lo split del dataset nelle tre diverse fasi e l'esplorazione degli iper parametri? Saluti e buona giornata.

  • @yassirrhila7574
    @yassirrhila7574 16 วันที่ผ่านมา

    Grazie mille Simone, lo proverò sicuramente!

    • @simone_rizzo98
      @simone_rizzo98  16 วันที่ผ่านมา

      grande fammi sapere poi!

  • @FedericoMaragoni
    @FedericoMaragoni 20 วันที่ผ่านมา +1

    Ottimo video informativo!

    • @simone_rizzo98
      @simone_rizzo98  19 วันที่ผ่านมา

      grazie, sono contento che ti sia piaciuto!

  • @alessandrolippolis2198
    @alessandrolippolis2198 20 วันที่ผ่านมา +1

    Grande, molto prezioso, grazie

  • @N1m0Y
    @N1m0Y 20 วันที่ผ่านมา +1

    Top, adoro, top, adoro🙏❤️💪👏

  • @pippopluto8004
    @pippopluto8004 20 วันที่ผ่านมา +2

    Wow lo aspettavo questo video. Grazie. Volevo chiederti se dopo l'addestramento, a parte il RAG anche quello molto interessante, se si può far in modo che il modello "impari" da ogni interazione con l'utente attraverso i prompt?

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Questo purtroppo non si può fare poiché troppo costoso addestrarlo ad ogni nuovo messaggio. Questo che vuoi fare te si chiama Continual Learning e gli llm non sono adatti a questo

    • @pippopluto8004
      @pippopluto8004 20 วันที่ผ่านมา

      Ok, capito. Gentilissimo 😊

  • @marcocomande8253
    @marcocomande8253 วันที่ผ่านมา

    Grande!

  • @massimoalbe698
    @massimoalbe698 9 วันที่ผ่านมา +1

    Pazzesco non sapevo esistesse una facoltà con indirizzo intelligenza artificiale, figo!

    • @simone_rizzo98
      @simone_rizzo98  8 วันที่ผ่านมา +1

      Yess c’è da almeno 4 anni la prima d’Italia é stata proprio a Pisa !

  • @trsstream2212
    @trsstream2212 20 วันที่ผ่านมา +1

    Buongiorno e grazie moltissimo per i tuoi contributi. Non vedo l'ora di provare a replicare quello che hai fatto.
    Una curiosità :
    per fare questo tipo di lavoro è sempre conveniente appoggiarsi a servizi che offrono gratuitamente schede per l'elaborazione o in alcuni casi potrebbe essere conveniente costruirsi un pc con una Nvidia adeguata? Grazie

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Conviene sempre utilizzare servizi che offrono la computazione di GPU che siano gratuite come Colab o a pagamento come RunPod per poi scaricare il modello es utilizzarlo

  • @alessandro_manna
    @alessandro_manna 20 วันที่ผ่านมา +4

    Non si fanno queste cose... Video di sabato sera... Io sono seduto al ristorante tanti invitati e mi fai venire la "scimmia" di programmazione.😅. Non vedo l'ora di testare... Grazie

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Ahahaha ops fantastico questo commento Alessandro, Buona cena !

  • @vladi1475S
    @vladi1475S 20 วันที่ผ่านมา +1

    SUPERRR!!! Grazie!!!

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      Pregoo fanne buon uso!

    • @vladi1475S
      @vladi1475S 20 วันที่ผ่านมา

      @@simone_rizzo98 Non so se hai sentito parlare di BrainGPT: si tratta di un LLM addestrato sulla letteratura scientifica nel campo delle neuroscienze. Hanno anche pubblicato un articolo recentemente, su Nature, intitolato "Large language models surpass human experts in predicting neuroscience results". In sostanza, è un LLM pensato per supportare la ricerca nelle neuroscienze. Io lavoro in campo delle neuroscienze e non vedo l'ora di testarlo.

  • @michelecarbonella2189
    @michelecarbonella2189 19 วันที่ผ่านมา

    Simone, sei sempre il migliore. Una domanda. Il dataset con cui hai addestrato il modello, l’hai creato manualmente?

    • @simone_rizzo98
      @simone_rizzo98  19 วันที่ผ่านมา +1

      ni, l'ho preso da una lista più grande di prompt per flux e con un prompt specifico ho fatto scrivere laparte a sinistra semplificata in modo da avere i due prompt: quello dell'utente e quello risultante per flux.

  • @massimopapa4808
    @massimopapa4808 20 วันที่ผ่านมา +1

    Complimenti, gran bel video didattico e molto esplicativo!
    Una curiosità: su che hardware hai fatto girare ollama?

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Grazie, l’ho fatto girare solo su CPU Intel i7-7700k

    • @ziobuddalabs
      @ziobuddalabs 20 วันที่ผ่านมา

      @@simone_rizzo98 Un i7 di settima generazione ??? Diciamo 7 anni fa, corretto ?

  • @alyax2026
    @alyax2026 20 วันที่ผ่านมา

    Il video che cercavo 😭

  • @roxwal
    @roxwal 20 วันที่ผ่านมา +1

    Molto bello e interessante, ma se al posto di avere domanda e risposta da fare il training, ho dei PDF, mail o note generiche di Obsidian, come li trasformo in un dataset per LLama?

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      In quel caso devi costruirti il dataset con domande e risposte e per farlo puoi usare un’altra AI

  • @FabioGiaffaglione
    @FabioGiaffaglione 7 วันที่ผ่านมา

    Ciao Simone, non mi è chiara una cosa… le answer devono essere esplicative o devono contenere snippet? Io ho fatto un dataset di sole risposte esplicative su una specie di json schema form ma a fine addestramento il modello sembrava come non aver appreso nulla ( ho ripetuto domande del dataset al modello ma la risposta fornita era completamente diverse), forse le answer devono essere solo snippet? Ho circa 600 domande e la trainin loss alla fine era circa 1,6 dopo 60 iterazioni

    • @simone_rizzo98
      @simone_rizzo98  7 วันที่ผ่านมา +1

      che intendi per esplicative e snippet? snippet di codice non ho ben capito. Il dataset di cosa parla?

    • @FabioGiaffaglione
      @FabioGiaffaglione 7 วันที่ผ่านมา

      @ si scusami mi sono espresso male. Il mio intento è fare generare dei codici json (basati sullo standard json schema form) ma nel dataset ho per lo piu domande che spiegano come funzionano i componenti e gli attributi che hanno (es: che componente usare per rappresentare un range di numeri? La risposta è descrittiva come se fosse una FAQ) . Dopo aver trainato il modello non riusciva fare nulla. Forse dovevo focalizzarmi su mettere nella answer solo il codice atteso? Un po’ come l’approccio che hai avuto tu per flux dove nelle answer c’era un prompt pronto per flux ma effettivamente non c’erano domande dove veniva spiegati i parametri e come utilizzare e a cosa servivano

  • @AaaaBbbb-y8l
    @AaaaBbbb-y8l 20 วันที่ผ่านมา

    Ciao, complimenti per il video. Ho una domanda: come si fa a capire la grandezza ottimale del dataset per effettuare un buon finetuning?

    • @simone_rizzo98
      @simone_rizzo98  16 วันที่ผ่านมา

      purtroppo non si può sapere a priori è un progetto di ricerca e sviluppo, bisogna fare degli esperimenti e nel caso aumentare i dati

  • @Giorgio_Caniglia
    @Giorgio_Caniglia 18 วันที่ผ่านมา

    Grandeeeee

  • @alessiorosi1314
    @alessiorosi1314 7 วันที่ผ่านมา

    una domanda: se ho fatto il training di un modello e volessi aggiungere un nuovo train come faccio a passare alla procedura un modello già "trainato"?

    • @simone_rizzo98
      @simone_rizzo98  7 วันที่ผ่านมา

      non ho capito, lo hai già addestrato e lo vuoi riaddestrare?

    • @alessiorosi1314
      @alessiorosi1314 6 วันที่ผ่านมา

      @@simone_rizzo98 si, ho fatto un test e vorrei aggiungere un nuovo dataset.

  • @MirandaMira-n1o
    @MirandaMira-n1o 7 วันที่ผ่านมา

    Bravo

  • @massimoazzano
    @massimoazzano 19 วันที่ผ่านมา

    grazie Simone, bel video !! Mangari un giorno si potrebbe collaborare

    • @simone_rizzo98
      @simone_rizzo98  16 วันที่ผ่านมา

      a te, certamente contattami pure alla seguente mail contact@inferentia.xyz

  • @giuseppepaolisi8919
    @giuseppepaolisi8919 20 วันที่ผ่านมา +2

    Questo è il fine tuning?

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      Esattamente il famoso finetuning 🙌

  • @Matteogmail499
    @Matteogmail499 20 วันที่ผ่านมา

    Top🔥

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา

      Avanti tutta!! Ad un mondo migliore con l’IA

  • @marcomessina215
    @marcomessina215 20 วันที่ผ่านมา

    Mi sembra un'attività per AI Engineer, non alla portata di tutti. E poi come si crea un dataset?

    • @simone_rizzo98
      @simone_rizzo98  20 วันที่ผ่านมา +1

      Sì devi saper almeno programma in Python, il dataset puoi crearlo in modo sintetico usando un AI ed i documenti che desideri

  • @FabioAngela
    @FabioAngela 13 วันที่ผ่านมา

    Un vantaggio di LoRA è che è hot-swappabile, sarebbe bello vedere come farlo (spunto per un video). Il vantaggio sarebbe avere un modello base (es. LLAMA3.2) e poi tanti piccoli LoRA per task specifici che vengono attivati alla bisogna

    • @simone_rizzo98
      @simone_rizzo98  11 วันที่ผ่านมา

      vuoi fare un MoE quindi, si potrebbe fare!

  • @Rapha_Carpio
    @Rapha_Carpio 19 วันที่ผ่านมา

    Toma tu Like buon uomo 😂

  • @sibillinoo
    @sibillinoo 15 วันที่ผ่านมา

    a viking with a blade

    • @simone_rizzo98
      @simone_rizzo98  14 วันที่ผ่านมา

      🫡

    • @sibillinoo
      @sibillinoo 12 วันที่ผ่านมา

      @ la spada si chiama sword lmao

  • @AlexTheAncient
    @AlexTheAncient 8 วันที่ผ่านมา

    Questo e' fine tuning, non training.

    • @simone_rizzo98
      @simone_rizzo98  7 วันที่ผ่านมา +1

      fa sempre parte del training. O parti da zero o parti con dei pesi già pre addestrati sempre addestramento è

    • @AlexTheAncient
      @AlexTheAncient 6 วันที่ผ่านมา

      @@simone_rizzo98 Piu' o meno... Quesa e' una oversemplificazione, il fine tuning e' un subset di azioni e modifiche che avvengono sul modello. Normalmente per fine tuning con LoRA si tocca il 2% dei pesi, ma ad esempio si cambia poco e niente a livello delle matrici sui transformers. Capisco la divulgazione, e capisco il voler semplificare i concetti, ma io avrei specificato che questo e' fine tuning e non training. Altrimenti diventa disinformazione.

    • @fabioauditore7777
      @fabioauditore7777 5 ชั่วโมงที่ผ่านมา

      @@AlexTheAncient Io ho usato questo video per imparare (a livello amatoriale, solo perchè sono curioso), ma guarda che viene detto in maniera esplicita che è solo divulgativo. In più, l'impiego del LoRA già di per sè specifica che non è un Training vero e proprio. D'altro canto, non è che puoi metterti su TH-cam a fare cose troppe tecniche, altrimenti chi ti segue?

  • @fitxtutti
    @fitxtutti 13 วันที่ผ่านมา

    Ciao, gran bel video! Ho provato ad eseguirlo con un mio dataset, ma quando arrivo al penultimo passaggio, ovvero l'esportazione in GGUF per Ollama ottengo questo errore:
    RuntimeError: Unsloth: The file 'llama.cpp/llama-quantize' or 'llama.cpp/quantize' does not exist.
    But we expect this file to exist! Maybe the llama.cpp developers changed the name?
    Ho provato a far ricompilare Colab, ma non genera proprio il file "quantize": mi potete dare una mano?
    Grazie ancora, stai facendo un lavoro fantastico!

    • @simone_rizzo98
      @simone_rizzo98  11 วันที่ผ่านมา +1

      prova a generare il file GGUF in locale nel path della root del progetto quindi ./