Addio LLM? Meta rivoluziona l’AI con i Large Concept Models!

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 ม.ค. 2025

ความคิดเห็น • 45

  • @wolcarlos
    @wolcarlos 20 วันที่ผ่านมา +5

    Bellissimo video. È interessantissima e rarissima questa tipologia di video. Complimenti Simone Rizzo🎉

  • @myhobbyispiano
    @myhobbyispiano 20 วันที่ผ่านมา +1

    Sicuramente un'idea vincente, promette molto bene.

  • @AverageJoe547
    @AverageJoe547 20 วันที่ผ่านมา +1

    Spiegazione chiara ed esaustiva. Secondo te nasceranno diversi tipi di LCM ?

  • @AntonioStefanoC
    @AntonioStefanoC 20 วันที่ผ่านมา +2

    sarebbe bello vedere il modello all'opera!

  • @domenicocavalli73
    @domenicocavalli73 19 วันที่ผ่านมา

    ulteriore evoluzione . Molto interessante . Tutto ad una velocita' di sviluppo tecnologico senza precedenti nella storia umana.

  • @davidesiino9052
    @davidesiino9052 16 วันที่ผ่านมา

    Bravo ❤❤❤❤❤

  • @MirandaMira-n1o
    @MirandaMira-n1o 20 วันที่ผ่านมา

    Bel video...interessante e spiegato semplice. Complimenti

  • @gabrielemoro304
    @gabrielemoro304 15 วันที่ผ่านมา

    Gran video

  • @jacoporizzuto267
    @jacoporizzuto267 20 วันที่ผ่านมา +2

    Io penso che questo nuovo tipo di modello sia stato un grande passo avanti. I modelli LLM sono di per sé estremamente "stupidi" anzi, è sorprendente che siano arrivati ad un livello di "intelligenza" così elevato, pur essendo essenzialmente dei "T9" ovvero sistemi probabilistici di autocompletamento di frasi.
    Tuttavia penso che la sconcertante semplicità con cui gli LLM operano sia anche il loro più grande pro. Infatti il training di un modello è un processo molto semplice ( basti pensare che l'unica vera preoccupazione è reperire i dati su cui effettuare il training). Inoltre per rendere più performante un modello basta dargi in pasto sempre più dati e di qualità migliore. L'output previsto da questi modelli dipende poi unicamente dai dati su cui è stato fatto il training.
    Per modelli LCM invece si fa grande affidamento su questo sistema "SONAR" che, da quanto ho capito, trasforma l'input dato in concetti.

  • @pakygiulia
    @pakygiulia 20 วันที่ผ่านมา

    Bravo Simone, ottimo video 👌

  • @trexlm
    @trexlm 18 วันที่ผ่านมา

    molto interessante!

  • @shaice
    @shaice 20 วันที่ผ่านมา +5

    Praticamente la chiave è come SONAR fa diventare le sentences dei concepts. Come fa la macchina a raggruppare concetti simili se non ha awarness del contesto? Il classico "la vecchia porta la sbarra" che concetto è? Un donna anziana che porta una sbarra di metallo oppure una porta vecchia che blocca la via ad una donna? Qui la magia a quanto pare la fa SONAR.. o no? E come funziona? Qui vedo il rischio di prendere fischi per fiaschi non da poco. È interessante sicuramente l'idea che con meno parametri, alias modelli più leggeri, si ha la possibilità di avere gli stessi risultati e quindi poter fare girare in locale con una NPU un modello simil 405B-LLM (che so un 70B LCM)...

    • @shaice
      @shaice 20 วันที่ผ่านมา +4

      ah bel video comunque! E grazie perché c'è bisogno di paper più che di pubblicità all'ultimo tool che cadrà in disuso in pochi mesi...

  • @antonelloalonzi6717
    @antonelloalonzi6717 18 วันที่ผ่านมา

    Grazie Simone, sempre chiaro… ma a livello di hardware servono più o meno risorse? Ovvero, gli LCM danno lo stesso risultato con meno risorse hardware oppure no?

  • @sunshinereggaesarah1
    @sunshinereggaesarah1 19 วันที่ผ่านมา

    Siamo ancora lontani ma questo è una tappa importante......vediamo come si evolve e si integra con altre novità nel settore

  • @FabioGiaffaglione
    @FabioGiaffaglione 20 วันที่ผ่านมา

    grande video di divulgazione!

  • @marconwps
    @marconwps 20 วันที่ผ่านมา +1

    Speriamo in llama4 così potrà girare localmente sul Quest4 che avrà un bel soc ARM con npu 😊!!

  • @fxsignal1830
    @fxsignal1830 19 วันที่ผ่านมา +1

    se ho ben capito nello spazio dei concetti le due frasi:
    - oggi è una bella giornata
    - oggi non è una bella giornata
    sono molto distanti essendo concetti opposti, a differenza dello spazio semantico degli LLM in cui sono vicinissimi, corretto?

  • @AndreaMarioPiovesana
    @AndreaMarioPiovesana 19 วันที่ผ่านมา

    Esiste un sito per provarlo?

  • @mariologan-ita
    @mariologan-ita 19 วันที่ผ่านมา

    Pazzesco🎉🎉

  • @AndreaMarioPiovesana
    @AndreaMarioPiovesana 19 วันที่ผ่านมา

    Bellissima novità opensource🎉🎉

  • @topitalianhits
    @topitalianhits 19 วันที่ผ่านมา

    grazie

  • @luigipalmieri26021968
    @luigipalmieri26021968 20 วันที่ผ่านมา

    Grazie

  • @makyxyz3375
    @makyxyz3375 5 วันที่ผ่านมา

    Figo! Faresti qualche video dove dimostri matematicamente questi paper?

    • @simone_rizzo98
      @simone_rizzo98  วันที่ผ่านมา

      non esiste una dimostrazione matematica ma bensì è una dimostrazione empirica sui dati

  • @dariochini3223
    @dariochini3223 19 วันที่ผ่านมา

    Mi domando se con LCM usando sonar è performante il graphRag o è meglio il classico RAG perché nel primo potrebbe avvenire elaborazioni multiple sempre sullo stesso concetto.

  • @FxLybs
    @FxLybs 20 วันที่ผ่านมา +1

    ottimo!!!

  • @advertgroupitaliaagenziadi804
    @advertgroupitaliaagenziadi804 20 วันที่ผ่านมา +1

    Siamo d'accordo, però perderà di efficacia rispetto LLM? Che ne pensi^

  • @fabriz640
    @fabriz640 20 วันที่ผ่านมา

    molto interessante

  • @desolazione
    @desolazione 20 วันที่ผ่านมา +1

    Che sito hai usato per mostrare come la frase viene trasformata in token?

    • @sandro9070
      @sandro9070 20 วันที่ผ่านมา +2

      Credo usi quello presente sul sito di openai

    • @desolazione
      @desolazione 20 วันที่ผ่านมา

      @sandro9070 grazie mille

    • @fabiolazza8182
      @fabiolazza8182 8 วันที่ผ่านมา

      Confermo ​@@sandro9070

  • @duracell211
    @duracell211 19 วันที่ผ่านมา +1

    be ottimo ero arrivato 2 anni fa a questa cosa... usando gli ipervettori. studierò questo modello per vedere a livello di codice come l'hanno costruito
    il prox step sul quale sto lavorando è cognitivo, associativo...

    • @HumanPP
      @HumanPP 19 วันที่ผ่านมา +1

      hai pubblicato qualche paper? Sarei interessato a leggerlo

  • @francorosso7110
    @francorosso7110 18 วันที่ผ่านมา

    Se il mio ragionamento non è errato, LA LINGUA CINESE non si espreime in parole (Token) ma in CONCETTI per cui sarebbe la più favorita ad essere adottata nel LCA, anzi si presterebbe molto ad addestrare lo stesso LCA

  • @HumanPP
    @HumanPP 19 วันที่ผ่านมา

    ho letto il paper 3 giorni fa: la portata della loro idea è semplicemente rivoluzionaria. Se riescono a scalarla Meta diventerà irraggiungibile

  • @FiberFaber
    @FiberFaber 19 วันที่ผ่านมา

    Non è così rivoluzionario perché negli strati più interni gli LLM sviluppano già una sorta di predizione di concetti. Però rendere questa architettura esplicita può sicuramente ottimizzare

  • @TheYuriTS
    @TheYuriTS 20 วันที่ผ่านมา

    Uscirà un nuovo modello o dobbiamo addestrarcelo soli?

  • @dedaluz100
    @dedaluz100 20 วันที่ผ่านมา

    Se costringiamo la AI a ragionare come gli umani, la limitiamo, se poi pensiamo che la macchina più efficiente per ragionare come gli umani esiste già ed è la macchina biologica umana, allora sappiamo che non possiamo andare molto lontano

    • @DaveJ6515
      @DaveJ6515 20 วันที่ผ่านมา +1

      Quando è stato dimostrato tutto questo?

    • @zdenekburian1366
      @zdenekburian1366 7 วันที่ผ่านมา

      mah, siccome la differenza tra macchine biologiche umane è mostruosa, per esempio tra la nonna pina ed einstein, mi aspetto che si possa artificialmente in qualche modo scalare verso l'alto questa differenza, equiparando per esempio la capacità di ragionamento di einstein alla nonna pina, e quella di una macchhina pensante non biologica ad einstein, pur utilizzando entrambe le stesse modalità logiche; a quel punto non è detto che la macchina pensante non possa anche evolversi autonomamente al di là di quella logica