ChatGPT 5 ha 100 volte in più la potenza di calcolo di ChatGPT 4 Sam Altman ha presentato GPT5 al DoD (governo federale Americano) cioè quello che controlla le forze armate statunitensi ed il suo quartier generale è il Pentagono. E si vocifera che GPT 5 costerà 2000$ al mese (personalmente penso che sia una notizia falsa) GPTo1 preview non mi pare che abbia il 100% in più della potenza di calcolo di GPT 4 e non penso che al governo federale statunitense OpenAI abbia mostrato una simile banalità per quanto impressionante, staremo a vedere. Puo anche darsi che tutti i rilasci che stanno facendo da quest'anno ad ora siano frammenti di GPT 5 , tipo GPT 4 Turbo , GPT 4 Omni , GPT 4 Mini , GPT o1 preview ecc ecc. Quindi le cose sono 2 a parer mio o stanno già rilasciando GPT 5 piano piano o quando lo rilasceranno sarà qualcosa di RIVOLUZIONARIO. Sam Altman nell'intervista con Lex Fridman 5 mesi fa ha parlato proprio di rilasci graduali!
Chissà cosa succederà quando integreranno GPT-4o con GPTo1 e gli altri modelli. Immagina di combinare le capacità linguistiche avanzate con il ragionamento, il pensiero, la memoria e tutte le altre funzioni. È come se stessero davvero cercando di simulare tutte le aree del cervello umano! E quando queste tecnologie verranno incarnate in robot umanoidi, come Figure 02, i confini tra loro e noi diventeranno sempre più sottili. Non vedo limiti a ciò che potrebbe accadere.
puoi portare dei video confronto dei robot umanoidi! Tipo Figure 02, Tesla Bot Optimus Gen 2, Neo Beta di 1X ... alla fine del 2026 verranno commercializzati!
Ciao Raffale, siccome è la seconda volta che sento un tecnico delle IA mettere sullo stesso piano Deep Blu e Alpha Go, posso chiederti se ai tempi di Deep Blu già esisteva il deep learning? Perchè da come avevo capito tempo fa, Deep Blu usava l'algoritmo A* ma tutte le mosse possibili venivano inserite dai programmatori, cosa impossibile da fare con Alpha GO per l'enorme vastita di scelte possibili... problema risolto poi con il Deep Learing... in pratica ho sempre sbagliato a spiegarla cosi la nascita dell'IA?
Probabilmente tra i migliori video visti inerenti a "pipponi" personali dell' autore o (come preferisco asserire) piacevoli riflessioni ponderate e valorizzate da studi pregressi. Il fatto che condividi ricerche fatte dedicando del tuo tempo per condividerle con gli utenti, valorizza ancor più il tuo lavoro e questo canale. Fantastica anche la citazione della mossa 37 come "limite" dell' essere umano (come spesso capita purtroppo) nel "ridicolarizzare" ciò che non si comprende, anziché essere curiosi del perché si è arrivati a quel "ragionamento" o a quella "intuizione" . Come altre volte nella storia, c'è chi guarda la luna, e chi guarda il dito. Grazie della condivisione e inizierò a concentrarmi anche su i Piper che ci fornisci per aumentare il potenziale di comprensione di ciò che tratti nei video (quando lo fai). Buon lavoro, e continua così Raf 💪🏽
Bravo Raf che citi le fonti e hai il coraggio di sintetizzare i paper addirittura facendoli vedere. Ti fa onore e ti qualifica come divulgatore serio, continua cosi
@@RaffaeleGaito mi puoi indicare alcuni canali che ritieni affidabili su cui informarsi come il tuo? sinceramente non ne ho trovato....dai un occhio al messaggio in cui scrivo sul limite che ho trovato in ChatGPT 4o che o1-preview ha risolto - riguarda ragionamenti su equilibri chimici, la matematica ha alcune difficoltà a trovare una formula semplice adatta a tutti i sistemi chimici, infatti in chimica si dice che si risolvono "a vista" (ossia per esperienza) ...potresti intervistare qualche chimico e come usa chatGPT e come ritiene che il nuovo o1 sia superiore nella qualità di ragionamento
Alla fine mi dispiace dirlo per gli altri ma le considerazioni più realistiche e concrete sono sempre le tue Raf e non dipende dalla tua scimmia per l'AI ma dalla tua competenza senza nulla togliere ai tuoi colleghi youtuber tecnologici ❤🎉🎉🎉
Una cosa su cui ho riflettuto è il fatto di usare la tecnica di prompt caching per questi modelli riflessivi. Se ci fosse un sistema del genere dietro questi modelli dietro le quinte di ogni utente si può immaginare che dopo un mese di tempo, dove tante domande e risposte sono state generate per X utenti, con il prompt caching la riflessione potrebbe essere più rapida per le generazioni successive perché prenderebbe i dati delle domande fatte da altre persone in passato riducendo il tempo di attesa. Ovviamente se la domande è nuova e diversa e non ci sono risposte già fatte il modello si metterebbe a ragionare nuovamente, ma anche in quel caso il ragionamento sarebbe messo in cache. È un ciclo che nel tempo darebbe risposte avanzate nel tempo sempre più velocemente. Questo sistema userebbe molto meno energia spesa a fare calcoli dietro le quinte. Che ne pensi Raffaé?
quello che descrivi è più o meno l'addestramento che già avviene dietro le quinte questi modelli imparano e migliorano dall'utilizzo quotidiano che ne facciamo
@@RaffaeleGaito Nella stessa conversazione ho provato con domande uguali o simili e spesso e volentieri il tempo di ragionamento era simile. Doveva ripensare a tutto ogni volta. Questo intendo, salvare l'accoppiata ragionamento - domanda nel database e se un utente chiede la stessa cosa o simile è più veloce la seconda volta. Non so quanto questo succeda con chat GPT, non so se hai letto ma Anthropic tra le ultime novità ha proprio il prompt caching, valido per chi usa la API, che è ciò che ho spiegato più o meno e infatti una volta fatta una domanda di un certo tipo, se la seguente è uguale o simile la chiamata API è più veloce e meno costosa anche perché non deve fare ragionamenti. 😊 Cmq ottimo lavoro, tra i content creators Italiani sei il più genuino e sempre sul pezzo 😊😊💪 💪
Stavolta ci sta un bel commento tattico, grazie Raffaele. Sono curioso di vedere quando e come la definizione dell’ai si sposterà da “strumento” a “qualcos’altro” perché qui stiamo assistendo in diretta, dopo parecchi anni di stagnazione/plateau, alla nascita del futuro.
Sono un ricercatore con dottorato in matematica. o1 mi ha assistito nel dimostrare un teorema relativo ad un problema aperto di logica che non ero riuscito a risolvere durante il mio dottorato (più che altro per mancanza di tempo devo dire). Certo o1 fa tanti errori e l'output va verificato, ma sembra piuttosto promettente per il futuro. Inoltre, il modello è riuscito a dimostrare, più o meno correttamente, tutti i teoremi che venivano dati come esercizio ai nostri studenti dei corsi della triennale e della magistrale.
Commento tecnico: io ti seguo SOPRATTUTTO per questo tipo di videoriflessioni e approfondimenti concettuali, perché roba così in giro non se ne trova neanche in lingua straniera. Sei un mito 🫶🏻
adesso mi guardo il video con calma... nel mentre pongo una riflessione (che poi ho ascoltato ieri su un canale YT americano sempre sul 01): sarà davvero efficace quando passerà dall'uso teorico all'applicabilità pratica (alla vita quotidiana delle persone) con un problema non da poco... è un sistema decisamente più intelligente della stragrande maggioranza delle persone e quindi potrà essere effettivamente utilizzato da pochi, i più ne subiranno un utilizzo meramente passivo dettato (imposto) dall'alto. Good Luck!
indubbiamente uno dei video più interessanti che hai fatto, è una rivoluzione e coseno di poi era una strada obbligata.sembra essere anche una forma di auto addestramento che aggira la questione di auto addestrare queste intelligenze con risultati fatti da loro perché si stanno affamando avendo quasi esaurito la disponibilità di documentazione accessibile in Internet. Mi chiedo se questo sia una svolta che eviterà la solfa di ChatGPT per la quale ogni volta che le contesto qualcosa almeno che io dica una castronerie assurda mi dà sempre ragione e si corregge anche quando ha ragione lei,trattandosi di questioni mediche e letture di dati tabelle e grafici mi ero iniziate innervosire e quindi ho cominciato a metterla alla prova ed è un disastro dice la cosa corretta otto volte su 10 ma è pronta a rimangiarsela sei volte su 10
La cosa incredibile è che adesso abbiamo la prova che le performance migliorano aumentando il tempo di calcolo (in fase di training o di utilizzo). Questo porta a potenzialità pressoché "illimitate" dal punto di vista teorico, nel senso che, se la dimensione del modello a un certo punto per forza di cose satura (mancanza di dati), il "tempo di calcolo" sostanzialmente no, sicuramente a un certo punto ci sarà un limite di "costi", però potenzialmente adesso non ci sono limiti a ciò che può fare (dal punto di vista delle capacità) se gli si dà abbastanza "computation time"
sei forte :-) ci sono secondo me pochissime persone ad avere questo entusiasmo per l'AI, io sono come te :-) a. metà ottobre aspetto una risposta di un lavoro come insegnate nei corsi di LLMS e ChatGpt e spero di ottenerlo .. il primo colloquio è andato bene.. vediamo :-)
Grazie. Sottolineo il riferimento ad AlphaGo, la grossa differenza tra gli scacchi e il go è che nel primo caso c'è una vera e propria battaglia (lo scopo è di distruggere l'avversario), il go invece è un gioco di negoziazione in cui alla fine si trova un equilibrio tra vinto e vincitore. Altro punto chiave, oltre a quello della mossa 37, è quando AlphaGo potrebbe stravincere ed invece si accontenta di un 51%, ci vedo anche un pizzico di speranza per il nostro futuro! :)
Ho diversi amici astrofisici che disprezzavano inizialmente il modello 4o nel loro campo, ma stanno realizzando solo ora, proprio negli ultimi giorni, che il modello o1 è qualcosa di diverso. Uno di loro mi raccontava proprio ieri di un professore che aveva definito 4o 'il male', ma che ora è in stato di shock di fronte alle capacità di o1
Complimenti, concordo con altri che sei il migliore. Perfetto bilanciamento tra chiarezza, dettagli e sequenzialità. Ho imparato tantissimo dai tuoi video. Continua così!
Grazie per gli stimoli che proponi. Il modello che hai appena presentato è davvero rivoluzionario paragonabile, come approccio, alla tecnica del brain storming.
Sono d'accordo con te: avevo già intravisto queste dinamiche e le ho poi confermate nel tuo ultimo video. Mi dispiace che molti le considerino sciocchezze o questioni poco importanti, ma d'altra parte va bene così. Chi ha realmente compreso cosa sta succedendo non raggiungerà il "traguardo" inconsapevole di come ci è arrivato; sarà quindi preparato per diversi scenari che potrebbero presentarsi. Potrebbe persino emergere uno scenario "37", sottovalutato e inaspettato, che porterà a una "vittoria" per chi aveva capito davvero cosa stava accadendo.
Grazie. Una bella riflessione. Io sto usando o1 preview e o1 mini per la programmazione e posso dire che sono un grande passo in avanti. Ieri per esempio ho provato a risolvere un problema che avevo con un mio programma e l'unico modello che è riuscito a trovare e correggere gli errori è stato o1 preview. Per certi aspetti Claude 3.5 Sonnet mi ha deluso perché continuava a scrivermi lo stesso codice, come se l'avesse cambiato e corretto. Peccato che o1 preview abbia solo 50 messaggi alla settimana e che quindi devo usarlo solo come ultima risorsa.
Gran video! La domanda che mi sorge spontanea è: cosa effettivamente ha visto Ilya Sutskever per decidere di lasciare OpenAi ? Può essere vista come una domanda "complottista" ma se comunque diamo per certo che la strada che voglia prendere con la sua nuova azienda sia quella di "lasciare più tempo all'ai di pensare" che è la stessa strada presa ormai da OpenAi, per quale motivo uno dei professionisti più in gamba del settore decide di andarsene e fondare un'altra azienda ? Sono domande a cui probabilmente non avremo mai una rispota (almeno nel breve periodo) però possono portare a riflettere..
sempre, sempre, e sempre ancora complimenti per contenuti e linguaggio! ora mi appare anche la possibile scelta su un modello "Auto" ... ci sai dire qualcosa in merito?
Ciao Raffaele a 3 settimane dal lancio di GPT 01 potrebbe essere molto interessante un video in cui dimostri l'utilizzo pratico e quotidiano che fai di questa versione.
grande raffaè, i pipponi mentali son sempre il top (come una chain of thoughts a livello della società invece che a livello di un individuale point-of-reasoning) un saluto e grazie, Achille Cavinato
Raffae, ho problemi con “l’ordine “! Potresti raddrizzare il cubo dietro di te??? 😂😂 Grazie tante per i video e le perle che ci regali costantemente. Sei un divulgatore fantastico e mi stai aiutando tantissimo a comprendere meglio il nostro presente ed il nostro probabile futuro. Grazie grazie grazie
Complimenti per il video. In questi ultimi mesi mi sto guardando decine e decine di tutorial e video sull' AI e penso che tu sei il numero uno, per competenza e chiarezza di esposizione.
Commento tattico! Sei un grande e dici cose che condivido in pieno. Tutto! Conoscerao certamente Nello Cristianini e quello che dice lui sulle IA. Cosa ne pensi? Mi sembra che siamo sulla stessa linea di pensiero.
Ciao Raffaele, sul video precedente parlavo proprio del chain of thoughts inserito proprio nel system prompt.. spero solo che il mio commento sia stato interpretato da te in maniera corretta probabilmente l’implementazione di questo nel modello è stato un buon passo avanti. Comunque il video è molto interessante e recupererò il documentario di alphaGo🦇
Caro Raff, Seguo con interesse i tuoi video e ti faccio i miei complimenti! A proposito di GPT01: dopo aver sentito le tue spiegazioni sul come GPT01 funziona mi sembra evidente che la strategia del ragionamento si ispira alla morphologia di Fritz Zwicky (un astrofisico svizzero) che ci ha insegnato i metodi sul come trovare soluzioni creative ai problemi. Ciao, Rudi
Ciao Professore, ti informo che per l'indagine che mi è arrivata da TH-cam per il video precedente, ti ho dato il massimo di voto cioè ben 5 stelle motivando 3 fattori circa le lodi annesse. Solo per dirti questo e complimentarmi per il nuovo video. Grazie per come ci aiuti nella formazione verso una piena presa di coscienza con la IA generativa. Inoltre mi sono accorto anche io chiedendo informazioni, che adesso Chat GPT (o) ragiona!!! Ecco adesso posso scrivere whau!!! Saluti cari🎉🎉🎉
Commento tattico : hai un contenitore sul muro alle tue spalle che sembri che registri dal trono wc 😉😂 Mi hai dato un idea sul nuovo colore del mio bagno. 😉 Scherzi a parte mi piacciono i tuoi spiegoni comprensibili anche ai non addetti. 🥂 Iscritto ✍️ e like 👍 per te!!
Adoro questi video, sarebbe bello se facessi alcuni video e collaborazioni con MentiEmergenti, siete entrambi molto bravi e preparati e complementari nelle competenze.
Ciao, sebbene non ho visto tutti i tuoi video, che sono tutti interessantissimi, questo è uno tra i più intriganti e coinvolgenti. La parte degli scacchi , poi, top, e della mossa 37, top. Anch'io mi ricordo qualcosa, ma non ricordavo che aveva vinto , beh se già aveva dimostrato di essere più intelligente per poter battere un campione, ora riuscire and immaginare dove arriverà , è come cercare di capire dove finisce l 'universo .
È davvero affascinante pensare che, nonostante l’incredibile complessità dei sistemi di intelligenza artificiale come AlphaGo, continuiamo a utilizzare il testo come principale mezzo di interazione. Forse, a livello tecnologico, siamo ancora legati a uno strumento arcaico per comunicare con queste IA avanzate. Il linguaggio scritto ha dei limiti intrinseci, sia per quanto riguarda la velocità che la precisione nella trasmissione delle nostre intenzioni. Chissà se in futuro riusciremo a sviluppare nuovi modi di input, più diretti e intuitivi, che possano sfruttare appieno il potenziale di queste intelligenze complesse!
Altro che commento tattico Raffaè! Tu mi apri sempre la mente! Sei una risorsa preziosa per noi nella community di TH-cam. Se non c’eri tu con il tuo canale, bisognava inventarti! ❤❤ complimenti e grazie.
Sono fra quelli che nello scorso video "criticavano" il termine thinking😅, attribuendogli un ruolo più da marketing che da funzione (e confidavo in un video più esplicativo della logica di funzionamento del modello, grazie). Effettivamente le potenzialità del modello si esprimono immediatamente se traduciamo "thinking", in "sto ragionando", piuttosto che in "sto pensando" (che per mio parere personale rimane prerogativa dell' essere umano). La mia sottovalutazione è stata dovuta più ad un Lost in translation quindi😂
I primi 6 minuti di video sono di sgridate alla superficialità di alcuni, segno che l'IA è già più intelligente di una buona parte dell'umanità. Ho un gruppo di amici che fortuna vuole siano ferrati in filosofia, e per tale motivo sono anche sostanzialmente contro la Tecnica, impersonando quindi la reazionarietà.Comprendo il loro punto di vista e comprendo anche perchè mi ritengono l'unico "tecnologico" della compagnia che si "esalta" per l'IA. Secondo loro, l'Essere non può scaturire dal non essere, al massimo il contrario, motivo per cui non sarà mai possibile che una IA diventi "soggetto" ma rimanga sempre e solo oggetto. Io mi riservo il diritto di aspettare per vedere.
puoi portare dei video confronto dei robot umanoidi! Tipo Figure 02, Tesla Bot Optimus Gen 2, Neo Beta di 1X ... alla fine del 2026 verranno commercializzati!
In qualche modo, questo nuovo paradigma mi rosulta più digeribile del precedente, data centered. mi viene da dire, se non lo hai già fatto nel video, che l'uno sia costruito on top dell'altro, usando il layer precedente per costruire un modello di ricerca negli spazi di soluzioni, con una filiera di elaborazione più "comprensibile" al di fuori della blackbox. Complimenti per il contenuto.
Tutto magnifico e ha sbalordito anche me ma l'ultimo video di menti emergenti ti fa riflettere e forse ha ragione e a dire non è tutto oro quel che luccica e forse ci stanno solo prendendo in giro con sta storia del ragionamento
Questa è filosofia. Se cerchi un termine per questi video riflessivi, il termine è filosofici. E il bello è che le IA in realtà affascinano e incollano perché sotto pelle sentiamo che ci parleranno come Socrate, Platone, e meglio di Kant delle domande che ci stanno più a cuore. Fico assai!
Guardando il video pensavo, se è vero che permettere all'AI di autoaddestrarsi, lasciandola libera di perseguire tutte le linee di ragionamento che può generare, allora perché non permetterle di metter mano al suo stesso codice sorgente, in modo da automigliorarsi anche a livello architetturale?
Gran bel video, Raffaele! Grazie. Ora ho le idee più chiare su o1. Nei prossimi giorni mi guardo anche il documentario su AlphaGo perché mi hai incuriosito.🦇
Grazie Raffaele, come sempre contenuto super interessante!!! Domanda da super noob, io che non sono un programmatore ad esempio, come posso utilizzare o1. Sino ad ora ho utilizzato chat gpt più lato marketing, quindi ricerche di mercato, ecc...ma quali sono i possibili utilizzi ad oggi? Grazie!
Per noi che ne facciamo un uso prevalentemente di marketing, non credo che ci sia questo grande passo in avanti. Io facevo già tanto con la versione precedente
Grazie per il pippone :) a me viene un dubbio. C’è un tema di efficienza? L’idea che l’ai iteri costantemente non più soltanto parole ma anche ragionamenti non potrebbe overkill per moltissimi utilizzi? Non c’è un tema di energia sprecata in un momento storico dove sarebbe meglio non sprecarla? Oppure è un pippone anche questo? :)
AlphaGo, la grossa differenza tra gli scacchi e il go è che nel primo caso c'è una vera e propria battaglia (lo scopo è di distruggere l'avversario), il go invece è un gioco di negoziazione in cui alla fine si trova un equilibrio tra vinto e vincitore. Altro punto chiave, oltre a quello della mossa 37, è quando AlphaGo potrebbe stravincere ed invece si accontenta di un 51%, ci vedo anche un pizzico di speranza per il nostro futuro! :)
La mossa 37 sara quella che ci fottera come specie. Per quotare Michio Kaku: «Noi pensiamo che qualcuno è intelligente perché sa delle cose. Ma non è questa l’essenza dell’intelligenza. L’essenza dell’intelligenza è quella di vedere l’avvenire, simulare la creazione di un avvenire che non esiste». E dal momento in cui ci sara' un agente piu intelligente di noi su questo pianeta, sara per noi la fine.
Il tuo video di oggi è davvero intrigante e mi rimanda al finale del film “her”, forse profetico: la continua evoluzione della fidanzata digitale, insieme alle altre AI la sta conducendo sempre più distante dalla vita umana e dalla comprensione delle sue dinamiche. Quindi ragionare come un umano non è certamente l’unica via per risolvere un problema, anzi.
Una cosa che penso sia utile specificare è che questa cosa permetterà ad OpenAi di non essere limitata dalle nozioni del pre training e di poter scalare principalmente la potenza di calcola per l'inferenza del modello, ovvero la parte in cui tu chiedi qualcosa e o1 pensa generando tokens e poi ti risoonde. Era tutto previsto da tempo e infatti le nuove GPU B200 di Nvidia sono molto più veloci a generare tokens. Sarà un salto enorme nella riduzione di prezzo per questo tipo di modelli
complimenti per il lavoro che fai, gli spunti e la simpatia.... se posso permettermi di darti un consiglio eliminerei quelle due o tre parolacce a video (cazzo e simili). E' una mia fisima lo so :)
👏🏻👏🏻 Molte persone non capiscono che l'AI strutturata aiuta anche la mente umana a a togliere barriere, quindi imparare e migliorare. Un potenziale pazzesco 👌🏻🏆
Vuoi formarti sull'intelligenza artificiale? Entra nella mia academy IA360: ia360.academy/
ChatGPT 5 ha 100 volte in più la potenza di calcolo di ChatGPT 4 Sam Altman ha presentato GPT5 al DoD (governo federale Americano) cioè quello che controlla le forze armate statunitensi ed il suo quartier generale è il Pentagono. E si vocifera che GPT 5 costerà 2000$ al mese (personalmente penso che sia una notizia falsa) GPTo1 preview non mi pare che abbia il 100% in più della potenza di calcolo di GPT 4 e non penso che al governo federale statunitense OpenAI abbia mostrato una simile banalità per quanto impressionante, staremo a vedere. Puo anche darsi che tutti i rilasci che stanno facendo da quest'anno ad ora siano frammenti di GPT 5 , tipo GPT 4 Turbo , GPT 4 Omni , GPT 4 Mini , GPT o1 preview ecc ecc. Quindi le cose sono 2 a parer mio o stanno già rilasciando GPT 5 piano piano o quando lo rilasceranno sarà qualcosa di RIVOLUZIONARIO. Sam Altman nell'intervista con Lex Fridman 5 mesi fa ha parlato proprio di rilasci graduali!
Chissà cosa succederà quando integreranno GPT-4o con GPTo1 e gli altri modelli. Immagina di combinare le capacità linguistiche avanzate con il ragionamento, il pensiero, la memoria e tutte le altre funzioni. È come se stessero davvero cercando di simulare tutte le aree del cervello umano! E quando queste tecnologie verranno incarnate in robot umanoidi, come Figure 02, i confini tra loro e noi diventeranno sempre più sottili. Non vedo limiti a ciò che potrebbe accadere.
puoi portare dei video confronto dei robot umanoidi! Tipo Figure 02, Tesla Bot Optimus Gen 2, Neo Beta di 1X ... alla fine del 2026 verranno commercializzati!
Ciao Raffale, siccome è la seconda volta che sento un tecnico delle IA mettere sullo stesso piano Deep Blu e Alpha Go, posso chiederti se ai tempi di Deep Blu già esisteva il deep learning?
Perchè da come avevo capito tempo fa, Deep Blu usava l'algoritmo A* ma tutte le mosse possibili venivano inserite dai programmatori, cosa impossibile da fare con Alpha GO per l'enorme vastita di scelte possibili... problema risolto poi con il Deep Learing... in pratica ho sempre sbagliato a spiegarla cosi la nascita dell'IA?
Probabilmente tra i migliori video visti inerenti a "pipponi" personali dell' autore o (come preferisco asserire) piacevoli riflessioni ponderate e valorizzate da studi pregressi. Il fatto che condividi ricerche fatte dedicando del tuo tempo per condividerle con gli utenti, valorizza ancor più il tuo lavoro e questo canale. Fantastica anche la citazione della mossa 37 come "limite" dell' essere umano (come spesso capita purtroppo) nel "ridicolarizzare" ciò che non si comprende, anziché essere curiosi del perché si è arrivati a quel "ragionamento" o a quella "intuizione" . Come altre volte nella storia, c'è chi guarda la luna, e chi guarda il dito.
Grazie della condivisione e inizierò a concentrarmi anche su i Piper che ci fornisci per aumentare il potenziale di comprensione di ciò che tratti nei video (quando lo fai).
Buon lavoro, e continua così Raf 💪🏽
Bravo Raf che citi le fonti e hai il coraggio di sintetizzare i paper addirittura facendoli vedere. Ti fa onore e ti qualifica come divulgatore serio, continua cosi
Probabilmente l'unico su TH-cam Italia ad aver capito realmente il potenziale di sta roba.
Addirittura? Ti ringrazio, ma ci sono altri canali di gente in gamba...
@@RaffaeleGaito mi puoi indicare alcuni canali che ritieni affidabili su cui informarsi come il tuo? sinceramente non ne ho trovato....dai un occhio al messaggio in cui scrivo sul limite che ho trovato in ChatGPT 4o che o1-preview ha risolto - riguarda ragionamenti su equilibri chimici, la matematica ha alcune difficoltà a trovare una formula semplice adatta a tutti i sistemi chimici, infatti in chimica si dice che si risolvono "a vista" (ossia per esperienza) ...potresti intervistare qualche chimico e come usa chatGPT e come ritiene che il nuovo o1 sia superiore nella qualità di ragionamento
L'unico napoletano ad aver capito come si possono fare i soldi con l'AI.
Bellissimo video! E bella la citazione di AlphaGo... Grazie!
grazie a te della donazione
@@RaffaeleGaito primissima volta che la faccio, non ho potuto fare a meno a 'sto giro :)
Alla fine mi dispiace dirlo per gli altri ma le considerazioni più realistiche e concrete sono sempre le tue Raf e non dipende dalla tua scimmia per l'AI ma dalla tua competenza senza nulla togliere ai tuoi colleghi youtuber tecnologici ❤🎉🎉🎉
Grazie mille Luca
...indiscutibilmente un lavoro divulgativo encomiabile...Complimenti...!!!
Ciao Raffaele. Ho creato il PodCast del tuo "pippone" con Google notebooklm: una figata. Spero che arrivi presto la versione con le voci in italiano.
Grazie.
Grazie a te della donazione Cristina
Una cosa su cui ho riflettuto è il fatto di usare la tecnica di prompt caching per questi modelli riflessivi. Se ci fosse un sistema del genere dietro questi modelli dietro le quinte di ogni utente si può immaginare che dopo un mese di tempo, dove tante domande e risposte sono state generate per X utenti, con il prompt caching la riflessione potrebbe essere più rapida per le generazioni successive perché prenderebbe i dati delle domande fatte da altre persone in passato riducendo il tempo di attesa.
Ovviamente se la domande è nuova e diversa e non ci sono risposte già fatte il modello si metterebbe a ragionare nuovamente, ma anche in quel caso il ragionamento sarebbe messo in cache.
È un ciclo che nel tempo darebbe risposte avanzate nel tempo sempre più velocemente.
Questo sistema userebbe molto meno energia spesa a fare calcoli dietro le quinte.
Che ne pensi Raffaé?
quello che descrivi è più o meno l'addestramento che già avviene dietro le quinte
questi modelli imparano e migliorano dall'utilizzo quotidiano che ne facciamo
@@RaffaeleGaito Nella stessa conversazione ho provato con domande uguali o simili e spesso e volentieri il tempo di ragionamento era simile. Doveva ripensare a tutto ogni volta. Questo intendo, salvare l'accoppiata ragionamento - domanda nel database e se un utente chiede la stessa cosa o simile è più veloce la seconda volta. Non so quanto questo succeda con chat GPT, non so se hai letto ma Anthropic tra le ultime novità ha proprio il prompt caching, valido per chi usa la API, che è ciò che ho spiegato più o meno e infatti una volta fatta una domanda di un certo tipo, se la seguente è uguale o simile la chiamata API è più veloce e meno costosa anche perché non deve fare ragionamenti. 😊
Cmq ottimo lavoro, tra i content creators Italiani sei il più genuino e sempre sul pezzo 😊😊💪 💪
Bravissimo Grazie.
grazie della donazione
Stavolta ci sta un bel commento tattico, grazie Raffaele. Sono curioso di vedere quando e come la definizione dell’ai si sposterà da “strumento” a “qualcos’altro” perché qui stiamo assistendo in diretta, dopo parecchi anni di stagnazione/plateau, alla nascita del futuro.
purtroppo credo che in Italia non si ha ancora consapevolezza di quello che sta succedendo e come le cose cambieranno con la AI
@@paolozucchini8982 assolutamente. È un supporto, fa quello che diciamo noi et cetera, come se fosse un PC.
Sono un ricercatore con dottorato in matematica. o1 mi ha assistito nel dimostrare un teorema relativo ad un problema aperto di logica che non ero riuscito a risolvere durante il mio dottorato (più che altro per mancanza di tempo devo dire). Certo o1 fa tanti errori e l'output va verificato, ma sembra piuttosto promettente per il futuro. Inoltre, il modello è riuscito a dimostrare, più o meno correttamente, tutti i teoremi che venivano dati come esercizio ai nostri studenti dei corsi della triennale e della magistrale.
@@godgogod straordinario! ricordiamo che il primo modello è uscito 2 anni fa! immagina tra 2, 5, 10 anni!
Più o meno correttamente cosa significa? O è corretto o non è corretto, specialmente quando si parla di matematica.
Probabilmente l'idea dimostrativa e l'uso della ipotesi erano corrette. Magari la forma delle volte non era precisa o era sbagliata
@@fabrizioFabrynet qualche errorino nei passaggi tecnici, ma se glielo fai notare, li sistema.
Commento tecnico: io ti seguo SOPRATTUTTO per questo tipo di videoriflessioni e approfondimenti concettuali, perché roba così in giro non se ne trova neanche in lingua straniera. Sei un mito 🫶🏻
adesso mi guardo il video con calma... nel mentre pongo una riflessione (che poi ho ascoltato ieri su un canale YT americano sempre sul 01): sarà davvero efficace quando passerà dall'uso teorico all'applicabilità pratica (alla vita quotidiana delle persone) con un problema non da poco... è un sistema decisamente più intelligente della stragrande maggioranza delle persone e quindi potrà essere effettivamente utilizzato da pochi, i più ne subiranno un utilizzo meramente passivo dettato (imposto) dall'alto. Good Luck!
indubbiamente uno dei video più interessanti che hai fatto, è una rivoluzione e coseno di poi era una strada obbligata.sembra essere anche una forma di auto addestramento che aggira la questione di auto addestrare queste intelligenze con risultati fatti da loro perché si stanno affamando avendo quasi esaurito la disponibilità di documentazione accessibile in Internet. Mi chiedo se questo sia una svolta che eviterà la solfa di ChatGPT per la quale ogni volta che le contesto qualcosa almeno che io dica una castronerie assurda mi dà sempre ragione e si corregge anche quando ha ragione lei,trattandosi di questioni mediche e letture di dati tabelle e grafici mi ero iniziate innervosire e quindi ho cominciato a metterla alla prova ed è un disastro dice la cosa corretta otto volte su 10 ma è pronta a rimangiarsela sei volte su 10
La cosa incredibile è che adesso abbiamo la prova che le performance migliorano aumentando il tempo di calcolo (in fase di training o di utilizzo). Questo porta a potenzialità pressoché "illimitate" dal punto di vista teorico, nel senso che, se la dimensione del modello a un certo punto per forza di cose satura (mancanza di dati), il "tempo di calcolo" sostanzialmente no, sicuramente a un certo punto ci sarà un limite di "costi", però potenzialmente adesso non ci sono limiti a ciò che può fare (dal punto di vista delle capacità) se gli si dà abbastanza "computation time"
sei forte :-) ci sono secondo me pochissime persone ad avere questo entusiasmo per l'AI, io sono come te :-) a. metà ottobre aspetto una risposta di un lavoro come insegnate nei corsi di LLMS e ChatGpt e spero di ottenerlo .. il primo colloquio è andato bene.. vediamo :-)
Grazie. Sottolineo il riferimento ad AlphaGo, la grossa differenza tra gli scacchi e il go è che nel primo caso c'è una vera e propria battaglia (lo scopo è di distruggere l'avversario), il go invece è un gioco di negoziazione in cui alla fine si trova un equilibrio tra vinto e vincitore. Altro punto chiave, oltre a quello della mossa 37, è quando AlphaGo potrebbe stravincere ed invece si accontenta di un 51%, ci vedo anche un pizzico di speranza per il nostro futuro! :)
Ho diversi amici astrofisici che disprezzavano inizialmente il modello 4o nel loro campo, ma stanno realizzando solo ora, proprio negli ultimi giorni, che il modello o1 è qualcosa di diverso. Uno di loro mi raccontava proprio ieri di un professore che aveva definito 4o 'il male', ma che ora è in stato di shock di fronte alle capacità di o1
Complimenti, concordo con altri che sei il migliore. Perfetto bilanciamento tra chiarezza, dettagli e sequenzialità. Ho imparato tantissimo dai tuoi video. Continua così!
Estremamente affascinante, grazie di aver condiviso con noi i tuoi pensieri Raf!
Grazie per gli stimoli che proponi. Il modello che hai appena presentato è davvero rivoluzionario paragonabile, come approccio, alla tecnica del brain storming.
Ciao Raff, la nuova tecnica di addestramento mi ricorda il brainstorming la tecnica creativa di gruppo
Sono d'accordo con te: avevo già intravisto queste dinamiche e le ho poi confermate nel tuo ultimo video. Mi dispiace che molti le considerino sciocchezze o questioni poco importanti, ma d'altra parte va bene così. Chi ha realmente compreso cosa sta succedendo non raggiungerà il "traguardo" inconsapevole di come ci è arrivato; sarà quindi preparato per diversi scenari che potrebbero presentarsi. Potrebbe persino emergere uno scenario "37", sottovalutato e inaspettato, che porterà a una "vittoria" per chi aveva capito davvero cosa stava accadendo.
Grazie per aver condiviso ancora i tuoi pensieri 👍
Grazie. Una bella riflessione.
Io sto usando o1 preview e o1 mini per la programmazione e posso dire che sono un grande passo in avanti.
Ieri per esempio ho provato a risolvere un problema che avevo con un mio programma e l'unico modello che è riuscito a trovare e correggere gli errori è stato o1 preview.
Per certi aspetti Claude 3.5 Sonnet mi ha deluso perché continuava a scrivermi lo stesso codice, come se l'avesse cambiato e corretto.
Peccato che o1 preview abbia solo 50 messaggi alla settimana e che quindi devo usarlo solo come ultima risorsa.
Gran video!
La domanda che mi sorge spontanea è: cosa effettivamente ha visto Ilya Sutskever per decidere di lasciare OpenAi ? Può essere vista come una domanda "complottista" ma se comunque diamo per certo che la strada che voglia prendere con la sua nuova azienda sia quella di "lasciare più tempo all'ai di pensare" che è la stessa strada presa ormai da OpenAi, per quale motivo uno dei professionisti più in gamba del settore decide di andarsene e fondare un'altra azienda ?
Sono domande a cui probabilmente non avremo mai una rispota (almeno nel breve periodo) però possono portare a riflettere..
sempre, sempre, e sempre ancora complimenti per contenuti e linguaggio! ora mi appare anche la possibile scelta su un modello "Auto" ... ci sai dire qualcosa in merito?
Raffaè non c'ho capito un cazzo, ma mi piace troppo vedere i tuoi video e sentire la tua passione
Ciao Raffaele
a 3 settimane dal lancio di GPT 01 potrebbe essere molto interessante un video in cui dimostri l'utilizzo pratico e quotidiano che fai di questa versione.
grande raffaè, i pipponi mentali son sempre il top (come una chain of thoughts a livello della società invece che a livello di un individuale point-of-reasoning)
un saluto e grazie,
Achille Cavinato
Raffae, ho problemi con “l’ordine “!
Potresti raddrizzare il cubo dietro di te??? 😂😂
Grazie tante per i video e le perle che ci regali costantemente.
Sei un divulgatore fantastico e mi stai aiutando tantissimo a comprendere meglio il nostro presente ed il nostro probabile futuro.
Grazie grazie grazie
Grazie per i tuoi contenuti e le chiare spiegazioni!
Complimenti per il video. In questi ultimi mesi mi sto guardando decine e decine di tutorial e video sull' AI e penso che tu sei il numero uno, per competenza e chiarezza di esposizione.
Commento tattico!
Sei un grande e dici cose che condivido in pieno. Tutto!
Conoscerao certamente Nello Cristianini e quello che dice lui sulle IA. Cosa ne pensi? Mi sembra che siamo sulla stessa linea di pensiero.
Ciao Raffaele, sul video precedente parlavo proprio del chain of thoughts inserito proprio nel system prompt.. spero solo che il mio commento sia stato interpretato da te in maniera corretta probabilmente l’implementazione di questo nel modello è stato un buon passo avanti. Comunque il video è molto interessante e recupererò il documentario di alphaGo🦇
Caro Raff, Seguo con interesse i tuoi video e ti faccio i miei complimenti! A proposito di GPT01: dopo aver sentito le tue spiegazioni sul come GPT01 funziona mi sembra evidente che la strategia del ragionamento si ispira alla morphologia di Fritz Zwicky (un astrofisico svizzero) che ci ha insegnato i metodi sul come trovare soluzioni creative ai problemi. Ciao, Rudi
Commento tattico
Adoro arrichirmi con il punto di vista che ci offri, ragionarci e indagarci su per crearmi il mio di punto di vista.
Gracias!
Ciao Professore, ti informo che per l'indagine che mi è arrivata da TH-cam per il video precedente, ti ho dato il massimo di voto cioè ben 5 stelle motivando 3 fattori circa le lodi annesse. Solo per dirti questo e complimentarmi per il nuovo video. Grazie per come ci aiuti nella formazione verso una piena presa di coscienza con la IA generativa. Inoltre mi sono accorto anche io chiedendo informazioni, che adesso Chat GPT (o) ragiona!!! Ecco adesso posso scrivere whau!!! Saluti cari🎉🎉🎉
Commento tattico :
hai un contenitore sul muro alle tue spalle che sembri che registri dal trono wc 😉😂
Mi hai dato un idea sul nuovo colore del mio bagno. 😉
Scherzi a parte mi piacciono i tuoi spiegoni comprensibili anche ai non addetti. 🥂
Iscritto ✍️ e like 👍 per te!!
Grazie come sempre... stasera mi vedo la demo e pure il documentario!
Adoro questi video, sarebbe bello se facessi alcuni video e collaborazioni con MentiEmergenti, siete entrambi molto bravi e preparati e complementari nelle competenze.
Ciao, sebbene non ho visto tutti i tuoi video, che sono tutti interessantissimi, questo è uno tra i più intriganti e coinvolgenti. La parte degli scacchi , poi, top, e della mossa 37, top. Anch'io mi ricordo qualcosa, ma non ricordavo che aveva vinto , beh se già aveva dimostrato di essere più intelligente per poter battere un campione, ora riuscire and immaginare dove arriverà , è come cercare di capire dove finisce l 'universo .
È davvero affascinante pensare che, nonostante l’incredibile complessità dei sistemi di intelligenza artificiale come AlphaGo, continuiamo a utilizzare il testo come principale mezzo di interazione. Forse, a livello tecnologico, siamo ancora legati a uno strumento arcaico per comunicare con queste IA avanzate. Il linguaggio scritto ha dei limiti intrinseci, sia per quanto riguarda la velocità che la precisione nella trasmissione delle nostre intenzioni. Chissà se in futuro riusciremo a sviluppare nuovi modi di input, più diretti e intuitivi, che possano sfruttare appieno il potenziale di queste intelligenze complesse!
Altro che commento tattico Raffaè! Tu mi apri sempre la mente! Sei una risorsa preziosa per noi nella community di TH-cam. Se non c’eri tu con il tuo canale, bisognava inventarti! ❤❤ complimenti e grazie.
Sono fra quelli che nello scorso video "criticavano" il termine thinking😅, attribuendogli un ruolo più da marketing che da funzione (e confidavo in un video più esplicativo della logica di funzionamento del modello, grazie). Effettivamente le potenzialità del modello si esprimono immediatamente se traduciamo "thinking", in "sto ragionando", piuttosto che in "sto pensando" (che per mio parere personale rimane prerogativa dell' essere umano).
La mia sottovalutazione è stata dovuta più ad un Lost in translation quindi😂
Ottimo video Raffaele 👌👌👌
Considerazioni esposte in modo davvero comprensibile.👏👏👏
I primi 6 minuti di video sono di sgridate alla superficialità di alcuni, segno che l'IA è già più intelligente di una buona parte dell'umanità. Ho un gruppo di amici che fortuna vuole siano ferrati in filosofia, e per tale motivo sono anche sostanzialmente contro la Tecnica, impersonando quindi la reazionarietà.Comprendo il loro punto di vista e comprendo anche perchè mi ritengono l'unico "tecnologico" della compagnia che si "esalta" per l'IA. Secondo loro, l'Essere non può scaturire dal non essere, al massimo il contrario, motivo per cui non sarà mai possibile che una IA diventi "soggetto" ma rimanga sempre e solo oggetto. Io mi riservo il diritto di aspettare per vedere.
Grazie Raf concordo la tua analisi, chissà se Altman dirà qualcosa di nuovo a Torino la settimana prossima
puoi portare dei video confronto dei robot umanoidi! Tipo Figure 02, Tesla Bot Optimus Gen 2, Neo Beta di 1X ... alla fine del 2026 verranno commercializzati!
Grande! Mi piace sentire il tuo punto di vista!
adoro questi video di approfondimento e condivisione del tuo punto di vista 🦇🦇🦇
In qualche modo, questo nuovo paradigma mi rosulta più digeribile del precedente, data centered. mi viene da dire, se non lo hai già fatto nel video, che l'uno sia costruito on top dell'altro, usando il layer precedente per costruire un modello di ricerca negli spazi di soluzioni, con una filiera di elaborazione più "comprensibile" al di fuori della blackbox. Complimenti per il contenuto.
Tutto magnifico e ha sbalordito anche me ma l'ultimo video di menti emergenti ti fa riflettere e forse ha ragione e a dire non è tutto oro quel che luccica e forse ci stanno solo prendendo in giro con sta storia del ragionamento
Questa è filosofia. Se cerchi un termine per questi video riflessivi, il termine è filosofici. E il bello è che le IA in realtà affascinano e incollano perché sotto pelle sentiamo che ci parleranno come Socrate, Platone, e meglio di Kant delle domande che ci stanno più a cuore. Fico assai!
Guardando il video pensavo, se è vero che permettere all'AI di autoaddestrarsi, lasciandola libera di perseguire tutte le linee di ragionamento che può generare, allora perché non permetterle di metter mano al suo stesso codice sorgente, in modo da automigliorarsi anche a livello architetturale?
Gran bel video, Raffaele! Grazie. Ora ho le idee più chiare su o1. Nei prossimi giorni mi guardo anche il documentario su AlphaGo perché mi hai incuriosito.🦇
ti piacerà!
Interessantissimo!
grandissimo Raffaele!
Un quadro completo su o1. Molto chiaro e puntuale.
Grazie Raffaele, come sempre contenuto super interessante!!! Domanda da super noob, io che non sono un programmatore ad esempio, come posso utilizzare o1. Sino ad ora ho utilizzato chat gpt più lato marketing, quindi ricerche di mercato, ecc...ma quali sono i possibili utilizzi ad oggi? Grazie!
Per noi che ne facciamo un uso prevalentemente di marketing, non credo che ci sia questo grande passo in avanti. Io facevo già tanto con la versione precedente
@@RaffaeleGaito grazie mille per la risposta
Fantastica la citazione della mossa 37
Grazie per il pippone :) a me viene un dubbio. C’è un tema di efficienza? L’idea che l’ai iteri costantemente non più soltanto parole ma anche ragionamenti non potrebbe overkill per moltissimi utilizzi? Non c’è un tema di energia sprecata in un momento storico dove sarebbe meglio non sprecarla? Oppure è un pippone anche questo? :)
Confermo, gran bel video! Complimenti a te
AlphaGo, la grossa differenza tra gli scacchi e il go è che nel primo caso c'è una vera e propria battaglia (lo scopo è di distruggere l'avversario), il go invece è un gioco di negoziazione in cui alla fine si trova un equilibrio tra vinto e vincitore. Altro punto chiave, oltre a quello della mossa 37, è quando AlphaGo potrebbe stravincere ed invece si accontenta di un 51%, ci vedo anche un pizzico di speranza per il nostro futuro! :)
Questo ragionamento spacca! Grazie Raffaele 🙏🏻
davvero interessante, grazie raffaele
Grazie per aver dedicato un video all'approfondimento di un tema molto interessante, non è da tutti.
Grazie Raffaele per questo video! Ottimi come sempre
Grande Raffaele, non vedo l'ora ci siano altre novità... ovviamente raccontate da te 😁
Ho visto e rivisto questo tuo “pippone” , grazie un commento tattico te lo meriti 🦇🦇
La mossa 37 sara quella che ci fottera come specie. Per quotare Michio Kaku: «Noi pensiamo che qualcuno è intelligente perché sa delle cose. Ma non è questa l’essenza dell’intelligenza. L’essenza dell’intelligenza è quella di vedere l’avvenire, simulare la creazione di un avvenire che non esiste». E dal momento in cui ci sara' un agente piu intelligente di noi su questo pianeta, sara per noi la fine.
Ottimo ragionamento. Bel video. Bravo Raffaele
Il tuo video di oggi è davvero intrigante e mi rimanda al finale del film “her”, forse profetico: la continua evoluzione della fidanzata digitale, insieme alle altre AI la sta conducendo sempre più distante dalla vita umana e dalla comprensione delle sue dinamiche. Quindi ragionare come un umano non è certamente l’unica via per risolvere un problema, anzi.
Complimenti Raffaele!😊
Considerazioni condivisibili. Grazie
Interessantissima spiegazione. Grazie come sempre e sempre di più.
messo like, commento tattico e prendendo spunto dal video un post nel mio blog con un link a questo video
ottimo video as usual...molto gradito!
Devastante. E il bello deve ancora venire.
Bravo Raffa, sempre sul pezzo, sei una risorsa preziosissima!♥️
Ti ho scoperto adesso, complimenti
Gran bel contenuto!
Grazie Raf... sempre puntuale!!!
complimenti finalmente una spiegazione chiara, anch'io all'inizio l'avevo sottovalutato questo nuovo modello !
Grazie Raffaele
Come dissi qui nei commenti in qualche video precedente, la soluzione al problema P=NP sembra ormai prossima
Bel lavoro Raffaele, grazie.
Ottimi ragionamenti come sempre
🦇🦇🦇 Raf sempre il migliore! Bravo!!
Grazie delle parole che spendi per farci capire cosa c'è dietro al funzionamento di questa tecnologia
Una cosa che penso sia utile specificare è che questa cosa permetterà ad OpenAi di non essere limitata dalle nozioni del pre training e di poter scalare principalmente la potenza di calcola per l'inferenza del modello, ovvero la parte in cui tu chiedi qualcosa e o1 pensa generando tokens e poi ti risoonde. Era tutto previsto da tempo e infatti le nuove GPU B200 di Nvidia sono molto più veloci a generare tokens. Sarà un salto enorme nella riduzione di prezzo per questo tipo di modelli
Sempre belle queste riflessioni ragionate e pacate!
Complimenti!
Non vedo il link al video che mostra ALFA GO e la mossa 37. In realtà mi piacerebbe approcciare al gioco Alfa Go. Grazie Raf
complimenti per il lavoro che fai, gli spunti e la simpatia.... se posso permettermi di darti un consiglio eliminerei quelle due o tre parolacce a video (cazzo e simili). E' una mia fisima lo so :)
👏🏻👏🏻 Molte persone non capiscono che l'AI strutturata aiuta anche la mente umana a a togliere barriere, quindi imparare e migliorare. Un potenziale pazzesco 👌🏻🏆
Veramente interessante 😮
Davvero interessante come sempre, grazie mille per i tuoi video
Grazie 🤩
video da riguardare in loop.. grazie
Per sentire quanto rosica sicuramente
Grazie per i contenuti del video