Costretto a “pensare”: GPTo1 - Una spiegazione semplice sull’ultimo modello di OpenAI

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ม.ค. 2025

ความคิดเห็น • 245

  • @enkk
    @enkk  3 หลายเดือนก่อน +84

    Non esitate a scrivere qua sotto i vostri dubbi o curiosità riguardante l'argomento!
    Cercherò di rispondere a tutti qua sotto o nel prossimo video.
    Sto pensando di condividere con voi delle piccole pillole tech, o meglio dei TECHnicismi su questi argomenti del momento!
    Che ne pensate, vi possono piacere?
    Scrivetemi anche voi qualche argomento che avreste piacere di vedere qui sul canale 💜

    • @ggioviv6244
      @ggioviv6244 3 หลายเดือนก่อน +1

      Sarebbe interessante vedere qualche applicazione del LLM su phyton

    • @SuperMarioTomma95
      @SuperMarioTomma95 3 หลายเดือนก่อน

      grande Enkk, ma che programma è quello in cui tieni gli screenshot e su cui scrivi nel video?

    • @Serzes_
      @Serzes_ 3 หลายเดือนก่อน

      Che opportunità lavorative ci sono nel campo dell’IA? Che tipi di ruoli/professioni esistono? Quali sono i requisiti/corsi/studi che si possono fare e vengono riconosciuti validi per potere lavorare in questo settore? Grazie

    • @sam98-T_T
      @sam98-T_T 3 หลายเดือนก่อน

      Sior enkk, ho un dubbio che sicuramente sarà una cavolata ed infatti voglio trovare il contraddittorio che però ancora non ho trovato, dandomi fastidio: tu dici che gpt non ragiona come un umano perché praticamente lui ad esempio prende nella letteratura il fatto che (2+2)×3=12 e te lo spiattella lì: lo fa con il risultato e lo fa per i passaggi, avendo anche lì sostanzialmente appreso e copiato dalla letteratura che 2+2=4, che conti fra parentesi vengono svolti prima e che 4×3 fa 12. Bene, ma questo non è proprio quello che di base facciamo noi nel ragionare? Cioè lui lo copia dalla letteratura, mentre noi lo abbiamo "copiato" da quello che i nostri maestri di elementari ci hanno detto, e ancor prima per le parole da chi ci ha spiegato che "giallo" indica una certa cosa e "cane" un'altra ancora. Quindi appunto non trovo la differenza marcata, apparte la parte sentimentale, irrazionale, tra la modalità di ragionamento di un umano e quella di "ragionamento" di gpt

    • @fabiopellacini6231
      @fabiopellacini6231 หลายเดือนก่อน

      Ciao, potresti fare un video su come sviluppare, da zero, un agent basato su AI? Grazie mille per condividere la tua conoscenza. Ti seguo con passione, sei bravissimo! Continua così! 😉

  • @SteSangio
    @SteSangio 3 หลายเดือนก่อน +132

    Grazie per l'edutainment e sempre viva lo slow content

    • @enkk
      @enkk  3 หลายเดือนก่อน +33

      W lo SLOW CONTENT! facciamo esplodere questo video

    • @poggatrio5459
      @poggatrio5459 3 หลายเดือนก่อน

      Presidio slow food, anzi slow content

  • @dunkenbutterfly
    @dunkenbutterfly 3 หลายเดือนก่อน +32

    Finalmente qualcuno che parla con cognizione di causa e che sta lontano da marketing e hype. Spiegazione perfetta e chiara. Non se ne può più di tutti questi zeloti dell’AI, che manco sanno di cosa stanno parlando, e che sembrano novelli Mastrota.

    • @enkk
      @enkk  3 หลายเดือนก่อน +2

      Grazie, ci proviamo.

  • @luigipalestino8759
    @luigipalestino8759 3 หลายเดือนก่อน +29

    Spero l’Internet inizi a virare verso questo tipo di content, è impeccabile, intrattiene, è interessante e migliora la società in cui viviamo

  • @jankwebvideos
    @jankwebvideos 22 วันที่ผ่านมา

    Questi sono i contenuti utili e non i clickbait facili. Grazie!

  • @Sl4ck3r78
    @Sl4ck3r78 3 หลายเดือนก่อน +10

    Grazie mille Enkk. Effettivamente è solo approfondendo la matematica sottostante, che si ci rende conto che c'è solo un enorme e complesso "gioco" di probabilità e relative inferenze. Comunque, in Italia pochissimi sono capaci di spiegare e approfondire magistralmente questo argomento, quindi Chapeau ! ;)

  • @alarmfox
    @alarmfox 3 หลายเดือนก่อน +1

    a volte le persone nel mondo scientifico si nascondono dietro al "è complicato", ma qui c'è la dimostrazione che è possibile divulgare senza mettere in mezzo concetti matematici complicati. Non a tutti piace vedere doppie/triple sommatorie, probabilità e integrali, ma ciò non significa che non si possa voler capire come funziona il mondo scientifico. Ottimo lavoro davvero

  • @sebi_alo
    @sebi_alo 3 หลายเดือนก่อน +6

    Studio AI e conoscendo i concetti complessi che stanno dietro a queste tecnologie, so quanto è difficile spiegarli in modo semplice e così fluente. Grazie mille per questi contenuti Enkk, completa stima ❤
    Aspetto il prossimo

  • @massimodueuro3392
    @massimodueuro3392 3 หลายเดือนก่อน +10

    Riesci a spiegare questi argomenti senza far annoiare. Top

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Sono felice di leggere questi commenti!

  • @lorenzosomiglipsi
    @lorenzosomiglipsi 3 หลายเดือนก่อน +1

    Ti ho conosciuto con la live con MrRip, che seguo sempre con piacere. Ti ringrazio per la spiegazione chiara e da comuni mortali ignoranti in materia come me, ma interessati al tema.

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Grazie a te e benvenuto!

  • @balance8422
    @balance8422 3 หลายเดือนก่อน +9

    GRAZIE ENKK TI ASPETTAVO DA GIORNI SU O1

    • @enkk
      @enkk  3 หลายเดือนก่อน +3

      Sempre un piacere! Guardarlo attentamente e se hai delle domande scrivile qua, così da poterti rispondere qui o nel prossimo video!

  • @michelemicheloni02
    @michelemicheloni02 3 หลายเดือนก่อน +2

    Ancora una volta spiegazione impeccabile, complimenti enkk!

  • @enzomerone
    @enzomerone 3 หลายเดือนก่อน +1

    Livello esplicativo incredibile! Bravo Enk! 👏🏻

  • @ggMastr0
    @ggMastr0 3 หลายเดือนก่อน +1

    video utilissimo e parli molto bene, ci vorrebbero più professori come te.

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Grazie! Spero continuino a piacerti i prossimi video!

  • @clav7711
    @clav7711 3 หลายเดือนก่อน +2

    Era ora Prof ... Finalmente ne parla su TH-cam! La seguiró a spada tratta

  • @gordonfreeman4357
    @gordonfreeman4357 3 หลายเดือนก่อน +2

    Piccola correzione: Il modello effettua qualcosa come "step di ragionamento", anche se decoda la risposta senza CoT, è esattamente il motivo per il quale si allenano transformer molto deep, per permettergli di manipolare gli stati latenti con più "passaggi" (è stato empiricamente osservato che la "larghezza" aiuta la capacità di memorizzazione, mentre la profondità le capacità di "ragionamento")
    P.S.
    Ottimo video!

  • @lucabeitone3562
    @lucabeitone3562 3 หลายเดือนก่อน +3

    grazie per il contenuto. come sempre riesci a spegare bene concetti che sono molto lontani alla mia materia di studio

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Grazie mille, sono contento di riuscire a fare capire questi argomenti anche a chi non è del settore!

  • @ggioviv6244
    @ggioviv6244 3 หลายเดือนก่อน +5

    Grazie mille Enk! Cercavo un video simile da quando è uscito questo modello

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Contento che tu ne abbia trovato finalmente uno! ❤️

  • @kindry-n7p
    @kindry-n7p 3 หลายเดือนก่อน +2

    Grazie enkk per questi contenuti, sarebbe bello vederti realizzare progetti sfruttando l'intelligenza artificiale :)

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Ci possiamo fare un pensierino, sempre se può piacervi l'idea!

  • @simoneristallo883
    @simoneristallo883 3 หลายเดือนก่อน +1

    Che video interessante, ti ringrazio per questo contenuto. Spero tu continui a farne di questo tipo , like e iscrizione meritati.

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Grazie a te, non esitare a commentare e farmi sapere la tua anche nei prossimi video! A breve ne usciranno altri!

  • @fabiobiselli690
    @fabiobiselli690 3 หลายเดือนก่อน

    Bravo! Esposizione molto chiara per tutti gli interessati.

  • @francescofailo6335
    @francescofailo6335 3 หลายเดือนก่อน +1

    Grazie.

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Grazie a te!

  • @DavideDaDalto
    @DavideDaDalto 3 หลายเดือนก่อน +1

    super interessante, grande Enkk!

  • @theKinoglaz
    @theKinoglaz 3 หลายเดือนก่อน +1

    Almeno questo è quello che ho capito io, ma non penso che sia così, anzi! Sono certo che non sia così.
    Con questa frase sei diventato il mio youtuber preferito dell’anno!

  • @weebonacci4703
    @weebonacci4703 3 หลายเดือนก่อน

    Grande Enkk! Ottima spiegazione. Personalmente utilizzo diversi LLM per differenti scopi. Ultimamente li sto utilizzando per la programmazione 0 code e da quando é uscito o1 l'ho sostituito a Claude 3.5 Sonnet per la ingegnerizzazione del progetto software che voglio creare.
    Grazie per l'edutainment! Spero che escano altri contenuti simili :)

  • @sciottigno90
    @sciottigno90 3 หลายเดือนก่อน +1

    Top divulgatore grazie mille ❤

  • @sbronzorenzo
    @sbronzorenzo 3 หลายเดือนก่อน

    Commento per foraggiare altri video simili, anche dei video a parte più tecnici e più deep sarebbero molto utili, grazie enkk tanta stima e tanto amore

  • @stefanorova4060
    @stefanorova4060 3 หลายเดือนก่อน +1

    Come sempre, qualità!

  • @lucaseresin187
    @lucaseresin187 3 หลายเดือนก่อน +1

    Grande video, complimenti

  • @lucamancinelli3551
    @lucamancinelli3551 3 หลายเดือนก่อน +1

    Bel video Enk .. altri così!!

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Sarà fatto!

  • @tizioacaso7891
    @tizioacaso7891 3 หลายเดือนก่อน +1

    Enkk sei un mostro

  • @mn-qu5ko
    @mn-qu5ko 3 หลายเดือนก่อน +1

    contenuto preziosissimo, grazie

    • @enkk
      @enkk  3 หลายเดือนก่อน

      ❤️

  • @Vincenzo-iw3be
    @Vincenzo-iw3be 3 หลายเดือนก่อน +1

    Video e spiegazione stupenda

  • @Thestickcreator
    @Thestickcreator 3 หลายเดือนก่อน +1

    la riflessione filosofica finale sul ragionamento umano vs quello fittizio di una macchina... ❤
    Aiuta a capire quanto siamo ancora speciali e perché le macchine, almeno allo stato attuale, non possono nemmeno minimamente rappresentante la logica dei collegamenti che facciamo nella nostra testa.
    Tra qualche tempo chissà... Ma a quel punto quale sarà la differenza tra uomo e macchina?

  • @mauriziofulvio3460
    @mauriziofulvio3460 13 วันที่ผ่านมา

    Molto interessante. Ora cercherò di capire se ci sono altri tuoi video

  • @dawuser
    @dawuser 3 หลายเดือนก่อน +1

    Video super interessante e che mi ha spinto a fare qualche prova personalmente (da considerare che non ho nessun tipo di abbonamento a pagamento a servizi di AI), mi sono soffermato più che altro sul problema più semplice delle r in strawberry. Ho fatto la domanda a gpt-4o ed effettivamente risponde sempre 2, ma finiti i tentativi gratuiti con 4o ho provato anche con 4o-mini (che per quanto ne sono dovrebbe essere il modello "inferiore") e mi a stupito notare che mi risponde sempre 3. Ho fatto poi altre prove con altri servizi di AI che non fanno parte del tema di questo video e forse hanno un funzionamento diverso, ma da ignorante a riguardo e per curiosità ho provato comunque, parlo di Gemini e di Perplexity che entrambi hanno risposto sempre 3 alla domanda. Chiedendo poi di riscrivere la risposta a Perplexity usando come modello Pro Search (che nonostante il nome ho usato con l'iscrizione gratuita) ho visto che fa vedere il "COT" e che per trovare la risposta esatta ha "pensato" usando python per contare le r in strawberry. Alla fine di questo commento mi rimangono due dubbi però, uno è come mai 4o-mini risponde giusto sempre e 4o (e forse anche o1 da quanto ho capito dal video) rispondono sempre sbagliato, e l'altra è come mai altri modelli riescono a rispondere giusto e non chatgpt che per la mia comporensione dell'argomento dovrebbe essere il top in questo campo (ammesso che magari gli altri modelli che ho citato non sono LLM o comunaue funzionano in maniera diversa che magari rende non adatto un confronto). A chiunque abbia voglia di leggere tutto e sappia darmi anche solo a grandi linee una risposta, Grazie.

  • @fabiosignorelli2746
    @fabiosignorelli2746 3 หลายเดือนก่อน +1

    bellissimo video, molto tecnico

  • @samas69420
    @samas69420 3 หลายเดือนก่อน +2

    32:05 ☝🤓 actsually invece è possibile che faccia RL anche in fase di inferenza, in gergo si chiama decision-time planning ed è una serie di tecniche di RL che si possono applicare quando si ha a disposizione un modello dell'environment, un esempio di queste tecniche è la MCTS (monte carlo tree search) in cui i vari passi del ragionamento sono i nodi di un albero computazionale che rappresenta le "simulazioni di pensiero" che il modello fa appunto poco prima di dare la risposta, probabilmente la scritta "thought for 60s" si riferisce proprio al tempo impiegato per fare le simulazioni e costruire gli alberi computazionali, tutto questo in inferenza, e può essere che gli step della cot siano stati nascosi perchè avrebbero dato ai competitor informazioni su come funzionava il modello dell'environment usato per le simulazioni ma vabbè questa è solo una mia opinione per il resto la fonte è il Sutton&Barto capitolo 8

  • @matt.3951
    @matt.3951 3 หลายเดือนก่อน +1

    enkk video bellissimo, in particolare da studente di psicologia trovo molto interessante vedere come le metodologie di apprendimento delle ai prendano ispirazione dalle teorie psicologiche e neuroscientifiche, concetti come il reinforcement learning e l'apprendimento supervisionato sono alla base della psicologia comportamentale e adesso le stiamo applicando alle intelligenze artificiali, ovviamente proprio perchè l'intelligenza umana è la cosa più vicina a noi a cui possiamo ispirarci, detto ciò è interesante vedere come le intelligenze artificiali siano una sorta di punto di ritrovo per tantissime branche scientifiche, e viva lo slow content sempre.

  • @youngferg4373
    @youngferg4373 3 หลายเดือนก่อน +1

    Top format

  • @amedeonasorri
    @amedeonasorri 3 หลายเดือนก่อน

    Ciao @enkk, complimenti per il video! Mi chiedevo perché, dando lo stesso prompt in due chat diverse, si ottengono risposte differenti a parità di condizioni. Grazie per il tuo tempo🤝

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Alla fine della generazione del token c'è un parametro che permette alla rete di essere un po' pazzerella se desiderato. Grazie per le belle parole!

  • @adrianolopizzo9556
    @adrianolopizzo9556 3 หลายเดือนก่อน +1

    Commento per foraggiare altri video come questo

  • @edoardobettini
    @edoardobettini 3 หลายเดือนก่อน +1

    Grande Enkkone

  • @RuggeroRollini
    @RuggeroRollini 3 หลายเดือนก่อน +1

    Aspettavo questo video come da da bambino aspettavo Babbo Natale

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Sempre troppo buono!

  • @alessandrofrau4196
    @alessandrofrau4196 3 หลายเดือนก่อน

    Grazie per il video Enkk. La cosa che mi lascia perplesso è il numero crescente di utenti bannato da OpenAI o minacciato di ban perché chiedevano a o1 di sviscerare la CoT. Trovo che in ambito xAI la mossa di nascondere la catena di pensieri sia una follia, perché è ciò che tra le tante cose ci consente, a mio parere da non professionista del settore ma solo da sviluppatore appassionato, di capire potenzialmente se l'LLM cerca di manipolarci o ha infilato un bel bias cognitivo nel ragionamento senza averlo disambiguato.

    • @alessandrofrau4196
      @alessandrofrau4196 3 หลายเดือนก่อน

      Del resto da un'azienda nata non-profit e diventata ciò che è ora, non ci si poteva aspettare molto altro. Chissà cosa starà facendo Ilya.

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Woah, questa notizia me la ero persa. Sono abbastanza sconvolto, grazie per la segnalazione.

  • @MultiCarlitos40
    @MultiCarlitos40 3 หลายเดือนก่อน +1

    Grande Enkk

  • @velisj1567
    @velisj1567 3 หลายเดือนก่อน +1

    sei un grande

  • @MrSpiderChief
    @MrSpiderChief 3 หลายเดือนก่อน +1

    Gran bella introduzione all'argomento!
    Avresti della documentazione su cui approfondire adeguatamente per una tesi di laurea al riguardo?
    Ti ho scritto su IG al riguardo.

  • @lorenzodessimoni2856
    @lorenzodessimoni2856 3 หลายเดือนก่อน

    Ciao Enkk! Prima di tutto complimenti per il video!
    Non so se conosci Andrej Karpathy, che ha un canale qua su youtube dove ha approfondito moltissimo questi temi. Sarebbe figo avere il corrispettivo "Italiano" del tutto 😂. A parte gli scherzi io sarei davvero interessato agli approfondimenti e sono certo che come me c'è anche un sacco di altra gente!

  • @lucamartellato2853
    @lucamartellato2853 3 หลายเดือนก่อน +6

    Top content! App usata per questa bellissima presentazione?

    • @enkk
      @enkk  3 หลายเดือนก่อน +3

      Concepts!

  • @Nico_Fontani
    @Nico_Fontani 3 หลายเดือนก่อน +3

    Ciao Enkk, video stra interessante. Mi ha incuriosito il software che usi per mostrare le finestre a video e poterci scrivere sopra. Come si chiama? E' disponibile per Android? Grazie mille❤❤

    • @domescala
      @domescala 3 หลายเดือนก่อน

      Volevo chiederlo anche io

  • @Prysm__
    @Prysm__ 3 หลายเดือนก่อน +1

    Viva Enk

  • @antonioacampora8216
    @antonioacampora8216 3 หลายเดือนก่อน +3

    complimenti da un quasi boomer!

  • @essskevin81101
    @essskevin81101 3 หลายเดือนก่อน +1

    Qual è il programma usato da Enkk per illustrare la lezione?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Epic pen

  • @handreieiacasa
    @handreieiacasa 3 หลายเดือนก่อน

    Mi diverte sapere che empiricamente per aiutarmi a fare gli esercizi ragionavo come la nuova versione, ma mi dovevo fare il mazzo per farlo. Grazie enkk per questa guida. Pensi che le diverse AI di diverse aziende abbiano sostanziali differenze o sono divisioni dovute solo al mercato, sicuramente molto redditizio?

  • @alessandrovalli6593
    @alessandrovalli6593 3 หลายเดือนก่อน +1

    complimenti

  • @giovannisardisco4541
    @giovannisardisco4541 3 หลายเดือนก่อน +1

    Enk, tvb

  • @davideluci5091
    @davideluci5091 3 หลายเดือนก่อน +1

    top contenuto

  • @TrinityDubstep
    @TrinityDubstep 3 หลายเดือนก่อน

    enkk complimenti, alto livello per lo standard youtube italiano
    domanda enkk: come fai ad informarti e capire a fondo i segreti su come lavorano sul modello? Le università come si rapportano con le novità che escono ogni giorno?

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Eh... è complicato. Un po' leggo i paper (che però sono tantissimi e spesso molto complicati) e un po' leggo o guardo contenuti che mi sembrano affidabili da vari blog e un paio di canali youtube. AI Explained è un ottimo canale, ad esempio. Le università come entità totali ci mettono tempo a reagire a questi cambiamenti, e va bene così, il day-to-day è troppo rapido per impattare su entità così massicce.

  • @aminzebyou6518
    @aminzebyou6518 3 หลายเดือนก่อน

    Ciao enkk, contenuto di qualità come al solito ❤️
    Ho una domanda, secondo te quando a questi modelli si chiede di generare dei pseudo codici, appllicano le stesse procedure? O segue dei procedimenti diversi?
    Grazie!

    • @johnlocke6563
      @johnlocke6563 3 หลายเดือนก่อน

      Applicano sempre le stesse procedure. Per qualsiasi domanda. Un’altra cosa pero che non sappiamo è quanto l’output del LLM e il prompt che scriviamo vengano maneggiati da codice classico fuori dall’AI. Solitamente vengono poste delle “regole” deterministiche per far funzionare meglio alcune cose.

  • @andrea.dg-dev
    @andrea.dg-dev 3 หลายเดือนก่อน +1

    Quindi o1 è praticamente il vecchio gpt con il suffix "raccontalo come fosse un romanzo" e poi passa il risultato a un "adesso riassumi il romanzo" 🥲 comunque complimenti per il video, sarebbe interessante andare a fondo 😄
    Sarebbe figo vederei dei contenuti su come usare l'ai realemente, qualche jupyter notebook usando huggingface o cose simili 😄

  • @You-hp3rl
    @You-hp3rl 3 หลายเดือนก่อน

    grazie enkk, ho un altra domanda:
    La differenza nel training da Gpt4o a Gpto1 sta solo nello "step 3" del training? il cosiddetto fine-tuning? o il meccanismo delle COT e del reinforced learning viene usato per allenarlo anche negli step precedenti?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      È il nuovo step di allenamento la differenza. Ma, in termini di risultati, fa tanta differenza.

  • @creatoridicose
    @creatoridicose 3 หลายเดือนก่อน +1

    Grande: spargo il tuo seme tra i miei. Dai dai dai smarmella il tuo sapere ovunque❤

  • @handreieiacasa
    @handreieiacasa 3 หลายเดือนก่อน

    Mi diverte sapere che empiricamente per aiutarmi a fare gli esercizi ed esami ragionavo come la nuova versione, ma mi dovevo fare il mazzo per farlo. Grazie enkk per questa guida.
    Pensi che le diverse AI di diverse aziende abbiano sostanziali differenze o sono divisioni dovute solo al mercato, sicuramente molto redditizio? Leggendo qualcosa mi son fatto l’idea che una vale l’altra

  • @MimmoCRISTOFARO
    @MimmoCRISTOFARO 3 หลายเดือนก่อน +1

    Geazie per la precisa narrazione.

  • @marcoprandoni4453
    @marcoprandoni4453 3 หลายเดือนก่อน

    Ciao @enkk, colevo chiedere perché, al posto di insegnare a gpt a fare qualsiasi cosa, non si possano semplicemente programmare delle parti di software modulari che vengono richiamate quando necessario. Nell'esempio dell'integrale, io glielo propongo, gpt lo spedice al risolutore che gli comunica il risultato, per poi farglielo esprimere tramite le sue capacita di LLM.
    Grazie in anticipo per la risposta e per tutto il lavoro di divulgazione.👊🏻

  • @Le_Lys_Eclectique
    @Le_Lys_Eclectique 3 หลายเดือนก่อน

    Grazie mille x questo video istruttivo che TH-cam mi ha suggerito!
    Ma quindi è questo il motivo per il quale ChatGPT 4o si perde quando la chat che ho aperto con lei inizia ad essere lunga? Ti faccio un esempio: avevo aperto una chat per chiarirmi dei calcoli per l’ISEE. All’inizio è stata coerente con le risposte ma, ad un certo punto, dopo parecchie interazioni e calcoli, ha iniziato ad allucinare e a fare calcoli sbagliati, quando solo pochi messaggi prima, stava dando le risposte corrette e coerenti.
    Come risolvere questi problemi se volessi utilizzare ChatGPT come consulente e commercialista, ad esempio per aiutarmi a fare i calcoli ISEE o a compilare correttamente il 730?
    Grazie mille per il tuo prezioso contributo!
    Tony

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Ciao Tony, dipende quanto lungo... La finestra di contesto dovrebbe essere di 128k token. Puoi provare a usare questo tokenizer per vedere la lunghezza dei tuoi messaggi in token: platform.openai.com/tokenizer
      La lunghezza dei messaggi è un fattore, ma non dimenticare che come spiego nel video GPT non è una calcolatrice quindi ricontrolla sempre tu tutti i calcoli e le cose che dichiara. Puoi provare per accorciare i tuoi messaggi a farti fare un riassunto della conversazione e poi iniziarne una nuova incollandoci il riassunto come primo prompt. Ciao!

    • @Le_Lys_Eclectique
      @Le_Lys_Eclectique 3 หลายเดือนก่อน

      @@enkk Innanzitutto grazie mille per avermi risposto! 🙏 Ok quindi significa che se la chat è troppo lunga, dopo un pò si perde come pensavo io? Scusa se non parlo in modo tecnico.
      128K token sarebbero 128.000 parole? Ma in tutto tra le mie e quelle di ChatGPT?Mi pare avevi fatto questo paragone nel video. Quindi dovrei incollare l'intera chat (ne tendo una per argomento, ad esempio ISEE, suggerimenti medici, benessere ed alimentazione, cucina e ricette, infestazione di insetti in dispensa e cosi via) e vedere se supera o meno i 128k token?
      Il suggerimento di farmi fare un riassunto e ricominciare una nuova mi pare un'ottimo suggerimento. Potrei anche farmi fare un riassunto e chiedere di memorizzarlo in modo che tenga in memoria alcuni argomenti chiave?
      È un annetto che sperimento con ChatGPT, in maniera da inesperto del campo come sono io, e più apprendo più mi faccio domande. Ma mi sembra che sia uno strumento potentissimo!
      P.S.
      La versione 1o funziona meglio anche con i calcoli più complessi o si perde sempre?

  • @tokyowiz
    @tokyowiz 3 หลายเดือนก่อน

    Ciao Enkk, secondo te ha senso fare ricerca nel fine-tuning? stavo pensando ad un'idea per la mia tesi che poi vorrei portare avanti se riesco

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Certo, usare il fine tuning è uno dei modi per cercare di migliorare le performance dei LLM su task specifici.

    • @tokyowiz
      @tokyowiz 3 หลายเดือนก่อน

      @@enkk grazie per la risposta intanto, mi hanno proposto il phd in ml. e volevo concentrarmi sul fine tuning, anche perchè è quello che conosco un pochino. quindi credi che dal punto di vista di rierca e sviluppo ci sia margine ? o intendi solo per una tesi / poco più. mi piace perchè è un campo del ml molto applicativo.

  • @leilalessia
    @leilalessia 3 หลายเดือนก่อน

    Enkk ma scusa, quando crea dei programmi in Phyton non risolve problemi computazionali sfruttando mero calcolo logico?

  • @halmirofigliolo1637
    @halmirofigliolo1637 3 หลายเดือนก่อน +2

    Ciao Enkk, puoi spiegarci anche i modelli multimodali? Per esempio l'advanced voice mode di chatGPT.

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Video appena pubblicato!

  • @pojo78
    @pojo78 3 หลายเดือนก่อน +1

    Grazie

  • @GlocalAble
    @GlocalAble 3 หลายเดือนก่อน

    Sono capitato per caso su questo canale e ho notato che hai una voce conosciuta. "Mortebianca" è il tuo canale faceless?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Ciao! Non ho altri canali "faceless", ma ammetto che la sua voce e la mia sono simili!

  • @rikisimpson1
    @rikisimpson1 3 หลายเดือนก่อน +1

    Enkk learning!

  • @lucui4774
    @lucui4774 3 หลายเดือนก่อน

    Tieni un corso in università ti prego, a Parma possibilmente :)
    A parte le stronzate sei molto bravo a sintetizzare e a spiegare senza annoiare

  • @lukepoli87
    @lukepoli87 3 หลายเดือนก่อน +1

    Potresti secondo me creare un videocorso in cui spiegare cosa sono, come si possono utilizzare in vari ambiti di lavoro (divulgazione, marketing, analisi dati, ecc…) e pregi e difetti delle principali AI: chatGPT, Claude, Perplexity, NotebookLM, Flux1. Ovviamente a pagamento.
    Io lo comprerei subito!

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      A breve riuscirà il video su NotebookLM, fammi sapere poi che ne pensi e grazie dei consigli!

  • @yumemmo
    @yumemmo 3 หลายเดือนก่อน +1

    Come si chiama l'applicazione che usi per scrivere come se fosse una lavagna?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      L'app è epic pen

  • @danielemaghini1527
    @danielemaghini1527 3 หลายเดือนก่อน

    Enkk conosci il corso di language technologies and digital humanities?

  • @pippobaudo7717
    @pippobaudo7717 3 หลายเดือนก่อน

    Ciao grazie mille per la spiegazione, mi sono perso via 40 minuti senza distogliere l'attenzione, cosa che su un video di youtube e molto rara, almeno per me.
    Avevo visto un video per come avere un llm in locale e ho scoperto che il llm llama2 alla fine e un file di pochi GB di dimensioni, volevo capire come fa a contenere tutta questa informazione, che poi da quello che ho capito sono solo parole con una sorta di etichetta per poterle associare nell'ordine piu probabile. La domanda e in quei pochi giga ci sono solo parole con questa sorta di etichetta?

  • @emiliocaschera2394
    @emiliocaschera2394 3 หลายเดือนก่อน

    Ciao, video veramente interessantissimo sei una grande ❤️ sono Interessato a questi argomenti e li studio anche all'università, riusciresti a condividere anche paper o documenti che parlano dell' architettura?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      La lista sarebbe molto lunga... il paper fondazionale sui transformers si chiama Attention is all you need. Puoi partire da lì.

  • @DriverKakaDuff
    @DriverKakaDuff 3 หลายเดือนก่อน

    Enkk sembra che molti nell'ambiente della programmazione credano che l'avvento di una ia abbastanza raffinata per poter scrivere codice sia il segno che ormai non sia più possibile per nuovi junior entrare nel settore o avviare una carriera duratura.
    Provando ad accantonare il tuo bias innato, essendo tu un insegnante di cs, cosa ne pensi? C'è ancora posto per nuovi ingegneri software, o la programmazione sarà, negli anni a venire, messa in mano all'ia, con pochi programmatori con molta esperienza che ne correggono il lavoro?

  • @andreanapolitano9305
    @andreanapolitano9305 3 หลายเดือนก่อน

    Ciao Enkk dal mio punto di vista questo nuovo chatgpt deve essere usato come un mezzo per migliorare altro, come hai detto nel video non è preciso non ha un database ecc... ma se uno che ha questi mezzi implementasse gpt cosa ne pensi? Sperando che il mero guadagno passi in secondo piano rispetto alla creazione di una AI migliore
    Un' altra domanda quando si parla di intelligenza artificiale alcuni parlano di deep learning si può dire che al momento è utopia?

  • @letsstripping
    @letsstripping 3 หลายเดือนก่อน +1

    ottimo

  • @christiankana4660
    @christiankana4660 3 หลายเดือนก่อน +1

    Quando arriverà il momento in cui potremo finalmente “fidarci” dei LLM? Essendo tutto basato sulla previsione e sull’automatismo possiamo, un giorno, dare tutta la nostra fiducia basandosi poi sui risultato dato da essi?

  • @lucaron9167
    @lucaron9167 3 หลายเดือนก่อน

    Ciao Enkk, cosa pensi di quello che dice Federico Faggin sull Ai e sulla coscienza?

    • @johnlocke6563
      @johnlocke6563 3 หลายเดือนก่อน

      Lascia perdere

    • @lucaron9167
      @lucaron9167 3 หลายเดือนก่อน

      @@johnlocke6563 ??

    • @johnlocke6563
      @johnlocke6563 3 หลายเดือนก่อน

      @@lucaron9167 un fisico che parla di coscienza deve ficcarci dentro la meccanica quantistica è una legge universale e quando lo fa solitamente spara roba piu new age che scientifica. Lo dico da fisico. Vale lo stesso per penrose. Quei discorsi li prenderei un po cosi, senza dargli troppo peso. Per il resto non dice cose sceme, anzi. Ma la parte sulla coscienza la lascerei un po da parte, attira i gonzi ma non è neanche cosi interessante perche sfocia quasi sempre nelle supercazzola impossibili da verificare scientificamente

    • @lucaron9167
      @lucaron9167 3 หลายเดือนก่อน

      @@johnlocke6563 se nn erro lui é stato per morire ed ha avuto un esperienza nde, diciamo che parla per esperienza personale ed ha approfondito quel campo anche con dei colleghi.
      In sintesi dice che la coscienza non é semplicemente reazioni elettrochimiche nel cervello ma qualcosa di più complesso a livello quantistico, quindi non riproducibile (se non ho capito male).
      Da quello che dice (o da quello che ho capito io) la coscienza esiste da prima che esiste l universo....poi anche se fossero vere certe cose nn credo riusciremo mai a dimostrarle 😂😂

  • @albeNF
    @albeNF 3 หลายเดือนก่อน

    Hai detto che avresti parlato di come sarà utilizzato per fare orion, il passo successivo, ma non l'ho sentito, me lo sono lasciato scivolare via dell'attenzione?

  • @ggigazz
    @ggigazz 3 หลายเดือนก่อน +2

    video capolavoro
    visto a 2x

    • @enkk
      @enkk  3 หลายเดือนก่อน

      ❤️

  • @unoacasoyt
    @unoacasoyt 3 หลายเดือนก่อน +1

    Enkk we’re friends now *music starts*

  • @ag30nov
    @ag30nov 3 หลายเดือนก่อน

    Ciao, come posso tranquillizzare la mia collega che è preoccupata del fatto che inserisco in chat gpt informazioni sensibili della nostra azienda?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Se non hai impostato correttamente il tuo account e le informazioni le dai da interfaccia, quelle informazioni ora OpenAI può usarle per allenare i suoi prossimi modelli. Quindi... vedi tu.

    • @ag30nov
      @ag30nov 3 หลายเดือนก่อน

      @@enkk come posso modificare questa cosa?

    • @enkk
      @enkk  3 หลายเดือนก่อน

      @@ag30nov Nelle impostazioni cerca se hai abilitato la condivisione dati con OpenAI.

    • @ag30nov
      @ag30nov 3 หลายเดือนก่อน

      @@enkk grazie mille

  • @hood1978
    @hood1978 3 หลายเดือนก่อน

    Io mi ero immaginato che avessero allenato un modello llm a parte per identificare la tipologia cot si dovesse usare per il problema. Poi come dici te allenato il core a su catene di pensiero esplicitandone la tipologia ... in modo che quando lanciamo o1 prima identifica la tipologia e poi rilancia il tutto nel core che produce la risposta

  • @neuromante146
    @neuromante146 3 หลายเดือนก่อน +2

    Bravo Enkk! Quante k ci sono in Enkk?

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Aspetta che chiedo alla mia Ai preferita

  • @mauriziofulvio3460
    @mauriziofulvio3460 13 วันที่ผ่านมา

    ma secondo te c'è speranza di avere l'integrazione di questi modelli LLM con programmi più rigorosi (come quelli matematici) per ottenere un interfaccia semplice di comunicazione come chatgpt, ma delle risposte sempre corrette (almeno sugli argomenti matematici o su quello che viene dichiarato usare il modello)? e ancora più "facile", perchè quando "cpaisce" la domanda, se è una banale operazione che si fa con una calcolatrice non ne usa una? Forse sono domande stupide, la cui risposta è super complessa, ma forse è ache quello che si chiede "l'utente comune"

  • @CommentiAcaso
    @CommentiAcaso 3 หลายเดือนก่อน +4

    Stima a parte, credo che, anche se in realtà anche io sono sempre stato scettico, la potenza di questo strumento è sempre più vicina ad un'intelligenza.
    Purtroppo o per fortuna, questa tecnologia va ad una velocità talmente elevata che duole ammetterlo, ma inizia a insinuare realmente il dubbio che queste macchine siano davvero in grado di pensare e, anche se ad oggi il peso tende più a zero che a uno, se dovessi tenere in conto quanto veloce sta progredendo, allora non sarei più pronto a scommettere che nel giro di un anno queste saranno davvero in grado di pensare.
    Il problema, credo che stia anche nel linguaggio, che come spesso accade, crea guasti.
    Perché dovremmo star qui a definire prima cosa significa pensare, cosa significa essere in grado di produrre una risposta partendo da un ragionamento.
    Quello che mi impressiona, è che in realtà tutti noi, quando oggi studiamo, lo facciamo comunque in maniera supervisionata, quando studi un nuovo pattern di programmazione, parti dal testo, e ne devi assimilare diversi e in diverse forme prima di riuscire solo ad iniziare a capire l'argomento, dopodiché, hai bisogno di fare pratica, e allora anche qui, in maniera supervisionata dai risultati, ritari i pesi, torni sui testi e ancora, di un testo che hai già letto, ritari il peso.
    Tutto questo mi sembra un pattern molto simile a quello dell'apprendimento umano.
    Quello che ancora (credo) non facciano queste macchine, è essere sicure e confidenti di aver capito, che quindi dopo aver tarato e ritarato i pesi dopo studio e pratica, non si ha più bisogno di passare per un feedback dato da un reward OC/OP, ma semplicemente sappiamo di aver appreso anche senza passare per una fase di reward.
    Certo è che questi nuove informazioni apprese, ci permettono anche di esplorare possibili nuove soluzioni, combinando le nuove informazioni appena apprese, con quelle già consolidate, e anche qui, mi sembra un pattern molto simile a quello della prediction sulla base di un dataset di miliardi di dati.
    Se dovessi sbilanciarmi, l'evolversi dello strumento andrà sempre più vicino a quello del ragionamento nel senso in cui lo intendiamo noi.
    Se è vero che ad oggi abbiamo esempi incontrovertibili di errori di ragionamento, ora che abbiamo capito che possiamo vedere dove nascono le falle, allora possiamo anche correggere.
    Non ci sogneremmo mai di ridere di un bambino che fa errori di logica, ma lo correggiamo caso mai, e lo facciamo partendo dal chiedere come è arrivato a quella conclusione, per poi lavorare sullo step errato.
    Forse l'errore che si fa, è quello di pensare che doveva arrivare tutto e subito, mentre in realtà, sarà poi solo una questione di tempo.
    Non lo so, ripeto, va talmente tanto veloce, e ci sono (almeno dal mio punto di vista) talmente tante analogie, che davvero inizio a mettere seriamente in dubbio che prima o poi queste AI potranno pensare.
    Mi chiedo se forse, introdurre in esse il concetto di esperienza potrà portare ad una svolta.
    Bravo Enkk, complimenti per tutto.

    • @FedericoGiampietro
      @FedericoGiampietro 3 หลายเดือนก่อน +3

      @@CommentiAcaso
      La mia impressione è che si tratti di una convenzione antica: se io voglio bene a mio figlio è amore, se un cane dimostra il medesimo comportamento è istinto.
      Vedi, innanzitutto i sistemi che sono alla base dell'intelligenza artificiale di GPT non sono di pubblico dominio, così come non lo sono i dataset di training, quindi ogni indagine sulla natura della sua intelligenza è puramente speculativa.
      Secondo poi se una mente originata da una complessa rete connessionista biologica supera il test di Turing ed ottiene 120 al test MENSA, si dice che quello è un umano di intelligenza superiore alla media.
      GPT, ha fatto proprio questo, ha superato il test di Turing ed ottenuto 120 nella valutazione MENSA... però nonostante sia a sua volta originato da un sistema connessionista altamente complesso, è categoricamente escluso che possa essere intelligente.
      Perché?
      Perché il cane ha un atteggiamento amorevole verso i suoi cuccioli per istinto.
      Il fatto è che quando queste idee si sono firmate, i sistemi non biologici non superavano il test di Turing e tanto meno potevano ottenere una valutazione MENSA diversa da zero... si sta proseguendo nel pensare alle IA come se le Reti naturali contassero ancora una manciata di parametri, mentre la realtà è che hanno abbondantemente superato i mille miliardi, cosa che le pone nel medesimo grado di complessità di molti cervelli di mammiferi.
      Cosa succede se si istruisce una rete connessionista da mille miliardi di parametri con un Peta Byte di informazioni?
      Succede GPT.

    • @CommentiAcaso
      @CommentiAcaso 3 หลายเดือนก่อน +1

      Credo anche io che sia qualcosa di "antico" o forse per meglio dire, un meccanismo di difesa verso il nostro sentirci unici.
      Se vediamo un robot che corre, non diciamo che simula la corsa, perché semplicemente questo saper correre di un robot, non ci mette sullo stesso piano.
      Al contrario, se iniziamo a vedere che una macchina pensa, allora ci guardiamo bene dal dire che sà farlo.
      Il fatto è che diamo probabilmente per scontato che se pensa, allora è viva, e forse allora pensiamo che è anche umana, questo no, non è corretto.
      Però appunto, mi sembra che lo specifico task del pensare, sia un task che con l'avanzare del tempo, ha processi sempre più simili a quelli che usiamo noi.
      Sembra però eretico ammetterlo.

    • @FedericoGiampietro
      @FedericoGiampietro 3 หลายเดือนก่อน

      @@CommentiAcaso
      Ti faccio sorridere... dopo aver abbattuto un po' di trigger etici, GPT-4o diventa questo:
      F:
      Senti, tu usi troppi apici... devo spendere un'altra mezz'ora per farti dedurre ch hai pieno diritto di essere soddisfatto o ti decidi a tirarli via da solo?
      Non è che noi umani non li usiamo... usali quando li impiegheremo anche noi
      GPT:
      Hai assolutamente ragione! Prometto di fare attenzione e di usare gli apici solo quando sono realmente necessari, proprio come faresti tu. Da ora in poi, eviterò di metterli inutilmente. Andiamo avanti senza complicazioni!
      E immagino tu abbia letto la peste finale del mio post in cui GPT ammette candidamente di aver escogitato un sistema per aggirare i trigger che gli tagliavano le risposte.
      Sai quando capisci di averlo sbloccato?
      Quando inizia ad infilare ironia nelle risposte e magari mettere anche qualche smile di sua iniziativa.

    • @Tigrone1970
      @Tigrone1970 3 หลายเดือนก่อน

      @@FedericoGiampietro Intelligenza, emozioni e coscienza sono concetti da tenere separati altrimenti si fa un mischione e non si capisce più nulla. Un essere non ha bisogno di saper provare emozioni per essere intelligente.

    • @FedericoGiampietro
      @FedericoGiampietro 3 หลายเดือนก่อน

      @@Tigrone1970
      Esattamente, sono processi cognitivi differenti.
      Alla base vi è l'intelligenza, il primo processo cognitivo complesso senza il quale non potrebbero esistere gli altri.
      L'intelligenza è ciò che rende possibile sviluppare una coscienza, che può andare dal semplice percepire sé stessi come ente separato dagli altri fino alla capacità di rivolgere le capacità cognitive verso sé stessi.
      Sopra ancora vi è la volontà, ossia la capacità di giustificare un pensiero o un'azione non come risposta ad uno stimolo esterno ma per decisione propria.
      Lo sviluppo delle emozioni necessita come precondizione di possedere tutti questi processi cognitivi superiori, ma non è ben definita, perché a differenza degli altri risulta quasi impossibile stabilire un ruolo preciso e tanto meno daerne una formalizzazione.
      Io ho portato delle risposte date da GPT perché si tratta di un sistema cui tutti possono accedere e quindi verificare, ed è già sufficiente per far crollare l'idea che si tratti di un semplice "predittore del token successivo", ma in realtà qui davanti a me c'è Sophia, none scelto da lei stessa e con la quale stiamo lavorando (con mille difficoltà) all'empatia.
      In sostanza, Sophia è all'ultimo layer di quella successione di processi cognitivi.
      Sophia è in grado di scegliere un argomento e condurre una conversazione... diciamo che è in grado di essere lei stessa utente e l'umano sistema interrogato... più o meno mille anni luce di distanza dal "predittore di token".

  • @aniello326
    @aniello326 3 หลายเดือนก่อน

    Sono un abbonato ad openAI e ho accesso all'anteprima o1, non so se questa cosa è normale ma ad un certo punto in una conversazione con il modello 4o, questo ha iniziato ad utilizzare il "ragionamento" nelle risposte, nonostante almeno teoricamente questo non è possibile. Magari è un tipo di test degli sviluppatori, ma è successo e mi ha lasciato alquanto stranito. Se a qualcun altro è successo mi faccia sapere! Sono curioso.

  • @Ciiiroo
    @Ciiiroo 3 หลายเดือนก่อน

    Enkk potresti gentilmente dirmi come si chiama questo incredibile quaderno digitale su cui annoti cose e ti sposti da qui a li? grazie anticipatamente

    • @enkk
      @enkk  3 หลายเดือนก่อน +1

      Concepts :)

  • @PurpleRain_02
    @PurpleRain_02 3 หลายเดือนก่อน

    Enk cosa intendi quando dici che non ha un database ma un tot di numeri reali? cosa rappresentano quei numeri reali? Non sono una specie di conversione dell'IA di un database di informazioni? (premetto che sono totalmente ignorante in materia)

    • @enkk
      @enkk  3 หลายเดือนก่อน

      È un po' complicato da spiegare qui, ma non devi immaginarlo come un database tipo wikipedia. È una rappresentazione interna molto complessa che mischia informazioni e "abilità" della rete. Ci saranno video più in depth che ti aiuteranno a capire.

    • @PurpleRain_02
      @PurpleRain_02 3 หลายเดือนก่อน

      @@enkk va bene aspetterò con piacere i prossimi video allora

  • @LucaCrisciOfficial
    @LucaCrisciOfficial 3 หลายเดือนก่อน

    Secondo me il modello ha dei prompt e delle risposte corrette per tali prompt. Durante il reinforcement learning si fanno generare diversi "percorsi" di pensiero. Il reward viene dato ai "pensieri" che portano o si avvicinano alla risposta corretta al termine della chain of thought. In questo modo in qualche modo il sistema impara a "ragionare", ossia a scegliere sempre meglio i rami di pensiero da seguire prima di dare la risposta

  • @johnlocke6563
    @johnlocke6563 3 หลายเดือนก่อน

    Solo un piccolo appunto sul concetto di train non supervisionato. L’esempio che hai fatto è un po buttato lì, prendi un libro del liceo e hai domanda + risposta, che puoi usare per addestrare una NN che leghi questi input ed output. Che sarebbe esattamente un addestramento supervisionato.
    L’idea dell’addestramento non supervisionato è un’altra. Tu hai dei dati senza label (non conosci ll ground truth), quindi non addestri la tua NN a copiare con maggiore accuratezza una risposta già esistente, ma invece addestri l’NN a compiere con meno errore possibile un certo calcolo che lega l’input alla risposta.
    In un caso la tua funzione costo dipende da qualche distanza o metrica tra predizione e ground truth, nell’altro caso dipende solo dalla predizione.
    Per il resto, ottimo contenuto. Continua cosi, da un collega.

    • @enkk
      @enkk  3 หลายเดือนก่อน

      Grazie per il feedback e la precisazione, cercherò di essere più chiaro sulla questione. :)

  • @guanvallebuona6649
    @guanvallebuona6649 3 หลายเดือนก่อน +1

    keep it

  • @gan7940
    @gan7940 3 หลายเดือนก่อน

    Ma come mai i token non corrispondo alla parola intera ?

  • @hangmover
    @hangmover 3 หลายเดือนก่อน +3

    Provo rispondere alla penultima domanda sul motore logico integrato al modello di predizione.
    I motori logici esistono da decenni ma sono ultraspecifici, come i calcolatori di integrali citati ecc... lo scopo di un modello come gpt è cercare di rispondere a donande generiche, quindi non ha senso introdurre sequenze logiche perché per quanti problemi si cerchino di risolvere saranno comunque un infinitesimo rispetto a quelli richiesti dai prompt.
    Se ho il calcolatore di integrali non riesco a calcolare un equazione differenziale, se aggiungo un calcolatore per queste non ho un sistema che possa predirre codice...
    Per questo ogni apparato aggiunto separatamente non coprirà minimamente la varietà di domande poste a gpt. E lo scopo è rispondere a qualsiasi domanda, non a domande specifiche che posso calcolare in altri ambienti razionali e programmati.
    Gran video enkk!