La miglior live da anni. Da docente universitario in UK vedo che quest’anno AI è esplosa e non siamo pronti. La preoccupazione grande è che delegando tutto (o quasi) alla macchina gli studenti possano di fatto scegliere di evitare il learning process, quindi quel learning process deve per forza diventare più intricato e complicato per non essere replicato dalla macchina. Questo vuol dire riformulare gran parte dei metodi di apprendimento e di valutazione degli studenti, per essere sicuri che si sottopongano a un vero learning process, ossia che possano fare errori e imparare da questi. Quindi se gli sforzi e gli errori che si facevano coi vecchi metodi ora possono essere delegati alla macchina, si dovrà spostare l’asticella più in alto sia nel fare apprendere che nel valutare gli studenti. Solo che col tempo, come diceva Michele, solo i più intelligenti avranno successo e redditi alti (cosa che è sempre stata tale), mentre gli altri non daranno alcun valore aggiunto che la macchina non dia già. Io ci vedo un grande innalzamento dell’asticella.
Dalla mia esperienza di studente (sono al 2o anno di master in ing. Informatica) il modo migliore per fare andare gli studenti oltre alla risposta di ChatGPT è quello di farli competere. Mi spiego con un esempio. Se si assegna un progetto il cui scopo è risolvere un task massimizzando una metrica ( per esempio l'accuracy di un modello ) e la valutazione viene scaglionata in base al collocamento in una classifica (es. 25% perc = A, 50% perc B, 75% perc = C) non basta più accontentarsi della prima risposta di ChatGPT. Sicuramente tutti utilizzeranno ChatGPT per spunti, ricerca di informazioni e debugging (e sarebbe anacronistico il sperare nel contrario) però la risposta verrebbe sempre vista con lo sguardo critico di chi vuole capire se si può fare meglio. Poi una valutazione basata 100% su progetti di questo tipo è un po' troppo "darwinista" forse. Ma anche un 10% del voto assegnato in questo modo fa partire questo meccanismo in chi ha voglia di fare.
Secondo me l' insoddisfazione delle masse si inserisce in questo senso , istintivamente secondo me i giovani e non solo si rendono sempre più conto che il livello di complessità e difficoltà continua a crescere e si ribellano riversandosi in un antioccidentalismo allargato. Parlando con un mio amico che odia l idea di progresso mi è apparso abb chiaro anche se non ne era consapevole razionalmente
Quindi la domanda da farsi é quindi la domanda da farsi é:Se sei piú intelligente di altri,praticamente un QI di 130 a cui corrisponde un 2% della popolazione,e vai avanti con ottimi risultati e guadagni piú di altri e il fatto che tu sia piú intelligente del restante 98% della popolazione, significa che sei stato baciato solo dalla fortuna? E la risposta che mi do é solo un si purtroppo. Insomma é solo un fattore genetico principalmente su cui non hai potere e te lo ritrovi cosí a caso.
@@LorenzoDRossiche il libero arbitrio sia un concetto fumoso e più o meno non esista per come lo intendiamo intuitivamente si sa da un po' di tempo. Per quanto riguarda il determinismo genetico no, è un modello buffo e inutile per quanto riguarda il comportamento.
Da studente in matematica applicata che sta prendendo corsi di machine learning dico: bellissimo. Ancora Enkk e Boldrin, di nuovo Enkk e Boldrin, di più Enkk e Boldrin.
Nel 2001 è uscito un videogioco chiamato ‘Metal Gear Solid 2: Sons of Liberty’ nel quale uno dei temi trattati è proprio la potenza delle IA nel filtraggio delle informazioni, l’incapacità del cittadino di discernere la veridicità delle fonti digitali e la necessità di un organo di controllo (l’IA appunto) che esegua questo lavoro per lui. Mi fa riflettere come oggi più che ieri si stia osservando tutto questo e come per molti Chapgpt sia una verità assoluta e inoppugnabile
La live è stata davvero interessante e credo siano stati toccati tutti gli aspetti principali. Volevo contribuire sottolineando la differenza tra il simbolico e lo statistico. Giustamente dice Michele che un LLM non è chomskiano, perché lavora sui pattern della "secrezione" della facoltà di linguaggio, e non modella la facoltà stessa. Tuttavia il linguaggio non è solo quello simbolico dell'UG nelle sue ultime versioni e c'è evidenza scientifica per affermare che anche dietro le quinte è in atto una componente statistica importante. Un esempio, i bambini fino a una certa età usano le parole dei colori correttamente (la banana è gialla) senza però conoscere il concetto dietro a ogni colore (giallo è tale frequenza che i miei occhi vedono), per mera associazione statistica, in modo paragonabile a un LLM odierno (Young Children's Concept of Color and Its Relation to the Acquisition of Color Words). Per ragionare sulla domanda, io credo che la "bullshit" sorga da quella mancanza di pensiero simbolico e di un altro elemento umano: l'intenzionalità. Capita a molti umani di leggere e ripetere passivamente informazioni senza scrutinio, quelli che però intenzionalmente si impongono di valutarle e hanno un buon metodo riescono a verificarle. Una parvenza di intenzionalità viene data al modello tramite il fine-tuning e reinforcement learning, ma è solo una parvenza. Vorrei anche osservare che molte cose che diamo per "vere" sono in realtà convinzioni basate su quanto ci sembrano vere, quindi non molto distante da un LLM che dice che l'America fu scoperta nel 1492. Una verità definitiva è difficile da provare, come ci insegna il famoso cogito. Tra quel poco di cui possiamo valutare la veridicità c'è il pensiero simbolico-matematico, che non è ben chiaro se condivide aspetti cognitivi col linguaggio o meno, ma sicuramente non è proprio di un LLM, che infatti non riesce a fare i conti. Se vi pare che abbia detto castronerie, siate comunque cortesi :)
Questi sono strumenti, trattiamoli come tali, ovvero hanno limiti, vantaggi e svantaggi. Molto del lavoro che per esempio sta facendo il mio team è litteracy focalizzandosi sui limiti ed i contesti lavorativi ed educativi, oltre a quelli sperimentali in ambito experience e psicologico. Attualmente da quello che vediamo empiricamente (anche in ambito medico) tanto più esperta è la persona che utilizza tanto meglio vengono utilizzate le informazioni dei sistemi AI
Agente Artificiale è un termine abbastaza chiaro nella HCI / HAI. Questi sistemi non solo reagiscono, ma co-agiscono ed in certi casi agiscono in maniera autonoma in base a dati ambientali che possono essere non noti agli agenti umani. Per cui sono agenti non umani che coesistono/assistono. Quello di cui parlate voi è probabilmente differente.
Alla domanda di Michele ad 1:32 su quale vestito ti compreresti, senza ancora sentire le risposte delle persone, c'è solo una risposta secondo me, cioè la capacità di provare empatia. Che poi è lo stesso motivo per cui una persona fa beneficenza, o dona il sangue, ecc ecc.
Secondo Nietzsche lo si fa comunque per puro egoismo - e discuteva sugli asceti e i martiri. Ci sono anche belle tesi contro l'empatia. Del resto immedesimarsi nell'altro è anche un buon modo per potersi difendere. Quale sarà la sua prossima mossa?
Live molto concreta e fondamentale sulle precauzioni d'uso degli LLM. Scherzando sul finale: Umberto dovresti organizzare una live tra Michele e Immanuel Casto. Argomento La Sessualità e L'Amore
3 cose dovrebbero essere spiegate al grande pubblico: L'intelligenza artificiale prende un qualsiasi input (video, foto, testo,...) lo elabora attraverso una serie di addizioni e moltiplicazioni (milioni, miliardi, migliaia di miliardi) e restituisce un qualsiasi output (video, immagine, testo, prossima mossa a scacchi, a che velocità andare,...) La serie di addizioni e moltiplicazioni [permette all'intelligenza artificiale di interpretare l'input e restituire un output appropriato (con una certa probabilità). Come dice Boldrin è semplicemente pattern recognition. Per capire come fare queste addizioni e moltiplicazioni, il modello deve essere allenato con milioni, miliardi, migliaia di miliardi di esempi. In generale più viene allenato meglio è. Per ultimo, l'intelligenza artificiale può sostituire il lavoro mentale degli uomini, come, negli ultimi due secoli, le macchine hanno sostituito il lavoro fisico. Per il 99% della popolazione credo basti capire queste tre cose.
Io taglio le cose con una mazza da baseball: una volta che esprimi i testi come sequenze di numeri, i LLM ci estraggono pattern. Siccome i pattern vengono fuori da correlazioni lineari in genere (visti i sample size), e le correlazioni lineari sono medie valutate come più o meno accurate, alla fine LLM sono trilioni di trilioni di medie abilmente incastrate tra loro.
Un aspetto della "AI" che mi lascia sempre un po' basito è quanto ci siamo abituati al fatto che questi sistemi (non solo LLM ma reti neurali in generale) siano incomprensibili ed inspiegabili da noi umani (da cui il termine black-box). Secondo me, invece, questo è un grave limite. Se vogliamo veramente usare questi algoritmi in modo utile è NECESSARIO sapere come e perché funzionano. Ho fatto il dottorato lavorando in un progetto di chirurgia robotica autonoma. In un campo come questo (ma anche guida autonoma) è obbligatorio sapere perché un algoritmo prende una scelta, anche solo per avere una minima speranza che venga approvato dagli organi competenti per l'uso comune (e.g. FDA o EMA per i sistemi di chirurgia)
Dipende molto dal contesto applicativo. Per fare un esempio, molti task di visione artificiale (per esempio riconoscimento della grafia, denoising di immagini, ecc.) sono sufficientemente innocui che in realtà non è importante dare un'interpretazione ai pesi su cui la rete neurale si è stabilizzata dopo la fase di addestramento. D'altro canto, Nel caso di sistemi predittivi che influenzano significativamente la vita delle persone (per esempio, credit risk assessment, diagnostica medica), allora sì che diventa molto importante riuscire a spiegare le decisioni prese da una rete neurale (oltre a far valutare queste decisioni a un operatore umano, chiaramente). Alla fine, tutto si riduce ad un'analisi appropriata dei rischi a cui abbiamo accennato verso la fine dell'episodio.
@@lucamariot5689 Sono d'accordo.Credo infatti che in certi ambiti, come appunto la medicina o la chirurgia, sarà molto più probabile arrivare a sistemi semi-autonomi (e.g. un sistema di identificazione potrebbe suggerire parti di una lastra o di una risonanza che poi il medico dovrebbe andare a analizzare personalmente). Però continua a turbarmi un po' quanto ci si appassioni a sistemi incomprensibili e li si accettino "just because they work". Ad esempio per il denoising o anche la segmentazioni di immagini o di serie temporali ci sono algoritmi top-down per cui si può capire perché funzionano. Personalmente trovo questi sistemi più interessanti di una rete da milioni di parametri addestrata con terabyte di dati. EDIT. So che c'è molta ricerca anche nel miglioramento "teorico" dei sistemi ML in generale, ma ho letto centinaia di paper in cui l'unico contributo rispetto allo stato dell'arte è quello di generare una DNN più grossa. Temo di esser rimasto particolarmente scottato dalla cosa
Ho ascoltato con piacere questo argomento sulla IA. Poi vorrei sapere una cosa che mi incuriosisce molto del prof. Boldrin perche vedo che alle sue spalle vi sono a volte delle opere di calligrafia cinese antica, cosa che a me piace molto e vorrei sapere se magari a lui piace anche organizzare live dove si parla di cultura e storia della Cina. Grazie per aver condiviso questa chat sulla AI. Saluti🙏
L’ex presidente del Mensa, Manuel Cuni (Immanuel Casto) ha sempre detto che non esiste una definizione univoca di intelligenza e che la sua è strettamente personale.
Sull'imaging medico l'AI si applica meglio su scremare i molto probabili fisiologici che sono la maggior parte e lasciare la valutazione dei patologici al medico per responsabilità. Classifica 100 tac per classi di rischio
bella discussione, comunque sentendola si capisce come studiare sia importante per l'essere umano. Chiaro che poi la dotazione cognitiva ha un peso, ma è strettamente connessa alla capacità di immagazzinare e manipolare le conoscenze. Le "elite cuturali" esistono e sono quelle che poi migliorano il mondo, l'inconsistenza culturale del resto della massa, tolte le vie di mezzo, sono quelle che rallentano lo sviluppo, perchè attraverso il voto alimentano una certa feccia di politici populisti.
Faccio il PhD in AI in germania e volevo aggiungere un punto interessante sul perche' gli LLM mentono. I modelli GPT sono addestrati a predire la parola mancante e frasi successive ma la transizione da GPT a ChatGPT e' data dal RLHF (Reinforcement Learning Human Feedback) dove si fa fine-tuning (i.e. continuare l'addestramento) di GPT facendogli preferire risposte che gli esseri umani preferiscono. Secondo me in questa fase il modello impara in particolar modo a mentire, perche' viene costretto a preferire risposte che soddisfino a tutti i costi l'essere umano. Secondo me questo fenomeno dovrebbe far rifletterci: vogliamo AI veritiere o AI che ci diano sempre ragione?
In realtà penso che nella fase di rlhf si cerchino di premiare anche risposte in cui il modello dice "non so" o "non capisco" o whatever... quindi non penso impatti sulla menzogna. Rimane vero però che i modelli sono fortemente condizionati dai loro produttori.
@@enkk non sono ricercatore in llm, ma i dati di training che le compagnie usano sono pubblici? Mi son focusasto sul rlhf perche' credo che il pretraining e' abbastanza neutro (tipo una specie di vocabulary building ma per le frasi) mentre le differenze da modello a modello si vedino su come viene finetunato. Per esempio nella mia esperienza chatgpt mente un botto mentre claude e' un po' piu' veritiero
@micheledevita5945 non è che ci sono infinita verità. Quella unica verità(il vero è l'intero come dice Hegel) si può dire in molti modi(pollachos leghetai to on come dice Aristotele), altrimenti la scienza non avrebbe senso di esistere.
La perfezione ce lhai se per generare la sequenza ..quindi la risposta ,hai costantemnete una sequenza logica consolidata : 1+1 = ?. Quindi quando decodifica una codice conosciuto a priori perche allenato .
Grazie molte ad Umberto che capisco ha messo in piedi l’incontro. “Tiratina d’orecchie” a Luca, che ha colpevolmente abbandonato la serie su AI su LO Stem, sul più bello. Peccato, ma perché?
@ comunque se foste alla ricerca del giusto compromesso tra verticalità tecnica e accessibilità, segnalo il filone del “consumo responsabile” (intendendo non i pericoli della fine del mondo, ma consapevolezza/soluzioni su cose pratiche anche delle soluzioni commerciali a disposizione). Grazie e aspetto un bel corso LOI Stem sull’argomento.
1:33:00 perché ci piace la scarsità delle cose in quanto scarse. Perché la cose mediocri, medie e riproducibili ci fanno discretamente schifo, vogliamo l'unicum, il caso particolare, e lo vogliamo per noi. Forse perché lo vediamo, a prescindere, come qualcosa di più fine e cristallizzato in mezzo a tante cose ripetibili. Che voto prendo? 1:44:00 "la grande livella sarà l'IQ": io chiesi in un altro commento di provare ad indovinare quale sarà la soglia di questa livella. 120 IQ? 130? (ca. 2%ile)? Higher? Che tipo di conseguenze sociali avremo? Si può essere cautamente pessimisti su questo punto, a rigor di logica? Oggi si parla di "disuguaglianze inconcepibili e laceranti", un domani fucileranno chiunque sia sopra i 140 di IQ, alla nascita? ..si scherza :) forse
Anche la semplice risoluzione dei pronomi: come fai a farla senza ragionare? Prendiamo la frase: "Se il bambino non vuole bere il latte, fallo bollire". Come sai che il pronome "lo" si riferisce al latte, e non al bambino? Per capirlo, devi per forza aver ragionato, utilizzando la tua conoscenza del mondo. Hai dovuto usare la semantica delle parole "latte", "bambino", "bollire". Obiezione: come fai a sapere che ChatGpt non ha usato solo nozioni sintattiche? Non è possibile: prendiamo infatti quest'altra frase: "Se il bambino non vuole bere il latte, fallo camminare". Questa ha la stessa struttura sintattica, ma stavolta il pronome "lo" è riferito al bambino, non al latte. Ma per capirlo devi per forza aver ragionato. Alcuni moduli "inferenziali" nel tuo cervello sono riusciti a connettere il concetto di camminare col concetto di bambino, mentre non sono riusciti a connettere il concetto di camminare col concetto di latte. Per la prima frase, invece, sono riusciti a connettere "bollire" con "latte" ma non con "bambino". Se questo non è ragionare, cos'è? Un altro task interessante sono le barzellette. Alcune barzellette o freddure sono tali che, se riesci a spiegarle, devi per forza aver ragionato. Devi per forza aver fatto delle inferenze in modo da connettere varie parti del discorso che altrimenti resterebbero apparentemente prive di connessione e quindi insensate. ("Gianni era così grasso che l'ambulanza, per portarlo all'ospedale, dovette fare due viaggi"; "Gianni era così grasso che il suo compleanno cadeva il 12, 13 e 14 del mese"; ) Tornando ai pronomi: come verifica, ho chiesto a ChatGpt di risolvere i pronomi in queste due frasi, e mi pare ci sia riuscito perfettamente: (aggiungo immagine in un commento successivo) Prompt mio: Prendi queste due frasi: "Se il bambino non vuole bere il latte, fallo camminare." "Se il bambino non vuole bere il latte, fallo bollire". Per ciascuna frase, dimmi a chi si riferisce il pronome "lo", e perché. ChatGPT ha detto: Le due frasi utilizzano il pronome "lo", ma il suo riferimento cambia a seconda del contesto. Vediamo ciascuna frase: Frase 1: "Se il bambino non vuole bere il latte, fallo camminare." A chi si riferisce "lo"? Si riferisce al bambino. Perché? La parola "camminare" è un'azione che può essere associata solo a una persona o a un essere animato. Nel contesto della frase, l'unico soggetto animato è il bambino, quindi "fallo camminare" significa "fa' camminare il bambino". Frase 2: "Se il bambino non vuole bere il latte, fallo bollire." A chi si riferisce "lo"? Si riferisce al latte. Perché? La parola "bollire" è un'azione che si associa a un liquido o a una sostanza fisica, non a una persona. Poiché nel contesto della frase si parla di latte, è implicito che "fallo bollire" significhi "fa' bollire il latte". Conclusione Il riferimento del pronome "lo" dipende dal verbo e dal contesto. Nella prima frase, il verbo "camminare" determina che "lo" si riferisca al bambino, mentre nella seconda frase, il verbo "bollire" indica che "lo" si riferisca al latte.
@@segusoNo, purtroppo mi duole dirti che azzecca il pronome semplicemente perché nello spazio vettoriale delle parole, il vettore bollire è più vicino al vettore latte, camminare al vettore bambino. O semplicemente: queste coppie di parole co-occorrono spesso nei dati di addestramento, quindi sono statisticamente più rappresentate. Perciò il modello non deve affatto ragionare per associare il pronome di riferimento
@@α3026-μ1λ Mi sembra che tu stia ripetendo quello che ho detto io. "il vettore bollire è più vicino al vettore latte che al vettore bambino" è come dire "ha trovato una connessione tra bollire e latte prima di quanto l'ha trovata tra bollire e bambino". Sono due modi per dire la stessa cosa. Il punto è che ha risolto correttamente il pronome, e col ragionamento giusto. Gli ho chiesto addirittura di spiegare il ragionamento che ha fatto, e lo ha spiegato correttamente. Ora, se ho capito bene, tu dici: "ma sotto, il vero ragionamento che ha fatto non era quello. C'era solo statistica e vicinanza tra vettori". Ok, ma con questa logica potremmo concludere anche che il cervello umano non ragiona davvero. Cioè: io umano ti do una spiegazione del ragionamento che ho fatto, e tu mi rispondi: ma nella tua testa alla fine ci sono solo neuroni che si accendono quando la somma degli input supera una certa soglia. Allora non hai davvero ragionato, è tutta una finzione. Ovviamente non è così: il ragionamente è avvenuto a un livello più alto, non quello dei neuroni. Il punto è che se io ti ho spiegato il ragionamento che ho fatto, a qualche livello questo ragionamento è stato realizzato nel mio cervello. Non necessariamente al livello più basso. Neppure i neuroni, presi singolarmente, ragionano.
@@MicheleBoldrin bisogna prima capire bene cosa significa ragionare, se si intende il ragionamento come fare una analisi della situazione, valutare le risposte e trarre conclusioni direi che si ferma al primo punto in parte, se si intende che fa una parte del processo di ragionamento anche la calcolatrice ragiona, in parte. Di sicuro evolvendola e usandola col la parte di ragionamento umano, soprattutto per l'analisi di dati lo potenzia e velocizza di molto
Ma scusate, chi ci dice che il nostro cervello non funzioni esattamente cosi (ossia come gli LLM) ? Cioè per concatenazione probabilistica di concetti dati dall'esperienza e dall'allenamento...
Non penso che nessuno metta in dubbio che il nostro cervello faccia anche questo, ma di sicuro sembrerebbe essere in grado di fare anche altro. Altrimenti come si spiega il fatto che sappiamo riesaminare i nostri pensieri in maniera critica in cerca di fallace logiche.
Qualche giorno fa ho chiesto a Gemini: "Mi fai il riassunto de "Gli sdraiati" di Michele Serra come se lo avesse scritto uno studente di prima liceo scientifico?" e la risposta è stata "Certo, ecco un riassunto de "Gli sdraiati" di Michele Serra, pensato per essere comprensibile a uno studente di prima liceo scientifico: ...". Mi sbaglio ho ha capito il contrario della mia richiesta?
splendida puntata, ascoltandovi pensavo se ad oggi, data la dimensione delle reti eseguibili, ha senso avere un unico modello che sappia fare molto bene, tante cose diverse. Mi chiedo se, nel caso umano, le reti neurali del grande esperto di geometria differenziale possano anche coesistete con il grande interprete di musica barocca. Visto che ad oggi nessuno puo' eccellere in piu campi, credo il cervello umano del esperto, sia un cervello estremamente specializzato. Forse avremo le intelligenze artificiali e non la intelligenza artificiale. Piu' che un HAL 9000, forse avremo un nuovo Cartan e un nuovo Bach, quelli si artificiali.
La miglior live da anni. Da docente universitario in UK vedo che quest’anno AI è esplosa e non siamo pronti. La preoccupazione grande è che delegando tutto (o quasi) alla macchina gli studenti possano di fatto scegliere di evitare il learning process, quindi quel learning process deve per forza diventare più intricato e complicato per non essere replicato dalla macchina. Questo vuol dire riformulare gran parte dei metodi di apprendimento e di valutazione degli studenti, per essere sicuri che si sottopongano a un vero learning process, ossia che possano fare errori e imparare da questi. Quindi se gli sforzi e gli errori che si facevano coi vecchi metodi ora possono essere delegati alla macchina, si dovrà spostare l’asticella più in alto sia nel fare apprendere che nel valutare gli studenti. Solo che col tempo, come diceva Michele, solo i più intelligenti avranno successo e redditi alti (cosa che è sempre stata tale), mentre gli altri non daranno alcun valore aggiunto che la macchina non dia già. Io ci vedo un grande innalzamento dell’asticella.
Chi sei? Scrivimi!
Dalla mia esperienza di studente (sono al 2o anno di master in ing. Informatica) il modo migliore per fare andare gli studenti oltre alla risposta di ChatGPT è quello di farli competere.
Mi spiego con un esempio. Se si assegna un progetto il cui scopo è risolvere un task massimizzando una metrica ( per esempio l'accuracy di un modello ) e la valutazione viene scaglionata in base al collocamento in una classifica (es. 25% perc = A, 50% perc B, 75% perc = C) non basta più accontentarsi della prima risposta di ChatGPT. Sicuramente tutti utilizzeranno ChatGPT per spunti, ricerca di informazioni e debugging (e sarebbe anacronistico il sperare nel contrario) però la risposta verrebbe sempre vista con lo sguardo critico di chi vuole capire se si può fare meglio.
Poi una valutazione basata 100% su progetti di questo tipo è un po' troppo "darwinista" forse. Ma anche un 10% del voto assegnato in questo modo fa partire questo meccanismo in chi ha voglia di fare.
Secondo me l' insoddisfazione delle masse si inserisce in questo senso , istintivamente secondo me i giovani e non solo si rendono sempre più conto che il livello di complessità e difficoltà continua a crescere e si ribellano riversandosi in un antioccidentalismo allargato. Parlando con un mio amico che odia l idea di progresso mi è apparso abb chiaro anche se non ne era consapevole razionalmente
Quindi la domanda da farsi é quindi la domanda da farsi é:Se sei piú intelligente di altri,praticamente un QI di 130 a cui corrisponde un 2% della popolazione,e vai avanti con ottimi risultati e guadagni piú di altri e il fatto che tu sia piú intelligente del restante 98% della popolazione, significa che sei stato baciato solo dalla fortuna? E la risposta che mi do é solo un si purtroppo. Insomma é solo un fattore genetico principalmente su cui non hai potere e te lo ritrovi cosí a caso.
@@LorenzoDRossiche il libero arbitrio sia un concetto fumoso e più o meno non esista per come lo intendiamo intuitivamente si sa da un po' di tempo. Per quanto riguarda il determinismo genetico no, è un modello buffo e inutile per quanto riguarda il comportamento.
Questo DEVE diventare un nuovo format! Una live meravigliosa!
Da studente in matematica applicata che sta prendendo corsi di machine learning dico: bellissimo.
Ancora Enkk e Boldrin, di nuovo Enkk e Boldrin, di più Enkk e Boldrin.
Wow, quante cose non sapevo di qualcosa che utilizzo spesso, grazie d'aver organizzato questa live prof
Tantissima roba questa sera
Visto in parte in diretta in parte in differita
Grazie per i contenuti e le riflessioni
Imparato tanto
Quando persone competenti sanno anche fare divulgazione vengono fuori live come questa. Bravi (ed intelligenti 💡) tutti!
Prima volta che ascoltando una live, mi sento un privilegiato, anche solo a farne parte come ascoltatore
Grande Enkkone
Nel 2001 è uscito un videogioco chiamato ‘Metal Gear Solid 2: Sons of Liberty’ nel quale uno dei temi trattati è proprio la potenza delle IA nel filtraggio delle informazioni, l’incapacità del cittadino di discernere la veridicità delle fonti digitali e la necessità di un organo di controllo (l’IA appunto) che esegua questo lavoro per lui.
Mi fa riflettere come oggi più che ieri si stia osservando tutto questo e come per molti Chapgpt sia una verità assoluta e inoppugnabile
Davvero live stupenda, da ripetere assolutamente!
La live è stata davvero interessante e credo siano stati toccati tutti gli aspetti principali. Volevo contribuire sottolineando la differenza tra il simbolico e lo statistico. Giustamente dice Michele che un LLM non è chomskiano, perché lavora sui pattern della "secrezione" della facoltà di linguaggio, e non modella la facoltà stessa. Tuttavia il linguaggio non è solo quello simbolico dell'UG nelle sue ultime versioni e c'è evidenza scientifica per affermare che anche dietro le quinte è in atto una componente statistica importante. Un esempio, i bambini fino a una certa età usano le parole dei colori correttamente (la banana è gialla) senza però conoscere il concetto dietro a ogni colore (giallo è tale frequenza che i miei occhi vedono), per mera associazione statistica, in modo paragonabile a un LLM odierno (Young Children's Concept of Color and Its Relation to the Acquisition of Color Words). Per ragionare sulla domanda, io credo che la "bullshit" sorga da quella mancanza di pensiero simbolico e di un altro elemento umano: l'intenzionalità. Capita a molti umani di leggere e ripetere passivamente informazioni senza scrutinio, quelli che però intenzionalmente si impongono di valutarle e hanno un buon metodo riescono a verificarle. Una parvenza di intenzionalità viene data al modello tramite il fine-tuning e reinforcement learning, ma è solo una parvenza. Vorrei anche osservare che molte cose che diamo per "vere" sono in realtà convinzioni basate su quanto ci sembrano vere, quindi non molto distante da un LLM che dice che l'America fu scoperta nel 1492. Una verità definitiva è difficile da provare, come ci insegna il famoso cogito. Tra quel poco di cui possiamo valutare la veridicità c'è il pensiero simbolico-matematico, che non è ben chiaro se condivide aspetti cognitivi col linguaggio o meno, ma sicuramente non è proprio di un LLM, che infatti non riesce a fare i conti.
Se vi pare che abbia detto castronerie, siate comunque cortesi :)
Live di altissima qualità. Da ripetere assolutamente
2 ore interessantissime e divertenti anche 😂
Live davvero molto interessante, grazie. Si attende BS E2......
Grazie mille per la Live. Molto molto interessante
Questi sono strumenti, trattiamoli come tali, ovvero hanno limiti, vantaggi e svantaggi. Molto del lavoro che per esempio sta facendo il mio team è litteracy focalizzandosi sui limiti ed i contesti lavorativi ed educativi, oltre a quelli sperimentali in ambito experience e psicologico. Attualmente da quello che vediamo empiricamente (anche in ambito medico) tanto più esperta è la persona che utilizza tanto meglio vengono utilizzate le informazioni dei sistemi AI
Agente Artificiale è un termine abbastaza chiaro nella HCI / HAI. Questi sistemi non solo reagiscono, ma co-agiscono ed in certi casi agiscono in maniera autonoma in base a dati ambientali che possono essere non noti agli agenti umani. Per cui sono agenti non umani che coesistono/assistono. Quello di cui parlate voi è probabilmente differente.
Video interessantissimo e ottimamente bilanciato tra approfondimento e divulgazione: ne avrei guardato dieci ore!
Bellissima live, molto informativa e stimolante
Che spettacolo. Da ora in poi sono abbonato, grazie Michele
Alla domanda di Michele ad 1:32 su quale vestito ti compreresti, senza ancora sentire le risposte delle persone, c'è solo una risposta secondo me, cioè la capacità di provare empatia.
Che poi è lo stesso motivo per cui una persona fa beneficenza, o dona il sangue, ecc ecc.
Secondo Nietzsche lo si fa comunque per puro egoismo - e discuteva sugli asceti e i martiri. Ci sono anche belle tesi contro l'empatia. Del resto immedesimarsi nell'altro è anche un buon modo per potersi difendere. Quale sarà la sua prossima mossa?
Live molto concreta e fondamentale sulle precauzioni d'uso degli LLM.
Scherzando sul finale: Umberto dovresti organizzare una live tra Michele e Immanuel Casto. Argomento La Sessualità e L'Amore
3 cose dovrebbero essere spiegate al grande pubblico:
L'intelligenza artificiale prende un qualsiasi input (video, foto, testo,...) lo elabora attraverso una serie di addizioni e moltiplicazioni (milioni, miliardi, migliaia di miliardi) e restituisce un qualsiasi output (video, immagine, testo, prossima mossa a scacchi, a che velocità andare,...)
La serie di addizioni e moltiplicazioni [permette all'intelligenza artificiale di interpretare l'input e restituire un output appropriato (con una certa probabilità). Come dice Boldrin è semplicemente pattern recognition. Per capire come fare queste addizioni e moltiplicazioni, il modello deve essere allenato con milioni, miliardi, migliaia di miliardi di esempi. In generale più viene allenato meglio è.
Per ultimo, l'intelligenza artificiale può sostituire il lavoro mentale degli uomini, come, negli ultimi due secoli, le macchine hanno sostituito il lavoro fisico.
Per il 99% della popolazione credo basti capire queste tre cose.
Quindi stai dicendo che AI è Berlusconi?
Io taglio le cose con una mazza da baseball: una volta che esprimi i testi come sequenze di numeri, i LLM ci estraggono pattern. Siccome i pattern vengono fuori da correlazioni lineari in genere (visti i sample size), e le correlazioni lineari sono medie valutate come più o meno accurate, alla fine LLM sono trilioni di trilioni di medie abilmente incastrate tra loro.
Prof. Boldrin, complimenti, questa live è stata epica!
Veramente interessante. Fatene un corso 🙏🏻
TOP live, altre con loro pls!
Una delle più belle live se non la più bella.
Enrico Mensa sboccatissimo, mi piace!
Un aspetto della "AI" che mi lascia sempre un po' basito è quanto ci siamo abituati al fatto che questi sistemi (non solo LLM ma reti neurali in generale) siano incomprensibili ed inspiegabili da noi umani (da cui il termine black-box).
Secondo me, invece, questo è un grave limite. Se vogliamo veramente usare questi algoritmi in modo utile è NECESSARIO sapere come e perché funzionano.
Ho fatto il dottorato lavorando in un progetto di chirurgia robotica autonoma. In un campo come questo (ma anche guida autonoma) è obbligatorio sapere perché un algoritmo prende una scelta, anche solo per avere una minima speranza che venga approvato dagli organi competenti per l'uso comune (e.g. FDA o EMA per i sistemi di chirurgia)
Dipende molto dal contesto applicativo. Per fare un esempio, molti task di visione artificiale (per esempio riconoscimento della grafia, denoising di immagini, ecc.) sono sufficientemente innocui che in realtà non è importante dare un'interpretazione ai pesi su cui la rete neurale si è stabilizzata dopo la fase di addestramento. D'altro canto, Nel caso di sistemi predittivi che influenzano significativamente la vita delle persone (per esempio, credit risk assessment, diagnostica medica), allora sì che diventa molto importante riuscire a spiegare le decisioni prese da una rete neurale (oltre a far valutare queste decisioni a un operatore umano, chiaramente). Alla fine, tutto si riduce ad un'analisi appropriata dei rischi a cui abbiamo accennato verso la fine dell'episodio.
@@lucamariot5689 Sono d'accordo.Credo infatti che in certi ambiti, come appunto la medicina o la chirurgia, sarà molto più probabile arrivare a sistemi semi-autonomi (e.g. un sistema di identificazione potrebbe suggerire parti di una lastra o di una risonanza che poi il medico dovrebbe andare a analizzare personalmente).
Però continua a turbarmi un po' quanto ci si appassioni a sistemi incomprensibili e li si accettino "just because they work". Ad esempio per il denoising o anche la segmentazioni di immagini o di serie temporali ci sono algoritmi top-down per cui si può capire perché funzionano. Personalmente trovo questi sistemi più interessanti di una rete da milioni di parametri addestrata con terabyte di dati.
EDIT. So che c'è molta ricerca anche nel miglioramento "teorico" dei sistemi ML in generale, ma ho letto centinaia di paper in cui l'unico contributo rispetto allo stato dell'arte è quello di generare una DNN più grossa. Temo di esser rimasto particolarmente scottato dalla cosa
Gli ospiti più interessanti sul tema ai, li avevo già visti varie volte sui loro canali yt, felice di vederli qui riuniti 👏
Grazie.
Bella live, complimenti!
ottima live. Con toni pacati viene fuori un'interessante discussione su un tema che in Italia viene di solito ignorato
Ho ascoltato con piacere questo argomento sulla IA.
Poi vorrei sapere una cosa che mi incuriosisce molto del prof. Boldrin perche vedo che alle sue spalle vi sono a volte delle opere di calligrafia cinese antica, cosa che a me piace molto e vorrei sapere se magari a lui piace anche organizzare live dove si parla di cultura e storia della Cina.
Grazie per aver condiviso questa chat sulla AI.
Saluti🙏
Molto molto interessante.
Ottima live❤
Molto utile. Adesso che so come è fatto smetterò di insultarlo quando non obbedisce ai miei prompt.
Vi prego fate un'altra live 🙏 o un format
L’ex presidente del Mensa, Manuel Cuni (Immanuel Casto) ha sempre detto che non esiste una definizione univoca di intelligenza e che la sua è strettamente personale.
Commento solo per aiutare il Dio Algoritmo, perché merita e mi serve pure per lavoro, quindi doppio grazie.
due ore che scorrono lisce che non te ne accorgi.
non vedo l' ora di assistere alle puntate successive
🙌
1:35:13 piero è un meraviglioso ottimista
Video top ❤
Grazie a tutti i partecipanti... un incontro che ha regalato parecchi spunti di riflessione...
Sull'imaging medico l'AI si applica meglio su scremare i molto probabili fisiologici che sono la maggior parte e lasciare la valutazione dei patologici al medico per responsabilità.
Classifica 100 tac per classi di rischio
bella discussione, comunque sentendola si capisce come studiare sia importante per l'essere umano. Chiaro che poi la dotazione cognitiva ha un peso, ma è strettamente connessa alla capacità di immagazzinare e manipolare le conoscenze. Le "elite cuturali" esistono e sono quelle che poi migliorano il mondo, l'inconsistenza culturale del resto della massa, tolte le vie di mezzo, sono quelle che rallentano lo sviluppo, perchè attraverso il voto alimentano una certa feccia di politici populisti.
Andrea Improta è Berlusconi Silvio? 😀
Faccio il PhD in AI in germania e volevo aggiungere un punto interessante sul perche' gli LLM mentono. I modelli GPT sono addestrati a predire la parola mancante e frasi successive ma la transizione da GPT a ChatGPT e' data dal RLHF (Reinforcement Learning Human Feedback) dove si fa fine-tuning (i.e. continuare l'addestramento) di GPT facendogli preferire risposte che gli esseri umani preferiscono. Secondo me in questa fase il modello impara in particolar modo a mentire, perche' viene costretto a preferire risposte che soddisfino a tutti i costi l'essere umano. Secondo me questo fenomeno dovrebbe far rifletterci: vogliamo AI veritiere o AI che ci diano sempre ragione?
In realtà penso che nella fase di rlhf si cerchino di premiare anche risposte in cui il modello dice "non so" o "non capisco" o whatever... quindi non penso impatti sulla menzogna. Rimane vero però che i modelli sono fortemente condizionati dai loro produttori.
Tí estin alítheia?
@@enkk non sono ricercatore in llm, ma i dati di training che le compagnie usano sono pubblici? Mi son focusasto sul rlhf perche' credo che il pretraining e' abbastanza neutro (tipo una specie di vocabulary building ma per le frasi) mentre le differenze da modello a modello si vedino su come viene finetunato. Per esempio nella mia esperienza chatgpt mente un botto mentre claude e' un po' piu' veritiero
@@Aristocle Ci sono infinite verita', una per ogni persona nel mondo
@micheledevita5945 non è che ci sono infinita verità. Quella unica verità(il vero è l'intero come dice Hegel) si può dire in molti modi(pollachos leghetai to on come dice Aristotele), altrimenti la scienza non avrebbe senso di esistere.
❤
La perfezione ce lhai se per generare la sequenza ..quindi la risposta ,hai costantemnete una sequenza logica consolidata : 1+1 = ?. Quindi quando decodifica una codice conosciuto a priori perche allenato .
👍👍
Live stupenda
anche con il coding a volte fa casini terribili
Grazie molte ad Umberto che capisco ha messo in piedi l’incontro. “Tiratina d’orecchie” a Luca, che ha colpevolmente abbandonato la serie su AI su LO Stem, sul più bello. Peccato, ma perché?
I know. Purtroppo gli ultimi mesi son stati abbastanza terribili come impegni lavorativi. Ma dovremmo ricominciare l'anno prossimo anche con quella ;)
@ comunque se foste alla ricerca del giusto compromesso tra verticalità tecnica e accessibilità, segnalo il filone del “consumo responsabile” (intendendo non i pericoli della fine del mondo, ma consapevolezza/soluzioni su cose pratiche anche delle soluzioni commerciali a disposizione). Grazie e aspetto un bel corso LOI Stem sull’argomento.
1:33:00 perché ci piace la scarsità delle cose in quanto scarse. Perché la cose mediocri, medie e riproducibili ci fanno discretamente schifo, vogliamo l'unicum, il caso particolare, e lo vogliamo per noi. Forse perché lo vediamo, a prescindere, come qualcosa di più fine e cristallizzato in mezzo a tante cose ripetibili. Che voto prendo?
1:44:00 "la grande livella sarà l'IQ": io chiesi in un altro commento di provare ad indovinare quale sarà la soglia di questa livella. 120 IQ? 130? (ca. 2%ile)? Higher? Che tipo di conseguenze sociali avremo? Si può essere cautamente pessimisti su questo punto, a rigor di logica? Oggi si parla di "disuguaglianze inconcepibili e laceranti", un domani fucileranno chiunque sia sopra i 140 di IQ, alla nascita?
..si scherza :) forse
❤Like ❤
Lovely
Fatene un altra con più gente
Ci andrei cauto a dire che ChatGtp non ragiona. Ci sono alcune risposte che ChatGpt dà che senza ragionare sarebbero impossibili.
Dici? Ci puoi fare un esempio? Vieni la prossima volta a spiegarci come si "ragiona" con i LLM? Io consiglio d'andarci cauto con commenti del genere.
Anche la semplice risoluzione dei pronomi: come fai a farla senza ragionare?
Prendiamo la frase: "Se il bambino non vuole bere il latte, fallo bollire".
Come sai che il pronome "lo" si riferisce al latte, e non al bambino?
Per capirlo, devi per forza aver ragionato, utilizzando la tua conoscenza del mondo. Hai dovuto usare la semantica delle parole "latte", "bambino", "bollire".
Obiezione: come fai a sapere che ChatGpt non ha usato solo nozioni sintattiche? Non è possibile: prendiamo infatti quest'altra frase:
"Se il bambino non vuole bere il latte, fallo camminare".
Questa ha la stessa struttura sintattica, ma stavolta il pronome "lo" è riferito al bambino, non al latte.
Ma per capirlo devi per forza aver ragionato. Alcuni moduli "inferenziali" nel tuo cervello sono riusciti a connettere il concetto di camminare col concetto di bambino, mentre non sono riusciti a connettere il concetto di camminare col concetto di latte. Per la prima frase, invece, sono riusciti a connettere "bollire" con "latte" ma non con "bambino". Se questo non è ragionare, cos'è?
Un altro task interessante sono le barzellette. Alcune barzellette o freddure sono tali che, se riesci a spiegarle, devi per forza aver ragionato. Devi per forza aver fatto delle inferenze in modo da connettere varie parti del discorso che altrimenti resterebbero apparentemente prive di connessione e quindi insensate. ("Gianni era così grasso che l'ambulanza, per portarlo all'ospedale, dovette fare due viaggi"; "Gianni era così grasso che il suo compleanno cadeva il 12, 13 e 14 del mese"; )
Tornando ai pronomi: come verifica, ho chiesto a ChatGpt di risolvere i pronomi in queste due frasi, e mi pare ci sia riuscito perfettamente: (aggiungo immagine in un commento successivo)
Prompt mio: Prendi queste due frasi: "Se il bambino non vuole bere il latte, fallo camminare." "Se il bambino non vuole bere il latte, fallo bollire". Per ciascuna frase, dimmi a chi si riferisce il pronome "lo", e perché.
ChatGPT ha detto:
Le due frasi utilizzano il pronome "lo", ma il suo riferimento cambia a seconda del contesto. Vediamo ciascuna frase:
Frase 1: "Se il bambino non vuole bere il latte, fallo camminare."
A chi si riferisce "lo"? Si riferisce al bambino.
Perché? La parola "camminare" è un'azione che può essere associata solo a una persona o a un essere animato. Nel contesto della frase, l'unico soggetto animato è il bambino, quindi "fallo camminare" significa "fa' camminare il bambino".
Frase 2: "Se il bambino non vuole bere il latte, fallo bollire."
A chi si riferisce "lo"? Si riferisce al latte.
Perché? La parola "bollire" è un'azione che si associa a un liquido o a una sostanza fisica, non a una persona. Poiché nel contesto della frase si parla di latte, è implicito che "fallo bollire" significhi "fa' bollire il latte".
Conclusione
Il riferimento del pronome "lo" dipende dal verbo e dal contesto. Nella prima frase, il verbo "camminare" determina che "lo" si riferisca al bambino, mentre nella seconda frase, il verbo "bollire" indica che "lo" si riferisca al latte.
@@segusoNo, purtroppo mi duole dirti che azzecca il pronome semplicemente perché nello spazio vettoriale delle parole, il vettore bollire è più vicino al vettore latte, camminare al vettore bambino. O semplicemente: queste coppie di parole co-occorrono spesso nei dati di addestramento, quindi sono statisticamente più rappresentate.
Perciò il modello non deve affatto ragionare per associare il pronome di riferimento
@@α3026-μ1λ Mi sembra che tu stia ripetendo quello che ho detto io. "il vettore bollire è più vicino al vettore latte che al vettore bambino" è come dire "ha trovato una connessione tra bollire e latte prima di quanto l'ha trovata tra bollire e bambino". Sono due modi per dire la stessa cosa.
Il punto è che ha risolto correttamente il pronome, e col ragionamento giusto. Gli ho chiesto addirittura di spiegare il ragionamento che ha fatto, e lo ha spiegato correttamente. Ora, se ho capito bene, tu dici: "ma sotto, il vero ragionamento che ha fatto non era quello. C'era solo statistica e vicinanza tra vettori". Ok, ma con questa logica potremmo concludere anche che il cervello umano non ragiona davvero. Cioè: io umano ti do una spiegazione del ragionamento che ho fatto, e tu mi rispondi: ma nella tua testa alla fine ci sono solo neuroni che si accendono quando la somma degli input supera una certa soglia. Allora non hai davvero ragionato, è tutta una finzione.
Ovviamente non è così: il ragionamente è avvenuto a un livello più alto, non quello dei neuroni. Il punto è che se io ti ho spiegato il ragionamento che ho fatto, a qualche livello questo ragionamento è stato realizzato nel mio cervello. Non necessariamente al livello più basso. Neppure i neuroni, presi singolarmente, ragionano.
@@MicheleBoldrin bisogna prima capire bene cosa significa ragionare, se si intende il ragionamento come fare una analisi della situazione, valutare le risposte e trarre conclusioni direi che si ferma al primo punto in parte, se si intende che fa una parte del processo di ragionamento anche la calcolatrice ragiona, in parte. Di sicuro evolvendola e usandola col la parte di ragionamento umano, soprattutto per l'analisi di dati lo potenzia e velocizza di molto
Mio commento tattico 👍
Ma scusate, chi ci dice che il nostro cervello non funzioni esattamente cosi (ossia come gli LLM) ? Cioè per concatenazione probabilistica di concetti dati dall'esperienza e dall'allenamento...
Non penso che nessuno metta in dubbio che il nostro cervello faccia anche questo, ma di sicuro sembrerebbe essere in grado di fare anche altro. Altrimenti come si spiega il fatto che sappiamo riesaminare i nostri pensieri in maniera critica in cerca di fallace logiche.
Qualche giorno fa ho chiesto a Gemini: "Mi fai il riassunto de "Gli sdraiati" di Michele Serra come se lo avesse scritto uno studente di prima liceo scientifico?" e la risposta è stata "Certo, ecco un riassunto de "Gli sdraiati" di Michele Serra, pensato per essere comprensibile a uno studente di prima liceo scientifico: ...". Mi sbaglio ho ha capito il contrario della mia richiesta?
splendida puntata, ascoltandovi pensavo se ad oggi, data la dimensione delle reti eseguibili, ha senso avere un unico modello che sappia fare molto bene, tante cose diverse. Mi chiedo se, nel caso umano, le reti neurali del grande esperto di geometria differenziale possano anche coesistete con il grande interprete di musica barocca. Visto che ad oggi nessuno puo' eccellere in piu campi, credo il cervello umano del esperto, sia un cervello estremamente specializzato. Forse avremo le intelligenze artificiali e non la intelligenza artificiale. Piu' che un HAL 9000, forse avremo un nuovo Cartan e un nuovo Bach, quelli si artificiali.
Di 3 esperti di ML, Boldrin ha spiegato i neural network meglio degli altri😅😂 la dice lunga sulla divulgazione scientifica per i non addetti ai lavori