Buongiorno, ho visto velocemente il video quindi potrei sbagliarmi (dopo lo vedo meglio), ma mi sembra che non abbiate usato casi d'uso appropriati al modello. Mi sembra come quando la gente usava o1-preview e chiedeva alcuni pezzi di codice e diceva che faceva peggio di Claude. o1 va visto come se fosse un technical engineer che ha il compito di vedere dall'alto la struttura, l'architettura, non il singolo pezzo di codice di un developer junior/senior (anche se sa fare anche quello). Va visto in contesti dove immagino sia difficile mostrarli al pubblico, perché ad esempio agganciato su un IDE ad un progetto complesso su GIT riesce ad avere una panoramica d'insieme superiore a chiunque altro modello (oltre al discorso della lunghezza del contesto). Fargli applicare l'algoritmo (non ideare) o la funzione di codifica vale la pena usare ChatGPT4o perché fanno parte dell'addestramento e sono assai bravi. Alla stessa maniera fargli provare a realizzare un mini applicativo e vedere come e se ha scritto bene il codice penso sia poco 'utile', perché questo genere di richiesta one-shot in tutti i modelli fa si che vadano dritti al sodo e pensano a fare la più sbrigativa soluzione 'client' usando i framework attuali. Non hanno in mente di dover sviluppare un codice MVC adeguato con un'attenta scrittura del backend. Questo lo si ha se spingi il modello con ulteriori sollecitazioni pensando al progetto in maniera più grande. E questo lo possono fare benissimo anche i modelli non reasoner, ma man mano che il progetto acquista complessità l'ago della bilancia si sposta a favore del modello reasoner (ovviamente mettendo da parte la questione memorizzazione e tokenizzazione). Apprezzo l'idea, ma fare delle prove su o1pro conviene farle in domini STEM assieme a qualche esperto del dominio, in caso della programmazione forse serve una base di esempio diversa, o forse andrebbero bene anche le prove di ragionamento nei casi di Codeforces ma sappiamo che è stato fin troppo bravo dai benchmark. Sarebbe ad esempio fantastico poter vedere alcune prove dove un bel progettone Github ha dei ticket aperti, il modello può leggere le info del progetto, farsi il suo quadro d'insieme e verificare in che modo intende prendersi incarico del ticket, in che modo lo sviluppa e così via. Però capisco il fatto che mettere in piedi queste prove non è facile. Ad ogni modo, bravissimo Andrea e seguo sempre i video che fai
Ottimo! Bello che ci si metta a confronto e ascoltare i vari punti di vista, questo aiuta a farsi un’idea e magari prendere in considerazione altri modi di approcciarsi su un determinato progetto. Serve sempre la condivisione, a mio modesto parere, perchè solo in questo modo si otterranno maggiori risultati. Anche se non capisco nulla di programmazione non vuol dire che non era molto interessante. Se ragionassi in questo modo non ascolterei mai i documentari che parlano di fisica… o altri argomenti che non fanno parte del mio bagaglio culturale. Perciò grande lavoro ragazzi! Continuate condividete e aiutatevi vicendevolmente per istruire le nuove generazioni! Mi auguro davvero che riusciate a presentarci un altro tavolo di confronto come questo! Buon lavoro a tutti e 3!
Grazie davvero di cuore Pierpaolo ❤ ho il tuo stesso punto di vista sull’importanza della condivisione e dei punti di vista differenti. Ps. ho visto che ci stai dando dentro con il nuovo corso, poi fammi sapere che ne pensi 💪 ci tenevo a questo su Gemini
Cosa ne penso del corso? Secondo te?! é fatto benissimo, cogli e descrivi i punti salienti e quelli più importanti per aiutarci nell’approciarci con questa ia, per non parlare delle varie sessioni mirate a spiegare punti molto importanti per l’apprendimento. E sottolineo e ti ringrazio per la tua attenzione sull’accessibilità! Quello che adoro é fare i questionari per poter accedere al livello successivo! Semplicemente favoloso! Comunque ho superato il secondo questionario!🥳🥳🧑🦯 tremo solo a dover fare il questionario finale… per accedere a… tu sai cosa! “Il mio tesssorooo…” non scrivo più se no spoilero troppo! mannaggia a te Andrea, a furia di seguire le tue lezioni mi sono promptizzato… continua così! e adesso corro sull’avamposto dei pionieri che devo continuare la mia maratona di lezioni! ciaoooo scappoooo sono di fretta! 🤩
Interessante che Claude ha inserito il concetto di pooling anzichè creare sempre una nuova connessione quando si interagisce con il db. Forse perchè gli è stato scritto come prompt che deve essere un codice non in dev mod ma production? Perchè o1 non l ha fatto.
se posso dire la mia da ingegnere informatico con 16 anni di esperienza: se sei uno sviluppatore senior è un ottimo tool di integrazione per sviluppare più efficientemente, nel lungo tempo però questi tool toglieranno agli sviluppatori l'opportunità di diventare senior e si finirà per avere solo junior developer che senza l'AI non sanno lavorare.
Sono piuttosto scettico riguardo all'IA attuale. Al momento, le manca una vera visione d'insieme e una capacità creativa autentica. Provate a lasciarla operare in totale autonomia, sia in ambiti BE che FE: spesso riesce ad arrivare a un risultato, ma con una forma che lascia decisamente a desiderare. È senza dubbio uno strumento potentissimo, ma non gli affiderei mai un potere decisionale completo.
oggi, ma domani? tra una settimana? e tra 10 anni? questo è un processo irreversibile e non resterà che tornare a fare il vino e tornare al lavoro della terra
@@RobertoDeDomenico Ci sono due ostacoli fondamentali che attualmente limitano significativamente l'impatto degli LLM sullo sviluppo software: il consumo energetico e l'assenza di un vero sistema cognitivo. Il problema energetico è particolarmente critico. L'infrastruttura necessaria per addestrare e eseguire questi modelli richiede un consumo di energia massiccio, che li rende economicamente insostenibili per molti casi d'uso. Non è solo una questione di costi operativi - è un limite strutturale che impedisce la scalabilità e l'adozione diffusa di queste tecnologie. Sul fronte cognitivo, gli attuali LLM mostrano limiti sostanziali: - Mancanza di vera memoria a lungo termine - Incapacità di aggiornare le proprie conoscenze in modo dinamico - Assenza di ragionamento causale - Difficoltà nel gestire contesti complessi e interconnessi Quando questi due ostacoli verranno superati - e prima o poi accadrà - vedremo un cambio di paradigma significativo. Immagino tre fasi di evoluzione: 1. Fase attuale: LLM come strumenti di supporto, limitati ma utili 2. Fase intermedia: miglioramento dell'efficienza energetica e prime implementazioni di sistemi cognitivi basilari 3. Fase avanzata: emergenza di sistemi energeticamente efficienti con capacità cognitive simil-umane Solo quando entreremo nella terza fase dovremo davvero ripensare il ruolo dello sviluppatore software. Nel frattempo, abbiamo il tempo di adattarci e evolvere insieme a questa tecnologia, piuttosto che esserne sopraffatti. È fondamentale monitorare gli avanzamenti in queste aree critiche: - Nuove architetture di modelli più efficienti - Progressi nella ricerca sulla memoria artificiale - Sviluppo di sistemi di ragionamento causale - Evoluzione delle capacità di transfer learning Questi saranno gli indicatori chiave che ci diranno quanto siamo vicini a un vero punto di svolta nel settore. Si, arriverà un momento in cui il nostro ruolo dovrà essere completamente rivisto, forse la terra non è così male 😆
Ma come fai a dare un video da TED come input? Cioè se io volessi usare una mia registrazione video per ottenere un riassunto da inviare ai miei collaboratori, come potrei darlo in pasto a ChatGPT ad esempio?
L'IA, come lo è stato il PC a suo tempo, richiederà capacità di saper reinventarsi. Nonostante programmi come Excel, esempio pratico, siano disponibili da decenni, molti non li utilizzano in modo appropriato. Lo stesso ccadrà con l'IA. La realtà è che il mondo del lavoro non può affidarsi esclusivamente a soluzioni digitali: il ruolo del lavoratore specializzato nelle diverse funzioni continuerà a essere indispensabile, sebbene in quantità probabilmente ridotta (come sottolineato da Raul, oggi grazie all'IA si possono svolgere molte attività in metà del tempo!) Ricordo che "i processi esistono se esiste la domanda". Adattarsi significa saper comprendere le reali esigenze del mercato del lavoro e costruire percorsi di sviluppo delle competenze allineati a queste richieste. Dunque, il problema (se così può definirsi) non è tanto che l'IA eliminare molti posti di lavoro, ma piuttosto la scomparsa del pensiero critico (che prima dell'IA, si era un minimo obbligati ad allenare). Troppo spesso, infatti, si tende a confondere lo strumento con la soluzione. Per esplicitare: la mente (la nostra testa) deve essere il metodo (il come arrivare alla soluzione), lo strumento ( l'IA) le braccia, non l'opposto! Interessante il video!
Ciao assolutamente d'accordo con l'approccio allo strumento. Per la questione lavorativa leggevo un interessante approfondimento che faceva riferimento alla possibilità di andare incontro a un periodo storico diverso da quello recente: con un aumento di valore dei lavori non legati ai campi della conoscenza, ma più manuali e tecnici specialistici, anche per la capacità dell'intelligenza artificiale generativa di apprendere/replicare queste attività. Mentre, per esempio, non abbiamo ancora strumenti che possano sostituire un idraulico, anche perché l'ipotesi della robotica in questo caso è ancora lontana dal largo consumo per queste applicazioni per livello di sviluppo e costi.
non credo che chatgpt o pro usi i concetti, ma si basa sui token. se si basasse sui concetti sarebbe automaticamente capace di rispondere in qualsiasi lingua
Ciao Salvatore credo ci sia stato un fraintendimento. Quando Pierpaolo parlava di concetti non intendeva concetti come nella nuova nuova ricerca di Meta, parlava sempre di token. Intendeva se parli di “casa” e “pulire” basta inserire quelle due parole mentre ad esempio parole come “la” (articoli) sono un corollario. L’AI capisce quello che vuoi per esempio “come pulire casa”. Se ti riferisci a quel passaggio di conversazione
Quindi secondo Pierpaolo Chat GPT non è un LLM ma un LCM, Large Concept Model, perché ragiona per concetti........allora abbiamo già i Large Concept Model e quello su cui sta lavorando Meta allora è fuffa? Comunque il video ha un taglio al minuto 4.12. mi aspettavo la risposta di Chat GPT......ma niente. Al minuto 6.53 l'ospite parla di un automatizzazione con GPT nell'analisi di documentazione specifica di interfacciamento Api. Sarebbe stato utile che spiegasse in modo più approfondito questo suo flusso di automazione. Sarebbe bello vederli operare in modo approfondito, sulla creazione e realizzazione di un mini progetto completamente funzionante, con una serie di video, in modo da fare vedere il loro metodo di integrazione di questi strumenti ed i loro flussi di lavoro. Qualcosa di più elevato rispetto anche ai video che ha fatto Ciraolo. Comunque video molto interessante, spero ce ne siano altri, dove si approfondiscono i flussi ed i metodi di lavoro di cui parlano i due ospiti.
Ho creato codici di 100 mila e passa “ parole “ , già attualmente il piano pro non ha limiti , certo, UN MINIMO devi sapere cosa stai facendo, anche solo per spiegargli cosa vuoi fare
neanche un debug avete fatto.. io ho usato cline + o1 full api, e mi ha generato un app android molto complessa. non oso immaginare con il pro. il fatto e che sicuramente sara comunque limitato, parolo di context token.
Parlavano di 128mila token che per progetti complessi potrebbero non bastare. Questo il numero fornito per il Preview, sull’o1 attuale non ho trovato dati ufficiali forniti.
Bella analisi. Comunque OpenAI sta cioccando ultimamente.. Claude tutta la vita, anche se non hanno tutte le integrazioni che chatgpt attualmente ha. Chatgpt risulta più curato lato ux ma Claude è un trapano che fa esattamente ciò che gli si chiede. A voi la linea..
Mi dispiace molto, proveremo a essere più chiari nei prossimi approfondimenti. Se c'è qualche passaggio che vuoi approfondire, scrivimelo pure nei commenti.
Non è che non siete chiari e che c’erano delle cose troppo tecniche magari sarebbe carino far vedere qualche risultato per far capire di cosa si stia parlando
Grazie.
Grazie davvero tantissimo della donazione ❤
Super approfondimento 🚀🚀
Buongiorno, ho visto velocemente il video quindi potrei sbagliarmi (dopo lo vedo meglio), ma mi sembra che non abbiate usato casi d'uso appropriati al modello. Mi sembra come quando la gente usava o1-preview e chiedeva alcuni pezzi di codice e diceva che faceva peggio di Claude.
o1 va visto come se fosse un technical engineer che ha il compito di vedere dall'alto la struttura, l'architettura, non il singolo pezzo di codice di un developer junior/senior (anche se sa fare anche quello). Va visto in contesti dove immagino sia difficile mostrarli al pubblico, perché ad esempio agganciato su un IDE ad un progetto complesso su GIT riesce ad avere una panoramica d'insieme superiore a chiunque altro modello (oltre al discorso della lunghezza del contesto).
Fargli applicare l'algoritmo (non ideare) o la funzione di codifica vale la pena usare ChatGPT4o perché fanno parte dell'addestramento e sono assai bravi. Alla stessa maniera fargli provare a realizzare un mini applicativo e vedere come e se ha scritto bene il codice penso sia poco 'utile', perché questo genere di richiesta one-shot in tutti i modelli fa si che vadano dritti al sodo e pensano a fare la più sbrigativa soluzione 'client' usando i framework attuali. Non hanno in mente di dover sviluppare un codice MVC adeguato con un'attenta scrittura del backend. Questo lo si ha se spingi il modello con ulteriori sollecitazioni pensando al progetto in maniera più grande. E questo lo possono fare benissimo anche i modelli non reasoner, ma man mano che il progetto acquista complessità l'ago della bilancia si sposta a favore del modello reasoner (ovviamente mettendo da parte la questione memorizzazione e tokenizzazione).
Apprezzo l'idea, ma fare delle prove su o1pro conviene farle in domini STEM assieme a qualche esperto del dominio, in caso della programmazione forse serve una base di esempio diversa, o forse andrebbero bene anche le prove di ragionamento nei casi di Codeforces ma sappiamo che è stato fin troppo bravo dai benchmark.
Sarebbe ad esempio fantastico poter vedere alcune prove dove un bel progettone Github ha dei ticket aperti, il modello può leggere le info del progetto, farsi il suo quadro d'insieme e verificare in che modo intende prendersi incarico del ticket, in che modo lo sviluppa e così via. Però capisco il fatto che mettere in piedi queste prove non è facile.
Ad ogni modo, bravissimo Andrea e seguo sempre i video che fai
Ottimo! Bello che ci si metta a confronto e ascoltare i vari punti di vista, questo aiuta a farsi un’idea e magari prendere in considerazione altri modi di approcciarsi su un determinato progetto. Serve sempre la condivisione, a mio modesto parere, perchè solo in questo modo si otterranno maggiori risultati. Anche se non capisco nulla di programmazione non vuol dire che non era molto interessante. Se ragionassi in questo modo non ascolterei mai i documentari che parlano di fisica… o altri argomenti che non fanno parte del mio bagaglio culturale. Perciò grande lavoro ragazzi! Continuate condividete e aiutatevi vicendevolmente per istruire le nuove generazioni! Mi auguro davvero che riusciate a presentarci un altro tavolo di confronto come questo! Buon lavoro a tutti e 3!
Grazie davvero di cuore Pierpaolo ❤ ho il tuo stesso punto di vista sull’importanza della condivisione e dei punti di vista differenti. Ps. ho visto che ci stai dando dentro con il nuovo corso, poi fammi sapere che ne pensi 💪 ci tenevo a questo su Gemini
Cosa ne penso del corso? Secondo te?! é fatto benissimo, cogli e descrivi i punti salienti e quelli più importanti per aiutarci nell’approciarci con questa ia, per non parlare delle varie sessioni mirate a spiegare punti molto importanti per l’apprendimento. E sottolineo e ti ringrazio per la tua attenzione sull’accessibilità! Quello che adoro é fare i questionari per poter accedere al livello successivo! Semplicemente favoloso! Comunque ho superato il secondo questionario!🥳🥳🧑🦯 tremo solo a dover fare il questionario finale… per accedere a… tu sai cosa! “Il mio tesssorooo…” non scrivo più se no spoilero troppo! mannaggia a te Andrea, a furia di seguire le tue lezioni mi sono promptizzato… continua così! e adesso corro sull’avamposto dei pionieri che devo continuare la mia maratona di lezioni! ciaoooo scappoooo sono di fretta! 🤩
Interessante che Claude ha inserito il concetto di pooling anzichè creare sempre una nuova connessione quando si interagisce con il db. Forse perchè gli è stato scritto come prompt che deve essere un codice non in dev mod ma production? Perchè o1 non l ha fatto.
se posso dire la mia da ingegnere informatico con 16 anni di esperienza: se sei uno sviluppatore senior è un ottimo tool di integrazione per sviluppare più efficientemente, nel lungo tempo però questi tool toglieranno agli sviluppatori l'opportunità di diventare senior e si finirà per avere solo junior developer che senza l'AI non sanno lavorare.
l'AI farà scomparire completamente il ruolo di sviluppatore da qui a 10 anni, purtroppo
Sono piuttosto scettico riguardo all'IA attuale. Al momento, le manca una vera visione d'insieme e una capacità creativa autentica. Provate a lasciarla operare in totale autonomia, sia in ambiti BE che FE: spesso riesce ad arrivare a un risultato, ma con una forma che lascia decisamente a desiderare. È senza dubbio uno strumento potentissimo, ma non gli affiderei mai un potere decisionale completo.
oggi, ma domani? tra una settimana? e tra 10 anni? questo è un processo irreversibile e non resterà che tornare a fare il vino e tornare al lavoro della terra
@@RobertoDeDomenico Ci sono due ostacoli fondamentali che attualmente limitano significativamente l'impatto degli LLM sullo sviluppo software: il consumo energetico e l'assenza di un vero sistema cognitivo.
Il problema energetico è particolarmente critico. L'infrastruttura necessaria per addestrare e eseguire questi modelli richiede un consumo di energia massiccio, che li rende economicamente insostenibili per molti casi d'uso. Non è solo una questione di costi operativi - è un limite strutturale che impedisce la scalabilità e l'adozione diffusa di queste tecnologie.
Sul fronte cognitivo, gli attuali LLM mostrano limiti sostanziali:
- Mancanza di vera memoria a lungo termine
- Incapacità di aggiornare le proprie conoscenze in modo dinamico
- Assenza di ragionamento causale
- Difficoltà nel gestire contesti complessi e interconnessi
Quando questi due ostacoli verranno superati - e prima o poi accadrà - vedremo un cambio di paradigma significativo. Immagino tre fasi di evoluzione:
1. Fase attuale: LLM come strumenti di supporto, limitati ma utili
2. Fase intermedia: miglioramento dell'efficienza energetica e prime implementazioni di sistemi cognitivi basilari
3. Fase avanzata: emergenza di sistemi energeticamente efficienti con capacità cognitive simil-umane
Solo quando entreremo nella terza fase dovremo davvero ripensare il ruolo dello sviluppatore software. Nel frattempo, abbiamo il tempo di adattarci e evolvere insieme a questa tecnologia, piuttosto che esserne sopraffatti.
È fondamentale monitorare gli avanzamenti in queste aree critiche:
- Nuove architetture di modelli più efficienti
- Progressi nella ricerca sulla memoria artificiale
- Sviluppo di sistemi di ragionamento causale
- Evoluzione delle capacità di transfer learning
Questi saranno gli indicatori chiave che ci diranno quanto siamo vicini a un vero punto di svolta nel settore.
Si, arriverà un momento in cui il nostro ruolo dovrà essere completamente rivisto, forse la terra non è così male 😆
Purtroppo è da tempo che maturo la sua stessa conclusione😢.
Ma come fai a dare un video da TED come input? Cioè se io volessi usare una mia registrazione video per ottenere un riassunto da inviare ai miei collaboratori, come potrei darlo in pasto a ChatGPT ad esempio?
Sempre bravo ❤
Ciao bel contenuto. Mi chiedevo...ma non possiamo pensare di utilizzare l'Ai oltre che per programmare anche per fare i test degli sviluppi?
L'IA, come lo è stato il PC a suo tempo, richiederà capacità di saper reinventarsi. Nonostante programmi come Excel, esempio pratico, siano disponibili da decenni, molti non li utilizzano in modo appropriato. Lo stesso ccadrà con l'IA.
La realtà è che il mondo del lavoro non può affidarsi esclusivamente a soluzioni digitali: il ruolo del lavoratore specializzato nelle diverse funzioni continuerà a essere indispensabile, sebbene in quantità probabilmente ridotta (come sottolineato da Raul, oggi grazie all'IA si possono svolgere molte attività in metà del tempo!)
Ricordo che "i processi esistono se esiste la domanda". Adattarsi significa saper comprendere le reali esigenze del mercato del lavoro e costruire percorsi di sviluppo delle competenze allineati a queste richieste. Dunque, il problema (se così può definirsi) non è tanto che l'IA eliminare molti posti di lavoro, ma piuttosto la scomparsa del pensiero critico (che prima dell'IA, si era un minimo obbligati ad allenare). Troppo spesso, infatti, si tende a confondere lo strumento con la soluzione. Per esplicitare: la mente (la nostra testa) deve essere il metodo (il come arrivare alla soluzione), lo strumento ( l'IA) le braccia, non l'opposto!
Interessante il video!
Ciao assolutamente d'accordo con l'approccio allo strumento. Per la questione lavorativa leggevo un interessante approfondimento che faceva riferimento alla possibilità di andare incontro a un periodo storico diverso da quello recente: con un aumento di valore dei lavori non legati ai campi della conoscenza, ma più manuali e tecnici specialistici, anche per la capacità dell'intelligenza artificiale generativa di apprendere/replicare queste attività. Mentre, per esempio, non abbiamo ancora strumenti che possano sostituire un idraulico, anche perché l'ipotesi della robotica in questo caso è ancora lontana dal largo consumo per queste applicazioni per livello di sviluppo e costi.
non credo che chatgpt o pro usi i concetti, ma si basa sui token. se si basasse sui concetti sarebbe automaticamente capace di rispondere in qualsiasi lingua
Ciao Salvatore credo ci sia stato un fraintendimento. Quando Pierpaolo parlava di concetti non intendeva concetti come nella nuova nuova ricerca di Meta, parlava sempre di token. Intendeva se parli di “casa” e “pulire” basta inserire quelle due parole mentre ad esempio parole come “la” (articoli) sono un corollario. L’AI capisce quello che vuoi per esempio “come pulire casa”. Se ti riferisci a quel passaggio di conversazione
@@IApertutti stai sempre sul pezzo, complimenti!
Quindi secondo Pierpaolo Chat GPT non è un LLM ma un LCM, Large Concept Model, perché ragiona per concetti........allora abbiamo già i Large Concept Model e quello su cui sta lavorando Meta allora è fuffa? Comunque il video ha un taglio al minuto 4.12. mi aspettavo la risposta di Chat GPT......ma niente.
Al minuto 6.53 l'ospite parla di un automatizzazione con GPT nell'analisi di documentazione specifica di interfacciamento Api. Sarebbe stato utile che spiegasse in modo più approfondito questo suo flusso di automazione.
Sarebbe bello vederli operare in modo approfondito, sulla creazione e realizzazione di un mini progetto completamente funzionante, con una serie di video, in modo da fare vedere il loro metodo di integrazione di questi strumenti ed i loro flussi di lavoro. Qualcosa di più elevato rispetto anche ai video che ha fatto Ciraolo.
Comunque video molto interessante, spero ce ne siano altri, dove si approfondiscono i flussi ed i metodi di lavoro di cui parlano i due ospiti.
Ma quando dicono di non essere preoccupati per i posti di lavoro vogliono inutilmente evitare allarmismi o sono semplicemente dei poveri illusi?
Ho creato codici di 100 mila e passa “ parole “ , già attualmente il piano pro non ha limiti , certo, UN MINIMO devi sapere cosa stai facendo, anche solo per spiegargli cosa vuoi fare
neanche un debug avete fatto.. io ho usato cline + o1 full api, e mi ha generato un app android molto complessa. non oso immaginare con il pro. il fatto e che sicuramente sara comunque limitato, parolo di context token.
Parlavano di 128mila token che per progetti complessi potrebbero non bastare. Questo il numero fornito per il Preview, sull’o1 attuale non ho trovato dati ufficiali forniti.
Gemini 2.0 ne gestisce 2 milioni
@@michelescaratti362 si ma ha il limit request per minute il che lo rende inutilizzabile con cline
@@michelescaratti362 al momento però con il modello di ragionamento, il thinking, il loro o1, hai solo 30mila token per conversazione a disposizione.
Bella analisi. Comunque OpenAI sta cioccando ultimamente.. Claude tutta la vita, anche se non hanno tutte le integrazioni che chatgpt attualmente ha. Chatgpt risulta più curato lato ux ma Claude è un trapano che fa esattamente ciò che gli si chiede. A voi la linea..
Bello ma sinceramente capito molto poco purtroppo
Mi dispiace molto, proveremo a essere più chiari nei prossimi approfondimenti. Se c'è qualche passaggio che vuoi approfondire, scrivimelo pure nei commenti.
Non è che non siete chiari e che c’erano delle cose troppo tecniche magari sarebbe carino far vedere qualche risultato per far capire di cosa si stia parlando