ho già pubblicato sul canale come fare RAG, multimodal RAG e finetuning vari di modelli open-source, però se vuoi posso preparare con calma un video riepilogativo
Più che altro, da quello che ho visto, per addestrarli è necessario un file JSON che contenga domanda e risposta. Esiste un modo per generarlo automaticamente partendo da una documentazione?
Complimenti per il video chiaro e professionale. Una domanda : i dati sensibili sul RAG sono condivisi con LLM e quindi non sono al sicuro? Ad esempio gli avvocati, come me, hanno interesse ad usare una AI i. Locale, per non mettere in pericolo i molti dati sensibili dei clienti. Puoi chiarire questo punto. Sarebbe interessantissimo un video sulla questione
Quando implementi un sistema RAG e interroghi la knowledge aziendale con un LLM, come Chat GPT, se non è stato creato in un ambiente protetto, i dati privati aziendali confluiranno nei Server di OpenAI contribuendo ad addestrare il modello. In alternativa è possibile utilizzare LLM locali ma avrai bisogno di un' elevata forza computazionale. Le soluzioni sono varie e vanno valutate con attenzione.
@@renatosivio6578 per interrogare la propria documentazione e avere delle risposte basate su di essa, un sistema RAG è la soluzione migliore. Come indicato, occorre predisporre un' architettura ad hoc per tutelare i propri dati sensibili a disposizione. Chat GPT è stato addestrato su una conoscenza presente in rete (per semplificare) e che è diversa da quella Interna ad un' azienda. Se un'azienda ha dei manuali o procedure elaborate internamente, chat GPT non potrà mai rispondere correttamente alle tue richieste, perché non "conosce" quella documentazione salvo fare fine tuning o ricorrere al RAG.
la sicurezza dei dati dipende da chi ha controllo sul modello, se lo hai in locale hai la privacy al 100%, se usi un modello closed source a pagamento non sai mai che fanno con i dati che carichi
3:20 che vuol dire che il modello non ha sufficiente conoscenza? Il mio problema è che quando si chiede di estrarre informazioni da database di testi umanistici, senza (troppi) numeri e conti statistici, non riesco a capire se la conoscenza che ha il modello è sufficiente o meno... potresti spiegare meglio, con degli esempi, quando il modello ha sufficiente conoscenza o meno?
del tipo non so se il modello sa come funzionano i cantieri per costruire dei palazzi, allora gli faccio tutte le domande del caso e valuto il suo livello di conoscenza, se sa già tutto quello che deve sapere bene altrimenti lo devi addestrare su quelle informazioni che non sa.
Hai chiarito le differenze tra le diverse opzioni in maniera chiara. Complimenti
grazieee!
Ti faccio i miei complimenti, sei stato molto chiaro!
Grazie questo è il più bel commento!
Bella spiegazione, adesso ho un'idea molto più chiara di quando uno, quando l'altro o entrambi.
Sempre sul pezzo complimenti🙏
ci si prova grazie!
Video fondamentale. Grazie
pregoo!
Spiegazione e confronto impeccabile!
graziee
come consigli di procedere nella scelta dell'LLM da cui partire? Quali aspetti principali considerare per una scelta corretta?
bisogna testarli vari e vedere come perfomano sul problema e poi si sceglie il migliore
Sei un portento. Mi aprirei un'azienda solamente per godere della tua competenza
Ciao Simone, video più che interessante. Potresti fare anche qualche esempio pratico con il codice magari?
ho già pubblicato sul canale come fare RAG, multimodal RAG e finetuning vari di modelli open-source, però se vuoi posso preparare con calma un video riepilogativo
Grazie. Intanto corro a vedere i video che mi hai segnalato.
ciao! potresti fare una guida su come effettuare il finetuning di un modello?
ne ho già fatte di svariate qui sul canale, se volete ne faccio un'altra
Più che altro, da quello che ho visto, per addestrarli è necessario un file JSON che contenga domanda e risposta. Esiste un modo per generarlo automaticamente partendo da una documentazione?
Chiarissimo, complimenti. Una domanda i GPTS quindi non sono degli Agent, ma dei RAG?
esattamente!
Top
Complimenti per il video chiaro e professionale. Una domanda : i dati sensibili sul RAG sono condivisi con LLM e quindi non sono al sicuro? Ad esempio gli avvocati, come me, hanno interesse ad usare una AI i. Locale, per non mettere in pericolo i molti dati sensibili dei clienti. Puoi chiarire questo punto. Sarebbe interessantissimo un video sulla questione
Quando implementi un sistema RAG e interroghi la knowledge aziendale con un LLM, come Chat GPT, se non è stato creato in un ambiente protetto, i dati privati aziendali confluiranno nei Server
di OpenAI contribuendo ad addestrare il modello.
In alternativa è possibile utilizzare LLM locali ma avrai bisogno di un' elevata forza computazionale.
Le soluzioni sono varie e vanno valutate con attenzione.
Il che di fatto credo che escluda per i privati il ricorso al RAG, se se vuole privilegiare la sicurezza. O sbaglio. ?
@@renatosivio6578 per interrogare la propria documentazione e avere delle risposte basate su di essa, un sistema RAG è la soluzione migliore.
Come indicato, occorre predisporre un' architettura ad hoc per tutelare i propri dati sensibili a disposizione.
Chat GPT è stato addestrato su una conoscenza presente in rete (per semplificare) e che è diversa da quella Interna ad un' azienda.
Se un'azienda ha dei manuali o procedure elaborate internamente, chat GPT non potrà mai rispondere correttamente alle tue richieste, perché non "conosce" quella documentazione salvo fare fine tuning o ricorrere al RAG.
Sarebbe interessante l’applicazione pratica di questa teoria, in ogni caso ottima spiegazione. Grazie!
su molti video ho mostrato già RAG, multimodal RAG, finetuning etc basta andare indietro nei video!
Bel video!
graziee
Simone quindi il RAG non basta per garantire la sicurezza dei dati?
la sicurezza dei dati dipende da chi ha controllo sul modello, se lo hai in locale hai la privacy al 100%, se usi un modello closed source a pagamento non sai mai che fanno con i dati che carichi
Il che di fatto credo che escluda per i privati il ricorso al RAG, se se vuole privilegiare la sicurezza. O sbaglio?
nono molti privati utilizzano il RAG
3:20 che vuol dire che il modello non ha sufficiente conoscenza? Il mio problema è che quando si chiede di estrarre informazioni da database di testi umanistici, senza (troppi) numeri e conti statistici, non riesco a capire se la conoscenza che ha il modello è sufficiente o meno... potresti spiegare meglio, con degli esempi, quando il modello ha sufficiente conoscenza o meno?
del tipo non so se il modello sa come funzionano i cantieri per costruire dei palazzi, allora gli faccio tutte le domande del caso e valuto il suo livello di conoscenza, se sa già tutto quello che deve sapere bene altrimenti lo devi addestrare su quelle informazioni che non sa.