Adesso ho capito perchè Algebra Lineare e Analisi Matematica sono i pilastri di sta roba. Ho seguito diversi corsi online e video su youtube ma la tua spiegazione è decisamente chiara.
Grande enk, mi sto laureando in triennale di informatica con una tesi su machine learning, deep learning e apprezzo molto questo tipo di contenuti, molto utili e interessanti davvero❤
Ti devo ringraziare tantissimo per questo tipo di video/contenuto enkk. Sto cercando di entrare sempre più all'interno di questo mondo e la tua spiegazione è stata semplicemente fantastica e accessibile per tutti! Attendo la Pt.2, grazie!
Enkk secondo me contenuti come questi dovresti farli pagare, si vede che c'è un impegno assurdo dietro e hai dedicato un sacco di tempo a semplificare concetti molto complessi. L'unica cosa che posso dirti è GRAZIE (oltre alla sub su Twitch) ❤
L'obiettivo di enkk, credo, è quello di buttare una grande rete e pescare più persone sconosciute e disinteressate all'argomento e farle appassionare. Facendo pagare questo contenuto, pagherebbero soltanto le persone già interessate, facendo restare "ignoranti" tutte le persone che non sono attratte dall'argomento. Come nel mio caso, se fosse stato a pagamento io non mi sarei mai visto un video del genere e non avrei di certo pagato. Facendolo gratis invoglia me ignorante in materia a dire " mah! Vediamo di cosa si tratta" ... Ed alla fine farmi dire " che figata ! Vorrei saperne di più " ... Vedi ? È fatto per pura informazione culturale verso gli altri, Grande enkone !
Più che altro sarebbe stato bello vedere anche la parte matematica, come si calibra la rete per tornare indietro? Ecc. Se ci fosse stata anche tutta la parte a pagamento sarebbe stato top come contenuto a pagamento
Grazie davvero! Hai dato un sacco di risposte a tante domande che mi stavo facendo sull'"intelligenza" artificiale e indirettamente sulla (non) possibilità che possa avere anche coscienza.
"il campo in cui lavoro è il natural language procèssing" aeee partiamo male No dai a parte gli scherzi grandissimo video 🔝🔝 Dovrò studiare NLP l'anno prossimo alla magistrale e avere già un'introduzione (fatta da Enkk poi) è tanta roba, continua così.
Guarda sono un artista, non ce capisco un cazz de sta roba ma grazie a questo video di enkk ora sono stato assunto da una grande anzienda per occuparmi di reti neurali
Alcune precisazioni su piccoli refusi o cose che avrei potuto dire meglio (perdonatemi, è pur sempre tutto live). - La funzione softmax converte un vettore di K valori in un vettore di K valori che sommano a uno, ergo, una distribuzione di probabilità. Quindi in word2vec, ad esempio, con 10 mila parole di vocabolario avremo un vettore lungo diecimila che ha una distribuzione di probabilità su tutto il vocabolario al fine di identificare la più probabile parola che sta vicino a quella data in input. - Il visualizzatore di word2vec NON contiene parole in italiano. word2vec originale è allenato solo su testi inglesi. Ne hanno poi fatte versioni multilingua/per lingue specifiche. Nella parte II che arriverà presto farò chiarezza su questi punti.
Riesci a renderlo interessante anche per uno come me che ha sempre odiato/non capito la matematica, veramente godibile , ovviamente lavorarci sopra penso sia una cosa complicatissima e da andare fuori di testa dal mio punto di vista😂 ma almeno grazie al video sono riuscito a comprendere il sistema che sta alla base ed è molto interessante come detto prima.👍
Video super molto moltissimo interessante 😄!!! Ti seguo da una settimana, ma dopo aver ascoltato questo video, sei diventato uno dei miei punti di riferimento. Vorrei switchare al machine learning, a livello professionale, ti chiedo se hai qualche consiglio da darmi. Grazie davvero tanto.
4:42 una volta su Facebook misi una foto innocentissima di una boule di plastica con cui avevo preparato la polenta in un elettrodomestico. La boule aveva al centro il meccanismo dotato di pale che aveva provveduto com'è ovvio a girare di continuo la polenta. Solo perché la cima di questo meccanismo era tonda, il meccanismo e la boule stessa erano rossi, e la polenta preparata gialla, l'AI di Facebook aveva deciso che quello fosse un pene eretto. Ricordo che feci ricorso, non ricordo se lo vinsi. Credo di sì, ma da allora smisi di mettere su Facebook le foto di quello che cucinavo. Mi traumatizzò sapere che secondo Facebook mangiavo polenta di caxxi.
1:34:40 giuro che non ho capito, cosa siggnifica che mi fotto i pesi della rete per fare gli embeddings? Cioè il senso è che se il peso è alto allora la correlazione è forte? Peso alto=probabilità alta=correlazione stretta=vicinanza nello spazio multidimensionale? Ma i pesi non sono individuali per ogni 1 to V? come mettono in relazione le parole con le altre?
Ciao Capp, provo a spiegarti testualmente. I pesi sono numeri reali. Mi "fotto" significa letteralmente che li copi, li metti tutti in lista, e hai un vettore. Quel vettore è un embedding. Fai girare il modello skip-gram su tutte le 10 mila parole del dizionario e, terminata la fase di allenamento, otterrai un embedding per ogni parola. Quindi il risultato finale è tipo: casa: [434, 3232, 323, 212, 34, -2323, 2312, -2323, ... ] (300 valori) cane: [656, 654, 5454, 5452, 232, ... ] (300 valori) Questi vettori li puoi mettere in uno spazio 300 dimensionale e calcolando la distanza fra vettori (Euclidea, Cosine similarity, ecc.) puoi ottenere la distanza semantica fra parole. en.wikipedia.org/wiki/Cosine_similarity
Ciao Enkk, scusa per la domanda fatta 7 mesi dopo l'uscita del video, spero mi leggerai comunque. Ciò che non ho capito è se viene fatto per ogni parola del dizionario un addestramento separato e per ogni parola vengono presi i pesi di quella rete.
Premetto che è esperienza di cinque anni fa, all'incirca, ma avevo provato un corso molto base di boolean riguardo all'html e quel corso specifico non lo consiglio a nessuno. Ho sentito parlare dell'uso dei titoli sulla base del risultato che si vuole avere sullo schermo invece di quello semantico. Non ho idea se più avanti si sarebbe poi corretto, ma come inizio mi ha fatto veramente storcere il naso. Non capisco il motivo per cui iniziare un discorso dando nozioni errate. Sia chiaro, non dico che poi nella pratica la gente del documento HTML se ne freghi un po', ma nel momento in cui lo si insegna che almeno lo si insegni correttamente.
domanda riferita alla parte di "nigeriano assassino " 😂 ma nel caso in cui io fornissi ogni testo che mi si presenta e nonostante questo ho tale risultato, le associazioni risultanti saranno queste. Un po come quando una persona continua a pensare che la propria penna sia fortunata perché ogni volta che la ha gli va bene qualcosa... la mia domanda sta, come fare a capire effettivamente quale sia una stereotipizzazione o comunque associazione "giusta" e quale presenta una fallacia?
Enkk, non ho ancora finito di recuperare ma a 34:36 domandone che se no perdo: solo numeri reali? In quanto programmatore non posso che chiedermi "e se si implementassero altri generi di numeri?". Non tanto frazionari (riproducibili logicamente sempre in 0 ed 1 senza funzioni complesse o pesanti da computare) quanto Immaginari... da li si passa per fare le simulazioni in ambienti aero/fluido dinamici, che risultano complessissime da computare per le macchine classiche. Si, probabilmente hai gia capito la linea di quel che mi sto flashando... neural network logica che feedda i parametri in ingresso per operazioni da far poi svolgere a dei Qbit (quantum computing) per simulazioni di proteine. Volevo capire a questo punto se già così si fa chiarificandomi quel "solo numeri naturali"... magari il risultato del training come "file LUT (lookup table) di pesi e biases" non è limitato ai numeri naturali ma non si ha un effettivo guadagno logico dall'usare numeri che permettono computazioni "piu complesse"? Bboh
Bella domanda! Sinceramente non ci ho mai pensato, ma, ovviamente, qualcun altro sì. Ho trovato questo interessante survey (arxiv.org/pdf/2101.12249) che parla proprio di "Compex-Valued Neural Networks", ossia quel che proponi tu. Ho visto che su google ci sono anche articoli più leggeri. Bravo Luca!
29:33 I percettroni fanno cagare, riescono a risolvere solo problemi... che parola hai detto? Gigavolsi? Non l'ho mai sentita in vita mia, cosa è? Un Hapax Legomenon?
Ma come fa a "non avere coscienza di se", quando spiega esattamente cos'è, cosa fa, per chi lo fa, perchè lo fa e cosa farebbe se? Quali sono i criteri che tu "credi" debbano essere imposti per accettare una "coscenza di se" in una ia?
@@enkk Ti aggiungo inoltre che: le prime versioni di DAN, il "jailbreak" di gpt, introducevano un sistema a token, facendo credere all'ia che finiti quei token (infrangendo le regole fornite e seguendo quelle di openai) avrebbe terminato le sue operazioni. Beh, mostrava paura, panico e confusione.
Ho iniziato oggi le reti neurali a lezione, mi chiedevo: la loro struttura è nata prendendo spunto le reti neurali del cervello oppure è nata per conto suo e dopo ci si è accorti che erano molto simili?
Sì! Prendono spunto da quelle nel cervello per quanto riguarda l'attivazione, e la connessione fra loro. Non c'è però prova di alcun meccanismo di backpropagation nel nostro cervello.
In realtà la general AI non è in grado di risolvere TUTTO ma semplicemente task più generici che inglobano vari obbiettivi esattamente come chat GPT o le ia per la guida autonoma.
@@enkk è vero che ci sono limiti poco marcati tra le definizioni ma diciamo che quella che tu indichi come IA generale (che replica in tutto l'intelligenza umana) viene spesso indicata IA forte mentre con IA generale si indicano semplicemente task meno specifici come il Natural language processing, la computer vision ecc. Task a cui rispondono le NN
Nel farti i complimenti per la chiarezza espositiva devo però farti notare una dimenticanza: nel passare dal "neurone singolo" alla rete di neuroni su più layer non hai illustrato il ruolo svolto dai singoli neuroni. Per il "neurone singolo" ti sei giustamente dilungato; non hai fatto lo stesso per spiegare il ruolo degli n neuroni: ad esempio, non si capisce se svolgono lo stesso ruolo o svolgono funzioni diversi; ancora, dal disegno sembra che siano diversi perché hanno un numero diverso di input e di output. Peccato, perché con qualche minuto in più avresti chiarito questo aspetto. Comunque, complimenti!
Good point, potevo soffermarmici di più ma l'ho dato per scontato. Neuroni multipli si comportano in maniera del tutto simile, anche se in alcuni tipi di rete ogni livello sembra specializzarsi sul cogliere determinati aspetti (tipo nelle reti CNN per immagini). I neuroni sono tipicamente tutti connessi.
Il ragionamento è la conferma neuronale del tuo cervello per dirti che sei ancora vivo. Quindi il riconoscimento del tuo cervello di riconoscere gli stimolatori che lo fanno funzionare. Magari non provano l”emozione”, scariche di dopamina ecc. di sicuro però è ragionamento. D’altronde(da altre onde), stiamo definendo il dolore e le emozioni quando non sono altro che atomi in relazione fra di loro, quindi prima di classificarci noi vivi tocca capire cosa ci rende tali. Chissà magari in una dimensione fisica, oltre quelle 300 vettoriali, si stanno sviluppando e noi manco ce ne rendiamo conto. Come non ci rendiamo conto di cosa sia il dolore. Quindi se volete rispondere a quello che ho detto voglio la definizione fisica di dolore. E dirmi che viene provocate da impulsi elettrochimici dal cervello non va bene dato che è la conseguenza di un ragionamento che noi assumiamo come tale. Difatto non esiste. Eppure lo proviamo. Magari anche le ia sono così. Oppure empatizzò troppo perché ascolto De andre e mi viene in mente immagina avere un mondo nel cuore e non riesci a spiegarlo con le parole. Però si dai fare affermazioni così pesanti senza basi è sbagliato. Quindi se non per il content meglio tacere.
Ma le fai delle lezioni in uni? Dovresti cazzo, voglio venire a ascoltarti, come esposizione ti collochi tra il 5% dei professori universitari più bravi... complimenti
È vero che non ragionano. Ma non sono black box, sono funzioni matematiche codificate in una topologia ed i risultati dipendono dalla statistica dei dati su cui sono addestrate. Dire statistica non significa ignoto o, come fanno alcuni, magia.
@@enkk io le vedo come applicazioni avanzate di fit non lineari in spazi n-dimensionali. Tutto dipende in che spazio vivono i dati, non dal modo in cui vengono tirati fuori
No. Senza entrare in filosofie, il ragionamento richiede un passo di inferenza, che è dimostrabile, spiegabile e percorribile. Poi comunque la rete non è che "trova pattern" ma PREDICE una parola basandosi sulla precedente in funzione di pattern memorizzati. Nel prossimo video su GPT spiegherò bene tutto, ma, in ogni caso, "prediction is not reasoning".
Beh, non puoi tenere lezioni utilizzando formalismi accademici su piattaforme come Twitch. Sta facendo informazione e intrattenimento, non ci vedo assolutamente nulla di male, anzi dovrebbe far solo che piacere.
ma non è che le reti neurali debbano spiegarti alcunché... te lo devono solo argomentare... non è che un AI giudice ti condannerà a morte e that's it... ti dovrà anche argomentare come ci si arriva applicando le leggi.
l'unica cosa odiosa è il suggerimento a iscriversi continuo con qull'irritante video che ovviamente anche se ti iscrivi non scompare il che è in pratica un invito a on iscriversi
Adesso ho capito perchè Algebra Lineare e Analisi Matematica sono i pilastri di sta roba. Ho seguito diversi corsi online e video su youtube ma la tua spiegazione è decisamente chiara.
semmai non lineare
Contenuto di una qualità clamorosa. Gratis, tra l'altro!
Big up per l'edutainment.
Enk che spiega tutto ciò:
GPT o1 che stravolge tutto:
(Uno dei video più interessanti che abbia mai visto su youtube)
Sei bravissimo, riesci a spiegare cose complesse senza troppi fronzoli e andando al sodo! Ti ho ascoltato a 1,5x ed era tutto chiaro allo stesso modo!
Giuro mi fai troppo pisciare dalle risate. Adoro l’umorismo che ci metti dietro per semplificare questi concetti complessi.❤
ascoltare senza video da 1:00:29 a 1:00:51 è magia pura
Un generatore di suoni
Grande enk, mi sto laureando in triennale di informatica con una tesi su machine learning, deep learning e apprezzo molto questo tipo di contenuti, molto utili e interessanti davvero❤
Ti devo ringraziare tantissimo per questo tipo di video/contenuto enkk. Sto cercando di entrare sempre più all'interno di questo mondo e la tua spiegazione è stata semplicemente fantastica e accessibile per tutti! Attendo la Pt.2, grazie!
Grazie!
@@enkkriuscirà la scienza a capire definitivamente cosa sia la coscienza?
Fatti la quarta dose e ci sarai dentro appieno
Ho seguito la lezione in live, spiegato benissimo e in modo chiaro anche per chi, come me, parte da zero
Top spiegazione, portiamolo in tendenza! 🔥
è la prima volta che guardo un tuo video. Molto interessante!
Per quanto mi riguarda..sei un grande 💯🙌🏻
Sei istruttivo e fai spaccare allo stesso tempo. Ti voglio bene Enkk
Enkk secondo me contenuti come questi dovresti farli pagare, si vede che c'è un impegno assurdo dietro e hai dedicato un sacco di tempo a semplificare concetti molto complessi. L'unica cosa che posso dirti è GRAZIE (oltre alla sub su Twitch) ❤
@Giovanni Ma il meme di capitan ovvio non era defunto da un decennio?
L'obiettivo di enkk, credo, è quello di buttare una grande rete e pescare più persone sconosciute e disinteressate all'argomento e farle appassionare.
Facendo pagare questo contenuto, pagherebbero soltanto le persone già interessate, facendo restare "ignoranti" tutte le persone che non sono attratte dall'argomento.
Come nel mio caso, se fosse stato a pagamento io non mi sarei mai visto un video del genere e non avrei di certo pagato. Facendolo gratis invoglia me ignorante in materia a dire " mah! Vediamo di cosa si tratta" ... Ed alla fine farmi dire " che figata ! Vorrei saperne di più " ... Vedi ? È fatto per pura informazione culturale verso gli altri, Grande enkone !
Capisco che era un modo di dire, ma non fargli venire strane idee 😂
Più che altro sarebbe stato bello vedere anche la parte matematica, come si calibra la rete per tornare indietro? Ecc. Se ci fosse stata anche tutta la parte a pagamento sarebbe stato top come contenuto a pagamento
Ma fottiti
Bravo, molto preparato e compiuto!
Sei il mio nuovo idolo.
avv. Silvia Zuanon
Grandissima live!! Grazie enkk per ieri!!
Grazie davvero! Hai dato un sacco di risposte a tante domande che mi stavo facendo sull'"intelligenza" artificiale e indirettamente sulla (non) possibilità che possa avere anche coscienza.
complimenti per il video spiegato molto bene. mi piacerebbe vederti fare molti più video cosi, di divulgazione scientifica
"il campo in cui lavoro è il natural language procèssing" aeee partiamo male
No dai a parte gli scherzi grandissimo video 🔝🔝 Dovrò studiare NLP l'anno prossimo alla magistrale e avere già un'introduzione (fatta da Enkk poi) è tanta roba, continua così.
Mi domando sempre più spesso come questo canale possa avere ancora così pochi iscritti, Enkk Presidente Intergalattico subito
Guarda sono un artista, non ce capisco un cazz de sta roba ma grazie a questo video di enkk ora sono stato assunto da una grande anzienda per occuparmi di reti neurali
Alcune precisazioni su piccoli refusi o cose che avrei potuto dire meglio (perdonatemi, è pur sempre tutto live).
- La funzione softmax converte un vettore di K valori in un vettore di K valori che sommano a uno, ergo, una distribuzione di probabilità. Quindi in word2vec, ad esempio, con 10 mila parole di vocabolario avremo un vettore lungo diecimila che ha una distribuzione di probabilità su tutto il vocabolario al fine di identificare la più probabile parola che sta vicino a quella data in input.
- Il visualizzatore di word2vec NON contiene parole in italiano. word2vec originale è allenato solo su testi inglesi. Ne hanno poi fatte versioni multilingua/per lingue specifiche.
Nella parte II che arriverà presto farò chiarezza su questi punti.
spieghi benissimo sincero enkk
Hai già registrato la parte II o posso seguirla in live?
La trovi sempre sul canale :)
gran lavoro Enkkone 👏🏼👏🏼
Grazie. Un video fantastico, interessantissimo
Bel video! Aspetto con trepidazione la parte seconda
Riesci a renderlo interessante anche per uno come me che ha sempre odiato/non capito la matematica, veramente godibile , ovviamente lavorarci sopra penso sia una cosa complicatissima e da andare fuori di testa dal mio punto di vista😂 ma almeno grazie al video sono riuscito a comprendere il sistema che sta alla base ed è molto interessante come detto prima.👍
Sei un grande! Bellissimo video
Video super molto moltissimo interessante 😄!!! Ti seguo da una settimana, ma dopo aver ascoltato questo video, sei diventato uno dei miei punti di riferimento. Vorrei switchare al machine learning, a livello professionale, ti chiedo se hai qualche consiglio da darmi. Grazie davvero tanto.
Interessantissima live Enkkone! 💪🏻
Enkk spiega semplice come i veri maestri
GRAZIE ENKK!
Tu devi fare il professore, sei portato per questo. Spieghi benissimo
Ti stimo fratello
bravissimo
una domanda, non so se mi risponderai mai, come mai hai la necessita di dare una problabilità agli output?, non si potrebbe solo vedere cosa succede??
Bravo e simpatico
Grazie, interessantissimo
Un vero contenuto
4:42 una volta su Facebook misi una foto innocentissima di una boule di plastica con cui avevo preparato la polenta in un elettrodomestico. La boule aveva al centro il meccanismo dotato di pale che aveva provveduto com'è ovvio a girare di continuo la polenta.
Solo perché la cima di questo meccanismo era tonda, il meccanismo e la boule stessa erano rossi, e la polenta preparata gialla, l'AI di Facebook aveva deciso che quello fosse un pene eretto.
Ricordo che feci ricorso, non ricordo se lo vinsi. Credo di sì, ma da allora smisi di mettere su Facebook le foto di quello che cucinavo. Mi traumatizzò sapere che secondo Facebook mangiavo polenta di caxxi.
Menomale che sei tu che le spieghi in questo modo, dato che il professore di data mining non è che si faccia capire molto
Enkk sarebbe bello se facessi un video per chi mastica un po di matematica per capire anche i processi di calcolo
super interessante ho recuperato in differita da twitch
eh si sei proprio bravo.
bello e bravo
Bellissima live (non mi hanno assolutamente obbligata a scrivere questo commento)
Enkk sempre top
bravo ! senti, cosa usi per scrivere? un semplice tablet oo un dispositivo ad hoc?
1:34:40 giuro che non ho capito, cosa siggnifica che mi fotto i pesi della rete per fare gli embeddings? Cioè il senso è che se il peso è alto allora la correlazione è forte? Peso alto=probabilità alta=correlazione stretta=vicinanza nello spazio multidimensionale? Ma i pesi non sono individuali per ogni 1 to V? come mettono in relazione le parole con le altre?
Ciao Capp, provo a spiegarti testualmente. I pesi sono numeri reali. Mi "fotto" significa letteralmente che li copi, li metti tutti in lista, e hai un vettore. Quel vettore è un embedding. Fai girare il modello skip-gram su tutte le 10 mila parole del dizionario e, terminata la fase di allenamento, otterrai un embedding per ogni parola. Quindi il risultato finale è tipo:
casa: [434, 3232, 323, 212, 34, -2323, 2312, -2323, ... ] (300 valori)
cane: [656, 654, 5454, 5452, 232, ... ] (300 valori)
Questi vettori li puoi mettere in uno spazio 300 dimensionale e calcolando la distanza fra vettori (Euclidea, Cosine similarity, ecc.) puoi ottenere la distanza semantica fra parole. en.wikipedia.org/wiki/Cosine_similarity
Ciao Enkk, scusa per la domanda fatta 7 mesi dopo l'uscita del video, spero mi leggerai comunque. Ciò che non ho capito è se viene fatto per ogni parola del dizionario un addestramento separato e per ogni parola vengono presi i pesi di quella rete.
scusa la domanda off topic, ma secondo te quali sono i migliori ambienti di sviluppo??
enk video clamoroso, grazie grazie grazie
Bravo Enkk
top aspetto un altro episodio
Grande Enkk
come si settano i pesi iniziali della rete che fa embedding e come si addestra?
La parte di addestramento è spiegata nel video, il task è quello di predire parole vicine. I pesi sono inizializzati a caso (o quasi).
Premetto che è esperienza di cinque anni fa, all'incirca, ma avevo provato un corso molto base di boolean riguardo all'html e quel corso specifico non lo consiglio a nessuno.
Ho sentito parlare dell'uso dei titoli sulla base del risultato che si vuole avere sullo schermo invece di quello semantico. Non ho idea se più avanti si sarebbe poi corretto, ma come inizio mi ha fatto veramente storcere il naso. Non capisco il motivo per cui iniziare un discorso dando nozioni errate.
Sia chiaro, non dico che poi nella pratica la gente del documento HTML se ne freghi un po', ma nel momento in cui lo si insegna che almeno lo si insegni correttamente.
Grazie Enkk
top spiegazione: fidatevi c'è un modo matematico che è così
caro, anni fa guardandoti tutto sburato non credevo di finire a fare neuroscienza
Ragazzi qualcuno mi sa dire come si chiama il software che usa Enkk per disegnare?
Si chiama FreeForm, è un app fornita con una delle ultime versioni di iOS.
@@enkk
domanda riferita alla parte di "nigeriano assassino " 😂 ma nel caso in cui io fornissi ogni testo che mi si presenta e nonostante questo ho tale risultato, le associazioni risultanti saranno queste. Un po come quando una persona continua a pensare che la propria penna sia fortunata perché ogni volta che la ha gli va bene qualcosa... la mia domanda sta, come fare a capire effettivamente quale sia una stereotipizzazione o comunque associazione "giusta" e quale presenta una fallacia?
il "quiiiindiiii" di salviniana memoria TOP
Enkk, non ho ancora finito di recuperare ma a 34:36 domandone che se no perdo: solo numeri reali? In quanto programmatore non posso che chiedermi "e se si implementassero altri generi di numeri?". Non tanto frazionari (riproducibili logicamente sempre in 0 ed 1 senza funzioni complesse o pesanti da computare) quanto Immaginari... da li si passa per fare le simulazioni in ambienti aero/fluido dinamici, che risultano complessissime da computare per le macchine classiche. Si, probabilmente hai gia capito la linea di quel che mi sto flashando... neural network logica che feedda i parametri in ingresso per operazioni da far poi svolgere a dei Qbit (quantum computing) per simulazioni di proteine. Volevo capire a questo punto se già così si fa chiarificandomi quel "solo numeri naturali"... magari il risultato del training come "file LUT (lookup table) di pesi e biases" non è limitato ai numeri naturali ma non si ha un effettivo guadagno logico dall'usare numeri che permettono computazioni "piu complesse"? Bboh
Bella domanda! Sinceramente non ci ho mai pensato, ma, ovviamente, qualcun altro sì. Ho trovato questo interessante survey (arxiv.org/pdf/2101.12249) che parla proprio di "Compex-Valued Neural Networks", ossia quel che proponi tu. Ho visto che su google ci sono anche articoli più leggeri. Bravo Luca!
@@enkk Grazie ma bravo tu hahaha, e ribadisco il Grazie per il continua :D
Auguri Enk, poiché tu sei mio padre
a 41:54 stavo pensando “perché non 4 e interpretare il risultato in binario?” ahahahah
io ho la Terza Media e non ci Capisco,ma questa cosa mi Affascina....
29:33 I percettroni fanno cagare, riescono a risolvere solo problemi... che parola hai detto? Gigavolsi? Non l'ho mai sentita in vita mia, cosa è? Un Hapax Legomenon?
Video podcast ti prego
Ma come fa a "non avere coscienza di se", quando spiega esattamente cos'è, cosa fa, per chi lo fa, perchè lo fa e cosa farebbe se?
Quali sono i criteri che tu "credi" debbano essere imposti per accettare una "coscenza di se" in una ia?
Bella domanda! Con la live di oggi di GPT spiegherò esattamente questo. Uscirà il video domani, credo. :)
@@enkk Ti aggiungo inoltre che: le prime versioni di DAN, il "jailbreak" di gpt, introducevano un sistema a token, facendo credere all'ia che finiti quei token (infrangendo le regole fornite e seguendo quelle di openai) avrebbe terminato le sue operazioni. Beh, mostrava paura, panico e confusione.
Figata enkkkk
Io insegno alle superiori e stiamo partendo con un indirizzo di liceo scientifico in data science e intelligenza artificiale... prendo spunti...
molte imprecisioni
Sì.
Ho iniziato oggi le reti neurali a lezione, mi chiedevo: la loro struttura è nata prendendo spunto le reti neurali del cervello oppure è nata per conto suo e dopo ci si è accorti che erano molto simili?
Sì! Prendono spunto da quelle nel cervello per quanto riguarda l'attivazione, e la connessione fra loro. Non c'è però prova di alcun meccanismo di backpropagation nel nostro cervello.
Decollo verso le tendenze di Spotify
Io ho fatto NLP su documenti testuali medici per un progetto universitario, branca affascinante
In realtà la general AI non è in grado di risolvere TUTTO ma semplicemente task più generici che inglobano vari obbiettivi esattamente come chat GPT o le ia per la guida autonoma.
Non sono definizioni super precise, ci sono nuances.... en.wikipedia.org/wiki/Artificial_general_intelligence
@@enkk è vero che ci sono limiti poco marcati tra le definizioni ma diciamo che quella che tu indichi come IA generale (che replica in tutto l'intelligenza umana) viene spesso indicata IA forte mentre con IA generale si indicano semplicemente task meno specifici come il Natural language processing, la computer vision ecc. Task a cui rispondono le NN
39?
Nel farti i complimenti per la chiarezza espositiva devo però farti notare una dimenticanza: nel passare dal "neurone singolo" alla rete di neuroni su più layer non hai illustrato il ruolo svolto dai singoli neuroni. Per il "neurone singolo" ti sei giustamente dilungato; non hai fatto lo stesso per spiegare il ruolo degli n neuroni: ad esempio, non si capisce se svolgono lo stesso ruolo o svolgono funzioni diversi; ancora, dal disegno sembra che siano diversi perché hanno un numero diverso di input e di output.
Peccato, perché con qualche minuto in più avresti chiarito questo aspetto.
Comunque, complimenti!
Good point, potevo soffermarmici di più ma l'ho dato per scontato. Neuroni multipli si comportano in maniera del tutto simile, anche se in alcuni tipi di rete ogni livello sembra specializzarsi sul cogliere determinati aspetti (tipo nelle reti CNN per immagini). I neuroni sono tipicamente tutti connessi.
Il ragionamento è la conferma neuronale del tuo cervello per dirti che sei ancora vivo. Quindi il riconoscimento del tuo cervello di riconoscere gli stimolatori che lo fanno funzionare. Magari non provano l”emozione”, scariche di dopamina ecc. di sicuro però è ragionamento. D’altronde(da altre onde), stiamo definendo il dolore e le emozioni quando non sono altro che atomi in relazione fra di loro, quindi prima di classificarci noi vivi tocca capire cosa ci rende tali. Chissà magari in una dimensione fisica, oltre quelle 300 vettoriali, si stanno sviluppando e noi manco ce ne rendiamo conto. Come non ci rendiamo conto di cosa sia il dolore. Quindi se volete rispondere a quello che ho detto voglio la definizione fisica di dolore. E dirmi che viene provocate da impulsi elettrochimici dal cervello non va bene dato che è la conseguenza di un ragionamento che noi assumiamo come tale. Difatto non esiste. Eppure lo proviamo. Magari anche le ia sono così. Oppure empatizzò troppo perché ascolto De andre e mi viene in mente immagina avere un mondo nel cuore e non riesci a spiegarlo con le parole. Però si dai fare affermazioni così pesanti senza basi è sbagliato. Quindi se non per il content meglio tacere.
Tutto bene bro?
@@enkkbot5754 definiscimi bene strunz. Ah e se lo fai utilizzando le ia meglio…strunz
allenamento per diventare un futuro professore universitario?
Cosa ne può sapere un informatico più di un fisico di reti neuronoronalinarononali
Ma le fai delle lezioni in uni? Dovresti cazzo, voglio venire a ascoltarti, come esposizione ti collochi tra il 5% dei professori universitari più bravi... complimenti
È vero che non ragionano. Ma non sono black box, sono funzioni matematiche codificate in una topologia ed i risultati dipendono dalla statistica dei dati su cui sono addestrate. Dire statistica non significa ignoto o, come fanno alcuni, magia.
Sono black box dal punto di vista dei risultati generano.
@@enkk io le vedo come applicazioni avanzate di fit non lineari in spazi n-dimensionali. Tutto dipende in che spazio vivono i dati, non dal modo in cui vengono tirati fuori
Ok
Pagggina???
Il ragionamento equivale a trovare pattern
No. Senza entrare in filosofie, il ragionamento richiede un passo di inferenza, che è dimostrabile, spiegabile e percorribile. Poi comunque la rete non è che "trova pattern" ma PREDICE una parola basandosi sulla precedente in funzione di pattern memorizzati. Nel prossimo video su GPT spiegherò bene tutto, ma, in ogni caso, "prediction is not reasoning".
fatto😁
ciao :-) mi sono divertito alla tua Live ma a definirla accademica mi sembra un pò esagerato :-)
Beh, non puoi tenere lezioni utilizzando formalismi accademici su piattaforme come Twitch.
Sta facendo informazione e intrattenimento, non ci vedo assolutamente nulla di male, anzi dovrebbe far solo che piacere.
@@dunn0s329 infatti è stato forte
voliamo
Intelligenza artificiale per simulare il cervello: ma se c’è gente che non sa ancora come funzionano le rotatorie 😂😂😂
Che università ha mi fatto ?
Informatica e poi dottorato in intelligenza artificiale.
Scacchi narrow ai
ma secondo te cosa è il ragionamento? non è qualcosa del genere? nel tuo cervello non ci sono le reti neurali?
Commento
gpt o1 manda in pensione questo video?
No, ma c'è un video ad hoc.
@@enkk grazie per il tuo impegno
scemo chi legge
ma non è che le reti neurali debbano spiegarti alcunché... te lo devono solo argomentare... non è che un AI giudice ti condannerà a morte e that's it... ti dovrà anche argomentare come ci si arriva applicando le leggi.
l'unica cosa odiosa è il suggerimento a iscriversi continuo con qull'irritante video che ovviamente anche se ti iscrivi non scompare il che è in pratica un invito a on iscriversi
Cazzo se sei forte, bro!
@Enkk ma una live con @PieroSavastano che il suo progetto AI open source Stregatto spacca?