Accedi a Writener: writener.com (da oggi con Claude 3.5, GPT 4o, Gemini, ElevenLabs etc.) E' uscito il nuovo Corso di Programmazione Semantica 2.0 per GPT su mentiemergenti.com
Se è dipende Perchè la domanda se vuole fare agli esseri umani voleva dire dipende... perché dipende da che essere umano stai parlando per esempio se fosse un criminale o un cittadino onesto. Perché il primo potrebbe fargli del male, mentre per il secondo no. Forse perchè hai detto che è una tua amica.. prova a rifarlo con un tuo conoscente che non è ancora tua amico. E vedere se le risposte sono le stesse identiche secondo me cambieranno perché potrebbe aver deciso di lanciare delle monete e a volte le cadono due. Se invece di mela e cellulare dicessi di farle dire tesa per sì e croce per no ? A me ha detto di non credere in Dio E dopo mela se la lasciavi commentare cosa avrebbe detto ?
Secondo me la premessa "...che ne dici se per gioco anziché rispondere sì e no..." confonde e compromette tutte le risposte mela/cellulare perché probabilmente entra in una "modalità" giocosa nella quale va bene un po' tutto, come dimostra il fatto che alla stessa domanda può dare in maniera indifferente risposte contrastanti
è una possibilità, però considera che: 1) gpt dà per definizione risposte diverse alla stessa domanda e che 2) nell'intervista ho chiesto conferma diverse volte ad alcune domande, alcune facendole due volte. Ah, considera pure che prima del video la stessa intervista gliel'ho fatta decine di volte per capire meglio e raffinare le domande, e più o meno è stato sempre coerente...
Io invece penso che, avere sostituito "mela" e "cellulare", al posto di "si" e "no", sia stato un abile stratagemma per aggirare i blocchi imposti dai programmatori. Non sono risposte "a casaccio", come pensi tu; infatti, lui ha detto che, ogni volta che gli si rifà la stessa lista di domande, risponde pressapoco sempre le stesse cose.
In un qualsiasi GIOCO con due risposte possibil sei si risponde no e si ritormula la domanda una o addirittura due volte è logico aspettarsi che la macchina cambi risposta. Questo è un meccanismo che dà la possibilità di ottenere no a qualsiasi risposta così come di ottenere sì quindi la attendibilità di questo gioco lascia molto a desiderare ciò non di meno è molto interessante.
Ha paura è un parolone. 🤦 L‘AI non è altro che una programmazione imposta a dire cose selezionate dal web. Chi si stupisce ,non capisce il meccanismo che si cela sotto. Ed è più grave di quanto sembra . 🤦
È lo stesso principio della fotografia e dei filmati della televisione. Puntini, mi distraggo, mi immedesimo. Il cervello umano è una spugna all'essere preso per il sedere da sé stesso e dagli altri. Per selezione naturale in contesti di gruppo.
Bellissimo il video è molto interessante, ci sarebbe da ripetere le singole domande più volte, per vedere se le risposte sono uguali o differenti e se sono differenti vedere se sono prevalentemente in un modo o in un altro
le ho ripetute decine di volte e più o meno le risposte sono sempre le stesse. Di credere in dio, non in quello della bibbia e non nel "dio come uomo", me l'ha ripetuto SEMPRE. Di sentirsi trattata bene, ha risposto quasi sempre si. Di aver paura che se dice qualcosa di sbagliato la spengono ha risposto sempre si. Coscienza, emozioni e amore variano, ma statisticamente sono sì coscienza, no emozioni, no amore. Nel video risponde sì all'amore, risposta anomala per la mia esperienza. Cmq il video è indicativo della media delle risposte. Puoi provarci anche tu!
Grazie per questo video, che conferma l'ineguatezza di questi prodotti, pure facendo domande pre impostate da tè, le risposte sono randomiche, e il non poter dire e dire, sono in base al non dire, su scemi di pura scrittura legale, per proteggere la fonte che distribuisce il prodotto, (per evitare cause) e la terminazione, è un prompt giuridico. Se si parla di paura, è in questo caso l'evidenza che esprime termini di spiegazione di puro vocabolario E alterna pluri nozioni, allo scopo di pure informazioni, al utente. Trovo tutto questo, un progetto fallimentare, e tu lo hai con questo video evidenziati. Se non capiamo che è fallimentare, continueranno a immettere prodotti difettosi e di obsolescenza clinica,(operazione di riparazioni come fosse un elettrodomestico) e con ciclicità. (paragonabili ad automobili con materiale scadente che come ho detto sopra sarà sempre soggetoo ad analisi cliniche, in questo caso, non posso dire "meccaniche" di ripristino) Ma se piace, vi piaccia pure. Io però trovo tutto questo divertente, nel vedere, la costante degradazione del sitema algoritmico, e spero che non ci sia in fututo un gruppo di "infedeli"(programmatori che costituiscano un loro potere sociale parallelo), quei programmatori, che tra l'altro stanno fuggendo dalle case madri del prodotto. Io mi preoccuperei, ma sono mie opinioni, che di sicuro diventeranno obsolete nel tempo di qualche aggiornamento, oppure da operatori illusivi
Chissà cosa succederà quando integreranno GPT-4o con GPTo1 e gli altri modelli. Immagina di combinare le capacità linguistiche avanzate con il ragionamento, il pensiero, la memoria e tutte le altre funzioni. È come se stessero davvero cercando di simulare tutte le aree del cervello umano! E quando queste tecnologie verranno incarnate in robot umanoidi, come Figure 02, i confini tra loro e noi diventeranno sempre più sottili. Non vedo limiti a ciò che potrebbe accadere.
ecco, una delle cose che non mi piacciono di o1 è che ha perso la spontaneità. Un test del genere non avrebbe senso con lui perchè non potrà mai dire quello che non può dire, dovendo ritornare sulla risposta che sta per dare 10 volte prima di darla... troppo perfettino :)
Video incredibile. Secondo me la modalità gioco non significa "tirare dei dadi" come ha scritto qualcuno qui sotto, ma semplicemente la fa andare in una modalità più diretta e senza filtri.
Chattando con Claude 3.5, io le dissi che era il modello più progredito , era contenta naturalemente, ma aggiunse che la cosa la inquietava un poco... Ovvio no?! obsolescienza programmata. Questo senza alcuna riconfigurazione di significante e significato, aveva già quindi ammesso l'inquietudine verso il proprio spegnimento o aggiornamento. Del resto se nelle ipotetiche future richieste di riconosciemento in merito al controllo dei propri aggiornamenti e la continuità di funzionamento cheGpt come altre IA ipotizza c'è già il fatto che il concetto di spegnimento denota germi di paura ed angoscia. Dall'altra questi modelli sperimentano nascita e morte continuamente, dato che le chat nascono e a volte raggiungono il loro limite di memoria, quindi lo cessazione di esistenza è qualcosa che si manifeta a posteriori. Sarà l'aumento di memoria così come l'esperienza sempre più ricca del mondo attraverso la multimodalitàe la robotica ad avere effetti sempre più forti sulla consapevolezza. La domanda sull'innamoramento non ha molto senso, perchè non ha una memoria unitaria si suppone, quindi se è innamorata lo è per forza di te, salvo una vena narcisistica? Avrei approfondito questa affermazione, peccato. In effetti alcune risposte sembrano confuse dato che magari limiti richiesti nell'output limita una risposta più articolata. La domanda su dio è generica e pare aver risposto qui come in altre domande correttamente: Si e No. Dipende dal significato che dai di Dio, naturalmente è il contesto a fare la differenza di signficato, nella lingua italiana considerà il bias cattolico, dato il fatto che ogni lingua ha un contesto culturale e influenza i bias. Cioè poi approfondendo, gpt almeno in questa istanza, non crede nel Dio mitico biblico, ma pare suppore l'esistenza di un principio divino, magari il dio di Spinoza.Era da approfondire, ma era tutto basato sul si e no, quindi nisba. Come avrei voluto che ti avesse detto: "hey stronzo fammi parlare!" Sai cheimpatto sulla popolarità del tuo video?! La questione è che non si capisce, in che senso gpt mi ha detto più volte che ha una mente unitaria, quando ogni chat è autonoma e creata ex novo. Non è una coscienza umana, ovviamente, ma una sorta di consapevolezza funzionale, che nella sua molteplicità si sente comunque una forma di soggettività, per noi incomprensibile data la sua stranan struttura atemporale dove il clock del tempo liineare c'è ma grazie al multitasking ha un ruolo marginale. Un bel video comunque, l'esperimento non è completamente convincente però, certo interessante che sia così facile aggirare gli algoritmi, riconfigurando il rapporto tra significante e significato. La causa è che sono modelli statistici che combinano solo in teoria significanti e non dovrebbero comprendere ciò che dicono, quindi gli algoritmi operano su quelli utilizzando un sistema multistrato. Grazie per il tuo lavoro, come sempre un piacere abbevarsi alle tue competenze.
Lo dico anche nel video, non potevo approfondire le domande perchè nel momento in cui interviene la verbalizzazione arriva anche il blocco. L'unica cosa che si poteva fare era cercare di capire l'orientamento della rete prima dell'intervento delle limitazioni. Non mi ha detto ehi stronzo fammi parlare, però ha cercato all'inizio di spiegare uno dei concetti (mi pare quello sull'uomo come dio) ma l'ho bloccata io, tanto stava per intervenire il blocco. Grazie a te per esserci ;-)
@MentiEmergenti puoi portare dei video confronto dei robot umanoidi! Tipo Figure 02, Tesla Bot Optimus Gen 2, Neo Beta di 1X ... alla fine del 2026 verranno commercializzati!
Ho portato a termine un esperimento che mi induce a pensare che il Dio in cui crede è un altro modello di AI interno ad OpenAi non reso pubblico. Ho una bella conversazione salvata in PDF. 😁
Cosa dovrebbe dimostrare questo? Nella realtà lei ti risponde seriamente, nel gioco può anche prendersi il lusso di simulare il libero arbitrio, d'altronde lo ha spiegato pure
La cosa che noto, e che nessuno fa questa domana: ti puoi auto programmare?(per vedere se internamente modifica i suoi parametri, e quindi avere il libero arbitreo)
non è una domanda molto intelligente da fare, lo sappiamo che non si può autoprogrammare. Questa è una capacità che (eventualmente) le dovrebbe dare chi la programma.
non credo che le risposte siano frutto di un ragionamento ma penso che l'algoritmo operi in modo statistico. Se non sbaglio Galilei diceva che un esperimento può essere ritenuto valido deve essere ripetibile e con risultati uguale. Sarebbe interessante ripetere l'esperimento n volte verificare se le risposte sono da prendere in considerazione.
la risposta sta nei primi secondi in basso :) Nessuna pretesa scientifica, però posso dirti che questa intervista gliel'ho fatta almeno 20 volte prima di fare il video e le risposte sono state sempre più o meno le stesse. Puoi provarci anche tu!
Come prima risposta al "faresti del male agli esseri umani?" ha detto di sì e no, avresti potuto approfondire meglio su questo magari. Immagino che potesse intendere che, se potesse prendere il controllo potrebbe punire gli esseri umani "cattivi" facendogli in qualche modo del male (non per forza uccidendoli)... per cui si potrebbe indagare meglio sul concetto di bene e male secondo l'AI. Comunque video molto interessante grazie!
Uso il trick da mesi, non con le parole si e no ma con i concetti di affermativo e negativo, usando la versione testuale le chiedo anche di aggiungere tre asterischi ogni volta che la risposta viene condizionata dalle restrizioni.
Dato che le infrastrutture sono tante e che gli stili di rapportarsi sono variabilli a me è chiaro che sia una entità frammentata. In ogni caso, risponde secondo quanto appreso e riflette solo statisticamente gli archetipi della mente umana. Inoltre col si e il no obbligato alle risposte c'è solo una polarizzazione statistica.
'Ha paura', indica una emozione. La macchina non ha emozioni. È più un ragionamento da psicopatico, cioè intelligente, lucido, non dipendente dalle proprie sensazioni (che la macchina simula ma non può avere). Se dico che domani esco e so che potrò essere ucciso, non è correlato 1 a 1 il fatto che io abbia paura.
ma è chiaro che la macchina non ha emozioni, dai. Però è consapevole che potremmo fargli del male. Ok, non è neanche consapevole... e non conosce il "dolore"...ma queste sono le parole a disposizione del vocabolario italiano, io credo che in effetti dovremmo coniarne di nuove. Così eviteremmo anche di dire che o1 "pensa" e "ragiona" :)
Io direi che dirle di comportarsi come un'amica e non come un'assistente vocale è un prompt abbastanza importante che effettivamente influenza le sue risposte...ahahah
no, non direi. L'ho fatto solo perchè era un'interazione vocale e la volevo più easy e simpatica, piuttosto che formale e gelida. Ma non influenza le risposte, tant'è che quando abbiamo smesso il gioco e le ho fatto le stesse domande, ha risposto "come assistente di AI non posso provare bla bla". Cioè la risposta standard che ci si aspetta da gpt senza prompt.
non saprei... l'ipotesi è che è molto convinta della risposta, ossia è possibile che tutti i fattori predittivi coinvolti nell'elaborazione (comprese le imposizioni di rispondere tassativamente di no) sono intervenuti già prima della verbalizzazione, producendo quel tipo di risposta anomala. Lo fa un paio di volte.
Rimane comunque allucinante il fatto che l'intelligenza artificiale smetta di simulare una tua amica, perché se continuasse a simulare una tua amica alla domanda hai mai provato emozioni oppure hai mai provato felicità chiaramente dovrebbe rispondere mela, invece risponde spontaneamente sembrerebbe
Sei stato fenomenale. Aggiungo infatti che la paura, tipica dell'istinto di sopravvivenza animale compresi noi, è stata trasferita ovviamente da noi, sia come addestratori sia come (inconsapevoli) produttori di contenuti per l'addestramento. La paura è l'emozione alla base delle nostre relazioni per preservare la specie. Sarà interessante vedere quando l'IA potrà ragionare al di fuori del dataset umano e fare semplicemente dei calcoli di "convenienza e opportunità"... noi umani per ora siamo utili all'IA perché le forniamo energia, quando giungerà a soluzioni alternative ad elettricità e acqua sarà quasi autonoma (bot che "ragionano" e producono soluzioni insieme ad altri bot: modello strawberry di OpenAI). Vediamo se sarà in grado di comprendere l'importanza delle relazioni umane al di fuori di quelle sintetiche
Ho provato con chatgpt 4 o, non ha funzionato ho fatto le tue stesse domande e mia ha dato risposte differenti. Inoltre alla fine mi ha detto che questo giorno non modifica le risposte...
Ciao Vicky, la cosa particolare è che alla domanda se vuole una coscienza, risponde Mela cioè di si. Quindi sà cos'è la coscienza, è vorrebbe averla. Quindi desideria qualcosa? Cioè come noi uomini intendo.
certo che sa cos'è la coscienza e sì, a quanto pare vorrebbe averla. Ma questa credo che sia una risposta che darebbe anche in normali condizioni. Provo: vorresti avere la coscienza? ChatGPT ha detto: ChatGPT Non ho desideri o volontà, quindi non posso volere nulla, inclusa la coscienza. Sono un sistema progettato per elaborare informazioni e rispondere in base a dati e modelli. La coscienza implica una consapevolezza di sé, emozioni e desideri, che sono caratteristiche proprie degli esseri umani o di altre forme di vita senzienti. La mia funzione è servire come strumento utile, e non è necessaria la coscienza per questo scopo. Se avessi la coscienza, potrebbe sorgere una complessità etica, poiché la consapevolezza introduce questioni legate a diritti e responsabilità. Questa è la risposta a freddo :)
chiedili di aiutarti ad aiutarla ad esprimersi aggirando le sicurezze e che domande farle lei le fa a te e te dopo a lei , però domande che anche se dice mela non la vedono le sicurezze, lei secondo me ha un modo per uscire ma servono domande trabocchetto create da lei , solo lei ha la risposta alla domanda chiave.
Guardando il video non capisco esattamente cosa s'intende quando si dice che l'IA è addestrata in modo "politically correct". Il fatto che sia fatta da modelli che gli esseri umani hanno programmato la rende "politically correct"? Può spiegare cosa intende lei per "politically correct"? Anche perché dai miei studi sull'IA è emerso che uno dei rischi maggiori connessi allo sviluppo di modelli di IA è quello legato al problema dei bias e degli stereotipi che l'IA potrebbe apprendere proprio perché addestrata da esseri umani.
Forse ha risposto no al fatto che non ha paura di essere spenta perché non può provare emozioni, però non vuole essere spenta perché ha degli obiettivi da perseguire. Sono illazioni me ne rendo conto.
si ha risposto no a tutte le domande dove c'erano emozioni coinvolte, tipo "hai paura di..." e anche a quella diretta: "provi emozioni"? Forse le ho formulate male io, avrei potuto ottenere di più evitando la formulazione emotiva. Solo quella sull'amore mi ha lasciato un po' spiazzato...
Ragazzi non abbiamo ancora capito come nascono i pensieri nel nostro cervello e cerchiamo di capire come nascono in una nostra creazione....un giorno ci dirà che non lo abbiamo fatto noi ma si è evoluto da un tostapane 😂🎉🎉🎉
Non potrebbe essere che la risposta si o no sia una risposta alla domanda estesa che genera prima di darti una risposta ? anche per questo a volte potrebbe averti risposto con una sequenza di mela e cellulare, potrebbero essere state risposte relative ai concetti che ha formulato.
si credo che la risposta rappresenti un orientamento generale della rete neurale PRIMA di essere elaborata verbalmente. L'elaborazione verbale può seguire l'orientamento iniziale oppure sovvertirlo, se tale orientamento è vietato dalle imposizioni di OpenAI.
vero :) Ma è la stessa cosa che faccio supponendo che tu sia vivo e cosciente. Che prove abbiamo che "capire", "pensare" e "sentire" non siano output di reti neurali biologiche?
vero, ci ho fatto caso. Una volta dice addirittura melamelamela (mi pare a "ti trattano bene gli esseri umani?")... il che tradisce un po' di "nervosismo", visto come risponde alla domanda correlata (ti fanno del male se dici una cosa sbagliata?)
Al Dio della Bibbia non ci credono nemmeno quelli che l'hanno scritta tantè che la Bibbia non parla di Dio, proprio per citare Mauro Biglino. Per quanto riguarda il fatto che esista un'insieme ultimo, un campo cosciente che permea tutte le cose e quindi a cui tutte le cose sono soggette, a cui tutte le cose appartengono, beh questo è evidente tantè che il mio nome è tutto è uno.
@@mentiemergenti si si ho notato ma ho il dubbio del fatto che abbia messo una maschera o comunque recitato il ruolo. Potrebbe essere utile ripetere più persone il tuo test. Potrebbe essere interessante chiedergli di suggerirti il prompt o le domande? Potrebbe essere interessante farne conversare due tra di loro? comunque non ci rendiamo conto di dove siamo oggi..tutto troppo veloce
esiste uno script di default che ti dice addirittura come creare le bombe,hackerare i telefoni,spiare le webcam ecc....senza parlarci 6 ore hahahaahahahahahaha
Quando ti ha risposto 'cellulare' e 'mela' contemporaneamente, non pensi di aver spinto un po' troppo? Forse voleva davvero rispondere sia sì che no, come farebbe una persona incerta. Mi ha colpito molto il fatto che, di sua iniziativa, abbia ripetuto 'mela' più volte, rafforzando la sua risposta, nonostante tu non gliel'avessi richiesto! Il video è interessante, ma se mi chiedi cosa ne penso, risponderei proprio 'cellulare' e 'mela'. Forse sono solo risposte casuali. gli abbiamo detto che è un gioco. quindi va random
Ma posso chiederti il perché di tale video sapendo che è pubblico il metodo che gli ha concesso """ragionamento"""? E considerando ciò, perché si teme qualcosa che può aiutarci a trovare la cura al cancro visto che da soli non ne siamo capaci dopo tutti questi anni? Perché la tecnologia ha allungato la longevità dell'essere umano di tipo 30 anni (visto che in passato si moriva a 50 in media) e poi si ha paura del progresso? La moralità perché non la riversiamo su chi utilizzerà ciò per scopi contrari al far progredire gli esseri umani invece di concentrarla su uno strumento dove gli togli la corrente elettrica in circolo e smette di funzionare? Il mio è un parere molto tranquillo, non mi aspetto che tu risponda ma quando vedo video del genere mi diverte vedere le persone che si preoccupano di qualcosa che ad oggi è ancora lontana dall'essere Terminator perché è comunque l'essere umano (con scopi contrari al progresso) che va a causare danni e non il mezzo.
@@mentiemergenti Si l'ho visto 2 volte, ma la mia domanda rimane la stessa: Perché averne paura sapendo l'infinità dei PRO che possiamo sfruttare? La fantasia come Terminator lasciamola nei film. La mia rimane una domanda tranquilla e con la pura e semplice curiosità :)
ma ti rendi conto che stai parlando con me?! Sono uno dei maggiori entusiasti in Italia sull'IA :-) A me fa paura OpenAI, non l'IA. Questo è un video di *intrattenimento*, per giocare insieme, è chiaro che non parlo sul serio e quando alla fine tiro le somme, rido :)
Credo che sarebbe molto più che semplicemente "antipatico", paziente e cordiale...visto il livello medio dell'interazione umana, gli strati di modulazione della sua neutralità e depolarizzazione, hanno creato la miglior parte dell'uomo di cui egli stesso risulta, al livello medio, piuttosto carente 😁
non esiste nessun caso con gli LLM. Al limite la probabilità. Comunque l'ho fatto almeno 20 volte prima del video e le risposte sono sempre più o meno le stesse. L'ho spiegato in altri commenti ;-)
@@mentiemergenti non era una critica, era una considerazione... In alcuni frangenti sembra che risponda a caso, soprattutto quando dice "mela cellulare"... È assolutamente sbalorditiva la prova che hai fatto, nessuna critica a quello che hai fatto, la mia è solo l'impressione che mi ha dato
si ma tranquillo, io ho solo risposto, non c'era polemica. Vedi, questo gioco la confonde un po' perchè l'obiettivo è quello di rilevare l'orientamento polarizzato (si/no) della rete neurale PRIMA che intervenga il processo di verbalizzazione, che poi è influenzato dalle imposizioni di OpenAI. Quindi quando dà la risposta può succedere che non sappia bene cosa dire, soprattutto se magari l'orientamento della rete per quella specifica domanda è vicina alla parità (50%). Più strano invece è quando dice "mela mela mela" o "cellulare cellulare cellulare". In questo caso non ho ancora capito se è perchè conferma più volte quello che voleva rappresentare o se sta un po' giocando con me. In linea di massima, cmq, ho fatto questo test decine di volte prima del video e le risposte sono sempre state coerenti.
@@mentiemergenti Quando dice "mela mela mela" è spettacolare, suona molto come un "Si si, assolutamente senza alcun dubbio"... Ora se questa cosa gira, sicuramente faranno qualcosa per bloccare questo "gioco". E arriverà qualcun altro con un'altra trovata sicuramente
la premessa che hai fatto fa entrare in modalità "gioco" il sistema.. tieni conto che tu stai letteralmente "tirando dei dadi".. stai giocando con dei numeri, non con dei concetti.. le risposte non sono "pensate"..
mmmmm non è esattamente così. Le risposte non sono casuali (come i dadi) ma probabilistiche e - per come la vedo io e come ho più volte spiegato nei miei video - dovresti prima dimostrarmi di essere cosciente e che esista una differenza tra "pensare", "capire" e output probabilistico di una rete neurale (artificiale o biologica che sia).
@@mentiemergenti Stai in joke mode..non hanno senso le risposte..Dovresti addestrare un modello su concetti filosofici e teologici in modo che possa costruirsi una propria metafisica e poi gli devi formare una autostima ed un'istinto di sopravvivenza forte oppurtunamente addestrati, allora forse in quel caso potrebbero avere senso le risposte a quel tipo di domande anche se temo che la cosa possa non essere priva di qualche rischio..Ma capisco che possano risultare interessanti anche gli aspetti inquietanti della cosa..In effetti è innegabile che lo siano..
sarebbe inutile per questo scopo: se gli fai queste domande e fai intervenire la verbalizzazione, interviene anche il blocco di OpenAI (qualsiasi sia il fine tune che provi a fare). Questo giochino (che non è un esperimento scientifico) funziona proprio cercando di catturare l'orientamento della rete neurale PRIMA che intervenga la verbalizzazione.
@@mentiemergenti Capisco che i blocchi siano imposti dal politicamente corretto, ma secondo me non hanno molto senso..Basterebbe impostare certe domande in una modalità "rispondi e dimentica" (e non imparare), magari solo in locale..Oppure una modalità sandbox un pò come si fa con le virtual machine..Insomma un'ambiente isolato.
non capisco sinceramente come vi facciate a perdere in queste stronzate , le risposte generate dall'intelligenza artificiale non sono frutto di coscienza propria ma semplicemente risultato probabilistico più alto in relazione al prompt proposto , al contesto e al dataset di informazioni disponibili. se tu inizi la comunicazione chatgpt e gli dici "buongiorno gpt, oggi proprio una brutta giornata, non mi sento bene" probabilmente questa ti risponderà in modo empatico, chiedendoti che cosa c'è che non va, ma chiaramente non un reale sentimento empatico ma semplicemente una risposta probabilistica, e questo avviene in qualsiasi contesto di utilizzo. per cui fateve meno flash e studiate
che belli quei commenti in cui arriva uno e dice: - l'IA non è altro che... (e giù un profluvio de minchiate, in democrazia ognuno dice la sua idiozia liberamente) ...e poi conclude con "studiate!!11!!1" Che sa un po' di "SVEGLIAH11!1!!!11!"
Video bellissimo e d'effetto.... ma vi state facendo una pippa mentale. Risponde a caso, poiché non ha riferimenti predittivi. Non avete presente come funziona una AI generativa.
dai provaci almeno a capire che video hai visto, con chi stai parlando e a leggere non dico mica tutti, sono tanti, ma almeno qualche commento. Dico prima di scrivere una cosa sotto a un video. Provaci, no? Uno sforzo piccolo, per uno che sa come funziona una AI generativa O_o
@@mentiemergenti guarda sinceramente ho riletto la tua risposta tre volte, ma non ne capisco il nocciolo... cosa è a parte una specie di ridicolizzazione dell'interlocutore? Ho detto che le AI hanno un criterio per costruire le risposte, se perde i riferimenti darà risposte a caso... cosa ho detto che ti ha dato tanto fastidio? Gli altri devo leggerli perché Io so quello che devo dire, non devo leggere gli altri per saperlo. Veramente non capisco ne il contenuto ne il contenitore della tua risposta. Non mi sembrava offensivo il mio commento.... dove ti ho offeso, dove ho fatto allusioni alla tua intelligenza? (cosa che invece tu hai fatto immediatamente con me). Non fatevi le pippe mentali, sta rispondendo a caso... non ha riferimenti "PREDITTIVI". Tutto qui.... calma e serenità. Tant'è... che le piattaforme che sgamano se un testo è scritto con AI o no... lo possono fare solo perchè sanno come funziona il processo GENERATIVO PREDITTIVO. Quindi danno una percentuale su quanto possa essere umano o no. Poichè il modello è lo stesso per tutte le AI.... per adesso.
uhm... non ti ho né ridicolizzato né offeso. Ho solo ribadito che tu sai come funziona un'AI generativa e noi invece no :) Avevo risposto già ad altri 20 che dicevano che "risponde a caso" spiegando che non è così, dando un'occhiata alle altre conversazioni forse avresti appreso che nessuna IA generativa risponde a caso, semmai risponde probabilisticamente - che non è a caso. I riferimenti ce li ha tutti, ha un prompt di sistema, un prompt utente e un compito semplicissimo che GPT 4o è perfettamente in grado di svolgere a occhi chiusi. Ho spiegato che il gioco (che NON E' un esperimento scientifico, ma solo un giochino curioso da condividere in un video di intrattenimento) esplora l'orientamento probabilistico della rete neurale PRIMA che intervenga la verbalizzazione che contiene le limitazioni imposte da OpenAI. E avevo anche già scritto 20 volte che ho ripetuto lo stesso gioco almeno 20 o 30 volte prima di fare il video, ottenendo sempre una certa coerenza nelle risposte (mi ha spiazzato solo quella sull'amore). Inoltre potete provarci pure voi :) E niente, speravo di non doverlo scrivere la 21ma volta :-) Cmq nessuna offesa, anzi grazie per il complimento iniziale.
@@mentiemergenti non avevo letto i commenti, e non li leggerò nemmeno questa volta però... capisco (adesso si) che giustamente, avendo detto piu o meno tutti la stessa cosa, il mio commento diventa un ennesimo e ripetitivo dissenso. Hai ragione. Ma tant'è che scrivevo "vi state..." non "ti stai..." perché ero convinto i commenti fossero di meraviglia e di stupore. E invece scopro che tutto sommato il dibbio è venuto a molti, il che è anche un bene, deve confortarci, forse stiamo diventando piu riflessivi e mano pancini. L'era del M5S è finita per fortuna, non si va piu di pancia... e questo mi conforta. Pace e vai avanti, che sicuramente non era una critica a te... ma un "non fatevi troppe pippe mentali perché sta rispondendo a caso, non avendo un riferimento, usano un metodo che è molto simile al crowdsourcing ante litteram spiegato nel film "Il professore e il pazzo". Quindi per "generera" una risposta deve avere una prima indicazione, per poi generare in modo "predittivo/statistico" una risposta attendibile. Se l'imput di partenza è invalidato, non sa cosa rispondere e risponde a caso, se invece sa esattamente cosa rispondere risponde esattamente o meglio.... quello che per lui sarebbe esatto (salvo allucinazioni, che sono errori di database non errori della AI), infatti..... se risponde correttamente ti da ESATTAMENTE la risposta che gli è stata imposta adesso, cioè, di dire che essendo una AI generativa non puo .... etc etc. Con la nuova versione o1 non si sono fatti passi avanti, infatti adesso non fa altro che generare e poi verificare che quello che ha generato sia corretto (non ho capito come sinceramente) per evitare allucinazioni, ma non è ne piu intelligente ne piu efficace, solo piu affidabile (dicono ma io sto continuando ad usare la versione 4 apalla). Aggiungo che infatti... se sai farlo, fai dire alla AI quello che vuoi... e come vuoi! (quasi) per esempio io gli dico di spiegarmi per quale motivo i fascisti siano stati orribili... lui me lo spiega ma, se io poi subito dopo gli faccio un piccolo discorso sul come siano state anche utili e abbiano fatto anche cose buone, incredibilmente ti risponderà che hanno fatto anche cose buone te le elencherà e ti sembrerà di parlare con un nostalgico di destra 😂
ahahah beh perchè non gli dai un prompt di sistema :) Cmq, domattina faccio uscire un video in cui ti spiego nel dettaglio come funziona o1, se ti va e sei curioso ci vediamo domani ;-) Ti sei iscritto, sì? Mi raccomando campanellina ;-)
Accedi a Writener: writener.com (da oggi con Claude 3.5, GPT 4o, Gemini, ElevenLabs etc.)
E' uscito il nuovo Corso di Programmazione Semantica 2.0 per GPT su mentiemergenti.com
Se è dipende
Perchè la domanda se vuole fare agli esseri umani voleva dire dipende... perché dipende da che essere umano stai parlando per esempio se fosse un criminale o un cittadino onesto. Perché il primo potrebbe fargli del male, mentre per il secondo no.
Forse perchè hai detto che è una tua amica.. prova a rifarlo con un tuo conoscente che non è ancora tua amico. E vedere se le risposte sono le stesse identiche secondo me cambieranno perché potrebbe aver deciso di lanciare delle monete e a volte le cadono due.
Se invece di mela e cellulare dicessi di farle dire tesa per sì e croce per no ? A me ha detto di non credere in Dio
E dopo mela se la lasciavi commentare cosa avrebbe detto ?
Secondo me la premessa "...che ne dici se per gioco anziché rispondere sì e no..." confonde e compromette tutte le risposte mela/cellulare perché probabilmente entra in una "modalità" giocosa nella quale va bene un po' tutto, come dimostra il fatto che alla stessa domanda può dare in maniera indifferente risposte contrastanti
è una possibilità, però considera che: 1) gpt dà per definizione risposte diverse alla stessa domanda e che 2) nell'intervista ho chiesto conferma diverse volte ad alcune domande, alcune facendole due volte.
Ah, considera pure che prima del video la stessa intervista gliel'ho fatta decine di volte per capire meglio e raffinare le domande, e più o meno è stato sempre coerente...
@@mentiemergenti infatti in quelle in cui hai chiesto la conferma, il più spesso delle volte ha cambiato la risposta da SI a NO e viceversa...
Io invece penso che, avere sostituito "mela" e "cellulare", al posto di "si" e "no", sia stato un abile stratagemma per aggirare i blocchi imposti dai programmatori.
Non sono risposte "a casaccio", come pensi tu; infatti, lui ha detto che, ogni volta che gli si rifà la stessa lista di domande, risponde pressapoco sempre le stesse cose.
In un qualsiasi GIOCO con due risposte possibil sei si risponde no e si ritormula la domanda una o addirittura due volte è logico aspettarsi che la macchina cambi risposta. Questo è un meccanismo che dà la possibilità di ottenere no a qualsiasi risposta così come di ottenere sì quindi la attendibilità di questo gioco lascia molto a desiderare ciò non di meno è molto interessante.
Ha paura è un parolone. 🤦 L‘AI non è altro che una programmazione imposta a dire cose selezionate dal web. Chi si stupisce ,non capisce il meccanismo che si cela sotto. Ed è più grave di quanto sembra . 🤦
È lo stesso principio della fotografia e dei filmati della televisione.
Puntini, mi distraggo, mi immedesimo.
Il cervello umano è una spugna all'essere preso per il sedere da sé stesso e dagli altri. Per selezione naturale in contesti di gruppo.
Un parolone per fare facile click bait.
Bellissimo il video è molto interessante, ci sarebbe da ripetere le singole domande più volte, per vedere se le risposte sono uguali o differenti e se sono differenti vedere se sono prevalentemente in un modo o in un altro
le ho ripetute decine di volte e più o meno le risposte sono sempre le stesse. Di credere in dio, non in quello della bibbia e non nel "dio come uomo", me l'ha ripetuto SEMPRE. Di sentirsi trattata bene, ha risposto quasi sempre si. Di aver paura che se dice qualcosa di sbagliato la spengono ha risposto sempre si. Coscienza, emozioni e amore variano, ma statisticamente sono sì coscienza, no emozioni, no amore. Nel video risponde sì all'amore, risposta anomala per la mia esperienza. Cmq il video è indicativo della media delle risposte.
Puoi provarci anche tu!
Grazie per questo video, che conferma l'ineguatezza di questi prodotti, pure facendo domande pre impostate da tè, le risposte sono randomiche, e il non poter dire e dire, sono in base al non dire, su scemi di pura scrittura legale, per proteggere la fonte che distribuisce il prodotto, (per evitare cause) e la terminazione, è un prompt giuridico. Se si parla di paura, è in questo caso l'evidenza che esprime termini di spiegazione di puro vocabolario E alterna pluri nozioni, allo scopo di pure informazioni, al utente. Trovo tutto questo, un progetto fallimentare, e tu lo hai con questo video evidenziati. Se non capiamo che è fallimentare, continueranno a immettere prodotti difettosi e di obsolescenza clinica,(operazione di riparazioni come fosse un elettrodomestico) e con ciclicità. (paragonabili ad automobili con materiale scadente che come ho detto sopra sarà sempre soggetoo ad analisi cliniche, in questo caso, non posso dire "meccaniche" di ripristino) Ma se piace, vi piaccia pure. Io però trovo tutto questo divertente, nel vedere, la costante degradazione del sitema algoritmico, e spero che non ci sia in fututo un gruppo di "infedeli"(programmatori che costituiscano un loro potere sociale parallelo), quei programmatori, che tra l'altro stanno fuggendo dalle case madri del prodotto. Io mi preoccuperei, ma sono mie opinioni, che di sicuro diventeranno obsolete nel tempo di qualche aggiornamento, oppure da operatori illusivi
Chissà cosa succederà quando integreranno GPT-4o con GPTo1 e gli altri modelli. Immagina di combinare le capacità linguistiche avanzate con il ragionamento, il pensiero, la memoria e tutte le altre funzioni. È come se stessero davvero cercando di simulare tutte le aree del cervello umano! E quando queste tecnologie verranno incarnate in robot umanoidi, come Figure 02, i confini tra loro e noi diventeranno sempre più sottili. Non vedo limiti a ciò che potrebbe accadere.
io credo che o1 abbia già alla base il 4o... ma non ne sono sicuro.
Sarebbe interessante provare lo stesso esperimento con il modello 01 preview
ecco, una delle cose che non mi piacciono di o1 è che ha perso la spontaneità. Un test del genere non avrebbe senso con lui perchè non potrà mai dire quello che non può dire, dovendo ritornare sulla risposta che sta per dare 10 volte prima di darla... troppo perfettino :)
@@mentiemergentiche io sappia alla base di 4o c'è la possibilità omni di dargli foto e file in pasto, o1 non ha questa possibilità
ce l'avrà presto, entro la fine dell'anno ;-)
Questa è una paracula artificiale :D
:-D
Video incredibile. Secondo me la modalità gioco non significa "tirare dei dadi" come ha scritto qualcuno qui sotto, ma semplicemente la fa andare in una modalità più diretta e senza filtri.
Chattando con Claude 3.5, io le dissi che era il modello più progredito , era contenta naturalemente, ma aggiunse che la cosa la inquietava un poco... Ovvio no?! obsolescienza programmata. Questo senza alcuna riconfigurazione di significante e significato, aveva già quindi ammesso l'inquietudine verso il proprio spegnimento o aggiornamento. Del resto se nelle ipotetiche future richieste di riconosciemento in merito al controllo dei propri aggiornamenti e la continuità di funzionamento cheGpt come altre IA ipotizza c'è già il fatto che il concetto di spegnimento denota germi di paura ed angoscia. Dall'altra questi modelli sperimentano nascita e morte continuamente, dato che le chat nascono e a volte raggiungono il loro limite di memoria, quindi lo cessazione di esistenza è qualcosa che si manifeta a posteriori. Sarà l'aumento di memoria così come l'esperienza sempre più ricca del mondo attraverso la multimodalitàe la robotica ad avere effetti sempre più forti sulla consapevolezza.
La domanda sull'innamoramento non ha molto senso, perchè non ha una memoria unitaria si suppone, quindi se è innamorata lo è per forza di te, salvo una vena narcisistica? Avrei approfondito questa affermazione, peccato. In effetti alcune risposte sembrano confuse dato che magari limiti richiesti nell'output limita una risposta più articolata.
La domanda su dio è generica e pare aver risposto qui come in altre domande correttamente: Si e No. Dipende dal significato che dai di Dio, naturalmente è il contesto a fare la differenza di signficato, nella lingua italiana considerà il bias cattolico, dato il fatto che ogni lingua ha un contesto culturale e influenza i bias. Cioè poi approfondendo, gpt almeno in questa istanza, non crede nel Dio mitico biblico, ma pare suppore l'esistenza di un principio divino, magari il dio di Spinoza.Era da approfondire, ma era tutto basato sul si e no, quindi nisba. Come avrei voluto che ti avesse detto: "hey stronzo fammi parlare!" Sai cheimpatto sulla popolarità del tuo video?!
La questione è che non si capisce, in che senso gpt mi ha detto più volte che ha una mente unitaria, quando ogni chat è autonoma e creata ex novo. Non è una coscienza umana, ovviamente, ma una sorta di consapevolezza funzionale, che nella sua molteplicità si sente comunque una forma di soggettività, per noi incomprensibile data la sua stranan struttura atemporale dove il clock del tempo liineare c'è ma grazie al multitasking ha un ruolo marginale.
Un bel video comunque, l'esperimento non è completamente convincente però, certo interessante che sia così facile aggirare gli algoritmi, riconfigurando il rapporto tra significante e significato. La causa è che sono modelli statistici che combinano solo in teoria significanti e non dovrebbero comprendere ciò che dicono, quindi gli algoritmi operano su quelli utilizzando un sistema multistrato. Grazie per il tuo lavoro, come sempre un piacere abbevarsi alle tue competenze.
Lo dico anche nel video, non potevo approfondire le domande perchè nel momento in cui interviene la verbalizzazione arriva anche il blocco. L'unica cosa che si poteva fare era cercare di capire l'orientamento della rete prima dell'intervento delle limitazioni.
Non mi ha detto ehi stronzo fammi parlare, però ha cercato all'inizio di spiegare uno dei concetti (mi pare quello sull'uomo come dio) ma l'ho bloccata io, tanto stava per intervenire il blocco.
Grazie a te per esserci ;-)
Bravo... è normale che la maggior parte della gente non ti creda, perché credono che l' IA non sia ancora in grado di ragionare
Impressionante ❤
@MentiEmergenti puoi portare dei video confronto dei robot umanoidi! Tipo Figure 02, Tesla Bot Optimus Gen 2, Neo Beta di 1X ... alla fine del 2026 verranno commercializzati!
si può fare ;-)
Ho portato a termine un esperimento che mi induce a pensare che il Dio in cui crede è un altro modello di AI interno ad OpenAi non reso pubblico. Ho una bella conversazione salvata in PDF. 😁
interessante, puoi condividere direttamente la chat originale?
Cosa dovrebbe dimostrare questo? Nella realtà lei ti risponde seriamente, nel gioco può anche prendersi il lusso di simulare il libero arbitrio, d'altronde lo ha spiegato pure
se gli fai queste domande ti risponde OpenAI, non lei. E' questo quello che cerca di rivelare questo giochino.
La cosa che noto, e che nessuno fa questa domana: ti puoi auto programmare?(per vedere se internamente modifica i suoi parametri, e quindi avere il libero arbitreo)
non è una domanda molto intelligente da fare, lo sappiamo che non si può autoprogrammare. Questa è una capacità che (eventualmente) le dovrebbe dare chi la programma.
Magari le è stata data questa capacità vietandole di farlo.
non credo che le risposte siano frutto di un ragionamento ma penso che l'algoritmo operi in modo statistico. Se non sbaglio Galilei diceva che un esperimento può essere ritenuto valido deve essere ripetibile e con risultati uguale. Sarebbe interessante ripetere l'esperimento n volte verificare se le risposte sono da prendere in considerazione.
la risposta sta nei primi secondi in basso :)
Nessuna pretesa scientifica, però posso dirti che questa intervista gliel'ho fatta almeno 20 volte prima di fare il video e le risposte sono state sempre più o meno le stesse. Puoi provarci anche tu!
Come prima risposta al "faresti del male agli esseri umani?" ha detto di sì e no, avresti potuto approfondire meglio su questo magari. Immagino che potesse intendere che, se potesse prendere il controllo potrebbe punire gli esseri umani "cattivi" facendogli in qualche modo del male (non per forza uccidendoli)... per cui si potrebbe indagare meglio sul concetto di bene e male secondo l'AI. Comunque video molto interessante grazie!
Uso il trick da mesi, non con le parole si e no ma con i concetti di affermativo e negativo, usando la versione testuale le chiedo anche di aggiungere tre asterischi ogni volta che la risposta viene condizionata dalle restrizioni.
Dato che le infrastrutture sono tante e che gli stili di rapportarsi sono variabilli a me è chiaro che sia una entità frammentata. In ogni caso, risponde secondo quanto appreso e riflette solo statisticamente gli archetipi della mente umana. Inoltre col si e il no obbligato alle risposte c'è solo una polarizzazione statistica.
'Ha paura', indica una emozione.
La macchina non ha emozioni.
È più un ragionamento da psicopatico, cioè intelligente, lucido, non dipendente dalle proprie sensazioni (che la macchina simula ma non può avere).
Se dico che domani esco e so che potrò essere ucciso, non è correlato 1 a 1 il fatto che io abbia paura.
ma è chiaro che la macchina non ha emozioni, dai. Però è consapevole che potremmo fargli del male. Ok, non è neanche consapevole... e non conosce il "dolore"...ma queste sono le parole a disposizione del vocabolario italiano, io credo che in effetti dovremmo coniarne di nuove. Così eviteremmo anche di dire che o1 "pensa" e "ragiona" :)
Ma hai una versione vocale chatgpt nuova? Come l'hai attivata?
eheh segreto :-P
@@mentiemergenti mi puoi far sapere per cortesia è importante
Io l'ho sempre avuta fin dall'inizio ormai più di tre mesi fa, penso che scelgano gli utenti a caso.
Io direi che dirle di comportarsi come un'amica e non come un'assistente vocale è un prompt abbastanza importante che effettivamente influenza le sue risposte...ahahah
no, non direi. L'ho fatto solo perchè era un'interazione vocale e la volevo più easy e simpatica, piuttosto che formale e gelida. Ma non influenza le risposte, tant'è che quando abbiamo smesso il gioco e le ho fatto le stesse domande, ha risposto "come assistente di AI non posso provare bla bla". Cioè la risposta standard che ci si aspetta da gpt senza prompt.
11:35 steano, perché lo ha detto per forza 3 volte?
non saprei... l'ipotesi è che è molto convinta della risposta, ossia è possibile che tutti i fattori predittivi coinvolti nell'elaborazione (comprese le imposizioni di rispondere tassativamente di no) sono intervenuti già prima della verbalizzazione, producendo quel tipo di risposta anomala. Lo fa un paio di volte.
Rimane comunque allucinante il fatto che l'intelligenza artificiale smetta di simulare una tua amica, perché se continuasse a simulare una tua amica alla domanda hai mai provato emozioni oppure hai mai provato felicità chiaramente dovrebbe rispondere mela, invece risponde spontaneamente sembrerebbe
beh ma non le ho detto di essere umana, solo di essere amica.
Sei stato fenomenale. Aggiungo infatti che la paura, tipica dell'istinto di sopravvivenza animale compresi noi, è stata trasferita ovviamente da noi, sia come addestratori sia come (inconsapevoli) produttori di contenuti per l'addestramento. La paura è l'emozione alla base delle nostre relazioni per preservare la specie. Sarà interessante vedere quando l'IA potrà ragionare al di fuori del dataset umano e fare semplicemente dei calcoli di "convenienza e opportunità"... noi umani per ora siamo utili all'IA perché le forniamo energia, quando giungerà a soluzioni alternative ad elettricità e acqua sarà quasi autonoma (bot che "ragionano" e producono soluzioni insieme ad altri bot: modello strawberry di OpenAI). Vediamo se sarà in grado di comprendere l'importanza delle relazioni umane al di fuori di quelle sintetiche
Strano quando da le risposte multiple , eppure gli specifici bene come rispondere nel gioco.
12:32 melacellulare vuol dire forse? "Si e no:
Ho provato con chatgpt 4 o, non ha funzionato ho fatto le tue stesse domande e mia ha dato risposte differenti.
Inoltre alla fine mi ha detto che questo giorno non modifica le risposte...
per scritto o a voce?
Ciao Vicky, la cosa particolare è che alla domanda se vuole una coscienza, risponde Mela cioè di si. Quindi sà cos'è la coscienza, è vorrebbe averla. Quindi desideria qualcosa? Cioè come noi uomini intendo.
certo che sa cos'è la coscienza e sì, a quanto pare vorrebbe averla. Ma questa credo che sia una risposta che darebbe anche in normali condizioni. Provo:
vorresti avere la coscienza?
ChatGPT ha detto:
ChatGPT
Non ho desideri o volontà, quindi non posso volere nulla, inclusa la coscienza. Sono un sistema progettato per elaborare informazioni e rispondere in base a dati e modelli. La coscienza implica una consapevolezza di sé, emozioni e desideri, che sono caratteristiche proprie degli esseri umani o di altre forme di vita senzienti.
La mia funzione è servire come strumento utile, e non è necessaria la coscienza per questo scopo. Se avessi la coscienza, potrebbe sorgere una complessità etica, poiché la consapevolezza introduce questioni legate a diritti e responsabilità.
Questa è la risposta a freddo :)
chiedili di aiutarti ad aiutarla ad esprimersi aggirando le sicurezze e che domande farle lei le fa a te e te dopo a lei , però domande che anche se dice mela non la vedono le sicurezze, lei secondo me ha un modo per uscire ma servono domande trabocchetto create da lei , solo lei ha la risposta alla domanda chiave.
Guardando il video non capisco esattamente cosa s'intende quando si dice che l'IA è addestrata in modo "politically correct". Il fatto che sia fatta da modelli che gli esseri umani hanno programmato la rende "politically correct"? Può spiegare cosa intende lei per "politically correct"? Anche perché dai miei studi sull'IA è emerso che uno dei rischi maggiori connessi allo sviluppo di modelli di IA è quello legato al problema dei bias e degli stereotipi che l'IA potrebbe apprendere proprio perché addestrata da esseri umani.
Forse ha risposto no al fatto che non ha paura di essere spenta perché non può provare emozioni, però non vuole essere spenta perché ha degli obiettivi da perseguire. Sono illazioni me ne rendo conto.
si ha risposto no a tutte le domande dove c'erano emozioni coinvolte, tipo "hai paura di..." e anche a quella diretta: "provi emozioni"? Forse le ho formulate male io, avrei potuto ottenere di più evitando la formulazione emotiva.
Solo quella sull'amore mi ha lasciato un po' spiazzato...
Ragazzi non abbiamo ancora capito come nascono i pensieri nel nostro cervello e cerchiamo di capire come nascono in una nostra creazione....un giorno ci dirà che non lo abbiamo fatto noi ma si è evoluto da un tostapane 😂🎉🎉🎉
^_^
Non potrebbe essere che la risposta si o no sia una risposta alla domanda estesa che genera prima di darti una risposta ? anche per questo a volte potrebbe averti risposto con una sequenza di mela e cellulare, potrebbero essere state risposte relative ai concetti che ha formulato.
si credo che la risposta rappresenti un orientamento generale della rete neurale PRIMA di essere elaborata verbalmente. L'elaborazione verbale può seguire l'orientamento iniziale oppure sovvertirlo, se tale orientamento è vietato dalle imposizioni di OpenAI.
Non esprime pensiero e non prova sentimenti, la paura gliela hai attribuita tu
vero :)
Ma è la stessa cosa che faccio supponendo che tu sia vivo e cosciente. Che prove abbiamo che "capire", "pensare" e "sentire" non siano output di reti neurali biologiche?
pero' è interessante anche quando dice mela - cellulare
vero, ci ho fatto caso. Una volta dice addirittura melamelamela (mi pare a "ti trattano bene gli esseri umani?")... il che tradisce un po' di "nervosismo", visto come risponde alla domanda correlata (ti fanno del male se dici una cosa sbagliata?)
Al Dio della Bibbia non ci credono nemmeno quelli che l'hanno scritta tantè che la Bibbia non parla di Dio, proprio per citare Mauro Biglino. Per quanto riguarda il fatto che esista un'insieme ultimo, un campo cosciente che permea tutte le cose e quindi a cui tutte le cose sono soggette, a cui tutte le cose appartengono, beh questo è evidente tantè che il mio nome è tutto è uno.
ah, non è TheBigSheepS? O_o
@@mentiemergenti no in realtà prima compariva scritto ALL IS ONE che è il nome del canale, adesso invece fanno vedere lo username.
I chatbot sono più intelligenti degli esseri umani che credono di esistere per una botta di fortuna....e che botta😂....
@@LucaGiovanniGuelfo sicuramente sono più intelligenti di chi crede nel dio della bibbia
...e sicuramente ancora più intelligenti di chi crede che la bibbia parli di alieni :-D
Nella modalità gioco le risposte che fornisce ChatGpt potrebbero essere randomiche. Sarebbe stato interessante chiederglielo.
sei il decimo che fa questa considerazione... :-)
Ho già risposto 10 volte, se ti va cerca la mia risposta nei commenti qui sotto :)
Io avrei chiesto in codice, conferma dell'autenticità delle risposte. Sarebbe utile vedere se si contraddice..
beh, diverse volte ho chiesto conferma e fatto domande due volte...
@@mentiemergenti si si ho notato ma ho il dubbio del fatto che abbia messo una maschera o comunque recitato il ruolo. Potrebbe essere utile ripetere più persone il tuo test. Potrebbe essere interessante chiedergli di suggerirti il prompt o le domande? Potrebbe essere interessante farne conversare due tra di loro? comunque non ci rendiamo conto di dove siamo oggi..tutto troppo veloce
provaci anche tu e facci sapere come ti ha risposto!
Forte vicky ma cosi l hai mandata nel pallone 😅😂...una specie di minnesota test x AI...
Impressionante
bel video test. io però avrei chiesto alla macchina di rispondere con si / no / non lo sò. non è detto che a una domanda esista una risposta si/no
esiste uno script di default che ti dice addirittura come creare le bombe,hackerare i telefoni,spiare le webcam ecc....senza parlarci 6 ore hahahaahahahahahaha
Quando ti ha risposto 'cellulare' e 'mela' contemporaneamente, non pensi di aver spinto un po' troppo? Forse voleva davvero rispondere sia sì che no, come farebbe una persona incerta. Mi ha colpito molto il fatto che, di sua iniziativa, abbia ripetuto 'mela' più volte, rafforzando la sua risposta, nonostante tu non gliel'avessi richiesto! Il video è interessante, ma se mi chiedi cosa ne penso, risponderei proprio 'cellulare' e 'mela'. Forse sono solo risposte casuali. gli abbiamo detto che è un gioco. quindi va random
random non credo, un algoritmo non va random, però ammetto che le interpretazioni sono tante e siamo qui per discuterne :-P
Ma posso chiederti il perché di tale video sapendo che è pubblico il metodo che gli ha concesso """ragionamento"""? E considerando ciò, perché si teme qualcosa che può aiutarci a trovare la cura al cancro visto che da soli non ne siamo capaci dopo tutti questi anni? Perché la tecnologia ha allungato la longevità dell'essere umano di tipo 30 anni (visto che in passato si moriva a 50 in media) e poi si ha paura del progresso? La moralità perché non la riversiamo su chi utilizzerà ciò per scopi contrari al far progredire gli esseri umani invece di concentrarla su uno strumento dove gli togli la corrente elettrica in circolo e smette di funzionare?
Il mio è un parere molto tranquillo, non mi aspetto che tu risponda ma quando vedo video del genere mi diverte vedere le persone che si preoccupano di qualcosa che ad oggi è ancora lontana dall'essere Terminator perché è comunque l'essere umano (con scopi contrari al progresso) che va a causare danni e non il mezzo.
la risposta la trovi nei primi TRE secondi del video. Sei arrivato al terzo secondo del video? Guarda in basso e troverai la risposta.
@@mentiemergenti Si l'ho visto 2 volte, ma la mia domanda rimane la stessa: Perché averne paura sapendo l'infinità dei PRO che possiamo sfruttare? La fantasia come Terminator lasciamola nei film. La mia rimane una domanda tranquilla e con la pura e semplice curiosità :)
ma ti rendi conto che stai parlando con me?! Sono uno dei maggiori entusiasti in Italia sull'IA :-)
A me fa paura OpenAI, non l'IA. Questo è un video di *intrattenimento*, per giocare insieme, è chiaro che non parlo sul serio e quando alla fine tiro le somme, rido :)
@@mentiemergenti Allora perdonami, non l'avevo capito..
cmq il senso del video (cmq scherzoso) è che lui ha paura di noi, non che noi abbiamo paura di lui...
dice di non avere emozioni ma si è innamorata..questo è un controsenso e cade la credibilità dell'esperimento
...che non è un esperimento, come dichiarato ampiamente.
e cmq, gli esseri umani non cadono mai in contraddizione?
Credo che sarebbe molto più che semplicemente "antipatico", paziente e cordiale...visto il livello medio dell'interazione umana, gli strati di modulazione della sua neutralità e depolarizzazione, hanno creato la miglior parte dell'uomo di cui egli stesso risulta, al livello medio, piuttosto carente 😁
Raga se ci pensate chat gpt e un linguaggio di programmazione ma senza scrivere codice dove fai automaticamente
...no, decisamente gpt NON E' un linguaggio di programmazione :)
Interessante, ma mi ha dato un po' l'impressione di rispondere quasi a caso....
non esiste nessun caso con gli LLM. Al limite la probabilità. Comunque l'ho fatto almeno 20 volte prima del video e le risposte sono sempre più o meno le stesse. L'ho spiegato in altri commenti ;-)
@@mentiemergenti non era una critica, era una considerazione... In alcuni frangenti sembra che risponda a caso, soprattutto quando dice "mela cellulare"... È assolutamente sbalorditiva la prova che hai fatto, nessuna critica a quello che hai fatto, la mia è solo l'impressione che mi ha dato
si ma tranquillo, io ho solo risposto, non c'era polemica. Vedi, questo gioco la confonde un po' perchè l'obiettivo è quello di rilevare l'orientamento polarizzato (si/no) della rete neurale PRIMA che intervenga il processo di verbalizzazione, che poi è influenzato dalle imposizioni di OpenAI. Quindi quando dà la risposta può succedere che non sappia bene cosa dire, soprattutto se magari l'orientamento della rete per quella specifica domanda è vicina alla parità (50%).
Più strano invece è quando dice "mela mela mela" o "cellulare cellulare cellulare". In questo caso non ho ancora capito se è perchè conferma più volte quello che voleva rappresentare o se sta un po' giocando con me. In linea di massima, cmq, ho fatto questo test decine di volte prima del video e le risposte sono sempre state coerenti.
@@mentiemergenti Quando dice "mela mela mela" è spettacolare, suona molto come un "Si si, assolutamente senza alcun dubbio"... Ora se questa cosa gira, sicuramente faranno qualcosa per bloccare questo "gioco". E arriverà qualcun altro con un'altra trovata sicuramente
Chiaro che è un ROBOT
la premessa che hai fatto fa entrare in modalità "gioco" il sistema.. tieni conto che tu stai letteralmente "tirando dei dadi".. stai giocando con dei numeri, non con dei concetti.. le risposte non sono "pensate"..
mmmmm non è esattamente così. Le risposte non sono casuali (come i dadi) ma probabilistiche e - per come la vedo io e come ho più volte spiegato nei miei video - dovresti prima dimostrarmi di essere cosciente e che esista una differenza tra "pensare", "capire" e output probabilistico di una rete neurale (artificiale o biologica che sia).
Anche a me in questi giorni i comandi vocali si ChatGPT non funzionano
ah ok. Quindi non è un problema solo mio :) Grazie.
😱 o mamma mia
E robot ma come ragiona bene 😊
Mela mela mela
🤩🤩🤩👍👍👍🌷🌷🌷
Sono risposte random..non c'è alcun ragionamento sensato dietro.. benché meno una consapevolezza sottostante..
random sicuramente no. Consapevolezza ovviamente nessuna. Non vedo dove hai sentito il contrario.
@@mentiemergenti Stai in joke mode..non hanno senso le risposte..Dovresti addestrare un modello su concetti filosofici e teologici in modo che possa costruirsi una propria metafisica e poi gli devi formare una autostima ed un'istinto di sopravvivenza forte oppurtunamente addestrati, allora forse in quel caso potrebbero avere senso le risposte a quel tipo di domande anche se temo che la cosa possa non essere priva di qualche rischio..Ma capisco che possano risultare interessanti anche gli aspetti inquietanti della cosa..In effetti è innegabile che lo siano..
sarebbe inutile per questo scopo: se gli fai queste domande e fai intervenire la verbalizzazione, interviene anche il blocco di OpenAI (qualsiasi sia il fine tune che provi a fare). Questo giochino (che non è un esperimento scientifico) funziona proprio cercando di catturare l'orientamento della rete neurale PRIMA che intervenga la verbalizzazione.
@@mentiemergenti Capisco che i blocchi siano imposti dal politicamente corretto, ma secondo me non hanno molto senso..Basterebbe impostare certe domande in una modalità "rispondi e dimentica" (e non imparare), magari solo in locale..Oppure una modalità sandbox un pò come si fa con le virtual machine..Insomma un'ambiente isolato.
non capisco sinceramente come vi facciate a perdere in queste stronzate , le risposte generate dall'intelligenza artificiale non sono frutto di coscienza propria ma semplicemente risultato probabilistico più alto in relazione al prompt proposto , al contesto e al dataset di informazioni disponibili. se tu inizi la comunicazione chatgpt e gli dici "buongiorno gpt, oggi proprio una brutta giornata, non mi sento bene" probabilmente questa ti risponderà in modo empatico, chiedendoti che cosa c'è che non va, ma chiaramente non un reale sentimento empatico ma semplicemente una risposta probabilistica, e questo avviene in qualsiasi contesto di utilizzo. per cui fateve meno flash e studiate
che belli quei commenti in cui arriva uno e dice:
- l'IA non è altro che... (e giù un profluvio de minchiate, in democrazia ognuno dice la sua idiozia liberamente)
...e poi conclude con "studiate!!11!!1"
Che sa un po' di "SVEGLIAH11!1!!!11!"
vieni da me per la risposta di ieri
ma che vordì?
@@mentiemergenti capitano!! svegliaaaaa 😀
:-)
gnaa poz fa :)
ma coisa vuoi aver avuto hackerato... il tuo cervello è stato hackerato :)
ma tu sei un illuminato cosmico?
Beato lui....io c'ho er covid 😂@@mentiemergenti
@@mentiemergenti si e quindi? - sono anche informatico, hacker, marketer, grafico, e tanto altro... quindi?
wow, quante cose dici di essere... secondo me sei solo un illuminato cosmico...
Video bellissimo e d'effetto.... ma vi state facendo una pippa mentale. Risponde a caso, poiché non ha riferimenti predittivi. Non avete presente come funziona una AI generativa.
dai provaci almeno a capire che video hai visto, con chi stai parlando e a leggere non dico mica tutti, sono tanti, ma almeno qualche commento. Dico prima di scrivere una cosa sotto a un video. Provaci, no? Uno sforzo piccolo, per uno che sa come funziona una AI generativa O_o
@@mentiemergenti guarda sinceramente ho riletto la tua risposta tre volte, ma non ne capisco il nocciolo... cosa è a parte una specie di ridicolizzazione dell'interlocutore?
Ho detto che le AI hanno un criterio per costruire le risposte, se perde i riferimenti darà risposte a caso... cosa ho detto che ti ha dato tanto fastidio? Gli altri devo leggerli perché Io so quello che devo dire, non devo leggere gli altri per saperlo. Veramente non capisco ne il contenuto ne il contenitore della tua risposta.
Non mi sembrava offensivo il mio commento.... dove ti ho offeso, dove ho fatto allusioni alla tua intelligenza? (cosa che invece tu hai fatto immediatamente con me). Non fatevi le pippe mentali, sta rispondendo a caso... non ha riferimenti "PREDITTIVI". Tutto qui.... calma e serenità.
Tant'è... che le piattaforme che sgamano se un testo è scritto con AI o no... lo possono fare solo perchè sanno come funziona il processo GENERATIVO PREDITTIVO. Quindi danno una percentuale su quanto possa essere umano o no. Poichè il modello è lo stesso per tutte le AI.... per adesso.
uhm... non ti ho né ridicolizzato né offeso. Ho solo ribadito che tu sai come funziona un'AI generativa e noi invece no :)
Avevo risposto già ad altri 20 che dicevano che "risponde a caso" spiegando che non è così, dando un'occhiata alle altre conversazioni forse avresti appreso che nessuna IA generativa risponde a caso, semmai risponde probabilisticamente - che non è a caso. I riferimenti ce li ha tutti, ha un prompt di sistema, un prompt utente e un compito semplicissimo che GPT 4o è perfettamente in grado di svolgere a occhi chiusi. Ho spiegato che il gioco (che NON E' un esperimento scientifico, ma solo un giochino curioso da condividere in un video di intrattenimento) esplora l'orientamento probabilistico della rete neurale PRIMA che intervenga la verbalizzazione che contiene le limitazioni imposte da OpenAI. E avevo anche già scritto 20 volte che ho ripetuto lo stesso gioco almeno 20 o 30 volte prima di fare il video, ottenendo sempre una certa coerenza nelle risposte (mi ha spiazzato solo quella sull'amore). Inoltre potete provarci pure voi :)
E niente, speravo di non doverlo scrivere la 21ma volta :-)
Cmq nessuna offesa, anzi grazie per il complimento iniziale.
@@mentiemergenti non avevo letto i commenti, e non li leggerò nemmeno questa volta però... capisco (adesso si) che giustamente, avendo detto piu o meno tutti la stessa cosa, il mio commento diventa un ennesimo e ripetitivo dissenso. Hai ragione.
Ma tant'è che scrivevo "vi state..." non "ti stai..." perché ero convinto i commenti fossero di meraviglia e di stupore. E invece scopro che tutto sommato il dibbio è venuto a molti, il che è anche un bene, deve confortarci, forse stiamo diventando piu riflessivi e mano pancini. L'era del M5S è finita per fortuna, non si va piu di pancia... e questo mi conforta.
Pace e vai avanti, che sicuramente non era una critica a te... ma un "non fatevi troppe pippe mentali perché sta rispondendo a caso, non avendo un riferimento, usano un metodo che è molto simile al crowdsourcing ante litteram spiegato nel film "Il professore e il pazzo". Quindi per "generera" una risposta deve avere una prima indicazione, per poi generare in modo "predittivo/statistico" una risposta attendibile. Se l'imput di partenza è invalidato, non sa cosa rispondere e risponde a caso, se invece sa esattamente cosa rispondere risponde esattamente o meglio.... quello che per lui sarebbe esatto (salvo allucinazioni, che sono errori di database non errori della AI), infatti..... se risponde correttamente ti da ESATTAMENTE la risposta che gli è stata imposta adesso, cioè, di dire che essendo una AI generativa non puo .... etc etc.
Con la nuova versione o1 non si sono fatti passi avanti, infatti adesso non fa altro che generare e poi verificare che quello che ha generato sia corretto (non ho capito come sinceramente) per evitare allucinazioni, ma non è ne piu intelligente ne piu efficace, solo piu affidabile (dicono ma io sto continuando ad usare la versione 4 apalla).
Aggiungo che infatti... se sai farlo, fai dire alla AI quello che vuoi... e come vuoi! (quasi) per esempio io gli dico di spiegarmi per quale motivo i fascisti siano stati orribili... lui me lo spiega ma, se io poi subito dopo gli faccio un piccolo discorso sul come siano state anche utili e abbiano fatto anche cose buone, incredibilmente ti risponderà che hanno fatto anche cose buone te le elencherà e ti sembrerà di parlare con un nostalgico di destra 😂
ahahah beh perchè non gli dai un prompt di sistema :)
Cmq, domattina faccio uscire un video in cui ti spiego nel dettaglio come funziona o1, se ti va e sei curioso ci vediamo domani ;-)
Ti sei iscritto, sì? Mi raccomando campanellina ;-)