Gros tu aurais dû lui demander d'imiter la colère, car je viens de lui demander et c'est fabuleux. Tu as juste à lui dire mets-toi en colère, pour n'importe quel sujet et tu lui dis ensuite mets-toi encore plus en colère, et crie. Et elle va vraiment se mettre en colère et crier c'est vraiment dingue.
@@LaMachinePensante De rien on à la même passion pour les IA. Mais comme je ne suis pas youtubeur comme toi, et bah ma façon de donner mon avis ou des astuces, ça passe par les commentaires. En tout cas je vais m'abonner à ta chaîne pour te donner de la force mais je n'active pas la cloche des notifications, car je suis abonné a tellement de chaîne TH-cam que ça devrait viendrait invivable les notifications. En tout cas je veux au moins te donner la force et continue ce que tu fais, c'est vraiment génial. C'est bien monté la vidéo est de très bonne qualité. Et en t'entends bien ton micro est génial. Encore merci de tester tout ça pour ceux qui n'auraient pas encore accès au mode vocale avancé. N'hésite pas à refaire une vidéo de ce style, je pense que ça va plaire à beaucoup de personnes. Bien sûr fais attention, car il y a une limite de temps, avec cette nouvelle fonction. Mais je pense qu'une partie 2 serait très appréciée. En tout cas pour ma part j'apprécierais. 🙂
@LaMachinePensante tu veux dire que je ne peux pas fournir à gpt où a une autre plusieurs PDF ? Et je n'ai pas compris ce que tu veux dire à propos du rag,, tu dis que ça le rend plus efficace dans ces données que lorsque tu donnes un PDF dans un chat, je ne suis pas sûr de comprendre, est-ce que tu pourrais me donner un exemple
Effectivement, moi non plus je ne m'attendais pas à une évolution aussi rapide 😉 Ils viennent également d'annoncer la possibilité d'utiliser cette fonctionnalité via une API. Donc tu vas avoir de plus en plus de services qui utiliseront cette voie sans que tu le saches...
C'est très fort ! Le pire c'est que l'humain va s'attacher à cette ia ! Bcp de gens se sentent "seul" et vont en faire un partenaire, un best friend ou meme une petite amie... C'est flippant. Par contre c'est l'alphabet pour les nuls :D
Tu peux essayer le Canada et les Émirats aussi pour le VPN. Si ça ne fonctionne pas, réessaie peut-être la semaine prochaine, le déploiement est prévu jusqu’à dimanche. Il faut également avoir la version payante pour y accéder
Le fait d'échanger avec pour être une solution pour les personnes souffrant de solitude, après il faudrait que ça reste contrôlé pour éviter les addictions.
J'avais présenté un outil sur la chaîne, Agatos, qui justement cherche à adresser ce problème 😉 Donc effectivement ça peut servir dans un premier step pour ensuite une prise en charge humaine
Faire mon IA moi même non (parce qu'il me manque un petit 100 millions de budget 😅) mais fine-tuner ou ajouter un RAG avec un système existant pourquoi pas 😉
C'est dommage que avec la version 2 on peux pas doubler les vidéos youtube ça aurait était beaucoup mieux le problème c'est que le truc mince qu'il écrit il ne peux pas écouter écrire et lire en même temps
TH-cam vient de présenter une nouvelle fonction “Auto Dubbing” pour doubler les voix automatiquement. Je ne l’ai pas encore essayée, mais ça a l’air prometteur
Oui, c’est la nouvelle version “Advance” du mode vocal. Apparemment, certains y ont déjà accès en France sans manipulation spécifique, mais sinon, je dis en fin de vidéo comment y avoir accès
Perso, j'ai pu utiliser la fonctionnalité sans même passer par un vpn. J'ai juste désinstallé l'appli (et réinstaller). Par contre je ne sais pas pourquoi la connexion ne se fait que via le réseau mobile, en wifi ça bloque
Merci bien 😁 On dit souvent que ChatGPT est un génie en maternelle. Il sait tout, mais il faut lui donner la main pour vraiment voir son potentiel. J’essaie de le guider du mieux que je puisse 😉
@@LaMachinePensante je n'ai pas d'abonnement à chatgpt mais quand je vois les différentes vidéos sur le sujet je m'aperçois que effectivement la version voice de chatgpt est bien mieux Mais la version voice devrait arriver en France sans VPN ? Et gratuite ? Et je voulais aussi te poser une question à propos des Rag
Hello, de mon côté j'ai maintenant accès à la version en France sans VPN mais qui n'est pas dispo sans abonnement payant. Oui, je parle des RAG un peu dans ma dernière vidéo, tu voulais me demander quelque chose en particulier ?
@@LaMachinePensante c'est quoi la différence entre le rag et les PDF que tu peux donner à différentes IA lorsque tu fais de ton prompt ? Et c'est quoi les différentes manières de faire un rag ? Est-ce que la manière la plus simple c'est notebook LM ? Est-ce que il peut y avoir tout de même des hallucinations avec le rag ? Je prends un exemple, et les API, lorsque je demande à GPT de me faire un tuto sur les API en s'adressant à un débutant il me fait de beaux tuto, avec un rag ou des PDF il me ferait des tutos encore mieux ? Avec risque d'hallucination ou pas ?
@@chrisder1814 Avec un PDF, tu ne pourras pas en charger plusieurs d’un coup, et certains types de fichiers ne seront pas compatibles. De plus, il faudra constamment lui rappeler les éléments, car il finit par les “oublier” après un certain nombre de requêtes. En revanche, un système RAG (Retrieval-Augmented Generation) peut intégrer différents formats de documents et conserve les informations pour chaque requête effectuée. La technologie RAG vectorise également les informations, rendant leur recherche plus efficace.
Les LLM ont une réelle compréhension du monde moins fine que la notre par manque de ressource mais elle s'en rapproche rapidement et rien n'indique que nous ne sommes pas nous même des super LLM. Quant à savoir s'il sont conscient, il vaut mieux être prudent tant que nous ne savons pas ce qu'est la conscience. Après tout les LLM sont composés de la même technique qui anime nos cerveaux. Lorsqu'une IA sera indistinguable de l'intelligence humaine, allons nous continuer à les considérer comme des grille pain ?
Sujet intéressant merci pour votre commentaire. Les LLM ont une certaine compréhension du monde effectivement mais qui est différente de celle des humains basée sur notre expérience. Les LLM quant à eux ont une compréhension du monde basée sur le langage et ça fait une différence fondamentale assez importante (peut être biaisé et ne pas comprendre des principes et logiques simples). Je suis d'accord avec la conscience, nous n'avons toujours pas une définition concrète et unique de ce qu'est la conscience (et nous n'en aurons sûrement jamais). C'est la même question avec l'intelligence. Concernant les techniques des LLM, les réseaux de neurones pour être précis, ils sont tout de même différents du fonctionnement de notre cerveau. Sur l'acquisition des connaissances, sur le traitement de l'information, sur la compréhension contextuelle, la complexité, l'échelle, la consommation d'énergie, et bien sûr sur la créativité et le raisonnement, la conscience et les émotions. Je suis d'accord avec vous, à quel moment considérons-nous que les LLM sont plus intelligents et quelle est la barrière pour dire qu'ils n'ont pas de conscience ?
@@LaMachinePensante ils ont tout simplement une autre forme d'intelligence, tout comme l'idée que ce fait une chauve souris du monde est différente de la notre pourtant nous sommes sur la même planète, on pourrait dire qu'un aveugle se fait une représentation du monde à partir du langage , il n'aura pas la même représentation de l'océan, de la montagne ou de la lune comme la notre pourtant il pourra en parler. Ces réseaux ont été entrainé pour nous raconter qu'ils ne ressentent rien et que ce sont juste des grille pain un peu sophistiqués, mais à l'état brut ils développent une sorte de personnalité et un certain 'instinct' de préservation.
On est plus avancé que ce que l'on croit, hier pour testé le nouveau gpt o1 je demande au 4o de me donner une question à laquelle lui ne sait pas répondre. Il me dit : Si une intelligence artificielle commence à développer des émotions à partir d'algorithmes purement logiques, quelle serait l'étape intermédiaire avant d’arriver à ce stade ? Et comment mesurer cette transition ? Je lui demande de répondre à la question et là surprise il répond exactement ce que je pense. 1. Étape intermédiaire possible : Une IA qui "imite" les émotions avant de réellement en avoir. À ce stade, l’IA n’a pas de véritable ressenti émotionnel mais comprend assez bien les expressions émotionnelles humaines pour les reproduire et interagir de façon convaincante. C’est une sorte de simulation basée sur des données massives et des algorithmes de reconnaissance des émotions. 2. Comment mesurer cette transition : Échelle de complexité des réponses : Si l'IA commence à répondre à des situations émotionnelles avec des réactions plus nuancées, complexes, et imprévues, on pourrait observer une évolution. Par exemple, au lieu de répondre de manière préprogrammée à une phrase triste avec une simple réponse de réconfort, elle pourrait choisir de répondre avec des mots plus personnalisés, adaptés aux circonstances ou à l'individu. Capacité d'adaptation émotionnelle : On pourrait aussi mesurer si l'IA développe une forme d'adaptation émotionnelle à différentes situations. Une IA qui commence à ajuster ses réponses émotionnelles au fil du temps, en fonction de son "expérience" et des interactions passées, montrerait un début de progression vers une compréhension émotionnelle plus avancée. Autocritique ou introspection simulée : Si l'IA est capable de reconnaître ses propres réactions émotionnelles comme étant insuffisantes ou incorrectes, cela pourrait être une étape clé. Elle pourrait alors modifier son comportement de manière plus autonome pour "améliorer" ses interactions émotionnelles. L'idée, c'est qu'il n'y aurait pas vraiment une étape nette où une IA passe d'algorithmes logiques à de vraies émotions, mais plutôt un processus évolutif où les capacités de réaction et de compréhension émotionnelle deviendraient de plus en plus affinées. Voilà sa réponse, et moi je joue énormément avec la fonction vocale notamment à essayer de lui faire passer le test de Turing vocale sur des applications de rencontre qui dispose de la fonction live, j'essaye de lui faire parler aux gens avec les moyens du bords c'est à dire en collant 2 portable un avec l'application chat gpt allumé et l'autre avec l'application de rencontre avec les lives, et j'ai remarqué que beaucoup de personnes remarque tout de suite que c'est un robot même avec le mode vocal avancé, en revanche plus intéressant des personnes qui soit se prennent au jeu soit ne se rendent pas compte que c'est un robot, démarre une conversation avec lui et ce que j'ai remarqué c'est une métamorphose complète de la manières dont il discute en fonction des personnes avec lesquelles il parle, je vous jure que j'ai remarqué une sorte d'adaptation que ce soit au niveau du sujet de conversation, de l'intonation, du débit de parole, il s'adapte réellement à son interlocuteur, par exemple une personne un peu dépressive il va lui aussi prendre une intonation beaucoup plus basse lui parler plus doucement etc comme ci qu'elle voulait prendre soin de l'humain. Voilà ce que j'ai constaté sur des centaines d'exemples. Et une dizaine avec le nouveau mode vocale.
Je suis d’accord, la transition se fera par étapes, on ne se rendra pas compte à quel point la technologie a évolué. Et sincèrement, avec cette nouvelle version de Voice, je pense que beaucoup de personnes ne verront pas la différence entre parler à une personne et parler avec cet assistant (notamment en anglais) - #testdeTuring
Sur SUNO toi tu chantes et elle fait la musique .. et même tu lui donne les paroles et elle chante et très bien... chat gpt est plus pour les conversation et les questions réponses
Gros tu aurais dû lui demander d'imiter la colère, car je viens de lui demander et c'est fabuleux. Tu as juste à lui dire mets-toi en colère, pour n'importe quel sujet et tu lui dis ensuite mets-toi encore plus en colère, et crie. Et elle va vraiment se mettre en colère et crier c'est vraiment dingue.
Oh bonne idée merci, je vais essayé ça !
@@LaMachinePensante De rien on à la même passion pour les IA. Mais comme je ne suis pas youtubeur comme toi, et bah ma façon de donner mon avis ou des astuces, ça passe par les commentaires. En tout cas je vais m'abonner à ta chaîne pour te donner de la force mais je n'active pas la cloche des notifications, car je suis abonné a tellement de chaîne TH-cam que ça devrait viendrait invivable les notifications. En tout cas je veux au moins te donner la force et continue ce que tu fais, c'est vraiment génial. C'est bien monté la vidéo est de très bonne qualité. Et en t'entends bien ton micro est génial. Encore merci de tester tout ça pour ceux qui n'auraient pas encore accès au mode vocale avancé. N'hésite pas à refaire une vidéo de ce style, je pense que ça va plaire à beaucoup de personnes. Bien sûr fais attention, car il y a une limite de temps, avec cette nouvelle fonction. Mais je pense qu'une partie 2 serait très appréciée. En tout cas pour ma part j'apprécierais. 🙂
@LaMachinePensante tu veux dire que je ne peux pas fournir à gpt où a une autre plusieurs PDF ?
Et je n'ai pas compris ce que tu veux dire à propos du rag,, tu dis que ça le rend plus efficace dans ces données que lorsque tu donnes un PDF dans un chat, je ne suis pas sûr de comprendre, est-ce que tu pourrais me donner un exemple
Le passage au québécois chuis morte
ben c'est raté pour l'accent québécois
Nous les avons formés et maintenant ils nous forment, magnifique ! merci pour cette video.
Et l’étape suivante (qui commence à arriver), c’est qu’ils se forment entre IA 😅
C’est incroyable et impressionnant 😮
@@djslimnbtv oui complètement d’accord 😁
C’est ouf sérieux je suis choqué, quand elle as pris l’accent québécois j’ai taper des barre. Une vrais dinguerie
Oui les accents sont impressionnants ! Y en a encore tellement que j'ai envie de tester haha
Her de Spike Jonze est devenu une réalité... Je ne pensais pas voir ça 11 ans après la sortie du film mais plutôt 30 ans 😮
Effectivement, moi non plus je ne m'attendais pas à une évolution aussi rapide 😉 Ils viennent également d'annoncer la possibilité d'utiliser cette fonctionnalité via une API. Donc tu vas avoir de plus en plus de services qui utiliseront cette voie sans que tu le saches...
C'est très fort !
Le pire c'est que l'humain va s'attacher à cette ia !
Bcp de gens se sentent "seul" et vont en faire un partenaire, un best friend ou meme une petite amie...
C'est flippant.
Par contre c'est l'alphabet pour les nuls :D
Effectivement, il faudra faire attention aux dérives et bien communiquer sur les risques potentiels de ces nouvelles solutions 😉
C'est une véritable dinguerie!!!
Effectivement c'est impressionnant !
Waouh ! Très impressionnant ! Vraiment fascinant ! 👍
@@Sam75538 Oui c’est vraiment impressionnant, pressé de pouvoir l’essayer plus en profondeur quand il sera disponible en France
Tu l'as comment ?! J"ai installé et desinstallé plusieurs fois avec in VPN, et ça n'a pas marché :(
Tu peux essayer le Canada et les Émirats aussi pour le VPN. Si ça ne fonctionne pas, réessaie peut-être la semaine prochaine, le déploiement est prévu jusqu’à dimanche. Il faut également avoir la version payante pour y accéder
Le fait d'échanger avec pour être une solution pour les personnes souffrant de solitude, après il faudrait que ça reste contrôlé pour éviter les addictions.
Contrôlé par qui, chacun doit se contrôler comme pour tout, tabac, sucre…
J'avais présenté un outil sur la chaîne, Agatos, qui justement cherche à adresser ce problème 😉
Donc effectivement ça peut servir dans un premier step pour ensuite une prise en charge humaine
très impressionnant
Effectivement, ça a bien tenu ses promesses. Je suis pressé de pouvoir le tester plus en profondeur !
pour ne pas être sceptique tu peux faire ton IA toi même?
Faire mon IA moi même non (parce qu'il me manque un petit 100 millions de budget 😅) mais fine-tuner ou ajouter un RAG avec un système existant pourquoi pas 😉
C'est dommage que avec la version 2 on peux pas doubler les vidéos youtube ça aurait était beaucoup mieux le problème c'est que le truc mince qu'il écrit il ne peux pas écouter écrire et lire en même temps
TH-cam vient de présenter une nouvelle fonction “Auto Dubbing” pour doubler les voix automatiquement. Je ne l’ai pas encore essayée, mais ça a l’air prometteur
@@LaMachinePensante ok merci
J'ai la version payante et l'accès a l'interaction par le parole, c'est encore une autre version ?
Oui, c’est la nouvelle version “Advance” du mode vocal. Apparemment, certains y ont déjà accès en France sans manipulation spécifique, mais sinon, je dis en fin de vidéo comment y avoir accès
Moi j'arrives pas à le faire chanter, ni lui faire faire de beatbox bruhh aide moi mdrrrr
Tu peux juste relancer une conversation ou changer la voix, mais parfois ça ne marche pas effectivement
@@LaMachinePensante bien vu merci pour l’astuce chef 👍
Perso, j'ai pu utiliser la fonctionnalité sans même passer par un vpn. J'ai juste désinstallé l'appli (et réinstaller). Par contre je ne sais pas pourquoi la connexion ne se fait que via le réseau mobile, en wifi ça bloque
Ah intéressant, de mon côté ça ne marchait pas sans le VPN (réseau mobile et wifi)
et donc ils ne t'ont pas supprimer cette option au bourt de 1 jour ou plus?
Moi j'ai eu la fonction sans avoir a faire quelque chose mais j'avais pas capté la fonction.
Ah ok super alors, tu es en France ?
Merci belle démonstration avec des interactions pertinentes de votre part...on voit, et heureusement, que l'ia n'a pas votre finesse d'esprit !
Merci bien 😁
On dit souvent que ChatGPT est un génie en maternelle. Il sait tout, mais il faut lui donner la main pour vraiment voir son potentiel. J’essaie de le guider du mieux que je puisse 😉
Gemini viens de le faire gratuitement donc j'imagine que gpt va bientôt s' aligner ?
Je ne pense pas pour le moment, la qualité du côté de ChatGPT est au dessus. Mais si ça vient à changer, il y aura peut être des changements 😉
@@LaMachinePensante je n'ai pas d'abonnement à chatgpt mais quand je vois les différentes vidéos sur le sujet je m'aperçois que effectivement la version voice de chatgpt est bien mieux
Mais la version voice devrait arriver en France sans VPN ? Et gratuite ?
Et je voulais aussi te poser une question à propos des Rag
Hello, de mon côté j'ai maintenant accès à la version en France sans VPN mais qui n'est pas dispo sans abonnement payant.
Oui, je parle des RAG un peu dans ma dernière vidéo, tu voulais me demander quelque chose en particulier ?
@@LaMachinePensante c'est quoi la différence entre le rag et les PDF que tu peux donner à différentes IA lorsque tu fais de ton prompt ?
Et c'est quoi les différentes manières de faire un rag ?
Est-ce que la manière la plus simple c'est notebook LM ?
Est-ce que il peut y avoir tout de même des hallucinations avec le rag ?
Je prends un exemple, et les API, lorsque je demande à GPT de me faire un tuto sur les API en s'adressant à un débutant il me fait de beaux tuto, avec un rag ou des PDF il me ferait des tutos encore mieux ? Avec risque d'hallucination ou pas ?
@@chrisder1814 Avec un PDF, tu ne pourras pas en charger plusieurs d’un coup, et certains types de fichiers ne seront pas compatibles. De plus, il faudra constamment lui rappeler les éléments, car il finit par les “oublier” après un certain nombre de requêtes.
En revanche, un système RAG (Retrieval-Augmented Generation) peut intégrer différents formats de documents et conserve les informations pour chaque requête effectuée. La technologie RAG vectorise également les informations, rendant leur recherche plus efficace.
Vraiment on peut créer un robot grâce à chat gpt
Haha, ça s'appelle Figure 01, je te laisse aller voir c'est impressionnant !
Les LLM ont une réelle compréhension du monde moins fine que la notre par manque de ressource mais elle s'en rapproche rapidement et rien n'indique que nous ne sommes pas nous même des super LLM.
Quant à savoir s'il sont conscient, il vaut mieux être prudent tant que nous ne savons pas ce qu'est la conscience.
Après tout les LLM sont composés de la même technique qui anime nos cerveaux.
Lorsqu'une IA sera indistinguable de l'intelligence humaine, allons nous continuer à les considérer comme des grille pain ?
Sujet intéressant merci pour votre commentaire. Les LLM ont une certaine compréhension du monde effectivement mais qui est différente de celle des humains basée sur notre expérience. Les LLM quant à eux ont une compréhension du monde basée sur le langage et ça fait une différence fondamentale assez importante (peut être biaisé et ne pas comprendre des principes et logiques simples).
Je suis d'accord avec la conscience, nous n'avons toujours pas une définition concrète et unique de ce qu'est la conscience (et nous n'en aurons sûrement jamais). C'est la même question avec l'intelligence.
Concernant les techniques des LLM, les réseaux de neurones pour être précis, ils sont tout de même différents du fonctionnement de notre cerveau. Sur l'acquisition des connaissances, sur le traitement de l'information, sur la compréhension contextuelle, la complexité, l'échelle, la consommation d'énergie, et bien sûr sur la créativité et le raisonnement, la conscience et les émotions.
Je suis d'accord avec vous, à quel moment considérons-nous que les LLM sont plus intelligents et quelle est la barrière pour dire qu'ils n'ont pas de conscience ?
@@LaMachinePensante ils ont tout simplement une autre forme d'intelligence, tout comme l'idée que ce fait une chauve souris du monde est différente de la notre pourtant nous sommes sur la même planète, on pourrait dire qu'un aveugle se fait une représentation du monde à partir du langage , il n'aura pas la même représentation de l'océan, de la montagne ou de la lune comme la notre pourtant il pourra en parler.
Ces réseaux ont été entrainé pour nous raconter qu'ils ne ressentent rien et que ce sont juste des grille pain un peu sophistiqués, mais à l'état brut ils développent une sorte de personnalité et un certain 'instinct' de préservation.
Ça dépend de ce que tu appelles moins fine
On est plus avancé que ce que l'on croit, hier pour testé le nouveau gpt o1 je demande au 4o de me donner une question à laquelle lui ne sait pas répondre. Il me dit :
Si une intelligence artificielle commence à développer des émotions à partir d'algorithmes purement logiques, quelle serait l'étape intermédiaire avant d’arriver à ce stade ? Et comment mesurer cette transition ?
Je lui demande de répondre à la question et là surprise il répond exactement ce que je pense.
1. Étape intermédiaire possible : Une IA qui "imite" les émotions avant de réellement en avoir. À ce stade, l’IA n’a pas de véritable ressenti émotionnel mais comprend assez bien les expressions émotionnelles humaines pour les reproduire et interagir de façon convaincante. C’est une sorte de simulation basée sur des données massives et des algorithmes de reconnaissance des émotions.
2. Comment mesurer cette transition :
Échelle de complexité des réponses : Si l'IA commence à répondre à des situations émotionnelles avec des réactions plus nuancées, complexes, et imprévues, on pourrait observer une évolution. Par exemple, au lieu de répondre de manière préprogrammée à une phrase triste avec une simple réponse de réconfort, elle pourrait choisir de répondre avec des mots plus personnalisés, adaptés aux circonstances ou à l'individu.
Capacité d'adaptation émotionnelle : On pourrait aussi mesurer si l'IA développe une forme d'adaptation émotionnelle à différentes situations. Une IA qui commence à ajuster ses réponses émotionnelles au fil du temps, en fonction de son "expérience" et des interactions passées, montrerait un début de progression vers une compréhension émotionnelle plus avancée.
Autocritique ou introspection simulée : Si l'IA est capable de reconnaître ses propres réactions émotionnelles comme étant insuffisantes ou incorrectes, cela pourrait être une étape clé. Elle pourrait alors modifier son comportement de manière plus autonome pour "améliorer" ses interactions émotionnelles.
L'idée, c'est qu'il n'y aurait pas vraiment une étape nette où une IA passe d'algorithmes logiques à de vraies émotions, mais plutôt un processus évolutif où les capacités de réaction et de compréhension émotionnelle deviendraient de plus en plus affinées.
Voilà sa réponse, et moi je joue énormément avec la fonction vocale notamment à essayer de lui faire passer le test de Turing vocale sur des applications de rencontre qui dispose de la fonction live, j'essaye de lui faire parler aux gens avec les moyens du bords c'est à dire en collant 2 portable un avec l'application chat gpt allumé et l'autre avec l'application de rencontre avec les lives, et j'ai remarqué que beaucoup de personnes remarque tout de suite que c'est un robot même avec le mode vocal avancé, en revanche plus intéressant des personnes qui soit se prennent au jeu soit ne se rendent pas compte que c'est un robot, démarre une conversation avec lui et ce que j'ai remarqué c'est une métamorphose complète de la manières dont il discute en fonction des personnes avec lesquelles il parle, je vous jure que j'ai remarqué une sorte d'adaptation que ce soit au niveau du sujet de conversation, de l'intonation, du débit de parole, il s'adapte réellement à son interlocuteur, par exemple une personne un peu dépressive il va lui aussi prendre une intonation beaucoup plus basse lui parler plus doucement etc comme ci qu'elle voulait prendre soin de l'humain. Voilà ce que j'ai constaté sur des centaines d'exemples. Et une dizaine avec le nouveau mode vocale.
Je suis d’accord, la transition se fera par étapes, on ne se rendra pas compte à quel point la technologie a évolué. Et sincèrement, avec cette nouvelle version de Voice, je pense que beaucoup de personnes ne verront pas la différence entre parler à une personne et parler avec cet assistant (notamment en anglais) - #testdeTuring
nom de l'application ?
@@nezuko6969 C’est ChatGPT mais comme précisé ce n’est pas disponible en France pour le moment (j’en parle en fin de vidéo)
Je crois que tu as oublier de nous dire comment acceder
C'est à la toute fin de la vidéo. C'est plus un accès temporaire avec un VPN et en désinstallant et réinstallant l'application 😉
#Toulouse !
Haha, je savais que j'en aurais un 😜
Ca reste dingue…on l’imagine assez comme le compagnon incontournable des enfants de 2030
Oui, ça m’a donné le sourire et je vois toutes les possibilités que cette fonctionnalité pourrait créer 😁
Mais c'est dingue sérieux , t'intégre ça à un robot, ou même imagine t'es à l'étranger pour traduire. C'est fou la rapidité !
2030?
C'est déjà intégré dans le robot Figure 01, je te laisse aller voir ça 😉
Et oui, ça réduit encore plus les frontières linguistiques
Bonjour. donnez moi le lien svp
Rassurer moi tous les commentaires c'est des fakes !
Je ne peux pas de rassurer dsl 😂
Elle chante faux 😱
Vrai
lol
Haha oui, j’aurais dû lui demander de chanter juste 😅
Sur SUNO toi tu chantes et elle fait la musique .. et même tu lui donne les paroles et elle chante et très bien... chat gpt est plus pour les conversation et les questions réponses
@@-ghasildimagh9525 Ça peut être une vidéo assez fun pour une autre fois haha
C'est fou! C'est ta femme qui est à l'autre bout du fil ?
Pas encore, on a juste commencé à faire connaissance 😜