👍 💯/💯 Bravo Julien, super vidéo ! Tes démonstrations de GPT-4o sont vraiment top. J'ai particulièrement aimé la partie sur les émotions dans la voix et la traduction en temps réel... Continue comme ça, c'est hyper inspirant de voir toutes ces nouvelles possibilités tout en sachant qu'on s'y habitue tellement vite que bientôt tout cela nous paraîtra banal !!! Ta prochaine video est toujours un événement très attendu 🎉🎉🎉
Tes vidéos sont vraiment bien, informatives et travaillées... Il y a juste une faute que tu fais de manière répétée : ''c'est une vidéo où est-ce que..''. Il existe deux façons de corriger cela, une première qui rendrait juste tic de langage moins dérangeant et une deuxième, la ''bonne'' façon de dire en français. Tout d'abord tu pourrais juste éluder le est-ce que (qui nous fait penser qu'on est dans le registre de l'interrogation) ''C'est une vidéo où...'' on garde la faiblesse de style mais au-moins on est plus entre deux types de discours différents et ça facilite la compréhension. Ensuite, la bonne façon de dire serait plutôt ''c'est une vidéo dans laquelle.../dans laquelle on voit, on peut observer,... / une vidéo qui montre...". De la sorte, on pourrait quitter ce registre de lieu (''c'est un endroit où il y à'' est correct mais ''c'est une vidéo où il y à'' ne l'est pas). Bref, il n'y a jamais une seule façon de faire et ça ne remet en rien la qualité intrinsèque de tes vidéos et de ton discours. Voilà, vraiment super contenu par contre. Tu me permet de me tenir à jour sur les nouveautés IA etc et je t'en suis très reconnaissant. 😊
Ça serait plus intéressant, sur une chaine au contenu en français, de nous montrer si GPT-4o fonctionne de cette manière dans notre langue pour les comptes payants, fussent-ils québécois. Concernant ces vidéos en anglais, on a déjà vu et revu tout ça sur le versant anglophone de TH-cam et Twitter depuis une semaine. Les tests montrent que la version vocale en France ne possède ni la vision, ni les intonations émotionnelles dans les voix (du moins pour les comptes sans abonnement).
Ça ne concerne pas la langue mais le déploiement de cette maj qui va se faire dans les prochains jours/semaines et progressivement. Pour le moment personne n'y a accès, sauf aux environnement sous MacOs où l'on peut deja tester le partage d'écran mais pas encore la voix réactive visiblement
Je pense qu’il aurait été intéressant que vous puissiez également trouver des démos en français qui, à mon avis, sont moins performantes aujourd’hui. Qu.Avez-vous pu faire comme Test pour vérifier comment ça se passe lorsque l’on communique en français ?
Quel interêt d' avoir humanisé Chatgpt au lieu de résoudre ses nombreux bugs dans ses réponses. J' en ai arrêté de l'utiliser . Perso je n' ai aucune envie de taper la causette avec un ordi car j' ai pas vraiment de temps à perdre. De toute façon j' ai
@@amadoudiattara7939nan c'est l'ancien pour le moment ça existe depuis plusieurs moiss déjà Juste là le nouveau aura beaucoup moins de latence et aura d'autres intonations
Je n'aime pas faire des commentaires dans les vidéos que je suis parce que personne ne les lis. Et quand on les lis par erreur personne n'y réponds. Alors sache juste que j'ai aimé et rien d'autre.
Merci pour cette vidéo. Tout cela est prometteur, mais pour l'instant, une bonne partie de ces avancées n'est pas opérationnelle avec le ChatGPT 4-o que l'on possède à ce jour. À suivre...
je voudrais comprendre, chat gpt 4o est une IA textuelle dont aucune capacité à produire du son notamment. Puis-je savoir alors comment on peut obtenir du son, des émotions, et utiliser la caméra pour que Chat me décrive mon environnement
Juste petite erreur tu dis pour l'analyse d'image puisque il est omni modal ik est lieux et ue avant il utiliser "dall e le visioneur d'image" alors non dall e est juste un createur d'image et avant la vison d'image etait aussi complètement dans gpt 4 vision donc ca change rien que maintenant il est omnimidal avec l'analyse d'image Lais il est peut etre juste meilleur parce que il a était plus entraîné c'est tt
Le plus marrant dans ta vidéo, c'est de lire les sous-titres traduits dans tes différences séquences. Ceci dit, qu'est-ce qui empêche un mec ou une nana dans le monde de répondre en se faisant passer pour ChatGPT ? De la même manière, que lorsqu'on appelle un SAV censé se trouver en France, on se retrouve à parler avec un Tunisien ou un Malgache. De même pour la vidéo avec les canards, pourquoi s'imaginer que c'est une IA qui analyse le paysage, il y a tellement d'esclaves à travers le monde qui en échange d'une pièce peuvent faire le taf. Je me suis servi de ChatGPT et franchement, en restant modeste, on est loin des extraordinaires prouesses que tu ou on nous a promises.
je voulai dire un autre truc, j'ai toujours etait gpt 3.5 et le 4o est vraiment sympa, si tu pouvais me dire si le mode vocal utilise nos credit gratuit, je veux dire si tu peux parler trois fois avec et sa stop ou si c'est illimité un peu en vocal ^^^) si tu sais ^^ aussi tu pourrait faire une video pour un truc cool pour tes viewer, dans l'instruction personaliser, ou tu peux pre indiquer a chat gpt, si tu dis a chat gpt prend une grande respiration sa ameliore les resultat, donc le metre la dedans va augmente la qualité, peace
C'est pas illimité, et tu peux déjà testé avec un compte gratuit gpt4o sur mobile c'est accessible (android en tout cas), c'est pas illimité, mais ça permets de tenir une longue conversation ou de demander pas mal de chose avant que la voix dise en anglais qu'on est arrivé à la limite et qu'il faut patienter pour continuer
Impossible de voir GPT-4o sur mon abonnement compte gratuit datant de plusieurs mois et apparemment je ne suis pas le seul dans ce cas là . Alors pourquoi dire que les comptes gratuits y ont accès puisque c'est faux ?🤔
@@romaric9874 En effet ca peut etre ça ou n'importe quoi d'autre vu qu'ils n'ont pas assez de respect pour tenir au courant les gens qui les suivent.Ca devient un peu la norme de ces sociétés , beaucoup de baratin perpetuel mais au final ca ne suit pas. Surtout quand tui t'aperçois de la "qualité" catastrophique de certaines réponses "IA" ... ca fait peurt de savoir qu'elles sont utilisées par des professionnels qui se basent la dessus sans verifier et contreverifier😅 Il n'y a que les IA génératives d'images qui font leur boulot plutot correctement. Bref , une fois l'effet "Wooow" passé et bien que reste t'il de vraiment utile a la fin ?🤔
je suis développeur débutant et je dois dire qu'avoir une réel interaction en live pendant que tu code c'est vraiment chouette. en fait, c'est comme avoir un mentor en libre service 24/24h
@@romaric9874 je ne sais pas, j'essaie de pas trop y penser. Y'en a qui disent que oui, d'autres que non. Moi je dirais bien que Oui mais dans quelques décennies je pense. Après, évolution de L'Ia et très rapide et maintenant, avec les Machines qui travailles grâce aux interactions des utilisateurs cela ne fera qu'aller encore plus vite. Mais je reste optimiste quant au fait que L'IA apportera des changement drastique et économique sur la société. Malgré le fait qu'ils y auront toujours des utilisations abusives, controverser, illegal mais ce ne sera qu'une minorité je pense
@@romaric9874c'est là qu'on verra ceux qui sont "juste" codeurs, et ceux qui ont une âme entrepreneur, avec plein d'idées mais pas les compétences tech.
l'IA est au codeurs ce que la tronçonneuse est aux bucherons : un outil. Il y aura moins de codeurs, et ce seront ceux qui auront passé du temps à se former.
aussi la limitation d'utilisation meme en payant fait que tu dois un peu prendre des credit et l'abonnement, personne profitera completment du mode vocal en video , finalement meme pour etudier c'est impossible si tu peux fair e50 message et tu dois attendre 5 heure
GPT 4o toujours pas dispo pour les utilisateurs gratuits à date Apparemment, ce sera dispo d’ici 2 semaines (pour celles et ceux qui se posent la question)
Petit complément d’info qui corrige cette vidéo, l’interaction avec la voix et sa variation ne sera peut être pas disponible en Europe (cf AI act) Donc… faut vraiment pas s’exciter sur ce modèle en France :) En revanche, Gemini 1.5 pro aura un réel impact sur la vie des gens de manière générale dans le cadre de notre vie digitale.
Tu veux dire quoi par l'interaction avec la voix et sa variation? Parce que là j'ai un compte gratuit mais je peut déjà utilisé gpt 4o avec la voix perso.... a moins que tu parles de tout ce qui est vidéo? Si c'est le cas, c'est encore dispo pour personne là même les comptes payants
Par contre je précise le nombre de requête est limité, mais ça permets quand même actuellement de tenir une assez longue conversation ou de demander pas mal de chose avant que la voix dise en anglais qu'on est arrivé à la limite et qu'il faut patienter
C'est très impressionnant. Mais je trouve tout de même que le terme 'intelligence " est usurpé. il est évident que le programme réagit selon des mots ou des images clefs. Aussi sophistiqué soit il, il sera toujours limité à la base de données qu'on lui donne. Je suis certain que pour un anniversaire il sortira à peu près toujours les mêmes répliques. Il ne prendra jamais d'initiative et ne sortira jamais des répliques qui ne figurent pas dans sa base de données. Mais c'est super prometteur en tout cas.
Je vous trouve très impressionnant aussi vous réagissez a des images ou mot clef du coup effectivement le mot "intelligence" est usurpé vous concernant.
Le rire de l'IA, son trait d'humour sur le gâteau, ... là je tombe dans la vallée de l'étrange. Je ris moins.
Merci pour votre travail !!
Hate d'avoir des discussions ultra profonde pour développer une réflexion
👍 💯/💯 Bravo Julien, super vidéo ! Tes démonstrations de GPT-4o sont vraiment top.
J'ai particulièrement aimé la partie sur les émotions dans la voix et la traduction en temps réel...
Continue comme ça, c'est hyper inspirant de voir toutes ces nouvelles possibilités tout en sachant qu'on s'y habitue tellement vite que bientôt tout cela nous paraîtra banal !!! Ta prochaine video est toujours un événement très attendu 🎉🎉🎉
Tes vidéos sont vraiment bien, informatives et travaillées...
Il y a juste une faute que tu fais de manière répétée : ''c'est une vidéo où est-ce que..''. Il existe deux façons de corriger cela, une première qui rendrait juste tic de langage moins dérangeant et une deuxième, la ''bonne'' façon de dire en français. Tout d'abord tu pourrais juste éluder le est-ce que (qui nous fait penser qu'on est dans le registre de l'interrogation) ''C'est une vidéo où...'' on garde la faiblesse de style mais au-moins on est plus entre deux types de discours différents et ça facilite la compréhension. Ensuite, la bonne façon de dire serait plutôt ''c'est une vidéo dans laquelle.../dans laquelle on voit, on peut observer,... / une vidéo qui montre...". De la sorte, on pourrait quitter ce registre de lieu (''c'est un endroit où il y à'' est correct mais ''c'est une vidéo où il y à'' ne l'est pas). Bref, il n'y a jamais une seule façon de faire et ça ne remet en rien la qualité intrinsèque de tes vidéos et de ton discours.
Voilà, vraiment super contenu par contre. Tu me permet de me tenir à jour sur les nouveautés IA etc et je t'en suis très reconnaissant. 😊
Ça serait plus intéressant, sur une chaine au contenu en français, de nous montrer si GPT-4o fonctionne de cette manière dans notre langue pour les comptes payants, fussent-ils québécois. Concernant ces vidéos en anglais, on a déjà vu et revu tout ça sur le versant anglophone de TH-cam et Twitter depuis une semaine. Les tests montrent que la version vocale en France ne possède ni la vision, ni les intonations émotionnelles dans les voix (du moins pour les comptes sans abonnement).
Ça ne concerne pas la langue mais le déploiement de cette maj qui va se faire dans les prochains jours/semaines et progressivement. Pour le moment personne n'y a accès, sauf aux environnement sous MacOs où l'on peut deja tester le partage d'écran mais pas encore la voix réactive visiblement
bonjour , j'ai bien aimer ta video. je voudrais savoir si je peux utiliser chat gpt 4o pour remplacer un secretariat pour eepondre au telephone ?
Une idée sur quand çà serait disponible svp?
Je pense qu’il aurait été intéressant que vous puissiez également trouver des démos en français qui, à mon avis, sont moins performantes aujourd’hui. Qu.Avez-vous pu faire comme Test pour vérifier comment ça se passe lorsque l’on communique en français ?
trop fort, et en ce qui concerne l'app?
ou plus exactement la fonction voice , ce n'est disponible que sur Mac ? et iPhone ?
Quel interêt d' avoir humanisé Chatgpt au lieu de résoudre ses nombreux bugs dans ses réponses. J' en ai arrêté de l'utiliser . Perso je n' ai aucune envie de taper la causette avec un ordi car j' ai pas vraiment de temps à perdre. De toute façon j' ai
Merci pour contenu pertinent.
Merci pour la vidéo, est-ce que ce logiciel peut être utilisé également sur PC ou juste sur appareils mobile?
PC aussi
Comment activer la fonctionnalité vocal sur le téléphone???
Sur la nouvelle version je ne sais pas mais sur l’ancienne version mobile c’est le casque à côté de la zone de chat.
Salut Julien, tu sais quand est-ce que le nouvel assistant vocal d'open AI sera disponible ?
ça l'est depuis l'annonce je l’utilise tous le temps
@@amadoudiattara7939nan c'est l'ancien pour le moment ça existe depuis plusieurs moiss déjà
Juste là le nouveau aura beaucoup moins de latence et aura d'autres intonations
Bonjour Julien, combien coûte l'abonnement a GPT 4 et 4o
Super vidéo
le taxi qui met le clignotant avant que le mec ne lève le bras... encore une démo bidon
Justement, un taxi pro sait reconnaître une personne qui l'attend.
moi quand je clique sur le micro sur le pc, j'ai aucune voix qui fonctionne... une solution? (chrome / win 11)
demande à chatgpt 4o... ;)
As tu trouvé comment faire ?
@@Mani26ification nope
Je n'aime pas faire des commentaires dans les vidéos que je suis parce que personne ne les lis. Et quand on les lis par erreur personne n'y réponds. Alors sache juste que j'ai aimé et rien d'autre.
C'est lu !
Merci pour cette vidéo.
Tout cela est prometteur, mais pour l'instant, une bonne partie de ces avancées n'est pas opérationnelle avec le ChatGPT 4-o que l'on possède à ce jour. À suivre...
je voudrais comprendre, chat gpt 4o est une IA textuelle dont aucune capacité à produire du son notamment. Puis-je savoir alors comment on peut obtenir du son, des émotions, et utiliser la caméra pour que Chat me décrive mon environnement
Il y a beaucoup de gadgets mais beaucoup de choses intéressantes aussi
S'il vous plaît comment l'avoir ?
Juste petite erreur tu dis pour l'analyse d'image puisque il est omni modal ik est lieux et ue avant il utiliser "dall e le visioneur d'image" alors non dall e est juste un createur d'image et avant la vison d'image etait aussi complètement dans gpt 4 vision donc ca change rien que maintenant il est omnimidal avec l'analyse d'image
Lais il est peut etre juste meilleur parce que il a était plus entraîné c'est tt
Le plus marrant dans ta vidéo, c'est de lire les sous-titres traduits dans tes différences séquences. Ceci dit, qu'est-ce qui empêche un mec ou une nana dans le monde de répondre en se faisant passer pour ChatGPT ? De la même manière, que lorsqu'on appelle un SAV censé se trouver en France, on se retrouve à parler avec un Tunisien ou un Malgache. De même pour la vidéo avec les canards, pourquoi s'imaginer que c'est une IA qui analyse le paysage, il y a tellement d'esclaves à travers le monde qui en échange d'une pièce peuvent faire le taf. Je me suis servi de ChatGPT et franchement, en restant modeste, on est loin des extraordinaires prouesses que tu ou on nous a promises.
je voulai dire un autre truc, j'ai toujours etait gpt 3.5 et le 4o est vraiment sympa, si tu pouvais me dire si le mode vocal utilise nos credit gratuit, je veux dire si tu peux parler trois fois avec et sa stop ou si c'est illimité un peu en vocal ^^^) si tu sais ^^ aussi tu pourrait faire une video pour un truc cool pour tes viewer, dans l'instruction personaliser, ou tu peux pre indiquer a chat gpt, si tu dis a chat gpt prend une grande respiration sa ameliore les resultat, donc le metre la dedans va augmente la qualité, peace
C'est pas illimité, et tu peux déjà testé avec un compte gratuit gpt4o sur mobile c'est accessible (android en tout cas), c'est pas illimité, mais ça permets de tenir une longue conversation ou de demander pas mal de chose avant que la voix dise en anglais qu'on est arrivé à la limite et qu'il faut patienter pour continuer
Super on est plus très loin de Jarvis d'Iron man
Impossible de voir GPT-4o sur mon abonnement compte gratuit datant de plusieurs mois et apparemment je ne suis pas le seul dans ce cas là . Alors pourquoi dire que les comptes gratuits y ont accès puisque c'est faux ?🤔
Je pense qu’ils permettent la mise à jour par tranche pour ne pas saturer.
@@romaric9874 En effet ca peut etre ça ou n'importe quoi d'autre vu qu'ils n'ont pas assez de respect pour tenir au courant les gens qui les suivent.Ca devient un peu la norme de ces sociétés , beaucoup de baratin perpetuel mais au final ca ne suit pas. Surtout quand tui t'aperçois de la "qualité" catastrophique de certaines réponses "IA" ... ca fait peurt de savoir qu'elles sont utilisées par des professionnels qui se basent la dessus sans verifier et contreverifier😅 Il n'y a que les IA génératives d'images qui font leur boulot plutot correctement. Bref , une fois l'effet "Wooow" passé et bien que reste t'il de vraiment utile a la fin ?🤔
je suis développeur débutant et je dois dire qu'avoir une réel interaction en live pendant que tu code c'est vraiment chouette.
en fait, c'est comme avoir un mentor en libre service 24/24h
T’as pas peur que ton mentor te pique ton taf? Je pose cette question sans arrière-pensée. Je n’ai aucune idée concrète de la réalité de ton métier.
@@romaric9874 je ne sais pas, j'essaie de pas trop y penser. Y'en a qui disent que oui, d'autres que non. Moi je dirais bien que Oui mais dans quelques décennies je pense. Après, évolution de L'Ia et très rapide et maintenant, avec les Machines qui travailles grâce aux interactions des utilisateurs cela ne fera qu'aller encore plus vite. Mais je reste optimiste quant au fait que L'IA apportera des changement drastique et économique sur la société. Malgré le fait qu'ils y auront toujours des utilisations abusives, controverser, illegal mais ce ne sera qu'une minorité je pense
En tout cas c'est vite utilisé les crédit de chagpt -4o
Ça vaut encore le coup de devenir développeur ?
@@romaric9874c'est là qu'on verra ceux qui sont "juste" codeurs, et ceux qui ont une âme entrepreneur, avec plein d'idées mais pas les compétences tech.
End Game pour l'humanité !
On comprend que le métier de développeur va être challengé par l’ia et que cette profession va connaître des bouleversements
vu le nombre d' erreurs que fait chatgpt , pas certain
l'IA est au codeurs ce que la tronçonneuse est aux bucherons : un outil. Il y aura moins de codeurs, et ce seront ceux qui auront passé du temps à se former.
Bot Sapiens...nouvelle espèce bientôt :).
aussi la limitation d'utilisation meme en payant fait que tu dois un peu prendre des credit et l'abonnement, personne profitera completment du mode vocal en video , finalement meme pour etudier c'est impossible si tu peux fair e50 message et tu dois attendre 5 heure
Est-ce qu'on peut imaginer que Google s'aligne prochainement et permette la même chose ?
GPT 4o toujours pas dispo pour les utilisateurs gratuits à date
Apparemment, ce sera dispo d’ici 2 semaines (pour celles et ceux qui se posent la question)
Petit complément d’info qui corrige cette vidéo, l’interaction avec la voix et sa variation ne sera peut être pas disponible en Europe (cf AI act)
Donc… faut vraiment pas s’exciter sur ce modèle en France :)
En revanche, Gemini 1.5 pro aura un réel impact sur la vie des gens de manière générale dans le cadre de notre vie digitale.
Tu veux dire quoi par l'interaction avec la voix et sa variation? Parce que là j'ai un compte gratuit mais je peut déjà utilisé gpt 4o avec la voix perso.... a moins que tu parles de tout ce qui est vidéo? Si c'est le cas, c'est encore dispo pour personne là même les comptes payants
Par contre je précise le nombre de requête est limité, mais ça permets quand même actuellement de tenir une assez longue conversation ou de demander pas mal de chose avant que la voix dise en anglais qu'on est arrivé à la limite et qu'il faut patienter
C'est très impressionnant. Mais je trouve tout de même que le terme 'intelligence " est usurpé. il est évident que le programme réagit selon des mots ou des images clefs. Aussi sophistiqué soit il, il sera toujours limité à la base de données qu'on lui donne. Je suis certain que pour un anniversaire il sortira à peu près toujours les mêmes répliques. Il ne prendra jamais d'initiative et ne sortira jamais des répliques qui ne figurent pas dans sa base de données. Mais c'est super prometteur en tout cas.
Je vous trouve très impressionnant aussi vous réagissez a des images ou mot clef du coup effectivement le mot "intelligence" est usurpé vous concernant.
ca fait le café ???
Curieux que le taxi ai sont clignotant avant de lui faire signe.
encore une démo pipée . On dirait les pratiques d' apple
Ouai ben on a toujours rien vu pour l'instant