Renaud, le maitre en vulgarisation...un must par un pationné. En tout cas continue on en redemande et avec toi on gagne du temps....vraiment merci...aussi pour la bonne humeur quotidienne qui permet d'apprendre en se distraillant...un must!!!
Merci !! Et bien, pour être franc, j'ai pas super envie :-) Je vais voir, parce que oui, tu as raison, ça peut avoir ses intérêts... J'ajoute à la liste ! :-)
Merci pour tes efforts, j'avoue qu'aux debuts de ta chaine je teouvais que tu blaguais beaucoup trooooop 😂 (c'était même insupportable à mon goût) mais là je trouves que tu as trouvé un equilibre parfait... merci
Bonjour @Renaud et merci pour cette vidéo ! Une question quand même : tu parles de la différence entre les GPTs et les assistants paramètrables directement dans le backoffice de openAI, ok. Mais quelle est la différence concrètement, mis à part le fait de pouvoir choisir le modèle et de pouvoir interconnecter l'assistant ailleurs ? Est-ce que finalement, si on veut 4o et pas d'interconnexion, le GPTs suffit ? As tu comparé les résultats des deux ? Dans les GPTs, quand tu ajoutes des documents, on est d'accord que ChatGPT fait aussi la vectorisation des documents, n'est-ce pas ?
Et bien tu as vu venir la douille : quand on met des docs dans un GPTz, il le monte dans le prompt : ça agrandit la fenêtre d'entrée et ça dilue donc le prompt et il risque d'être plus flou, approximatif, d'oublier des choses, car il ne monte pas un rag !! L'assistant oui : les doc sont vectorisées, les infos sont pas dans le prompt (qui du coup est plus léger et moins cher) et les infos sont donc vachement mieux et plus précisément exploitées.
@@RenaudDekode Merci pour ta réponse ! Quand tu demandes à ChatGPT si les doc en base de connaissance dans un GPTs sont vectorisés, il te répond que... oui ! Comment es-tu sûr et certain qu'il ne sont pas vectorisés ?
@@clementcahagne8619 Ah... bah écoute, la doc d'Open AI n'indique rien sur la vectorisation dans les GPTz, et parle de la tokenisation dans la fenêtre. Et les différences semblent notable sur le traitement des docs (pas de sémantique par exemple avec les GPTz)... mais ça ne veut pas dire non plus, tu as raison, qu'on peut en être certain (en même temps, les données peuvent pas être à deux endroits en même temps... enfin, si, ça pourrait mais ce serait idiot je crois)... hmm... faudrait poser la question directement à OpenAI... :-/
@@RenaudDekode Ca marche merci pour ta réponse, c'est intéressant ! 🙂 Je cherche à comprendre le fond du trucs car j'ai fait des GPTs assez complexes qui marchent pas exactement comme souhaité. Pourtant j'ai suivi des méthodologies assez précises, mais je sens que c'est compliqué d'aller chercher des infos parfois dans les docs. D'où l'idée potentielle de passer par le playground, mais je souhaiterais être certain de la plus value
Je me pose exactement la même question. En effet, la documentation n'est pas claire, et demander à ChatGPT est parfois le meilleur moyen de semer encore plus de doutes ! Il serait pertinent de réaliser une série de tests comparatifs. Si quelqu'un est prêt à se lancer, ce serait très intéressant !
:-) Bonne question ! Notebooklm est en fait un rag avec une ia (gemini), préparamétré. Donc ses avantages : tout est déjà prêt donc c'est fastoche. Et le premier avantage : c'est gratos ! Et ses inconvénients : bah, tous les autres :-) on ne peut pas lui donner de préprompt, on ne peut pas choisir de modèle, on ne peut pas faire son rag soi-même, on ne peut pas lui ajouter d'autres fonctions, on ne peut pas le fine-tuner, on ne peut s'en servir dans des app externes, des automatismes, dans un programme, etc.
la question que je me pose c'est est ce qu'il serait possible de se créer un pti assistant vocal qui réponde uniquement sur un mots clé comme le ferait un asssistant google home, techniquement y'a rien qui nous en empeche non ?
Ah tout a fait ! Par exmple, j'ai fait mon petit assistant perso à qui je donne des consignes : si je commence une phrase par ça, alors tu fais ça. Quand on l'intègre à u programme, c'est super facile, et ça ouvre encore plein de possibilités.
Merci renaud, finalement un rag, c est un peu comme notebook lm ? Quels sont les cas ou le rag serait plus utile que passer par notebook ? Et sinon c est quoi cette option de fine tuning ? C est accessible sans etre programmeur ?
Oui ! Notebooklm, c'est un portail qui te facilite et te prémache la création d'un rag exploité par Gemini. C'est bluffant, car grand public et ça semble magique. Mais au final, les assistants GPT font ça depuis toujours (mais personne ne le sait, et faut se pencher dessus... du coup ça n'a pas fait le buz). Les cas ou l'assistant est plus utile : quand on veut qu'il parle d'une certaine façon, qu'on veut le préprompter, qu'on veut lui donner d'autres infos (genre qu'il nous connaisse un peu pour s'adapter), quand on veut mieux le paramétrer, et, surtout, quand on veut l'intégrer à des tas de trucs (des automatismes ! miam !). Le fine-tuning, c'est accessible, au même endroit, mais un poil plus chaud, notamment parce qu'il faut formater un fichier de conversation (et pour faire ça, en plus, bah faut les infos... et on ne les a pas toujours...)
Merci Renaud pour cette vidéo très intéressante. Est-ce qu'il y a besoin de l'abonnement ChatGPT pour utiliser ces assistants ? Combien ça coute de les créer et les utiliser ? Enfin, est-ce que le "fine-tunning" qu'on voit dans l'interface permet d'avoir un encore meilleur assistant que celui montré dans la vidéo ? Si ou, est-ce facile et peu cher à utiliser ?
Les assistants sont du côté d'OpenAI, donc vraiment indépendant de ChatGPT et de son abonnement. On paye ici à l'usage (chaque requete et réponse coute des petits centimes, plus ou moins en fonction des modèles, etc.). Ca ne coute rien de les créer, ça coute zéro si on ne s'en sert pas et plus on s'en sert, plus ça coute. Le fine-tuning, permet d'avoir une expression de l'assistant totalement paramétré, c'est facile à utiliser (suffit de choisir le modele fine-tuné), par contre c'est un peu chaud à mettre en place parce qu'il faut fournir un fichier formater avec des exemples de dialogues, réponses, phrases pour fabriquer le fine-tuning (et chopper les infos et les assembler n'est pas toujours évident).
Je comprends pas, dans les gpts classiques on a bien la possibilité de lui mettre des fichiers dans sa base de knowledge, quelle est la difference à ce niveau ? Par contre choisir le gpt c’est bien et surtout j’ai cru voir qu’on pouvait regler sa temerature donc sur des commandes strictes on peut le rendre plus stable. Please réponds à ma question.
Mon frère a testé un.gpts avec des fichiers pdf de son travail (ça fait 4 mois) et ça ne marche pas bien du tout le prompt il le prend bien et les indications par contre les info pdf pas top en.tout cas je parle d'une expérience
Les fichiers que tu donnes à un GPTz, c'est comme les fichiers que tu joint quand tu prompt, ils vont dans les token, en complément du prompt, du coup, ce n'est pas vraiment "exploité" comme peuvent l'être les infos unitaires dans une base vectorielle. L'assistant, lui, utilise les données de façons précise, en contextualisant, et profite d'une recherche sémantique balaise. Alors que pour les GPTz, bah c'est comme si tu écrivais un prompt plus long : y'a pas de traitement précis, c'est pas une base, et du coup les réponses utilisent plus ou moins ces datas, de façon flou et aléatoire (c'est pas rien non plus, mais les résultats sont vraiment nettement moins bons avec un GPTz)
Et n’oubli pas que quand on se sert d’un assistant on paie au token comme quand on utilise une API, contrairement au gpts. Ce qui m’a mis la puce à l’oreille est la gestion de la temperature, ça c’est possible que si tu es sur une forme d’API, et l’assistant en fait parti. Mais j’ai regardé a nouveau ta video et je crois que j’ai compris la diff assistant et GPTs. En fait on pourait faire tourner un espece de GPTs mais en le faisant agir par un autre biais, comme zappier et autres c’est ça ? Une sorte d’approche API mais en mode assistant
Mais exactement !! C'est ça ! Et ça ouvre des perspectives folles... (j'ai fait des tutos sur des automatismes utilisant un assistant pour répondre à des mails ou des commentaires sociaux comme moi par exemple, et y'a plein d'autres idées).
Côté GPTz, tu peux ajouter des actions aux GPTz, et c'est limité et pas simple de faire un truc classe. Côté assistant, c'est lui que tu peux intégrer, à tout ce que tu veux. Et je trouve ça bien plus puissant (mais bon, ça dépend des usages en fait).
Le fait que se soit payant, est vraiment un point noir... Payer, repayer...ça devient lourd malgré ton super Tuto. C'est dommage car c'est exactement ce dont j'aurais besoin car je ne peux pas choisir mon modèles dans les GPT'S.
Ouaip... mais si c'est gratuit, c'est toi le produit... l'avenir nous dira dans quel sens ça évolue (a priori, du côté d'OpenAI, on pense plutôt à des hausses :-( !)
2 วันที่ผ่านมา
@@RenaudDekode L'avantage avec Perplexity, à la place d'OpenAi, c'est que dans Perplexity il y a beaucoup de choses pour... le même prix.
Oui, mais je pense que ce que tlm veux c'est un assistant qui nous connais apple intelligence l’a compris pour moi). Et même si perplexity est pertinent, il ne propose pas la même chose. Et le fait de ne pas pouvoir choisir ces modèles dans les GPT'S montre une volonté du chiffre et la multiplication des services
Renaud, le maitre en vulgarisation...un must par un pationné. En tout cas continue on en redemande et avec toi on gagne du temps....vraiment merci...aussi pour la bonne humeur quotidienne qui permet d'apprendre en se distraillant...un must!!!
Oh bah j'ai gagné ma journée moi avec ce commentaire !! :-) Merci pour les encouragements !!
Super explication Renaud ! Merci tu es le premier à ma connaissance qui donne la bonne explication de l'assistant.
Aaaaah. Ouf ! Merci !!!
Merci Renaud toujours au top, merci pour tout ce que tu fais avec l ambiance qui va bien 👌
Oh, ça fait plaisir de te voir ici toi !!!! Comment ça va ????
ahhhh enfin un tuto compréhensible sur les assistants j'ai pu le faire en live merci !
Han, génial, meilleure récompense ever !!! Merci !!! Let's rock ! 🙂
Hello Renaud, merci beaucoup pour la vidéo ! Peux tu faire un tuto sur comment creer des actions dans les GPTz
Merci !!
Et bien, pour être franc, j'ai pas super envie :-) Je vais voir, parce que oui, tu as raison, ça peut avoir ses intérêts... J'ajoute à la liste ! :-)
@RenaudDekode merciii, et désolé je viens de réaliser que j'ai oublié de mettre un stp dans ma question, ce n'était pas volontaire 😅
@@mohsine87 :-) oh bah pas de problème !
Merci pour tes efforts, j'avoue qu'aux debuts de ta chaine je teouvais que tu blaguais beaucoup trooooop 😂 (c'était même insupportable à mon goût) mais là je trouves que tu as trouvé un equilibre parfait... merci
Faut plus que je touche au curseur alors !... :-) Merci.
Quarantenaire, je m'immerge gentiement dans l'IA notamment grâce à ta chaîne, merci beaucoup !
Et bah merci à toi ! Ca fait plaisir !!
Bonjour @Renaud et merci pour cette vidéo ! Une question quand même : tu parles de la différence entre les GPTs et les assistants paramètrables directement dans le backoffice de openAI, ok. Mais quelle est la différence concrètement, mis à part le fait de pouvoir choisir le modèle et de pouvoir interconnecter l'assistant ailleurs ? Est-ce que finalement, si on veut 4o et pas d'interconnexion, le GPTs suffit ? As tu comparé les résultats des deux ?
Dans les GPTs, quand tu ajoutes des documents, on est d'accord que ChatGPT fait aussi la vectorisation des documents, n'est-ce pas ?
Et bien tu as vu venir la douille : quand on met des docs dans un GPTz, il le monte dans le prompt : ça agrandit la fenêtre d'entrée et ça dilue donc le prompt et il risque d'être plus flou, approximatif, d'oublier des choses, car il ne monte pas un rag !! L'assistant oui : les doc sont vectorisées, les infos sont pas dans le prompt (qui du coup est plus léger et moins cher) et les infos sont donc vachement mieux et plus précisément exploitées.
@@RenaudDekode Merci pour ta réponse ! Quand tu demandes à ChatGPT si les doc en base de connaissance dans un GPTs sont vectorisés, il te répond que... oui ! Comment es-tu sûr et certain qu'il ne sont pas vectorisés ?
@@clementcahagne8619 Ah... bah écoute, la doc d'Open AI n'indique rien sur la vectorisation dans les GPTz, et parle de la tokenisation dans la fenêtre. Et les différences semblent notable sur le traitement des docs (pas de sémantique par exemple avec les GPTz)... mais ça ne veut pas dire non plus, tu as raison, qu'on peut en être certain (en même temps, les données peuvent pas être à deux endroits en même temps... enfin, si, ça pourrait mais ce serait idiot je crois)... hmm... faudrait poser la question directement à OpenAI... :-/
@@RenaudDekode Ca marche merci pour ta réponse, c'est intéressant ! 🙂 Je cherche à comprendre le fond du trucs car j'ai fait des GPTs assez complexes qui marchent pas exactement comme souhaité. Pourtant j'ai suivi des méthodologies assez précises, mais je sens que c'est compliqué d'aller chercher des infos parfois dans les docs. D'où l'idée potentielle de passer par le playground, mais je souhaiterais être certain de la plus value
Je me pose exactement la même question. En effet, la documentation n'est pas claire, et demander à ChatGPT est parfois le meilleur moyen de semer encore plus de doutes ! Il serait pertinent de réaliser une série de tests comparatifs. Si quelqu'un est prêt à se lancer, ce serait très intéressant !
Top, merci. Du coup, avantages/inconvénients par rapport à notebooklm ?
:-) Bonne question !
Notebooklm est en fait un rag avec une ia (gemini), préparamétré. Donc ses avantages : tout est déjà prêt donc c'est fastoche. Et le premier avantage : c'est gratos !
Et ses inconvénients : bah, tous les autres :-) on ne peut pas lui donner de préprompt, on ne peut pas choisir de modèle, on ne peut pas faire son rag soi-même, on ne peut pas lui ajouter d'autres fonctions, on ne peut pas le fine-tuner, on ne peut s'en servir dans des app externes, des automatismes, dans un programme, etc.
la question que je me pose c'est est ce qu'il serait possible de se créer un pti assistant vocal qui réponde uniquement sur un mots clé comme le ferait un asssistant google home, techniquement y'a rien qui nous en empeche non ?
Ah tout a fait ! Par exmple, j'ai fait mon petit assistant perso à qui je donne des consignes : si je commence une phrase par ça, alors tu fais ça. Quand on l'intègre à u programme, c'est super facile, et ça ouvre encore plein de possibilités.
@@RenaudDekode Manque plus qu'a avoir les intégrations avec la domotique etc ^^
@@aresic-y5g Edzactment ! :-)
Merci renaud, finalement un rag, c est un peu comme notebook lm ? Quels sont les cas ou le rag serait plus utile que passer par notebook ? Et sinon c est quoi cette option de fine tuning ? C est accessible sans etre programmeur ?
Oui ! Notebooklm, c'est un portail qui te facilite et te prémache la création d'un rag exploité par Gemini. C'est bluffant, car grand public et ça semble magique. Mais au final, les assistants GPT font ça depuis toujours (mais personne ne le sait, et faut se pencher dessus... du coup ça n'a pas fait le buz).
Les cas ou l'assistant est plus utile : quand on veut qu'il parle d'une certaine façon, qu'on veut le préprompter, qu'on veut lui donner d'autres infos (genre qu'il nous connaisse un peu pour s'adapter), quand on veut mieux le paramétrer, et, surtout, quand on veut l'intégrer à des tas de trucs (des automatismes ! miam !).
Le fine-tuning, c'est accessible, au même endroit, mais un poil plus chaud, notamment parce qu'il faut formater un fichier de conversation (et pour faire ça, en plus, bah faut les infos... et on ne les a pas toujours...)
@@RenaudDekode merci bcp pour ton aimable et pédagogique réponse ! A bientot en live Renaud !
Merci Renaud pour cette vidéo très intéressante. Est-ce qu'il y a besoin de l'abonnement ChatGPT pour utiliser ces assistants ? Combien ça coute de les créer et les utiliser ? Enfin, est-ce que le "fine-tunning" qu'on voit dans l'interface permet d'avoir un encore meilleur assistant que celui montré dans la vidéo ? Si ou, est-ce facile et peu cher à utiliser ?
Les assistants sont du côté d'OpenAI, donc vraiment indépendant de ChatGPT et de son abonnement. On paye ici à l'usage (chaque requete et réponse coute des petits centimes, plus ou moins en fonction des modèles, etc.). Ca ne coute rien de les créer, ça coute zéro si on ne s'en sert pas et plus on s'en sert, plus ça coute.
Le fine-tuning, permet d'avoir une expression de l'assistant totalement paramétré, c'est facile à utiliser (suffit de choisir le modele fine-tuné), par contre c'est un peu chaud à mettre en place parce qu'il faut fournir un fichier formater avec des exemples de dialogues, réponses, phrases pour fabriquer le fine-tuning (et chopper les infos et les assembler n'est pas toujours évident).
@@RenaudDekode Merci beaucoup d'avoir pris le temps d'éclairer ma lanterne 👍
oh mais de rien ! :-)
La classe internationale 🎉
La classe à Dallas !
Je comprends pas, dans les gpts classiques on a bien la possibilité de lui mettre des fichiers dans sa base de knowledge, quelle est la difference à ce niveau ? Par contre choisir le gpt c’est bien et surtout j’ai cru voir qu’on pouvait regler sa temerature donc sur des commandes strictes on peut le rendre plus stable. Please réponds à ma question.
Mon frère a testé un.gpts avec des fichiers pdf de son travail (ça fait 4 mois) et ça ne marche pas bien du tout le prompt il le prend bien et les indications par contre les info pdf pas top en.tout cas je parle d'une expérience
Les fichiers que tu donnes à un GPTz, c'est comme les fichiers que tu joint quand tu prompt, ils vont dans les token, en complément du prompt, du coup, ce n'est pas vraiment "exploité" comme peuvent l'être les infos unitaires dans une base vectorielle. L'assistant, lui, utilise les données de façons précise, en contextualisant, et profite d'une recherche sémantique balaise. Alors que pour les GPTz, bah c'est comme si tu écrivais un prompt plus long : y'a pas de traitement précis, c'est pas une base, et du coup les réponses utilisent plus ou moins ces datas, de façon flou et aléatoire (c'est pas rien non plus, mais les résultats sont vraiment nettement moins bons avec un GPTz)
@@RenaudDekode ah intéressant merci beaucoup je comprends mieux maintenant 👌👌
Et n’oubli pas que quand on se sert d’un assistant on paie au token comme quand on utilise une API, contrairement au gpts. Ce qui m’a mis la puce à l’oreille est la gestion de la temperature, ça c’est possible que si tu es sur une forme d’API, et l’assistant en fait parti.
Mais j’ai regardé a nouveau ta video et je crois que j’ai compris la diff assistant et GPTs. En fait on pourait faire tourner un espece de GPTs mais en le faisant agir par un autre biais, comme zappier et autres c’est ça ? Une sorte d’approche API mais en mode assistant
Mais exactement !! C'est ça ! Et ça ouvre des perspectives folles... (j'ai fait des tutos sur des automatismes utilisant un assistant pour répondre à des mails ou des commentaires sociaux comme moi par exemple, et y'a plein d'autres idées).
Et le add actions du gpts classique on peut l’automatiser aussi non ?? Pourquoi la platteforme ?
Côté GPTz, tu peux ajouter des actions aux GPTz, et c'est limité et pas simple de faire un truc classe. Côté assistant, c'est lui que tu peux intégrer, à tout ce que tu veux. Et je trouve ça bien plus puissant (mais bon, ça dépend des usages en fait).
Merci pour cette vidéo mais attention sans crédit impossible d'utiliser l'assistant.
Ah oui, c'est vrai ! On ne "consomme" pas d'abonnement, mais on consomme à l'utilisation !
Merciiiiiiiiiii
De rieeeeeeeen ;-)
Si je ne m'abuse, on peut faire la même chose avec les «spaces» de Perplexity .
Le fait que se soit payant, est vraiment un point noir... Payer, repayer...ça devient lourd malgré ton super Tuto. C'est dommage car c'est exactement ce dont j'aurais besoin car je ne peux pas choisir mon modèles dans les GPT'S.
Ouaip... mais si c'est gratuit, c'est toi le produit... l'avenir nous dira dans quel sens ça évolue (a priori, du côté d'OpenAI, on pense plutôt à des hausses :-( !)
@@RenaudDekode L'avantage avec Perplexity, à la place d'OpenAi, c'est que dans Perplexity il y a beaucoup de choses pour... le même prix.
Oui, mais je pense que ce que tlm veux c'est un assistant qui nous connais apple intelligence l’a compris pour moi). Et même si perplexity est pertinent, il ne propose pas la même chose. Et le fait de ne pas pouvoir choisir ces modèles dans les GPT'S montre une volonté du chiffre et la multiplication des services