Renaud, le maitre en vulgarisation...un must par un pationné. En tout cas continue on en redemande et avec toi on gagne du temps....vraiment merci...aussi pour la bonne humeur quotidienne qui permet d'apprendre en se distraillant...un must!!!
@manuizi3917 ça a l'air intéressant. Je me familiarise avec l'IA, Chat GPT, Canva qui propose beaucoup de choses, Perplexity que j'aime bien, Gemini où j'ai plus de mal. Tout le monde se tire la bourre et j'ai du mal à faire un choix. Je suis sur Notion et Circle essentiellement, et HeyGen, Vimeo, etc. J'ai tout simplement besoin d'un outil qui enregistre toute ma documentation PDF. Chat GPT le fait très bien, et quand je fais un cours, podcasts, ebooks, vidéos, il me faut une IA générative qui soit capable de faire des schémas, d'y incorporer des vidéos, des exemples en BD, par exemple, pour que mes cours en conservation-restauration de biens culturels, spécialité sculptures, soient intéressants. Je sais que les mots clés et les invites doivent être très bien faits. Est-ce que les API sont importantes pour ça et pour mon funnel e-learning en webinaire pour mes futurs abonnés dans ma formation et coaching en conservation-restauration de biens culturels pour les propriétaires de patrimoine d'objets d'art privés, des communes, musées privés et des gestionnaires d'œuvres d'art ? Ces vidéos ont l'air bien, qu'en pensez-vous ? Jean-Paul.
Circle ?... mince, ça m'a interpelé... pourquoi ? Sinon, pour votre question, vous avez un bon petit panel déjà. Je "valide" ChatGPT (poussé), Perplexity, Canva. Heygen vraiment si vous avez des vidéos d'avatar à faire oui (sinon, bof). Pour les schémas, tentez Napkin. Pour les BDs, j'ai pas :-( Faut tester Notebook pour l'aspect documentaire. Et faut tester vraiment tout Perplexity : je pense aux Pages et Espaces, ça devrait vachement vous plaire. (j'ai fait un tuto sur ça si vous voulez)
Merci pour tes efforts, j'avoue qu'aux debuts de ta chaine je teouvais que tu blaguais beaucoup trooooop 😂 (c'était même insupportable à mon goût) mais là je trouves que tu as trouvé un equilibre parfait... merci
Merci !! Et bien, pour être franc, j'ai pas super envie :-) Je vais voir, parce que oui, tu as raison, ça peut avoir ses intérêts... J'ajoute à la liste ! :-)
Non, les fichiers que tu fournis vont bien chez OpenAI, pour y être vectorisés. Donc on peut les voir si on écoute ton réseau (comme tout ce que tu peux envoyer sur le web), mais une fois utilisés dans le RAG, pour chopper tes infos, faudrait hacker les serveurs (bon courage) puis récupérer ton rag, puis piocher dedans alors que tout est en données numériques (whalou !). Donc, yep, on peut écouter ton réseau et voir tes docs. Mais comme n'import quoi d'autre sur le web.
Merci Renaud pour cette vidéo très intéressante. Est-ce qu'il y a besoin de l'abonnement ChatGPT pour utiliser ces assistants ? Combien ça coute de les créer et les utiliser ? Enfin, est-ce que le "fine-tunning" qu'on voit dans l'interface permet d'avoir un encore meilleur assistant que celui montré dans la vidéo ? Si ou, est-ce facile et peu cher à utiliser ?
Les assistants sont du côté d'OpenAI, donc vraiment indépendant de ChatGPT et de son abonnement. On paye ici à l'usage (chaque requete et réponse coute des petits centimes, plus ou moins en fonction des modèles, etc.). Ca ne coute rien de les créer, ça coute zéro si on ne s'en sert pas et plus on s'en sert, plus ça coute. Le fine-tuning, permet d'avoir une expression de l'assistant totalement paramétré, c'est facile à utiliser (suffit de choisir le modele fine-tuné), par contre c'est un peu chaud à mettre en place parce qu'il faut fournir un fichier formater avec des exemples de dialogues, réponses, phrases pour fabriquer le fine-tuning (et chopper les infos et les assembler n'est pas toujours évident).
Salut Renaud, merci pour ce que tu fais. De mon côté j'ai un projet d'un workflow bien précis pour notion. Penses tu qu'il est possible que chat gpt soit capacitaire d'être connecté à notion pour le construire directement et le faire évoluer ? Je serai curieux d'avoir ton avis 😉
Salut ! Merci beaucoup ! Oh oui, y'a plein de possibilités avec Make de connecter Notion (à plein de niveau et dans plein de sens) et de connecter Chatgpt (idem, et un assistant aussi, ce qui peut être topissime). Après, tout dépend de ce que tu imagines ! Mais oui, il y a plein de chose à faire, et qui ne sont pas compliquées ! Faut juste d'abord avoir la logique qu'on souhaite concrétiser, et après, zou ! Si tu veux, tu peux venir partager sur renaud-dekode.fr, on aime bien s'entraider sur ces choses là. N'hésites pas.
:-) Bonne question ! Notebooklm est en fait un rag avec une ia (gemini), préparamétré. Donc ses avantages : tout est déjà prêt donc c'est fastoche. Et le premier avantage : c'est gratos ! Et ses inconvénients : bah, tous les autres :-) on ne peut pas lui donner de préprompt, on ne peut pas choisir de modèle, on ne peut pas faire son rag soi-même, on ne peut pas lui ajouter d'autres fonctions, on ne peut pas le fine-tuner, on ne peut s'en servir dans des app externes, des automatismes, dans un programme, etc.
Merci renaud, finalement un rag, c est un peu comme notebook lm ? Quels sont les cas ou le rag serait plus utile que passer par notebook ? Et sinon c est quoi cette option de fine tuning ? C est accessible sans etre programmeur ?
Oui ! Notebooklm, c'est un portail qui te facilite et te prémache la création d'un rag exploité par Gemini. C'est bluffant, car grand public et ça semble magique. Mais au final, les assistants GPT font ça depuis toujours (mais personne ne le sait, et faut se pencher dessus... du coup ça n'a pas fait le buz). Les cas ou l'assistant est plus utile : quand on veut qu'il parle d'une certaine façon, qu'on veut le préprompter, qu'on veut lui donner d'autres infos (genre qu'il nous connaisse un peu pour s'adapter), quand on veut mieux le paramétrer, et, surtout, quand on veut l'intégrer à des tas de trucs (des automatismes ! miam !). Le fine-tuning, c'est accessible, au même endroit, mais un poil plus chaud, notamment parce qu'il faut formater un fichier de conversation (et pour faire ça, en plus, bah faut les infos... et on ne les a pas toujours...)
Bonjour @Renaud et merci pour cette vidéo ! Une question quand même : tu parles de la différence entre les GPTs et les assistants paramètrables directement dans le backoffice de openAI, ok. Mais quelle est la différence concrètement, mis à part le fait de pouvoir choisir le modèle et de pouvoir interconnecter l'assistant ailleurs ? Est-ce que finalement, si on veut 4o et pas d'interconnexion, le GPTs suffit ? As tu comparé les résultats des deux ? Dans les GPTs, quand tu ajoutes des documents, on est d'accord que ChatGPT fait aussi la vectorisation des documents, n'est-ce pas ?
Et bien tu as vu venir la douille : quand on met des docs dans un GPTz, il le monte dans le prompt : ça agrandit la fenêtre d'entrée et ça dilue donc le prompt et il risque d'être plus flou, approximatif, d'oublier des choses, car il ne monte pas un rag !! L'assistant oui : les doc sont vectorisées, les infos sont pas dans le prompt (qui du coup est plus léger et moins cher) et les infos sont donc vachement mieux et plus précisément exploitées.
@@RenaudDekode Merci pour ta réponse ! Quand tu demandes à ChatGPT si les doc en base de connaissance dans un GPTs sont vectorisés, il te répond que... oui ! Comment es-tu sûr et certain qu'il ne sont pas vectorisés ?
@@clementcahagne8619 Ah... bah écoute, la doc d'Open AI n'indique rien sur la vectorisation dans les GPTz, et parle de la tokenisation dans la fenêtre. Et les différences semblent notable sur le traitement des docs (pas de sémantique par exemple avec les GPTz)... mais ça ne veut pas dire non plus, tu as raison, qu'on peut en être certain (en même temps, les données peuvent pas être à deux endroits en même temps... enfin, si, ça pourrait mais ce serait idiot je crois)... hmm... faudrait poser la question directement à OpenAI... :-/
@@RenaudDekode Ca marche merci pour ta réponse, c'est intéressant ! 🙂 Je cherche à comprendre le fond du trucs car j'ai fait des GPTs assez complexes qui marchent pas exactement comme souhaité. Pourtant j'ai suivi des méthodologies assez précises, mais je sens que c'est compliqué d'aller chercher des infos parfois dans les docs. D'où l'idée potentielle de passer par le playground, mais je souhaiterais être certain de la plus value
Je me pose exactement la même question. En effet, la documentation n'est pas claire, et demander à ChatGPT est parfois le meilleur moyen de semer encore plus de doutes ! Il serait pertinent de réaliser une série de tests comparatifs. Si quelqu'un est prêt à se lancer, ce serait très intéressant !
Je comprends pas, dans les gpts classiques on a bien la possibilité de lui mettre des fichiers dans sa base de knowledge, quelle est la difference à ce niveau ? Par contre choisir le gpt c’est bien et surtout j’ai cru voir qu’on pouvait regler sa temerature donc sur des commandes strictes on peut le rendre plus stable. Please réponds à ma question.
Mon frère a testé un.gpts avec des fichiers pdf de son travail (ça fait 4 mois) et ça ne marche pas bien du tout le prompt il le prend bien et les indications par contre les info pdf pas top en.tout cas je parle d'une expérience
Les fichiers que tu donnes à un GPTz, c'est comme les fichiers que tu joint quand tu prompt, ils vont dans les token, en complément du prompt, du coup, ce n'est pas vraiment "exploité" comme peuvent l'être les infos unitaires dans une base vectorielle. L'assistant, lui, utilise les données de façons précise, en contextualisant, et profite d'une recherche sémantique balaise. Alors que pour les GPTz, bah c'est comme si tu écrivais un prompt plus long : y'a pas de traitement précis, c'est pas une base, et du coup les réponses utilisent plus ou moins ces datas, de façon flou et aléatoire (c'est pas rien non plus, mais les résultats sont vraiment nettement moins bons avec un GPTz)
Côté GPTz, tu peux ajouter des actions aux GPTz, et c'est limité et pas simple de faire un truc classe. Côté assistant, c'est lui que tu peux intégrer, à tout ce que tu veux. Et je trouve ça bien plus puissant (mais bon, ça dépend des usages en fait).
Et n’oubli pas que quand on se sert d’un assistant on paie au token comme quand on utilise une API, contrairement au gpts. Ce qui m’a mis la puce à l’oreille est la gestion de la temperature, ça c’est possible que si tu es sur une forme d’API, et l’assistant en fait parti. Mais j’ai regardé a nouveau ta video et je crois que j’ai compris la diff assistant et GPTs. En fait on pourait faire tourner un espece de GPTs mais en le faisant agir par un autre biais, comme zappier et autres c’est ça ? Une sorte d’approche API mais en mode assistant
Mais exactement !! C'est ça ! Et ça ouvre des perspectives folles... (j'ai fait des tutos sur des automatismes utilisant un assistant pour répondre à des mails ou des commentaires sociaux comme moi par exemple, et y'a plein d'autres idées).
la question que je me pose c'est est ce qu'il serait possible de se créer un pti assistant vocal qui réponde uniquement sur un mots clé comme le ferait un asssistant google home, techniquement y'a rien qui nous en empeche non ?
Ah tout a fait ! Par exmple, j'ai fait mon petit assistant perso à qui je donne des consignes : si je commence une phrase par ça, alors tu fais ça. Quand on l'intègre à u programme, c'est super facile, et ça ouvre encore plein de possibilités.
Le fait que se soit payant, est vraiment un point noir... Payer, repayer...ça devient lourd malgré ton super Tuto. C'est dommage car c'est exactement ce dont j'aurais besoin car je ne peux pas choisir mon modèles dans les GPT'S.
Ouaip... mais si c'est gratuit, c'est toi le produit... l'avenir nous dira dans quel sens ça évolue (a priori, du côté d'OpenAI, on pense plutôt à des hausses :-( !)
27 วันที่ผ่านมา
@@RenaudDekode L'avantage avec Perplexity, à la place d'OpenAi, c'est que dans Perplexity il y a beaucoup de choses pour... le même prix.
Oui, mais je pense que ce que tlm veux c'est un assistant qui nous connais apple intelligence l’a compris pour moi). Et même si perplexity est pertinent, il ne propose pas la même chose. Et le fait de ne pas pouvoir choisir ces modèles dans les GPT'S montre une volonté du chiffre et la multiplication des services
Super explication Renaud ! Merci tu es le premier à ma connaissance qui donne la bonne explication de l'assistant.
Aaaaah. Ouf ! Merci !!!
Renaud, le maitre en vulgarisation...un must par un pationné. En tout cas continue on en redemande et avec toi on gagne du temps....vraiment merci...aussi pour la bonne humeur quotidienne qui permet d'apprendre en se distraillant...un must!!!
Oh bah j'ai gagné ma journée moi avec ce commentaire !! :-) Merci pour les encouragements !!
Génial je l’attendais cette vidéo !
🙂
@@RenaudDekodetu as prévu de parler des autres paramètres comme la température et les fonctions ? Je capte pas
@manuizi3917 ça a l'air intéressant. Je me familiarise avec l'IA, Chat GPT, Canva qui propose beaucoup de choses, Perplexity que j'aime bien, Gemini où j'ai plus de mal. Tout le monde se tire la bourre et j'ai du mal à faire un choix. Je suis sur Notion et Circle essentiellement, et HeyGen, Vimeo, etc. J'ai tout simplement besoin d'un outil qui enregistre toute ma documentation PDF. Chat GPT le fait très bien, et quand je fais un cours, podcasts, ebooks, vidéos, il me faut une IA générative qui soit capable de faire des schémas, d'y incorporer des vidéos, des exemples en BD, par exemple, pour que mes cours en conservation-restauration de biens culturels, spécialité sculptures, soient intéressants. Je sais que les mots clés et les invites doivent être très bien faits. Est-ce que les API sont importantes pour ça et pour mon funnel e-learning en webinaire pour mes futurs abonnés dans ma formation et coaching en conservation-restauration de biens culturels pour les propriétaires de patrimoine d'objets d'art privés, des communes, musées privés et des gestionnaires d'œuvres d'art ? Ces vidéos ont l'air bien, qu'en pensez-vous ? Jean-Paul.
Circle ?... mince, ça m'a interpelé... pourquoi ?
Sinon, pour votre question, vous avez un bon petit panel déjà. Je "valide" ChatGPT (poussé), Perplexity, Canva. Heygen vraiment si vous avez des vidéos d'avatar à faire oui (sinon, bof).
Pour les schémas, tentez Napkin.
Pour les BDs, j'ai pas :-(
Faut tester Notebook pour l'aspect documentaire.
Et faut tester vraiment tout Perplexity : je pense aux Pages et Espaces, ça devrait vachement vous plaire. (j'ai fait un tuto sur ça si vous voulez)
Quarantenaire, je m'immerge gentiement dans l'IA notamment grâce à ta chaîne, merci beaucoup !
Et bah merci à toi ! Ca fait plaisir !!
ahhhh enfin un tuto compréhensible sur les assistants j'ai pu le faire en live merci !
Han, génial, meilleure récompense ever !!! Merci !!! Let's rock ! 🙂
Merci Renaud toujours au top, merci pour tout ce que tu fais avec l ambiance qui va bien 👌
Oh, ça fait plaisir de te voir ici toi !!!! Comment ça va ????
Merci pour tes efforts, j'avoue qu'aux debuts de ta chaine je teouvais que tu blaguais beaucoup trooooop 😂 (c'était même insupportable à mon goût) mais là je trouves que tu as trouvé un equilibre parfait... merci
Faut plus que je touche au curseur alors !... :-) Merci.
Hello Renaud, merci beaucoup pour la vidéo ! Peux tu faire un tuto sur comment creer des actions dans les GPTz
Merci !!
Et bien, pour être franc, j'ai pas super envie :-) Je vais voir, parce que oui, tu as raison, ça peut avoir ses intérêts... J'ajoute à la liste ! :-)
@RenaudDekode merciii, et désolé je viens de réaliser que j'ai oublié de mettre un stp dans ma question, ce n'était pas volontaire 😅
@@mohsine87 :-) oh bah pas de problème !
Merci Renaud, est ce que les fichiers que l'on dépose sont en local ? est ce que quelqu'un d'autres peut le voir?
Non, les fichiers que tu fournis vont bien chez OpenAI, pour y être vectorisés. Donc on peut les voir si on écoute ton réseau (comme tout ce que tu peux envoyer sur le web), mais une fois utilisés dans le RAG, pour chopper tes infos, faudrait hacker les serveurs (bon courage) puis récupérer ton rag, puis piocher dedans alors que tout est en données numériques (whalou !). Donc, yep, on peut écouter ton réseau et voir tes docs. Mais comme n'import quoi d'autre sur le web.
Merci Renaud pour cette vidéo très intéressante. Est-ce qu'il y a besoin de l'abonnement ChatGPT pour utiliser ces assistants ? Combien ça coute de les créer et les utiliser ? Enfin, est-ce que le "fine-tunning" qu'on voit dans l'interface permet d'avoir un encore meilleur assistant que celui montré dans la vidéo ? Si ou, est-ce facile et peu cher à utiliser ?
Les assistants sont du côté d'OpenAI, donc vraiment indépendant de ChatGPT et de son abonnement. On paye ici à l'usage (chaque requete et réponse coute des petits centimes, plus ou moins en fonction des modèles, etc.). Ca ne coute rien de les créer, ça coute zéro si on ne s'en sert pas et plus on s'en sert, plus ça coute.
Le fine-tuning, permet d'avoir une expression de l'assistant totalement paramétré, c'est facile à utiliser (suffit de choisir le modele fine-tuné), par contre c'est un peu chaud à mettre en place parce qu'il faut fournir un fichier formater avec des exemples de dialogues, réponses, phrases pour fabriquer le fine-tuning (et chopper les infos et les assembler n'est pas toujours évident).
@@RenaudDekode Merci beaucoup d'avoir pris le temps d'éclairer ma lanterne 👍
oh mais de rien ! :-)
Salut Renaud, merci pour ce que tu fais. De mon côté j'ai un projet d'un workflow bien précis pour notion. Penses tu qu'il est possible que chat gpt soit capacitaire d'être connecté à notion pour le construire directement et le faire évoluer ? Je serai curieux d'avoir ton avis 😉
Salut ! Merci beaucoup !
Oh oui, y'a plein de possibilités avec Make de connecter Notion (à plein de niveau et dans plein de sens) et de connecter Chatgpt (idem, et un assistant aussi, ce qui peut être topissime).
Après, tout dépend de ce que tu imagines ! Mais oui, il y a plein de chose à faire, et qui ne sont pas compliquées ! Faut juste d'abord avoir la logique qu'on souhaite concrétiser, et après, zou !
Si tu veux, tu peux venir partager sur renaud-dekode.fr, on aime bien s'entraider sur ces choses là. N'hésites pas.
Top, merci. Du coup, avantages/inconvénients par rapport à notebooklm ?
:-) Bonne question !
Notebooklm est en fait un rag avec une ia (gemini), préparamétré. Donc ses avantages : tout est déjà prêt donc c'est fastoche. Et le premier avantage : c'est gratos !
Et ses inconvénients : bah, tous les autres :-) on ne peut pas lui donner de préprompt, on ne peut pas choisir de modèle, on ne peut pas faire son rag soi-même, on ne peut pas lui ajouter d'autres fonctions, on ne peut pas le fine-tuner, on ne peut s'en servir dans des app externes, des automatismes, dans un programme, etc.
Merci renaud, finalement un rag, c est un peu comme notebook lm ? Quels sont les cas ou le rag serait plus utile que passer par notebook ? Et sinon c est quoi cette option de fine tuning ? C est accessible sans etre programmeur ?
Oui ! Notebooklm, c'est un portail qui te facilite et te prémache la création d'un rag exploité par Gemini. C'est bluffant, car grand public et ça semble magique. Mais au final, les assistants GPT font ça depuis toujours (mais personne ne le sait, et faut se pencher dessus... du coup ça n'a pas fait le buz).
Les cas ou l'assistant est plus utile : quand on veut qu'il parle d'une certaine façon, qu'on veut le préprompter, qu'on veut lui donner d'autres infos (genre qu'il nous connaisse un peu pour s'adapter), quand on veut mieux le paramétrer, et, surtout, quand on veut l'intégrer à des tas de trucs (des automatismes ! miam !).
Le fine-tuning, c'est accessible, au même endroit, mais un poil plus chaud, notamment parce qu'il faut formater un fichier de conversation (et pour faire ça, en plus, bah faut les infos... et on ne les a pas toujours...)
@@RenaudDekode merci bcp pour ton aimable et pédagogique réponse ! A bientot en live Renaud !
Bonjour @Renaud et merci pour cette vidéo ! Une question quand même : tu parles de la différence entre les GPTs et les assistants paramètrables directement dans le backoffice de openAI, ok. Mais quelle est la différence concrètement, mis à part le fait de pouvoir choisir le modèle et de pouvoir interconnecter l'assistant ailleurs ? Est-ce que finalement, si on veut 4o et pas d'interconnexion, le GPTs suffit ? As tu comparé les résultats des deux ?
Dans les GPTs, quand tu ajoutes des documents, on est d'accord que ChatGPT fait aussi la vectorisation des documents, n'est-ce pas ?
Et bien tu as vu venir la douille : quand on met des docs dans un GPTz, il le monte dans le prompt : ça agrandit la fenêtre d'entrée et ça dilue donc le prompt et il risque d'être plus flou, approximatif, d'oublier des choses, car il ne monte pas un rag !! L'assistant oui : les doc sont vectorisées, les infos sont pas dans le prompt (qui du coup est plus léger et moins cher) et les infos sont donc vachement mieux et plus précisément exploitées.
@@RenaudDekode Merci pour ta réponse ! Quand tu demandes à ChatGPT si les doc en base de connaissance dans un GPTs sont vectorisés, il te répond que... oui ! Comment es-tu sûr et certain qu'il ne sont pas vectorisés ?
@@clementcahagne8619 Ah... bah écoute, la doc d'Open AI n'indique rien sur la vectorisation dans les GPTz, et parle de la tokenisation dans la fenêtre. Et les différences semblent notable sur le traitement des docs (pas de sémantique par exemple avec les GPTz)... mais ça ne veut pas dire non plus, tu as raison, qu'on peut en être certain (en même temps, les données peuvent pas être à deux endroits en même temps... enfin, si, ça pourrait mais ce serait idiot je crois)... hmm... faudrait poser la question directement à OpenAI... :-/
@@RenaudDekode Ca marche merci pour ta réponse, c'est intéressant ! 🙂 Je cherche à comprendre le fond du trucs car j'ai fait des GPTs assez complexes qui marchent pas exactement comme souhaité. Pourtant j'ai suivi des méthodologies assez précises, mais je sens que c'est compliqué d'aller chercher des infos parfois dans les docs. D'où l'idée potentielle de passer par le playground, mais je souhaiterais être certain de la plus value
Je me pose exactement la même question. En effet, la documentation n'est pas claire, et demander à ChatGPT est parfois le meilleur moyen de semer encore plus de doutes ! Il serait pertinent de réaliser une série de tests comparatifs. Si quelqu'un est prêt à se lancer, ce serait très intéressant !
La classe internationale 🎉
La classe à Dallas !
Je comprends pas, dans les gpts classiques on a bien la possibilité de lui mettre des fichiers dans sa base de knowledge, quelle est la difference à ce niveau ? Par contre choisir le gpt c’est bien et surtout j’ai cru voir qu’on pouvait regler sa temerature donc sur des commandes strictes on peut le rendre plus stable. Please réponds à ma question.
Mon frère a testé un.gpts avec des fichiers pdf de son travail (ça fait 4 mois) et ça ne marche pas bien du tout le prompt il le prend bien et les indications par contre les info pdf pas top en.tout cas je parle d'une expérience
Les fichiers que tu donnes à un GPTz, c'est comme les fichiers que tu joint quand tu prompt, ils vont dans les token, en complément du prompt, du coup, ce n'est pas vraiment "exploité" comme peuvent l'être les infos unitaires dans une base vectorielle. L'assistant, lui, utilise les données de façons précise, en contextualisant, et profite d'une recherche sémantique balaise. Alors que pour les GPTz, bah c'est comme si tu écrivais un prompt plus long : y'a pas de traitement précis, c'est pas une base, et du coup les réponses utilisent plus ou moins ces datas, de façon flou et aléatoire (c'est pas rien non plus, mais les résultats sont vraiment nettement moins bons avec un GPTz)
@@RenaudDekode ah intéressant merci beaucoup je comprends mieux maintenant 👌👌
Et le add actions du gpts classique on peut l’automatiser aussi non ?? Pourquoi la platteforme ?
Côté GPTz, tu peux ajouter des actions aux GPTz, et c'est limité et pas simple de faire un truc classe. Côté assistant, c'est lui que tu peux intégrer, à tout ce que tu veux. Et je trouve ça bien plus puissant (mais bon, ça dépend des usages en fait).
Merciiiiiiiiiii
De rieeeeeeeen ;-)
Et n’oubli pas que quand on se sert d’un assistant on paie au token comme quand on utilise une API, contrairement au gpts. Ce qui m’a mis la puce à l’oreille est la gestion de la temperature, ça c’est possible que si tu es sur une forme d’API, et l’assistant en fait parti.
Mais j’ai regardé a nouveau ta video et je crois que j’ai compris la diff assistant et GPTs. En fait on pourait faire tourner un espece de GPTs mais en le faisant agir par un autre biais, comme zappier et autres c’est ça ? Une sorte d’approche API mais en mode assistant
Mais exactement !! C'est ça ! Et ça ouvre des perspectives folles... (j'ai fait des tutos sur des automatismes utilisant un assistant pour répondre à des mails ou des commentaires sociaux comme moi par exemple, et y'a plein d'autres idées).
la question que je me pose c'est est ce qu'il serait possible de se créer un pti assistant vocal qui réponde uniquement sur un mots clé comme le ferait un asssistant google home, techniquement y'a rien qui nous en empeche non ?
Ah tout a fait ! Par exmple, j'ai fait mon petit assistant perso à qui je donne des consignes : si je commence une phrase par ça, alors tu fais ça. Quand on l'intègre à u programme, c'est super facile, et ça ouvre encore plein de possibilités.
@@RenaudDekode Manque plus qu'a avoir les intégrations avec la domotique etc ^^
@@Aresic1337 Edzactment ! :-)
Merci pour cette vidéo mais attention sans crédit impossible d'utiliser l'assistant.
Ah oui, c'est vrai ! On ne "consomme" pas d'abonnement, mais on consomme à l'utilisation !
Si je ne m'abuse, on peut faire la même chose avec les «spaces» de Perplexity .
Le fait que se soit payant, est vraiment un point noir... Payer, repayer...ça devient lourd malgré ton super Tuto. C'est dommage car c'est exactement ce dont j'aurais besoin car je ne peux pas choisir mon modèles dans les GPT'S.
Ouaip... mais si c'est gratuit, c'est toi le produit... l'avenir nous dira dans quel sens ça évolue (a priori, du côté d'OpenAI, on pense plutôt à des hausses :-( !)
@@RenaudDekode L'avantage avec Perplexity, à la place d'OpenAi, c'est que dans Perplexity il y a beaucoup de choses pour... le même prix.
Oui, mais je pense que ce que tlm veux c'est un assistant qui nous connais apple intelligence l’a compris pour moi). Et même si perplexity est pertinent, il ne propose pas la même chose. Et le fait de ne pas pouvoir choisir ces modèles dans les GPT'S montre une volonté du chiffre et la multiplication des services