Hello Natacha. Déjà merci pour ton contenu. je t'ai découvert il n'y a pas très longtemps mais je bois tes vidéos comme la Top grenadine. Je suis en région parisienne (VdF, j'ai aussi bossé au siège de la SG à LaDef, on s'est peut-être croisés). Je viens de regarder les 12 premières minutes et avant même de terminer je me suis jeté sur Perplexité et que dire... Je sens que je viens de trouver un nouveau super pouvoir. Je vais encore attendre avant de remplacer ChatGPT mais c'est plus que prometteur. Continue de ,=nous faire kiffer avec ce contenu compatriote, j'espère pouvoir te croiser pour échanger un jour (pas trop lointain)
merci de participer à ma formation de data scientist moi je fais auto formation et j'espère m'en sortir un jour(faute de moyen) mais j'avoue que je suis très très bien aujourd'hui malgré j'ai pas de diplôme...
Merci pour ta vidéo Natacha. Je me permets de te faire part d'un point d'attention avec beaucoup de bienveillance. En effet, vu l'audience que tu as, ça serait cool que tu sensibilises les gens à faire attention lorsqu'ils génèrent des articles de blogs en 2 secondes sans être experts. En effet, s'ils cherchent à créer du contenu sans vraiment apprendre, et juste pour aller vite, je trouve ça problématique (où est le fun ? Où est l'expertise dans tout ça ?). Ensuite, s'ils ne vérifient pas l'article et qu'il y a des erreurs, à long terme, ça polluera internet et les systèmes de référencement. C'est une problématique réelle qui risque d'arriver et des alertes sont déjà lancées à ce sujet.
Je me permets de répondre en faisant une analogie avec ChatGPT. Derrière chatgpt y a gpt4-o ou gpt 4 ou gpt 3.5 comme modèles. Mais en plus il y a toute une machinerie de prétraitements et post-traitements qui améliorent grandement la performance. C'est pareil ici avec perpelexity.
@@soniatabti6706 J'utilise Ollama depuis peu en local; les tests que j'ai effectués avec llama3 en maths avec SciPy et SymPy et dans d'autres domaines; c'est plutôt satisfaisant et c'est gratuit! Il faut un abonnement pour obtenir certains résultats ailleurs. Le seul problème vraiment ennuyeux que j'ai eu, c'est le choix du modèle llama 3 : très lourd en téléchargement! Avec un très mauvais réseau wi-fi, en utiilisant Bluetooth: ça m'a pris pratiquement +24 h pour télécharger les 4,7 GB. Mais je voulais utiliser Ollama en local; en performance, llama3 s'approche de GPT4-0 et pro mais pas encore d'images.
Hello Natacha. Déjà merci pour ton contenu. je t'ai découvert il n'y a pas très longtemps mais je bois tes vidéos comme la Top grenadine. Je suis en région parisienne (VdF, j'ai aussi bossé au siège de la SG à LaDef, on s'est peut-être croisés). Je viens de regarder les 12 premières minutes et avant même de terminer je me suis jeté sur Perplexité et que dire... Je sens que je viens de trouver un nouveau super pouvoir. Je vais encore attendre avant de remplacer ChatGPT mais c'est plus que prometteur. Continue de ,=nous faire kiffer avec ce contenu compatriote, j'espère pouvoir te croiser pour échanger un jour (pas trop lointain)
Cool, je viens de découvrir tes vidéos. Suis en formation (Prompt Engineering) en Allemagne et trouve tes vidéos vraiment intéressantes.
Merci et bienvenue 😊
Trop cool vos videos 😁
Savais pas qu il y avait des lives 🥲
Ça fait plaisir 😊
merci de participer à ma formation de data scientist moi je fais auto formation et j'espère m'en sortir un jour(faute de moyen) mais j'avoue que je suis très très bien aujourd'hui malgré j'ai pas de diplôme...
Merci pour ta vidéo Natacha. Je me permets de te faire part d'un point d'attention avec beaucoup de bienveillance. En effet, vu l'audience que tu as, ça serait cool que tu sensibilises les gens à faire attention lorsqu'ils génèrent des articles de blogs en 2 secondes sans être experts. En effet, s'ils cherchent à créer du contenu sans vraiment apprendre, et juste pour aller vite, je trouve ça problématique (où est le fun ? Où est l'expertise dans tout ça ?). Ensuite, s'ils ne vérifient pas l'article et qu'il y a des erreurs, à long terme, ça polluera internet et les systèmes de référencement. C'est une problématique réelle qui risque d'arriver et des alertes sont déjà lancées à ce sujet.
Bonjour ...
Puisque Perplexity utilise aussi Llama3, quel est l'intérêt d'avoir recours à cette ia payante alors que Llama3 en local est gratuit?
Je me permets de répondre en faisant une analogie avec ChatGPT. Derrière chatgpt y a gpt4-o ou gpt 4 ou gpt 3.5 comme modèles. Mais en plus il y a toute une machinerie de prétraitements et post-traitements qui améliorent grandement la performance. C'est pareil ici avec perpelexity.
@@soniatabti6706
J'utilise Ollama depuis peu en local; les tests que j'ai effectués avec llama3 en maths avec SciPy et SymPy et dans d'autres domaines; c'est plutôt satisfaisant et c'est gratuit!
Il faut un abonnement pour obtenir certains résultats ailleurs.
Le seul problème vraiment ennuyeux que j'ai eu, c'est le choix du modèle llama 3 : très lourd en téléchargement!
Avec un très mauvais réseau wi-fi, en utiilisant Bluetooth: ça m'a pris pratiquement +24 h pour télécharger les 4,7 GB.
Mais je voulais utiliser Ollama en local; en performance, llama3 s'approche de GPT4-0 et pro mais pas encore d'images.