Merci pour la vidéo ! J'ai implémenté du "reasoning" dans mon app, qui tourne majoritairement avec claude, la veille de cette annonce. Et franchement, pour mon usage spécifique, ça marche super bien. Pas trop étonné que les modèles essaient de l'inclure directement.
Oui je suis d'accord, mais dans un usage courant, je trouve que l'impact peut être marginal suivant la tâche demandée. En tout cas, ça montre le futur et ajouter des capacités de raisonnement aux LLMs ne peut être que bénéfique
@@goddanklou3483pour ma part aujourd'hui c'est Claude Sonnet 3.5 qui a ma préférence. Le modèle Codestral de chez Mistral est censé être très bon aussi mais je l'ai pas testé
En Physique, c'est une tuerie. Sur TH-cam il y a un type qui lui a donné plusieurs problèmes de niveau thésard, et il les a tous résolus: "Can ChatGPT o1-preview Solve PhD-level Physics Textbook Problems?"
J'ai malheureusement pas le niveau pour juger de ça mais je suis content de le lire car c'est la promesse d'OpenAI et je suis convaincu qu'ils délivrent ce qu'ils disent
Super vidéo !! Je me suis abonné à Claude pro en regardant tes vidéos, et j'ai eu accès aux nouveaux modèles d'OpenAI 5 min après donc j'attendais une vidéo et je suis en phase avec ce que tu dis : Ce n'est pas pour le grand public et je pense que c'est une erreur car cela apporte plus de confusion qu'autre chose. Après ils nous tease avec le mot preview, mais c'est GPT 4O + reasoning quoi, je ne pense pas que ce soit une vraie révolution..
A priori, c'est un vrai progrès, les usages scientifiques mais je suis d'accord que ça porte à confusion. A mon avis, ils ont pas résisté à l'opportunité marketing de mettre en avant leur puissance. C'est la guerre avec tous les autres modèles...
"Il semble que la sortie rapide du modèle en lien avec le projet 'Q Star' alias 'Strawberry' ne soit pas une coïncidence. Je n'ai pas l'impression que ce modèle soit lié à ce projet spécifique. En ce qui concerne l'IA, je crois que son développement ira au-delà des modèles de langage génératifs. Ce sera probablement plus complexe que cela." sachant que openai c'est empressé de sortir o1 quelques jour après la révélation du model réflection 70b...
La technique schéma de pensée est connu désormais. Il y'a une ia qui fait ce que o1 fait en faite... Sans limitation je peu vous la partager si vous souhaiter la test pour ma part je les tester jusqu'à présent ça fourni la même pertinence que le o1
Oui c'est un peu ça. Même si je dirai que là c'est comme si y avait eu un iphone 15 spécialisé pour les photographes animaliers par exemple. Mais du coup pour les autres, la différence est pas très visible car on a pas besoin des fonctions. On verra y aura sûrement des gens créatifs qui proposeront des usages auxquelles on a pas pensé
En Physique, c'est une tuerie. Sur TH-cam il y a un type qui lui a donné plusieurs problèmes de niveau thésard, et il les a tous résolus: "Can ChatGPT o1-preview Solve PhD-level Physics Textbook Problems?" Encore plus impressionnant, dans la vidéo "ChatGPT o1 preview + mini Wrote My PhD Code in 1 Hour*-What Took Me ~1 Year", il donne comme prompt la section "method" d'un article d'astrophysique dont il est l'auteur. Elle décrit précisément la méthodologie d'analyse qu'il a utilisée pour obtenir son résultat scientifique. o1 analyse le texte, et au bout d'une quarantaine de minutes, o1 pond le code Python qui arrive au même résultat (il essaye plusieurs fois, notamment pour la partie de lecture de données, sachant que les données sont elles-mêmes générées pour le test). Le code original de l'auteur, fruit d'un an de travail, fait 1145 lignes, le code généré par o1 fait moins de 230 lignes. Il n'y a probablement aucune chance que GPT4o fasse cela. Pour la plupart des gens, il n'y a pas besoin de o1.
Je ne suis malheureusement pas physicien (ni poète) mais je m'intéresse à l'impact sur les usages pour les gens normaux donc je teste sur les usages fréquents que j'ai observé. Effectivement la conclusion est bien que c'est un modèle pour les scientifiques comme annoncé par OpenAI :)
Merci pour la vidéo ! J'ai implémenté du "reasoning" dans mon app, qui tourne majoritairement avec claude, la veille de cette annonce. Et franchement, pour mon usage spécifique, ça marche super bien. Pas trop étonné que les modèles essaient de l'inclure directement.
Oui je suis d'accord, mais dans un usage courant, je trouve que l'impact peut être marginal suivant la tâche demandée. En tout cas, ça montre le futur et ajouter des capacités de raisonnement aux LLMs ne peut être que bénéfique
Peut tu donner les ia bon en code s'il te plaît
@@goddanklou3483pour ma part aujourd'hui c'est Claude Sonnet 3.5 qui a ma préférence. Le modèle Codestral de chez Mistral est censé être très bon aussi mais je l'ai pas testé
@@alexkovaxje crois que la vision arrive ou est arrivé chez mistral. Je l’avais laissé de coté pour ça
Merci Alexis ! :-) Tu as remarqué qu'on ne peut pas lui donner partager des fichiers ?
Oui mais j'imagine que ça viendra bientôt. Là c'est que la preview finalement
En Physique, c'est une tuerie. Sur TH-cam il y a un type qui lui a donné plusieurs problèmes de niveau thésard, et il les a tous résolus: "Can ChatGPT o1-preview Solve PhD-level Physics Textbook Problems?"
J'ai malheureusement pas le niveau pour juger de ça mais je suis content de le lire car c'est la promesse d'OpenAI et je suis convaincu qu'ils délivrent ce qu'ils disent
Super vidéo !! Je me suis abonné à Claude pro en regardant tes vidéos, et j'ai eu accès aux nouveaux modèles d'OpenAI 5 min après donc j'attendais une vidéo et je suis en phase avec ce que tu dis : Ce n'est pas pour le grand public et je pense que c'est une erreur car cela apporte plus de confusion qu'autre chose. Après ils nous tease avec le mot preview, mais c'est GPT 4O + reasoning quoi, je ne pense pas que ce soit une vraie révolution..
A priori, c'est un vrai progrès, les usages scientifiques mais je suis d'accord que ça porte à confusion. A mon avis, ils ont pas résisté à l'opportunité marketing de mettre en avant leur puissance. C'est la guerre avec tous les autres modèles...
"Il semble que la sortie rapide du modèle en lien avec le projet 'Q Star' alias 'Strawberry' ne soit pas une coïncidence. Je n'ai pas l'impression que ce modèle soit lié à ce projet spécifique. En ce qui concerne l'IA, je crois que son développement ira au-delà des modèles de langage génératifs. Ce sera probablement plus complexe que cela." sachant que openai c'est empressé de sortir o1 quelques jour après la révélation du model réflection 70b...
La technique schéma de pensée est connu désormais. Il y'a une ia qui fait ce que o1 fait en faite... Sans limitation je peu vous la partager si vous souhaiter la test pour ma part je les tester jusqu'à présent ça fourni la même pertinence que le o1
🤓
En effet. J ai vu aucune amélioration avec mes projets. Ça devient comme le passage de l'iphone 15 à l iphone 16
Oui c'est un peu ça. Même si je dirai que là c'est comme si y avait eu un iphone 15 spécialisé pour les photographes animaliers par exemple. Mais du coup pour les autres, la différence est pas très visible car on a pas besoin des fonctions. On verra y aura sûrement des gens créatifs qui proposeront des usages auxquelles on a pas pensé
En Physique, c'est une tuerie. Sur TH-cam il y a un type qui lui a donné plusieurs problèmes de niveau thésard, et il les a tous résolus: "Can ChatGPT o1-preview Solve PhD-level Physics Textbook Problems?"
Encore plus impressionnant, dans la vidéo "ChatGPT o1 preview + mini Wrote My PhD Code in 1 Hour*-What Took Me ~1 Year", il donne comme prompt la section "method" d'un article d'astrophysique dont il est l'auteur. Elle décrit précisément la méthodologie d'analyse qu'il a utilisée pour obtenir son résultat scientifique. o1 analyse le texte, et au bout d'une quarantaine de minutes, o1 pond le code Python qui arrive au même résultat (il essaye plusieurs fois, notamment pour la partie de lecture de données, sachant que les données sont elles-mêmes générées pour le test). Le code original de l'auteur, fruit d'un an de travail, fait 1145 lignes, le code généré par o1 fait moins de 230 lignes. Il n'y a probablement aucune chance que GPT4o fasse cela.
Pour la plupart des gens, il n'y a pas besoin de o1.
Dark mode, impossible de regarder ton écran
Dommage
Tester o1 en lui demandant de rédiger un article, c'est comme demander à un physicien de rédiger une poésie, le résultat ne sera pas incroyable...
Je ne suis malheureusement pas physicien (ni poète) mais je m'intéresse à l'impact sur les usages pour les gens normaux donc je teste sur les usages fréquents que j'ai observé. Effectivement la conclusion est bien que c'est un modèle pour les scientifiques comme annoncé par OpenAI :)
ça va pas vous servir ? ça dépend de votre usage. Au contraire, ça peut très bien vous servir
On verra, ça depend probablement des sujets