C'est très impressionnant, bravo pour la démo ! Marrant la façon dont ils bossent : ils commencent par dire un truc bof, tu leur réponds "non réfléchis mieux" et ils font immédiatement nettement mieux. On a l'impression qu'une piste immédiate d'amélioration c'est de leur mettre une petite boucle automatique "peux-tu améliorer ta réponse ?" Bon enfin dans 5 ans, j'ai l'impression qu'on sera dans un monde complètement différent. Deep Blue a battu Kasparov en 1997. Maintenant, les programmes baladent les super grands maîtres comme des enfants. Pour le jeu de go, c'était en 2016-2017. Les maths c'est manifestement pour dans pas très longtemps...
Exactement t'as tout compris ! Déjà effectivement il faut regarder le chemin parcouru sur les deux dernières années et pas juste regarder la photo aujourd'hui Sur le fait qu'il faille "insister" j'avais entendu ça dans un podcast où un mec a développé de bout en bout une app' avec ChatGPT qui lui disait beaucoup "on pourrait faire comme ça" et en lui disant bah ok fais-le. En fait j'ai l'impression que ça marche moyennement aussi parce qu'on lui en demande trop d'un coup. Peut-être qu'en lui demandant les questions 1 par 1 ça marcherait un peu mieux, comme si sa "capacité de réflexion" est limitée et donc en lui demandant d'abord Q1 puis Q2 puis Q3 il y arrivera mieux.
Merci pour la vidéo ! Très intéressant. Mais attention, l'exercice sur la fonctionnelle intégrale a été repris un certain nombre de fois sur Internet, ainsi que d'autres semblables, et l'IA peut tout simplement piquer pleins de résultats sur Internet. Yahn Lecun avait fait remarquer qu'un exercice VRAIMENT original ne peut pas être résolu par une IA.
Il y a une vidéo d’un chercheur à la Nasa qui teste un exercice assez dur qui n’est pas sur internet et est fait par un de ses anciens professeurs et gpt o1 preview résout l’exo. Donc non, les modèles de languages savent generaliser et heureusement puisque c’est le but du machine learning d’eviter l’overfitting et d’éviter d’etre un perroquet.
En fait l'IA est bien meilleure que ce que tu dis . Elle sait tout traiter, connait les bons résultats , ne fait pas d'erreur mais pour une raison étrange donne parfois des résultats et ne se rend pas compte qu'elle n'est pas allée au bout de la démonstration. On pourrait dire qu'elle intégrerait une GE déjà aujourd'hui. Je pense qu'elle est aussi bonne en physique qu'en maths. En fait comme elle va très vite (bien plus vite qu'un humain) , il faudrait lui donner l'instruction "Tu as 4 heures donc quand tu auras tout fait, vérifie que toute affirmation non triviale est démontrée ou justifiée par un théorème."
@@Progresser-en-maths Elle n'aurait peut-être pas 20/20 mais sachant qu'elle ferait tout et pourrait tout vérifier une dizaine de fois, un 15/20 (en gros) suffit largement pour être admissible. D'autant que je suppose qu'elle serait aussi bonne en physique , en langues et en français :) Pour le français j'ai un petit doute (compréhension d'un texte velu ?). Il faudrait faire un test avec un sujet de concours complet ...
L'IA fait des erreurs, elle fait des erreurs d'inattention, ce qui est tres étrange pour une machine... et tend à prouver qu'on est plus sur 'être' qu'une machine. Par exemple j'ai déja vu l'IA écrire la vitesse de la lumière en km/h au lieu de km/s... l'erreur hyper humaine !
@@northerngannetproject3147 elle fait les mêmes erreurs que les humains puisque son apprentissage est basé sur ce qui est sur internet donc ce n'est pas très étonnant. Même si ils essaient de récupérer des bonnes sources (comme Wikipédia), il peut aussi y avoir des forums dans la base d'entraînement
@@northerngannetproject3147 J'ai fait plusieurs exercicies niveau concours GE et ce qui me frappe est que l'IA n'a apparemment pas la capacité d'étonnement. P.ex en présence d'une contradiction, elle ne se dit pas toute seule "il y a forcément une erreur quelque part" mais quand on le lui signale, elle dit "oui, tu as raison, il faut recalculer ceci ou cela.". Cela étant quand on la guide un peu, c'est assez impressionnant de voir ce qu'elle peut faire .
@@Progresser-en-maths Je commence tout juste (suite à la lecture de l'article dans Nature) et je pense que cela va révolutionner les maths (même au niveau recherche, Timothy Gowers est du même avis). Deepmind indique que ce n'est qu'une petite version et que ça va évoluer très très fort.
La démonstration du Ker(G) proposée par Claude Sonnet n'est pas correcte non plus. On cherche f € E telle que G(f) = 0 V x€[0,1] G(f)(x) = intg(0 ->1)(min(x, t) f(t) dt) = 0. Cette égalité doit donc être vérifiée pour x = 1, et donc G(f)(1) = intg(0 ->1)(t f(t) dt) = 0. De ce qui précède et considérant que V t€[0,1], tf(t) est continue, intg(0 ->1)(t f(t) dt) ne peut pas être nulle presque partout, donc f=0.
Cela ne me semble pas correct. On cherche f € E telle que G(f) = 0 V x€[0,1] G(f)(x) = intg(0 ->1)(min(x, t) f(t) dt) = 0 (1). Si on cherche f € E telle que G''(f) = 0 alors oui f = 0 car G''(f) = -f. Mais, sauf erreur de ma part, on ne peut en déduire que seul f = 0 est solution de (1) (G et G'' sont deux applications différentes).
Vidéo fort intéressante ! Il serait néanmoins agréable de ne pas entendre la faute classique "la question une" mais la forme correcte "la question un". En effet, il s'agit ici, non pas de l'article indéfini ("un, une"), mais de l'adjectif numéral ("un, deux, trois...").
C'est très impressionnant, bravo pour la démo !
Marrant la façon dont ils bossent : ils commencent par dire un truc bof, tu leur réponds "non réfléchis mieux" et ils font immédiatement nettement mieux.
On a l'impression qu'une piste immédiate d'amélioration c'est de leur mettre une petite boucle automatique "peux-tu améliorer ta réponse ?"
Bon enfin dans 5 ans, j'ai l'impression qu'on sera dans un monde complètement différent.
Deep Blue a battu Kasparov en 1997. Maintenant, les programmes baladent les super grands maîtres comme des enfants.
Pour le jeu de go, c'était en 2016-2017.
Les maths c'est manifestement pour dans pas très longtemps...
Exactement t'as tout compris !
Déjà effectivement il faut regarder le chemin parcouru sur les deux dernières années et pas juste regarder la photo aujourd'hui
Sur le fait qu'il faille "insister" j'avais entendu ça dans un podcast où un mec a développé de bout en bout une app' avec ChatGPT qui lui disait beaucoup "on pourrait faire comme ça" et en lui disant bah ok fais-le.
En fait j'ai l'impression que ça marche moyennement aussi parce qu'on lui en demande trop d'un coup. Peut-être qu'en lui demandant les questions 1 par 1 ça marcherait un peu mieux, comme si sa "capacité de réflexion" est limitée et donc en lui demandant d'abord Q1 puis Q2 puis Q3 il y arrivera mieux.
Merci pour la vidéo ! Très intéressant.
Mais attention, l'exercice sur la fonctionnelle intégrale a été repris un certain nombre de fois sur Internet, ainsi que d'autres semblables, et l'IA peut tout simplement piquer pleins de résultats sur Internet.
Yahn Lecun avait fait remarquer qu'un exercice VRAIMENT original ne peut pas être résolu par une IA.
Il y a t il des exercices vraiment originaux (inédits) posés aux oraux de prépa ? Très peu je pense
Exact pour l'instant chatgpt n'est qu'un perroquet amélioré
Il y a une vidéo d’un chercheur à la Nasa qui teste un exercice assez dur qui n’est pas sur internet et est fait par un de ses anciens professeurs et gpt o1 preview résout l’exo. Donc non, les modèles de languages savent generaliser et heureusement puisque c’est le but du machine learning d’eviter l’overfitting et d’éviter d’etre un perroquet.
En fait l'IA est bien meilleure que ce que tu dis . Elle sait tout traiter, connait les bons résultats , ne fait pas d'erreur mais pour une raison étrange donne parfois des résultats et ne se rend pas compte qu'elle n'est pas allée au bout de la démonstration. On pourrait dire qu'elle intégrerait une GE déjà aujourd'hui.
Je pense qu'elle est aussi bonne en physique qu'en maths. En fait comme elle va très vite (bien plus vite qu'un humain) , il faudrait lui donner l'instruction "Tu as 4 heures donc quand tu auras tout fait, vérifie que toute affirmation non triviale est démontrée ou justifiée par un théorème."
@@wohargRadu pourtant elle fait des erreurs
@@Progresser-en-maths Elle n'aurait peut-être pas 20/20 mais sachant qu'elle ferait tout et pourrait tout vérifier une dizaine de fois, un 15/20 (en gros) suffit largement pour être admissible. D'autant que je suppose qu'elle serait aussi bonne en physique , en langues et en français :) Pour le français j'ai un petit doute (compréhension d'un texte velu ?). Il faudrait faire un test avec un sujet de concours complet ...
L'IA fait des erreurs, elle fait des erreurs d'inattention, ce qui est tres étrange pour une machine... et tend à prouver qu'on est plus sur 'être' qu'une machine.
Par exemple j'ai déja vu l'IA écrire la vitesse de la lumière en km/h au lieu de km/s... l'erreur hyper humaine !
@@northerngannetproject3147 elle fait les mêmes erreurs que les humains puisque son apprentissage est basé sur ce qui est sur internet donc ce n'est pas très étonnant. Même si ils essaient de récupérer des bonnes sources (comme Wikipédia), il peut aussi y avoir des forums dans la base d'entraînement
@@northerngannetproject3147 J'ai fait plusieurs exercicies niveau concours GE et ce qui me frappe est que l'IA n'a apparemment pas la capacité d'étonnement. P.ex en présence d'une contradiction, elle ne se dit pas toute seule "il y a forcément une erreur quelque part" mais quand on le lui signale, elle dit "oui, tu as raison, il faut recalculer ceci ou cela.". Cela étant quand on la guide un peu, c'est assez impressionnant de voir ce qu'elle peut faire .
C'est marrant pour la question 2 chat gpt prend des arguments de l'intégrale de lebesgue un peu random
AlphaProof et AlphaGeometry sont d'un niveau effrayant
Tu les utilises régulièrement ?
@@Progresser-en-maths Je commence tout juste (suite à la lecture de l'article dans Nature) et je pense que cela va révolutionner les maths (même au niveau recherche, Timothy Gowers est du même avis). Deepmind indique que ce n'est qu'une petite version et que ça va évoluer très très fort.
@@mrbenson63comment faite vous pour utilisé se site ? Je trouve pas de lien
@@antontop7042 j'ai un early access comme chercheur en mathématiques
Il est problable que vous ayez 0 mdr
J'étais content de ma vanne
j'ai explosé de rire 😂
La démonstration du Ker(G) proposée par Claude Sonnet n'est pas correcte non plus. On cherche f € E telle que G(f) = 0 V x€[0,1] G(f)(x) = intg(0 ->1)(min(x, t) f(t) dt) = 0. Cette égalité doit donc être vérifiée pour x = 1, et donc G(f)(1) = intg(0 ->1)(t f(t) dt) = 0. De ce qui précède et considérant que V t€[0,1], tf(t) est continue, intg(0 ->1)(t f(t) dt) ne peut pas être nulle presque partout, donc f=0.
Je ne comprends pas ta démo, tf(t) peut être négatif
Oui effectivement, cela ne suffit pas car f : [0, 1] -> R.
@@fabricesolaris4294 de mon côté je ne trouve rien à redire de celle proposée par Claude (pour cette partie là)
Si on a G(f)= 0
On dérive 2 fois (par rapport à X donc) : G''(f)=0
Or, G''(f)= -f
Donc f = 0
Cela ne me semble pas correct. On cherche f € E telle que G(f) = 0 V x€[0,1] G(f)(x) = intg(0 ->1)(min(x, t) f(t) dt) = 0 (1). Si on cherche f € E telle que G''(f) = 0 alors oui f = 0 car G''(f) = -f. Mais, sauf erreur de ma part, on ne peut en déduire que seul f = 0 est solution de (1) (G et G'' sont deux applications différentes).
Vidéo fort intéressante ! Il serait néanmoins agréable de ne pas entendre la faute classique "la question une" mais la forme correcte "la question un". En effet, il s'agit ici, non pas de l'article indéfini ("un, une"), mais de l'adjectif numéral ("un, deux, trois...").