Merci pour cette vidéo. Je découvre votre chaine, par hasard, en faisant un état de l'art. Et je trouve vos explications extrêmement clairs et fluides (et denses également). Merci encore une fois
Hello, merci beaucoup pour cette série de vidéo, géniale ! Intuitivement je dirais qu'un "max pooling" aurait plus tendance à conserver les éléments très distinctif de l'image et donc à être plus discriminent.
Sur le supériorité de max pooling sur average, c'était déjà le cas en pratique "avant", avec les sacs de mots visuels et les Fisher Vector. Les raisons n'en sont pas toujours claires mais il y a des indices dans certains cas. Basiquement, une statistique d'ordre telle que max peut être plus robustes à des bruits et ainsi mieux représenter certains invariants désirables par exemple. Ça doit être expliqué dans le chapitre 6 du livre de Goodfelow, dans la partie concernant le pooling.
Merci pour la vidéo ! Petite question, Est-ce-que les réseaux de neurones sont sensibles aux illusions d'optique. (je pense notamment au célèbre lapin canard).
Man what an amazing video, you solved all my doubts thank you very much! Luckily I speak french, but I think you should put some english subtitles, that can help a lot des personnes non francophones
Pour calculer la matrice de convolution, on sélectionne le premier neurone aléatoirement ? ou y'a t-il un facteur dans le choix de ce neurone (hétérogénéité des données issues des neurones d’observation) pour déterminer la matrice de convolution qu'ensuite on appliquera comme poids à chaque neurone de la même couche ?
Bonjour, j'ai du mal à comprendre concrètement comment se traduit "l'architecture pré-programmée pour l'invariance par translation des images". Est-ce que par exemple cela veut dire qu'en présentant au réseau une image A de face et une image B légèrement de côté du même objet, un CNN n'aura aucune difficulté à "voir" que les objets sont les même?
Ce qui m'impressionne le plus c'est à quel point le chat c'est imposé comme exemple type d'image à reconnaître. On le retrouve dans tous les cours à l'université, dans toutes les chroniques de vulgarisations sur internet. Je crois vraiment que les informaticiens vouent un culte énorme à cet animal.
Je pense qu'il y a une erreur sur le pooling (ou j'ai peut-être mal compris) j'ai compris que tu disais que le pooling se fait en faisant la moyenne ou le max sur les filtres pour chaque pixel de sortie de la convolution alors que le pooling est fait sur des pixels proches dans l'image, pas sur les différents filtres. Du coup si on a une image 28x28 qu'on passe avec 8 filtres de convolutions 4x4 on obtient 8 images 24x24 is en suite on fait un pooling 2x2 on obtient 8 images de 12x12.
Ça me fait penser, le nombre de neurones permettant d'analyser une image dépend du nombre de données (que ça soit un nombre de pixels pour des intelligences artificielles ou un nombre de points discernables d'images dépendant de l'acuité visuelle d'un organisme voyant). Donc si, par un moyen transhumaniste, on arrivait à augmenter notre acuité visuelle, on aurait plus de données à traiter, et du coup potentiellement on n'arriverait pas à traiter toutes ces données. En fait, chercher à avoir 100 ou 1000 dixièmes d'acuité visuelle par exemple pourrait être inutile, voire même dangereux, car on ne saurait pas comment le cerveau s'y adapterait.
Étant donné le cerveau humain il est très probable qu'il se contenterais de rajouter une couche sus-mentionnée simple voire stupide : rien qu'un "flou" de l'image permettrait de reobtenir une image de taille raisonnable Le cortex visuel doit être l'un des meilleurs pour compresser l'information vu son travail
Si les réseaux récurent sont adaptés au problèmes avec une symétrie de translation temporelle et les réseaux convolutif sont adapté au problèmes avec un symétrie de translation spatiale quelle est l'architecture adaptée pour les problèmes avec des invariance d'échelle (par exemple reconnaitre des formes géométrique quelque soit leur taille ) ?
Bonjour Mr s'il vous plaît je voudrais comprendre concrètement comment model de réseau de neurones apprend ou quoi l'apprentissage pour un model consiste?
Combien de vidéos durera encore la série ? (si tu le sais seulement ^^) et referas-tu un vote (scrutin de condorcet) pour le sujet de la prochaine série ? :)
@@Phantoharibo C'est bien dommage en effet :c Je parle de vote uniquement parce que les autres sujets du votes me fascinent et que j'espère qu'il les fera aussi
5:46 De mon avis, le cerveau humain ne traite pas toutes les zones de la rétine de la même manière, l'image au sens où on l'entend est au centre sur une toute petite zone, et autour où l'on voit moins bien il se passe d'autres sortes de traitement de l'image, pour pallier à ça l’œil suit presque automatiquement un objet pour le replacer au centre alors que l'intelligence artificielle à l'air de couvrir toute l'image de la même manière
Salut ! Quelque chose m’intrigue : j’ai l’impression que l’apprentissage de ce réseau sera impossible... comment faire apprendre au réseau à la fois les filtres à utiliser (matrices de convolutions) et les poids synaptiques du réseau de neurone qui analyse les données en sortie des filtres ? J’ai l’intuition qu’il y a « trop de degrés de liberté » (2 au lieu d’un en gros) pour faire un apprentissage efficace. Si je n’ai pas été assez clair, c’est comme s’il y avait deux fonctions dans un réseau à convolution : - L’une est de savoir de quelle manière filtrer les images - l’autre de quelle manière analyser la sortie de ces filtres pour en déduire une structure. Mais j’ai l’impression qu’un apprentissage efficace de l’une de ces fonctions nécessite que l’autre fonction soit déjà performante ! Si quelqu’un voit ce que je veux dire et est capable de m’éclairer j’en serai ravi merci !
Quand on est un dirigeant, la tendance est de ne pas se préoccuper du niveau "moyen" de ceux qu'on dirige mais des meilleurs. On a là le même schéma que préférer pondérer une zone avec la valeur max qu'avec la moyenne. L'angleterre n'avait qu'une poignée de talents artistiques et scientifiques alors que la france en avait 10, 20 fois plus, mais c'est shakespeare qu'on retient au niveau du monde. Un pays avec 10000 poètes est considéré ne rien connaitre à la poésie, un pays avec 2 poètes très célèbres est considéré comme très bon. Là la nature humaine nous montre ses failles et à quel point on se méprend sur le monde; on trouve des tombes riches et des archéologues en déduisent que la civilisation( donc tout le monde) était riche. On est attiré par le brillant ou le très sombre, le commun est jeté. Le classique Qualité vs Quantité, mais c'est aussi la rareté qui fait le danger; un lien avec l'évolution ?
Certainement très beau et philosophique... Juste pour les poètes Shakespeare est juste plus connu parce qu'il y a plus d'anglophones je pense. De même on peut dire l'inverse : Shakespeare est le seul poète potable anglais et tout le monde le connaît, alors que des poètes de même niveau en français sont moins connus car plus nombreux... Bref les extrêmes ne sont pas représentatifs de la société, mais ils le sont pour les images
Salut, je me demandais si ton site en français était encore accessible car j'ai un message d'erreur " error establishing a data base connection" lorsque j'essaye d'y aller. D'ailleurs si n'importe qui a une réponse je suis preneur. Merci d'avance.
Pour la question du max pooling, je pense qu’une moyenne glissante brouille une image : La moyenne glissante de : [8 8 8 8 0 0 0] sur une période de 3 est (arrondie à l’unité) : [8 8 5 3 0] la transition qui était brutale dans la liste d’origine est douce une fois moyennée En revanche avec Max pooling on obtient : [8 8 8 8 0] Ici la transition est plus nette. Donc plus facile à remarquer pour une IA (plus discriminante).
@@cedricholocher7570 Ah oui bien vu !! Mais alors il faut vraiment que l'image soit de bonne qualité (beaucoup de pixels) pour éviter que ce qui se trouve être un caractère distinctif important de l'image soit alors considéré comme un pixel mort. C'est génial parce qu'hier j'avais l'impression que nos IA n'aimaient pas les images de bonne qualité : pour l'homme, plus une image de chat est de bonne qualité, plus l lui est facile de le reconnaître alors que pour la machine j'avais l'impression que plus l'image était de bonne qualité et plus elle galérait (ce qui semble contre-intuitif et remet en cause les techniques que nous utilisons). Mais là grâce à cette méthode, la pratique rejoint l'intuition : je suis content.
Au delà de l'aspect "invariance par translation", partager les mêmes poids pour chaque couche synaptique permet de faciliter grandement le calcul parallèle sur GPU lors de la phase d'apprentissage du CNN ! Je suis d'ailleurs un peu déçu que tu ne parles pas de la phase d'apprentissage pour les CNN ou des différents types d'algorithmes de vision par ordinateur qu'on peut faire avec (classifier, détecteur, segmentation...) !
c'est du Décartisme primaire! "Cogito ergo sum" : c'est juste par qu'on considère dans notre Matrix de pensé que la cuillère ne pence pas qu'elle n'existe pas. Mais on peux ce posé la question: est-ce que ce n'est pas parce que on pence qu'elle ne pence pas qu'on ne sait pas l'écouter? ... la cuillère?
C'est pas complètement con ce lien entre neurones artificiels et biologiques... Pas particulièrement parce que le cerveau ne serait qu'une machine à calculer, mais parce que l'Homme en vient souvent à "copier" ce qui se fait déjà dans la nature.
Est-ce vraiment une copie, ou est-ce que les propriétés émergentes des systèmes qui fonctionnent sont simplement proches des propriétés émergentes des systèmes naturels? En posant la question autrement: est-ce qu'à force d'améliorer nos systèmes fonctionnels, on ne serait pas tout simplement forcé de retrouver des mimiques de plus en plus proches des systèmes naturels? Car la meilleure manière de résoudre un problème est dictée par le problème non par la personne qui souhaite le résoudre, on serait voué à retrouver les systèmes naturels, adaptés à nos limitations technologiques. Tout ça pour dire qu'effectivement, je suis d'accord avec toi, ce parallèle n'est pas si con, car étudier des systèmes dont les propriétés émergentes permettent de résoudre des problèmes que la nature sait résoudre, cela peut nous donner des idées de ces propriétés émergentes dont les systèmes naturels profitent justement.
@@ApiolJoe C'est exactement ça et c'est la raison pour laquelle j'ai mis des guillemets à mon "copier". Rien qu'en robotique, filière très proche des IAs, il me semble qu'on retrouve des schémas similaires aux corps de nos espèces animales, squelettes, tendons, muscles en particulier. Pareil pour les avions qui sont, au final, très similaires à des oiseaux sur bien des points avec des gouvernails, ossature creuse.... (Bon, là il y a aussi pas mal d'inspiration qui joue sans doute). Au final, on voit régulièrement des sortes de convergences évolutives quand on créer quelque chose, la différence majeure étant qu'on parle de convergence quand la solution aux problèmes est amenée par des processus évolutifs, alors que dans le cas d'une IA, il s'agirait plutôt d'une création humaine.
La nature n'est pas si bonne que ça a créer des systèmes efficaces pour nous autres humains. Elle est par contre une bonne inspiratrice vague (avions, hydrophobie, RN...)
@@maximed9957 Non, pas d'accord ! La supersommation linéaire, régulière et stable des entiers naturels est interdite, cf sa vidéo hardcore #3 :) (bon ok je suis pointilleux là...)
Merci pour cette vidéo.
Je découvre votre chaine, par hasard, en faisant un état de l'art. Et je trouve vos explications extrêmement clairs et fluides (et denses également).
Merci encore une fois
Je viens de finir le livre de Stanislas Dehaene "La bosse des maths" et je confirme, ce que raconte cet homme est passionnant !
Oui oui et oui merci Lê pour ton travail, cette série est vraiment trop bien.
Hello, merci beaucoup pour cette série de vidéo, géniale ! Intuitivement je dirais qu'un "max pooling" aurait plus tendance à conserver les éléments très distinctif de l'image et donc à être plus discriminent.
J'ai crut que le chien crachait du feu.
Non ce n'est pas un chien, il ne faut pas mélanger identité de race et identité de créature ... c'est un dragon (enfin je crois) !! :D
Faut vraiment que tu parles des autoencodeurs. C'est très utile, notamment dans les techniques d'OCR.
Sur le supériorité de max pooling sur average, c'était déjà le cas en pratique "avant", avec les sacs de mots visuels et les Fisher Vector. Les raisons n'en sont pas toujours claires mais il y a des indices dans certains cas. Basiquement, une statistique d'ordre telle que max peut être plus robustes à des bruits et ainsi mieux représenter certains invariants désirables par exemple. Ça doit être expliqué dans le chapitre 6 du livre de Goodfelow, dans la partie concernant le pooling.
Merci pour la vidéo ! Petite question, Est-ce-que les réseaux de neurones sont sensibles aux illusions d'optique. (je pense notamment au célèbre lapin canard).
Man what an amazing video, you solved all my doubts thank you very much! Luckily I speak french, but I think you should put some english subtitles, that can help a lot des personnes non francophones
- Mais Lê pourquoi tu pars avec une cuillère ?
- t'inquiètes pas j'ai une idée !
6:56 Il me semble que prendre le maximum se comporte mieux par translation que la moyenne. C'est peut être ça qui fait mieux marcher les choses?
Pour calculer la matrice de convolution, on sélectionne le premier neurone aléatoirement ? ou y'a t-il un facteur dans le choix de ce neurone (hétérogénéité des données issues des neurones d’observation) pour déterminer la matrice de convolution qu'ensuite on appliquera comme poids à chaque neurone de la même couche ?
Bonjour, j'ai du mal à comprendre concrètement comment se traduit "l'architecture pré-programmée pour l'invariance par translation des images". Est-ce que par exemple cela veut dire qu'en présentant au réseau une image A de face et une image B légèrement de côté du même objet, un CNN n'aura aucune difficulté à "voir" que les objets sont les même?
Tu tombe pile sur le contenu de mon cours, j'ai un CNN à implémenter avec tensorflow pour demain en Computer Vision!
Ce qui m'impressionne le plus c'est à quel point le chat c'est imposé comme exemple type d'image à reconnaître. On le retrouve dans tous les cours à l'université, dans toutes les chroniques de vulgarisations sur internet. Je crois vraiment que les informaticiens vouent un culte énorme à cet animal.
Rejoint l'église de la Sainte felinite sacrée
C'est ce que j'ai du faire le jour où je me suis inscrit en computer science à l'université. Personne ne m'aurait accepté dans le cas contraire.
Je pense qu'il y a une erreur sur le pooling (ou j'ai peut-être mal compris) j'ai compris que tu disais que le pooling se fait en faisant la moyenne ou le max sur les filtres pour chaque pixel de sortie de la convolution alors que le pooling est fait sur des pixels proches dans l'image, pas sur les différents filtres. Du coup si on a une image 28x28 qu'on passe avec 8 filtres de convolutions 4x4 on obtient 8 images 24x24 is en suite on fait un pooling 2x2 on obtient 8 images de 12x12.
Ça me fait penser, le nombre de neurones permettant d'analyser une image dépend du nombre de données (que ça soit un nombre de pixels pour des intelligences artificielles ou un nombre de points discernables d'images dépendant de l'acuité visuelle d'un organisme voyant). Donc si, par un moyen transhumaniste, on arrivait à augmenter notre acuité visuelle, on aurait plus de données à traiter, et du coup potentiellement on n'arriverait pas à traiter toutes ces données. En fait, chercher à avoir 100 ou 1000 dixièmes d'acuité visuelle par exemple pourrait être inutile, voire même dangereux, car on ne saurait pas comment le cerveau s'y adapterait.
Étant donné le cerveau humain il est très probable qu'il se contenterais de rajouter une couche sus-mentionnée simple voire stupide : rien qu'un "flou" de l'image permettrait de reobtenir une image de taille raisonnable
Le cortex visuel doit être l'un des meilleurs pour compresser l'information vu son travail
Super video juste une question la serie ira jusqu a combien de video ?
pas trop plus d'un gogolplex normalement :)
12
T es sure
Ça finit en décembre ;)
Ok merci
Si les réseaux récurent sont adaptés au problèmes avec une symétrie de translation temporelle et les réseaux convolutif sont adapté au problèmes avec un symétrie de translation spatiale quelle est l'architecture adaptée pour les problèmes avec des invariance d'échelle (par exemple reconnaitre des formes géométrique quelque soit leur taille ) ?
Bonjour Mr s'il vous plaît je voudrais comprendre concrètement comment model de réseau de neurones apprend ou quoi l'apprentissage pour un model consiste?
Est-ce qu'on peut estimer la quantité de calcul qu'exige une image d'une autre?
Savoir quelle puissance de calcul il faut pour l'analyser?
Combien de vidéos durera encore la série ? (si tu le sais seulement ^^) et referas-tu un vote (scrutin de condorcet) pour le sujet de la prochaine série ? :)
Pas de vote svp, les casuals qui ont voté en masse pour l'IA ne regardent même pas.
@@Phantoharibo C'est bien dommage en effet :c Je parle de vote uniquement parce que les autres sujets du votes me fascinent et que j'espère qu'il les fera aussi
Excellente vidéo, merci !
Merci beaucoup !
Super comme vidéo, merci beaucoup.
5:46 De mon avis, le cerveau humain ne traite pas toutes les zones de la rétine de la même manière, l'image au sens où on l'entend est au centre sur une toute petite zone, et autour où l'on voit moins bien il se passe d'autres sortes de traitement de l'image, pour pallier à ça l’œil suit presque automatiquement un objet pour le replacer au centre alors que l'intelligence artificielle à l'air de couvrir toute l'image de la même manière
Salut ! Quelque chose m’intrigue : j’ai l’impression que l’apprentissage de ce réseau sera impossible... comment faire apprendre au réseau à la fois les filtres à utiliser (matrices de convolutions) et les poids synaptiques du réseau de neurone qui analyse les données en sortie des filtres ?
J’ai l’intuition qu’il y a « trop de degrés de liberté » (2 au lieu d’un en gros) pour faire un apprentissage efficace.
Si je n’ai pas été assez clair, c’est comme s’il y avait deux fonctions dans un réseau à convolution :
- L’une est de savoir de quelle manière filtrer les images
- l’autre de quelle manière analyser la sortie de ces filtres pour en déduire une structure.
Mais j’ai l’impression qu’un apprentissage efficace de l’une de ces fonctions nécessite que l’autre fonction soit déjà performante !
Si quelqu’un voit ce que je veux dire et est capable de m’éclairer j’en serai ravi merci !
Vu que c'est moins libre qu'un réseau de neurones "normal" ça doit pas être si énorme
Bref a relativiser
je me demande si lorsque les ia auront une conscience certaines d'entre elles auront des personnalités multiples et est-ce souhaitable ?
Quand on est un dirigeant, la tendance est de ne pas se préoccuper du niveau "moyen" de ceux qu'on dirige mais des meilleurs. On a là le même schéma que préférer pondérer une zone avec la valeur max qu'avec la moyenne. L'angleterre n'avait qu'une poignée de talents artistiques et scientifiques alors que la france en avait 10, 20 fois plus, mais c'est shakespeare qu'on retient au niveau du monde. Un pays avec 10000 poètes est considéré ne rien connaitre à la poésie, un pays avec 2 poètes très célèbres est considéré comme très bon. Là la nature humaine nous montre ses failles et à quel point on se méprend sur le monde; on trouve des tombes riches et des archéologues en déduisent que la civilisation( donc tout le monde) était riche.
On est attiré par le brillant ou le très sombre, le commun est jeté.
Le classique Qualité vs Quantité, mais c'est aussi la rareté qui fait le danger; un lien avec l'évolution ?
Certainement très beau et philosophique... Juste pour les poètes Shakespeare est juste plus connu parce qu'il y a plus d'anglophones je pense.
De même on peut dire l'inverse : Shakespeare est le seul poète potable anglais et tout le monde le connaît, alors que des poètes de même niveau en français sont moins connus car plus nombreux...
Bref les extrêmes ne sont pas représentatifs de la société, mais ils le sont pour les images
bonjour! avez vous un lien de famille avec Eric Nguyen?
hey merci de m'avoir répondu ;)
Je voulais acheter votre livre. Mais je n´en trouve pas en Allemagne. Pouvez vous me guider s´il vous plait
Salut, je me demandais si ton site en français était encore accessible car j'ai un message d'erreur " error establishing a data base connection" lorsque j'essaye d'y aller. D'ailleurs si n'importe qui a une réponse je suis preneur. Merci d'avance.
Pour la question du max pooling, je pense qu’une moyenne glissante brouille une image :
La moyenne glissante de :
[8 8 8 8 0 0 0]
sur une période de 3 est (arrondie à l’unité) :
[8 8 5 3 0]
la transition qui était brutale dans la liste d’origine est douce une fois moyennée
En revanche avec Max pooling on obtient :
[8 8 8 8 0]
Ici la transition est plus nette. Donc plus facile à remarquer pour une IA (plus discriminante).
Faudrait tenter avec le 90-99e centile ça éviterait, par exemple qu'un pixel mort change complètement le résultat
@@cedricholocher7570 Ah oui bien vu !! Mais alors il faut vraiment que l'image soit de bonne qualité (beaucoup de pixels) pour éviter que ce qui se trouve être un caractère distinctif important de l'image soit alors considéré comme un pixel mort.
C'est génial parce qu'hier j'avais l'impression que nos IA n'aimaient pas les images de bonne qualité : pour l'homme, plus une image de chat est de bonne qualité, plus l lui est facile de le reconnaître alors que pour la machine j'avais l'impression que plus l'image était de bonne qualité et plus elle galérait (ce qui semble contre-intuitif et remet en cause les techniques que nous utilisons). Mais là grâce à cette méthode, la pratique rejoint l'intuition : je suis content.
Au delà de l'aspect "invariance par translation", partager les mêmes poids pour chaque couche synaptique permet de faciliter grandement le calcul parallèle sur GPU lors de la phase d'apprentissage du CNN ! Je suis d'ailleurs un peu déçu que tu ne parles pas de la phase d'apprentissage pour les CNN ou des différents types d'algorithmes de vision par ordinateur qu'on peut faire avec (classifier, détecteur, segmentation...) !
Dans des prochains épisodes surement ....
Héhé 🤖
Quel beau cadeau
Quand est-ce que tu fais une petite réduc sur ton livre ?! :D
merci
Super comme toujours ! J'ai lancé ma chaîne sur la physique et les math qu'en penses tu
Grandiose!
prout out de riz de chinois mixé au soja
Arthur Cuillère
❤❤❤❤❤
LeCun a la même tête que le mechant dans l'épisode de black mirror avec l'USS Calister :o hasard? Coincidence? je ne pense pas ...
La cuillère n'existe pas !
c'est du Décartisme primaire! "Cogito ergo sum" : c'est juste par qu'on considère dans notre Matrix de pensé que la cuillère ne pence pas qu'elle n'existe pas. Mais on peux ce posé la question: est-ce que ce n'est pas parce que on pence qu'elle ne pence pas qu'on ne sait pas l'écouter? ... la cuillère?
wait for it
cool
C'est pas complètement con ce lien entre neurones artificiels et biologiques... Pas particulièrement parce que le cerveau ne serait qu'une machine à calculer, mais parce que l'Homme en vient souvent à "copier" ce qui se fait déjà dans la nature.
Est-ce vraiment une copie, ou est-ce que les propriétés émergentes des systèmes qui fonctionnent sont simplement proches des propriétés émergentes des systèmes naturels?
En posant la question autrement: est-ce qu'à force d'améliorer nos systèmes fonctionnels, on ne serait pas tout simplement forcé de retrouver des mimiques de plus en plus proches des systèmes naturels? Car la meilleure manière de résoudre un problème est dictée par le problème non par la personne qui souhaite le résoudre, on serait voué à retrouver les systèmes naturels, adaptés à nos limitations technologiques.
Tout ça pour dire qu'effectivement, je suis d'accord avec toi, ce parallèle n'est pas si con, car étudier des systèmes dont les propriétés émergentes permettent de résoudre des problèmes que la nature sait résoudre, cela peut nous donner des idées de ces propriétés émergentes dont les systèmes naturels profitent justement.
@@ApiolJoe
C'est exactement ça et c'est la raison pour laquelle j'ai mis des guillemets à mon "copier". Rien qu'en robotique, filière très proche des IAs, il me semble qu'on retrouve des schémas similaires aux corps de nos espèces animales, squelettes, tendons, muscles en particulier. Pareil pour les avions qui sont, au final, très similaires à des oiseaux sur bien des points avec des gouvernails, ossature creuse.... (Bon, là il y a aussi pas mal d'inspiration qui joue sans doute).
Au final, on voit régulièrement des sortes de convergences évolutives quand on créer quelque chose, la différence majeure étant qu'on parle de convergence quand la solution aux problèmes est amenée par des processus évolutifs, alors que dans le cas d'une IA, il s'agirait plutôt d'une création humaine.
La nature n'est pas si bonne que ça a créer des systèmes efficaces pour nous autres humains.
Elle est par contre une bonne inspiratrice vague (avions, hydrophobie, RN...)
La cuillere n existe pas ...
👍👍👍
rien compris.
Hotdog no Hotdog
Après V1 V2 V3 V4 je m’attendais à ...
V5.... toi aussi ?! :)
Non, je m'attendais à V = -1/12 :
Nevenoe infiniment d’accord 😉
@@maximed9957 Non, pas d'accord ! La supersommation linéaire, régulière et stable des entiers naturels est interdite, cf sa vidéo hardcore #3 :) (bon ok je suis pointilleux là...)