BREAKING NEWS ! Une parente de la nana de l'extrait vers 10'15 m'a gentiment envoyé un mail intitulé "demande de modification de vidéo pour irrespect". Je vous laisse deviner pourquoi. Du coup j'ai fait flouter par TH-cam (enfin ça devrait fonctionner) la partie incriminée pour virer nom et tête, mais je maintiens, c'est du charlatanisme pour moi. Après si ça vous chante d'écouter leurs bêtises enchanteresses (et de payer, mdr) libre à vous. C'est que mon avis. FIN DE LA BREAKING NEWS Bon alors la vidéo viens de passer les 15k dans la nuit, doublant quasiment son nombre de vues en moins de 24h. J'avoue ce n'était pas prévu ^^'' Du coup précisions. Je n'escomptais pas que la vidéo dépasse les 3k vues, du coup je suis agréablement surpris, mais aussi un peu emmerdé. On ne va pas se le cacher, sans faire cette vidéo par dessus la jambe (loin de là), j'aurais pu la soigner plus. Sur le plan visu, je dois dire que c'est ma première vraie vidéo dans ce style là, et je suis loin d'être un bon acteur ou monteur, donc on va dire que c'est normal. Sur le plan des infos par contre c'est plus mitigé. J'aurais dû être plus précis dans les termes que j'utilise et ce que j'explique. Il y a des choses auxquelles je n'ai pas pensé, ou dont j'avais pas connaissance lors de la création de cette vidéo. La plupart des éléments manquants ou les correctifs se trouvent dans les coms, n'hésitez pas à les consulter :) Je ferais éventuellement un nouvel édito sur les possibilités pour palier à cette loi si le besoin se fait sentir. Deuxième chose : cette vidéo contient mon avis perso sur le sujet. EVIDEMMENT que l'opti n'est pas laissé à l'abandon dans le JV, et qu'il y aura toujours Jean-Michel NonMoiJe pour te donner un exemple contraire, mais gardez bien à l'esprit que sur 20 minutes c'est pas évident d'être exhaustif. Et quand on est pas exhaustif on comble avec des avis et des généralités, c'est plus simple. Je ne m'en cache pas, je n'essaie pas de vous enfumer pour me donner l'air cool, ça serait débile. La fin d'une vidéo, je considère que c'est le début de vos recherches. Personnellement je trouve ça génial de pousser plus loin ce qui est dit dans une vidéo, quitte à se rendre compte que c'était pas vrai. Ça pousse à la réflexion et à la curiosité ! (d'autant plus que je vous laisse des sources en description pour commencer vos recherches) Troisième chose : ma chaîne fait aussi (et surtout finalement) des vidéos sur Star Citizen. Je sais que c'est un sujet assez clivant, donc soyez bien conscient quand vous vous abonnez que ce genre de sujet est assez sporadique sur ma chaîne, que vous n'ayez pas de mauvaise surprise ;)
Video tres interessante. Cela fait des annees que l'on dit que l'on arrive aux limites physiques des circuits imprimes. Je n'avais pas vraiment suivit le sujet au jour le jour. Mais je comprends en regardant ta video, que l'on y arrive. Cela se sentait deja d'ailleurs lorsqu'on a vu apparaitre les CPU a plusieurs cores, qui bien sur ne peuvent que partiellement regler le probleme, vu que cela necessite aussi de programmer de telle maniere a executer les calculs en parallele et ce n'est possible que dans une certaine mesure. Le GPU base evidement eminement sur ce principe. Je pense que c'est l'aspect qui manque le plus dans ta video. Qu'est-ce que cela veut dire de faire des calculs en parallele. Pour l'ordinateur quantique. Je ne suis pas un specialiste, mais je comprends les choses come toi. La superposition quantique des etats offre des opportinites qui permettront de passer a un(deux :) ) ordre de grandeur superieur de complexite dans beaucoup de domaines, mais ne sont pas adapte a tous les problemes. Pour ce qui est de la qualite de la video, j'aime bien ta distance envers ton propre travail. Franchement ta video fait le taff. Les prochaines seront encore meilleures. Star Citizen est aussi dans mon cercle d'interet, donc je m'abonne ;) Je te souhaite plein de succes sur TH-cam et ailleurs. Michael
Je comprends tes réserves vis à vis de ta vidéo mais fais attention de ne pas perdre de vue que c'est parce qu'elle plait comme elle a été faite qu'elle est autant visionnée.
Ca n'as jamais été une priorité chez Bethesda, sans parler du debugging... Quand tu vois que Fallout 4 a les mêmes problèmes de frame-pacing que Morrowind (les deux utilisant le glorieux GameBryo...) x'). Ubisoft c'est mes petits chouchou: 30fps c'est plus cinématique, celle là je l'adore!
Après faut pas tout mélanger je le concède ^^ Il y a corriger les buggs/glitches/erreurs, et "optimiser" le jeu d'un point de vue moteur, ce sont deux étapes différentes, et souvent la deuxième qui pêche chez Ubisoft, mais la première chez Bethesda.
Super video ! Je rajouterai juste une chose sur la conjecture de Moore qui est très importante pour l'expliquer. Avant d’être un loi technologique, c'est une loi économique. En effet, la conjecture parle de doubler le nombre de transistors, sur une meme surface, a coût constant $-$ :)
Première vidéo que je regarde de ta chaîne, tu as beau ne pas être très satisfait de celle ci je le trouve passionnante et véritablement pertinente. Je suis en étude d'ingenieurie et ma passion est le jeu vidéo. J'ai retrouvé le meilleur des deux mondes (simplifiés) dans cette vidéo. Merci beaucoup à toi !
@M-SimRacing -01 Oui à la fin on voit bien ses yeux lire. J'allais faire à peu près le même commentaire, mais à la fin il est vraiment flippant. Faut cligner des yeux !!
Perdu ! J'ai pas de prompteur et je ne lis pas mon texte. J'ai une feuille sur le coté, et j'apprend chaque réplique par coeur avant de la ressortir ^^ Mes gros yeux c'est juste que je suis pas à l'aise, et que je suis impliqué. Je fais tout le temps ça dans ce genre de cas. C'est ma première vidéo comme ça, ça ira mieux sur les suivantes...
je suis tombé sur ta vidéo complètement au hasard (merci l'algo yt ^^) et franchement je suis très satisfait! J'avais un peu peur que ce soit une de ces vidéos avec un titre intéressant et un type qui brasse du vent pendant 20 min, mais pas du tout! Le sujet est expliqué simplement mais en détail, tes raisonnements sont convaincants et font pas mal le ménage entre faits et spéculations sur le sujet. Enfin bref, merci bien pour la vidéo
Une bonne recommandations pour une fois venant de youtube surtout pour avoir mis une petite chaîne cela vas te booster les abonnés en espérant que se soit le cas
Quand il a dit connaitre personne qui aime optimiser son code j'ai halluciné. Perso j'adore ça. Quand tu fait passer un algo O(n²) en O(n.log(n)) ou quand tu trouves finalement les données qu'il fallait absolument mettre en cache, faisant passer ton temps d'execution de 5s à 20ms, oh putain la jouissance !!!
10:40 la meuf dit, tu suis une voiture de là à là.. en quantique tu prends une voiture elle est là et maintenant elle est là.... elle a absolument rien compris de la quantique des objets!
@@courtepaille7286 Non. d'après ce que je sais, en quantique, tu ne peux "savoir" que la position ou la vitesse d'un électron (c plus compliqué avec des proba et tout et tout). donc par rapport à l'exemple, tu ne serai que où est la voiture ou à quelle vitesse elle va. Et le calculateur quantique ne sert qu'à désigner une grosse boite qui fait des calculs grâce aux lois quantiques (grosso modo)
Le problème de l'optimisation se retrouve aussi dans le domaine de la programmation industrielle. J'ai rarement démarré un nouvel outil conforme au cahier des charges... Je crois que l'optimisation est effectivement un problème et en même temps la solution. Elle représente finalement la partie réservée aux génies de la logique informatique... Bravo pour ta vidéo, tu t'exprimes clairement et de manière pédagogue. Bonne continuation, c'est génial !
C'est une bonne vidéo dans l'ensemble mais il y a quelques erreurs à noter. Plutôt que de parler d'ordinateur quantique tu devrais parler de calculateur quantique. En effet ceux-ci sont construits pour un type de calcul particulier et sont bien loin d'être polyvalents. De plus vouloir graver à l’échelle du picomètre est un non-sens total: l'ordre de grandeur de la taille d'un atome étant l'angström (10^-10 m), comment peut-on physiquement graver plus petit? Je sais que je chipote sur des détails mais c'est en étant précis sur les détails mais c'est en soignant ceux-ci que tu gagneras en crédibilité auprès du plus grand nombre. Sinon le message principal est bien expliqué, continue comme ça c'est super intéressant :)
sur la remarque du "calculateur quantique" : non de toute façon un ordinateur ne calcule pas mais il ordonne mathématiquement, donc on utilise en langue française le terme très précis d'ordinateur, bien plus précis que l'anglais computer.
"en étant précis sur les détails mais c'est en soignant ceux-ci que tu gagneras en crédibilité auprès du plus grand nombre" hahahaha non, malheureusement le simple plait au plus grand nombre
Il y a clairement un problème de vocabulaire quand il dit "graver au picomètre" mais ton explication n'est pas valable. Si tu te renseignes tu pourras trouver que des architectures de calcul sont envisageables, et à l'étude, en utilisant directement des électrons comme source d'information (en gros présence d'un électron =1 binaire et absence =0). Ces électrons sont de l'ordre du femtomètre (10^-15) donc il est envisageable qu'on arrive à faire des architectures plus petites que le picomètre (même si on n'en n'est pas du tout là).
@@Beware1654 Mon commentaire était là pour montrer le problème de vocabulaire comme tu le dis. Mais ce que j'ai lu sur les systèmes utilisant les électrons ne me paraissent pas envisageable dans un futur proche (même si j'aimerai me tromper). En effet, ces systèmes sont des systèmes quantiques, et en physique quantique il n'y a pas de "l'électron est présent", il y a juste des probabilités de présences et palier à ce soucis pour mettre au point des ordinateurs classiques me parait utopique (même si , encore une fois, j'aimerai me tromper).
Pas mal du tout, c'était super intéressant. Un petit commentaire pour te donner de la motivation (et du référencement tant qu'à faire), j'espère que tu referas des vidéos de ce genre !
Alors non, on va pouvoir avoir des ordi plus puissant avec la photonique. Dans mon école d'ingé, mes enseignants font de la recherche pour créer des transistors en utilisant la lumière (au lieu d'un courant) et en supprimant la partie électronique. L'intérêt est d'avoir une vitesse inégalée (celle de la lumière) avec un espace de stockage hallucinant. Leurs recherches sont maintenant très avancée mais il faut encore miniaturiser le tout. Bien entendu, la taille des transistors ne diminue pas avec cette technologie, mais leur vitesse n'a rien à voir avec celle actuelle. Je vous encourage à vous renseigner sur cette technologie qui arrivera à moyen terme !
A la place des électrons, on prend des photons, ce qui permet au passage de réduire la consommation de manière inimaginable puisque l'on a plus d'effet joule qui fait chauffer les composants !
ou on appelle sa plus facilement un ordinateur optique ( ce type d'ordinateur est encore en phase de test le premier prototype de ce type d'ordinateur sortira dans environ 40/50 ans d'après les chercheur ) bonne journée . :)
En tout cas, ta vidéo soulève un sujet très intéressant à creuser : la future obligation pour les développeurs de jeux d'optimiser a fond leurs jeux, pour proposer des expériences magnifiques et complètes sur du hardware qui, un jour, ne pourra plus évoluer. C'est un message, je pense, que nous (gamers) devons faire passer aux grosses boîtes de jeux, pour qu'elles arrêtent de sortir des jeux se ressemblant tous, chaque année.
Le problème quand tu apprends la programmation, c'est qu'on te dit qu'il y a plusieurs chemins pour arriver au même résultat. Mais on ne te dit pas que certains chemins sont plus rapides. Il devrait y avoir de la théorisation de l'optimisation car franchement quand tu veux optimiser ton code, la plupart du temps tu fais des essais au petit bonheur la chance et tu regardes si ton calcul a été plus rapide.
Exactement je suis d'accord avec toi il devrais il y avoir une méthode simple a l'apprentissage de la programmation. Malheureusement l'informatique est très complexe de nos jours. Au niveau de l'optimisation on peut optimiser certains moteur comme Godot JMonkey car ils sont sous licence open source et sous licence libre. Par contre pour les moteurs sous licence propriétaire et close source comme Unity et Unreal c'est a eux de s'ouvrir au codeur afin d'optimiser leur code. Déjà si tu paye une licence spécifique Unreal tu peut comprendre le code source du moteur mais il faut une connaissance approfondie en C++. Après il existe des langages de programmation qui sont mieux optimiser pour les machines que d'autre. Mais bon Je ne suis pas un expert de la programmation.
Le truc c'est que la théorisation de l'opti ça existe ! C'est d'ailleurs un cours qui peut parfois être enseigné dans les grandes écoles. Perso j'ai eu le droit à un cours d'algorithme et complexité qui s'en rapproche le plus. Alors c'est pas de l'optimisation à proprement parler, mais ça permet au moins d'apprendre des schémas que tu ne dois pas faire pour des questions d'opti. En fait pour vraiment comprendre l'optimisation il faut faire des cours d'algorithmie avancé pour pas écrire comme un pied, mais aussi des cours d'assembleur et de compilateur. Le niveau d'optimisation le plus bas sur lequel un humain peut aisément avoir de l'influence, c'est au niveau de l'assembleur. Le truc c'est que les compilateurs qui transforment ton code source en assembleur sont un peu bêtes, et il reste souvent des optimisations possibles qui parfois sont non négligeable. Donc oui on peut et on a même déjà commencé à théoriser l'optimisation. Et ça déjà été fait il y a quelques décennies quand on avait pas le choix. Mais tout ça cela nécessite effectivement du temps et une connaissance approfondie des ordinateurs, des langages et de leurs différentes utilités dans différents domaines.
la théorisation est assez compliquée globalement, parce que les concepteurs de processeurs gardent leurs petits secrets. Alors on connait bien quelques gadget comme le branch prediction ou des petites coquineries comme ca, mais certainement pas toutes. Donc globalement tu peux avoir un programme algorithmiquement optimisé, mais qui finalement tourne moins vite. Un petit exemple pour t'en convaincre: avec les compilateurs actuels, tu peux produire un code totalement dégueulasse en C++, il sera plus rapide qu'un code super optimisé en assembleur, juste à cause de ces petites coquineries. C'est pour ca qu'on nous apprend les bases de l'optimisation (la complexité algorithmique) mais qu'on ira rarement plus loin, on laisse le reste au compilateur. On pourra donner l'exemple du java, qui a un fonctionnement totalement incroyable, ton code est optimisé à la volée, donc peu importe ce que tu fais, le code qui sera exécuté ne sera pas celui que tu as produit. Attention, tout cela n'est pas une excuse pour faire n'importe quoi et se dédouaner de faire du code dégueu
Ça fait un moment que TH-cam me suggère cette vidéo, mais je l'ai délibérément ignorée de peur d'entendre des conneries comme souvent, les gens comprenant mal l'informatique en général. Eh bah je suis très content de m'être trompé ! La vidéo est très bien et très informative, une très bonne vulgarisation. Bravo. Donc pouce bleu, et abonnement à la chaîne. Merci!
Le meilleur exemple d'optimisation software sur un hardware fixe est, à ma connaissance, la Xbox 360. Comparez les jeux sortis en début de génération et les derniers sortis dessus avant la Xbox One, il y a une différence notable. La preuve que c'est possible :D Très bonne vidéo !
@@MiniGui98 Il me semble que les exclus sont souvent assez optimisés, que ce soit chez Sony, chez Xbox ou chez Nintendo. C'est tout simplement plus simple parce qu'il n'y a qu'une configuration à prendre en compte et donc tu optimises pour ta configuration sans te soucier des autres.
@@Landriaz oui, les exclus en général. Je suis un joueur Xbox donc c'est ce qui m'est venu à l'esprit. Même les jeux présents sur plusieurs platformes (battlefield/call of me viennent à l'esprit) présentent des belles différences au fil des années
Honnêtement je suis pas un expert vu que je connais assez mal la xbox 360 mais je pense que la ps2 c'est pas mal non plus il y'a un véritable monde de différence entre le début et la fin de cette console y'a un monde de différence idem pour la ds.
Probablement. Tu as de bons exemples pour la PS2 ? Là je pense au premier Star Wars Battlefront et à NFS Most Wanted, mais j'imagine qu'il y a des meilleures exemples
Excellent, j'espère que tu feras d'autres vidéos sur ce genre de sujet ! (même si j'ai bien lu ton message dans les commentaires, PS: je ne suis pas là pour Star Citizen). Énorme qualité de vidéo, j'imagine même pas le matos et le travail qui sont allés dedans, chapeau.
Petite découverte dans mon fil d'actu. Vidéo très sympa et fort bien narrée, un plaisir ! Je suis pas certain de suivre le reste de ta chaîne (je suis pas particulièrement hypé par Star Citizen, surtout parce que je ne m'y suis pas intéressé (malgré tout, si tu as fait une vidéo sur "pourquoi être hypé par ce jeu" je veux bien la regarder :p)) mais je repasserai pour suivre tes éditos, si tu prévois d'en faire à l'avenir ! Bisous
Un brève passage au niveau du fonctionnement des calculateurs quantique aurait était idéal pour expliquer cette fameuse différence entre nos PC et les calculateurs quantique. A part ça rien à redire, certains souligne des erreurs maaaais c'est une vidéo plus "grand publique" je pense donc je trouve ça normale qu'ils manquent certaines précision. Content d'être tombé sur cette vidéo :)
Bonjour, je découvre ta chaine, et avant de contrebalancer ton propos (surtout ta conclusion), je te félicite pour le boulot abattu. Les mondanités étant faites, quelques déclarations m'ont fait tiquer. Tout d'abord, réduire le raytracing mis en avant pas NVIDIA à la simple possibilité technique offerte par l'amélioration de la puissance calcul est une erreur grossière. En effet, la techno mise en place est révolutionnaire à plusieurs égards. Premièrement, elle ne s'appuie justement pas sur la puissance de calcul, mais sur la capacité des IA à débruiter un rendu. C'est ce chemin qu'a choisi Nvidia depuis quelques années en R&D et voici donc leur première application pratique. La technique est "simple" : puisque calculer tous les rays de lumières et leurs interactions est trop couteux, autant calculer qu'un sample par pixel et laisser l'IA débruiter tout ça. C'est là que ton propos devient trop caricatural. Tu omets les optimisations incroyables faites ces dernières années en matière de middleware. La rastérization a encore de beaux jours devant elle grâce à ces gains de temps de calcul permis par les pixels et vertex shaders pour un rendu toujours plus fin, mais les avantages que vont procurer l'IA en terme de gains de temps de calcul vont facilement compenser le plafond de verre physique qui s'annonce. Déso, mais c'est brouillon et j'ai pas le temps de me relire, ni entrer dans les détails pour l'instant. Si tu veux plus d'info techniques n'hésites pas à demander. Bonne journée/soirée/matinée/nuit... etc.
Belle publicité. Ce que tu dis est à peu près aussi scientifique que l'extrait de la dame avec sa voiture quantique. Tu crois quoi que ton "" IA"" (qui n'est pas une IA) elle tourne dans un univers parallèle ? Non, elle a besoin de puissance de calcul. Aussi faire de l'approximatif c'est bien pour berné les myope sans lunettes mais ça permet pas de profiter d'un gameplay satisfaisant. Mais c'est bien prey NVIDIA amen.
@@s-x5373 Une IA a besoin de puissance de calcul pour être "entrainée" de façon assez rapide. Lorsque le training est fini, elle a besoin d'infiniment moins de puissance de calcul pour appliquer son apprentissage. C'est ce qui est au cœur de l'intérêt qu'il existe à utiliser des modules d'IA comme permis par la nouvelle série 2080 de Nvidia. Mais que ça te plaise ou non, toutes les avancées récentes en matière de denoising sont l’œuvre des labo Nvidia. Ici : th-cam.com/video/YjjTPV2pXY0/w-d-xo.html ici : www.digitalartsonline.co.uk/news/creative-software/nvidias-new-tech-uses-ai-denoise-your-images/ ou encore ici : www.3dvf.com/actualite-25059-d-noise-un-outil-denoising-blender-a-aide-technologies-nvidia.html Ces technique de débruitages sont au coeur du ray tracing que met en avant Nvidia pour l'instant et ils ont à des années lumière de la concurrence en l'état actuel des algo dont on a connaissance. Il n'est pas question pour moi de nourrir le troll que tu es, mais d'essayer de l'éduquer. Reviens avec des arguments et des sources la prochaine fois. A+
Vidéo avec un sujet peu abordé donc super agréable ! Petit faute de français très répandue en ce moment (alors que justement ta syntaxe est soignée) on ne met pas de préposition après pallier car il en contient déjà une, il faudra donc dire pallier, ou remédier à, et non pas pallier à
6:45 Ça me rappelle, je ne sais plus qui qui avait dit à propos de l'optimisation d'un jeu PC, qu'on s'en fout, qu'ils (les joueurs PC) n'ont qu'à acheter une nouvelle carte graphique... 8:17 Et si je ne m'abuse, Doom n'est PAS en 3D. 9:08 Il y a une dernière alternative à l'amélioration du hardware et du software: l'adaptation du game design, le scope.
Pourquoi les constructeur ne contourne pas le problème en augmentant la place disponible ? faire des processeurs 2x plus grand, carte graphique aussi etc... c'est pour une histoire de standard/coût de production ou autre ?
Il l'explique dans la vidéo. Tu t'expose à d'autres problèmes comme, notamment, cramer ton matos. La seule vrai solution, pour la puissance,, c'est les carte mères multiprocesseurs et les SLI/Xfire ou les double CG comme l'ont déjà fait AMD, mais à quel prix?
Parce que ton ordi deviendrait deux fois plus cher , deux fois plus consommateur d'énergie , deux fois plus chaud et deux fois plus bruyant . La loi de Moore parle de l'évolution technique et ECONOMIQUE des microprocesseurs . Doubler la puissance on sait le faire sauf que ca sera pas au même prix . Graver de plus en plus fin n'est plus la solution la plus rentable .
Pour aller jusqu'au bout de ce qu'il explique, 1 - plus grande taille = on sort de la loi de moore 2 - inadapté aux portables et à des usages domestiques 3 - plus grand, dit aussi plus longues distances à parcourir pour les données, ça a l'air de rien, mais ça fait baisser la cadence de calcul si le pipeline est plus long Sinon pour répondre à TracerYT, c'est pas une question de rentabilité, c'est une question de physique. Grosso modo, un atome c'est 10 puissance -10 m, un nanomètre c'est 10 puissance -9, ce qui fait que la séparation entre deux plaques de transistors est de l'ordre d'une demie douzaine d'atomes. Sauf qu'à ce niveau là, il peut se produire "l'effet" tunnel qu'on pourrait imager par une fuite d'eau qui goutte chez le voisins du dessous : y a pas toute l'eau qui débarque chez le voisin, mais plus ou moins régulièrement, des gouttes traversent. Et il n'y a rien de physique qui puisse atténuer cet effet (en fait si, les très basses températures, mais c'est impossible dans un usage domestique)
@@MrJohnnyYuge Et toutes les raisons que tu donnes expliquent pourquoi les solutions mises en oeuvre aujourd'hui ne sont plus les mêmes qu'il y a qques années . Mais faites gaffe avec les affirmations du genre "c'est physiquement impossible" parce que ca risque d'être démenti . La fin de la loi de moore est du a la difficulté technique de faire des proco plus puissants pour un cout constant . Quand on parle de production industrielle ( ce que la loi de Moore décrit ) la rentabilité est obligatoirement une donnée essentielle . Et je suis pourtant d'accord à 100% avec ce que tu dis sur les difficultés "physiques" rencontrées .
Super vidéo ! Et très bien expliquée ! ;) Je pense que l'industrie du jeux vidéo à encore de beaux jours devant elle, puisque que j'ai comme l'impression qu'il commence à y avoir une bonne main d'oeuvre très spécialisé dans la création de jeux ! Donc yaura forcément une équipe dédié à l'optimisation du code, ce qui va aller dans le sens que du décris ;)
J'éspére que c'est la fin de fr.wikipedia.org/wiki/Loi_de_Wirth : La loi de Wirth est une loi empirique formulée par Niklaus Wirth en 1995, selon laquelle « les programmes ralentissent plus vite que le matériel accélère »1. Ou bien : le nombre d'instructions nécessaires à l'interprétation de programmes plus sophistiqués demande des ordinateurs plus rapides.
Très bonne vidéo voilà un résumé très correct en si peu de temps. Une autre possibilité d'évolution dont tu aurais pu éventuellement parler c'est le changement de substrat / le remplacement du silicium pour permettre de grosses montées en fréquences, même si là aussi ce n'est pas forcément pour demain ;)
C’est intéressant. Ça fait quelques années que le hardware avance moins vite, c’est bon pour l’utilisateur parce que le matériel va pouvoir durer plus longtemps.
Je joue uniquement sur PC, et je parviens à faire durer un PC jusqu'à 5 à 7 ans en le soignant bien. Du coup, tout jeu sorti 2 ou 3 ans après l'année d'achat, je ne peux pas y jouer, ou alors seulement au ralenti. ^^
Le principe d'un pc est de changer les pieces, et non pas le pc entier ( franchement autans prendre une console dans ce cas. ) Mon PC a plus de 6ans, j'ai changer la CG et remplacer mon HDD par un SSD il y a 1ans et je fais tout tourner en Ultra ou High avec les jeux actuels. *GTA5 et TW3 étaient de grosse bete a leur sortis, donc meme aujourd'hui avec une config moyenne, tu ne peus pas le faire tourner en Ultra.
Ta vidéo apparaît sur la page d'accueil de tout le monde j'ai l'impression aha. Le sujet est très cool et ton explication limpide. Y a pas de magie = vidéo avec sujet intéressant faite avec passion et approfondissement = succès :)
C'est aussi beaucoup plus rentable pour eux d'optimiser un jeu après les premiers retour des gamers. Plutôt que le faire tester en interne en payant des gens pour le faire.
le Saint Graal de la beta eternelle, pour abuser de beta testeurs qui payent pour le faire au lieu d'avoir à les payer ! bénis soient les couillons qui achètent les pré-release.
c'est pour ca entre autres chose que l'année 2019 est consacrée en grande partie à l'optimisation du code pour la partie Star citizen tandis que SQ42 continue son développement ...merci pour cette superbe video ... gros mega pousse bleu et abonnement dans la foulée !
Perso je suis optimiste. On s'en fout pas mal que la puissance cesse de s'améliorer. Honnêtement, vu la beauté des jeux que je fais tourner à 60 fps sur ma bécane, qui n'est pas la plus puissante possible, même si elle se défend pas mal la bête, je me dis que franchement, on a atteint un niveau largement suffisant en terme de possibilité graphique. La gestion de l'IA est très affectée par cette évolution aussi j'imagine, mais regardez Ultimate Epic Battle Simulator, ou plus parlant le prochain Mount And Blade (même l'ancien, Warband avec des mods) qui parviennent à gérer plusieurs centaines de soldats indépendants sur une même map. Je pense que la fin de la loi de Moore, c'est une grande nouvelle pour le jeu vidéo. Les dév vont devoir cesser de s'appuyer seulement sur l'amélioration des moteurs et des graphismes pour sortir le même jeu en un peu mieux tous les ans. C'est dans la stagnation des découvertes techniques que la créativité apparaît.
Après il y'as besoin de puissance pour certaine façon de jouer, comme dans mon cas en VR, tous les jeux son très simpliste voir moche, car 2 écran a 90 fps constant c'est gourmand, et le jour ou on auras les graphismes des jeux conventionnel actuel en VR, on auras vraiment de quoi être émerveillé !
@@uberdjo3263 Ah, exact. J'avais pas pensé à ça. Mais à mon avis la VR a une bonne marge d'amélioration rien qu'avec les technologies actuelle. Même si effectivement pour le coup, plus on fait du performant en petit et léger mieux c'est :p
@@CypElf oui complètement ! sur PC pour ff14 on a eu une opti (enfin plutôt une upgrade) à la sortie de la v3 (+d'antialiasing, HBAO+,...) je crois que sur console ils l'on eu aussi. Après c'est un mmo.
@@tomythechair Yep, sinon en général c'est dommage que les jeux récents fassent moins attention à l'opti... Regarde quelle horreur a donné ARK sur Switch xD déjà que sur PC c'était super mal opti, sur Switch c'est une vrai catastrophe, l'un des pire jeux de la console
@@CypElf Nan pas vu Ark pourtant il m'avait envoyé du reve j'avais juste pas trop le temps à l'époque. Par contre tu me fais flipper pour la switch car c'est la seule console que je voudrais me payer (avec l'âge, le canapé nous fait de l’œil^^), mais si la moitié des jeux sont caca mon âme de joueur PC risque de chauffer un peu lol.
Super vidéo. Étant développeur (j'utilise pas mal Vulkan en ce moment), je confirme complètement tout ce qui est dit autour du code, et autour du fait que l'on ne cherche pas assez à optimiser. Et merci pour ce rappel sur le quantique, toujours trop de monde pense que cela va remplacer nos machines de guerre ; NON. En tout cas pas pour les 30 prochaines années. La seule chose que j'ai à redire : certains développeur adorent optimiser leur codes (Même si on n'est rarement payé pour le faire)!
En même temps tu vas passer 20h a gagner 0.2% de rapidité ? J'dit pas qui faut pas opti mais a un moment faut arreté avec le "c'pas opti", t'as un pc nul c'est tout. Moi si mon code fonctionne sur 99% des machine, paf il est opti et basta.
@@qzerqzefr2860 Effectivement, optimiser son code, c'est quasi infini pour un gain décroissant, et nous n'avons pas un temps infini. Par contre, on est sacrement loin de ton exemple. Une énorme majorité des softwares s’arrêtent avant l'étape "passer 20h pour gagner 20% de perfs".
@@ealrann La faute au harware aussi, comment opti un code sur une multitude de composant différent ? écrire le code pour chaque architecture? Après je suis d'accord qu'on est loin pour certain software de quelque chose de correct, mais quand tu dois respecter des délai court c'est ce qui arrive.
Hum parle pour toi si tu n'aimes pas l'optimisation de code. Je ne pense pas que cet argument soit généralisable. Personnellement je trouve que c'est l'une des parties les plus épanouissantes et gratifiantes du métier de développeur. Il existe même des jeux comme Shenzhen IO où toute la mécanique repose sur l'optimisation de code.
coupain ! L'optimisation, c'est l'avenir :) et d'ailleurs, je dirais qu'on se dirige peut-être vers une fusion de plus en plus prononcée entre le joueur et le développeur ou le joueur entrera de plus en plus dans le moteur et participera à l'optimisation. Et ça, ce serait beau :)
Je suis dev JV pro depuis 6 ans, et mon gros kiff c'est la chasse aux bugs et la micro-optim. Mais en effet, la hiérarchie pousse toujours à ajouter de nouvelles fonctionnalités plutôt que d'améliorer celles déjà existantes. Et je suis entièrement d'accord avec ton analyse. Les programmes sont de plus en plus complexes, ça demande de plus en plus de temps de les optimiser correctement, donc on préfère jouir de la puissance disponible. Les jeux actuels pourraient sans problème tourner sur des machines d'il y a 5 ans, mais pour ça faudrait sans doute passer 5 ans à les optimiser. Là où on trouve vraiment de l'optimisation de malade par contre, c'est sur les moteurs commerciaux.
Autre piste, devant la puissance des machines actuelles et la complexité à en doubler la puissance et la beauté des jeux actuels qui est déjà plus que suffisante: en plus de travailler sur le code... se concentrer sur le gameplay 😅
Bien d'accord, franchement au niveau de graphismes qu'on a à l'heure actuelle on s'en tape un peu de l'amélioration. Certains jeux d'avant 2013 restent encore graphiquement très regardables
Vidéo très intéressante, c'est clair et précis, expliqué et structuré mais surtout ça fait prendre conscience que le rôle le plus important dans l'informatique d'aujourd'hui, c'est le développeur et pas la machine
Très bonne vidéo, claire et complète. Seule petite critique c'est peut-être le son en face cam mais c'est vraiment pour chipoter, c'est du bon travail je reviendrai
bonjour, les ordi quantique c'est cuit pour le jeux, mais ne pourrait on parier sur la superposition des couches de transistors grâce aux matériaux dit "supraconducteur chaud" ?
Tu te trompe, l'issue à court terme, n'est ni l'optimisation, ni le quantique. La solution trouvée par l'industrie est toujours le parallélisme et maintenant la mutualisation de ressources délocalisée... Le cloud. :( Un des buts du cloud c'est de faire tourner les jeux en subdivisant les calculs et les fonctions sur plusieurs machines dans des fermes. Calcule des particules sur une machines, collisions sur autres. Gestion de l'affichage de contenus externe dans le jeu comme par exemple ce qui est diffusé sur la TV d'un perso sera un contenu streamé d'une autre machine. Crackdown 3 particules gérées par un serveur distant. Contenu interactif fourni par les joueurs de good and evil 2... Certain jeu encours de création sont géniaux et beaux mais tournent sur 12 machines en parallèle. Oui t'as bien lu douze. T'as pas besoin des 12 en permanence et donc 2 joueursbse partargent par exemple 18 machines. Une machine sera spécialisée pour les explosions pour plusieurs joueurs on mutualise. Bon c'est très triste, je suis un partisant de l'optimisation mais je peux t'assurer qu'on en est loin.
Si ce que tu dis es vrai ça rien de bien faire mal au cul niveau conso d'énergie, et si toutes les franchises s'y mettent l'impact écologique va être considérable ....
Haha je te suis depuis super longtemps ça fait plaisir que tu te face référencer pour tout le taf que tu produit depuis des années bonne chance a toi !
4:00 ??????!?!?!?????? T'as juste jamais croisé un vrai programmeur... Quand on code un moteur 3D, physique, bref tout le moteur du jeu est optimisé... On optimise tout du long... Si tu veux croiser des VRAIS programmeurs qui optimisent, arrêtes d'aller dans les conventions de kikoolol pikachu et autres figurines et vas dans une CODING party... Sinon oui ce sont les produceurs qui guident la danse, par les programmeurs, a part quelques rares exceptions (Id Software John Carmack) et ne me dis pas que lui et Michael Abrash n'optimisent pas ça commencerait a devenir ridicule... Et ne met pas dans le même panier les programmeurs MOTEURS, et les scripteurs bidouilleurs du content... (Gameplay programmeurs)... C'est pas le même niveau de maths ni de code... A leur avantage, ils sont plus "raconteurs d'histoires", "régleurs de gameplay", ajusteurs d'effets, mais pas le niveau technique d'un engine dev.
Ha ha ^^ Les "raconteurs d'histoires", "régleurs de gameplay", "ajusteurs d'effets" ce sont plutôt les game designers. Les gameplay programmers, ce sont les gens qui s'arrachent les cheveux à contourner les limites d'un engine qu'on leur colle dans les pattes, souvent sans avoir le droit de modifier l'engine lui-même (alors qu'ils en auraient potentiellement la capacité).
@Bobby McCouille - Ah mais a fond pour la COMPLEMENTARITE... Mais va dire ça au commercial qui pompe tous les benefs, et tous les managers qui "méritent" dans la boucle... Et puis si t'es capable de faire du moteur... Qu'attends tu pour le faire ?
Bien sûr, les moteurs actuels sont tellement bien qu'ils sont tous bourré merveilleusement d'abberration de calcul. Mais oui c'est vrai un travail dur et long c'est ça qui dicte la qualité, ahahha. Plus sérieusement : si tu pense que la difficulté mentale est la qualité du travail je t'invite à sauter d'une falaise ; c'est très dur psychologiquement demande beaucoup de détermination, très fatiguant, et je suis sûr que tout le monde sera très fier de la qualité de ton travail à la fin.
@@garryiglesias4074 Ce que tu dis, optimisé tout du long ou quoi, on sens bien que les autres c'est juste des scripteurs bidouiller ou quoi. Si tu n'avais pas passé autant de temps à bosser sur avec des api de merde peut être que tu t'acharnerais moins à essayer de tourner tout ce qui n'est pas un "engine dev" en ridicule. J'en conclu que tu considère que passer du temps sur son code après avoir fait des études de math c'est faire un code de qualité. Je pense que si tu ne comprends pas le contexte de ce que j'ai dis c'est parce que t'oublie qu'il y a d'autre personnes qui savent comment sont organisées les équipes et pour faire quoi. Il n'y a pas que les "engine dev" qui doivent "optimiser" ils existent des développeurs qui travaillent dans l'optimisation de calculs scientifiques pour résoudre des problèmes de l'armée par exemple aussi.
Salut, Ce que tu dit concernant l'optimisation des jeux est en grande partie faux. J'ai été directeur technique pour plusieurs studio de jeux vidéo Français, et je peu t'affirmer, que beaucoup de développeur essayent de sortir un code le plus clair et optimisé ne serais que pour eux, et pour faciliter leurs propres travail. Secondement dans 70% des cas lors d'une sortie d'un nouveau jeu le moteur du précédent est reprit, par conséquent le plus part du temps c'est 10 ans d'optimisation qui est reprise et donc une base saine, seul l'ajoute des nouveautés et effectué et selon le studio ça peut aller plus ou moins vite. Ton analyse n'est pas bonne, et concernant Anthem, c'est principalement un choix de l'éditeur, et de calendrier, un jeu AAA met environ 7 ans à être produit lorsqu'un éditeur demande de le faire en 3 ou 4 ans il y a forcément des compromis à faire, de plus les développeurs commencent souvent à travailler en devant ce projeter sur les évolutions hardware futures, et également avec les softwares futurs ce qui n'est pas toujours une mince affaire car parfois les constructeurs fournissant le software ne savent eux mêmes ce qui en sera exactement dans 5 ans.
Il t'a deja repondu dans sa video ;) Il parle surtout des grosses productions. Et tu confirmes ce qu'il dit. Donc je ne suis pas sur ou tu veux en venir. On sait tous pourquoi beaucoup de producteurs font ce qu'il font. Lui il dit pourquoi ils vont devoir changer leur approche et qu'il y aura un moment de flottement. Ne partages-tu pas son avis sur la bariere physique de la miniaturisation des transistors? Ne vois-tu pas les memes consequences? Prends-tu ses arguments generiques de maniere personnelle? Ce qu'il dit va plus loin. Pour continuer a faire avancer les jeux, on ne pourra plus compter sur le hardware, mais il faudra trouver des opportunites dans l'implementation elle-meme. Il y a d''enormes reserves. Avant que l'ere des GPU ultra-puissants avec des nouvelles generations tous les 3-4 ans (ou plus souvent), on a tous vecu comment les jeux evoluaient sur la meme platforme, avec sur la fin des titres qui semblaient realiser des miracles. C'est de ca qu'il parle. De l'inventivite des programmeurs qui est bridee par l'approche mercantile et que l'on rempalce par des graphistes ;) Je ne sais pas comment il a evolue, mais il y avait un concours il y a une dizaine d'annees de programmation 3D, avec par exemple comme contraintes de creer un scene 3D avc un code en C++ avec
Je te rejoins à 100% . Il fait des raccourcis que ça soit sur la loi de Moore ou sur son idée des contraintes des développeurs de JV . Le plus dur c'est de faire face à un marché qui est en évolution hyper rapide avec des temps de développement de plusieurs années . Résumer ca à un laxisme des développeurs quant à l'optimisation espérant des machines toujours plus puissantes ... C'est un contre sens ... Pareil en ce qui concerne la "fin de la loi de Moore" . Il oublie juste que c'était une conjecture empirique sur l'évolution ECONOMIQUE et technique du marché des microprocesseurs . On oublie au passage l'évolution des architectures hardware et software qui rentre en concurrence directe avec la baisse du coût de gravure d'un microprocesseur . Si graver plus fin devient moins rentable que changer d'architecture , alors pourquoi le faire ? Bref , une vidéo qui aborde des sujets passionnants mais ne fait que les survoler sans apporter de réponses pertinentes .
@@tracerpt2rire Il dit exactement que cela etait empirique. Il le dit au début :D Il vous a fait quelque chose le gars ? Pour les contre-sens, ca serait bien de développer car moi je ne vois pas.
@@ultra_busy C'est très exactement ce qu'il dit quand il dit comprendre les dévs qui ont surtout des contraintes imposées par la direction notamment en terme de délai. C'est comme les tests dans l'industrie ou la soit-disant obsolescence programmé : le but c'est pas de sortir un produit pourri ou qui tombera forcément en panne mais juste d'équilibrer le coût de fabrication ou des tests vs le prix à la sortie d'usine.
Faut pas le prendre personnellement. En général les expressions du type "pour ceux qui dormaient en cours" servent surtout a expliquer qu'on parle d'un principe de base. D'ailleurs il sait que tout le monde ne la connait pas car il prend le temps de la décrire. Moi même avant de cliquer sur la vidéo je n'étais pas sûr de quoi il s'agissait, pourtant je suis loin d'avoir dormi à l'école ;)
Intéressant. Pour la conjecture de Moore qui ne va plus se vérifier, vous avez peut-être raison. Ceci dit, il y a 15 voir 20 ans j'entendais le même genre d'arguments "On arrive actuellement à une limite physique due à .... qui semble infranchissable." Et pourtant la conjecture est encore vérifiée.
@@slys5871 : Il y a de bons jeux au gameplay assez moisi ou juste moins bon qu'un autre de leurs aspects, sans en être de mauvais jeux. Prends par exemple tous les jeux narratifs du type Tellatale. Il y a même le jeu _Undertale,_ auquel j'ai pas tout à fait accroché (y en a qui en ont fait une religion…), mais faudrait aussi que je le finisse d'abord. Dans ce jeu, les graphismes sont immondes, avec un gameplay moyen (bien qu'intelligent par moments, je dis pas le contraire), mais une excellente narration.
@Tom D. : Important, oui. Indispensable, non (on peut s’en dispenser). Et d’ailleurs, avant de chercher un quelconque « message », le but d’un jeu est, avant toute chose, d’être juste un BON jeu, d’être amusant. Et le gameplay n’y est pas essentiel. Important, certes, mais pas indispensable.
Merde, j'arrive dans la vidéo apres avoir lu un article qui parle de la vague des cpu gravé en 7nm pour le printemps. Donc parler de limite à 10nm...C'est déjà plus d'actualité. la limite sera plus vers 3nm dans 10-12ans.(avis perso)
Et il faut aussi considérer que les 7 nm sont assez théoriques, on a pas vraiment les moyens de vérifier que c’est précisément à cette finesse. C’est plutôt du 12 nm ++
En fait personne ne grave à 7nm, c'est du 10-12nm qui se comporte comme un 7nm qui n'aurait pas de problème. Et déjà pour le 7nm il n'y a plus que les géants comme Intel ou TSMC qui ont les moyens de se payer la R&D et les machines pour le produire. En deçà il y encore d'autres problèmes qui apparaissent donc on est pas près de les voir les transistors sub-5nm
5 ปีที่แล้ว
Pouce bleu pour ton explication /débunk de l'informatique quantique.
super video mise à part que tu regardes trop ton retour caméra et que tu fait un peu le coincé ^^ ( l'orifice arrière) , lâche toi n'es pas peur ;) sinon super ce que tu fais! tu mérite plus d'abo.
Bonne vidéo proposée dans mes recommandations. Pour le côté « les calculateurs quantiques servent à faire d’autres types de calcul », on peut facilement faire le parallèle avec les cartes graphiques ! Se sont également des calculateurs mais qui réalisent des calculs d’un type différent (vectoriel) que les processeurs « classiques ». Chacun étant bien meilleur que l’autre dans un domaine particulier. Sinon à titre personnel je pense que le boost de puissance va passer par une croissance du nombre de cœurs et une parallélisation des calculs de plus en plus utilisée. La différence entre un corei5 et un i7 n’a pas vraiment d’influence sur les jeux vidéos pour le moment, mais ce sera de moins en moins vrai à l’avenir selon moi, voir devenir un prérequis.
Bravo et merci. Quelle différence faites vous entre loi et conjecture ? J'estime que le terme de loi désigne quelque chose de valable sauf quand il ne l'est pas. Exemple: règle de l'octet, règle du duet... Cordialement
D'abord superbe vidéo, c'est bien travaillé, et cherché ! Maintenant, je vais parler un peu de fabulation future ; mais les ordinateurs quantiques dans un avenir comme 30-50 ans auront certainement leurs places dans des lieux minuscules (L'exemple du téléphone que tu utilises dans ta vidéo par exemple), dans le meilleur des cas pour des ordinateurs, on peut imaginer une évolution de la carte mère qui mélange le modèle standard actuel, et le modèle quantique en développement, dans ce cas-là les requêtes peuvent être transvasé d'un système à l'autre par un système de requête bien spécifique et la puissance de calcul sera alors phénoménale par rapport à ce qu'on est capable de faire actuellement. Je ne suis pas spécialement intéressé par le hardware, mais je dois dire que spéculer sur ce genre de sujet, ça a de quoi donner envie de rêver ! Néanmoins, même avec des ordinateurs comme cela, comme tu le dis, le plus gros problème dans le domaine du jeu vidéo restera plus ou moins l'humain qui ne débug pas et n'optimise pas. Les cahiers des charges pour des AAA ont beau être stricte, je vais parler de manière "personnelle" en aucun cas, c'est la juste parole; personnellement et en tant que développeur, il m'arrive de faire des petites fautes qui cumulées peuvent faire planter un programme, l'erreur est humaine, mais par rapport à une certaine majorité, je pense à l'architecture de mon code, plus on a de modèles différents, plus on peut peser le pour et le contre avant, durant et après développement, cela réduit grandement les chances de faire des aberrations. Une autre chose que l'on voit très peu chez des entreprises grandes comme petites, c'est des test de composants personnellement et en tant que développeur, il m'arrive de faire des petites fautes qui cumulées peuvent faire planter un programme, l'erreur est humaine, mais par rapport à une certaine majorité, je pense à l'architecture de mon code, plus on a de modèles différents, plus on peut peser le pour et le contre avant, durant et après développement, cela réduit grandement les chances de faire des aberrations. cela considère à tester des bouts de codes, cela permet de vérifier premièrement leurs fonctionnalités, mais également l’efficacité. Je pense qu'aujourd'hui les personnes sont trop peu réceptifs à ce genre d'attente/besoin, et que cela n'est pas suffisamment vu dans des lieux comme dans les facultés, des écoles, et même sur internet.
Honnêtement j’aime beaucoup optimiser mon code... 😂 Quand tu repasses dessus plusieurs fois jusqu’à la perfection, le résultat est tellement satisfaisant 😄 Mais c’est évident qu’il ne faut pas le faire à la fin du projet. Dans ce cas, autant le recommencer de zéro. Concernant ta vidéo, c’est vraiment très propre ! Tu parles bien, tu sais de quoi tu parles et c’est intéressant ! Je connaissais pas ta chaîne et c’est une belle découverte ! 😊
11:55 oui mais la question que je me pose c'est comment on fait à la base pour encoder une clé machintruc qui met plusieurs milliards de milliards d'année à etre décodée en une échelle de temps normale ?
Très bonne vidéo, je m'abonne de suite. Les développeurs bougez vous et optimisez vos jeux parce que oui les nouvelles technologies peuvent encore compenser les lacunes de codes mais on a pas 1000 euros à dépenser tout les deux ans sur de nouveaux composants ! :D
Très bonne vidéo, merci de m'avoir éclairé sur le sujet. mais au terme de celle ci, je me pose une question : les ordinateurs quantiques pourraient-ils, a long terme, devenir des composants de nos ordinateurs "classiques" (en supposant qu'on parvienne a créer une interface entre les deux, ce qui n'est peut-être pas réalisable, je sais pas) et ainsi permettre aux jeux vidéos du futur d'avoir accès a de nouvelles technologies totalement différentes de ce qu'on peut avoir avec les ordi actuels ? Merci
En effet, quand on compare un OS type Windows et son équivalence Linux, on constate que la différence se fait sur l'optimisation du code et de sa structuration, d'où sa vaste utilisation sur les serveurs et les smartphones (Ubuntu, Android et iOS). L'intelligence artificielle peut-elle servir à optimiser du code à la volée pour le gaming ?
fascinent vraiment, je viens de te découvrir, ton contenu est limite trop riche pour TH-cam, j'aimerai savoir quel est ton travaille pour en savoir autant sur le domaine
Excellente vidéo ! Par contre il y a un truc qui n'a pas été précisé, c'est que certaines choses qu'on ordinateur standard peut faire sont impossibles à reproduire plus rapidement avec un ordinateur quantique (par exemple calculer plusieurs choses en même temps et récupérer tout les résultats. Par exemple pour trouver quel f(x) = y on gagne du temps, mais pour calculer tout les f(x) de 0 à z et les afficher on gagne rien). De toute façon les ordinateurs quantiques fonctionnent de façon si différente des ordinateurs actuels qu'il faudrait tout reprendre à zéro et tout refaire différemment. À mon humble avis, la seule choses qu'on peut espérer voir de notre vivant, c'est la possibilité d'ajouter de façon modulaire un processeur quantique à nos ordinateur afin de lui déléguer le peu de calcul intéressant à faire dessus, mais ce serait un investissement inutile pour la majorité des gens.
T'as mis le doigt sur un bon problème. C'est d'ailleurs à ça que servent la refacto, les tests, l'architecture, etc... Le problème est effectivement qu'assez peu de budget et/ou de temps y sont alloués alors qu'ils devraient être au coeur de la création du logiciel. D'un autre côté il y a tout un tas de bonnes pratiques à disposition des devs. Perso je ne connais pas le milieu du jeu-vidéo, donc je ne veux pas tirer de conclusions hâtives. Mais dans mon domaine qu'est le web, le nombre de projets mal voire pas testés, spécifiés, optimisés , conçus avec de bonnes notions d'architectures, etc... est assez édifiant. Alors que les bonne pratiques existent: TDD, E2E, processus de contrôle qualité au fur et à mesure du cycle de vie du produit, design patterns éprouvés... C'est ce qui fait souvent la différence entre un projet amateur / startup qui foire et un vrai service ou logiciel qui réussi dans la durée.
Je suis pas au point du tout mais les ordis quantiques utilisent le principe de superposition pour être plus rapides non ? C'est pas alors justement QUE du calcul en parrallèle ?
Je viens de découvrir ta chaîne par l'algo YT. Comme quoi, il n'a pas que des défauts. ;) Je voulais juste indiquer que le propos de cette vidéo m'a fait penser au corollaire méconnu de la loi de Moore : la loi de Wirth, qui dit en gros que les programmes deviennent plus vite plus lent que les processeurs vont plus vite. L'idée sous-jacente est exactement celle que tu décris : puisque la loi de Moore annonce une accélération des matériels, alors les programmeurs prennent moins la peine d'optimiser leur code, et donc une version récente d'un logiciel tourne parfois (trop souvent dirais-je, mais c'est probablement un biais de ma part) plus lentement que sa version plus ancienne malgré un meilleur matériel. fr.wikipedia.org/wiki/Loi_de_Wirth
Vidéo ultra intéressante même si ça réduit en cendre mes espoirs de jouer un jour sur un ordi quantique (c'est quand même sexy à dire et niveau marketing ça en jette) et voir même d'accéder a un niveau de jeu vidéo de type "ready player one", etc.
Les frères Maulden Hauer, Fabien Demeulenauer de Game atelier en avaient parlé l'autres jours, Sam Houser aussi dans un podcast en 2013 et enfin le responsable du studio 4A game du récent Métro Exodus, a dit que c'était une véritable épreuve du combattant et un parcours bourrés d'obstacles que de parvenir a créer Exodus. Perso je les crois tous sur parole car c'est sûrement pas moi qui arriverait à faire ces oeuvres d'art si l'on peut se permettre de les nommer ainsi vu la quantité d'efforts qu'il faut fournir, les montants exorbitant, le personels hautement qualifiés requis, le degré de persévérance et de rigueurs est tout bonnement délirant ! Excellente vidéo 😃👍. Cyberpunk 77 et Beyond good and evil 2 sont attendus par beaucoup comme l'équivalent de Red Dead 2 tant sur le plan technique que artistique. info ou intox ? Aux dernières news, CP77 à l'air d'en jeter sévère mais nous en savons trop peu sur BGE2 pour se prononcer, pas même une idée car CP77 a diffusé une heure de son gameplay intensive l'an dernier qui était plutôt convaincant, reste à savoir s'il est un jeu full next gen Xbox next et PS5 only ou cross gen et dans ce cas, downgrade il y aura et une révision des ambitions seront à la baisse. Pareil pour BGE2.
BREAKING NEWS !
Une parente de la nana de l'extrait vers 10'15 m'a gentiment envoyé un mail intitulé "demande de modification de vidéo pour irrespect". Je vous laisse deviner pourquoi. Du coup j'ai fait flouter par TH-cam (enfin ça devrait fonctionner) la partie incriminée pour virer nom et tête, mais je maintiens, c'est du charlatanisme pour moi. Après si ça vous chante d'écouter leurs bêtises enchanteresses (et de payer, mdr) libre à vous. C'est que mon avis.
FIN DE LA BREAKING NEWS
Bon alors la vidéo viens de passer les 15k dans la nuit, doublant quasiment son nombre de vues en moins de 24h. J'avoue ce n'était pas prévu ^^''
Du coup précisions.
Je n'escomptais pas que la vidéo dépasse les 3k vues, du coup je suis agréablement surpris, mais aussi un peu emmerdé.
On ne va pas se le cacher, sans faire cette vidéo par dessus la jambe (loin de là), j'aurais pu la soigner plus.
Sur le plan visu, je dois dire que c'est ma première vraie vidéo dans ce style là, et je suis loin d'être un bon acteur ou monteur, donc on va dire que c'est normal.
Sur le plan des infos par contre c'est plus mitigé. J'aurais dû être plus précis dans les termes que j'utilise et ce que j'explique. Il y a des choses auxquelles je n'ai pas pensé, ou dont j'avais pas connaissance lors de la création de cette vidéo. La plupart des éléments manquants ou les correctifs se trouvent dans les coms, n'hésitez pas à les consulter :) Je ferais éventuellement un nouvel édito sur les possibilités pour palier à cette loi si le besoin se fait sentir.
Deuxième chose : cette vidéo contient mon avis perso sur le sujet. EVIDEMMENT que l'opti n'est pas laissé à l'abandon dans le JV, et qu'il y aura toujours Jean-Michel NonMoiJe pour te donner un exemple contraire, mais gardez bien à l'esprit que sur 20 minutes c'est pas évident d'être exhaustif. Et quand on est pas exhaustif on comble avec des avis et des généralités, c'est plus simple.
Je ne m'en cache pas, je n'essaie pas de vous enfumer pour me donner l'air cool, ça serait débile.
La fin d'une vidéo, je considère que c'est le début de vos recherches. Personnellement je trouve ça génial de pousser plus loin ce qui est dit dans une vidéo, quitte à se rendre compte que c'était pas vrai. Ça pousse à la réflexion et à la curiosité ! (d'autant plus que je vous laisse des sources en description pour commencer vos recherches)
Troisième chose : ma chaîne fait aussi (et surtout finalement) des vidéos sur Star Citizen. Je sais que c'est un sujet assez clivant, donc soyez bien conscient quand vous vous abonnez que ce genre de sujet est assez sporadique sur ma chaîne, que vous n'ayez pas de mauvaise surprise ;)
Ta vidéo est très intéressante en tout cas!
Vidéo intéressante, nombre de vues mérité. Bon boulot. 👍
Video tres interessante. Cela fait des annees que l'on dit que l'on arrive aux limites physiques des circuits imprimes. Je n'avais pas vraiment suivit le sujet au jour le jour. Mais je comprends en regardant ta video, que l'on y arrive. Cela se sentait deja d'ailleurs lorsqu'on a vu apparaitre les CPU a plusieurs cores, qui bien sur ne peuvent que partiellement regler le probleme, vu que cela necessite aussi de programmer de telle maniere a executer les calculs en parallele et ce n'est possible que dans une certaine mesure. Le GPU base evidement eminement sur ce principe. Je pense que c'est l'aspect qui manque le plus dans ta video. Qu'est-ce que cela veut dire de faire des calculs en parallele.
Pour l'ordinateur quantique. Je ne suis pas un specialiste, mais je comprends les choses come toi. La superposition quantique des etats offre des opportinites qui permettront de passer a un(deux :) ) ordre de grandeur superieur de complexite dans beaucoup de domaines, mais ne sont pas adapte a tous les problemes.
Pour ce qui est de la qualite de la video, j'aime bien ta distance envers ton propre travail. Franchement ta video fait le taff. Les prochaines seront encore meilleures. Star Citizen est aussi dans mon cercle d'interet, donc je m'abonne ;)
Je te souhaite plein de succes sur TH-cam et ailleurs.
Michael
Je comprends tes réserves vis à vis de ta vidéo mais fais attention de ne pas perdre de vue que c'est parce qu'elle plait comme elle a été faite qu'elle est autant visionnée.
Cette vidéo m'a été suggérée par ytbe.
Je crois qu'on a tous remarqué que l'optimisation n'était plus une prio, surtout chez Bethesda xD
SURTOUT chez UBISOFT, Bethesda ? c'est une blague ?
@@stanley1stt Ouai ubisoft j'avoue lol ! Oui betbesda aussi, mais surtt dans les sorties récentes
On dit Bugthesda X-D
Ca n'as jamais été une priorité chez Bethesda, sans parler du debugging... Quand tu vois que Fallout 4 a les mêmes problèmes de frame-pacing que Morrowind (les deux utilisant le glorieux GameBryo...) x').
Ubisoft c'est mes petits chouchou: 30fps c'est plus cinématique, celle là je l'adore!
Après faut pas tout mélanger je le concède ^^ Il y a corriger les buggs/glitches/erreurs, et "optimiser" le jeu d'un point de vue moteur, ce sont deux étapes différentes, et souvent la deuxième qui pêche chez Ubisoft, mais la première chez Bethesda.
C'était super intéressant mais faut cligner des yeux kiki
Et pourtant il cligne!
@@equakebilly T'as frôlé le bûché
@@alexrayder1
Ça doit être la première fois que l'on voit une référence à Galilée dans les comms d'une video TH-cam.
Physique cantique , c'est facile ...c'est chanter en faisant du sport ^^
quantique*
Celian non , dans le contexte c'est bien "cantique" ... C'était une nano vanne ^^ ,pas une théorie , je prends une corde et je me Planck de honte .
@@celian5451 *cantique
un cantique, c'est un chant religieux . Bon, Jean Seb Bach ça peut-être quantique aussi ....
sebastien harmegnies
Désolé
Pas mal la deuxième blague sinon 😂
Super video ! Je rajouterai juste une chose sur la conjecture de Moore qui est très importante pour l'expliquer. Avant d’être un loi technologique, c'est une loi économique. En effet, la conjecture parle de doubler le nombre de transistors, sur une meme surface, a coût constant $-$ :)
Exactement. J'allais l'écrire
Idem ! Je cherchais un commentaire du genre pour être sûre de ne pas faire de doublons :) C'était plutôt un objectif à atteindre qu'une prédiction.
Première vidéo que je regarde de ta chaîne, tu as beau ne pas être très satisfait de celle ci je le trouve passionnante et véritablement pertinente. Je suis en étude d'ingenieurie et ma passion est le jeu vidéo. J'ai retrouvé le meilleur des deux mondes (simplifiés) dans cette vidéo. Merci beaucoup à toi !
Frero arrete de parler les yeux grands ouverts c'est stressant
(Message subliminal : ABONNE TOI A MA CHAINE)
@M-SimRacing -01 Oui à la fin on voit bien ses yeux lire. J'allais faire à peu près le même commentaire, mais à la fin il est vraiment flippant. Faut cligner des yeux !!
Perdu ! J'ai pas de prompteur et je ne lis pas mon texte. J'ai une feuille sur le coté, et j'apprend chaque réplique par coeur avant de la ressortir ^^
Mes gros yeux c'est juste que je suis pas à l'aise, et que je suis impliqué. Je fais tout le temps ça dans ce genre de cas. C'est ma première vidéo comme ça, ça ira mieux sur les suivantes...
J'allais dire la même chose
faut qu'il fume plus de weed
je suis tombé sur ta vidéo complètement au hasard (merci l'algo yt ^^) et franchement je suis très satisfait! J'avais un peu peur que ce soit une de ces vidéos avec un titre intéressant et un type qui brasse du vent pendant 20 min, mais pas du tout! Le sujet est expliqué simplement mais en détail, tes raisonnements sont convaincants et font pas mal le ménage entre faits et spéculations sur le sujet.
Enfin bref, merci bien pour la vidéo
Une bonne recommandations pour une fois venant de youtube surtout pour avoir mis une petite chaîne cela vas te booster les abonnés en espérant que se soit le cas
midoriya izuku Peut-être est-ce un effet secondaire du deréférencement des vidéos complotistes ou de fake news.
Son nombre d'abonnés a juste doublé x)
J'aime bien optimiser perso, c'est un moment où tu alloues ton temps à réfléchir et ça a parfois de grosses répercutions sur le produit final.
T pas le seul :)
Gordon Gekko what ? Pk tu dis sa ?
@@fktrading7188 C'est pas banal.
Quand il a dit connaitre personne qui aime optimiser son code j'ai halluciné. Perso j'adore ça. Quand tu fait passer un algo O(n²) en O(n.log(n)) ou quand tu trouves finalement les données qu'il fallait absolument mettre en cache, faisant passer ton temps d'execution de 5s à 20ms, oh putain la jouissance !!!
@@niglooo4587
// evil floating point bit level hacking
// what the fuck?
Y'a que dans l'optimisation que les miracles arrivent je trouve.
10:40 la meuf dit, tu suis une voiture de là à là.. en quantique tu prends une voiture elle est là et maintenant elle est là.... elle a absolument rien compris de la quantique des objets!
Jean-Michel B elle confond avec l'intrication.
@@YRuut j'crois surtout qu'elle en a rien à foutre, ça va pas l'empêcher de se faire des tunes sur des gens qui y bittent que dalle ^^
@@m.i.k7048 Q-Bittent*
Si jai bien compris un calculateur quantique dans cette situation calculerait toute les options possibles du mouvement de la voiture ?
@@courtepaille7286 Non. d'après ce que je sais, en quantique, tu ne peux "savoir" que la position ou la vitesse d'un électron (c plus compliqué avec des proba et tout et tout). donc par rapport à l'exemple, tu ne serai que où est la voiture ou à quelle vitesse elle va.
Et le calculateur quantique ne sert qu'à désigner une grosse boite qui fait des calculs grâce aux lois quantiques (grosso modo)
Le problème de l'optimisation se retrouve aussi dans le domaine de la programmation industrielle. J'ai rarement démarré un nouvel outil conforme au cahier des charges... Je crois que l'optimisation est effectivement un problème et en même temps la solution. Elle représente finalement la partie réservée aux génies de la logique informatique... Bravo pour ta vidéo, tu t'exprimes clairement et de manière pédagogue. Bonne continuation, c'est génial !
C'est une bonne vidéo dans l'ensemble mais il y a quelques erreurs à noter. Plutôt que de parler d'ordinateur quantique tu devrais parler de calculateur quantique. En effet ceux-ci sont construits pour un type de calcul particulier et sont bien loin d'être polyvalents. De plus vouloir graver à l’échelle du picomètre est un non-sens total: l'ordre de grandeur de la taille d'un atome étant l'angström (10^-10 m), comment peut-on physiquement graver plus petit? Je sais que je chipote sur des détails mais c'est en étant précis sur les détails mais c'est en soignant ceux-ci que tu gagneras en crédibilité auprès du plus grand nombre. Sinon le message principal est bien expliqué, continue comme ça c'est super intéressant :)
sur la remarque du "calculateur quantique" : non de toute façon un ordinateur ne calcule pas mais il ordonne mathématiquement, donc on utilise en langue française le terme très précis d'ordinateur, bien plus précis que l'anglais computer.
@@carthkaras6449 carth 1 - scalp 0
"en étant précis sur les détails mais c'est en soignant ceux-ci que tu gagneras en crédibilité auprès du plus grand nombre" hahahaha non, malheureusement le simple plait au plus grand nombre
Il y a clairement un problème de vocabulaire quand il dit "graver au picomètre" mais ton explication n'est pas valable. Si tu te renseignes tu pourras trouver que des architectures de calcul sont envisageables, et à l'étude, en utilisant directement des électrons comme source d'information (en gros présence d'un électron =1 binaire et absence =0). Ces électrons sont de l'ordre du femtomètre (10^-15) donc il est envisageable qu'on arrive à faire des architectures plus petites que le picomètre (même si on n'en n'est pas du tout là).
@@Beware1654 Mon commentaire était là pour montrer le problème de vocabulaire comme tu le dis. Mais ce que j'ai lu sur les systèmes utilisant les électrons ne me paraissent pas envisageable dans un futur proche (même si j'aimerai me tromper). En effet, ces systèmes sont des systèmes quantiques, et en physique quantique il n'y a pas de "l'électron est présent", il y a juste des probabilités de présences et palier à ce soucis pour mettre au point des ordinateurs classiques me parait utopique (même si , encore une fois, j'aimerai me tromper).
Excellente vidéo, très informative. On aurait besoin de plus de ça sur TH-cam
J'ai beaucoup apprécié cette vidéo, je viens de découvrir ta chaîne, elle est vraiment chouette, bon courage mec !
Pas mal du tout, c'était super intéressant. Un petit commentaire pour te donner de la motivation (et du référencement tant qu'à faire), j'espère que tu referas des vidéos de ce genre !
Alors non, on va pouvoir avoir des ordi plus puissant avec la photonique. Dans mon école d'ingé, mes enseignants font de la recherche pour créer des transistors en utilisant la lumière (au lieu d'un courant) et en supprimant la partie électronique. L'intérêt est d'avoir une vitesse inégalée (celle de la lumière) avec un espace de stockage hallucinant. Leurs recherches sont maintenant très avancée mais il faut encore miniaturiser le tout. Bien entendu, la taille des transistors ne diminue pas avec cette technologie, mais leur vitesse n'a rien à voir avec celle actuelle. Je vous encourage à vous renseigner sur cette technologie qui arrivera à moyen terme !
Un processeur "photonique" alors ?..
@@larietournelle7904 Oui !
A la place des électrons, on prend des photons, ce qui permet au passage de réduire la consommation de manière inimaginable puisque l'on a plus d'effet joule qui fait chauffer les composants !
on en parlait deja en math sup ya 20 ans ... mais oui ca fait rever >)
ou on appelle sa plus facilement un ordinateur optique ( ce type d'ordinateur est encore en phase de test le premier prototype de ce type d'ordinateur sortira dans environ 40/50 ans d'après les chercheur ) bonne journée . :)
En tout cas, ta vidéo soulève un sujet très intéressant à creuser : la future obligation pour les développeurs de jeux d'optimiser a fond leurs jeux, pour proposer des expériences magnifiques et complètes sur du hardware qui, un jour, ne pourra plus évoluer. C'est un message, je pense, que nous (gamers) devons faire passer aux grosses boîtes de jeux, pour qu'elles arrêtent de sortir des jeux se ressemblant tous, chaque année.
Le problème quand tu apprends la programmation, c'est qu'on te dit qu'il y a plusieurs chemins pour arriver au même résultat. Mais on ne te dit pas que certains chemins sont plus rapides. Il devrait y avoir de la théorisation de l'optimisation car franchement quand tu veux optimiser ton code, la plupart du temps tu fais des essais au petit bonheur la chance et tu regardes si ton calcul a été plus rapide.
Exactement je suis d'accord avec toi il devrais il y avoir une méthode simple a l'apprentissage de la programmation. Malheureusement l'informatique est très complexe de nos jours. Au niveau de l'optimisation on peut optimiser certains moteur comme Godot JMonkey car ils sont sous licence open source et sous licence libre. Par contre pour les moteurs sous licence propriétaire et close source comme Unity et Unreal c'est a eux de s'ouvrir au codeur afin d'optimiser leur code. Déjà si tu paye une licence spécifique Unreal tu peut comprendre le code source du moteur mais il faut une connaissance approfondie en C++. Après il existe des langages de programmation qui sont mieux optimiser pour les machines que d'autre. Mais bon Je ne suis pas un expert de la programmation.
Le truc c'est que la théorisation de l'opti ça existe ! C'est d'ailleurs un cours qui peut parfois être enseigné dans les grandes écoles. Perso j'ai eu le droit à un cours d'algorithme et complexité qui s'en rapproche le plus. Alors c'est pas de l'optimisation à proprement parler, mais ça permet au moins d'apprendre des schémas que tu ne dois pas faire pour des questions d'opti.
En fait pour vraiment comprendre l'optimisation il faut faire des cours d'algorithmie avancé pour pas écrire comme un pied, mais aussi des cours d'assembleur et de compilateur.
Le niveau d'optimisation le plus bas sur lequel un humain peut aisément avoir de l'influence, c'est au niveau de l'assembleur. Le truc c'est que les compilateurs qui transforment ton code source en assembleur sont un peu bêtes, et il reste souvent des optimisations possibles qui parfois sont non négligeable.
Donc oui on peut et on a même déjà commencé à théoriser l'optimisation. Et ça déjà été fait il y a quelques décennies quand on avait pas le choix. Mais tout ça cela nécessite effectivement du temps et une connaissance approfondie des ordinateurs, des langages et de leurs différentes utilités dans différents domaines.
Perso en licence info j'ai eu des cours d'algo et d'assembleur où on faisais de l'opti et ce, dès la L1 ^^
Tu te doit de maîtriser ton code. Coder au pif c'est le coeur des problèmes de codage actuels.
la théorisation est assez compliquée globalement, parce que les concepteurs de processeurs gardent leurs petits secrets. Alors on connait bien quelques gadget comme le branch prediction ou des petites coquineries comme ca, mais certainement pas toutes. Donc globalement tu peux avoir un programme algorithmiquement optimisé, mais qui finalement tourne moins vite.
Un petit exemple pour t'en convaincre: avec les compilateurs actuels, tu peux produire un code totalement dégueulasse en C++, il sera plus rapide qu'un code super optimisé en assembleur, juste à cause de ces petites coquineries.
C'est pour ca qu'on nous apprend les bases de l'optimisation (la complexité algorithmique) mais qu'on ira rarement plus loin, on laisse le reste au compilateur.
On pourra donner l'exemple du java, qui a un fonctionnement totalement incroyable, ton code est optimisé à la volée, donc peu importe ce que tu fais, le code qui sera exécuté ne sera pas celui que tu as produit.
Attention, tout cela n'est pas une excuse pour faire n'importe quoi et se dédouaner de faire du code dégueu
Ça fait un moment que TH-cam me suggère cette vidéo, mais je l'ai délibérément ignorée de peur d'entendre des conneries comme souvent, les gens comprenant mal l'informatique en général. Eh bah je suis très content de m'être trompé ! La vidéo est très bien et très informative, une très bonne vulgarisation. Bravo. Donc pouce bleu, et abonnement à la chaîne. Merci!
Le meilleur exemple d'optimisation software sur un hardware fixe est, à ma connaissance, la Xbox 360. Comparez les jeux sortis en début de génération et les derniers sortis dessus avant la Xbox One, il y a une différence notable. La preuve que c'est possible :D
Très bonne vidéo !
Oui, je pensais particulièrement à Forza ou Halo, Gears est aussi un bon exemple je crois (j'ai pas joué à tous les Gears)
@@MiniGui98 Il me semble que les exclus sont souvent assez optimisés, que ce soit chez Sony, chez Xbox ou chez Nintendo. C'est tout simplement plus simple parce qu'il n'y a qu'une configuration à prendre en compte et donc tu optimises pour ta configuration sans te soucier des autres.
@@Landriaz oui, les exclus en général. Je suis un joueur Xbox donc c'est ce qui m'est venu à l'esprit.
Même les jeux présents sur plusieurs platformes (battlefield/call of me viennent à l'esprit) présentent des belles différences au fil des années
Honnêtement je suis pas un expert vu que je connais assez mal la xbox 360 mais je pense que la ps2 c'est pas mal non plus il y'a un véritable monde de différence entre le début et la fin de cette console y'a un monde de différence idem pour la ds.
Probablement. Tu as de bons exemples pour la PS2 ? Là je pense au premier Star Wars Battlefront et à NFS Most Wanted, mais j'imagine qu'il y a des meilleures exemples
Excellent, j'espère que tu feras d'autres vidéos sur ce genre de sujet ! (même si j'ai bien lu ton message dans les commentaires, PS: je ne suis pas là pour Star Citizen).
Énorme qualité de vidéo, j'imagine même pas le matos et le travail qui sont allés dedans, chapeau.
Petite découverte dans mon fil d'actu. Vidéo très sympa et fort bien narrée, un plaisir !
Je suis pas certain de suivre le reste de ta chaîne (je suis pas particulièrement hypé par Star Citizen, surtout parce que je ne m'y suis pas intéressé (malgré tout, si tu as fait une vidéo sur "pourquoi être hypé par ce jeu" je veux bien la regarder :p)) mais je repasserai pour suivre tes éditos, si tu prévois d'en faire à l'avenir !
Bisous
Merci à toi :) Je referais certainement d'autres éditos dans ce genre plus tard dans l'année ;)
Un brève passage au niveau du fonctionnement des calculateurs quantique aurait était idéal pour expliquer cette fameuse différence entre nos PC et les calculateurs quantique. A part ça rien à redire, certains souligne des erreurs maaaais c'est une vidéo plus "grand publique" je pense donc je trouve ça normale qu'ils manquent certaines précision. Content d'être tombé sur cette vidéo :)
Bonjour, je découvre ta chaine, et avant de contrebalancer ton propos (surtout ta conclusion), je te félicite pour le boulot abattu.
Les mondanités étant faites, quelques déclarations m'ont fait tiquer. Tout d'abord, réduire le raytracing mis en avant pas NVIDIA à la simple possibilité technique offerte par l'amélioration de la puissance calcul est une erreur grossière.
En effet, la techno mise en place est révolutionnaire à plusieurs égards. Premièrement, elle ne s'appuie justement pas sur la puissance de calcul, mais sur la capacité des IA à débruiter un rendu. C'est ce chemin qu'a choisi Nvidia depuis quelques années en R&D et voici donc leur première application pratique. La technique est "simple" : puisque calculer tous les rays de lumières et leurs interactions est trop couteux, autant calculer qu'un sample par pixel et laisser l'IA débruiter tout ça.
C'est là que ton propos devient trop caricatural. Tu omets les optimisations incroyables faites ces dernières années en matière de middleware. La rastérization a encore de beaux jours devant elle grâce à ces gains de temps de calcul permis par les pixels et vertex shaders pour un rendu toujours plus fin, mais les avantages que vont procurer l'IA en terme de gains de temps de calcul vont facilement compenser le plafond de verre physique qui s'annonce.
Déso, mais c'est brouillon et j'ai pas le temps de me relire, ni entrer dans les détails pour l'instant. Si tu veux plus d'info techniques n'hésites pas à demander. Bonne journée/soirée/matinée/nuit... etc.
Belle publicité. Ce que tu dis est à peu près aussi scientifique que l'extrait de la dame avec sa voiture quantique.
Tu crois quoi que ton "" IA"" (qui n'est pas une IA) elle tourne dans un univers parallèle ?
Non, elle a besoin de puissance de calcul.
Aussi faire de l'approximatif c'est bien pour berné les myope sans lunettes mais ça permet pas de profiter d'un gameplay satisfaisant.
Mais c'est bien prey NVIDIA amen.
Ah et j'oubliais, le niveau de crédulité des gens est lui, peut-être révolutionnaire
@@s-x5373 Une IA a besoin de puissance de calcul pour être "entrainée" de façon assez rapide. Lorsque le training est fini, elle a besoin d'infiniment moins de puissance de calcul pour appliquer son apprentissage.
C'est ce qui est au cœur de l'intérêt qu'il existe à utiliser des modules d'IA comme permis par la nouvelle série 2080 de Nvidia.
Mais que ça te plaise ou non, toutes les avancées récentes en matière de denoising sont l’œuvre des labo Nvidia. Ici : th-cam.com/video/YjjTPV2pXY0/w-d-xo.html
ici : www.digitalartsonline.co.uk/news/creative-software/nvidias-new-tech-uses-ai-denoise-your-images/
ou encore ici : www.3dvf.com/actualite-25059-d-noise-un-outil-denoising-blender-a-aide-technologies-nvidia.html
Ces technique de débruitages sont au coeur du ray tracing que met en avant Nvidia pour l'instant et ils ont à des années lumière de la concurrence en l'état actuel des algo dont on a connaissance.
Il n'est pas question pour moi de nourrir le troll que tu es, mais d'essayer de l'éduquer. Reviens avec des arguments et des sources la prochaine fois. A+
Vidéo avec un sujet peu abordé donc super agréable ! Petit faute de français très répandue en ce moment (alors que justement ta syntaxe est soignée) on ne met pas de préposition après pallier car il en contient déjà une, il faudra donc dire pallier, ou remédier à, et non pas pallier à
6:45 Ça me rappelle, je ne sais plus qui qui avait dit à propos de l'optimisation d'un jeu PC, qu'on s'en fout, qu'ils (les joueurs PC) n'ont qu'à acheter une nouvelle carte graphique...
8:17 Et si je ne m'abuse, Doom n'est PAS en 3D.
9:08 Il y a une dernière alternative à l'amélioration du hardware et du software: l'adaptation du game design, le scope.
Doom n'est effectivement pas en 3D. il utilise le ray-casting pour créer des BSP et du texture mapping mais ce n'est pas de la "vraie" 3D. Bien vu :)
@@EV3RGREEN de la "vraie" 3D, ça peut pas être sur un écran :p
@@golgot5935 Tout n'est que tromperie.
@@DecalageChope Macron Démission!
@@golgot5935 Certes :P J'aurais du dire 3D polygonale, c'est plus exact
TH-cam qui me recommande enfin une chaîne qualitative avec une vidéo très informative et très bien écrite ! Allez, prend mon abonnement
Pourquoi les constructeur ne contourne pas le problème en augmentant la place disponible ? faire des processeurs 2x plus grand, carte graphique aussi etc... c'est pour une histoire de standard/coût de production ou autre ?
il l'explique a 3:01
Il l'explique dans la vidéo. Tu t'expose à d'autres problèmes comme, notamment, cramer ton matos. La seule vrai solution, pour la puissance,, c'est les carte mères multiprocesseurs et les SLI/Xfire ou les double CG comme l'ont déjà fait AMD, mais à quel prix?
Parce que ton ordi deviendrait deux fois plus cher , deux fois plus consommateur d'énergie , deux fois plus chaud et deux fois plus bruyant . La loi de Moore parle de l'évolution technique et ECONOMIQUE des microprocesseurs . Doubler la puissance on sait le faire sauf que ca sera pas au même prix . Graver de plus en plus fin n'est plus la solution la plus rentable .
Pour aller jusqu'au bout de ce qu'il explique,
1 - plus grande taille = on sort de la loi de moore
2 - inadapté aux portables et à des usages domestiques
3 - plus grand, dit aussi plus longues distances à parcourir pour les données, ça a l'air de rien, mais ça fait baisser la cadence de calcul si le pipeline est plus long
Sinon pour répondre à TracerYT, c'est pas une question de rentabilité, c'est une question de physique. Grosso modo, un atome c'est 10 puissance -10 m, un nanomètre c'est 10 puissance -9, ce qui fait que la séparation entre deux plaques de transistors est de l'ordre d'une demie douzaine d'atomes. Sauf qu'à ce niveau là, il peut se produire "l'effet" tunnel qu'on pourrait imager par une fuite d'eau qui goutte chez le voisins du dessous : y a pas toute l'eau qui débarque chez le voisin, mais plus ou moins régulièrement, des gouttes traversent. Et il n'y a rien de physique qui puisse atténuer cet effet (en fait si, les très basses températures, mais c'est impossible dans un usage domestique)
@@MrJohnnyYuge Et toutes les raisons que tu donnes expliquent pourquoi les solutions mises en oeuvre aujourd'hui ne sont plus les mêmes qu'il y a qques années .
Mais faites gaffe avec les affirmations du genre "c'est physiquement impossible" parce que ca risque d'être démenti . La fin de la loi de moore est du a la difficulté technique de faire des proco plus puissants pour un cout constant .
Quand on parle de production industrielle ( ce que la loi de Moore décrit ) la rentabilité est obligatoirement une donnée essentielle .
Et je suis pourtant d'accord à 100% avec ce que tu dis sur les difficultés "physiques" rencontrées .
Super vidéo ! Et très bien expliquée ! ;)
Je pense que l'industrie du jeux vidéo à encore de beaux jours devant elle, puisque que j'ai comme l'impression qu'il commence à y avoir une bonne main d'oeuvre très spécialisé dans la création de jeux ! Donc yaura forcément une équipe dédié à l'optimisation du code, ce qui va aller dans le sens que du décris ;)
J'éspére que c'est la fin de fr.wikipedia.org/wiki/Loi_de_Wirth : La loi de Wirth est une loi empirique formulée par Niklaus Wirth en 1995, selon laquelle « les programmes ralentissent plus vite que le matériel accélère »1. Ou bien : le nombre d'instructions nécessaires à l'interprétation de programmes plus sophistiqués demande des ordinateurs plus rapides.
J'y connais rien en informatique et t'explique super bien j'ai pas eu une seule fois mal à ma tête! Super travail GG à toi! :)
7.20 « L’inertie assez lente » m’a fait beaucoup rire.
Je pense qu'il voulait juste dire "l'inertie élevée" ^^
Très bonne vidéo voilà un résumé très correct en si peu de temps. Une autre possibilité d'évolution dont tu aurais pu éventuellement parler c'est le changement de substrat / le remplacement du silicium pour permettre de grosses montées en fréquences, même si là aussi ce n'est pas forcément pour demain ;)
3:40 Un Radeon GTX 960 à la 7eme ligne O_O' J'avoue que la physique Quantique nous ponds des trucs de ouf !
C’est intéressant. Ça fait quelques années que le hardware avance moins vite, c’est bon pour l’utilisateur parce que le matériel va pouvoir durer plus longtemps.
Je joue uniquement sur PC, et je parviens à faire durer un PC jusqu'à 5 à 7 ans en le soignant bien. Du coup, tout jeu sorti 2 ou 3 ans après l'année d'achat, je ne peux pas y jouer, ou alors seulement au ralenti. ^^
tous dépens de ce que tu achète, si tu le monte , comment tu t'en sert etc mon pc de 6 piges tourne très bien aujourd’hui sur du Witcher et du GTA5
@@zell220987 Six jeunes m'abusent GTA5 et TW3 ont plus ou moins 6 ans non ?
Le principe d'un pc est de changer les pieces, et non pas le pc entier ( franchement autans prendre une console dans ce cas. )
Mon PC a plus de 6ans, j'ai changer la CG et remplacer mon HDD par un SSD il y a 1ans et je fais tout tourner en Ultra ou High avec les jeux actuels.
*GTA5 et TW3 étaient de grosse bete a leur sortis, donc meme aujourd'hui avec une config moyenne, tu ne peus pas le faire tourner en Ultra.
@@eclectikeclectik1405 " Six jeunes m'abusent" , épique la faute :D
Perso je change une ou deux pièces tout les 3 ans, la prochaine sur la liste l'an prochain, le processeur. ^_^
Ta vidéo apparaît sur la page d'accueil de tout le monde j'ai l'impression aha. Le sujet est très cool et ton explication limpide. Y a pas de magie = vidéo avec sujet intéressant faite avec passion et approfondissement = succès :)
ca change de pas mal de video trash justement.
"l'approfondissement" de vos videos sur les armes entre autre lel.
pas plus mal que vous avez arrêté de répandre mass bullshit sur ces sujets.
C'est aussi beaucoup plus rentable pour eux d'optimiser un jeu après les premiers retour des gamers. Plutôt que le faire tester en interne en payant des gens pour le faire.
le Saint Graal de la beta eternelle, pour abuser de beta testeurs qui payent pour le faire au lieu d'avoir à les payer !
bénis soient les couillons qui achètent les pré-release.
@@Soken50 J'voulais l'écrire, un peu différemment, mais j'ai pas osé^^ #autosencure
c'est pour ca entre autres chose que l'année 2019 est consacrée en grande partie à l'optimisation du code pour la partie Star citizen tandis que SQ42 continue son développement ...merci pour cette superbe video ... gros mega pousse bleu et abonnement dans la foulée !
Perso je suis optimiste.
On s'en fout pas mal que la puissance cesse de s'améliorer. Honnêtement, vu la beauté des jeux que je fais tourner à 60 fps sur ma bécane, qui n'est pas la plus puissante possible, même si elle se défend pas mal la bête, je me dis que franchement, on a atteint un niveau largement suffisant en terme de possibilité graphique.
La gestion de l'IA est très affectée par cette évolution aussi j'imagine, mais regardez Ultimate Epic Battle Simulator, ou plus parlant le prochain Mount And Blade (même l'ancien, Warband avec des mods) qui parviennent à gérer plusieurs centaines de soldats indépendants sur une même map.
Je pense que la fin de la loi de Moore, c'est une grande nouvelle pour le jeu vidéo. Les dév vont devoir cesser de s'appuyer seulement sur l'amélioration des moteurs et des graphismes pour sortir le même jeu en un peu mieux tous les ans. C'est dans la stagnation des découvertes techniques que la créativité apparaît.
Après il y'as besoin de puissance pour certaine façon de jouer, comme dans mon cas en VR, tous les jeux son très simpliste voir moche, car 2 écran a 90 fps constant c'est gourmand, et le jour ou on auras les graphismes des jeux conventionnel actuel en VR, on auras vraiment de quoi être émerveillé !
@@uberdjo3263
Ah, exact. J'avais pas pensé à ça.
Mais à mon avis la VR a une bonne marge d'amélioration rien qu'avec les technologies actuelle. Même si effectivement pour le coup, plus on fait du performant en petit et léger mieux c'est :p
Si on faisait de plus gros processeur en taille, ne pourrions-nous pasavoir plus de transistor sans passer sous les 10 nm ?
Xenoblade Chronicles en exemple de jeu bien optimisé
final fantasy 14 aussi, après coup de la v1. Je crois que les japonnais, ils sont un chouilla au dessus à ce niveau la ^^
@@tomythechair Les jeux sur console de l'époque en général, vu que les studios savaient que le hardware de la console n'allait pas changer ^^
@@CypElf oui complètement ! sur PC pour ff14 on a eu une opti (enfin plutôt une upgrade) à la sortie de la v3 (+d'antialiasing, HBAO+,...) je crois que sur console ils l'on eu aussi. Après c'est un mmo.
@@tomythechair Yep, sinon en général c'est dommage que les jeux récents fassent moins attention à l'opti...
Regarde quelle horreur a donné ARK sur Switch xD déjà que sur PC c'était super mal opti, sur Switch c'est une vrai catastrophe, l'un des pire jeux de la console
@@CypElf Nan pas vu Ark pourtant il m'avait envoyé du reve j'avais juste pas trop le temps à l'époque. Par contre tu me fais flipper pour la switch car c'est la seule console que je voudrais me payer (avec l'âge, le canapé nous fait de l’œil^^), mais si la moitié des jeux sont caca mon âme de joueur PC risque de chauffer un peu lol.
Super vidéo. Étant développeur (j'utilise pas mal Vulkan en ce moment), je confirme complètement tout ce qui est dit autour du code, et autour du fait que l'on ne cherche pas assez à optimiser. Et merci pour ce rappel sur le quantique, toujours trop de monde pense que cela va remplacer nos machines de guerre ; NON. En tout cas pas pour les 30 prochaines années.
La seule chose que j'ai à redire : certains développeur adorent optimiser leur codes (Même si on n'est rarement payé pour le faire)!
En même temps tu vas passer 20h a gagner 0.2% de rapidité ? J'dit pas qui faut pas opti mais a un moment faut arreté avec le "c'pas opti", t'as un pc nul c'est tout.
Moi si mon code fonctionne sur 99% des machine, paf il est opti et basta.
@@qzerqzefr2860 Effectivement, optimiser son code, c'est quasi infini pour un gain décroissant, et nous n'avons pas un temps infini. Par contre, on est sacrement loin de ton exemple. Une énorme majorité des softwares s’arrêtent avant l'étape "passer 20h pour gagner 20% de perfs".
@@ealrann La faute au harware aussi, comment opti un code sur une multitude de composant différent ? écrire le code pour chaque architecture?
Après je suis d'accord qu'on est loin pour certain software de quelque chose de correct, mais quand tu dois respecter des délai court c'est ce qui arrive.
Hum parle pour toi si tu n'aimes pas l'optimisation de code. Je ne pense pas que cet argument soit généralisable. Personnellement je trouve que c'est l'une des parties les plus épanouissantes et gratifiantes du métier de développeur. Il existe même des jeux comme Shenzhen IO où toute la mécanique repose sur l'optimisation de code.
coupain ! L'optimisation, c'est l'avenir :) et d'ailleurs, je dirais qu'on se dirige peut-être vers une fusion de plus en plus prononcée entre le joueur et le développeur ou le joueur entrera de plus en plus dans le moteur et participera à l'optimisation. Et ça, ce serait beau :)
Tout à fait d'accord
Je suis dev JV pro depuis 6 ans, et mon gros kiff c'est la chasse aux bugs et la micro-optim. Mais en effet, la hiérarchie pousse toujours à ajouter de nouvelles fonctionnalités plutôt que d'améliorer celles déjà existantes.
Et je suis entièrement d'accord avec ton analyse. Les programmes sont de plus en plus complexes, ça demande de plus en plus de temps de les optimiser correctement, donc on préfère jouir de la puissance disponible.
Les jeux actuels pourraient sans problème tourner sur des machines d'il y a 5 ans, mais pour ça faudrait sans doute passer 5 ans à les optimiser.
Là où on trouve vraiment de l'optimisation de malade par contre, c'est sur les moteurs commerciaux.
Autre piste, devant la puissance des machines actuelles et la complexité à en doubler la puissance et la beauté des jeux actuels qui est déjà plus que suffisante: en plus de travailler sur le code... se concentrer sur le gameplay 😅
Bien d'accord, franchement au niveau de graphismes qu'on a à l'heure actuelle on s'en tape un peu de l'amélioration. Certains jeux d'avant 2013 restent encore graphiquement très regardables
Vidéo très intéressante, c'est clair et précis, expliqué et structuré mais surtout ça fait prendre conscience que le rôle le plus important dans l'informatique d'aujourd'hui, c'est le développeur et pas la machine
Totalement d'accord avec tout ce que j'ai entendu !
Hello, qu'as tu utilisé à 15:07 comme démonstration? merci
il y a aussi les ordinateur optique qui serais mois gourmand en et ne chaufferais quasiment pas
Très bonne vidéo, claire et complète. Seule petite critique c'est peut-être le son en face cam mais c'est vraiment pour chipoter, c'est du bon travail je reviendrai
14:10 palier la loi de Moore*
bonjour, les ordi quantique c'est cuit pour le jeux, mais ne pourrait on parier sur la superposition des couches de transistors grâce aux matériaux dit "supraconducteur chaud" ?
Tu te trompe, l'issue à court terme, n'est ni l'optimisation, ni le quantique. La solution trouvée par l'industrie est toujours le parallélisme et maintenant la mutualisation de ressources délocalisée... Le cloud. :( Un des buts du cloud c'est de faire tourner les jeux en subdivisant les calculs et les fonctions sur plusieurs machines dans des fermes. Calcule des particules sur une machines, collisions sur autres. Gestion de l'affichage de contenus externe dans le jeu comme par exemple ce qui est diffusé sur la TV d'un perso sera un contenu streamé d'une autre machine.
Crackdown 3 particules gérées par un serveur distant. Contenu interactif fourni par les joueurs de good and evil 2...
Certain jeu encours de création sont géniaux et beaux mais tournent sur 12 machines en parallèle. Oui t'as bien lu douze. T'as pas besoin des 12 en permanence et donc 2 joueursbse partargent par exemple 18 machines. Une machine sera spécialisée pour les explosions pour plusieurs joueurs on mutualise.
Bon c'est très triste, je suis un partisant de l'optimisation mais je peux t'assurer qu'on en est loin.
"La solution trouvée par l'industrie est toujours le parallélisme". Le Joueur du Grenier avait donc raison...
Si ce que tu dis es vrai ça rien de bien faire mal au cul niveau conso d'énergie, et si toutes les franchises s'y mettent l'impact écologique va être considérable ....
Encore une chimère
Ubisoft, EA, google et Microsoft sont dessus pour le moment.
Et oui écologiquement c'est pas terrible.
Haha je te suis depuis super longtemps ça fait plaisir que tu te face référencer pour tout le taf que tu produit depuis des années bonne chance a toi !
10:32, que l’obscurantisme retourne à l'obscurité. Levez les yeux au ciel, et soyez Astronogeek.
À la revoyure
Merci d'avoir un peu remis à plat ces histoires d'ordinateurs quantiques.
4:00 ??????!?!?!?????? T'as juste jamais croisé un vrai programmeur...
Quand on code un moteur 3D, physique, bref tout le moteur du jeu est optimisé... On optimise tout du long...
Si tu veux croiser des VRAIS programmeurs qui optimisent, arrêtes d'aller dans les conventions de kikoolol pikachu et autres figurines et vas dans une CODING party...
Sinon oui ce sont les produceurs qui guident la danse, par les programmeurs, a part quelques rares exceptions (Id Software John Carmack) et ne me dis pas que lui et Michael Abrash n'optimisent pas ça commencerait a devenir ridicule...
Et ne met pas dans le même panier les programmeurs MOTEURS, et les scripteurs bidouilleurs du content... (Gameplay programmeurs)... C'est pas le même niveau de maths ni de code... A leur avantage, ils sont plus "raconteurs d'histoires", "régleurs de gameplay", ajusteurs d'effets, mais pas le niveau technique d'un engine dev.
Ha ha ^^ Les "raconteurs d'histoires", "régleurs de gameplay", "ajusteurs d'effets" ce sont plutôt les game designers. Les gameplay programmers, ce sont les gens qui s'arrachent les cheveux à contourner les limites d'un engine qu'on leur colle dans les pattes, souvent sans avoir le droit de modifier l'engine lui-même (alors qu'ils en auraient potentiellement la capacité).
@Bobby McCouille - Ah mais a fond pour la COMPLEMENTARITE... Mais va dire ça au commercial qui pompe tous les benefs, et tous les managers qui "méritent" dans la boucle...
Et puis si t'es capable de faire du moteur... Qu'attends tu pour le faire ?
Bien sûr, les moteurs actuels sont tellement bien qu'ils sont tous bourré merveilleusement d'abberration de calcul.
Mais oui c'est vrai un travail dur et long c'est ça qui dicte la qualité, ahahha.
Plus sérieusement : si tu pense que la difficulté mentale est la qualité du travail je t'invite à sauter d'une falaise ; c'est très dur psychologiquement demande beaucoup de détermination, très fatiguant, et je suis sûr que tout le monde sera très fier de la qualité de ton travail à la fin.
@S- X - T'es dans quelle conversation ? Tu parles a qui ? Qui a fait une corrélation entre "difficulté" et "qualité" ? T'as une citation ?
@@garryiglesias4074 Ce que tu dis, optimisé tout du long ou quoi, on sens bien que les autres c'est juste des scripteurs bidouiller ou quoi.
Si tu n'avais pas passé autant de temps à bosser sur avec des api de merde peut être que tu t'acharnerais moins à essayer de tourner tout ce qui n'est pas un "engine dev" en ridicule.
J'en conclu que tu considère que passer du temps sur son code après avoir fait des études de math c'est faire un code de qualité.
Je pense que si tu ne comprends pas le contexte de ce que j'ai dis c'est parce que t'oublie qu'il y a d'autre personnes qui savent comment sont organisées les équipes et pour faire quoi.
Il n'y a pas que les "engine dev" qui doivent "optimiser" ils existent des développeurs qui travaillent dans l'optimisation de calculs scientifiques pour résoudre des problèmes de l'armée par exemple aussi.
Un mix ordi quantique et classique afin de dédier certains calculs au 1er afin d'avoir l'avantage des deux est il possible ?
Salut,
Ce que tu dit concernant l'optimisation des jeux est en grande partie faux. J'ai été directeur technique pour plusieurs studio de jeux vidéo Français, et je peu t'affirmer, que beaucoup de développeur essayent de sortir un code le plus clair et optimisé ne serais que pour eux, et pour faciliter leurs propres travail. Secondement dans 70% des cas lors d'une sortie d'un nouveau jeu le moteur du précédent est reprit, par conséquent le plus part du temps c'est 10 ans d'optimisation qui est reprise et donc une base saine, seul l'ajoute des nouveautés et effectué et selon le studio ça peut aller plus ou moins vite. Ton analyse n'est pas bonne, et concernant Anthem, c'est principalement un choix de l'éditeur, et de calendrier, un jeu AAA met environ 7 ans à être produit lorsqu'un éditeur demande de le faire en 3 ou 4 ans il y a forcément des compromis à faire, de plus les développeurs commencent souvent à travailler en devant ce projeter sur les évolutions hardware futures, et également avec les softwares futurs ce qui n'est pas toujours une mince affaire car parfois les constructeurs fournissant le software ne savent eux mêmes ce qui en sera exactement dans 5 ans.
Il t'a deja repondu dans sa video ;) Il parle surtout des grosses productions. Et tu confirmes ce qu'il dit. Donc je ne suis pas sur ou tu veux en venir. On sait tous pourquoi beaucoup de producteurs font ce qu'il font. Lui il dit pourquoi ils vont devoir changer leur approche et qu'il y aura un moment de flottement. Ne partages-tu pas son avis sur la bariere physique de la miniaturisation des transistors? Ne vois-tu pas les memes consequences? Prends-tu ses arguments generiques de maniere personnelle? Ce qu'il dit va plus loin. Pour continuer a faire avancer les jeux, on ne pourra plus compter sur le hardware, mais il faudra trouver des opportunites dans l'implementation elle-meme. Il y a d''enormes reserves. Avant que l'ere des GPU ultra-puissants avec des nouvelles generations tous les 3-4 ans (ou plus souvent), on a tous vecu comment les jeux evoluaient sur la meme platforme, avec sur la fin des titres qui semblaient realiser des miracles. C'est de ca qu'il parle. De l'inventivite des programmeurs qui est bridee par l'approche mercantile et que l'on rempalce par des graphistes ;) Je ne sais pas comment il a evolue, mais il y avait un concours il y a une dizaine d'annees de programmation 3D, avec par exemple comme contraintes de creer un scene 3D avc un code en C++ avec
Je te rejoins à 100% . Il fait des raccourcis que ça soit sur la loi de Moore ou sur son idée des contraintes des développeurs de JV . Le plus dur c'est de faire face à un marché qui est en évolution hyper rapide avec des temps de développement de plusieurs années .
Résumer ca à un laxisme des développeurs quant à l'optimisation espérant des machines toujours plus puissantes ... C'est un contre sens ...
Pareil en ce qui concerne la "fin de la loi de Moore" . Il oublie juste que c'était une conjecture empirique sur l'évolution ECONOMIQUE et technique du marché des microprocesseurs . On oublie au passage l'évolution des architectures hardware et software qui rentre en concurrence directe avec la baisse du coût de gravure d'un microprocesseur .
Si graver plus fin devient moins rentable que changer d'architecture , alors pourquoi le faire ?
Bref , une vidéo qui aborde des sujets passionnants mais ne fait que les survoler sans apporter de réponses pertinentes .
@@tracerpt2rire Clairement tu as résumé bien mieux que moi.
@@tracerpt2rire Il dit exactement que cela etait empirique. Il le dit au début :D Il vous a fait quelque chose le gars ? Pour les contre-sens, ca serait bien de développer car moi je ne vois pas.
@@ultra_busy C'est très exactement ce qu'il dit quand il dit comprendre les dévs qui ont surtout des contraintes imposées par la direction notamment en terme de délai. C'est comme les tests dans l'industrie ou la soit-disant obsolescence programmé : le but c'est pas de sortir un produit pourri ou qui tombera forcément en panne mais juste d'équilibrer le coût de fabrication ou des tests vs le prix à la sortie d'usine.
Super interessant ! je decouvre ta chaine aujourd'hui c'est du bon boulot ! merci ! :D
Tu m'as deja soulé apres 2 phrases..."gnagnagna pour ceux qui dormaient en cours" genre c'est evident de connaitre la loi de moore
romtig223 bah oui
Il essayait d'être drôle, pas la peine de te tracasser pour ça lol
Baz studio. Bah non.
Ça s'appelle la culture Générale .
Si t'as pas de culture G, ta vie est triste alors.
Faut pas le prendre personnellement. En général les expressions du type "pour ceux qui dormaient en cours" servent surtout a expliquer qu'on parle d'un principe de base. D'ailleurs il sait que tout le monde ne la connait pas car il prend le temps de la décrire.
Moi même avant de cliquer sur la vidéo je n'étais pas sûr de quoi il s'agissait, pourtant je suis loin d'avoir dormi à l'école ;)
Intéressant.
Pour la conjecture de Moore qui ne va plus se vérifier, vous avez peut-être raison. Ceci dit, il y a 15 voir 20 ans j'entendais le même genre d'arguments "On arrive actuellement à une limite physique due à .... qui semble infranchissable." Et pourtant la conjecture est encore vérifiée.
Le jeu vidéo n'est pas nécessairement un bon gameplay
Wait what? 🤔
@@slys5871 : Il y a de bons jeux au gameplay assez moisi ou juste moins bon qu'un autre de leurs aspects, sans en être de mauvais jeux. Prends par exemple tous les jeux narratifs du type Tellatale. Il y a même le jeu _Undertale,_ auquel j'ai pas tout à fait accroché (y en a qui en ont fait une religion…), mais faudrait aussi que je le finisse d'abord. Dans ce jeu, les graphismes sont immondes, avec un gameplay moyen (bien qu'intelligent par moments, je dis pas le contraire), mais une excellente narration.
@@nouche regarde la vidéo de Doc Géraud sur Undertale, tu verras que le gameplay du jeu est important dans la diffusion de son message 😉
@Tom D. : Important, oui. Indispensable, non (on peut s’en dispenser). Et d’ailleurs, avant de chercher un quelconque « message », le but d’un jeu est, avant toute chose, d’être juste un BON jeu, d’être amusant. Et le gameplay n’y est pas essentiel. Important, certes, mais pas indispensable.
@@nouche Mais t'es partout toi :P
Bonne vidéo, j'aime bien ton coté amateur, ça donne un effet super proche qui manque un peu sur youtube en ce moment !
à suivre ;)
Merde, j'arrive dans la vidéo apres avoir lu un article qui parle de la vague des cpu gravé en 7nm pour le printemps.
Donc parler de limite à 10nm...C'est déjà plus d'actualité.
la limite sera plus vers 3nm dans 10-12ans.(avis perso)
Il a pas parle de limite a 10 nm il a dit qu on avait du mal a 7 nm...
Il a dis 10nm *en moyenne* et c'est toujours vrai
Et il faut aussi considérer que les 7 nm sont assez théoriques, on a pas vraiment les moyens de vérifier que c’est précisément à cette finesse. C’est plutôt du 12 nm ++
En fait personne ne grave à 7nm, c'est du 10-12nm qui se comporte comme un 7nm qui n'aurait pas de problème. Et déjà pour le 7nm il n'y a plus que les géants comme Intel ou TSMC qui ont les moyens de se payer la R&D et les machines pour le produire. En deçà il y encore d'autres problèmes qui apparaissent donc on est pas près de les voir les transistors sub-5nm
Pouce bleu pour ton explication /débunk de l'informatique quantique.
Il attende quoi pour se mettre en 4D a 1200p 90 Fps
super video mise à part que tu regardes trop ton retour caméra et que tu fait un peu le coincé ^^ ( l'orifice arrière) , lâche toi n'es pas peur ;)
sinon super ce que tu fais! tu mérite plus d'abo.
C'était cool, bon courage pour l'évolution de ta chaîne.
Recommandation TH-cam du pif absolu, mais rarement eu une recommandation TH-cam aussi intéressante! Un abonné de plus ;)
Bonne vidéo proposée dans mes recommandations.
Pour le côté « les calculateurs quantiques servent à faire d’autres types de calcul », on peut facilement faire le parallèle avec les cartes graphiques ! Se sont également des calculateurs mais qui réalisent des calculs d’un type différent (vectoriel) que les processeurs « classiques ». Chacun étant bien meilleur que l’autre dans un domaine particulier.
Sinon à titre personnel je pense que le boost de puissance va passer par une croissance du nombre de cœurs et une parallélisation des calculs de plus en plus utilisée. La différence entre un corei5 et un i7 n’a pas vraiment d’influence sur les jeux vidéos pour le moment, mais ce sera de moins en moins vrai à l’avenir selon moi, voir devenir un prérequis.
Bravo et merci. Quelle différence faites vous entre loi et conjecture ? J'estime que le terme de loi désigne quelque chose de valable sauf quand il ne l'est pas. Exemple: règle de l'octet, règle du duet... Cordialement
D'abord superbe vidéo, c'est bien travaillé, et cherché ! Maintenant, je vais parler un peu de fabulation future ; mais les ordinateurs quantiques dans un avenir comme 30-50 ans auront certainement leurs places dans des lieux minuscules (L'exemple du téléphone que tu utilises dans ta vidéo par exemple), dans le meilleur des cas pour des ordinateurs, on peut imaginer une évolution de la carte mère qui mélange le modèle standard actuel, et le modèle quantique en développement, dans ce cas-là les requêtes peuvent être transvasé d'un système à l'autre par un système de requête bien spécifique et la puissance de calcul sera alors phénoménale par rapport à ce qu'on est capable de faire actuellement. Je ne suis pas spécialement intéressé par le hardware, mais je dois dire que spéculer sur ce genre de sujet, ça a de quoi donner envie de rêver !
Néanmoins, même avec des ordinateurs comme cela, comme tu le dis, le plus gros problème dans le domaine du jeu vidéo restera plus ou moins l'humain qui ne débug pas et n'optimise pas. Les cahiers des charges pour des AAA ont beau être stricte, je vais parler de manière "personnelle" en aucun cas, c'est la juste parole; personnellement et en tant que développeur, il m'arrive de faire des petites fautes qui cumulées peuvent faire planter un programme, l'erreur est humaine, mais par rapport à une certaine majorité, je pense à l'architecture de mon code, plus on a de modèles différents, plus on peut peser le pour et le contre avant, durant et après développement, cela réduit grandement les chances de faire des aberrations. Une autre chose que l'on voit très peu chez des entreprises grandes comme petites, c'est des test de composants personnellement et en tant que développeur, il m'arrive de faire des petites fautes qui cumulées peuvent faire planter un programme, l'erreur est humaine, mais par rapport à une certaine majorité, je pense à l'architecture de mon code, plus on a de modèles différents, plus on peut peser le pour et le contre avant, durant et après développement, cela réduit grandement les chances de faire des aberrations. cela considère à tester des bouts de codes, cela permet de vérifier premièrement leurs fonctionnalités, mais également l’efficacité.
Je pense qu'aujourd'hui les personnes sont trop peu réceptifs à ce genre d'attente/besoin, et que cela n'est pas suffisamment vu dans des lieux comme dans les facultés, des écoles, et même sur internet.
Merci pour cette vidéo j'ai passé un bon moment, c'est agréable de t'écouter et de te voir répondre a certaine questions que je me posais !
wow je viens de découvrir ta chaine a l'instant et je suis sur le cul de la qualité que tu nous offre
Honnêtement j’aime beaucoup optimiser mon code... 😂 Quand tu repasses dessus plusieurs fois jusqu’à la perfection, le résultat est tellement satisfaisant 😄 Mais c’est évident qu’il ne faut pas le faire à la fin du projet. Dans ce cas, autant le recommencer de zéro.
Concernant ta vidéo, c’est vraiment très propre ! Tu parles bien, tu sais de quoi tu parles et c’est intéressant ! Je connaissais pas ta chaîne et c’est une belle découverte ! 😊
11:55 oui mais la question que je me pose c'est comment on fait à la base pour encoder une clé machintruc qui met plusieurs milliards de milliards d'année à etre décodée en une échelle de temps normale ?
Très bonne vidéo, je m'abonne de suite. Les développeurs bougez vous et optimisez vos jeux parce que oui les nouvelles technologies peuvent encore compenser les lacunes de codes mais on a pas 1000 euros à dépenser tout les deux ans sur de nouveaux composants ! :D
Lâche rien refais des vidéos comme celle ci!
Très bonne vidéo, merci de m'avoir éclairé sur le sujet.
mais au terme de celle ci, je me pose une question :
les ordinateurs quantiques pourraient-ils, a long terme, devenir des composants de nos ordinateurs "classiques" (en supposant qu'on parvienne a créer une interface entre les deux, ce qui n'est peut-être pas réalisable, je sais pas) et ainsi permettre aux jeux vidéos du futur d'avoir accès a de nouvelles technologies totalement différentes de ce qu'on peut avoir avec les ordi actuels ?
Merci
Vidéo super intéressante !
Je te découvre , tu as un bon rythme , bon montage , ect
Franchement rien à dire , un abonné en plus ! ;)
Merci pour cette vidéo et de nous donner la bande-son et le nom des jeux que tu montre Selandron ! C'est sympa.
C’est à ce point impossible de réduire la taille des processeurs ?
Est-ce qu'un ordinateur quantique peut calculer le temps que mettra Kentarō Miura pour finir Berserk ?
Super sujet et vraiment très bien amené.
Superbe vulgarisation de la loi de Moore.
Bravo
En effet, quand on compare un OS type Windows et son équivalence Linux, on constate que la différence se fait sur l'optimisation du code et de sa structuration, d'où sa vaste utilisation sur les serveurs et les smartphones (Ubuntu, Android et iOS). L'intelligence artificielle peut-elle servir à optimiser du code à la volée pour le gaming ?
fascinent vraiment, je viens de te découvrir, ton contenu est limite trop riche pour TH-cam, j'aimerai savoir quel est ton travaille pour en savoir autant sur le domaine
Super vidéo, tu abordes plein de contenu, dont j'ignorais totalement l'existence pour ma part. Hate de voir ce que le futur va nous proposer :)
Excellente vidéo ! Par contre il y a un truc qui n'a pas été précisé, c'est que certaines choses qu'on ordinateur standard peut faire sont impossibles à reproduire plus rapidement avec un ordinateur quantique (par exemple calculer plusieurs choses en même temps et récupérer tout les résultats. Par exemple pour trouver quel f(x) = y on gagne du temps, mais pour calculer tout les f(x) de 0 à z et les afficher on gagne rien). De toute façon les ordinateurs quantiques fonctionnent de façon si différente des ordinateurs actuels qu'il faudrait tout reprendre à zéro et tout refaire différemment. À mon humble avis, la seule choses qu'on peut espérer voir de notre vivant, c'est la possibilité d'ajouter de façon modulaire un processeur quantique à nos ordinateur afin de lui déléguer le peu de calcul intéressant à faire dessus, mais ce serait un investissement inutile pour la majorité des gens.
T'as mis le doigt sur un bon problème. C'est d'ailleurs à ça que servent la refacto, les tests, l'architecture, etc... Le problème est effectivement qu'assez peu de budget et/ou de temps y sont alloués alors qu'ils devraient être au coeur de la création du logiciel. D'un autre côté il y a tout un tas de bonnes pratiques à disposition des devs.
Perso je ne connais pas le milieu du jeu-vidéo, donc je ne veux pas tirer de conclusions hâtives. Mais dans mon domaine qu'est le web, le nombre de projets mal voire pas testés, spécifiés, optimisés , conçus avec de bonnes notions d'architectures, etc... est assez édifiant. Alors que les bonne pratiques existent: TDD, E2E, processus de contrôle qualité au fur et à mesure du cycle de vie du produit, design patterns éprouvés... C'est ce qui fait souvent la différence entre un projet amateur / startup qui foire et un vrai service ou logiciel qui réussi dans la durée.
Est il possible d avoir un ordinateur qui vérifie et améliore les codes des jeu triple À ?
Je suis pas au point du tout mais les ordis quantiques utilisent le principe de superposition pour être plus rapides non ? C'est pas alors justement QUE du calcul en parrallèle ?
Je viens de découvrir ta chaîne par l'algo YT. Comme quoi, il n'a pas que des défauts. ;)
Je voulais juste indiquer que le propos de cette vidéo m'a fait penser au corollaire méconnu de la loi de Moore : la loi de Wirth, qui dit en gros que les programmes deviennent plus vite plus lent que les processeurs vont plus vite. L'idée sous-jacente est exactement celle que tu décris : puisque la loi de Moore annonce une accélération des matériels, alors les programmeurs prennent moins la peine d'optimiser leur code, et donc une version récente d'un logiciel tourne parfois (trop souvent dirais-je, mais c'est probablement un biais de ma part) plus lentement que sa version plus ancienne malgré un meilleur matériel.
fr.wikipedia.org/wiki/Loi_de_Wirth
Vidéo ultra intéressante même si ça réduit en cendre mes espoirs de jouer un jour sur un ordi quantique (c'est quand même sexy à dire et niveau marketing ça en jette) et voir même d'accéder a un niveau de jeu vidéo de type "ready player one", etc.
Bonjour il vient de ou ton poster des daleks stp merci
Peut on crée une intelligence artificielle avec les processeurs quantique ?
Wow hyper intéressant :) Je vais peut-être retenter de faire du code
Les frères Maulden Hauer, Fabien Demeulenauer de Game atelier en avaient parlé l'autres jours, Sam Houser aussi dans un podcast en 2013 et enfin le responsable du studio 4A game du récent Métro Exodus, a dit que c'était une véritable épreuve du combattant et un parcours bourrés d'obstacles que de parvenir a créer Exodus. Perso je les crois tous sur parole car c'est sûrement pas moi qui arriverait à faire ces oeuvres d'art si l'on peut se permettre de les nommer ainsi vu la quantité d'efforts qu'il faut fournir, les montants exorbitant, le personels hautement qualifiés requis, le degré de persévérance et de rigueurs est tout bonnement délirant ! Excellente vidéo 😃👍. Cyberpunk 77 et Beyond good and evil 2 sont attendus par beaucoup comme l'équivalent de Red Dead 2 tant sur le plan technique que artistique. info ou intox ? Aux dernières news, CP77 à l'air d'en jeter sévère mais nous en savons trop peu sur BGE2 pour se prononcer, pas même une idée car CP77 a diffusé une heure de son gameplay intensive l'an dernier qui était plutôt convaincant, reste à savoir s'il est un jeu full next gen Xbox next et PS5 only ou cross gen et dans ce cas, downgrade il y aura et une révision des ambitions seront à la baisse. Pareil pour BGE2.