Salut Jean. Je me considère plus vraiment comme un gros joueur de JV mais par contre je suis tjr passionné par la partie hardware et l'actu qui l'entoure. Et franchement à toi seul tu contribues déjà en bonne partie à maintenir la flamme de la passion tant tes vidéos sont qualitatives. Un gros gros merci pour tout ton travail !
Sauf pour la 5090 qui s’avère être un monstre. forcément avec le prix qui va avec. Ou alors une petite annonce d’une nouvelle technologie révolutionnaire dispo uniquement sur les 5000😂
@@Julien-hu4cc certes mais personne ne va mettre 2000-3000€ à part nos influenceurs préférés . Du coup il y aura encore un gros gap ds les tests de jeux entre la 90 et la réalité : les gens ont la 70
Salut le Geek! Concernant le traitement du raytracing les architectures modernes évitent le plus possible d'accéder à la VRAM en utilisant les cache de bas niveau. Sur RTX40, Nvidia a augmenté le cache L2 pour réduire les accès à la VRAM, tandis que depuis RDNA 2 AMD utilise le cache de niveau L1, L2 et L3 maximum pour les accès aux données de calculs , au lieu d'aller les chercher dans la VRAM. De plus, avec RDNA 3.5 et 4, AMD s'est assureé que les données de calculs ne remontent pas plus haut que le cache L1 et de façon plus rare au cache L2 grâce au compilateur (c'est aussi vrai sur RDNA 3). On va bien voir ce que propose les RTX50 en plus de la GDDR7, ou en moins. Est-ce que Nvidia aura réduit la taille de cache L2 en comptant sur la rapidité de la GDDR7 pour compenser... on verra bientôt.
Merci D' accord avec toi RTX 5070 VS RX 8800 XT Rapport Puissance/Prix cela va être intéressant le Match! =1440p Ultra+Ray Tracing (Voir Path Tracing) +4k 60hz!!! (AMD 16go) ;-) laquelle sera la meilleur !
On connais déjà le résultat, Nvidia n'on réussis qu'une seul fois a faire une carte entrée de gamme égale à une AMD (et en plus c'était suite à un bug dans la conception de la puce AMD sur les RX400). La 480 d'ailleur est devant la 1060 6go de 5% depuis et la 580 qui est la version corrigé plus de 15%. Sinon jamais nvidia n'égale les rouge sur les entrée et milieu d egamme depuis genre 20 ans ^^.
Slt la comu, on dit tjrs 16 GO c un minimun. Je pense qu il faut preciser que c pour jouer en def ultra, 12GO fait largement le taf en optimisant ces réglages. Pour l instant je peux resté en ultra avec ma 6750xt sur plein de jeux , BG3, RDR2,GTA5 .je pense que les 12GO on encore une belle vie devant eux , mais tres impatient de voir les nouvelles 8000 amd 😊 Bonne continuation a tous et du debat née les nouvelles idées.
Nvidia est une société commerciale dont le but est de gagner de l'argent, normal qu'ils développent des stratégies pour en gagner (que ce soit assez ou trop, ce n'est pas le sujet). Ce n'est pas mon avis, c'est un fait.
Salit le ! vers 9:30... le buffer overflow est une calamité puisque le GPU doit échanger les données entre la VRAM et la RAM. Certes la DDR5 et la GDDR7 sont plus rapides que la DDR4 et la GDDR6, mais un dépassement de mémoire générera un ralentissement très important malgré tout. En conséquence en cas d'overflow, il n'y aura pas d'autre choix que de baisser les paramètres graphiques... limiter un GPU aussi puissant à 12 Go VRAM est une honte en 2024.
Excellente vidéo ! C'est exactement le genre d'information que je voulais connaître càd quel impact sur les FPS le ratio bande passante vs quantité de mémoire. J'aime bcp quand tu analyses et confronte les sources à date pour faire des projections mais on n'aura le fin mot de l'histoire qu'à la sortie des cartes AMD et NVIDIA. On verra si les couples (gddr6, 16go) vs (gddr7, 12go) se vaudront.
@@GagarineYuri Si vous pensez que la GDDR7 empêchera les lags de chargement entre la RAM et la VRAM lorsqu'il y aura un dépassement de mémoire vidéo à cause des textures (notamment mais pas uniquement) dans les jeux actuels qui nécessitent déjà plus de 12Go de VRAM, et ce, sans MAJ pour ajouter le support de la compression des textures, alors vous vous mettez les poignets au fond des yeux. Par contre, comme l'a rappelé le Geek, les jeux qui supporteront les technos de compression et décompression IA, n'auront pas de problèmes à condition de ne pas dépasser les 12Go de VRAM. Dans le futur, les jeux utiliseront beaucoup plus de textures pour offrir plus de variété. Cela nécessitera au final plus de VRAM, peu importe que les textures soient précalculées ou générées sur commande par l'IA. Bref, il faudra plus de VRAM. La seul solution pour éviter le lag des échanges entre VRAM et RAM et d'utiliser une architecture plus proche de la PS5 avec une mémoire unifiée. C'est d'ailleurs ce vers quoi les architectures des processeurs ARM et les APU AMD s'orientent (voir puces Apple, Qualcomm, Mediatek, Strix Point d'AMD, et même intel). N.B. la mémoire de type LPDDR5 unifiés, qui accompagne les puces ARM ou les APU strix point, a une latence inférieure et une fréquence du même ordre que la DDR5. De plus, la partie CPU n'a pas besoin de copier les textures dans la RAM pour ensuite les placer dans la VRAM. Les transferts ou échanges entre partie réservée au système et partie réservée à la vidéo sont donc plus efficaces... c'est une des raisons pour laquelle l'expérience d'utilisation est souvent plus fluide sur une plateforme ARM que sur un PC de bureau x86 malgré une puissance brute très inférieure. P.S. On avait déjà pu remarquer l'impact sur les perfs de l'iGPU du Ryzen 7 5700G, quand on utilise de la DDR4 4000Mhz au lieu de la DDR4 3200Mhz... c'est énorme.
@@lebonlabruteetlegeek Si vous pensez que la GDDR7 empêchera les lags de chargement entre la RAM et la VRAM lorsqu'il y aura un dépassement de mémoire vidéo à cause des textures (notamment mais pas uniquement) dans les jeux actuels qui nécessitent déjà plus de 12Go de VRAM, et ce, sans MAJ pour ajouter le support de la compression des textures, alors vous vous mettez les poignets au fond des yeux. Par contre, comme l'a rappelé le Geek, les jeux qui supporteront les technos de compression et décompression IA, n'auront pas de problèmes à condition de ne pas dépasser les 12Go de VRAM. Dans le futur, les jeux utiliseront beaucoup plus de textures pour offrir plus de variété. Cela nécessitera au final plus de VRAM, peu importe que les textures soient précalculées ou générées sur commande par l'IA. Bref, il faudra plus de VRAM. La seul solution pour éviter le lag des échanges entre VRAM et RAM et d'utiliser une architecture plus proche de la PS5 avec une mémoire unifiée. C'est d'ailleurs ce vers quoi les architectures des processeurs ARM et les APU AMD s'orientent (voir puces Apple, Qualcomm, Mediatek, Strix Point d'AMD, et même intel). N.B. la mémoire de type LPDDR5 unifiés, qui accompagne les puces ARM ou les APU strix point, a une latence inférieure et une fréquence du même ordre que la DDR5. De plus, la partie CPU n'a pas besoin de copier les textures dans la RAM pour ensuite les placer dans la VRAM. Les transferts ou échanges entre partie réservée au système et partie réservée à la vidéo sont donc plus efficaces... c'est une des raisons pour laquelle l'expérience d'utilisation est souvent plus fluide sur une plateforme ARM que sur un PC de bureau x86 malgré une puissance brute très inférieure. P.S. On avait déjà pu remarquer l'impact sur les perfs de l'iGPU du Ryzen 7 5700G, quand on utilise de la DDR4 4000Mhz au lieu de la DDR4 3200Mhz... c'est énorme.
EFFECTIVEMENT SCANDALEUSEMENT TROP CHER ça devient n’importe quoi. Le prix de ses composants, c’est mon loyer quand tu vois le prix des GPU ACTUELS . Sont devenus avares d’argents. Malheureusement temps que tu auras des bits qui payeront ils continueront à tiré les prix vers le haut./
Salut le ! Alors vers 10:55, si Hardware Unboxed n'a pas utilisé les même conditions de tests pour saturer la VRAM, c'est qu'il savait probablement déjà que le dépassement de mémoire aurait le même effet sur de la GDDR6X qu'avec de la GDDR6. Par ailleurs, je me souviens des tests catastrophiques concernant la RTX3080 10Go GDDR6X avec le jeu Farcry 6 et le pack HD de textures activé, alors que ça passait crème sur les GPU avec plus de 10Go.
Salut le ! alors vers 11:08, je me doutais bien que tu allais parler de la compression/décompression IA des textures... mais ce n'est pas non plus la panacée, car il faut emprunter des ressources GPU pour le faire, qui ne seront pas attribuable au rendu ou au RT... bref, ce n'est pas aussi efficace que de mettre 16Go. De plus, le but d'utiliser la compression IA est d'enrichir les jeux avec plus de texture, pas de maintenir la même quantité avec une meilleure définition tout en réduisant la quantité de VRAM. Le minimum pour un GPU moderne de milieu de gamme c'est 16Go surtout si tu veux pousser les graphismes un peu plus haut que sur PS5 voir sur PS5pro.
"Pas aussi efficace". Sources ? chiffres ? si tu prouves rien c'est comme si tu parlais dans le vide. A l'heure actuelle personne ne connait l'empreinte mémoire du modèle IA qui sera(it) utilisé pour NTC , ni le gain en espace donné par la compression NTC, comment dans ce cas juger d'une quelconque efficacité ? c'est bien facile de lancer des vérités indubitables sans faire aucun effort pour fournir des mesures.
@@fabricejaouen378 Est-ce que tu connais la programmation et la jugeote? Oui? Non? Moi si 🙄☝et en effet c'est facile de parler d'un sujet quand on comprend le sujet.
@@cariboumagique2234 La jogeotte elle a bon dos quand on ne fournit pas la moindre mesure, vraiment. quant-à essayer de me rabaisser, ça ne pourrait fonctionner que si tu me connaissais IRL, en attendant tu ne me connais pas et je remarque qu'au lieu d'argumenter, tu preferes attaquer. CQFD
9:40 je suis hyper perplexe à propos de cette hypothèse. libérer de la mémoire n'est pas sensé consommer de bande passante, l'OS, et le pilote, mettent à jour des adresses de bloc, typiquement et pour schématiser des paires "adresse / taille de bloc", à peu près comme pour la RAM. donc pour libérer, ça revient à dire "ce bloc est maintenant dispo, on accroche ce bloc à ses voisins s'ils sont également dispos pour en créer un nouveau bloc dispo plus grand (un genre de défragmentation, donc) : ces opérations sont extrêmement rapides car il s'agit simplement de traiter des pointeurs et des variables qui n'occupent sans doute pas plus de 64 bits, les blocs mémoire, eux, n'ont aucun besoin d'être remis à zéro à la libération, puisqu'ils seront réécrits à l'allocation, par exemple pour accueillir une texture. Par contre cette allocation elle vient d'où ? ben elle vient forcément de l'extérieur, puisque ce sont des éléments qui n'étaient nécessairement pas déjà en VRAM et l'extérieur a besoin de quoi : de BP sur le PCI-Express, la BP de la VRAM étant dans tous les cas beaucoup plus rapide elle n'est pas censée impacter énormément. Prenons par exemple le PCI-Express 4.0 en x16, la norme des 4000 : sa bande passante unidirectionnelle (en lecture donc, pour chargement de texture, aucun besoin du bidirectionnel pour ce cas) est de 32Go/s, et par contre la BP de la VRAM est de plus de 1To/s intra GPU, c''est à dire 30 fois plus rapide que la vitesse de transfert sur le PCI express, autant dire que dans le cas de libérations/allocation, la BP de la VRAM n'aura absolument aucun impact sur les performances en allocation.
Alors, effectivement, je me suis mal exprimé dans cette vidéo, voulant un petit peu trop vulgariser. Pas besoin effectivement de vider la mémoire, il suffit simplement d'allouer à nouveau les parties inutiles. Ceci étant, dans mon métier de data analyste, j'ai vu de nombreuses fois sur des systèmes divers et variés des problèmes d'empilement mémoire qui n'étaient plus libérés au bout d'un moment, et ceci n'est qu'un des nombreux exemples des problématiques qu'on a eu sur certains soft qui maîtrisent mal justement ce côté mémoire. Pour le PCI Express, j'avoue ne pas avoir trop compris, puisque la mémoire est directement embarquée sur la carte graphique au plus près du GPU et donc ne passe pas par le PC express justement pour éviter tout phénomène de bottleneck. C'est d'ailleurs pour ça que des essais ont été faits en PCI Express 3.0 et que cela n'affecte quasiment pas les résultats en FPS jusqu'à assez récemment, même sur des cartes graphiques assez imposantes. Hormis pour les SSD, le PCI Express 4.0 est actuellement suffisant. Oui, la quantité de RAM est importante, mais pour moi, la bande passante l'est tout autant, au vu du nombre d'opérations et d'échanges entre le GPU et la mémoire assez phénoménal.
@@lebonlabruteetlegeek Pour le PCI-Express tu me dis avoir mal compris. On parle de chargement de textures, cette texture vient donc de l'extérieur de la carte son chargement est soumis à la BP du PCI Express et non de la BP VRAM pour ce chargement. Il est bien évident que toutes les textures d'un jeu, ou même d'un "level" ne sont jamais préchargées sinon il faudrait des GPU embarquant 150Go.
Donc au final c’est une histoire que les développeurs connaissent sciemment bien./ Maintenant veulent-ils agir dans le bon sens pour les consommateurs. Si t’arrives à le montrer../ où veulent-ils simplement faire de la vente ?
vers 3:00, Non le , il y a pénurie sur la GDDR6X pas sur la GDDR6, de plus la GDDR7 est plus simple à produire... et samsung peut en produire en masse.
Je parlais en février 2022 pour la GDDR6 (selon l'article) car aujourd'hui, comme j'ai expliqué pour AMD, effectivement, la GDDR6 ne vaut plus rien. La GDDR7, certes, SAMSUNG peut en produire, mais les nouveautés coutent toujours plus cher, généralement 😉
Il y a combien de jeux optimisés pour avoir un rendu graphique incroyable sur ces cinq dernières années?? L'évolution des CG permet aux développeurs de moins en moins optimiser les jeux. Ils devraient plus concentrer l'argent sur le gameplay, le lore et le scénario ...
Ce n'est pas l'évolution des CG qui permettent de moins optimiser, ce sont les studios qui mettent la pression aux devs pour respecter les délais de sortie, quitte à ce que le produit ne soit pas fini.
maintenant "l'optimisation" pour les studios c'est l'utilisation de l'upscaling, on le voit dans les recommended specs pour les jeux, ya de plus en plus en bas de page "using upscaling", ils se font clairement plus chier à réellement opti leurs jeux, scandaleux.
et sinon l'utilisation de direct storage de façon native dans ue, unity notamment ? c'est pour quand ? personne les utilise pourtant ça ferait une énorme différence.
Y'a pas d'excuses pour les puce de vram ,il doivent les avoir a 80 euro maximum les 8go ! Ducoup il fond les rat sur 4 go sur une carte a qui coutera au moins 750 euro .
Sur un GPU ayant un bus de 192 bits, tu fais comment, toi, pour placer 4 barrettes de 4Go pour en avoir 16 ? j'aimerais savoir, vraiment. Tu peux pas tout simplement, il te faudrait un GPU plus complexe, et donc plus onéreux, avec un bus de 256 bits. Techniquement c'est l'impasse car pour avoir 16Go il faudrait que la carte coute plus de 100€ de plus et on aurait tous les chialeurs qui nous feraient un concert de pleurnicherie. Faudrait un peu cesser de comparer comme ça AMD à Nvidia, les GPU ne sont absolument pas les mêmes, les AMD coutent moins cher à produire car moins complexes, et ils ont beaucoup moins de transistors. AMD sort son épingle du jeu car ils sont très bons en rasterisation mais ça s'arrête là, la complexité des Nvidia étant du coup plus importante, ils coutent plus cher à produire.
Je me dit que en cas de libération de la mémoire GPU, au moment ou il faut la repeupler depuis la mémoire coté CPU, c'est pas la gddr6 qui va limiter mais plutôt la DDR4/5 sur la carte mère non? Dans les systèmes de streaming de monde ouvert dont c'est le travail (World partition dans UE5, qui n'est pas encore très optimal) on va même par moment chercher sur le SSD.
Pourquoi personne ne parle du cache L1 et L2 des GPU ? Serait il possible d'avoir des informations à ce détail ? Des comparatifs par exemple , je pense que NVIDIA va jouer sur cette corde et peut l'utiliser comme argument de vente
J'en ai beaucoup parlé, justement à la sortie de la gamme RTX 4000 ou le cache L2 a fortement augmenté, bizarrement, face à la gamme RTX 3000. Pourquoi ? Car sur la gamme RX 6000, AMD a introduit le fameux L3 cache, ce qui a poussé Nvidia a fortement augmenter le L2 cache sur la génération suivante.
Je ne pense pas qu'AMD fasse mieux que les RX7900XTX et XT en rastérisation. Par contre, je me pose des questions concernant le raytracing et l'IA (suite à l'entretien de Marc Cerny au tokyo game show avec le journaliste de CNET)... Je pense qu'AMD pourrait bien offrir un GPU moyen de gamme aussi performant en IA et en Raytracing que le haute de gamme RX7900 et peut être un peu plus encore... ce n'est pas impossible qu'AMD arrive à concurrencer la RTX4070Ti ou Ti super avec la RX8800XT... Il est possible que le plus gros modèle RDNA 4 se retrouve en face du GPU RTX5070. Après c'est une question de prix, et je pense qu'AMD va être concurrentiel.
@@cariboumagique2234 je pense sincèrement qu en rasterisation ce sera un 7900xtx et en rt à minima du nvidia 4000, d où la 4080. Il y a quand même 2 années de développement depuis les 7000. On verra, mais la ps5 pro semble laisser presager le meilleur sur les cartes amd de ce côté... will see.
@@ShortTermHasNoFuture n'oublie pas qu'AMD ce concentre sur le bas et le moyen de gamme. La RX6800XT était dans le haut de gamme lors de sa sortie comme la RX7900XT. La RX7800XT c'est du moyen de gamme comme les RX6700XT ou RX6800. Il faut donc voir la RX8800XT comme le nouveau moyen de gamme sensé rattraper le haut de gamme (RX7900XT) ou le très haut de gamme (RX7900XTX) de la génération précédente. Il ne faut pas se faire d'illusion, la RX8800XT sera un très bon GPU avec un rapport perf-prix intéressant, mais il y a peu de chance qu'il offre des perfs RT similaires à une RTX4080.
@@cariboumagique2234 le moyen de gamme de...2025. Donc évidemment qu elle seront tres supérieures au moyen de gamme de 2022/2023 et normalement equivalente au haut de gamme de la génération précédente 😉
@@ShortTermHasNoFuture c'est que j'ai dit... je pense même que les RX7900XT et RX7900XTX seront toujours supérieures en rastérisation que les RX8700XT et RX8800XT... mais en RT et IA, ces dernières pourraient bien flirter avec les RX4070ti et RX4070ti super.
Salut le ! vers 12:40 tu compares des poires avec des bananes. L'APU des PS5 et PS5pro utilise de la mémoire unifiée GDDR6 pour le système et la mémoire vidéo. C'est extraordinaire plus rapide que sur PC qui utilise deux types de mémoire séparées entre RAM et VRAM. Autrement dit, l'APU de la PS5 gère probablement mieux le risque de dépassement de mémoire qu'une config PC avec un GPU comportant 12Go. Je sais je me répète, mais c'est toi qui m'y oblige. 😅 P.S. ne pas mettre dans le même sac les consoles PS5 et Xbox SSX , car Microsoft a conçue ses consoles avec des largeurs de bus mémoire différentes pour le système et pour la vidéo.
Il faut savoir que les fameuses puces spécialisées dans l'A.I. de certaines GPU, consomment en permanence, à elles seules environ 2G de VRAM car elles y stockent leurs tableaux de poids. Et ces puces ne participent pas ou très peu à l'affichage global dans les GPU.
Amd a tous compris mettre 16 go pour 2k est un minimum , une 5070 avec 12 go de vram c'est pas acceptable meme avec une memoire plus rapide, mais on commence a les connaitre on le sais que c'est pour sortir un modele super avec plus de vram ça fait un argument de vente suplementaire, j'espère vivement que les rx 8000 seront a la hauteur
Salut le geek. En règle générale, sauf si c'est différent pour les gpu, mais j'ai un doute. On ne vide pas réellement la mémoire, on déréférence, ce qui est beaucoup plus efficace
Dom, tu oublies une chose très importante, on peut faire de l'entraînement de modèle de deeplearning sur les RTX donc si Nvidia a toujours mis moins de VRAM sur ces cartes gamers qu'AMD(qui se fait déjà moins de marge que les verts) c'est pas pour une question de coût mais parce qu'Nvidia ne veut surtout pas que ses cartes gamers fassent auto concurrence à ses propres cartes professionnelles qui se vendent bien bien plus chère car la VRAM est peut-être importante pour les jeux mais elle l'est encore plus pour les entraînements de modèles de deeplearning !
C'est une possibilité (après, la RTX 5090 avec 32go, là, ça commence à discuter et les modules H100 et H200 ont bien plus de mémoire et unifiées à ma connaissance).
@@lebonlabruteetlegeek oui les RTX XX90 font bcp de tord aux cartes pro de Nvidia (celles qui embarque 24 Go et moins) et c'est bien pour cela qu'elles sont vendues hyper chères et en plus faibles quantités que les modèles de RTX inférieurs avec toujours le marketing qui fait croire aux gamers que c'est une carte de Jeux mais la réalité est que de nombreuses PME achètent des XX90 car quand même bien moins chères que les modèles pro. Quoi qu'il en soit moi j'ai utilisé une 3060 12Go puis 4070 12 Go pour l'entraînement de mes modèles (pour ma formation IA) et j'ai tout de suite compris pourquoi Nvidia ne mets pas plus de VRAM dessus.
Salut Jean et merci. Moi j'attends la bombe ou douille ? d'Nvidia ! ; Notre DLSS 4.0 ne sera compatible que sur les séries 5000. J'en suis convaincu. Désolé pour mon petit hors sujet. Quoi que VRAM et Upscaling c'est la mode. Main dans la main. 🤘
Bah, tu as moultes études. Tu peux te diriger vers des études d'électroniques, et/ou, des études en informatiques. Après, il y a tellement de voies. C'est surtout ce que tu as envie de faire qui compte.
Mouais je suis pas hyper convaincu. Je regarde ça de loin surtout en esperant voir des baisses de prix sur les generations precedentes... 4070 et 7800xt.
@@ShortTermHasNoFuture Ah pardon... Je faisais reference aux series 5000 de nvidia... Oui dans l'absolu, la 8800xt serait bonne pour ce prix. Cependant je cherche à dépenser moins donc la 7800xt sera nickel
Je me demande si les rtx 5000 auront une memoire plus optimisé. Exemple: silent hill 2 . La 3060 a 12 gb et utilise 7,8 gb . La rtx 4060 a 8gb n'utilise que 6 gb de vram J'aimerais aussi voir le samoler feedback streaming et le ntc
Bonjour, aux prix que sont vendus les GPU la question de quantité de RAM ne devrait pas se poser.... sauf pour les faire durer moins longtemps et obligé de les remplacer plus souvent.......
@@nicolasusg4036 Pour jouer en 1080p oui mais là il est question de cartes pour du 1440 sans aucun compromis et qui peuvent attaquer la 4K plus que correctement. Tu as une génération 1000 que NVIDIA a choisi d'ignorer de continuer à supporter avec ses dernières technologies
Imaginons un processeur CPU fabriqué pour fonctionner spécifiquement avec un gpu nvidia avec une mémoire faible mais collé à l'apu etc on aurait pas à avoir beaucoup beaucoup mais vraiment beaucoup moins de ddr ?
J'ai l'impression qu'NVIDIA veut très contenir les prix des 5000 hors la 90 mais j'ai l'impression que la 5090 soit exclusivement tailler pour de la 4k exclu et sera extrêmement bottleneck dans les résolutions en dessous vu les futurs 9000x3d et leur peu de gains comparer au 7000
Salut ! Je t'ai partagé plusieurs diapositives commentées sur X qui montrent les différences d'architectures entre RDNA 3 et RDNA 3.5 ... c'est en commentaire de ton post intitulé RTX 5070 : Évaluation! je crois ou le poste d'avant.
@@lebonlabruteetlegeek Salut le Geek! alors concernant le segment sur la PS5 pro, je ne suis pas certain que ce soit juste du RDNA 3.5 (je l'avais commenté avant que tu en parles). En effet, les APU Strix Point RDNA 3.5 existent déjà et plusieurs produits utilisent déjà RDNA 3.5 (quelques portables et miniPC notamment). Comme je l'ai commenté précédemment, il fort probable que l'APU de la PS5pro s'inspire plus de RDNA 4 que de RDNA 3.5. En effet, la différence entre RDNA 3 (ou 3.5) et 4 concerne l'augmentation du nombre d'intersection BHV par TMU/cycle. Par contre, entre RDNA 3 et 3.5 (et probablement 4) la différence se situe au niveau des groupements des WGP (Work Group Processor - il y a 2 CU par WGP) pour chaque bank de 256 Ko de cache L1. Dans RDNA 3, il y a une bank de 256 ko de cache L1 pour 3 WGP (6 CU), tandis qu'il y a 4 WGP (8 CU) par bank de 256 Ko de cache L1 dans RDNA 3.5. En passant, pour RDNA 2 c'était 2 WGP par bank de 128 Ko de cache L1, et il n'y avait que 32 Ko de cache L0 par WGP, tandis qu'il y a 64 Ko de cache L0 par WGP dans RDNA 3, 3.5 et probablement dans RDNA 4 aussi. Le cache L2 ne semble pas avoir changé entre RDNA 3 et RDNA 3.5, mais peut-être qu'il a été augmenté dans RDNA 4 (mais je ne pense pas). Ce qu'il faut comprendre c'est que chaque groupe de WGP partageant la même bank L1, peut échanger des donnés entre CU et faire des itérations de calculs très rapidement. Ainsi il faut imaginer un groupement WGP comme un équipe de travail dont les membres sont au même étage et communique très rapidement avec un délai extrêmement court. Cependant, deux groupement WGP vont devoir communiquer par le cache L2. Ce dernier représente l'escalier qui sépare deux équipes de travail qui sont sur des étages différents. On comprend donc que cela va prendre un peu plus de temps pour s'échanger des données entre deux groupements WGP. Ainsi, on comprend que RDNA 3.5 à plus de membres par groupe de travail que RDNA 3. Heureusement, le compilateur de commandes optimise la distribution du travail à chaque groupement de WGP, afin d'optimiser l'occupation des CU et de façon à réduire la montée des données pour itération de calculs vers le cache L2 et le moins possible vers le cache L3 (et éviter le plus possible la montée des données pour itération vers la VRAM).
Nvidia me fait penser au petit magasin que j'ai à côté de moi. Tout est doublé à la vente par rapport à la grande distribution!!!! Voilà comment je vois Nvidia.
salut l'ami j'adore ton contenue que je regarde souvent j'ai une petite question j'ai moyen d'avoir une 4090 Neuve pour 1400euros ca vaut le coup ? ou il vaut mieux attendre une 5080 à ton avis ? merci
Il faut diminuer la chauffe, la consomation, donc la taille de cet élément sinon où est l'intérêt de la "micro-informatique". Je crois que le RT physique est une arnaque qui sert les fabricants à développer l'IA à nos dépends.
les RT cores n'ont absolument rien à voir avec l'IA, c'est le rôle des tensor core. Avant de te la jouer gourou comploplo essaie au moins de te renseigner, ça sert des fois, je te promets.
@@fabricejaouen378 C'est pas physique c'est électrique alors! Ou on fait des mathématiques ou on fait avec de l'arsenic, quoique tout çà correspondent bien à l'informatique
il faudrait que tu parles de la compilation/compression de shaders ( et de textures ! ) tu n 'es pas complet pour la gestion des tailles mémoires. Tu sais très bien que sans compression le monde ne serait pas le même et tes arguments non plus. je ne troll pas mais il faut parler de tout quand on parle gestion mémoire d'un GPU et du faut que nvidia n'en met jamais assez... et puis il y a AMD , il faut choisir sa carte en sachant qu'en ce moment tout rentre à part cas particulier mais cela ne sert à rien de charger des textures 4k sur une xx70 pour jouer en 1080P derrière à part se faire plaisir...
Bjr Jean, pour moi la puce graphique de la Switch 2 aura des features de la série 5000 mobile ..Tout le monde rigole , ahaha hihihi.. c'est pour bientôt emb l'a annoncé depuis 4 ans déjà..et lui ses sources sont sourcées ça coule de source..
Tes analyses sont super pertinentes, qu'en est-il des technologies de compression de texture par IA pour optimiser la mémoire GPU ? Ce serait salvateur pour les cartes embarquant 8gb.
A l'heure où les consoles utilisent 12,5Go de mémoire vidéo sur leur 16 disponibles au total, oui une CG sur PC doit vraiment faire 12Go à minima en 2024/2025.
@@zeubiflex6230 non mais elles utilisent jusqu'à 12,5 Go d'équivalent vram, le reste étant partagé et c'est hélas comparable vu les dernières réalisations sur PV vs console (exemple : Forspoken) que tu le veuilles ou non.
Les 5090 je pense quil faut être professionnel pour avoir ce genre de produit. Meme celui qui joue 3h par jour je ne vois pas l'intérêt d'avoir une 5090. Aussi bien la série 5000 ils vont tous être hors de prix. Et en plus ils arrêtent la production des 4000 comme ça tu n'a plus trop le choix. Mais je pense que AMD a une carte à jouer si ils s'améliore un peu et faire des prix plus intéressant que les GeForce. Bon rétablissement le geek, prends soin de toi.
@@OlivierFablu-c9m oui je comprends mais c'est au casque VR de s'améliorer ils sont en 1080p sur casque pour avoir un écran immense sur la chaîne de gamergen je trouve que les casques ont encore du travail pour les casques à faible budget la casque méta il refont un modèle avec de l'ancienne et de la nouvelle tech, le 3s je comprends pas trop bien le but de refaire un casque avec très peu d'amélioration et régressé sur certains composants pour faire un prix attractif. Et les casques ont encore du chemin à faire pour être de la même qualité qu'un écran 4k et toutes la tech qu'il faut pour le gaming. Les graphismes sur VR ou XR ne sont pas révolutionnaire. A voir dans l'avenir !!!!
merci beaucoup mais les choses sont simples pour moi je ne suis pas riche d'accord je veux jouer dans de bonne condition à un prix moindre si le modèle d'AMD est mois cher même avec 20% de perf en moins ça me va je vais pas mourir pour 20 fps en plus je préfère aller me faire un bon restos à un moment faut arrêter les conneries si la RX 8800XT n'excelle pas en ray traçing tant pis vous savez avec la vie active on s'amuse de moins en moins alors je vais privilégiez mon portefeuille ! autant de new pour des cartes graphiques je me tient informer en tant que geekos mais sans plus quoi de toute façon je vais attendre pour changer ma SOYO RX 5700XT que j'ai eu à 150€ NEUF sur aliexpress et je fais tourner GOW Ragnarök en 2k moyen 120 fps avec le frame génération d'AMD et l'anti aliasing en qualité, pas de ray tracing sur cette carte bah je suis content oui elle a que 8go de vram et là on est à 7.86 go d'utiliser comme vous dites tous ceux qui englobe la texture, les ombres, les filtres machinchouette bouffe pas mal alors avoir le plus de vram c'est pas déconnant / de plus je pense que le rapport quantité de vram- bus mémoire- fréquence- unité de calcule seront à surveiller ! avec l'arrivée des RX 8800XT j'espère trouvé des 6750 xt ou 6900 à moins de 250€ ou -200€ neuf si possible là j'irai les prendre bon peace and love la famille !
hello et merci pour ta video ....et Sony m'a troué les fesses avec leurs PS5 pro qui va durer 2ou 3 ans Max pour 1000 balle du coup bah moi je cherche de partout à me faire un PC gamer mais c'est la jungle y a tellement de matos different .j'ai une PS5 et un PSVR2 et j'aimerais bien pouvoir en profiter sur PC de façon satisfaisante et qui assurerait un peu dans le temps ... je pose des question un peu partout et personne n'est d'accord sur la couleur du crottin :) bref si une âme charitable pouvais m'aiguiller sur une config PC convenable . ici BBG m'a vraiment l'air de connaître le sujet et n'auras pas ou pas trop d'intérêt financier en jeu pour me répondre ( je crois les doigts) bref si c'est pour me sortir de prendre un GPU à 1000 balles merci mais ont me la déja sortie et nan je suis pas crésus mais je pense qu'il doit etre possible de se trouver un PC à monter très bon pour 1200/ 1500euros pour faire tourner des jeux PC en VR . donc tout ceux qui voudront bien me répondre je leurs dis que si c'est pour me proposer des configs a 2000 stop je sais deja que c'est possible pour moins cher ... merci à ceux qui prendront la peine de me répondre
Si tu es patients, on va attendre les specs et prix officiels (et mieux même, les tests) de la RX 8800 XT et justement, en face, ce que va faire Nvidia, mais tu peux déjà te faire une super config avec du matos actuel. Après, vas-tu monter le pc ou pas ? Car ça aussi c'est une question, un PC monté, c'est pas tout à fait le même prix, même si tu peux trouver de bons rapports qualité prix, mais pour 1200 à 1500€ max, tu peux trouver de super config.
@@lebonlabruteetlegeek salut nan je me monterais mon pc moi même j’en montais y a des années maintenant et bon je suis pas trop bête je devrais y arriver je pense pas que les choses ont énormément changé conté montage d’un pc aujourd’hui et il y’a 15 ans je pense … Patient oui y a pas le feu mais c’est vrai que les GPU c’est un peu la foire à la saucisse personne n’est d’accord là dessus . En tout cas merci pour ta réponse j’ai mis dans mon panier une Rx 7900xt mais j’ai lu que ça marchait pas super en VR et d’autre dise que ça marche super bien … je vais pas jouer en 4k je m’en fou j’ai pas l’écran pour et les yeux …. 49 années au compteur …1080p c’est déjà super bien
Hey ! Si tu veux construire un PC équivalent à une PS5 pro, sans te ruiner : Carte Mère B550 ( Aorus Élite V2 ) ; CPU Ryzen 5700X3D ; 32 Go Ram 3600Mhz ( GSkill Trident / Corsair Vengeance / Crucial Balistix ) ; Czrte Graphique XFX RX 6800**( chez Amazon / NR, info attention fin de stock ). Ssd 250Go pour Windows ( exclusivement ! ) Ssd / Ssd nvme 2Go pour les jeux Alimentation : 850W Gold ** : La RX 6800 est la carte la plus efficiente de sa génération, le modèle de chez XFX et basique mais extrêmement bien refroidi, attention il faut un boîtier qui puisse recevoir cette carte longues de 33cm. Avec ça tu joues en 1440p full High / Very High sur un écran à 144Hz ( 144 images par seconde ) sans soucis Le tout pour un peut moins de 1000€ 😜
Jean, cette fois tu as eu ma peau je ne regarderai pas ta vidéo car j’ai une overdose de RTX et tout autre je t’adore j’adore ta chaîne mais là quand c’est trop c’est tropico
Tin si seulement AMD n'abandonnait pas le high end j'aurai pas à aller chez Nvidia en prochaine je suis deg On va encore enrichir les verts alors qu'ils se moquent de nous
Salut le geek jigflo.a fait les calculs les prix ont leaks la rtx 5080 a pas loin des 2500 à 3000€ cest abusé la rtx 3060 était sorti a 700€ d'après jigflo vla les augmentations de malades...
Non car les jeux demandent de plus en plus de vram en 1440p ultra et ça peut devenir un problème si les devs nous sortent des jeux avec une mauvaise optimisation.
Non, je vais aller voir, ce sont des prix radicalement différent. 1600$ pour la RTX 5090, si elle embarque tout ce que le leak a dévoilé, j'ai du mal à y croire vu le prix du process.
Salut Jean.
Je me considère plus vraiment comme un gros joueur de JV mais par contre je suis tjr passionné par la partie hardware et l'actu qui l'entoure.
Et franchement à toi seul tu contribues déjà en bonne partie à maintenir la flamme de la passion tant tes vidéos sont qualitatives.
Un gros gros merci pour tout ton travail !
Merci 😉
De toute façon les 5000 risquent d’être une déception dans leur ensemble.
Sauf pour la 5090 qui s’avère être un monstre. forcément avec le prix qui va avec. Ou alors une petite annonce d’une nouvelle technologie révolutionnaire dispo uniquement sur les 5000😂
@@Julien-hu4cc certes mais personne ne va mettre 2000-3000€ à part nos influenceurs préférés . Du coup il y aura encore un gros gap ds les tests de jeux entre la 90 et la réalité : les gens ont la 70
@@presidenttrumpgaming2243"les gens" ont en général une 3060....
Pas pour moi qui passera d’une 3080 à une 5080.
@@MarcfromParis t es marrant. Tu sais d avance alors même qu elles ne sont pas sorties ?
Salut le Geek! Concernant le traitement du raytracing les architectures modernes évitent le plus possible d'accéder à la VRAM en utilisant les cache de bas niveau. Sur RTX40, Nvidia a augmenté le cache L2 pour réduire les accès à la VRAM, tandis que depuis RDNA 2 AMD utilise le cache de niveau L1, L2 et L3 maximum pour les accès aux données de calculs , au lieu d'aller les chercher dans la VRAM.
De plus, avec RDNA 3.5 et 4, AMD s'est assureé que les données de calculs ne remontent pas plus haut que le cache L1 et de façon plus rare au cache L2 grâce au compilateur (c'est aussi vrai sur RDNA 3).
On va bien voir ce que propose les RTX50 en plus de la GDDR7, ou en moins. Est-ce que Nvidia aura réduit la taille de cache L2 en comptant sur la rapidité de la GDDR7 pour compenser... on verra bientôt.
Oui
Merci D' accord avec toi RTX 5070 VS RX 8800 XT Rapport Puissance/Prix cela va être intéressant le Match! =1440p Ultra+Ray Tracing (Voir Path Tracing) +4k 60hz!!! (AMD 16go) ;-) laquelle sera la meilleur !
On connais déjà le résultat, Nvidia n'on réussis qu'une seul fois a faire une carte entrée de gamme égale à une AMD (et en plus c'était suite à un bug dans la conception de la puce AMD sur les RX400).
La 480 d'ailleur est devant la 1060 6go de 5% depuis et la 580 qui est la version corrigé plus de 15%.
Sinon jamais nvidia n'égale les rouge sur les entrée et milieu d egamme depuis genre 20 ans ^^.
Slt la comu, on dit tjrs 16 GO c un minimun. Je pense qu il faut preciser que c pour jouer en def ultra, 12GO fait largement le taf en optimisant ces réglages.
Pour l instant je peux resté en ultra avec ma 6750xt sur plein de jeux , BG3, RDR2,GTA5 .je pense que les 12GO on encore une belle vie devant eux , mais tres impatient de voir les nouvelles 8000 amd 😊
Bonne continuation a tous et du debat née les nouvelles idées.
C’est un effet de gamme comme Apple : nvidia ne souhaite pas que l’on puisse jouer en 4k confortablement avec la gamme 70.
Ce n’est que mon avis
Nvidia est une société commerciale dont le but est de gagner de l'argent, normal qu'ils développent des stratégies pour en gagner (que ce soit assez ou trop, ce n'est pas le sujet).
Ce n'est pas mon avis, c'est un fait.
N'achetez pas les cartes à 12go dans cette gamme de prix.. sa va vite devenir obsolète
cesse donc de réciter en boucle les arguments AMD. NTC arrive très certainement avec les 5000
12 suffis pour le FHD mais au delà c'est trop juste et c'est un fait. Je le vosi très bien entre mes 2 pc qui ont une 6900XT et une 6700XT.
Salit le ! vers 9:30... le buffer overflow est une calamité puisque le GPU doit échanger les données entre la VRAM et la RAM. Certes la DDR5 et la GDDR7 sont plus rapides que la DDR4 et la GDDR6, mais un dépassement de mémoire générera un ralentissement très important malgré tout. En conséquence en cas d'overflow, il n'y aura pas d'autre choix que de baisser les paramètres graphiques... limiter un GPU aussi puissant à 12 Go VRAM est une honte en 2024.
😉
@@lebonlabruteetlegeek c'était déjà honteux de faire une RTX3070 8Go en 2020.
Excellente vidéo ! C'est exactement le genre d'information que je voulais connaître càd quel impact sur les FPS le ratio bande passante vs quantité de mémoire. J'aime bcp quand tu analyses et confronte les sources à date pour faire des projections mais on n'aura le fin mot de l'histoire qu'à la sortie des cartes AMD et NVIDIA. On verra si les couples (gddr6, 16go) vs (gddr7, 12go) se vaudront.
Exactement'
@@GagarineYuri Si vous pensez que la GDDR7 empêchera les lags de chargement entre la RAM et la VRAM lorsqu'il y aura un dépassement de mémoire vidéo à cause des textures (notamment mais pas uniquement) dans les jeux actuels qui nécessitent déjà plus de 12Go de VRAM, et ce, sans MAJ pour ajouter le support de la compression des textures, alors vous vous mettez les poignets au fond des yeux.
Par contre, comme l'a rappelé le Geek, les jeux qui supporteront les technos de compression et décompression IA, n'auront pas de problèmes à condition de ne pas dépasser les 12Go de VRAM. Dans le futur, les jeux utiliseront beaucoup plus de textures pour offrir plus de variété. Cela nécessitera au final plus de VRAM, peu importe que les textures soient précalculées ou générées sur commande par l'IA.
Bref, il faudra plus de VRAM.
La seul solution pour éviter le lag des échanges entre VRAM et RAM et d'utiliser une architecture plus proche de la PS5 avec une mémoire unifiée.
C'est d'ailleurs ce vers quoi les architectures des processeurs ARM et les APU AMD s'orientent (voir puces Apple, Qualcomm, Mediatek, Strix Point d'AMD, et même intel).
N.B. la mémoire de type LPDDR5 unifiés, qui accompagne les puces ARM ou les APU strix point, a une latence inférieure et une fréquence du même ordre que la DDR5. De plus, la partie CPU n'a pas besoin de copier les textures dans la RAM pour ensuite les placer dans la VRAM. Les transferts ou échanges entre partie réservée au système et partie réservée à la vidéo sont donc plus efficaces... c'est une des raisons pour laquelle l'expérience d'utilisation est souvent plus fluide sur une plateforme ARM que sur un PC de bureau x86 malgré une puissance brute très inférieure.
P.S. On avait déjà pu remarquer l'impact sur les perfs de l'iGPU du Ryzen 7 5700G, quand on utilise de la DDR4 4000Mhz au lieu de la DDR4 3200Mhz... c'est énorme.
@@lebonlabruteetlegeek Si vous pensez que la GDDR7 empêchera les lags de chargement entre la RAM et la VRAM lorsqu'il y aura un dépassement de mémoire vidéo à cause des textures (notamment mais pas uniquement) dans les jeux actuels qui nécessitent déjà plus de 12Go de VRAM, et ce, sans MAJ pour ajouter le support de la compression des textures, alors vous vous mettez les poignets au fond des yeux.
Par contre, comme l'a rappelé le Geek, les jeux qui supporteront les technos de compression et décompression IA, n'auront pas de problèmes à condition de ne pas dépasser les 12Go de VRAM. Dans le futur, les jeux utiliseront beaucoup plus de textures pour offrir plus de variété. Cela nécessitera au final plus de VRAM, peu importe que les textures soient précalculées ou générées sur commande par l'IA.
Bref, il faudra plus de VRAM.
La seul solution pour éviter le lag des échanges entre VRAM et RAM et d'utiliser une architecture plus proche de la PS5 avec une mémoire unifiée.
C'est d'ailleurs ce vers quoi les architectures des processeurs ARM et les APU AMD s'orientent (voir puces Apple, Qualcomm, Mediatek, Strix Point d'AMD, et même intel).
N.B. la mémoire de type LPDDR5 unifiés, qui accompagne les puces ARM ou les APU strix point, a une latence inférieure et une fréquence du même ordre que la DDR5. De plus, la partie CPU n'a pas besoin de copier les textures dans la RAM pour ensuite les placer dans la VRAM. Les transferts ou échanges entre partie réservée au système et partie réservée à la vidéo sont donc plus efficaces... c'est une des raisons pour laquelle l'expérience d'utilisation est souvent plus fluide sur une plateforme ARM que sur un PC de bureau x86 malgré une puissance brute très inférieure.
P.S. On avait déjà pu remarquer l'impact sur les perfs de l'iGPU du Ryzen 7 5700G, quand on utilise de la DDR4 4000Mhz au lieu de la DDR4 3200Mhz... c'est énorme.
Avec le prix qu'ils vendent les cartes 16 minimum c'est pas du luxe
Alors que Jean nous explique très clairement que la VRAM coute extrêmement cher... bref, j'aime ton humour, continue c'est plaisant.
@@fabricejaouen378 alors qu'ils font 60% de marge 🤣
@@Marcus83470 On a même des chiffre de 80% sur certaines cartes mdr c'est nvidaube en même temps.
EFFECTIVEMENT SCANDALEUSEMENT TROP CHER ça devient n’importe quoi. Le prix de ses composants, c’est mon loyer quand tu vois le prix des GPU ACTUELS . Sont devenus avares d’argents. Malheureusement temps que tu auras des bits qui payeront ils continueront à tiré les prix vers le haut./
Salut le ! Alors vers 10:55, si Hardware Unboxed n'a pas utilisé les même conditions de tests pour saturer la VRAM, c'est qu'il savait probablement déjà que le dépassement de mémoire aurait le même effet sur de la GDDR6X qu'avec de la GDDR6.
Par ailleurs, je me souviens des tests catastrophiques concernant la RTX3080 10Go GDDR6X avec le jeu Farcry 6 et le pack HD de textures activé, alors que ça passait crème sur les GPU avec plus de 10Go.
Salut le ! alors vers 11:08, je me doutais bien que tu allais parler de la compression/décompression IA des textures... mais ce n'est pas non plus la panacée, car il faut emprunter des ressources GPU pour le faire, qui ne seront pas attribuable au rendu ou au RT... bref, ce n'est pas aussi efficace que de mettre 16Go.
De plus, le but d'utiliser la compression IA est d'enrichir les jeux avec plus de texture, pas de maintenir la même quantité avec une meilleure définition tout en réduisant la quantité de VRAM.
Le minimum pour un GPU moderne de milieu de gamme c'est 16Go surtout si tu veux pousser les graphismes un peu plus haut que sur PS5 voir sur PS5pro.
Oui, on est d'accord, mais le test serait tout de même intéressant (sera 😉)
"Pas aussi efficace". Sources ? chiffres ? si tu prouves rien c'est comme si tu parlais dans le vide. A l'heure actuelle personne ne connait l'empreinte mémoire du modèle IA qui sera(it) utilisé pour NTC , ni le gain en espace donné par la compression NTC, comment dans ce cas juger d'une quelconque efficacité ? c'est bien facile de lancer des vérités indubitables sans faire aucun effort pour fournir des mesures.
@@fabricejaouen378 Est-ce que tu connais la programmation et la jugeote? Oui? Non?
Moi si 🙄☝et en effet c'est facile de parler d'un sujet quand on comprend le sujet.
@@cariboumagique2234 La jogeotte elle a bon dos quand on ne fournit pas la moindre mesure, vraiment. quant-à essayer de me rabaisser, ça ne pourrait fonctionner que si tu me connaissais IRL, en attendant tu ne me connais pas et je remarque qu'au lieu d'argumenter, tu preferes attaquer. CQFD
Bonne journée et bon rétablissement !J'adore tes vidéos de prédiction sur les cartes graphiques :)
9:40 je suis hyper perplexe à propos de cette hypothèse. libérer de la mémoire n'est pas sensé consommer de bande passante, l'OS, et le pilote, mettent à jour des adresses de bloc, typiquement et pour schématiser des paires "adresse / taille de bloc", à peu près comme pour la RAM. donc pour libérer, ça revient à dire "ce bloc est maintenant dispo, on accroche ce bloc à ses voisins s'ils sont également dispos pour en créer un nouveau bloc dispo plus grand (un genre de défragmentation, donc) : ces opérations sont extrêmement rapides car il s'agit simplement de traiter des pointeurs et des variables qui n'occupent sans doute pas plus de 64 bits, les blocs mémoire, eux, n'ont aucun besoin d'être remis à zéro à la libération, puisqu'ils seront réécrits à l'allocation, par exemple pour accueillir une texture. Par contre cette allocation elle vient d'où ? ben elle vient forcément de l'extérieur, puisque ce sont des éléments qui n'étaient nécessairement pas déjà en VRAM et l'extérieur a besoin de quoi : de BP sur le PCI-Express, la BP de la VRAM étant dans tous les cas beaucoup plus rapide elle n'est pas censée impacter énormément. Prenons par exemple le PCI-Express 4.0 en x16, la norme des 4000 : sa bande passante unidirectionnelle (en lecture donc, pour chargement de texture, aucun besoin du bidirectionnel pour ce cas) est de 32Go/s, et par contre la BP de la VRAM est de plus de 1To/s intra GPU, c''est à dire 30 fois plus rapide que la vitesse de transfert sur le PCI express, autant dire que dans le cas de libérations/allocation, la BP de la VRAM n'aura absolument aucun impact sur les performances en allocation.
Alors, effectivement, je me suis mal exprimé dans cette vidéo, voulant un petit peu trop vulgariser. Pas besoin effectivement de vider la mémoire, il suffit simplement d'allouer à nouveau les parties inutiles. Ceci étant, dans mon métier de data analyste, j'ai vu de nombreuses fois sur des systèmes divers et variés des problèmes d'empilement mémoire qui n'étaient plus libérés au bout d'un moment, et ceci n'est qu'un des nombreux exemples des problématiques qu'on a eu sur certains soft qui maîtrisent mal justement ce côté mémoire. Pour le PCI Express, j'avoue ne pas avoir trop compris, puisque la mémoire est directement embarquée sur la carte graphique au plus près du GPU et donc ne passe pas par le PC express justement pour éviter tout phénomène de bottleneck. C'est d'ailleurs pour ça que des essais ont été faits en PCI Express 3.0 et que cela n'affecte quasiment pas les résultats en FPS jusqu'à assez récemment, même sur des cartes graphiques assez imposantes. Hormis pour les SSD, le PCI Express 4.0 est actuellement suffisant. Oui, la quantité de RAM est importante, mais pour moi, la bande passante l'est tout autant, au vu du nombre d'opérations et d'échanges entre le GPU et la mémoire assez phénoménal.
@@lebonlabruteetlegeek Pour le PCI-Express tu me dis avoir mal compris. On parle de chargement de textures, cette texture vient donc de l'extérieur de la carte son chargement est soumis à la BP du PCI Express et non de la BP VRAM pour ce chargement. Il est bien évident que toutes les textures d'un jeu, ou même d'un "level" ne sont jamais préchargées sinon il faudrait des GPU embarquant 150Go.
Donc au final c’est une histoire que les développeurs connaissent sciemment bien./ Maintenant veulent-ils agir dans le bon sens pour les consommateurs. Si t’arrives à le montrer../ où veulent-ils simplement faire de la vente ?
vers 3:00, Non le , il y a pénurie sur la GDDR6X pas sur la GDDR6, de plus la GDDR7 est plus simple à produire... et samsung peut en produire en masse.
Je parlais en février 2022 pour la GDDR6 (selon l'article) car aujourd'hui, comme j'ai expliqué pour AMD, effectivement, la GDDR6 ne vaut plus rien. La GDDR7, certes, SAMSUNG peut en produire, mais les nouveautés coutent toujours plus cher, généralement 😉
Il y a combien de jeux optimisés pour avoir un rendu graphique incroyable sur ces cinq dernières années?? L'évolution des CG permet aux développeurs de moins en moins optimiser les jeux. Ils devraient plus concentrer l'argent sur le gameplay, le lore et le scénario ...
Vas chez nintendo, tu y trouveras ton bonheur. 😉
Ce n'est pas l'évolution des CG qui permettent de moins optimiser, ce sont les studios qui mettent la pression aux devs pour respecter les délais de sortie, quitte à ce que le produit ne soit pas fini.
maintenant "l'optimisation" pour les studios c'est l'utilisation de l'upscaling, on le voit dans les recommended specs pour les jeux, ya de plus en plus en bas de page "using upscaling", ils se font clairement plus chier à réellement opti leurs jeux, scandaleux.
Malheureusement
et sinon l'utilisation de direct storage de façon native dans ue, unity notamment ? c'est pour quand ? personne les utilise pourtant ça ferait une énorme différence.
Y'a pas d'excuses pour les puce de vram ,il doivent les avoir a 80 euro maximum les 8go ! Ducoup il fond les rat sur 4 go sur une carte a qui coutera au moins 750 euro .
C’est plus cher que ça en GDDR7
Sur un GPU ayant un bus de 192 bits, tu fais comment, toi, pour placer 4 barrettes de 4Go pour en avoir 16 ? j'aimerais savoir, vraiment. Tu peux pas tout simplement, il te faudrait un GPU plus complexe, et donc plus onéreux, avec un bus de 256 bits. Techniquement c'est l'impasse car pour avoir 16Go il faudrait que la carte coute plus de 100€ de plus et on aurait tous les chialeurs qui nous feraient un concert de pleurnicherie. Faudrait un peu cesser de comparer comme ça AMD à Nvidia, les GPU ne sont absolument pas les mêmes, les AMD coutent moins cher à produire car moins complexes, et ils ont beaucoup moins de transistors. AMD sort son épingle du jeu car ils sont très bons en rasterisation mais ça s'arrête là, la complexité des Nvidia étant du coup plus importante, ils coutent plus cher à produire.
Je me dit que en cas de libération de la mémoire GPU, au moment ou il faut la repeupler depuis la mémoire coté CPU, c'est pas la gddr6 qui va limiter mais plutôt la DDR4/5 sur la carte mère non? Dans les systèmes de streaming de monde ouvert dont c'est le travail (World partition dans UE5, qui n'est pas encore très optimal) on va même par moment chercher sur le SSD.
Oui
Pourquoi personne ne parle du cache L1 et L2 des GPU ? Serait il possible d'avoir des informations à ce détail ? Des comparatifs par exemple , je pense que NVIDIA va jouer sur cette corde et peut l'utiliser comme argument de vente
J'en ai beaucoup parlé, justement à la sortie de la gamme RTX 4000 ou le cache L2 a fortement augmenté, bizarrement, face à la gamme RTX 3000. Pourquoi ? Car sur la gamme RX 6000, AMD a introduit le fameux L3 cache, ce qui a poussé Nvidia a fortement augmenter le L2 cache sur la génération suivante.
Finalement la grosse info, c est qu on se dirige vers une 4080 signée amd pour 600 balles. Et ça, ça fait plaisir.
Je ne pense pas qu'AMD fasse mieux que les RX7900XTX et XT en rastérisation. Par contre, je me pose des questions concernant le raytracing et l'IA (suite à l'entretien de Marc Cerny au tokyo game show avec le journaliste de CNET)... Je pense qu'AMD pourrait bien offrir un GPU moyen de gamme aussi performant en IA et en Raytracing que le haute de gamme RX7900 et peut être un peu plus encore... ce n'est pas impossible qu'AMD arrive à concurrencer la RTX4070Ti ou Ti super avec la RX8800XT... Il est possible que le plus gros modèle RDNA 4 se retrouve en face du GPU RTX5070.
Après c'est une question de prix, et je pense qu'AMD va être concurrentiel.
@@cariboumagique2234 je pense sincèrement qu en rasterisation ce sera un 7900xtx et en rt à minima du nvidia 4000, d où la 4080. Il y a quand même 2 années de développement depuis les 7000. On verra, mais la ps5 pro semble laisser presager le meilleur sur les cartes amd de ce côté... will see.
@@ShortTermHasNoFuture n'oublie pas qu'AMD ce concentre sur le bas et le moyen de gamme. La RX6800XT était dans le haut de gamme lors de sa sortie comme la RX7900XT. La RX7800XT c'est du moyen de gamme comme les RX6700XT ou RX6800.
Il faut donc voir la RX8800XT comme le nouveau moyen de gamme sensé rattraper le haut de gamme (RX7900XT) ou le très haut de gamme (RX7900XTX) de la génération précédente.
Il ne faut pas se faire d'illusion, la RX8800XT sera un très bon GPU avec un rapport perf-prix intéressant, mais il y a peu de chance qu'il offre des perfs RT similaires à une RTX4080.
@@cariboumagique2234 le moyen de gamme de...2025. Donc évidemment qu elle seront tres supérieures au moyen de gamme de 2022/2023 et normalement equivalente au haut de gamme de la génération précédente 😉
@@ShortTermHasNoFuture c'est que j'ai dit... je pense même que les RX7900XT et RX7900XTX seront toujours supérieures en rastérisation que les RX8700XT et RX8800XT... mais en RT et IA, ces dernières pourraient bien flirter avec les RX4070ti et RX4070ti super.
Je pense en effet que la bande passante joue un rôle important là dedans !
Salut le ! vers 12:40 tu compares des poires avec des bananes. L'APU des PS5 et PS5pro utilise de la mémoire unifiée GDDR6 pour le système et la mémoire vidéo. C'est extraordinaire plus rapide que sur PC qui utilise deux types de mémoire séparées entre RAM et VRAM. Autrement dit, l'APU de la PS5 gère probablement mieux le risque de dépassement de mémoire qu'une config PC avec un GPU comportant 12Go.
Je sais je me répète, mais c'est toi qui m'y oblige. 😅
P.S. ne pas mettre dans le même sac les consoles PS5 et Xbox SSX , car Microsoft a conçue ses consoles avec des largeurs de bus mémoire différentes pour le système et pour la vidéo.
Bonjour et merci Jean pour ces explications très intéressantes. 😉👍
Mon objectif est d avoir une gpu qui fait du 4k non natif (fsr ou dlss), sans utilisation du raytracing avec un minimum de 60 fps, j attend les tests
Il faut savoir que les fameuses puces spécialisées dans l'A.I. de certaines GPU, consomment en permanence, à elles seules environ 2G de VRAM car elles y stockent leurs tableaux de poids. Et ces puces ne participent pas ou très peu à l'affichage global dans les GPU.
Amd a tous compris mettre 16 go pour 2k est un minimum , une 5070 avec 12 go de vram c'est pas acceptable meme avec une memoire plus rapide, mais on commence a les connaitre on le sais que c'est pour sortir un modele super avec plus de vram ça fait un argument de vente suplementaire, j'espère vivement que les rx 8000 seront a la hauteur
Salut le geek. En règle générale, sauf si c'est différent pour les gpu, mais j'ai un doute. On ne vide pas réellement la mémoire, on déréférence, ce qui est beaucoup plus efficace
👍
Dom, tu oublies une chose très importante, on peut faire de l'entraînement de modèle de deeplearning sur les RTX donc si Nvidia a toujours mis moins de VRAM sur ces cartes gamers qu'AMD(qui se fait déjà moins de marge que les verts) c'est pas pour une question de coût mais parce qu'Nvidia ne veut surtout pas que ses cartes gamers fassent auto concurrence à ses propres cartes professionnelles qui se vendent bien bien plus chère car la VRAM est peut-être importante pour les jeux mais elle l'est encore plus pour les entraînements de modèles de deeplearning !
C'est une possibilité (après, la RTX 5090 avec 32go, là, ça commence à discuter et les modules H100 et H200 ont bien plus de mémoire et unifiées à ma connaissance).
@@lebonlabruteetlegeek oui les RTX XX90 font bcp de tord aux cartes pro de Nvidia (celles qui embarque 24 Go et moins) et c'est bien pour cela qu'elles sont vendues hyper chères et en plus faibles quantités que les modèles de RTX inférieurs avec toujours le marketing qui fait croire aux gamers que c'est une carte de Jeux mais la réalité est que de nombreuses PME achètent des XX90 car quand même bien moins chères que les modèles pro.
Quoi qu'il en soit moi j'ai utilisé une 3060 12Go puis 4070 12 Go pour l'entraînement de mes modèles (pour ma formation IA) et j'ai tout de suite compris pourquoi Nvidia ne mets pas plus de VRAM dessus.
Salut Jean et merci. Moi j'attends la bombe ou douille ? d'Nvidia ! ; Notre DLSS 4.0 ne sera compatible que sur les séries 5000. J'en suis convaincu. Désolé pour mon petit hors sujet. Quoi que VRAM et Upscaling c'est la mode. Main dans la main. 🤘
Ce fût intéressant merci! Affaire à suivre!
Quelle(s) étude(s) faut-il faire pour obtenir et comprendre ton savoir ?
Bah, tu as moultes études. Tu peux te diriger vers des études d'électroniques, et/ou, des études en informatiques. Après, il y a tellement de voies. C'est surtout ce que tu as envie de faire qui compte.
Mouais je suis pas hyper convaincu. Je regarde ça de loin surtout en esperant voir des baisses de prix sur les generations precedentes... 4070 et 7800xt.
Perso, je ne comprends pas le manque d enthousiasme pour la 8800 xt... une 4080 à 600 balles, c est juste dingue.
@@ShortTermHasNoFuture Ah pardon... Je faisais reference aux series 5000 de nvidia... Oui dans l'absolu, la 8800xt serait bonne pour ce prix.
Cependant je cherche à dépenser moins donc la 7800xt sera nickel
@@clementm9161 pendant les soldes d été elle était à 450 euros sur top achat avec 2 jeux...je suis passé à côté.
@@ShortTermHasNoFuture Ah oui excellent. C'est vraiment dommage
Je me demande si les rtx 5000 auront une memoire plus optimisé. Exemple:
silent hill 2 .
La 3060 a 12 gb et utilise 7,8 gb .
La rtx 4060 a 8gb n'utilise que 6 gb de vram
J'aimerais aussi voir le samoler feedback streaming et le ntc
Oui, nous verrons les tests comparatifs
Bonjour, aux prix que sont vendus les GPU la question de quantité de RAM ne devrait pas se poser.... sauf pour les faire durer moins longtemps et obligé de les remplacer plus souvent.......
Ma 1070ti a 8go. Ça c'est une carte faire pour durer
@@nicolasusg4036C’est encore suffisant pour jouer en FHD oui
@@nicolasusg4036 Pour jouer en 1080p oui mais là il est question de cartes pour du 1440 sans aucun compromis et qui peuvent attaquer la 4K plus que correctement. Tu as une génération 1000 que NVIDIA a choisi d'ignorer de continuer à supporter avec ses dernières technologies
Imaginons un processeur CPU fabriqué pour fonctionner spécifiquement avec un gpu nvidia avec une mémoire faible mais collé à l'apu etc on aurait pas à avoir beaucoup beaucoup mais vraiment beaucoup moins de ddr ?
Comme pour la ps5 ? Je ne pense pas, même si bien entendu la mémoire unifiée permet effectivement de pouvoir dépasser certaines limites.
AMD pourrait le faire. S ils ne le fond pas, c est qu il n y a peut être pas autant d'intérêt ?
J'ai l'impression qu'NVIDIA veut très contenir les prix des 5000 hors la 90 mais j'ai l'impression que la 5090 soit exclusivement tailler pour de la 4k exclu et sera extrêmement bottleneck dans les résolutions en dessous vu les futurs 9000x3d et leur peu de gains comparer au 7000
Il me semblait que seul les 90/80 avaient le droit à la GDDR 7 ?
Appartement, non. A vérifier, bien entendu.
Tout ce que je veux c'est une bonne carte pour la 2k sans avoir à claquer 500e dedans.
Merci pour l'analyse en tout cas
Salut ! Je t'ai partagé plusieurs diapositives commentées sur X qui montrent les différences d'architectures entre RDNA 3 et RDNA 3.5 ... c'est en commentaire de ton post intitulé RTX 5070 : Évaluation! je crois ou le poste d'avant.
Oui, merci, j'ai commencé à regarder 😉
Et j'ai tourné la vidéo de demain avant de les avoir vu 😅
@@lebonlabruteetlegeek Salut le Geek! alors concernant le segment sur la PS5 pro, je ne suis pas certain que ce soit juste du RDNA 3.5 (je l'avais commenté avant que tu en parles). En effet, les APU Strix Point RDNA 3.5 existent déjà et plusieurs produits utilisent déjà RDNA 3.5 (quelques portables et miniPC notamment). Comme je l'ai commenté précédemment, il fort probable que l'APU de la PS5pro s'inspire plus de RDNA 4 que de RDNA 3.5.
En effet, la différence entre RDNA 3 (ou 3.5) et 4 concerne l'augmentation du nombre d'intersection BHV par TMU/cycle.
Par contre, entre RDNA 3 et 3.5 (et probablement 4) la différence se situe au niveau des groupements des WGP (Work Group Processor - il y a 2 CU par WGP) pour chaque bank de 256 Ko de cache L1.
Dans RDNA 3, il y a une bank de 256 ko de cache L1 pour 3 WGP (6 CU), tandis qu'il y a 4 WGP (8 CU) par bank de 256 Ko de cache L1 dans RDNA 3.5.
En passant, pour RDNA 2 c'était 2 WGP par bank de 128 Ko de cache L1, et il n'y avait que 32 Ko de cache L0 par WGP, tandis qu'il y a 64 Ko de cache L0 par WGP dans RDNA 3, 3.5 et probablement dans RDNA 4 aussi.
Le cache L2 ne semble pas avoir changé entre RDNA 3 et RDNA 3.5, mais peut-être qu'il a été augmenté dans RDNA 4 (mais je ne pense pas).
Ce qu'il faut comprendre c'est que chaque groupe de WGP partageant la même bank L1, peut échanger des donnés entre CU et faire des itérations de calculs très rapidement. Ainsi il faut imaginer un groupement WGP comme un équipe de travail dont les membres sont au même étage et communique très rapidement avec un délai extrêmement court. Cependant, deux groupement WGP vont devoir communiquer par le cache L2. Ce dernier représente l'escalier qui sépare deux équipes de travail qui sont sur des étages différents. On comprend donc que cela va prendre un peu plus de temps pour s'échanger des données entre deux groupements WGP.
Ainsi, on comprend que RDNA 3.5 à plus de membres par groupe de travail que RDNA 3. Heureusement, le compilateur de commandes optimise la distribution du travail à chaque groupement de WGP, afin d'optimiser l'occupation des CU et de façon à réduire la montée des données pour itération de calculs vers le cache L2 et le moins possible vers le cache L3 (et éviter le plus possible la montée des données pour itération vers la VRAM).
Nvidia me fait penser au petit magasin que j'ai à côté de moi. Tout est doublé à la vente par rapport à la grande distribution!!!! Voilà comment je vois Nvidia.
salut l'ami j'adore ton contenue que je regarde souvent j'ai une petite question j'ai moyen d'avoir une 4090 Neuve pour 1400euros ca vaut le coup ? ou il vaut mieux attendre une 5080 à ton avis ? merci
Il faut diminuer la chauffe, la consomation, donc la taille de cet élément sinon où est l'intérêt de la "micro-informatique". Je crois que le RT physique est une arnaque qui sert les fabricants à développer l'IA à nos dépends.
les RT cores n'ont absolument rien à voir avec l'IA, c'est le rôle des tensor core. Avant de te la jouer gourou comploplo essaie au moins de te renseigner, ça sert des fois, je te promets.
@@fabricejaouen378 C'est pas physique c'est électrique alors! Ou on fait des mathématiques ou on fait avec de l'arsenic, quoique tout çà correspondent bien à l'informatique
il faudrait que tu parles de la compilation/compression de shaders ( et de textures ! ) tu n 'es pas complet pour la gestion des tailles mémoires. Tu sais très bien que sans compression le monde ne serait pas le même et tes arguments non plus. je ne troll pas mais il faut parler de tout quand on parle gestion mémoire d'un GPU et du faut que nvidia n'en met jamais assez... et puis il y a AMD , il faut choisir sa carte en sachant qu'en ce moment tout rentre à part cas particulier mais cela ne sert à rien de charger des textures 4k sur une xx70 pour jouer en 1080P derrière à part se faire plaisir...
Je suis d'accord.
Bjr Jean, pour moi la puce graphique de la Switch 2 aura des features de la série 5000 mobile ..Tout le monde rigole , ahaha hihihi.. c'est pour bientôt emb l'a annoncé depuis 4 ans déjà..et lui ses sources sont sourcées ça coule de source..
😅😉
Good job ! 😉 👍
Bande passante ou pas, 8go de vram ne suffisent plus en 2024. Ma rtx 3060 peine à jouer à black myth wukong, surtout le chapitre 3 avec la neige
Pourtant une 4060 8 giga n a aucun probleme avec ce jeu ...
Qui veut aller loin, ménage sa monture. Prends un peu de repos mon bon geek ☺️
Tes analyses sont super pertinentes, qu'en est-il des technologies de compression de texture par IA pour optimiser la mémoire GPU ? Ce serait salvateur pour les cartes embarquant 8gb.
A l'heure où les consoles utilisent 12,5Go de mémoire vidéo sur leur 16 disponibles au total, oui une CG sur PC doit vraiment faire 12Go à minima en 2024/2025.
Sauf que les consoles ont 13.5go disponibles sur les 16 et la vram est partagée pour les tâches cpu et GPU .. pas comparable
@@zeubiflex6230 non mais elles utilisent jusqu'à 12,5 Go d'équivalent vram, le reste étant partagé et c'est hélas comparable vu les dernières réalisations sur PV vs console (exemple : Forspoken) que tu le veuilles ou non.
@@Musashi35140 forspo quoi ? allocation =/= utilisation
Les 5090 je pense quil faut être professionnel pour avoir ce genre de produit. Meme celui qui joue 3h par jour je ne vois pas l'intérêt d'avoir une 5090. Aussi bien la série 5000 ils vont tous être hors de prix. Et en plus ils arrêtent la production des 4000 comme ça tu n'a plus trop le choix. Mais je pense que AMD a une carte à jouer si ils s'améliore un peu et faire des prix plus intéressant que les GeForce. Bon rétablissement le geek, prends soin de toi.
@@OlivierFablu-c9m oui je comprends mais c'est au casque VR de s'améliorer ils sont en 1080p sur casque pour avoir un écran immense sur la chaîne de gamergen je trouve que les casques ont encore du travail pour les casques à faible budget la casque méta il refont un modèle avec de l'ancienne et de la nouvelle tech, le 3s je comprends pas trop bien le but de refaire un casque avec très peu d'amélioration et régressé sur certains composants pour faire un prix attractif. Et les casques ont encore du chemin à faire pour être de la même qualité qu'un écran 4k et toutes la tech qu'il faut pour le gaming. Les graphismes sur VR ou XR ne sont pas révolutionnaire. A voir dans l'avenir !!!!
C'est pour ça que j'ai pas encore investi dans la vr. Je me ferai un pc prochaine gen pour enfin pouvoir jouer en vr de qualité
toujours un pur plaisir
De toute façon c’est une raison pour sortir par la suite une rtx 5070 ti super mega giga qui aura 16go de vram
Oui
merci beaucoup mais les choses sont simples pour moi je ne suis pas riche d'accord je veux jouer dans de bonne condition à un prix moindre si le modèle d'AMD est mois cher même avec 20% de perf en moins ça me va je vais pas mourir pour 20 fps en plus je préfère aller me faire un bon restos à un moment faut arrêter les conneries si la RX 8800XT n'excelle pas en ray traçing tant pis vous savez avec la vie active on s'amuse de moins en moins alors je vais privilégiez mon portefeuille !
autant de new pour des cartes graphiques je me tient informer en tant que geekos mais sans plus quoi de toute façon je vais attendre pour changer ma SOYO RX 5700XT que j'ai eu à 150€ NEUF sur aliexpress et je fais tourner GOW Ragnarök en 2k moyen 120 fps avec le frame génération d'AMD et l'anti aliasing en qualité, pas de ray tracing sur cette carte bah je suis content oui elle a que 8go de vram et là on est à 7.86 go d'utiliser comme vous dites tous ceux qui englobe la texture, les ombres, les filtres machinchouette bouffe pas mal alors avoir le plus de vram c'est pas déconnant /
de plus je pense que le rapport quantité de vram- bus mémoire- fréquence- unité de calcule seront à surveiller !
avec l'arrivée des RX 8800XT j'espère trouvé des 6750 xt ou 6900 à moins de 250€ ou -200€ neuf si possible là j'irai les prendre bon peace and love la famille !
Merci
fausse explication de la défense de Nvidia, 16gB sinon rien. Je choisirais le concurrent qui remplira les 16GB comme demandés.
J'émets des hypothèses, j'attends avec impatience les tests pour le confirmer.
Par les maîtres du référencement 🤟🤟
Les gens passent leur temps à râler. 🤣🤣🤣
hello et merci pour ta video ....et Sony m'a troué les fesses avec leurs PS5 pro qui va durer 2ou 3 ans Max pour 1000 balle du coup bah moi je cherche de partout à me faire un PC gamer mais c'est la jungle y a tellement de matos different .j'ai une PS5 et un PSVR2 et j'aimerais bien pouvoir en profiter sur PC de façon satisfaisante et qui assurerait un peu dans le temps ... je pose des question un peu partout et personne n'est d'accord sur la couleur du crottin :) bref si une âme charitable pouvais m'aiguiller sur une config PC convenable . ici BBG m'a vraiment l'air de connaître le sujet et n'auras pas ou pas trop d'intérêt financier en jeu pour me répondre ( je crois les doigts) bref si c'est pour me sortir de prendre un GPU à 1000 balles merci mais ont me la déja sortie et nan je suis pas crésus mais je pense qu'il doit etre possible de se trouver un PC à monter très bon pour 1200/ 1500euros pour faire tourner des jeux PC en VR . donc tout ceux qui voudront bien me répondre je leurs dis que si c'est pour me proposer des configs a 2000 stop je sais deja que c'est possible pour moins cher ... merci à ceux qui prendront la peine de me répondre
Si tu es patients, on va attendre les specs et prix officiels (et mieux même, les tests) de la RX 8800 XT et justement, en face, ce que va faire Nvidia, mais tu peux déjà te faire une super config avec du matos actuel. Après, vas-tu monter le pc ou pas ? Car ça aussi c'est une question, un PC monté, c'est pas tout à fait le même prix, même si tu peux trouver de bons rapports qualité prix, mais pour 1200 à 1500€ max, tu peux trouver de super config.
@@lebonlabruteetlegeek salut nan je me monterais mon pc moi même j’en montais y a des années maintenant et bon je suis pas trop bête je devrais y arriver je pense pas que les choses ont énormément changé conté montage d’un pc aujourd’hui et il y’a 15 ans je pense …
Patient oui y a pas le feu mais c’est vrai que les GPU c’est un peu la foire à la saucisse personne n’est d’accord là dessus .
En tout cas merci pour ta réponse j’ai mis dans mon panier une Rx 7900xt mais j’ai lu que ça marchait pas super en VR et d’autre dise que ça marche super bien … je vais pas jouer en 4k je m’en fou j’ai pas l’écran pour et les yeux …. 49 années au compteur …1080p c’est déjà super bien
Hey !
Si tu veux construire un PC équivalent à une PS5 pro, sans te ruiner : Carte Mère B550 ( Aorus Élite V2 ) ; CPU Ryzen 5700X3D ; 32 Go Ram 3600Mhz ( GSkill Trident / Corsair Vengeance / Crucial Balistix ) ; Czrte Graphique XFX RX 6800**( chez Amazon / NR, info attention fin de stock ).
Ssd 250Go pour Windows ( exclusivement ! )
Ssd / Ssd nvme 2Go pour les jeux
Alimentation : 850W Gold
** : La RX 6800 est la carte la plus efficiente de sa génération, le modèle de chez XFX et basique mais extrêmement bien refroidi, attention il faut un boîtier qui puisse recevoir cette carte longues de 33cm.
Avec ça tu joues en 1440p full High / Very High sur un écran à 144Hz ( 144 images par seconde ) sans soucis
Le tout pour un peut moins de 1000€ 😜
Je pense que la même config avec une 8800xt ça va tourner niquel pour la vr
@@xavimendoza8014 super merci beaucoup je prend note 🙏
👍😉
Vive AMD
Jean, cette fois tu as eu ma peau je ne regarderai pas ta vidéo car j’ai une overdose de RTX et tout autre je t’adore j’adore ta chaîne mais là quand c’est trop c’est tropico
Pas de soucis, la prochaine traitera d'autres sujets.
Tin si seulement AMD n'abandonnait pas le high end j'aurai pas à aller chez Nvidia en prochaine je suis deg
On va encore enrichir les verts alors qu'ils se moquent de nous
Bah si tu veux le top du top du top c'est toi qui enrichis les verts
@@nicolasusg4036 C'est pas comme si on avait beaucoup de choix en high end
@@stem7141C’est comme ceux qui veulent une voiture puissante, on est obligé d’aller voir ailleurs vu que la France ne propose rien 😁
Bonne vidéo
Salut le geek jigflo.a fait les calculs les prix ont leaks la rtx 5080 a pas loin des 2500 à 3000€ cest abusé la rtx 3060 était sorti a 700€ d'après jigflo vla les augmentations de malades...
Non, il doit parler de la RTX 5090 à ce prix là 😉
Il a parlé de la 5090 pour 2500 euros, de 1500 pour la 5080 à mettre en opposition au 700 euros de la 3080
@@olivierm3312 oui il est loin le bon temps
@@lebonlabruteetlegeek oui désolé la 5090 c'est ça
12gb est largement suffisante pour 5070
Non car les jeux demandent de plus en plus de vram en 1440p ultra et ça peut devenir un problème si les devs nous sortent des jeux avec une mauvaise optimisation.
Réf ✌️
👍
Je reste sur ma 4090
👋😉👏👍
👍👍👍👍👍👍👍👍👍👍👍
Mais elles sont ou les carte graphiques de 20,22.24.26 ....32 go ? depuis les GTX N$idia me désole, kaka !
mais de quoi tu parles ? ou c'est caca ? les RTX sont les meilleures en haut de gamme et ensuite tu as AMD si besoin de qualité prix...
@@NicolasElon Nivda depuis les gtx nous sorte les cartes avec 8go, à de prix de fu !
salut tu as vu l'article wccftech ? estimation des prix de 1600 $ pour la 5090 à 700$ pour la 5070 TI et 550 $ pour la 5070 !
Non, je vais aller voir, ce sont des prix radicalement différent. 1600$ pour la RTX 5090, si elle embarque tout ce que le leak a dévoilé, j'ai du mal à y croire vu le prix du process.
286
👍