Les gpu haut de gamme sont une niche.... Qud les kikoulol auront compris que l expérience de jeu est mieux en 2k/QHD à 165hz/fps à un prix raisonnable que du 4k avec une usine thermonucléaire hors de prix à 60fps voir moins parfois.... AMD est intelligent... Il voit la majorité du parc et les réels besoin. (Cf la majorité des joueurs ds le monde jouent encore en FHD multiscreen, le QHD et 4k sont à 10%)
Les prix ne sont pas abusé, c'est simplement que les GPU NVIDIA possèdent des technologies supérieurs aux GPU AMD, et aussi des GPU plus performants comme le démontre les benchmarks, donc y'a plus de travaille qui est fournis. Et globalement le prix des GPU augmente avec le coût des matières premières ainsi que l'augmentation du salaire des salariés, que ce soit le salaire de l'ingénieur ou celui du petit ouvrier dans les usines en Chine et à Taïwan. Ce qui est abuser c'est de vouloir toujours moins chère des produits qui sont fabriquer par des gens qui travaillent plus que toi et qui sont parfois moins bien rémunérés que toi.
@@marvin.toyboy Alors les très vieux avec des textures 800x600 était parfaitement adaptés à leur résolution, , leur technologie et leur époque. C'est upscaling lié à l'augmentation des résolutions qui les rend disgracieux de nos jours. D'autre part, tous les jeux n ont pas besoin d'être réaliste pour être bien et divertissant.... Exemple : Warframe a plus de 10 ans de vie, le jeu tourne sur toutes les machines, toutes les résolutions et le jeu est beaux et rapide..... Le jeu allie performance, technicité, beauté. il y en a pas beaucoup de jeu de cette trempe. Si, les développeurs optimisaient leur texture et leur moteur graphique ont peu se passer de monstre énergivore et couteux.
@@Artax2040 quand les kikoulol comme toi qui ne connaissent rien au développement d'un jeu vidéo et à l'ingénierie, auront compris que si on veut des jeux plus réaliste il faut forcément augmenter le nombres de pixels et donc la résolution, ça fera beaucoup moins de commentaire comme le tiens. Le 60 fps c'est suffisant tant que c'est constant, une fluidité à 165 fps ne va pas améliorer ton expérience de jeu autant que en 4K 60fps (la preuve, si tu prend un très vieux jeu avec des textures fait pour une résolution 800x600, tu verras que peu importe le nombre de FPS, ton expérience de jeu sera moche). La majorité des joueurs dans le monde jouent en en FHD pour des raisons d'accessibilité. Si AMD était vraiment plus intelligent que NVIDIA comme tu le dis, leur GPU ne seraient pas moins puissant et leur IA non plus. Mon 2 cents d'ingénieur logiciel qui crée des jeux vidéo et des algorithmes qu'un cerveau comme le tiens ne pourra jamais crée.
@@Artax2040 Et puis tu continue de parler sans rien connaître à l'ingénierie le kikoulol . Alors non, contrairement à ce que tu dis " C'est upscaling lié à l'augmentation des résolutions qui les rend disgracieux de nos jours" si tu utilise un ancien téléviseur et une ancienne console pour faire tourner un ancien jeu, tu verras que les graphismes c'est pas la folie. " Si, les développeurs optimisaient leur texture et leur moteur graphique ont peu se passer de monstre énergivore et couteux." Bon là encore tu ne sais pas de quoi tu parles, n'hésite surtout pas à m'expliquer à moi l'ingénieur qui travaille sur des moteurs et des jeux vidéo, comment on pourrait améliorer tout ça, on t'écoute toi qui n'a jamais rien crée.
Perso le changement l’évolution ne fait pas peur et j’espère que j’évoluerai comme tout dans la vie d’ailleurs en parlant d’évolution j’ai remarqué que t’as Magnifique chaîne a évolué en terme de contenu depuis et j’adore sa c’est l’avantage quand on est abonné à t’as chaîne c’est gratuit et sa mange pas de pain XD 👍
Bonjour, entièrement d'accord avec toi bien sûr que les pc ont changé, mon tout premier c'était un MO5 ( oui je n'ai plus 20 ans) puis un TO 7 70, un ordinateur Amstrad et les premiers pc Intel Pentium et par rapport à maintenant ça à bien évolué et tant mieux j'ai hâte de voir ce que le futur nous réserve.
Salut ID, reste juste à savoir ce que donneras la 8800xt avec l'AFMF 2 & le FSR 3.1 voir 4.0 peut être auras t'on droit à un milieux de gamme équivalent à un haut de gamme ! Si tel est le cas Nvidia devra sortir du très lourd pour garder sa place de leader. Superbe vidéo comme d'hab ✌️. Force & Honneur. Eric.
Bonjour, Je te rejoins sur l'evolution du hardware, j'ai 45 ans donc je connait bien cela , les gaps ont été a mon sens peut important au départ et les technologies ont évolué a vitesse grand V c'est dernières années et la société de consommation que nous sommes n'arrange rien ( toujours plus ) et avec l'avènement de l'ia notre facon de consommation va changer. Je pense que on arrive a un sommet assez infranchissable côté hardware et que le sofrtware va prendre le dessus d'ici peu . Mais sinon bonne vidéo et je pense énormément comme toi sur plusieurs points .
J’étais vraiment pro nvidia avant et pourtant, il faut admettre que aujourd’hui, sauf si ton but c’est d’avoir le plus gros pc, AMD sont le meilleur choix en terme de rapport qualité perf/prix. Y’a pas un monde (dans le gaming) oû prendre une rtx est justifié si tu n’as pas de budget illimité
Les technos sont bien mieux chez Nvidia en matière de raytracing et puis bon le FSR ça dépanne mais comparé au DLSS… AMD sera mieux pour la puissance brut mais clairement pas pour le reste
@@TheFirelinuxy les gens joue peu a des jeux solo, justifier une différence de 1ke juste pour du dlss (pr une 4090, une 4080 c'est environ 150/200 en moyenne) pour genre 10/20 (dlss2) fps en plus en 2k (une grande majoriter n'ont pas d'ecran 4k), bon... il faut être fou surtout que la plus part des gens joue a des jeux multi, même s'il joue a des jeux solo, 200e (4080s) et 1ke (4090) de diff n'est pas justifiable. Le DLSS tu va l'utiliser 2fois et après tu l'oublie vite, et puis soyons honnête jusqu'au bout, c'est clairement overkill sauf si t un kéké
@@i_ivory tu te trompe complétement ....ce que tu dis sur le dlss n'as aucun sens car c'est surement la techno la plus utilisé car activé de base sur les jeux actuel pour ceux qui ont une nvidia.... et puis les gens jouent peu avec des cartes amd ... suffit juste de regarder les parts de marché 90 % pour nvidia juste sur les gpu gaming et en boutique on vends quasi plus de gpu amd (10 pc nvidia vs 1 avec un gpu amd)...
@@amocheur9439 C'est pas du tout la même chose mdr, les jeux les plus joués sur PC n'ont pas de rtx/dlss (et s'ils en ont, en ont très peu d'intérêt), fortnite, pubg, warzone, valorant, cs, lol, preuve du contraire, les rtx/dlss n'ont aucune utilité mdr, qui ne sont pas activés par défaut. + « DLSS n'a aucun sens ». J'ai dit pas de réel utilisateur, les 3/4 des joueurs jouent à des jeux multi qui n'utilisent ni dlss ni rtx (même s'il en avait, ce ne serait pas utile), il faut être réaliste, payer sa carte plus cher pour autant de fps avec des features que tu vas très rarement utiliser si tu ne joues pas/peu voire très peu à des jeux solo : aucune utilité. Choisir d'AMD pour l'utilisateur moyen, comparer prix/perf est large Et amd comparer a nvidia n'a sortie des bon produit vraiment quali que tres recement je trouve au niveau des cg, a l'epoque il n'y avais que nvidia (amd etait la mais trop de soucis hardware et software pour que ce soit fiable) donc pour les gens amd = mauvais/instable et ce que veux un gamer c'est justement un truc bon/performant/stable, y'avais que nvidia, ils ont donc reussi a rentrer dans la tete d'un consomateur moyen de, lequel est le mieux entre les deux. Donc au fil des années, nVidia a construit un monopole et AMD essaye de se détacher de cette image mauvaise… sauf que si personne ne prend d'AMD, vous montrez que ce n'est pas parce que la carte vaut plus cher qu'elle est forcément bonne (si tu veux du DLSS/RTX, bien sûr, t'es obligé de passer chez eux, mais bon), faut changer un peu ces préjugés, l'époque où AMD est au plus bas est finie. AMD VS NVIDIA Niveau budget card, c'est AMD ALLDAY, après si on passe sur des high end 4090, oui, c'est sûr que n'importe quelle carte se fait détruire, y a même pas de débat, mais c'est même plus la même utilisation. C'est comme si tu propose du apple vs android, l'utilisateur moyen va prendre dans 90% des cas du apple prc soit il a toujours eu sa, pourquoi il changerais ou alors prc il c'est "fait avoir" par la com sans avoir tester android. apres tout reviens ensuite a ton utilisation, si tu veux vraiment du dlss/rtx bon fait comme tu veux mais si tu veux des perf AMD sera meilleurs (atm)
@@i_ivory C'est un peu mon taf tu parles de choses que tu ne connais pas déjà niveau gpu ca fait des années qu'on vends quasi rien en amd en boutique et faire une comparaison avec apple et android ca n'a aucun sens à titre d'info android est devant si tu veux par marque samsung est devant apple de 2 % rien à voir avec les gpu gaming nvidia 90 % AMD 8% Intel 2 % on vends quasi quedale en gpu amd en boutique contrairement au cpu et et tu me sort fortnite et warzone ou le dlss est activé par défaut sur le jeu et ou la majorité des joueur l'utilise avec le nvidia reflex ..et je vais pas parler de valorant et de cs ou lol (ca tourne sur des calculatrices) d'ailleurs tout les jeux qui sortent(multi ou pas) on et auront ces techno ...et non si tu veux des perf amd ce n'est certainement pas meilleur tu l'as dit toi même il y a rien devant une 4090 et même si on descend la 4070 super qu'on vends le plus sur le hdg est meilleur qu'une 7800xt en rasté et même mieux qu'une 7900 gre , elle sont quasi au même prix et je parle même pas de la conso et de la stabilité des pilotes , nous on comprends pourquoi amd abandonne le hdg bientôt ils devront donner leurs gpu ....
Il faut du hardware pour faire tourner les algo d'IA ... tu peux mettre 10 coeurs de moins sur ton GPU et à côté devoir rajouter 10 coeurs et autant de conso dans le Neural ou AI core ... A puissance et transistors équivalents je pense qu'on en est encore à la même chose entre puissance GPU seul et GPU + AI. Et lances un jeu sur un MAC en regardant la température ... ça chauffe bien plus qu'un PC gamer et pourtant il consomme 3 à 4 fois moins.
@@harrycrotteur-d2u Je parle de chauffe en température, pas d'équivalence Watt. Tu peux aussi bien atteindre 100°C avec 10 Watts, qu'avec 100W. En ce sens c'est à cause du refroidissement qui n'a jamais été amélioré chez Apple. 1 seul caloduc qui regroupe CPU/GPU/mémoire dans un flux d'air plutôt restreint dans la charnière. Rien à voir avec les PCs avec chambre à vapeur 4, 6 caloducs dont certains dédiés au CPU ou GPU. Il y a aussi les tolérances des températures de jonctions, certains fabriquant vont garder une marge plus importante que d'autres pour éviter de trop "throttle". Fin bon, je crois qu'Apple commence à mettre des chambres à vapeur sur ces nouvelles puces donc .. ça arrive ! Mais des MACs pour faire du gaming comme sur un PC c'est pas demain :) C'est pas parce que ça ne fait pas de bruit que ça chauffe pas.
@@cyclo16hacks Ok donc le problème viens plus du dimensionnement du refroidissement en question et non de la baisse de consommation du mac vs PC. Après la formule de chauffe d'un composant quel qu'il soit est universelle et pas très compliqué (Pj=RI²) c'est la même pour un ordi, un câble ou même une plaque de cuisson. J'ai jamais eu de Mac aussi c'est pour ça que je posais la question, merci pour ta réponse.
@@harrycrotteur-d2u Oui à refroidissement équivalent à un PC Gamer ne serait-ce que milieu de gamme, le MAC chaufferait bien moins ! Je vois déjà sur le mien, rien de rajouter une plaque en cuivre entre le dissipateur et la carcasse réduit de 10° la chauffe et diminue l'arrivée du throttle. Je suis plutôt en microélectronique mais on passe par les mêmes formules, y a pas de miracle. :D
Je rejoins ton avis je pense même qu'on va devoir faire preuve d'adaptabilité et qu'on va voir des CG devenir des CM, ou tu pourras y changé le cpu ou les bloc de ram. Mais la solution est de tendre vers une sobriété et ce servir de l'IA pour aller dans cette direction et nous aidé à pallier au contrainte physique par des astuces software
Est-ce que tu pourras faire une vidéo ou tu rend visite à t'es abonnés pour voir leurs setups et tu donnes des retours et des améliorations pour les aider à être plus confort ?
Si on regarde les carte les plus utilisé sur steam c'est les carte de milieu de gamme la RTX 4090 c'est un truc comme 0,4% alors perso je pense qui font le bon choix si il nous sorte une 8700 de malade avec un prix autour de 350/450€ sa serais dingue.
Non non non il ne faut pas voir les choses comme ça, pour une entreprise de cartes graphiques les particuliers ne représentent qu'une infime partie du chiffre d'affaires et les entreprises (la grosse majorité du marché donc) sont très demandeuse de carte graphique haut de gamme
Je bosse pour un revendeur et je peux vous dire que AMD a un gros problème de taux de retour sur les grosses cartes, on vend 10x + de Nvidia que d'AMD mais on a autant de retour des 2. Et pour ce qui est de dépasser les 2 ans de garantie et d'espérer une durée de vie de 4-5 ans, c'est pas gagné. Je pense qu'ils les poussent trop pour essayer de concurrencer Nvidia.
je pense que amd a fait le choix stratégique de surfer sur sa réussite côté console et d'utiliser les retours ps5 pour enfoncer le clou avec les x3d; de plus les concessions des consoles offrent une base de réflexion pour optimiser les gpu d'entré de gamme. Pour moi ça a du sens
En même temps le HDG ne sert pas à grand monde, il faut un écran 4K à +60Hz pour en profiter (moins de 3% des utilisateurs). Alors que la majorité des joueurs sont en 2K voir 1080p, le moyenne gamme suffit amplement et ça fera peut être baisser les prix pour la majorité des clients en fin de compte. C'est hors de question de payer un GPU à +500€ pour gagner 10% de perf personnellement.
Hé bien, ça n'annonce rien de bien, en même temps ça ne m'étonne pas quand je vois ce que l'IA détruit sur son passage et les gens qui sont contents d'êtres des fainéants...et désolé d'être vieux dans ma tête (30 ans en vrai), mais je confirme que c'était mieux avant en presque tout, surtout si on continue d'aller vers ce chemin obscur. 😅
L avenir de la puissance passe clairement par l'utilisation massive des IA...on aura une console ou un pc qui aura déjà un bon hardware mais qui seront connectés à des serveurs, à des IA qui évoluent très vite. Donc la puissance de nos consoles augmentera sans avoir besoin de les changer, et sans avoir besoin d attendre une nouvelle génération 7 ans après. Par contre prévoyez déjà l'abonnement..
L'IA est déjà un acteur incontournable pour les jeux, triple A ou non, car même la scène eSport est toujours à la recherche des meilleures performances compétitives. Et c'est pas plus mal car ça pourrait aussi équilibrer les prix de certains composants dans le futur car l'IA pourrait faire le travail et donc avoir des cartes moins chères en termes de prix de fabrication.
Pour information, les 8900 ne devraient pas exister, mais les 9900xtx si. AMD fait une pause temporaire afin de revenir plus puissant et booster à L'IA.
Yo pour moi le hardware vas atteindre des limites physique dans quelques années. Et les moyens d'évolution se feront via l'environnement associé au matériel (dlss fsr logiciel de contrôle...). Sans oublier que les économies d'énergie vont devenir un sujets de plus en plus présent et que la puissance c'est cool mais on a oublié tout ce qui est optimisation. Les derniers jeu se reposent sur l'upscaling pour avoir des performances décentes c'est pour moi une grosse erreur l'optimisation ne doit pas se faire a la fin de la chaîne de calcul c'est inefficace au possible une amélioration d'un moteur de jeu aura bien plus d'importance (on le fait déjà sur le micro code cpu voir meme jeu d'instruction et architecture) pour moi les dev on un role aussi important que le hardware pour stoper la course a la puissance et se concentrer sur l'efficacité énergétique.
c'est le meilleur move a faire de toute façon, le hdg represente une niche sur le marché et le meilleure moyen pour amd de forcer les devs à opti un peu plus leurs jeux pour leurs gpu c'est de recuperer des part de marché côté entrée / milieu de gamme, qui represente le gros du parc hardware gaming, quand ils auront recup sa + la confience des consommateur ils pourront ce permettre de refaire des gpu hdg. par contre si nvidia à aucun concurrent pour rep à leurs gpu hdg sa sent la montée des prix c:
Les prix Nvidia ne baisseront jamais parce que les actionnaires. En tout cas j’ai vendu un bras pour ma rtx 4080, j’en ai un en plus pour la suite des GPU…
@@haiwa_ oui et non. Tout le monde n’a pas les connaissances pour changer de gpu pas cher tous les 4 matins, tout le monde ne joue pas à des jeux qui sont peu gourmands et bien optimisés, certains ont l’idée en tête de payer une blinde un ordi pour être tranquille quelques années, tout le monde n’a pas la réalité du vrai prix des composants par rapport à ceux vendus. Donc même si tu mets un gpu à 7k ça changera rien , de même si tu mets un gpu trop cher que personne n’achète
Après à quoi sert d'avoir des gros gpu quand je vois ma 3060 ti en FSR3 frame generation, c'est juste abusé les perfs en ayant une superbe image, je pense que si AMD abandonne c'est surtout pour ce focus sur le nécessaire avec le software et la ou il y a le plus de vente bas de gamme, milieu de gamme, avec énormement de perf avec le FSR3 et frame generation, mais la pire des parties reste les devs de jeux vidéos, ils ne sont tout simplement pas assez compétant.
Actuellement on est dans une période où l’avancement des pross. De gravure ralentissent actuellement tsmc a le monopole pour les meilleurs gravures donc ils ont profité pour augmenter les prix. Donc les fabricants compensent la faible augmentation de puissance des cartes par une augmentation des fréquences qui fait exploser les consommations et une partie logiciel ia qui permet un résultat malgré un ralentissement dans la finesse des gravures. Sachant que actuellement les meilleurs gravures sont réservés aux carte pro(ia)chez nvidia mais sont aussi extrêmement chers. Pour moi amd arrête le haut de gamme en cartes graphiques pour réserver les meilleurs gravures à ces futurs puces ia.
Normalement vers 2027 de nouvelles usines auront finis leurs constructions on espère une baisse des prix des puces. Sachant que les autres concurrents rattraperont leurs retards.
Vu que AMD est aussi très fort dans les processeurs avec partie graphique intégré, je me demande si les softwares qu'ils développent pour leurs GPU seront aussi disponible pour les APU, pour les consoles portable, PC portables, minis PC et les config de PC gamer entrée de gamme
À part le cloud (où la puissance est déportée ailleurs), il n’y a absolument aucune raison pour que la taille et les consommations diminuent. Tout n’a fait qu’augmenter ces 40 dernières années (je parle ici des desktops). Pour les appareils mobiles, les dimensions ont souvent été réduites, mais au prix de concessions en termes de puissance. Alors oui, bien sûr, on va me parler des puces ARM M1, M2, M3 d’Apple… Ce sont effectivement des puces plus efficaces, mais elles n’en restent pas moins bridées. Les raisons sont purement physiques, quand vous avez une prise de courant et que vous disposez de 25 fois la puissance d’une batterie, vous avez aussi potentiellement 25 fois la puissance d’un appareil mobile (à génération et architecture comparables, il ne faut pas tout mélanger). Vous pouvez fantasmer des ordinateurs miniatures ultra-puissants, mais il y aura toujours quelqu’un pour en faire un plus gros, donc plus puissant. En réalité, vous les avez déjà, vos ordinateurs de poche ultra-puissants. Comparé à un PC d’il y a 30 ans, même le smartphone le plus pourri est un ordinateur de la NASA. Donc bon, oui, l’IA va apporter ses améliorations, et les nouvelles technologies de semi-conducteurs vont en apporter aussi (substrat en verre, architecture 5.5D et sûrement plein d’autres choses). Mais la seule véritable limite pour un ordinateur desktop… c’est la prise de courant, 3,7 kW… Espérons ne pas en arriver là.
Si AMD ne fait plus de carte graphique normal ou haut de gamme Sa va être difficile pour les fabricants de console Nintendo Microsoft Sony Les fabricants de console n'aura pas le choix que de choisir Nvidia ou bien Intel pour mettre dans les consoles des GPU de type ARC Ou les fabricants de console pourrais fabriquer eux-mêmes leur GPU de fabrication maison C'est ce que faisait au début les fabricants de console dans la générations 8 - 16 et 32 bits
Si je me mets du côté de la « majorité », je pense que la taille est un facteur majeur. Sincèrement à la sortie de la ps5/X tout le monde était choqué de la taille. Et en pratique, même la ps5 slim me casse les *** parce qu’elle prend trop de place. Pour les pc c’est pareil. Si demain je peux avoir un pc performant de la taille de mon Sd je signe tout de suite. La vitre avec vue sur ma config c’est marrant 5 minutes mais ça n’apporte rien.
Nvidia ont déjà tentés quelque chose mais sans succès. Et puis vendre une console n'est pas ce qui rapporte le plus, c'est surtout le fait de vendre des licences et faire payer les éditeurs qui sortent leurs jeux sur les consoles qui rapporte un maximum aux fabriquants. Donc au final c'est bien plus bénéfique pour ces marques de vendre les composants qui sont intégrés à ces consoles !
AMD qui lache le haut de gamme c’est une tres bonne chose je pense, ca va détruire la niche des flagship et faire baisser le prix de haut de gamme. Je m’explique : aujourd’hui sur les stats Steam les cartes les plus populaires c’est les 3060(ti) et 4060(ti) (le marketing est tres fort). Si AMD se focus sur des gammes équivalentes aux series xx60 xx70 et arrivent a gratter beaucoup de part de marcher, Nvidia sera obligé d’ajuster leurs tarifs pour rester competitif Et si le bas de gamme Nvidia baisse, ils seront obligé de faire baisser le prix du haud de gamme : aucun client avec un minimum de jugeote va payé 2x plus pour 20% de perf en plus
La seule raison de la popularité de AMD cette un peu moins d'une dizaine d'années sur le marché c'est leurs prix. Depuis qu'ils ont repris les mêmes tarifs que Nvidia ou Intel pour les processeurs ils n'ont plus aucun intérêt.
salut j'ai 4 ventilos, j'en ai que 1 qui marche et sur ma carte graphique j'en ai 3 mais y'a que celui de droit qui marche le gauche et le droit ne marche pas... aidé moi s'il vous plait
Waooh !!! Salut ben faut que tu nous donne un peu plus de détails si tu veux qu'on t'aide----> tes ventilos sont en top (sur le dessus) sur l'avant ou sur l'arrière mais surtout sont-ils branchés sur un hub ou en direct sur ta carte mère à tu essayé faire fonctionner tes ventilos qui ne fonctionnent pas sur la prise de celui qui fonctionne ? s'ils ne fonctionne pas sur cette prise c'est qu'ils sont HS. Pas de problème pour t'aider mais donne un peu plus de précisions ✌️👍. Force & Honneur. Eric.
Impossible pour plein de raisons : - Les gens ont déjà des télévisions/écrans donc ils ne vont pas jeter ce qu'ils ont déjà, et ça les constructeurs le savent bien - Le but c'est de pouvoir transporter sa console si besoin, une TV c'est pas très transportable. - Même si c'est plus niche, il y a des personnes qui jouent sur projecteur et donc pas compatible avec cette possibilité. Il y a d'ailleurs déjà eu des tentatives de ce genre dans d'autres marché mais ça a flop, c'est beaucoup trop restrictif et contrainant !
j'ai pas encoire fini la vidéo mais je donne mon avis. Je pense que c'est à la fois une bonne et une mauvaise idée, si AMD abandonne les GPU HDG, Nvidia aura le champs libre, ce qui veut dire dse prix qui vont monter en fleches, mais en même temps, niveau bas de gamme ou moyenne gamme, AMD aussi aura le champs libre, et si ils se concentre que sur le moyenne gamme et bas de gammes, leurs cartes sera meilleure que toute les autres de la meme gamme, donc si t'as pas beaucoup de budget, tu prends une AMD qui sera la meilleure pour un petit budget, et si t'as un énorme budget, tu prends une Nvidia puisque y'aura que eux dans le HDG (bon y'a aussi Intel mais j'ai entendu dire que leur GPU sont pas top niveau gaming mais j'en sait rien après)
En vrai a quoi sa sert d'aller plus haut dans le jeu vidéo ? on a de très belle résolution graphiques en 1440 a 140 image sec sa suffit je trouver la 4k en jeu j'en vois pas l'intérêt . par contre dans le pro ça va beaucoup aider j'imagine
Franchement la 4K pour jouer sur PC ca n'a pas d'intérêt si on joue sur moniteur. Et ceux qui jouent avec une TV bah premièrement ils n'exploitent pas le potentiel entier de leur GPU et surtout ils sont très minoritaires. Un moniteur même de 32 pouces ou 34 pouces n'a pas une densité de pixels suffisant pour qu'on observe une différence avec de la 2K ou de la 4K. 4K pour du cinéma OK Pour du Jeux, overkill
AMD restera les meilleurs dans tout les cas pour 90% des utilisateurs, la future generation de carte AMD seront plus puissante avec les prix (environ) actuel (on l’espère), donc bon 4080s a la limite ok, mais plus c'est juste overkill surtout sur la prochaine gen
Ce mec je l'aime trop il et simples efficaces il motive beaucoup personne franchement si je gagne un jours sa serrais cool pour moi il donne beaucoup de conseils ect merci a toi gens Michel rgb 🤣
Attention ils le disent eux même qu'ils n'ont pas abandonner le haut de gamme mais le ultra haut de gamme. Style 4080/4090, pour ce qui est des 4070 il existera des équivalents.
Nvidia ne fait pas que des mauvais choix. Par exemple, Nvidia qui intervient officiellement pour Linux avec de vrais drivers, AMD ne fait rien de son côté. Nvidia qui intervient littéralement dans la partie framework en aidant avec des technologies propriétaires alors que AMD sort de l'Open-Source mais ne fais rien avec la communauté pour développer sa partie framework et donc bah, personne ne les utilise réellement. Il y a rien qu'à voir le HIP d'AMD pour les rendus 3D sur Blender et OptiX de Nvidia sur les rendus 3D sur blender. C'est le jour et la nuit car Nvidia est toujours derrière à travailler. AMD est derrière mais très rarement et ça n'incite rien chez les gens de développer le côté Open-Source. Et le FSR 4.0 est un aveux d'échec que j'avais prédis depuis la sortie de FSR 3.0 car le FSR 4.0 sera comme le XeSS. Un "Open-Source" pour n'importe quel GPU et un autre qui sera dédié aux cores IA comme le fait Nvidia et Intel et qui sont tous closed sources car c'est la seule solution pour doubler Nvidia d'un point de vue framework. Nous avons bien vu la 7900XTX sur Cyberpunk, qui a plus de perf sans RT avec le FSR 3.0 + AFMF que la RTX 4080 avec le DLSS 3.7 + FG. Mais quand tu regardes les décors, l'AFMF bloque les décors à 60FPS mais ton véhicule lui tourne à ton nombre de FPS (il y a une vidéo qui montre le côté dégueulasse de la dernière maj avec 7900XTX et ça fait froid dans le dos) Même chose dans le monde du portable. Le 7900M qui n'a plus eu de drivers depuis des mois. C'est ridicule sachant que derrière tu officialises le 7800M mais peu de chance qu'il y aura du support. Même les constructeurs de portable tel que MSI, ASUS, Lenovo le disent eux-même que travailler avec AMD dans le monde du portable est dégueulasse et soucis de fiabilité et absence de suivi. L'alienware M18 R1 équipé de son 7900M/7945HX3D en dehors de CERTAINS jeux spécifique, il ne fait guère mieux que mon Scar 18 avec RTX 4080 / i9-14900HX et n'a pas énormément d'innovation avec une dalle IPS-Level pour 3599€ (promo) alors que mon Scar 18 m'a coûté 2849€ (promo), Mini-LED HDR à 240Hz, 4 hauts-parleurs avec Dolby Atmos et j'ai aussi le diming zone. C'est gadget mais ça fait avancer les choses. Les portables AMD n'avancent rien en dehors des Ryzen AI dans le monde du portable.
Et il y a aussi autre chose, c'est que même si AMD monte en flèche de par ses CPU, Intel reste très menaçant pour une simple raison : AMD se concurrence lui-même et se fait lui-même du tort. Pour battre Intel en gaming et en multi-tâche, ils ont dû séparer les Ryzen en deux gammes. Les Ryzen et les Ryzen 3D. Les Ryzen sont fort en multi-tâches mais sont moins fort en gaming. Les Ryzen 3D sont fort en gaming mais sont moins fort en multi-tâches. Sauf que quand on prend le Ryzen 9 9950X sur Geekbench, celui-ci à un gain de score de 21% grâce à l'AVX512. Le Core Ultra 9 285K ne supporte pas l'AVX512 (Intel juge comme de niche) et il bat de 4% le Ryzen 9 9950X sur Geekbench sans l'AVX512 et en gaming, ce sera surement le même truc qu'avec les Ryzen 7. Il faudra attendre les Ryzen 9 9800X3D pour battre le 285K en gaming.
Je ne crois pas du tout que AMD va abbandonnée les cartes graphiques du justement a la loi contre le monopoles (intel y a environ 20 ans a du donner de l argent a AMD afin que AMD soit encore la pour pas qu 'intel depasse 88% de part de marcher donc surement que nvidia sinon va faire la meme chose dans le pire des cas... (je vais crois a cette partie la pour AMD quand une annonce officiel sera fait (surtout que AMD est deja dans les Cartes HDG au niveau des consoles...)
C'est ce qui me dérange avec les cartes graphiques et l'evolution, et ce pourquoi je peux paraître boomer... Ce qui me derange n'est pas la courbe d'evolution stricto sensus, mais la tournure de l'evolution... Les gammes GTX (600/700/900/1000), etaient des gammes GAMERS, tu veux jouer ? Prends un GTX (ou une radeon r5/r7) Je rappelle la claque qu'est GTA V en graphismes, et que ca tournait en 60 fps ultra 1080p avec une 980/fury X, et au dessus des 60 fps en 2KHD avec une 1080... Elles coûtaient respectivement à leur sorties, 650 balles (600 pour la 80, et 700 pour sa version Ti) Tu veux travailler un peu avec ? Bon, le prix sera legerement plus cher, mais tu profiteras de fonctionnalitées supplémentaires, voici la Titan (X/Z), elles coutaient 1000 balles. Du côté de AMD tu avais la gamme Nano Tu ne veux QUE travailler, voici les gammes Quadro... Des milliers d'euros... Maintenant on se retrouve avec des RTX, qui veulent autant performer en gaming qu'en professionnel, mais du coup, elles ont des lacunes dans les deux cas, le seul moyen d'avoir le top de performances dans ces deux domaines, c'est de faire une 4090... 2000 balles Mais il n'empeche pas que les quadro existent toujours ! Le marché est sans dessus dessous, et n'est plus régulé ! Voila le veritable probleme de cette évolution, faut bien comprendre, que les boomers d'internet, sont ceux qui ont suivit l'évolution des technologies PC, de tres pres, depuis environ 20 ans, et qui ont vécu, la croissance du nombre d'utilisateurs Cette croissance, induit une propension deraisonnable à la tendance, à la hype, à la MASTERCLASS Ces propensions, sont le moteur premium du consumerisme, et de l'evolution désastreuse des marchés informatiques, Aussi le moteur premium des pro-intel, pro-amd, pro-nvidia, pro-apple, pro-samsung, pro-xiaomi, pro-oneplus ! À l'époque, le marché se faisait tenir par les couilles par le consommateur, tel constructeur fait de la merde, pas de soucis on va en voir un autre, y'en a pas d'autre ? On achetera pas point barre, et on va même boycotter un coup histoire de bien faire signifier qu'on est pas des pigeons Voila la très très grosse nuance (exactement pareil pour les consoles, les smartphones etc...)
Pour info, j'ai une 6950XT payé en 2022 à 645€, un r7 5800x payé à 160€, mon PC est un plutot bon moyen/haut de gamme pour le gaming (assure quasi 100 FPS en ultra 3440x1440p sur Cyberpunk) Ma carte mere + ma ram coûtent 260€, mon alim 130€, mon boitier 110€, mes ventilos 65€, ma pate thermique 7€, mon ventirad donné par un ami est le wraith prism RGB de la r7 3600x d'un pote Mon PC a coûté à peine 1500 balles, en succèdent à un GTX 970 avec i5-4570 datant de 2013-2014 Donc j'ai eu l'occasion de me faire un PC performant actuel, sans composant d'occaz, en m'alignant sur le prix que j'aurais mis en 2014 si j'avais opté pour un i7-4790k/gtx980Ti, ou un i7-6700/gtx 1080Ti en 2017 Mon PC avec un ecran 34" 21/9eme, coute 200€ moins cher que la rtx 4090 à elle seule
ne pourrions nous pas nous contenter de la puissance actuelle pendant quelques anneés ? je parle de figer le hardware pendant 2 ans afin de proposer de vrais changements... perso j ai 7950x3d 4090 c est largement suffisant en 4K avec les softs dlss fsr etc....meme si une 5090 pointe le bout de son nez, je ne pense pas la prendre, la pratique des prix nvidia devient dingue, et j ai pourtant fait evoluer mon matos chaque année...
@@telemaq76 je ne joue pas enormement mais quand je joue, je veux profiter pleinement du jeu et de la qualite viisuelle du jeu… par exemple, ma tv est une oled 4k lg en 65 pouces, l image est dingue, mais avec une 1070, je ne ferai pas tourner grand chose… ma 3090 etait deja tres limite sur certains titres… heureusement que le dlss etait là… apres ces 2 ou 3 dernieres annees j ai eu absolument tous les gpu vert et rouge de la 3060ti à la 4090 et de la 6600 à la 7900xtx j ai bcp teste le matos par plaisir… ca m a aussi permis de gagner de l argent bizarement…. alors que normalement on en perd 😅
Je me demande si le changement de stratégie d'AMD va changer les habitudes des consommateurs et des éditeurs de jeux. Les GPU haut de gamme sont loin d'être indispensable pour un utilisateur lambda. Très curieux de voir si AMD va être agressif sur les tarif du milieu de gamme. Y a un autre changement de stratégie aussi chez AMD, c'est l'UDNA qui se rapproche méchamment des CUDA. On est pas vraiment sur une innovation mais sur une copie de la concurrence. J'imagine que l'évolution du hardware rame un peu depuis 5ans parce que la plupart des consommateurs se sont équiper suite à la période covid
Ca ne changera rien pour moi, je suis toujours resté fidèle à Nvidia depuis la première STG-2000, depuis qu'ils existent en fait. Je ne me suis jamais intéressé à ceux que pouvaient bien faire leurs concurrents.
AMD a pris le bon mood, ils ont la meilleure vision, NVIDIA sera obligé de se cantonner à ceux qui recherchent les performances et l'élite, les professionnels, les datacenter, et AMD va adresser le ventre mou, les consoles portables, les consoles de salons, les casque de réalité virtuelle, et croyez moi, c'est la que se trouve l'avenir, surtout l'avenir pour être bien installé dans le Grand public
Mon avis est que si la 8800XT suffit pour faire du 4K 120Hz, AMD ne veut pas investir pour faire des cartes plus puissante. La majorité du parc Ecran/TV est encore en 1080p/1440p et 4k@60 donc pourquoi sortir des produits trop coûteux pour une niche qui va dans la majorité vouloir une 5090. Sans parler des pros qui majoritairement choisissent Nvidia ? Pour moi, c'est pas si déconnant comme façon de voir, après seul les initiés connaissent la raison de cette décision.
En soit ces pas exactement ça AMD n'abandonne pas le HDG ,il reste juste a des tarif plus raisonnable et il ne veulent pas suivre Nvidia et monte dans les 2000 euro . Il s'arrête a 1000 1100€. Max avec des perfs de fou furieux il suffit de regarde la RX7900xtx. Pour 1000€ tu a une 4080 qui valé 1400€ a ça sortie donc bon voilà le pourquoi il faut pas de HDG il font pas de carte pour aller chercher les 4090 à 2000€
Bah on peut dire que t’as Magnifique carte graphique AMD RX 7900XTX édition Starfield a de très bon jour devant lui vue qu’elle restera la carte ultra haute de gamme de sa génération enfin jusqu’à l’arrivée des RX 9000 bien entendu 😄
AMD/AMD Radeon domine le game, c'est pas parce qu'on parle bien plus de NVIDIA (qui ont surtout un meilleur service marketing qu'AMD/AMD Radeonl donc forcément font beaucoup de bruit mais ne font pas tant de chose que cela hormis les GPU NVIDIA grand publique qui ce vendent plutôt bien (et NVIDIA marge de malade dessus ce qui leur permet fe rester en première place du podium dans le segment GPU grand publique). Effectivement tu la enfin mentionné beaucoup oublient qu'AMD/AMD Radeon ont reussi un coup de maître en faisant les consoles de salon en full AMD depuis la Xbox One/PS4 . Ils dominent le game aussi sur console portable (même si les ventes de consoles portables selon les pays ne sont pas forcément incroyables) , ils sont en partenariat avec Apple , avec Samsung et j'en passe . Bref effectivement les gens ne regardent pas forcément les choses sous le bon anlge . Pendant que NVIDIA ce la raconte avec les GPU grand publique et bien AMD/AMD Radeon sont sur tout les front . Et malheureusement on en parle très peu . La passion nous guide donc avec des gens comme moi y'a pas de Pro-AMD ou Pro-Nvidia ou pro-Machin , on aime juste voir l'évolution des choses et nous sommes curieux, ainsi on peut voir des choses incroyables dont la plupart des gens n'ont même pas connaissance. Alors qu'en ce renseignant un tout petit peu et bien faut savoir que depuis qqes années des géant comme AMD/AMD Radeon , Qualcomm , Samsung , Apple/Google et j'en passe font très très peur à NVIDIA et intel (oui faut savoir que sur les 20 dernières années NVIDIA/Intel ce sont toujours tenus la mains , même si les choses commence à changer). Merci pour cette vidéo, la passion (donc la neutralité) , et l'analyse pertinente, je valide à 💯%. (Même si j'en ai un peu marre de répéter en boucle méfiez-vous d'AMD/AMD Radeon ils sont bien plis present qu'on le pense et sont parfois à des endroits qu'on ne soupçonne même pas . D'ailleurs je suis sur que beaucoup ne savent même pas qu'en ce moment même AMD Radeon sont en partenariat avec Apple sur les puces ARM (donc sur les macbook ARM , iPhone , iPad etc etc) , et pareil avec Samsung dont les dernières puces Exynos sont faites avec AMD Radeon donc des puces ARM avec iGP RDNA sans oublié l'AI Engine (intelligence artificielle , qui d'ailleurs est arrivée sur PC avec les Ryzen 8000G/GE/G PRO ... Mais encore une fois personne n'en parle alors que c'est quand même un peu la guerre de l'IA en ce moment dans le monde de la tech. 😉👍
Y'a aussi : Google maintenant qui s'occupe entièrement de la conception de leurs dernières puces ARM , y'a aussi Mediatek qui pour beaucoup de Français est un fabricant peu connu alors que c'est un monstre depuis bien longtemps et sont aussi dans la sauce CPU ARM depuis une bonne dizaine d'années et pareil avec l'IA , Kirin de Huawei aussi même si c'est à moins grande échelle depuis qu'ils ce sont barré de chez nous mais ils ont gardé Honor qui c'est soit disant séparé de Huawei mais en réalité c'est pour continuer de vendre sur nos terres , Qualcomm aussi est en train de frappé de plus en plus fort sachant qu'il n'y à pas si longtemps Qualcomm étaient n°1 sur le secteur des puces ARM et donc équipé 80% de nos smartphones/Tablette et autres laptop équipé de puces en ARM . Plusieurs commencent à visé l'informatique de pointe et veulent rivaliser avec AMD/Intel (c'est le cas de Qualcomm par exemple ou encore de Xiaomi qui certe sous traite avec MTK/Qualcomm) . Mais je m'égare !! 😂 Que la passion vous guide !!
Nvidia qui pèse plus lourd qu'Amd peut maintenant les écraser. C'est comme ça que cela fonctionne chez les entreprises en bourse. Le pognon te permet de faire disparaître la concurrence.
Penser ça c'est très mal connaitre l'industrie Amércaine. Chez eux il y a des lois concernant l'abus de monopole et la concurence, si Nvidia était en mesure de faire disparaitre AMD ça fait longtemps que ce serait fait. Donc pourquoi AMD est toujours présent et continue sans cesse de monter en puissance également ? Microsoft et Intel ont fini en procès face au gouvernement pour ça !
T'as pas bien écouté ou t'as pas compris le but de la vidéo alors, car ici on s'en fiche totalement de qui dépasse quoi. Et les PC haut de gamme concernent 5% du consommateur, à côté de la console qui concerne beaucoup plus d'acheteurs que le PC
Quand je lis des commentaires qui dit que amd est mort ... amd fourni les consoles et les aussi les pc portable . Par contre les fluide motion est pas mauvais mais on en parle pas. Les réponses seront au cse 2025 mais amd veulent des carte bien moin cher que nvidia
Les gpu haut de gamme sont une niche.... Qud les kikoulol auront compris que l expérience de jeu est mieux en 2k/QHD à 165hz/fps à un prix raisonnable que du 4k avec une usine thermonucléaire hors de prix à 60fps voir moins parfois.... AMD est intelligent... Il voit la majorité du parc et les réels besoin. (Cf la majorité des joueurs ds le monde jouent encore en FHD multiscreen, le QHD et 4k sont à 10%). Les pcs loupiots c est pour les gosses et les ado... Perso en tant qu adulte, je préfère un pc discret, sans lumière sans bruit (sans bruit de turbines... Excessive) Puissant, efficace, discret
Vie habiter chez moi lol , internet c'est 80 en don 30 en up ,et au mieux 80 ms de ping , donc jouer en ligne c'est déjà galere. Je vois pas le demat avant la fin de notre civilisation. En gros en débit j'ai 2 gen de retard. Et je reste toujours avec des gros écart.
@@DiscoverID c est justement une partie du problème d Intel maintenant. Tant qu il n ont pas rattraper leurs retard technologique sur tsmc en terme de finesse de gravure notamment, il ne seront pas prioriser . Qualcom et amd sont amèner a prendre la place si ce n est déjà fait . Quand a nvidia , leurs valorisation parle pour eux. À moins que la Chine n essai de récupérer Taïwan par la force, ce qui bouleverserais a nouveaux l échiquier .
AMD qui lâche les GPU haut de gamme ça sent les prix encore plus abusé côté nvidia vu qu'ils auront le monopole
Les gpu haut de gamme sont une niche.... Qud les kikoulol auront compris que l expérience de jeu est mieux en 2k/QHD à 165hz/fps à un prix raisonnable que du 4k avec une usine thermonucléaire hors de prix à 60fps voir moins parfois.... AMD est intelligent... Il voit la majorité du parc et les réels besoin. (Cf la majorité des joueurs ds le monde jouent encore en FHD multiscreen, le QHD et 4k sont à 10%)
Les prix ne sont pas abusé, c'est simplement que les GPU NVIDIA possèdent des technologies supérieurs aux GPU AMD, et aussi des GPU plus performants comme le démontre les benchmarks, donc y'a plus de travaille qui est fournis. Et globalement le prix des GPU augmente avec le coût des matières premières ainsi que l'augmentation du salaire des salariés, que ce soit le salaire de l'ingénieur ou celui du petit ouvrier dans les usines en Chine et à Taïwan.
Ce qui est abuser c'est de vouloir toujours moins chère des produits qui sont fabriquer par des gens qui travaillent plus que toi et qui sont parfois moins bien rémunérés que toi.
@@marvin.toyboy Alors les très vieux avec des textures 800x600 était parfaitement adaptés à leur résolution, , leur technologie et leur époque. C'est upscaling lié à l'augmentation des résolutions qui les rend disgracieux de nos jours. D'autre part, tous les jeux n ont pas besoin d'être réaliste pour être bien et divertissant.... Exemple : Warframe a plus de 10 ans de vie, le jeu tourne sur toutes les machines, toutes les résolutions et le jeu est beaux et rapide..... Le jeu allie performance, technicité, beauté. il y en a pas beaucoup de jeu de cette trempe. Si, les développeurs optimisaient leur texture et leur moteur graphique ont peu se passer de monstre énergivore et couteux.
@@Artax2040 quand les kikoulol comme toi qui ne connaissent rien au développement d'un jeu vidéo et à l'ingénierie, auront compris que si on veut des jeux plus réaliste il faut forcément augmenter le nombres de pixels et donc la résolution, ça fera beaucoup moins de commentaire comme le tiens. Le 60 fps c'est suffisant tant que c'est constant, une fluidité à 165 fps ne va pas améliorer ton expérience de jeu autant que en 4K 60fps (la preuve, si tu prend un très vieux jeu avec des textures fait pour une résolution 800x600, tu verras que peu importe le nombre de FPS, ton expérience de jeu sera moche).
La majorité des joueurs dans le monde jouent en en FHD pour des raisons d'accessibilité.
Si AMD était vraiment plus intelligent que NVIDIA comme tu le dis, leur GPU ne seraient pas moins puissant et leur IA non plus.
Mon 2 cents d'ingénieur logiciel qui crée des jeux vidéo et des algorithmes qu'un cerveau comme le tiens ne pourra jamais crée.
@@Artax2040 Et puis tu continue de parler sans rien connaître à l'ingénierie le kikoulol . Alors non, contrairement à ce que tu dis " C'est upscaling lié à l'augmentation des résolutions qui les rend disgracieux de nos jours" si tu utilise un ancien téléviseur et une ancienne console pour faire tourner un ancien jeu, tu verras que les graphismes c'est pas la folie.
" Si, les développeurs optimisaient leur texture et leur moteur graphique ont peu se passer de monstre énergivore et couteux."
Bon là encore tu ne sais pas de quoi tu parles, n'hésite surtout pas à m'expliquer à moi l'ingénieur qui travaille sur des moteurs et des jeux vidéo, comment on pourrait améliorer tout ça, on t'écoute toi qui n'a jamais rien crée.
Bon visionnage à tous les ID’s !
Perso le changement l’évolution ne fait pas peur et j’espère que j’évoluerai comme tout dans la vie d’ailleurs en parlant d’évolution j’ai remarqué que t’as Magnifique chaîne a évolué en terme de contenu depuis et j’adore sa c’est l’avantage quand on est abonné à t’as chaîne c’est gratuit et sa mange pas de pain XD 👍
je trouve que les changements qui vont peut-être arriver font peur mais a la fois intrigant
Bonjour, entièrement d'accord avec toi bien sûr que les pc ont changé, mon tout premier c'était un MO5 ( oui je n'ai plus 20 ans) puis un TO 7 70, un ordinateur Amstrad et les premiers pc Intel Pentium et par rapport à maintenant ça à bien évolué et tant mieux j'ai hâte de voir ce que le futur nous réserve.
Mdr, tout pareil, même parcours !
J’aime bien ce genre de vidéos un peu talk, chill, avec le montage du pc ça rajoute un p’tit truc sympa aussi
l'intro m'a eu mdrr
Ton développement sur les nouvelles possibilités à la fin était vraiment intéressant. J'ai hâte de voir ce que ça va donner. Super vidéo😊
Salut ID, reste juste à savoir ce que donneras la 8800xt avec l'AFMF 2 & le FSR 3.1 voir 4.0 peut être auras t'on droit à un milieux de gamme équivalent à un haut de gamme ! Si tel est le cas Nvidia devra sortir du très lourd pour garder sa place de leader.
Superbe vidéo comme d'hab ✌️.
Force & Honneur.
Eric.
Bonjour,
Je te rejoins sur l'evolution du hardware, j'ai 45 ans donc je connait bien cela , les gaps ont été a mon sens peut important au départ et les technologies ont évolué a vitesse grand V c'est dernières années et la société de consommation que nous sommes n'arrange rien ( toujours plus ) et avec l'avènement de l'ia notre facon de consommation va changer. Je pense que on arrive a un sommet assez infranchissable côté hardware et que le sofrtware va prendre le dessus d'ici peu . Mais sinon bonne vidéo et je pense énormément comme toi sur plusieurs points .
J’étais vraiment pro nvidia avant et pourtant, il faut admettre que aujourd’hui, sauf si ton but c’est d’avoir le plus gros pc, AMD sont le meilleur choix en terme de rapport qualité perf/prix. Y’a pas un monde (dans le gaming) oû prendre une rtx est justifié si tu n’as pas de budget illimité
Les technos sont bien mieux chez Nvidia en matière de raytracing et puis bon le FSR ça dépanne mais comparé au DLSS…
AMD sera mieux pour la puissance brut mais clairement pas pour le reste
@@TheFirelinuxy les gens joue peu a des jeux solo, justifier une différence de 1ke juste pour du dlss (pr une 4090, une 4080 c'est environ 150/200 en moyenne) pour genre 10/20 (dlss2) fps en plus en 2k (une grande majoriter n'ont pas d'ecran 4k), bon... il faut être fou surtout que la plus part des gens joue a des jeux multi, même s'il joue a des jeux solo, 200e (4080s) et 1ke (4090) de diff n'est pas justifiable. Le DLSS tu va l'utiliser 2fois et après tu l'oublie vite, et puis soyons honnête jusqu'au bout, c'est clairement overkill sauf si t un kéké
@@i_ivory tu te trompe complétement ....ce que tu dis sur le dlss n'as aucun sens car c'est surement la techno la plus utilisé car activé de base sur les jeux actuel pour ceux qui ont une nvidia.... et puis les gens jouent peu avec des cartes amd ... suffit juste de regarder les parts de marché 90 % pour nvidia juste sur les gpu gaming et en boutique on vends quasi plus de gpu amd (10 pc nvidia vs 1 avec un gpu amd)...
@@amocheur9439 C'est pas du tout la même chose mdr, les jeux les plus joués sur PC n'ont pas de rtx/dlss (et s'ils en ont, en ont très peu d'intérêt), fortnite, pubg, warzone, valorant, cs, lol, preuve du contraire, les rtx/dlss n'ont aucune utilité mdr, qui ne sont pas activés par défaut.
+ « DLSS n'a aucun sens ». J'ai dit pas de réel utilisateur, les 3/4 des joueurs jouent à des jeux multi qui n'utilisent ni dlss ni rtx (même s'il en avait, ce ne serait pas utile), il faut être réaliste, payer sa carte plus cher pour autant de fps avec des features que tu vas très rarement utiliser si tu ne joues pas/peu voire très peu à des jeux solo : aucune utilité. Choisir d'AMD pour l'utilisateur moyen, comparer prix/perf est large
Et amd comparer a nvidia n'a sortie des bon produit vraiment quali que tres recement je trouve au niveau des cg, a l'epoque il n'y avais que nvidia (amd etait la mais trop de soucis hardware et software pour que ce soit fiable) donc pour les gens amd = mauvais/instable et ce que veux un gamer c'est justement un truc bon/performant/stable, y'avais que nvidia, ils ont donc reussi a rentrer dans la tete d'un consomateur moyen de, lequel est le mieux entre les deux. Donc au fil des années, nVidia a construit un monopole et AMD essaye de se détacher de cette image mauvaise… sauf que si personne ne prend d'AMD, vous montrez que ce n'est pas parce que la carte vaut plus cher qu'elle est forcément bonne (si tu veux du DLSS/RTX, bien sûr, t'es obligé de passer chez eux, mais bon), faut changer un peu ces préjugés, l'époque où AMD est au plus bas est finie. AMD VS NVIDIA Niveau budget card, c'est AMD ALLDAY, après si on passe sur des high end 4090, oui, c'est sûr que n'importe quelle carte se fait détruire, y a même pas de débat, mais c'est même plus la même utilisation. C'est comme si tu propose du apple vs android, l'utilisateur moyen va prendre dans 90% des cas du apple prc soit il a toujours eu sa, pourquoi il changerais ou alors prc il c'est "fait avoir" par la com sans avoir tester android.
apres tout reviens ensuite a ton utilisation, si tu veux vraiment du dlss/rtx bon fait comme tu veux mais si tu veux des perf AMD sera meilleurs (atm)
@@i_ivory C'est un peu mon taf tu parles de choses que tu ne connais pas déjà niveau gpu ca fait des années qu'on vends quasi rien en amd en boutique et faire une comparaison avec apple et android ca n'a aucun sens à titre d'info android est devant si tu veux par marque samsung est devant apple de 2 % rien à voir avec les gpu gaming nvidia 90 % AMD 8% Intel 2 % on vends quasi quedale en gpu amd en boutique contrairement au cpu et et tu me sort fortnite et warzone ou le dlss est activé par défaut sur le jeu et ou la majorité des joueur l'utilise avec le nvidia reflex ..et je vais pas parler de valorant et de cs ou lol (ca tourne sur des calculatrices) d'ailleurs tout les jeux qui sortent(multi ou pas) on et auront ces techno ...et non si tu veux des perf amd ce n'est certainement pas meilleur tu l'as dit toi même il y a rien devant une 4090 et même si on descend la 4070 super qu'on vends le plus sur le hdg est meilleur qu'une 7800xt en rasté et même mieux qu'une 7900 gre , elle sont quasi au même prix et je parle même pas de la conso et de la stabilité des pilotes , nous on comprends pourquoi amd abandonne le hdg bientôt ils devront donner leurs gpu ....
Salut perso quand je vois l'évolution de la technologie en 20 ans voir plus, je pense comme toi que dans quelques années, on aura des surprises
Il faut du hardware pour faire tourner les algo d'IA ... tu peux mettre 10 coeurs de moins sur ton GPU et à côté devoir rajouter 10 coeurs et autant de conso dans le Neural ou AI core ... A puissance et transistors équivalents je pense qu'on en est encore à la même chose entre puissance GPU seul et GPU + AI. Et lances un jeu sur un MAC en regardant la température ... ça chauffe bien plus qu'un PC gamer et pourtant il consomme 3 à 4 fois moins.
En tant qu'électricien il faut m'expliquer comment tu chauffes plus en consommant moins sur le composant en question. 🤔
@@harrycrotteur-d2u Je parle de chauffe en température, pas d'équivalence Watt. Tu peux aussi bien atteindre 100°C avec 10 Watts, qu'avec 100W. En ce sens c'est à cause du refroidissement qui n'a jamais été amélioré chez Apple. 1 seul caloduc qui regroupe CPU/GPU/mémoire dans un flux d'air plutôt restreint dans la charnière. Rien à voir avec les PCs avec chambre à vapeur 4, 6 caloducs dont certains dédiés au CPU ou GPU. Il y a aussi les tolérances des températures de jonctions, certains fabriquant vont garder une marge plus importante que d'autres pour éviter de trop "throttle". Fin bon, je crois qu'Apple commence à mettre des chambres à vapeur sur ces nouvelles puces donc .. ça arrive ! Mais des MACs pour faire du gaming comme sur un PC c'est pas demain :) C'est pas parce que ça ne fait pas de bruit que ça chauffe pas.
@@cyclo16hacks Ok donc le problème viens plus du dimensionnement du refroidissement en question et non de la baisse de consommation du mac vs PC.
Après la formule de chauffe d'un composant quel qu'il soit est universelle et pas très compliqué (Pj=RI²) c'est la même pour un ordi, un câble ou même une plaque de cuisson.
J'ai jamais eu de Mac aussi c'est pour ça que je posais la question, merci pour ta réponse.
@@harrycrotteur-d2u Oui à refroidissement équivalent à un PC Gamer ne serait-ce que milieu de gamme, le MAC chaufferait bien moins ! Je vois déjà sur le mien, rien de rajouter une plaque en cuivre entre le dissipateur et la carcasse réduit de 10° la chauffe et diminue l'arrivée du throttle. Je suis plutôt en microélectronique mais on passe par les mêmes formules, y a pas de miracle. :D
Je rejoins ton avis je pense même qu'on va devoir faire preuve d'adaptabilité et qu'on va voir des CG devenir des CM, ou tu pourras y changé le cpu ou les bloc de ram. Mais la solution est de tendre vers une sobriété et ce servir de l'IA pour aller dans cette direction et nous aidé à pallier au contrainte physique par des astuces software
Est-ce que tu pourras faire une vidéo ou tu rend visite à t'es abonnés pour voir leurs setups et tu donnes des retours et des améliorations pour les aider à être plus confort ?
J'y pense de plus en plus 😄
L'intro est légendairement lunaire 😂 J'adore ca 💙😁
je trouve ça top qu'il ne fasse pas que parler dans la vidéo
Si on regarde les carte les plus utilisé sur steam c'est les carte de milieu de gamme la RTX 4090 c'est un truc comme 0,4% alors perso je pense qui font le bon choix si il nous sorte une 8700 de malade avec un prix autour de 350/450€ sa serais dingue.
la 3060 en fait mais tous ces illuminés qui croient que la 5090/80 va se vendre en masse, ne connaissent pas la crise
@@thierryx41 J'ai moi même un 3060TI et j'ai toujours eu de 60 dans mon pc.
Non non non il ne faut pas voir les choses comme ça, pour une entreprise de cartes graphiques les particuliers ne représentent qu'une infime partie du chiffre d'affaires et les entreprises (la grosse majorité du marché donc) sont très demandeuse de carte graphique haut de gamme
Je bosse pour un revendeur et je peux vous dire que AMD a un gros problème de taux de retour sur les grosses cartes, on vend 10x + de Nvidia que d'AMD mais on a autant de retour des 2.
Et pour ce qui est de dépasser les 2 ans de garantie et d'espérer une durée de vie de 4-5 ans, c'est pas gagné.
Je pense qu'ils les poussent trop pour essayer de concurrencer Nvidia.
un peu dans le même cas en boutique on vends quasi pas de gpu amd ca doit etre 10 gpu nvidia pour 1 ou 2 gpu amd...
j'ai kiffé la vidéo et c'est vrai que le future c'est quelque chose de passionnant
Ca commence déjà à ce miniaturise avec les samsung qui peuvent faire pc avec le Dex et qu'on peut prendre partout pour le coup
je pense que amd a fait le choix stratégique de surfer sur sa réussite côté console et d'utiliser les retours ps5 pour enfoncer le clou avec les x3d; de plus les concessions des consoles offrent une base de réflexion pour optimiser les gpu d'entré de gamme. Pour moi ça a du sens
En même temps le HDG ne sert pas à grand monde, il faut un écran 4K à +60Hz pour en profiter (moins de 3% des utilisateurs).
Alors que la majorité des joueurs sont en 2K voir 1080p, le moyenne gamme suffit amplement et ça fera peut être baisser les prix pour la majorité des clients en fin de compte.
C'est hors de question de payer un GPU à +500€ pour gagner 10% de perf personnellement.
Hé bien, ça n'annonce rien de bien, en même temps ça ne m'étonne pas quand je vois ce que l'IA détruit sur son passage et les gens qui sont contents d'êtres des fainéants...et désolé d'être vieux dans ma tête (30 ans en vrai), mais je confirme que c'était mieux avant en presque tout, surtout si on continue d'aller vers ce chemin obscur. 😅
L avenir de la puissance passe clairement par l'utilisation massive des IA...on aura une console ou un pc qui aura déjà un bon hardware mais qui seront connectés à des serveurs, à des IA qui évoluent très vite. Donc la puissance de nos consoles augmentera sans avoir besoin de les changer, et sans avoir besoin d attendre une nouvelle génération 7 ans après. Par contre prévoyez déjà l'abonnement..
L'IA est déjà un acteur incontournable pour les jeux, triple A ou non, car même la scène eSport est toujours à la recherche des meilleures performances compétitives. Et c'est pas plus mal car ça pourrait aussi équilibrer les prix de certains composants dans le futur car l'IA pourrait faire le travail et donc avoir des cartes moins chères en termes de prix de fabrication.
Tu peux toujours rêver 😉
Pour information, les 8900 ne devraient pas exister, mais les 9900xtx si.
AMD fait une pause temporaire afin de revenir plus puissant et booster à L'IA.
moins il y a de la concurrence, plus les prix vont encore augmenté ! la fin des GPU accessible à tous
Yo pour moi le hardware vas atteindre des limites physique dans quelques années. Et les moyens d'évolution se feront via l'environnement associé au matériel (dlss fsr logiciel de contrôle...).
Sans oublier que les économies d'énergie vont devenir un sujets de plus en plus présent et que la puissance c'est cool mais on a oublié tout ce qui est optimisation. Les derniers jeu se reposent sur l'upscaling pour avoir des performances décentes c'est pour moi une grosse erreur l'optimisation ne doit pas se faire a la fin de la chaîne de calcul c'est inefficace au possible une amélioration d'un moteur de jeu aura bien plus d'importance (on le fait déjà sur le micro code cpu voir meme jeu d'instruction et architecture) pour moi les dev on un role aussi important que le hardware pour stoper la course a la puissance et se concentrer sur l'efficacité énergétique.
Jai l'impression qua chaque génération amd dit quil arrête le haut de gammes
Perso mon cœur restera chez AMD et NVIDIA mes 2 marques préférées dans l’hardwar excellente vidéo DiscoverID
c'est le meilleur move a faire de toute façon, le hdg represente une niche sur le marché et le meilleure moyen pour amd de forcer les devs à opti un peu plus leurs jeux pour leurs gpu c'est de recuperer des part de marché côté entrée / milieu de gamme, qui represente le gros du parc hardware gaming, quand ils auront recup sa + la confience des consommateur ils pourront ce permettre de refaire des gpu hdg.
par contre si nvidia à aucun concurrent pour rep à leurs gpu hdg sa sent la montée des prix c:
Les prix Nvidia ne baisseront jamais parce que les actionnaires. En tout cas j’ai vendu un bras pour ma rtx 4080, j’en ai un en plus pour la suite des GPU…
Les premiers responsables de ses prix sont les consommateurs pas les actionnaires.
@@haiwa_ oui et non. Tout le monde n’a pas les connaissances pour changer de gpu pas cher tous les 4 matins, tout le monde ne joue pas à des jeux qui sont peu gourmands et bien optimisés, certains ont l’idée en tête de payer une blinde un ordi pour être tranquille quelques années, tout le monde n’a pas la réalité du vrai prix des composants par rapport à ceux vendus. Donc même si tu mets un gpu à 7k ça changera rien , de même si tu mets un gpu trop cher que personne n’achète
Hors sujet mais : ton écran sur la gauche de ton setup est en 4:3 ??
Quel est cet écran ?
Après à quoi sert d'avoir des gros gpu quand je vois ma 3060 ti en FSR3 frame generation, c'est juste abusé les perfs en ayant une superbe image, je pense que si AMD abandonne c'est surtout pour ce focus sur le nécessaire avec le software et la ou il y a le plus de vente bas de gamme, milieu de gamme, avec énormement de perf avec le FSR3 et frame generation, mais la pire des parties reste les devs de jeux vidéos, ils ne sont tout simplement pas assez compétant.
Actuellement on est dans une période où l’avancement des pross. De gravure ralentissent actuellement tsmc a le monopole pour les meilleurs gravures donc ils ont profité pour augmenter les prix. Donc les fabricants compensent la faible augmentation de puissance des cartes par une augmentation des fréquences qui fait exploser les consommations et une partie logiciel ia qui permet un résultat malgré un ralentissement dans la finesse des gravures. Sachant que actuellement les meilleurs gravures sont réservés aux carte pro(ia)chez nvidia mais sont aussi extrêmement chers. Pour moi amd arrête le haut de gamme en cartes graphiques pour réserver les meilleurs gravures à ces futurs puces ia.
Normalement vers 2027 de nouvelles usines auront finis leurs constructions on espère une baisse des prix des puces. Sachant que les autres concurrents rattraperont leurs retards.
Vu que AMD est aussi très fort dans les processeurs avec partie graphique intégré, je me demande si les softwares qu'ils développent pour leurs GPU seront aussi disponible pour les APU, pour les consoles portable, PC portables, minis PC et les config de PC gamer entrée de gamme
À part le cloud (où la puissance est déportée ailleurs), il n’y a absolument aucune raison pour que la taille et les consommations diminuent. Tout n’a fait qu’augmenter ces 40 dernières années (je parle ici des desktops).
Pour les appareils mobiles, les dimensions ont souvent été réduites, mais au prix de concessions en termes de puissance.
Alors oui, bien sûr, on va me parler des puces ARM M1, M2, M3 d’Apple… Ce sont effectivement des puces plus efficaces, mais elles n’en restent pas moins bridées.
Les raisons sont purement physiques, quand vous avez une prise de courant et que vous disposez de 25 fois la puissance d’une batterie, vous avez aussi potentiellement 25 fois la puissance d’un appareil mobile (à génération et architecture comparables, il ne faut pas tout mélanger).
Vous pouvez fantasmer des ordinateurs miniatures ultra-puissants, mais il y aura toujours quelqu’un pour en faire un plus gros, donc plus puissant.
En réalité, vous les avez déjà, vos ordinateurs de poche ultra-puissants. Comparé à un PC d’il y a 30 ans, même le smartphone le plus pourri est un ordinateur de la NASA.
Donc bon, oui, l’IA va apporter ses améliorations, et les nouvelles technologies de semi-conducteurs vont en apporter aussi (substrat en verre, architecture 5.5D et sûrement plein d’autres choses).
Mais la seule véritable limite pour un ordinateur desktop… c’est la prise de courant, 3,7 kW… Espérons ne pas en arriver là.
Si ça peut éviter de lâcher dans la nature des cartes graphiques qui surchauffe
Si AMD ne fait plus de carte graphique normal ou haut de gamme
Sa va être difficile pour les fabricants de console Nintendo Microsoft Sony
Les fabricants de console n'aura pas le choix que de choisir Nvidia ou bien Intel pour mettre dans les consoles des GPU de type ARC
Ou les fabricants de console pourrais fabriquer eux-mêmes leur GPU de fabrication maison
C'est ce que faisait au début les fabricants de console dans la générations 8 - 16 et 32 bits
Et voila le monopole de sony pour la console et NVIDIA pour le pc on est foutu
J aime la vidéo et le sujet... Wait and see... GG
Salut, on dit "rapetisser". Ce verbe est vraiment chelou quand on y pense 😂
Si je me mets du côté de la « majorité », je pense que la taille est un facteur majeur. Sincèrement à la sortie de la ps5/X tout le monde était choqué de la taille. Et en pratique, même la ps5 slim me casse les *** parce qu’elle prend trop de place. Pour les pc c’est pareil. Si demain je peux avoir un pc performant de la taille de mon Sd je signe tout de suite. La vitre avec vue sur ma config c’est marrant 5 minutes mais ça n’apporte rien.
Alors moi j’ai une question peut-être un peu bête, mais je la pose quand même, pourquoi AMD ou NVIDIA ne font pas de console de Salon?
Nvidia ont déjà tentés quelque chose mais sans succès.
Et puis vendre une console n'est pas ce qui rapporte le plus, c'est surtout le fait de vendre des licences et faire payer les éditeurs qui sortent leurs jeux sur les consoles qui rapporte un maximum aux fabriquants.
Donc au final c'est bien plus bénéfique pour ces marques de vendre les composants qui sont intégrés à ces consoles !
AMD qui lache le haut de gamme c’est une tres bonne chose je pense, ca va détruire la niche des flagship et faire baisser le prix de haut de gamme.
Je m’explique : aujourd’hui sur les stats Steam les cartes les plus populaires c’est les 3060(ti) et 4060(ti) (le marketing est tres fort). Si AMD se focus sur des gammes équivalentes aux series xx60 xx70 et arrivent a gratter beaucoup de part de marcher, Nvidia sera obligé d’ajuster leurs tarifs pour rester competitif
Et si le bas de gamme Nvidia baisse, ils seront obligé de faire baisser le prix du haud de gamme : aucun client avec un minimum de jugeote va payé 2x plus pour 20% de perf en plus
JE SUIS CURIEUX MOI AUSSI DE VOIR LE FUTURE ET SUPER VIDEO MERCI
La seule raison de la popularité de AMD cette un peu moins d'une dizaine d'années sur le marché c'est leurs prix. Depuis qu'ils ont repris les mêmes tarifs que Nvidia ou Intel pour les processeurs ils n'ont plus aucun intérêt.
« Mon cœur va à nvidia » ce n’est pas ce que disaient certaines de tes vidéos 😏
salut j'ai 4 ventilos, j'en ai que 1 qui marche et sur ma carte graphique j'en ai 3 mais y'a que celui de droit qui marche le gauche et le droit ne marche pas... aidé moi s'il vous plait
Waooh !!! Salut ben faut que tu nous donne un peu plus de détails si tu veux qu'on t'aide----> tes ventilos sont en top (sur le dessus) sur l'avant ou sur l'arrière mais surtout sont-ils branchés sur un hub ou en direct sur ta carte mère à tu essayé faire fonctionner tes ventilos qui ne fonctionnent pas sur la prise de celui qui fonctionne ? s'ils ne fonctionne pas sur cette prise c'est qu'ils sont HS. Pas de problème pour t'aider mais donne un peu plus de précisions ✌️👍.
Force & Honneur.
Eric.
Demain les consoles et les pc gamer dispareterons. Pour laisser place a juste un écran tout aussi performant. Genre une tv ect
Impossible pour plein de raisons :
- Les gens ont déjà des télévisions/écrans donc ils ne vont pas jeter ce qu'ils ont déjà, et ça les constructeurs le savent bien
- Le but c'est de pouvoir transporter sa console si besoin, une TV c'est pas très transportable.
- Même si c'est plus niche, il y a des personnes qui jouent sur projecteur et donc pas compatible avec cette possibilité.
Il y a d'ailleurs déjà eu des tentatives de ce genre dans d'autres marché mais ça a flop, c'est beaucoup trop restrictif et contrainant !
j'ai pas encoire fini la vidéo mais je donne mon avis. Je pense que c'est à la fois une bonne et une mauvaise idée, si AMD abandonne les GPU HDG, Nvidia aura le champs libre, ce qui veut dire dse prix qui vont monter en fleches, mais en même temps, niveau bas de gamme ou moyenne gamme, AMD aussi aura le champs libre, et si ils se concentre que sur le moyenne gamme et bas de gammes, leurs cartes sera meilleure que toute les autres de la meme gamme, donc si t'as pas beaucoup de budget, tu prends une AMD qui sera la meilleure pour un petit budget, et si t'as un énorme budget, tu prends une Nvidia puisque y'aura que eux dans le HDG (bon y'a aussi Intel mais j'ai entendu dire que leur GPU sont pas top niveau gaming mais j'en sait rien après)
merci pour ta vidéo👍
En vrai a quoi sa sert d'aller plus haut dans le jeu vidéo ? on a de très belle résolution graphiques en 1440 a 140 image sec sa suffit je trouver la 4k en jeu j'en vois pas l'intérêt . par contre dans le pro ça va beaucoup aider j'imagine
Franchement la 4K pour jouer sur PC ca n'a pas d'intérêt si on joue sur moniteur. Et ceux qui jouent avec une TV bah premièrement ils n'exploitent pas le potentiel entier de leur GPU et surtout ils sont très minoritaires.
Un moniteur même de 32 pouces ou 34 pouces n'a pas une densité de pixels suffisant pour qu'on observe une différence avec de la 2K ou de la 4K.
4K pour du cinéma OK
Pour du Jeux, overkill
AMD restera les meilleurs dans tout les cas pour 90% des utilisateurs, la future generation de carte AMD seront plus puissante avec les prix (environ) actuel (on l’espère), donc bon 4080s a la limite ok, mais plus c'est juste overkill surtout sur la prochaine gen
Ce mec je l'aime trop il et simples efficaces il motive beaucoup personne franchement si je gagne un jours sa serrais cool pour moi il donne beaucoup de conseils ect merci a toi gens Michel rgb 🤣
Je viens d’ouvrir ma boite de montage pc j’espère que le futur sera propice à mes activités 😂
Attention ils le disent eux même qu'ils n'ont pas abandonner le haut de gamme mais le ultra haut de gamme. Style 4080/4090, pour ce qui est des 4070 il existera des équivalents.
Bah la 7900 xtx est au niveau de la 4080
@@tsuna4070 ouais mais ça c'est l'actuelle gen, c'est pour les futurs gen qu'ils abandonneront le ultra haut de gamme genre les 8000 9000 etc...
jadore ton contenue continue comme ca je vais me creer un pc pour decembre je pense bonne continuation
Je vois la vidéo avec du retard et pourquoi pas le pc shadow dans les nouveaux type de pc ?
Amd vas simplement viser le segment le plus rentable, il l ont déjà fait par le passé
Tu pourrais nous présenter ton bureau ou tu l'as acheté stp ?
th-cam.com/video/EWJWAF6OrcE/w-d-xo.htmlsi=FsR4ntVtXT063X0q
Nvidia ne fait pas que des mauvais choix. Par exemple, Nvidia qui intervient officiellement pour Linux avec de vrais drivers, AMD ne fait rien de son côté. Nvidia qui intervient littéralement dans la partie framework en aidant avec des technologies propriétaires alors que AMD sort de l'Open-Source mais ne fais rien avec la communauté pour développer sa partie framework et donc bah, personne ne les utilise réellement.
Il y a rien qu'à voir le HIP d'AMD pour les rendus 3D sur Blender et OptiX de Nvidia sur les rendus 3D sur blender. C'est le jour et la nuit car Nvidia est toujours derrière à travailler. AMD est derrière mais très rarement et ça n'incite rien chez les gens de développer le côté Open-Source. Et le FSR 4.0 est un aveux d'échec que j'avais prédis depuis la sortie de FSR 3.0 car le FSR 4.0 sera comme le XeSS. Un "Open-Source" pour n'importe quel GPU et un autre qui sera dédié aux cores IA comme le fait Nvidia et Intel et qui sont tous closed sources car c'est la seule solution pour doubler Nvidia d'un point de vue framework.
Nous avons bien vu la 7900XTX sur Cyberpunk, qui a plus de perf sans RT avec le FSR 3.0 + AFMF que la RTX 4080 avec le DLSS 3.7 + FG. Mais quand tu regardes les décors, l'AFMF bloque les décors à 60FPS mais ton véhicule lui tourne à ton nombre de FPS (il y a une vidéo qui montre le côté dégueulasse de la dernière maj avec 7900XTX et ça fait froid dans le dos)
Même chose dans le monde du portable. Le 7900M qui n'a plus eu de drivers depuis des mois. C'est ridicule sachant que derrière tu officialises le 7800M mais peu de chance qu'il y aura du support. Même les constructeurs de portable tel que MSI, ASUS, Lenovo le disent eux-même que travailler avec AMD dans le monde du portable est dégueulasse et soucis de fiabilité et absence de suivi. L'alienware M18 R1 équipé de son 7900M/7945HX3D en dehors de CERTAINS jeux spécifique, il ne fait guère mieux que mon Scar 18 avec RTX 4080 / i9-14900HX et n'a pas énormément d'innovation avec une dalle IPS-Level pour 3599€ (promo) alors que mon Scar 18 m'a coûté 2849€ (promo), Mini-LED HDR à 240Hz, 4 hauts-parleurs avec Dolby Atmos et j'ai aussi le diming zone. C'est gadget mais ça fait avancer les choses. Les portables AMD n'avancent rien en dehors des Ryzen AI dans le monde du portable.
Et il y a aussi autre chose, c'est que même si AMD monte en flèche de par ses CPU, Intel reste très menaçant pour une simple raison : AMD se concurrence lui-même et se fait lui-même du tort. Pour battre Intel en gaming et en multi-tâche, ils ont dû séparer les Ryzen en deux gammes. Les Ryzen et les Ryzen 3D. Les Ryzen sont fort en multi-tâches mais sont moins fort en gaming. Les Ryzen 3D sont fort en gaming mais sont moins fort en multi-tâches. Sauf que quand on prend le Ryzen 9 9950X sur Geekbench, celui-ci à un gain de score de 21% grâce à l'AVX512. Le Core Ultra 9 285K ne supporte pas l'AVX512 (Intel juge comme de niche) et il bat de 4% le Ryzen 9 9950X sur Geekbench sans l'AVX512 et en gaming, ce sera surement le même truc qu'avec les Ryzen 7. Il faudra attendre les Ryzen 9 9800X3D pour battre le 285K en gaming.
Je rêve de pc puissants et abordables de la taille d'un mac mini !
Je ne crois pas du tout que AMD va abbandonnée les cartes graphiques du justement a la loi contre le monopoles (intel y a environ 20 ans a du donner de l argent a AMD afin que AMD soit encore la pour pas qu 'intel depasse 88% de part de marcher donc surement que nvidia sinon va faire la meme chose dans le pire des cas... (je vais crois a cette partie la pour AMD quand une annonce officiel sera fait (surtout que AMD est deja dans les Cartes HDG au niveau des consoles...)
C'est ce qui me dérange avec les cartes graphiques et l'evolution, et ce pourquoi je peux paraître boomer...
Ce qui me derange n'est pas la courbe d'evolution stricto sensus, mais la tournure de l'evolution...
Les gammes GTX (600/700/900/1000), etaient des gammes GAMERS, tu veux jouer ? Prends un GTX (ou une radeon r5/r7)
Je rappelle la claque qu'est GTA V en graphismes, et que ca tournait en 60 fps ultra 1080p avec une 980/fury X, et au dessus des 60 fps en 2KHD avec une 1080... Elles coûtaient respectivement à leur sorties, 650 balles (600 pour la 80, et 700 pour sa version Ti)
Tu veux travailler un peu avec ? Bon, le prix sera legerement plus cher, mais tu profiteras de fonctionnalitées supplémentaires, voici la Titan (X/Z), elles coutaient 1000 balles. Du côté de AMD tu avais la gamme Nano
Tu ne veux QUE travailler, voici les gammes Quadro... Des milliers d'euros...
Maintenant on se retrouve avec des RTX, qui veulent autant performer en gaming qu'en professionnel, mais du coup, elles ont des lacunes dans les deux cas, le seul moyen d'avoir le top de performances dans ces deux domaines, c'est de faire une 4090... 2000 balles
Mais il n'empeche pas que les quadro existent toujours !
Le marché est sans dessus dessous, et n'est plus régulé !
Voila le veritable probleme de cette évolution, faut bien comprendre, que les boomers d'internet, sont ceux qui ont suivit l'évolution des technologies PC, de tres pres, depuis environ 20 ans, et qui ont vécu, la croissance du nombre d'utilisateurs
Cette croissance, induit une propension deraisonnable à la tendance, à la hype, à la MASTERCLASS
Ces propensions, sont le moteur premium du consumerisme, et de l'evolution désastreuse des marchés informatiques,
Aussi le moteur premium des pro-intel, pro-amd, pro-nvidia, pro-apple, pro-samsung, pro-xiaomi, pro-oneplus !
À l'époque, le marché se faisait tenir par les couilles par le consommateur, tel constructeur fait de la merde, pas de soucis on va en voir un autre, y'en a pas d'autre ? On achetera pas point barre, et on va même boycotter un coup histoire de bien faire signifier qu'on est pas des pigeons
Voila la très très grosse nuance (exactement pareil pour les consoles, les smartphones etc...)
Pour info, j'ai une 6950XT payé en 2022 à 645€, un r7 5800x payé à 160€, mon PC est un plutot bon moyen/haut de gamme pour le gaming (assure quasi 100 FPS en ultra 3440x1440p sur Cyberpunk)
Ma carte mere + ma ram coûtent 260€, mon alim 130€, mon boitier 110€, mes ventilos 65€, ma pate thermique 7€, mon ventirad donné par un ami est le wraith prism RGB de la r7 3600x d'un pote
Mon PC a coûté à peine 1500 balles, en succèdent à un GTX 970 avec i5-4570 datant de 2013-2014
Donc j'ai eu l'occasion de me faire un PC performant actuel, sans composant d'occaz, en m'alignant sur le prix que j'aurais mis en 2014 si j'avais opté pour un i7-4790k/gtx980Ti, ou un i7-6700/gtx 1080Ti en 2017
Mon PC avec un ecran 34" 21/9eme, coute 200€ moins cher que la rtx 4090 à elle seule
Salut, quelqu’un a la référence du premier boîtier à 0:57 ?
Corsair 2500D Ariflow
salut disco et les autres, je pense que s'ils font sa, NVIDIA niveau tarif sa va etre open bar ! et sa serai dommage pour AMD qui niveau CG sont top !
ne pourrions nous pas nous contenter de la puissance actuelle pendant quelques anneés ?
je parle de figer le hardware pendant 2 ans afin de proposer de vrais changements...
perso j ai 7950x3d 4090 c est largement suffisant en 4K avec les softs dlss fsr etc....meme si une 5090 pointe le bout de son nez, je ne pense pas la prendre, la pratique des prix nvidia devient dingue, et j ai pourtant fait evoluer mon matos chaque année...
Rien t empêche d attendre 6 ou 7 ans pour changer. Perso je suis passé d une 1070 à une 4070ti. Pas besoin de changer tous les ans
@@telemaq76 je ne joue pas enormement
mais quand je joue, je veux profiter pleinement du jeu et de la qualite viisuelle du jeu…
par exemple, ma tv est une oled 4k lg en 65 pouces, l image est dingue, mais avec une 1070,
je ne ferai pas tourner grand chose…
ma 3090 etait deja tres limite sur certains titres… heureusement que le dlss etait là…
apres ces 2 ou 3 dernieres annees j ai eu absolument tous les gpu vert et rouge
de la 3060ti à la 4090
et de la 6600 à la 7900xtx
j ai bcp teste le matos par plaisir…
ca m a aussi permis de gagner de l argent bizarement…. alors que normalement on en perd 😅
Slt amd. Ce concentre sur le milieu de gamme car il en vende beaucoup plus que leur gpu haute gamme et ce concentre sur les techno .
La ref du premier boîtier ?
*j'ai la haine contre INTEL, ils ont fait des processeurs défectueux et ont réagi que seulement récemment !!!*
Ne t’en fait pas, tu n’auras pas le temps de connaître les fameux changements que tu cites.
Peut-être qu'AMD a mieux compris le marché et les vrais besoins des gamers. Ma 7900 GRE ne m'a jamais déçu sur aucun jeu, je suis comblé!
Je me demande si le changement de stratégie d'AMD va changer les habitudes des consommateurs et des éditeurs de jeux.
Les GPU haut de gamme sont loin d'être indispensable pour un utilisateur lambda. Très curieux de voir si AMD va être agressif sur les tarif du milieu de gamme.
Y a un autre changement de stratégie aussi chez AMD, c'est l'UDNA qui se rapproche méchamment des CUDA. On est pas vraiment sur une innovation mais sur une copie de la concurrence.
J'imagine que l'évolution du hardware rame un peu depuis 5ans parce que la plupart des consommateurs se sont équiper suite à la période covid
Ca ne changera rien pour moi, je suis toujours resté fidèle à Nvidia depuis la première STG-2000, depuis qu'ils existent en fait. Je ne me suis jamais intéressé à ceux que pouvaient bien faire leurs concurrents.
Je vois bien un truc de la taille d'un steam deck puissant et utilisable en pro j'espère que je pourrais voir ca
AMD a pris le bon mood, ils ont la meilleure vision, NVIDIA sera obligé de se cantonner à ceux qui recherchent les performances et l'élite, les professionnels, les datacenter, et AMD va adresser le ventre mou, les consoles portables, les consoles de salons, les casque de réalité virtuelle, et croyez moi, c'est la que se trouve l'avenir, surtout l'avenir pour être bien installé dans le Grand public
Dommage que le marché des particuliers représente une infime partie du marché global
@@P1ayer_one quand tu dis particulier tu veux parler de qui?
en soit AMD ont d'exellent GPU et je peut vous dire si il focus les gpu pas cher attendez vous a des pépite
Mon avis est que si la 8800XT suffit pour faire du 4K 120Hz, AMD ne veut pas investir pour faire des cartes plus puissante.
La majorité du parc Ecran/TV est encore en 1080p/1440p et 4k@60 donc pourquoi sortir des produits trop coûteux pour une niche qui va dans la majorité vouloir une 5090. Sans parler des pros qui majoritairement choisissent Nvidia ?
Pour moi, c'est pas si déconnant comme façon de voir, après seul les initiés connaissent la raison de cette décision.
En soit ces pas exactement ça AMD n'abandonne pas le HDG ,il reste juste a des tarif plus raisonnable et il ne veulent pas suivre Nvidia et monte dans les 2000 euro . Il s'arrête a 1000 1100€. Max avec des perfs de fou furieux il suffit de regarde la RX7900xtx. Pour 1000€ tu a une 4080 qui valé 1400€ a ça sortie donc bon voilà le pourquoi il faut pas de HDG il font pas de carte pour aller chercher les 4090 à 2000€
Bah on peut dire que t’as Magnifique carte graphique AMD RX 7900XTX édition Starfield a de très bon jour devant lui vue qu’elle restera la carte ultra haute de gamme de sa génération enfin jusqu’à l’arrivée des RX 9000 bien entendu 😄
Il est à vendre le pc ?
AMD/AMD Radeon domine le game, c'est pas parce qu'on parle bien plus de NVIDIA (qui ont surtout un meilleur service marketing qu'AMD/AMD Radeonl donc forcément font beaucoup de bruit mais ne font pas tant de chose que cela hormis les GPU NVIDIA grand publique qui ce vendent plutôt bien (et NVIDIA marge de malade dessus ce qui leur permet fe rester en première place du podium dans le segment GPU grand publique).
Effectivement tu la enfin mentionné beaucoup oublient qu'AMD/AMD Radeon ont reussi un coup de maître en faisant les consoles de salon en full AMD depuis la Xbox One/PS4 . Ils dominent le game aussi sur console portable (même si les ventes de consoles portables selon les pays ne sont pas forcément incroyables) , ils sont en partenariat avec Apple , avec Samsung et j'en passe . Bref effectivement les gens ne regardent pas forcément les choses sous le bon anlge . Pendant que NVIDIA ce la raconte avec les GPU grand publique et bien AMD/AMD Radeon sont sur tout les front . Et malheureusement on en parle très peu .
La passion nous guide donc avec des gens comme moi y'a pas de Pro-AMD ou Pro-Nvidia ou pro-Machin , on aime juste voir l'évolution des choses et nous sommes curieux, ainsi on peut voir des choses incroyables dont la plupart des gens n'ont même pas connaissance. Alors qu'en ce renseignant un tout petit peu et bien faut savoir que depuis qqes années des géant comme AMD/AMD Radeon , Qualcomm , Samsung , Apple/Google et j'en passe font très très peur à NVIDIA et intel (oui faut savoir que sur les 20 dernières années NVIDIA/Intel ce sont toujours tenus la mains , même si les choses commence à changer).
Merci pour cette vidéo, la passion (donc la neutralité) , et l'analyse pertinente, je valide à 💯%.
(Même si j'en ai un peu marre de répéter en boucle méfiez-vous d'AMD/AMD Radeon ils sont bien plis present qu'on le pense et sont parfois à des endroits qu'on ne soupçonne même pas . D'ailleurs je suis sur que beaucoup ne savent même pas qu'en ce moment même AMD Radeon sont en partenariat avec Apple sur les puces ARM (donc sur les macbook ARM , iPhone , iPad etc etc) , et pareil avec Samsung dont les dernières puces Exynos sont faites avec AMD Radeon donc des puces ARM avec iGP RDNA sans oublié l'AI Engine (intelligence artificielle , qui d'ailleurs est arrivée sur PC avec les Ryzen 8000G/GE/G PRO ... Mais encore une fois personne n'en parle alors que c'est quand même un peu la guerre de l'IA en ce moment dans le monde de la tech.
😉👍
Y'a aussi : Google maintenant qui s'occupe entièrement de la conception de leurs dernières puces ARM , y'a aussi Mediatek qui pour beaucoup de Français est un fabricant peu connu alors que c'est un monstre depuis bien longtemps et sont aussi dans la sauce CPU ARM depuis une bonne dizaine d'années et pareil avec l'IA , Kirin de Huawei aussi même si c'est à moins grande échelle depuis qu'ils ce sont barré de chez nous mais ils ont gardé Honor qui c'est soit disant séparé de Huawei mais en réalité c'est pour continuer de vendre sur nos terres , Qualcomm aussi est en train de frappé de plus en plus fort sachant qu'il n'y à pas si longtemps Qualcomm étaient n°1 sur le secteur des puces ARM et donc équipé 80% de nos smartphones/Tablette et autres laptop équipé de puces en ARM . Plusieurs commencent à visé l'informatique de pointe et veulent rivaliser avec AMD/Intel (c'est le cas de Qualcomm par exemple ou encore de Xiaomi qui certe sous traite avec MTK/Qualcomm) . Mais je m'égare !! 😂
Que la passion vous guide !!
Pourtant la 8800xt sera intéressante tout de même
Courez achetés des actions nvidia 🎉c est le jackpot 🎉🎉🎉
Les PC portable ARM ça commence a arriver pour moi le future des pc portable se seras full ARM bien sur quand la tecno sera plus avancer
La notif discord arrive avant la notif TH-cam 😂😂😂😂
salut tous le monde
par contre les prix changeront pas en on aura un jeu cree par ia ... aucune fierte d avoir son pc fais a sa sauce et son budget une page ce tourne oui
Nvidia qui pèse plus lourd qu'Amd peut maintenant les écraser. C'est comme ça que cela fonctionne chez les entreprises en bourse. Le pognon te permet de faire disparaître la concurrence.
Penser ça c'est très mal connaitre l'industrie Amércaine.
Chez eux il y a des lois concernant l'abus de monopole et la concurence, si Nvidia était en mesure de faire disparaitre AMD ça fait longtemps que ce serait fait. Donc pourquoi AMD est toujours présent et continue sans cesse de monter en puissance également ?
Microsoft et Intel ont fini en procès face au gouvernement pour ça !
Les PC haut de gamme pour les joueurs surpassent les consoles, donc je n'ai pas compris les propos.
T'as pas bien écouté ou t'as pas compris le but de la vidéo alors, car ici on s'en fiche totalement de qui dépasse quoi.
Et les PC haut de gamme concernent 5% du consommateur, à côté de la console qui concerne beaucoup plus d'acheteurs que le PC
Quand je lis des commentaires qui dit que amd est mort ... amd fourni les consoles et les aussi les pc portable . Par contre les fluide motion est pas mauvais mais on en parle pas.
Les réponses seront au cse 2025 mais amd veulent des carte bien moin cher que nvidia
Les gpu haut de gamme sont une niche.... Qud les kikoulol auront compris que l expérience de jeu est mieux en 2k/QHD à 165hz/fps à un prix raisonnable que du 4k avec une usine thermonucléaire hors de prix à 60fps voir moins parfois.... AMD est intelligent... Il voit la majorité du parc et les réels besoin. (Cf la majorité des joueurs ds le monde jouent encore en FHD multiscreen, le QHD et 4k sont à 10%). Les pcs loupiots c est pour les gosses et les ado... Perso en tant qu adulte, je préfère un pc discret, sans lumière sans bruit (sans bruit de turbines... Excessive) Puissant, efficace, discret
Misère .... ce n`est pas une question d`adulte où non, c`est juste une question de goût .
Chacun ses choix 😏
Rapetissir c'est une drôle de variante :D
Sa existe déjà des PCS pro qui se dock.
Musique d'undertale 👍
Les meilleures 🥰
Vie habiter chez moi lol , internet c'est 80 en don 30 en up ,et au mieux 80 ms de ping , donc jouer en ligne c'est déjà galere.
Je vois pas le demat avant la fin de notre civilisation. En gros en débit j'ai 2 gen de retard. Et je reste toujours avec des gros écart.
Intel est fondeur alors qu amd ne l est pas et du coup ça change beaucoup de chose entre les deux économiquement parlant.
Les fonderies d'Intel ne tournent pas comme ils le voudraient, le gouvernement américain tente même d'inciter les autres à produire chez Intel.
@@DiscoverID c est justement une partie du problème d Intel maintenant. Tant qu il n ont pas rattraper leurs retard technologique sur tsmc en terme de finesse de gravure notamment, il ne seront pas prioriser . Qualcom et amd sont amèner a prendre la place si ce n est déjà fait . Quand a nvidia , leurs valorisation parle pour eux. À moins que la Chine n essai de récupérer Taïwan par la force, ce qui bouleverserais a nouveaux l échiquier .
super vidéo