Voici comment utiliser GRATUITEMENT Bolt avec l'I.A. de votre choix

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 พ.ย. 2024

ความคิดเห็น •

  • @MsBowner
    @MsBowner 3 วันที่ผ่านมา +2

    Incroyable mec, je suis dev, je n'ai aucun intérêt, mais c'est tout de meme incroyable ce que tu nous présente.

    • @Baraka0369
      @Baraka0369 3 วันที่ผ่านมา +1

      T’as tout intérêt justement
      Si tu loupes ça tu seras finies dans qlq années

  • @happyjulien6275
    @happyjulien6275 2 วันที่ผ่านมา +1

    Franchement énorme merci à toi frère tu mérites bien plus d'abonnés

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +1

      Merci Julien 😀 !
      Le nombre d'abonnés dépend de l'exposition que m'accorde l'algo de TH-cam. Et je n'ai pas la main dessus.
      On vit déjà dans un monde où les algo décident de beaucoup de choses 😅

  • @vahdettint
    @vahdettint 3 วันที่ผ่านมา +2

    Excellente découverte à suivre 😮🎉

    • @codeconcept
      @codeconcept  3 วันที่ผ่านมา +2

      Ca a l'air prometteur, surtout si le gars continue sur sa lancée.
      Il risque même ... de se faire recruter par Stackblitz 😋

  • @henochcamer3765
    @henochcamer3765 3 วันที่ผ่านมา +4

    Merci pour l’info. Et effectivement j’ai l’impression que les non dev sont un peu les vaches à lait de ce type de nouveaux outils all-in-one…mais ça reste intéressant de voir ce qu’ils arrivent à produire avec.

    • @codeconcept
      @codeconcept  3 วันที่ผ่านมา

      J'aime beaucoup tout ce qu'ils font chez Stackblitz. Vue la qualité de tout ce qu'ils ont sorti avant, il y a de très grandes chances qu'ils corrigent cette tendance de Bolt à tourner en rond sans fin dans certaines circonstances. C'est ce qu'il y a de plus frustrant pour le moment. Et qui coûte cher aux non-dev qui dependent du bouton 'fix problem' qui leur consomme leurs tokens. Mais en 2025, ce Bolt peut devenir bien meilleur et beaucoup moins coûteux. Et donc effectivement, intéressant pour les non devs qui pourront concrétiser sans se ruiner.

  • @patrickdarbeau1301
    @patrickdarbeau1301 ชั่วโมงที่ผ่านมา +1

    Suite...
    Les clefs, c'est dans .env ou .env.local qu'il faut les mettre ? Merci pour la réponse

    • @codeconcept
      @codeconcept  56 นาทีที่ผ่านมา

      Il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local

  • @kratus60
    @kratus60 7 ชั่วโมงที่ผ่านมา

    Merci pour le partage, c'est très intéressant, j'ai vite arrêté bolt c'est beaucoup trop limitant quand on est déjà dev. Par contre bosser sur un projet existant avec alors là !!!! 🔥

  • @sebastienrodriguez2491
    @sebastienrodriguez2491 2 วันที่ผ่านมา +3

    Tout de même compliqué à suivre pour des néophites. En tout cas très intéressant de savoir que cela est possible , ne serait ce que pour se tenir au courant 👍

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +2

      Merci 😀
      C'est un peu comme pour les réseaux il a 20 ans : au départ, je me souviens que je devais expliquer aux entreprises clientes chez qui j'allais comment configurer leur carte réseau, partager une imprimante, relancer un service etc et maintenant c'est passé dans l'univers quotidien.
      Dans 10 ans, le marketing aidant, tout le monde saura quel modèle d'IA est utilise au boulot ou à la maison, combien de paramètres a leur I.A, la taille du contexte etc.
      D'autant qu'on aura le temps de se renseigner si les I.A bossent à notre place 😅

  • @ThePrimeTech
    @ThePrimeTech 2 วันที่ผ่านมา +2

    Elle est géniale ta chaîne

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      Merci😀 Une petite chaine faite dans sa chambre. A l'ancienne 😄

  • @TheRemiRODRIGUES
    @TheRemiRODRIGUES 3 วันที่ผ่านมา +3

    C'est intéressant de savoir que le code de Bolt est open source.
    Ce qui peut-être intéressant, c'est de voir les idées qu'ils ont mis en oeuvre pour générer de façon autonomes des applications.
    Je ne sais pas où en est AutoGPT, si ce n'est qu'ils 169k starts.
    Mais c'est aussi open source, et ça peut-être intéressant aussi de savoir qu'elles sont les paradigmes utilisés pour réaliser des agents autonomes, comprendre qu'elles sont actuellement leurs limites et tenté de réfléchir à des solutions.

    • @codeconcept
      @codeconcept  3 วันที่ผ่านมา +4

      C'est le genre de questions qu'il faudrait que je pose, à l'occasion d'un épisode 2 de podcast, à l'expert en I.A. qui était venu ici.
      Ca me fait penser que je n'ai même pas mis d'étoile au fork de bolt.
      C'est fait 😀

  • @abelpouillet5114
    @abelpouillet5114 วันที่ผ่านมา +1

    Du coup on attend une vidéo sur la gestion d'un egpu par cuda pour setup une démo de ce projet en local ?

  • @dservais1
    @dservais1 3 วันที่ผ่านมา +2

    très intéressant merci !

  • @alexandrequemy
    @alexandrequemy 3 วันที่ผ่านมา +3

    En plus de cout du GPU, il faut prendre en compte le cout de l'electricite. Pour les gros modeles, ca peut vraiment mettre a mal le portefeuille sur le long terme (typiquement, on peut taper facilement le 1kWh).

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      @alexandrequemy Je viens de lire plus bas un retour d'utilisation de 500 à 1000 € annuel. Ca devient un budget de loisir. Et avec l'augmentation de l'électricité, d'un loisir motorisé 😄

  • @ibrahimwess8511
    @ibrahimwess8511 3 วันที่ผ่านมา +2

    Super merci pour l'astuce

  • @randomvideo4461
    @randomvideo4461 3 วันที่ผ่านมา +10

    Bolt en local avec des gpu, voilà vous avez recruté un stagiaire

    • @codeconcept
      @codeconcept  3 วันที่ผ่านมา +1

      Un sacré assistant en puissance, quand il sera en version finale.
      J'espère que les stagiaires continueront à trouver des stages. Car rien de tel pour se frotter au bord... aux applications grandeur nature 😄

    • @pepeleherisson
      @pepeleherisson 3 วันที่ผ่านมา +3

      @@codeconcept il faut recruté un stagiaire pour gérer Bolt c'est ça la vraie combo gagnante!

    • @happyjulien6275
      @happyjulien6275 2 วันที่ผ่านมา +3

      Ne sous-estimé pas les stagiaires

  • @abdellahb1398
    @abdellahb1398 วันที่ผ่านมา

    C'est parfait , ca pourrait marcher avec un autre modèle d'IA que celui par défaut et du coup ca mettrait en concurrence les sociétés d'IA. Si j'ai pas de grosse carte graphique tu crois que je pourrai trouver une API moins chère que celle de Bolt ?

  • @TimBnb
    @TimBnb 3 วันที่ผ่านมา +1

    Super contenu ! Est-ce que le preview s’affiche à côté du codage comme pour l’interface Bolt classique ?
    Je veux dire par-là d’avoir un aperçu d’exécution du code en temps réel

    • @6tokyt468
      @6tokyt468 2 วันที่ผ่านมา +2

      Oui si vous utilisez un modèle avec au minimum 16/32K de contexte, en dessous, n'y pensez pas, Bolt (à l'heure actuelle) est hyper gourmand, pour gérer le mode "Canvas", il l'est encore plus.

  • @malekmalek4536
    @malekmalek4536 3 วันที่ผ่านมา +2

    merci pour la video ❤❤❤❤❤❤❤❤

  • @adrienwebdesign
    @adrienwebdesign 2 วันที่ผ่านมา +1

    Hello ! Merci pour ta vidéo. Avec un MacBook m3 pro , on peut le faire tourner en local ? Je parle de la version de stackblitz pas celle où on peut changer les IA

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      Hello et merci à toi 😀 Vu les retours d'expérience que j'ai lu dans les commentaires, il faut vraiment avec une grosse config. Et plusieurs GPUs. Même dans ces conditions, ça sera moins fluide que la version en ligne.
      Si en revanche en 2025 de nouveaux petits modèles dédiés au code sortent, là, ça pourra devenir intéressant en local. Qeu ce soit le projet originel ou le fork.

  • @LaurentBrugiere
    @LaurentBrugiere 3 วันที่ผ่านมา +15

    Merci pour cette vidéo.
    Bolt est une catastrophe.
    Effectivement, après l'effet Wow, et payé un abonnement, la frustration et la colère arrive très vite tant bolt est incapable de gérer correctement un projet plus long qu'une seule page.
    Il est incapable de corriger des erreurs.
    Il est feneant, on modifiant le code avec des mentions du type // ici le code précédent //
    Il fige trop souvent, ce qui oblige a cliquer sur retry... Et de bouffer du token.
    Pour moi, la question est vite répondue :
    Juste bon à créer une interface front simple.
    J'annule mon abonnement.

    • @evian8976
      @evian8976 3 วันที่ผ่านมา +4

      Toujours la même chose avec ces outils malheureusement
      aider-chat c'est pas trop mal en comparaison, on me dit qu'il faut peut être travailler plus les prompts mais à partir de là autant coder manuellement quoi

    • @werty999
      @werty999 2 วันที่ผ่านมา +3

      je confirme, pour un usage basique , il n impressionne que les non initiés , des que l'on gratte sur un projet un chouia complexe , il ne fait que tourner en boucle sur ses propres erreurs et paradoxalement se met à bouffer voracement vos tokens sur des erreurs que lui même à génère.

  • @mrskeud
    @mrskeud 2 วันที่ผ่านมา +1

    Bonjour et merci pour cette vidéo très instructive. J'ai une question de noob. Est-ce que les processeurs ARM (M4 Max en l'occurence) sont capables de faire tourner ces IA en locale ? Merci +++

    • @bourgogneguillaume
      @bourgogneguillaume 2 วันที่ผ่านมา +1

      essaye lm studio

    • @6tokyt468
      @6tokyt468 2 วันที่ผ่านมา +1

      Un M4 fera tourner des modèles comme Qwen 2.5 32P 4Q (classe basse/moyenne) mais avec une vitesse de 11-12 tokens seulement par seconde, ce qui est extrêmement lent.
      Pour vous donner un ordre de grandeur, ce même modèle sur mon architecture atteint environ 38 tokens par seconde avec Ollama et environ 28 tokens par seconde avec LMStudio, et je peux vous assurer que c'est déjà très long !
      Si l'IA vous intéresse et que vous n'êtes pas dans l'urgence, je vous conseille d'attendre les prochaines générations pour investir dans une unité performante.

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      @mrskeud 😀Des machines plus puissantes, de plus petits modèles très spécialisés : c'est probablement ce qui va faciliter l'utilisation de modèles en local. Et la patience effet.

  • @stephanepaz2259
    @stephanepaz2259 2 วันที่ผ่านมา +1

    Merci pour la vidéo! Tu n'as pas parlé de l'hébergement sur serveur plutot qu'en local , c'est pas une bonne méthode ?

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      Merci 😀 C'est vrai que ce serait possible d'héberger sur un serveur.
      Je viens de faire une petite recherche google, il y a déjà plein d'hébergeurs qui proposent des "cloud GPU". Est-ce qu'il est possible de s'en servir pour héberger un projet et pas uniquement d'entrainer des modèles ? J'ai pas encore creusé dans cette direction. Mais c'est tentant :)

    • @Bannideserps
      @Bannideserps วันที่ผ่านมา

      ​@@codeconcept Tu peux héberger ton llm sur hugging face ou replicate , pour tester cela fonctionne très bien .

  • @patrickdarbeau1301
    @patrickdarbeau1301 23 นาทีที่ผ่านมา

    Bonjour, j'ai installé l'appli tout comme il est dit, seulement le serveur se lance, mais j'ai le message d'erreur suivant :
    Unexpected Server Error
    TypeError: Cannot read properties of null (reading 'useEffect')
    Que signifie ce message et que faire?
    Merci de votre réponse

  • @Madum_tv
    @Madum_tv วันที่ผ่านมา +2

    J'ai installé bolt comme indiqué, j'ai mis la clef anthropic mais il dit que je n'ai pas de token....

    • @codeconcept
      @codeconcept  53 นาทีที่ผ่านมา

      Je l'avais pas précisé dans la vidéo, mais il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local

  • @lariost5683
    @lariost5683 2 วันที่ผ่านมา +1

    Je vois qu'il y a dans la liste des LLMs proposés Ollama, comme Ollama fait tourner des modèles sur le CPU, est-il possible de faire tourner ce fork avec un LLM qui tournerait uniquement sur un CPU, est-ce que Bolt est trop exigeant pour que ça soit utilisable de la sorte ? A priori on peut penser que c'est plutôt consommateur si le type qui l'a forké dit qu'il le fait tourner avec 2 GPU, mais je serai curieux de voir ce que ça donne quand même.

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +1

      @lariost5683 Il y aura de plus en plus de retours d'expériences en commentaires. Mais probablement uniquement de testeurs qui ont de grosses config (ce qui n'est hélas pas mon cas).
      Avec ollama en effet, il est possible de faire tourner un LLM gratuit en local. Mais c'est le LLM qui va exiger beaucoup de resources (et un peu d'espace disque quand même). Bolt en lui-même n'est qu'une application web assez standard : ça n'est pas lui qui mettra l'ordinateur à genoux 😀

    • @Bannideserps
      @Bannideserps วันที่ผ่านมา

      @@codeconcept On parle beaucoup de GPU , mais il ne faut surtout pas négliger la Vram très important , celons les config avec 8 Go Vram tu est vite limité au niveau du tampon de calcul du GPU , il faut les 2 : GPU et un max de Vram .

  • @RémiMorichon
    @RémiMorichon 3 วันที่ผ่านมา +3

    Est-il possible de faire un tutoriel détaillé pour tous les non développeur ?
    Car je nai pas tout compris 😢

    • @tesdy1450
      @tesdy1450 3 วันที่ผ่านมา +3

      @@RémiMorichon en vrai, le tuto est déjà dans la vidéo, "gît clone" et tu as le projet sur ton Pc. Mais cela t'offrira que la vue avec le prompt, si tu as un abonnement a un des LLM, tu as juste a copie ta clé API dans le .env et utiliser le prompt.
      Je t'invite à lire le commentaire de 6tokyt468, ça va sûrement te couper l'envie ;)
      Ce n'est pas encore au point pour résumer

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +2

      @RémiMorichon Je ferai un tuto plus détaillé qui montrer comment installer les outils (git, l'IDE ...) 😉
      @tesdy1450 Il faut en effet une grosse config avec quelques GPUs ... ou bien un père noël (très très) généreux 😄

  • @Talaria.School
    @Talaria.School 3 วันที่ผ่านมา +2

  • @Bannideserps
    @Bannideserps 2 วันที่ผ่านมา +4

    Pour lînstall bolt en local en un click Pinokio computer pour les non initiée

    • @Ludovic.Teouri.988
      @Ludovic.Teouri.988 2 วันที่ผ่านมา

      Mais du coup en local ça fonctionne toujours aussi bien qu'en ligne ou pas ? Ça fait 2 semaines je l'utilise et c'est vrai qu'il a du mal avec quelques trucs dès qu'on lui demande trop...

    • @Bannideserps
      @Bannideserps วันที่ผ่านมา +1

      @@Ludovic.Teouri.988 J'utilise en local avec une 3080 j'ai pas moyen de comparer je n'utilise pas en online . Oui il commence avoir du mal après 2K de ligne de code j'ai remarquer du moins chez moi , Si tu n'as aucune notion de Dev pour un gros projet il faut absolument apprendre a segmenter pour le réaliser , fonction ,class , ect .. et donc bien le notifier dans tes prompts .

    • @willspaint5733
      @willspaint5733 วันที่ผ่านมา

      je viens de mettre Pinokio bolt ce mais mais il reponds pas au demande api il maisune erreur There was an error processing your request: No details were returned

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +1

      @Ludovic.Teouri.988 Bolt est encore en beta. Mais on peut compter sur Stackblitz pour l'améliorer rapidement.

    • @scoremi
      @scoremi วันที่ผ่านมา

      Salut sais tu pourquoi la preview avec pinokio pose problème une fois le code généré ?

  • @Madum_tv
    @Madum_tv วันที่ผ่านมา +1

    mon pc windows ne reconnait pas la commande npm run dev avec vsc

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +1

      J'ai npm car j'avais déjà installé Node dans le passé. Et comme npm est installé en même temps que node :
      nodejs.org/en/download/package-manager
      J'ai aussi installé pnpm, qui est plus rapide pour l'installation de packages.

  • @PhunkyBob
    @PhunkyBob วันที่ผ่านมา +2

    Je ne comprends pas pourquoi il faut une "grosse machine" pour faire tourner l'application, alors que ce n'est qu'une interface qui fait appel à des IA distantes...

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +2

      @PhunkyBob Il faut une machine très puissante pour faire tourner les LLMs en local. Sinon, en utilisant une API distante, un ordinateur de base suffit amplement. Mais à ce moment là, il faudra payer un abonnement.

    • @Madum_tv
      @Madum_tv วันที่ผ่านมา

      @@codeconcept je ne vois pas comment l'utiliser sans abonnement

  • @nc1246
    @nc1246 วันที่ผ่านมา

    S'il y a un tuto pour utiliser ça gratuitement je veux absolument

  • @bones.24
    @bones.24 วันที่ผ่านมา +2

    Comment est-ce gratuit alors qu’on doit mettre une API key?

    • @Zard418
      @Zard418 วันที่ผ่านมา

      réel réel !!!

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      En n'utilisant pas d'API key et en utilisant plutôt en local un LLM gratuit. Par exemple avec ollama, il suffit de faire un : ollama run [nom-de-modèle].
      Mais il faut avoir une bonne machine et être un peu patient car les réponses vont être plus lentes que sur les serveurs de Stackblitz.

    • @bones.24
      @bones.24 วันที่ผ่านมา

      @ en effet, mais qu’en est-il des autres LLM, Claude sonnet est plus optimisé pour crée des applications.

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      @bones.24 L'auteur du fork de Bolt est emballé par Qwen-2.5-Coder-32b pour le dev. Mais de nouveau, va falloir avoir la machine qui suit

    • @bones.24
      @bones.24 วันที่ผ่านมา

      @ bien reçu

  • @theeagle450
    @theeagle450 วันที่ผ่านมา +1

    Désolé je pige rien a ce que tu fais, je ne suis pas technicien mais j'aimerais beaucoup avoir bolt gratos.

  • @rank8467
    @rank8467 3 วันที่ผ่านมา +2

    Est-ce que les Keys API sont gratuites?

    • @tesdy1450
      @tesdy1450 3 วันที่ผ่านมา +2

      Non mais tu peux toujours tenter d'installer un LLM en local mais attention, il faut une bonne bécane (surtout la partie GPU)

  • @fredl9815
    @fredl9815 3 วันที่ผ่านมา +5

    Avec toutes les avancées dans les langages de haut niveau je trouve que le plus simple et le moins cher c’est d’apprendre à coder

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      @fredl9815 C'est mon avis également :les non-dev vont devoir apprendre à programmer un minimum (ne serait-ce que pour économiser en tokens), les devs à utiliser les I.A. pour gagner en vitesse sur les taches répétitives.

  • @nicolasbertholet5541
    @nicolasbertholet5541 3 วันที่ผ่านมา +2

    l ' électricité c est pas gratuit non plus sauf si tu bosses chez edf ... les 500 euros ce sera la facture electrique

    • @ascensionspirituelle7287
      @ascensionspirituelle7287 3 วันที่ผ่านมา +1

      Tu l'ouvres pour d'autres et tu partages les frais

    • @codeconcept
      @codeconcept  3 วันที่ผ่านมา

      @nicolasbertholet5541 C'est pas faux. Si une bonne âme veut faire un retour sur ses factures EDF avant et après l'achat d'un ou deux GPUs, ça m'intéresse.
      Bon, ça doit se trouver sur internet. Ou se calculer à partir des specs de la bête.

    • @codeconcept
      @codeconcept  3 วันที่ผ่านมา +2

      @@ascensionspirituelle7287 Des mini-datacenters par immeuble. Comme ce que font les Américains avec leurs machines à laver au sous-sol 😄

    • @cedrictrachsel8579
      @cedrictrachsel8579 3 วันที่ผ่านมา +2

      @@codeconcept je suis en Suisse chez bkw à 24.54 centime le kwh. Je me suis monté un dell en serveur avec 32Go de ram et deux cartes nvidia quadro p5000 (2x16Go de ram vidéoe) le tout pour 800€ (c'est de l'occasion). Pour des raisons de prix j'allume ma machine quand j'en ai besoin, hier pour 8h d'utilisation elle m'a consommée 610 Wh (0.610kwh) soit environ 15c. J'ai fait le constat suivant, pour mon utilisation ça me coûte moins chère d'utiliser gpt4o-mini ou llama3.1-70b (chez together) que d'utiliser ma machine pour l'inférance qui rame avec llama 3.1-70b mais est très véloce avec llama 3.2-11b.
      donc si je devais utiliser bolt en local j'utiliserai soit avec openai ou together ou mistral (pour info on peux avoir des api gratuire chez Groq (avec un q par un k) et mistral

    • @bertrand3055
      @bertrand3055 3 วันที่ผ่านมา +1

      Cogénération : chauffage hivernal inclus ❗❗❗

  • @olivierf695
    @olivierf695 3 วันที่ผ่านมา +4

    J'ai pas compris une seule phrase...

    • @werty999
      @werty999 2 วันที่ผ่านมา +1

      pourtant , c est facile en interpolant le flood tu upscales la frame digital en passant par un swith level plus underground , CPU data validation oblige, et en suivant mon simple conseil tu deviendras un pro en application fullstack sauf si évidemment tu utilises des boites containers.en tout cas un fork masterclass c est sur !

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      @olivierf695 Quand même quelques unes 😀 Certains passages parlaient probablement davantage aux développeurs. Pour le reste, à force de voir passer les mêmes specs, ça va finir par devenir évident. Je me souviens de l'époque où le grand public ne savait pas ce qu'était une adresse IP ou un routeur, et maintenant, c'est aussi quelconque qu'une plaque d'immatriculation ou un rond point

  • @moneyfr
    @moneyfr 3 วันที่ผ่านมา +2

    j'ai demandé fais moi un site de restaurant moderne => une maquette bof bof

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      Pour les maquettes, V0 de Vercel est probablement plus adapté. Ca permet de partir sur quelque chose d'assez joli puis de continuer soi-même à la mano

  • @willspaint5733
    @willspaint5733 2 วันที่ผ่านมา

    cela ne fonctionne pas

    • @ToinouGang
      @ToinouGang 2 วันที่ผ่านมา

      Essaie avec Pinokio

  • @benevolarX
    @benevolarX 3 วันที่ผ่านมา +4

    Je suis l'actualité des prix des composants de pc (les prix indiqués sont à titre indicatif, beaucoup de vendeur rajoutent leur marge)
    rtx 3060 8go : trop cher, même prix que le modèle 12go
    rtx 3060 12go : 250-300e (prix gonflé car très répandue chez les joueurs)
    rtx 3060 ti 8go : 300-350e
    rtx 3070 8go : 350-400e
    rtx 3080 10go = trop cher car production des rtx 3000 arrêté depuis + 1 an (début de sorti des rtx 4000)
    rtx 4060 8go : 250-300e
    rtx 4060ti 8go : 330-380e
    rtx 4060ti 16go : 400-500e (trop cher, la 4070 est toujours préférable à celle ci malgré les 16go de vram)
    rtx 4070 12go : 500-550e (légèrement trop cher par rapport à la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 super)
    rtx 4070 super 12go : 550-600e (meilleur rapport perf / prix de la génération 4000)
    rtx 4070 ti 12go : 700-800e trop cher (quasi même puissance de calcul que la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 ti super)
    rtx 4070 ti super 16go : 850-1000e (trop cher)
    rtx 4080 16go : modèle dont la production a cessé depuis la sorti de la 4080 super
    rtx 4080 super 16go : 950-1200e (trop cher)
    J'ai volontairement omis la rtx 3050 (carte de bureautique) et les modèles à +1000e (rtx 3080 ti, rtx 3090, rtx 4090)
    Pour ce qui est de l'utilisation de 2 gpu identique (via crossfire ou sli) c'est une feature qui n'est pas présente sur tout les modèles et qui a été abandonné avec le temps car trop niche en terme d'utilisation et moins rentable pour l'utilisateur que de revendre son gpu pour un modèle plus récent.

    • @Unnaymed
      @Unnaymed 3 วันที่ผ่านมา +2

      Conclusion, nvidia c'est trop cher 😆 vivement de la concurrence et des cartes avec 16-24go de ram pas cher.

    • @codeconcept
      @codeconcept  วันที่ผ่านมา

      @benevolarX Merci 😀 L'auteur du fork avait deux cartes de 24 Go si je me souviens bien.

    • @codeconcept
      @codeconcept  วันที่ผ่านมา +1

      @@Unnaymed Le problème, c'est que nvidia serait plutôt parti pour tuer ses concurrents. Ca couplé à l'augmentation du prix de l'électricité, faire tourner en local des I.A. (sans attendre des plombes) va être réservé à minima aux PME.

    • @nc1246
      @nc1246 วันที่ผ่านมา

      @@Unnaymed j'en ai acheté sur aliexpress, ça passe lol

  • @bourgogneguillaume
    @bourgogneguillaume 2 วันที่ผ่านมา +1

    super vidéo, merci