Le coup de maîte d'Apple pour détrôner ChatGPT

แชร์
ฝัง
  • เผยแพร่เมื่อ 22 พ.ย. 2023
  • ça pourrait leur donner un avantage considérable
    👀 À ne pas manquer, APPLE VISION PRO : Ce dont personne ne parle : • APPLE VISION PRO : Ce ...
    👀 Cet OS va vous faire courir acheter un Mac : • Cet OS va vous faire c...
    Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
    🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
    🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk.netlify.app/
    📸 Les coulisses de l'émission: / underscoretalk
    🐦 Les annonces de dernière minute: / underscoretalk
    En plateau, il y a Matthieu de la Micorp et Tiffany Souterre !
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 407

  • @jacquesdelapince3669
    @jacquesdelapince3669 6 หลายเดือนก่อน +845

    Petite précision / correction : Aujourd'hui la finesse de gravure 3 nm ne correspond plus à aucune dimension réelle du transistor dans les processeurs.
    Historiquement, la finesse de gravure faisait référence à la taille du Gate d'un transistor dans les processeurs, c'était la mesure de référence pour évaluer la performance d'un processeur, plus on peut graver petit le transistor, plus son gate est petit, plus on peut mettre de transistor, faire des calcules, et augmenter la puissance.
    Or, depuis les 40 nm on ne peut plus diminuer la taille du gate à cause des limites / lois de la physique, (si le gate était encore diminuer on s'exposait à ce qu'on appelle "l'effet tunnel" qui perturberait le fonctionnement du transistor).
    Il a donc fallu modifier le design, la conception même du transistor, le "réarranger", pour continuer à améliorer les processeurs. En conséquence, on ne pouvait plus prendre la taille du gate comme référence de la puissance d'un processeur, car ca n'avait plus de sens, le gate restait de la meme taille mais la puissance des processeurs augmentait quand même.
    Aujourd'hui, les termes de finesse de gravure 3nm, 5nm, etc. sont des labels qui sont données au processeur si ils remplissent certains critères définis. Mais qui définie ces critères vous allez vous dire ? Et bien c'est l' I.E.E.E (Institute of Electrical and Electronics Engineers) qui au travers de l' I.R.D.S (International Roadmap for Devices and Systems) qui définie ces critères. Pour obtenir ces labels les transistors doivent être conçus et gravés d'une certaine manière. Les entreprises ne peuvent pas donner le label aux processeurs comme elles le souhaitent elles doivent suivre ces critères. On a décidé de garder les termes de "finesse de gravure" car le public c'était tout simplement habitué à ce que : plus fin = plus puissant, c'est un terme marketing. Il n'est pas falacieux, il permet juste de faire plus simple pour le grand public.
    lien :
    fr.wikipedia.org/wiki/International_Roadmap_for_Devices_and_Systems
    fr.wikipedia.org/wiki/Institute_of_Electrical_and_Electronics_Engineers
    irds.ieee.org/editions

    • @OtakugameFR
      @OtakugameFR 6 หลายเดือนก่อน +22

      Merci pour ton incroyable expertise !

    •  6 หลายเดือนก่อน +27

      Cette réponse devrait être bien plus upvote que les conneries de trading et compagnie qu’on peut lire 🙂

    • @jacquesdelapince3669
      @jacquesdelapince3669 6 หลายเดือนก่อน +8

      @@OtakugameFR merci beaucoup :D ca me flatte, je ne suis pas du tout un expert, je mets le plus de liens pour sourcer ce que je dis.

    • @Remzer241
      @Remzer241 6 หลายเดือนก่อน

      Whoah merci

    • @Kannagichan
      @Kannagichan 6 หลายเดือนก่อน +1

      Alors exact mais la finesse de gravure n'a jamais mesuré "la performance d'un processeur".
      Effectivement le reste suit , Intel vs AMD le montre bien Intel à une moins bonen finesse de gravure et ils font des fois mieux que AMD.
      Et les performance de AMD ne s'explique pas du tout via la finesse de gravure.
      D'ailleurs cela fait un moment que cette finesse représente plus trop les performance, quand tu peux mettre 8 cores sur ton die , bon , c'est pas le soucis de place qui te pose soucis.

  • @darkkaribou
    @darkkaribou 6 หลายเดือนก่อน +263

    Petite erreur sur les tailles :
    Un atome d'oxygène à une taille de ~300 picomètres (si on prend comme référence le rayon de van der Waals). Donc pour 3 nanomètres on est davantage dans l'ordre de 10 atomes d'oxygène (ce qui reste très impressionnant).

    • @laurentmiltgen-delinchamp5508
      @laurentmiltgen-delinchamp5508 6 หลายเดือนก่อน +8

      152 pm pour un atome d'oxygène, donc 0.152 nm

    • @4Moorish
      @4Moorish 6 หลายเดือนก่อน

      Monjp ?

    • @ke0zom204
      @ke0zom204 6 หลายเดือนก่อน +1

      @@laurentmiltgen-delinchamp5508Effectivement, c'est bien 152 pm et non 240.

    • @NO14122.
      @NO14122. 6 หลายเดือนก่อน

      @@laurentmiltgen-delinchamp5508 152 si tu prends en compte le Rayon de Van der Waals, ce qui, d'une certaine façon dépasse le rayon d'un atome à proprement parler, soit son rayon covalent, soit 60pm l'atome d'oxygène.

    • @rotrot.graddiv.-.3766
      @rotrot.graddiv.-.3766 6 หลายเดือนก่อน +17

      Ça veut rien dire les copains la taille d'un atome. En effet un atome est constitué en son extrêmité d'électrons qui sont localisés dans des orbitales atomiques. L'atome n'a pas de taille propre en revanche on peut lui assigner des tailles caractéristiques en général en raisonnant sur les moyennes statistiques de position des électrons de valence par rapport au noyau.
      De plus, les électrons ne sont pas nécessairement collés. Dans une maille il y peut y avoir un espacement plus ou moins grand entre les atomes. On peut déduire la distance entre deux atomes en trouvant la distance locale où l'énergie potentielle des atomes est la plus faible.
      Bref à voir mais ton raisonnement de diviser la taille de la gravure par le rayon atomique des atomes est un peu bancal.

  • @Bourinos02
    @Bourinos02 6 หลายเดือนก่อน +41

    Un détail mais les 3nm ne correspondent plus à la distance entre la gate et le drain du transistor depuis quasiment une dizaine d'années...
    maintenant il s'agit uniquement d'une valeur théorique qui correspondrait à cette taille si le transistor était "à plat" (ce qu'ils ne sont plus depuis un bon moment déjà c.f. FinFET et autres).

    • @ambroisetourneur3966
      @ambroisetourneur3966 6 หลายเดือนก่อน +1

      y a pas de normes sur ce que doit signifier le 3nm, chaque entreprise fais comme ca l'arrange

    • @Bourinos02
      @Bourinos02 6 หลายเดือนก่อน

      @@ambroisetourneur3966 Sur ce point on est d'accord, c'est largement un chiffre commercial maintenant vu qu'il est décorrélé d'une dimension réelle.

  • @tibo1671
    @tibo1671 6 หลายเดือนก่อน +175

    Si jamais vous arriviez à interviewer un/une ingénieure qui fait de la conception hardware (VHDL / Verilog), pour donner des détails sur ces actus, ce serait grave intéressant !

    • @meisterpanzerkunst6410
      @meisterpanzerkunst6410 6 หลายเดือนก่อน +7

      Ahaha hello c'est moi :3

    • @Le-J-
      @Le-J- 6 หลายเดือนก่อน

      Passe dans l'émission alors stp @@meisterpanzerkunst6410

    • @violinsontheblock
      @violinsontheblock 6 หลายเดือนก่อน +4

      ​@@meisterpanzerkunst6410je suis aussi là bon pas ingénieur mais un Master

    • @tibo1671
      @tibo1671 6 หลายเดือนก่อน +2

      @@meisterpanzerkunst6410 Haha trop bien tu bosses sur quoi comme archi / système ?

    • @tibo1671
      @tibo1671 6 หลายเดือนก่อน +1

      @@violinsontheblock J'en ai fait en cours aussi mais je me sens pas trop légitime de bosser dedans perso ^^'

  • @Haze-bii
    @Haze-bii 5 หลายเดือนก่อน +3

    J'adore parce que tu vois Mica lorsqu'il parle d'IA c'est un enfant ! Il est heureux et ça fait plaisir de voir quelqu'un de vraiment épanouie dans un sujet. C'est rare de voir cette effet aussi fort. :D et merci pour les vidéos ! Franchement elles sont génial ! Et surtout elles ne sont pas indigeste !

  • @albanjuan106
    @albanjuan106 6 หลายเดือนก่อน +28

    Salut,
    Je trouve que Matthieu s’améliore de jour en jour, je le sens moins stressé en tout cas et ça fait plaisir

    • @philippest-martin2605
      @philippest-martin2605 2 หลายเดือนก่อน

      c'est moins le cas de Tiffany on se demande son rôle dans l'émission

  • @alexandrechaminas3108
    @alexandrechaminas3108 6 หลายเดือนก่อน +47

    En fait selon plusieurs analystes cette keynote serait plutôt avant tout une réponse à Qualcomm (qui a récupéré quasiment l'architecture complète des puces M1 avec le rachat à prix d'or de la startup que les architectes de ces CPU ont créé après s'être barrés d'Apple...)
    Pourquoi cet avis? Car en fait Apple est pas du tout dans l'exception à mettre des NPU/TPU dans ses processeurs en ce moment, à vrai dire c'est même plutôt la norme!
    Qualcomm avec ses Snapdragon X (décidément une grosse annonce...), mais aussi et surtout Intel avec Meteor Lake, AMD avec Ryzen AI, Google avec ses Tensor, pour ne citer que quelques gros noms. Bon, Apple reste quand même bien costaud en performances!
    Parlant de Snapdragon X et de Ryzen AI, c'est deux exclusivités Microsoft (aucun contrat n'a été rendu public, mais bizarrement les seuls drivers pour utiliser ces materiels sont sur Windows). Microsoft est donc bien en train de jouer sur les deux tableaux, cloud comme edge
    J'en profiterais aussi pour rajouter que le terme de "X nanomètres" est purement marketing de nos jours, en fait aucun détail de la puce n'est vraiment gravé plus fin que quelques dizaines de nanomètres ! Il faut savoir que les technos les plus récentes ont abandonné les transistors à plat, pour passer à des designs 3d (FinFET surtout aujourd'hui, GAAFET dans le futur). Il faudrait plutôt voir ça comme "des transistors qui prennent autant de place que si on avait réussi à faire des transistors à plat de 3 nm". Oui, c'est tordu, mais c'est marketing
    PS: Merci pour cette introduction à l'industrie du semiconducteur, le domaine est malheureusement trop peu connu chez les développeurs

    • @playtrollcommunity
      @playtrollcommunity 5 หลายเดือนก่อน

      Ça c'est un commentaire qui a du mérite

  • @MickaelVest
    @MickaelVest 5 หลายเดือนก่อน +5

    Concernant le fait qu'Apple ne parle pas d'IA, c'est une grande habitude de leur part de prendre quelque chose de commun et le "re-brander" pour se démarquer, Marques Brownlee (MKBHD) a fait une super video sur le sujet (Apple's Forbidden Words). Ils parlent en fait énormément d'IA, mais en d'autres termes

  • @codix__
    @codix__ 6 หลายเดือนก่อน +3

    J'avais pensé à un petit "One more thing" d'Apple quand ils dévoileront enfin un vrai usage de l'IA sur leur matériel. Déjà bien sûr agrandir tes propres images avec l'IA pré-intégrer dans le Finder mais surtout une génération du fond d'écran de ton Mac en local après le premier setup sans ou avec logo Apple, et qui reprend l'aspect que tu veux selon la version de Mac OS que tu préférait.

  • @alexandrebernhard7015
    @alexandrebernhard7015 6 หลายเดือนก่อน

    Génial! Merci pour ces informations!

  • @anthonykaravane2177
    @anthonykaravane2177 5 หลายเดือนก่อน

    Excellente vidéo/sujet.
    Merci

  • @Momossim
    @Momossim 6 หลายเดือนก่อน +17

    quick fact que personne n'a demandé: les optiques pour les machines lithographiques (pour les processeurs) sont faites par Carl Zeiss, et le fondateur de l'entreprise éponyme est littéralement le mec qui a inventé la production d'optique de masse (dans le sens pas à la main)

    • @tibo1671
      @tibo1671 6 หลายเดือนก่อน +1

      merci pour ce détail ! Je connaissais la boite mais je savais absolument pas que leurs systèmes se retrouvaient là dedans

    • @airo.pi_
      @airo.pi_ 6 หลายเดือนก่อน +5

      Ok ok donc c’est de l’optique qui permet la fabrication de ces processeurs
      Je me demandais pourquoi Nikon et Canon fabriquaient des processeurs alors que pour moi c’était uniquement des marques d’appareil photo 😅

  • @cocopas80
    @cocopas80 6 หลายเดือนก่อน

    Génial cette vidéo vraiment j'ai appris des truc de fou 🤩

  • @Tisma.
    @Tisma. 6 หลายเดือนก่อน +19

    ça me fait rappeler le Qualcomm 8gen3 qui pourra faire tourner des IA de génération image, texte et autre. Localement sur un smartphone sans connexion internet. C'est très impressionnant

    • @nawabifaissal9625
      @nawabifaissal9625 6 หลายเดือนก่อน

      seule innovation d'apple : les puces et l'ecran tactile (ça date maintenant), voili voilou... entreprise estimé a 3 trillions de $....

    • @Tisma.
      @Tisma. 6 หลายเดือนก่อน

      @@nawabifaissal9625 l'écran ça reste toujours principalement des technos Samsung ils ont juste renommé l'oled

    • @thomassankala6043
      @thomassankala6043 5 หลายเดือนก่อน

      ​@@nawabifaissal9625 l ecran tactile a été inventé en 1971 par sam hurst bien avant la création de l apple

  • @EmmanuelBouillon0
    @EmmanuelBouillon0 6 หลายเดือนก่อน

    Absolument passionnant ! Merci

  • @Tony-ju2hr
    @Tony-ju2hr 5 หลายเดือนก่อน +2

    Les interventions de Tiffany Souterre = "Humm", "Oui" , "Hum" 🤣🤣🤣

  • @Tetsujinfr
    @Tetsujinfr 6 หลายเดือนก่อน +9

    c 'est sympa le neural engine de Apple, mais je rappelerai que les ingenieurs de NVIDIA ne sont pas des idiots et que leurs puces ecrasent celles de Apple en performance par $, meme si en terme de perf par watt Apple est bien placé en effet. Concernant l'inference embarquée, Apple a en effet une strategie mais l'avantage du cloud c'est que 1) le calcul alloué a un model peut etre phenomenal alors que celui sur la puce M2 ou M3 ou Mx sera beaucoup plus limité, l'autre avantage c'est que le cloud est dimensioné pour le pic de calcul de la demande globale alors que Apple doit prevoir le chip pour la capacité maximum de chaque utilisateur. L'avantage de l'inference en locale c 'est 1) la confidentialité/vie privée , 2) la latence mais seulement si le model est tres rapide a inférer donc pas tres puissant par rapport a ce que l'on aurait avecle cloud au meme moment.

    • @enrickliber
      @enrickliber 3 หลายเดือนก่อน

      Merci franchement merci beaucoup c’est gens qui raconte n’importe quoi juste pour gonfler leur egos par rapport a apple ,apple n’a aucun plan concernant l’IA . le vraie truc qui faisait apple c’est ”steve job”. Mettre ”sa” sur une puce oui …mais pas encore à notre époque. Nous avons pas encore créé la technologie qu’il faut. Bref en tout cas oui aujourd’hui il s’y intéresse a coup de 1 milliard€. Ce qui est dommage c’est que ces mecs ils vont après dire oui regarde ce qu’apple a créé. Regarde cette dinguerie et patati et patata. Sachant que du tchat gpt c’est vraiment incroyable.arrêtez de faire rêver les gens comme sa !

  • @mathieup.1786
    @mathieup.1786 5 หลายเดือนก่อน

    Très bonne chronique ! Merci 🙏

  • @wxcvbnnbvcxwify
    @wxcvbnnbvcxwify 6 หลายเดือนก่อน +1

    Petit retour sur la taille des atomes. le silicium est de 0,2 nm; 3 nm nous donne de l'ordre de 15 atomes de coté.
    Au début des années 2000, nous perdions l'effet transistor aux alentours de 100 atomes. On ne trouve pas vraiment de données plus actuelle sur l'amélioration de cette limite.

  • @gwened
    @gwened 6 หลายเดือนก่อน +5

    Les performances de Stable Diffusion, optimisé pour les GPU, étaient catastrophiques sur les Mac, c'est pourquoi Apple s'est mis en tête de l'optimiser. A l'époque, entre mon MacBook M1 Pro et mon laptop gamer Asus doté d'une puce Nvidia 3080 (la version portable donc) de génération et prix équivalents, il y avait un facteur 5 de vitesse de rendu en faveur du PC !!

  • @arthurlouette
    @arthurlouette 5 หลายเดือนก่อน

    Très intéressant merci !

  • @jeanmatth1588
    @jeanmatth1588 5 หลายเดือนก่อน

    Belle vidéo.
    J’ai toutefois l’impression que l’ia on device est déjà là depuis un moment chez la concurrence (Google pixel et leur puce Tensor par exemple)

  • @NicolasSchmidMusic
    @NicolasSchmidMusic 6 หลายเดือนก่อน +4

    Ouais bon la description du transistor laisse à désirer. C’est pas le « dopage qui fait des 0 et des 1 ». Aussi 3nm c’est beaucoup plus grand qu’un atom. C’est pas infos très dur à vérifier donc faut faire un peu gaffe quand même

    • @blacriderv
      @blacriderv 5 หลายเดือนก่อน

      Bah on sent que le gars il est pas du tout technique. Il a juste essayé de comprendre vaguement ce qui se dit sur le web mdr

  • @tyloser1255
    @tyloser1255 6 หลายเดือนก่อน

    En clair ils ont réussie à gravé le double voir le triple de microtransistor et non je pense pas que c'est du nano transistor car là on serait à l'ordi quantique.
    De plus dans cette vidéo très bien expliqué présenté etc il y a un gros impasse sur le refroidissement des composent car tu peux avoir bcp de Gram et et ram graphique si ton ordi chauffe trop rapiment il laguera indéniablement et si tu partage ta wifi idem.
    Bref back slash == bonne soirée, oui j'ai confondu avec angstrom

  • @pascalthomas1580
    @pascalthomas1580 6 หลายเดือนก่อน

    Salut. Interressant la partie sur les capacités ia, et le lien avec la memoire unifiee, dommage qu'ils mettent moins de memoire sur leurs pc que sur la première carte graphique de base

  • @yohan9577
    @yohan9577 6 หลายเดือนก่อน +2

    Pas mal ! Intéressant le coup d'avoir l'IA en local ! ça offre aussi une meilleure garantie de confidentialité (essentiel pour certaines entreprises!) et ça décharge les serveurs ! Vous m'avez appris quelque chose, merci !

    • @dedelefoudu88
      @dedelefoudu88 6 หลายเดือนก่อน

      tu peux aussi en avoir dans ton reseau priver.
      aussi, L'IA en local reste limiter pour des model avec un nombre de parametre reduit, qui sont deja tres bon.
      Meta (facebook), est probablement un des lideur dans ces petit model avec son LLaMA 2, qui peut deja etre installer sur ton ordi perso, ou meme personalize (fine tune).

    • @resh6701
      @resh6701 6 หลายเดือนก่อน

      Il y a LM studio qui permet de faire ça simplement, ou oogabooga.

    • @hesaiem
      @hesaiem 5 หลายเดือนก่อน

      Décharger les serveurs pour surcharger les appareils individuels je ne sais pas si c'est si utile que cela. La centralisation est aussi, malgré ses désavantages, moins consommante.

  • @Saihttam35
    @Saihttam35 6 หลายเดือนก่อน +25

    Je vais enfoncer une porte ouverte, mais c'est aussi de la géopolitique tout simplement par rapport à Taiwan.
    Apple cherche juste à sécuriser leur ligne d'approvisionnement, vu que TSMC est la quasi seule boite au monde qui a la technologie avancé pour faire les derniers processeurs.
    Et vu que l'invasion de Taiwan est qu'une question de temps, le marché des composants va devenir fou dans les prochaines années.

    • @TheBlackManMythLegend
      @TheBlackManMythLegend 6 หลายเดือนก่อน

      grave

    • @MadrafTintagel
      @MadrafTintagel 6 หลายเดือนก่อน +7

      L'invasion de Taïwan est loin d'être réalisée. Il est probable qu'elle ne survienne jamais. En tout cas, si cela devait arriver, nous aurions d'autres soucis que l'approvisionnement en processeurs...

    • @adanoether2777
      @adanoether2777 6 หลายเดือนก่อน

      C'est justement TSMC qui les fabrique ces processeurs contrairement à Intel qui fabrique aux US il me semble.

    • @Fox-BZH
      @Fox-BZH 6 หลายเดือนก่อน +1

      cela n'est plus vrai depuis le chip act. Les US, enfin conscient du danger, investissent + de 50 milliard pour pouvoir produire chez eux les chips. Les usines sont en cours de construction au US avec de gros gros avantages fiscaux et financement du gouvernement. Tu m'étonnes ...

    • @Saihttam35
      @Saihttam35 6 หลายเดือนก่อน

      En effet pour le chip act, cependant il faudra longtemps avant que cette usine soit opérationnelle ou même que les USA aquiert un niveau de compétence aussi développé que les employés de TSMC. Oui c'est une très bonne chose cette usine, mais la formation des ingénieurs derrière c'est un autre sujet. Pas sûr que l'ensemble soit prêt avant que Taiwan tombe...@@Fox-BZH

  • @pouks
    @pouks 5 หลายเดือนก่อน

    je sais pas si c'est vraiment mieux d'avoir de l'ia en local? L'ia jusqu'ici c'est beaucoup de puissance de calcul et tres peu de données échangées (juste du texte et parfois des images), ce pour quoi les modeles centralisés qu'on utilise aujourd'hui sont parfaitement adaptés. Là ca risque de faire fondre la batterie de ton mac et on aura surement des resultats moins rapides puisque je pense pas qu'un mac aura des meilleurs perf qu'un giga serveur centralisé, apres à voir ce qu'ils vont nous faire.

  • @terror403
    @terror403 5 หลายเดือนก่อน +1

    Super vidéo ! Du coup si tous ces macs en réseaux communiquent leurs puissance de calcul à Apple, la puissance de calcul est phénomènale

  • @Jimwatl
    @Jimwatl 5 หลายเดือนก่อน

    juste pour info stable diffusion fonctionne déjà sur apple silicon il tourne sur ios ipad os et mac os en natif via l'app draw things notamment et cela fait presque 1 an que je l'utilise

  • @Aythos
    @Aythos 6 หลายเดือนก่อน

    Si c'est bien le cas cette stratégie est très intéressante et me semble beaucoup plus pertinente que les applications cloud based qui reviennent extrêmement chère. Après il faut savoir qu'il existe déjà des moyen de faire tourné des LLM sous Linux ou Windows en utilisant le GPU et le CPU en parallèle et ça fonctionne vraiment bien, mais il est claire qu'il doit y avoir une perte de performance notable par rapport à l'architecture d'Apple (sans même parler de la différence en consommation). Intel semble aussi vouloir unifier CPU et GPU dans le future.

  • @gerismbougou9326
    @gerismbougou9326 6 หลายเดือนก่อน +1

    Merci pour la vidéo. Je crois que c'est surtout qu'ils cherchent la bonne manière de le faire. Faire tourner des modèles d'IA en local c'est très bien mais comment en faire un outil simple et évident à utiliser? Il faut un bon pitch pour vendre ça. Et il faut que ça marche de manière transparente... En tout cas j'ai trop hâte de découvrir l'approche qu'ils vont choisir 😁😁😁

    • @ThomasSselate
      @ThomasSselate 6 หลายเดือนก่อน

      De quoi parles-tu, l’IA générative est déjà hyper simple à utiliser, chatGPT a été adopté par les personnes âgées d’une manière jamais vue pour une nouvelle technologie. Il suffit littéralement d’écrire une phrase pour faire un prompt

    • @airo.pi_
      @airo.pi_ 6 หลายเดือนก่อน

      @@ThomasSselateoui mais c’est pas du goût d’Apple de faire du prompt comme ça
      Ils vont chercher à intégrer subtilement l’IA un peu partout dans l’écosystème je pense
      Mais oui les outils actuels (génération d’image, de texte) sont incroyablement simple à utiliser 👌

  • @autherplayer
    @autherplayer 6 หลายเดือนก่อน +3

    Elle a été virée la personne qui s'occupe des lumières du studio chez Underscore _ 🤣ou peut être qu'elle n'a pas encore été embauchée🤫
    Merci Matthieu 🙏je vais me coucher moins bête ce soir même si je ne suis pas sûr d'avoir tout capté

  •  6 หลายเดือนก่อน

    Superbe vidéo

  • @jirayatira9540
    @jirayatira9540 6 หลายเดือนก่อน +4

    Y a aussi l'architecture risc-v qui est libre et open source mais pas encore au niveau de arm 👍

    • @lecornubruno2507
      @lecornubruno2507 6 หลายเดือนก่อน

      ça commence ça commence avec les Si-five ou T-head mais on est plus au niveau du A72 pour le moment

    • @yamazakikaoru9579
      @yamazakikaoru9579 6 หลายเดือนก่อน

      Pas sur qu'il arriveront à bien traiter le sujet :p

  • @sing4everoliiv944
    @sing4everoliiv944 6 หลายเดือนก่อน

    Hello petite question, Y a-t-il des gens ici qui ont des problèmes d’écran avec des MacBook Pro M1 2021?

  • @antocmartinaemz
    @antocmartinaemz 6 หลายเดือนก่อน

    Ca fait pas super longtemps quon a plus que 6go sur un gpu ? Meme mon gpu moyen de gamme achete il y a 5-7 ans en a 8, et le nouveau de l'année derniere en a 16 '-'
    En plus, avec le resisable bar chez amd et je sais plus comment a sappelle chez intel, on peut partager la ram du cpu avec le gpu non ?
    Et faire de l'ia sur gpu, cest un peu depasse dans certains cas aussi, il y a des carte d'ia notemment celle de google qu'on peut mettre dans un pc qui sont bien plus performantes dans certains cas

  • @Username-xl6jj
    @Username-xl6jj 6 หลายเดือนก่อน +1

    Une video sur le RISC V serait intéressante.

  • @jjadragna
    @jjadragna 6 หลายเดือนก่อน +3

    Apple continue à communiquer sur la puissance brute du CPU (hors GPU, NSP) pour deux raisons:
    - ça leur permet de mettre la pâtée à Intel
    - ça continue à bien représenter les besoins utilisateur (compilation, effets audio/vidéo)
    Ils mentionnent le Neural Engine, mais on sent bien que leurs usages sur l’amélioration de photos ou la complétion de mail) sont assez petit joueur pour le moment. Mais ils insistent beaucoup sur l’aspect ´on device’. Je pense qu’ils attendent que ce soit mur, techniquement et socialement, pour frapper un grand coup

  • @MrEldran64
    @MrEldran64 5 หลายเดือนก่อน

    Ca se passe comment pour les gros gpu?

  • @renatodomergue3996
    @renatodomergue3996 6 หลายเดือนก่อน +3

    Pas de gravure avec une pointe, c'est de la photogravure, de la gravure par photographie.

  • @zaphodbeeblebox
    @zaphodbeeblebox 6 หลายเดือนก่อน

    Stable diffusion marche sur m2. En fait c’est surtout une question de pytorch qui marche sur apple silicon depuis au moins un an

  • @Gabriel-bj6jx
    @Gabriel-bj6jx 6 หลายเดือนก่อน +2

    Faut bien se rendre compte que le développement d'un processus de fabrication de puce prends entre 3 et 5 ans, que ça coûte des milliards. Les usines c'est pareil c'est des salles blanches de classe 1 de plusieurs milliers de m². Les usines sont maintenant à température constante toute l'année et même les vibrations sont aussi un problème à ces échelles. Résultats très peu d'entreprise de production (fondeur). Aujourd'hui seul Samsung et tsmc maîtrise le 3nm à des niveaux industriel.

  • @ptitbenable
    @ptitbenable 6 หลายเดือนก่อน

    3 nm est inférieur à la longueur d'onde de la lumière utilisée pour la gravure. Et ça, c'est très compliqué.

  • @paulmichelart1197
    @paulmichelart1197 5 หลายเดือนก่อน

    Clairement je rejoins ton hypothèse sur l'IA locale. Je table aussi sur le lien avec le développement de la ReRAM qui permettra de stocker "internet" en local, ainsi que l'écosystème fermé de apple pour au final proposer un système complet très sécurisé et maitrisé en terme de données personnelles et de capacité IA.
    Mon hypothèse est que la maîtrise de la sécurité des données sur toute la chaîne(physique on device donc) conférera à apple un avantage énorme en terme de confiance des utilisateurs. J'imagine un point de bascule ou une grande partie des gens se réfugierons chez apple, pendant qu'un autre géant pourrait sombrer.
    Et vous ? Quel 2 cents ?

  • @siocdenarf1010
    @siocdenarf1010 6 หลายเดือนก่อน +4

    Je suis étonné de ne pas voir le lien avec l'annonce de Qualcomm quelques jours avant qui annonçait le dépassement du M2 de beaucoup en mono-thread et ne pas voir non plus la prise en compte de la révolution de Canon sur la gravure des semiconducteurs qui devient énergétiquement beaucoup moins cher avec leur nouveau procédé....

    • @MultiMustash
      @MultiMustash 6 หลายเดือนก่อน +1

      Surtout que le NPU de Qualcomm série X est annoncé avec entre 50 et 100 Tops, bien plus balaise que le M3 qui plafonne à 20 Tops.

    • @bastienx8
      @bastienx8 6 หลายเดือนก่อน

      @@MultiMustash Les Qualcomm series X sont au stade de prototype, les tests de performance sont fait sur des machines avec une alimentation et un refroidissement conséquent. On ne connait pas les conditions de test de Qualcomm du coup difficile de comparer

  • @alexandremocan140
    @alexandremocan140 6 หลายเดือนก่อน +1

    N'y aurait-il pas non plus une stratégie par rapport à la Reram ? En fabless ça eviterai d'avoir acheté un bras, une machine qui devient useless. Après je ne suis pas assez connaisseur

  • @dominiquedechamps5707
    @dominiquedechamps5707 6 หลายเดือนก่อน

    Le design Apple Silicon n’est-il pas pour partie d’origine Arm? Sinon pourquoi des fichiers style arm64e-apple-macos …

  • @pierrekilgoretrout3143
    @pierrekilgoretrout3143 6 หลายเดือนก่อน +1

    si j'ai bien compris la chaîne, les fonderies fabriquent comme TSMC, fabless conçoivent comme Qualcom, architectes inventent l'architecture comme ARM tandis qu'ASML fabrique des machines que les fonderies utiilisent pour fabriquer les puces. Intéressant.
    Et l'enjeu des prochaines années, ce sera où l'IA tourne, localement ou dans un cloud.

  • @Mcnoklacyphie
    @Mcnoklacyphie 6 หลายเดือนก่อน

    Et si ce serait un coup triple! Intégration all in 1 + allégement monétaire chez Intel ET permission à Intel de valoriser l'entreprise... pour le 3mm... ce que je penses de ce que la présentation du m3 démontre : c'est que tout les acteurs sont gagnants

  • @TerapiBoat
    @TerapiBoat 6 หลายเดือนก่อน +1

    Les derniers AMD ont aussi une puce intégérée pour l'IA "Ryzen AI"

  • @th0bo
    @th0bo 6 หลายเดือนก่อน +4

    Est-ce que c'est vraiment la latence due au temps de trajet des données qu'ils veulent solutionner ? Ce ne serait pas plutôt les problèmes de confidentialité des données et de disponibilité variable des services centralisés ?
    En tout cas très intéressant !

    • @omega6283
      @omega6283 6 หลายเดือนก่อน

      Les deux + avoir une IA sur mesure je pense.

    • @bricewernet6493
      @bricewernet6493 6 หลายเดือนก่อน +1

      Disons une pierre deux coup. Plus de l'avance sur le futur: avec la future envolée du cuivre, moins on aura de bis sur la cm, moins on aura de cuivre.
      Sans compter que l'architecture 'classique' actuelle est un gâchis de ressources: lire le ssd avec le CPU qui place le contenu en RAM, relire la RAM pour traiter l'info et la mettre en RAM, reprendre la RAM et la renvoyer au ssd, à chaque fois en utilisant le seul bus mémoire et un coeur CPU. Apple travaille à limiter ces copies et échanges.
      Quand à l'IA, à part NVidia, les annonces marketing ne veulent rien dire: le nombre maxi d'opérations n'est pas bien décrit (int8? Fp32)? Les instructions classiques prises en compte ne sont pas dites (j'ai un accélérateur qui ne supporte pas l'instruction quantité, donc plein de modèles sont inutilisables) ou les limites maxi (kernel 3*3? 8*8?)
      Sans ces infos, on ne sait pas quels modèles tensorflow existants on peut utiliser et dans qu'elles conditions

    • @HereIsANewGuest
      @HereIsANewGuest 5 หลายเดือนก่อน

      S’il vendent le matos qui fait le traitement, ça pourrait aussi leur permettre de proposer des services sans devoir financer les gros datacenters derrière ?

  • @edmondj.
    @edmondj. 6 หลายเดือนก่อน

    Qui a dit que l'entrainement était impossible sur silicon ? Source ?

  • @ange.g6157
    @ange.g6157 6 หลายเดือนก่อน

    Sujet super interresant, je trouve dommage que trop d'images sans grand intérêt aient étés rajoutées au montage ce qui nuit selon moi a la compréhension de la chronique. Peut être faudrait il trouver un plus juste milieu en affichant que des images utiles a la compréhension.

  • @Sebxcz
    @Sebxcz 6 หลายเดือนก่อน +1

    Il y a déjà une app sur IPad qui applique des modèles Stable Diffusion en local sur l’Ipad : DrawThings. Et c’est bluffant de voir ce petit machin générer des images par IA, en local.

  • @kiyana7261
    @kiyana7261 5 หลายเดือนก่อน

    Magnifique!

  • @franckdansaert
    @franckdansaert 5 หลายเดือนก่อน

    wow ! très bien vu

  • @zouloulima7053
    @zouloulima7053 6 หลายเดือนก่อน

    c est pour ca que le gain en perf clasic a pas bcp augnenté

  • @cyllon1
    @cyllon1 5 หลายเดือนก่อน

    franchement , gg vos enquette ^^ , Il et malheureusement compliquer de comprendre le sens des phrase avec présision lorsque l'on et extérieure aux métier cependant ont peux comprendre le sens globale relativement facilement (mode try harde en fermant les yeux et concentration max mdr) en gros les puces de cher appl auron une ia intégrer directement dans leurs conception si j'ai bien compris..

  • @hesaiem
    @hesaiem 5 หลายเดือนก่อน

    Est-ce vraiment intéressant en terme de consommation de porter les L.L.M vers du local ? Et pourquoi est-ce souhaitable ? On développe à intervalle régulier nos infrastructures réseau pour précisément faire davantage avec nos machines, et les data center ont cet avantage de constamment servir les utilisateurs, ce qui n'est pas le cas de nos appareils individuels.

  • @mariecentsous5478
    @mariecentsous5478 6 หลายเดือนก่อน

    J'aime bien la prononciation "kinotte" au début.

  • @Jean-Denis_R_R_Loret
    @Jean-Denis_R_R_Loret 6 หลายเดือนก่อน

    Avant de bosser avec intel et en architecture x86_64, apple bossait avec IBM pour ses macs en archi PPC (power pc).
    Ce qui arrive maintenant, c'est plus ou moins la même histoire que quand apple est passé du PPC à x86_64 : pour des raisons logistiques.
    Truc amusant, les chips en archi PPC, on en retrouve encore aujourd'hui sur le marché des serveurs, dans plein de controleurs RAID SAS, chez LSI, ou même intel, qui sont en fait des LSI vendues sous la marque intel, ou les dell PERC.

  • @Ctrl_Alt_Sup
    @Ctrl_Alt_Sup 6 หลายเดือนก่อน

    Un sujet sur les processeurs analogiques Mythic?

  • @MartinMichiels
    @MartinMichiels 5 หลายเดือนก่อน +1

    l'IA on device pose aussi moins de problèmes d'allées et venues de data personnelles sensibles entre un client local et un serveur. Certaines personnes livrent littéralement leur vie sur ChatGPT. Une solution locale pourrait en partie palier ce problème.

  • @pol-aurelienhay5050
    @pol-aurelienhay5050 5 หลายเดือนก่อน

    y a pas aussi une dimension écologique dans cette stratégie pour ne pas à avoir à faire tourner des gros data center ?

  • @tawalioualao7444
    @tawalioualao7444 5 หลายเดือนก่อน +1

    Une petite précision: Certes Intel fabrique aussi ses processeurs mais certains de leurs processeurs sont fabriqués par TSMC donc Intel fait du outsourcing aussi pour certains de se processeurs.

  • @thomaskahn6111
    @thomaskahn6111 6 หลายเดือนก่อน +2

    Grosse erreur…… le 3nm c’est pas la finesse de la gravure mais le nom commercial du procédé ! #techcafe

  • @sprites75
    @sprites75 6 หลายเดือนก่อน

    ils ont tiré le gros lot , un peu par vision, un peu par chance? après il restera à voir si on peut avoir la même chose, avec une consommation légèrement supérieure (même 25% je prends)

  • @sfoutrel
    @sfoutrel 5 หลายเดือนก่อน

    Le rendement des LLM sur un MAC M2 par rapport a la puissance consommé est incomparable avec un PC et une NVIDIA... J'aime pas Apple pour tout un tas de raison mais ces CPUs me donnent vraiment envie d'avoir a nouveau un Mac.

  • @thibautt
    @thibautt 6 หลายเดือนก่อน +1

    Bon, il faudrait penser à faire revenir la table, malgré le retour des habitués, vous n'avez pas l'air à l'aise avec vos tablettes dans vos mains.

  • @unbrestois
    @unbrestois 6 หลายเดือนก่อน

    J’ai l’impression que le traitement « on device » rentre aussi dans la vision d’Apple de protection des données.

  • @Lancelotxxx
    @Lancelotxxx 6 หลายเดือนก่อน

    stable diffusion tourne hyper bien sur mac en local.

  • @BeehTise
    @BeehTise 5 หลายเดือนก่อน

    Je pense pas que dans les 5 prochaine année si l'intérêt est de faire tourner les ia en local.
    Les données valent de l'or

  • @franckleveneur676
    @franckleveneur676 5 หลายเดือนก่อน

    Votre idée qu’Apple pourra utiliser le M3, M4 pour le AI en local est intéressant. Apple utiliser AI déjà beaucoup dans Iphone, Mac M1, M2.
    Mais de la a ce qu’Apple puisse faire en local ce que CHatGPT fait avec un data center, je pense pas.
    Je ne sais pas combien de TB or PB of data fut nécessaire pour nourrir le model, mais a mon avis c’est assez gigantesque.
    Apple a sans doute d’autre idées en tête pour AI (traduction instantanée d’une langue a une autre par example, surtout a travers VisionPro)
    VisionPro va changer pas mal de chose. C’est Zoom en 3D, avec collaboration via bureau virtuel.
    A moins qu’Apple traine des models, qui soient downloadable via Apple AI Model Store et immédiatement utilisable sur iPHone ou autre.

  • @lelectroniquecestpasautoma9420
    @lelectroniquecestpasautoma9420 5 หลายเดือนก่อน

    C'est très intéressant, cependant, la taille de la technologie depuis environ 15/20 ans ne correspond pas du tout à la taille physique des transistors. IBM veut sortir une technologie de transistor de 2 nm, pourtant, la longueur minimale entre le drain et la source pour cette technologie est de 40 nm. C'est une erreur, bien qu'en tant qu'expert en conception de circuits intégrés, j'aie cru.

  • @andrerobitaille982
    @andrerobitaille982 6 หลายเดือนก่อน

    Je me pose des questions sur les possibilité d'espionage des client Apple ou Microsoft avec l'arrivé des IA dans nos OS.

    • @Budabudable
      @Budabudable 6 หลายเดือนก่อน

      Quand c'est gratuit c'est toi le produit & quand c'est payant c'est toi le client

    • @Ssylvaniane
      @Ssylvaniane 6 หลายเดือนก่อน

      Ils n'ont pas besoin de ça : la "télémétrie" des OSs leur permettrais de faire ça.
      Mais les services internet et les réseaux sociaux nous espionnent déjà.

  • @arnaudt3935
    @arnaudt3935 6 หลายเดือนก่อน +2

    Est-ce que ces "Neural engines" et autres Gb dédiés à l'IA pourraient être utilisés pour de l'entrainement déporté on-device ?
    Car là, ils auraient un avantage de malade en termes de capacité d'entrainement sur tout le hardware vendu.
    Ce qui rendrait encore plus essentiel le fait de consommer peu, pour que ça reste plus scred.
    Merci pour votre travail de qualité sur cette chaîne

    • @DavidBoura
      @DavidBoura 6 หลายเดือนก่อน +1

      Oui c'est le rôle de ces nouveaux NPU, qui sont des puces optimisées pour l'entraînement. Reste à voir ce que ça donnera, en comparaison des énormes clusters de calculateurs utilisés par les grosses boîtes d'IA.

  • @TheEricDangerous
    @TheEricDangerous 6 หลายเดือนก่อน

    La principale innovation des M3, c'est leur meilleure segmentation . A 7200$ le M3Ultra toutes options (16 coresCPU 40gpu 128go 8tb) on tord un peu plus le bras de l'acheteur (le 14 coresCPU est 500$ moins cher).

  • @Distrido75
    @Distrido75 6 หลายเดือนก่อน +1

    On fabrique des trucs d'une précision atomique et on lance des trucs dans l'espace, puis de l'autre côté on écrit encore sur du papier et on meurt de faim. On vit dans un monde bien étrange.

  • @cartcurtis4236
    @cartcurtis4236 6 หลายเดือนก่อน

    En vrai ceux qui font du arm aujourd'hui vont dans le même sens il n'y a qu'à voir la sortie des nouveaux snapdragon !

  • @victorw4142
    @victorw4142 5 หลายเดือนก่อน

    Vers une application des llm et deep learning en peer 2 peer a grande échelle ? 😉

  • @franckmalers2299
    @franckmalers2299 5 หลายเดือนก่อน

    Je me suis toujours dit qu'un Jarvis perso ce serait un truc de ouf mais je refuse de me servir des LLM et "IA" tant que les données partent je sais pas où et que tout n'est pas en local. Clairement, s'ils arrivent à le faire c'est le genre de truc qui pourrait me faire acheter du apple

  • @alexterieur3394
    @alexterieur3394 6 หลายเดือนก่อน +1

    Tiffany elle habille bien une pièce n'empêche

  • @rayankr69
    @rayankr69 6 หลายเดือนก่อน

    A savoir il n'y a que 2 machines capable de graver en 3 nanomètres , EUV 3nm N3 de Samsung & NE3 de TSMC , a ce jours .

  • @samsonb6788
    @samsonb6788 6 หลายเดือนก่อน +1

    Moi je pensais que c’était une réponse à l’annonce de snapdragon avec le nouveau processeur ARM !!? C’est arrivé aussi précipitamment que la surprise de l’annonce de snap !!??

    • @dukefsc
      @dukefsc 6 หลายเดือนก่อน

      Bah oui ils ont sorti le M3 du chapeau juste pour répondre à Qualcomm qui…. Pour l’instant n’a rien sorti ;)

  • @refusneant
    @refusneant 5 หลายเดือนก่อน

    Cette chaîne est remarquable. Vraiment.

  • @MrXuanB
    @MrXuanB 6 หลายเดือนก่อน

    Alors c'est intéressant.
    Mais y'a bcp de confusion sur les terminologies, bcp de suppositions et d'approximations.
    C'est dommage

  • @yvangascogne
    @yvangascogne 6 หลายเดือนก่อน +1

    Canon a récemment développé une techno de nano impression qui semble prometteuse et qui reduit les coûts à une fraction du prix des bijoux d'asml

    • @alloquoi3281
      @alloquoi3281 6 หลายเดือนก่อน +1

      Oui mais le débit des machines Canon serait bcp plus faible selon une personne de la profession, 80 plaquettes/h au lieu des 300 plaquettes/h des machines EUV d''ASML ... Affaire à suivre en tout cas.

    • @yvangascogne
      @yvangascogne 6 หลายเดือนก่อน

      @@alloquoi3281 si le tarif de 15M$ pièce est tenu cela peut valoir le coût s'ils fonctionnent en série. Et les restrictions seront peut-être moindres...

  • @Louckil21
    @Louckil21 6 หลายเดือนก่อน

    Deux choses :
    -3nm ce n'est pas de la taille d'un atome d'oxygène, d'ailleurs l'échelle de l'atome va vite apparaître comme une limite à la gravure.
    -Elle sert à quoi la nana ?

  • @afpseb4582
    @afpseb4582 6 หลายเดือนก่อน

    Mon etudiant qui travaillait chez intel en 2010 : on a atteint la limite des nanos. La suite c'est la biotech

  • @cocowww
    @cocowww 6 หลายเดือนก่อน

    Vous avez oublié l'incroyable news du vice président worldwide marketing d'Apple qui dit que 8 go sur MacBook c'est aussi bien (ou mieux) que 16go sur pc...

  • @daye40k92
    @daye40k92 6 หลายเดือนก่อน

    Ce qui est surprenant aussi c’est qu’ils fassent des comparaisons entre la M3 et la M1, et pas la M2 de mémoire

    • @tbfrstudio5416
      @tbfrstudio5416 6 หลายเดือนก่อน

      Ça fait juste un plus gros écart

  • @user-vc8zu8hm8b
    @user-vc8zu8hm8b 6 หลายเดือนก่อน

    Le sourir de madame est totalement passionant

  • @jeanfrancoisponcet9537
    @jeanfrancoisponcet9537 6 หลายเดือนก่อน

    2:21 Un atome ne fait pas non plus 3nm.
    En fait quand on parle d’atome, il est difficile de donner une taille exact, car le volume des l’atome dépend de la distance entre son noyau et son nuage d’électron. Ce dernier variant selon l’énergie contenu et la nature de l’atome. Un atome d’hydrogène a un électron donc une couche d’électron. Un atome de lithium a 3 électron et deux couche d’électron (deux électrons sur la première couche, 1 électron sur la deuxième. Le lithium est plus volumineux que l’hydrogène. Par contre, le béryllium (plus lourd que le lithium, est moins volumineux : les deux électrons de la première couche du lithium repousse plus l’électron de la 3ème couche. Le béryllium a plus de charges positives mais autant de d’électron sur la première couche. La première couche est plus attiré par le noyau, et la deuxième l’est de facto aussi car moins repoussé par la première couche.
    On peut tout de même estimer une moyenne de taille d’atome en comparant la distance entre deux nucleus de même atomes. Mais les distance sont entre 0.1 et 0.5 nm.
    En aucun cas 3 nm.

  • @rowger1375
    @rowger1375 6 หลายเดือนก่อน +6

    J'adore votre émission mais je trouve dommage que le temps de parole des 3 personnes soient toujours 2 + 1. Une personne est toujours là pour figuration, que pour de réelles interventions. Sinon changé rien les sujets, contenu sont tops :)

    • @robinhoodhimself
      @robinhoodhimself 6 หลายเดือนก่อน

      Oui, la femme est la figuration et franchement je me demande ce qu'elle fout là, mais les deux autres auraient leurs place chez Cyril Hanouna. Ici c'est de l'info pour la maternelle sur du glacé.

  • @Fox-BZH
    @Fox-BZH 6 หลายเดือนก่อน

    Et pourquoi pas utiliser tout les procs M3 dans un system "P2P" pour créer le plus gros et le plus décentralisé des processeurs jamais créé ?

  • @pierrew1532
    @pierrew1532 3 หลายเดือนก่อน

    L'épaisseur cheveu ce n'est pas 90nanometre (9.10-8m) mais entre 40 et 100micron (4.10-5 et 10-4m, ou tout simplement 1 dixième de milimètre). 3nanometre c'est BEAUCOUP plus petit que tout ça, c'est 3.10-9m

  • @huttmine
    @huttmine 5 หลายเดือนก่อน

    La vidéo est accélérée non ?

  • @KodeurKubik
    @KodeurKubik 6 หลายเดือนก่อน

    Hello World depuis puce M3 :)

  • @swisswildpicsswp3095
    @swisswildpicsswp3095 6 หลายเดือนก่อน +1

    Pendant ce temps là, iCloud a toujours une interface de merde et perd des données, il faut payer pour lire des HEIC sur Windows, TH-cam bloque des adblocks, les services de streaming sont en crise...
    On s'excite beaucoup sur l'IA, mais est-ce que quelqu'un se préoccupe encore de l'expérience de base des utilisateurs?