Comment Apple a détruit Intel ?

แชร์
ฝัง
  • เผยแพร่เมื่อ 20 ก.ย. 2024
  • linux vs unix • Linux n'est pas Unix !...

ความคิดเห็น • 777

  • @trash
    @trash 3 ปีที่แล้ว +890

    Des fois les suggestions TH-cam elles font découvrir des pépites

    • @abdinemaiga2994
      @abdinemaiga2994 3 ปีที่แล้ว +4

      Trasheur 😄😄😄

    • @elrisitas6487
      @elrisitas6487 3 ปีที่แล้ว +23

      Je quitte trash

    • @Ddbg774
      @Ddbg774 3 ปีที่แล้ว +1

      Heuuuuuuuuuu stp Trash debunk ce qu'il dit mes oreilles saignent 😭😭

    • @what4401
      @what4401 3 ปีที่แล้ว +1

      C’est donc grace un peu à vous que j’ai trouvé cette vidéo

    • @christophekatanga8910
      @christophekatanga8910 3 ปีที่แล้ว +2

      Grave de ouf

  • @Micode
    @Micode 3 ปีที่แล้ว +654

    Quelle masterclass

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +63

      Omg une STAR dans les commentaires !!🌟 🌟 🌟

    • @pal-1855
      @pal-1855 3 ปีที่แล้ว +8

      @cocadmin Non, franchement bon bouleau, je viens de découvrir cette chaîne, c’est super intéressant ! Continue cocadmin !

    • @NEATHOFF
      @NEATHOFF 3 ปีที่แล้ว +9

      Un Micode sauvage apparaît

    • @pal-1855
      @pal-1855 3 ปีที่แล้ว +1

      @@NEATHOFF pas mal 🤣

    • @retrox4923
      @retrox4923 3 ปีที่แล้ว

      @@cocadmin frère y a que des stars dans tes commentaires

  • @ChristopheCasalegno
    @ChristopheCasalegno 3 ปีที่แล้ว +101

    Hello, et merci pour la vidéo. Ma petite contribution : le débat entre les architectures RISC et CISC date d'il y a bien longtemps maintenant. Chacun a des avantages et des inconvénients. Pour simplifier les architectures CISC ont des performances optimisées dans une logique "hardware", pour du RISC, les performances sont optimisées avec un focus sur le soft. Dans la pratique cela veut dire que les performances du RISC reposent sur un pari statistique de l'utilisation qui va en être fait du hardware par le logiciel.
    Les gens qui ont développé les architectures RISC sont partis des éléments statistiques qui indiquaient que 80% des programmes n'utilisaient que 20% du jeu d'instruction du CPU (oui je sais, encore le principe de Pareto...), que les instructions les plus utilisées étaient celle de chargement, de rangement et d'appel de sous-routines, que 80% des variables locales étaient des entiers et que 90% des structures complexes sont des variables globales. Enfin on avait aussi pu constater qu'on allait pas au delà de 8 niveaux d'imbrication des appels (les valeurs supérieures représentaient moins de 1% des cas rencontrés).
    De ce fait, si le programme utilisé (et Apple du coup maitrise aussi la couche logicielle de son offre) respecte ces principes : le gain est énorme. Par contre, si au lieu d'avoir principalement des entiers de différentes tailles et des nombres flottants en double ou simple précision tu te retrouves à manipuler des chaînes de caractère, des nombres complexes, des polynomes, etc. : alors les performances des processeurs RISC s'effondrent au profit du CISC.
    Du coup ce qui va faire la différence revient à la qualité et la pertinence du compilateur utilisé, puisque c'est lui qui va devoir optimiser le code en fonction de l'architecture. Plus ce dernier sera capable de trouver des stratagèmes pour "risc-er" le code, et plus il aura des chances d'être efficace sur RISC. Mais dans certains domaines, la meilleur optimisation logicielle ne peut compenser ce qui est "cablé" dans le processeur.

    • @ChristopheCasalegno
      @ChristopheCasalegno 3 ปีที่แล้ว +20

      Du coup je rajoute concernant ta question, non je ne pense pas que les architectures CISC ne doivent s'inquiéter de la monté des architectures RISC. Les premières machines RISC sont plus vieilles que moi, même si ça s'est vraiment popularisé au début des année 1980. Pour autant j'ai adoré des machines comme les DEC Alpha ou les stations SPARC de Sun Microsystem. Mais je crois que ces 2 architectures continueront de cohabiter encore quelques décénnies avant d'être supplantées par des architectures modulaires hybrides classiques/quantiques. A suivre :) J'ai laissé un like au passage ;)

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 ปีที่แล้ว

      Je vois pas l'avantage du CISC vraiment...
      Et non , le CISC n'a pas de performance "hardware" au contraire.
      Il y'a deux gros défaut du CISC :
      -Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Ce n'est pas pour rien qu'on ne fait plus de CISC depuis les années 90 ;)
      (Le x86 a continuer pour des raisons de compatibilité).

    • @ChristopheCasalegno
      @ChristopheCasalegno 3 ปีที่แล้ว +9

      @@yamazakikaoru9579 : Hello, désolé mais encore une fois, et à l'image du monde tout n'est pas noir ou blanc, et bien que j'ai une préférence personnelle pour les architectures RISC (le DEC Alpha était "LA" machine de mes rêves, mais à 150.000 balles, innacessible pour moi à cette époque), le CISC dispose également d'avantages indéniables qui lui sont propres : tout dépend encore une fois des opérations à effectuer.
      Si le sujet te passionne, je t'invite à consulter cette thèse publiée à l'université du Michigan en 2017 qui est un excellent point de départ sur l'impact de l'architecture sur les performances délivrées par un processeur : scholarworks.wmich.edu/masters_theses/1519/
      Excellente soirée et bonne continuation.

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 ปีที่แล้ว

      @@ChristopheCasalegno Je n'ai pas dit que tout est noir ou blanc , mais actuellement le CISC n'a plus aucun gros avantage .
      Je te met ici les différences :
      -Un proc RISC , c'est plus simple à faire tout en étant performant
      Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      c'est souvent 30% de transistor en plus qu'un RISC classique (tu as un microcode directement dans le core qui doit quand même reconnaître 700 instructions et faire sa conversion), ,2-3 étage en plus pour le décode.
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
      Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
      Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86/CISC).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Bref ce n'est pas pour rien qu'il n'y a plus de proc CISC actuellement ;)
      (Sauf le x86 qui est un mix des deux pour rétrocompatibilité )

    • @ikaztt85johnson83
      @ikaztt85johnson83 3 ปีที่แล้ว

      je n'ai pas suivi la technologie des ordinateurs, mais je suis d'accord sur le fait que l'avenir dépend de paramètres plus complexes, et aussi de rapports investissements/bénéfices,
      Intel a la technologie RISC et ne s'en sert pas trop, je ne pense pas qu'ils soient "à la ramasse" mais qu'ils attendent
      fr.wikipedia.org/wiki/DEC_Alpha

  • @philippe-lebel
    @philippe-lebel 2 ปีที่แล้ว +11

    Ça fait 2 jours que je découvre cette chaîne. Un futur hit pour moi. Les sujets sont passionnant, originaux et bien traité. Bravo.

  • @elronn58
    @elronn58 3 ปีที่แล้ว +82

    Excellent les explications à la "C'est pas Sorcier"

    • @Tux63
      @Tux63 3 ปีที่แล้ว +2

      il fallait choisir entre le coca et le camion .... le choix a été vite fait 🤣😁😁

  • @loupdanger
    @loupdanger 3 ปีที่แล้ว +1

    Bonjour je suis ingénieur de l'Ecole des Mines de paris et je tiens à vous félicités pour la qualité du contenu fourni. Encore une fois Merci.

  • @Wagglepuff
    @Wagglepuff 3 ปีที่แล้ว +124

    Tu t'es donné du mal mais ça valait le coup, c'était grave intéressant, merci pour ton contenu 👍

  • @AngelDarthNet
    @AngelDarthNet 3 ปีที่แล้ว +79

    Apple a co-develloper le PowerPC(Risc) avec IBM qui est un dérivé du Power(Risc) d'IBM , apres les Ax (Risc) de Arm , donc ils sont loin d 'etres totalement debutant dans le Risc

    • @Christian-hr7sq
      @Christian-hr7sq 3 ปีที่แล้ว +5

      Avec IBM et Motorola...
      Le passage sous Intel a été fait car IBM arrêtait le PowerPC (fabrication et développement) seul Motorola continuait et ne pouvait pas fournir Apple.

    • @freddawin5347
      @freddawin5347 3 ปีที่แล้ว +4

      @@Christian-hr7sq eh oui, le monde des affaires ... les PowerPC etait déjà plus puissant qu'Intel à l'époque, au vu des part de marché d'Apple, ca ne pouvait pas continuer dans ce sens ...

    • @Cardinal2Richelieu
      @Cardinal2Richelieu 3 ปีที่แล้ว +2

      Et c’était vraiment triste qu’Apple abandonne les processeurs Risc. A l’époque cela m’avait attristé, car le x86 est vieux depuis longtemps déjà 😜. Leurs dettes technologiques est énorme aujourd’hui. Seul un acteur contrôlant toute la ligne (processeur / matériel en général / système d’exploitation / API de développement ) comme Apple pouvait tout revoir enfin ! En tous cas cela fait du bien, merci la pomme.

    • @Chris-in-Asia
      @Chris-in-Asia 3 ปีที่แล้ว +4

      @@freddawin5347 Le PowerPC était dépassé par les puces d'intel, car IBM ne voulait pas investir seul dans le développement d'une nouvelle génération. Ils ont proposé à Steve Jobs d'investir avec eux, mais il a refusé.

    • @Chris-in-Asia
      @Chris-in-Asia 3 ปีที่แล้ว +1

      @@Christian-hr7sq Non, Motorola avait arrêté depuis longtemps. Motorola semi conducteur n'existait d'ailleur déjà plus à cette époque, ils avait revendu à Freescale. IBM ne voulait pas investir seul dans une nouvelle génération de puces. L'ancienne génération devenait obsolète et ils ont demandé à Apple d'investir avec eux, mais ils ont refusés.

  • @louiscordhomme45
    @louiscordhomme45 3 ปีที่แล้ว +22

    très bonne vidéo, je sais pas si tu compte continuer dans ce genre de format mais en tout cas j'ai trouver ca très intéressant et plutôt bien expliquer et clair.

  • @politiquealgerie
    @politiquealgerie 3 ปีที่แล้ว +67

    Merci pour toutes ces informations. Très bonne chaine que je viens de découvrir

    • @ROLLSKATETROTT
      @ROLLSKATETROTT 3 ปีที่แล้ว +2

      tahia djazaaaiir

    • @user-bp6mz1gt5i
      @user-bp6mz1gt5i 3 ปีที่แล้ว +3

      @Memes Heaven oui tahia l'djazair

    • @Flow-flop
      @Flow-flop 2 ปีที่แล้ว

      @zakae6hdt7 :D il fais ce qui veut tu vas faire quoi?

    • @FatalBcr
      @FatalBcr 2 ปีที่แล้ว

      @zakae6hdt7 :D Fan d’Éric zemmour 🤷‍♂️

    • @uzgar
      @uzgar 2 ปีที่แล้ว +1

      kess sa fou là ?

  • @nidalege7416
    @nidalege7416 3 ปีที่แล้ว +3

    Très bonne explication de vulgarisation.
    Apple avec le choix de l'architecture ARM me rappelle les moments forts de l'informatique des années 90 ou l'on avait une quantité de CPU disponible qui m'a fait révé. J'ai toujours voulu avoir un DEC Alpha qui exécutais des logiciel X86 plus rapidement que les CPU intel de l'époque.
    - ARM (RISC)sur les station Acorn très apprécié des monteurs vidéo et Intel faisait lui aussi des CPU ARM avec les Strong ARM. On trouve l'architecture dans les PlayStation 1 & 2 et les GameBoy depuis la Advance.
    - MIPS (RISC) dans les fabuleuse station de SGI que l'on retrouve maintenant dans des super calculateurs en chine et dans le monde de l'embarqué
    - POWER (RISC) que l'on a vu dans les serveurs AS400 à maintenant iSeries, dans le top 5 des super calculateur, les stations NeXT puis macs comme Be, des mod pour les Amiga et Atari et surtout dans le spatial via la NASA. Les consoles PlayStation 3, Xbox360 et GameCube
    - SPARC (RISC) de chez SUN qui est en train de mourir alors que fut un temps cette gamme de cpu était présent dans pas mal de calculateur surtout via Fujitsu. On trouve du SPARC dans l'espace via le CPU LEON pour l'ESA et quelques CPU de la NASA.
    - DEC Alpha (RISC) dans les machine du même nom. Mort après le rachat de Compact par HP.
    - IA-64 dans les CPU Itanium 1 & 2.
    ________________________________________________________________________________________________
    ARM ne fait que concevoir l'architecture logique et physique dont des licences sont vendues.
    Apple comme Qualcom eux ne prennent que la licence de l'architecture logique et conçoivent ensuite le cpu arm de zéro. (Je ne sais plus Nvidia, mais il me semble que c'est aussi partie d'une feuille blanche)
    Seul Qualcomm, Apple et Nvidia dans le monde ARM font des GPU de zéro. Si ma mémoire est bonne Samsung a un projet non concrétisé de GPU.
    Le reste est sous licence ARM avec les GPU Mali ou Imagination Technologies avec les PowerVR.
    Apple peut effectivement devenir via ses ARM un concurrent sérieux sur le marché grand publique des PC plus conventionnel sous x86-64.
    Mais j'ai des réserves. C'est la grande différence entre Apple et le PC x86. Apple est capable dans son propre marché de faire une rupture ce que le monde X86 ne peut pas pour des raisons de rétrocompatibilité. J'attend avec impatience ou Microsoft dise on arrête le x86.
    Apple est passé des CPU Motorola 68K au Power de Motorola puis IBM pour ensuite aller sur le x86 et maintenant ARM. Prochaine étape de leur émancipation, avoir une fab de semi-conducteur affin d'être intégralement autonome ?
    Et ce que tu soulignes dans la vidéo, le fait que Apple maîtrise le matériel, le kernel, l'os dans son ensemble, les compilateurs surtout Clang + LLVM et les applications font que les performances ne peuvent que être bonne. Chose que le monde Wintel (oui je suis veille) ne peux avoir du fait de l'ouverture même de la plateforme PC depuis sa création.
    Pour moi, Apple restera un marché de niche face au X86
    Concernant ARM face au x86, c'est déjà la victoire d'ARM de part le nombre de matériel tournant sous ARM : tablette, téléphone, carte de développement style Raspberry.
    Pour Intel, l'entreprise ses trop reposé sur ses lauriers, a merdé sur sa vision du futur qui en fait l'une des raisons dans le choix d'Apple de faire ses CPU pour les mac et du succès grandissant l'architecture ZEN d'AMD qui comporte une unité ARM pour la sécurité.
    ________________________________________________________________________________________________
    Dans le monde ARM c'est un bordel sans nom pour si retrouver entre les mélange CPU et SOC et les différentes versions de l'architecture.
    Pour le M1, Apple c'est basé sur la dernière version de l'architecture ARM : ARMv8.6-A (annoncé en 2019). ARM n'a pour l'instant aucun design de CPU à proposer en licence.
    Ce qui est intéressant avec l'ARMv8.6-A, ce sont les unités de calcul vectoriel et de virgules flottantes : GEMM, BFloat16, NEON qui sont comparable à ce que fait Intel avec son set d'instruction AVX-512.
    Et oui ARM est aussi tordu que le monde X86 dans l'ajout d'unité de calcul anexes. Ce qui me permet d'en arriver a ce que je voulais dire depuis le début, rien n'est plus CISC, MISC ou RISC. C'est un jolie cocktail. Même la toute dernière génération architecture RISC via le projet open sources RISC-V n'est pas si RISC que ca via ses unités de calcul vectoriel.
    Pour information, les CPU x86-64 ne fonctionne pas en interne dans ce type de jeux d'instruction gardé uniquement pour la compatibilité. Dans les CPU x86-64 il y a des unité de conversion des instruction X86-64 vers celle utilisé réellement par le CPU.
    Les jeux d’instruction comme le SSE ou l'AVX ne sont pas x86, ses unité ont leurs propres logiques.

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +1

      Salut Nida! C'est toujours un plaisir de lire tes commentaire :)
      Microsoft on eu aussi tenter de passer a ARM avec leur dernière surface mais leur gros problème sont les performances en émulation pour rester compatible avec les programmes x86 encore majoritaire pour windows.
      Ils on l'air de faire des SoC custom avec qualcomm
      J'imagine qu'il vont s'inspirer d'Apple et continuer à pousser ARM pour windows.

    • @nidalege7416
      @nidalege7416 3 ปีที่แล้ว

      ​@@cocadmin loin d'être si simple pour Microsoft. Intel a menacé plusieurs fois Qualcomm et Microsoft sur la propriété intellectuelle pour l'émulation X86.
      Il y a le soft App Assure qui doit aider les programmeur a la migration vers ARM. Mais en l'état actuel, si Microsoft ne bascule pas ses propres applications sur architecture ARM, ca part mal. Le mieux pour Microsoft est de copié la politique d'Apple en ayant un CPU ARM sous contrôle et Qualcomm est connu pour faire de bon SOC ARM.
      Mais je vois mal Microsoft ce créer un écho système matériel fermé comme Apple. Ca va crier de partout. Déjà chez Apple ca gueule chez les dev pour faire la migrations des applications. Je ne veux pas imaginer le bordel dans le monde du PC entre les jeux, les applis métiers, les cartes 3D, son, etc, CPU Intel et AMD qui sortent du jeux.
      Je me souviens encore de la mauvaise volonté lors du passage à Vista des fabriquant de matériels à accepter moins de liberté en mode kernel. Les fabricants de matériels ont une grosse responsabilité dans l'échec de Vista. Il y a eu aussi le cas ou Microsoft a serré la vis pour la sécurité de son OS, les éditeurs d'antivirus ont bien gueulé. Donc MS a du faire quelques pas en arrière au détriment de la sécurité.
      Apple a cet avantage de plateforme fermé ce que ne peut pas avoir Microsoft sans impact violent.
      Sur Android, Chrome Book, iPhone ou Mac, ça ne choque personne d'avoir par défaut les applications propriétaires de Google ou d'Apple. Quand on passe sous Windows qui a une logithèque libre et propriétaire conséquente, les utilisateurs trouvent un manque de liberté et cri au scandale ! J'ai toujours trouver cela ubuesque.

  • @MDarkus3
    @MDarkus3 3 ปีที่แล้ว +2

    J'aimerai si tu me le permet commenter quelques parties de la vidéo
    ARM vs Apple:
    - ARM ne fait que concevoir l'architecture, l'entreprise ne fabrique pas de chip. Elle vend des license d'utilisation de ses architecture processeur au autres compagnies, qui réutilise et intègre des fonctionalités supplémentaire par dessus l'architecture ARM on appelle celà des chip ASIC - Application-specific integrated circuit.
    - En 2011 ARM révèle sa nouvelle architecture ARMv8 basé sur une architecture 64-bit. Apple à été le premier à intégrer ce design dans leur produits: Apple A7 dans iPhone 5S. Dire donc que Apple à devancer ARM n'est pas faux en soit car ARM comme dit plus haut ne fabrique pas de processeur, seulement le design. Mais ce n'est pas leur rendre justice car ce sont eux les architectes de la technologie que ré-utilise apple.
    RISC vs CISC
    Opposé CISC & RISC n'est pas très productif car ces deux familles de processeur ont leur justification technique: les core RISC ne sont pas fondamentalement plus performent, tout dépend tu type de problème qu'on veux résoudre, un pipeline avec prédiction de branch, execution dans le désordre, parrallèlisme, etc ..., tout ce que fait fonctionner nos ordinateur Windows & Linux actuel, n'est possible qu'avec un jeux d'instruction complexe. De plus avec les nouvelles avancé technologique des mémoires ( MRAM, FRAM, PRAM, NRAM) la vitesse d'accès ne sera plus un problème et des architecture telle que CISC vont redevenir bien plus intéréssante que des RISC ou pour chaque instruction on LOAD depuis la RAM vers les registre processeur et inversement avec le WRITEBACK (store). Si le processeur devient capable d'opérrer directement depuis la RAM l'architecture RISC n'as plus grand d’intérêt. Il y à aussi des considérations énergétique mais je ne rentre pas dans le détail (où le RISC et moins énergivore que le CISC car pas de gaspillage de cycle, pour un nombre d’instruction donné).

  • @astro.photographer
    @astro.photographer 3 ปีที่แล้ว +3

    Super bien expliqué merci tu m’a éclairé en 24min alors que plusieurs heures de vidéo d’autre TH-camrs tech ne le faisait pas

  • @pierrederaunies6565
    @pierrederaunies6565 3 ปีที่แล้ว +15

    Punaise Cocadmin tu m'as bluffé ! J'ai tout compris du début à la fin, merci pour les exemples avec post-it, c'était super clair.

  • @Qyoon
    @Qyoon 3 ปีที่แล้ว +4

    Excellent contenu , c'est travaillé , bien vulgarisé et clair.
    Vraiment une excellente, découverte.
    Du contenu de qualité, rare en Tech FR !

  • @nicolaskuntz8606
    @nicolaskuntz8606 3 ปีที่แล้ว +4

    Première fois que je tombe sur ta chaine, je m'attendais pas à ce style de vidéo assez technique mais c'est très appréciable et intéressant. Continues comme ça !

  • @vestoz1387
    @vestoz1387 3 ปีที่แล้ว +1

    Pk j’ai cette vidéo que maintenant dans mes suggestions TH-cam. Quel masterclass !!

  • @ivymike9479
    @ivymike9479 3 ปีที่แล้ว +6

    La vidéo la plus claire de tout youtube. Bravo !

  • @satan2k
    @satan2k 3 ปีที่แล้ว +7

    Excellent récap, super la petite explication des pipelines ! :-)
    Je suis plus ou moins d'accord avec ton analyse, mais il faut replacer un peu tout dans son contexte. ARM est très efficace pour toutes les utilisations basiques, pour tout ce que fait Madame Michu, les 9/10 èmes des instructions x86 ne sont jamais utilisées. Par contre pour des trucs plus cossus, comme des maths, ou de la simulation, ARM montre vite ses limites. Mais comme le point fort d'ARM est sa consommation, on peut s'en permettre d'en mettre 10x plus pour gommer ce manque.
    Si AWS et consort se lancent dans ARM, c'est pour deux raisons:
    1) comme tu l'as cité, le contrôle. Quand tu achètes chez ARM, tu achètes le "blueprint". Après tu peux modifier tout ce que tu veux, ce qui n'est pas du tout le cas du X86. Seul AMD a une license pour le dévelloper. (Et ca s'est arraché aux forceps au tribunal)
    2) la consommation électrique. Quand tu as des centaines de datacenter, avoir une très grosse économie même sur le sleep, c'est une économie conséquente. Surtout quand tu peux te permettre d'étendre ("scaler") sans contraintes. Et là encore, dans 9/10 eme du temps, pour la plupart des workloads, une bonne partie des instructions x86 ne sont pas utiles.
    Pour revenir à Apple, selon moi, leur plus gros défaut dans cette approche, c'est d'avoir pas seulement viré Intel, mais aussi viré Intel ET Nvidia/Amd. Sur ARM tu n'as pas de support des GPUs comme ça l'est sur X86.
    Du coup, Apple met à la trappe tout le boulot fait sur le calcul distribué (OpenCL) ainsi que tout le calcul de rendu de scene. Je connais des graphistes / designers qui grincent des dents, car ils craignent de devoir retourner sur du Windows. (Ouais les mac pro existent encore en x86, mais le support va être bien plus court)
    Et concernant le x86, faut pas jeter le bébé avec l'eau du bain, je pense que tu es passé à côté des gros progrès de AMD qui permet par exemple 64 cores 128 threads, pour une empreinte thermique (TDP) de 250w. AMD qui, on doit le rappeler, équipe toutes les consoles de salon (la switch n'étant pas vraiment une console de salon, mais nomade), et a monté des technos pour l'accès en direct des ressources GPU -> stockage -> GPU direct sans accès processeur, ce qu'est incapable ARM vu que ce sont majoritairement des SOC :-)
    En gros pour faire court, avec son M1 et son approche, il flingue les graphistes / modelers / designers en CAD / data scientists (j'en connais) qui utilisaient du Apple. Il flingue aussi le gaming. (bon okay vu le peu de personnes qui "jouent" sur mac, mais bon ...)
    Donc, Apple a détruit Intel, ouais, enfin il a plutot abattu un cheval qui était déjà à l'article de la mort. Par contre il n'a flingué ni AMD, ni l'écosystème PC. Mis à part la hype ou bien à moins d'avoir besoin d'un appareil nomade performant, le M1 n'est pas concurrentiel. Si je compare par exemple avec mon refresh à base de 5900x, les perf sont équivalentes en single, poutrent le M1 en multi, poutrent le M1 avec la partie graphique, l'ensemble est compatible, réparable (pas de colle!), extensible et tout ça pour la moitié du prix..... Donc à part le dev ou l'IT nomade qui voyage souvent, je ne vois aucun interêt à acheter le M1, du moins pour le moment.

    • @Le-J-
      @Le-J- 2 ปีที่แล้ว +1

      Commentaire excellent qui vient parfaitement compléter la vidéo. Merci !

    • @jeandupond7941
      @jeandupond7941 2 ปีที่แล้ว

      Je suis d'accord, mais pour moi le mac m1 reste la meilleure alternative, consommation plutôt basse, machine polyvalente, avec le temps c'est sûr que les applications seront compatible sur m1, sans compter le prix, en suisse un Macbook air m1 coûte 880 chf, avec 880chf tu as aucunes machines avec de tel performance(fiable, très longue autonomie, os stable qui plante pratiquement jamais, très bon écran, léger, fin, et qui surchauffe pratiquement jamais et surtout le très bon support apple) en gros aucune machine fait mieux, pour moin de 880€ ,apple est devenu moin chère que les concurrents sur Windows, on vit une époque incroyable quand même

    • @satan2k
      @satan2k 2 ปีที่แล้ว +1

      @@jeandupond7941 Effectivement, ce ne sont pas de mauvaises machines. Elles rencontrent leur public. Question prix, en Belgique, a l'écriture de mon commentaire, j'en ai eu pour 1100€ pour une machine de rêve, hors carte graphique vs 2500€ le M1 plus ou moins équivalent (avec les différences notées au dessus). Maintenant a notre époque, je conçois que le prix démentiel et inadmissible de cartes graphiques fait changer la balance. Au point de vue technique, je campe sur mon avis, mais au point de vue du coût, j'avoue que ça "devient" concurrentiel (justement parce que tristement les petits copains commencent a exagérer).
      Par contre, même si Apple a enfin fait des efforts niveau de la possibilité de réparer ses appareils, je trouve (et ce n'est que mon opinion) sa pratique générale honteuse. Réparation difficile ou impossible selon le cas, support qui se dédouane très rapidement (on a du retourner du Apple au boulot, la foire a l'empoignade...). Upgrade quasi impossible, obsolescence programmée des mises a jour OS, etc. Loin, très loin du Apple respecté et aimé de ses débuts ☹️

    • @jeandupond7941
      @jeandupond7941 2 ปีที่แล้ว

      @@satan2k concernant les réparations ça concerne toutes les marques en général et surtout les ultra book, niveau technique je peux pas trop parler car je suis pas calé du tout sur le sujet, mais d'après les avis des gens général , ils sont tous d'accord pour dire que si tu veux un portable fiable avec lequel tu peux faire du montage, regarder des films en bonne qualité etc etc, le Macbook air reste la meilleure alternative pour l'instant, pour les modèles au-dessus (Macbook pro 14 et 16) ça je sais pas si ça en vaut la peine et si les prix sont justifiés ou pas, mais à moin de 900€ en suisse y a pas photo, aucun concurrent peut rivaliser

  • @olivierrojo2003
    @olivierrojo2003 3 ปีที่แล้ว +4

    Ça me rappelle mes cours d’architecture en école :) Bien résumé, bravo !

  • @onetouch97111
    @onetouch97111 3 ปีที่แล้ว +3

    Merci, je comprends mieux la différence entre une puce ARM/X86 au niveau performance et architecture. C'était très bien expliqué

  • @lenekogilles7254
    @lenekogilles7254 2 ปีที่แล้ว

    Bonjour
    Je suis quasiment nul en assembleur, mais : j'ai fait toute ma carrière sur des grands systèmes IBM et je me suis beaucoup intéressé à leurs architectures (et donc à l'histoire des systèmes d'exploitation IBM.)
    Vous me rappelez les formations que je dispensais à mes collègues nouvellement arrivés sur le fonctionnement de la mémoire virtuelle avec des OS comme MVS, Z/OS et le sous-système JES2. J'aimais beaucoup faire cela et mes "élèves" techniciens d'exploitation comprenaient beaucoup mieux ce qu'il se passait dans les machines et ce que faisaient les commandes qu'ils passaient.
    NEKO

  • @mohamedafassi7201
    @mohamedafassi7201 2 ปีที่แล้ว

    En 24 minutes j'ai compris ce que mon prof d'architecture processeur essayait de nous expliquer pendant 2 mois, vraiment qu'elle masterclass

  • @bolly-rama3938
    @bolly-rama3938 3 ปีที่แล้ว

    Ici par pure hasard. La pédagogie est un art. Bravo l'artiste.

  • @thierryleriche1196
    @thierryleriche1196 3 ปีที่แล้ว +1

    C'est une des meilleures videos de vulgarisation que j'ai pu voir

  • @loualihocine5577
    @loualihocine5577 3 หลายเดือนก่อน

    1 grand merci cher monsieur (TECNO) Vous êtes le phénix des ingénieurs de technologie

  • @Chrys974
    @Chrys974 3 ปีที่แล้ว

    Tinnn!!!
    Merci beaucoup. Je cherchais une vidéo de vulgarisation du RISC, et c'est bien Foutu 👍👍

  • @fridaycaliforniaa236
    @fridaycaliforniaa236 3 ปีที่แล้ว +1

    La vache, je débarque ici par hasard après tout ce temps à baigner dans l'informatique, et ben c'est du superbe boulot ! Allez hop, abonnement immédiat ! GG l'ami... =)

  • @brunometronome1189
    @brunometronome1189 3 ปีที่แล้ว +3

    Intéressant et très bien expliqué, bravo ! Après sur pc fixe (tour), quand on a des besoins classiques, je pense pas que la différence de perf fera basculer les gens.
    La puissance processeur est de moins en moins un problème. J'ai acheté un intel I3 pas très cher il y a 2 ans lors d'un remplacement d'une carte mère qui a cramé, et il me fait tout tourner, même les jeux, je ne me sens pas restreint par le proc le moins du monde. Par contre pour les pc portables (pour la batterie qui se décharge moins), ou pour les besoins professionnels spécifiques (montage vidéo, ...), Apple montre de sérieux arguments.
    Mais la grosse masse des utilisateurs sous windows a la patate requise pour faire tourner toutes ses applis, ils ne changeront pas pour un nouvel OS qui bousculera leurs habitudes, pour de la puissance de calcul en plus dont ils n'ont au final pas vraiment besoin. Surtout que quand tu migres chez Apple, c'est pas le même budget, et c'est pas non plus la même philosophie (j'ai l'impression qu'on cherche à te tordre le bras pour te faire raquer à la moindre occasion). Bref, détruire Intel et AMD ? Il y a d'autres paramètres que la puissance brute qui nuancent fortement la réponse à cette question... C'est mon humble avis.

    • @RenaudKyoku
      @RenaudKyoku 3 ปีที่แล้ว

      Oui on utilise surtout le GPU pour les gros calcul. Dans la majorité des cas, le CPU est beaucoup moins important que la RAM ou le stockage de masse ou autre.
      Après c'est toujours mieux d'avoir un truc + optimisé et + performant. Mais c'est facile d'être optimisé quand on n'a qu'un sous-ensemble limité à gérer, et qu'on arrive sur le marché 30 ans après les autres (cf GoLang par exemple).

  • @gabrielb.2886
    @gabrielb.2886 3 ปีที่แล้ว

    Tip top!
    Il y a quand même un élément fondamental pour expliquer les performances du M1 : la finesse de gravure. Apple fait fabriquer ses chips par TSMC en 5nm qui offre une densité 1,8x celle du TSMC 7nm utilisé par AMD et une efficacité énergétique 1,3x suppérieure et 1,15x les performances à consommation égale. Quant à Intel qui fabrique lui-même ses chips, ils peinent encore à passer au 10nm (équivalent 7nm TSMC à la louche) pour ajouter à leurs problèmes architecturaux qui ne passent plus à l'échelle en maîtrisant les coûts.
    Il faut aussi parler du compilateur que Apple développe lui-même (clang-llvm) et qu'il peut optimiser très finement pour sa puce M1 comme ils le font pour le reste du système, comme tu l'as très bien expliqué. Il reste possible d'optimiser la compilation pour une architecture spécifique avec les compilateurs sur Windows et Linux mais la spécialisation de l'optimisation est probablement moins bonne que dans le cas d'Apple. Aussi, les logiciels sont rarement recompilés par l'utilisateur pour l'optimiser sur sa propre machine, ce qui implique que les benchmarks que l'on voit comparant le M1 et Intel ou AMD ne sont pas pleinement optimisés pour ces derniers.
    Dernier point, Windows qui sert à la comparaison à peu près systématiquement, n'est pas un OS performant. On peut mesurer près de 30% d'écart pour un même programme entre Windows et Linux : www.phoronix.com/scan.php?page=article&item=windows-may2020-linux&num=9.
    Ceci étant dit, le M1 est une belle réalisation et ce n'est pas moi qui irait dénigrer ARM alors que je travaille avec leurs technologies ;)

  • @lophoto-net
    @lophoto-net 3 ปีที่แล้ว +2

    Bravo ! J'hésitais à regarder cette vidéo pensant bien connaître le sujet (ha, les cours de micro-programmation suivis à l'université il y a bien des années...), mais j'ai bien fait de la regarder en entier !
    À noter cependant un point important qui n'a pas été abordé : les processeurs Apple intègrent directement la RAM au complet en leur sein (et non pas seulement les registres et une mémoire cache de premier niveau)... Ce qui doit avoir un grand impact sur la performance (surtout quand on a la maîtrise complète du matériel et du logiciel).

  • @FanisMichalakis
    @FanisMichalakis 3 ปีที่แล้ว +7

    Merci beaucoup pour cette excellente vidéo ! Je met rarement des commentaires, mais là, chapeau !

  • @Scr3amer42
    @Scr3amer42 3 ปีที่แล้ว +10

    Bonne intro a l'archi processeur. Pour toi Coca et ceux qui sont interesses par ca mon professeur en ecole d'inge a l'ENSICAEN a fait des cours ouverts en ligne sur l'achitecture CPU, RISC, CISC, cache, SIMD, adressage memoire etc... Ca date de 2013 mais c'est toujours aussi pertinent. Clairement un des meilleurs cours que j'ai jamais eu de ma vie.
    www.canal-u.tv/video/centre_d_enseignement_multimedia_universitaire_c_e_m_u/architecture_et_technologie_des_ordinateurs_presentation_de_l_enseignement_et_des_ressources.12466

    • @stochelo78
      @stochelo78 3 ปีที่แล้ว +1

      Elles sont vraiment super ces vidéos même datant de 2013.Je les ai découvertes il y a 2 semaines. Tu as eu de la chance d'avoir ce prof parce que franchement un cours d'architecture ça sonne déjà horrible et qu'on a vite envie de lancer une série Netflix à la place. Or là j''étais scotché.
      Dommage par contre qu'il n'y ait pas de vidéos plus developpées sur le RISC. 🙂

    • @-alim-3585
      @-alim-3585 3 ปีที่แล้ว

      Salut, je suis actuellement indécis sur les écoles, c’est une bonne école ensicaen (elle n’est pas très bien classée je crois)?

    • @Scr3amer42
      @Scr3amer42 3 ปีที่แล้ว +1

      @-Alim- Avec le recul mon avis sur le classement est assez tranche.
      Les profs d'ecoles d'inge en general sont tous bons (au moins 2 de mes profs a l'ENSI sont passes par Normale par exemple et ils etaient tous des monstres dans leur domaine).
      Le probleme c'est les eleves et leur manque de motivation a etudier. Avoir un groupe de faineants ca motive pas les profs a donner cours, faut pas oublier qu'ils sont humains.
      C'est ca qui ruine la reputation d'une ecole. Si demain le top 200 des eleves decident d'integrer une "petite" ENSI elle deviendra de facto la meilleure ecole de France. Ca te donne une idee de la valeur de ce classement.
      Ce que tu gagnes avec les "grosses" parisiennes c'est un reseau et du prestige.
      Si tu comptes faire carriere en tant que cadre superieur (high executive) dans une grosse boite du CAC40 en France alors oui faire une parisienne va aider car il y a un plafond de verre a un certain niveau (DG, DF et consorts) et ne laisse que passer les X, ENS, HEC etc... Une sorte de mafia elitiste qui fonctionne a l'entraide.
      Mais je repete, ca ne sert qu'en France, que pour les grosses boites et que pour les cadres sup en management. Je suis a l'etranger et je peux te dire qu'ils s'en fichent de quelle ecole tu viens tant que t'as un diplome et que tu passes les tests de recrutements ^^.
      En resume, le classement est utile si tu veux:
      - cadre sup en management
      - dans une grosse boite francaise
      Si tu veux bosser a l'etranger, faire de le technique plus que du management ou bosser dans une PME en France ca changera rien a ta vie ^^.
      Ah oui, un autre truc cool avec les grosses ecoles est qu'elles ont un plus gros budget donc plus de trucs funs a faire. Perso je m'en fiche donc ca me manque pas.
      Si tu veux mon feedback sur l'ENSICAEN:
      - tres bons profs voire excellents
      - des cours de qualite
      - mais une majorite d'etudiants qui etaient pas chaud pour bosser (moi y compris et je le regrette, j'etais focus que sur les cours qui me plaisaient). Ca a peut etre change car ca fait bientot 10 ans que j'ai integre cette ecole.
      En retrospective, j'ai pas a me plaindre. Je voulais apprendre l'ingenierie logicielle et ils ont delivre. Je suis capable de bosser sur n'importe quelle techno car ils nous ont bien appris les bases.
      Faut juste pas oublier que ton niveau final c'est toi qui le decide. Plus tu bosses, meilleur tu seras. L'ecole a peu d'impact a ce niveau la. Tu prends un X qui fait rien vs un ENSI qui bosse 24/7, a la sortie c'est le 2eme qui sera meilleur.
      Typiquement, j'ai beau avoir fini l'ecole depuis un bail je continue de coder dans mon temps libre, m'instruire en lisant des bouquins de progs, en regardant des conferences ou autres videos lies a la prog (coucou @cocadmin :P).
      C'est un des principes de base de la vie. Plus tu pratiques X meilleur tu seras dans X. Il y a pas de miracles.

    • @-alim-3585
      @-alim-3585 3 ปีที่แล้ว

      @@Scr3amer42 ok merci pour ta longue réponse tu gères :)

  • @sebastienaltounian8456
    @sebastienaltounian8456 3 ปีที่แล้ว +1

    Excellent !!!! Je cherchais a comprendre pourquoi une telle différence ! Merci beaucoup ! C'est super ce que tu fais 👍

  • @homethanh
    @homethanh 3 ปีที่แล้ว

    Bonjour,
    Enfin une video qui essaye d'aller au fond des choses. Par contre certaines explications ne sont pas exacte.
    CISC vs RISC : Il faut voir le developpement de ces CPU comme des villes. Quand on a une ville historique la circulation et plus difficile qu'une ville nouvelle avec des routes en angle droit . Cf ville USA vs ville Europeenne.
    Intel (CISC) a toujours voulu ajouter des instructions sur un historique x86 , cf jeux d'insttruction MMX etc , en gardant une compatibilité.
    Autre point , le multipipeline : les instructions RISC ont une particuliarite de faire a peu pres le meme nombre de cycle. Ce qui rend les predictions plus juste. Comme si on avait un tetris a 2 pieces differentes et un autre avec 8 pieces.
    La consommation : le RISC n'avait ete prevu pour la faible consommation c'est une feature qui a été utiliser de facon opportuniste , mais ca n'avait pas ete prevu pour cela a l'origine. Le premier PC ARM (RISC) est sorti au debut 90 et le PC etait tout juste transportable donc la consommation etait pas un souci car on etait sur secteur.
    conso : th-cam.com/video/OuF9weSkS68/w-d-xo.html
    En accord , le lead pour les developpements SoftW/HardW de Apple est une politique qui a toujours ete payante. C'est le 3eme changement d'archi majeure.
    68k -> PPC -> x86 -> ARM/M1
    Ce qui tres payant pour cette iteration c'est que la distance CPU-SoftW est reduite , ce qui est un gain de performance.
    Cf : archi mainframe IBM ou le software et le hardware est maitrise par un seul acteur. ou des projet comme linux-bios.
    Le refactoring du CPU M1 , le fait de maitriser sont hardware permet effectivement de mieux faire evoluer pour rechercher la performance.
    Les meilleurs exemple sont les GPU. avec +500 cores.
    Mon avis, c'est qu'on est a un moment clef pour les PC , on aura peut-etre le CPU qui va etre absorber dans la carte mere (carte son , carte graphique).
    Apple en developpant son CPU , a monte sans le vouloir que la CPU n'est plus partie la plus critique d'un PC.
    NVIDIA veux racheter le consorsium ARM , ce qui renforce mon point de vue.
    Continuez , ces videos sont rares.

  • @neonesso
    @neonesso 3 ปีที่แล้ว +3

    J’ai appris tellement de choses dans ta vidéo c’est incroyable, merci pour ce moment 🙏

  • @Wibration
    @Wibration 3 ปีที่แล้ว +2

    Woaw la vidéo est GOLD ! J'ai jamais cliqué aussi fort sur un bouton Abonnement !

  • @legluko3690
    @legluko3690 3 ปีที่แล้ว

    Tu dois lire des dizaines de com semblable, mais j'ai cliqué car je pensais car parlerais de la descente au enfer de Intel face a AMD. C'est une tout autre histoire mais tu m'a accroché des le début et ta vidéo a des explications hyper clair et assez détaillé bravo beau travail.

  • @ouanounours
    @ouanounours 3 ปีที่แล้ว +2

    Excellente vidéo ! Un peu surpris néanmoins que tu n'aies pas parlé du fait que la plupart des composants matériels (RAM, contrôleurs, ...) sont directement intégrés à la puce, ce qui accélère aussi grandement la performance :)

  • @guardians-of-cyber
    @guardians-of-cyber 3 ปีที่แล้ว +1

    Belle présentation. Un joyeux Noël à toi @cocadmin😉

  • @LaurentKarouby_
    @LaurentKarouby_ ปีที่แล้ว

    Un grand merci pour ces éclairages !!!

  • @albanbrument593
    @albanbrument593 3 ปีที่แล้ว +1

    Je connaissais pas mal des éléments différenciants mais ta vidéo est très explicite. Beau travail.

  • @philjustyn
    @philjustyn 3 ปีที่แล้ว +11

    11eme!!! wow
    et j'ai droit à un cours d'architecture des microprocesseurs.
    je suis déjà abonné!!

  • @YannEvn
    @YannEvn 3 ปีที่แล้ว +8

    Je te découvre sur cette vidéo, explications super claires et logiques : tu gagnes un abonné ! Continues comme ça c'est top 💪

  • @chogha
    @chogha 3 ปีที่แล้ว

    Très bonne vidéo, simple et efficace. Dans les années 90 mon deuxième ordi était un Amiga 1200 en fin de vie. Je voulais passer à un autre ordi mais pas un compatible PC. Tout mes potes de mettait au PC avec des pentium 75 MHz et pour les plus riches 100 MHz. Moi je rêvais d'une machine Archimède de acorn muni d'un processeur RISC maison dans la digne ligne de l'Amiga. Je programmais à cette époque et me doutais de ne pas trouver une bibliothèque de fou. La machine n'a pas traverse les frontières et je ne l'ai jamais trouvé en France. Et je suis passer du côté obscure de la force à cette époque. Maintenant ce n'est qu'un outil comme un tournevis il ne me viendrait plus à l'idée de fabriquer celui ci alors qu'il suffit maintenant de l'acheter sur internet.

  • @geojoh3026
    @geojoh3026 3 ปีที่แล้ว +1

    Merci pour le cours, première vidéo que je visionne qui m’explique la base à la place de belle image.

  • @yamazakikaoru9579
    @yamazakikaoru9579 3 ปีที่แล้ว +2

    Je suis étonné de voir une vidéo YT français qui parle de façon aussi technique :p
    L'ARM à une bien meilleur architecture que le x86.
    Et c'est normal , le x86 date des années fin 70 , et même le x64 n'est qu'une extension 64 bits...
    L'avantage de l'ARM est :
    -C'est un proc RISC , c'est plus simple à faire tout en étant performant
    Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
    Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
    -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
    Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
    Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
    -le x86 doit gérer 700 instructions voir plus...
    -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
    Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
    Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
    Tout cela handicap énormément le x86.
    AMD profite plus du gain de transistor (qu'offre TSMC) pour palier les défaut du x86.
    Intel a souvent tenté dans le passé de se débarrasser du x86 (Itanium entre autre) , et sûrement parce qu'il savait que cette architecture allez leur amené pas mal d'emmerde dans le futur.
    Bref je ne suis pas inquiet pour Intel de faire une nouvelel architecture.
    D'ailleurs l'Itanium a tout (dans la théorie) pour faire mieux que du ARM , vu que le jeu d'instruction EPIC est encore une amélioration du RISC :)
    Apres si AMD et Intel sont "devant" , c'est surtout que l'optimisation actuel des processeurs ( Superscalaire Out of Order) est une technologie complexe que maîtrise AMD et Intel depuis 25 ans !
    ARM , cela doit faire au mieux 10 ans qu'ils sont dessus ,et probablement pas qu'il visait les hautes performances.
    Mais avec le temps il est évident que l'écart se réduira et que le x86 sera oui sera assez dépassé techniquement (ce qui l'est deja ).
    Bref sur le x86 on paye surtout de la dette technique ;)

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว

      C'est un super bon resumé :D

  • @FallerToon
    @FallerToon 3 ปีที่แล้ว +1

    Nice, c'est très instructif.
    Je retombe sur tes vidéos en recommandé (encore).
    J'approuve le type qui à validé les explications à la "c'est pas sorcier".
    N'ayant qu'un iota de connaissances dans ce domaine et après avoir compris pas mal de choses, je ne peux que laisser mon pouce de pseudo-approbation en tout état de conscience.
    (Ok j'deconne, j'en fais peut-être un peu trop mais j'ai bien appris grâce à toi ! merci)

  • @GeekInFrance
    @GeekInFrance 3 ปีที่แล้ว

    Superbe vulgarisation pour expliquer un système aussi complexe. Bravo

  • @BenoitDesmidt
    @BenoitDesmidt 3 ปีที่แล้ว +1

    Ayant une chaîne TH-cam aussi, je sais le travail que ça représente ce que tu as fait.
    Et sérieux c'est du lourd.
    Bravo 👏

  • @Sigri2TV
    @Sigri2TV 3 ปีที่แล้ว

    Pour une fois, je vais mettre un petit commentaire ! Juste WOUAH !!!! La claque dans la figure, excellentes explications, pédagogies parfaites, sources/histoire au top, rien à dire je me suis régalé dans cette vidéo ! Vivement la prochaine dans ce genre :)

  • @ybcanal21
    @ybcanal21 3 ปีที่แล้ว +1

    Excellente vidéo ! Très pédagogique. Faudrait faire la même vidéo avec Micro Magic et leur architecture RISC-V car ils annoncent des performances encore bien meilleures que celles de l'Apple M1 et en consommant moins d'énergie. À suivre...

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +1

      les performances par watt sont meilleures, pas les performances globables. Le risc-v consomme moins d'1 watt et le m1 consomme 25 donc il ne sont pas du tout dans la même catégorie. C'est comme dire une fourmis est plus forte qu'un éléphant parce qu'elle peut soulever 2x sont poid :)
      Dans le futur, il se peut que des risc-v scalent bien et viennent concurrencer les cpu d'apple mais ce n'est pas encore le cas.

  • @Tonyhunterblade
    @Tonyhunterblade 3 ปีที่แล้ว +47

    Notez aussi qu'ARM a été racheté récemment par Nvidia... 👍

    • @ayleisma7590
      @ayleisma7590 3 ปีที่แล้ว +7

      Ouai et connaissant la propension d'nvidia a se brouiller avec ses partenaires, ça annonce rien de bon pour le futur des licences ARM... Un des fondateurs de cette firme avait d’ailleurs exprimé ses craintes

    • @Username-xl6jj
      @Username-xl6jj 3 ปีที่แล้ว +1

      @@ayleisma7590 Un petit coche pied à Apple ne fait pas de mal à ces gros monopoleurs (Taxe 30% AppStore) Mais c'est plus dangereux pour les autres utilisateurs de licence ARM.

    • @assirik
      @assirik 3 ปีที่แล้ว +1

      l’accord de 40 milliards de dollars sur l’acquisition d’ARM par Nvidia est suspendu, à cause d’un conflit au sein de la coentreprise ARM China

    • @molotofmezcal
      @molotofmezcal 3 ปีที่แล้ว

      C'est loin d'etre encore fait !

    • @assirik
      @assirik 3 ปีที่แล้ว +3

      @@molotofmezcal oui effectivement mais vraisemblablement l'union européenne va aussi essayer de bloquer l'initiative. L'objectif est que l'europe ne devienne pas dépendant des semi conducteurs us ou asiatiques. On verra bien!

  • @yungchris5631
    @yungchris5631 3 ปีที่แล้ว +1

    sah quel plaisant plaisir.... merci pour les travaux
    vidéo de qualité, avec en plus ma petite dose de choses apprises.

  • @panaf8702
    @panaf8702 3 ปีที่แล้ว +9

    Arm n'est pas le depositaire des puces Risc. Il n'ont fait que remettre au gout du jour ce qui avait ete abandonné

    • @TheSampirat
      @TheSampirat 3 ปีที่แล้ว +1

      Ca n'a jamais ete abandonné !

    • @CANALROBBY
      @CANALROBBY 3 ปีที่แล้ว

      @@TheSampirat C'est vrai ça date, j'en entendais parler il y a longtemps, je crois que les stations graphiques Silicon Graphic utilisaient ce genre de processeur il me semble.

    • @DenisMauplot
      @DenisMauplot 3 ปีที่แล้ว

      @@CANALROBBY il y a fort longtemps Apple avait avec IBM et Motorola fait les Puce POWER PC RISK sur les Power Mac en 1994 jusqu'en 2006 ou Apple est passé sous puces Intel

  • @ronybuzz
    @ronybuzz 3 ปีที่แล้ว

    un sujet aussi complexe, expliqué avec autant de facilité et de clarté c'est impressionnant !! contenu fluide , merci . Force !!

  • @P4pa-Joe
    @P4pa-Joe 3 ปีที่แล้ว

    Vidéo proposée par TH-cam... Curieux mais très sceptique au début. Au final c'est une super bonne surprise ! Merci pour ton travail.

  • @sachavoronej5104
    @sachavoronej5104 3 ปีที่แล้ว +1

    Abonné.
    EXCELLENT travail.
    Merci

  • @codeaveclucien
    @codeaveclucien 3 ปีที่แล้ว +1

    Super sujet de vidéo ! J’ai vraiment kiff mec 💪🏾💪🏾

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +1

      Merci mec :)

  • @le_roi_nu
    @le_roi_nu 2 ปีที่แล้ว

    J'y connais que dalle et pourtant, je comprends tout... Une très grande leçon de pédagogie ! En plus, c'est vraiment intéressant... Mille bravos !

  • @gaetanhugot2303
    @gaetanhugot2303 2 ปีที่แล้ว

    Salut ! Je viens de découvrir ta chaîne, j'espère que tu gagne bien ta vie avec ce que tu fais parce que c'est tout simplement incroyable, super qualité ! Merci de partager avec nous !

    • @cocadmin
      @cocadmin  2 ปีที่แล้ว

      pas encore mais on y crois 🙏

  • @printthehacker1560
    @printthehacker1560 2 ปีที่แล้ว +1

    Une vraie pépite cette vidéo

  • @totoonthemoon3593
    @totoonthemoon3593 3 ปีที่แล้ว

    Merci pour cette vidéo de dévulgarisation. Il faut aussi voir que si les "processeurs" d'Apple très performant dans un usage grand publique, c'est parce que les usages courants (encodage/ décodage vidéo, audio, etc) sont gérés au niveau matériel de façon très avancés (expérience iPhone et iPad) avec aussi un soucis de consommation d'énergie de part l'usage initial, pour permettre d'avoir une réactivité à toute épreuve en consommant extrêmement peut d'énergie dans des usages associés habituellement aux circuits graphiques et vidéo d'autre fabricants qui n'ont pas forcément la même finalité. Aussi, je partage cette conclusion puisque c'est un peut mon discourt depuis 2015, ou l'on sentait déjà le vent tourner...

  • @JirAWS
    @JirAWS 3 ปีที่แล้ว +6

    8 ans qu'on attendait la nouvelle vidéo, j'espère qu'elle va être cool
    EDIT: c'est bon on a pas attendu pour rien 🤓le budget est présent

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +5

      ya au moins 10$ de budget papier crayon

  • @arnaudleconte6735
    @arnaudleconte6735 3 ปีที่แล้ว +1

    Je travaille dans le développement de processeur et je vraiment surpris par la qualité technique de la vidéo (de la part d'un softeux :p). Très bon travail ^^

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 ปีที่แล้ว +1

      Oui ,en général au mieux on a la description d'un processeur des années 80 :)

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว

      merci ca fait plaisir! J'avais peur de sur-simplifier ou de louper quelque chose d'évident. :)

  • @Oscar-en1ib
    @Oscar-en1ib 3 ปีที่แล้ว +1

    Difficile de penser qu'Intel n'a pas des processeurs RISC en développement sur le côté, hâte de voir la suite même si comme tu l'as bien dit tout maîtriser comme Apple est un vrai avantage. Sinon superbe vidéo

  • @laurentoliva4735
    @laurentoliva4735 3 ปีที่แล้ว

    Hello, vidéo intéressante merci. Petit commentaire sur la fin de la vidéo où le numéro un du top500 est cité (le fugaku de fujitsu à base ARM), niveau consommation électrique c'est à peine mieux que le suivant d IBM. En effet si on prend comme critère le TFlop par KW, le fugaku développe 14,78 Tflop / kw tandis que IBM fait 14,71 Tflop / kW.
    Bien sûr il s'agit d un workload particulier mais c'est là pour nous rappeler que ARM n'est pas prêt de balayer Intel et consorts des datacenters.

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว

      Pour un serveur web de contenu statique par exemple, ARM est généralement plus efficace donc ca commence a bouger un peu dans les DC :)

  • @richardbarbat4127
    @richardbarbat4127 3 ปีที่แล้ว +2

    Bravo pour ta vidéo, c'est vraiment pas évident à faire comprendre, et tu y arrives très bien. Par contre je trouve que tu n'as pas insisté sur la consommation electrique délirante des proc Intel par rapport au M1. On est sur des rapports de X4, X5 pour atteindre la même puissance ! Là se situe le plus gros soucis pour les X86 AMHA.

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว

      Tu as raison mais je préférais parler des différences d'architecture :)

  • @tanze67
    @tanze67 3 ปีที่แล้ว +3

    Bravo ! Explications très simples et claires, je m'abonne de suite à votre chaine :-). Merci pour votre travail de recherche et d'exposer aussi clairement vos découvertes dans la production et le partage de cette vidéo. Continuez comme cela !

  • @Runs59
    @Runs59 3 ปีที่แล้ว

    Ouch ! Superbe effort de vulgarisation. C'est super clair et super intéressant ! Bravo !

  • @stanlouverture5863
    @stanlouverture5863 3 ปีที่แล้ว

    Franchement trop bonne explication, posé, serein pas de musique de fond qui déconcentre plus qu’autre chose. Merci tu assures ✌️.

  • @louisduplessix4404
    @louisduplessix4404 2 ปีที่แล้ว +1

    Formidable explication. Merci

  • @NRichard
    @NRichard 3 ปีที่แล้ว +4

    Bel effort de vulgarisation 👍 (j'aurai parlé un peu de SIMD).
    Le temps d'exécution dépend beaucoup du compilateur.
    Merci pour ces précisions sur Rosetta !
    Comme quoi on peut faire aussi bien avec un peu de papier et des ciseaux 😜
    Qqun comprend pourquoi le cours d'Intel ne baisse pas autant que ça devrait (échec sur le mobile, AMD qui monte, Xeon Phi vs NVidia et maintenant en frontal) ?

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว

      ils ont encore bcp de processeur a ecouler avant d'etre en diufficultée mais sur le long terme ca risque d'etre difficile effectivement.

  • @eachdayonepiceachdayonepic8908
    @eachdayonepiceachdayonepic8908 3 ปีที่แล้ว +2

    Merci l’algorithme pour cette excellente vidéo ❤️

  • @joonhkt
    @joonhkt 3 ปีที่แล้ว +2

    Merci pour la vidéo ! C'est présenté de façon intéressante !
    Mais Intel et AMD ne sont pas mort pour moi: Leurs CPU se rapproche déjà de plus en plus d'une façon "RISC" de fonctionner et, depuis un moment, cette différenciation (cisc-risc) à tendance à se flouter.
    Pour la faire courte : les CPU ARM ne sont plus vraiment "RISC" à proprement parlé, pour optimiser les performances et les CPU Intel/AMD ne travail plus vraiment exclusivement en CISC, justement dans le but de diminuer la consommation, mais également de simplifier l'architecture physique pour, notamment, l'augmentation de fréquence.
    Une des raisons principale du manque d'innovation de performance d'Intel à été l'ex- CEO - connu comme un ingénieur privilégiant les finance, qui avait une stratégie d'économie et d'optimisation production plutôt que d’innovation. Heureusement pour lui, Intel était en position dominante à ce moment.
    AMD n'est que le retour de bâton de ce manque d'innovation et Apple vient leurs mettre de bonne tatane pour que ça bouge enfin.
    Intel aura peu être (sans doute?) un peu de retard, mais je doute franchement qu'ils se laissent abattre comme ça. AMD, lui, est déjà rentré dans la course.
    Là où je te rejoints sur ta conclusion, c'est que Apple à donné le top départ et AMD/Intel pourront bientôt se séparer de vieilles instructions qui les ralentisses.
    www.quora.com/Since-AMD-and-Intel-both-use-an-internal-RISC-CPU-is-it-possible-to-write-software-that-bypass-x86-and-directly-run-the-internal-RISC
    www.compsuccess.com/is-ryzen-risc-or-cisc/
    CPU AMD RISC: en.wikipedia.org/wiki/AMD_K12
    stackoverflow.com/questions/5806589/why-does-intel-hide-internal-risc-core-in-their-processors
    etc. (bon, c'est des liens vites fait hein ! Tu trouveras paquet d'infos dessus, tranquille)

  • @Skeepy002
    @Skeepy002 3 ปีที่แล้ว +1

    Merci je suis un peu plus cultivé grâce à toi!

  • @BusinessBonheur
    @BusinessBonheur 2 ปีที่แล้ว

    Tu es vraiment doué. T'es vidéos sont top, claires, ludiques et agréable à regarder. J'adore.

  • @sebastiennajjar
    @sebastiennajjar 3 ปีที่แล้ว

    Enorme boulot, incroyable vidéo. Chapeau bas, monsieur.

  • @MonBureauLinux
    @MonBureauLinux 3 ปีที่แล้ว +1

    Merci pour la vidéo. Grossomodo il n'y a pas cette partie décodage/découpage qui fait perdre du temps dans les processeurs "ARM". A voir le marché de l'offre et la demande. Un petit risque d'augmentation des prix pour avoir du ARM Apple si Intel et AMD n'arrivent pas à suivre la cadence. Dans 3ans on verra bien.

  • @sofiyan_ifren
    @sofiyan_ifren 3 ปีที่แล้ว +1

    Chapeau l'artiste tu as envoyé du lourd ! 😉
    En tant que dev j'ai beaucoup galéré avant de trouver des personnes aptes à bien comprendre le système sur lesquels tournent les programmes, même parmi les sysadmin. Alors je te fais un compliment 😅

  • @jrbjeremie2354
    @jrbjeremie2354 3 ปีที่แล้ว

    Je vous assure ce mec est un ouf de chez ouf quelle vidéo de qualité; suis dans l'informatique depuis plusieurs années déjà et je peux vous assurer qu'il explique basic que même Macron peut comprendre et se dire demain je fais l'informatique. (Suis pas politicien juste pour amusés)

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +1

      Haha ! Ramenes moi Macron :D

  • @MasterEquinoX
    @MasterEquinoX 3 ปีที่แล้ว +1

    Vidéo très bien construite, merci pour les efforts de pédagogie :)

  • @rikimaru749
    @rikimaru749 3 ปีที่แล้ว +3

    Merci pour les explications 👍
    pour le moment AMD ne semble pas rencontrer les problèmes d’intel.
    AMD et Intel il peuvent aussi se payer la license ARM et développer leur composant ?!
    Curieux de voir comment cela va évoluer.
    Et que peut tu nous dire de RISC-V ?

  • @matthieurome4805
    @matthieurome4805 3 ปีที่แล้ว +1

    Je découvre ta chaîne au travers de cette vidéo, superbe vidéo facecam simple efficace avec du papier et des feutres : lourd léger professionnel !

  • @guillaumemarmorat8293
    @guillaumemarmorat8293 3 ปีที่แล้ว +1

    C'est vraiment ultra interressant, bravo et merci ! 👍

  • @kidam2448
    @kidam2448 3 ปีที่แล้ว +1

    Géniale cette vidéo!!
    Très bien expliqué!!
    Merci!!!!!!👍👍👍🙏🍻👌

  • @JamesAdamsTech
    @JamesAdamsTech 3 ปีที่แล้ว +1

    Super vidéo comme d'habitude j'ai appris pas mal de chose et l'explication papier était vraiment bien !

  • @felixherrenschmidt884
    @felixherrenschmidt884 3 ปีที่แล้ว

    Top ! Je suis ingénieur et je t'avoue que j'utilise Docker au quotidien et bon nombre d'images sont build en x86 et non ARM, ne serait-ce que MySQL...
    Impossible donc de les faire tourner sur Raspberry PI....
    J'espère donc que cette tendance ARM puisse pousser tous les dev à build pour ARM et x86 !

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +1

      Tu peux faire tes propres images pour arm mais si tu vas les rouler sur du x86 en production on perd un peu l'intérêt des image docker :)

  • @H_A_R_L_E_M
    @H_A_R_L_E_M 3 ปีที่แล้ว

    Géniale ta vidéo. Un vrai talent pour vulgariser les choses incompréhensibles pour un néophyte en temps normal. Merci à toi !

  • @Lakitu1446
    @Lakitu1446 3 ปีที่แล้ว +1

    J'ai adoré cette vidéo les explications étaient très claires tu viens de gagner un abonné ;)
    Cependant je n'ai pas tout à fait saisi l'intérêt du wide branching comme expliqué dans la vidéo.
    Je le disais que si les 2 éventualités étaient prises en compte ce serait plus avantageux même en RISC mais ça doit poser d'autres problèmes je pense.

  • @gravel-demi-sel
    @gravel-demi-sel 3 ปีที่แล้ว +1

    C'était top et bien expliqué même pour ceux qui s'y connaissent moins chapeau !

  • @pandaDotDragon
    @pandaDotDragon 3 ปีที่แล้ว +4

    23:58 ils ont essayés de repartir de zéro avec le processeur Itanium basé sur une architecture IA64/EPIC qui reprennait les principes RISC en y ajoutant du parallélisme
    mais bon il n'a pas trop eu le succès escompté ^^' donc ils se sont lancés à fond dans le x86 tout en sachant bien qu'ils ne faisaient que repousser l'inévitable...

  • @EricDeLyon
    @EricDeLyon 3 ปีที่แล้ว +1

    Tres interessant merci, et oui gérer toute la chaine de production est un énorme avantage, et pouvoir simplifier et épurer c'est le bonne évolution pour le futur.

  • @edotoine
    @edotoine 3 ปีที่แล้ว +1

    Merci BEAUCOUP pour ces explications et toutes ces informations (et hop, un abo de plus ;) )

  • @elcordobes11
    @elcordobes11 3 ปีที่แล้ว +1

    Explications simples et clair! Jolie trouvaille :) merci pour ta lumière!

  • @gizmibob
    @gizmibob 3 ปีที่แล้ว

    Excelente video j'ai appris plein de choses ! Par contre tu parles directement du pourquoi la nouvelle puce d'Apple est plus puissante, sans parler de la question : "est ce qu'elle est vraiment plus puissante".
    De mémoire ils ne disaient pas sur le site web a quel processeur spécifique ils comparaient, ça donne : "on est 10x plus rapide, que quelque chose...".
    Du coup de la tech sympa mais surtout un gros coups marketing qui peux un peu faire grincer des dents.
    Ta vidéo parle de la partie tech donc ça c'est cool 😎 (mais je voulais temperer quand même le côté "supérieur" de leur nouvelle chip)

  • @kkyokushin8223
    @kkyokushin8223 3 ปีที่แล้ว +1

    Débutant dans la matière et ça m'a beaucoup intéressé, merci Coca.

  • @jsebtarot5006
    @jsebtarot5006 3 ปีที่แล้ว

    ça fait des année que je le dis. Ceci dit le gros soucis. C'est que dans les proc ARM il y a pleins de trucs pas libre avec licence. Je penses pas que l'avenir soit dans ARM mais plutôt dans riscV qui montera encore plus vite qu'ARM! en performence ( enfin en théorie sur le papier). Il se base sur une toute nouvelle architecture assez récente par rapport à ARM. Il se peut que l'on est des surprises!!!. Mais je trouve sympa qu'ARM a un potentiel gros concurrent qui lui fera vraisemblement de l'ombre ;)

  • @denilsson31
    @denilsson31 3 ปีที่แล้ว +1

    3:38 : Ce n'est pas la taille variable des instructions qui implique l'emploi d'un décodeur.
    C'est le code op, c'est à dire le codage binaire du code instruction qui doit expansé pour commander électriquement des circuits impliqués.
    si l'instruction inc AX a pour code machine 0000 0101, le nombre 5, exprimé en binaire, le décodeur produira en sortie 0000 0000 0001 0000 qui concrètement se traduit par un seul fil à la fois, le 5ème, sous tension. Ce fil-là, commandera l'activation de la partie combinatoire de l'unité de calcul chargé d'effectuer l'addition d'entier.
    Les 4 premiers bits à 0 du code machine peuvent représenter l'adressage du registre AX. Dans ce cas, cela peut être aussi décodé de façon comparable de telle sorte qu'un fil en sortie commande l'aiguillage d'accès à la cellule mémoire de AX vers l'entrée de calcul de l'addition.
    Donc, RISC ou CISC, tout processeur a besoin d'une unité de décodage pour expanser les instructions en signaux individualisés.

  • @lesteph69
    @lesteph69 3 ปีที่แล้ว +1

    Excellente vidéo! Très instructive ... merci et longue vie à ta chaine