Comment Apple a détruit Intel ?

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 พ.ย. 2024

ความคิดเห็น • 782

  • @trash
    @trash 3 ปีที่แล้ว +897

    Des fois les suggestions TH-cam elles font découvrir des pépites

    • @abdinemaiga2994
      @abdinemaiga2994 3 ปีที่แล้ว +5

      Trasheur 😄😄😄

    • @elrisitas6487
      @elrisitas6487 3 ปีที่แล้ว +24

      Je quitte trash

    • @Ddbg774
      @Ddbg774 3 ปีที่แล้ว +1

      Heuuuuuuuuuu stp Trash debunk ce qu'il dit mes oreilles saignent 😭😭

    • @what4401
      @what4401 3 ปีที่แล้ว +1

      C’est donc grace un peu à vous que j’ai trouvé cette vidéo

    • @christophekatanga8910
      @christophekatanga8910 3 ปีที่แล้ว +2

      Grave de ouf

  • @Micode
    @Micode 3 ปีที่แล้ว +659

    Quelle masterclass

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +63

      Omg une STAR dans les commentaires !!🌟 🌟 🌟

    • @pal-1855
      @pal-1855 3 ปีที่แล้ว +8

      @cocadmin Non, franchement bon bouleau, je viens de découvrir cette chaîne, c’est super intéressant ! Continue cocadmin !

    • @NEATHOFF
      @NEATHOFF 3 ปีที่แล้ว +10

      Un Micode sauvage apparaît

    • @pal-1855
      @pal-1855 3 ปีที่แล้ว +1

      @@NEATHOFF pas mal 🤣

    • @retrox4923
      @retrox4923 3 ปีที่แล้ว

      @@cocadmin frère y a que des stars dans tes commentaires

  • @ChristopheCasalegno
    @ChristopheCasalegno 4 ปีที่แล้ว +101

    Hello, et merci pour la vidéo. Ma petite contribution : le débat entre les architectures RISC et CISC date d'il y a bien longtemps maintenant. Chacun a des avantages et des inconvénients. Pour simplifier les architectures CISC ont des performances optimisées dans une logique "hardware", pour du RISC, les performances sont optimisées avec un focus sur le soft. Dans la pratique cela veut dire que les performances du RISC reposent sur un pari statistique de l'utilisation qui va en être fait du hardware par le logiciel.
    Les gens qui ont développé les architectures RISC sont partis des éléments statistiques qui indiquaient que 80% des programmes n'utilisaient que 20% du jeu d'instruction du CPU (oui je sais, encore le principe de Pareto...), que les instructions les plus utilisées étaient celle de chargement, de rangement et d'appel de sous-routines, que 80% des variables locales étaient des entiers et que 90% des structures complexes sont des variables globales. Enfin on avait aussi pu constater qu'on allait pas au delà de 8 niveaux d'imbrication des appels (les valeurs supérieures représentaient moins de 1% des cas rencontrés).
    De ce fait, si le programme utilisé (et Apple du coup maitrise aussi la couche logicielle de son offre) respecte ces principes : le gain est énorme. Par contre, si au lieu d'avoir principalement des entiers de différentes tailles et des nombres flottants en double ou simple précision tu te retrouves à manipuler des chaînes de caractère, des nombres complexes, des polynomes, etc. : alors les performances des processeurs RISC s'effondrent au profit du CISC.
    Du coup ce qui va faire la différence revient à la qualité et la pertinence du compilateur utilisé, puisque c'est lui qui va devoir optimiser le code en fonction de l'architecture. Plus ce dernier sera capable de trouver des stratagèmes pour "risc-er" le code, et plus il aura des chances d'être efficace sur RISC. Mais dans certains domaines, la meilleur optimisation logicielle ne peut compenser ce qui est "cablé" dans le processeur.

    • @ChristopheCasalegno
      @ChristopheCasalegno 4 ปีที่แล้ว +20

      Du coup je rajoute concernant ta question, non je ne pense pas que les architectures CISC ne doivent s'inquiéter de la monté des architectures RISC. Les premières machines RISC sont plus vieilles que moi, même si ça s'est vraiment popularisé au début des année 1980. Pour autant j'ai adoré des machines comme les DEC Alpha ou les stations SPARC de Sun Microsystem. Mais je crois que ces 2 architectures continueront de cohabiter encore quelques décénnies avant d'être supplantées par des architectures modulaires hybrides classiques/quantiques. A suivre :) J'ai laissé un like au passage ;)

    • @yamazakikaoru9579
      @yamazakikaoru9579 4 ปีที่แล้ว

      Je vois pas l'avantage du CISC vraiment...
      Et non , le CISC n'a pas de performance "hardware" au contraire.
      Il y'a deux gros défaut du CISC :
      -Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Ce n'est pas pour rien qu'on ne fait plus de CISC depuis les années 90 ;)
      (Le x86 a continuer pour des raisons de compatibilité).

    • @ChristopheCasalegno
      @ChristopheCasalegno 4 ปีที่แล้ว +9

      @@yamazakikaoru9579 : Hello, désolé mais encore une fois, et à l'image du monde tout n'est pas noir ou blanc, et bien que j'ai une préférence personnelle pour les architectures RISC (le DEC Alpha était "LA" machine de mes rêves, mais à 150.000 balles, innacessible pour moi à cette époque), le CISC dispose également d'avantages indéniables qui lui sont propres : tout dépend encore une fois des opérations à effectuer.
      Si le sujet te passionne, je t'invite à consulter cette thèse publiée à l'université du Michigan en 2017 qui est un excellent point de départ sur l'impact de l'architecture sur les performances délivrées par un processeur : scholarworks.wmich.edu/masters_theses/1519/
      Excellente soirée et bonne continuation.

    • @yamazakikaoru9579
      @yamazakikaoru9579 4 ปีที่แล้ว

      @@ChristopheCasalegno Je n'ai pas dit que tout est noir ou blanc , mais actuellement le CISC n'a plus aucun gros avantage .
      Je te met ici les différences :
      -Un proc RISC , c'est plus simple à faire tout en étant performant
      Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      c'est souvent 30% de transistor en plus qu'un RISC classique (tu as un microcode directement dans le core qui doit quand même reconnaître 700 instructions et faire sa conversion), ,2-3 étage en plus pour le décode.
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
      Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
      Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86/CISC).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Bref ce n'est pas pour rien qu'il n'y a plus de proc CISC actuellement ;)
      (Sauf le x86 qui est un mix des deux pour rétrocompatibilité )

    • @ikaztt85johnson83
      @ikaztt85johnson83 3 ปีที่แล้ว

      je n'ai pas suivi la technologie des ordinateurs, mais je suis d'accord sur le fait que l'avenir dépend de paramètres plus complexes, et aussi de rapports investissements/bénéfices,
      Intel a la technologie RISC et ne s'en sert pas trop, je ne pense pas qu'ils soient "à la ramasse" mais qu'ils attendent
      fr.wikipedia.org/wiki/DEC_Alpha

  • @elronn58
    @elronn58 4 ปีที่แล้ว +82

    Excellent les explications à la "C'est pas Sorcier"

    • @Tux63
      @Tux63 4 ปีที่แล้ว +2

      il fallait choisir entre le coca et le camion .... le choix a été vite fait 🤣😁😁

  • @philippe-lebel
    @philippe-lebel 2 ปีที่แล้ว +11

    Ça fait 2 jours que je découvre cette chaîne. Un futur hit pour moi. Les sujets sont passionnant, originaux et bien traité. Bravo.

  • @Wagglepuff
    @Wagglepuff 4 ปีที่แล้ว +124

    Tu t'es donné du mal mais ça valait le coup, c'était grave intéressant, merci pour ton contenu 👍

  • @AngelDarthNet
    @AngelDarthNet 4 ปีที่แล้ว +80

    Apple a co-develloper le PowerPC(Risc) avec IBM qui est un dérivé du Power(Risc) d'IBM , apres les Ax (Risc) de Arm , donc ils sont loin d 'etres totalement debutant dans le Risc

    • @Christian-hr7sq
      @Christian-hr7sq 4 ปีที่แล้ว +5

      Avec IBM et Motorola...
      Le passage sous Intel a été fait car IBM arrêtait le PowerPC (fabrication et développement) seul Motorola continuait et ne pouvait pas fournir Apple.

    • @freddawin5347
      @freddawin5347 4 ปีที่แล้ว +4

      @@Christian-hr7sq eh oui, le monde des affaires ... les PowerPC etait déjà plus puissant qu'Intel à l'époque, au vu des part de marché d'Apple, ca ne pouvait pas continuer dans ce sens ...

    • @Cardinal2Richelieu
      @Cardinal2Richelieu 4 ปีที่แล้ว +2

      Et c’était vraiment triste qu’Apple abandonne les processeurs Risc. A l’époque cela m’avait attristé, car le x86 est vieux depuis longtemps déjà 😜. Leurs dettes technologiques est énorme aujourd’hui. Seul un acteur contrôlant toute la ligne (processeur / matériel en général / système d’exploitation / API de développement ) comme Apple pouvait tout revoir enfin ! En tous cas cela fait du bien, merci la pomme.

    • @Chris-in-Asia
      @Chris-in-Asia 3 ปีที่แล้ว +4

      @@freddawin5347 Le PowerPC était dépassé par les puces d'intel, car IBM ne voulait pas investir seul dans le développement d'une nouvelle génération. Ils ont proposé à Steve Jobs d'investir avec eux, mais il a refusé.

    • @Chris-in-Asia
      @Chris-in-Asia 3 ปีที่แล้ว +1

      @@Christian-hr7sq Non, Motorola avait arrêté depuis longtemps. Motorola semi conducteur n'existait d'ailleur déjà plus à cette époque, ils avait revendu à Freescale. IBM ne voulait pas investir seul dans une nouvelle génération de puces. L'ancienne génération devenait obsolète et ils ont demandé à Apple d'investir avec eux, mais ils ont refusés.

  • @loupdanger
    @loupdanger 3 ปีที่แล้ว +1

    Bonjour je suis ingénieur de l'Ecole des Mines de paris et je tiens à vous félicités pour la qualité du contenu fourni. Encore une fois Merci.

  • @louiscordhomme45
    @louiscordhomme45 4 ปีที่แล้ว +22

    très bonne vidéo, je sais pas si tu compte continuer dans ce genre de format mais en tout cas j'ai trouver ca très intéressant et plutôt bien expliquer et clair.

  • @politiquealgerie
    @politiquealgerie 3 ปีที่แล้ว +67

    Merci pour toutes ces informations. Très bonne chaine que je viens de découvrir

    • @ROLLSKATETROTT
      @ROLLSKATETROTT 3 ปีที่แล้ว +2

      tahia djazaaaiir

    • @user-bp6mz1gt5i
      @user-bp6mz1gt5i 3 ปีที่แล้ว +3

      @Memes Heaven oui tahia l'djazair

    • @Flow-flop
      @Flow-flop 2 ปีที่แล้ว

      @zakae6hdt7 :D il fais ce qui veut tu vas faire quoi?

    • @FatalBcr
      @FatalBcr 2 ปีที่แล้ว

      @zakae6hdt7 :D Fan d’Éric zemmour 🤷‍♂️

    • @uzgar
      @uzgar 2 ปีที่แล้ว +1

      kess sa fou là ?

  • @pierrederaunies6565
    @pierrederaunies6565 4 ปีที่แล้ว +15

    Punaise Cocadmin tu m'as bluffé ! J'ai tout compris du début à la fin, merci pour les exemples avec post-it, c'était super clair.

  • @nidalege7416
    @nidalege7416 4 ปีที่แล้ว +3

    Très bonne explication de vulgarisation.
    Apple avec le choix de l'architecture ARM me rappelle les moments forts de l'informatique des années 90 ou l'on avait une quantité de CPU disponible qui m'a fait révé. J'ai toujours voulu avoir un DEC Alpha qui exécutais des logiciel X86 plus rapidement que les CPU intel de l'époque.
    - ARM (RISC)sur les station Acorn très apprécié des monteurs vidéo et Intel faisait lui aussi des CPU ARM avec les Strong ARM. On trouve l'architecture dans les PlayStation 1 & 2 et les GameBoy depuis la Advance.
    - MIPS (RISC) dans les fabuleuse station de SGI que l'on retrouve maintenant dans des super calculateurs en chine et dans le monde de l'embarqué
    - POWER (RISC) que l'on a vu dans les serveurs AS400 à maintenant iSeries, dans le top 5 des super calculateur, les stations NeXT puis macs comme Be, des mod pour les Amiga et Atari et surtout dans le spatial via la NASA. Les consoles PlayStation 3, Xbox360 et GameCube
    - SPARC (RISC) de chez SUN qui est en train de mourir alors que fut un temps cette gamme de cpu était présent dans pas mal de calculateur surtout via Fujitsu. On trouve du SPARC dans l'espace via le CPU LEON pour l'ESA et quelques CPU de la NASA.
    - DEC Alpha (RISC) dans les machine du même nom. Mort après le rachat de Compact par HP.
    - IA-64 dans les CPU Itanium 1 & 2.
    ________________________________________________________________________________________________
    ARM ne fait que concevoir l'architecture logique et physique dont des licences sont vendues.
    Apple comme Qualcom eux ne prennent que la licence de l'architecture logique et conçoivent ensuite le cpu arm de zéro. (Je ne sais plus Nvidia, mais il me semble que c'est aussi partie d'une feuille blanche)
    Seul Qualcomm, Apple et Nvidia dans le monde ARM font des GPU de zéro. Si ma mémoire est bonne Samsung a un projet non concrétisé de GPU.
    Le reste est sous licence ARM avec les GPU Mali ou Imagination Technologies avec les PowerVR.
    Apple peut effectivement devenir via ses ARM un concurrent sérieux sur le marché grand publique des PC plus conventionnel sous x86-64.
    Mais j'ai des réserves. C'est la grande différence entre Apple et le PC x86. Apple est capable dans son propre marché de faire une rupture ce que le monde X86 ne peut pas pour des raisons de rétrocompatibilité. J'attend avec impatience ou Microsoft dise on arrête le x86.
    Apple est passé des CPU Motorola 68K au Power de Motorola puis IBM pour ensuite aller sur le x86 et maintenant ARM. Prochaine étape de leur émancipation, avoir une fab de semi-conducteur affin d'être intégralement autonome ?
    Et ce que tu soulignes dans la vidéo, le fait que Apple maîtrise le matériel, le kernel, l'os dans son ensemble, les compilateurs surtout Clang + LLVM et les applications font que les performances ne peuvent que être bonne. Chose que le monde Wintel (oui je suis veille) ne peux avoir du fait de l'ouverture même de la plateforme PC depuis sa création.
    Pour moi, Apple restera un marché de niche face au X86
    Concernant ARM face au x86, c'est déjà la victoire d'ARM de part le nombre de matériel tournant sous ARM : tablette, téléphone, carte de développement style Raspberry.
    Pour Intel, l'entreprise ses trop reposé sur ses lauriers, a merdé sur sa vision du futur qui en fait l'une des raisons dans le choix d'Apple de faire ses CPU pour les mac et du succès grandissant l'architecture ZEN d'AMD qui comporte une unité ARM pour la sécurité.
    ________________________________________________________________________________________________
    Dans le monde ARM c'est un bordel sans nom pour si retrouver entre les mélange CPU et SOC et les différentes versions de l'architecture.
    Pour le M1, Apple c'est basé sur la dernière version de l'architecture ARM : ARMv8.6-A (annoncé en 2019). ARM n'a pour l'instant aucun design de CPU à proposer en licence.
    Ce qui est intéressant avec l'ARMv8.6-A, ce sont les unités de calcul vectoriel et de virgules flottantes : GEMM, BFloat16, NEON qui sont comparable à ce que fait Intel avec son set d'instruction AVX-512.
    Et oui ARM est aussi tordu que le monde X86 dans l'ajout d'unité de calcul anexes. Ce qui me permet d'en arriver a ce que je voulais dire depuis le début, rien n'est plus CISC, MISC ou RISC. C'est un jolie cocktail. Même la toute dernière génération architecture RISC via le projet open sources RISC-V n'est pas si RISC que ca via ses unités de calcul vectoriel.
    Pour information, les CPU x86-64 ne fonctionne pas en interne dans ce type de jeux d'instruction gardé uniquement pour la compatibilité. Dans les CPU x86-64 il y a des unité de conversion des instruction X86-64 vers celle utilisé réellement par le CPU.
    Les jeux d’instruction comme le SSE ou l'AVX ne sont pas x86, ses unité ont leurs propres logiques.

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว +1

      Salut Nida! C'est toujours un plaisir de lire tes commentaire :)
      Microsoft on eu aussi tenter de passer a ARM avec leur dernière surface mais leur gros problème sont les performances en émulation pour rester compatible avec les programmes x86 encore majoritaire pour windows.
      Ils on l'air de faire des SoC custom avec qualcomm
      J'imagine qu'il vont s'inspirer d'Apple et continuer à pousser ARM pour windows.

    • @nidalege7416
      @nidalege7416 4 ปีที่แล้ว

      ​@@cocadmin loin d'être si simple pour Microsoft. Intel a menacé plusieurs fois Qualcomm et Microsoft sur la propriété intellectuelle pour l'émulation X86.
      Il y a le soft App Assure qui doit aider les programmeur a la migration vers ARM. Mais en l'état actuel, si Microsoft ne bascule pas ses propres applications sur architecture ARM, ca part mal. Le mieux pour Microsoft est de copié la politique d'Apple en ayant un CPU ARM sous contrôle et Qualcomm est connu pour faire de bon SOC ARM.
      Mais je vois mal Microsoft ce créer un écho système matériel fermé comme Apple. Ca va crier de partout. Déjà chez Apple ca gueule chez les dev pour faire la migrations des applications. Je ne veux pas imaginer le bordel dans le monde du PC entre les jeux, les applis métiers, les cartes 3D, son, etc, CPU Intel et AMD qui sortent du jeux.
      Je me souviens encore de la mauvaise volonté lors du passage à Vista des fabriquant de matériels à accepter moins de liberté en mode kernel. Les fabricants de matériels ont une grosse responsabilité dans l'échec de Vista. Il y a eu aussi le cas ou Microsoft a serré la vis pour la sécurité de son OS, les éditeurs d'antivirus ont bien gueulé. Donc MS a du faire quelques pas en arrière au détriment de la sécurité.
      Apple a cet avantage de plateforme fermé ce que ne peut pas avoir Microsoft sans impact violent.
      Sur Android, Chrome Book, iPhone ou Mac, ça ne choque personne d'avoir par défaut les applications propriétaires de Google ou d'Apple. Quand on passe sous Windows qui a une logithèque libre et propriétaire conséquente, les utilisateurs trouvent un manque de liberté et cri au scandale ! J'ai toujours trouver cela ubuesque.

  • @onetouch97111
    @onetouch97111 4 ปีที่แล้ว +3

    Merci, je comprends mieux la différence entre une puce ARM/X86 au niveau performance et architecture. C'était très bien expliqué

  • @ivymike9479
    @ivymike9479 4 ปีที่แล้ว +6

    La vidéo la plus claire de tout youtube. Bravo !

  • @nicolaskuntz8606
    @nicolaskuntz8606 3 ปีที่แล้ว +4

    Première fois que je tombe sur ta chaine, je m'attendais pas à ce style de vidéo assez technique mais c'est très appréciable et intéressant. Continues comme ça !

  • @Qyoon
    @Qyoon 3 ปีที่แล้ว +4

    Excellent contenu , c'est travaillé , bien vulgarisé et clair.
    Vraiment une excellente, découverte.
    Du contenu de qualité, rare en Tech FR !

  • @satan2k
    @satan2k 3 ปีที่แล้ว +7

    Excellent récap, super la petite explication des pipelines ! :-)
    Je suis plus ou moins d'accord avec ton analyse, mais il faut replacer un peu tout dans son contexte. ARM est très efficace pour toutes les utilisations basiques, pour tout ce que fait Madame Michu, les 9/10 èmes des instructions x86 ne sont jamais utilisées. Par contre pour des trucs plus cossus, comme des maths, ou de la simulation, ARM montre vite ses limites. Mais comme le point fort d'ARM est sa consommation, on peut s'en permettre d'en mettre 10x plus pour gommer ce manque.
    Si AWS et consort se lancent dans ARM, c'est pour deux raisons:
    1) comme tu l'as cité, le contrôle. Quand tu achètes chez ARM, tu achètes le "blueprint". Après tu peux modifier tout ce que tu veux, ce qui n'est pas du tout le cas du X86. Seul AMD a une license pour le dévelloper. (Et ca s'est arraché aux forceps au tribunal)
    2) la consommation électrique. Quand tu as des centaines de datacenter, avoir une très grosse économie même sur le sleep, c'est une économie conséquente. Surtout quand tu peux te permettre d'étendre ("scaler") sans contraintes. Et là encore, dans 9/10 eme du temps, pour la plupart des workloads, une bonne partie des instructions x86 ne sont pas utiles.
    Pour revenir à Apple, selon moi, leur plus gros défaut dans cette approche, c'est d'avoir pas seulement viré Intel, mais aussi viré Intel ET Nvidia/Amd. Sur ARM tu n'as pas de support des GPUs comme ça l'est sur X86.
    Du coup, Apple met à la trappe tout le boulot fait sur le calcul distribué (OpenCL) ainsi que tout le calcul de rendu de scene. Je connais des graphistes / designers qui grincent des dents, car ils craignent de devoir retourner sur du Windows. (Ouais les mac pro existent encore en x86, mais le support va être bien plus court)
    Et concernant le x86, faut pas jeter le bébé avec l'eau du bain, je pense que tu es passé à côté des gros progrès de AMD qui permet par exemple 64 cores 128 threads, pour une empreinte thermique (TDP) de 250w. AMD qui, on doit le rappeler, équipe toutes les consoles de salon (la switch n'étant pas vraiment une console de salon, mais nomade), et a monté des technos pour l'accès en direct des ressources GPU -> stockage -> GPU direct sans accès processeur, ce qu'est incapable ARM vu que ce sont majoritairement des SOC :-)
    En gros pour faire court, avec son M1 et son approche, il flingue les graphistes / modelers / designers en CAD / data scientists (j'en connais) qui utilisaient du Apple. Il flingue aussi le gaming. (bon okay vu le peu de personnes qui "jouent" sur mac, mais bon ...)
    Donc, Apple a détruit Intel, ouais, enfin il a plutot abattu un cheval qui était déjà à l'article de la mort. Par contre il n'a flingué ni AMD, ni l'écosystème PC. Mis à part la hype ou bien à moins d'avoir besoin d'un appareil nomade performant, le M1 n'est pas concurrentiel. Si je compare par exemple avec mon refresh à base de 5900x, les perf sont équivalentes en single, poutrent le M1 en multi, poutrent le M1 avec la partie graphique, l'ensemble est compatible, réparable (pas de colle!), extensible et tout ça pour la moitié du prix..... Donc à part le dev ou l'IT nomade qui voyage souvent, je ne vois aucun interêt à acheter le M1, du moins pour le moment.

    • @Le-J-
      @Le-J- 2 ปีที่แล้ว +1

      Commentaire excellent qui vient parfaitement compléter la vidéo. Merci !

    • @jeandupond7941
      @jeandupond7941 2 ปีที่แล้ว

      Je suis d'accord, mais pour moi le mac m1 reste la meilleure alternative, consommation plutôt basse, machine polyvalente, avec le temps c'est sûr que les applications seront compatible sur m1, sans compter le prix, en suisse un Macbook air m1 coûte 880 chf, avec 880chf tu as aucunes machines avec de tel performance(fiable, très longue autonomie, os stable qui plante pratiquement jamais, très bon écran, léger, fin, et qui surchauffe pratiquement jamais et surtout le très bon support apple) en gros aucune machine fait mieux, pour moin de 880€ ,apple est devenu moin chère que les concurrents sur Windows, on vit une époque incroyable quand même

    • @satan2k
      @satan2k 2 ปีที่แล้ว +1

      @@jeandupond7941 Effectivement, ce ne sont pas de mauvaises machines. Elles rencontrent leur public. Question prix, en Belgique, a l'écriture de mon commentaire, j'en ai eu pour 1100€ pour une machine de rêve, hors carte graphique vs 2500€ le M1 plus ou moins équivalent (avec les différences notées au dessus). Maintenant a notre époque, je conçois que le prix démentiel et inadmissible de cartes graphiques fait changer la balance. Au point de vue technique, je campe sur mon avis, mais au point de vue du coût, j'avoue que ça "devient" concurrentiel (justement parce que tristement les petits copains commencent a exagérer).
      Par contre, même si Apple a enfin fait des efforts niveau de la possibilité de réparer ses appareils, je trouve (et ce n'est que mon opinion) sa pratique générale honteuse. Réparation difficile ou impossible selon le cas, support qui se dédouane très rapidement (on a du retourner du Apple au boulot, la foire a l'empoignade...). Upgrade quasi impossible, obsolescence programmée des mises a jour OS, etc. Loin, très loin du Apple respecté et aimé de ses débuts ☹️

    • @jeandupond7941
      @jeandupond7941 2 ปีที่แล้ว

      @@satan2k concernant les réparations ça concerne toutes les marques en général et surtout les ultra book, niveau technique je peux pas trop parler car je suis pas calé du tout sur le sujet, mais d'après les avis des gens général , ils sont tous d'accord pour dire que si tu veux un portable fiable avec lequel tu peux faire du montage, regarder des films en bonne qualité etc etc, le Macbook air reste la meilleure alternative pour l'instant, pour les modèles au-dessus (Macbook pro 14 et 16) ça je sais pas si ça en vaut la peine et si les prix sont justifiés ou pas, mais à moin de 900€ en suisse y a pas photo, aucun concurrent peut rivaliser

  • @vestoz1387
    @vestoz1387 3 ปีที่แล้ว +1

    Pk j’ai cette vidéo que maintenant dans mes suggestions TH-cam. Quel masterclass !!

  • @malinkobay
    @malinkobay 2 ปีที่แล้ว +1

    C'est évident qu'aujourd'hui tout le monde a 2To sur sa machine.
    Ça fait 30 ans qu'on dit à Intel & Amd que le CISC est dépassé, mais ils ne veulent rien savoir…
    L'important quand on est un mytho c'est la foi dans les histoires qu'on s'invente.

  • @olivierrojo2003
    @olivierrojo2003 3 ปีที่แล้ว +4

    Ça me rappelle mes cours d’architecture en école :) Bien résumé, bravo !

  • @thierryleriche1196
    @thierryleriche1196 4 ปีที่แล้ว +1

    C'est une des meilleures videos de vulgarisation que j'ai pu voir

  • @astro.photographer
    @astro.photographer 3 ปีที่แล้ว +3

    Super bien expliqué merci tu m’a éclairé en 24min alors que plusieurs heures de vidéo d’autre TH-camrs tech ne le faisait pas

  • @lophoto-net
    @lophoto-net 3 ปีที่แล้ว +2

    Bravo ! J'hésitais à regarder cette vidéo pensant bien connaître le sujet (ha, les cours de micro-programmation suivis à l'université il y a bien des années...), mais j'ai bien fait de la regarder en entier !
    À noter cependant un point important qui n'a pas été abordé : les processeurs Apple intègrent directement la RAM au complet en leur sein (et non pas seulement les registres et une mémoire cache de premier niveau)... Ce qui doit avoir un grand impact sur la performance (surtout quand on a la maîtrise complète du matériel et du logiciel).

  • @FanisMichalakis
    @FanisMichalakis 4 ปีที่แล้ว +7

    Merci beaucoup pour cette excellente vidéo ! Je met rarement des commentaires, mais là, chapeau !

  • @brunometronome1189
    @brunometronome1189 4 ปีที่แล้ว +3

    Intéressant et très bien expliqué, bravo ! Après sur pc fixe (tour), quand on a des besoins classiques, je pense pas que la différence de perf fera basculer les gens.
    La puissance processeur est de moins en moins un problème. J'ai acheté un intel I3 pas très cher il y a 2 ans lors d'un remplacement d'une carte mère qui a cramé, et il me fait tout tourner, même les jeux, je ne me sens pas restreint par le proc le moins du monde. Par contre pour les pc portables (pour la batterie qui se décharge moins), ou pour les besoins professionnels spécifiques (montage vidéo, ...), Apple montre de sérieux arguments.
    Mais la grosse masse des utilisateurs sous windows a la patate requise pour faire tourner toutes ses applis, ils ne changeront pas pour un nouvel OS qui bousculera leurs habitudes, pour de la puissance de calcul en plus dont ils n'ont au final pas vraiment besoin. Surtout que quand tu migres chez Apple, c'est pas le même budget, et c'est pas non plus la même philosophie (j'ai l'impression qu'on cherche à te tordre le bras pour te faire raquer à la moindre occasion). Bref, détruire Intel et AMD ? Il y a d'autres paramètres que la puissance brute qui nuancent fortement la réponse à cette question... C'est mon humble avis.

    • @RenaudKyoku
      @RenaudKyoku 3 ปีที่แล้ว

      Oui on utilise surtout le GPU pour les gros calcul. Dans la majorité des cas, le CPU est beaucoup moins important que la RAM ou le stockage de masse ou autre.
      Après c'est toujours mieux d'avoir un truc + optimisé et + performant. Mais c'est facile d'être optimisé quand on n'a qu'un sous-ensemble limité à gérer, et qu'on arrive sur le marché 30 ans après les autres (cf GoLang par exemple).

  • @JirAWS
    @JirAWS 4 ปีที่แล้ว +6

    8 ans qu'on attendait la nouvelle vidéo, j'espère qu'elle va être cool
    EDIT: c'est bon on a pas attendu pour rien 🤓le budget est présent

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว +5

      ya au moins 10$ de budget papier crayon

  • @Tonyhunterblade
    @Tonyhunterblade 4 ปีที่แล้ว +47

    Notez aussi qu'ARM a été racheté récemment par Nvidia... 👍

    • @ayleisma7590
      @ayleisma7590 4 ปีที่แล้ว +7

      Ouai et connaissant la propension d'nvidia a se brouiller avec ses partenaires, ça annonce rien de bon pour le futur des licences ARM... Un des fondateurs de cette firme avait d’ailleurs exprimé ses craintes

    • @Username-xl6jj
      @Username-xl6jj 3 ปีที่แล้ว +1

      @@ayleisma7590 Un petit coche pied à Apple ne fait pas de mal à ces gros monopoleurs (Taxe 30% AppStore) Mais c'est plus dangereux pour les autres utilisateurs de licence ARM.

    • @assirik
      @assirik 3 ปีที่แล้ว +1

      l’accord de 40 milliards de dollars sur l’acquisition d’ARM par Nvidia est suspendu, à cause d’un conflit au sein de la coentreprise ARM China

    • @molotofmezcal
      @molotofmezcal 3 ปีที่แล้ว

      C'est loin d'etre encore fait !

    • @assirik
      @assirik 3 ปีที่แล้ว +3

      @@molotofmezcal oui effectivement mais vraisemblablement l'union européenne va aussi essayer de bloquer l'initiative. L'objectif est que l'europe ne devienne pas dépendant des semi conducteurs us ou asiatiques. On verra bien!

  • @neonesso
    @neonesso 3 ปีที่แล้ว +3

    J’ai appris tellement de choses dans ta vidéo c’est incroyable, merci pour ce moment 🙏

  • @MDarkus3
    @MDarkus3 3 ปีที่แล้ว +2

    J'aimerai si tu me le permet commenter quelques parties de la vidéo
    ARM vs Apple:
    - ARM ne fait que concevoir l'architecture, l'entreprise ne fabrique pas de chip. Elle vend des license d'utilisation de ses architecture processeur au autres compagnies, qui réutilise et intègre des fonctionalités supplémentaire par dessus l'architecture ARM on appelle celà des chip ASIC - Application-specific integrated circuit.
    - En 2011 ARM révèle sa nouvelle architecture ARMv8 basé sur une architecture 64-bit. Apple à été le premier à intégrer ce design dans leur produits: Apple A7 dans iPhone 5S. Dire donc que Apple à devancer ARM n'est pas faux en soit car ARM comme dit plus haut ne fabrique pas de processeur, seulement le design. Mais ce n'est pas leur rendre justice car ce sont eux les architectes de la technologie que ré-utilise apple.
    RISC vs CISC
    Opposé CISC & RISC n'est pas très productif car ces deux familles de processeur ont leur justification technique: les core RISC ne sont pas fondamentalement plus performent, tout dépend tu type de problème qu'on veux résoudre, un pipeline avec prédiction de branch, execution dans le désordre, parrallèlisme, etc ..., tout ce que fait fonctionner nos ordinateur Windows & Linux actuel, n'est possible qu'avec un jeux d'instruction complexe. De plus avec les nouvelles avancé technologique des mémoires ( MRAM, FRAM, PRAM, NRAM) la vitesse d'accès ne sera plus un problème et des architecture telle que CISC vont redevenir bien plus intéréssante que des RISC ou pour chaque instruction on LOAD depuis la RAM vers les registre processeur et inversement avec le WRITEBACK (store). Si le processeur devient capable d'opérrer directement depuis la RAM l'architecture RISC n'as plus grand d’intérêt. Il y à aussi des considérations énergétique mais je ne rentre pas dans le détail (où le RISC et moins énergivore que le CISC car pas de gaspillage de cycle, pour un nombre d’instruction donné).

  • @Scr3amer42
    @Scr3amer42 4 ปีที่แล้ว +10

    Bonne intro a l'archi processeur. Pour toi Coca et ceux qui sont interesses par ca mon professeur en ecole d'inge a l'ENSICAEN a fait des cours ouverts en ligne sur l'achitecture CPU, RISC, CISC, cache, SIMD, adressage memoire etc... Ca date de 2013 mais c'est toujours aussi pertinent. Clairement un des meilleurs cours que j'ai jamais eu de ma vie.
    www.canal-u.tv/video/centre_d_enseignement_multimedia_universitaire_c_e_m_u/architecture_et_technologie_des_ordinateurs_presentation_de_l_enseignement_et_des_ressources.12466

    • @stochelo78
      @stochelo78 4 ปีที่แล้ว +1

      Elles sont vraiment super ces vidéos même datant de 2013.Je les ai découvertes il y a 2 semaines. Tu as eu de la chance d'avoir ce prof parce que franchement un cours d'architecture ça sonne déjà horrible et qu'on a vite envie de lancer une série Netflix à la place. Or là j''étais scotché.
      Dommage par contre qu'il n'y ait pas de vidéos plus developpées sur le RISC. 🙂

    • @-alim-3585
      @-alim-3585 3 ปีที่แล้ว

      Salut, je suis actuellement indécis sur les écoles, c’est une bonne école ensicaen (elle n’est pas très bien classée je crois)?

    • @Scr3amer42
      @Scr3amer42 3 ปีที่แล้ว +1

      @-Alim- Avec le recul mon avis sur le classement est assez tranche.
      Les profs d'ecoles d'inge en general sont tous bons (au moins 2 de mes profs a l'ENSI sont passes par Normale par exemple et ils etaient tous des monstres dans leur domaine).
      Le probleme c'est les eleves et leur manque de motivation a etudier. Avoir un groupe de faineants ca motive pas les profs a donner cours, faut pas oublier qu'ils sont humains.
      C'est ca qui ruine la reputation d'une ecole. Si demain le top 200 des eleves decident d'integrer une "petite" ENSI elle deviendra de facto la meilleure ecole de France. Ca te donne une idee de la valeur de ce classement.
      Ce que tu gagnes avec les "grosses" parisiennes c'est un reseau et du prestige.
      Si tu comptes faire carriere en tant que cadre superieur (high executive) dans une grosse boite du CAC40 en France alors oui faire une parisienne va aider car il y a un plafond de verre a un certain niveau (DG, DF et consorts) et ne laisse que passer les X, ENS, HEC etc... Une sorte de mafia elitiste qui fonctionne a l'entraide.
      Mais je repete, ca ne sert qu'en France, que pour les grosses boites et que pour les cadres sup en management. Je suis a l'etranger et je peux te dire qu'ils s'en fichent de quelle ecole tu viens tant que t'as un diplome et que tu passes les tests de recrutements ^^.
      En resume, le classement est utile si tu veux:
      - cadre sup en management
      - dans une grosse boite francaise
      Si tu veux bosser a l'etranger, faire de le technique plus que du management ou bosser dans une PME en France ca changera rien a ta vie ^^.
      Ah oui, un autre truc cool avec les grosses ecoles est qu'elles ont un plus gros budget donc plus de trucs funs a faire. Perso je m'en fiche donc ca me manque pas.
      Si tu veux mon feedback sur l'ENSICAEN:
      - tres bons profs voire excellents
      - des cours de qualite
      - mais une majorite d'etudiants qui etaient pas chaud pour bosser (moi y compris et je le regrette, j'etais focus que sur les cours qui me plaisaient). Ca a peut etre change car ca fait bientot 10 ans que j'ai integre cette ecole.
      En retrospective, j'ai pas a me plaindre. Je voulais apprendre l'ingenierie logicielle et ils ont delivre. Je suis capable de bosser sur n'importe quelle techno car ils nous ont bien appris les bases.
      Faut juste pas oublier que ton niveau final c'est toi qui le decide. Plus tu bosses, meilleur tu seras. L'ecole a peu d'impact a ce niveau la. Tu prends un X qui fait rien vs un ENSI qui bosse 24/7, a la sortie c'est le 2eme qui sera meilleur.
      Typiquement, j'ai beau avoir fini l'ecole depuis un bail je continue de coder dans mon temps libre, m'instruire en lisant des bouquins de progs, en regardant des conferences ou autres videos lies a la prog (coucou @cocadmin :P).
      C'est un des principes de base de la vie. Plus tu pratiques X meilleur tu seras dans X. Il y a pas de miracles.

    • @-alim-3585
      @-alim-3585 3 ปีที่แล้ว

      @@Scr3amer42 ok merci pour ta longue réponse tu gères :)

  • @fridaycaliforniaa236
    @fridaycaliforniaa236 3 ปีที่แล้ว +1

    La vache, je débarque ici par hasard après tout ce temps à baigner dans l'informatique, et ben c'est du superbe boulot ! Allez hop, abonnement immédiat ! GG l'ami... =)

  • @joonhkt
    @joonhkt 3 ปีที่แล้ว +2

    Merci pour la vidéo ! C'est présenté de façon intéressante !
    Mais Intel et AMD ne sont pas mort pour moi: Leurs CPU se rapproche déjà de plus en plus d'une façon "RISC" de fonctionner et, depuis un moment, cette différenciation (cisc-risc) à tendance à se flouter.
    Pour la faire courte : les CPU ARM ne sont plus vraiment "RISC" à proprement parlé, pour optimiser les performances et les CPU Intel/AMD ne travail plus vraiment exclusivement en CISC, justement dans le but de diminuer la consommation, mais également de simplifier l'architecture physique pour, notamment, l'augmentation de fréquence.
    Une des raisons principale du manque d'innovation de performance d'Intel à été l'ex- CEO - connu comme un ingénieur privilégiant les finance, qui avait une stratégie d'économie et d'optimisation production plutôt que d’innovation. Heureusement pour lui, Intel était en position dominante à ce moment.
    AMD n'est que le retour de bâton de ce manque d'innovation et Apple vient leurs mettre de bonne tatane pour que ça bouge enfin.
    Intel aura peu être (sans doute?) un peu de retard, mais je doute franchement qu'ils se laissent abattre comme ça. AMD, lui, est déjà rentré dans la course.
    Là où je te rejoints sur ta conclusion, c'est que Apple à donné le top départ et AMD/Intel pourront bientôt se séparer de vieilles instructions qui les ralentisses.
    www.quora.com/Since-AMD-and-Intel-both-use-an-internal-RISC-CPU-is-it-possible-to-write-software-that-bypass-x86-and-directly-run-the-internal-RISC
    www.compsuccess.com/is-ryzen-risc-or-cisc/
    CPU AMD RISC: en.wikipedia.org/wiki/AMD_K12
    stackoverflow.com/questions/5806589/why-does-intel-hide-internal-risc-core-in-their-processors
    etc. (bon, c'est des liens vites fait hein ! Tu trouveras paquet d'infos dessus, tranquille)

  • @YannEvn
    @YannEvn 3 ปีที่แล้ว +8

    Je te découvre sur cette vidéo, explications super claires et logiques : tu gagnes un abonné ! Continues comme ça c'est top 💪

  • @albanbrument593
    @albanbrument593 4 ปีที่แล้ว +1

    Je connaissais pas mal des éléments différenciants mais ta vidéo est très explicite. Beau travail.

  • @BenoitDesmidt
    @BenoitDesmidt 3 ปีที่แล้ว +1

    Ayant une chaîne TH-cam aussi, je sais le travail que ça représente ce que tu as fait.
    Et sérieux c'est du lourd.
    Bravo 👏

  • @guardians-of-cyber-europe
    @guardians-of-cyber-europe 3 ปีที่แล้ว +1

    Belle présentation. Un joyeux Noël à toi @cocadmin😉

  • @ouanounours
    @ouanounours 3 ปีที่แล้ว +2

    Excellente vidéo ! Un peu surpris néanmoins que tu n'aies pas parlé du fait que la plupart des composants matériels (RAM, contrôleurs, ...) sont directement intégrés à la puce, ce qui accélère aussi grandement la performance :)

  • @ronybuzz
    @ronybuzz 3 ปีที่แล้ว

    un sujet aussi complexe, expliqué avec autant de facilité et de clarté c'est impressionnant !! contenu fluide , merci . Force !!

  • @sebastienaltounian8456
    @sebastienaltounian8456 3 ปีที่แล้ว +1

    Excellent !!!! Je cherchais a comprendre pourquoi une telle différence ! Merci beaucoup ! C'est super ce que tu fais 👍

  • @sebastiens5013
    @sebastiens5013 4 ปีที่แล้ว +27

    Intel vu ce qu'ils se prennent déjà par AMD ça va être marrant. Mais je me fait pas de soucis pour AMD vu leur remontada de ces dernières années !

    • @david55200
      @david55200 4 ปีที่แล้ว +1

      Intel ne se force plus, ils ont marché pro à leur botte et ils sont en train de faire des recherches sur les processeurs quantique.

    • @jordankelly5545
      @jordankelly5545 4 ปีที่แล้ว +3

      Intel n'a rien à envier à ces puces M1
      En puissance brute les Intel core sont les meilleurs, il doivent seulement améliorer leur dissipation thermique qui pour l'instant ne permet pas de profiter pleinement de cette puissance au risque d'avoir un four dans sa pièce. C'est leur unique problème.

    • @david55200
      @david55200 4 ปีที่แล้ว

      @@jordankelly5545 c'est vrai que 52°c en full pour i9 c'est énorme.

    • @jordankelly5545
      @jordankelly5545 4 ปีที่แล้ว

      @@david55200 je ne te le fais pas dire.
      Moi j'atteins les 85° lorsque mon boulot demande beaucoup de ressources. Et là les F16 de mon PC me saoules à la fin

    • @david55200
      @david55200 4 ปีที่แล้ว

      @@jordankelly5545 85°c , il n'y a rien de choquant pour un CPU. Moi perso, j'ai viré l'hyperthreating , et j'ai OC mon cpu à 4.7ghz. j'ai des pique à 74°c mais en moyenne je suis a 10°c en dessous. Si je mets mon cpu en defaut, je suis a 55°c en charge...

  • @philjustyn
    @philjustyn 4 ปีที่แล้ว +11

    11eme!!! wow
    et j'ai droit à un cours d'architecture des microprocesseurs.
    je suis déjà abonné!!

  • @Wibration
    @Wibration 4 ปีที่แล้ว +2

    Woaw la vidéo est GOLD ! J'ai jamais cliqué aussi fort sur un bouton Abonnement !

  • @yamazakikaoru9579
    @yamazakikaoru9579 4 ปีที่แล้ว +2

    Je suis étonné de voir une vidéo YT français qui parle de façon aussi technique :p
    L'ARM à une bien meilleur architecture que le x86.
    Et c'est normal , le x86 date des années fin 70 , et même le x64 n'est qu'une extension 64 bits...
    L'avantage de l'ARM est :
    -C'est un proc RISC , c'est plus simple à faire tout en étant performant
    Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
    Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
    -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
    Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
    Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
    -le x86 doit gérer 700 instructions voir plus...
    -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
    Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
    Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
    Tout cela handicap énormément le x86.
    AMD profite plus du gain de transistor (qu'offre TSMC) pour palier les défaut du x86.
    Intel a souvent tenté dans le passé de se débarrasser du x86 (Itanium entre autre) , et sûrement parce qu'il savait que cette architecture allez leur amené pas mal d'emmerde dans le futur.
    Bref je ne suis pas inquiet pour Intel de faire une nouvelel architecture.
    D'ailleurs l'Itanium a tout (dans la théorie) pour faire mieux que du ARM , vu que le jeu d'instruction EPIC est encore une amélioration du RISC :)
    Apres si AMD et Intel sont "devant" , c'est surtout que l'optimisation actuel des processeurs ( Superscalaire Out of Order) est une technologie complexe que maîtrise AMD et Intel depuis 25 ans !
    ARM , cela doit faire au mieux 10 ans qu'ils sont dessus ,et probablement pas qu'il visait les hautes performances.
    Mais avec le temps il est évident que l'écart se réduira et que le x86 sera oui sera assez dépassé techniquement (ce qui l'est deja ).
    Bref sur le x86 on paye surtout de la dette technique ;)

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว

      C'est un super bon resumé :D

  • @pandaDotDragon
    @pandaDotDragon 4 ปีที่แล้ว +4

    23:58 ils ont essayés de repartir de zéro avec le processeur Itanium basé sur une architecture IA64/EPIC qui reprennait les principes RISC en y ajoutant du parallélisme
    mais bon il n'a pas trop eu le succès escompté ^^' donc ils se sont lancés à fond dans le x86 tout en sachant bien qu'ils ne faisaient que repousser l'inévitable...

  • @Sigri2TV
    @Sigri2TV 4 ปีที่แล้ว

    Pour une fois, je vais mettre un petit commentaire ! Juste WOUAH !!!! La claque dans la figure, excellentes explications, pédagogies parfaites, sources/histoire au top, rien à dire je me suis régalé dans cette vidéo ! Vivement la prochaine dans ce genre :)

  • @yungchris5631
    @yungchris5631 4 ปีที่แล้ว +1

    sah quel plaisant plaisir.... merci pour les travaux
    vidéo de qualité, avec en plus ma petite dose de choses apprises.

  • @Oscar-en1ib
    @Oscar-en1ib 3 ปีที่แล้ว +1

    Difficile de penser qu'Intel n'a pas des processeurs RISC en développement sur le côté, hâte de voir la suite même si comme tu l'as bien dit tout maîtriser comme Apple est un vrai avantage. Sinon superbe vidéo

  • @chauvaudziggy9802
    @chauvaudziggy9802 3 ปีที่แล้ว +1

    Tu mérites tellement plus de visibilité
    Cette vidéo es incroyable 💪 a toi

  • @tanze67
    @tanze67 3 ปีที่แล้ว +3

    Bravo ! Explications très simples et claires, je m'abonne de suite à votre chaine :-). Merci pour votre travail de recherche et d'exposer aussi clairement vos découvertes dans la production et le partage de cette vidéo. Continuez comme cela !

  • @codeaveclucien
    @codeaveclucien 3 ปีที่แล้ว +1

    Super sujet de vidéo ! J’ai vraiment kiff mec 💪🏾💪🏾

    • @cocadmin
      @cocadmin  3 ปีที่แล้ว +1

      Merci mec :)

  • @GeekInFrance
    @GeekInFrance 4 ปีที่แล้ว

    Superbe vulgarisation pour expliquer un système aussi complexe. Bravo

  • @geojoh3026
    @geojoh3026 4 ปีที่แล้ว +1

    Merci pour le cours, première vidéo que je visionne qui m’explique la base à la place de belle image.

  • @algoconcept
    @algoconcept 4 ปีที่แล้ว +1

    Chapeau l'artiste tu as envoyé du lourd ! 😉
    En tant que dev j'ai beaucoup galéré avant de trouver des personnes aptes à bien comprendre le système sur lesquels tournent les programmes, même parmi les sysadmin. Alors je te fais un compliment 😅

  • @Lakitu1446
    @Lakitu1446 3 ปีที่แล้ว +1

    J'ai adoré cette vidéo les explications étaient très claires tu viens de gagner un abonné ;)
    Cependant je n'ai pas tout à fait saisi l'intérêt du wide branching comme expliqué dans la vidéo.
    Je le disais que si les 2 éventualités étaient prises en compte ce serait plus avantageux même en RISC mais ça doit poser d'autres problèmes je pense.

  • @BusinessBonheur
    @BusinessBonheur 2 ปีที่แล้ว

    Tu es vraiment doué. T'es vidéos sont top, claires, ludiques et agréable à regarder. J'adore.

  • @sachavoronej5104
    @sachavoronej5104 3 ปีที่แล้ว +1

    Abonné.
    EXCELLENT travail.
    Merci

  • @P4pa-Joe
    @P4pa-Joe 3 ปีที่แล้ว

    Vidéo proposée par TH-cam... Curieux mais très sceptique au début. Au final c'est une super bonne surprise ! Merci pour ton travail.

  • @ov323
    @ov323 หลายเดือนก่อน

    Bravo! Très bien expliqué. Merci. Il faut également parler de TSMC qui est le meilleur graveur de processeur au monde et qui est le fournisseur d’Apple. TSMC est très en avance au niveau de la gravure sur Intel qui est dépassé depuis quelques années!

  • @eachdayonepiceachdayonepic8908
    @eachdayonepiceachdayonepic8908 3 ปีที่แล้ว +2

    Merci l’algorithme pour cette excellente vidéo ❤️

  • @panaf8702
    @panaf8702 4 ปีที่แล้ว +9

    Arm n'est pas le depositaire des puces Risc. Il n'ont fait que remettre au gout du jour ce qui avait ete abandonné

    • @TheSampirat
      @TheSampirat 4 ปีที่แล้ว +1

      Ca n'a jamais ete abandonné !

    • @CANALROBBY
      @CANALROBBY 4 ปีที่แล้ว

      @@TheSampirat C'est vrai ça date, j'en entendais parler il y a longtemps, je crois que les stations graphiques Silicon Graphic utilisaient ce genre de processeur il me semble.

    • @DenisMauplot
      @DenisMauplot 3 ปีที่แล้ว

      @@CANALROBBY il y a fort longtemps Apple avait avec IBM et Motorola fait les Puce POWER PC RISK sur les Power Mac en 1994 jusqu'en 2006 ou Apple est passé sous puces Intel

  • @stanlouverture5863
    @stanlouverture5863 3 ปีที่แล้ว

    Franchement trop bonne explication, posé, serein pas de musique de fond qui déconcentre plus qu’autre chose. Merci tu assures ✌️.

  • @lenekogilles7254
    @lenekogilles7254 2 ปีที่แล้ว

    Bonjour
    Je suis quasiment nul en assembleur, mais : j'ai fait toute ma carrière sur des grands systèmes IBM et je me suis beaucoup intéressé à leurs architectures (et donc à l'histoire des systèmes d'exploitation IBM.)
    Vous me rappelez les formations que je dispensais à mes collègues nouvellement arrivés sur le fonctionnement de la mémoire virtuelle avec des OS comme MVS, Z/OS et le sous-système JES2. J'aimais beaucoup faire cela et mes "élèves" techniciens d'exploitation comprenaient beaucoup mieux ce qu'il se passait dans les machines et ce que faisaient les commandes qu'ils passaient.
    NEKO

  • @FallerToon
    @FallerToon 4 ปีที่แล้ว +1

    Nice, c'est très instructif.
    Je retombe sur tes vidéos en recommandé (encore).
    J'approuve le type qui à validé les explications à la "c'est pas sorcier".
    N'ayant qu'un iota de connaissances dans ce domaine et après avoir compris pas mal de choses, je ne peux que laisser mon pouce de pseudo-approbation en tout état de conscience.
    (Ok j'deconne, j'en fais peut-être un peu trop mais j'ai bien appris grâce à toi ! merci)

  • @NRichard
    @NRichard 4 ปีที่แล้ว +4

    Bel effort de vulgarisation 👍 (j'aurai parlé un peu de SIMD).
    Le temps d'exécution dépend beaucoup du compilateur.
    Merci pour ces précisions sur Rosetta !
    Comme quoi on peut faire aussi bien avec un peu de papier et des ciseaux 😜
    Qqun comprend pourquoi le cours d'Intel ne baisse pas autant que ça devrait (échec sur le mobile, AMD qui monte, Xeon Phi vs NVidia et maintenant en frontal) ?

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว

      ils ont encore bcp de processeur a ecouler avant d'etre en diufficultée mais sur le long terme ca risque d'etre difficile effectivement.

  • @launay98
    @launay98 3 ปีที่แล้ว

    Hop je m'abonne direct! Vidéo très bien expliquer et puis faudra remercier les suggestions TH-cam c'est même énorme que Micode ainsi que Trash soient tomber sur ta vidéo

  • @bolly-rama3938
    @bolly-rama3938 3 ปีที่แล้ว

    Ici par pure hasard. La pédagogie est un art. Bravo l'artiste.

  • @ybcanal21
    @ybcanal21 4 ปีที่แล้ว +1

    Excellente vidéo ! Très pédagogique. Faudrait faire la même vidéo avec Micro Magic et leur architecture RISC-V car ils annoncent des performances encore bien meilleures que celles de l'Apple M1 et en consommant moins d'énergie. À suivre...

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว +1

      les performances par watt sont meilleures, pas les performances globables. Le risc-v consomme moins d'1 watt et le m1 consomme 25 donc il ne sont pas du tout dans la même catégorie. C'est comme dire une fourmis est plus forte qu'un éléphant parce qu'elle peut soulever 2x sont poid :)
      Dans le futur, il se peut que des risc-v scalent bien et viennent concurrencer les cpu d'apple mais ce n'est pas encore le cas.

  • @Runs59
    @Runs59 3 ปีที่แล้ว

    Ouch ! Superbe effort de vulgarisation. C'est super clair et super intéressant ! Bravo !

  • @gaetanhugot2303
    @gaetanhugot2303 2 ปีที่แล้ว

    Salut ! Je viens de découvrir ta chaîne, j'espère que tu gagne bien ta vie avec ce que tu fais parce que c'est tout simplement incroyable, super qualité ! Merci de partager avec nous !

    • @cocadmin
      @cocadmin  2 ปีที่แล้ว

      pas encore mais on y crois 🙏

  • @Mrziggyspider
    @Mrziggyspider 3 ปีที่แล้ว

    Bravo pour la clarté du propos. Super vidéo.

  • @guillaumemarmorat8293
    @guillaumemarmorat8293 4 ปีที่แล้ว +1

    C'est vraiment ultra interressant, bravo et merci ! 👍

  • @loualihocine5577
    @loualihocine5577 5 หลายเดือนก่อน

    1 grand merci cher monsieur (TECNO) Vous êtes le phénix des ingénieurs de technologie

  • @EricDeLyon
    @EricDeLyon 4 ปีที่แล้ว +1

    Tres interessant merci, et oui gérer toute la chaine de production est un énorme avantage, et pouvoir simplifier et épurer c'est le bonne évolution pour le futur.

  • @adamkenton2585
    @adamkenton2585 4 ปีที่แล้ว +2

    Explications très claires ! Vidéo plus que intéressante

  • @chogha
    @chogha 3 ปีที่แล้ว

    Très bonne vidéo, simple et efficace. Dans les années 90 mon deuxième ordi était un Amiga 1200 en fin de vie. Je voulais passer à un autre ordi mais pas un compatible PC. Tout mes potes de mettait au PC avec des pentium 75 MHz et pour les plus riches 100 MHz. Moi je rêvais d'une machine Archimède de acorn muni d'un processeur RISC maison dans la digne ligne de l'Amiga. Je programmais à cette époque et me doutais de ne pas trouver une bibliothèque de fou. La machine n'a pas traverse les frontières et je ne l'ai jamais trouvé en France. Et je suis passer du côté obscure de la force à cette époque. Maintenant ce n'est qu'un outil comme un tournevis il ne me viendrait plus à l'idée de fabriquer celui ci alors qu'il suffit maintenant de l'acheter sur internet.

  • @mindstorm3854
    @mindstorm3854 4 ปีที่แล้ว

    Concept sympathique, c'est bien réussit et je pense que la vulgarisation est réussit, tu réussis à t'abstraire des concepts complexe pour faire comprendre les grandes lignes. Enfin quelqu'un pour parler de ce merveilleux jeu d'instruction qu'est ARM ça fait plaiz !

  • @le_roi_nu
    @le_roi_nu 2 ปีที่แล้ว

    J'y connais que dalle et pourtant, je comprends tout... Une très grande leçon de pédagogie ! En plus, c'est vraiment intéressant... Mille bravos !

  • @matthieurome4805
    @matthieurome4805 3 ปีที่แล้ว +1

    Je découvre ta chaîne au travers de cette vidéo, superbe vidéo facecam simple efficace avec du papier et des feutres : lourd léger professionnel !

  • @richardbarbat4127
    @richardbarbat4127 4 ปีที่แล้ว +2

    Bravo pour ta vidéo, c'est vraiment pas évident à faire comprendre, et tu y arrives très bien. Par contre je trouve que tu n'as pas insisté sur la consommation electrique délirante des proc Intel par rapport au M1. On est sur des rapports de X4, X5 pour atteindre la même puissance ! Là se situe le plus gros soucis pour les X86 AMHA.

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว

      Tu as raison mais je préférais parler des différences d'architecture :)

  • @gabrielb.2886
    @gabrielb.2886 3 ปีที่แล้ว

    Tip top!
    Il y a quand même un élément fondamental pour expliquer les performances du M1 : la finesse de gravure. Apple fait fabriquer ses chips par TSMC en 5nm qui offre une densité 1,8x celle du TSMC 7nm utilisé par AMD et une efficacité énergétique 1,3x suppérieure et 1,15x les performances à consommation égale. Quant à Intel qui fabrique lui-même ses chips, ils peinent encore à passer au 10nm (équivalent 7nm TSMC à la louche) pour ajouter à leurs problèmes architecturaux qui ne passent plus à l'échelle en maîtrisant les coûts.
    Il faut aussi parler du compilateur que Apple développe lui-même (clang-llvm) et qu'il peut optimiser très finement pour sa puce M1 comme ils le font pour le reste du système, comme tu l'as très bien expliqué. Il reste possible d'optimiser la compilation pour une architecture spécifique avec les compilateurs sur Windows et Linux mais la spécialisation de l'optimisation est probablement moins bonne que dans le cas d'Apple. Aussi, les logiciels sont rarement recompilés par l'utilisateur pour l'optimiser sur sa propre machine, ce qui implique que les benchmarks que l'on voit comparant le M1 et Intel ou AMD ne sont pas pleinement optimisés pour ces derniers.
    Dernier point, Windows qui sert à la comparaison à peu près systématiquement, n'est pas un OS performant. On peut mesurer près de 30% d'écart pour un même programme entre Windows et Linux : www.phoronix.com/scan.php?page=article&item=windows-may2020-linux&num=9.
    Ceci étant dit, le M1 est une belle réalisation et ce n'est pas moi qui irait dénigrer ARM alors que je travaille avec leurs technologies ;)

  • @arnaudleconte6735
    @arnaudleconte6735 4 ปีที่แล้ว +1

    Je travaille dans le développement de processeur et je vraiment surpris par la qualité technique de la vidéo (de la part d'un softeux :p). Très bon travail ^^

    • @yamazakikaoru9579
      @yamazakikaoru9579 4 ปีที่แล้ว +1

      Oui ,en général au mieux on a la description d'un processeur des années 80 :)

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว

      merci ca fait plaisir! J'avais peur de sur-simplifier ou de louper quelque chose d'évident. :)

  • @franckrollier895
    @franckrollier895 ปีที่แล้ว

    Je remercie les suggestions YT de m’avoir fait découvrir ta chaîne, une vraie pépite ! T’es explications sont claires et tes schémas permettent de comprendre facilement des concepts qui peuvent être complexes. T’as gagné un abonné 😊

  • @MasterEquinoX
    @MasterEquinoX 4 ปีที่แล้ว +1

    Vidéo très bien construite, merci pour les efforts de pédagogie :)

  • @simon9640
    @simon9640 3 ปีที่แล้ว +1

    Lourd mec c'est qualitatif

  • @kkyokushin8223
    @kkyokushin8223 4 ปีที่แล้ว +1

    Débutant dans la matière et ça m'a beaucoup intéressé, merci Coca.

  • @MonBureauLinux
    @MonBureauLinux 4 ปีที่แล้ว +1

    Merci pour la vidéo. Grossomodo il n'y a pas cette partie décodage/découpage qui fait perdre du temps dans les processeurs "ARM". A voir le marché de l'offre et la demande. Un petit risque d'augmentation des prix pour avoir du ARM Apple si Intel et AMD n'arrivent pas à suivre la cadence. Dans 3ans on verra bien.

  • @Ywqqqq
    @Ywqqqq 4 ปีที่แล้ว +2

    Excellente vidéo, il en faut plus du genre !

  • @denilsson31
    @denilsson31 4 ปีที่แล้ว +1

    3:38 : Ce n'est pas la taille variable des instructions qui implique l'emploi d'un décodeur.
    C'est le code op, c'est à dire le codage binaire du code instruction qui doit expansé pour commander électriquement des circuits impliqués.
    si l'instruction inc AX a pour code machine 0000 0101, le nombre 5, exprimé en binaire, le décodeur produira en sortie 0000 0000 0001 0000 qui concrètement se traduit par un seul fil à la fois, le 5ème, sous tension. Ce fil-là, commandera l'activation de la partie combinatoire de l'unité de calcul chargé d'effectuer l'addition d'entier.
    Les 4 premiers bits à 0 du code machine peuvent représenter l'adressage du registre AX. Dans ce cas, cela peut être aussi décodé de façon comparable de telle sorte qu'un fil en sortie commande l'aiguillage d'accès à la cellule mémoire de AX vers l'entrée de calcul de l'addition.
    Donc, RISC ou CISC, tout processeur a besoin d'une unité de décodage pour expanser les instructions en signaux individualisés.

  • @williamb8764
    @williamb8764 3 ปีที่แล้ว +2

    Merci pour la vidéo super intéressante. Perso j'ai un vieux laptop intel (10 ans le bonhomme), il serait temps de changer, mais j'attends, je pense que c'est pas le bon moment.
    Si impressionnante soit la claque qu'a foutu Apple au reste, j'attends la riposte, ça va être un festival et je pense qu'on va aboutir sur de sacrées évolutions dans les prochaines années!

  • @H_A_R_L_E_M
    @H_A_R_L_E_M 3 ปีที่แล้ว

    Géniale ta vidéo. Un vrai talent pour vulgariser les choses incompréhensibles pour un néophyte en temps normal. Merci à toi !

  • @amau345
    @amau345 3 ปีที่แล้ว

    Très claire et très intéressante à regarder .peut être qu'une musique de fond pourrait être intéressante pour être plus agréable mais sinon super

  • @homethanh
    @homethanh 3 ปีที่แล้ว

    Bonjour,
    Enfin une video qui essaye d'aller au fond des choses. Par contre certaines explications ne sont pas exacte.
    CISC vs RISC : Il faut voir le developpement de ces CPU comme des villes. Quand on a une ville historique la circulation et plus difficile qu'une ville nouvelle avec des routes en angle droit . Cf ville USA vs ville Europeenne.
    Intel (CISC) a toujours voulu ajouter des instructions sur un historique x86 , cf jeux d'insttruction MMX etc , en gardant une compatibilité.
    Autre point , le multipipeline : les instructions RISC ont une particuliarite de faire a peu pres le meme nombre de cycle. Ce qui rend les predictions plus juste. Comme si on avait un tetris a 2 pieces differentes et un autre avec 8 pieces.
    La consommation : le RISC n'avait ete prevu pour la faible consommation c'est une feature qui a été utiliser de facon opportuniste , mais ca n'avait pas ete prevu pour cela a l'origine. Le premier PC ARM (RISC) est sorti au debut 90 et le PC etait tout juste transportable donc la consommation etait pas un souci car on etait sur secteur.
    conso : th-cam.com/video/OuF9weSkS68/w-d-xo.html
    En accord , le lead pour les developpements SoftW/HardW de Apple est une politique qui a toujours ete payante. C'est le 3eme changement d'archi majeure.
    68k -> PPC -> x86 -> ARM/M1
    Ce qui tres payant pour cette iteration c'est que la distance CPU-SoftW est reduite , ce qui est un gain de performance.
    Cf : archi mainframe IBM ou le software et le hardware est maitrise par un seul acteur. ou des projet comme linux-bios.
    Le refactoring du CPU M1 , le fait de maitriser sont hardware permet effectivement de mieux faire evoluer pour rechercher la performance.
    Les meilleurs exemple sont les GPU. avec +500 cores.
    Mon avis, c'est qu'on est a un moment clef pour les PC , on aura peut-etre le CPU qui va etre absorber dans la carte mere (carte son , carte graphique).
    Apple en developpant son CPU , a monte sans le vouloir que la CPU n'est plus partie la plus critique d'un PC.
    NVIDIA veux racheter le consorsium ARM , ce qui renforce mon point de vue.
    Continuez , ces videos sont rares.

  • @rikimaru749
    @rikimaru749 3 ปีที่แล้ว +3

    Merci pour les explications 👍
    pour le moment AMD ne semble pas rencontrer les problèmes d’intel.
    AMD et Intel il peuvent aussi se payer la license ARM et développer leur composant ?!
    Curieux de voir comment cela va évoluer.
    Et que peut tu nous dire de RISC-V ?

  • @eDzetera
    @eDzetera 3 ปีที่แล้ว +1

    Merci BEAUCOUP pour ces explications et toutes ces informations (et hop, un abo de plus ;) )

  • @bublemoon
    @bublemoon 3 ปีที่แล้ว

    Salut, supposition YT...je n’ai absolument rien compris mais agréable de voir vois les efforts que tu fais pour nous expliquer 😅

  • @elcordobes11
    @elcordobes11 4 ปีที่แล้ว +1

    Explications simples et clair! Jolie trouvaille :) merci pour ta lumière!

  • @JamesAdamsTech
    @JamesAdamsTech 4 ปีที่แล้ว +1

    Super vidéo comme d'habitude j'ai appris pas mal de chose et l'explication papier était vraiment bien !

  • @Vulcanul
    @Vulcanul 4 ปีที่แล้ว +1

    Salut, super vidéo je ne savais pas tout ça ! Je pense aussi que le secret de d'Apple réside dans la finesse de gravure de son M1. le Intel i9 est en 14nm la ou Apple arrive à faire du 5nm. C'est une énorme différence et ça peut aussi expliquer pourquoi ils ont autant de place sur leur processeur :)
    Sinon super vidéo comme d'hab !

    • @cocadmin
      @cocadmin  4 ปีที่แล้ว +1

      Effectivement ca joue beaucoup, j'ai hésité à en parler mais je voulais insister sur les différences d'architecture que je trouvais plus intéressantes.

  • @gravel-demi-sel
    @gravel-demi-sel 4 ปีที่แล้ว +1

    C'était top et bien expliqué même pour ceux qui s'y connaissent moins chapeau !

  • @gojasan961
    @gojasan961 2 ปีที่แล้ว

    Très intéressante ta chaine et tes explications. Trop peu dans l'IT savent comment fonctionnent leur systèmes. Peu d'instruction, coder pour n'utiliser que des fonctions utilisant ces instructions... Vive les rapidités d'exécution :) En fait la techno est choisie (devrait être!) en fonction du besoin derrière...