Run Llama 3.3 on MacBook Pro: 100% Better Than ChatGPT

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 ม.ค. 2025

ความคิดเห็น • 13

  • @JagdishAdusumalli
    @JagdishAdusumalli 2 วันที่ผ่านมา +2

    the terminal window was too big to see the commands and output..please make it smaller next time...:)

    • @faroucky
      @faroucky  วันที่ผ่านมา

      😂

  • @MrLegoxx
    @MrLegoxx 3 วันที่ผ่านมา +6

    title is a clickbait... you are NOT running 3.3. on macbook pro with 24gb ram:(

    • @faroucky
      @faroucky  ชั่วโมงที่ผ่านมา

      🤔 Why is that?

  • @markusfeirer9896
    @markusfeirer9896 4 วันที่ผ่านมา +3

    When I understand it right than 3.3 needs more then 40GB of VRam. So the test makes no sense at all.

    • @faroucky
      @faroucky  4 วันที่ผ่านมา +1

      I didn’t know that 3.3 needs 40gb of ram before I tested it. I thought I have a powerful machine that can handle it 😂

    • @donleonardestrera6092
      @donleonardestrera6092 3 วันที่ผ่านมา

      ​@@faroucky You are running it on M4 Pro chip and I thought it would run without any problems.

  • @Khari99
    @Khari99 2 วันที่ผ่านมา

    The model's size is loaded into your ram which is the memory shared with your GPU. Without enough space on your GPU you wont be able to run it. On your 24GB machine, I believe the 43GB model gets run from the CPU alone because the memory can't all fit on the GPU so it uses the memory as swap for the CPU to process it.

  • @burgerbee5169
    @burgerbee5169 2 วันที่ผ่านมา +1

    1 min for a hello respons and then nothing. Haha. I think i will keep running my 70B models on my 5 years old 2xP6000 GPU setup. Maybe M5 Ultra 2027.

    • @faroucky
      @faroucky  วันที่ผ่านมา

      Perhaps 🤔

  • @Ti3sha08
    @Ti3sha08 3 วันที่ผ่านมา +1

    Good 1:05

  • @jum_py
    @jum_py 2 วันที่ผ่านมา

    Useless video

    • @faroucky
      @faroucky  วันที่ผ่านมา

      Why?