DeepSeek v2.5 (Full Test): Can This Open-Source LLM Beat GPT-4 in Coding?

แชร์
ฝัง
  • เผยแพร่เมื่อ 3 พ.ย. 2024

ความคิดเห็น • 29

  • @AaronBlox-h2t
    @AaronBlox-h2t หลายเดือนก่อน +2

    Thanks for the update....I'm checking it out now and it's pretty cool...

    • @Codewello
      @Codewello  หลายเดือนก่อน

      I admit this is the first time I've ever tried it, and it's super underrated. A lot of people talk about it.

  • @garchafpv
    @garchafpv หลายเดือนก่อน +1

    Hahaha all the beepol. great vid and i find tour accent soothing lol idk why

    • @Codewello
      @Codewello  หลายเดือนก่อน

      i love you 🥹,I have been trying to get rid of the accent, but it just loves me so much that it won't leave

  • @AbdoZaInsert
    @AbdoZaInsert หลายเดือนก่อน +1

    يا عمي تحيا مصر و تحياتي لك
    بجربه بعد شوي ان شاء الله يكون رهيب مثل الي بمقطعك.

    • @Codewello
      @Codewello  หลายเดือนก่อน +1

      حبيبى ان شاء الله يفيدك

  • @internetmarketingproductre6093
    @internetmarketingproductre6093 หลายเดือนก่อน +1

    Great review !

    • @Codewello
      @Codewello  หลายเดือนก่อน

      thanks brother 🤩🤩

  • @mdubbau
    @mdubbau หลายเดือนก่อน +1

    I think we need to move away from using snake and life in benchmarks. Everyone tests for these and model developers know to train their models for this. We need more advanced coding tests.

    • @Codewello
      @Codewello  หลายเดือนก่อน

      any ideas i can use?

  • @Maisonier
    @Maisonier หลายเดือนก่อน +1

    What hardware do we need to run that DeepSeek v2.5 model?

    • @Codewello
      @Codewello  หลายเดือนก่อน +1

      To utilize DeepSeek-V2.5 in BF16 format for inference, 80GB*8 GPUs are required.
      From Hugging Face Page it self

  • @เมฆาเตียวัชรานนท์
    @เมฆาเตียวัชรานนท์ หลายเดือนก่อน

    is it can run locally with mac studio RAM 192 GB ?

  • @QorQar
    @QorQar หลายเดือนก่อน +1

    The smallest version is about 50 GB. How much RAM does it need?!

    • @Codewello
      @Codewello  หลายเดือนก่อน +1

      check the HF page it say :To utilize DeepSeek-V2.5 in BF16 format for inference, 80GB*8 GPUs are required.

    • @QorQar
      @QorQar หลายเดือนก่อน

      @@Codewello q1 how many need raaaam ?

    • @QorQar
      @QorQar หลายเดือนก่อน

      airllm?

  • @franciskapsowe9183
    @franciskapsowe9183 หลายเดือนก่อน +2

    It is a wrapper of sonnet 3.5

    • @Codewello
      @Codewello  หลายเดือนก่อน +2

      Ha? Are you joking, or are you talking about the Reflection model?

    • @franciskapsowe9183
      @franciskapsowe9183 หลายเดือนก่อน

      @@CodewelloSorry I confused, you are right.

  • @delta-gg
    @delta-gg หลายเดือนก่อน

    what resources would you need to run this locally with ollama? like what ram/vram?

    • @Codewello
      @Codewello  หลายเดือนก่อน

      To utilize DeepSeek-V2.5 in BF16 format for inference, 80GB*8 GPUs are required.
      i got this from hf page

  • @ahmedgaber3914
    @ahmedgaber3914 หลายเดือนก่อน +2

    Are you Egyptian? Your accent is so familiar

    • @Codewello
      @Codewello  หลายเดือนก่อน +1

      Yes, brother, I'm Egyptian. Are you Egyptian too?

  • @thenextension9160
    @thenextension9160 หลายเดือนก่อน +1

    Haha big chungus model.

    • @Codewello
      @Codewello  หลายเดือนก่อน +1

      It's a big Chungus model, but it's not the biggest Chungus out there

  • @garchafpv
    @garchafpv หลายเดือนก่อน +1

    The indian accent feels like nails on vhalk board to me. This is notnthat at all

    • @Codewello
      @Codewello  หลายเดือนก่อน

      Sorry that my accent bothers you so much. I'm trying to improve it. I've been trying to get rid of the accent, but it loves me so much that it just won't leave.