Efficient LLM Inference (vLLM KV Cache, Flash Decoding & Lookahead Decoding)

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 พ.ย. 2024

ความคิดเห็น • 5

  • @noblesmathews
    @noblesmathews  5 หลายเดือนก่อน +1

    If you are interested in this area and would like to explore a bunch of other topics we discussed about in the course please checkout the references and other videos made by my classmates linked at cs.uwaterloo.ca/~wenhuche/teaching/cs886/

  • @thepresistence5935
    @thepresistence5935 5 หลายเดือนก่อน

    Can you give the previous lesson, it will be useful to look

    • @noblesmathews
      @noblesmathews  5 หลายเดือนก่อน

      Hi! the previous lecture was given by my classmate you can find it at th-cam.com/video/RfD5tPoMnZY/w-d-xo.html

  • @SpartanPanda
    @SpartanPanda 5 หลายเดือนก่อน

    Not able to find part 1 of this

    • @noblesmathews
      @noblesmathews  5 หลายเดือนก่อน

      Hi! the previous lecture was given by my classmate you can find it at th-cam.com/video/RfD5tPoMnZY/w-d-xo.html