ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 พ.ค. 2024
  • 在 ollama 支持了并发之后其性能有了一定的提升,但是和目前模型推理最佳实践之一的 vllm 相比差距几何呢?这里是用一块 4090 对两个模型的性能进行对比。

ความคิดเห็น • 6

  • @george89341
    @george89341 หลายเดือนก่อน +1

    感谢分享!

  • @quick_fox_jumps_over_lazy_dog
    @quick_fox_jumps_over_lazy_dog 15 วันที่ผ่านมา

    感謝分享!🎉

  • @jackyli6716
    @jackyli6716 หลายเดือนก่อน

    我在b站好像看到过你哦!
    谢谢分享!

  • @kimjason5294
    @kimjason5294 หลายเดือนก่อน +1

    小姐姐怎么就一个视频呢? 内容挺棒,还有别的吗?

  • @rogerroan7583
    @rogerroan7583 หลายเดือนก่อน

    這實驗太有料了能分享程式碼嗎

    • @arkohut
      @arkohut  28 วันที่ผ่านมา +2

      blog.csdn.net/arkohut/article/details/139076652