WebLLM: A high-performance in-browser LLM Inference engine

แชร์
ฝัง
  • เผยแพร่เมื่อ 21 พ.ย. 2024

ความคิดเห็น • 3

  • @erkintek
    @erkintek 4 ชั่วโมงที่ผ่านมา

    3 years ago I run some models in tensor flow js, also on mobile. They were not performat but way cheaper than on server.

  • @SriniVenkata-my4uw
    @SriniVenkata-my4uw 4 ชั่วโมงที่ผ่านมา

    Excellent video

  • @nri_raj
    @nri_raj 11 ชั่วโมงที่ผ่านมา +1

    3rd like 😂