Deploy Transformer Models in the Browser with

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ก.ย. 2024
  • In this video we will demo how to use #ONNXRuntime web with a distilled BERT model to inference on device in the browser with #JavaScript. This demo is based on the amazing work of our community member Jo Kristian Bergum!
    Connect with / jobergum
    Source Link: github.com/job...
    Blog: / moving-ml-inference-fr...
    Model: huggingface.co...
    Dataset: huggingface.co...
    #machinelearning #transformers #pytorch #onnx #onnxruntime #JavaScript #web

ความคิดเห็น • 10

  • @seikatsu_ki
    @seikatsu_ki ปีที่แล้ว +3

    This instructor is actually an angel, thank you Madam for the straightforward tutorial!

  • @santoshmohanram536
    @santoshmohanram536 2 ปีที่แล้ว +2

    Really helpful thanks.

  • @jn-zr2ki
    @jn-zr2ki ปีที่แล้ว

    very useful and clear

  • @nemines001
    @nemines001 ปีที่แล้ว

    hi thanks for this video

  • @Gerald-iz7mv
    @Gerald-iz7mv 4 หลายเดือนก่อน

    Nice. How to convert it to onnx using cuda?

  • @amanbishnoi6894
    @amanbishnoi6894 10 หลายเดือนก่อน

    there is a bug-
    InvalidArgument: [ONNXRuntimeError] : 2 : INVALID_ARGUMENT : Unexpected input data type. Actual: (tensor(int32)) , expected: (tensor(int64))

    • @ONNXRuntime
      @ONNXRuntime  10 หลายเดือนก่อน

      Hi, your comment is appreciated, and we want to follow up on this. Could you file an issue in ORT repo with details so we can take a look? github.com/microsoft/onnxruntime

  • @KrisMerckx
    @KrisMerckx 9 หลายเดือนก่อน

    This is not "in the browser". This is still node.js. That's server technology.