Accelerate Transformer inference on CPU with Optimum and ONNX

แชร์
ฝัง
  • เผยแพร่เมื่อ 3 ธ.ค. 2024

ความคิดเห็น • 14

  • @anabildea9274
    @anabildea9274 ปีที่แล้ว +1

    Thank you for sharing! great content!

  • @geekyprogrammer4831
    @geekyprogrammer4831 ปีที่แล้ว

    Thanks a lot for creating this video. I saved a month by watching this video!

  • @youssefbenhachem993
    @youssefbenhachem993 ปีที่แล้ว

    To the point ! great explanation, thanks 😀

  • @TheBontenbal
    @TheBontenbal 8 หลายเดือนก่อน

    I am trying to follow along. Many updates to the code so many errors unfortunately.

    • @juliensimonfr
      @juliensimonfr  8 หลายเดือนก่อน

      Docs and examples here: huggingface.co/docs/optimum/onnxruntime/overview

  • @Gerald-iz7mv
    @Gerald-iz7mv 6 หลายเดือนก่อน

    How do you export to onnx using cuda? It seems optimum doesnt support it - is there an alternative?

    • @juliensimonfr
      @juliensimonfr  6 หลายเดือนก่อน

      huggingface.co/docs/optimum/onnxruntime/usage_guides/gpu

  • @ahlamhusni6258
    @ahlamhusni6258 ปีที่แล้ว

    is there any optimization methods applied on word2vec 2.0 model ? and can I apply these methods on the word2vec 2.0

    • @juliensimonfr
      @juliensimonfr  ปีที่แล้ว

      Hi, Word2Vec isn't based on the transformer architecture. You should take a look at Sentence Transformers, they're a good way to get started with Transformer embeddings huggingface.co/blog/getting-started-with-embeddings

    • @ibrahimamin474
      @ibrahimamin474 11 หลายเดือนก่อน

      @@juliensimonfr I think he meant wav2vec 2.0

  • @Gerald-xg3rq
    @Gerald-xg3rq 6 หลายเดือนก่อน

    what the difference between setfit.exporters.onnx and optimum.onnxruntime (optimizer = ORTModelFromFeatureExtraction.from_pretrained(...) optimizer.optimize()) etc.?

    • @juliensimonfr
      @juliensimonfr  6 หลายเดือนก่อน

      Probably the same :)