Ollama0.5の構造化出力(Structured Output)を試す! ローカルLLMは出力がゆらぎやすいからこそ、構造化出力で安定性を担保する価値がある。なんと画像認識も結構できちゃう

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 ธ.ค. 2024

ความคิดเห็น • 2

  • @tarou-fi3dl
    @tarou-fi3dl 5 วันที่ผ่านมา +2

    ollamaもいいけどvllmも最近気になっています。vllmはpython上で使うのでollamaのほうが使いやすいとは思いますが笑

    • @iketomo_work
      @iketomo_work  3 วันที่ผ่านมา +1

      ふむふむ、そんなツールも📝