The Truth About Ollama's Structured Outputs

แชร์
ฝัง
  • เผยแพร่เมื่อ 11 ธ.ค. 2024

ความคิดเห็น • 8

  • @AI_HomeTech_Lab
    @AI_HomeTech_Lab ชั่วโมงที่ผ่านมา +1

    It was possible earlier to ask a model to return response in specific json format via user prompt. But not all models follow this request. For example, Lama 3.1-3.2 in most cases produce broken json, while gemma2 almost always follows the rule.
    It would be nice to test this structured output behaviour with different models.

  • @Michael-b7z8y
    @Michael-b7z8y 52 นาทีที่ผ่านมา +1

    Genial video en Español, bravo !!!!

  • @user-wr4yl7tx3w
    @user-wr4yl7tx3w ชั่วโมงที่ผ่านมา +1

    Can it work for any open source LLM?

  • @hotnikq
    @hotnikq ชั่วโมงที่ผ่านมา +1

    Lets try Pydantic!

  • @shakooosk
    @shakooosk 2 ชั่วโมงที่ผ่านมา +1

    Is Structured Output the same thing that the SDK uses when using Tools?

    • @technovangelist
      @technovangelist  2 ชั่วโมงที่ผ่านมา +1

      similar. But tools came out first a year ago, then a new version a few months back. Structured Outputs is anew feature added in the last couple days

    • @Reality_Check_1984
      @Reality_Check_1984 ชั่วโมงที่ผ่านมา

      Hopefully chatollama in langchain-ollama gets updated to take something other than ' ' or 'json'. As always, great video. I sincerely appreciate your content

  • @Hackinside
    @Hackinside 3 ชั่วโมงที่ผ่านมา +1

    👋🏽