Building a research assistant with o3-mini

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ก.พ. 2025

ความคิดเห็น • 10

  • @MarianoJPonce
    @MarianoJPonce 53 นาทีที่ผ่านมา

    Thank you legend!

  • @JackFelke-kz6cc
    @JackFelke-kz6cc 2 ชั่วโมงที่ผ่านมา

    thanks lance!

  • @61Marsh
    @61Marsh 7 ชั่วโมงที่ผ่านมา

    nice summary, thanks for sharing

  • @biochemcompsci
    @biochemcompsci 8 ชั่วโมงที่ผ่านมา

    Well Done

  • @WinonaNagy
    @WinonaNagy 9 ชั่วโมงที่ผ่านมา

    Great summary of o3-mini! Cost-efficiency and speed are impressive. How's it dealing with large context management and integration with other models? Keen to see some benchmarks!

  • @RohanKumar-vx5sb
    @RohanKumar-vx5sb 8 ชั่วโมงที่ผ่านมา

    amazing

  • @RollingcoleW
    @RollingcoleW 4 ชั่วโมงที่ผ่านมา

    @langchain I would like to see how we can add a coding sandbox to this tool. let's say I ask the research assistant to look up new documentation from langgraph. I would like to see the ai model also be able to code and execute a few examples and save the logs. Maybe this runs in a docker container sandbox for safety. But I would find this feature of simple benchmarking soooooo useful.

  • @rishavranaut7651
    @rishavranaut7651 6 ชั่วโมงที่ผ่านมา

    To build applications with ai agents.. Token cost is really high when llm do tool calling and communicate to get atleast a initial answer which even may not be correct. Reducing tokens prices is a need of hour rather than introducing new model every next day.
    Current models are sufficient enough to integrate in the workflows.

  • @DaveVT5
    @DaveVT5 8 ชั่วโมงที่ผ่านมา +1

    What’s the gUI tool? Langgraph?

    • @supermuel4796
      @supermuel4796 8 ชั่วโมงที่ผ่านมา +2

      Langgraph Studio