How Interpretable Features in Claude 3 Work

แชร์
ฝัง
  • เผยแพร่เมื่อ 10 ก.ย. 2024

ความคิดเห็น • 8

  • @tomharmon2000
    @tomharmon2000 3 หลายเดือนก่อน +3

    you're a legend bro! One of the better youtube channels covering the technical aspects of AI.

    • @oxen-ai
      @oxen-ai  3 หลายเดือนก่อน

      Appreciate it!! Let me know if there are any other topics you want to dive into

  • @DeruwynArchmage
    @DeruwynArchmage 3 หลายเดือนก่อน

    You should be able to use LLMs to predict semanticity and to design and run experiments automatically to validate the theories and explore possibilities.

  • @envynoir
    @envynoir 2 หลายเดือนก่อน

    Cool video bro, keep it up!

  • @DeruwynArchmage
    @DeruwynArchmage 3 หลายเดือนก่อน

    I note that these are concepts. There must be functional parts. Like, a set of parameters that implement certain algorithms or functions.

  • @ZeZa1515
    @ZeZa1515 3 หลายเดือนก่อน +1

    Love this as a concept. I wonder if we will start seeing this as an alternative way to prompt. It seems obvious this could be a really easy way to help finetune your prompt texts, but it could be an even better system prompt

  • @saireddy7628
    @saireddy7628 9 วันที่ผ่านมา

    Is there an implementation in code similar to this to get started?

  • @yookjieun6592
    @yookjieun6592 3 หลายเดือนก่อน

    17:04