InstructGPT 论文精读【论文精读】

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 พ.ย. 2024

ความคิดเห็น • 60

  • @frozhen2807
    @frozhen2807 ปีที่แล้ว +3

    非常喜欢您的讲解。最喜欢的就是您基本没有中英文混着说,纯中文非常不错。

  • @hongpengjin9435
    @hongpengjin9435 ปีที่แล้ว +4

    感谢老师,不知道是ChatGPT太有趣了还是老师讲解方式好,总之受益匪浅!

  • @CTT36544
    @CTT36544 ปีที่แล้ว +12

    看了你很多视频,发现逻辑清晰,内容可以深入浅出。建议你在这个“论文精度”的playlist之外再开个专门讲DL基础的playlist,保证受欢迎。

  • @iamwatchingyouuu-i5l
    @iamwatchingyouuu-i5l ปีที่แล้ว +9

    雖然大部分我都聽不懂,但還是看完了😂 謝謝你的解說🙏🏻👍🏻

  • @xugangye6494
    @xugangye6494 ปีที่แล้ว +11

    Here, regarding the pairwise ranking loss, it’s actually based on the softmax probability:
    P(y_w is preferred over y_l)
    = exp(r(x, y_w; theta) - r(x, y_l; theta)) / ( exp(r(x, y_w; theta) - r(x, y_l; theta)) + exp(r(x, y_l; theta) - r(x, y_w; theta)) )
    So, it’s standard in for ranking model

  • @0xsamo
    @0xsamo ปีที่แล้ว +2

    太感动了,很喜欢科技的小白,但读不懂论文,简直被戳中G点

  • @wayneyue1662
    @wayneyue1662 ปีที่แล้ว

    太喜欢了Mu Li 非常需要AI领域精品论文和方法的讲解!

  • @許逸凱
    @許逸凱 ปีที่แล้ว +11

    align台灣這邊會傾向翻譯成校準,中國大陸我之前待過會用對齊這個字,可以給老師參考一下

    • @danielliang3842
      @danielliang3842 ปีที่แล้ว

      补充一个,在大陆的生物信息领域,align翻译为 比对

    • @danielliang3842
      @danielliang3842 ปีที่แล้ว +1

      当然,应该还是 对齐 更接近英文的字面意思

  • @ostensibly531
    @ostensibly531 11 หลายเดือนก่อน +1

    大牛,如果要把chatgpt变成某一领域的expert,应该用这篇文章里的方法还是直接用openai的finetuning api更好?

  • @jasonwu6012
    @jasonwu6012 ปีที่แล้ว +6

    感谢您的讲解! 我想请教您: Transformer是个非常漂亮的LLM的突破,给了GPT优秀的语言能力。有论文解释为什么好的语言能力,也等于知识记忆和逻辑归纳能力吗?🙏🙏🙏

    • @senx8758
      @senx8758 ปีที่แล้ว

      逻辑归纳能力主要来自语料记忆。 语言模型主要还是文科生

  • @davishuang4010
    @davishuang4010 ปีที่แล้ว

    非常棒的講解!!希望你能多出關於chatgpt的影片!!

  • @blockedao8855
    @blockedao8855 ปีที่แล้ว +6

    同学们来开组会了

  • @zyw2134
    @zyw2134 ปีที่แล้ว

    感谢李哥无私分享~!

  • @jingyang4636
    @jingyang4636 ปีที่แล้ว +1

    谢谢老师的讲解!

  • @shuhuijiang361
    @shuhuijiang361 ปีที่แล้ว

    请问 RLHF和传统的supervised 找人标groundtruth label是一回事换了个名字吗?还是不同的意思?

  • @ghostviper5887
    @ghostviper5887 ปีที่แล้ว +3

    最小工作发布单元真的是高情商描述了:)

  • @yanyanzheng4955
    @yanyanzheng4955 ปีที่แล้ว

    谢谢大神,一直等着呢

  • @lucantang4132
    @lucantang4132 ปีที่แล้ว +1

    感谢大佬,讲的很清楚🤩

  • @pighuizhi7364
    @pighuizhi7364 ปีที่แล้ว +1

    沐神,aligned could be translated to 拉通对齐

  • @tianyw0
    @tianyw0 ปีที่แล้ว +1

    align = 对齐,现已简称“勾对”,即沟通对齐。

  • @quantumjun
    @quantumjun ปีที่แล้ว

    真喜欢老师的视频

  • @achillesarmstrong9639
    @achillesarmstrong9639 ปีที่แล้ว

    47:27这里有一个错误哦。4选2是生成6个排序,9选2生成36个排序,所以多了6倍,而不是9倍。这里博主说错了哦

    • @boyiablefly
      @boyiablefly หลายเดือนก่อน

      他后面说了,原来的方法是只标最好的,所以只有4种比较关系

  • @changtimwu
    @changtimwu ปีที่แล้ว +1

    9:54 是啊, 以後不要再以為 "大力出奇蹟" 了

  • @whoami6821
    @whoami6821 ปีที่แล้ว +3

    大佬可以把 divi into deep learning 的课也拌匀刀您频道吗? B站在美国好像不是很流畅😭

    • @谢欣-j2f
      @谢欣-j2f ปีที่แล้ว

      反向代理

    • @wayneyue1662
      @wayneyue1662 ปีที่แล้ว

      B站有课程视频吗,账户名叫啥

  • @hayama2363
    @hayama2363 ปีที่แล้ว +2

    用chatGPT讀GPT的三篇文章可以嗎?

  • @jacksonchen8679
    @jacksonchen8679 ปีที่แล้ว +1

    step 3 的圖好像在影片上沒有
    model 41:37

  • @jijie133
    @jijie133 11 หลายเดือนก่อน

    Great video!

  • @56nxcols89nxci
    @56nxcols89nxci ปีที่แล้ว +1

    align=拉通对齐(华为),简称对齐

  • @qutesoft
    @qutesoft ปีที่แล้ว

    aligned 翻译的话应该 对齐

  • @jxitc
    @jxitc ปีที่แล้ว

    请问为啥不用已有的问答数据库?比如知乎 quora之类的?

    • @tokyoaflowertokyo8300
      @tokyoaflowertokyo8300 ปีที่แล้ว

      知乎上的数据用来做训练?那训练的结果会很情绪化,喜欢装逼或者喜欢喷人,或者小粉红思维

    • @jxitc
      @jxitc ปีที่แล้ว +1

      @@tokyoaflowertokyo8300 情绪化 装逼 或者政治内容请你移步其他地方,我这里是科学讨论。

  • @changtimwu
    @changtimwu ปีที่แล้ว +2

    14:00 只能說一語成讖了

  • @yuli.kamakura
    @yuli.kamakura ปีที่แล้ว

    这个是什么工具呀?

  • @alanllz
    @alanllz ปีที่แล้ว +1

    align 通常翻译成 对齐?

    • @yufanz1064
      @yufanz1064 ปีที่แล้ว

      统一思想,意见

  • @elementsix1167
    @elementsix1167 ปีที่แล้ว

    可以肯定这篇文章主要作者都是华人,排在前三位的很明显是华人的姓氏

  • @yuli.kamakura
    @yuli.kamakura ปีที่แล้ว

    强化学习 PPO

  • @jokehuang1611
    @jokehuang1611 ปีที่แล้ว +2

    CloseAI 😀

  • @fitokay
    @fitokay 8 หลายเดือนก่อน

    good

  • @yoshi_from_the_turtleland
    @yoshi_from_the_turtleland 7 หลายเดือนก่อน

    57:41

  • @li-pingho1441
    @li-pingho1441 ปีที่แล้ว

    awesome!

  • @johnnyhuo8255
    @johnnyhuo8255 ปีที่แล้ว

    学习

  • @liwang-pt4vp
    @liwang-pt4vp ปีที่แล้ว +4

    在chatGPT无法理解问题的时候,确实提供的答案都是在一本正经的胡说八道

  • @user-wzb
    @user-wzb ปีที่แล้ว +1

    第一次比b站快

  • @xufenghu3063
    @xufenghu3063 ปีที่แล้ว +1

    🎃

  • @hujosh8693
    @hujosh8693 ปีที่แล้ว +1

    你真的看懂論文嗎?一開始就胡說八道了。InstructGPT的重點根本不是標數據,是RLHF和reward model,怎麼你說成一定要標一點數據這種論點?

  • @deter3
    @deter3 2 หลายเดือนก่อน

    你的专业应该就不是大语言模型方面,讲解的技术洞察力方面极度一般。