【生成式AI導論 2024】第8講:大型語言模型修練史 - 第三階段: 參與實戰,打磨技巧 (Reinforcement Learning from Human Feedback, RLHF)

แชร์
ฝัง
  • เผยแพร่เมื่อ 11 ม.ค. 2025

ความคิดเห็น • 54

  • @HungyiLeeNTU
    @HungyiLeeNTU  9 หลายเดือนก่อน +67

    9:30 在這段課程錄影中,為了更清楚地比較 Alpha Go 的訓練過程與大型語言模型的訓練方式,我對 Alpha Go 的實際推論與訓練過程進行了大幅度的簡化。例如,我並未提及 Value Network 和 MCTS 等概念。如果您希望深入了解 Alpha Go 的訓練與推論過程,建議您閱讀原始論文。
    13:30 需要注意的是,本段課程主要講述的是 Alpha Go 中 Policy Network 的訓練方式。事實上,Alpha Go 還包含了 Value Network 的訓練,用於估算棋局的勝率。這引發了一個有趣的思考:是否可以在大型語言模型的 RLHF中引入類似的概念?
    19:50 在翻譯術語時,Reward Model 可能譯為「報酬模型」或「獎勵模型」比較合適
    34:00 有關人生道路的抉擇不建議詢問大型語言模型

    • @elvis1322
      @elvis1322 9 หลายเดือนก่อน +1

      謝謝老師補充,來去自主學習更深

    • @laiafbin4495
      @laiafbin4495 9 หลายเดือนก่อน

      在LLM引入value network 的概念,是指多一個model 評估完整答案的正確率嗎?

    • @gabrielgracenathanana1713
      @gabrielgracenathanana1713 9 หลายเดือนก่อน

      reward model 的翻译: 为什么华人,不管是台湾还是大陆,全部都是这德行,在科技前沿地带搞翻译,而且,还要意译。 真见鬼了。 这是华人们的反人类罪😂😢。 教授已经开始有一点觉悟了,有抵制,不错😅😂

  • @yongshangli8104
    @yongshangli8104 9 หลายเดือนก่อน +46

    来自大陆的学生,真的羡慕有这样的老师

    • @yongshangli8104
      @yongshangli8104 9 หลายเดือนก่อน +2

      感谢老师一直的分享

    • @yangjin7178
      @yangjin7178 9 หลายเดือนก่อน +1

      加入旁听

    • @vvxx2287
      @vvxx2287 9 หลายเดือนก่อน +3

      工作之余AI学习全靠李老师,感谢

    • @w565u44
      @w565u44 8 หลายเดือนก่อน +8

      大陆高校上课没前途啊,要项目,基金,帽子才是关键

    • @yangjin7178
      @yangjin7178 8 หลายเดือนก่อน

      @@w565u44 好好学习!

  • @susuky3832
    @susuky3832 9 หลายเดือนก่อน +8

    1. 大模型訓練第三階段:互動及技巧學習(Reinforcement Learning from Human Feedback, RLHF)
    ◦ RLHF意義:模型根據用戶反饋進行學習與調整。
    ◦ 例子:使用者對模型給出的答案不滿意時,可要求模型重新生成答案,並提供反饋。
    2. 訓練資料差異:
    ◦ 第一階段:Pre-training,使用網路取得的資料。
    ◦ 第二階段:Intermediate Pre-training,資料由人提供,稱為Supervised Learning。
    ◦ 第三階段:RLHF,訓練資料不再是明確的輸出,而是相對好壞的評價。
    3. Reinforcement Learning (RL) 概念:
    ◦ RL運作方式:語言模型根據反饋調整參數,提高好答案的生成機率,降低壞答案的生成機率。
    4. RLHF與人類參與的比較:
    ◦ 第二階段需人類提供問題與答案。
    ◦ 第三階段人類只需評價模型生成的答案。
    5. RLHF的實際應用:
    ◦ 使用回饋模型(Reward Model)來模擬人類反饋,進行模型訓練。
    6. 訓練模型演進:
    ◦ 從AI-Human Feedback (AI-HF) 到 AI-AI Feedback (AI-AI-F),使用AI模型互相提供回饋。
    7. 訓練階段總結:
    ◦ 第一階段 (Pre-training):基礎模型訓練。
    ◦ 第二階段 (Intermediate Pre-training):進一步訓練,引入人類老師。
    ◦ 第三階段 (RLHF):針對人類偏好進行調整,進行更深層次的學習。

  • @akingtoy
    @akingtoy 9 หลายเดือนก่อน +22

    關燈了,又起來開電腦,上課了。

  • @EriX-AI-FREE-Team
    @EriX-AI-FREE-Team 3 หลายเดือนก่อน +2

    看的很開心,知識點滿滿 + 笑點滿滿,謝謝李宏毅老師的無私分享!

  • @聖允-w1r
    @聖允-w1r 9 หลายเดือนก่อน +8

    今天這個上傳時間感覺上完課去睡覺剛剛好!🫶🏻

  • @yinchuliu6914
    @yinchuliu6914 9 หลายเดือนก่อน +10

    這個更新時間是在致敬芙麗蓮!?

  • @不具名人士-l4q
    @不具名人士-l4q 9 หลายเดือนก่อน

    來補課啦~ 順便跟下面那位怪人說一句。 這節課是導論🤭芙莉蓮是真理!

  • @lw2519
    @lw2519 9 หลายเดือนก่อน +4

    老师的课程没结束,我已经把《埋葬的芙莉莲》看完了,谢谢老师推荐,期待第二季😅

  • @highker
    @highker 9 หลายเดือนก่อน +1

    感謝老師一直分享~

  • @JulienChu-f8m
    @JulienChu-f8m 9 หลายเดือนก่อน +3

    请同学们先看完《葬送的芙莉莲》,再来上此门课!❤

  • @lochiwen_art
    @lochiwen_art 6 หลายเดือนก่อน +3

    GPT 建議去工作不要念博班一氣之下給了負回饋那段像段子一樣不禁看了三次 😂
    有加字幕真的很棒
    兩倍速看的時候很方便
    感謝教授做這麼麻煩的事情

  • @达闻西-s4g
    @达闻西-s4g 7 หลายเดือนก่อน +2

    感谢老师一直分享,帮助好大,还想请问老师,作业部分有没有开放资源,想自己做下练习试试

  • @weibinzheng8943
    @weibinzheng8943 7 หลายเดือนก่อน +4

    作业怎么看呢,有没有好心人放一下?

  • @001aacbz8
    @001aacbz8 หลายเดือนก่อน

    希望能有专门的视频示范fine-tuning,比如用Lora方法😁

  • @Patricia_Liu
    @Patricia_Liu 9 หลายเดือนก่อน

    謝謝老師!

  • @hyperwang
    @hyperwang 9 หลายเดือนก่อน +2

    25:30 提到 LLM 過度跟 reward model 學習後會導致結果變爛, 這會不會是 reward model 本身有問題, 而不是過度學習導致的呢?

    • @hankdonald7812
      @hankdonald7812 6 หลายเดือนก่อน

      本来就是reward model自身的问题,才导致大语言模型输出结果变差。但是,reward model自身有问题这点,目前是不可避免的(毕竟reward model不是真的人类)。如果大语言模型没有过度向reward model学习,那么reward model的问题是不会传染给大语言模型的,所以才说,大语言模型过度向reward model学习导致了大语言模型结果变差。reward model可以认为是大语言模型的训练集,reward model中有噪音(比如文中的pls,???),大语言模型正式过度拟合了这些噪声,才导致输出结果里面总是含有pls,???

  • @Terry0319
    @Terry0319 9 หลายเดือนก่อน

    謝謝老師

  • @mr.goldenball333
    @mr.goldenball333 9 หลายเดือนก่อน +6

    來這邊update福利連劇情😊

  • @miku3920
    @miku3920 9 หลายเดือนก่อน +2

    把 MCTS 用在語言模型上不知道會怎樣

  • @xaviertsai4063
    @xaviertsai4063 9 หลายเดือนก่อน

    上課啦~

  • @ztl2262
    @ztl2262 8 หลายเดือนก่อน

    谢谢李老师!

  • @cheukhwan3
    @cheukhwan3 9 หลายเดือนก่อน

    這次的聲音比之前的影片都小了, 希望之後的影片能大聲一點點, 謝謝教學

  • @ArkExtension
    @ArkExtension 8 หลายเดือนก่อน +1

    請問 nvidia 講 RAG 的課可以分享嗎?

  • @ken0602s
    @ken0602s 9 หลายเดือนก่อน +1

    老師有空會講講MAMBA嗎~

  • @weibinzheng8943
    @weibinzheng8943 7 หลายเดือนก่อน

    Reward Model,感觉上跟GAN里面的判别模型有点像

  • @blesslaitw
    @blesslaitw 8 หลายเดือนก่อน +1

    老師不好意思想請問一下:回饋模型的出現是否也是利用RLHF的方式?這樣語言模型訓練到最後,是不是就變成回饋模型的樣子?那這樣我是不是直接用回饋模型來取代語言模型就好呢?

    • @hankdonald7812
      @hankdonald7812 6 หลายเดือนก่อน +1

      我猜测reward model只能判断大语言模型输出结果的好与坏,reward model自身并不能进行token接龙,所以reward model取代不了大语言模型。

  • @wenjingHan-vb7nc
    @wenjingHan-vb7nc 9 หลายเดือนก่อน

    老师,有没有时间讲讲MANBA模型

  • @振魂石-b6i
    @振魂石-b6i 9 หลายเดือนก่อน +1

    过度向虚拟人类学习,应该出现了过拟合(Over fitting),模型学了偏招。

  • @sichen-sz1ws
    @sichen-sz1ws 7 หลายเดือนก่อน +1

    作业练习的录像是在哪呢?😃

  • @huiwencheng4585
    @huiwencheng4585 8 หลายเดือนก่อน

    老師為什麼能在這麼短的時間內爆讀二三十篇最最新的paper🥹

  • @jiayizhang7406
    @jiayizhang7406 4 หลายเดือนก่อน

    晚来的追更

  • @yanmingkan4395
    @yanmingkan4395 9 หลายเดือนก่อน

    safety确实是个问题,之前做一个功能老是被拒绝输出,结果发现是讲了自由

  • @diman33
    @diman33 9 หลายเดือนก่อน

    這部爆天龍八部的雷

  • @jack1796
    @jack1796 8 หลายเดือนก่อน

    为了看懂例子 😂 我找借口二刷了某勇者神剧 😅

  • @stevebruno3749
    @stevebruno3749 9 หลายเดือนก่อน

    来上课

  • @pkwanga
    @pkwanga 8 หลายเดือนก่อน

    覺得我有點中毒了。 在看冉則複製體的時候,就想到如果我們也能複製自己給語言模型當人類老師,該有多好,這樣訓練就不花人力了..

  • @道泽
    @道泽 5 หลายเดือนก่อน

    我打算去看芙莉莲了

  • @princend1584
    @princend1584 9 หลายเดือนก่อน +3

    偷偷地業配博班...

  • @胡雅茹-w4n
    @胡雅茹-w4n 8 หลายเดือนก่อน

    噗……我还仔细想了一下干嘛那个七言的好……

  • @shiweiwong5292
    @shiweiwong5292 9 หลายเดือนก่อน

    前排

  • @garfieldlavi
    @garfieldlavi 9 หลายเดือนก่อน

    RLAIF是不是跟前面tree of thought有點像啊