【生成式AI導論 2024】第14講:淺談大型語言模型相關的安全性議題 (下) - 欺騙大型語言模型

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 พ.ค. 2024
  • 投影片:drive.google.com/file/d/11khs...
    本課程主要的目標是讓大家知道語言模型被詐騙的問題,並不鼓勵大家進行類似的行為
    11:20 勘誤:攻擊成功率大約接近 3%
    延伸閱讀:
    Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition
    arxiv.org/pdf/2311.16119
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 9

  • @user-mv9ul9tz1c
    @user-mv9ul9tz1c 2 หลายเดือนก่อน +7

    好幸福啊 一次多了三堂課可以上 要努力趕進度了

  • @432v01
    @432v01 2 หลายเดือนก่อน +2

    這堂課太有意思了,Jailbreak 的技術使用的原理五花八門,令人嘆為觀止:有直接透過正常對話說服的、也有用文字接龍的原理的、最讓我沒想到的是居然還可以把心理學應用在 AI 身上而且還有效。後面的 injection 更是直接來個伏筆回收,太巧妙了。

  • @v86861062
    @v86861062 2 หลายเดือนก่อน +1

    真有趣 :D

  • @user-ce1je9yp9q
    @user-ce1je9yp9q 2 หลายเดือนก่อน

    谢谢!

  • @user-gh2bl7ly4y
    @user-gh2bl7ly4y 2 หลายเดือนก่อน +1

    ❤❤❤

  • @garfieldlavi
    @garfieldlavi 2 หลายเดือนก่อน +3

    居然不是晚上12點po,真不習慣(咦?

  • @princend1584
    @princend1584 2 หลายเดือนก่อน

    荷包DAN

  • @ACupOfMilkWhiteTea
    @ACupOfMilkWhiteTea 2 หลายเดือนก่อน

    无论是砍倒stop牌子还是杀人4o都不会帮助你了,哈哈

  • @garfieldlavi
    @garfieldlavi 2 หลายเดือนก่อน

    那個測試地址有沒有可能是因為記憶的緣故,我關掉記憶後就出現隨機地址了