【生成式AI導論 2024】第15講:為什麼語言模型用文字接龍,圖片生成不用像素接龍呢?- 淺談生成式人工智慧的生成策略
ฝัง
- เผยแพร่เมื่อ 17 พ.ค. 2024
- 投影片:drive.google.com/file/d/1Ac3o...
20:00 為了讓同學們更容易理解,這裡對圖像生成的描述做了一些簡化。在圖像生成中,如果只看神經網路的最後一層,每個像素確實是獨立生成的。然而,在最後一層之前,所有像素生成的過程是通過共享同一個網路進行的。
30:10 勘誤:"得" 應該為 "的"
35:40 VALL-E (arxiv.org/abs/2301.02111) 就是一個代表性的例子 - วิทยาศาสตร์และเทคโนโลยี
Transformer和Diffusion的觀念都是靠老師的影片才打通的,聽懂的時候太感動了,感謝!
请问是哪一集
讲得真好,抓住核心脉络了
老师讲的好赞🎉🎉🎉
自从老师的transfomer视频后,我就打通了任督二脉,一路复现
请问是哪一集
谢谢老师 期待以后有机器人相关的生成式课程
謝謝老師~~~
学习了,原来 encoder 和 decoder 可以这样理解
老師有預計後面會講 Sora /Adobe firefly 背後的原理嗎~
感謝大師的分享, 受益良多, 請問有專門產生程式的 AI 模型?
想請問老師 之後不知有沒有機會講解KAN 謝謝
这种炒作的东西还是去看中文三大顶刊比较好🤣
這種截長補短的演算法也算是end to end嗎?
想問一下 那GPT是屬於AT還是多次NAT呢 謝謝老師
哈 我看完16講知道答案了 是GPT是屬於AT 所以適合套Speculative
视频里都是 ar nar,哪里讲的 at 呢
對欸 是我打錯了 Sorry