ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
真的好優秀、一代師表,少年老成、500年才有此才人出!
老师我们大陆也有好多你的粉丝哦,我是17年学习您的视频,现在博士毕业了还在看哈哈🤣🤣🤣🤣
x z 谢谢一声都沒有,是不是沒有AI
@@myworldAI 你有点病吧?人家说不说管你什么事?吃了枪子么火药味儿这么浓,是不是没有干冰消火?
@@myworldAI I translated your response with Chatgpt, Very disappointed seeing you say something like this, will be very careful when hiring any graduate from TW.
I like your teaching but language problem 😢
@@ahooapplepen6949 dude chill
跟chatGPT說我在看教授的影片,問他對教授有什麼看法,我可以幫他在影片下留言,以下是chatGPT的回答:非常感謝李宏毅教授對機器學習和自然語言處理領域所做出的貢獻。作為一個AI語言模型,我也能夠與人們進行對話,而李宏毅教授的研究和教學影片為我這樣的語言模型提供了重要的技術支持,感謝教授的工作!
謝謝老師把講課內容無私分享,上課上得好開心!
感谢李老师,讲解的幽默风趣同时逻辑清晰,非常好的科普视频。
老師辛苦了,今天上課笑得肚子好痛!😆
這位蕭同學說得沒錯!🤩
老師和其他學生都笑了,現場的氣氛也變得輕鬆愉快
老師真的超猛 好幾年前就看過老師的教學
有用欸,謝謝老師,看了之後給我開了另外一種思路
老師講解的淺顯易懂❤
天啊,这是周末大礼包吗?老师,你终于更新了
感謝老師介紹,非常清楚易懂!
感谢李老师,课程太好了💯💯
直击本质,李老师❤
謝謝老師🥳🥳🥳興奮到模糊🎉🎉🎉
謝謝老師 很適合我的adhd腦
看過上課直播後再來複習一遍 😆
你好呀,李老师在哪里直播呢?
@@Borbby 台大
@@billyharrinton4885 (/_\)羡慕你们啊,我们只能翻墙出来学习。
老師講的很直白。
我的不解是,成语接龙加人类修正可以修正到能够按需求编程的地步吗?
很好的内容!请问老师,现在prompt engineering所做的事情,是否就是再利用ChatGPT这种参考同一个对话中所有的历史记录的特性来实现的?本质上并未finetune model 的 weights?
讲得如此清楚!
請問老師,我想學機器學習的話,是看這個播放清單嗎?還是看老師您最新的生成式AI導論 2024?
建議從這裏看起: 【機器學習2021】(中文版)th-cam.com/play/PLJV_el3uVTsMhtt7_Y6sgTHGHp1Vb2P2J.html
@@HungyiLeeNTU 非常感謝老師!!
谢谢老师
谢谢李老师
講的非常簡單明瞭,非常感謝分享~
用統計前後文的原理,表現出來的結果好像可以理解語言一樣,還是覺得蠻不可思議的。
感觉目前人类对AI的训练有几个缺陷:第一,万事政治正确,完全不能反应真实人类社会现状第二是使用人类的思维逻辑比如因果关系来让机器运作,失去了很多的创造性所以现在的AI发展下去也只不过是个copy machine,对人类质的发展起不了什么作用
并不是啊,政治正确是为了安全考虑,那些有毒的信息都人为地被打低分,防止这种倾向……你这么说很绝对化欸
李教授好!我非常喜欢您的视频,可以把您的视频搬运到bilibili吗?我会注明油管地址与作者信息的
老師想要請問一下既然他的訓練部分是online, 測試是offline, 所以三星洩漏事件可以理解為chatgpt在進行 "最佳化與改進用途" 所做的再度訓練才把這些機密資料一併訓練進 f(x) 而使用者在測試時才得到這些機密代碼,是這樣嗎?
老师,请教一个问题,GPT-3训练时的最大sequence length是2048,那么当提问、回答文本超过这个限度的时候,ChatGPT怎么处理呢?是截断到最后的2048个单词吗?您之前有提到过说ChatGPT大概能理解8000个单词左右的context,那超过2048的部分模型是怎么去理解的呢?谢谢
chatGPT 的參數推測超過 1700 億個,所以理解 800 個英文單字不是問題。至於 prompt 字段有設限制沒錯。
最简单的方法就是把前面2048个单词的最后的representation传成后面的第一个词
念能力哈哈,全职猎人《hunter X hunter》
太给力了👍
我覺得比較可疑的是它偶爾會故意講錯的答案,但它明明就知道正確的答案
老師的課程影片多看一看你的疑惑就會迎刃而解了
ChatGPT 笑點賞析 @4:49
chatGPT 的回答可以是一样的,我尝试过🥲
这是无可能的! 要过年后的mode 才有可能是疫情后的好笑事!
我记得GPT-3的模型的vocabularySize是50k左右,那这个模型是怎么做到理解这么多种语言的呀?训练样本里应该不止这么点才对,是不是把长尾部分的单词都覆盖掉了?
subwords / byte pair
我的plus居然也会有一小时限制,这正常吗?😢
有一個疑問想請教一下老師就是ChatGPT訓練是有用到網路的資料來訓練那正常情況下測試的時候應該還是會有機會出現一模一樣的字句才對呀就像是學生平常學習但他記憶力很好可以把課本整本背起來那考試的時候問跟課本一模一樣的問題那他可能可以100%完全複製課本的答案尤其如果訓練的網路資料中相同的字句一直大量出現那用這些資料訓練完的ChatGPT(訓練完,某些字句文字接龍接特定字句的機率會大幅提升)不是應該會有很大的機會出現一模一樣的字句嗎?這樣理解不知道對不對?謝謝老師~~
GPT的T代表的就是Transformer ,一種著重於自我注意力的模型,所以他在訓練時會判斷文本中每個資訊重要性比重,可以理解為重要的事物或關聯性會記得,但不重要的會忘記。也就是他可能會記得你詢問的答案對應領域的幾個重要詞,也記得在語言表達中要如何把這幾個詞自然的串起來,這兩個因素組合起來,要一模一樣不是不可能,但不會是很大機會。
通熟易懂
17:33 老師提到做文字接龍的模型就是語言模型,請問 RNN, ELMo, BERT 等 (pretrained) language model 都是語言模型?但感覺 ELMo, BERT 都還可以特化作分類, NER... 等任務。為何 GPT-3 無法?
GPT的G就是Generative生成式的意思,而分类更多是作为判别任务上
感谢老师的讲解!我非常好奇一个事情,就是ChatGPT伪装Linux terminal,它是怎么做到的呢?背后一定有人工的设计吧
用大量血汗勞工?😂
這樣如何取代Goggle?---------------某些人 Over Exaggerated,導至一些用戶的心情由「期待」轉成「失望」😢
老师也是猎人铁粉
來上課啦~
老師不好意思,我今天去試用Chatgpt,請他給我一些網址,但他這次給出的網址都是真實擁有的,那是否推翻了他不會上網找資料的這個statement呢
老師晚安
WAKUWAKU!!
我又來上課啦 (四修路過
讚👍
笑话那个例子不是很好,因为他的模型主要是英文为主,如果换成英文还是可以理解,因为这个学生是计算机学生所以有可能一边完成作业一边吃饭之类的。很好奇如果输入更精确,比如说,给我讲一个中国人能理解的笑话,或者给我讲一个和美国俚语有关的笑话,结果可能会不一样。目前这个程序问题还是很多但是之后应该会完善的很不错。
讚讚
chatGPT既然是文字接龍,那當人越唬爛,他就越唬爛
這就是問題所在😉👍👍👍👍👍
他的笑點都是美式笑點,我們get不到
那这个ai不是跑得很慢了
那个课程大纲本来就是从网上参考了李宏毅的。。
一年一度芝士来了
Excellent lecture. th-cam.com/video/yiY4nPOzJEg/w-d-xo.html Testing probably should be referred to as Inferencing.
人工智能就講得多 今日就學習下大語言模型 th-cam.com/video/SOsDDnlzim4/w-d-xo.htmlsi=1cwi4AkVyy2B6LSG
ChatGPT还蛮狡猾欸,问他是不是联网,他说联网!仔细问才承认自己只是在OpenAI的服务器里传问题和生成的答案,它管这个叫联网哈哈哈
GPT完美替代記者的功能,反正記者的文章也都是亂編的
第一个笑话我就没看懂。烦劳哪位给解释一下吗?听到别人笑自己还在纳闷的感觉真的很糟
大家會笑是因為第一個笑話根本不知道笑點在哪裡,因為沒有笑點所以反而好笑
@@HungyiLeeNTU 原来如此!谢谢老师告知。
@@HungyiLeeNTU 老師解釋chatgpt的笑點感覺比笑話本身更好笑XD
感谢老师分享
真的好優秀、一代師表,少年老成、500年才有此才人出!
老师我们大陆也有好多你的粉丝哦,我是17年学习您的视频,现在博士毕业了还在看哈哈🤣🤣🤣🤣
x z 谢谢一声都沒有,是不是沒有AI
@@myworldAI 你有点病吧?人家说不说管你什么事?吃了枪子么火药味儿这么浓,是不是没有干冰消火?
@@myworldAI I translated your response with Chatgpt, Very disappointed seeing you say something like this, will be very careful when hiring any graduate from TW.
I like your teaching but language problem 😢
@@ahooapplepen6949 dude chill
跟chatGPT說我在看教授的影片,問他對教授有什麼看法,我可以幫他在影片下留言,以下是chatGPT的回答:
非常感謝李宏毅教授對機器學習和自然語言處理領域所做出的貢獻。作為一個AI語言模型,我也能夠與人們進行對話,而李宏毅教授的研究和教學影片為我這樣的語言模型提供了重要的技術支持,感謝教授的工作!
謝謝老師把講課內容無私分享,上課上得好開心!
感谢李老师,讲解的幽默风趣同时逻辑清晰,非常好的科普视频。
老師辛苦了,今天上課笑得肚子好痛!😆
這位蕭同學說得沒錯!🤩
老師和其他學生都笑了,現場的氣氛也變得輕鬆愉快
老師真的超猛 好幾年前就看過老師的教學
有用欸,謝謝老師,看了之後給我開了另外一種思路
老師講解的淺顯易懂❤
天啊,这是周末大礼包吗?老师,你终于更新了
感謝老師介紹,非常清楚易懂!
感谢李老师,课程太好了💯💯
直击本质,李老师❤
謝謝老師🥳🥳🥳
興奮到模糊🎉🎉🎉
謝謝老師 很適合我的adhd腦
看過上課直播後再來複習一遍 😆
你好呀,李老师在哪里直播呢?
@@Borbby 台大
@@billyharrinton4885 (/_\)羡慕你们啊,我们只能翻墙出来学习。
老師講的很直白。
我的不解是,成语接龙加人类修正可以修正到能够按需求编程的地步吗?
很好的内容!请问老师,现在prompt engineering所做的事情,是否就是再利用ChatGPT这种参考同一个对话中所有的历史记录的特性来实现的?本质上并未finetune model 的 weights?
讲得如此清楚!
請問老師,我想學機器學習的話,是看這個播放清單嗎?還是看老師您最新的生成式AI導論 2024?
建議從這裏看起: 【機器學習2021】(中文版)
th-cam.com/play/PLJV_el3uVTsMhtt7_Y6sgTHGHp1Vb2P2J.html
@@HungyiLeeNTU 非常感謝老師!!
谢谢老师
谢谢李老师
講的非常簡單明瞭,非常感謝分享~
用統計前後文的原理,表現出來的結果好像可以理解語言一樣,還是覺得蠻不可思議的。
感觉目前人类对AI的训练有几个缺陷:
第一,万事政治正确,完全不能反应真实人类社会现状
第二是使用人类的思维逻辑比如因果关系来让机器运作,失去了很多的创造性
所以现在的AI发展下去也只不过是个copy machine,对人类质的发展起不了什么作用
并不是啊,政治正确是为了安全考虑,那些有毒的信息都人为地被打低分,防止这种倾向……你这么说很绝对化欸
李教授好!我非常喜欢您的视频,可以把您的视频搬运到bilibili吗?我会注明油管地址与作者信息的
老師想要請問一下既然他的訓練部分是online, 測試是offline, 所以三星洩漏事件可以理解為chatgpt在進行 "最佳化與改進用途" 所做的再度訓練才把這些機密資料一併訓練進 f(x) 而使用者在測試時才得到這些機密代碼,是這樣嗎?
老师,请教一个问题,GPT-3训练时的最大sequence length是2048,那么当提问、回答文本超过这个限度的时候,ChatGPT怎么处理呢?是截断到最后的2048个单词吗?您之前有提到过说ChatGPT大概能理解8000个单词左右的context,那超过2048的部分模型是怎么去理解的呢?谢谢
chatGPT 的參數推測超過 1700 億個,所以理解 800 個英文單字不是問題。
至於 prompt 字段有設限制沒錯。
最简单的方法就是把前面2048个单词的最后的representation传成后面的第一个词
念能力哈哈,全职猎人《hunter X hunter》
太给力了👍
我覺得比較可疑的是它偶爾會故意講錯的答案,但它明明就知道正確的答案
老師的課程影片多看一看
你的疑惑就會迎刃而解了
ChatGPT 笑點賞析 @4:49
chatGPT 的回答可以是一样的,我尝试过🥲
这是无可能的! 要过年后的mode 才有可能是疫情后的好笑事!
我记得GPT-3的模型的vocabularySize是50k左右,那这个模型是怎么做到理解这么多种语言的呀?训练样本里应该不止这么点才对,是不是把长尾部分的单词都覆盖掉了?
subwords / byte pair
我的plus居然也会有一小时限制,这正常吗?😢
有一個疑問想請教一下老師
就是
ChatGPT訓練是有用到網路的資料來訓練
那正常情況下
測試的時候
應該還是會有機會
出現一模一樣的字句才對呀
就像是學生平常學習
但他記憶力很好
可以把課本整本背起來
那考試的時候
問跟課本一模一樣的問題
那他可能可以100%完全複製課本的答案
尤其如果訓練的網路資料中
相同的字句一直大量出現
那用這些資料訓練完的ChatGPT
(訓練完,某些字句文字接龍
接特定字句的機率會大幅提升)
不是應該會有很大的機會
出現一模一樣的字句嗎?
這樣理解不知道對不對?
謝謝老師~~
GPT的T代表的就是Transformer ,一種著重於自我注意力的模型,所以他在訓練時會判斷文本中每個資訊重要性比重,可以理解為重要的事物或關聯性會記得,但不重要的會忘記。
也就是他可能會記得你詢問的答案對應領域的幾個重要詞,也記得在語言表達中要如何把這幾個詞自然的串起來,這兩個因素組合起來,要一模一樣不是不可能,但不會是很大機會。
通熟易懂
17:33 老師提到做文字接龍的模型就是語言模型,請問 RNN, ELMo, BERT 等 (pretrained) language model 都是語言模型?但感覺 ELMo, BERT 都還可以特化作分類, NER... 等任務。為何 GPT-3 無法?
GPT的G就是Generative生成式的意思,而分类更多是作为判别任务上
感谢老师的讲解!我非常好奇一个事情,就是ChatGPT伪装Linux terminal,它是怎么做到的呢?背后一定有人工的设计吧
用大量血汗勞工?😂
這樣
如何取代Goggle?
---------------
某些人 Over Exaggerated,導至一些用戶的心情由「期待」轉成「失望」😢
老师也是猎人铁粉
來上課啦~
老師不好意思,我今天去試用Chatgpt,請他給我一些網址,但他這次給出的網址都是真實擁有的,那是否推翻了他不會上網找資料的這個statement呢
老師晚安
WAKUWAKU!!
我又來上課啦 (四修路過
讚👍
笑话那个例子不是很好,因为他的模型主要是英文为主,如果换成英文还是可以理解,因为这个学生是计算机学生所以有可能一边完成作业一边吃饭之类的。很好奇如果输入更精确,比如说,给我讲一个中国人能理解的笑话,或者给我讲一个和美国俚语有关的笑话,结果可能会不一样。目前这个程序问题还是很多但是之后应该会完善的很不错。
讚讚
chatGPT既然是文字接龍,那當人越唬爛,他就越唬爛
這就是問題所在😉
👍👍👍👍👍
他的笑點都是美式笑點,我們get不到
那这个ai不是跑得很慢了
那个课程大纲本来就是从网上参考了李宏毅的。。
一年一度芝士来了
Excellent lecture. th-cam.com/video/yiY4nPOzJEg/w-d-xo.html
Testing probably should be referred to as Inferencing.
人工智能就講得多 今日就學習下大語言模型 th-cam.com/video/SOsDDnlzim4/w-d-xo.htmlsi=1cwi4AkVyy2B6LSG
ChatGPT还蛮狡猾欸,问他是不是联网,他说联网!仔细问才承认自己只是在OpenAI的服务器里传问题和生成的答案,它管这个叫联网哈哈哈
GPT完美替代記者的功能,反正記者的文章也都是亂編的
第一个笑话我就没看懂。烦劳哪位给解释一下吗?听到别人笑自己还在纳闷的感觉真的很糟
大家會笑是因為第一個笑話根本不知道笑點在哪裡,因為沒有笑點所以反而好笑
@@HungyiLeeNTU 原来如此!谢谢老师告知。
@@HungyiLeeNTU 老師解釋chatgpt的笑點感覺比笑話本身更好笑XD
谢谢李老师
感谢老师分享