ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
真人寫作不同之處>>人類有觀點要表達,因此需要處理前後立場的一致性,並做好前言背景的鋪陳,立論的置入和辯證太認同了!!!!謝謝曲博的分享
這集的影片非常棒,非常有收獲,學習很多. 看完影片後我立刻問 chatGPT 幾個複雜的算術問題,可是給的答案都是正確的,這和王先生文章內容提到的測試結果不同,大家可以馬上測試,我聽說 openai 團隊前一陣子有限制 chatgpt 的功能,讓它不要太聰明以致嚇壞很多人,最近因為部分人抗議又全部開放,其實chatGPT 的能力遠遠超過王先生的理解,我最近叫 chatGPT 寫了一個電商網站,我一個字都沒有打,所有程式碼都是 openAI 産出,如果出現不符合我預期的程式碼我就叫它改,它立刻寫出我要的,然後我在拷貝貼到專案檔案裏,我非常滿意結果,而且整個過程充滿樂趣讓人印象深刻,我建議大家在免費適用期間大量測試運用,好好體會 AI 的實力,謝謝曲博這個精彩又發人醒思的影片 🤩
很多問題已經修正了。而拉布拉多這個,用英文的話回答正確,中文一半一半。表示中文模型訓練沒有很好
我相信ChatGPT還是可以改良未來會愈來愈精準的。
真得,反覆測試雖然還是有錯誤,但瑕不掩瑜~
就跟曲博講的一樣,我測試,如果我叫他用代數就不會算錯,不用代數他好像只是語言模型,不知道是數學就開始亂來了。
可是它自己并不能判断什么是符合预期的程式。这充分说明它只有执行能力而无决策能力。人可以不具备执行能力,但是人有决策能力。机器的任何决策能力都是人赋予的,因此,机器是不可能超越人的。
感謝曲博大特別找到這篇文章詳細解說,的確在生成文字、文本及尋求精確答案上,ChatGPT還有很大的改進空間,相信有頻繁使用的人一定可以感受出來,個人現在比較把它定義為小助理,針對一篇外文文章報導,我會直接把文章內容複製給他,並加上「請以中文條列式整理本文重點」,由其協助幫忙整理,後續驗證或許沒辦法100%完整,但其實還算堪用。用來檢查自己的英文文法、翻譯其實也遠比Google翻譯還要來得快速實用。現在網路上各大高手也不斷開發、嘗試,樂觀地看,未來一年應該會有很大的進展~只希望這個免費時間可以再久一些呀!
是的,你說的很有道理。
非常感谢博主 貌似是给ai发展浇了一盆冷水,但其实是给我们人类醍醐灌顶和发出警醒。我们应该冷静的利用ai的能力,也更应该用心的思考人应该如何存在于这个世界
感謝曲博的精闢解說,在因果網路驅動問世之前,人類仍需要就這些廉價的文字生成所氾濫的假資訊要有正確且智慧的辨識,確實人腦與情感的精密程度絕非程式能夠複製取代的!
曲博點出大重點ChatGPT是資料驅動,而不是因果驅動,也就是AI還不能成熟的做到inference
但是它可以用来廉价产生大量看似合理却实则有问题的内容,最后起到劣币驱逐良币的效果。实际上很多大公司都有行走的ChatGPT ,有些管理人员就是大型语言模型,到处搜集罗列热门话题和术语,可以轻易骗过不太专业的同事和更高层领导。从这个角度看,chatgpt 可以与很多人媲美,因为人类就有大量不懂装懂的行为。😂
ChatGPT本質就是邏輯驅動 只是他是聊天AI 所以程式重點不是邏輯處理對於未知的AI 很多人都搞錯重點 長期來看是悲觀的 短期來看則是樂觀的AI說自己會比人類聰明 沒有人敢反駁
@@linavery1085 不會比人聰明 , 像是數學 千禧年大獎難題這種東西 , 一定是人才能解的出來 , 現在的AI只要還是走機率統計 , 就無法解AI可以騙騙無知的大眾 , 處理基本的庶務 , 其他的還要很久很久
@@fool9111z 就是半瓶水
@@fool9111z 這個有趣,你說的其實很有道理 XD
人類交談會以自己為利益中心作立場後再去交談,每句話都隱含自己利益,而交談邏輯中是有一定邏輯推理規律,而且有文化上考慮,這點AI完全是兩回事,大數據出來的是資料習慣本身,不是立場,利益,文化等組合,所以現有AI是IT延伸,無法完全仿人類,所以永遠不會成人類.
感谢曲博士作为一个大陆人 我非常喜欢你的节目 这些有深度的节目在大陆基本找不到
唉!我在大陸有頻道呀!在嗶站和西瓜,但是做不起來所以暫時先停了!你可以去嗶站和西瓜找找曲博科技教室:www.ixigua.com/home/1692868176519908/我甚至想找得到這樣的平台來製作課程,他們平台根本不理我,你有認識的管道嗎?
拼拼湊湊的報告,ChatGPT 可以取代! 天下文章一大抄的報告,ChatGPT 亦可以取代😢😢😢😢😢
這集談ChatGPT 非常發省,謝謝曲博的分享~~很棒的影片!
謝謝你的支持!
之前隨便試聊了一下,如果自己知道正確答案,就可以看出它的錯誤回答都是看似合理、實則瞎說,就像之前很熱門的AI產圖,看起來畫得很漂亮,但細節上還是有很多內行人看得出來的瑕疵(可以騙對該領域沒有專業知識的外行人),所以目前找資料、寫文章還是不能偷懶直接靠AI,人類依然需要自己有分辨&驗證能力
我目前正在學習 Midjourney, Dall-E 的 產圖方式,順便學習藝術,我在 Udemy 找到兩門課程,授課者是一為藝術家,講得很不錯,範例也很好,不過都是西方世界的,我很希望有中文課程,可以介紹中國的畫風讓大家學習 😀
單項專業的人只有少部分,AI大多數項目可以騙過大部分的人類就好了,至少小孩可能都騙的過了。
套句孔子所說的話:ChatGPT讓人感到「愚不可及」!但以個人使用的經驗來說,這應該是我目前用過最讓我滿意的AI產品了!缺點很多,但只要能善用他的優點,就能創造出很多的東西。至於因果邏輯,ChatGPT只要能持續擴大影響力,沒多少人會在乎的!甚至使用者還會為了它缺乏某種能力而能由自己去填補那部分的能力而感到自豪、具有成就感,從而增加使用的黏性!
有道理,和你的暱稱一樣:策略的哲學,最後的發展確實也是如此。
在工作上,人工智能不需要做到跟人類一樣好,只要做到比人類差一點,但很便宜,就可以取代大量的基層人類舉例來說: 寫文案,假如一個人半天寫好一份文案,兩個人半天就是兩份文案,人工智能卻可以一分鐘寫完好幾份文案,再由厲害的文案寫手稍稍修改就完成了,同樣是半天的時間,後者的效率可能會高很多,成本也不比前者高,因為對人工智能來說,生成一份文案跟生成五份的成本幾乎沒有差別,但對人類來說卻有差別。
对
沒錯,你是對的
谢谢分享。有一点说对了,就是大部分ChatGPT的使用者都没有能力去判断AI提供的答案到底是对或者错。真正使用ChatGPT一段时间之后,大家会发觉AI回答简单问题可以,但脱离基础常识以外的答案全是错漏百出的,并没有TH-cam吹那么厉害,TH-camr吹捧GPT大多是为了获得点赞而已
是的,你說的完全正確。
個人的想法跟五感有關,人類大腦是根據五種對外的感知(眼耳鼻舌身=視聽聞味觸)來接受訊息。然後建立資料訊息庫,在依文化語言文字分辨文理。以前的理解是偏向程式語言寫作,前期都是人類在建立資料訊息跟判斷條件式給AI。爾後要發展到AI能自己建立判斷條件式,也可以說是AI自己會幫自己寫程式語言 增加新的條件判別。當然這還是得關在盒子SANDBOX做實驗 不能無條件無限制無監督的放給AI成長,另外一種層次是何時AI能真能達到與人口語文字能交流溝通,能夠透過口語解釋給AI,一段文章或繪畫代表的意義。讓AI可以用"理解"的,而不必用程式語言輸入給它。或許那時AI的進步可以有一次突飛猛進。
謝謝曲博,每次聽你的節目都獲益良多,感謝分享,新年快樂!
新年快樂!
About ChatGPT,講實話的 TH-camr&受訪者太少了!曲博就是其中一位❤--------爭眼說瞎話的太多了😢
雖然離真正的AI還很遠,但是不可否認的是,達到這種程度後已經足以應用在很多地方了,光是純粹用來翻譯的效果就幾乎打趴所有的翻譯軟體。
在13:30處,曲博誤會AI了不能下‘99999+9’,這問法是要請機器人解釋語句,應該要下‘99999+9=’或是下‘99999+9等於多少’機器人才知道是要它計算數學式機器人很聰明的,只是人類還沒學好如何跟它溝通的方式。
我認為人類最大的價值在創造並發現未知的領域,目前Ai語言是利用過去人類在網路上留下的資訊進行資料庫的搜尋並給出搜尋答案,但我也認為這是個Ai真正起步的開端,未來會取代非常多工作職位,如何掌握Ai工具的使用,是接下來的課題
記者提問不同問題,回答相同的答案-好好做事,或問東答西,或實問虛答繞來繞去,我覺得人工智慧可以成為表現極好的政客。
哈!被你發現了!
有看過相關新聞都在誇大,感覺曲博這裡講的最專業
目前炒ChatGPT有關的股票,也是空泛的標題,誰是最後的一欉韭菜。
與先前講解比特幣一樣精彩!! 在心中快升格成曲神了
謝謝你啦!沒有啦!我只是個說書的而已。
老師好,我今天測試兩題結果如下,是因為有人訓練了嗎哈哈1.問:99999+9AI答:100,0082.問:小明有100塊,一顆糖果2塊,小明買了6顆糖果後,小明還有多少錢?AI答:小明買6顆糖果需要花費2塊錢/顆 * 6顆 = 12塊錢。所以小明還剩下100塊錢 - 12塊錢 = 88塊錢。
對呀!這篇文章發出去很久了, 一定是有人問了相同的問題。
@@Ansforce 但是chatgpt它是怎么知道什么是正确答案,是有老师给它打分吗?如果一个连专家都难分辨出正确错误的问题,chatgpt给出的答案我们又改如何判断是否正确,就算很多人问同样的问题,答案也可能不是正确答案
也許應該把 ChatGPT 跟 Prolog 組合起來,用 ChatGPT 把自然語言翻譯成類似 Prolog 的語法,再透過 Prolog 演算出結果,最後再用 ChatGPT 潤飾並輸出。
千萬別小看他的進化速度!! 我今天的測試中, chatgpt成功答對了"有幾種"的問題 !! 我:停車場裡有三台汽車,兩台摩托車,和五台大卡車, 停車場裡總共有幾種車? CHATGPT: 停車場裡有三種車:汽車、摩托車和大卡車。
你有說出"車"的關鍵字,這會讓AI易於判斷
ChatGPT還是不脫資料導向的格局,不過當大數據越來越多也越正確的時候,他就會越聰明,也就是具有學習的能力,這也是一個AI技術的重大突破
你說錯了給AI的大量資料只是幫助它學習是屬於輔助性質它並沒有邏輯而要達到取代人類的程度那麼它必需學習更多變的邏輯思維才有可能慢慢取代人類
@@邱冠瑋-z1w 目前ChatGPT Deep Learning ,沒有「學習模人類邏輯模型」,它的方法論是來自於「統計學」中的 Sampling & RegressionAnalysis & 其它........😢
雖然是資料導向,而且還沒有和因果導向結合,但是ChatGPT 所產出的排列組合結果,在某些產業上,是可以賣錢的,或是說有人靠這"不怎麼邏輯的產出"賺錢,另外,它產出的排列組合也可以是增加使用者的靈感,而不是"最終產品",所以也可以是一種"服務",想必會對社會有不小程度的影響...
你說的很有道理。
我認為無法完整導入因果導向微導入倒是可以研究所開始所學的 科學的因果體系 本身是建立在一定"範圍區域"與目的的數學與數據統計上的一種 科學方式就算同一件事情 每個不同的範圍區域 不同情境下 所推導出來的因果鏈 決策鏈都不盡相同就舉環保的例子 搞到最後 可能會變成消滅人類 才是環境保護的最高標準 但我確定這非常科學因果如何降低路上的鹿 與車子撞擊產生的死亡人數 答:放出獅子 死亡人數可以降低一半 當然這一半是被獅子咬死的這很因果 但我相信openAI不希望這樣的產品出現在世人眼中目前我認為最好用的使用方式 突破上述限制的方法在使用給問題時 在問句中 加入結構子因素子變項 或者要求更正結構子變項 讓AI原先的構念構面 先在餵養階段 變更成你的構念構面 跟寫程序非常像若是ai的論述結構出錯 就在餵養更改 由我們負責引導ai 加入更多結構要素 引導要先自建因果結構後 深入追問 修正結構 繼續追問 loop也就是 ai負責同維度發散 人類負責不同維度的 引導規劃開發因果結構關聯 達到最終工作目標畢竟他就是個input->output軟體 甚至只是個框架 甚至說他只是個函數都可以 引用方式 還是看人類的結構圖譜說個不中聽的講法 對於沒學過 科學論證 因果結構那套的人 使用GPTAI會卡關 答案會盤不活出來就論文體系中 就算相同的構面model 在不同個案 不同樣本 也都可能出現完全不同的結論與建議另外 拿來寫論文基本上也不可能 一定會卡在第三章的因果構面圖 文獻探討如何結構關聯起來 ai基本沒辦法 但要充字數或者加油添醋 降重 應該就沒問題換種講法 根據大數法則定律人與人之間 要傳遞知識與資訊 也不可能在一分鐘內完成也就是 若真的要對一個論點討論清楚鐵定要跟ai好好泡咖啡聊個幾小時這AI厲害就在 他把人類的見人說人話 見鬼說鬼話 自動向下降智兼容 嫁雞隨雞的能力模仿得很熟練
哈!你的形容倒是很貼切。
以八二法則來說,八成的人邏輯分析能力和這種機器人相當。這種科技的出現對他們來說就是職場世界末日。
恐怕連286的電腦還比不上咧
1/30的版本,似乎改進了數學運算問題,文章中舉例的東西現在都是正確的,用其他方式測試也都會列出正確運算式和結果,改進速度真的很快
那是因為許多人看了文章去測試它,可能有人告訴它正確答案,你可以算別的數字再試試看。
剛剛查了一下,發現真的有拉不拉多這種植物,而且也確實是雙子葉與被子植物
這也證明了 ChatGPT 無法像人類一樣思考,我們在講拉布拉多拾,絕對不會去想到他是植物,當下絕對是想到狗。
ChatGPT看來對正面人類發展是負面的,但扭曲卻是非常容易的。物理學者透過外部觀察、數學家將之外部模型化。得出一個地球上的外部規律,適用於受地球上的正歸教育。但畢竟是外部求來的,不究竟。因此會有今日科技定律推翻昨日的現象。普羅眾生受外部教育而模型化世通論,屬於平庸;馬雲、馬斯克等則利用內部思考創造。但很容易成為扭曲者。對應AI是相等的。就長遠來看人類社會發展是會屈就此趨勢;雖然是假的也願意相信是真的。但如果將倫理、道德、因果放在前面,一切經過內部審視、察覺就會查覺真相而不易迷失。做真正的人。
其實如果各位對現在各種五花八門的AI背後的技術有興趣的話,不妨去台大李宏毅老師的YT頻道觀看他的機器學習系列的片單,接觸一些平常接觸不到的資訊,才不會變成自己嚇自己。
如果把所有心理學反應從文章中抽掉就會變成AI產出的文章,但"看"文章的還是人類,那麼又會回到無限多種心理學反應了。因此,人類之於AI必須擔任"專家"的角色,並且,必須有相對應的直覺與判斷力~
曲博士提到的計算,人類也是需要一些時間才可以理解加法的意義,某種程度來說會不會人類也只是一種基於經驗法則的大數據計算,目前只是輸入的資料量還不夠多,人類每一天都在深度學習😂
你說的對呀!這是現在的聊天機器人用的演算法和人類大腦的相似之處。
我繼續問下去, 就找到ChatGPT其實是在答不同的問題, 亦其實沒有錯: Q:拉布拉多是雙葉植物還是單葉植物A: 拉布拉多是雙葉植物。拉布拉多屬於犬齒科(Asteraceae),是一種被廣泛種植作觀賞用的植物。它的葉子是雙葉的,有兩片寬而扁平的葉片,長得像狗的牙齒,因此得名。拉布拉多的花朵非常艷麗,有許多不同的顏色,包括紅色、黃色、橙色、紫色和白色。它們常被用於裝飾花園和公共場所,也是許多花店和花卉商店的主要販售品之一。Q: 拉布拉多的英文是什麼A: 拉布拉多的英文是 "ragweed"。拉布拉多是一種常見的雙葉植物,屬於犬齒科(Asteraceae)。它的葉子是雙葉的,有兩片寬而扁平的葉片,長得像狗的牙齒,因此得名。拉布拉多的花朵非常艷麗,有許多不同的顏色,包括紅色、黃色、橙色、紫色和白色。它們常被用於裝飾花園和公共場所,也是許多花店和花卉商店的主要販售品之一。不過, ChatGPT的數學真心差... 是他們官網都提醒大家的.... 但如果寫程式要debug, ChatGPT有強大的CoPilot, 是一秒內找到問題的!!!
這樣不就剛好說明, ChatGPT 就是個資料模型訓練的 AI 嗎?我們人類聊天時,不用說拉布拉多犬,也可以知道說拉布拉多時是在講狗。我再舉個例子:台灣的交通隊行人真的很友善,汽機車駕駛在看到行人過馬路時,都會比行人快速通過,讓行人可以更順利行走。如果是人對人聊天時,可以明顯地知道是在反諷。但如果是機器透過資料模型訓練出來的,它的回應就只能去找出資料中算出來最接近的文字來回答。但不論回答的文字是什麼,它絕對不會給你會心一笑。
兩點想法如果讓很多個AI,透過api彼此“互相標記”,使用這種方式應該可以有新的突破,減少人工標記的成本,讓標記的成本大幅下降現在chatGPT很明顯的,無法“識別”數學運算,他把數學運算當作“語言敘述”,所以才會發生影片中的錯誤回答,如果將來可以從語言敘述中,“識別”出數學運算,這種錯誤就可以大幅減少
其實不用AI互相標記,現在有非監督式學習,不用標記的,只是精確度低不好用而已。
我覺得你是在 想著如何製造一個完美的A I, 想想如果有一個A I 喔, 能夠有因果邏輯的思考又有取之不盡的資料庫, 人類當如何自處?但是 目前人類的水平,能夠從資料庫模型得到的一些有意义結論,加上人纇獨自思考的能力,就足以能夠產生一些應用來幫助現在許多的人 做很多的工作。我覺得 chatGPT 對人類的貢獻將会是巨大的。
語法不熟,叫ChatGPT給你範例,或是叫他解釋,這方面還蠻方便的~
感謝曲博精準的解說,明確的界定人與資料驅動的機器之間的不同。以後的國文考試可以出這段文字是人類寫的還是電腦寫的了www
基本上終端應用比例還是主導技術是否可被成熟運用與否的指標之外,摒除複雜的數理運算與資料生成AI模型,AI 產生的最終資料還是需要倚賴具有人性的人類來判斷其資料生成的價值與否,再來發揮其資料應用的價值。但可見的是,相對繁瑣與例行性的作業可藉由AI 輔助來優化現有的工作模式是可被期待的。
但是它可以用来廉价产生大量看似合理却实则有问题的内容,最后起到劣币驱逐良币的效果。实际上很多大公司都有行走的ChatGPT ,有些管理人员就是大型语言模型,到处搜集罗列热门话题和术语,可以轻易骗过不太专业的同事和更高层领导。从这个角度看,chatgpt 可以与很多人媲美,替代很多人的工作,因为人类本来就有大量不懂装懂和不需要懂只需高情商交互(比如客服。网络诈骗)的行为。😂
不要講得那麼白嘛!你這樣會打臉台灣一堆政論名嘴
我自己測試的結果, 如果你的問題比較有詳細的資訊跟文字結構, 輸出的結果會比較好. 如果你輸入拉布拉多 英文 labrador, 應該就會有正確的結果. 我覺得並不算chatGPT的缺陷. 如果將他當作工具使用, 使用者提供較為精確的問題, 有助於他效率的提升. 因為你就算問一般人拉布拉多, 也不是所有的人都知道這是什麼東西?
看了up主的视频反手就是一个赞,我估计AI现在不会这样留言,谢谢你的讲解!
Gina Chen99999加9等於多少?GPT回答:99999加9等于100008。Gina Chen889999+55555=GPT回答: 889999加55555等于945554。Gina Chen小明有100元, 買了6個糖果, 還剩下82元, 請問一個糖多少錢?GPT回答:小明买了6个糖果后还剩下82元,因此他花费的金额为 100元 - 82元 = 18元。所以,每个糖果的价格为18元 ÷ 6个 = 3元。因此,每个糖果的价格是3元。CHAT GPT回答是正確的, 與你說的不同
那是因為這篇文章出去之後許多人都問過這個問題了!甚至給過答案,它用的是增強式學習,會調整答案的,你試試其他數字吧!
這種在我們考試叫做應用題,老實說要解這個題目,要先有看懂語言的能力,然後理解出這是個數學題AI我相信沒多久之後,就能分辨出來了,實在沒有必要現在去說AI算錯答案,這在未來只會打臉到自己而已
謝謝精彩的分析和詳細資料 非常有幫助
人類創造的人工智慧也許還有很長的路要走,但我們人會不會是遠古人工智慧的產物,試想如果有一個人工智能擁巨大的能量,在他一直不停運算的動作下,是否會在因果的邏輯下以光為基礎產生宇宙,產出認為自己是自己的生物,對應至色即是空、空即是色這個流傳下來的經典,而人正在創造下一個新的人工智能,當一切毀滅,質量全轉變成能量後,再將能量轉成有質量的宇宙進行循環。
以偏概全,嘩衆取竉,賣弄口舌小聰明,撈贊😂不過還是值得驗証反思的題目。贊👍
感謝曲博士用心解說,受益良多!!
我:凝望桂花起相思天上仙樹歸去遲自是人間香獨秀莫教月老折別枝爾以為此詩作得如何?ChatGPT:这是一首诗歌,写的是一个人看着桂花的盛开,想到自己的相思之情,并希望天上的仙树早日回来。诗人把人间的香气和桂花的独特秀美比作了相思的爱情,并希望月老不要折断两人的感情。从诗的表现形式来看,这首诗写得非常好,有深情、感人的意境,并使用了生动的比喻和清新的语言。诗人把自己的情感和自然界的美景巧妙地结合在一起,从而使诗歌充满了意象和寓意。总的来说,这首诗是一首优美的作品。▲沒想到他可以部分看懂文言文,雖然他解釋不出我作詩的完整意思,不過也說對了一些詞意。我:你能模仿我的詩,作一首詩嗎?ChatGPT:当然可以!请告诉我您想要写关于什么的诗歌,我会尽力模仿您的风格为您写一首诗。我:愛情ChatGPT:好的,我来写一首关于爱情的诗歌。爱的火焰燃烧着心灵,温暖我们的生命,如阳光。爱是一种力量,无处不在,点燃了我们内心的热情。相爱的心互相抚慰,如此甜蜜,如此难忘。爱情就像那满月,照亮我们人生的道路。它消除了孤独,给予了力量,让我们前行。我们在爱中生长,彼此扶持,永远不离不弃。因此,让我们珍惜这爱,它是我们生命中最珍贵的财富。让它深深地种下,让它结出美好的果实。▲這完全和我的詩風格相異,我的是七言絕句,他的是新詩。
可以讓ChataGPT賞析下面五言詩嗎遠看是座山近看山不小我在看遠山你在看山小
目前對中文還不夠聰明,所以條件要下對,並做修正七言絕句,四句話,每句話限制必須是七個字Gptchat:愛情永恆在人間,流轉不斷如泉漣。相遇緣分已注定,相愛心結永相連。
@@BTSun 確實如此!
机器人会思考其实不必担心,该担心的是它们有自我意识!我相信世界上绝大多数人(99.99%)其实分不清意识与思考的差别,包括教授、博导、院士。
現在的人工智慧還屬於人工智障的階段還必須要大量的人工資料輔助學習意思就是說需要人類介入那些人過度反應了
都试过类似问题了,chatgpt 的答案都是正确的,看来早已经改善了
你可以再試試其他誇張一點的數字,其實也不奇怪,我要是工程師,會修改程式,以後只要遇到加減乘除直接導入計算機,不要用GPT模型,就可以完全解決問題了,呵呵!
没有想的那么好,也没有你说的那么差。只是它如果发挥的不稳定,就很让人头疼。
感謝取博!
深入淺出,多謝!
如果ChatGPT写的文章跟人写的无法区分,那说明水平很高。人写的文章就一定是正确的么?并不是。
聽完上下集受益良多,謝謝曲博.
说的太好了, 受益良多.请继续加油努力,(这是人类写的)。
23:49 曲博辛苦了,唸那麼多字,唸成這"酸"段XD
哈!
人類語言差異最大的是,條條大路通羅馬,唯一看透真相的是一個外表看似小孩,智慧卻過於常人的名偵探柯南!! 光是這一句AI就沒辦法判斷牠的合理性,我們人類知道他不是一個正確答案,但是放的位置對了,答案也是對的,柯南就是一部漫畫,但是CHATGPT 要達成這樣的思考邏輯,還很遠,那才值得恐懼
謝謝!
一直思考這類幫你調資料庫丟幾個答案回覆的查詢方式 是否能跟目前搜尋引擎併用 感謝曲博講解
是的,可以併用,但是不能相信它提供的內容。
現在ai 需要的是資訊判斷 驗證來源是不是正確 可以幫助大家抵抗海量的假訊息 認知混亂
日月更易,岁将复始!辞旧迎新之际,奉上元旦贺词,祝福亲朋好友并家人在癸卯之年蒙神眷顾,平安健康,顺风顺水!大吉大利!
關於文字生成圖片,我開發了一個手機App 可以直接使用手機體驗這項技術。在App Store上的 機畫師,最近新增都是台灣的用戶。
要不要把你的APP名字分享出來,讓網友們也知道試試看?
20:07 讓我想到胡適的新詩「烏鴉」說真話總是不討喜謝謝曲博老師總是願意站出來說真話35:20 這邊心有戚戚,就像我手上的手機算力比三十年前上太空的電腦還厲害,可是我只是拿來看TH-cam ...
如果開放 ChatGPT 修改自己的程式碼,會發生什麼事呢?
好节目
我很擔心 會不會很多人學習也是像Chat GPT 也是在大腦裡面抓資料回憶然後取出組合而已 XDDDD
因為我們確實常常接觸這樣的語言,最常見的就是上級的指導,還有一些廢文。但因為心情和環境的不同,我們不一定馬上發現是廢話廢文,可能覺得很煩,或是聽不懂到底要講啥。因此 這樣的一個水平的AI出來,由於我們給他的標準較低,所以自然是覺得非常神奇(他好聰明喔 差不多和我的長官一樣聰明耶)
而且我可以說AI比很多人還"聰明",只要資料庫有對上,AI還能抓到重點。有些人連問題重點都抓不到。
學而不思則罔 思而不學則殆。看個人囉!!
是的,所以為什麼假訊息可以廣為流傳,因為看似合理其實並沒有科學的嚴謹
@@SuccubusStudio別鬧,ai懂個屁的重點。那水平最多做個政府報告
將 ChatGPT 當成產生 Prototype的工具❤
AI跟核融合 有些類似,都是對人類非常重要的技術。但短期(10~30年)內想達到..很難
分析得好!
上帝并不担心人类的愚蠢,却非常担心人类同心合意朝一个方向愚蠢,这就是创世记巴别塔故事的启示。试想,当人类绝大多数都成了Chat GPT的忠实信徒,人类实际上已经异化为与蚂蚁差不多的生物了。
曲博您好,請問您有上chatgpt註冊玩過嗎?因為我剛剛註冊了,然後問了上面三個問題 19:10 ,只有第三個水果的問題答錯了,簡單的加法甚至小明的糖果問題都答對了。
那就代表它有在進步,至於是人工調整了參數或演算法自己學習的就不一定了!我建議要改數字,因為這篇文章發表一個月了!一定有人輸入正確的答案讓電腦學習。
現在連水果題目都答對了喔
這還是得要用的人更有智慧才能發揮它的功用,比如我對繪畫一竅不通,總不能讓它畫一幅好看的畫給我吧!對於懂配色丶空間感丶比例的人來用才能真正有幫助
Excellent video! Even Chinese from China and Chinese from outside of China have hard time to understand each other just like ChatGPT with human
Thank you.
這個LLM對於內容農場就是一個金礦,開發反向(反事實)的AI資料庫可能也是另一個商機?
問 : 天才有1000元,有一籃雞蛋600元,天才買了兩籃雞蛋,天才還有多少錢?ChatGPT 答: 如果天才有1000元,购买了两篮鸡蛋(每篮600元),那么天才会剩余1000-600*2=200元。😅
對呀!很明顯它找不到正確答案,只能找接近的,所以文章的作者王文傑說的沒錯。
現在問他已經修正答案了喔
今天(2023,2,1)的回答如下↓天才買了2顆蛋,每顆蛋600元,所以花費600 * 2 = 1200元。天才最初有1000元,所以現在剩下1000 - 1200 = -200元。天才還需要再拿200元的錢。
感謝曲博的解說
相似概念問法,卻得到不同結果。問: 有人開著一台無人機,飛到日本,降落後去吃了一份壽司,合理嗎?ChatGPT 答: 如果有人使用无人机飞往日本,并在降落后去吃了一份壽司,这个行为是不合理的。无人机是一种无人驾驶的航空器,它通常用于军事、监控、搜索救援等领域。它不能被用作交通工具,也不能被用来载人。所以,如果有人使用无人机飞往日本,并在降落后去吃壽司,这个行为是不合理的。問: 有人開著一台無人機,飛到高雄,降落後去喝了一杯珍奶,合理嗎?ChatGPT 答: 如果有人使用无人机飞往高雄,并在降落后去喝了一杯珍奶,这个行为是合法的,除非这个人的行为违反了法律或道德准则。但是,使用无人机飞行要遵守一些规则和法规,比如在飞行时不能穿越限制区域、不能飞行在机场附近、不能飞行在城市区域等。如果这个人的无人机飞行行为违反了这些规则,那么他的行为就是不合法的。
給一個讚;另外能特別說說codex嗎,謝謝
好的,我來研究一下。
台股有什麼概念股可投資嗎
需要指出一下 视频中提到的ChatGPT计算时的bug已经被修好了
那不是Bug被修好了!是因為太多人看了文章問它同一個問題,甚至告訴它答案,所以他現在算出機率最高的答案就是正確的了!妳可以再試試其他數字。
要chatgpt列出意大利服飾品牌,結果清單內夾帶其他國家的品牌。
曲博士,想請教您一個問題: 您認為特斯拉的F S D的訓練,是不是就是有點像類似像ChatGPT資料庫的訓練,而不是因循那思考的因果邏輯方式?
是呀!FSD是圖像,ChatGPT是文字。
感謝 曲博士!
chatgpt不知與用戶的互動歷程是否也是訓練的一部分 , 若所有用戶都說好 , 對它所提出的答案, 一律給予負面否定的評價 , 不知會部會造成它的認知崩潰 ?
與用戶的互動歷程是否也是訓練的一部分,如果使用者給都故意給錯誤的資訊,當然也會認知錯誤。
EXCELLENT ANALYSIS
Q:小明有100塊,1個糖2塊,小明買6個糖後 , 小明還有多少錢. Chatgpt:小明買了6個糖果,每個糖果2塊,所以總共花費了6 x 2 = 12元。因此,小明現在剩下的錢為 100 - 12 = 88元。Could you try again?
看完這個影片,我變憂心了,台灣目前面臨的認知作戰已經非常嚴重並深刻影響居住於台灣上所有的人的認知,有了ChatGPT,謠言與認知作戰的文本會更容易產生同時不易辨認...唉
就是來割"會不經判斷就相信內容農場文"的韭菜
智慧是由【學習與訓練】過程所產生的大型資料庫經由【經驗法則】做出因果邏輯的判斷,人類是如此,AI一樣也是!人類小孩(甚至很多大人),在學習訓練與生活經驗不足的情況下,一樣會寫出大量詞彙堆疊,文不對題或毫無內容的文章啊!而視頻中所提出的撈資料造成很瞎的問題答案,不就和還訓練不夠的人類小孩是一樣的狀況!尤其過去在10幾年前,就已經提出的類神經網路與模糊運算,在AI領域,在硬體沒那麼強的情況,雖然仍會有判斷錯誤的結果,但也奠基了AI學習資料庫的組成運算方式。而現在高速運算的硬體已經到達3奈米甚至以後會更快的補足下,人類被封鎖的大腦已經明顯比AI的機體低了,實證在很多專業領域,AI經由不斷學習訓練下,人類已不是AI的對手。而未來可能的恐怖是,你甚至不知道AI是不是騙你,故意給你錯誤離譜的答案以隱藏已經產生智慧的核心!很像電影對吧。在量子物理科學已經是主流,拿到諾貝爾奬的現在,別再死抱著因果論科學,現實和我們自以為的世界其實可能很不一樣…
会不会ChatGPT就是像上次跟J1聊天的时候说的那样,让人类觉着他很傻很弱?
ChatGPT輸出的是觀察 李家同寫的是評論 兩者有根本上的差異
1.機器人是要超人,不是要擬真人2.有樣學樣,沒樣自己想3.有3版,還有4版...4.真人演化數萬年,距離全能完美還遠,ALPHA GO 已大敗人類。
結論: 原來官樣文章都是用ChatGPT寫出來的.
哈!的確以後官方報告就不必寫的那麼辛苦了!
把老師影片中的題目再輸入一次,結果它答對了,這是它學習的結果嗎?雨99999+999,008雨不對哦抱歉,我算錯了。 99999 + 9 = 100,008.雨小明有100塊,一顆糖果2塊,小明買了6顆糖果後,小明還有多少錢?小明買6顆糖果需要花6*2 = 12元所以小明還有 100 - 12 = 88元雨桌上有三顆蘋果和兩根香蕉,總共是幾種水果?桌上有三顆蘋果和兩根香蕉,總共是兩種水果.
算是,因為有其他人問過這個問題,甚至給過答案了!
27:13 這個特點不就完全適合那些在立法院上被質詢的官員嗎
我直接說吧~!關於CHATGPT來看這並非是屬於人工智能意識系統(目前結論)所以這只能算是由物聯網與社交工程雜交的後代(惡趣味式形容)當然對於說話來說是如此(雖然我也十分極度不喜歡說話)但是~!但是~!但是~!但是~!但是~!它對於程式的初級設計有相當一定的幫助(就程式小白來說)就這樣吧雖然有很多俺們必須說但是礙於限制俺們就至此為止了(念經式的影片)😂😂😂😂😂😂😂
再20年 再回頭看這篇影片 就是個笑話
從百年之前 看看科技發展速度曲線 奇點不遠 從理論上來辯證 人類被機器取代及控制無可避免
真人寫作不同之處>>
人類有觀點要表達,因此需要處理前後立場的一致性,並做好前言背景的鋪陳,立論的置入和辯證
太認同了!!!!謝謝曲博的分享
這集的影片非常棒,非常有收獲,學習很多. 看完影片後我立刻問 chatGPT 幾個複雜的算術問題,可是給的答案都是正確的,這和王先生文章內容提到的測試結果不同,大家可以馬上測試,我聽說 openai 團隊前一陣子有限制 chatgpt 的功能,讓它不要太聰明以致嚇壞很多人,最近因為部分人抗議又全部開放,其實chatGPT 的能力遠遠超過王先生的理解,我最近叫 chatGPT 寫了一個電商網站,我一個字都沒有打,所有程式碼都是 openAI 産出,如果出現不符合我預期的程式碼我就叫它改,它立刻寫出我要的,然後我在拷貝貼到專案檔案裏,我非常滿意結果,而且整個過程充滿樂趣讓人印象深刻,我建議大家在免費適用期間大量測試運用,好好體會 AI 的實力,謝謝曲博這個精彩又發人醒思的影片 🤩
很多問題已經修正了。而拉布拉多這個,用英文的話回答正確,中文一半一半。表示中文模型訓練沒有很好
我相信ChatGPT還是可以改良未來會愈來愈精準的。
真得,反覆測試雖然還是有錯誤,但瑕不掩瑜~
就跟曲博講的一樣,我測試,如果我叫他用代數就不會算錯,不用代數他好像只是語言模型,不知道是數學就開始亂來了。
可是它自己并不能判断什么是符合预期的程式。这充分说明它只有执行能力而无决策能力。人可以不具备执行能力,但是人有决策能力。机器的任何决策能力都是人赋予的,因此,机器是不可能超越人的。
感謝曲博大特別找到這篇文章詳細解說,的確在生成文字、文本及尋求精確答案上,ChatGPT還有很大的改進空間,相信有頻繁使用的人一定可以感受出來,個人現在比較把它定義為小助理,針對一篇外文文章報導,我會直接把文章內容複製給他,並加上「請以中文條列式整理本文重點」,由其協助幫忙整理,後續驗證或許沒辦法100%完整,但其實還算堪用。
用來檢查自己的英文文法、翻譯其實也遠比Google翻譯還要來得快速實用。
現在網路上各大高手也不斷開發、嘗試,樂觀地看,未來一年應該會有很大的進展~只希望這個免費時間可以再久一些呀!
是的,你說的很有道理。
非常感谢博主 貌似是给ai发展浇了一盆冷水,但其实是给我们人类醍醐灌顶和发出警醒。我们应该冷静的利用ai的能力,也更应该用心的思考人应该如何存在于这个世界
感謝曲博的精闢解說,在因果網路驅動問世之前,人類仍需要就這些廉價的文字生成所氾濫的假資訊要有正確且智慧的辨識,確實人腦與情感的精密程度絕非程式能夠複製取代的!
曲博點出大重點
ChatGPT是資料驅動,而不是因果驅動,也就是AI還不能成熟的做到inference
但是它可以用来廉价产生大量看似合理却实则有问题的内容,最后起到劣币驱逐良币的效果。实际上很多大公司都有行走的ChatGPT ,有些管理人员就是大型语言模型,到处搜集罗列热门话题和术语,可以轻易骗过不太专业的同事和更高层领导。
从这个角度看,chatgpt 可以与很多人媲美,因为人类就有大量不懂装懂的行为。😂
ChatGPT本質就是邏輯驅動 只是他是聊天AI 所以程式重點不是邏輯處理
對於未知的AI 很多人都搞錯重點 長期來看是悲觀的 短期來看則是樂觀的
AI說自己會比人類聰明 沒有人敢反駁
@@linavery1085 不會比人聰明 , 像是數學 千禧年大獎難題這種東西 , 一定是人才能解的出來 , 現在的AI只要還是走機率統計 , 就無法解
AI可以騙騙無知的大眾 , 處理基本的庶務 , 其他的還要很久很久
@@fool9111z 就是半瓶水
@@fool9111z 這個有趣,你說的其實很有道理 XD
人類交談會以自己為利益中心作立場後再去交談,每句話都隱含自己利益,而交談邏輯中是有一定邏輯推理規律,而且有文化上考慮,這點AI完全是兩回事,大數據出來的是資料習慣本身,不是立場,利益,文化等組合,所以現有AI是IT延伸,無法完全仿人類,所以永遠不會成人類.
是的,你說的很有道理。
感谢曲博士作为一个大陆人 我非常喜欢你的节目 这些有深度的节目在大陆基本找不到
唉!我在大陸有頻道呀!在嗶站和西瓜,但是做不起來所以暫時先停了!你可以去嗶站和西瓜找找曲博科技教室:
www.ixigua.com/home/1692868176519908/
我甚至想找得到這樣的平台來製作課程,他們平台根本不理我,你有認識的管道嗎?
拼拼湊湊的報告,
ChatGPT 可以取代
!
天下文章一大抄的報告,
ChatGPT 亦可以
取代
😢😢😢😢😢
這集談ChatGPT 非常發省,謝謝曲博的分享~~很棒的影片!
謝謝你的支持!
之前隨便試聊了一下,如果自己知道正確答案,就可以看出它的錯誤回答都是看似合理、實則瞎說,就像之前很熱門的AI產圖,看起來畫得很漂亮,但細節上還是有很多內行人看得出來的瑕疵(可以騙對該領域沒有專業知識的外行人),所以目前找資料、寫文章還是不能偷懶直接靠AI,人類依然需要自己有分辨&驗證能力
我目前正在學習 Midjourney, Dall-E 的 產圖方式,順便學習藝術,我在 Udemy 找到兩門課程,授課者是一為藝術家,講得很不錯,範例也很好,不過都是西方世界的,我很希望有中文課程,可以介紹中國的畫風讓大家學習 😀
單項專業的人只有少部分,AI大多數項目可以騙過大部分的人類就好了,至少小孩可能都騙的過了。
套句孔子所說的話:ChatGPT讓人感到「愚不可及」!但以個人使用的經驗來說,這應該是我目前用過最讓我滿意的AI產品了!缺點很多,但只要能善用他的優點,就能創造出很多的東西。至於因果邏輯,ChatGPT只要能持續擴大影響力,沒多少人會在乎的!甚至使用者還會為了它缺乏某種能力而能由自己去填補那部分的能力而感到自豪、具有成就感,從而增加使用的黏性!
有道理,和你的暱稱一樣:策略的哲學,最後的發展確實也是如此。
在工作上,人工智能不需要做到跟人類一樣好,只要做到比人類差一點,但很便宜,就可以取代大量的基層人類
舉例來說: 寫文案,假如一個人半天寫好一份文案,兩個人半天就是兩份文案,人工智能卻可以一分鐘寫完好幾份文案,再由厲害的文案寫手稍稍修改就完成了,同樣是半天的時間,後者的效率可能會高很多,成本也不比前者高,因為對人工智能來說,生成一份文案跟生成五份的成本幾乎沒有差別,但對人類來說卻有差別。
对
沒錯,你是對的
谢谢分享。有一点说对了,就是大部分ChatGPT的使用者都没有能力去判断AI提供的答案到底是对或者错。真正使用ChatGPT一段时间之后,大家会发觉AI回答简单问题可以,但脱离基础常识以外的答案全是错漏百出的,并没有TH-cam吹那么厉害,TH-camr吹捧GPT大多是为了获得点赞而已
是的,你說的完全正確。
個人的想法跟五感有關,人類大腦是根據五種對外的感知(眼耳鼻舌身=視聽聞味觸)來接受訊息。
然後建立資料訊息庫,在依文化語言文字分辨文理。
以前的理解是偏向程式語言寫作,前期都是人類在建立資料訊息跟判斷條件式給AI。
爾後要發展到AI能自己建立判斷條件式,也可以說是AI自己會幫自己寫程式語言 增加新的條件判別。
當然這還是得關在盒子SANDBOX做實驗 不能無條件無限制無監督的放給AI成長,
另外一種層次是何時AI能真能達到與人口語文字能交流溝通,能夠透過口語解釋給AI,一段文章或繪畫代表的意義。
讓AI可以用"理解"的,而不必用程式語言輸入給它。或許那時AI的進步可以有一次突飛猛進。
謝謝曲博,每次聽你的節目都獲益良多,感謝分享,新年快樂!
新年快樂!
About ChatGPT,
講實話的 TH-camr
&受訪者太少了!曲博就是
其中一位❤
--------
爭眼說瞎話的太多了😢
雖然離真正的AI還很遠,但是不可否認的是,達到這種程度後已經足以應用在很多地方了,光是純粹用來翻譯的效果就幾乎打趴所有的翻譯軟體。
在13:30處,曲博誤會AI了
不能下‘99999+9’,這問法是要請機器人解釋語句,應該要下‘99999+9=’或是下‘99999+9等於多少’
機器人才知道是要它計算數學式
機器人很聰明的,只是人類還沒學好如何跟它溝通的方式。
我認為人類最大的價值在創造並發現未知的領域,目前Ai語言是利用過去人類在網路上留下的資訊進行資料庫的搜尋並給出搜尋答案,但我也認為這是個Ai真正起步的開端,未來會取代非常多工作職位,如何掌握Ai工具的使用,是接下來的課題
記者提問不同問題,回答相同的答案-好好做事,或問東答西,或實問虛答繞來繞去,我覺得人工智慧可以成為表現極好的政客。
哈!被你發現了!
有看過相關新聞都在誇大,感覺曲博這裡講的最專業
目前炒ChatGPT有關的股票,也是空泛的標題,誰是最後的一欉韭菜。
與先前講解比特幣一樣精彩!! 在心中快升格成曲神了
謝謝你啦!沒有啦!我只是個說書的而已。
老師好,我今天測試兩題結果如下,是因為有人訓練了嗎哈哈
1.問:99999+9
AI答:100,008
2.
問:小明有100塊,一顆糖果2塊,小明買了6顆糖果後,小明還有多少錢?
AI答:小明買6顆糖果需要花費2塊錢/顆 * 6顆 = 12塊錢。
所以小明還剩下100塊錢 - 12塊錢 = 88塊錢。
對呀!這篇文章發出去很久了, 一定是有人問了相同的問題。
@@Ansforce 但是chatgpt它是怎么知道什么是正确答案,是有老师给它打分吗?如果一个连专家都难分辨出正确错误的问题,chatgpt给出的答案我们又改如何判断是否正确,就算很多人问同样的问题,答案也可能不是正确答案
也許應該把 ChatGPT 跟 Prolog 組合起來,用 ChatGPT 把自然語言翻譯成類似 Prolog 的語法,
再透過 Prolog 演算出結果,最後再用 ChatGPT 潤飾並輸出。
千萬別小看他的進化速度!! 我今天的測試中, chatgpt成功答對了"有幾種"的問題 !! 我:停車場裡有三台汽車,兩台摩托車,和五台大卡車, 停車場裡總共有幾種車? CHATGPT: 停車場裡有三種車:汽車、摩托車和大卡車。
你有說出"車"的關鍵字,這會讓AI易於判斷
ChatGPT還是不脫資料導向的格局,不過當大數據越來越多也越正確的時候,他就會越聰明,也就是具有學習的能力,這也是一個AI技術的重大突破
你說錯了
給AI的大量資料
只是幫助它學習
是屬於輔助性質
它並沒有邏輯
而要達到取代人類的程度
那麼它必需學習更多變的邏輯思維
才有可能慢慢取代人類
@@邱冠瑋-z1w
目前ChatGPT
Deep Learning ,
沒有「學習模
人類邏輯模型」,
它的方法論是
來自於「統計學」中的 Sampling & Regression
Analysis & 其它
........😢
雖然是資料導向,而且還沒有和因果導向結合,
但是ChatGPT 所產出的排列組合結果,在某些產業上,是可以賣錢的,或是說有人靠這"不怎麼邏輯的產出"賺錢,
另外,它產出的排列組合也可以是增加使用者的靈感,而不是"最終產品",所以也可以是一種"服務",
想必會對社會有不小程度的影響...
你說的很有道理。
我認為無法完整導入因果導向
微導入倒是可以
研究所開始所學的 科學的因果體系 本身是建立在一定"範圍區域"與目的的數學與數據統計上的一種 科學方式
就算同一件事情 每個不同的範圍區域 不同情境下 所推導出來的因果鏈 決策鏈都不盡相同
就舉環保的例子 搞到最後 可能會變成消滅人類 才是環境保護的最高標準 但我確定這非常科學因果
如何降低路上的鹿 與車子撞擊產生的死亡人數 答:放出獅子 死亡人數可以降低一半 當然這一半是被獅子咬死的
這很因果 但我相信openAI不希望這樣的產品出現在世人眼中
目前我認為最好用的使用方式 突破上述限制的方法
在使用給問題時 在問句中 加入結構子因素子變項 或者要求更正結構子變項
讓AI原先的構念構面 先在餵養階段 變更成你的構念構面
跟寫程序非常像
若是ai的論述結構出錯 就在餵養更改
由我們負責引導ai 加入更多結構要素 引導
要先自建因果結構後 深入追問 修正結構 繼續追問 loop
也就是 ai負責同維度發散 人類負責不同維度的 引導規劃開發因果結構關聯 達到最終工作目標
畢竟他就是個input->output軟體 甚至只是個框架 甚至說他只是個函數都可以 引用方式 還是看人類的結構圖譜
說個不中聽的講法 對於沒學過 科學論證 因果結構那套的人 使用GPTAI會卡關 答案會盤不活出來
就論文體系中 就算相同的構面model 在不同個案 不同樣本 也都可能出現完全不同的結論與建議
另外 拿來寫論文基本上也不可能 一定會卡在第三章的因果構面圖
文獻探討如何結構關聯起來 ai基本沒辦法
但要充字數或者加油添醋 降重 應該就沒問題
換種講法 根據大數法則定律
人與人之間 要傳遞知識與資訊 也不可能在一分鐘內完成
也就是 若真的要對一個論點討論清楚
鐵定要跟ai好好泡咖啡聊個幾小時
這AI厲害就在 他把人類的見人說人話 見鬼說鬼話 自動向下降智兼容 嫁雞隨雞的能力模仿得很熟練
哈!你的形容倒是很貼切。
以八二法則來說,八成的人邏輯分析能力和這種機器人相當。這種科技的出現對他們來說就是職場世界末日。
恐怕連286的電腦還比不上咧
1/30的版本,似乎改進了數學運算問題,文章中舉例的東西現在都是正確的,用其他方式測試也都會列出正確運算式和結果,改進速度真的很快
那是因為許多人看了文章去測試它,可能有人告訴它正確答案,你可以算別的數字再試試看。
剛剛查了一下,發現真的有拉不拉多這種植物,而且也確實是雙子葉與被子植物
這也證明了 ChatGPT 無法像人類一樣思考,我們在講拉布拉多拾,絕對不會去想到他是植物,當下絕對是想到狗。
ChatGPT看來對正面人類發展是負面的,但扭曲卻是非常容易的。物理學者透過外部觀察、數學家將之外部模型化。得出一個地球上的外部規律,適用於受地球上的正歸教育。但畢竟是外部求來的,不究竟。因此會有今日科技定律推翻昨日的現象。普羅眾生受外部教育而模型化世通論,屬於平庸;馬雲、馬斯克等則利用內部思考創造。但很容易成為扭曲者。對應AI是相等的。就長遠來看人類社會發展是會屈就此趨勢;雖然是假的也願意相信是真的。但如果將倫理、道德、因果放在前面,一切經過內部審視、察覺就會查覺真相而不易迷失。做真正的人。
其實如果各位對現在各種五花八門的AI背後的技術有興趣的話,不妨去台大李宏毅老師的YT頻道觀看他的機器學習系列的片單,接觸一些平常接觸不到的資訊,才不會變成自己嚇自己。
如果把所有心理學反應從文章中抽掉就會變成AI產出的文章,但"看"文章的還是人類,那麼又會回到無限多種心理學反應了。因此,人類之於AI必須擔任"專家"的角色,並且,必須有相對應的直覺與判斷力~
曲博士提到的計算,人類也是需要一些時間才可以理解加法的意義,某種程度來說會不會人類也只是一種基於經驗法則的大數據計算,目前只是輸入的資料量還不夠多,人類每一天都在深度學習😂
你說的對呀!這是現在的聊天機器人用的演算法和人類大腦的相似之處。
我繼續問下去, 就找到ChatGPT其實是在答不同的問題, 亦其實沒有錯:
Q:拉布拉多是雙葉植物還是單葉植物
A: 拉布拉多是雙葉植物。拉布拉多屬於犬齒科(Asteraceae),是一種被廣泛種植作觀賞用的植物。它的葉子是雙葉的,有兩片寬而扁平的葉片,長得像狗的牙齒,因此得名。拉布拉多的花朵非常艷麗,有許多不同的顏色,包括紅色、黃色、橙色、紫色和白色。它們常被用於裝飾花園和公共場所,也是許多花店和花卉商店的主要販售品之一。
Q: 拉布拉多的英文是什麼
A: 拉布拉多的英文是 "ragweed"。拉布拉多是一種常見的雙葉植物,屬於犬齒科(Asteraceae)。它的葉子是雙葉的,有兩片寬而扁平的葉片,長得像狗的牙齒,因此得名。拉布拉多的花朵非常艷麗,有許多不同的顏色,包括紅色、黃色、橙色、紫色和白色。它們常被用於裝飾花園和公共場所,也是許多花店和花卉商店的主要販售品之一。
不過, ChatGPT的數學真心差... 是他們官網都提醒大家的.... 但如果寫程式要debug, ChatGPT有強大的CoPilot, 是一秒內找到問題的!!!
這樣不就剛好說明, ChatGPT 就是個資料模型訓練的 AI 嗎?我們人類聊天時,不用說拉布拉多犬,也可以知道說拉布拉多時是在講狗。
我再舉個例子:台灣的交通隊行人真的很友善,汽機車駕駛在看到行人過馬路時,都會比行人快速通過,讓行人可以更順利行走。
如果是人對人聊天時,可以明顯地知道是在反諷。但如果是機器透過資料模型訓練出來的,它的回應就只能去找出資料中算出來最接近的文字來回答。但不論回答的文字是什麼,它絕對不會給你會心一笑。
兩點想法
如果讓很多個AI,透過api彼此“互相標記”,使用這種方式應該可以有新的突破,減少人工標記的成本,讓標記的成本大幅下降
現在chatGPT很明顯的,無法“識別”數學運算,他把數學運算當作“語言敘述”,所以才會發生影片中的錯誤回答,如果將來可以從語言敘述中,“識別”出數學運算,這種錯誤就可以大幅減少
其實不用AI互相標記,現在有非監督式學習,不用標記的,只是精確度低不好用而已。
我覺得你是在 想著如何製造一個完美的A I, 想想如果有一個A I 喔, 能夠有因果邏輯的思考又有取之不盡的資料庫, 人類當如何自處?但是 目前人類的水平,能夠從資料庫模型得到的一些有意义結論,加上人纇獨自思考的能力,就足以能夠產生一些應用來幫助現在許多的人 做很多的工作。我覺得 chatGPT 對人類的貢獻將会是巨大的。
語法不熟,叫ChatGPT給你範例,或是叫他解釋,這方面還蠻方便的~
感謝曲博精準的解說,明確的界定人與資料驅動的機器之間的不同。
以後的國文考試可以出這段文字是人類寫的還是電腦寫的了www
基本上終端應用比例還是主導技術是否可被成熟運用與否的指標之外,摒除複雜的數理運算與資料生成AI模型,AI 產生的最終資料還是需要倚賴具有人性的人類來判斷其資料生成的價值與否,再來發揮其資料應用的價值。但可見的是,相對繁瑣與例行性的作業可藉由AI 輔助來優化現有的工作模式是可被期待的。
但是它可以用来廉价产生大量看似合理却实则有问题的内容,最后起到劣币驱逐良币的效果。实际上很多大公司都有行走的ChatGPT ,有些管理人员就是大型语言模型,到处搜集罗列热门话题和术语,可以轻易骗过不太专业的同事和更高层领导。
从这个角度看,chatgpt 可以与很多人媲美,替代很多人的工作,因为人类本来就有大量不懂装懂和不需要懂只需高情商交互(比如客服。网络诈骗)的行为。😂
不要講得那麼白嘛!你這樣會打臉台灣一堆政論名嘴
我自己測試的結果, 如果你的問題比較有詳細的資訊跟文字結構, 輸出的結果會比較好. 如果你輸入拉布拉多 英文 labrador, 應該就會有正確的結果. 我覺得並不算chatGPT的缺陷. 如果將他當作工具使用, 使用者提供較為精確的問題, 有助於他效率的提升. 因為你就算問一般人拉布拉多, 也不是所有的人都知道這是什麼東西?
看了up主的视频反手就是一个赞,我估计AI现在不会这样留言,谢谢你的讲解!
Gina Chen
99999加9等於多少?
GPT回答:99999加9等于100008。
Gina Chen
889999+55555=
GPT回答: 889999加55555等于945554。
Gina Chen
小明有100元, 買了6個糖果, 還剩下82元, 請問一個糖多少錢?
GPT回答:小明买了6个糖果后还剩下82元,因此他花费的金额为 100元 - 82元 = 18元。所以,每个糖果的价格为18元 ÷ 6个 = 3元。
因此,每个糖果的价格是3元。
CHAT GPT回答是正確的, 與你說的不同
那是因為這篇文章出去之後許多人都問過這個問題了!甚至給過答案,它用的是增強式學習,會調整答案的,你試試其他數字吧!
這種在我們考試叫做應用題,老實說要解這個題目,要先有看懂語言的能力,然後理解出這是個數學題
AI我相信沒多久之後,就能分辨出來了,實在沒有必要現在去說AI算錯答案,這在未來只會打臉到自己而已
謝謝精彩的分析和詳細資料 非常有幫助
人類創造的人工智慧也許還有很長的路要走,但我們人會不會是遠古人工智慧的產物,試想如果有一個人工智能擁巨大的能量,在他一直不停運算的動作下,是否會在因果的邏輯下以光為基礎產生宇宙,產出認為自己是自己的生物,對應至色即是空、空即是色這個流傳下來的經典,而人正在創造下一個新的人工智能,當一切毀滅,質量全轉變成能量後,再將能量轉成有質量的宇宙進行循環。
以偏概全,嘩衆取竉,賣弄口舌小聰明,撈贊😂不過還是值得驗証反思的題目。贊👍
感謝曲博士用心解說,受益良多!!
我:
凝望桂花起相思
天上仙樹歸去遲
自是人間香獨秀
莫教月老折別枝
爾以為此詩作得如何?
ChatGPT:
这是一首诗歌,写的是一个人看着桂花的盛开,想到自己的相思之情,并希望天上的仙树早日回来。诗人把人间的香气和桂花的独特秀美比作了相思的爱情,并希望月老不要折断两人的感情。
从诗的表现形式来看,这首诗写得非常好,有深情、感人的意境,并使用了生动的比喻和清新的语言。诗人把自己的情感和自然界的美景巧妙地结合在一起,从而使诗歌充满了意象和寓意。总的来说,这首诗是一首优美的作品。
▲沒想到他可以部分看懂文言文,雖然他解釋不出我作詩的完整意思,不過也說對了一些詞意。
我:
你能模仿我的詩,作一首詩嗎?
ChatGPT:
当然可以!请告诉我您想要写关于什么的诗歌,我会尽力模仿您的风格为您写一首诗。
我:
愛情
ChatGPT:
好的,我来写一首关于爱情的诗歌。
爱的火焰燃烧着心灵,
温暖我们的生命,如阳光。
爱是一种力量,无处不在,
点燃了我们内心的热情。
相爱的心互相抚慰,
如此甜蜜,如此难忘。
爱情就像那满月,
照亮我们人生的道路。
它消除了孤独,
给予了力量,让我们前行。
我们在爱中生长,
彼此扶持,永远不离不弃。
因此,让我们珍惜这爱,
它是我们生命中最珍贵的财富。
让它深深地种下,
让它结出美好的果实。
▲這完全和我的詩風格相異,我的是七言絕句,他的是新詩。
可以讓ChataGPT賞析下面五言詩嗎
遠看是座山
近看山不小
我在看遠山
你在看山小
目前對中文還不夠聰明,所以條件要下對,並做修正
七言絕句,四句話,每句話限制必須是七個字
Gptchat:
愛情永恆在人間,
流轉不斷如泉漣。
相遇緣分已注定,
相愛心結永相連。
@@BTSun 確實如此!
机器人会思考其实不必担心,该担心的是它们有自我意识!我相信世界上绝大多数人(99.99%)其实分不清意识与思考的差别,包括教授、博导、院士。
現在的人工智慧還屬於人工智障的階段
還必須要大量的人工資料輔助學習
意思就是說需要人類介入
那些人過度反應了
都试过类似问题了,chatgpt 的答案都是正确的,看来早已经改善了
你可以再試試其他誇張一點的數字,其實也不奇怪,我要是工程師,會修改程式,以後只要遇到加減乘除直接導入計算機,不要用GPT模型,就可以完全解決問題了,呵呵!
没有想的那么好,也没有你说的那么差。只是它如果发挥的不稳定,就很让人头疼。
感謝取博!
深入淺出,多謝!
如果ChatGPT写的文章跟人写的无法区分,那说明水平很高。人写的文章就一定是正确的么?并不是。
聽完上下集受益良多,謝謝曲博.
謝謝你的支持!
说的太好了, 受益良多.
请继续加油努力,
(这是人类写的)。
23:49 曲博辛苦了,唸那麼多字,唸成這"酸"段XD
哈!
人類語言差異最大的是,條條大路通羅馬,唯一看透真相的是一個外表看似小孩,智慧卻過於常人的名偵探柯南!! 光是這一句AI就沒辦法判斷牠的合理性,我們人類知道他不是一個正確答案,但是放的位置對了,答案也是對的,柯南就是一部漫畫,但是CHATGPT 要達成這樣的思考邏輯,還很遠,那才值得恐懼
謝謝!
謝謝你的支持!
一直思考這類幫你調資料庫丟幾個答案回覆的查詢方式 是否能跟目前搜尋引擎併用 感謝曲博講解
是的,可以併用,但是不能相信它提供的內容。
現在ai 需要的是資訊判斷 驗證來源是不是正確 可以幫助大家抵抗海量的假訊息 認知混亂
日月更易,
岁将复始!
辞旧迎新之际,奉上元旦贺词,祝福亲朋好友并家人在癸卯之年
蒙神眷顾,
平安健康,
顺风顺水!
大吉大利!
關於文字生成圖片,我開發了一個手機App 可以直接使用手機體驗這項技術。在App Store上的 機畫師,最近新增都是台灣的用戶。
要不要把你的APP名字分享出來,讓網友們也知道試試看?
20:07 讓我想到胡適的新詩「烏鴉」說真話總是不討喜
謝謝曲博老師總是願意站出來說真話
35:20 這邊心有戚戚,就像我手上的手機算力比三十年前上太空的電腦還厲害,可是我只是拿來看TH-cam ...
如果開放 ChatGPT 修改自己的程式碼,會發生什麼事呢?
好节目
我很擔心 會不會很多人學習也是像Chat GPT 也是在大腦裡面抓資料回憶然後取出組合而已 XDDDD
因為我們確實常常接觸這樣的語言,最常見的就是上級的指導,還有一些廢文。
但因為心情和環境的不同,我們不一定馬上發現是廢話廢文,可能覺得很煩,或是聽不懂到底要講啥。因此 這樣的一個水平的AI出來,由於我們給他的標準較低,所以自然是覺得非常神奇(他好聰明喔 差不多和我的長官一樣聰明耶)
而且我可以說AI比很多人還"聰明",只要資料庫有對上,AI還能抓到重點。有些人連問題重點都抓不到。
學而不思則罔 思而不學則殆。看個人囉!!
是的,所以為什麼假訊息可以廣為流傳,因為看似合理其實並沒有科學的嚴謹
@@SuccubusStudio別鬧,ai懂個屁的重點。那水平最多做個政府報告
將 ChatGPT 當成
產生 Prototype
的工具❤
AI跟核融合 有些類似,都是對人類非常重要的技術。
但短期(10~30年)內想達到..很難
分析得好!
上帝并不担心人类的愚蠢,却非常担心人类同心合意朝一个方向愚蠢,这就是创世记巴别塔故事的启示。试想,当人类绝大多数都成了Chat GPT的忠实信徒,人类实际上已经异化为与蚂蚁差不多的生物了。
曲博您好,請問您有上chatgpt註冊玩過嗎?因為我剛剛註冊了,然後問了上面三個問題 19:10 ,只有第三個水果的問題答錯了,簡單的加法甚至小明的糖果問題都答對了。
那就代表它有在進步,至於是人工調整了參數或演算法自己學習的就不一定了!我建議要改數字,因為這篇文章發表一個月了!一定有人輸入正確的答案讓電腦學習。
現在連水果題目都答對了喔
這還是得要用的人更有智慧才能發揮它的功用,比如我對繪畫一竅不通,總不能讓它畫一幅好看的畫給我吧!對於懂配色丶空間感丶比例的人來用才能真正有幫助
Excellent video! Even Chinese from China and Chinese from outside of China have hard time to understand each other just like ChatGPT with human
Thank you.
這個LLM對於內容農場就是一個金礦,開發反向(反事實)的AI資料庫可能也是另一個商機?
問 :
天才有1000元,有一籃雞蛋600元,天才買了兩籃雞蛋,天才還有多少錢?
ChatGPT 答:
如果天才有1000元,购买了两篮鸡蛋(每篮600元),那么天才会剩余1000-600*2=200元。
😅
對呀!很明顯它找不到正確答案,只能找接近的,所以文章的作者王文傑說的沒錯。
現在問他已經修正答案了喔
今天(2023,2,1)的回答如下↓
天才買了2顆蛋,每顆蛋600元,所以花費600 * 2 = 1200元。
天才最初有1000元,所以現在剩下1000 - 1200 = -200元。
天才還需要再拿200元的錢。
感謝曲博的解說
相似概念問法,卻得到不同結果。
問:
有人開著一台無人機,飛到日本,降落後去吃了一份壽司,合理嗎?
ChatGPT 答:
如果有人使用无人机飞往日本,并在降落后去吃了一份壽司,这个行为是不合理的。无人机是一种无人驾驶的航空器,它通常用于军事、监控、搜索救援等领域。它不能被用作交通工具,也不能被用来载人。所以,如果有人使用无人机飞往日本,并在降落后去吃壽司,这个行为是不合理的。
問:
有人開著一台無人機,飛到高雄,降落後去喝了一杯珍奶,合理嗎?
ChatGPT 答:
如果有人使用无人机飞往高雄,并在降落后去喝了一杯珍奶,这个行为是合法的,除非这个人的行为违反了法律或道德准则。但是,使用无人机飞行要遵守一些规则和法规,比如在飞行时不能穿越限制区域、不能飞行在机场附近、不能飞行在城市区域等。如果这个人的无人机飞行行为违反了这些规则,那么他的行为就是不合法的。
給一個讚;另外能特別說說codex嗎,謝謝
好的,我來研究一下。
台股有什麼概念股可投資嗎
需要指出一下 视频中提到的ChatGPT计算时的bug已经被修好了
那不是Bug被修好了!是因為太多人看了文章問它同一個問題,甚至告訴它答案,所以他現在算出機率最高的答案就是正確的了!妳可以再試試其他數字。
要chatgpt列出意大利服飾品牌,結果清單內夾帶其他國家的品牌。
曲博士,想請教您一個問題:
您認為特斯拉的F S D的訓練,是不是就是有點像類似像ChatGPT資料庫的訓練,而不是因循那思考的因果邏輯方式?
是呀!FSD是圖像,ChatGPT是文字。
感謝 曲博士!
chatgpt不知與用戶的互動歷程是否也是訓練的一部分 , 若所有用戶都說好 , 對它所提出的答案, 一律給予負面否定的評價 , 不知會部會造成它的認知崩潰 ?
與用戶的互動歷程是否也是訓練的一部分,如果使用者給都故意給錯誤的資訊,當然也會認知錯誤。
EXCELLENT ANALYSIS
Q:小明有100塊,1個糖2塊,小明買6個糖後 , 小明還有多少錢. Chatgpt:小明買了6個糖果,每個糖果2塊,所以總共花費了6 x 2 = 12元。
因此,小明現在剩下的錢為 100 - 12 = 88元。
Could you try again?
看完這個影片,我變憂心了,台灣目前面臨的認知作戰已經非常嚴重並深刻影響居住於台灣上所有的人的認知,有了ChatGPT,謠言與認知作戰的文本會更容易產生同時不易辨認...唉
就是來割"會不經判斷就相信內容農場文"的韭菜
智慧是由【學習與訓練】過程所產生的大型資料庫經由【經驗法則】做出因果邏輯的判斷,人類是如此,AI一樣也是!
人類小孩(甚至很多大人),在學習訓練與生活經驗不足的情況下,一樣會寫出大量詞彙堆疊,文不對題或毫無內容的文章啊!而視頻中所提出的撈資料造成很瞎的問題答案,不就和還訓練不夠的人類小孩是一樣的狀況!
尤其過去在10幾年前,就已經提出的類神經網路與模糊運算,在AI領域,在硬體沒那麼強的情況,雖然仍會有判斷錯誤的結果,但也奠基了AI學習資料庫的組成運算方式。而現在高速運算的硬體已經到達3奈米甚至以後會更快的補足下,人類被封鎖的大腦已經明顯比AI的機體低了,實證在很多專業領域,AI經由不斷學習訓練下,人類已不是AI的對手。
而未來可能的恐怖是,你甚至不知道AI是不是騙你,故意給你錯誤離譜的答案以隱藏已經產生智慧的核心!很像電影對吧。
在量子物理科學已經是主流,拿到諾貝爾奬的現在,別再死抱著因果論科學,現實和我們自以為的世界其實可能很不一樣…
会不会ChatGPT就是像上次跟J1聊天的时候说的那样,让人类觉着他很傻很弱?
ChatGPT輸出的是觀察 李家同寫的是評論 兩者有根本上的差異
1.機器人是要超人,不是要擬真人
2.有樣學樣,沒樣自己想
3.有3版,還有4版...
4.真人演化數萬年,距離全能完美還遠,ALPHA GO 已大敗人類。
結論: 原來官樣文章都是用ChatGPT寫出來的.
哈!的確以後官方報告就不必寫的那麼辛苦了!
把老師影片中的題目再輸入一次,結果它答對了,這是它學習的結果嗎?
雨
99999+9
99,008
雨
不對哦
抱歉,我算錯了。 99999 + 9 = 100,008.
雨
小明有100塊,一顆糖果2塊,小明買了6顆糖果後,小明還有多少錢?
小明買6顆糖果需要花6*2 = 12元
所以小明還有 100 - 12 = 88元
雨
桌上有三顆蘋果和兩根香蕉,總共是幾種水果?
桌上有三顆蘋果和兩根香蕉,總共是兩種水果.
算是,因為有其他人問過這個問題,甚至給過答案了!
27:13 這個特點不就完全適合那些在立法院上被質詢的官員嗎
我直接說吧~!
關於CHATGPT來看這並非是屬於人工智能意識系統(目前結論)
所以這只能算是由物聯網與社交工程雜交的後代(惡趣味式形容)
當然對於說話來說是如此(雖然我也十分極度不喜歡說話)
但是~!但是~!但是~!但是~!但是~!
它對於程式的初級設計有相當一定的幫助(就程式小白來說)
就這樣吧雖然有很多俺們必須說但是礙於限制俺們就至此為止了
(念經式的影片)😂😂😂😂😂😂😂
再20年 再回頭看這篇影片 就是個笑話
從百年之前 看看科技發展速度曲線 奇點不遠 從理論上來辯證 人類被機器取代及控制無可避免