ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
逻辑清晰,深入浅出,学习了,谢谢!
這是我看過,最利害的AI講解。太用心,不得不推,並作人生第一次留言稱讚
这个内容实在是太好了,把领域内最精华的信息搜集在了一起,又以非常巧妙的方式排布,应该说让尽可能多的人能听懂。
老哥 我必須讚揚你這部影片的成果 你絕對是我目前看到 youtube 上面講得最清楚的科普AI了
看了这影片才知道,这里面的知识是深度是这么的“不可思议”(对我们的一些普通人)向你们为了人类未来所做出的贡献敬礼!!为在努力的你们,加油!!!辛苦你们了💖~只希望一切都是好的结果~
全称认真看完,通篇没有废话,超级干货。感谢作者费心了
no·fluff popular AI introduction🎉
看第一眼還以為是以3blue1brown那一系列影片為基礎的翻譯講解,但看了之後真的是很紮實的內容。舉例和比喻簡單易懂,還有很多幽默的梗讓我笑出來,有很多之前對AI有些模糊的概念更清晰了,看完真的收穫很多,謝謝。
太感谢了,这么复杂的问题深入浅出的说明白,不愧是清华人,更希望以后能把社会革命性的方向以底层思维的方式从根本上去说明白,期待你更精彩的作品
Part 1):任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。 其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。 只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。 此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
Part 2):另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段。****主要在處理序列性高度相關的語言陳述序列,圖像高度相關的像素點関係以及音樂弦律的序列呈現。相應數理統計的手段主要是使用高度相関的時間序列分析自㢠歸建模。 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。其實生成式大模型(語言/ 圖像/ 音樂等時間序列高度相關資料)所建立的預測模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計的時間序列分析為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?!b)人類智慧的誤失率基本都趨近於零。任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。人工智慧的誤失率16% 要成長到 人類智慧的0% 誤失率,給其500 年都難以達到。另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。未來可能的發展模式:1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。
Part 3)另外希能進一步說明為何這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆?除在Part 2) 談及眼前這些所謂台面頂流AI 專家或團隊,粘粘自喜於眼前所謂模型誤失率16% , 殊不知在很多專業領域,16% 的誤失率,那可能帶來災難( 金錢損失, 人員傷亡, 大自然破壞) ! 例如,自動駕駛,氣象預報,股票期貨買賣決策等等。即便生成式模型,其誤失也可能帶給人們直接或間接的損失或傷害。若不是由領域產業專家參與並主導的建模,要突破10% 誤失率,是極其困難的。我說𠆤故事(不是在炫耀自己的賭技),大家也就明白領域產業專家的重要性。我2000 年在香港公司上班, 每兩周回深圳家一趟, 每雙周末回深圳前,我會帶2 萬港幣去澳門葡京玩輪盤,每回我嬴到10 萬就走人,由珠海回深圳, 我次次去次次嬴,從沒輸過。這就是有專業領域人員恊助的建模,誤失率很低,回報很高(投入少收益高)。機率論是認為發生機率的事件是背後有些不明的隱變數,如果把這些隱變數儘可能的説明白,讓機率性的發生現象就會變得越來越小。簡單的說,一個銅板正反面,前十次都開正面,第十一次開正還是反,數學家據於機率論的真蒂,告訴你一定開正面。因為從前十次已看出存在開出正面的未知隱變量。但一般人仍會認為正反各一半機率,甚至有人會錯誤認為連開那麽多次正面,這次肯定會開反面。我玩輪盤下注前,一定會找現場的賭友看一下他們記錄卡上先前及近期是否有某𠆤特定數字常開出,若沒有,我會忍住不下注。一旦出現連續常開數字,我就立刻下注押這常開數字,以及輪盤面靠這數字左右各兩組數字,共5𠆤數字, 基本中率非常高, 可達到20% 押中率, 20% x35(賠率)/ 5( 押注數), 我每玩五次總投入是25 中一次賠35。 賺10 。 基本上2-4 小時達標10 萬港幣走人。1)其實在現場賭友記錄卡上先前中球的數字就是領域產業專家去掌握數據的過程。2) 我會解讀機率論,因此也是玩輪盤的專家。因此我玩輪盤,就是具專業知識參與的領域產業專家, 另外我的投注策略,就是我建的模。而眼前台面以算力為主導的AI專家,因為他們手上握有大量的算力籌碼,因此他們是次次都36 𠆤號碼全押, 所以次次都中, 但是每次總輸一𠆤籌碼。 這種暴力的押法, 就是沒有引入產業專家的結果。大量浪費算力在無味的押注上。基本上不是大力出奇蹟, 而是大力出爛成績。另外眼前生成式大模型,最大的資料來源是取自提供搜索引擎服務的大型公司的資料庫。而這些資料庫的data base 早已經過各行各業領域產業專家幾十年投入,進行維護梳理,並進行了多維度的數位標記。因此目前生成式大模型真正的主要貢獻者是,各行各業領域產業專家幾十年的投入,進行維護梳理,並進行了多維度的數位標記。所以缺乏產業領域專家主導,而由算力提供方來主導的AI 發展,可預見的是將會走得很偏,而且會很快撞牆! AI 的良性發展, 不是靠蠻力的大力出的爛成績。(把算力浪費在一些関聯性不高的變數上,不當不專業的取定變數)而是要靠產業專家的巧力進而形成的大力出的好成績(奇蹟)。Nature刊发最新研究 ,目前當紅4 大语言模型, 参数越大越不可靠! 简单任务更容易出错, 誤失率高達40% 這𠆤問題很容易理解。當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。AGI 必須建立一套專業模型徵用的智能機制。不能一昧的用大模式。AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。另外這也和在Part 2) AI 產業發展形成呼應。AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。此外,最讓人擔心的應該是產業領域專家組主導的AI 開發, 他們開發AI的效率及精度都是最高的,而且他們非常淸楚如何使用及駕馭它,也因此容易造成有心人藉此做出違法犯罪甚至傷害人類的事。而算力提供者主導的AI 開發,往往效率及精度都比較差,頂多只是多浪費點資源,失誤率高點,但傷害性不強。大家思考一下,我們該擔心AI 算力提供者弄出來的作戰機器人,還是該擔心軍方專業人士主導開發的作戰機器人?!特別是在敏感的專業領域,如核暴/氣象/大気動力/海洋動力/基因工程等等,我記得40 多年前,這些參與CIC(AI)建模的產業專家組人員,基本都被政府列管登記在冊。因此整𠆤AI 產業的發展, 政府必須義無反顧的出面建立審核/ 監管機制,這樣才能確保有序/ 健康的發展。 而眼前無序的亂象也得以解決。
老哥你也可以做部影片解說了orz
这就是语言巫师乔姆斯基的无知评论。现在的神经网络人工智能不可能是你所说的“统计模型”,因为你说的统计模型要对数据进行分类,而且是人进行的,所以导致上限就是人类的知识。而现在的生成式人工智能不需要人为分类,是机器自己学习,甚至是无监督学习。所以学到的规律同统计模型的分类有本质的不同,所以现在人类也根本不知道人工智能在无监督学习中学到了什么。
@@WaterMaitreya痾⋯⋯你知道自己在說什麼嗎
這集內容太好了太棒了 真的是集大成者 在網上看了應該近百部影片 這部應該是第一 沒有之一
通俗易懂+足够的专业深度=一次成功的科普
你的这个视频太好了,特别是关于人工智能的本质思考。你其中提到的几个问题,我还在思考🤔我也做了几个介绍诺贝尔奖的视频,我觉得这次的物理,化学奖就是对人类最顶尖智慧的碾压。本质上就是把化学奖授给寄宿在人类身体中的人工智能体。最直接的证据就是化学奖,大卫贝克以前一直致力于用计算方法预测蛋白质结构,但都没有突破,直到使用了神经网络人工智能,突然就成功了,把文章发表在《科学》上。google的两个在蛋白质折叠上就是入门级,在人工智能上也就算高级程序员。但是用了人工智能,一下就能解决蛋白质结构预测,文章发表在《自然》。但是最关键的是,就是它们使用人工智能解决了蛋白质结构预测,人类,包括它们三个得奖者,仍然不懂蛋白质是如何折叠的。
看了不少人工智能的视频和讲解,这是讲得最详细和透彻的一个视频,我已经把链接发给了我的朋友们。非常感谢您的付出。
前 50 幾分鐘對於神經網路的深度解說,真的是收穫滿滿
真的是不错,第一次搞清楚人工智能是什么,我已经准备把前半段给我十岁的儿子看了,估计也会有个大概的认知,太感谢了,收藏了
感謝up 分享❤很詳細~1:08:50 照影給讚1:26:13 有規則才懂得如何做,難怪對應現實不適應,例如不給道德,它如何會想扭曲道德呢?(ps. 除非人為輸入故意為之)
感谢作者的科普。这条视频可能留香百年,比作者存在的时间还久,哈哈。
比起生硬的公式,這部影片更著重在概念和演進,為了解決a問題研發出了a方法並產生了b問題,而後又發明了b方法解決,環環相扣缺一不可,之前學了一個學期也沒很懂,聽你這麼一講感覺就通了,up主真的太厲害👍👍👍
太神了❤ 终于搞懂了一些基本原理。之前看过很多科普,从来没有这个视频带给我的茅塞顿开的感觉
从您的视频中 看到了自己与博士的差距 👍👍👍
😂😂😂很卷的,这些知识本科 和硕士现在都是基本要求。
先在B站看到 以為YT不弄了不過這裡沒時間軸 所以我要轉回去B站了🤣不得不說真的好好看今天才剛複習我第一個在此頻道看的影片 講分而治之的那個超級無比想看其他演算法的內容然後就在B站發現了這個 是這樣逛到這個影片的~(不得不說看到B站給人推一堆什麼"幾個小時帶你死嗑完balabala"真的是有夠煩的(很多就是開開github然後就在網頁上講講講 開個程式跑跑跑,重點是標題有夠製造焦慮的90分鐘比起那些那種 真的沒在水時間啊👍動畫跟深入淺出的解說有在用心 不說了我應該看完來講比較有說服力
1:09:54 有個錯別字fintune, 應該是fine tune?
讲得很好。这个视频可以在深度学习课之前和之后各看一遍,效果肯定非常好
确实太棒了!我见过讲得最好的AI普及视频。
謝謝您的視頻
简单易懂,博主辛苦了!
GPT模型和人類說話的方式還是比較相似的。差別可能是人類有多一層工作記憶(或稱短期記憶)作為語句建構的指導,讓人能把話扣在一個主題上。拜登和特朗普辯論時就表現出"記憶體不足"的現象。那時拜登還是能接著自己的話說,但是卻脫離了原本的主題。原因就是人類在說話時,接下來將脫口而出的詞彙是由前言所引導。這也是為何1.閒聊時我們可以不經深思的講一大堆,2.精神渙散時,會講出一些不經大腦的話(照理說大腦不思考了,人不應該停止說話嗎?)。但是,diffusion模型就跟人類創作圖像的過程完全不同了。我覺得diffusion模型這條道走不遠。要做出符合現實的圖像創作,根本上和GPT需要接觸現實世界一樣,AI需要通過實物的3D構型去理解物體。而圖像只是3D構型的投影,影片則是連續投影。且繪圖的AI還需要語言模型輔助,以"理解"抽象概念。抽象概念將調整3D構型的體態動作、位置關係等,藉此表達出圖像想要傳遞的訊息。
虽然一些知识点不完全看懂或想通,但还是感受到了作者的用心和真诚。这是人类的判断,不是AI的判断。 😂😂
漫士真的很棒,很喜歡您的作品
天哪,这是我目前见过讲的最通俗易懂但不肤浅且逻辑清晰没有废话的
推荐3blue1brown
我好像看到宇宙大爆炸的那一刻😂時光倒流成了
为您的作品点赞,认真看了2遍。
感谢博主分享得干货! 各种高端资源见主页见人付 - -
太強了,這解釋都可以直接出書了
真的要給漫士一個大大的respect 感謝
感謝您,很棒的內容!
罐子老師的書法教室教育學博士路過,感謝分享
老兄我本來以為你來裝的,看了一半點讚訂閱了加油!
謝謝你的用心
最近才發現這個頻道 第一次看到就很喜歡主播的表達方式
太精彩了 🎉
Very Good! I have learned a lot about AI.
太喜欢了,谢谢
決定用這條影片温習考試
还要看一遍,respect
你好漫士 想請問一下人工智能參數的數量是固定的還是大模型會自行創建的呢🤔能夠擬合特徵和調整參數 是不是也能自行發現新規律建造新的參數和對應連結🤔🤔
可以計算六合彩吗?
精彩,细致。点赞!!!
太猛了!看完讓我回想起當年對機器學習印象了
很慶幸我會中文 才能看懂這麼好的資源這提醒了在美國養小孩一定要教中文
专业的人讲故事。真是专业
厉害!把我大学学的函数理解推向新高度👍
一文懂💯
1:16:20 既然图片可以通过随机噪点逆向运动, 变成一张图片. 那么大语言模型能否根据一个句号/一个空格/一个换行, 来反向生成完整的一段话呢?
原來我們早已擁有 只不過如何複製 用什麼複製自己。
太狠了,想說最近沒更大概趕計畫,結果來個大的= =
请问,空间智能可以帮助大模型跨越虚拟与现实吗?(我问的很不专业)😳🧐
深入淺出👏🏻
九浅一深,强
兄弟 你这个视频太NB了 收藏仔细看!❤
太棒了!这科普视频!
请问, AI能炒股炒期货吗?
牛逼 理解满分
梯度下降会不会收敛到local minimal上?
讲的很清楚!
迄今看过的最好的AI科普,没有之一
优秀 好视频🎉
神经网络看了很多,各家讲的零零散散的也算是弄明白了,MS开这一节课我是相当支持的,简单易理解
我去后半发过,我说怎么视频放一半就讲完了
不就是比較精密的自動的電腦而已啊!A l就是如此!
大哥,能给个联系方式吗
还没出概率论相关的视频啊
深入浅出,通俗易懂。大家做科普就是这样的!
30:22的地方是“擬合”嗎?
其他的视频都可以下饭,只有漫士的视频我会逐字领会。
这一期值得我反反复复看上十遍。
感謝分享
如果智能是生命独有的特性,那人工智能是否可以视作一种新的生命形式?
太厲害了,辛苦了
3blue1brown?
感謝 您的深入淺出生動的說明人工智能神經網路的運作原理和發展,很讚的內容!謝謝!!
這一系列影片實在很讚,可惜之前提到的量變造成質變的湧現,是在上次介紹完chat gpt後,說要出的,但這個合集沒出來,蠻想看那段的介紹的。但這合集內關於Sora那段,我看一次大概只能懂一半,所以有再往回看一下,還是覺得這真是一個厲害的理論。
@@artjio 湧現出了,看水結冰那一期
@@manshi_math 感謝UP主,因為今天才接觸到這頻道,看完gpt跟這影片,沒注意到那個水結冰。
为什么不能刚好生成20个字😢
首先感谢作者做这么好的视频,不过有几个问题,一是感觉这个视频是几个视频的拼接,中间过渡有点跳跃;有些概念在提及的时候,没有具体解释,比如什么是深度学习,语言模型中的 token是什么,既然之前都说了神经网络,那么不说一下为什么需要 token 就有点不合理?第二就是不要下太武断的结论,比如有可能你做视频的时候用的是GPT4,但是后面o1已经出来了,推理能力大幅提升,那么o1就有可能解决你之前觉得不太可能解决,或者解决的不好的问题,毕竟目前AI进化的太快了。总之还是感谢,加油。
如果拿这套程序运算六合彩会得出结果吗?不可能,因为变量不够。即使有全部彩票历史数据仍然推导不出即将出现的数字。
彩票是随机数据的,对于没有模式的数据, 这个会越训练越发散,没有用的。
推推
38:36 我有一個關鍵的問題沒明白 - 用梯度下降的方法,我只能知道左邊或右邊下一個斜率最低的地方在哪裡,但k1這個旋鈕是可以無窮大的,我雖然找到了向左或向右的下一個底部在哪,但我應該完全沒有信心這個到底是不是整個旋鈕中最底部的位置啊?情況就像我坐過山車,我俯衝到底部,我開始向上回升了,但我永遠不知道下一個底部會不會比我現在這個底部更低
你這是起始值問題?對的只能找到局部最低😅!也許可各批量訓練找各批量局部最低當起始值,再全批量訓練看趨近那個局部最低。但這樣也只是有可能找到全域最低而已😮💨!就正確性來說,只要最後輸出正確,區域最低或全域最低有差嗎😜?若輸出不正確誤差太大,代表跳不出區域最低,就打掉重練😵💫!
你说的很对。两种办法 把多个人扔到不同的地区,然后让他们独立去找,然后再把他们的结果互相比较,看谁找到最低的点。 另外一个是找到 一个最低点后,故意加上很大的漂移,继续再迭代降低,看是不是还落在这里。局部最优是无解的,除非你拥有全部的数据 而这是不可能的。现实中 人类也是无解的, 打个比喻,把你扔到广州的幼儿园里 学习粤语,你觉得你训练的无敌了,但你到广州的监狱上 就发现还有很多你不知道的,丢你楼母,😅😅 所以一般来说 调整调整 看后续效果好 就搞定了。这不是一个数学问题,所以不必严谨求真,够用,超越人类,就很完美了。
好奇Minsky那么聪明绝顶的人怎么可能没有想到过MLP可以轻而易举的解决异或门问题呢?
能夠興致勃勃的看完這約90分鐘影片的,大概就是我們這些理工男了。往往在媒體上和現實生活中暢聊AI 發展滿口人工智能的人們,我覺得大部分是不會花時間理解y=f(x).... 這是啥東西的,請幫理工男請加入說故事能力函數 ,大家一起加油。
加油,期待出新作品,不是更好的作品,现在这个水平已经可以了。就是希望能快速给粉丝一些新的内容
为那段 functions 视频留言😁
中間用了3blue1brown的影片
开源的工具
看到过的AI科普最优秀的一个视频
好耶😮
很感兴趣但怕上当有看过的给个评价啊拜托!
我上学的时候教授要是一开始这么讲,早应该学会了吧
難怪pilot生成出來的圖片都差不多感覺
全部看完 真的有料
是不是说,只要算力无限大,他的能力就无限大呢
看完后,自己變成AI。能夠說出專有名詞,梯度下降,back propagation,stable diffusion。。。, 但又不理解固中的邏輯,規律。 我要看多數萬個相關視頻,進行深度學習。
就想知道这样的一帧一帧的动画是咋做的???
AI做的
不知道你指的是哪个?大部分应该是ppt,中间神经网络那部分用了3blue1browm的视频片段
@@user-djelwJsskI8964 谢谢,具体方法如何做出来的
如果解构人类大脑各神经节的功能,然后再用一个神经网络模拟一个神经节功能,当把所有神经节都模拟后再连接在一起,会不会达到人脑的水平?🤔
膜拜,不愧是清華博士,牛逼
逻辑清晰,深入浅出,学习了,谢谢!
這是我看過,最利害的AI講解。太用心,不得不推,並作人生第一次留言稱讚
这个内容实在是太好了,把领域内最精华的信息搜集在了一起,又以非常巧妙的方式排布,应该说让尽可能多的人能听懂。
老哥 我必須讚揚你這部影片的成果 你絕對是我目前看到 youtube 上面講得最清楚的科普AI了
看了这影片才知道,这里面的知识是深度是这么的“不可思议”(对我们的一些普通人)向你们为了人类未来所做出的贡献敬礼!!为在努力的你们,加油!!!辛苦你们了💖
~只希望一切都是好的结果~
全称认真看完,通篇没有废话,超级干货。感谢作者费心了
no·fluff popular AI introduction🎉
看第一眼還以為是以3blue1brown那一系列影片為基礎的翻譯講解,但看了之後真的是很紮實的內容。舉例和比喻簡單易懂,還有很多幽默的梗讓我笑出來,有很多之前對AI有些模糊的概念更清晰了,看完真的收穫很多,謝謝。
太感谢了,这么复杂的问题深入浅出的说明白,不愧是清华人,更希望以后能把社会革命性的方向以底层思维的方式从根本上去说明白,期待你更精彩的作品
Part 1):
任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
Part 2):
另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段。
****主要在處理序列性高度相關的語言陳述序列,圖像高度相關的像素點関係以及音樂弦律的序列呈現。
相應數理統計的手段主要是使用高度相関的時間序列分析自㢠歸建模。
把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
其實生成式大模型(語言/ 圖像/ 音樂等時間序列高度相關資料)所建立的預測模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計的時間序列分析為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。
這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。
譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。
a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?!
b)人類智慧的誤失率基本都趨近於零。
任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。
殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。
人工智慧的誤失率16% 要成長到 人類智慧的0% 誤失率,給其500 年都難以達到。
另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。
未來可能的發展模式:
1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。
Part 3)
另外希能進一步說明為何這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆?
除在Part 2) 談及眼前這些所謂台面頂流AI 專家或團隊,粘粘自喜於眼前所謂模型誤失率16% , 殊不知在很多專業領域,16% 的誤失率,那可能帶來災難( 金錢損失, 人員傷亡, 大自然破壞) ! 例如,自動駕駛,氣象預報,股票期貨買賣決策等等。即便生成式模型,其誤失也可能帶給人們直接或間接的損失或傷害。
若不是由領域產業專家參與並主導的建模,要突破10% 誤失率,是極其困難的。
我說𠆤故事(不是在炫耀自己的賭技),大家也就明白領域產業專家的重要性。
我2000 年在香港公司上班, 每兩周回深圳家一趟, 每雙周末回深圳前,我會帶2 萬港幣去澳門葡京玩輪盤,每回我嬴到10 萬就走人,由珠海回深圳, 我次次去次次嬴,從沒輸過。
這就是有專業領域人員恊助的建模,誤失率很低,回報很高(投入少收益高)。
機率論是認為發生機率的事件是背後有些不明的隱變數,如果把這些隱變數儘可能的説明白,讓機率性的發生現象就會變得越來越小。
簡單的說,一個銅板正反面,前十次都開正面,第十一次開正還是反,數學家據於機率論的真蒂,告訴你一定開正面。因為從前十次已看出存在開出正面的未知隱變量。但一般人仍會認為正反各一半機率,甚至有人會錯誤認為連開那麽多次正面,這次肯定會開反面。
我玩輪盤下注前,一定會找現場的賭友看一下他們記錄卡上先前及近期是否有某𠆤特定數字常開出,若沒有,我會忍住不下注。一旦出現連續常開數字,我就立刻下注押這常開數字,以及輪盤面靠這數字左右各兩組數字,共5𠆤數字, 基本中率非常高, 可達到20% 押中率, 20% x35(賠率)/ 5( 押注數), 我每玩五次總投入是25 中一次賠35。 賺10 。 基本上2-4 小時達標10 萬港幣走人。
1)其實在現場賭友記錄卡上先前中球的數字就是領域產業專家去掌握數據的過程。
2) 我會解讀機率論,因此也是玩輪盤的專家。
因此我玩輪盤,就是具專業知識參與的領域產業專家, 另外我的投注策略,就是我建的模。
而眼前台面以算力為主導的AI專家,因為他們手上握有大量的算力籌碼,因此他們是次次都36 𠆤號碼全押, 所以次次都中, 但是每次總輸一𠆤籌碼。 這種暴力的押法, 就是沒有引入產業專家的結果。大量浪費算力在無味的押注上。基本上不是大力出奇蹟, 而是大力出爛成績。
另外眼前生成式大模型,最大的資料來源是取自提供搜索引擎服務的大型公司的資料庫。
而這些資料庫的data base 早已經過各行各業領域產業專家幾十年投入,進行維護梳理,並進行了多維度的數位標記。
因此目前生成式大模型真正的主要貢獻者是,各行各業領域產業專家幾十年的投入,進行維護梳理,並進行了多維度的數位標記。
所以缺乏產業領域專家主導,而由算力提供方來主導的AI 發展,可預見的是將會走得很偏,而且會很快撞牆!
AI 的良性發展, 不是靠蠻力的大力出的爛成績。(把算力浪費在一些関聯性不高的變數上,不當不專業的取定變數)
而是要靠產業專家的巧力進而形成的大力出的好成績(奇蹟)。
Nature刊发最新研究 ,目前當紅4 大语言模型, 参数越大越不可靠! 简单任务更容易出错, 誤失率高達40%
這𠆤問題很容易理解。
當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。
而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。
也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。
因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。
AGI 必須建立一套專業模型徵用的智能機制。不能一昧的用大模式。
AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。
譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。
更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。
任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!
建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。
另外這也和在Part 2) AI 產業發展形成呼應。
AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。
此外,最讓人擔心的應該是產業領域專家組主導的AI 開發, 他們開發AI的效率及精度都是最高的,而且他們非常淸楚如何使用及駕馭它,也因此容易造成有心人藉此做出違法犯罪甚至傷害人類的事。
而算力提供者主導的AI 開發,往往效率及精度都比較差,頂多只是多浪費點資源,失誤率高點,但傷害性不強。
大家思考一下,我們該擔心AI 算力提供者弄出來的作戰機器人,還是該擔心軍方專業人士主導開發的作戰機器人?!
特別是在敏感的專業領域,如核暴/氣象/大気動力/海洋動力/基因工程等等,我記得40 多年前,這些參與CIC(AI)建模的產業專家組人員,基本都被政府列管登記在冊。
因此整𠆤AI 產業的發展, 政府必須義無反顧的出面建立審核/ 監管機制,這樣才能確保有序/ 健康的發展。 而眼前無序的亂象也得以解決。
老哥你也可以做部影片解說了orz
这就是语言巫师乔姆斯基的无知评论。现在的神经网络人工智能不可能是你所说的“统计模型”,因为你说的统计模型要对数据进行分类,而且是人进行的,所以导致上限就是人类的知识。而现在的生成式人工智能不需要人为分类,是机器自己学习,甚至是无监督学习。所以学到的规律同统计模型的分类有本质的不同,所以现在人类也根本不知道人工智能在无监督学习中学到了什么。
@@WaterMaitreya痾⋯⋯你知道自己在說什麼嗎
這集內容太好了太棒了 真的是集大成者 在網上看了應該近百部影片 這部應該是第一 沒有之一
通俗易懂+足够的专业深度=一次成功的科普
你的这个视频太好了,特别是关于人工智能的本质思考。你其中提到的几个问题,我还在思考🤔我也做了几个介绍诺贝尔奖的视频,我觉得这次的物理,化学奖就是对人类最顶尖智慧的碾压。本质上就是把化学奖授给寄宿在人类身体中的人工智能体。最直接的证据就是化学奖,大卫贝克以前一直致力于用计算方法预测蛋白质结构,但都没有突破,直到使用了神经网络人工智能,突然就成功了,把文章发表在《科学》上。google的两个在蛋白质折叠上就是入门级,在人工智能上也就算高级程序员。但是用了人工智能,一下就能解决蛋白质结构预测,文章发表在《自然》。但是最关键的是,就是它们使用人工智能解决了蛋白质结构预测,人类,包括它们三个得奖者,仍然不懂蛋白质是如何折叠的。
看了不少人工智能的视频和讲解,这是讲得最详细和透彻的一个视频,我已经把链接发给了我的朋友们。非常感谢您的付出。
前 50 幾分鐘對於神經網路的深度解說,真的是收穫滿滿
真的是不错,第一次搞清楚人工智能是什么,我已经准备把前半段给我十岁的儿子看了,估计也会有个大概的认知,太感谢了,收藏了
感謝up 分享❤很詳細~
1:08:50 照影給讚
1:26:13 有規則才懂得如何做,難怪對應現實不適應,例如不給道德,它如何會想扭曲道德呢?(ps. 除非人為輸入故意為之)
感谢作者的科普。这条视频可能留香百年,比作者存在的时间还久,哈哈。
比起生硬的公式,這部影片更著重在概念和演進,為了解決a問題研發出了a方法並產生了b問題,而後又發明了b方法解決,環環相扣缺一不可,之前學了一個學期也沒很懂,聽你這麼一講感覺就通了,up主真的太厲害👍👍👍
太神了❤ 终于搞懂了一些基本原理。之前看过很多科普,从来没有这个视频带给我的茅塞顿开的感觉
从您的视频中 看到了自己与博士的差距 👍👍👍
😂😂😂很卷的,这些知识本科 和硕士现在都是基本要求。
先在B站看到 以為YT不弄了
不過這裡沒時間軸 所以我要轉回去B站了🤣
不得不說真的好好看
今天才剛複習我第一個在此頻道看的影片 講分而治之的那個
超級無比想看其他演算法的內容
然後就在B站發現了這個 是這樣逛到這個影片的~
(不得不說看到B站給人推一堆什麼"幾個小時帶你死嗑完balabala"真的是有夠煩的
(很多就是開開github然後就在網頁上講講講 開個程式跑跑跑,重點是標題有夠製造焦慮的
90分鐘比起那些那種 真的沒在水時間啊👍
動畫跟深入淺出的解說有在用心 不說了我應該看完來講比較有說服力
1:09:54 有個錯別字fintune, 應該是fine tune?
讲得很好。这个视频可以在深度学习课之前和之后各看一遍,效果肯定非常好
确实太棒了!我见过讲得最好的AI普及视频。
謝謝您的視頻
简单易懂,博主辛苦了!
GPT模型和人類說話的方式還是比較相似的。差別可能是人類有多一層工作記憶(或稱短期記憶)作為語句建構的指導,讓人能把話扣在一個主題上。拜登和特朗普辯論時就表現出"記憶體不足"的現象。那時拜登還是能接著自己的話說,但是卻脫離了原本的主題。原因就是人類在說話時,接下來將脫口而出的詞彙是由前言所引導。這也是為何1.閒聊時我們可以不經深思的講一大堆,2.精神渙散時,會講出一些不經大腦的話(照理說大腦不思考了,人不應該停止說話嗎?)。
但是,diffusion模型就跟人類創作圖像的過程完全不同了。我覺得diffusion模型這條道走不遠。要做出符合現實的圖像創作,根本上和GPT需要接觸現實世界一樣,AI需要通過實物的3D構型去理解物體。而圖像只是3D構型的投影,影片則是連續投影。且繪圖的AI還需要語言模型輔助,以"理解"抽象概念。抽象概念將調整3D構型的體態動作、位置關係等,藉此表達出圖像想要傳遞的訊息。
虽然一些知识点不完全看懂或想通,但还是感受到了作者的用心和真诚。这是人类的判断,不是AI的判断。 😂😂
漫士真的很棒,很喜歡您的作品
天哪,这是我目前见过讲的最通俗易懂但不肤浅且逻辑清晰没有废话的
推荐3blue1brown
我好像看到宇宙大爆炸的那一刻😂時光倒流成了
为您的作品点赞,认真看了2遍。
感谢博主分享得干货! 各种高端资源见主页见人付 - -
太強了,這解釋都可以直接出書了
真的要給漫士一個大大的respect 感謝
感謝您,很棒的內容!
罐子老師的書法教室
教育學博士路過,感謝分享
老兄我本來以為你來裝的,看了一半
點讚訂閱了
加油!
謝謝你的用心
最近才發現這個頻道 第一次看到就很喜歡主播的表達方式
太精彩了 🎉
Very Good! I have learned a lot about AI.
太喜欢了,谢谢
決定用這條影片温習考試
还要看一遍,respect
你好漫士 想請問一下人工智能參數的數量是固定的還是大模型會自行創建的呢🤔能夠擬合特徵和調整參數 是不是也能自行發現新規律建造新的參數和對應連結🤔🤔
可以計算六合彩吗?
精彩,细致。点赞!!!
太猛了!看完讓我回想起當年對機器學習印象了
很慶幸我會中文 才能看懂這麼好的資源
這提醒了在美國養小孩一定要教中文
专业的人讲故事。真是专业
厉害!把我大学学的函数理解推向新高度👍
一文懂💯
1:16:20 既然图片可以通过随机噪点逆向运动, 变成一张图片. 那么大语言模型能否根据一个句号/一个空格/一个换行, 来反向生成完整的一段话呢?
原來我們早已擁有 只不過如何複製 用什麼複製自己。
太狠了,想說最近沒更大概趕計畫,結果來個大的= =
请问,空间智能可以帮助大模型跨越虚拟与现实吗?(我问的很不专业)😳🧐
深入淺出👏🏻
九浅一深,强
兄弟 你这个视频太NB了 收藏仔细看!❤
太棒了!这科普视频!
请问, AI能炒股炒期货吗?
牛逼 理解满分
梯度下降会不会收敛到local minimal上?
讲的很清楚!
迄今看过的最好的AI科普,没有之一
优秀 好视频🎉
神经网络看了很多,各家讲的零零散散的也算是弄明白了,MS开这一节课我是相当支持的,简单易理解
我去后半发过,我说怎么视频放一半就讲完了
不就是比較精密的自動的電腦而已啊!A l就是如此!
大哥,能给个联系方式吗
还没出概率论相关的视频啊
深入浅出,通俗易懂。大家做科普就是这样的!
30:22的地方是“擬合”嗎?
其他的视频都可以下饭,只有漫士的视频我会逐字领会。
这一期值得我反反复复看上十遍。
感謝分享
如果智能是生命独有的特性,那人工智能是否可以视作一种新的生命形式?
太厲害了,辛苦了
3blue1brown?
感謝 您的深入淺出生動的說明人工智能神經網路的運作原理和發展,很讚的內容!謝謝!!
這一系列影片實在很讚,可惜之前提到的量變造成質變的湧現,是在上次介紹完chat gpt後,說要出的,但這個合集沒出來,蠻想看那段的介紹的。
但這合集內關於Sora那段,我看一次大概只能懂一半,所以有再往回看一下,還是覺得這真是一個厲害的理論。
@@artjio 湧現出了,看水結冰那一期
@@manshi_math 感謝UP主,因為今天才接觸到這頻道,看完gpt跟這影片,沒注意到那個水結冰。
为什么不能刚好生成20个字😢
首先感谢作者做这么好的视频,不过有几个问题,一是感觉这个视频是几个视频的拼接,中间过渡有点跳跃;有些概念在提及的时候,没有具体解释,比如什么是深度学习,语言模型中的 token是什么,既然之前都说了神经网络,那么不说一下为什么需要 token 就有点不合理?第二就是不要下太武断的结论,比如有可能你做视频的时候用的是GPT4,但是后面o1已经出来了,推理能力大幅提升,那么o1就有可能解决你之前觉得不太可能解决,或者解决的不好的问题,毕竟目前AI进化的太快了。总之还是感谢,加油。
如果拿这套程序运算六合彩会得出结果吗?不可能,因为变量不够。即使有全部彩票历史数据仍然推导不出即将出现的数字。
彩票是随机数据的,对于没有模式的数据, 这个会越训练越发散,没有用的。
推推
38:36 我有一個關鍵的問題沒明白 - 用梯度下降的方法,我只能知道左邊或右邊下一個斜率最低的地方在哪裡,但k1這個旋鈕是可以無窮大的,我雖然找到了向左或向右的下一個底部在哪,但我應該完全沒有信心這個到底是不是整個旋鈕中最底部的位置啊?情況就像我坐過山車,我俯衝到底部,我開始向上回升了,但我永遠不知道下一個底部會不會比我現在這個底部更低
你這是起始值問題?對的只能找到局部最低😅!
也許可各批量訓練找各批量局部最低當起始值,再全批量訓練看趨近那個局部最低。但這樣也只是有可能找到全域最低而已😮💨!
就正確性來說,只要最後輸出正確,區域最低或全域最低有差嗎😜?若輸出不正確誤差太大,代表跳不出區域最低,就打掉重練😵💫!
你说的很对。两种办法 把多个人扔到不同的地区,然后让他们独立去找,然后再把他们的结果互相比较,看谁找到最低的点。 另外一个是找到 一个最低点后,故意加上很大的漂移,继续再迭代降低,看是不是还落在这里。局部最优是无解的,除非你拥有全部的数据 而这是不可能的。现实中 人类也是无解的, 打个比喻,把你扔到广州的幼儿园里 学习粤语,你觉得你训练的无敌了,但你到广州的监狱上 就发现还有很多你不知道的,丢你楼母,😅😅 所以一般来说 调整调整 看后续效果好 就搞定了。这不是一个数学问题,所以不必严谨求真,够用,超越人类,就很完美了。
好奇Minsky那么聪明绝顶的人怎么可能没有想到过MLP可以轻而易举的解决异或门问题呢?
能夠興致勃勃的看完這約90分鐘影片的,大概就是我們這些理工男了。往往在媒體上和現實生活中暢聊AI 發展滿口人工智能的人們,我覺得大部分是不會花時間理解y=f(x).... 這是啥東西的,請幫理工男請加入說故事能力函數 ,大家一起加油。
加油,期待出新作品,不是更好的作品,现在这个水平已经可以了。就是希望能快速给粉丝一些新的内容
为那段 functions 视频留言😁
中間用了3blue1brown的影片
开源的工具
看到过的AI科普最优秀的一个视频
好耶😮
很感兴趣但怕上当
有看过的给个评价啊
拜托!
我上学的时候教授要是一开始这么讲,早应该学会了吧
難怪pilot生成出來的圖片都差不多感覺
全部看完 真的有料
是不是说,只要算力无限大,他的能力就无限大呢
看完后,自己變成AI。能夠說出專有名詞,梯度下降,back propagation,stable diffusion。。。, 但又不理解固中的邏輯,規律。 我要看多數萬個相關視頻,進行深度學習。
就想知道这样的一帧一帧的动画是咋做的???
AI做的
不知道你指的是哪个?大部分应该是ppt,中间神经网络那部分用了3blue1browm的视频片段
@@user-djelwJsskI8964 谢谢,具体方法如何做出来的
如果解构人类大脑各神经节的功能,然后再用一个神经网络模拟一个神经节功能,当把所有神经节都模拟后再连接在一起,会不会达到人脑的水平?🤔
膜拜,不愧是清華博士,牛逼