【生成式AI導論 2024】第1講:生成式AI是什麼?

แชร์
ฝัง

ความคิดเห็น • 154

  • @susuky3832
    @susuky3832 9 หลายเดือนก่อน +82

    生成式人工智慧 (Generative AI) 課程重點筆記
    1. 人工智慧 (AI) 概念
    - 沒有標準定義,每個人對智慧的想像不同
    - AI 是一個目標,而非單一技術
    2. 生成式人工智慧 (Generative AI)
    - 定義:讓機器產生複雜且有結構的物件,如文章、影像、語音等
    - 核心挑戰:從無窮可能性中生成適當的組合
    - 與分類問題的區別:分類從有限選項中選擇,生成則無限可能
    3. 機器學習 (Machine Learning)
    - 定義:讓機器從資料中找出函式 (模型)
    - 模型:含大量參數的函式
    - 訓練 (Training):找出模型參數的過程
    - 測試 (Testing/Inference):將新輸入帶入模型,觀察輸出
    4. 深度學習 (Deep Learning)
    - 使用類神經網路 (Neural Network) 來描述模型
    - 深度學習是機器學習的一種
    5. 生成式 AI 與機器學習的關係
    - 生成式 AI 可以使用機器學習/深度學習技術來解決
    - 但機器學習也可以解決其他問題,如分類
    6. ChatGPT 與文字接龍
    - 核心概念:文字接龍 (Auto-Regressive Generation)
    - 將生成任務拆解為一系列文字接龍問題
    - 使用語言模型 (Language Model) 來預測下一個字
    7. 生成策略的多樣性
    - 生成不僅限於文字,也可應用於影像等其他物件
    - 不同的生成策略,如像素接龍、自回歸生成 (Auto-Regressive Generation) 等
    8. 生成式 AI 的歷史與發展
    - 早期應用:Google 翻譯 (2006 年)
    - 近年突然爆紅的原因將在後續課程探討
    9. 進一步學習資源
    - 講師個人 TH-cam 頻道:介紹大型語言模型 (GPT) 的打造過程

    • @zixianzhao5832
      @zixianzhao5832 6 หลายเดือนก่อน

      谢谢你,课代表

    • @yanzhang-ci1ze
      @yanzhang-ci1ze 6 หลายเดือนก่อน

      thanks a lot ur great summary

    • @巴貝里奇
      @巴貝里奇 11 วันที่ผ่านมา

      助教謝謝

  • @sailize
    @sailize 10 หลายเดือนก่อน +85

    太讚了,感謝老師無私分享一流的教學資源

  • @ching-yichen2858
    @ching-yichen2858 10 หลายเดือนก่อน +98

    老師是華文世界最重要也是教學最豐富精彩的AI教育推動者

    • @limlim4251
      @limlim4251 9 หลายเดือนก่อน

      大家努力让世界容易学习国际语言的简体中文普通话》 另外世界各地学校学习国际语言的中文在很久以前就聪明的跟上中华简体中文了。全面简体中文方便子子孙孙,方便世界。可怜香港和台湾地区还复杂旧体难学的繁体,唤醒群众不需要一直复杂旧体繁体的!全面觉醒自信跟上国际语言的中华简体中文趋势。台湾地区、香港加油!

    • @sunmoon6969
      @sunmoon6969 3 หลายเดือนก่อน +5

      @@limlim4251 沒甚麼文化內涵的簡體,就安靜一邊就好,沒必要自曝其短。

  • @janchangchou777
    @janchangchou777 10 หลายเดือนก่อน +45

    任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….)。以便對一些事件做出精准智能的預測。所謂自我學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的參數而已。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
    近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些理論早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
    另外, 眼下AI 服務非專業大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組, 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
    其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 搞編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
    只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
    此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
    而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
    另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
    其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
    其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
    因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
    但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
    未來可能的發展模式:
    1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
    有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
    2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦參與分散型算力的提供,並予以整合,這也是需由資訊及硬體工程來實現的。

    • @josephtsai931
      @josephtsai931 10 หลายเดือนก่อน

      Thanks for providing the real background of GPT. Your suggestion for future development of AI application is the right way to follow.

    • @VincentLee747
      @VincentLee747 10 หลายเดือนก่อน +1

      回到最開始的基本問題:何謂智慧? 我們真的是在往發展智慧的正確道路上?還是現在的所有技術其實都不會通往智慧?只是另一個回答範圍更廣的程式?

    • @janchangchou777
      @janchangchou777 10 หลายเดือนก่อน

      @@VincentLee747 Part 2):
      另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
      其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
      其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
      因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
      但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
      其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。
      這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。
      譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。
      a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?!
      b)人類智慧的誤失率基本都趨近於零。
      任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。
      殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。
      人工智慧的誤失率16% 要成長到 人類知慧的0% 誤失率,給其500 年都難以達到。
      另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
      GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。
      未來可能的發展模式:
      1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
      有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
      2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。

    • @robbiexwin3898
      @robbiexwin3898 9 หลายเดือนก่อน

      厉害!思路非常清晰

    • @fcvh6741
      @fcvh6741 9 หลายเดือนก่อน +1

      給讚後,再給您一個鑽! 影片的講師應該由您再出一集更佳。

  • @31618doremi
    @31618doremi 9 หลายเดือนก่อน +14

    從來沒想過學習可以這樣上癮,謝謝老師帶來這麼優質的教學,真的是聽君一席話,勝讀十年書

    • @limlim4251
      @limlim4251 9 หลายเดือนก่อน +1

      大家努力让世界容易学习国际语言的简体中文普通话》 另外世界各地学校学习国际语言的中文在很久以前就聪明的跟上中华简体中文了。全面简体中文方便子子孙孙,方便世界。可怜香港和台湾地区还复杂旧体难学的繁体,唤醒群众不需要一直复杂旧体繁体的!全面觉醒自信跟上国际语言的中华简体中文趋势。台湾地区、香港加油!

    • @yuan0
      @yuan0 9 หลายเดือนก่อน

      如果你有基礎,看書會快的多

  • @dipper4684
    @dipper4684 10 หลายเดือนก่อน +8

    謝謝老師讓學店的我也享受一流教育,我想有教無類僅只於此

  • @hankdonald7812
    @hankdonald7812 9 หลายเดือนก่อน +6

    0:01 什么是人工智能Artifucial Intelligence
    2:02 什么是生成式人工智能 Generative Artificial intelligence
    6:41 什么是机器学习Machine Learning
    10:21 什么是模型
    12:46 类神经网络Neural Network和深度学习Deep Learning
    13:51 人工智能,生成式人工智能,机器学习,深度学习的关系图
    15:22 chatGPT是一个按照机器学习打造出来的函数
    17:00 AI画图也是一个按照机器学习打造出来的函数
    19:13 生成式人工智能需要能够产生在训练时从来没有看过的东西,因为我们给模型输入的训练资料总是有限的,而使用者的测试是无限的。
    21:06 chatGPT是用文字接龙的方式,来生成出来自己从未见到过的文字
    24:36 生成式人工智能有不同的生成策略,利用文字接龙原理来生成输出内容的大语言模型只是其中之一
    26:19 生成式人工智能不是今天才有的。Google翻译就是生成式人工智能的一个应用。

    • @auxzine
      @auxzine 20 วันที่ผ่านมา

      感谢您❤

  • @xiaoyanlu8268
    @xiaoyanlu8268 10 หลายเดือนก่อน +4

    非常感谢老师的无私付出,谢谢您和您的团队制作高质量的人工智能的课程

  • @jun.w_
    @jun.w_ 9 หลายเดือนก่อน +2

    老師上課真的很讓人想了解、想聽下去
    不知不覺就吸收知識了
    好高興可以看到老師的頻道!

    • @limlim4251
      @limlim4251 9 หลายเดือนก่อน

      大家努力让世界容易学习国际语言的简体中文普通话》 另外世界各地学校学习国际语言的中文在很久以前就聪明的跟上中华简体中文了。全面简体中文方便子子孙孙,方便世界。可怜香港和台湾地区还复杂旧体难学的繁体,唤醒群众不需要一直复杂旧体繁体的!全面觉醒自信跟上国际语言的中华简体中文趋势。台湾地区加油!

  • @MrYkkwei
    @MrYkkwei 10 หลายเดือนก่อน +5

    非常謝謝老師,雖然我不是選修生但是透過您的分享讓我更清楚的了解甚麼是生成式AI

  • @ericyangtw1003
    @ericyangtw1003 10 หลายเดือนก่อน +5

    謝謝老師的課程!

  • @ziligao7594
    @ziligao7594 10 หลายเดือนก่อน +44

    华语AI教育第一人!了不起!传道授业解惑!

  • @matrisys
    @matrisys 10 หลายเดือนก่อน +8

    等好久,教授又開課了,真開心.

  • @LinBond
    @LinBond 10 หลายเดือนก่อน +10

    感謝老師, 讓業界想學習的人有好的來源!

  • @mengyuge3369
    @mengyuge3369 10 หลายเดือนก่อน +11

    李老师,看到您更新视频我真的太高兴了,在学校的时候刷完了您的课程,我去年毕业了,但是看到您开课了我还是会来全部听完

  • @jimmyguan6530
    @jimmyguan6530 10 หลายเดือนก่อน +2

    深入浅出,易学易懂。

  • @吴永峰-t8j
    @吴永峰-t8j 23 วันที่ผ่านมา +1

    老师讲得太好了!高人

  • @GenerativeDiffusionModel_AI_ML
    @GenerativeDiffusionModel_AI_ML 9 หลายเดือนก่อน

    Lee教授出品,必属精品!

  • @賴意繡
    @賴意繡 10 หลายเดือนก่อน +2

    感恩不盡,願意分享上課內容,謝謝老師.

  • @蔣哿樂
    @蔣哿樂 8 หลายเดือนก่อน +1

    講得很清楚,聽得很過癮

  • @鮮師
    @鮮師 9 หลายเดือนก่อน +1

    感謝,受益匪淺

  • @BQ_Nya
    @BQ_Nya 10 หลายเดือนก่อน +4

    好期待下一堂課

  • @chanyuan-cv4op
    @chanyuan-cv4op 10 หลายเดือนก่อน +1

    感谢老师,我是你的催更人

  • @LM-yh4ys
    @LM-yh4ys 10 หลายเดือนก่อน +1

    感謝老師分享

  • @zengjixiang
    @zengjixiang 10 หลายเดือนก่อน +2

    期待下一堂課!

  • @ADWSSS
    @ADWSSS 10 หลายเดือนก่อน +1

    感謝大大讚嘆大大

  • @Ts2pc
    @Ts2pc 7 หลายเดือนก่อน

    清晰明白,很會教

  • @KRISHNNAMURTHI1
    @KRISHNNAMURTHI1 4 หลายเดือนก่อน +1

    老师太厉害了 !!!!

  • @amiru6
    @amiru6 10 หลายเดือนก่อน +1

    謝謝老師

  • @李方正-x4q
    @李方正-x4q 10 หลายเดือนก่อน +1

    感谢李老师!!

  • @陸皓邦
    @陸皓邦 10 หลายเดือนก่อน +5

    感謝老師的課程🙏🏻

  • @杜琪-l6o
    @杜琪-l6o 10 หลายเดือนก่อน

    感谢老师分享,有收获

  • @shanshan20082009
    @shanshan20082009 10 หลายเดือนก่อน +1

    期待

  • @zenios-br9en
    @zenios-br9en 7 หลายเดือนก่อน

    感谢李宏毅老师!

  • @JaaShawGun
    @JaaShawGun 3 หลายเดือนก่อน

    哇,好智慧哦,鼓掌!

  • @SyuAsyou
    @SyuAsyou 10 หลายเดือนก่อน

    超讚的課程!期待下一講的內容!

  • @weiyu1152
    @weiyu1152 9 หลายเดือนก่อน

    谢谢老师

  • @coco8024
    @coco8024 7 หลายเดือนก่อน

    感謝老師!(說幾次都不為過)

  • @wayne500000w
    @wayne500000w 10 หลายเดือนก่อน

    期待下一堂課!

  • @titane.w
    @titane.w 10 หลายเดือนก่อน

    感谢老师🎉

  • @LIUJIA-j3o
    @LIUJIA-j3o 10 หลายเดือนก่อน

    受教了,感谢老师

  • @陳楷翔-i6s
    @陳楷翔-i6s 10 หลายเดือนก่อน +1

    10:46定義本堂課模型
    12:02機器學習

  • @user-qe2ze9xm3j
    @user-qe2ze9xm3j 8 หลายเดือนก่อน

    超讚!!!!!!!!!!!!!!!!!

  • @janchangchou777
    @janchangchou777 10 หลายเดือนก่อน +1

    Part 1):
    任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
    所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
    而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
    40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
    在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
    近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
    因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
    ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
    何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
    目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
    人類有許多其他不同型態非常複雜的知慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
    另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
    其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
    只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
    此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
    而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。

    • @吳傑名
      @吳傑名 10 หลายเดือนก่อน

      「類神經網路」做不到「即時通用適應」,亦即基於此來建構的模型,永不可達到「ASI」或「真正的AGI」。就當前個人所知,地球知名主流的(表示或許不含非這些屬性的)「AI/CIC/ANI」(不只含ML)演算法和模型,於分類(「理解」)並生成(「創造」)上,即使可虛構也可合(…)因果(…)或(…)規律(…)(進而可呈現預測--含會且可「創造」的),但是,沒(能?)做到「即時通用適應」(且不需要調設激勵、調整超參數,只需預設…來如其天賦、天生的傾向;演算法必須符合「真、知、穩」、「神經性之形式和自然暨社會之科學」;變數為主),只(能?)做到「預訓練泛用適應」;關鍵原因在於其採用「類神經網路」(非線性函式/函數群程序組合),為了找差異或變化而設了太多分類的方法/條件,使層數越多越易過適/過擬合(且以非變數/變量為主),因此並為了易有各級關係/形式(含感知、規律/模式等)特徵(相同或重複的差異或變化)而省略/簡略化(不同於簡化之分類)參數/弱化參數值、累積多種誤差,導致專用化;何況還不願(或許含不敢)設「通用目標」讓「AI/CIC」「自主」來減少智人種的失誤(含遺忘)或欺瞞的影響、干擾(至於,「表淺意識」、「自我認知」,…前者有關模擬輸出之即時回饋,後者有關輸出之即時回饋,皆有助「元認知/後設認知」、學習)。顯然,當下有關「AI/CIC」/ML研發的臺灣之產官學研單位,不會跟…合作研發(可無償改善全世界的)「ASI」模型實體(且有「時空感、質能感」,可、呈現…因果…與…蘊含…關係的),但這些單位也讓缺乏一般規格硬體和少量資料及某些韌體、感測、通信、控制等技術之資源的…不放心。

  • @morikuniminamoto8573
    @morikuniminamoto8573 10 หลายเดือนก่อน

    文字接龍挺有意思的 我之前從沒思考過這樣的問題

  • @Terry0319
    @Terry0319 10 หลายเดือนก่อน

    謝謝老師

  • @kunhongyu5053
    @kunhongyu5053 10 หลายเดือนก่อน

    终于开了,等了好久

  • @jdyu1987
    @jdyu1987 10 หลายเดือนก่อน

    好棒
    謝謝老師❤

  • @sawakun
    @sawakun 10 หลายเดือนก่อน

    感谢🙏

  • @xaviertsai4063
    @xaviertsai4063 10 หลายเดือนก่อน

    上課啦~

  • @siuandy520
    @siuandy520 7 หลายเดือนก่อน

    不好意思,想虛心請教各位一個問題
    在影片的06:03中提到「機器從有限的選項中做選擇就不是生成式人工智慧」
    但在24:05中的「文字接龍」提到「常用字是有限的,機器回到從有限的答案中選出答案的問題」
    那到底最後Chatgpt是不是生成式AI呢?
    我是一個初學者,覺得老師說得非常易懂,只是在這個地方有個小困惑,謝謝大家。

    • @siuandy520
      @siuandy520 7 หลายเดือนก่อน +2

      我在第8講的12:10好像找到了答案了

  • @jack1796
    @jack1796 10 หลายเดือนก่อน

    讲得实在是太好了啊,感动到都饿了,赶紧吃个夜宵先

  • @showmin7463
    @showmin7463 9 หลายเดือนก่อน

    24:30 是無窮無盡唷

  • @mingminglearntech
    @mingminglearntech 10 หลายเดือนก่อน +2

    我就問這是免費能看的嗎?QAQ 感謝老師無私的分享,還有超強的生活情境案例,讓原本艱深的用字可以讓非本科生理解,身為小學老師透過了解背景才不會單純的停留在用,尤其是像我們必須要跟學生說明使用AI需要注意的地方時,在應用於教學現場時更能知道如何拿捏跟引導學生正確的方式。By從0講開始入坑的女子。

  • @jeffzzz7850
    @jeffzzz7850 9 หลายเดือนก่อน

    11:00 模型:带有大量未知参数的函数

  • @fangyizhou456
    @fangyizhou456 9 หลายเดือนก่อน

    老師明年 會講强化學習的 Decision Transformer麽?

  • @kiracao5825
    @kiracao5825 10 หลายเดือนก่อน

    老师,一直追踪你的课程,能不能也开凸优化和随机过程这两门课,万分感谢

  • @RayZhang-h4l
    @RayZhang-h4l 6 หลายเดือนก่อน

    谢谢李宏毅老师的分享!
    这里顺便提一个问题:如果说文章与图像的复杂度是无限的,有限复杂度的典型例子是分类问题。那么输出为一个实数的回归问题(regression problem)是否也可以定义为一个“复杂的问题”?

  • @wanghahahaha
    @wanghahahaha 7 หลายเดือนก่อน

    感谢老师,也希望有生之年能看到猎人完结

  • @palapapa0201
    @palapapa0201 10 หลายเดือนก่อน +3

    這是可以免費看的嗎

  • @陳昱均-g5d
    @陳昱均-g5d 8 หลายเดือนก่อน

    請問文字接龍如何能創造新的笑話

  • @譚富銘-f1j
    @譚富銘-f1j 10 หลายเดือนก่อน +3

    1:17 電腦要會選土豆出處:
    th-cam.com/video/-W3pnicVgn0/w-d-xo.htmlsi=5ISQ83pNvgXg8vOa

  • @elvis1322
    @elvis1322 10 หลายเดือนก่อน +1

    期待老師的另外兩學分比較技術的課程

  • @uartim
    @uartim 10 หลายเดือนก่อน

    yo. 原來有新課程

  • @huph-j2f
    @huph-j2f 10 หลายเดือนก่อน +36

    多一点李老师这样化繁为简的老师多好,少一点骗麻瓜的内容科技进步才会更快

    • @jeffkevin3
      @jeffkevin3 9 หลายเดือนก่อน +1

      老師講得真的很好
      但蠻讓人好奇什麼叫騙麻瓜? 🤔 會不會是您對他們的解讀有偏誤了? 😅

    • @YetEthanOnly
      @YetEthanOnly 9 หลายเดือนก่อน

      媒體不騙麻瓜,股票怎麼奔漲😂

  • @jeffzzz7850
    @jeffzzz7850 9 หลายเดือนก่อน

    2:02 人工智慧是一个目标

  • @JackieTian_Hiroki
    @JackieTian_Hiroki 9 หลายเดือนก่อน +1

    請問如果想學深度學習的話是看李老師之前的課還是看今年這個新課程就可以

    • @HungyiLeeNTU
      @HungyiLeeNTU  9 หลายเดือนก่อน +2

      如果想要了解深度學習的技術,那推薦從 2021 的機器學習開始看起:th-cam.com/play/PLJV_el3uVTsMhtt7_Y6sgTHGHp1Vb2P2J.html&si=RuOY5pqRQTXbtvOY

    • @JackieTian_Hiroki
      @JackieTian_Hiroki 9 หลายเดือนก่อน

      @@HungyiLeeNTU好的好的謝謝老師

  • @hesterchou
    @hesterchou 7 หลายเดือนก่อน

    老師的聲音很有活力,是機器人說的嗎?😂

  • @mixshare
    @mixshare 10 หลายเดือนก่อน

    🎉🎉🎉

  • @JamesBond-uv2zi
    @JamesBond-uv2zi หลายเดือนก่อน

    請問 老師提到:"找出參數以後,給函式新的圖片看看它會輸出什麼,這件事情叫做測試或又叫做推論"。 在我的認知裡,雖然對機器來說做的事情一樣,但是測試應該是在驗證或評估時的用語,而一般使用時叫做推論。老師的說法讓我混淆了,有人能解釋嗎?

  • @annehsueh3471
    @annehsueh3471 4 หลายเดือนก่อน +1

    電腦也會選土豆這梗也太老太親切!!🤣🤣

  • @stan-kk2sf
    @stan-kk2sf 10 หลายเดือนก่อน

    老师,想听世界模型,什么是世界模型,世界模型和生成式AI的关系
    这个课程会讲到吗?

  • @BaccaratKingmaker
    @BaccaratKingmaker 10 หลายเดือนก่อน +1

    NVIDIA ❤❤❤

  • @xygen9527
    @xygen9527 10 หลายเดือนก่อน

    3:11 應是學測

  • @KexinLiu-t6z
    @KexinLiu-t6z 10 หลายเดือนก่อน

    请问哪里可以看到作业:真假难辨的世界?

  • @willy7703
    @willy7703 10 หลายเดือนก่อน

    這是現場嗎? 禮拜六上課喔@@!?

  • @wuhaipeng
    @wuhaipeng 10 หลายเดือนก่อน

    Machine learning is a process that changes the machine state from non-intelligent to intelligent.

  • @meng9359
    @meng9359 10 หลายเดือนก่อน +1

    感谢分享!能否考虑对常用概念,辅以英文名?便于更广范的文献索引。先谢了🙏

  • @smalltownartist-y5z
    @smalltownartist-y5z 10 หลายเดือนก่อน

    請問老師在之後的課程中會講到diffusion模型嗎?

    • @HungyiLeeNTU
      @HungyiLeeNTU  10 หลายเดือนก่อน +1

      之前已經有講過一個比較深入的版本,這學期也還會再講
      th-cam.com/video/ifCDXFdeaaM/w-d-xo.htmlsi=r602tK5wLXSrCU0g

  • @petervsjim
    @petervsjim 10 หลายเดือนก่อน

    暴雷一時爽 一直暴雷一直爽

  • @陳英義-b4y
    @陳英義-b4y 9 หลายเดือนก่อน

    確實能做到的才是智慧,不能做到的只是知識而已

  • @pandapunchzz
    @pandapunchzz 10 หลายเดือนก่อน

    从第一节课开始跟

  • @moliwu1359
    @moliwu1359 10 หลายเดือนก่อน

    這門課是一次上兩堂吧,怎麼只有上傳一堂的內容😢

  • @edfjh-m5w
    @edfjh-m5w 4 หลายเดือนก่อน

    Astra Al为什么会诞生

  • @吳傑名
    @吳傑名 10 หลายเดือนก่อน

    類神經網路做不到即時通用適應,亦即基於此來建構的模型,永不可達到「ASI」或「真正的AGI」。就當前個人所知,地球知名主流的(表示或許不含非這些屬性的)「AI」(不只含ML)演算法和模型,於分類(「理解」)並生成(「創造」)上,即使可虛構也可合(…)因果(…)或(…)規律(…)(進而可呈現預測--含會且可「創造」的),但是,沒(能?)做到「即時通用適應」(且不需要調設激勵、調整超參數,只需預設…來如其天賦、天生的傾向;演算法必須符合「真、知、穩」、「神經性之形式和自然暨社會之科學」),只(能?)做到「預訓練泛用適應」;關鍵原因在於其採用「類神經網路」(非線性函式/函數群程序組合),為了找差異或變化而設了太多分類的方法/條件,使層數越多越易過適/過擬合,因此並為了易有各級關係/形式(含感知、規律/模式等)特徵(相同或重複的差異或變化)而省略/簡略化(不同於簡化之分類)參數/弱化參數值、累積多種誤差,導致專用化;何況還不願(或許含不敢)設「通用目標」讓「AI」「自主」來減少智人種的失誤(含遺忘)或欺瞞的影響、干擾(至於,「表淺意識」、「自我認知」,…前者有關模擬輸出之即時回饋,後者有關輸出之即時回饋,皆有助「元認知/後設認知」、學習)。顯然,當下有關「AI」/ML研發的臺灣之產官學研單位,不會跟…合作研發(可無償改善全世界的)「ASI」模型實體(且有「時空感、質能感」,可、呈現…因果…與…蘊含…關係的),但這些單位也讓缺乏一般規格硬體和資料及某些韌體、感測、通信、控制等技術之資源的…不放心。

    • @吳傑名
      @吳傑名 10 หลายเดือนก่อน

      「類神經網路」做不到「即時通用適應」,亦即基於此來建構的模型,永不可達到「ASI」或「真正的AGI」。就當前個人所知,地球知名主流的(表示或許不含非這些屬性的)「AI/CIC/ANI」(不只含ML)演算法和模型,於分類(「理解」)並生成(「創造」)上,即使可虛構也可合(…)因果(…)或(…)規律(…)(進而可呈現預測--含會且可「創造」的),但是,沒(能?)做到「即時通用適應」(且不需要調設激勵、調整超參數,只需預設…來如其天賦、天生的傾向;演算法必須符合「真、知、穩」、「神經性之形式和自然暨社會之科學」;變數為主),只(能?)做到「預訓練泛用適應」;關鍵原因在於其採用「類神經網路」(非線性函式/函數群程序組合),為了找差異或變化而設了太多分類的方法/條件,使層數越多越易過適/過擬合(且以非變數/變量為主),因此並為了易有各級關係/形式(含感知、規律/模式等)特徵(相同或重複的差異或變化)而省略/簡略化(不同於簡化之分類)參數/弱化參數值、累積多種誤差,導致專用化;何況還不願(或許含不敢)設「通用目標」讓「AI/CIC」「自主」來減少智人種的失誤(含遺忘)或欺瞞的影響、干擾(至於,「表淺意識」、「自我認知」,…前者有關模擬輸出之即時回饋,後者有關輸出之即時回饋,皆有助「元認知/後設認知」、學習、數學和語言之學習和創造/發展)。顯然,當下有關「AI/CIC」/ML研發的臺灣之產官學研單位,不會跟…合作研發(可無償改善全世界的)「ASI」模型實體(且有「時空感、質能感」,可、呈現…因果…與…蘊含…關係的),但這些單位也讓缺乏一般規格硬體和少量資料及某些韌體、感測、通信、控制等技術之資源的…不放心。

  • @lizhao6979
    @lizhao6979 6 หลายเดือนก่อน

    當下來說,生成式智慧可能是人的腦迴路有一百條,人工智能有第一百零一條,他大腦裡面的資源和邏輯方式比個體人類多一點。

  • @CornuDev
    @CornuDev 10 หลายเดือนก่อน

  • @janchangchou777
    @janchangchou777 23 วันที่ผ่านมา

    Part 4)
    許多專業領域的AI 很早就開始做了,而且做的很好很成功。 目前台面上的AI , 是指生成式AI( 時間序列高度相關的), 這是兩碼事。
    AI 別隨著美國起舞,無論方法上及方向上,目前台面上這些以資工leading 生成式AI 的美國AI 發展已完全走偏撞大牆了。
    目前以資工leading 生成式AI , 這群碼農也太批蛋了。
    1) 利用40年前已完善的數理統計( 㢠歸分析及時間序列高度相關變數的自迥歸分析。 ) 2) 包裝𠆤高大上的類人類神經網路的偷盜慨念。3) 藉由半導體科技的算力。
    完全沒有任何創新的欺世盜名妥妥的碼農( 程序員)居然能拿諾貝尔物理奬。
    物理學家/ 數學家您們睡著了嗎?!居然能容忍這等離譜偷盜者的獲奬。
    另外我以前一些同學,現仍在美國Google 參與相關大模型工作,拈他們告知我的小道未經證實的消息。
    1) Google 在這方面付了大筆的學費。
    2) Google 養了全世界各產業領域的頂流專家, 特別是語言學家,參與相關建模。
    3) OPen AI 及近期獲諾奬的加拿大教授, 這師徒們,從Google 弄走了不少錢。 最後Google 看穿了,不得不將Open AI 這些人從Google 割出去。
    而李非非近期也搞𠆤digital cousin 數字表親, 根本就是小樣品摸擬實驗:
    這也不是什麼新方法和新手段。 在數理統計中40 年前早就有的手段。
    這些碼農一而再再而三的把數理統計的成熟手段,拿來搞什麼AI 新技術。並給𠆤新名詞進而宣稱是創新,太扯蛋了!
    我在40 年前的博士論文就是在
    針對小様品試驗進行電腦模擬試驗。如核爆/ 飛機失事等等,在現實情況下很多領域只能取得非常有限的小様品數據,因此針對這些小樣品試驗我們就會引入模擬試驗的手段和方法, 並進而利用這些電腦模擬數據,最終做出穩定可靠的預測模型。
    nature 有關AI 近期訊息:
    th-cam.com/video/kp6eiyRBFlM/w-d-xo.htmlsi=2sKWhTVx3qecNvJ4
    這𠆤問題很容易理解。
    當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。
    而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。
    也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。
    因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。
    th-cam.com/video/vG013hWAZwc/w-d-xo.htmlsi=NDA12ZYY4hCIg_C5
    th-cam.com/video/XffDExSYIOA/w-d-xo.htmlsi=4OZ7WUrlQRCcw-KP
    AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。
    這就是我早就預見
    如果由算力或資訊工程來主導AI ,外行領導內行,將會走的很偏很快撞牆
    再看看這一報導,今天的結果,在我今年(2024 )初的part 1) 2) 3) , 先前的論述中都精準的表達過。
    th-cam.com/video/ojndlMzGZZk/w-d-xo.htmlsi=wuEqsPUOzxuPrcRR
    目前(2024-10 月)生成式大模型 AI 的發展基本撞牆了。 由 資工主導的必然性- 泡沫化, 已確定了。 因為以上三份報告都是非常權威的。
    再看看這份報告:弄出人命了!
    陪聊AI 沒有心理咨詢醫生做專業恊助/ 溝通/ 警示/ 防範等等, 由碼農直接單幹,太多的心理專業知識手段應對都沒有投入,是造成這事件背後的主因!
    th-cam.com/video/yNZsC7zvTgw/w-d-xo.htmlsi=_RK7ZM6Xaa_oQn7E
    這就是我在個人相關分享中 part 3) 談及的;
    AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。
    譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。
    更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。
    任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!
    建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。
    再看看下面報導:
    th-cam.com/video/TRxYKidqY8E/w-d-xo.htmlsi=ukFmC8XGPa17d6It
    th-cam.com/video/mXlaAto1qx0/w-d-xo.htmlsi=B_gy3Uq8JXOM2NF8
    th-cam.com/video/uPZ-eyDyo4A/w-d-xo.htmlsi=AL1EkqW7uM1EhpQh
    AGI 基本就是建立一套從千萬上億 由領域產業專家建立的專業小模型進行徵用的智能機制(藉由針對使用者一些基本需求的梳理,形成分門別類確立問題的機制)不能一昧的用大模式(發散式包攬所有)。
    其實人類的思維也是如此,先確定問題是屬於那𠆤範籌,再從我們的大腦內調出已確認範籌的相關知識及經驗進而進行各種響應。
    生成式大模型,只適用於sequences 高度相關的時間序列資料分析。 如語言文字前後字文分析,圖像點分析或是語音樂律分析等等。不可盲目外延。

    • @janchangchou777
      @janchangchou777 23 วันที่ผ่านมา

      Part 1):
      任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
      所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
      而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
      40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
      在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
      近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
      因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
      ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
      何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
      目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
      人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
      另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
      其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
      只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
      此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
      而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。

    • @janchangchou777
      @janchangchou777 23 วันที่ผ่านมา

      Part 2):
      另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
      其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段。
      ****主要在處理序列性高度相關的語言陳述序列,圖像高度相關的像素點関係以及音樂弦律的序列呈現。
      相應數理統計的手段主要是使用高度相関的時間序列分析自㢠歸建模。
      把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
      其實生成式大模型(語言/ 圖像/ 音樂等時間序列高度相關資料)所建立的預測模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計的時間序列分析為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
      因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
      但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
      其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。
      這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。
      譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。
      a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?!
      b)人類智慧的誤失率基本都趨近於零。
      任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。
      殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。
      人工智慧的誤失率16% 要成長到 人類智慧的0% 誤失率,給其500 年都難以達到。
      另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
      GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。
      未來可能的發展模式:
      1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
      有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
      2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。

    • @janchangchou777
      @janchangchou777 23 วันที่ผ่านมา

      Part 3)
      另外希能進一步說明為何這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆?
      除在Part 2) 談及眼前這些所謂台面頂流AI 專家或團隊,粘粘自喜於眼前所謂模型誤失率16% , 殊不知在很多專業領域,16% 的誤失率,那可能帶來災難( 金錢損失, 人員傷亡, 大自然破壞) ! 例如,自動駕駛,氣象預報,股票期貨買賣決策等等。即便生成式模型,其誤失也可能帶給人們直接或間接的損失或傷害。
      若不是由領域產業專家參與並主導的建模,要突破10% 誤失率,是極其困難的。
      我說𠆤故事(不是在炫耀自己的賭技),大家也就明白領域產業專家的重要性。
      我2000 年在香港公司上班, 每兩周回深圳家一趟, 每雙周末回深圳前,我會帶2 萬港幣去澳門葡京玩輪盤,每回我嬴到10 萬就走人,由珠海回深圳, 我次次去次次嬴,從沒輸過。
      這就是有專業領域人員恊助的建模,誤失率很低,回報很高(投入少收益高)。
      機率論是認為發生機率的事件是背後有些不明的隱變數,如果把這些隱變數儘可能的説明白,讓機率性的發生現象就會變得越來越小。
      簡單的說,一個銅板正反面,前十次都開正面,第十一次開正還是反,數學家據於機率論的真蒂,告訴你一定開正面。因為從前十次已看出存在開出正面的未知隱變量。但一般人仍會認為正反各一半機率,甚至有人會錯誤認為連開那麽多次正面,這次肯定會開反面。
      我玩輪盤下注前,一定會找現場的賭友看一下他們記錄卡上先前及近期是否有某𠆤特定數字常開出,若沒有,我會忍住不下注。一旦出現連續常開數字,我就立刻下注押這常開數字,以及輪盤面靠這數字左右各兩組數字,共5𠆤數字, 基本中率非常高, 可達到20% 押中率, 20% x35(賠率)/ 5( 押注數), 我每玩五次總投入是25 中一次賠35。 賺10 。 基本上2-4 小時達標10 萬港幣走人。
      1)其實在現場賭友記錄卡上先前中球的數字就是領域產業專家去掌握數據的過程。
      2) 我會解讀機率論,因此也是玩輪盤的專家。
      因此我玩輪盤,就是具專業知識參與的領域產業專家, 另外我的投注策略,就是我建的模。
      而眼前台面以算力為主導的AI專家,因為他們手上握有大量的算力籌碼,因此他們是次次都36 𠆤號碼全押, 所以次次都中, 但是每次總輸一𠆤籌碼。 這種暴力的押法, 就是沒有引入產業專家的結果。大量浪費算力在無味的押注上。基本上不是大力出奇蹟, 而是大力出爛成績。
      另外眼前生成式大模型,最大的資料來源是取自提供搜索引擎服務的大型公司的資料庫。
      而這些資料庫的data base 早已經過各行各業領域產業專家幾十年投入,進行維護梳理,並進行了多維度的數位標記。
      因此目前生成式大模型真正的主要貢獻者是,各行各業領域產業專家幾十年的投入,進行維護梳理,並進行了多維度的數位標記。
      所以缺乏產業領域專家主導,而由算力提供方來主導的AI 發展,可預見的是將會走得很偏,而且會很快撞牆!
      AI 的良性發展, 不是靠蠻力的大力出的爛成績。(把算力浪費在一些関聯性不高的變數上,不當不專業的取定變數)
      而是要靠產業專家的巧力進而形成的大力出的好成績(奇蹟)。
      Nature刊发最新研究 ,目前當紅4 大语言模型, 参数越大越不可靠! 简单任务更容易出错, 誤失率高達40%
      這𠆤問題很容易理解。
      當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。
      而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。
      也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。
      因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。
      AGI 必須建立一套專業模型徵用的智能機制。不能一昧的用大模式。
      AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。
      譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。
      更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。
      任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!
      建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。
      另外這也和在Part 2) AI 產業發展形成呼應。
      AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。
      此外,最讓人擔心的應該是產業領域專家組主導的AI 開發, 他們開發AI的效率及精度都是最高的,而且他們非常淸楚如何使用及駕馭它,也因此容易造成有心人藉此做出違法犯罪甚至傷害人類的事。
      而算力提供者主導的AI 開發,往往效率及精度都比較差,頂多只是多浪費點資源,失誤率高點,但傷害性不強。
      大家思考一下,我們該擔心AI 算力提供者弄出來的作戰機器人,還是該擔心軍方專業人士主導開發的作戰機器人?!
      特別是在敏感的專業領域,如核暴/氣象/大気動力/海洋動力/基因工程等等,我記得40 多年前,這些參與CIC(AI)建模的產業專家組人員,基本都被政府列管登記在冊。
      因此整𠆤AI 產業的發展, 政府必須義無反顧的出面建立審核/ 監管機制,這樣才能確保有序/ 健康的發展。 而眼前無序的亂象也得以解決。

  • @jimmy.studio
    @jimmy.studio 9 หลายเดือนก่อน

    字幕檔:深層式

  • @shaco6034
    @shaco6034 10 หลายเดือนก่อน

    请问我们有办法找到homework在哪里嘛?

  • @Tusitla-w
    @Tusitla-w 10 หลายเดือนก่อน

    天,您沒提,我都忘了他還沒下船...

  • @deletemadog
    @deletemadog 10 หลายเดือนก่อน

    什麼時候 "函數" 變成 "函式" 了?

    • @ShawnBrownYah
      @ShawnBrownYah 10 หลายเดือนก่อน

      台湾不是都叫函式吗

    • @nisstw
      @nisstw 10 หลายเดือนก่อน

      應該是和電腦計算機人常用 subroutine 副程“式”用久了,就稱函式了
      早期偏數值運算的程式,呼叫函數時常會傳回值,那時候還常常叫函數。

    • @nisstw
      @nisstw 10 หลายเดือนก่อน

      那時候 FORTRAN
      SUBROUTINE 和 FUNCTION 作用不同
      不過,我上次用都三十多年前了,不知道有沒有記錯

    • @showmin7463
      @showmin7463 9 หลายเดือนก่อน

      台灣兩個都有人講,函數是傳統數學用語,函式則多用在電腦科學。

  • @qzqz93372
    @qzqz93372 3 หลายเดือนก่อน

    庫拉皮卡還被拿出來鞭
    有夠慘
    看看富堅已經拖稿拖多久了😆

  • @skyhong2002
    @skyhong2002 10 หลายเดือนก่อน +1

    頭香!

  • @v6854
    @v6854 10 หลายเดือนก่อน

    Tarek 看了嗎?

  • @miku3920
    @miku3920 10 หลายเดือนก่อน

    作業好有趣,可惜不是台大學生做不了

    • @KexinLiu-t6z
      @KexinLiu-t6z 10 หลายเดือนก่อน

      请问哪里可以做作业?

    • @miku3920
      @miku3920 10 หลายเดือนก่อน

      @@KexinLiu-t6z 台大的學生網站

  • @menshinchensin1
    @menshinchensin1 10 หลายเดือนก่อน

    可見機器並不知道玉山是什麼!

  • @yin8421
    @yin8421 10 หลายเดือนก่อน

    我所知道的類神經網路最小單元就是個感知機,就像是生物的腦細胞一樣,給予足夠的信號才會向下傳遞訊息。我的認知錯了嗎?最早就是模仿生物大腦的運作原理,而想出來的,不是嗎?

  • @陳英義-b4y
    @陳英義-b4y 9 หลายเดือนก่อน

    智與慧是不同的,看看佛學中就有幾百種,慧也是很多呢?世智與佛智就差很多

  • @皇甫少華
    @皇甫少華 10 หลายเดือนก่อน

    要学3个月啊😂