I created a learnable AI using Redstone to predict my channel's traffic!

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ม.ค. 2025

ความคิดเห็น • 909

  • @fc-lc3jf
    @fc-lc3jf 3 หลายเดือนก่อน +2208

    我沒個博士畢業 我都不敢說我會玩MINECRAFT

    • @eloncheung9741
      @eloncheung9741 3 หลายเดือนก่อน +42

      我不可以讓你沒有任何評論😂

    • @郭宗穎
      @郭宗穎 3 หลายเดือนก่อน +7

    • @25283685
      @25283685 3 หลายเดือนก่อน +23

      你確定這是博士學位就會的😅

    • @kurumaer
      @kurumaer 3 หลายเดือนก่อน

      ​@@25283685
      博士也不一定會
      主要指令+紅石,可任意組合
      只要你肯花時間+設備夠好
      你能蓋一堆東西

    • @RinNamikaze
      @RinNamikaze 3 หลายเดือนก่อน +13

      這需要有外星星球居留證+當地頂尖大學的榮譽學位wwwwww

  • @kazuya1944
    @kazuya1944 3 หลายเดือนก่อน +1678

    他在試圖教會我們

    • @賴小豐
      @賴小豐 3 หลายเดือนก่อน +202

      我們在試圖理解他教的

    • @DPP30678
      @DPP30678 3 หลายเดือนก่อน +46

      @@賴小豐 我直接跪下 因為我知道如果我試著理解 我腦袋會燒掉

    • @9gai979
      @9gai979 3 หลายเดือนก่อน +7

      我們試圖用按讚的數量告訴他其實我們無法理解

    • @louie0309
      @louie0309 3 หลายเดือนก่อน +10

      @@DPP30678電腦也會

    • @AhQiangTW
      @AhQiangTW 3 หลายเดือนก่อน +8

      一看就會 一學就廢

  • @賴泳在
    @賴泳在 3 หลายเดือนก่อน +381

    好了各位,雖然要同儕評審可以,但記得這裡不是研究所,這裡只是TH-cam。在大量廢片短影音盛行的時代能有這種作品產生,已經非常難得了,可能作者的人工智慧有些缺失但希望大家能用鼓勵的方式溝通,而不是教授對研究生的那套,請記得作者沒有要發paper也沒有要寫論文也沒有要畢業,他就是努力做了一個東西讓在TH-cam的我們開心。

    • @wushr6024
      @wushr6024 2 หลายเดือนก่อน +15

      享受流量的同時本來就要接受監督 ...
      依照你的邏輯一些被炎上的影片跟本不該被炎上,那為什麼還是被炎上了?
      因為影片不管是有意還是無意,都是在進行傳播,一些錯誤的訊息跟風氣
      不進行修正或是較真,一下就被傳播開來,尤其在假訊息充斥的現在
      閱聽這本來就該保有獨立思考的能力,這不是否定影片作者的辛苦,而且正確的地方給予讚賞傳播正確的資訊,錯誤的地方給予指教避免錯誤訊息傳播
      也常看到一些影片如果發生內容錯誤,會用置頂釘選的方式更正,嚴重的錯誤甚至會下架影片重新製作,自己可以思考下為什麼,而不是覺影片開心看就好,內容正確與否並不重要

    • @81312henry
      @81312henry 2 หลายเดือนก่อน

      ​@@wushr6024我看迷因都是開心就好沒在思考的😂😂

    • @wushr6024
      @wushr6024 2 หลายเดือนก่อน +5

      @@81312henry 所以現在才一堆農場文跟假訊息,大多數人都不思考,思考的還要被說太認真 😅😅😅

    • @81312henry
      @81312henry 2 หลายเดือนก่อน +4

      @@wushr6024 是沒錯,但迷因類型還是搞笑影片很明顯你就知道是開玩笑的那種影片,我就看開心而已,不會太認真。生活一直夠多操煩的東西的,連搞笑或幽默的東西都要吹毛求疵的話,那有點太搞自己了。

    • @samurai_54799
      @samurai_54799 2 หลายเดือนก่อน

      @@wushr6024 不是 你在高潮甚麼? 樓主也說可以同儕評審 而且在遊戲裡可以做到這種程度已經是整個同類社群不到1%的人了 用鼓勵的方式溝通並沒有問題啊
      所以你喜歡你的東西一發出來就一堆 高高在上的知識份子說你做這什麼大便 那邊錯這邊錯 殊不知你只是小白 有點成果想分享一下? 你希望是這種社會風氣嗎?

  • @Eagle_Chou
    @Eagle_Chou 3 หลายเดือนก่อน +935

    謝謝你的分享,我們將把這部影片納入明年度亞洲胎教課綱

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +139

      不客氣,記得放我第一作者

    • @hudsonvan4322
      @hudsonvan4322 3 หลายเดือนก่อน +26

      看吧 果然被拿來當課綱了啦 哈哈

    • @Jhoudogdog
      @Jhoudogdog หลายเดือนก่อน +7

      肚子裡嬰兒: 我還真謝謝你啊

  • @JOHNSON-t9p
    @JOHNSON-t9p 3 หลายเดือนก่อน +668

    別人的紅石能力:蓋出人工智慧
    我的紅石能力:用連閃器丟雪球

    • @WQW-b5o
      @WQW-b5o 3 หลายเดือนก่อน +94

      而且連閃器有時還會做錯

    • @Comrade_Water
      @Comrade_Water 3 หลายเดือนก่อน +45

      我的红石能力:压力板开关铁门

    • @CocoaBean-ve8qu
      @CocoaBean-ve8qu 3 หลายเดือนก่อน +4

      @@WQW-b5o 臉對臉偵測器不就可以了

    • @淚雨-h3n
      @淚雨-h3n 3 หลายเดือนก่อน +40

      你們紅石好弱喔,我都用連閃+黏性活塞+終界燭

    • @陳柏翰-m6i
      @陳柏翰-m6i 3 หลายเดือนก่อน +15

      @@淚雨-h3n你不對勁

  • @BryceKuo-bu2sf
    @BryceKuo-bu2sf 3 หลายเดือนก่อน +499

    貼心提醒:這是Minecraft,一款讓人放鬆休閒娛樂的遊戲

    • @何元皓-p1i
      @何元皓-p1i 3 หลายเดือนก่อน +11

      子瑜打的lol也是

    • @JeffChee471
      @JeffChee471 2 หลายเดือนก่อน +3

      沙盒游戏,想做什么就做什么

    • @billycheng
      @billycheng 13 ชั่วโมงที่ผ่านมา

      研究人工智能放鬆

  • @殘睹之夢
    @殘睹之夢 3 หลายเดือนก่อน +290

    我在一個睡不著的凌晨看到了一個人在教人如何把髮際線後移的方法,我感覺我也感興趣了

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +62

      我們工程師,在夢想成為髮際線後退的人時,髮際線就已經後退了...

    • @crazy2813
      @crazy2813 3 หลายเดือนก่อน +2

      @@morning_keyboard不是工程師但是髮際線也後移了怎辦 還有機會入行嗎🤣

    • @夏雨-o1c
      @夏雨-o1c 3 หลายเดือนก่อน +1

      @@crazy2813 還有足夠的空間夠你髮際線後移,移到真的沒救時,你就可以直接剃成清朝頭了

  • @サメ大好き-j7v
    @サメ大好き-j7v 3 หลายเดือนก่อน +422

    人類進化又忘了帶上我了

    • @啊阿阿-n9g
      @啊阿阿-n9g 3 หลายเดือนก่อน +6

      是我們脫隊了😂

  • @ANT_overload
    @ANT_overload 3 หลายเดือนก่อน +571

    我聞到了論文報告的味道
    論在麥塊中模擬實現人工智能的可行性研究🤣

    • @TaiwaneseDude1
      @TaiwaneseDude1 3 หลายเดือนก่อน +71

      建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +85

      ​@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了

    • @xiang-yue-fung
      @xiang-yue-fung 3 หลายเดือนก่อน +1

      速度會太慢

    • @Kwenen
      @Kwenen 3 หลายเดือนก่อน +23

      Minecraft的紅石能實現基礎電路,就跟現實一樣。
      有電路,做出一台電腦也不奇怪。
      有電腦,做一個AI也不奇怪。
      有AI,再弄個聊天機器人也不過份吧。
      (畢竟連現實中都需要大量顯卡冒煙,Minecraft就讓它停留在理論可行就好)

  • @阿睿
    @阿睿 3 หลายเดือนก่อน +976

    我本來以為我能聽懂
    但我大概看了4-5分鐘之後腦袋就已經沒有回應了
    這個已經遠遠超過我能理解的範圍了@u@
    太猛了

    • @isaacmak3628
      @isaacmak3628 3 หลายเดือนก่อน +16

      野生阿睿

    • @ni484mailanjao
      @ni484mailanjao 3 หลายเดือนก่อน +4

      阿睿

    • @仙人掌-t6z
      @仙人掌-t6z 3 หลายเดือนก่อน +11

      我看不到一分鍾我腦袋就秀抖了(._.)

    • @user-duck
      @user-duck 3 หลายเดือนก่อน +16

      阿睿找到latcraft下集的內容

    • @joeyjian3718
      @joeyjian3718 3 หลายเดือนก่อน +2

      阿睿!!!

  • @ねこねこ-h9p
    @ねこねこ-h9p 3 หลายเดือนก่อน +119

    看來因為燒到工程師群體YT演算法開始工作了

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +34

      難怪數據上面女生只有1%(可惡

    • @justiceinmyheart
      @justiceinmyheart 3 หลายเดือนก่อน +2

      @@morning_keyboard這句話再好好思考吧

    • @cecilhung7017
      @cecilhung7017 3 หลายเดือนก่อน

      原來YT會顯示觀眾性別嗎🥹

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน

      @@cecilhung7017 只能看到大數據

    • @qz1412
      @qz1412 3 หลายเดือนก่อน

      只有1%但還是有阿,我覺得很酷,等會把朋友都拖來一起看

  • @Kwenen
    @Kwenen 3 หลายเดือนก่อน +184

    13:45 補充
    pre-training才是預訓練。
    fine-tuneing是微調模型,符合影片中的描述。
    簡單來說:
    預訓練,類似於一把武器的基底。
    而微調,類似用基底再塑形,可以強化特定屬性,或是把某些不想要的去掉。
    以遊戲和裝備來舉例的話,現在要做一把劍,你有兩種方法:
    1.普通training
    當你玩遊戲想"農"某一件裝備時,你可以蒐集對應素材,製作、升級、強化你的專武。
    像是集齊:刀刃、把柄、護手等。
    2.pre-training + fine-tuneing
    預訓練:主打就是"撿垃圾",廣撈素材;來者不拒,矇著眼全部一鍋燉煮,得到一坨四不像的超強力"基石",通常無法直接使用。
    目的是通過不斷堆材料,使它內部具有各種物質,讓它有潛力。
    像是加入:鐵塊、把柄、魔法石、絲線、皮革等,想得到的都加進去。
    微調:基於超強力"基石"再做鍛造,把它打造成劍的模樣。看你想特化那些用法,就在這個階段調整,像是我們需要劍,就凹成劍的形狀。(例:接龍GPT→對話ChatGPT)
    最終,你就能打造出一把屬性複雜的劍。
    你可能會想:元素之間不會衝突嗎?
    會,所以在微調步驟會加入一些手法,去除掉不想要的屬性。
    :二次鍛造會不會傷害基石?
    會,由於你的基本屬性堆的很高,小心處理依然保持高品質。
    直接打造專武,亦或使用基石再微調,兩者各有優缺,難說哪個就是正解。
    現在主流選擇後者,畢竟用程式能大量下載一堆資料,比起有目標的蒐集來的省事。事後只要少少的材料,微調就能打造好用的AI模型。
    以上,是預訓練和微調大致在做的事情,有需多比喻和簡化,有興趣請多多再學習更正確的知識。

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +32

      觸 感謝補充

    • @ming8888
      @ming8888 3 หลายเดือนก่อน +70

      這兩個人在說什麼

    • @Kwenen
      @Kwenen 3 หลายเดือนก่อน +3

      @@ming8888 抱歉,我再編輯一下。
      我把大致含意打上去了,如果有興趣可以參考看看,希望有打的夠簡單。

    • @handsome3263
      @handsome3263 3 หลายเดือนก่อน +6

      @@Kwenen人類進化又忘了我了😢

    • @_stratre6187
      @_stratre6187 3 หลายเดือนก่อน +1

      解釋的真好,我自己學過都不太能將這兩個概念講得清晰易懂

  • @Alanmmvmc
    @Alanmmvmc 3 หลายเดือนก่อน +181

    反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,
    反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,
    隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。
    雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,
    這部應該會出圈,期待你後續的影片。

    • @Squarical
      @Squarical 3 หลายเดือนก่อน +21

      野生阿冷也對AI有研究嗎

    • @YddG-re9bm
      @YddG-re9bm 3 หลายเดือนก่อน +1

      抄襲!!

    • @fdegreesx
      @fdegreesx 3 หลายเดือนก่อน +3

      是野生Alan!

    • @hong90
      @hong90 3 หลายเดือนก่อน +1

      就等阿冷設計AI跑車

    • @fuss-over-a-cat-sequelae
      @fuss-over-a-cat-sequelae 3 หลายเดือนก่อน

      AI TWO BOSS !

  • @whats2000_
    @whats2000_ 3 หลายเดือนก่อน +130

    挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +28

      那個運算量太大了,我可能要先換個CPU qq

    • @user-ql7cc6vq6c
      @user-ql7cc6vq6c 3 หลายเดือนก่อน +3

      ​@@morning_keyboard可以先蓋出來再去雲端租機器跑

    • @陳浩睿-s9c
      @陳浩睿-s9c 3 หลายเดือนก่อน +1

      Transformer 模型😂

  • @gb15978
    @gb15978 3 หลายเดือนก่อน +66

    很高興我看完了
    雖然看不懂
    但我可以確定
    這部影片的點閱率 應該會很可觀

  • @洪小寶-k9i
    @洪小寶-k9i 3 หลายเดือนก่อน +63

    我就喜歡這種知識從我腦中滑過,不留一點痕跡的感覺

    • @Shadow_AuA
      @Shadow_AuA 2 หลายเดือนก่อน

      羨慕你那未被知識侵毒的單純

    • @as22362762
      @as22362762 18 วันที่ผ่านมา

      在知識的海洋裡,
      我只是一條淡水魚。😅

  • @Chasoul浩浩
    @Chasoul浩浩 3 หลายเดือนก่อน +18

    我做好了學習的心理準備,但看到 2:25 的時候我發現我距離理解這影片的起點還差了整整一個國民義務教育再加上學齡前課程

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +5

      又抓到一個幼稚園微積分被當的了

  • @古狐ch
    @古狐ch 3 หลายเดือนก่อน +193

    看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦
    但不好意思我有些地方想要批評
    1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧
    2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步
    3. 2:35 L函數的定義有誤,出現兩次w^2
    4. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因
    5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受
    但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +62

      1.觸
      2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。
      3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。
      4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?
      5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。
      感謝您的補充與指正。

    • @Easonchang-y9c
      @Easonchang-y9c 3 หลายเดือนก่อน +14

      @@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點

    • @古狐ch
      @古狐ch 3 หลายเดือนก่อน +37

      @@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真
      4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa
      反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki
      寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].W
      W_new = W_pre - ηdL/dW
      ([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)
      回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧

    • @co0okie
      @co0okie 3 หลายเดือนก่อน +37

      釣出一堆專業人士

    • @skybasee6206
      @skybasee6206 3 หลายเดือนก่อน +19

      ​@@co0okie我已經不懂這個世界了

  • @HanShengLai
    @HanShengLai 3 หลายเดือนก่อน +6

    一個很妙的概念,我們是先學深度學習,要往硬體走 再往這些學習
    結果看到一個反著學的,感覺很妙
    反向傳播 簡單來說 就是信奉 後面產生不好的結果,前面每個人都有責任,所以透過最後面答案是甚麼來一層層往前修改,所以叫“反向”傳播
    你說的比較像是在指梯度下降

  • @jianqiuwu
    @jianqiuwu 3 หลายเดือนก่อน +6

    計算偏微分是為了知道梯度(gradient),按照反向的梯度走能夠最有效的降低一個函數的值。這裡的函數就是誤差函數。差不多就這樣子。

  • @niyowbooyouxinjiau
    @niyowbooyouxinjiau 3 หลายเดือนก่อน +62

    好強 尤其是要在MC裡面實現
    而且很多想法都是正確的 尤其是邏輯計算上不存在"減" 只有True or False
    就是那個用補數代替減的想法 對於非這項領域專業的人來說真的很聰明

    • @SmileLab_張育誠
      @SmileLab_張育誠 3 หลายเดือนก่อน +10

      其實一般電腦(計算機)設計的方法就是這麼做的,這也是補數發明的重要用途之一

    • @tomatoFrank1123
      @tomatoFrank1123 2 หลายเดือนก่อน +3

      其實也是有減法器啦,不過實務上 2's complement 的使用確實比較廣泛,比較少人會真的去用減法器
      畢竟加跟減如果還需要用到不同的硬體去做運算不只硬體本身成本更高,電路設計也會更複雜更難以優化
      相較之下 2's complement 的優點就很多了

    • @paffforever
      @paffforever 2 หลายเดือนก่อน +2

      你怎麼知道他不是這項領域專業ㄉ😂

  • @Ju-mc9ph
    @Ju-mc9ph 3 หลายเดือนก่อน +9

    說得很好,下次進化記得帶上我⋯⋯

  • @Leo-fg4uz
    @Leo-fg4uz 3 หลายเดือนก่อน +4

    看到一半開始PTSD發作想到以前讀碩 每天熬夜寫論文的夜晚 也是為了我的ML模型找一個合適的 loss function 看了上百篇論文 看到那陣子眼睛看東西都是糊的XDDD
    整體來說概念沒啥錯 除了有些ML的名詞怪怪的 在前面數位邏輯的加減乘器的講得很好而且都沒有甚麼錯誤
    總之能把原本在電腦跟紙張上的算式現實化 只能說你超棒!!

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +3

      觸,因為我也剛開始學ML而已,已經被留言區噹到臭頭了

  • @reinkr4707
    @reinkr4707 3 หลายเดือนก่อน +17

    優質內容值得推薦,祝你得到超越AI預測的流量❤

  • @NeloAngelo-Absolute
    @NeloAngelo-Absolute 3 หลายเดือนก่อน +55

    這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +9

      可以蓋個人工智慧鐵巨人塔

  • @sx0506
    @sx0506 3 หลายเดือนก่อน +165

    我個人認為 義大利麵就應該拌 42 號混泥土
    因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩
    你往裡砸的時候 一瞬間他就會產生大量的高能蛋白
    俗稱 UFO 會嚴重影響經濟的發展
    以至於對整個太平洋和充電器的核污染

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +33

      確實

    • @alexamdao
      @alexamdao 3 หลายเดือนก่อน

      幸好現在有chatGPT來驗證,一眼就覺得好像不是真的有意義的文字聯繫,但又恐怕真的是高手在秀行話的,這樣的自己(讀過中正理工應化系,有寫點YY小說)是不是傻子-
      從這段描述來看,發言者在留言中提到的「義大利麵應該拌42號混凝土」和「螺絲釘的長度影響挖掘機的扭矩」等語句,完全不符合一般Minecraft或人工智慧(AI)開發的行話;實際上,這些詞語間的聯繫極為荒誕,與任何資工或Minecraft相關的知識幾乎毫無關聯。
      留言內容的語句像是任意組合而成,顯得無邏輯,且與影片中涉及的AI和紅石設計等主題毫無實際關聯。將混凝土和義大利麵、螺絲釘與高能蛋白等組合在一起,看似在刻意製造荒謬或故意不合邏輯的話語,可能是為了博取笑點或單純搞怪。儘管UP主回應「確實」,可能也是一種幽默性的反應,以迎合這樣的搞笑留言。
      另外,影片字幕中的內容部分可能有意搞笑,但仍有一定邏輯,特別是「使用邏輯閘來模擬CPU」這段,還算符合Minecraft紅石工程或邏輯電路的基礎概念。然而其餘部分如「肉和飯」「拉麵工人做奶油布丁」等句子則與正規的AI訓練和Minecraft建設無關,且顯然是故意搞笑的無關插話。
      綜合判斷,這段發言應該是故意亂入搞笑的成分居多,而非真正在使用資工或Minecraft的專業行話。

  • @fantasy_sakura
    @fantasy_sakura 3 หลายเดือนก่อน +17

    完成度很高的一個數電作品 十分令人驚豔

  • @buzzy0306
    @buzzy0306 3 หลายเดือนก่อน +6

    本集感想:
    1. 啊,BGM是 Bonetrousle
    2. 沒想到現在的大一新生還有人知道Bad Apple,東方再戰20年?
    3. 敝人才疏學淺,不過感覺最後那個不算是fine tuning?而且感覺這個模型也沒有真的training的過程而是在inferencing?不確定有沒有理解錯誤

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +2

      是;有,但不多,要跑很久跟用資料進來很麻煩就沒跑全程

  • @tomatosama..
    @tomatosama.. 3 หลายเดือนก่อน +4

    4:25 你說得對,但是這就是卡桑帝,HP 4700,護甲 329,魔抗 201的英雄。有不可阻擋,有護盾,還能過牆。有控制,甚至冷卻時間只有1秒,只要15點藍。轉換姿態時甚至可以刷新W的cd,還有真實傷害。然後,護甲和魔抗提升後還能獲得技能加速,縮短Q的cd,還縮短釋放時間,然後還有攻擊力。W就啊啊啊啊啊啊

  • @杜岳華
    @杜岳華 3 หลายเดือนก่อน +6

    身為一個 AI scientist,我的工作就是每天用機器學習在解決問題,看到你把人工智慧演算法做成 Minecraft 的紅石電路感到非常敬佩,看起來是非常耗時的工作,請收下我的膝蓋

  • @oga6947
    @oga6947 3 หลายเดือนก่อน +11

    熱推第一來看看,以為是簡簡單單麥塊,來看爆炸場景之類的,但從第一秒開始沒有一個看得懂。然後我的母語是中文,但你講的中文我沒有一句聽的懂的

  • @bubulu2876
    @bubulu2876 2 หลายเดือนก่อน +2

    這個實踐力超級強ö而且我好喜歡換成紅石燈之後的效果 太美辣超級壯觀
    我很幸運的之前微課程有上過人工智慧導論,所以聽得懂架構,但我其實還是幾乎沒搞懂他怎麼在麥塊實踐的;)決定學測完之後來研究:D

  • @anckenchen9487
    @anckenchen9487 3 หลายเดือนก่อน +22

    老哥的學習歷程:在麥塊做出人工智能
    我的學習歷程:不知名的講座心得學習單💀

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +3

      可以看上一集,我的學習歷程是生魚片分類器xD

  • @mercury-.-0318
    @mercury-.-0318 3 หลายเดือนก่อน +14

    雖然看不懂,聽不懂還案讚了 厲害

  • @z3680
    @z3680 3 หลายเดือนก่อน +8

    玩麥塊還體驗了一把當石器時代人類的感覺
    我還在鑿山洞當房子,人家在造人工智慧

  • @One_Afternoon447
    @One_Afternoon447 3 หลายเดือนก่อน +3

    我來留個言,好讓我有參與討論的感覺

  • @Mccormick168
    @Mccormick168 3 หลายเดือนก่อน +11

    幹哥你太屌了(這是來自歐文的發言)必須紅

  • @sd000183
    @sd000183 3 หลายเดือนก่อน +1

    太強了~跪著看完
    敲碗期待下個作品

  • @crazy_key
    @crazy_key 3 หลายเดือนก่อน +3

    as a student majoring in computer science, it is somewhat oddly satisfying visualizing the entire learning process of the MLP. The knowledge just clicks and makes sense so well

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +1

      A random red stone simulate circuit enjoyer:

  • @吳宗修-d3o
    @吳宗修-d3o 3 หลายเดือนก่อน +11

    因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN
    建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能
    期待未來能做出其他的激勵函數、最佳化器、損失函數

    • @Kwenen
      @Kwenen 3 หลายเดือนก่อน

      確實,如果實現矩陣運算器,會方便很多,
      但…也是個大工程呀…
      而且通常會比專用機來的慢。
      像是權重與資料的搬運、任務太大也要切塊、算完還要重組。

  • @leowastaken1887
    @leowastaken1887 3 หลายเดือนก่อน +3

    感謝主播的解說 我先去砍樹了❤❤

  • @柒月-q7w
    @柒月-q7w 5 วันที่ผ่านมา +1

    身為研究深度學習的研究生不禁感歎:
    幹。。。。 好強
    一個大一連微積分、線性代數都還沒修
    把我們要花四年五年的課程自學並且理解,最後還能實作出來。。。
    這完全可以是一個大學畢業專題了

  • @jastintiffany3990
    @jastintiffany3990 3 หลายเดือนก่อน +4

    推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptron
    XD

  • @joelyip2829
    @joelyip2829 หลายเดือนก่อน

    Thanks

  • @oaoalbert3619
    @oaoalbert3619 3 หลายเดือนก่อน +26

    想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!!
    另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?
    總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0
    本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!
    感覺這部會紅所以來留名

    • @萊姆-r1x
      @萊姆-r1x 3 หลายเดือนก่อน +2

      確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +5

      因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。

  • @xiang1888
    @xiang1888 3 หลายเดือนก่อน +1

    看了快5分鐘已經脫離我為數不多的機器學習知識了,默默打開機器學習重學

    • @byuan9254
      @byuan9254 3 หลายเดือนก่อน

      這.....你應該是還沒學過機器學習吧,影片裡「理論」的部分已經是最基礎的類神經網路概念了。

  • @terry13579
    @terry13579 3 หลายเดือนก่อน +5

    又來了 人類進化都不揪

  • @gavin
    @gavin 3 หลายเดือนก่อน

    謝謝!

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน

      非常好兄弟,使我早餐加荷包蛋😭

  • @JHkeyboard
    @JHkeyboard 3 หลายเดือนก่อน +45

    真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?

    • @CaiSm5
      @CaiSm5 3 หลายเดือนก่อน +1

      怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +11

      我沒有賣狗狗肉…

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +13

      在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。
      你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!

  • @POYU_KASIWA
    @POYU_KASIWA 3 หลายเดือนก่อน +1

    謝謝你做了一支開始三分鐘就把我腦子弄到當機的影片🤯

  • @maoyu2092
    @maoyu2092 3 หลายเดือนก่อน +3

    太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣

  • @YujinndesuOvOb
    @YujinndesuOvOb 3 หลายเดือนก่อน +1

    兄弟,你讓我在統測前把數位邏輯又重新複習一次了,ty😭

  • @benl2827
    @benl2827 3 หลายเดือนก่อน +10

    太強啦老哥 我以為我追蹤的是鍵盤頻道
    不愧是我大水屬性台大資工大佬aka全村的希望
    來自Ben的打卡

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +1

      孩…還…台大資工…

    • @benl2827
      @benl2827 3 หลายเดือนก่อน

      洗了啦

    • @benl2827
      @benl2827 3 หลายเดือนก่อน

      一個在公館一個在基隆 肯定沒差很多的對吧

    • @jasonchu2627
      @jasonchu2627 3 หลายเดือนก่อน

      ​@@morning_keyboard海大的?

    • @rackyd7085
      @rackyd7085 3 หลายเดือนก่อน

      笑死 來看看高中同學流量會跑多高

  • @蔡英蚊香蛙
    @蔡英蚊香蛙 2 หลายเดือนก่อน

    根本把數位邏輯應用的極致 厲害

  • @henry_chu1875
    @henry_chu1875 3 หลายเดือนก่อน +14

    8:36 - 8:46大概是我唯一能懂的東西

    • @k77aw
      @k77aw 3 หลายเดือนก่อน

      我也感覺色色的,原來這就是懂了的感覺

  • @李高高-w6o
    @李高高-w6o 3 หลายเดือนก่อน +1

    影片看完了 頭也破了。謝謝你🙏

  • @Ken-hc1fn
    @Ken-hc1fn 3 หลายเดือนก่อน +6

    加上英文字幕保證大爆紅

  • @白煮蛋boiledegg
    @白煮蛋boiledegg 3 หลายเดือนก่อน +4

    我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~

  • @wei1234
    @wei1234 3 หลายเดือนก่อน +8

    POV: 作者雲淡風輕的講解幼稚園原理,但你卻一個字都聽不懂時

    • @lingirl88
      @lingirl88 3 หลายเดือนก่อน

      身為亞洲人我真的深感羞愧,都想躲回娘胎用臍帶自盡了,我是亞洲之恥😭

  • @tetsudo-monogatari
    @tetsudo-monogatari 3 หลายเดือนก่อน +2

    做得很精細,繼續加油!!!

  • @wenyu330
    @wenyu330 3 หลายเดือนก่อน +11

    很好,完全看不懂
    我只知道兄弟你的筆電真的很強

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +7

      冷知識:這台筆電甚至不是我的😭

  • @sean-2882
    @sean-2882 3 หลายเดือนก่อน +3

    會紅先卡位🎉🎉

  • @gellarniu1793
    @gellarniu1793 5 วันที่ผ่านมา

    就在想,有没有一些类似于蓝图的mod,划定一片区域将区域内的所有方块作为蓝图模板,指定输入输出代表的红石元件,最后抽象为一个便携式模块,每使用蓝图工具会消耗对应数量的方块,并且会在一个新维度生成一片实时更新的区域负责每个蓝图生成元件的计算。自定义模块名称,输入输出接口数量,并且自适应模块体积与形状用于主要建造,相当于是半个解释器应该能省心很多

  • @tofu-kq9gs
    @tofu-kq9gs 3 หลายเดือนก่อน +6

    我昨天去看失眠門診,醫生推薦文組的我來看這個影片,不過就是麥塊的遊戲影片而已嘛,怎麼可能有這種療ㄒㄧㄠ真ㄉㄜㄅ⋯#看&&好⋯=《⋯睏+⋯zz

  • @莫小正
    @莫小正 13 ชั่วโมงที่ผ่านมา

    好厲害。已按讚訂閱加分享。

  • @ggyy9487yee
    @ggyy9487yee 3 หลายเดือนก่อน +4

    當我的腦子總算長出來那一點點時,bad apple把我又幹萎縮了

  • @夏雨-o1c
    @夏雨-o1c 3 หลายเดือนก่อน +2

    看來要在麥塊裡實現大型強子對撞機跟戴森球已經不是幻想了😂

  • @HappyEgg915
    @HappyEgg915 3 หลายเดือนก่อน +7

    為什麼很多AI都是Python當基底?
    Java為基底的AI:

  • @WellWang-q3z
    @WellWang-q3z 28 วันที่ผ่านมา +1

    你沒學微積分,可以做出這麼專業的東西,太神了

  • @RSPHageeshow
    @RSPHageeshow 3 หลายเดือนก่อน +9

    我頭上冒煙了..

  • @陳柏凱-u2l
    @陳柏凱-u2l 3 หลายเดือนก่อน +2

    已熱推,小孩很愛看

  • @林郁軒-u4x
    @林郁軒-u4x 3 หลายเดือนก่อน +3

    這個影片值得

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +2

      有改成32chunk喔(發出電腦咆哮的聲音

  • @Che.cIhoeong
    @Che.cIhoeong วันที่ผ่านมา

    我雖然修相關科系,但我覺得你已經做的很好了,而且還用電路呈現出來😢

  • @chiangposheng
    @chiangposheng 3 หลายเดือนก่อน +13

    不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣
    我的遊戲確定跟你是一樣的嗎www

  • @darren9683
    @darren9683 หลายเดือนก่อน

    哇,好喜欢这类型的影片,真学到了些东西,希望可以看到更多这类型的影片.

  • @Billy9646
    @Billy9646 2 หลายเดือนก่อน

    這麼屌的企劃,不給個讚不行🎉

  • @robertgu8333
    @robertgu8333 3 หลายเดือนก่อน +3

    我靠,被演算法帶過來ㄟ

  • @qaq8325
    @qaq8325 3 หลายเดือนก่อน +1

    現在的人類終於進化成這樣了

  • @square-t1s
    @square-t1s 3 หลายเดือนก่อน +12

    請問你有沒有想過增加英文的CC字幕呢,畢竟Minecraft華語圈的受眾比英語圈少很多,加字幕的話應該會多很多觀看數

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +3

      有單獨的英文版本,還在剪

    • @square-t1s
      @square-t1s 3 หลายเดือนก่อน +1

      @@morning_keyboard 加油

  • @edwardchen6078
    @edwardchen6078 2 หลายเดือนก่อน

    二進位右移不完全等於除法 在負數時可能會出錯 因此要先利用二補數負數的最右邊位元判斷正負 如果是負數 加上(2^右移bit次方)-1

  • @callistobear3306
    @callistobear3306 3 หลายเดือนก่อน +5

    以前都是被rick rolled,现在还会被bad appled

  • @NAN9404
    @NAN9404 2 หลายเดือนก่อน +1

    看到一半打噴嚏鼻子濕濕的,結果只是腦瓜超載腦漿流出來而已。嚇我一跳還以為是感冒流鼻水了呢

  • @playertouhou8473
    @playertouhou8473 3 หลายเดือนก่อน +6

    17:13我東進.jpg

  • @milkala70304
    @milkala70304 29 วันที่ผ่านมา

    這是史詩的哥
    不只很猛,還有趣,老多梗了

  • @曹操-r9r
    @曹操-r9r 3 หลายเดือนก่อน +3

    1:16就不行了 我去挖木頭:3

  • @sou_0702
    @sou_0702 3 หลายเดือนก่อน

    我突然覺得我還是乖乖解剖好了www
    不愧是熱推一 而且好好奇那個傳送mod XDD

  • @boenhong2989
    @boenhong2989 3 หลายเดือนก่อน +4

    人工智慧:我終於用麥塊教會人類複製出了我自己

  • @allenchien1871
    @allenchien1871 2 หลายเดือนก่อน

    你的專業打擾到我玩遊戲了

  • @林佑宸-l2q
    @林佑宸-l2q 3 หลายเดือนก่อน +8

    老哥驚呆了 有沒有考慮洗個台大資工吖(來自🍊的留言)

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +7

      朋友最不擅長的是考試,台大洗出來你兒子都碩班畢業ㄌ

  • @藝夢之殿
    @藝夢之殿 3 หลายเดือนก่อน +1

    已觀看,大腦很喜歡😁

  • @WhiteNeko.
    @WhiteNeko. 3 หลายเดือนก่อน +9

    哇 看三分鐘頭就開始痛

  • @chwentsai124
    @chwentsai124 3 หลายเดือนก่อน

    太震撼了 這第一次, 具體展現實體的神經網路!

  • @cattail
    @cattail 3 หลายเดือนก่อน +3

    我完全看不懂,但我大受震撼

  • @虛於
    @虛於 3 หลายเดือนก่อน

    已收藏,如果哪天不想當套模仔時會回來看

  • @蔡明崴
    @蔡明崴 3 หลายเดือนก่อน +7

    只有 13bits 整數,還做了一大堆加法乘法,肯定有哪裡會溢位吧 😆

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +7

      一開始有想過這個問題,但看到頻道的流量突然就釋懷了

    • @KarlBlust
      @KarlBlust 3 หลายเดือนก่อน

      確實,而且又有正負號,所以最大只有2^12-1 =4095 而已

  • @茶算一種蔬菜湯嗎
    @茶算一種蔬菜湯嗎 2 หลายเดือนก่อน

    現在誰敢說玩遊戲學不到東西 我就丟這個影片給他看 太強了

  • @_liyucheng9378
    @_liyucheng9378 3 หลายเดือนก่อน +8

    你的這個應該比較像單純的線性回歸,準確的說不算神經網路,根據我的理解你應該是做兩次線性回歸然後再用gradient descent 優化loss函數,這樣會變成只能訓練出線性的weight
    一般來說要做出一層的神經網路就是你第一層的線性回歸後要先經過一個叫做active 函數的東西(可能會用ReLU 或 GeLU 之類的看實際訓練的成果哪個比較好) 然後最後加一個線性回歸來把輸出調整成想訓練的資料(例如要觀看數那就是最後輸出一個值)
    每一個線性回歸+active就算一層
    所以只要在你的兩個線性回歸中用紅石機弄出active 函數就可以了👍
    另外最後說訓練結果跳到爆掉應該只是learning rate 太高,導致gradient 爆炸,改小就可以了,一般大概都是用0.01或更小。
    最後就是你好像在影片有提到不知道為什麼要用偏微分,這其實蠻簡單的,簡單來說就是我們要找到你的loss函數最小值,而偏微分可以告訴我們往左或往右會變小(微分可以得到函數的斜率),所以通過偏微分得到要優化的方向,然後走一個learning rate 的距離,最後就能找到整個loss 函數的最小值,也就會是你訓練出來的成果。
    今天第一次看到你的頻道,等你把active 函數弄出來就訂閱,加油:)

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +2

      支線任務:弄出active function(0/1);獎勵:你的訂閱(0/1)

    • @_liyucheng9378
      @_liyucheng9378 3 หลายเดือนก่อน +2

      @@morning_keyboard 我很期待
      大一就研究這個對你有個很好的好處,就是你會知道微積分有多重要和多好用,不會在修的時候覺得很沒意義
      建議微積分和線性代數一定要認真學

  • @許哲綸-x6d
    @許哲綸-x6d 3 หลายเดือนก่อน

    這部爆紅了ㄟ🎉🎉
    恭喜

  • @CaiSm5
    @CaiSm5 3 หลายเดือนก่อน +3

    我走錯頻道了🤣
    太猛了,兩期影片的專案規模比我的碩論還大😭
    話說這種加法器、乘法器、減法器組合出來的類神經網路,你使用的激發函數是什麼呢

    • @morning_keyboard
      @morning_keyboard  3 หลายเดือนก่อน +4

      好多人都問我這個問題,為什麼(?,是因為激活函數很難設計嗎
      要追問這個問題的話,在電路上是沒有設計激活函數,但是邏輯上是使用ReLU。
      這是因為我在輸入時就已經將參數給壓縮到很小的值(in this case, 1~10),而模型整體規模不大,而且還是regression的模型,而且輸出會是挺大的數(4000~6000),所以我會期待在forwarding的過程不看到任何負數的parameter,所以邏輯上相等。
      不過在實作的Code上沒有做特殊處理的話,還是會有負數出來,所以我有做對parameter限定正數然後之後做4捨五入,跟正常的沒有加太多調味料的版本,誤差大概在200左右(MAE)。
      所以在這個超級特殊的case上XD,我就沒有用激活函數,或是邏輯上使用ReLU,希望有回答到你的問題。

    • @CaiSm5
      @CaiSm5 3 หลายเดือนก่อน +2

      @@morning_keyboard 我會問單純是因為我論文的一部份是要解決用Verilog做類神經網路使用類似Sigmoid但不能有指數來做激發函數的問題,畢竟記憶久遠了,留個言假裝自己還記得相關知識😅
      (聽起來是閾值為0的ReLU囉)

    • @tw-tq4gi
      @tw-tq4gi 3 หลายเดือนก่อน +4

      @@morning_keyboard 因為activation function必須是非線性函數,只用加減乘法器來做很難實現,運算還很慢。如sigmoid(x) = 1/(1+e^-x),要有額外電路來計算exp(x)跟倒數(reciprocal)。簡單解法應該是用個look up table + interpolation。
      另外,幾點要注意
      1. 沒有實作nonlinear activation的神經網路等價於只有一層fc的線性模型(就算有100層也是一樣, 稍微算一下forward就知道了),網路完全沒有處理nonlinear regression的能力。
      2. 即使輸出都是正數,一樣不能假定weights, bias>0,所以還是得把relu (max(0, x))做出來。
      3. 確認你的loss真的有隨迭代降低,不然optimization (training)的部分很有可能出錯。
      建議如果想實作底層的算法,先去看看curve fitting相關的算法(如最小平方,實做看看用y = wx+b的模型去fit一個3x+4+random noise的資料)。DL本質是函數近似,先搞懂啥是微分、最佳解的必要條件,再去碰比較practical的問題,會比較好理解DL在幹嘛。 加油!

    • @林柏宏-t2m
      @林柏宏-t2m 3 หลายเดือนก่อน

      @@tw-tq4gi 我認同查表的部分,但那應該需要用指令方塊之類的。比起sigmoid,Relu的微分就不需要那些複雜的運算了

    • @林柏宏-t2m
      @林柏宏-t2m 3 หลายเดือนก่อน +1

      @@tw-tq4gi relu就不用查表了,詳情可見 I Made an AI with just Redstone! 這支影片

  • @jenxianechen817
    @jenxianechen817 3 หลายเดือนก่อน

    謝謝你的影片 我昨天睡的很好❤