- 8
- 6 389
Fusion Lab
Taiwan
เข้าร่วมเมื่อ 13 ก.ย. 2022
YOLOv9: 王者歸來!
YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information
arxiv.org/abs/2402.13616
#yolo #objectdetection #yolov9 #volov7 #yolov4 #deeplearning #machinelearning #ai #paper
arxiv.org/abs/2402.13616
#yolo #objectdetection #yolov9 #volov7 #yolov4 #deeplearning #machinelearning #ai #paper
มุมมอง: 2 011
วีดีโอ
輕量化卷積 Group & Depthwise Convolution
มุมมอง 84ปีที่แล้ว
Group & Depthwise Convolution #deeplearning #machinelearning #ai #convolutionalneuralnetwork #cnn
[Paper] 拓展Segment Anything Model的選項: Medical SAM Adapter
มุมมอง 694ปีที่แล้ว
Segment Anything Model Medical Image Medical SAM Adapter: Adapting Segment Anything Model for Medical Image Segmentation arxiv.org/abs/2304.12620 #deeplearning #machinelearning #ai #diffusion #unet #segmentation #paper
[Paper] 當Diffusion 遇上 UNet !?
มุมมอง 173ปีที่แล้ว
When Diffusion meets UNet Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation arxiv.org/abs/2303.10326 #deeplearning #machinelearning #ai #diffusion #unet #segmentation #paper
AI鋼琴編曲家:Pop2piano,你可以猜到原曲是哪一首歌嗎?
มุมมอง 359ปีที่แล้ว
[How to use AI] 利用深度學習技術,將你的音樂轉換成鋼琴cover曲 ▶ Demo: colab.research.google.com/github/taipingeric/how-to-use-AI/blob/main/pop2piano_demo.ipynb ▶ GitHub repo (original): github.com/taipingeric/pop2piano ▶ GitHub repo (modified): github.com/taipingeric/how-to-use-AI ▶ Paper: arxiv.org/abs/2211.00895 ▶Icons Neural icons created by SBTS2018 - Flaticon Kpop icons created by Flat Icons - Flaticon Piano ...
[實作] KFold Cross-validation Keras
มุมมอง 3032 ปีที่แล้ว
在Keras模型訓練上使用Kfold 交叉驗證 ▶程式碼:github.com/taipingeric/ML-for-Newbies/tree/main/Cross validation #deeplearning #machinelearning #ai #crossvalidation #scikitlearn
[實作] KFold Cross-validation PyTorch
มุมมอง 2.3K2 ปีที่แล้ว
在PyTorch模型訓練上使用Kfold 交叉驗證 ▶程式碼:github.com/taipingeric/ML-for-Newbies/tree/main/Cross validation #deeplearning #machinelearning #ai #crossvalidation #scikitlearn
Cross validation 交叉驗證
มุมมอง 4612 ปีที่แล้ว
Kfold 交叉驗證 [實作] ▶ PyTorch: th-cam.com/video/zPEsBC4dgwY/w-d-xo.html ▶ Keras: th-cam.com/video/z1Xdr-4djaA/w-d-xo.html [程式碼] github.com/taipingeric/ML-for-Newbies/tree/main/Cross validation [Chapters] 0:00 為什麼需要驗證集 7:06 為什麼需要交叉驗證 9:53 KFold 交叉驗證 14:35 Leave-one-out 交叉驗證 #deeplearning #machinelearning #ai #crossvalidation #scikitlearn
11都出來了
感谢分享
謝謝分享!
謝謝老師的分享❤
謝謝老師的分享🤩
謝謝老師的分享🎉
老師講得好清楚
Eric老師,這部影片幫助很大,謝謝你的講解, 在7:48處『下面的參數比上面參數還要多』,這裡因該是口誤。 想請問,group、Depthwise、或是加上Pointwise, 看起來都是在減少通道與空間上的計算量,但要保持feature map的數量, 依照現有的結果EifficientNet...等架構產出的結果並沒有輸給使用傳統conv的架構, 我想問兩個問題: 1.是不是其實不用考慮這麼多channel的特徵,模型也能整理出好的規則,用於辨識物件。 2.可以請老師說明通道注意力與空間注意力的數學意義嗎。 (我的理解是,channel長度為通道注意力,kernel大小為空間注意力)
Hi 感謝提醒 確實口誤了QQ 1. 參數量 Depthwise + Pointwise < Naive Con. ,所以可以把使用的通道數與網路層數拉高,這是Efficient, ConvNeXt 之類的模型架構設計的特色,所以我覺得比較像比起一般卷積一次看所有通道,各自看某個通道再整合的方式目前看起來是稍微比較好的結構設計 2. Channel attention: 額外計算各個通道的importance 再乘上對應的feature maps, Spatial attention: 額外計算每個像素位置的importtance 再乘上各個位置對應的features,概念很像,做的維度不同。Spatial 的話可以想成計算輸入圖片(H, W) 每個位置的importance
@@fusionlab7360謝謝老師的回覆,不知道老師有沒有預計要講解ViT,最近又有Mamba發表不知道會不會很快運用到圖像上。
謝謝 很有幫助
謝謝分享,但是有點不順,是否可以update 是否要改成 essentia==2.1b6.dev1034 pytorch-lightning==1.8.4
好棒的講解
歡迎推薦論文 ❤️
@@fusionlab7360 如果可以,是否請你可以分享,如何有效果的看懂論文。 我想我們還是需要自己看論文😀。