ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
你们这个论文讲解也是100*100*100 太棒了
讲得真好,感谢。尤其是最后补充的Colab代码把玩,神笔马良的最后点睛一笔啊。今后如果有类似机会,也请稍加一点代码把玩,这样对论文的体会会更具体,更清晰。总之,感谢!
讲解流畅,结构明白,谢谢博主的付出,辛苦❤
讲的太好了,深入浅出。节省好多好多时间读文章。多谢分享👍👍👏👏👏
从TH-cam 追到B站,发现资源更多,赞!
非常好,感谢UP主的分享,让我掌握到新的知识
非常赞的讲解,多模态大有可为!
太棒了 感谢博主团队
感谢讲解,48页的paper当时只看了不到10页
讲得也太好了,真的好厉害,感谢老师。
@1:29:00 这个很正常,人也有,没有截然不同,我觉得反而很像,特别是在新知识的学习阶段。俗话就是“本来明白,结果越教越糊涂”。很可能CLIP的数据集提供的先验知识需要多个样本调整才可以“转过弯儿来”。
Wounderful comments for the CLIP paper.
太感謝了 剛好在讀類似的論文中!
Many thanks for your explaination, very clear and very well understood!
从分类角度上,红包还真不是信封呢,因为没有人会往红包里装信或者把红包当信封使用吧 哈哈。从这个角度,AI觉得中国的权重超过信封的权重也可以理解了。
朱博士 是我在kansas大学就认识的好友, 太厉害了, 学习
感謝分享和付出
讲的太棒了
可能是因為是中文字,所以優先判斷為中國?以前是給圖片特徵貼標籤,現在是給圖片特徵貼特徵(類似,但其實留存的是那個訓練抓特徵的兩個模型然後讓這兩個已經熟練比對跟抓特徵的機器去判斷所以不太算)
台湾只是个地区
受益匪浅。 看来CLIP可以帮助我们自动驾驶很多。 请问下主讲人是哪位大神呀? 非常感谢
朱毅博士。串讲视频理解的那个视频是基于他是一作的论文讲的,看一下那个视频就能顺着找到他了。
论文说,Initial hyper- parameters were set using a combination of grid searches, random search, and manual tuning on the baseline ResNet- 50 model when trained for 1 epoch. 从resnet50调出来的超参数,直接在ViT上也这么用?
講得非常好! colab代碼, 加滿分!
谢谢🙏
感谢
太精彩了
拜托啦,强化学习经典算法,强化基础模型
是不是因为里面有中文所以选China
讲的真好!
太好了 谢谢
40:00 clip
这是读论文吗?这就是听小说呀!!!
强啊
能不能讲解强化学习
很好奇这个视频的博主是谁,有机会交流呀
博主穿supreme 啊!!!
b站过来再看一遍。。
不光讲解了论文,还扩展了很多例子
1:26:50, 这里我有点不理解,有大神能解释一下吗?听起来好像是说如果把CLIP再结合上自监督(self-supervision)和 伪标签(self-training )这两种方法的话,他会更强。但在我理解里CLIP就是用自监督(self-supervision)做出来的,是我理解错了吗?虽然CLIP跟一般的自监督不一样,但总归就是用不是绝对正确的label+contrastive learning去完成这个学习。 如果CLIP不能定义为用的self-supervision的话, 那他要怎么用上self-supervision这个方法在这种mutimodal的setup呢?另一个方式去理解这句话是,CLIP正是因为结合了这两个方法,所以比传统的监督学习(supervised learning)更强。但这么理解的话,CLIP是怎么用上了self-training了呢。。
6666e感謝
是不是因为图片名中有红包🐉
应该不是,换个名字也应该是这个,我尝试了一下
SORA横空出世之后,回头来看CLIP
力大飞砖
这个老师到底叫啥啊,是不是不是李沐?
锁死了小公司的发展潜力
缺的只差算力了。= =
你们这个论文讲解也是100*100*100 太棒了
讲得真好,感谢。尤其是最后补充的Colab代码把玩,神笔马良的最后点睛一笔啊。今后如果有类似机会,也请稍加一点代码把玩,这样对论文的体会会更具体,更清晰。总之,感谢!
讲解流畅,结构明白,谢谢博主的付出,辛苦❤
讲的太好了,深入浅出。节省好多好多时间读文章。多谢分享👍👍👏👏👏
从TH-cam 追到B站,发现资源更多,赞!
非常好,感谢UP主的分享,让我掌握到新的知识
非常赞的讲解,多模态大有可为!
太棒了 感谢博主团队
感谢讲解,48页的paper当时只看了不到10页
讲得也太好了,真的好厉害,感谢老师。
@1:29:00 这个很正常,人也有,没有截然不同,我觉得反而很像,特别是在新知识的学习阶段。俗话就是“本来明白,结果越教越糊涂”。很可能CLIP的数据集提供的先验知识需要多个样本调整才可以“转过弯儿来”。
Wounderful comments for the CLIP paper.
太感謝了 剛好在讀類似的論文中!
Many thanks for your explaination, very clear and very well understood!
从分类角度上,红包还真不是信封呢,因为没有人会往红包里装信或者把红包当信封使用吧 哈哈。从这个角度,AI觉得中国的权重超过信封的权重也可以理解了。
朱博士 是我在kansas大学就认识的好友, 太厉害了, 学习
感謝分享和付出
讲的太棒了
可能是因為是中文字,所以優先判斷為中國?
以前是給圖片特徵貼標籤,現在是給圖片特徵貼特徵(類似,但其實留存的是那個訓練抓特徵的兩個模型然後讓這兩個已經熟練比對跟抓特徵的機器去判斷所以不太算)
台湾只是个地区
受益匪浅。 看来CLIP可以帮助我们自动驾驶很多。 请问下主讲人是哪位大神呀? 非常感谢
朱毅博士。串讲视频理解的那个视频是基于他是一作的论文讲的,看一下那个视频就能顺着找到他了。
论文说,Initial hyper- parameters were set using a combination of grid searches, random search, and manual tuning on the baseline ResNet- 50 model when trained for 1 epoch. 从resnet50调出来的超参数,直接在ViT上也这么用?
講得非常好! colab代碼, 加滿分!
谢谢🙏
感谢
太精彩了
拜托啦,强化学习经典算法,强化基础模型
是不是因为里面有中文所以选China
讲的真好!
太好了 谢谢
40:00 clip
这是读论文吗?这就是听小说呀!!!
强啊
能不能讲解强化学习
很好奇这个视频的博主是谁,有机会交流呀
博主穿supreme 啊!!!
b站过来再看一遍。。
不光讲解了论文,还扩展了很多例子
1:26:50, 这里我有点不理解,有大神能解释一下吗?
听起来好像是说如果把CLIP再结合上自监督(self-supervision)和 伪标签(self-training )这两种方法的话,他会更强。但在我理解里CLIP就是用自监督(self-supervision)做出来的,是我理解错了吗?虽然CLIP跟一般的自监督不一样,但总归就是用不是绝对正确的label+contrastive learning去完成这个学习。 如果CLIP不能定义为用的self-supervision的话, 那他要怎么用上self-supervision这个方法在这种mutimodal的setup呢?
另一个方式去理解这句话是,CLIP正是因为结合了这两个方法,所以比传统的监督学习(supervised learning)更强。但这么理解的话,CLIP是怎么用上了self-training了呢。。
6666e感謝
是不是因为图片名中有红包🐉
应该不是,换个名字也应该是这个,我尝试了一下
SORA横空出世之后,回头来看CLIP
力大飞砖
这个老师到底叫啥啊,是不是不是李沐?
锁死了小公司的发展潜力
缺的只差算力了。= =