Shusen Wang
Shusen Wang
  • 25
  • 486 132
RL-1G: Summary
This lecture is a summary of Reinforcement Learning Basics.
Slides: github.com/wangshusen/DRL.git
มุมมอง: 1 501

วีดีโอ

RL-1F: Evaluate Reinforcement Learning
มุมมอง 1.2K3 ปีที่แล้ว
Next video: th-cam.com/video/DLO401mNOw4/w-d-xo.html If you want to empirically compare two reinforcement learning algorithms, you will use OpenAI Gym. This lecture introduces three kinds of problems: - Classical control problems include CartPole and Pendulum. - Atari games include Pong, Space Invader, and Breakout. - MuJoCo includes Ant, Humanoid, and Half Cheetah. Slides: github.com/wangshuse...
RL-1E: Value Functions
มุมมอง 3.4K3 ปีที่แล้ว
Next video: th-cam.com/video/Rv7uC9v6Eco/w-d-xo.html Value functions are the expectations of the return. Action-value function Q evaluates how good it is to take action A while being in state S. State-value function V evaluates how good state S is. Slides: github.com/wangshusen/DRL.git
RL-1D: Rewards and Returns
มุมมอง 1.6K3 ปีที่แล้ว
Next video: th-cam.com/video/lI8_p7Qeuto/w-d-xo.html Return is also known as cumulative future rewards. Return is defined as the sum of all the future rewards. Discounted return means giving rewards in the far future small weights. Slides: github.com/wangshusen/DRL.git
RL-1C: Randomness in MDP, Agent-Environment Interaction
มุมมอง 1.4K3 ปีที่แล้ว
Next Video: th-cam.com/video/MeoSqrV5a24/w-d-xo.html Markov decision process (MDP) has two sources of randomness: - The action is randomly sampled from the policy function. - The next state is randomly sampled from the state-transition function. The agent can interact with the environment. Observing the current state, the agent executes an action. Then the environment updates the state and prov...
RL-1B: State, Action, Reward, Policy, State Transition
มุมมอง 3.5K3 ปีที่แล้ว
Next Video: th-cam.com/video/0VWBr6dBMGY/w-d-xo.html This lecture introduces the basic concepts of reinforcement learning, including state, action, reward, policy, and state transition. Slides: github.com/wangshusen/DRL.git
RL-1A: Random Variables, Observations, Random Sampling
มุมมอง 3.2K3 ปีที่แล้ว
Next Video: th-cam.com/video/GFayVUt2WGE/w-d-xo.html This is the first lecture on deep reinforcement learning. This lecture introduces basic probability theories that will be used in reinforcement learning. The topics include random variables, observed values, probability density function (PDF), probability mass function (PMF), expectation, and random sampling. Slides: github.com/wangshusen/DRL...
Vision Transformer for Image Classification
มุมมอง 122K3 ปีที่แล้ว
Vision Transformer (ViT) is the new state-of-the-art for image classification. ViT was posted on arXiv in Oct 2020 and officially published in 2021. On all the public datasets, ViT beats the best ResNet by a small margin, provided that ViT has been pretrained on a sufficiently large dataset. The bigger the dataset, the greater the advantage of the ViT over ResNet. Slides: github.com/wangshusen/...
BERT for pretraining Transformers
มุมมอง 13K3 ปีที่แล้ว
Next Video: th-cam.com/video/HZ4j_U3FC94/w-d-xo.html Bidirectional Encoder Representations from Transformers (BERT) is for pretraining the Transformer models. BERT does not need manually labeled data. BERT can use any books and web documents to automatically generate training data. Slides: github.com/wangshusen/DeepLearning Reference: Devlin, Chang, Lee, and Toutanova. BERT: Pre-training of dee...
Transformer Model (2/2): Build a Deep Neural Network (1.25x speed recommended)
มุมมอง 13K3 ปีที่แล้ว
Next Video: th-cam.com/video/EOmd5sUUA_A/w-d-xo.html The Transformer models are state-of-the-art language models. They are based on attention and dense layer without RNN. In the previous lecture, we have built the attention layer and self-attention layer. In this lecture, we first build multi-head attention layers and then use them to build a deep neural network known as Transformer. Transforme...
Transformer Model (1/2): Attention Layers
มุมมอง 28K3 ปีที่แล้ว
Next Video: th-cam.com/video/J4H6A4-dvhE/w-d-xo.html The Transformer models are state-of-the-art language models. They are based on attention and dense layers without RNN. Instead of studying every module of Transformer, let us try to build a Transformer model from scratch. In this lecture, we eliminate RNNs while keeping attentions. We will get an attention layer and a self-attention layer. In...
Self-Attenion for RNN (1.25x speed recommended)
มุมมอง 8K3 ปีที่แล้ว
Next Video: th-cam.com/video/FC8PziPmxnQ/w-d-xo.html The original attention was applied to only Seq2Seq models. But attention is not limited to Seq2Seq. When applied to a single RNN, attention is known as self-attention. This lecture teaches self-attention for RNN. In the original paper of Cheng et al. 2016, attention was applied to LSTM. To make self-attention easier to understand, this lectur...
Attention for RNN Seq2Seq Models (1.25x speed recommended)
มุมมอง 31K3 ปีที่แล้ว
Next Video: th-cam.com/video/06r6kp7ujCA/w-d-xo.html Attention was originally proposed by Bahdanau et al. in 2015. Later on, attention finds much broader applications in NLP and computer vision. This lecture introduces only attention for RNN sequence-to-sequence models. The audience is assumed to know RNN sequence-to-sequence models before watching this video. Slides: github.com/wangshusen/Deep...
Few-Shot Learning (3/3): Pretraining + Fine-tuning
มุมมอง 30K3 ปีที่แล้ว
This lecture introduces pretraining and fine-tuning for few-shot learning. This method is simple but comparable to the state-of-the-art. This lecture discusses 3 tricks for improving fine-tuning: (1) a good initialization, (2) entropy regularization, and (3) combine cosine similarity and softmax classifier. Sides: github.com/wangshusen/DeepLearning Lectures on few-shot learning: 1. Basic concep...
Few-Shot Learning (2/3): Siamese Networks
มุมมอง 57K3 ปีที่แล้ว
Next Video: th-cam.com/video/U6uFOIURcD0/w-d-xo.html This lecture introduces the Siamese network. It can find similarities or distances in the feature space and thereby solve few-shot learning. Sides: github.com/wangshusen/DeepLearning Lectures on few-shot learning: 1. Basic concepts: th-cam.com/video/hE7eGew4eeg/w-d-xo.html 2. Siamese networks: th-cam.com/video/4S-XDefSjTM/w-d-xo.html 3. Pretr...
17-4: Random Shuffle & Fisher-Yates Algorithm
มุมมอง 2.2K3 ปีที่แล้ว
17-4: Random Shuffle & Fisher-Yates Algorithm
5-2: Dense Matrices: row-major order, column-major order
มุมมอง 4.6K4 ปีที่แล้ว
5-2: Dense Matrices: row-major order, column-major order
5-1: Matrix basics: additions, multiplications, time complexity analysis
มุมมอง 4.2K4 ปีที่แล้ว
5-1: Matrix basics: additions, multiplications, time complexity analysis
17-1: Monte Carlo Algorithms
มุมมอง 6K4 ปีที่แล้ว
17-1: Monte Carlo Algorithms
3-1: Insertion Sort
มุมมอง 9364 ปีที่แล้ว
3-1: Insertion Sort
6-1: Binary Tree Basics
มุมมอง 6424 ปีที่แล้ว
6-1: Binary Tree Basics
Few-Shot Learning (1/3): Basic Concepts
มุมมอง 78K4 ปีที่แล้ว
Few-Shot Learning (1/3): Basic Concepts
2-3: Skip List
มุมมอง 67K4 ปีที่แล้ว
2-3: Skip List
2-2: Binary Search
มุมมอง 7004 ปีที่แล้ว
2-2: Binary Search
2-1: Array, Vector, and List: Comparisons
มุมมอง 4.3K4 ปีที่แล้ว
2-1: Array, Vector, and List: Comparisons

ความคิดเห็น

  • @nlptranslationgroup2
    @nlptranslationgroup2 4 วันที่ผ่านมา

    Wonderful explaination

  • @nidaulhasanati8884
    @nidaulhasanati8884 5 วันที่ผ่านมา

    I am very enlightened.. thankyou

  • @Fers-g2y
    @Fers-g2y 8 วันที่ผ่านมา

    Clear and good explanation, good lecture, thanks

  • @bvf8611
    @bvf8611 หลายเดือนก่อน

    extremely clear and easy to follow explanatiom

  • @flyingcheburek2320
    @flyingcheburek2320 หลายเดือนก่อน

    Great explanation 👏

  • @__-pd7tc
    @__-pd7tc หลายเดือนก่อน

    በጥሩ ሁኔታ አብራርተህልናል፣ በጣም እናመሰግናለን

  • @Lonely_trader
    @Lonely_trader 2 หลายเดือนก่อน

    Great explanation

  • @MVaralakshmi-f9d
    @MVaralakshmi-f9d 2 หลายเดือนก่อน

    Excellent and outstanding.... Thank you so much. Please add Time complexities for all operations

  • @santanubanerjee5479
    @santanubanerjee5479 2 หลายเดือนก่อน

    What does it mean when the gradient propagates back to the CNN as well? What is changed in the CNN?

    • @santanubanerjee5479
      @santanubanerjee5479 2 หลายเดือนก่อน

      I think I need to relook CNN parameters!

  • @x-Factor461
    @x-Factor461 3 หลายเดือนก่อน

    Thank you for this video. It's awesome

  • @yarasultan3433
    @yarasultan3433 3 หลายเดือนก่อน

    nice

  • @AbhishekSinghSambyal
    @AbhishekSinghSambyal 3 หลายเดือนก่อน

    Which app do you use to make presentations? How do you hide some images/arrows in the slides like an animation? Thanks.

  • @stracci_5698
    @stracci_5698 4 หลายเดือนก่อน

    Are the siamese networks not performing a fine-tunning? when the model weights are learned to perform the task?

  • @stracci_5698
    @stracci_5698 4 หลายเดือนก่อน

    This was very clear, thank you!

  • @impulse1712
    @impulse1712 4 หลายเดือนก่อน

    What an explanation in detail,loved the way you explain things , thank you very much sir.

  • @parmanandchauhan6182
    @parmanandchauhan6182 4 หลายเดือนก่อน

    Great Explanation.Thanqu

  • @ronalkobi4356
    @ronalkobi4356 5 หลายเดือนก่อน

    Wonderful explanation!👏

  • @haroon180
    @haroon180 6 หลายเดือนก่อน

    This is hands down the best explanation of Siamese networks on TH-cam

  • @DrAIScience
    @DrAIScience 6 หลายเดือนก่อน

    How data A is trained? I mean what is the loss function? Is it only using encoder or both e/decoder?

  • @Hshjshshjsj72727
    @Hshjshshjsj72727 6 หลายเดือนก่อน

    Its 2024 please stop using a potato as a microphone

  • @MicheleMaestrini
    @MicheleMaestrini 7 หลายเดือนก่อน

    Thank you so much for this series of lectures and slides. I am doing a thesis on few-shot learning and this has really helped me understand the fundamentals of this algorithm.

  • @eugenetsiukhlov7127
    @eugenetsiukhlov7127 7 หลายเดือนก่อน

    Absolutely gorgeous! Thank you so much!

  • @chawkinasrallah7269
    @chawkinasrallah7269 7 หลายเดือนก่อน

    The class token 0 is in the embed dim, does that mean we should add a linear layer from embed to number of classes before the softmax for the classification?

  • @SpenceMan01
    @SpenceMan01 7 หลายเดือนก่อน

    12:51 Just had to say that your support set image of the two hamsters aren’t hamsters. Those are guinea pigs.

  • @kutilkol
    @kutilkol 7 หลายเดือนก่อน

    this is supposed to be english?

  • @gemini_537
    @gemini_537 8 หลายเดือนก่อน

    I feel like autoencoder can be used for the classification task and might work better. Because autoencoder can map the input into a latent space which captures the patterns.

  • @supersonics9196
    @supersonics9196 8 หลายเดือนก่อน

    please explain deletion when you have time, especially on how to memorize the pointers along the search path

  • @supersonics9196
    @supersonics9196 8 หลายเดือนก่อน

    very clear explanation, professor

  • @topgunjinhyung
    @topgunjinhyung 8 หลายเดือนก่อน

    nice explanation. thanks

  • @loading_700
    @loading_700 8 หลายเดือนก่อน

    Best lecture about Few-shot learning! Thank you

  • @AiDrug
    @AiDrug 8 หลายเดือนก่อน

    Thank you so much! Great explanation

  • @ai_lite
    @ai_lite 8 หลายเดือนก่อน

    great expalation! Good for you! Don't stop giving ML guides!

  • @geoskyr966
    @geoskyr966 8 หลายเดือนก่อน

    so the training set is much bigger than the support set ? and i only use the support set to help with the classification of query images ?

  • @vipinsou3170
    @vipinsou3170 9 หลายเดือนก่อน

    Is there any implementation of this architecture bro??,I can't find.

  • @vinitsunita
    @vinitsunita 9 หลายเดือนก่อน

    Best Explanation of skiplist

  • @AjinkyaGorad
    @AjinkyaGorad 9 หลายเดือนก่อน

    Softmax associates while learning, and identifies while inference

  • @adityapillai3091
    @adityapillai3091 9 หลายเดือนก่อน

    Clear, concise, and overall easy to understand for a newbie like me. Thanks!

  • @sapttt853
    @sapttt853 10 หลายเดือนก่อน

    very clear nice

  • @diamond2869
    @diamond2869 10 หลายเดือนก่อน

    Thank you!

  • @mohammedal-qudah9518
    @mohammedal-qudah9518 10 หลายเดือนก่อน

    Thank you. I like the explanation

  • @stewartmuchuchuti20
    @stewartmuchuchuti20 10 หลายเดือนก่อน

    Awesome. Well explained. Well simplified.

  • @arindamjain7536
    @arindamjain7536 10 หลายเดือนก่อน

    Best Video on this topic so far!

  • @alex-m4x4h
    @alex-m4x4h 10 หลายเดือนก่อน

    at 19:26 the number of weights should be m*t+1 or am i getting it wrong ? because we have c0 as well

  • @user-wr4yl7tx3w
    @user-wr4yl7tx3w 11 หลายเดือนก่อน

    This is an excellent presentation

  • @이정민영어
    @이정민영어 11 หลายเดือนก่อน

    이해가 잘됩니다. 감사합니다.

  • @drelvenkee1885
    @drelvenkee1885 11 หลายเดือนก่อน

    The best video so far. The animation is easy to follow and the explaination is very straight forward.

  • @mahdiyehbasereh
    @mahdiyehbasereh ปีที่แล้ว

    The best lecture about transformers that I've seen 🙏🏻🙏🏻🙏🏻🙏🏻🙏🏻

  • @joshithmurthy6209
    @joshithmurthy6209 ปีที่แล้ว

    Very good explanations thank you very much

  • @jaylenzhang4198
    @jaylenzhang4198 ปีที่แล้ว

    Thank you, very explicit explanation. 讲的太好了老师!感谢!

  • @mahdiyehbasereh
    @mahdiyehbasereh ปีที่แล้ว

    That was great and helpful 🤌🏻