NLP with Neural Networks & Transformers

แชร์
ฝัง
  • เผยแพร่เมื่อ 14 ธ.ค. 2024

ความคิดเห็น • 27

  • @ishwarinalgirkar1193
    @ishwarinalgirkar1193 ปีที่แล้ว

    Amazing channel! has the most intuitive explanations

  • @shalinianunay2713
    @shalinianunay2713 4 ปีที่แล้ว +1

    Liked the way your content is put and the way you articulate them! Thnx. keep up good work.

  • @erfanshayegani3693
    @erfanshayegani3693 ปีที่แล้ว

    Such a great and comprehensive video!

    • @CodeEmporium
      @CodeEmporium  ปีที่แล้ว

      Thanks for the kind words :) I try

  • @as5728-h1i
    @as5728-h1i 3 ปีที่แล้ว +1

    This is great. Need a video on MPNet

  • @k_anu7
    @k_anu7 4 ปีที่แล้ว +1

    Awaiting more videos

  • @farshadsaberi2740
    @farshadsaberi2740 3 ปีที่แล้ว +1

    Thank you! It was great!

  • @theisnoo
    @theisnoo 4 ปีที่แล้ว +2

    Just found your channel. Great content!

  • @fireleone
    @fireleone 4 ปีที่แล้ว +4

    Hey Thanks for the content you deliver ! Always waiting for it.
    Do you know good courses to go deeper inside math behind NN in NLP ?

  • @coudlab
    @coudlab 3 ปีที่แล้ว +1

    Wooow, when you speak seams simple hahaha but it's damm hard clarify this kind of knewledge. Really thanks!!

  • @scottyb3b7
    @scottyb3b7 3 ปีที่แล้ว +1

    This is quite excellent.

  • @kestonsmith1354
    @kestonsmith1354 3 ปีที่แล้ว +1

    Well explained video

  • @GilangD21
    @GilangD21 4 ปีที่แล้ว +2

    thanks man, this really helps

  • @shauryai
    @shauryai ปีที่แล้ว

    Loving this content! Why not make a detailed playlist about NLP and Transformers!?

    • @CodeEmporium
      @CodeEmporium  ปีที่แล้ว

      Thanks! There should be a playlist called “Language Models” that has all the cool language model videos. But I’m in the middle of coding out the transformer. Will create a playlist for that too :)

    • @shauryai
      @shauryai ปีที่แล้ว

      @@CodeEmporium ayy! waiting for that!also love that you reply to comments even at this scale!

  • @himeshph
    @himeshph 4 ปีที่แล้ว +4

    Waiting for an exclusive episode on bert

  • @antoinefdu
    @antoinefdu 3 ปีที่แล้ว +3

    I know this is absolutely not the point of the video, but at 4:47 it should be "le meilleur de touS les temps"

  • @JoramMachtSachen
    @JoramMachtSachen 4 ปีที่แล้ว +1

    Really useful, thanks!

  • @asraraden9181
    @asraraden9181 4 ปีที่แล้ว +1

    THANK YOU SO MUCH

  • @NobodyIikesyouduh
    @NobodyIikesyouduh 2 ปีที่แล้ว

    link 13 not opening. it takes to some other link

  • @krishnagarg6870
    @krishnagarg6870 4 ปีที่แล้ว +1

    How did BERT capture both Forward and Backward Context?

    • @TowfiqRafiBUET09
      @TowfiqRafiBUET09 2 ปีที่แล้ว

      By Randomly Masking 15% of the word.
      For Example : Donald Trump was the president of The United States of America from 2017-2020.
      By masking the word "President' we can build the language model.
      Masked Input Text : Donald Trump was the [MASK] of the United States of America from 2017 - 2020

  • @abdulwahab4838
    @abdulwahab4838 2 ปีที่แล้ว

    BERT is only Encoder block of Vaswani Transformer