[딥러닝] 11강. CBOW 와 Skip-Gram 쉽게 알려드릴게요

แชร์
ฝัง
  • เผยแพร่เมื่อ 9 พ.ย. 2024

ความคิดเห็น • 8

  • @hyukppen
    @hyukppen  ปีที่แล้ว

    혹시 이 강의가 조금 어렵게 느껴지시나요?
    그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다!
    지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요!
    < Easy! 딥러닝 재생목록 >
    th-cam.com/play/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu.html
    --------------------
    📢 혁펜하임의 딥러닝 마스터 커리큘럼!
    LEVEL 1 - Easy! 딥러닝
    hyukppen.modoo.at/?link=2n1a6p7t
    LEVEL 1 - 인스톨! 파이토치
    hyukppen.modoo.at/?link=131k3k7g
    LEVEL 2 - Legend 13
    hyukppen.modoo.at/?link=5db82s6p
    LEVEL 2 - TTT: To The Transformer
    hyukppen.modoo.at/?link=21c4dj8y
    LEVEL 3 - ATT: After The Transformer
    hyukppen.modoo.at/?link=2mcbufeg

  • @quruquququ7153
    @quruquququ7153 ปีที่แล้ว

    항상 영상 잘 보고 있습니다^_^

  • @zero2vec
    @zero2vec 8 หลายเดือนก่อน

    skip-gram에서 각 이웃 단어에 대해 W'이 각각 존재하는 건지 똑같은 건지 엄청 헤맸는데 명쾌하네요.

  • @abcdefg12345abcd
    @abcdefg12345abcd ปีที่แล้ว +1

    혁펜하임님! 딥러닝 공부하기 좋은 교재나 참고하신 교재있을까요?

    • @hyukppen
      @hyukppen  ปีที่แล้ว

      저도 책 하나 잡고 공부 하진 않았고 필요할 때마다 좀 찾아보는 편이라 .. 딱 어떤 교재를 떠올리기는 쉽지 않네요.. 😅

  • @leejeongmin04
    @leejeongmin04 ปีที่แล้ว +3

    🥹👍

  • @yi7745
    @yi7745 8 หลายเดือนก่อน

    Skip gram 에서의 w프라임 행렬은, 임베딩 벡터를 M차원이라 하고 단어집합을 N개(설명의 예시에선 7) 이라 했을 때, M × N(7) 행렬로 표현 되지만 아웃풋은 4개의 N(7)차원 벡터가 나와야 하므로 M × N(7) 크기의 행렬 4개를 임베딩 벡터에 각각 곱해야 되는 건가 하고 생각을 해봤습니다. 그렇게 되면 w프라임의 파라미터 갯수는 MN이 아니라 4MN이 되는 것이구요. 이 부분이 잘 이해가 안되서 여러가지 생각을 해보고 이런거 아닐까 하고 결론을 지은 건데 혁펜하임님께 확인 부탁드려도 될런지요? 좋은 영상 너무 감사한 마음으로 보고 있습니다. 고맙습니다~~^^

    • @hyukppen
      @hyukppen  8 หลายเดือนก่อน

      아니죠! CBOW와 마찬가지, 하나의 행렬을 사용하는 것입니다 ㅎㅎ