혹시 이 강의가 조금 어렵게 느껴지시나요? 그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다! 지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요! < Easy! 딥러닝 재생목록 > th-cam.com/play/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu.html -------------------- 📢 혁펜하임의 딥러닝 마스터 커리큘럼! LEVEL 1 - Easy! 딥러닝 hyukppen.modoo.at/?link=2n1a6p7t LEVEL 1 - 인스톨! 파이토치 hyukppen.modoo.at/?link=131k3k7g LEVEL 2 - Legend 13 hyukppen.modoo.at/?link=5db82s6p LEVEL 2 - TTT: To The Transformer hyukppen.modoo.at/?link=21c4dj8y LEVEL 3 - ATT: After The Transformer hyukppen.modoo.at/?link=2mcbufeg
Skip gram 에서의 w프라임 행렬은, 임베딩 벡터를 M차원이라 하고 단어집합을 N개(설명의 예시에선 7) 이라 했을 때, M × N(7) 행렬로 표현 되지만 아웃풋은 4개의 N(7)차원 벡터가 나와야 하므로 M × N(7) 크기의 행렬 4개를 임베딩 벡터에 각각 곱해야 되는 건가 하고 생각을 해봤습니다. 그렇게 되면 w프라임의 파라미터 갯수는 MN이 아니라 4MN이 되는 것이구요. 이 부분이 잘 이해가 안되서 여러가지 생각을 해보고 이런거 아닐까 하고 결론을 지은 건데 혁펜하임님께 확인 부탁드려도 될런지요? 좋은 영상 너무 감사한 마음으로 보고 있습니다. 고맙습니다~~^^
혹시 이 강의가 조금 어렵게 느껴지시나요?
그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다!
지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요!
< Easy! 딥러닝 재생목록 >
th-cam.com/play/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu.html
--------------------
📢 혁펜하임의 딥러닝 마스터 커리큘럼!
LEVEL 1 - Easy! 딥러닝
hyukppen.modoo.at/?link=2n1a6p7t
LEVEL 1 - 인스톨! 파이토치
hyukppen.modoo.at/?link=131k3k7g
LEVEL 2 - Legend 13
hyukppen.modoo.at/?link=5db82s6p
LEVEL 2 - TTT: To The Transformer
hyukppen.modoo.at/?link=21c4dj8y
LEVEL 3 - ATT: After The Transformer
hyukppen.modoo.at/?link=2mcbufeg
항상 영상 잘 보고 있습니다^_^
skip-gram에서 각 이웃 단어에 대해 W'이 각각 존재하는 건지 똑같은 건지 엄청 헤맸는데 명쾌하네요.
혁펜하임님! 딥러닝 공부하기 좋은 교재나 참고하신 교재있을까요?
저도 책 하나 잡고 공부 하진 않았고 필요할 때마다 좀 찾아보는 편이라 .. 딱 어떤 교재를 떠올리기는 쉽지 않네요.. 😅
🥹👍
Skip gram 에서의 w프라임 행렬은, 임베딩 벡터를 M차원이라 하고 단어집합을 N개(설명의 예시에선 7) 이라 했을 때, M × N(7) 행렬로 표현 되지만 아웃풋은 4개의 N(7)차원 벡터가 나와야 하므로 M × N(7) 크기의 행렬 4개를 임베딩 벡터에 각각 곱해야 되는 건가 하고 생각을 해봤습니다. 그렇게 되면 w프라임의 파라미터 갯수는 MN이 아니라 4MN이 되는 것이구요. 이 부분이 잘 이해가 안되서 여러가지 생각을 해보고 이런거 아닐까 하고 결론을 지은 건데 혁펜하임님께 확인 부탁드려도 될런지요? 좋은 영상 너무 감사한 마음으로 보고 있습니다. 고맙습니다~~^^
아니죠! CBOW와 마찬가지, 하나의 행렬을 사용하는 것입니다 ㅎㅎ