[핵심 머신러닝] RNN, LSTM, and GRU

แชร์
ฝัง
  • เผยแพร่เมื่อ 15 ต.ค. 2024

ความคิดเห็น • 32

  • @이지연-v1y
    @이지연-v1y ปีที่แล้ว +18

    진짜 명강의입니다. RNN 구조 제대로 이해하고 싶어서 책도 읽고, 다른 강의도 찾아봤는데, 이 강의가 진짜 최고입니다. 구조만 설명해주시는 것이 아니라 학습 과정도 설명해주셔서 좋았습니다. 너무 감사합니다. 여러 번 반복해서 듣고 있습니다.

  • @정대진-t2x
    @정대진-t2x 14 วันที่ผ่านมา

    교수님 유투브 댓글 처음 달아봅니다. 감사합니다.

  • @구삼왕자
    @구삼왕자 2 หลายเดือนก่อน +1

    교수님 정말 감사합니다. 비전공자 입장에서 Dnn,cnn까지는 이해가 잘 되는데 rnn부터는 개념이 바뀌어 쉽게 이해가 안되었는데 교수님 강의가 정말 한줄기 빛이 되주었습니다. 정말 감사합니다.

  • @ji8824
    @ji8824 3 หลายเดือนก่อน +2

    이렇게 이해하기 쉽게 설명해주는 강의 처음입니다 감사합니다!:)

  • @365woo
    @365woo 9 วันที่ผ่านมา

    안녕하세요 강의 정말 감사합니다, 혹시 8분 가량에 각각 시점에 정보만을 이용한다고 하셨는데 시계열을 반영하지 않은거지 loss를 줄이는 과정에서 과거의 정보는 이용한거 아닌가요...? 조금 헷갈려서 질문드립니다,,

  • @이병훈-d8y
    @이병훈-d8y 6 หลายเดือนก่อน

    교수님 감사합니다. 강의 너무 좋습니다

  • @히힣-i3s
    @히힣-i3s ปีที่แล้ว

    너무 좋은 강의 감사합니다. 댓글을 안 달 수가 없었습니다.

  • @김현용-y3j
    @김현용-y3j 3 หลายเดือนก่อน

    훌륭한 강의 잘 들었습니다. 감사합니다.

  • @jin-pq8iv
    @jin-pq8iv ปีที่แล้ว

    예시와 설명이 바로 이해가 되네요!! 계속 헷갈리던 부분이 있었는데 시원하게 해결되었네요. 정말 유익한 내용 감사드립니다.

  • @namjungwon3656
    @namjungwon3656 6 หลายเดือนก่อน

    너무 쉽게 설명해주셔서 진짜 감사합니다. 정말 강추 입니다.

  • @김영진-q7w
    @김영진-q7w 10 หลายเดือนก่อน

    너무 유익하고 쉬운 설명.. 정말 잘봤습니다. 감사합니다!

  • @helloo5480
    @helloo5480 ปีที่แล้ว +1

    교수님 최고...

  • @마이구매
    @마이구매 10 หลายเดือนก่อน

    ㅠㅠㅠ타학교학생인데 여기서 길을 찾았어요 감사합니다 교수님!! 특히 lstm 에서 ht을 기준으로 역순으로 설명해주셔서 더 이해가 잘된것같아요 다른 영상들은 순차적으로 가다보니 이해하면서 길을 잃었는데😢😢 도움이 많이되었습니다!

  • @aaabbaaa1976
    @aaabbaaa1976 ปีที่แล้ว

    타학교 학생인데 쏙쏙 들어오는 강의 해주셔서 감사합니다.

  • @ss-ww6yh
    @ss-ww6yh 5 หลายเดือนก่อน

    교수님 좋은 영상 감사합니다!

  • @enlighten4400
    @enlighten4400 9 หลายเดือนก่อน

    교수님 혹시 채널 가입자 한정, 강의 노트를 오픈하실 계획은 있으실까요? 명강의라 따라가며 듣고 싶은 수요(저 포함)가 많을 것 같습니다 :)

  • @son-ox4mo
    @son-ox4mo ปีที่แล้ว +1

    정말 좋은 강의 잘 들었습니다!! 열심히 강의를 듣던 중에 한 가지 궁금한 점이 생겼는데, LSTM과 GRU 모두 최종 hidden state를 계산한 후에 에측값을 도출해내는 과정에서 가중치는 순환 신경망과 동일하게 W_hy로 표시하는게 맞는건가요? 아니면 강의에서 쓰신 것처럼 W_th 혹은 X_th가 맞는 것인가요? 궁금합니다.

  • @아스롱가
    @아스롱가 ปีที่แล้ว +2

    x에 y의 과거 자기 자신값을 포함해도 문제없나요? 제가 가진 시계열의 경우 현재 시점의 y는 자기 자신의 과거값에도 영향을 받기 때문에 y의 과거값도 x로 포함하하는게 맞는것 같은데 이렇게 설계해도 될까요? 즉, 현재 시점의 y는 과거 시점의 x와 과거 시점의 y 모두에 영향을 받는거죠..

    • @김성범교수산업경영공
      @김성범교수산업경영공  ปีที่แล้ว +2

      x를 이용해 y를 예측하는 궁극적인 목표는 추후에는 y를 이용하지 않으려고 하는 것에 있습니다. 보통 y값은 얻는데 시간과 비용이 많이 드는 경우가 많습니다.

  • @이석찬-u7j
    @이석찬-u7j 2 หลายเดือนก่อน

    39:40 에서 체인룰로 계산해서 소거시키지 않고 곱하는 이유가 궁금합니다.

  • @jammmm-mm
    @jammmm-mm 11 หลายเดือนก่อน

    1:05:55 여기서 성분곱 첫번째 칸 -0.005가 0이 된건 단순 오타일까요? nonnegative 내용은 없어 보여서 질문드립니다.

  • @중TV-z3b
    @중TV-z3b 10 หลายเดือนก่อน

    안녕하세요. 제어공학을 공부하고 있는 학생입니다. 혹시 수평 유지 창지에서 모터 각도에 따른 IMU센서가 얻는 Roll, Pitch각을 데이터화 하여 신경회로망 중 RNN을 적용시켜 3축 수평유지장치를 구현하려고하는데 올바른 모델일지 궁금하고 구현이 가능할지 궁금한데 의견 주실 수 있을까요?

  • @듀듑-o6l
    @듀듑-o6l 3 หลายเดือนก่อน

    궁금한게 있는데 이전 상태를 학습하는거라고 했는데 그러면 맨처음 시작되는 부분은 이전 상태를 반영할 수 없을텐데 그럴 경우에는 어떻게 상태가 초기화가 되는거죠?

  • @user-zh7ok7vs1r
    @user-zh7ok7vs1r 7 หลายเดือนก่อน

    감사합니다