[선대] 5-2강. 고윳값 분해 (Eigendecomposition) 의 모든 것!

แชร์
ฝัง
  • เผยแพร่เมื่อ 10 ม.ค. 2025

ความคิดเห็น • 94

  • @hyukppen
    @hyukppen  2 ปีที่แล้ว +15

    19:28 - 이 부분 증명이 영 허술했습니다.
    꼭 V^-1 = V^T 여야만 한다는 건 아니고
    V^-1 = V^T 가 만족되도록 (orthogonal matrix 이도록) V를 잡을 수 있다!
    로 이해하시면 됩니다!
    >
    rank 구하기 예제: th-cam.com/video/7LDebT9p4es/w-d-xo.html
    중간고사 만점대비반 20 문제: th-cam.com/video/Ya1810qcvjg/w-d-xo.html
    Ax=b 해의 수 판단: th-cam.com/video/fMk84aazEdM/w-d-xo.html
    최소자승법 3 문제: th-cam.com/video/g-3B8b-8u5Q/w-d-xo.html
    고윳값 분해 6문제: th-cam.com/video/G9XTXqzALHg/w-d-xo.html
    주성분 분석 연습 문제: th-cam.com/video/optHJg50opo/w-d-xo.html
    특이값 분해 연습문제: th-cam.com/video/lVHF1eOmOQQ/w-d-xo.html

  • @caffeinerich7176
    @caffeinerich7176 หลายเดือนก่อน

    이보다 나은 강의는 단연코 앞으로도 없을 겁니다!!!! 최고의 선생님을 알게 되어 정말 영광입니다 ㅠㅠ

  • @gaspell
    @gaspell 2 ปีที่แล้ว +5

    A가 sysmetric하면 Ax는 x를 A의 eigenvector로 쪼개고 그걸 eigenvalue만큼 scaling한 후에 다시 더하는 걸로볼수도있군요... 그때 Q는 orthogonal이고요!
    진짜 재밌네요!!! 요즘 혁펜님 강의 보고 흥미를 느껴서 프리드버그 읽고 있어요. 좋은 강의 정말 감사합니다!!

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      프리드버그는 무엇인가요? ㅎㅎ 선대책인가요?

    • @gaspell
      @gaspell 2 ปีที่แล้ว

      ​@@hyukppen 네!! friedberg linear algebra 라고 구글링하시면 나와요
      저는 4판 보고 있어요! pdf가 있더라고요

    • @Robotman_1872
      @Robotman_1872 9 หลายเดือนก่อน +1

      23:31 rank3 인 full rank행렬을 rank1 행렬 3개로 표현

  • @diarkim
    @diarkim 7 วันที่ผ่านมา

    강의 넘 좋네요. 감사합니다!!

  • @nkminwings
    @nkminwings ปีที่แล้ว

    10:47 Trace => Transpose 입니다. ^^ 학부 2학년때 배우고, 이놈의 선대는 계속 따라다니네요. ㅠ 정주행하면서 다시금 remind하고 있습니다. 혹시 Gilbert Strang 교수님 책으로 공부하셨나요? Style이 많이 비슷한거 같아서 물어봅니다. ㅎㅎ

    • @hyukppen
      @hyukppen  ปีที่แล้ว

      옛날엔 그 책 봤었어요 ㅎㅎ 강의 만들 때는 3b1b 영상과 혼자 생각하는 시간을 많이 가졌습니다~

  • @이승환-b3m
    @이승환-b3m 2 ปีที่แล้ว +1

    너무 기본적인 질문인 것 같은데, 22:50 에서 왜 "q_1 * q_1^T" 가 3x3 행렬이 되는 지 잘 모르겠습니다. column vector와 row vector를 곱한(dot product)한 결과값는 스칼라여야 하는 거 아닌가요?
    "q_1^T * q_1"는 벡터간의 내적으로 보아 ||q_1||^2 이 되는데 위의 경우는 이와는 달리 행렬이 되는 건가요?

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      넵 둘이 아예 다른거에용 ㅎㅎ
      3x1 과 1x3 을 곱했기 때문에 3x3 이 되는 것이고
      나아가 rank-1 matrix가 되는 것 꼭 확인해보세요~!

    • @이승환-b3m
      @이승환-b3m 2 ปีที่แล้ว

      @@hyukppen 빠른 답 감사합니다. 지금까지 막연히 벡터와 벡터의 곱은 스칼라라고만 생각해서 헷갈렸네요;;

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      @@이승환-b3m 넵넵 ㅎㅎ 얘는 outer product라고 합니다

  • @라형섭
    @라형섭 2 ปีที่แล้ว +1

    SVD, PCA 이런 파트까지 의미적인 이해가 가능할 수 있는 공부를 하고 싶었는데 진짜 너무 와닿고 좋네요! 잘들었습니다 감사합니다!!

  • @daesunryu9390
    @daesunryu9390 7 หลายเดือนก่อน

    광광 울었습니다. 뒤에 강의들을 수시로 다시보고 종이에 강의에서 나왔던 개념들을 끄적여보고 이 개념들을 머리에 그려보고 이번강의를보니 인피니티 스톤이 모이는 기분이네요.. 처음엔 이해를 전혀 못하겠어서 내가 갈길이 아닌가보다 했는데 정말 감사합니다.

    • @hyukppen
      @hyukppen  7 หลายเดือนก่อน

      ㅎㅎㅎ 고생 많으셨습니다..! 고윳값 분해가 완성 됐으니 선대 반이상은 했다고 볼 수 있습니다😆 축하드립니다!

  • @곽동호-f1p
    @곽동호-f1p ปีที่แล้ว

    진짜 육성으로 감탄하면서 봤습니다. 대칭행렬 부분 너무 아름답네요...

  • @떠나그네
    @떠나그네 2 ปีที่แล้ว

    와... 이런 '해석'이 안 되서 그냥 외우기만 하느라 지치는 것 같아요... 분명히 달달 외우던 성질들인데, 너무 재밌네요. 알찬 강의 잘 들었습니다!

  • @jpark7636
    @jpark7636 2 ปีที่แล้ว +1

    항상 좋은 강의 정말 감사합니다... !!!
    matrix가 symmetric이 아니어도 24:20쯤에 나오는 방식을 비슷하게 사용하여 image를 compress 할 수 있나요?
    왜냐하면 어떠한 이미지가 있다면 feature의 개수만큼(=이미지 pixel의 개수만큼) eigenvector와 eigenvalue를 가질 것이고, 이를 식으로 표현하면 A = V . ^ . V^-1 (^ = lambda matrix) 이렇게 되고, 그러면 eigenvector를 eigenvalue가 decreasing하는 순서로 정렬해서
    lambda1*k1*k1_inv^T + lambda2*k2*k2_inv^T + .. 이렇게 하여 이미지를 compress하면 되니까요..
    (업데이트)
    1. 아.. 제가 방금 간단한 실험을 해보았는데.. 이미지가 대칭이 아닌 경우에는 eigenvalue와 eigenvector가 허수가 나와버리네요.. 허수가 나오면 image를 만들지 못합니다. 그래서 reconstruction이 안되는 것 같아요.. (오류가 뜨는데 제 코드가 틀렸을지도..?)
    2. 하지만, eigenvalue와 eigenvector가 허수가 아니라면 (즉, 실수라면) 'lambda1*k1*k1_inv^T + lambda2*k2*k2_inv^T + ..'

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      일단 수식에서 문제점을 찾자면
      V . ^ . V^-1 = lambda1*k1*k1^T (k = eigenvector) + lambda2*k2*k2^T + ... 이렇게 전개가 되려면 V . ^ . V^-1가 아닌 QDQ^T가 되어야 겠죠?
      그럼 lambda1*k1*k1^T + ... 에서 k1^T 말고 V^-1가 가지는 열들을 k1_inv 라고 놓고 lambda1*k1*k1_inv^T + ... 로 하면 어떨까하는 생각은 들어요
      또, symmetric이 아니면 lambda1*k1*k1^T + ...로 표현이 불가능하느냐 하면 그것도 또 아니라고 생각이 들어요
      symmetric은 QDQ^T 로 나타내기 위한 충분조건이니까 symmetric이 아니여도 QLQ^T 로 decompose가 되는 것도 있겠죠?
      사실 다 떠나서 이미지가 symmetric 아니면 symmetric으로 만들어버린 다음 eigendecomposition을 합니다.
      그리고 그것을 바로 SVD라고 부르죠!

    • @jpark7636
      @jpark7636 2 ปีที่แล้ว

      @@hyukppen 제가 이상한 질문을 한 것 같네요.. 스스로 개념정리가 부족했던 것 같습니다.
      제가 위에 만든 링크 타고 들어가보시면 제가 실험한 것이 있는데 제가 가진 의문점들을 어느정도 해결한 것 같습니다! 관심있으시다면 한번 확인해보세요!

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      @@jpark7636 코드 잘 봤습니다 ㅎㅎ 감사합니다!
      허수허용하면 unitary matrix Q로 QDQ^H 이렇게 decompose 되는건가요? Hermitian이여야 할거 같은데

    • @jpark7636
      @jpark7636 2 ปีที่แล้ว

      @@hyukppen 제가 정말 답변드리고 싶은데 제가 잘 모르겠습니다 (unitary matrix와 hermitian 둘 모두 제가 처음들어봤네요 ㅠㅠ) 제가 너무 수정하기를 반복해서 죄송합니다!

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      @@jpark7636 허수를 포함하면
      symmetric 이 hermitian
      orthogomnal matrix가 unitary matrix
      이렇게 대응됩니다 ㅎㅎ 차이점은 conjugate이 포함된다 정도..

  • @M_Log_
    @M_Log_ ปีที่แล้ว

    대학원생입니다! 선대를 필수로 이해해야 하는데, 조각조각 이해하고 있던 것들을 혁펜하임님 영상을 보면서 맞춰가고 있네요. 너무 감사드립니다 ㅠㅠ

  • @DenpaHamster
    @DenpaHamster 2 ปีที่แล้ว +1

    대하건생인 데 선형대수학 다시 공부하다가 혁펜하임님 강의를 알게되서 1강부터 쭈욱 봤습니다. 어려운 선형대수학을 개념적으로 이해할 수 있도록 설명해주셔서 너무 좋습니다. 제가 학부생일 떄부터, 이 영상을 봤어야했는데............ ㅠㅜ

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      ㅎㅎㅎ 멤버쉽 가입 감사합니닷..!!!

  • @djslsnxpdjxb4302
    @djslsnxpdjxb4302 2 ปีที่แล้ว +1

    오... projected gradient descent에서 projection할 때 QQ^T 를 사용하는 이유가 이해가 안 갔었는데, 28분쯤에 말하신 설명을 보니까 이해가 되네요. 좋은 강의 감사합니다 잘 보고 갑니다!

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      옷 ㅎㅎㅎ 맞습니다! orthogonal matrix면 projection matrix가 간단히 QQ^T가 됩니닷

  • @이주홍-d5u
    @이주홍-d5u ปีที่แล้ว

    진짜 최고의 강의 인정입니다!

  • @SphereofTime
    @SphereofTime 20 วันที่ผ่านมา

    9:55 Eigenvalue is 0, Determinant is 0.

  • @헬라리루
    @헬라리루 ปีที่แล้ว

    혁펜트 스트랭... 고유값 공부하던 중 어디에 응용되고 왜 중요한지를 잘 몰랐는데 덕분에 감 많이 잡아갑니다!!

  • @이지일기
    @이지일기 8 หลายเดือนก่อน

    레전드다… 선대수업 3개 들었는데, 이제 이해하고있네요……

  • @ppasmo
    @ppasmo 2 ปีที่แล้ว

    좋은 강의 감사합니다!

  • @jinyongjung911
    @jinyongjung911 2 ปีที่แล้ว +2

    선대 공부하고 있는데요, 수학파 선생님에서 공학파 선생님 쪽으로 슬금슬금 넘어오고 있습니다
    수학파 선생님은 너무 엄하고 고상하셔서 ㅋㅋ

  • @성균김-b4h
    @성균김-b4h 2 ปีที่แล้ว

    선형대수학 공부하면서 이게 어떻게 쓰인다는 것인지, 또, 이걸 왜 배워야 하는지 이해가 안 됐었지만 데이터에 대입해서 설명해주니까 한 번에 와 닿았어요! 좋은 영상 감사합니다!

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      넵 ㅎㅎ 또 이어지는 강의들은 고윳값 분해가 어디에 쓰이는 지 응용에 집중해서 설명했으니 한번 끝까지 가보자구요!

  • @kimglgl
    @kimglgl 2 ปีที่แล้ว

    정말 궁금했던건데 감사합니다

  • @tmddkdlel
    @tmddkdlel 2 ปีที่แล้ว

    선대 처음 배우면서 고유값을 보고 신기해했던 기억이 떠오르네요 ㅋㅋ 특히, nXn 크기의 행렬 A가 더 낮은 차수의 행렬과 같을수도 있다는게 정말 신기합니다

  • @jnayeong26
    @jnayeong26 ปีที่แล้ว

    선대 최고의 스승님...

  • @Robotman_1872
    @Robotman_1872 2 ปีที่แล้ว

    22:50 초에서 왜 고유값 분해된 3개의 component가 각각 Rank1인지 잘 이해가 되질 않습니다. Full rank일수도 있지 않나요?

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      uv^T 꼴은 무조건 rank 1 이 됩니닷
      각 component를 변수로 적고 한번 행렬 곱하기로 전개해놓고 보면 바로 끄덕끄덕 하실 겁니다 ㅎㅎ

    • @Robotman_1872
      @Robotman_1872 2 ปีที่แล้ว

      @@hyukppen 넵 감사합니다! 직접 예를 들어서 해보니까 귀납적으로는 이해가 가는데.. 혹시 구글에 뭐라고 검색하면 이 내용을 추가로 배울 수 있을까요??

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      @@Robotman_1872 추가로 더 뭐가 필요한지 잘 이해가 안갑니다 ㅠ 한번 증명하면 끝 아닌가요? 숫자 말고 임의의 길이를 가진 실수 벡터 uv^T 가 rank 1임을 방금 직접 보이신거 아닌가요?

    • @Robotman_1872
      @Robotman_1872 2 ปีที่แล้ว

      @@hyukppen 아아아 일반식으로 하니까 이해 됏습니다! 감사합니다.!!!

    • @Robotman_1872
      @Robotman_1872 9 หลายเดือนก่อน

      자문자답입니다. 2-5강 7분10초경에 나와있네요. 행렬을 바라보는 2번째 관점을 보면 이해할 수 있습니다.

  • @도옹-m6y
    @도옹-m6y หลายเดือนก่อน

    G O A T

  • @leejonglek
    @leejonglek 2 ปีที่แล้ว +1

    이 영상을 보고 임독양맥이 뚫리고 화경의 경지에 올랐습니다..구배지례 받으십쇼....

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      좋은 뜻인거죠..?ㄷ

  • @klg7839
    @klg7839 2 ปีที่แล้ว +1

    좋은 강의 감사합니다. 질문사항이 있는데
    1. p.s.d. 이 무엇인지 말씀해 주실때 z^TAz>=0 을 만족하는 A를 p.s.d. 라고 하는 것 같은데 이 때의 z 는 임의의 z에 대해서 모두 만족하는 것을 의미하는 것인가요??
    2. 댓글의 추가 설명을 읽어보면 symmetric matrix A일 경우 eigenvector로 이루어진 행렬 V는 orthogonal matrix가 되도록 V를 잡을 수 있다라고 하셨는데, 그렇다면 eigenvector는 서로 직교할 수 밖에 없고 크기가 1인 벡터로 구성할 경우 orthogonal matrix V가 된다라는 의미라고 이해하면 될 까요? 아니면 직교하지 않은 eigenvector도 존재할 수 있지만 직교하도록 eigenvector를 구성할 수 있다는 의미일까요?

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      1. 넵 맞습니다 ㅎㅎ 실수 값을 가지는 모든 벡터에 대해서 성립해야합니다
      2. 넵 직교하는 벡터로 구성할 수 있다는 뜻이었습니다! eigen vector는 무한해서 꼭 orthogonal로만 잡을 수밖에 없다는 건 아닌고 그렇게 잡을 수도 있다는 것이죠

  • @심현민-d6u
    @심현민-d6u ปีที่แล้ว

    형 해석 부분 존나 섹시해

  • @냐냔냐-t8q
    @냐냔냐-t8q 5 หลายเดือนก่อน

    23:12

  • @김태규-m3i
    @김태규-m3i 7 หลายเดือนก่อน

    28:03 에서 공식이 (AtA)의 역행렬이 아니라 (AAt)의 역행렬 아닌가요?

    • @김태규-m3i
      @김태규-m3i 7 หลายเดือนก่อน

      아 제가 멍청했습니다. 맞네요 ㅋㅋ

  • @김유민-r3i
    @김유민-r3i ปีที่แล้ว

    고윳값 분해를 해서 작은 eigen value들은 noise로 본다는 관점이 너무 신기해요 ㅋㅋ 알면 당연한건데도 어떻게 생각했을까 ㅋㅋ

  • @llliliillilillli7895
    @llliliillilillli7895 7 หลายเดือนก่อน

    여기 채널이 ㄹㅇ보물창고네요

    • @hyukppen
      @hyukppen  7 หลายเดือนก่อน +1

      ㅎㅎㅎ 환영합니다!

  • @groundonthe114
    @groundonthe114 ปีที่แล้ว

    제가 예전에 배웠던 걸 보면 고윳값 분해는 행렬 A가 대각화 가능할 때이고 A가 대칭행렬이고 직교대각화 가능할 때 λuu_T의 합으로 분해하는 것은 따로 스펙트럼 분해라는 것으로 배웠는데 일반적으로는 후자를 그냥 고윳값 분해라고 하나요??

    • @hyukppen
      @hyukppen  ปีที่แล้ว

      en.wikipedia.org/wiki/Spectral_decomposition
      여기를 보니 matrix에 대해서 스펙트럼 분해를 하는 것 = eigendecomposition 인 것 같습니다!

  • @정영균-s9e
    @정영균-s9e 6 หลายเดือนก่อน

    Symmetric matrix가 아니라더라도 eigendecomposition을 하는 이유가 데이터 압축을 위해서 라고 생각해도 되나요? symmetric이 아니더라도 rank-1 matrix의 합으로 나타낼 수 있으니 가능다고 생각합니다. 하지만 직교행렬일때와의 어떤 차이점이 있는지는 잘 모르겠습니다.

    • @정영균-s9e
      @정영균-s9e 6 หลายเดือนก่อน

      하지만 대칭행렬이라 직교행렬*시그마*직교행렬^T로 생각했을때와 어떤 차이가 있는지 모르겠습니다.

  • @한핡
    @한핡 3 วันที่ผ่านมา

    대각화였구나 이게

  • @괴도너구리-q8x
    @괴도너구리-q8x 2 ปีที่แล้ว

    22:54 q1q1Transpose가 왜 rank 1 matrix가 되는지 잘 모르겠습니다

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว +1

      q1이 1,2,3 이라고 하고 한번 전개해 보세요!

  • @솜사-i9x
    @솜사-i9x 6 หลายเดือนก่อน

    돈이 하나도 안아깝고 걍 우리 교수님 월급 뺏어다 드리고 싶음

    • @hyukppen
      @hyukppen  6 หลายเดือนก่อน

      앜ㅋㅋ 말씀 감사합니다 🤣

  • @김-x3w2c
    @김-x3w2c 7 หลายเดือนก่อน

    23~24분쯤에서 행렬 A를 rank-1인 행렬 3개로 쪼갠다고 하셨는데
    rank-1인 행렬은 1차원 공간을 span하니까 직선을 의미하는 것 맞나요?
    이해하기 쉽게 직선이 아니라 평면으로 그리신건가요?

    • @hyukppen
      @hyukppen  7 หลายเดือนก่อน

      행렬이 2차원 배열이라서 면으로 그림을 그렸습니다 ㅎㅎ

  • @김태규-m3i
    @김태규-m3i 8 หลายเดือนก่อน

    고윳값 분해에서 symetric이 아니어도 AX벡터를 나눠서 표현할 수는 없나요?
    생각을 해봤는데 sysmetric이어야 가능한 부분을 못찾았어요 ㅜㅜ

    • @김태규-m3i
      @김태규-m3i 8 หลายเดือนก่อน

      제가 생각을 해봤는데 symetric인 걸로 가졍한 이유가 symetric이면 diagonalizable한게 보장이 되니까 저렇게 진행한 건가요? 그리고 symetric metrix가 아니어도 diagonalizable하다면 eigen decomposition이 가능한건지 여쭤보고 싶습니다~!

  • @양상혁-t1i
    @양상혁-t1i 2 ปีที่แล้ว

    대칭행렬 설명에서 Symmetry matrix는 A = A^T라고 하셨는데, 예를 들어 A = [[1, 1], [1, 1]]의 경우는 A^T도 [[1, 1], [1, 1]]가 되잖아요?? 근데 이 경우는 det(A)=0이여서 eigenvector가 없을텐데, 혹시 Symmetry matrix를 정의할 때 어떤 가정 같은 것이 있을까요??

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      아이겐 벡터 있습니다!
      th-cam.com/video/xDARfmKauuA/w-d-xo.html
      여기 6번 예시에서 말씀하신 그 행렬을 다룹니다 ㅎㅎ

  • @후유-o1i
    @후유-o1i ปีที่แล้ว

    실용적인 선대강의라 잘듣고있씁니다 감사합니다 혹시 질문하나 드려도 될까요?
    대칭행렬에서 서로다른 두 고유공간에 있는 고유벡터들은 직교한단것은 이해했는데 고유공간에서 각각의 독립적인 고유벡터들이 있는것은 무얼통해 증명이 가능한가요? 대칭행렬의 독립적인 고유벡터의 존재성을 잘 모르겠어요 ㅠ

    • @hyukppen
      @hyukppen  ปีที่แล้ว

      왜 대칭행렬은 항상 diagonalizable 하냐는거죠??

    • @후유-o1i
      @후유-o1i ปีที่แล้ว

      @@hyukppen 넵 대칭행렬 서로다른 고유공간에 있는 두 고유벡터가 직교한다는 알겠는데
      대칭행렬이 항상 대각화가 가능하다면 서로다른 고윳값이 항상 존재한다는 말인데
      서로다른 고윳값이 존재한다는것은 어떻게 알 수 있는지 궁금합니다!

    • @hyukppen
      @hyukppen  ปีที่แล้ว

      @@후유-o1i일단 서로 다른 고윳값이라는 것은 틀린 설명 같습니다. 하나의 고윳값에서 여러 고유벡터를 뽑아낼 수도 있습니다! null space 에 있으면 되기 땜에..

    • @후유-o1i
      @후유-o1i ปีที่แล้ว

      @@hyukppen 그렇다면 실수고윳값을 가지고 서로 다른 고유벡터를 가졌을때가 전제가 되어야 하는것일까요?

    • @hyukppen
      @hyukppen  ปีที่แล้ว

      @@후유-o1i 사실 저 명제의 증명 과정은 잘 모릅니다 ㅠ 증명과정에서 고윳값이 다른 것을 전제하던가요?

  • @김동열-u8c
    @김동열-u8c 6 หลายเดือนก่อน

    실제로 응용을 할 때 A가 symmetric인 경우가 많나요?

  • @SphereofTime
    @SphereofTime 20 วันที่ผ่านมา

    zero Eigenvalue

  • @나는낭만고양이
    @나는낭만고양이 9 หลายเดือนก่อน

    혹시 왜 symmetric matrix(대칭 행렬)이 대각화 가능한지 알 수 있을까요...?

    • @hyukppen
      @hyukppen  9 หลายเดือนก่อน

      그 증명은 저도 잘 모르겠습니다!

    • @나는낭만고양이
      @나는낭만고양이 9 หลายเดือนก่อน

      @@hyukppen 앗 넵 알겠습니다! 답변 감사합니다!

  • @손준호학생사회교육과
    @손준호학생사회교육과 2 ปีที่แล้ว

    왜 q^t x 내적한 것이 정사영한 것이 되나요? 혁펜님 앞선 강의를 다시 보고 와도 제 지능으로는 공식 연결이 안됩니다 ㅠㅠ

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      어디쯤에서 잘 이해가 안갔나요? 타임라인한번 달아주세용 ㅎㅎ

    • @DoeJohn-x6g
      @DoeJohn-x6g 2 ปีที่แล้ว

      @@hyukppen 27분 12초 즈음부터... q transpose * x 가 q, x 두 벡터의 내적인 것은 알겠는데... 여기에다 벡터 q를 한번 더 곱한 q * q transpose * x 가 어떻게 정사영한 값이 된다는 것인지 모르겠습니다. 앞선 수업에서의 정사영 식과 다르지 않나요?

    • @hyukppen
      @hyukppen  2 ปีที่แล้ว

      @@DoeJohn-x6g 내적하면 정사영된 크기를 얻을 수 있고 q를 곱하면 그 방향을 행하는 벡터가 되는 것이지요 ㅎㅎ

  • @신호중-i8h
    @신호중-i8h ปีที่แล้ว

    Saranghaeyo

  • @성이름-g3q
    @성이름-g3q 9 หลายเดือนก่อน

    내 야동이다 ㄹㅇ