PCA as an embedding technique

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 พ.ย. 2024

ความคิดเห็น • 6

  • @mohamedheddar8021
    @mohamedheddar8021 2 หลายเดือนก่อน +4

    Man I'm not used to comment on TH-cam, but i love your videos

  • @erickmarin6147
    @erickmarin6147 2 หลายเดือนก่อน +1

    Just as I was going to open the "next video" I noticed this was posted 19 hours ago

  • @yafz
    @yafz 2 หลายเดือนก่อน +1

    Very good problem statement and justification for PCA based on a realistic data set.

  • @denniswatson4326
    @denniswatson4326 2 หลายเดือนก่อน +1

    also this looks a lot like LSA/LSI where you have a sparse matrix of words and document which you do some kind of matrix factorization with SVD except the documents are small strings and the words are subword ngrams.

  • @denniswatson4326
    @denniswatson4326 2 หลายเดือนก่อน +1

    I love the idea of densify-ing sparse matrix but I wonder if PCA is the best method. PCA will make principle components that preserve the most variance. Could you or should you use another matrix factorization like nonnegative matrix factorization or truncated SVD?

    • @probabl_ai
      @probabl_ai  2 หลายเดือนก่อน +1

      Oh TruncatedSVD would also totally work!