계량경제학 퀄 시험 준비할 때 직관적으로는 이해가 잘 안가서 꽤 오래 고민했던 부분이었는데 설명 명쾌하게 해주셔서 감사하게 봤습니다. 영상 보면서 생각한건데요. ‘인간은 평등하다’라는 말의 수학적 근거가 될 수 있을 것 같아요. 한가지 변수로 사람들을 평가한다면 사람들을 줄세워서 1등부터 꼴찌까지 서열화 할 수 있잖아요. 하지만 사람에게 한가지 특성이 주어진 것이 아니고 엄청나게 많은 특성이 주어지는데 그걸 고려해서 사람들을 다시 평가한다면 그 서열이 매우 불확실해질 것 같아요. 인간본질의 평가에 있어서 차원의 축소가 어려워서 차원의 저주가 계속되기를 바랍니다.ㅋㅋ
고차원에서 보면 벌레나 사람이나... 사람 맞는지 볼려면 사람 수준 차원으로 구분하고... 우주적 관점에선 고차원으로 비교하고.. 결국 상대적인 관점을 갖느냐의 문제. 종교나 우주나 형이상학의 영역 쯤과 형이하학의 영역의 질적인 차이쯤을 구분하는 과학(수학)적 기준 쯤 될려나? ^^
@@길위의인생-o7v 키가 150cm인 사람과 200cm인 사람은 굉장히 다르죠. 하지만 같은 지역에 살고, 같은 학교를 나오고, 같은 게임을 즐기고, 같은 직종에 종사하고, 같은 차를 몰고, 같은 주량, 같은 음식취향, 같은 연봉인 두 사람이 키가 150cm 200cm라면? 저희가 보기엔 당연히 다른 사람이지만 데이터만 놓고 보기엔 키를 제외한 많은 데이터가 같은 사람인걸 가리키고 있기에 큰 차이를 느끼기 힘들다는거죠. 이 영상이 하고싶은 말은 데이터 분석을 할 때 원하는 결과를 얻기 위해선 필요 없는 데이터는 제외해야된다는 것 같습니다
@@길위의인생-o7v 사람의 관계에서 예를 들자면 너와 내가 비슷한 취향인가 했을 때.. 차원을 색깔 하나로 두면 취향의 차가 극명하게 나뉘지만, (나는 노란색을 좋아하지만 너는 초록색을 좋아해. 우리는 달라. 또는 너도 나도 노란색을 좋아하니 취향이 같아.) 차원을 색깔, 물건의 길이, 물건의 종류, 물건의 위치 등 점점 늘려가서 100개의 차원이 있다고 생각하면 어떤 사람도 취향이 비슷하다고 말할 수 없습니다. 그러므로 모두 같은 취향의 거리가 있다고 할 수 있겠죠
이 강의는 차원의 저주(Curse of Dimensionality)라는 개념을 설명하는 과정에서 차원이 높아질 때 나타나는 공간의 특성을 다루고 있습니다. 주된 아이디어는 차원이 높아질수록 가까운 점과 먼 점의 구분이 모호해지고, 그 결과 머신러닝과 같은 데이터 분석에서 두 점 사이의 거리 개념이 덜 유의미해진다는 것입니다. 처음에 1차원, 2차원, 3차원의 예시를 통해서 원, 구, 그리고 하이퍼스피어(고차원 구체)의 부피가 전체 공간에서 차지하는 비율이 점차 감소하는 것을 보여줍니다. 이 과정에서, 차원이 증가할수록 하이퍼스피어가 차지하는 공간의 비율이 점점 작아져 결국 0으로 수렴하게 된다는 결과를 도출합니다. 특히 고차원 공간에서는 데이터 포인트들 사이의 거리가 거의 비슷하게 분포되어 "가깝다" 혹은 "멀다"라는 개념이 흐려지게 되고, 이를 차원의 저주라 부릅니다. 이러한 현상은 머신러닝에서 데이터 간의 거리를 기반으로 하는 방법론에 큰 영향을 미치며, 이를 극복하기 위한 방법으로 데이터의 차원을 줄이는 기술이나 더 많은 데이터를 확보하는 방안을 제시합니다. 이 강의에서 차원의 저주가 실질적으로 데이터 분석에 미치는 영향을 이해하는 것이 매우 중요한 포인트입니다. 고차원 데이터에서 유의미한 정보를 추출하기 위해서는 차원 감소 기술(예: PCA, t-SNE 등)을 사용하는 것이 필요합니다.
stable diffusion이 과거의 diffusion 모델보다 더 좋은 성능을 달성한것도 encoder를 통해 적절한 크기의 차원으로 embedding을 한데에서 기인하고 있는 것으로 알고 있습니다. 그리고 저는 저차원이 더 좋다고 생각하는 것이, 저차원은 사람이 볼 수 있기 때문에, 설명가능함의 관점에 있어서도 중요한 것 같습니다. t-SNE, PCA, UMAP 등, 차원축소 알고리즘은 설명하는데도 굉장히 좋은 역할을 하기도 하고요.
차원의 저주라는게 단순하게 데이터의 변주가 다양해진다고만 알고 있었는데 수학적으로 이런 말도 안되는 일이 있었군요... 가까운 점과 먼 점을 구분하는 게 의미가 없다라는건 정말 멋있네요. 차원이 높아질수록 하이퍼스피어가 차지하는 비율이 줄어든다는 사실은 적분으로 쉽게 증명이 되지만 이해하는 것은 참 어렵군요... 더 열심히 생각해보겠습니다.
와.. 이런 개념은 처음 알았지만 직관적으로도 생각이 가능한 부분이었네요. 방금 떠오른게 만약 어떤 사람이 조건에 따라 고용할 사람을 찾고 있는데, 1가지 조건만 보는 사람이라면 후보가 2명만 있어도 거의 명확하게 선택 되겠지만, 조건을 10가지를 따진다고 할 때 조건별 가산점 차이가 없다면 각 사람마다 10가지의 강약점이 상쇄되어 비슷한 총점을 받게 되겠죠. 그렇기 때문에 확실한 후보를 찾기 위해 더 많은 후보군이 필요하겠네요.
공대에서 대학원 졸업하고 산업 현장에서 연구직으로 잠시 일했었습니다. 어떤 화학반응을 시킬때 온도 압력 시간 반응물질의 양 등 조건이 많은데, 다른 조건은 "고정" 시키고 시간만 변화시켜서 결과를 본다든지, 해서 데이터를 가져갔지요... 이제보니 수학적으로는 차원의 축소라고 볼 수 있었겠네요
n차원에서 랜덤한 좌표를 찍어 두 점을 만든다 했을 때 2차원에서 (1,1) (9,9)의 두 점이 나오는 것보다 6차원에서 (1,1,1,1,1,1) (9,9,9,9,9,9)의 두 점이 나오는 게 더 확률이 낮기 때문이다. 차원이 높을수록, 두 점 간의 거리가 특이할 정도로 멀리 떨어지기가 힘들다는 뜻이다. 더 단순화해서 생각하면, 777이 나오면 잭팟인 슬롯머신에서 칸 수를 늘려 777777이 나와야하도록 바꾼다면 잭팟 확률은 더 낮아질 것임을 생각하면 된다. 좀 사회적으로 비유한다면 이런 발상도 가능하다. 학생 전원 공부에 열의가 있는 반에서 국어 수학 점수의 합(2차원)만 비교한다면 다양한 분포가 나오겠지만, 국어, 수학, 영어, 사회, 과학, 역사, 등등 점수 합에 포함시킬 과목 수를 늘려나가면(고차원화) 그 점수 합 간의 차이는 줄어들 것이다. 재능이 공평하게 부여된다는(균일 랜덤) 가정 하에서 말이다. 이 과목 점수는 RPG 게임의 스탯(힘, 민첩, 지혜 등)으로 바꾸어 생각해봐도 좋다. 아무튼 그래서 차원 감소는 차원의 저주를 피하기 위해서 뿐만아니라 데이터 처리 비용 감소 면에서도 중요하다. 유튜브의 입장에서 사용자의 나이는 챙기고 허리 둘레는 버려도 될 것이며, 쇼핑몰의 입장에선 허리 둘레는 챙겨도 혈압은 버려도 될 것이다.
디자인을 전공했습니다. 좋은 디자인이란 잘 삭제(제거) 한 디자인이란 말을 매일 듣고 공부했죠. 무슨 이야기냐면, 어떤 좋은 디자인을 만들때, 한 두가지 특징에 주력해서 만들고 다른 사족이 될만한 것은 제거를 잘해야 좋은 디자인이라는 것입니다. 자동차를 만드는데, 유선형으로 속도감을 느끼게 만든 자동차는 그에 맞게 도로에 딱 붙게 만드는 쪽으로 주력을 하고 오프로드를 달리는 성능은 포기하는 것이죠. 스포츠카는 속도감과 빠른 것에 주력하는 대신 안락함을 포기하게 되는 것이고요. 그에 반해 롤스로이스 같은 차는 속도는 좀 포기하더라도 안락한 공간감, 여유있는 서스펜션등 스포츠카 대비 장점은 포기하는 대신 사용자의 편안함에 초점을 맞추죠. 그 외의 나머지 특징은 다 버리는 것입니다. 만일 확실히 대비대는 위의 두 차량이 각자, 오프로드 성능도 챙기고 내부공간도 챙기고, 의자의 편안함도 챙기고, 속도를 위한 낮은 천장구조도 챙기고 하는 식으로 특징에 주력하지 못하고 개조하면, 종국에는 두 차가 뭐가 다른지 모르게 되는 괴랄한 차 두대가 나오고, 그 차이점(거리감)이 없어질 겁니다. 그래서 어떤 디자인이라는것은 심미적, 혹은 기능적으로, 색을 많이쓰는 것이 반드시 좋은 것은 아니고, 기능을 무조건 우겨넣는 것도 반드시 좋은 게 아닙니다. 최초 브레인 스토밍으로 다양한 심미적 기능적 제품을 상상하고 아이디어를 늘어놓지만, 진정한 디자인은 거기에서 필요없는 디자인(차원)을 제거하고 포기할것은 포기하며 한가지 컨셉에 맞게 주력하는 것입니다. 브레인 스토밍은 인공지능이 잘합니다. 수집능력이 탁월하지요. 그중에 쓸모 있다 없다를 판별해서 컨셉을 유지하는 것은 인간이 우월한 능력입니다. 인공지능시대에 인간이 단순노동을 빼앗기면서 존재가치 또는 의미부여를 할 수 있는 유일한 능력이죠. 코딩공부, 인공지능로봇공부등은 미래기술을 이해하기 위한 공부지만 컨셉학습은 미래의 인간의 가치를 유지하기 위한 공부가 될겁니다. 그것이 바로 인공지능을 잘 활용하는 인재를 구분하는 척도가 될 것이구요.
저는 요즘 철학적인 생각을 많이 합니다. 저와 다른 가치관,이념을 가진 사람과 대화하는것은 제가 보는,생각할수 있는 세계가 넓어지면서 저 자신에 대해 좀더 정확하게 이해,관철 할수있게 해준다고 생각해왔습니다. 그리고 그 것은 저를 한 단계 더 성장시켜준다고 믿고 있습니다. 영상에서 차원이 한단계 올라갈때마다 부피가 n제곱으로 커지는것을 볼땐 제가 대화를 하며 보고,생각할수 있는 세계가 넓어지는것과 같은 원리인것처럼 보였고, 8:10 부분에서 차원이 올라갈수록 무작위로 분포된 점 사이의 거리 최대 값/최소 값 이 1에 가깝게 수렴한다는것을 보며 보고 느낀게 많을수록,생각을 많이 할수록 나 자신이 조금씩 더 또렷해 지는것과 유사하다고 느꼈습니다. 철학적인 문제 조차도 수학으로 풀어낼 수 있다는게 수학은 너무 아름다운것 같습니다.
언뜻 비례해야 할 것 같은 두 요소, 어떤 사람이 가진 지식의 양과, 자신이 알고 있는 지식을 전달하는 능력은 의외로 비례하지 않는 경우가 많더군요. 그러나 채널 주인장님께서는 둘 모두를 대단한 수준으로 갖추고 계시네요. 영상의 엄청난 전달력에 놀란 다음, 채널 소개란의 학력과 경력에 한 번 더 놀라고 갑니다. 부럽습니다.
차원을 설명할 때 흔히 예로 드는 다른 차원의 생물(직선상의 개미라든지 4차원의 인간같은)을 지금 이 영상을 보고 생각해보니 고차원에 있는 존재들은 칼라로 연결되어있다거나, 유년기를 끝낸 인류와 같이 비슷비슷한(혹은 서로 차이가 없는 혹은 단일) 존재들일까 하는 뻘생각이 들었습니다
직관적으로 이해하기 너무 어렵네요..! 근데 너무 재밋어요 ㅋㅋㅋ 고차원으로 갈수록 부피는 0으로 수렴하는데, 그 부피 안에서 (max dist) / (min dist)의 비율은 1로 수렴한다는게 상상해보면 맞는것같기도 한데, 아닌거같기도하고 ㅋㅋㅋㅋㅋㅋㅋ 항상 좋은 영상 너무나도 잘 보고있습니다 감사합니다 !
X와 Y가 iid uniform on [-1,1] 일 때, E(X-Y)^2 = 2/3, V(X-Y)^2 = 28/45 인 것을 이용하면 n dimensional cube [-1,1]^n 에서 랜덤한 두 점의 거리의 제곱을 n으로 나눈 것의 distribution이 normal distribution 에 가까워지고 (Central limit theorem), Chebyshev inequality를 쓰면 임의의 epsilon>0 에 대해서 P(max dist/min dist < 1+ epsilon) 이 n->infinity일 때 1로 수렴하는 것을 보일 수 있습니다. 이런 이야기를 다 하시기에는 영상이 너무 길어지겠네요.
벌써 25년 전쯤이네요. 제가 인공지능 전공으로 서명검증 시스템 구현을 주제로 석사 논문을 썼는데요, 온라인 서명의 경우 X,Y축 속도, 가속도, 크기, 압력 등의 다양한 변수가 있습니다. 말하자면 모양은 흉내를 내어도 속도와 가속도, 압력의 변화등은 따라하기 어렵다라는 가설에 대한 검증이었어요. 당연히 각 변수를 최대한 많이 이끌어내어 검증 데이터를 학습시키고 실제 적용해보면 에러(진짜 서명을 가짜로, 가짜를 진짜로 오인식)가 적어질거라 생각했는데 그렇지 않더라고요! 변수가 어느정도 이상 많아지면 오히려 인식률이 떨어짐..신기하더라~ 라는게 제 논문의 주제였습니다. 논문의 결론은 단지 거기서 끝이었는데, 이런 변수 역시 차원의 개념으로 생각해보면 좋았겠네요.
어느 식장을 갈지 결정할 때 따지는 항목이 많아지면 결국 그집이 그집으로 수렴하는 것도 같은 원리일것 같다는 생각이 드네요. 모든 선택과 결정에서 지나치게 과도한 분류와 항목과 관점은 오히려 좋은 판단을 하는 것에 해가 되고, 차원을 줄여 각 선택지간의 간격을 보다 잘 파악할 수 있어야 데이터를 의미있데 사용할 수 있다는 것으로 이해되었습니다. 아주 예전에 봤던 영상을 알고리즘을 통해 정말 오랜만에 다시보게 되었는데 너무 좋네요. 감사합니다.
크기가 같은 원(반지름1)끼리 사각형 모양으로 붙이면 2차원 에선 원의중심과 전체중심의 거리는 2^0.5-1이죠. 마찬가지로 3차원 구를 같은 조건으로 하면 3^0.5-1이죠. 근데 4차원 구에서 같은조건을 실행하면 4^0.5-1=1이죠 즉 4차원 구 16개를 맞닿아놓으면 그 구16개안쪽에 새로운 구1개를 놓을수있다는거죠... 이개념을 확장하면 9차원 구 512개를 맞닿아놓으면 그안에는 반지름이 2인 구도 들어간다는거고... 고차원은 참신기한개념같아요
12math님 12만 구독자 축하드립니다. 이것에 대해서 영상 찍어주실수 있을까요? 임이의 확률 예를 들어 1/3 이라는 확률이 있으면 ㄱ,ㄴ,ㄷ중 하나를 무작위로 고를겁니다. 이것을 n번 했을때 1/3확률로 이것을 뽑았어도 그 값이 ㄱ,ㄴ,ㄷ 의 뽑힌 횟수가 각각 n/3을 갖지 않을수 있잖아요. 결과적 으로 얻을 확률을 미리 구할수 있는 방법이 있을까요? 또는 n=3k라고 할때 정확히 각각 n/3을 갖게되는 확률을 구할수 있을까요? 현재 수상 하고 있는 중2 인데 호기심이 많아서 번뜩 생각난 문제 입니다. 계속 고민해 보았지만 lim등을 배우지 않아서 질문 남깁니다.
쉽게 말하면 아주 우연히 첫 10번 뽑기에서 ㄱ-8, ㄴ-1, ㄷ-1 이 나오더라도 추가적으로 100번, 1000번, 아주 많은 횟수만큼 뽑으면 333333333......8, 333333333....1, 333333333.....1처럼 결국엔 맨 처음에 주어진 확률에 근접하게 되는거임
오호... 신기하네요. 철학적으로 본다면 우리가 개와 고양이를 구분할 수 있는건, 더 나아가 진달래와 철쭉을 구분할 수 있는건 경험적으로 머릿속에서 유의미한 데이터와 무의미한 데이터를 자체적으로 분류하고 있으며 무의미한 데이터차원을 과감히 버림으로써 구분한다는 의미같은데... 만일 우리가 보편적으로 버리게 되는 차원이 아닌 다른 차원으로 사물을 보게되면 같은것도 달라질 수 있고 다른것도 같아질 수 있겠네요. 예를 들어 어느 부족의 고유 언어는 무엇을 중시하기 때문에 어떤 한가지 개념을 구분하는 단어가 수십개씩 있다라는 사례도 있고 말이죠.
n차원 세계에서 일어나는 현상에 대한 이 영상은 정말로 믿기 어려운 경험이었습니다. 강의자가 복잡한 수학적인 아이디어를 직관적으로 이해할 수 있게 풀어내면서, n차원 공간에서의 현상에 대한 이해도를 크게 높일 수 있었습니다. 수학의 신비로움을 다시 한 번 느낄 수 있었습니다!
와우 ㄷㄷㄷ 학교다닐때 이렇게 설명을 잘하는 선생님이계셨다면 노벨상 최다배출국이 되었을수도 ㄷㄷㄷ 빅데이터라고 모아보면 유의미한결과를 산출하기가 어려웠는데.. 이걸보고나니 이해가 쏙쏙! 수집되는 정보의 유형을 차원에 대입할때 10소름ㄷㄷㄷ 데이터 여러종류 모으지말고 집중해야하는 최소한의 데이터만 모아서 일했는데.. 그게 차원줄이기 같은거였군요? 이론은모르지만 직감적이고 본능적으로 그리해야할것같았는데 ㄷㄷㄷ 우왕.. 진짜 세상모든게 다 수학으로 설명가능한거구나 ㄷㄷㄷ 설명못하는건 아직 발견되지 않은것일뿐!
친구가 없는 사람들이 2차원으로 내려가는 이유를 알았습니다, 선생님!
와우
100점... 100점이요...
ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
어디학원 나오셨어요? ㅋㅋㅋㅋ
어 그럼 친구가많으면 고차원 인거임?
계량경제학 퀄 시험 준비할 때 직관적으로는 이해가 잘 안가서 꽤 오래 고민했던 부분이었는데 설명 명쾌하게 해주셔서 감사하게 봤습니다.
영상 보면서 생각한건데요. ‘인간은 평등하다’라는 말의 수학적 근거가 될 수 있을 것 같아요. 한가지 변수로 사람들을 평가한다면 사람들을 줄세워서 1등부터 꼴찌까지 서열화 할 수 있잖아요. 하지만 사람에게 한가지 특성이 주어진 것이 아니고 엄청나게 많은 특성이 주어지는데 그걸 고려해서 사람들을 다시 평가한다면 그 서열이 매우 불확실해질 것 같아요.
인간본질의 평가에 있어서 차원의 축소가 어려워서 차원의 저주가 계속되기를 바랍니다.ㅋㅋ
이 댓글을 보니 예전에 불완정성의 원리를 읽고나서 들었던 것과 비슷한 감정을 느낍니다. 어느 학문이던간에 일정 수준 이상에 도달하면 결국 철학적인 내용에 수렴하게 되는 것 같습니다. 그래서 옛날에 위대한 인물들이 철학자를 겸했었다 싶기도 하고요 ㅋㅋ
돈, 권력, 법이 평등을 보장해주지 않는 한 아무런 의미도 없습니다
@@dongyoon2그런 거창한 이유는 아니고, 모든 학문이 철학(그 이전에는 신학)에서 시작해서 그래요
어쩌다가 알고리즘으로 들어와서
실험에 대한 조건 변수에 대해서 고민이 많았는데
차원을 줄이는 시도...
정말 한대 맞은 기분이네요 감사합니다
미국에서 DS 현직자입니다.
너무나 훌륭하십니다.
앞으로도 계속 많이 배우도록 하겠습니다
영상을 통해 철학적인 투영도 하게되네요.
내세울게 없는 무지함에서 본인이 뭘하는지 포지션 밝히는건 자연스러우나 그래서 뭐 어쩌라고?ㅎㅎ
@@user-jd7rs7ww7v사회생활 가능하냐? 아차차 불가능하니 이런 댓글 적겟제 ㅋㅋㅋㅋ
@@user-jd7rs7ww7v왜 그런 한심한 생을 사는 거야?
@@user-jd7rs7ww7v 왜 ㅈㄹ이냐
@@user-jd7rs7ww7v ?
와 선생님... 언제나 인텔리하셨지만 오늘은 특히 더 그렇습니다... 언제나 유익하고 재밌는 정보 알려주셔서 감사합니다. 단순 차원도형에서 데이터 관리까지 뻗어나가는 걸 보고 있으니 수학의 아름다움이 실감됩니다...
부처님께서 해탈 하셨는데, 그 차원이 13차원이니!
세삼 이걸 우째 헤아릴수 있을까나!
고차원으로 갈수록 서로 다르다고 하는 정도의 크기가 같은 수준으로 수렴한다니... 분석에 필요한 차원의 수를 잘 줄이는 능력이 중요하겠네요
고차원에서 보면 벌레나 사람이나...
사람 맞는지 볼려면 사람 수준 차원으로 구분하고...
우주적 관점에선 고차원으로 비교하고..
결국 상대적인 관점을 갖느냐의 문제.
종교나 우주나 형이상학의 영역 쯤과
형이하학의 영역의
질적인 차이쯤을 구분하는
과학(수학)적 기준 쯤 될려나? ^^
그 차원또한 최적화가 된다면 ㄷㄷ
진짜 통념을 깨 부수는 내용이네요....차원을 높이고, 데이터량도 늘리는 것만 고려하고 있었는데...이게 이렇게 되는 줄 몰랐네요...
딥러닝에서 차원 감소가 이래서 쓰이는거군요 잘 배웠습니다!!!!
감사합니다. 너무 흥미로운 주제네요!
와 신기하네요 저도 데이터마이닝이랑 최적화분야에서 고차원을 다루긴했지만, 차원이 증가했을때 거리가 1에 수렴하는건 오늘 처음알게되었고 그것때문에 문제가 된다는점도 알게되었네요!! 항상 많이 배우고 있습니다!!
왜 그 비율이 1이 되는지 이해가 안되요 ㅠㅠ
@@길위의인생-o7v 고차원으로 갈 수록 다른지점과의 거리가 굉장히 멀게 느껴지고 결국 그 점들과의 거리가 무한대로 가게 되죠 그럼 무한대와 무한대의 비율이됨으로써 1에 수렴하게 되는거라고 생각하시면 편할듯
@@길위의인생-o7v 무한대로 뿌린 점에서 실제로 가장 가까운점과 가장 먼 점을 비교한다면 오히려 값이 무한대로 커지게 된다고 생각합니다. 특정 한 점으로부터 랜덤한 두 점과의 거리를 비교한다면 고차원으로 갈 수록 1에 수렴한다는거죠
@@길위의인생-o7v 키가 150cm인 사람과 200cm인 사람은 굉장히 다르죠. 하지만 같은 지역에 살고, 같은 학교를 나오고, 같은 게임을 즐기고, 같은 직종에 종사하고, 같은 차를 몰고, 같은 주량, 같은 음식취향, 같은 연봉인 두 사람이 키가 150cm 200cm라면? 저희가 보기엔 당연히 다른 사람이지만 데이터만 놓고 보기엔 키를 제외한 많은 데이터가 같은 사람인걸 가리키고 있기에 큰 차이를 느끼기 힘들다는거죠. 이 영상이 하고싶은 말은 데이터 분석을 할 때 원하는 결과를 얻기 위해선 필요 없는 데이터는 제외해야된다는 것 같습니다
@@길위의인생-o7v 사람의 관계에서 예를 들자면 너와 내가 비슷한 취향인가 했을 때.. 차원을 색깔 하나로 두면 취향의 차가 극명하게 나뉘지만, (나는 노란색을 좋아하지만 너는 초록색을 좋아해. 우리는 달라. 또는 너도 나도 노란색을 좋아하니 취향이 같아.) 차원을 색깔, 물건의 길이, 물건의 종류, 물건의 위치 등 점점 늘려가서 100개의 차원이 있다고 생각하면 어떤 사람도 취향이 비슷하다고 말할 수 없습니다. 그러므로 모두 같은 취향의 거리가 있다고 할 수 있겠죠
이런 통찰을 공유 받을 수 있다니 너무나도 감사한 세상입니다. 가르침을 주셔서 감사합니다.🙂
회귀분석에서 변수가 많아질수록 과적합된다는 이유를 알겠네요. 10년듕안 결과만 알았는데 대단히 감사합니다
아주 좋고 유익한 설명있습니다.
저도 의사결정 이론 공부할때 항상 거리 문제로 고민 많았고 많은 논문들이 알고자 하는 정보에 맞게 다른 거리측정 방시들을 제시했었는데 거리에 대해 설명해 주시네요
이 강의는 차원의 저주(Curse of Dimensionality)라는 개념을 설명하는 과정에서 차원이 높아질 때 나타나는 공간의 특성을 다루고 있습니다. 주된 아이디어는 차원이 높아질수록 가까운 점과 먼 점의 구분이 모호해지고, 그 결과 머신러닝과 같은 데이터 분석에서 두 점 사이의 거리 개념이 덜 유의미해진다는 것입니다.
처음에 1차원, 2차원, 3차원의 예시를 통해서 원, 구, 그리고 하이퍼스피어(고차원 구체)의 부피가 전체 공간에서 차지하는 비율이 점차 감소하는 것을 보여줍니다. 이 과정에서, 차원이 증가할수록 하이퍼스피어가 차지하는 공간의 비율이 점점 작아져 결국 0으로 수렴하게 된다는 결과를 도출합니다.
특히 고차원 공간에서는 데이터 포인트들 사이의 거리가 거의 비슷하게 분포되어 "가깝다" 혹은 "멀다"라는 개념이 흐려지게 되고, 이를 차원의 저주라 부릅니다. 이러한 현상은 머신러닝에서 데이터 간의 거리를 기반으로 하는 방법론에 큰 영향을 미치며, 이를 극복하기 위한 방법으로 데이터의 차원을 줄이는 기술이나 더 많은 데이터를 확보하는 방안을 제시합니다.
이 강의에서 차원의 저주가 실질적으로 데이터 분석에 미치는 영향을 이해하는 것이 매우 중요한 포인트입니다. 고차원 데이터에서 유의미한 정보를 추출하기 위해서는 차원 감소 기술(예: PCA, t-SNE 등)을 사용하는 것이 필요합니다.
stable diffusion이 과거의 diffusion 모델보다 더 좋은 성능을 달성한것도 encoder를 통해 적절한 크기의 차원으로 embedding을 한데에서 기인하고 있는 것으로 알고 있습니다.
그리고 저는 저차원이 더 좋다고 생각하는 것이, 저차원은 사람이 볼 수 있기 때문에, 설명가능함의 관점에 있어서도 중요한 것 같습니다. t-SNE, PCA, UMAP 등, 차원축소 알고리즘은 설명하는데도 굉장히 좋은 역할을 하기도 하고요.
차원의 저주라는게 단순하게 데이터의 변주가 다양해진다고만 알고 있었는데 수학적으로 이런 말도 안되는 일이 있었군요... 가까운 점과 먼 점을 구분하는 게 의미가 없다라는건 정말 멋있네요. 차원이 높아질수록 하이퍼스피어가 차지하는 비율이 줄어든다는 사실은 적분으로 쉽게 증명이 되지만 이해하는 것은 참 어렵군요... 더 열심히 생각해보겠습니다.
얼마전에 막 떠올랐는데.. 왜 톱니가 점점 뾰족해지면서 많아지는걸까 뭉툭해질수는 없을까하는 고민을 하다가 하이퍼큐브의 꼭지점은 원점에서 루트n으로 커지고 하이퍼스피어는 여전히 크기가 1이라 뾰족해질수 밖에 없네요. 이제는 좀 알 것 같습니다.
감사합니다!
차원의 저주라는 표현이 참 재미있네요. 영상 재밌게 잘 봤습니다!
와아 정말 최고입니다 ... 차원을 줄이는 방법 강의도 넘넘 궁금합니다 .. 매번 너무 많은 공부가 됩니다 ㅎㅎ 감사합니다 !!
특정을 쉽게 하기 위해 데이터의 종류를 늘렸는데 오히려 거리가 비슷해져 색인을 하기 어려워진다라... 직관적으로 이해가 될랑말랑합니다.
데이터확보와
차원감소는
벌써
마음에확보되어있으니
마음만
깨치면될거같네요~~~
차원이 많아질수록 특정 지점까지 더 가까운 거리로 이동할 수 있는 방법들이 생긴다고 볼 수도 있겠네요
정말정말 재밌는 주제였습니다! 특히 원서의 시각자료를 가져오신게 정말 이해가 잘되고 깨달았을 때 쾌감이 좋네요! 설명을 매우 잘하셔서 정말 재밌게 들었습니다!!
50대 아줌마인데 너무 재밌네요 !!
나름 대입시험에서 수학 만점 맞은 사람인데.. 잊고살었던 수학적 상상력을 깨워 주셔서 감사해요 !
와.. 이런 개념은 처음 알았지만 직관적으로도 생각이 가능한 부분이었네요.
방금 떠오른게 만약 어떤 사람이 조건에 따라 고용할 사람을 찾고 있는데, 1가지 조건만 보는 사람이라면 후보가 2명만 있어도 거의 명확하게 선택 되겠지만,
조건을 10가지를 따진다고 할 때 조건별 가산점 차이가 없다면 각 사람마다 10가지의 강약점이 상쇄되어 비슷한 총점을 받게 되겠죠.
그렇기 때문에 확실한 후보를 찾기 위해 더 많은 후보군이 필요하겠네요.
공대에서 대학원 졸업하고 산업 현장에서 연구직으로 잠시 일했었습니다. 어떤 화학반응을 시킬때 온도 압력 시간 반응물질의 양 등 조건이 많은데, 다른 조건은 "고정" 시키고 시간만 변화시켜서 결과를 본다든지, 해서 데이터를 가져갔지요... 이제보니 수학적으로는 차원의 축소라고 볼 수 있었겠네요
그건 변인통제요
@@lucy-nb8yc 굳이 변인통제를 하는 이유를 차원 축소로 생각할 수 있단거 아닌가요?
좋은영상감사합니다 영성적 깨달음에 한걸음 다가갔습니다
직관적으로 이해되게 잘 설명해주시는 것 같아요👍
여타 교수님들보다 훨씬 설명을 잘해주시네요. 감동받고 갑니다
나는 왜 안자고 이걸 보고 있을까
결국 나랑 똑같은 친구를 찾는게 힘든 문제랑 연결 되는 것 같네요.
모든 취향이 같을 수는 없다는 것
오.... 생각치도 못하게 엄청 큰 인사이트 얻어갑니다.
데이터 분석에서 차원(팩터)이 많아지면 유의미한 데이터를 얻기가 힘들어지는 군요!
차원의 저주를 보니 몇 년 전 PCA 관련해서 연구했던 때가 떠오르네요ㅎㅎ 그때는 여러모로 이 분야에 대해 잘 이해를 하지 못하고 있어서 한참 헤맸는데, 이제는 또 추억이네요,,
유익한 영상 감사합니다.
영상 감사합니다. Curse of Dimensionality 를 맨날 대충 설명하고 넘어갔는데, 확실히 설명할 수 있겠습니다.
단순히 차원이 늘어나는데, 내 주위에 공간이 차지하는 비율이 줄어든다는 것이 약간 직관에 반하는 것 같으면서도 재미있네요.
고차원에 있을수록 내가 가진 공간 대비 세상이 훨씬 넓어 보이겠군요.
눈이 높아질수록 연애하기 힘든 상황과 똑같아보이네요^^
n차원에서 랜덤한 좌표를 찍어 두 점을 만든다 했을 때
2차원에서 (1,1) (9,9)의 두 점이 나오는 것보다
6차원에서 (1,1,1,1,1,1) (9,9,9,9,9,9)의 두 점이 나오는 게
더 확률이 낮기 때문이다.
차원이 높을수록, 두 점 간의 거리가 특이할 정도로 멀리 떨어지기가 힘들다는 뜻이다.
더 단순화해서 생각하면, 777이 나오면 잭팟인 슬롯머신에서 칸 수를 늘려 777777이 나와야하도록 바꾼다면 잭팟 확률은 더 낮아질 것임을 생각하면 된다.
좀 사회적으로 비유한다면 이런 발상도 가능하다.
학생 전원 공부에 열의가 있는 반에서 국어 수학 점수의 합(2차원)만 비교한다면 다양한 분포가 나오겠지만,
국어, 수학, 영어, 사회, 과학, 역사, 등등 점수 합에 포함시킬 과목 수를 늘려나가면(고차원화) 그 점수 합 간의 차이는 줄어들 것이다.
재능이 공평하게 부여된다는(균일 랜덤) 가정 하에서 말이다.
이 과목 점수는 RPG 게임의 스탯(힘, 민첩, 지혜 등)으로 바꾸어 생각해봐도 좋다.
아무튼 그래서 차원 감소는 차원의 저주를 피하기 위해서 뿐만아니라 데이터 처리 비용 감소 면에서도 중요하다. 유튜브의 입장에서 사용자의 나이는 챙기고 허리 둘레는 버려도 될 것이며, 쇼핑몰의 입장에선 허리 둘레는 챙겨도 혈압은 버려도 될 것이다.
오… big data 때문에 추상적으로 보였던 차원 현상이 이렇게 중요해질 수 있다는 게 흥미롭네요 👍 잘 보고 갑니다
차원의 저주에 대해서 이렇게 직관적이고 쉽게 이해할 수 있다니.. 너무 혜자로운 영상입니다. 너무 감사합니다!!!
잘 보고 가요!
n차원의 거리 개념이 통계나 빅데이타에 활용되는 기본 원리가 되는군요. 좋은 자료입니다. 감사합니다.
아하~~
그렇군요...
평소에 전혀 생각치 못했던 지식을 알려 주셔서 많은 공부가 되었습니다
감사 합니다.
수학적으로 봤을 때는 직관적이지 않았는데 데이터로 예제가 주어지니 조금은 직관적인 느낌이 드네요. 흥미로운 주제를 정말 잘 풀어내시는 것 같습니다! 잘 봤습니다.
차원의 개념을 지구에 사는 사람들의 다양성에 대입하면 결국 "너와 나는 다르지 않다"는 부다의 가르침으로 향하게 되는군요.
신기하다진짜..... 수학이 이렇게 많은걸 할수있구나 진짜 신기하다 매력있네진짜
디자인을 전공했습니다.
좋은 디자인이란 잘 삭제(제거) 한 디자인이란 말을 매일 듣고 공부했죠.
무슨 이야기냐면,
어떤 좋은 디자인을 만들때, 한 두가지 특징에 주력해서 만들고 다른 사족이 될만한 것은 제거를 잘해야 좋은 디자인이라는 것입니다.
자동차를 만드는데, 유선형으로 속도감을 느끼게 만든 자동차는 그에 맞게 도로에 딱 붙게 만드는 쪽으로 주력을 하고 오프로드를 달리는 성능은 포기하는 것이죠.
스포츠카는 속도감과 빠른 것에 주력하는 대신 안락함을 포기하게 되는 것이고요.
그에 반해 롤스로이스 같은 차는 속도는 좀 포기하더라도 안락한 공간감, 여유있는 서스펜션등 스포츠카 대비 장점은 포기하는 대신 사용자의 편안함에 초점을 맞추죠.
그 외의 나머지 특징은 다 버리는 것입니다.
만일 확실히 대비대는 위의 두 차량이 각자, 오프로드 성능도 챙기고 내부공간도 챙기고, 의자의 편안함도 챙기고, 속도를 위한 낮은 천장구조도 챙기고 하는 식으로
특징에 주력하지 못하고 개조하면, 종국에는 두 차가 뭐가 다른지 모르게 되는 괴랄한 차 두대가 나오고, 그 차이점(거리감)이 없어질 겁니다.
그래서 어떤 디자인이라는것은 심미적, 혹은 기능적으로, 색을 많이쓰는 것이 반드시 좋은 것은 아니고, 기능을 무조건 우겨넣는 것도 반드시 좋은 게 아닙니다.
최초 브레인 스토밍으로 다양한 심미적 기능적 제품을 상상하고 아이디어를 늘어놓지만, 진정한 디자인은 거기에서 필요없는 디자인(차원)을 제거하고
포기할것은 포기하며 한가지 컨셉에 맞게 주력하는 것입니다.
브레인 스토밍은 인공지능이 잘합니다. 수집능력이 탁월하지요.
그중에 쓸모 있다 없다를 판별해서 컨셉을 유지하는 것은 인간이 우월한 능력입니다.
인공지능시대에 인간이 단순노동을 빼앗기면서 존재가치 또는 의미부여를 할 수 있는 유일한 능력이죠.
코딩공부, 인공지능로봇공부등은 미래기술을 이해하기 위한 공부지만
컨셉학습은 미래의 인간의 가치를 유지하기 위한 공부가 될겁니다.
그것이 바로 인공지능을 잘 활용하는 인재를 구분하는 척도가 될 것이구요.
친구가 없는 걸 보니 나는 초특급 고차원에 살고 있구나
저는 요즘 철학적인 생각을 많이 합니다.
저와 다른 가치관,이념을 가진 사람과 대화하는것은 제가 보는,생각할수 있는 세계가 넓어지면서 저 자신에 대해 좀더 정확하게 이해,관철 할수있게 해준다고 생각해왔습니다. 그리고 그 것은 저를 한 단계 더 성장시켜준다고 믿고 있습니다.
영상에서 차원이 한단계 올라갈때마다 부피가 n제곱으로 커지는것을 볼땐 제가 대화를 하며 보고,생각할수 있는 세계가 넓어지는것과 같은 원리인것처럼 보였고, 8:10 부분에서 차원이 올라갈수록 무작위로 분포된 점 사이의 거리 최대 값/최소 값 이 1에 가깝게 수렴한다는것을 보며 보고 느낀게 많을수록,생각을 많이 할수록 나 자신이 조금씩 더 또렷해 지는것과 유사하다고 느꼈습니다. 철학적인 문제 조차도 수학으로 풀어낼 수 있다는게 수학은 너무 아름다운것 같습니다.
선생님 굉장히 잘 봤습니다. 항상 좋은 교훈을 주시네요 ㅎㅎ
고차원으로 갈수록 랜덤 샘플들의 (max_dist / min_dist) \approx 1 이 된다.
이 명제는 dist의 정의에 따라 달라질 수도 있는 것일까요?
감사합니다.
어떤 메트릭을 쓰더라도 마찬가지일 거라고 생각되네요.
어떤 메트릭 (구체적인 식으로 거리는 뭐다라고 정의해주는 수식)을 쓰더라도, "거리"라고 한 시점에서 거리가 만족해야하는 일반적인 정의가 있어서 그걸 바탕으로 1이 되지않겠나 싶은게 있겠네요
과학얘기 들으러왔다가 인생얘기 듣는 느낌.. 잘들었습니다.
예쁘고 직관적인 설명 감사합니다ㅎㅎ 늘 너무 재밌네요
얼핏 듣기에는 허블 르메트르 법칙이 생각나네요. 문외한의 상상력으로는 거리의 비례관계에 따라 일괄적으로 팽창한다는 것이 우주가 팽창하는건 사실 차원이 늘어나는 것은 아닐까?라는 생각이 드는 영상이었습니다 ㅋㅋ 정말 재밌게 보고 있어요!
감사합니다. 배고파졌어요.
데이터를 다룰 때 차원을 감소시키는 이유에 대해 새롭게 배워가네요. 고맙습니다.
제가 멍청한가봐요...ㅠㅠ. 다른 영상들은 보면 아 그렇구나..하고 흐름 따라가면서 배우는 점이 참 좋았는데 오늘은 너무 어려워서 그래서 결론이 뭐지..? 하는 느낌으로 봤어요 흥미로운 주제 감사합니다~
어떻게 모든걸 이해할 수 있겠나요~ 재미로 보는 것으로 충분하다고 봅니다
지나가는 영재고생입니다
자습하는척 보기 좋네요 감사합니당😊
언뜻 비례해야 할 것 같은 두 요소, 어떤 사람이 가진 지식의 양과, 자신이 알고 있는 지식을 전달하는 능력은 의외로 비례하지 않는 경우가 많더군요. 그러나 채널 주인장님께서는 둘 모두를 대단한 수준으로 갖추고 계시네요. 영상의 엄청난 전달력에 놀란 다음, 채널 소개란의 학력과 경력에 한 번 더 놀라고 갑니다. 부럽습니다.
감사합니다!😊
감사합니다~
뭔가 모르겠는 듯 알 듯 하면서, 신기하면서, 알량하게 뿌듯하면서, 근데 내가 이걸 왜 보고 있는 거지.
직장상사의 어떠한 면만 보면 나랑 다르고 저 멀리 있는 것 같은데 그 사람의 여러 다른면 가족이나 친구 취미 경험등을 알게 되면 가깝게 느껴지는 경험을 하게 되는데 이것이 수학적으로 증명 되었군요!
우주의 차원에 대한 이야기인줄 알았는데 공학의 이야기였네요. 수학적 차원은 우주적 차원이랑 비슷한듯 추구하는 방향이 달라 재밌었습니다.
12:20 부터 자막이 잘렸네요 오늘도 좋은 영상 감사합니다!
자동자막인데.. 유튜브 자동자막은 종종 저렇게 끊기더군요 ㅠ 제가 수정할 수 있긴 한데 여유가 없네요 양해 부탁드려요~
내용이 항상 신선해서 좋은 것 같아요 앞으로도 영상 많이 올려주세요~
차원을 설명할 때 흔히 예로 드는 다른 차원의 생물(직선상의 개미라든지 4차원의 인간같은)을 지금 이 영상을 보고 생각해보니 고차원에 있는 존재들은 칼라로 연결되어있다거나, 유년기를 끝낸 인류와 같이 비슷비슷한(혹은 서로 차이가 없는 혹은 단일) 존재들일까 하는 뻘생각이 들었습니다
직관적으로 이해하기 너무 어렵네요..! 근데 너무 재밋어요 ㅋㅋㅋ
고차원으로 갈수록
부피는 0으로 수렴하는데,
그 부피 안에서 (max dist) / (min dist)의 비율은 1로 수렴한다는게
상상해보면 맞는것같기도 한데, 아닌거같기도하고 ㅋㅋㅋㅋㅋㅋㅋ
항상 좋은 영상 너무나도 잘 보고있습니다 감사합니다 !
인과관계로 이해해도 될지 모르겠네요
한 사람의 개성을 무한대의 특성으로 정의한다면 개개인을 구별할 수 있는 개념(=거리)은 무의미(=1로동일)하다는 뜻이군요. 차원의 저주를 시각화해서 설명해주시니 이해가 잘 됩니다. 감사합니다.
X와 Y가 iid uniform on [-1,1] 일 때, E(X-Y)^2 = 2/3, V(X-Y)^2 = 28/45 인 것을 이용하면 n dimensional cube [-1,1]^n 에서 랜덤한 두 점의 거리의 제곱을 n으로 나눈 것의 distribution이 normal distribution 에 가까워지고 (Central limit theorem), Chebyshev inequality를 쓰면 임의의 epsilon>0 에 대해서 P(max dist/min dist < 1+ epsilon) 이 n->infinity일 때 1로 수렴하는 것을 보일 수 있습니다. 이런 이야기를 다 하시기에는 영상이 너무 길어지겠네요.
그리고 더 강력한 부등식(e. g. Chernoff) 을 사용하면 P(max dist/min dist < 1+ epsilon) 이 얼만큼 빠르게 1로 수렴하는지도 계산할 수 있겠지요.
8:30 내용을 토대로 현재 우주의 차원수를 유추할 수 있을까요?
따지는 변수가 많아질 수록 데이터 간 거리들의 차이들이 작게 측정되고, 데이터 수가 충분히 없다면, 차원이 적을 때 의미있게 나타난 변수도 차원이 많아지면, 의미없어질 수도 있겠네요. 또는 의미있는 변수가 차원에 묻혀 간과될 수도 있다던지.
벌써 25년 전쯤이네요. 제가 인공지능 전공으로 서명검증 시스템 구현을 주제로 석사 논문을 썼는데요,
온라인 서명의 경우 X,Y축 속도, 가속도, 크기, 압력 등의 다양한 변수가 있습니다.
말하자면 모양은 흉내를 내어도 속도와 가속도, 압력의 변화등은 따라하기 어렵다라는 가설에 대한 검증이었어요.
당연히 각 변수를 최대한 많이 이끌어내어 검증 데이터를 학습시키고 실제 적용해보면 에러(진짜 서명을 가짜로, 가짜를 진짜로 오인식)가 적어질거라 생각했는데
그렇지 않더라고요! 변수가 어느정도 이상 많아지면 오히려 인식률이 떨어짐..신기하더라~ 라는게 제 논문의 주제였습니다.
논문의 결론은 단지 거기서 끝이었는데, 이런 변수 역시 차원의 개념으로 생각해보면 좋았겠네요.
8:50 우주론 같은 것이군요. 우주엔 중심이 없는것처럼요.
차원 이야기는 정말 흥미롭다
이 영상을 보고 불면증이 완치 되었습니다 감사합니다 선생님
정말 신기하네요 차원에 저주 이름도 참 멋집니다.
어느 식장을 갈지 결정할 때 따지는 항목이 많아지면 결국 그집이 그집으로 수렴하는 것도 같은 원리일것 같다는 생각이 드네요. 모든 선택과 결정에서 지나치게 과도한 분류와 항목과 관점은 오히려 좋은 판단을 하는 것에 해가 되고, 차원을 줄여 각 선택지간의 간격을 보다 잘 파악할 수 있어야 데이터를 의미있데 사용할 수 있다는 것으로 이해되었습니다. 아주 예전에 봤던 영상을 알고리즘을 통해 정말 오랜만에 다시보게 되었는데 너무 좋네요. 감사합니다.
감사합니다 덕분에 잘 자고 있습니다
크기가 같은 원(반지름1)끼리 사각형 모양으로 붙이면 2차원 에선 원의중심과 전체중심의 거리는 2^0.5-1이죠.
마찬가지로 3차원 구를 같은 조건으로 하면
3^0.5-1이죠.
근데 4차원 구에서 같은조건을 실행하면
4^0.5-1=1이죠 즉 4차원 구 16개를 맞닿아놓으면
그 구16개안쪽에 새로운 구1개를 놓을수있다는거죠...
이개념을 확장하면 9차원 구 512개를 맞닿아놓으면
그안에는 반지름이 2인 구도 들어간다는거고...
고차원은 참신기한개념같아요
불면증 치료에 딱입니다 감사합니다
그럼 결국 고차원으로 갈 수록 블랙홀과 같은 느낌이 듭니다.
다른 한편에서 종교적으로 보면 삼라만상이라는 것은 결국 고차원의 나 라고 볼 수도 있을 거 같고(그 자리에 가부좌 틀고 정신을 집중)
와...진짜 이런 내용을 알려주셔서 감사합니다... 차원 축소와 관련된 내용도 한번 알려주시면 정말 신기할 것 같아요
9:05
이 부분은 왠지 우주론이 생각나는..
12math님 12만 구독자 축하드립니다. 이것에 대해서 영상 찍어주실수 있을까요? 임이의 확률 예를 들어 1/3 이라는 확률이 있으면 ㄱ,ㄴ,ㄷ중 하나를 무작위로 고를겁니다. 이것을 n번 했을때 1/3확률로 이것을 뽑았어도 그 값이 ㄱ,ㄴ,ㄷ 의 뽑힌 횟수가 각각 n/3을 갖지 않을수 있잖아요. 결과적 으로 얻을 확률을 미리 구할수 있는 방법이 있을까요? 또는 n=3k라고 할때 정확히 각각 n/3을 갖게되는 확률을 구할수 있을까요? 현재 수상 하고 있는 중2 인데 호기심이 많아서 번뜩 생각난 문제 입니다. 계속 고민해 보았지만 lim등을 배우지 않아서 질문 남깁니다.
큰수의 법칙이라고 결국 수학적 확률을 따라갑니다.. 1/3의 확률로요
@@MaplestoryKR_Official 큰수의 법칙, 확통에 나오는 개념 이네요... 계속 노력해서 확통 까지 배우고 그때가서 꼭 증명할게요! 감사합니다.
쉽게 말하면 아주 우연히 첫 10번 뽑기에서 ㄱ-8, ㄴ-1, ㄷ-1 이 나오더라도 추가적으로 100번, 1000번, 아주 많은 횟수만큼 뽑으면 333333333......8, 333333333....1, 333333333.....1처럼 결국엔 맨 처음에 주어진 확률에 근접하게 되는거임
(3k)!/(k!)^3 * 3^(-3k)
확률은 1/n에 수렴하지만 각 결과가 나온 횟수의 차이는 0에 수렴하지 않는다는 것까지 아시면 좋을듯
오호... 신기하네요. 철학적으로 본다면 우리가 개와 고양이를 구분할 수 있는건, 더 나아가 진달래와 철쭉을 구분할 수 있는건 경험적으로 머릿속에서 유의미한 데이터와 무의미한 데이터를 자체적으로 분류하고 있으며 무의미한 데이터차원을 과감히 버림으로써 구분한다는 의미같은데... 만일 우리가 보편적으로 버리게 되는 차원이 아닌 다른 차원으로 사물을 보게되면 같은것도 달라질 수 있고 다른것도 같아질 수 있겠네요. 예를 들어 어느 부족의 고유 언어는 무엇을 중시하기 때문에 어떤 한가지 개념을 구분하는 단어가 수십개씩 있다라는 사례도 있고 말이죠.
와 이번껀 너무 신기
새로운 asmr인가요
빅데이터 공부중인데 연산능력이 올라갔는데 왜 주성분분석을 하는지 납득이 잘 안됐었는데 오늘 영상보고 배워갑니다.
항상 좋은 주제 알려주셔서 감사합니다!
와... 정말 어려운 내용인듯 한데 너무 쉽게 잘 설명하시네요 감사합니다
와 인공지능 과목 탐구 수행평가 잘 받아 갑니다.
결국 마지막은 새로운 관점의 분산과 회기분석을 통해 새로운 분류로 또다른 시작이 될수 있다는 얘기네요
혹시 대구거나 경북 분이세요? 한번씩 말투가 추억 돋아서요... 영상 잘 보고 있습니다. 수학 박사님
고향은 경남입니다.. 티가 나나요 ㅠ
흥미롭게 잘 봤습니다.
맞습니다 그래서 데이터 예측에서도 최대한 변수를 줄일려고 하죠. 이건 인공지능에서도 마찬가지로 적용됩니다
평생 모르고 살았을 이런 얘기를 유튜브 클릭 한번으로 듣는 현시대를 살아간다는게.. 감사하고 신기할 따름이네요
감사합니다!
수학을 이렇게 재밌게 들을수있다는것게 감사함을 느낍니다
n차원 세계에서 일어나는 현상에 대한 이 영상은 정말로 믿기 어려운 경험이었습니다. 강의자가 복잡한 수학적인 아이디어를 직관적으로 이해할 수 있게 풀어내면서, n차원 공간에서의 현상에 대한 이해도를 크게 높일 수 있었습니다. 수학의 신비로움을 다시 한 번 느낄 수 있었습니다!
유의미한 데이터를 정하는 직관이 중요해 보이네요
와우 ㄷㄷㄷ
학교다닐때 이렇게 설명을 잘하는 선생님이계셨다면
노벨상 최다배출국이 되었을수도 ㄷㄷㄷ
빅데이터라고 모아보면
유의미한결과를 산출하기가 어려웠는데..
이걸보고나니 이해가 쏙쏙!
수집되는 정보의 유형을 차원에 대입할때 10소름ㄷㄷㄷ
데이터 여러종류 모으지말고
집중해야하는 최소한의 데이터만
모아서 일했는데..
그게 차원줄이기 같은거였군요?
이론은모르지만 직감적이고 본능적으로 그리해야할것같았는데 ㄷㄷㄷ
우왕.. 진짜 세상모든게 다 수학으로 설명가능한거구나 ㄷㄷㄷ
설명못하는건 아직 발견되지 않은것일뿐!
재미있네요
12 math 님 제가 페르마의 마지막 정리를 보면서 무한강하법이라는걸 보게되었는데 그게 무엇인지 쉽게 설명해주실수 있나요..?
귀류법과 귀납법을 섞은 것을 설명한 제 영상이 있습니다.