얀 르쿤이 절대적으로 맞는말 LLM은 애초에 시작할려면 자본이 많이 필요함 실제로 많은 대학 연구시설이 GPU 팜이 없어서 학습도 못하고 모델이 만들어져도 데이터량과 컴퓨팅이 받쳐져야 벤치도 나오는데 완전히 돈의 싸움으로 가고있어서 학생으로선 더 뭔갈 기여할것이 없습니다. 다른걸 연구하는게 낫겠죠
얀르쿤은 2~3년 전부터 생성형 모델링에 대해서 부정적인 견해를 비치면서 에너지 기반 모델(EBM)과 함께 JEPA 라는 프레임을 밀고있음. 중간에 언급되는것처럼 인간의 뇌와 같이 동작하는 시스템을 만드는게 목표이고, 그 중에서 세상에서 들어오는 정보를 인식하는 world model을 만들기 위한 방법으로 JEPA를 제안했었음. 지금까지는 I-JEPA, V-JEPA와 같이 이미지와 비디오에 대한 작업만 있었는데, 더 확장된 모델을 내부적으로 개발하고있다는게 아닌가 싶음. LLM의 autoregressive 구조를 항상 비판하는데 JEPA 구조로 어떻게 언어처리를 하려고 하는건지 기대하고 있음.
저도 비슷한 생각을 했는데 우리가 어떤 판단을 할 때 생각해보면 직관적으로 아는 것과 논리적으로 따져봐야하는 것을 구분하는데 현재의 트랜스포머 기반 llm(멀티모달 포함)은 모든 걸 확률적으로 접근하죠. 간단한 예로 최근에 본 것 중에 chatgpt가 7각형 사진을 보여줬을 때 8각형이라고 대답하고 앵글이 몇 개있는지 세어보고 다시 대답하라고 하면 그제서야 8각형이라고 제대로 대답하는걸 봤습니다. 사람은 6각형 정도까지는 직관적으로 대답하지만 그걸 넘어가면 이건 변이나 각의 개수를 세어봐야겠다는 판단을 먼저하죠. Chatgpt는 아마도 육각형이나 팔각형을 칠각형보다 많이 학습했을테니 가장 가까운 값을 내어놓은 것 같구요. 이런식으로 문제에 따라서 접근 방법을 먼저 생각해보고 확률적으로 접근할지 논리적 판단을 할지 결정을 할 수 있는 AI가 나와야하지 않을까 싶습니다. 위의 예처럼 간단한 몇가지는 직접 어떻게 접근하라고 사전에 정보를 줄 수 있겠지만 세상의 모든 걸 이해하고 트래이닝 된적 없는 정보가 주어졌을때는 어떤식으로 접근할지 판단을 할 수 있는 알고리듬이 필요한 것 같네요
최근 AI 시장을 이끌고 있는 LLM을 보면서 갈수록 한계가 보인다고 느꼈는데, 역시 다음 단계를 제시하는 사람이 있었군요. AI의 주요한 흐름이 LLM에 머무르는 한은 도구로밖에 남지 않을 거라 생각해요. 무엇보다 데이터 양으로 쇼부봐야하는 LLM의 특성상 선두를 이끌고 있는 빅테크 기업이 아니라면 손대는 게 무의미한 것도 사실이겠고요. 우리나라의 경우 LLM은 이미 늦었으니 다음 단계에 주목해야 할 거 같습니다.
본격적으로 시작된지 1년밖에 안됐는데 가면갈수록 돌파구 계속 나오고 컨텍스트 윈도우 한계 100만 토큰 200만 토큰 무제한 토큰 나오고 추론 비용 미친 듯이 획기적으로 줄이고 멀티모달 단일 모델도 나오고 다방면 추론 성능도 늘면서 간단한 기초 수학 능력도 4o가 보였는데 흠.. 1년만에 이 정도인데 한계가 보인다고 하기에는 넘 이른 거 같은데
영상 잘 봤어요, 영상과는 관련 없지만 제 고민에 조언 해주실 수 있을까 해서 여쭤봐요 저는 ai 엔지니어를 꿈꾸고 있는 비전공자 인데요, 여러 유투버 분들이 공통적으로 말하시는게 백엔드 경험을 쌓고 ai 엔지니어가 되는것이 좋다고 하셔서 캐글과 ai쪽 기반지식(수학,이론) 부터 공부하려던 것을 내려놓고 되도록 파이썬 기반의 백엔드로 먼저 진로를 잡고 자료 구조부터 다시 공부 중이었는데요 네이버에서 하는 ai 부스트캠프를 알게 되었는데 제가 최종적으로 하고싶었던 RecSys 과정도 있어서 다시 첫 취직의 방향성을 고민하게 되었습니다 ai 부스트캠프에 붙어서 ai쪽만 집중하여 내년초까지 공부하면 ai 엔지니어로서 잘 할수 있을까요? 아니면 그냥 가능하다면 파이썬 백엔드로 몇년 경험을 쌓으며 ai 엔지니어를 준비하는게 나을까요? 백엔드 경험 없이 ai 지식만 쌓인걸로는 그 구멍이 발목을 잡지 않을까 싶으면서도 바로 ai 쪽으로 나갈수 있다면 몇년을 앞당길수 있을까 하는 욕심이 상충하네요 ai 엔지니어 선배로서 어떻게 생각하시는지 말씀해 주시면 흔들리는 마음을 잡는데 도움이 될것 같습니다 ㅠㅠ
원하시는 목표가 어디냐에 따라 많이 다를 것 같습니다. AI 엔지니어도 종류가 좀 다르거든요. 예를들어 오픈소스나 기업이 공개하는 API를 사용하는 경우, 학습된 ai 모델을 파인튜닝 하는 경우, 바닥부터 학습시키는 경우 이렇게 크게 3가지로 나눌 수 있을 것 같습니다. 첫번째 경우에는 깊은 ai지식을 요구하지 않지만 그만큼 한계가 명확하고, 후자들의 경우는 AI를 훈련시킬만큼의 지식이 필요하죠. 비전공자라면 '밑바닥부터 시작하는 딥러닝'같은 입문서적을 읽고 책에 나오는 딥러닝 모델을 직접 만들어보면서 가늠해보는것도 좋을 것 같습니다
@@jahyukshin4239 스포티파이 api를 이용해서 음악추천 웹앱을 만들어보고 싶어서 제공되는 추천시스템 api 말고 데이터셋을 받아서 자체학습시켜보는 것을 해볼까 구상중이었습니다. 도중에 방대한 데이터셋이 있지 않으면 안되지 않을까 하는 의문에 중단상태지만요 저도 그런 뛰어난 추천시스템으로 맘에드는 노래들을 알려주는게 먼 목표거든요 스포티파이에 들어가게된다면 좋겠습니다 들어가서 관련 업무를 만약에 하게된다면 파인튜닝 작업을 할라나요? 후자의 지식들이 필요한 경우에는 ai 분야 부트캠프를 들어보는게 좋을까요?
제 영상에서 비전공자 입장에서는 백엔드로 시작하면 좋다 라는건 어디까지나 차선책에 해당하는 것이고 만약 하고싶으신 RecSys 를 다룰 기회가 눈앞에 보인다면 뛰어드는게 맞지 않을까요. 좀 찾아보니 채용 연계도 이루어지는 것 같은데 저같으면 도전 할것 같습니다. 애초에 자격이 안되면 서류에서 탈락시켜줄테니까 손해볼것도 없죠
답 달아주신 고마운 분들 말씀 듣고 생각해본후, 지원하기로 결정헸습니다 제가 개인적으로 도전해보고 싶은건 바닥부터 학습이고 만약 기업에 가면 파인튜닝을 하게되지 않을까 싶은데 뭐가 됐든 계속 공부를 해야겠지요 부스트캠프 되던 못되던 정진해서 ai엔지니어가 되보도록 하겠습니다 감사합니다!
그 동안 르쿤 교수님의 어록으로 보면 현재는 비디오, EBM 기반의 self-supervised learning 을 LLM의 대안으로 생각하시는 것 같습니다. 만약 그렇다면 모달리티만 달라졌을 뿐, downstream task(LLM)에서 근본적으로 조건부확률모델이라는 점은 차이가 없을 것 같은데 대가는 그 너머 무엇을 보는지 궁금하네요...
@@성이름-r1k 초파리와 인간의 뇌가 뉴런과 시냅스의 집합이라는 면에서는 차이가 없지만 명백히 지능의 차이가 있듯이, 어떤 x가 현재의 AI와 AGI의 갭을 채울수 있을지는 아직 연구단계죠. 그런 면에서 멀티모달+EBM+SSL 모델이 근본적으로 조건부확률 모델인 LLM의 한계를 넘어서 정말 인간의 지능과 더 유사하다고 할 수 있을지는 미지수라 생각합니다. 르쿤은 그 너머의 생각이 있다고 생각해서 그게 궁금한거구요
+추가견해 언어라는게 결국 심볼이고 인간의 약속이라는 관점과 영유아기의 아이가 비전, 음성, 촉각 자극에 대해서 self, unsupervised 학습을 한 이후에 언어라는 약속을 배우면서 그 간의 경험을 연결짓는다고 생각해보면 르쿤의 V-JEPA 철학을 이해하는데 좀 도움이 되는 것 같네요. 이후에 어떻게 언어모델을 연결 지을지가 연구대상이 되겠네요.
인공지능 알고리즘 개발은 미국을 제외하고는 어려움 어짜피 뉴럴네트워크 기반에서 조금씩 다른형태로 나오는 것이고 트랜스포머 알고리즘은 구글 같은 대기업에서나 나올법함 우리자체 기술력으로는 도달할수 없지. 단 인공지능에게 학습시킬 데이터 확보는 다른 문제임. Chatgpt가 전세계 모든 지식을 다 배웠다고 하는데 다들 한가지 간과한것이 있음 삼성의 반도체 제조기술이라든가 tsmc내부 기밀자료는 인터넷 밖으로 나간적도 없고 chat gpt에 학습시킨적도 없음 즉 이런 접근 불가한 데이터 확보가 앞으로 중요함 결론은 도메인지식이 인공지능 발전에 핵심이라는거임
LLM너머의 뭔가 대단한 AI가 LLM보다 훨씬 우수한 뭔가를 보여줄 것이라는 예상은, 인간의 사고수준에 대한 과대평가에서 비롯되었다. 인간의 사고체계와 인식체계는 사실상 LLM의 구조와 학습방식 데이터처리방식 표현방식과 차이가 없다. LLM보다 더 우수한 모델을 인간의 뇌에서 찾으려고 하면 안된다는 말이다.
영상 절반정도보고 댓글다는데요 아마도 컴퓨터안에 실제 인간처럼 한사람이 태어나서 주변환경과 상호작용 하면서 시용자가 설정한 인생의 목표에 끊임없이 노력하여 얻은 결과물 그걸 생성해내는게 아닌가 싶내요 물론 컴퓨터 안의 사람은 100년을 살아도 우리가 러닝 시키는 시간은 고작 하루 정도 일테죠
오잉? 뭘 몰라도 한참 모르시네요. 사실 메타가 미친 대단한 놈들임. 님 텐서플로우 알아요? 이거 좀 유명하죠? 그런에 파이토치pyTorch라고 아시나요? 검색해보세요. 이거 몰라서 메타를 이렇게 말하고 계신데, 텐서플로우는 구글꺼죠? 파이토치는 메타꺼에요. 근데, 챗지피티 초기엔 텐서플로우로 하다가 GPT3인가? 3.5인가 부터는 파이토치로 한거에요. 이거 메타가 만들어서 공개한거에요. 메타가 왜 이런걸 마케팅적으로 활용을 안해서 사람들이 잘 모르는지가 더 의문인데, 찾아보세요. 님은 완전하게 잘못알고 계신겁니다.
얀 르쿤이 절대적으로 맞는말 LLM은 애초에 시작할려면 자본이 많이 필요함 실제로 많은 대학 연구시설이 GPU 팜이 없어서 학습도 못하고 모델이 만들어져도 데이터량과 컴퓨팅이 받쳐져야 벤치도 나오는데 완전히 돈의 싸움으로 가고있어서 학생으로선 더 뭔갈 기여할것이 없습니다. 다른걸 연구하는게 낫겠죠
얀르쿤은 2~3년 전부터 생성형 모델링에 대해서 부정적인 견해를 비치면서 에너지 기반 모델(EBM)과 함께 JEPA 라는 프레임을 밀고있음. 중간에 언급되는것처럼 인간의 뇌와 같이 동작하는 시스템을 만드는게 목표이고, 그 중에서 세상에서 들어오는 정보를 인식하는 world model을 만들기 위한 방법으로 JEPA를 제안했었음. 지금까지는 I-JEPA, V-JEPA와 같이 이미지와 비디오에 대한 작업만 있었는데, 더 확장된 모델을 내부적으로 개발하고있다는게 아닌가 싶음. LLM의 autoregressive 구조를 항상 비판하는데 JEPA 구조로 어떻게 언어처리를 하려고 하는건지 기대하고 있음.
이런 주제 넘 좋네요 ☺️☺️
감사해요😊
르쿤의 견해에 동의하는 쪽임.
저도 비슷한 생각을 했는데 우리가 어떤 판단을 할 때 생각해보면 직관적으로 아는 것과 논리적으로 따져봐야하는 것을 구분하는데 현재의 트랜스포머 기반 llm(멀티모달 포함)은 모든 걸 확률적으로 접근하죠. 간단한 예로 최근에 본 것 중에 chatgpt가 7각형 사진을 보여줬을 때 8각형이라고 대답하고 앵글이 몇 개있는지 세어보고 다시 대답하라고 하면 그제서야 8각형이라고 제대로 대답하는걸 봤습니다. 사람은 6각형 정도까지는 직관적으로 대답하지만 그걸 넘어가면 이건 변이나 각의 개수를 세어봐야겠다는 판단을 먼저하죠. Chatgpt는 아마도 육각형이나 팔각형을 칠각형보다 많이 학습했을테니 가장 가까운 값을 내어놓은 것 같구요. 이런식으로 문제에 따라서 접근 방법을 먼저 생각해보고 확률적으로 접근할지 논리적 판단을 할지 결정을 할 수 있는 AI가 나와야하지 않을까 싶습니다. 위의 예처럼 간단한 몇가지는 직접 어떻게 접근하라고 사전에 정보를 줄 수 있겠지만 세상의 모든 걸 이해하고 트래이닝 된적 없는 정보가 주어졌을때는 어떤식으로 접근할지 판단을 할 수 있는 알고리듬이 필요한 것 같네요
재밌는 예시네요. 예전부터 비쥬얼한 인풋에서 숫자나 개수를 세는 과제는 AI 가 어려워하던 것중 하나입니다. 말씀하신대로 인간의 뇌는 애초에 확률적으로 생각하지 않는 것 같은데 이런 인간 뇌의 현재 AI 모델 사이의 간극도 참 재밌죠.
너무 좋아용 앞으로도 비슷한 주제 많이해주세요!!!
네네 자주 놀러오시네요 ㅎㅎ 감사합니다!
최근에 메타에서 SAM2 (segment anything model 2)을 발표한걸 보면, 얀 르쿤이 뭘 하고 싶어하는지가 명확해 보이네요.
오 어떻게 보시나요? 댓글로 공유해주세요
헐 ai 컨텐츠 너무 기대햇어요❤❤
앞으로도 종종 해볼게요 ㅎㅎ
넘 재밋게봣습니다 😁
감사합니다 ㅎㅎ
순전히 0과1을 학습하는 것이 아니라 생물의 오감을 바탕으로 러닝을 시킨다면 순도높은 데이터를 더욱 빨리 모을 수 있지 않을까요? 아이를 낳고 키우는 것 처럼요.
더 나은최적화 방법은 지금도 계속 연구되고있습니다 :)
최근 AI 시장을 이끌고 있는 LLM을 보면서 갈수록 한계가 보인다고 느꼈는데, 역시 다음 단계를 제시하는 사람이 있었군요. AI의 주요한 흐름이 LLM에 머무르는 한은 도구로밖에 남지 않을 거라 생각해요. 무엇보다 데이터 양으로 쇼부봐야하는 LLM의 특성상 선두를 이끌고 있는 빅테크 기업이 아니라면 손대는 게 무의미한 것도 사실이겠고요. 우리나라의 경우 LLM은 이미 늦었으니 다음 단계에 주목해야 할 거 같습니다.
본격적으로 시작된지 1년밖에 안됐는데 가면갈수록 돌파구 계속 나오고 컨텍스트 윈도우 한계 100만 토큰 200만 토큰 무제한 토큰 나오고 추론 비용 미친 듯이 획기적으로 줄이고 멀티모달 단일 모델도 나오고 다방면 추론 성능도 늘면서 간단한 기초 수학 능력도 4o가 보였는데 흠.. 1년만에 이 정도인데 한계가 보인다고 하기에는 넘 이른 거 같은데
@@김화겸-y6e 아무리 좋아져도 도구임. 본질적으로 agi에는 이를 수 없음
이해를 못했노
얀 르 쿤!
엑스독스님의 영상 몇편 재밌게 봤습니다.. 근데 ai가 꼭 휴먼 인텔리전스를 따라가야할까요?
휴먼 인텔리전스는 비합리적이고 불합리한 부분이 많아서 더 월등한 확률에 기반한 컴퓨터 인텔리전스가 있다면요?
영상 잘 봤어요, 영상과는 관련 없지만 제 고민에 조언 해주실 수 있을까 해서 여쭤봐요
저는 ai 엔지니어를 꿈꾸고 있는 비전공자 인데요, 여러 유투버 분들이 공통적으로 말하시는게
백엔드 경험을 쌓고 ai 엔지니어가 되는것이 좋다고 하셔서
캐글과 ai쪽 기반지식(수학,이론) 부터 공부하려던 것을 내려놓고
되도록 파이썬 기반의 백엔드로 먼저 진로를 잡고 자료 구조부터 다시 공부 중이었는데요
네이버에서 하는 ai 부스트캠프를 알게 되었는데 제가 최종적으로 하고싶었던 RecSys 과정도 있어서
다시 첫 취직의 방향성을 고민하게 되었습니다
ai 부스트캠프에 붙어서 ai쪽만 집중하여 내년초까지 공부하면 ai 엔지니어로서 잘 할수 있을까요?
아니면 그냥 가능하다면 파이썬 백엔드로 몇년 경험을 쌓으며 ai 엔지니어를 준비하는게 나을까요?
백엔드 경험 없이 ai 지식만 쌓인걸로는 그 구멍이 발목을 잡지 않을까 싶으면서도
바로 ai 쪽으로 나갈수 있다면 몇년을 앞당길수 있을까 하는 욕심이 상충하네요
ai 엔지니어 선배로서 어떻게 생각하시는지 말씀해 주시면 흔들리는 마음을 잡는데 도움이 될것 같습니다 ㅠㅠ
원하시는 목표가 어디냐에 따라 많이 다를 것 같습니다. AI 엔지니어도 종류가 좀 다르거든요. 예를들어 오픈소스나 기업이 공개하는 API를 사용하는 경우, 학습된 ai 모델을 파인튜닝 하는 경우, 바닥부터 학습시키는 경우 이렇게 크게 3가지로 나눌 수 있을 것 같습니다. 첫번째 경우에는 깊은 ai지식을 요구하지 않지만 그만큼 한계가 명확하고, 후자들의 경우는 AI를 훈련시킬만큼의 지식이 필요하죠. 비전공자라면 '밑바닥부터 시작하는 딥러닝'같은 입문서적을 읽고 책에 나오는 딥러닝 모델을 직접 만들어보면서 가늠해보는것도 좋을 것 같습니다
@@jahyukshin4239
스포티파이 api를 이용해서 음악추천 웹앱을 만들어보고 싶어서
제공되는 추천시스템 api 말고 데이터셋을 받아서 자체학습시켜보는 것을 해볼까 구상중이었습니다. 도중에 방대한 데이터셋이 있지 않으면 안되지 않을까 하는 의문에 중단상태지만요
저도 그런 뛰어난 추천시스템으로 맘에드는 노래들을 알려주는게 먼 목표거든요 스포티파이에 들어가게된다면 좋겠습니다
들어가서 관련 업무를 만약에 하게된다면 파인튜닝 작업을 할라나요? 후자의 지식들이 필요한 경우에는 ai 분야 부트캠프를 들어보는게 좋을까요?
부트캠프보다도 석사 하시는게 ai 엔지니어로 스타트하시기 쉽긴 할거에요.
백엔드는 나중에 공부해도 되는게 백엔드하다가 ai로 가려면 지금은 ai 인력 공급이 많아져서 좀 어려울거 같습니다.
제 영상에서 비전공자 입장에서는 백엔드로 시작하면 좋다 라는건 어디까지나 차선책에 해당하는 것이고 만약 하고싶으신 RecSys 를 다룰 기회가 눈앞에 보인다면 뛰어드는게 맞지 않을까요. 좀 찾아보니 채용 연계도 이루어지는 것 같은데 저같으면 도전 할것 같습니다. 애초에 자격이 안되면 서류에서 탈락시켜줄테니까 손해볼것도 없죠
답 달아주신 고마운 분들 말씀 듣고 생각해본후, 지원하기로 결정헸습니다
제가 개인적으로 도전해보고 싶은건 바닥부터 학습이고 만약 기업에 가면 파인튜닝을 하게되지 않을까 싶은데 뭐가 됐든 계속 공부를 해야겠지요
부스트캠프 되던 못되던 정진해서 ai엔지니어가 되보도록 하겠습니다 감사합니다!
그 동안 르쿤 교수님의 어록으로 보면
현재는 비디오, EBM 기반의 self-supervised learning 을 LLM의 대안으로 생각하시는 것 같습니다.
만약 그렇다면 모달리티만 달라졌을 뿐, downstream task(LLM)에서 근본적으로 조건부확률모델이라는 점은 차이가 없을 것 같은데 대가는 그 너머 무엇을 보는지 궁금하네요...
그니까요
초파리의 뇌이든 고양이의 뇌이든 사람의 뇌이든 근본적으로 뉴런과 시냅스의 모임이라는 점은 차이가 없다는 말과도 동일한 수준
V-jepa가 인간이 학습하는 것과 같은 방식으로 학습한다고 자신하던데
@@성이름-r1k 초파리와 인간의 뇌가 뉴런과 시냅스의 집합이라는 면에서는 차이가 없지만 명백히 지능의 차이가 있듯이, 어떤 x가 현재의 AI와 AGI의 갭을 채울수 있을지는 아직 연구단계죠. 그런 면에서 멀티모달+EBM+SSL 모델이 근본적으로 조건부확률 모델인 LLM의 한계를 넘어서 정말 인간의 지능과 더 유사하다고 할 수 있을지는 미지수라 생각합니다. 르쿤은 그 너머의 생각이 있다고 생각해서 그게 궁금한거구요
+추가견해
언어라는게 결국 심볼이고 인간의 약속이라는 관점과 영유아기의 아이가 비전, 음성, 촉각 자극에 대해서 self, unsupervised 학습을 한 이후에 언어라는 약속을 배우면서 그 간의 경험을 연결짓는다고 생각해보면 르쿤의 V-JEPA 철학을 이해하는데 좀 도움이 되는 것 같네요. 이후에 어떻게 언어모델을 연결 지을지가 연구대상이 되겠네요.
Ai가 자가발전하는 시대가오면 진짜 스카이넷 되는거 아닌가요;; 현실을 인지하고 실물화하고 하는
아직 갈길이 하아아아안참 남았다는게 연구자들의 공통 의견이긴합니다 ^^
확률기반의 딥러닝이 아닌 무언가를 찾고있다는 것인가..?
LLM은 AI의 미래라고 생각했는데 회의적인 시선도 존재하는군요
회의적이라기 보다는 언제나 다음 단계를 보는 사람들이 있기 마련인 듯 합니다
이건 회의적인 내용이 아닙니다.
인공지능 알고리즘 개발은 미국을 제외하고는 어려움 어짜피 뉴럴네트워크 기반에서 조금씩 다른형태로 나오는 것이고 트랜스포머 알고리즘은 구글 같은 대기업에서나 나올법함 우리자체 기술력으로는 도달할수 없지. 단 인공지능에게 학습시킬 데이터 확보는 다른 문제임. Chatgpt가 전세계 모든 지식을 다 배웠다고 하는데 다들 한가지 간과한것이 있음 삼성의 반도체 제조기술이라든가 tsmc내부 기밀자료는 인터넷 밖으로 나간적도 없고 chat gpt에 학습시킨적도 없음 즉 이런 접근 불가한 데이터 확보가 앞으로 중요함 결론은 도메인지식이 인공지능 발전에 핵심이라는거임
LLM너머의 뭔가 대단한 AI가 LLM보다 훨씬 우수한 뭔가를 보여줄 것이라는 예상은, 인간의 사고수준에 대한 과대평가에서 비롯되었다. 인간의 사고체계와 인식체계는 사실상 LLM의 구조와 학습방식 데이터처리방식 표현방식과 차이가 없다. LLM보다 더 우수한 모델을 인간의 뇌에서 찾으려고 하면 안된다는 말이다.
그럴 것이라는 판단 조차도 인간의 뇌를 달고있는 당신이 하긴 했지만요.
LeNet 시연 영상 1989년이에요. (1998년 아니구요) 그냥 중요한 건 아니지만 ㅎㅎ
매의 눈 이시군요 ㅋㅋ
뇌 과학
제프리 힌턴이 좀 넘산데
답은 강화학습에 있을것입니다..
얀르쿤이 강화학습 가망 없다구 옛날에 그랬는데
❤
영상 절반정도보고 댓글다는데요 아마도 컴퓨터안에 실제 인간처럼 한사람이 태어나서 주변환경과 상호작용 하면서 시용자가 설정한 인생의 목표에 끊임없이 노력하여 얻은 결과물 그걸 생성해내는게 아닌가 싶내요 물론 컴퓨터 안의 사람은 100년을 살아도 우리가 러닝 시키는 시간은 고작 하루 정도 일테죠
별내용 없었네 아.. 어그로
@user-km2yu2xo6j 사실 얀르쿤은 뭐 예전부터 항상 저소리 했긴 함
그래봐야 얀 러쿤도 LLM 따까리임. 메타 지금껏 한거라곤 LLM 만들어진거 Open source화해서 llama 시리즈 내놓는거뿐임.
오잉? 뭘 몰라도 한참 모르시네요. 사실 메타가 미친 대단한 놈들임. 님 텐서플로우 알아요? 이거 좀 유명하죠? 그런에 파이토치pyTorch라고 아시나요? 검색해보세요. 이거 몰라서 메타를 이렇게 말하고 계신데, 텐서플로우는 구글꺼죠? 파이토치는 메타꺼에요. 근데, 챗지피티 초기엔 텐서플로우로 하다가 GPT3인가? 3.5인가 부터는 파이토치로 한거에요. 이거 메타가 만들어서 공개한거에요. 메타가 왜 이런걸 마케팅적으로 활용을 안해서 사람들이 잘 모르는지가 더 의문인데, 찾아보세요. 님은 완전하게 잘못알고 계신겁니다.