영상 재미있게 잘 보았습니다. 다만, 영상에서 잘못된 부분들이 몇 가지 있어서 짚고 넘어가고자 합니다. 이 영상으로 AI를 공부하시려는 분들도 있을 수 있으니까요! 9:30 이 부분에서 classification할 때 사용되는 feature들을 matrix 형태(global feature map)로 표현하셨는데, 일반적인 CNN에서는 vector형태(local feature map)의 feature를 사용합니다. 그리고 영상에서 나온 것처럼 모든 feature를 전부 사용하는 게 아니라, flatten된 feature vector를 linear layer에 넣어서 class 개수에 맞게 dimension을 줄여준 뒤, softmax로 각 class에 대한 확률값을 계산하는 형태로 predict하게 됩니다. 10:59 그리고 이 부분은 RNN에 대해 설명하신 것 같은데, 최근 연구된 LLM이 RNN을 기반으로 학습되었다는 설명은 잘못되었습니다. NLP 분야의 트랜드는 RNN에서 transformer로 넘어온 지 오래되었고, 많은 LLM들도 모두 transformer를 기반으로 학습되었습니다. transformer는 영상에서 설명하신 것 처럼 input값을 sequential하게 받지 않으며, 학습 역시 attention이라는 특수한 패러다임을 사용하여 이루어집니다. 이외에도 fine tuning에 관련된 부분이나 filter 관련 부분에도 오류가 있다는 점 인지하시고 시청하시면 좋을 것 같습니다.
🎯 Key Takeaways for quick navigation: 00:00 🤖 *Introduction to changing AI perceptions from sci-fi to reality, influenced by AlphaGo and deep learning.* 00:27 🧠 *Explaining artificial neural networks, mimicking human neurons, and their decision-making.* 03:09 📊 *Linking programming, flowcharts, and deep learning algorithms in AI.* 04:02 🔄 *AI's probabilistic decision-making using thresholds and categories.* 04:46 🧮 *Weights in artificial neurons affecting decision-making and data classification.* 07:02 🧠 *Introduction to deep learning with multiple layers for complex tasks.* 08:25 🖼️ *How deep learning extracts features from images using filters.* 09:33 🚗 *Applying AI to autonomous driving, analyzing road features and decisions.* 10:00 🗣️ *Exploring AI's language processing with flexible input layers.* 11:08 🧠 *Super large AI models' capabilities and their evolution.* 12:04 💻 *Hardware and infrastructure for super large AI models, including AI-specific chips.* 13:28 🛠️ *Fine-tuning super large AI models for specialized applications.* 13:55 🏢 *Customizing AI services through fine-tuning for specific industries.* 14:36 🤖 *The pervasive role of AI in daily life, from voice-activated controls to personalized recommendations.*
안녕하세요. 인공지능 연구직 종사자입니다. 어려운 내용을 쉽게 풀어주셔서 항상 재밌게 보고 있습니다. 조금 짚이는 부분이 있어 댓글 남깁니다. 후반부 설명에서 학습돼있는 인공지능을 비슷한 다른 분야로 바꿔 학습시키는 부분을 ‘fine-tuning’이라고 언급해주셨는데, 해당 설명은 ‘transfer learning’에 가깝습니다. fine tuning은 transfer learning을 구현할 수 있는 기법 중 일부입니다. (그 외에 linear probing 같은 기법도 있습니다.) fine tuning은 transfer learning을 위해서만 사용되는게 아니라, 어느정도 인공지능을 학습시킨 후에 정밀하게 성능을 조금씩 더 올리는 목적으로 사용하던게 시작입니다. 그래서 fine(정밀,미세) tuning(조정)입니다. 비유하자면, 전동 드라이버에 청소솔을 장착한 제품이 전동 청소솔로 사용되고 있잖아요? 이런 경우 ’전동 청소솔을 사용해 청소한다‘ 라는 표현이 자연스럽지 ‘전동 드라이버를 사용해 청소한다’ 는 그리 자연스럽게 받아들여지지 않습니다. 대략 이런 느낌입니다. 따라서, transfer learning으로 정정하는게 옳은 표현이 아닌가 하는 의견입니다.
항상 기다리고 있었습니다. 다시 돌아와서 감사합니다. :)
지금껏 본 딥러닝 설명 중에 가장 직관적이면서도 정확한 영상입니다. 좋은 콘텐츠 제공해주셔서 감사합니다!
영상 재미있게 잘 보았습니다. 다만, 영상에서 잘못된 부분들이 몇 가지 있어서 짚고 넘어가고자 합니다. 이 영상으로 AI를 공부하시려는 분들도 있을 수 있으니까요!
9:30 이 부분에서 classification할 때 사용되는 feature들을 matrix 형태(global feature map)로 표현하셨는데, 일반적인 CNN에서는 vector형태(local feature map)의 feature를 사용합니다. 그리고 영상에서 나온 것처럼 모든 feature를 전부 사용하는 게 아니라, flatten된 feature vector를 linear layer에 넣어서 class 개수에 맞게 dimension을 줄여준 뒤, softmax로 각 class에 대한 확률값을 계산하는 형태로 predict하게 됩니다.
10:59 그리고 이 부분은 RNN에 대해 설명하신 것 같은데, 최근 연구된 LLM이 RNN을 기반으로 학습되었다는 설명은 잘못되었습니다. NLP 분야의 트랜드는 RNN에서 transformer로 넘어온 지 오래되었고, 많은 LLM들도 모두 transformer를 기반으로 학습되었습니다. transformer는 영상에서 설명하신 것 처럼 input값을 sequential하게 받지 않으며, 학습 역시 attention이라는 특수한 패러다임을 사용하여 이루어집니다.
이외에도 fine tuning에 관련된 부분이나 filter 관련 부분에도 오류가 있다는 점 인지하시고 시청하시면 좋을 것 같습니다.
진짜 믿고 보는 채널🤗
항상 퀼리티 있는 최고의 영상 감사합니다 😆👍👏👏👏
쉽고 정확한 개념정리 영상 정말 감사합니다. 다른 영상들도 하나씩 보겠습니다. ^^!
광고받으실줄알았슴다 넘 고퀄이라서.
화이팅!!
선 좋아요. 후 시청
마침 오늘 인공신경망 공부했는데 감사합니다!
와 쩐다 내가 대학교에서 2개월 좀 넘게 배운 것들을 핵심만 추려서 15분안에....
감탄이 절로 나오네요...
모든 대학의 인공지능 관련 학과의 학부생이 들어야 할 필수교양이 아닌가 싶습니다...
오.. 재밌겠다ㅎㅎ 선구독 박고 봅니닼ㅋㅋㅋ
쭉 잘 봐오고 있습니다 감사합니다! (오늘처음봄)
선추천 후감상 믿고보는 컨텐츠
와우~ 오래 기다렸습니다. 역시 형님의 고퀄영상은 감탄사를 남발하게 만드네요.ㅎㅎ
유익한영상 잘보고갑니다~ 감사합니다~
최고입니다
광고축하드려요 더받으셨음좋겠습니다
캡스톤 디자인에 큰 도움이 될 것 같네요~ 감사합니다
늘 감사합니다~~수고많으셨습니다
주인장 살아계셨군요!!
CNN을 이렇게 빠르고 정확하게 설명해주시는게 너무 대단합니다!
너무 좋아서 2번 봤어요
고맙습니다
와 드디어 브르드 삼디 광고다~ 풀시청 하겠습니다~
어 구독자는 언제 이렇게 늘었지??
항상 좋은 영상 감사합니다 :) 덕분에 정말 도움 많이 받습니다!
브르드님이 KT 이미지를 살려놓으셨네요... ㄷㄷ
너무 잘 설명되어 있네요~ 고맙습니다.
이 강의 흐름 내부 교육에 참조 좀 하겠습니다.
출처 밝히고요…
이해하기 쉽게 설명해 주셔서 감사합니다.
이형 모르는게 없네 대단해!
항상 감사합니다. 건강보단 영상을 챙겨주세요~^^
bRd 3D님 작품은 선 좋아요, 후 감상 필수
항상 진국 작품만 올라오기 때문임
따봉입니다
이렇게 쉽게 설명할수 있는건 대단한 능력인데 감동입니다
선댓글 후감상 ㅋㅋ
좋은영상 잘 봤습니다
매번 영상들 볼때마다, 선생님은 최고 십니다.
안녕하세요~ ^^
부전공 인공지능융합인데 진짜 이 영상 최고❤
이분은 도데체 정체가뭐임,
쉽지만 핵심적인 부분만 설명하고 있어서 뺴놓을 부분이 없군요.
굉장히 위대한 동영상입니다. 감사합니다!
👧아~ 완벽히 이해했어!
항상 어려운 공학들을 쉽게 알려주셔서 감사합니다(처음봄)
완벽한 정리 감사합니다!
가중치로 정답을 찾아간다, 헌대 그 정답은 결국 인간이 지정해서 학습을 하는건가 궁금하네요.
아예 잊었는데 갑자기 나타나 놀래키는 유튜버 1위
최고의 영상 대단히 감사합니다.
와!!! CPU 동작 원리 동영상과 함께..최고의 Visual Lecture 네요... 최고입니다.
11:00 거대언어모델은 트랜스포머기반인걸로 아는데 영상에선 lstm이나 gru같은 RNN에서 거대언어모델로 이어집니다. 혹시 제가 잘못 이해한 것일까요?
다들 영상보기 전에 잊지말고 좋아요 눌러요!
역쉬~!😂 기다린 보람이... 마침 독학하며 헤매던 AI를 이렇게 명쾌하게 정리해주시는군요. 어려운 AI전문서적 몇권 정독한 기분입니다. ㅎㅎ
브르드님 덕분에 KT 이미지마저 좋아진듯~~
매번 감탄합니다. 공학의 완벽한 시각화라고 생각합니다. 이번 영상도 재밌게 봤고 큰 도움되었어요🎉
감사합니다.
제일 좋네요 신경이 사실은 디지탈이란거 알기 쉽지 않은데
소금 정제에 쓰이는 이온 교환 수지에 대해 알려주세요
시기 적절한 주제네요 잘봤습니다
학습자료가 잘못된 것이면? 5:30 대의 어른과 아이라는 기준자체의 답을 알고있어야 (실제정답을 알고 있어야한다는 것은 지도강화와 마찬가지 아닌가요?)
사실 작동원리알아도 만들수가없음. 워낙 큰 인프라가 필요하기때문에 개인용도로 실험하기도 어려움. 경량화모델들도 있지만 상용LLM 모델들하고 워낙 규모, 성능차이가 넘사벽이라서 발뒤꿈치에도 못미침 ㅋㅋ
이상하다 구독 중이었는데 10일이 지나서야 영상 올라온 걸 알고리즘으로 알았네
KT 얘기 나오기 전까진
모든 영상 중에 가장 제대로 설명한 영상.
다른 영상들은 너무 디테일하거나 너무 추상적인데 이 영상은 대중에게 인공지능을 설명하기에 완벽한 영상이다.
썸네일 보자마자 머리가 아픈건 나뿐인거임?
홍보영상인데 ANN - CNN - LSTM까지 정말 깔끔하게 설명되는군요... 엄청난 영상입니다...
진짜 잘만들엇다 ㅋㅋ 내 발표자료 초라 ㅠㅠ
와 떳따ㅏㅏㅏㅏㅏㅏㅏㅏㅏㅏㅏ
인공 지능이 좋은 조수는 될 수 있겠네요
그러나 아직은 아닌 거 같네요
가능성을 보여주는 수준?
좋은 영상 감사합니다 :)
너무 유익한 영상 입니다(아직 이해못함)
그 어떤 인공지능 설명보다 쉽고 명쾌합니다.
모든 대학 교수들은 반성해야 한다고 생각합니다.
드럽게 못가르침
영상 너무 잘보고있습니다. 라이다 센서에 대한 영상도 보고싶습니다. 만들어주시면 감사하겠습니다 ㅎㅎ
이건 너무 고퀄이잖습니까. 이래서야 수지타산이 맞겠습니까? 너무 감사합니다~
심심이 침투력 무엇 ㅋㅋ
이거 무료로 본다는게 죄송할정도입니다.. 늘 감사합니다 오래오래 영상 많이 올려주세요
와 이걸 다루실줄이야.. 대단대단.. 파인튜닝이 없앨 직업들이 많아보이네요 ㅎㅎ
딥러닝 개념을 이만큼 와닿게 설명할 수 있구다라는 생각이 들 정도로 훌륭합니다.
🎯 Key Takeaways for quick navigation:
00:00 🤖 *Introduction to changing AI perceptions from sci-fi to reality, influenced by AlphaGo and deep learning.*
00:27 🧠 *Explaining artificial neural networks, mimicking human neurons, and their decision-making.*
03:09 📊 *Linking programming, flowcharts, and deep learning algorithms in AI.*
04:02 🔄 *AI's probabilistic decision-making using thresholds and categories.*
04:46 🧮 *Weights in artificial neurons affecting decision-making and data classification.*
07:02 🧠 *Introduction to deep learning with multiple layers for complex tasks.*
08:25 🖼️ *How deep learning extracts features from images using filters.*
09:33 🚗 *Applying AI to autonomous driving, analyzing road features and decisions.*
10:00 🗣️ *Exploring AI's language processing with flexible input layers.*
11:08 🧠 *Super large AI models' capabilities and their evolution.*
12:04 💻 *Hardware and infrastructure for super large AI models, including AI-specific chips.*
13:28 🛠️ *Fine-tuning super large AI models for specialized applications.*
13:55 🏢 *Customizing AI services through fine-tuning for specific industries.*
14:36 🤖 *The pervasive role of AI in daily life, from voice-activated controls to personalized recommendations.*
가중치를 없애고 단순히 입력값을 합해서
출력하는 알고리즘은 못만드나요?가중치를 곱하는 이유가 뭔지 알 수 있을까요?
입력되는 값들 중에 어떤게 중요하고 어떤게 덜 중요한지 알기 위해서요
말은 되지만 핵심 위주로 가볍게 설명한 광고 영상
3d프린터에 대해서도 알려주시면 감사하겠습니다!
후원계좌 열어주세요. 후웒합시다~반도체. 2차전지. 바이오. 자동차 조선. 건설등등 ㅡ많이 필요해요
진짜 고퀄 영상 너무 감사합니다! 혹시 이전 영상에서 다루셨던 2차 전지 다음 영상도 올릴 계획이 있으실까요?
너무 유익한 영상 입니다(아직 안봄)
시비충 방지
ㅇㅈ 이분이 올린건 무조건 유익함
이 채널 영상이니 그냥 무조건 인정함
ㅇㅈ이긴해 ㅋㅋㅋㅋ
ㅇㅈ합니다 (저도 좋아요만 눌러놓고 아직 안 봄)
알고리즘방식으로 AI가 완성될까?...
안녕하세요. 인공지능 연구직 종사자입니다. 어려운 내용을 쉽게 풀어주셔서 항상 재밌게 보고 있습니다. 조금 짚이는 부분이 있어 댓글 남깁니다.
후반부 설명에서 학습돼있는 인공지능을 비슷한 다른 분야로 바꿔 학습시키는 부분을 ‘fine-tuning’이라고 언급해주셨는데, 해당 설명은 ‘transfer learning’에 가깝습니다.
fine tuning은 transfer learning을 구현할 수 있는 기법 중 일부입니다. (그 외에 linear probing 같은 기법도 있습니다.) fine tuning은 transfer learning을 위해서만 사용되는게 아니라, 어느정도 인공지능을 학습시킨 후에 정밀하게 성능을 조금씩 더 올리는 목적으로 사용하던게 시작입니다. 그래서 fine(정밀,미세) tuning(조정)입니다.
비유하자면, 전동 드라이버에 청소솔을 장착한 제품이 전동 청소솔로 사용되고 있잖아요? 이런 경우 ’전동 청소솔을 사용해 청소한다‘ 라는 표현이 자연스럽지 ‘전동 드라이버를 사용해 청소한다’ 는 그리 자연스럽게 받아들여지지 않습니다. 대략 이런 느낌입니다.
따라서, transfer learning으로 정정하는게 옳은 표현이 아닌가 하는 의견입니다.
오! 그럼 영상을 직적 만드시면 될 듯
@@EoJJeol-PTRS헉!
@@EoJJeol-PTRS에이 저런 퀄리티 영상을 "직적"만드는건 힘들듯 ㅋㅋ
@@chess_godㅋㅋ 맛춘뻡 파계좌
컨텐츠를 전달하는 유튜버랑 전문가랑 역할의 차이가 있는데, 이렇게 비꼬는건 서로에게 좋아 보이진 않네요
진짜 한국에서 가장 유익한 채널입니다
세계로 알려지면 더 클거같습니다
2023년 12월 4일 월요일 오전 8시 55분
개인적으로 인공지는은 닷컴버블과 유사성이 일부 있다고 생각합니다
scheffe duncun 등등의 기법들의한계, 결국 고전통계학을 계산 유닛으로 보기에 통계학 기법간의 적용을 추정하는 기법적용을 추정하는 기법이라고 느껴집니다ㅠ
마이크로소프트 주식을 가진 사람들만 살려주고 나머진 쓸어버리는 상상중
교사,교수,사교육업계 종사자들 반성하고 경각심 가져야합니다. 이게 제대로된 교육입니다.. 4년의 뻘짓보다 15분의 가치가 더 높다 생각이 드는군요
퍼셉트론으로 전부 퉁친것 같은 느낌이..
지도강화와 강화 학습차이를 잘모르겠어요
이분이 영상 진짜잘만듦(아직안봄)
ck24a
KT에서 협찬한 걸까요?
영상 설명 섹션에 'KT의 제작 지원으로 만들었습니다. '라고 명시되어 있습니다.
아... 왠지 뒤로갈수록 퀄이 산으로 간다 싶었더니만.. 광고구나... 최소한 백프로파게이션의 연산 정도는 설명해줘야 채널의 퀄과 어울리지...
ㄷㄷ 해킹툴 깔리는거 아님?
ㅅㅅㅅㅅㅅㅅㅅㅅㅅㅅㅅ
쩝니다..
내용이 엉터리네요.
흠... 퀄이 전보다는..
그냥 고도화된 추천 알고리즘이지 뭔 ㅋㅋ 아직 인공지능 시작도안함 그리고 리벨리온 홍보할거면 확실하게 합시다
중요한건 정확성(성공 확률)을 높이는것
니 인생 정확성(성공 확률)은 0%인듯 ㅠㅠ😊