거꾸로 읽는 SSL
거꾸로 읽는 SSL
  • 56
  • 50 435

วีดีโอ

LLM2VEC: LLM백본을 임베딩 인코더로 사용할 수 있을까? | COLM 2024 | 김보섭
มุมมอง 8335 หลายเดือนก่อน
발표자: 김보섭 발표자료: logseopbo.blogpro.so/llm2vec-large-language-models-are-secretly-powerful-text-encoders
SAIL: RAG 모델링을 위한 hands on 논문 | EMNLP Findings 2023 | 우태강
มุมมอง 5275 หลายเดือนก่อน
발표자: 우태강 발표자료: taekangwoo.notion.site/SAIL-Search-Augmented-Instruction-Learning-c3db5750105c463d978ccece1522ae80
RALM: RAG (LLM with retrieval) 결합 방식에 대한 이론적 토대! | TACL 2023 | 김재희
มุมมอง 8675 หลายเดือนก่อน
발표자: 김재희 발표자료: unknown-nlp-study.notion.site/In-Context-Retrieval-Augmented-Language-Models-5f9ea70466c84617aa0aafe38d06bdba
webGPT: LLM이 Human Sequence of Actions을 모방할 수 있는가? | OPENAI 2021 | 조용래
มุมมอง 3966 หลายเดือนก่อน
발표자: 조용래 발표자료: docs.google.com/presentation/d/1_yCG3DMYsStdhs4AsbPXN7PrD6Us4TnvUg9UryQgMNI/edit#slide=id.g2ed29a89e6e_0_120
LLM이 차근차근 생각하면 복잡한 추론문제를 풀 수 있을까? | NeurIPS 2022 | 조성국
มุมมอง 6636 หลายเดือนก่อน
발표자: 조성국 발표자료: docs.google.com/presentation/d/12Ei201tuyYS0OCKHmiL3430ElgwP3hGmq4QIU3DtFDY/edit#slide=id.g2e9b265970e_0_532
LLM 대화 답변 품질을 잘 평가하려면 어떻게 해야할까? | NeurIPS 2023 | 오영화
มุมมอง 6786 หลายเดือนก่อน
발표자: 오영화 발표자료: docs.google.com/presentation/d/1RmFxFT_KQWFUumya64EQd6FE0AaTAr5Erh7LLPzI_28/edit#slide=id.p
Phi-1/2/3: 데이터가 교과서 같이 친절하다면 LLM 학습에 도움이 될까? | MS 2023-4 | 김보섭
มุมมอง 6686 หลายเดือนก่อน
발표자: 김보섭 발표자료:
Solar 10.7B: 간단하지만 효과적으로 수리능력이 강화된 sLLM | Upstage 2023 | 조진욱
มุมมอง 5627 หลายเดือนก่อน
발표자: 조진욱 발표자료: docs.google.com/presentation/d/1jSRbNQ5ZAjLu09BkLR1Mk7FbxCYozg13eRvHtOLkv9M/edit#slide=id.p
LLAMA2: 오픈소스 위한 LLM 레시피 - Safety | Meta 2023 | 김보섭
มุมมอง 3307 หลายเดือนก่อน
발표자: 김보섭 발표자료: docs.google.com/presentation/d/1i3UL156_cAm0Fg3YaPrqZ-pAgFSVLXZEe1b80wrjcf4/edit#slide=id.p
LLAMA2: Discussion and LLAMA3 | Meta 2023 | 김보섭
มุมมอง 2557 หลายเดือนก่อน
발표자: 김보섭 발표자료: docs.google.com/presentation/d/1i3UL156_cAm0Fg3YaPrqZ-pAgFSVLXZEe1b80wrjcf4/edit#slide=id.p
LLAMA2: 오픈소스 위한 LLM 레시피 - Fine-Tuning | Meta 2023 | 김보섭
มุมมอง 5778 หลายเดือนก่อน
발표자: 김보섭 발표자료: docs.google.com/presentation/d/1i3UL156_cAm0Fg3YaPrqZ-pAgFSVLXZEe1b80wrjcf4/edit#slide=id.p
LLAMA2: 오픈소스 위한 LLM 레시피 - Pre-training | Meta 2023 | 김보섭
มุมมอง 1.1K8 หลายเดือนก่อน
NLP AI 분야 커리어 컨설팅/논문 함께 읽기 멘토링 - inf.run/BFSu 발표자: 김보섭 발표자료: docs.google.com/presentation/d/1i3UL156_cAm0Fg3YaPrqZ-pAgFSVLXZEe1b80wrjcf4/edit#slide=id.p
DPO: Reward Model없이 사람선호를 학습할 수 있을까?| NeurIPS 2023 | 이승현
มุมมอง 1.2K8 หลายเดือนก่อน
발표자: 이승현 발표자료: drive.google.com/file/d/1iXjq91vukzrHhaIzKb1XlqKQR1gQYHtU/view?usp=drive_link
ILF: 자연어 피드백으로 부터 LLM을 학습할 수 있을까? | TMLR 2023 | 이성윤
มุมมอง 4328 หลายเดือนก่อน
발표자: 이성윤 발표자료: drive.google.com/file/d/11hIQgw-fEWmfCYzkJ-ZNOVAZ1D6dbubo/view?usp=drive_link
Fine-Grained Human Feedback으로 LLM을 더 잘 학습 할 수 있는가? | NeurIPS 2023 | 김강민
มุมมอง 3749 หลายเดือนก่อน
Fine-Grained Human Feedback으로 LLM을 더 잘 학습 할 수 있는가? | NeurIPS 2023 | 김강민
Alignment Learning에서 과최적화 지표로 무엇을 봐야 할까? | OpenAI | PMLR 2023 | 김기범
มุมมอง 5419 หลายเดือนก่อน
Alignment Learning에서 과최적화 지표로 무엇을 봐야 할까? | OpenAI | PMLR 2023 | 김기범
FLAN-PaLM: Instruction Tuning에 CoT 데이터를 섞어야 할까? | Google 2022 | 이승준
มุมมอง 69110 หลายเดือนก่อน
FLAN-PaLM: Instruction Tuning에 CoT 데이터를 섞어야 할까? | Google 2022 | 이승준
InstructGPT: ChatGPT 오리지날 학습 레시피 로 추정되는 연구 | OpenAI | NeurIPS 2022 | 이영수
มุมมอง 58010 หลายเดือนก่อน
InstructGPT: ChatGPT 오리지날 학습 레시피 로 추정되는 연구 | OpenAI | NeurIPS 2022 | 이영수
Human Feedback 받은 LLM이 사람보다 요약을 잘한다? | OpenAI | NeurIPS 2020 | 김선호
มุมมอง 68810 หลายเดือนก่อน
Human Feedback 받은 LLM이 사람보다 요약을 잘한다? | OpenAI | NeurIPS 2020 | 김선호
논문 리뷰 시스템을 AI가 대체할 수 있을까? | Antropic 2022 | 조원익
มุมมอง 98510 หลายเดือนก่อน
논문 리뷰 시스템을 AI가 대체할 수 있을까? | Antropic 2022 | 조원익
안전한 LLM 학습 데이터는 어떻게 수집할까? | Antropic 2022 | 조원익
มุมมอง 82511 หลายเดือนก่อน
안전한 LLM 학습 데이터는 어떻게 수집할까? | Antropic 2022 | 조원익
LLM 학습 데이터가 고갈될까? | ArXiv 2022 | 이인규
มุมมอง 77011 หลายเดือนก่อน
LLM 학습 데이터가 고갈될까? | ArXiv 2022 | 이인규
LLM 역사를 함께 거꾸로 읽어보시죠 ! | 강재욱
มุมมอง 2.8K11 หลายเดือนก่อน
LLM 역사를 함께 거꾸로 읽어보시죠 ! | 강재욱
거꾸로 읽는 VLM (시즌3) wrap-up ! | 강재욱
มุมมอง 638ปีที่แล้ว
거꾸로 읽는 VLM (시즌3) wrap-up ! | 강재욱
GIT: CoCA와 비슷하지만 다른 VLM! | TMLR 2022 | 김기범
มุมมอง 447ปีที่แล้ว
GIT: CoCA와 비슷하지만 다른 VLM! | TMLR 2022 | 김기범
Frozen LLM과 Vision Encoder을 붙여서 만든 VLM Few-shot Leaner | NeurIPS 2022 | 조성국
มุมมอง 1.1Kปีที่แล้ว
Frozen LLM과 Vision Encoder을 붙여서 만든 VLM Few-shot Leaner | NeurIPS 2022 | 조성국
CoCa: Encoder-Decoder 구조의 Constrative Captioner! | TLMR Accepted | 김승우
มุมมอง 357ปีที่แล้ว
CoCa: Encoder-Decoder 구조의 Constrative Captioner! | TLMR Accepted | 김승우
Simple한 VLM Scaling이 zero-shot capability을 발현시킨다! | ICLR 2022 | 정윤성
มุมมอง 362ปีที่แล้ว
Simple한 VLM Scaling이 zero-shot capability을 발현시킨다! | ICLR 2022 | 정윤성
VLMo: VLM을 위한 Mixture-of-Modality-Experts의 필요성! | NeurIPS 2022 | 백혜림
มุมมอง 627ปีที่แล้ว
VLMo: VLM을 위한 Mixture-of-Modality-Experts의 필요성! | NeurIPS 2022 | 백혜림

ความคิดเห็น

  • @sweetpour
    @sweetpour วันที่ผ่านมา

    정말 재밌게 봤어요! ViT는 Encoder 기본적인 구조를 따라가서 딱히 설명할게 없고, 오히려 모델 성능을 비교하며 inductive bias를 고찰해보는게 핵심이군요~ 앞으로도 많은 영상 부탁드립니다

  • @User_UCiZsDb
    @User_UCiZsDb 5 วันที่ผ่านมา

    너무 잘 듣고 있습니다. 재생목록 정주행 중인데 소리가 너무 작은게 아쉽네요 ㅠㅠ

  • @SLAM2ROS
    @SLAM2ROS 28 วันที่ผ่านมา

    잘 봤습니다!

  • @supkoon
    @supkoon หลายเดือนก่อน

    41:23 code(dictionary) 하나의 크기는 D 차원으로 고정되어 있고 32*32*1은 128*128*3을 1024(32*32)개의 code(dictionary)로 표현한다는것 아닌가요? 즉 z_e(x)의 shape은 32*32*D 이고 각 D차원 벡터를 전체 코드북 하나 하나와 비교해서 거리가 제일 가까운 몇번째 코드를 쓰면 되는지로 표현하는 것이고, 그게 논문 figure의 가운데에 있는 파란색 격자 그림이 표현하는것 이라고 저는 이해했습니다. 그리고 z_q는 저 파란색 격자가 알려주는 index에 따라 codebook에서 code를 retreive하여 다시 codebook의 code들로 구성된 32*32*D shape의 z_q(x)를 구성해서 decoder에 태워 reconstruct하는 것이구요. 18:45 그래서 x라는 image하나가 z라는 하나의 integer로 mapping되는 것이 아니라 여러개의 code의 집합 (codebook들의 inde를 가르키는 integer들의 집합)으로 표현된다고 저는 이해했는데, 혹시 제가 틀리게 이해한 것일까요?

  • @kimchi_taco
    @kimchi_taco 3 หลายเดือนก่อน

    인사이트있는 세미나 잘 들었습니다. 감사합니다!

  • @user-ke2ji8la9jg5
    @user-ke2ji8la9jg5 3 หลายเดือนก่อน

    정리 감사합니다 유익하네요!

  • @kimchi_taco
    @kimchi_taco 4 หลายเดือนก่อน

    51:00 bm25, stride~8, seg len~64 훌륭한 세미나 감사합니다

  • @user-ke2ji8la9jg5
    @user-ke2ji8la9jg5 4 หลายเดือนก่อน

    34:40 G연

  • @kimchi_taco
    @kimchi_taco 4 หลายเดือนก่อน

    중간 중간 끼어들어서 정리해주셔서 감사합니다😂 정리 퀄리티가 o1이십니다

  • @이태호-r7x
    @이태호-r7x 5 หลายเดือนก่อน

    감사합니다

  • @이태호-r7x
    @이태호-r7x 5 หลายเดือนก่อน

    잘들었습니다!

  • @junhyeongjunhyeong
    @junhyeongjunhyeong 6 หลายเดือนก่อน

    VAE는 GMM에서 EM을 하는걸 딥러닝으로 가져온거고 vq-vae는 이걸 다시 KNN으로 가져가서 EM을 하는거로 생각하면 안되나요? 그렇게 생각하면 KL도 말씀하신것 처럼 똑같이 나오는데

  • @김시원-s7j
    @김시원-s7j 7 หลายเดือนก่อน

    좋은 내용 감사합니디

  • @덕배김-t2k
    @덕배김-t2k 7 หลายเดือนก่อน

    감사합니다

  • @이태호-r7x
    @이태호-r7x 8 หลายเดือนก่อน

    잘 봤습니다!

  • @이태호-r7x
    @이태호-r7x 8 หลายเดือนก่อน

    잘 들었습니다

  • @inkyulee8313
    @inkyulee8313 8 หลายเดือนก่อน

    안녕하세요, 좋은 발표 감사합니다. 47:20 쯤에 말씀하신 mean score 를 최종적으로 0으로 수렴시켜야한다는 부분은 선호님 말씀처럼 두 reward 의 차이를 maximize 시키는 방향이 맞는 것 같습니다. 두 reward의 차이가 크면 sigmoid 를 거쳐서 1에 가까운 값이 나오고, 결국에는 log가 앞에 있어서 0이 나오는데, 여기서 말하는 mean score 가 저 log까지 포함한 값이 아닐까 싶습니다.

  • @_Han-xk1zv
    @_Han-xk1zv 8 หลายเดือนก่อน

    유익한 영상 감사합니다. 중간에 해주시는 질문/의견들이 너무 좋습니다! 영상 중간에서 37:10 Retriever 성능 측정 측면에서 Recall의 부적절성을 언급해주셨는데, f1 score처럼 false negative와 false positive를 동시에 고려하는게 더 적합하다는 의견으로 이해하면 될까요? 혹시, 영상에서의 예시와는 다르게 BM25와의 비교 없이 오직 DPR의 성능만을 비교하는 경우에도 Recall 만을 사용하는게 부적절하다고 생각하실까요?

    • @gokkulearn
      @gokkulearn 8 หลายเดือนก่อน

      네 그렇습니다 BM25인지 여부에 관계없이 retriever의 성능을 볼때 MRR과 F1 또는 nDCG를 보는 것을 추천드립니다

    • @_Han-xk1zv
      @_Han-xk1zv 8 หลายเดือนก่อน

      @@gokkulearn 네 그렇군요. 답변 감사합니다. 좋은 하루 되세요~

  • @보노보노-f1v
    @보노보노-f1v 8 หลายเดือนก่อน

    감사합니다

    • @gokkulearn
      @gokkulearn 8 หลายเดือนก่อน

      시청해 주셔서 감사드립니다.

  • @유영재-c9c
    @유영재-c9c 10 หลายเดือนก่อน

    Llava나 CogVLM도 같은 VLM이라고 봐도 되는거죠?

  • @oxzs6698
    @oxzs6698 10 หลายเดือนก่อน

    랭귀지 데이터에서 로우퀄리티와 하이퀄리티는 어떤 것들이 있고 이 둘은 차이점은 무엇인가요?

    • @gokkulearn
      @gokkulearn 10 หลายเดือนก่อน

      논문에 나와있듯이 하이퀄리티 데이터는 깃헙, 위키등 정제되고 구조화 된 데이터를 말합니다. 로우퀄리티 데이터는 그 외 비정형 웹 텍스트를 의미합니다

  • @오영화-t8d
    @오영화-t8d 10 หลายเดือนก่อน

    너무 잘 들었습니다!!

  • @김광준-f7f
    @김광준-f7f 10 หลายเดือนก่อน

    화면해상도가 1080p이지만 유효화면이 작습니다. 글씨가 잘 안보여요. 유효화면을 키웠으면 합니다.

    • @gokkulearn
      @gokkulearn 10 หลายเดือนก่อน

      조언감사합니다. 시행착오를 겪는중이네요 ㅠ 발표자료 링크를 같이 제공해 드리고 있으니 참고 부탁드려요 ^^

  • @mytype5045
    @mytype5045 10 หลายเดือนก่อน

    좋은 발표 감사합니다 !

  • @10xlessons
    @10xlessons 10 หลายเดือนก่อน

    잘 보려..했으나 사전 지식이 부족해서 패스합니다 ...

  • @rohikhyun5228
    @rohikhyun5228 10 หลายเดือนก่อน

    잘 들었습니다. 구독하였습니다

  • @mytype5045
    @mytype5045 11 หลายเดือนก่อน

    넘 재밌는 주제 다뤄주셔서 감사합니다 😮😮

    • @gokkulearn
      @gokkulearn 11 หลายเดือนก่อน

      재미있게 봐주셔서 감사합니다!

  • @chojin-ko3co
    @chojin-ko3co 11 หลายเดือนก่อน

    감사합니다. 설명이랑 피드백이 좋다는 표현이 좋네요.

  • @newnham
    @newnham 11 หลายเดือนก่อน

    감사합니다 ❤

    • @jaewookkang4515
      @jaewookkang4515 11 หลายเดือนก่อน

      봐주셔서 감사합니다 주위에 소개 많이 해주세요!

  • @철이-x5l
    @철이-x5l 11 หลายเดือนก่อน

    스터디에 참여 지원하고 싶었는데 아쉽습니다! 잘 듣겠습니다:)

    • @gokkulearn
      @gokkulearn 11 หลายเดือนก่อน

      다음기회에 고고 하시죠!!

  • @leekopri
    @leekopri 11 หลายเดือนก่อน

    LLM 개요를 이해하는데 도움이 되었어요. 감사합니다! 발표자 얼굴이 나오는 화면을 가리기 처리한 오른쪽 상단의 상자때문에 발표 화면이 일부 보이지 않을 때가 있습니다. 다음번에는 발표자료(ppt?)에서 오른쪽 상단을 비워두면 좋겠습니다. 다음 강의 기다릴게요.

    • @gokkulearn
      @gokkulearn 11 หลายเดือนก่อน

      네 코멘트 감사합니다!

  • @asdasd-qf3cm
    @asdasd-qf3cm 11 หลายเดือนก่อน

    감사히 잘 볼게요

    • @gokkulearn
      @gokkulearn 11 หลายเดือนก่อน

      좋은 영상 많이 업뎃 예정이니 많이 알려주세요 :) 새해복 많이 받으세요 :)

  • @carolwu193
    @carolwu193 ปีที่แล้ว

    발표자분이 정리도 정말 잘 해 주시고 이해하기 쉽게 설명 해 주시네요! 덕분에 많은 도움이 됐습니다. 감사합니다.

    • @gokkulearn
      @gokkulearn 11 หลายเดือนก่อน

      좋은 말씀 감사합니다!

  • @chojin-ko3co
    @chojin-ko3co ปีที่แล้ว

    CLIP 내용 재밌네요.! 후속으로 나온 논문들 읽어보기 전에 참고하려고 영상을 보는데 정리가 잘 되는 것 같습니다.~~ 그리고 혹시 논문을 같이 읽는 모임이 있는 건가요?

  • @mytype5045
    @mytype5045 ปีที่แล้ว

    자세한 설명과 좋은 피드백 쌓아주셔서, 공부하는데 큰 도움이 되네요. 감사합니다^^

  • @svvma91
    @svvma91 ปีที่แล้ว

    안녕하세요! 거꾸로 읽는 VLM 시리즈 잘 보았습니다. 멀티모달을 공부하는 학생인데 큰 도움이 됐습니다. 감사합니다! 혹시 스터디 다음 시즌은 언제 진행되는지 계획이 있을까요?

    • @gokkulearn
      @gokkulearn ปีที่แล้ว

      10월쯤 모집을 시작하지 않을까합니다 메일주소 알려주시면 모집공지 보내드릴께요~

  • @mytype5045
    @mytype5045 ปีที่แล้ว

    안녕하세요. 재욱님. 항상 너무 좋은 생각들 제공해주셔서 감사합니다 :) 혹시 올려주신 논문과 영상자료를 바탕으로, 비영리 VLM 스터디에서 자료로 활용해 공부해도 괜찮을까요?

    • @gokkulearn
      @gokkulearn ปีที่แล้ว

      물론입니다! 채널 널리널리 홍보 부탁드립니다~ 다음 시즌에 참여도 독려 부탁드려요~

    • @mytype5045
      @mytype5045 ปีที่แล้ว

      @@gokkulearn 물론입니다~~ 허락해주셔서 감사합니다 ><

  • @조용장-h9f
    @조용장-h9f ปีที่แล้ว

    자랑스러운~ 성국찡

  • @임성준학생협동과정인
    @임성준학생협동과정인 ปีที่แล้ว

    영상 잘 봤습니다. 궁금한 점이 있는데 가장 중요했던 문제가 cls의 attention pattern이 적절하지 않아서 condenser구조를 사용해서 이를 교정했다는 점 같은데요. 혹시 그럼 condenser 구조의 어떤 method가 attention pattern을 교정할 수 있도록 해준건지도 알 수 있을까요?

  • @aliasziken7847
    @aliasziken7847 ปีที่แล้ว

    Really thx for sharing! And is there any fully english version of ppt or course video :)

    • @gokkulearn
      @gokkulearn ปีที่แล้ว

      Thank you for your attention. English translation subtitles are not being considered for this season. From next season, I'm thinking about adding translation subtitles using AI technology. I wonder if the video is helpful even though the language is different?

    • @aliasziken7847
      @aliasziken7847 ปีที่แล้ว

      ​@@gokkulearn The video's audio is mixed in English and Korean, so the youtube translation system doesn't work well. I only translated the ppt and it was very nice and helpful.

    • @gokkulearn
      @gokkulearn ปีที่แล้ว

      Please promote the channel a lot around you, and I will definitely consider English translation from next season! thank you! :)

  • @TheKoreanfavorites
    @TheKoreanfavorites ปีที่แล้ว

    coordinator 분께서 부연설명 해 주시니 좋네요!

  • @syapersb
    @syapersb 2 ปีที่แล้ว

    너무 이해가 쏙쏙 되는 것 같아요 감사합니다

  • @khyu479
    @khyu479 2 ปีที่แล้ว

    해당 발표자료 및 김동규님 메일 주소를 알 수 있을까요?

    • @gokkulearn
      @gokkulearn 2 ปีที่แล้ว

      발표자료입니다 drive.google.com/file/d/1mziQEteSwHxLZ6Jb0vCsX3w1KpUGGmzA/view?usp=sharing 동규님 메일주소는 개인정보라서 공유 못드리구요 github id 알려드릴께요~ github.com/Dien-ES

  • @SuperRich12
    @SuperRich12 2 ปีที่แล้ว

    잘보고있습니다!

    • @gokkulearn
      @gokkulearn 2 ปีที่แล้ว

      항상 봐주셔서 감사합니다!

  • @nyaong7
    @nyaong7 2 ปีที่แล้ว

    좋은 강의 감사합니다!!! 잘 듣고 있습니다. 최근에 Coling 2022에 "Towards Robust Neural Retrieval with Source Domain Synthetic Pre-Finetuning" 논문이 나왔는데 Contriever와 하고 싶은 것은 비슷한 것 같습니다. 나중에 소개해주실 수 있으신가요?

    • @gokkulearn
      @gokkulearn 2 ปีที่แล้ว

      의견감사합니다! 혹시 직접 출연하셔서 소개해주시는 것은 어떨까요? 연락주세요~ gokkulearn@gmail.com

  • @NO_REPLY_ALARM_TOWARD_ME
    @NO_REPLY_ALARM_TOWARD_ME 2 ปีที่แล้ว

    강의 잘봤습니다. 중간에 질문이 있어서 ...혹시 보실 지 모르겠지만 댓글 남기겠습니다. queue를 사용하여 negative samples와 보다 더 많은 contrastive learning의 기회를 줄 수 있었고, queue에 들어 있는 모든 미니 배치 단위의 key들이 학습에 사용된다는 것까지는 이해하는데, queue의 자료구조 특성 상 가장 처음에 들어온 순서대로 빠져나가게 되잖아요? 그렇다는 말은 새로 들어온 query representation과 가장 유사도가 적은 key가 반드시 queue의 top에 위치하게 된다는 점을 전제하고 있다고 이해를 해도 될까요?

    • @jaewookkang4515
      @jaewookkang4515 2 ปีที่แล้ว

      query representation과 가장 유사도가 적은 key가 반드시 queue의 top에 위치하는것이 전제는 아니라고 이해하고 있습니다. - query representation과 가장 유사도가 높은 key를 positive keys - query representation과 가장 유사도가 낮은 key를 negative keys 라고 한다면 논문에서 말하길 - dictionary는 single positive key와 나머지 negative keys로 구성된다 라고 이야기하고 있습니다. 답변이 되셨을까요 ? :)

    • @NO_REPLY_ALARM_TOWARD_ME
      @NO_REPLY_ALARM_TOWARD_ME 2 ปีที่แล้ว

      ​@@jaewookkang4515 답변 감사합니다! 그럼 학부 때 사용하는 fcfs의 큐의 의미가 아니라 강의에서 선생님께서 언급하신 것처럼 캐시 혹은 버퍼 정도로 이해하면 되겠나요? 코드도 살펴보았는데 register_buffer(minibatch, q_size) 하는 부분이 있네요!