Llama 3.1 Fine Tuning + 저장 후 실행까지!

แชร์
ฝัง
  • เผยแพร่เมื่อ 30 พ.ย. 2024

ความคิดเห็น • 61

  • @필로소피
    @필로소피  3 หลายเดือนก่อน +4

    안녕하세요^^
    구글 colab 링크 주소입니다 :
    colab.research.google.com/drive/1f6Sl8zxfTy_wfeeVx9vZOeK6M8BpJzPi?usp=sharing
    이 영상에 나오는 'Open Source LLM Team Instructions 프롬프트', '이 영상의 PPT를 PDF로 바꾼 파일'
    이 두 가지를 받고 싶으신 분들은 이렇게 해주시면 됩니다.
    1. 이 영상에 응원 댓글 달기
    2. 응원 댓글을 단 본인의 유튜브 핸들 정보를 아래 메일로 보내기
    (유튜브 핸들은 댓글을 달면, 옆에 나오는 @ 이후의 문자입니다)
    메일 예시)
    제목 : Llama 3.1 fine tuning 자료 요청합니다.
    내용 : 응원 댓글 달았습니다. 제 유튜브 핸들은 @oooo 입니다 :)
    dearname27@naver.com
    *꼭 메일의 제목에 어떤 영상의 자료를 요청하시는지 적어주시면 감사하겠습니다^^

  • @chddhh
    @chddhh 14 วันที่ผ่านมา

    좋은 영상 감사합니다.

  • @healingaca
    @healingaca 18 วันที่ผ่านมา

    유익한 영상 감사합니다. 평소에 한번 수행하고 싶은 과정이어서 좋았습니다.

  • @jinwoocho3853
    @jinwoocho3853 29 วันที่ผ่านมา

    많이 배우고 갑니다. 좋은 강의 감사합니다.

  • @wonjooncho
    @wonjooncho 2 หลายเดือนก่อน

    LLM에 관심이 많지만 학습할 충분한 시간이 없어서 고민중이었습니다.
    틈틈이 필로소피님의 자료를 통해서 학습하고 있습니다.
    내용도 알차고 쉽게 이해할수 있어 큰 도움이 됩니다.
    감사합니다.

  • @sungleader
    @sungleader 2 หลายเดือนก่อน +2

    너무나도 좋은 강의 감사드립니다!!!

  • @changjunlee2759
    @changjunlee2759 หลายเดือนก่อน

    지금 필요한 내용이었습니다. 감사합니다. 3.2도 동일한가요?

  • @USunyeong
    @USunyeong 3 หลายเดือนก่อน +1

    천천히 따라올 수 있도록 단계적으로 난이도가 올라가서 많은 도움을 받고 있습니다. 늘 감사히 시청하고 있습니다. 고맙습니다.😀

    • @필로소피
      @필로소피  3 หลายเดือนก่อน

      @@USunyeong 좋은 말씀 감사합니다 😊

  • @이종환-x4y
    @이종환-x4y 2 หลายเดือนก่อน

    내용이 알찹니다. 파인 튜닝 실습하는데 많은 도움이 될 것 같아요. 감사합니다.

  • @cspark7033
    @cspark7033 หลายเดือนก่อน

    파인튜닝에 대한 이해도가 높아졌어요. 감사드려요.

  • @ilhwankim3190
    @ilhwankim3190 3 หลายเดือนก่อน

    안녕하세요. 업무에 꼭 필요한 사항이었는데요. 이렇게 좋은 정보를 제공해 주셔서 너무 감사드립니다.

  • @김민재-z9g5z
    @김민재-z9g5z 3 หลายเดือนก่อน

    라마 모델 파인튜닝이 궁금했는데 이 영상 보고 많이 배워갑니다. 감사합니다!

  • @GM-nv8cq
    @GM-nv8cq 3 หลายเดือนก่อน

    오~ 찾고있던 내용이였는데 감사합니다! 응원합니다!!

  • @행원-w6e
    @행원-w6e 2 หลายเดือนก่อน

    라마 3.1버전 파인튜닝 찾다가 흘러들어왔어요! 많은 도움 받고 갑니다.

  • @iweddingu
    @iweddingu 3 หลายเดือนก่อน

    엄두가 안났던 일인데 이렇게 찬찬히 과정을 풀어주셔서 이해가 쉽게 되었습니다. 감사합니다.

  • @bellmake-kl4gt
    @bellmake-kl4gt 2 หลายเดือนก่อน

    매우 유익한 강의에 감사드립니다!

  • @까꿍-h4d
    @까꿍-h4d หลายเดือนก่อน

    진짜 유익한 영상 감사합니다 구독 좋아요 다 했어요!

  • @admssdhdhsh
    @admssdhdhsh 2 หลายเดือนก่อน

    기다리던 영상입니다 감사합니다

  • @synczen
    @synczen 2 หลายเดือนก่อน

    좋은 강의 감사합니다. 덕분에 잘 배웠습니다. ^^

  • @hyungjaelim3612
    @hyungjaelim3612 หลายเดือนก่อน

    좋은 영상 감사합니다. 잘 보겠습니다 :)

  • @Joon-ou8jz
    @Joon-ou8jz 3 หลายเดือนก่อน

    감사합니다. 단계별로 자세히 설명해주시니 귀에 쏙쏙 들어오네요^^

  • @cldsnu25
    @cldsnu25 2 หลายเดือนก่อน

    파인튜닝 영상 찾고 있었는데 감사합니다!!

  • @장영수-k8v
    @장영수-k8v 3 หลายเดือนก่อน

    파인튜닝 관심있어서 혼자 씨름 하고 있었는데 정말 감사합니다.
    잘활용해보겠습니다.

  • @jundik0
    @jundik0 3 หลายเดือนก่อน

    이번에도 너무 좋은 영상 감사드립니다. 잘 배우겠습니다.

  • @3mincareer
    @3mincareer 3 หลายเดือนก่อน

    늘 체계적으로 꼼꼼하게 설명해주셔서 넘 유익합니다^^❤❤

  • @stunnbeatz4113
    @stunnbeatz4113 3 หลายเดือนก่อน

    좋은 최신 정보 감사합니다.
    도움 많이 되었습니다 화이팅입니다

  • @peterahn5758
    @peterahn5758 3 หลายเดือนก่อน

    Fine Tuning 방법에 대해 궁금했지만, 엄두를 내지 못했는데, 필로소피님 덕분에 '핸드폰 분해해서 다시 조립해 볼 수 있는 용기를 얻었습니다. 감사합니다.

  • @jinsikha4431
    @jinsikha4431 3 หลายเดือนก่อน

    매번 좋은 강의 감사 드립니다.

  • @junim767
    @junim767 2 หลายเดือนก่อน

    좋은 강의 감사합니다.

  • @sukpyohong6342
    @sukpyohong6342 2 หลายเดือนก่อน

    좋은 강의 감사합니다^^

  • @MultiSeung
    @MultiSeung 3 หลายเดือนก่อน +2

    이번엔 파인튜닝이네요. 여러번 봐야겠습니다.

  • @gguggufam2
    @gguggufam2 3 หลายเดือนก่อน

    응원합니다!

  • @saintgo6762
    @saintgo6762 3 หลายเดือนก่อน

    좋은강의 감사합니다 ^^

  • @sungyounlim7827
    @sungyounlim7827 3 หลายเดือนก่อน

    유용한 정보 감가합니다

  • @lastenglish
    @lastenglish 3 หลายเดือนก่อน

    응원합니다.

  • @blandon308
    @blandon308 3 หลายเดือนก่อน

    관심 있는 분야인데, 감사합니다

  • @dlgustmddd
    @dlgustmddd 2 หลายเดือนก่อน

    안녕하세요 아직 시청전이긴하나 질문이 있습니다.
    RAG를 진행하게 될때 RAG데이터로 파인튜닝을한 모델을 가지고 제작을 했을경우
    성능향상을 기대할 수 있을까요?? 아니면 별개로 분리되어 큰 성능향상은 없나요??

  • @이은재-e6w
    @이은재-e6w 3 หลายเดือนก่อน

    감사합니다. 튜닝 방법을 잘 알게 되었습니다.
    고생해서 취득한 지식을 공유해 주셔서 감사합니다.
    나만의 AI를 만들고 싶습니다.
    전문적인 나만의 AI를 만들어 공유하고 싶네요.
    감사합니다.

  • @park9085
    @park9085 หลายเดือนก่อน

    안녕하세요. 영상보고 따라하려고 하는데, xFormers 로드 과정에서 오류가 발생헀습니다.
    xFormers can't load C++/CUDA extensions. xFormers was built for:
    PyTorch 2.3.0+cu121 with CUDA 1201 (you have 2.5.0+cu121)
    Python 3.10.14 (you have 3.10.12)
    아무래도 Colab에서는 3.10.12로 설치 돼 있고
    CUDA도 2.5.0으로 설치된 거 같네요.
    요구하는 버전에 맞춰 다운그레이드하고 재설치하면 되는걸까요?

    • @필로소피
      @필로소피  หลายเดือนก่อน

      @@park9085 안녕하세요~!
      제가 최근에 llama 3.2 fine tuning 영상을 올렸습니다.
      아래 영상을 보고 해보시는 것도 좋은 방법일 거 같습니다.
      제가 오늘도 해봤는데요, 모델 저장까지 잘 됩니다 😊
      th-cam.com/video/Ed6zJ3ejssg/w-d-xo.htmlsi=u-I6eTRCkqny4Dep

  • @김한승-n1k
    @김한승-n1k 3 หลายเดือนก่อน +2

    주신 코랩으로 해서 gguf 화일 다운받아 실행을 하니 아래와 같이 나와서요..혹시 허깅페이스로 올리고 받지 않아 그런가요? 감사합니다.
    D:\Ollama\ollama-model\0816>ollama run ttt_llama3-ko
    Error: llama runner process has terminated: exit status 0xc0000409 error loading model: done_getting_tensors: wrong number of tensors; expected 292, got 291

    • @필로소피
      @필로소피  3 หลายเดือนก่อน +1

      안녕하세요 :)
      지금 이 에러 코드를 보면, wrong number of tensors; expected 292, got 291이라는 부분이 있네요.
      Tensor가 292개 있어야 하는데, 291개 있다는 뜻인데요.
      즉, 모델이 제대로 다운이 받아지지 않은 상태일 수도 있겠습니다.
      꼭 허깅페이스로 올리지 않고 내 컴퓨터로 바로 다운 받아도 되기는 할텐데요. 그 과정에서 다운로드가 제대로 되지 않은 거 같습니다.
      다시 다운 받아서 해보시거나,
      정 안 되시면 Hugging Face에 올려보시고 다시 다운 받아보시는 것도 한 방법이 될 거 같습니다.
      감사합니다 :)

    • @김한승-n1k
      @김한승-n1k 3 หลายเดือนก่อน

      @@필로소피 감사합니다(잘 동작 해요)

  • @JhC-e3m
    @JhC-e3m 2 หลายเดือนก่อน

    좋아요

  • @나나-k1y4b
    @나나-k1y4b 2 หลายเดือนก่อน

    저도 한 번 직접 따라해 봤는데 다운로드까진 성공했지만, msty에서 실행하려고 하면
    llama runner process has terminated: error loading
    model: error loading model vocabulary: cannot find tokenizer merges in model file
    이런 오류가 발생하는데 도무지 원인을 모르겠습니다. 혹시 답을 알 수 있을까요?

    • @필로소피
      @필로소피  2 หลายเดือนก่อน

      안녕하세요 :)
      제가 다 아는 것은 아니지만
      제가 아는 선에서 답을 드리자면,
      말씀해주신 오류 메시지는 주로 모델 파일의 구조나 토크나이저 관련 파일이 올바르게 로드되지 않을 때 발생합니다. "error loading model vocabulary: cannot find tokenizer merges in model file"라는 메시지는 토크나이저의 'merges' 파일을 찾을 수 없다는 뜻입니다.
      파인튜닝 과정에서 토크나이저 관련 파일이 제대로 저장되지 않았을 수 있습니다.
      파인튜닝된 모델 폴더에 'tokenizer.model'과 'tokenizer_config.json' 파일이 있는지 확인을 한 번 해보세요~!
      이 파일들이 없다면, 우리가 업로드한 허깅페이스의 원본 LLaMA 3.1 모델 폴더에서 이 파일들을 찾아 다운을 받고, 파인튜닝한 모델 폴더로 복사해주세요~!
      파인튜닝한 모델을 저장하고 그 저장한 모델을 허깅페이스에서 다운 받는 과정에서, 필요한 파일이 빠진 것 같습니다. 한 번 확인해보세요~!
      저도 다 아는 것은 아니기에, 제가 아는 선에서 최선의 답을 드렸습니다.
      감사합니다~! :)

    • @나나-k1y4b
      @나나-k1y4b 2 หลายเดือนก่อน

      @@필로소피 빠른 답변 감사드립니다. 공부 중인 학생인데 덕분에 AI관련해서 많이 배우고 있습니다. 감사합니다!

  • @datastudy-s5s
    @datastudy-s5s 3 หลายเดือนก่อน

    안녕하세요. 강의보고 데이터 원본 관련하여 한 가지 문의사항 드립니다.
    리뷰에 대해 속성 기반 감성 분석을 진행해보고자 하는데요..!!
    input이 "늘 그렇듯 행사 기간에 착한 가격에 구입했고, 유통기한도 2025년 8월로 긴 제품이 왔네요."
    이렇게 들어갈 경우 {Aspect: 가격 SentimentText: 착한 가격에 구입했고, SentimentPolarity: 1}, {Aspect: 제품구성 SentimentText: 유통기한도 2025년 8월로 긴 제품이 왔네요 SentimentPolarity: 1}
    이렇게 결과를 출력하고 싶습니다.
    이럴 경우
    instruction에 늘 그렇듯 행사 기간에 착한 가격에 구입했고, 유통기한도 2025년 8월로 긴 제품이 왔네요.
    output에 {Aspect: 가격 SentimentText: 착한 가격에 구입했고, SentimentPolarity: 1}, {Aspect: 제품구성 SentimentText: 유통기한도 2025년 8월로 긴 제품이 왔네요 SentimentPolarity: 1}
    이런 식으로 데이터를 학습 시켜야 하는지 궁금합니다. 학습 시켜도 결과가 좋게 나오지 않아서요 ㅠㅠ

  • @테럽개발자
    @테럽개발자 2 หลายเดือนก่อน

    안녕하세요 혹시 코랩이 아닌 로컬로 할 시 조금 더 시간이 걸리나요?

    • @필로소피
      @필로소피  2 หลายเดือนก่อน

      안녕하세요 :) 제 개인적인 생각입니다만, 로컬 PC 사양에 따라 다르지 않을까 싶습니다.

  • @paulhahm
    @paulhahm 3 หลายเดือนก่อน

    감사합니다. 저도 구글코랩 액세스 에서 막히네요.

    • @필로소피
      @필로소피  3 หลายเดือนก่อน +1

      안녕하세요 :)
      이제 액세스 되실 겁니다.
      다만, 사본 만들기를 하셔야 코드를 수정 하실 수 있을 겁니다.
      고정댓글에 있는 구글 colab 링크에 들어 가시고,
      [파일]- [Drive에 사본 만들기]
      누르시고 사본을 먼저 만드시고 시작하시면 됩니다.
      감사합니다! :)

  • @안소니홉킨스
    @안소니홉킨스 3 หลายเดือนก่อน

    구글코랩 액세스가 자꾸 거부됬다고 나와요;;

    • @필로소피
      @필로소피  3 หลายเดือนก่อน +2

      안녕하세요 :)
      이제 액세스 되실 겁니다.
      다만, 사본 만들기를 하셔야 코드를 수정 하실 수 있을 겁니다.
      고정댓글에 있는 구글 colab 링크에 들어 가시고,
      [파일]- [Drive에 사본 만들기]
      누르시고 사본을 먼저 만드시고 시작하시면 됩니다.
      감사합니다! :)

    • @안소니홉킨스
      @안소니홉킨스 3 หลายเดือนก่อน

      @@필로소피 네 감사합니다

  • @hedgehog2074
    @hedgehog2074 14 วันที่ผ่านมา

    설명이 상세해서 많은 도움이 되었습니다. ^^

  • @강정이기가맥혀
    @강정이기가맥혀 หลายเดือนก่อน +1

    마침 이런 상세한 설명이 필요했습니다 감사합니다!

  • @bongbongkain
    @bongbongkain 3 หลายเดือนก่อน

    정말 궁금해했던 내용을 올려주셔서 감사합니다. 앞으로도 좋은 영상 기대하겠습니다.

  • @CS_OverLap
    @CS_OverLap 2 หลายเดือนก่อน

    좋은 강의 감사드립니다