안녕하세요^^ 구글 colab 링크 주소입니다 : colab.research.google.com/drive/1f6Sl8zxfTy_wfeeVx9vZOeK6M8BpJzPi?usp=sharing 이 영상에 나오는 'Open Source LLM Team Instructions 프롬프트', '이 영상의 PPT를 PDF로 바꾼 파일' 이 두 가지를 받고 싶으신 분들은 이렇게 해주시면 됩니다. 1. 이 영상에 응원 댓글 달기 2. 응원 댓글을 단 본인의 유튜브 핸들 정보를 아래 메일로 보내기 (유튜브 핸들은 댓글을 달면, 옆에 나오는 @ 이후의 문자입니다) 메일 예시) 제목 : Llama 3.1 fine tuning 자료 요청합니다. 내용 : 응원 댓글 달았습니다. 제 유튜브 핸들은 @oooo 입니다 :) dearname27@naver.com *꼭 메일의 제목에 어떤 영상의 자료를 요청하시는지 적어주시면 감사하겠습니다^^
안녕하세요. 영상보고 따라하려고 하는데, xFormers 로드 과정에서 오류가 발생헀습니다. xFormers can't load C++/CUDA extensions. xFormers was built for: PyTorch 2.3.0+cu121 with CUDA 1201 (you have 2.5.0+cu121) Python 3.10.14 (you have 3.10.12) 아무래도 Colab에서는 3.10.12로 설치 돼 있고 CUDA도 2.5.0으로 설치된 거 같네요. 요구하는 버전에 맞춰 다운그레이드하고 재설치하면 되는걸까요?
@@park9085 안녕하세요~! 제가 최근에 llama 3.2 fine tuning 영상을 올렸습니다. 아래 영상을 보고 해보시는 것도 좋은 방법일 거 같습니다. 제가 오늘도 해봤는데요, 모델 저장까지 잘 됩니다 😊 th-cam.com/video/Ed6zJ3ejssg/w-d-xo.htmlsi=u-I6eTRCkqny4Dep
주신 코랩으로 해서 gguf 화일 다운받아 실행을 하니 아래와 같이 나와서요..혹시 허깅페이스로 올리고 받지 않아 그런가요? 감사합니다. D:\Ollama\ollama-model\0816>ollama run ttt_llama3-ko Error: llama runner process has terminated: exit status 0xc0000409 error loading model: done_getting_tensors: wrong number of tensors; expected 292, got 291
안녕하세요 :) 지금 이 에러 코드를 보면, wrong number of tensors; expected 292, got 291이라는 부분이 있네요. Tensor가 292개 있어야 하는데, 291개 있다는 뜻인데요. 즉, 모델이 제대로 다운이 받아지지 않은 상태일 수도 있겠습니다. 꼭 허깅페이스로 올리지 않고 내 컴퓨터로 바로 다운 받아도 되기는 할텐데요. 그 과정에서 다운로드가 제대로 되지 않은 거 같습니다. 다시 다운 받아서 해보시거나, 정 안 되시면 Hugging Face에 올려보시고 다시 다운 받아보시는 것도 한 방법이 될 거 같습니다. 감사합니다 :)
저도 한 번 직접 따라해 봤는데 다운로드까진 성공했지만, msty에서 실행하려고 하면 llama runner process has terminated: error loading model: error loading model vocabulary: cannot find tokenizer merges in model file 이런 오류가 발생하는데 도무지 원인을 모르겠습니다. 혹시 답을 알 수 있을까요?
안녕하세요 :) 제가 다 아는 것은 아니지만 제가 아는 선에서 답을 드리자면, 말씀해주신 오류 메시지는 주로 모델 파일의 구조나 토크나이저 관련 파일이 올바르게 로드되지 않을 때 발생합니다. "error loading model vocabulary: cannot find tokenizer merges in model file"라는 메시지는 토크나이저의 'merges' 파일을 찾을 수 없다는 뜻입니다. 파인튜닝 과정에서 토크나이저 관련 파일이 제대로 저장되지 않았을 수 있습니다. 파인튜닝된 모델 폴더에 'tokenizer.model'과 'tokenizer_config.json' 파일이 있는지 확인을 한 번 해보세요~! 이 파일들이 없다면, 우리가 업로드한 허깅페이스의 원본 LLaMA 3.1 모델 폴더에서 이 파일들을 찾아 다운을 받고, 파인튜닝한 모델 폴더로 복사해주세요~! 파인튜닝한 모델을 저장하고 그 저장한 모델을 허깅페이스에서 다운 받는 과정에서, 필요한 파일이 빠진 것 같습니다. 한 번 확인해보세요~! 저도 다 아는 것은 아니기에, 제가 아는 선에서 최선의 답을 드렸습니다. 감사합니다~! :)
안녕하세요. 강의보고 데이터 원본 관련하여 한 가지 문의사항 드립니다. 리뷰에 대해 속성 기반 감성 분석을 진행해보고자 하는데요..!! input이 "늘 그렇듯 행사 기간에 착한 가격에 구입했고, 유통기한도 2025년 8월로 긴 제품이 왔네요." 이렇게 들어갈 경우 {Aspect: 가격 SentimentText: 착한 가격에 구입했고, SentimentPolarity: 1}, {Aspect: 제품구성 SentimentText: 유통기한도 2025년 8월로 긴 제품이 왔네요 SentimentPolarity: 1} 이렇게 결과를 출력하고 싶습니다. 이럴 경우 instruction에 늘 그렇듯 행사 기간에 착한 가격에 구입했고, 유통기한도 2025년 8월로 긴 제품이 왔네요. output에 {Aspect: 가격 SentimentText: 착한 가격에 구입했고, SentimentPolarity: 1}, {Aspect: 제품구성 SentimentText: 유통기한도 2025년 8월로 긴 제품이 왔네요 SentimentPolarity: 1} 이런 식으로 데이터를 학습 시켜야 하는지 궁금합니다. 학습 시켜도 결과가 좋게 나오지 않아서요 ㅠㅠ
안녕하세요^^
구글 colab 링크 주소입니다 :
colab.research.google.com/drive/1f6Sl8zxfTy_wfeeVx9vZOeK6M8BpJzPi?usp=sharing
이 영상에 나오는 'Open Source LLM Team Instructions 프롬프트', '이 영상의 PPT를 PDF로 바꾼 파일'
이 두 가지를 받고 싶으신 분들은 이렇게 해주시면 됩니다.
1. 이 영상에 응원 댓글 달기
2. 응원 댓글을 단 본인의 유튜브 핸들 정보를 아래 메일로 보내기
(유튜브 핸들은 댓글을 달면, 옆에 나오는 @ 이후의 문자입니다)
메일 예시)
제목 : Llama 3.1 fine tuning 자료 요청합니다.
내용 : 응원 댓글 달았습니다. 제 유튜브 핸들은 @oooo 입니다 :)
dearname27@naver.com
*꼭 메일의 제목에 어떤 영상의 자료를 요청하시는지 적어주시면 감사하겠습니다^^
좋은 영상 감사합니다.
유익한 영상 감사합니다. 평소에 한번 수행하고 싶은 과정이어서 좋았습니다.
많이 배우고 갑니다. 좋은 강의 감사합니다.
LLM에 관심이 많지만 학습할 충분한 시간이 없어서 고민중이었습니다.
틈틈이 필로소피님의 자료를 통해서 학습하고 있습니다.
내용도 알차고 쉽게 이해할수 있어 큰 도움이 됩니다.
감사합니다.
너무나도 좋은 강의 감사드립니다!!!
지금 필요한 내용이었습니다. 감사합니다. 3.2도 동일한가요?
천천히 따라올 수 있도록 단계적으로 난이도가 올라가서 많은 도움을 받고 있습니다. 늘 감사히 시청하고 있습니다. 고맙습니다.😀
@@USunyeong 좋은 말씀 감사합니다 😊
내용이 알찹니다. 파인 튜닝 실습하는데 많은 도움이 될 것 같아요. 감사합니다.
파인튜닝에 대한 이해도가 높아졌어요. 감사드려요.
안녕하세요. 업무에 꼭 필요한 사항이었는데요. 이렇게 좋은 정보를 제공해 주셔서 너무 감사드립니다.
라마 모델 파인튜닝이 궁금했는데 이 영상 보고 많이 배워갑니다. 감사합니다!
오~ 찾고있던 내용이였는데 감사합니다! 응원합니다!!
라마 3.1버전 파인튜닝 찾다가 흘러들어왔어요! 많은 도움 받고 갑니다.
엄두가 안났던 일인데 이렇게 찬찬히 과정을 풀어주셔서 이해가 쉽게 되었습니다. 감사합니다.
매우 유익한 강의에 감사드립니다!
진짜 유익한 영상 감사합니다 구독 좋아요 다 했어요!
기다리던 영상입니다 감사합니다
좋은 강의 감사합니다. 덕분에 잘 배웠습니다. ^^
좋은 영상 감사합니다. 잘 보겠습니다 :)
감사합니다. 단계별로 자세히 설명해주시니 귀에 쏙쏙 들어오네요^^
파인튜닝 영상 찾고 있었는데 감사합니다!!
파인튜닝 관심있어서 혼자 씨름 하고 있었는데 정말 감사합니다.
잘활용해보겠습니다.
이번에도 너무 좋은 영상 감사드립니다. 잘 배우겠습니다.
늘 체계적으로 꼼꼼하게 설명해주셔서 넘 유익합니다^^❤❤
좋은 최신 정보 감사합니다.
도움 많이 되었습니다 화이팅입니다
Fine Tuning 방법에 대해 궁금했지만, 엄두를 내지 못했는데, 필로소피님 덕분에 '핸드폰 분해해서 다시 조립해 볼 수 있는 용기를 얻었습니다. 감사합니다.
매번 좋은 강의 감사 드립니다.
좋은 강의 감사합니다.
좋은 강의 감사합니다^^
이번엔 파인튜닝이네요. 여러번 봐야겠습니다.
응원합니다!
좋은강의 감사합니다 ^^
유용한 정보 감가합니다
응원합니다.
관심 있는 분야인데, 감사합니다
안녕하세요 아직 시청전이긴하나 질문이 있습니다.
RAG를 진행하게 될때 RAG데이터로 파인튜닝을한 모델을 가지고 제작을 했을경우
성능향상을 기대할 수 있을까요?? 아니면 별개로 분리되어 큰 성능향상은 없나요??
감사합니다. 튜닝 방법을 잘 알게 되었습니다.
고생해서 취득한 지식을 공유해 주셔서 감사합니다.
나만의 AI를 만들고 싶습니다.
전문적인 나만의 AI를 만들어 공유하고 싶네요.
감사합니다.
안녕하세요. 영상보고 따라하려고 하는데, xFormers 로드 과정에서 오류가 발생헀습니다.
xFormers can't load C++/CUDA extensions. xFormers was built for:
PyTorch 2.3.0+cu121 with CUDA 1201 (you have 2.5.0+cu121)
Python 3.10.14 (you have 3.10.12)
아무래도 Colab에서는 3.10.12로 설치 돼 있고
CUDA도 2.5.0으로 설치된 거 같네요.
요구하는 버전에 맞춰 다운그레이드하고 재설치하면 되는걸까요?
@@park9085 안녕하세요~!
제가 최근에 llama 3.2 fine tuning 영상을 올렸습니다.
아래 영상을 보고 해보시는 것도 좋은 방법일 거 같습니다.
제가 오늘도 해봤는데요, 모델 저장까지 잘 됩니다 😊
th-cam.com/video/Ed6zJ3ejssg/w-d-xo.htmlsi=u-I6eTRCkqny4Dep
주신 코랩으로 해서 gguf 화일 다운받아 실행을 하니 아래와 같이 나와서요..혹시 허깅페이스로 올리고 받지 않아 그런가요? 감사합니다.
D:\Ollama\ollama-model\0816>ollama run ttt_llama3-ko
Error: llama runner process has terminated: exit status 0xc0000409 error loading model: done_getting_tensors: wrong number of tensors; expected 292, got 291
안녕하세요 :)
지금 이 에러 코드를 보면, wrong number of tensors; expected 292, got 291이라는 부분이 있네요.
Tensor가 292개 있어야 하는데, 291개 있다는 뜻인데요.
즉, 모델이 제대로 다운이 받아지지 않은 상태일 수도 있겠습니다.
꼭 허깅페이스로 올리지 않고 내 컴퓨터로 바로 다운 받아도 되기는 할텐데요. 그 과정에서 다운로드가 제대로 되지 않은 거 같습니다.
다시 다운 받아서 해보시거나,
정 안 되시면 Hugging Face에 올려보시고 다시 다운 받아보시는 것도 한 방법이 될 거 같습니다.
감사합니다 :)
@@필로소피 감사합니다(잘 동작 해요)
좋아요
저도 한 번 직접 따라해 봤는데 다운로드까진 성공했지만, msty에서 실행하려고 하면
llama runner process has terminated: error loading
model: error loading model vocabulary: cannot find tokenizer merges in model file
이런 오류가 발생하는데 도무지 원인을 모르겠습니다. 혹시 답을 알 수 있을까요?
안녕하세요 :)
제가 다 아는 것은 아니지만
제가 아는 선에서 답을 드리자면,
말씀해주신 오류 메시지는 주로 모델 파일의 구조나 토크나이저 관련 파일이 올바르게 로드되지 않을 때 발생합니다. "error loading model vocabulary: cannot find tokenizer merges in model file"라는 메시지는 토크나이저의 'merges' 파일을 찾을 수 없다는 뜻입니다.
파인튜닝 과정에서 토크나이저 관련 파일이 제대로 저장되지 않았을 수 있습니다.
파인튜닝된 모델 폴더에 'tokenizer.model'과 'tokenizer_config.json' 파일이 있는지 확인을 한 번 해보세요~!
이 파일들이 없다면, 우리가 업로드한 허깅페이스의 원본 LLaMA 3.1 모델 폴더에서 이 파일들을 찾아 다운을 받고, 파인튜닝한 모델 폴더로 복사해주세요~!
파인튜닝한 모델을 저장하고 그 저장한 모델을 허깅페이스에서 다운 받는 과정에서, 필요한 파일이 빠진 것 같습니다. 한 번 확인해보세요~!
저도 다 아는 것은 아니기에, 제가 아는 선에서 최선의 답을 드렸습니다.
감사합니다~! :)
@@필로소피 빠른 답변 감사드립니다. 공부 중인 학생인데 덕분에 AI관련해서 많이 배우고 있습니다. 감사합니다!
안녕하세요. 강의보고 데이터 원본 관련하여 한 가지 문의사항 드립니다.
리뷰에 대해 속성 기반 감성 분석을 진행해보고자 하는데요..!!
input이 "늘 그렇듯 행사 기간에 착한 가격에 구입했고, 유통기한도 2025년 8월로 긴 제품이 왔네요."
이렇게 들어갈 경우 {Aspect: 가격 SentimentText: 착한 가격에 구입했고, SentimentPolarity: 1}, {Aspect: 제품구성 SentimentText: 유통기한도 2025년 8월로 긴 제품이 왔네요 SentimentPolarity: 1}
이렇게 결과를 출력하고 싶습니다.
이럴 경우
instruction에 늘 그렇듯 행사 기간에 착한 가격에 구입했고, 유통기한도 2025년 8월로 긴 제품이 왔네요.
output에 {Aspect: 가격 SentimentText: 착한 가격에 구입했고, SentimentPolarity: 1}, {Aspect: 제품구성 SentimentText: 유통기한도 2025년 8월로 긴 제품이 왔네요 SentimentPolarity: 1}
이런 식으로 데이터를 학습 시켜야 하는지 궁금합니다. 학습 시켜도 결과가 좋게 나오지 않아서요 ㅠㅠ
안녕하세요 혹시 코랩이 아닌 로컬로 할 시 조금 더 시간이 걸리나요?
안녕하세요 :) 제 개인적인 생각입니다만, 로컬 PC 사양에 따라 다르지 않을까 싶습니다.
감사합니다. 저도 구글코랩 액세스 에서 막히네요.
안녕하세요 :)
이제 액세스 되실 겁니다.
다만, 사본 만들기를 하셔야 코드를 수정 하실 수 있을 겁니다.
고정댓글에 있는 구글 colab 링크에 들어 가시고,
[파일]- [Drive에 사본 만들기]
누르시고 사본을 먼저 만드시고 시작하시면 됩니다.
감사합니다! :)
구글코랩 액세스가 자꾸 거부됬다고 나와요;;
안녕하세요 :)
이제 액세스 되실 겁니다.
다만, 사본 만들기를 하셔야 코드를 수정 하실 수 있을 겁니다.
고정댓글에 있는 구글 colab 링크에 들어 가시고,
[파일]- [Drive에 사본 만들기]
누르시고 사본을 먼저 만드시고 시작하시면 됩니다.
감사합니다! :)
@@필로소피 네 감사합니다
설명이 상세해서 많은 도움이 되었습니다. ^^
마침 이런 상세한 설명이 필요했습니다 감사합니다!
정말 궁금해했던 내용을 올려주셔서 감사합니다. 앞으로도 좋은 영상 기대하겠습니다.
좋은 강의 감사드립니다