[SD 06] Stable Diffusion 설치부터 응용 시리즈 - img2img 사용법
ฝัง
- เผยแพร่เมื่อ 27 ม.ค. 2024
- [SD 06] Stable Diffusion 설치부터 응용 시리즈 - img2img 사용법
✉️ 강연/협업 문의
jopdlab@gmail.com
---------------------------------------------------------------------------
📕 스테이블디퓨전: kmong.com/gig/568029
📙 광고 쇼핑몰 이미지: kmong.com/gig/575701
---------------------------------------------------------------------------
#stablediffusion #스테이블디퓨전 #img2img
진짜 끝판왕급으로 상세하고, 도움되는 설명 감사합니다.
감사합니다. 화이팅입니다
정주행중 입니다. 정말 감사합니다.
화이팅입니다~!
샘덕분에 배우는 것이 즐겁습니다. 저는 그림을 갖다놓고 interrogate clip를 클릭하면 에라가 뜨네요
*** Error interrogating
Traceback (most recent call last):
File "D:\stable-diffusion-webui-1.7.0\modules\interrogate.py", line 192, in interrogate
self.load()
File "D:\stable-diffusion-webui-1.7.0\modules\interrogate.py", line 121, in load
self.blip_model = self.load_blip_model()
File "D:\stable-diffusion-webui-1.7.0\modules\interrogate.py", line 101, in load_blip_model
blip_model = models.blip.blip_decoder(pretrained=files[0], image_size=blip_image_eval_size, vit='base', med_config=os.path.join(paths.paths["BLIP"], "configs", "med_config.json"))
File "D:\stable-diffusion-webui-1.7.0
epositories\BLIP\models\blip.py", line 175, in blip_decoder
model,msg = load_checkpoint(model,pretrained)
File "D:\stable-diffusion-webui-1.7.0
epositories\BLIP\models\blip.py", line 224, in load_checkpoint
state_dict = checkpoint['model']
TypeError: 'NoneType' object is not subscriptable
안녕하세요. 이건 interrogate의 Clip이 제대로 설치 안된 경우입니다.
github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2148
여기 참조하세요.
감사합니다~! 잘 보고 있습니다~!
감사합니다. 화이팅입니다.
덕분에 열심히 배우거 있습니다
감사합니다. 화이팅입니다.
감사합니다.
@user-hx9it1sb2h 효권님, 후원 감사합니다. 열심히 만들어보겠습니다.
잘 보고있습니다. 인페인트 기능으로 만든 이미지에 선글라스를 씌우고 싶은데 선생님 마지막 부분 예시처럼 깔끔하지가 못하네요.. 뭉개지기도 하고 자연스럽지도 못하고 방법이 있을까요
새해 복많이 받으세요, 설명은 조피디님 따라올 사람이 없어요
피디님 예를들어 2d 제가 만든 모델의 움직이는 동영상은 스테이블 디퓨전이 최고인가요? 스테이블 움직이는 동영상을 배우려는데 넘 힘드네요, 조언 부탁좀 드려요. 님이 제작한 씨리즈에 움직이는 영상 강의 있는건가요? 몇개보다 여쭤 죄송합니다
쎄이지 선생님, 새해 복 많이 받으세요. 스테이블 디퓨전에서 영상을 만드는 강의도 준비 중에 있습니다. 제가 개인적으로 느끼기에는 영상 제작 AI는 런웨이와 피카랩스가 제일 잘 만듭니다.
안녕하세요 조피디님! 영상 정말 잘 보고 있습니다! 궁금한게 하체부터 목 까지만 나온 사진을 가지고 얼굴을 생성하여 온전한 사진을 만들려고 하는데 어떤 기능을 사용해야 하나요? 초보자라 막막합니다 ㅠ
목까지만 나왔고 얼굴을 추가로 생성해야 하면, 비율을 늘려서 이미지 확장해야 하고, 자연스럽게 얼굴을 확장하려면 컨트롤넷의 오픈포즈를 사용해야 합니다. 이거 글로만 설명하려니 어렵네요. 다음 컨트롤넷 영상에서 한 번 다뤄볼게요. 기대하세요~!
@@jopdlab 감사합니다! 구독 좋아요 했습니다 ^^
@@gpnb55 감사합니다!
1화부터 계속 보고있습니다. 질문이 있습니다. stablediffusion checkpoint가 안보이고 SD VAE만 보이는데 다시 설치를 해야할까요?
혹시 settings에서 인터페이스 쪽 한 번 확인해보세요. 퀵 메뉴에서 체크포인트 지우신거 아닌지 확인해보시기 바랍니다.
미리 만든 사진에 얼굴이 뭉개져있어서, 그걸 img to img 로 가져온다음에 얼굴만 adetailer 적용시킬 수 잇나요?
네. 할수 있습니다. Denoising Strength를 최소(예:0.1)로 두고 adetailer를 적용하면 됩니다.
2;16초쯤인가에서 체크 포인트를 같은 포인트로 바꾼다는 말이 이해가 안되네요. 붙여 넣기한 이미지를 만들때 사용한 체크 포인트를 말하시는건지 조피디님이 영상에서 사용한 체크 포인트를 사용하라고 한건지 이해가 되지 않아요.
제 발음이 정확하지 못했네요. 체크 포인트 모델을 카툰 모델로 바꾼다는 말입니다. 같은 모델 X, 카툰 모델 O
이해가 되었다가 금방 잊어먹네요. ㅋㅋ
반복하여 하다보면 금방 익힙니다. 화이팅입니다.
오예~ 초보 탈출!!!
축하합니다~!
다들 모니터 뭐 쓰시나요?.. 2560X1440 으로 사용하는데 해상도가 별론지, 모니터가(NONEX제품) 안좋은지 ..이미지가 잘 나오는건지 헷갈릴때가 많네요. 4k 싼거 많던데, 4k로 암거나 사면 나아지려나요?.. 그것도 잘못사면 거기서 거기일까요?
저도 모니터는 좋은 거 쓰지 않습니다. 삼성 4k 32인치를 쓰고 있습니다.
@@jopdlab 삼성 4k면 좋은거 아닌가요!! ㅋㅋ 아이맥 레티나 27 인치 쓰다가, PC모니터 쓰려니까, 디자이너들 모니터 왜 바꾸는지 알꺼 같네요. 여튼 강좌 잘보고 잘 배우고 있습니다. 감사합니다 꾸벅~
@@all_that_shorts 제 모니터가 생각보다 안 비쌉니다. 제 컴퓨터 사양이 모두 국민 옵션이라고 생각하시면 됩니다. 강좌들을 좋게 봐주셔서 감사합니다. 더 열심히 만들어보겠습니다. 화이팅입니다~!
햇살을받아서 얼굴에 음영 넣고싶으면 어떤 프롬프트를 써야할까요?
얼굴에 음영 들어가는 라이트닝 관련 프롬프트는 여러종류가 있습니다.
1. backlight
2. dimly lit
3. Crepuscular rays
위 프롬프트를 한번 사용해보시기 바랍니다.
그리고 제가 빛 관련하여 제작한 컨텐츠가 있는 이 영상도 함께 참조하시기 바랍니다.
th-cam.com/video/9P1O0Hw36SQ/w-d-xo.htmlsi=gbVKNPfqCFCLUL_-
@@jopdlab 감사합니다👍👍👍👍👍🫡
화이팅입니다~!
초보 탈출!!
축하합니다~~~~!
진짜 다른 영상 수십개는 봤는데 이거보고
무조건 따라해서 성공했습니다
근데 제작자님 오픈포즈 영상도 알려주시면 좋겠습니다 깔았는데 포즈 설정하고
Txt로 내보내기 하면 아무것도 안뜨네요
순서대로 모두 진행할 예정입니다. 기대해주세요.