- 117
- 1 163 939
DigiClau (디지클로) Lab
Australia
เข้าร่วมเมื่อ 17 มี.ค. 2023
안녕하세요? 디지클로 주인장 '인장쌤' 입니다. 체널을 방문해 주셔서 감사합니다.
AI, Stable Diffusion, Automatic1111, Forge, ComfyUI 그리고 이미지 영상 제작관련 Adobe등 다양한 기술/방법을 설명합니다.
AI, Stable Diffusion, Automatic1111, Forge, ComfyUI 그리고 이미지 영상 제작관련 Adobe등 다양한 기술/방법을 설명합니다.
NVidia Cosmos Models NVidia에서 작정하고 내놓은 영상 제작 모델
NVidia에서 영상 제작 모델을 출시했습니다. NVidia Cosmos 입니다.
NVidia에서 World Models라고 부르는 모델 입니다.
흥미로운 영상 제작 모델이여서 소개해 드립니다.
### NVidia Cosmos 공식 사이트 ###
www.nvidia.com/en-us/ai/cosmos/
### Comfy.ORG 소개 사이트 ###
blog.comfy.org/p/comfyui-now-supports-nvidia-cosmos
### ComfyUI에서 사용할 workflow 사이트 ###
comfyanonymous.github.io/ComfyUI_examples/cosmos/
커피 사주세요 www.buymeacoffee.com/digiclau
FluxTapoz - 표정, 스타일, 텍스트 변환 그리고 Regional Prompting #1 th-cam.com/video/cxuZ3N8hL1k/w-d-xo.html
최고의 AI 생성 모델 Flux의 모든것 - 필요한 모든걸 자세하게 설명합니다. th-cam.com/video/tYTBiicowT0/w-d-xo.html
PuLID Flux - Flux에 동일 인물 생성 th-cam.com/video/p-AUKdf8Eyk/w-d-xo.html
ComfyUI를 시작합니다 시리즈 th-cam.com/video/NqmWqd-op1c/w-d-xo.html
#comfyui #stablediffusion #스테이블디퓨전 #stable #diffusion #스테이블 #디퓨전 #NVidiaCosmos #NVidia #Cosmos
NVidia에서 World Models라고 부르는 모델 입니다.
흥미로운 영상 제작 모델이여서 소개해 드립니다.
### NVidia Cosmos 공식 사이트 ###
www.nvidia.com/en-us/ai/cosmos/
### Comfy.ORG 소개 사이트 ###
blog.comfy.org/p/comfyui-now-supports-nvidia-cosmos
### ComfyUI에서 사용할 workflow 사이트 ###
comfyanonymous.github.io/ComfyUI_examples/cosmos/
커피 사주세요 www.buymeacoffee.com/digiclau
FluxTapoz - 표정, 스타일, 텍스트 변환 그리고 Regional Prompting #1 th-cam.com/video/cxuZ3N8hL1k/w-d-xo.html
최고의 AI 생성 모델 Flux의 모든것 - 필요한 모든걸 자세하게 설명합니다. th-cam.com/video/tYTBiicowT0/w-d-xo.html
PuLID Flux - Flux에 동일 인물 생성 th-cam.com/video/p-AUKdf8Eyk/w-d-xo.html
ComfyUI를 시작합니다 시리즈 th-cam.com/video/NqmWqd-op1c/w-d-xo.html
#comfyui #stablediffusion #스테이블디퓨전 #stable #diffusion #스테이블 #디퓨전 #NVidiaCosmos #NVidia #Cosmos
มุมมอง: 2 299
วีดีโอ
FluxTapoz #2 - 이미지 편집, Regional Prompting
มุมมอง 1.6K21 ชั่วโมงที่ผ่านมา
FluxTapoz 2번째 영상입니다. 매우 유용한 Flux 전용 툴 입니다. 이번 영상에서는 FlowEdit 하고 Flux Regional Prompting을 설명합니다. FluxTapoz 1번째 영상을 안보셨다면 그 영상을 먼저 보시기 바랍니다. 이미지의 텍스트와 내용을 편집할 수 있고, Regional Prompting을 실행할 수 있습니다.. 커피 사주세요 www.buymeacoffee.com/digiclau ComfyUI FluxTapoz github 사이트 github.com/logtd/ComfyUI-Fluxtapoz github.com/logtd/ComfyUI-Fluxtapoz?tab=readme-ov-file#flow-edit FluxTapoz - 표정, 스타일, 텍스트 변환 그리고 Reg...
FluxTapoz - 표정, 스타일, 텍스트 변환 그리고 Regional Prompting #1
มุมมอง 2.3Kวันที่ผ่านมา
FluxTapoz를 소개합니다. 매우 유용한 Flux 전용 툴 입니다. Flux로 할 수 있는 여러가지 다양한 기능을 제공 합니다. 얼굴 표정이나, 스타일 변환, 텍스트 변화 그리고 Regional Prompting을 할 수 있는 파워풀한 도구 입니다. 영상을 보고 나면 뭔가 유용한걸 배웠다는 느낌이 드실겁니다. 커피 사주세요 www.buymeacoffee.com/digiclau ComfyUI FluxTapoz github 사이트 github.com/logtd/ComfyUI-Fluxtapoz RF Inversion 사이트 rf-inversion.github.io/ 최고의 AI 생성 모델 Flux의 모든것 - 필요한 모든걸 자세하게 설명합니다. th-cam.com/video/tYTBiicowT0/w-d-...
(AI 뉴스) Omi - 뇌파로 작동하는 AI 기술
มุมมอง 51614 วันที่ผ่านมา
AI 뉴스 입니다. 사용자의 생각과 뇌 활동을 분석해서 사용할 수 있는 AI 기술를 소개하는 Omi입니다. 몸에 착용하는 이 작은 디바이스는 끊임없이 사용자의 대화를 듣고, 맥락을 이해하며, 적절한 정보를 제공합니다. 이 기술이 목표로 하는 기술이 온전히 실현화 되면 많은 분야에서 유용하게 사용될 듯 합니다. 커피 사주세요 www.buymeacoffee.com/digiclau Omi 공식 사이트 www.omi.me/
PuLID Flux - Flux에 동일 인물 생성
มุมมอง 3.8K14 วันที่ผ่านมา
PuLID Flux를 설명합니다. 동일 인물 이미지를 생성할 수 있습니다. Flux를 사용해서 높은 퀄러티의 이미지를 생성합니다. 기존의 동인인물 도구 보다 더 높은 수준의 이미지 생성이 가능합니다. PuLID Flux를 ComfyUI에서 설치하고 사용하는걸 어려워 하는 사용자가 많은 듯 합니다. 설치하는 방법도 자세하게 설명합니다. 커피 사주세요 www.buymeacoffee.com/digiclau PuLID github 사이트 github.com/ToTheBeginning/PuLID PuLID Flux 데모 사이트 huggingface.co/spaces/yanze/PuLID-FLUX PuLID Flux ComfyUI 노드 사이트 github.com/sipie800/ComfyUI-PuLID-Flux-...
Hunyuan Video를 8배 빠르게 사용할 수 있다고 합니다.
มุมมอง 2.7K21 วันที่ผ่านมา
Hunyuan Video를 사용해서 비디오를 생성하는 시간을 줄일 수 있습니다. FastVideo Hunyuan모델을 소개합니다. 이미지 생성할 때, LCM 혹은 Turbo 모델을 사용해서 생성 시간을 주였듯이, 비슷한 방법으로 영상 제작 시간을 줄일 수 있습니다. 커피 사주세요 www.buymeacoffee.com/digiclau Hunyuan Video 공식 사이트 aivideo.hunyuan.tencent.com/ FastVideo HuggingFace 사이트 huggingface.co/FastVideo huggingface.co/FastVideo/FastHunyuan Hao AI Lab github.com/hao-ai-lab/FastVideo kijai ComfyUI-HunyuanVideoWra...
Hunyuan Video를 8GB VRAM에서 사용할 수 있습니다
มุมมอง 1.7K21 วันที่ผ่านมา
이전 영상에서 Hunyuan Video 모델을 ComfyUI에서 바로 사용할 수 내용을 설명했었는데요, 이 모델을 8GB VRAM GPU에서 실행할 수 있습니다. ComfyUI Blog 사이트에서 발표했습니다. 이 영상에서는 그 방법을 설명합니다. 짧고 간단한 내용입니다. 쉽게 딸하실 수 있으실 겁니다. 커피 사주세요 www.buymeacoffee.com/digiclau Hunyuan Video를 8GB VRAM에서 사용할 수 있는 공식 blog 사이트 blog.comfy.org/p/running-hunyuan-with-8gb-vram-and ComfyUI에서 제공하는 workflow 사이트 comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/ Comfy...
LTXV 업데이트 - 영상 수준이 훨씬 좋아졌습니다
มุมมอง 3.4K21 วันที่ผ่านมา
이전 영상에서 LTXV를 사용해서 영상을 제작하는 내용을 설명했었습니다. LTXV가 최근에 업데이트 되면서 영상 수준이 더 좋아졌습니다. Lightriks에서 제공하는 custom nodes를 사용하면 추가적인 기능을 사용할 수 있습니다. 그리고 STG를 함께 사용하면 더 선명한 영상을 만들어 줍니다. 커피 사주세요 www.buymeacoffee.com/digiclau LTXV 공식 사이트 www.lightricks.com/ltxv ComfyUI-LTXV custom node githug 사이트 github.com/Lightricks/LTX-Video LTXV 업데이트 모델 다운로그 사이트 huggingface.co/Lightricks/LTX-Video/tree/main T5 fp8 다운로드 사이트 h...
ComfyUI에서 Hunyuan Video를 기본으로 지원합니다
มุมมอง 4.8Kหลายเดือนก่อน
Hunyuan Video 모델을 ComfyUI에서 바로 사용할 수 있습니다. Comfy.ORG 에서 Hunyuan Video를 native로 지원한다고 발표 했습니다. 추가적인 custom nodes를 설치할 필요 없이 ComfyUI 를 최신 버전으로 업데이트하면 바로 사용 가능 합니다. Hunyuan Video모델은 130억개의 parameter를 사용하고 생성되는 영상의 퀄러티도 아주 좋게 나옵니다. 커피 사주세요 www.buymeacoffee.com/digiclau Hunyuan Video 공식 사이트 aivideo.hunyuan.tencent.com/ Comfy에서 Hunyuan Video를 자체 지원하는 발표 사이트 blog.comfy.org/p/hunyuanvideo-native-suppor...
Sana - 100x 빠른 생성속도에 놀라운 이미지 해상도 까지
มุมมอง 3.8Kหลายเดือนก่อน
NVidia에서 정말 유용한 AI 모델을 출시했습니다. Sana 입니다. Sana는 기존의 다른 AI모델과는 다른 방식의 Dit와 AE를 사용해서, 월등하게 빠른 속도로 이미지를 생성해 줍니다. 뿐만 아니라, 기존 모델에서는 쉽지 않았던 높은 해상도의 이미지도 만들어 줍니다. 이 모델을 사용해서 흥미롭고 재미있는 이미지를 생성할 수 있습니다. Chapters: 00:33 Sana 소개 08:27 설치, 세팅 14:32 Sana 사용 커피 사주세요 www.buymeacoffee.com/digiclau Sana 공식 사이트 nvlabs.github.io/Sana/ Sana를 바로 사용해 볼 수 있는 사디트 (영상에서는 설명하지 않았습니다.) nv-sana.mit.edu/ ComfyUI에서 사용할 수 있는 ...
OmniGen - 생성 모델 하나에 너무 많은 기능이
มุมมอง 3.3Kหลายเดือนก่อน
정말 유용한 AI 모델을 설명합니다. OmniGen 모델 입니다. Omni라는 이름에 맞게 다양한 기능이 가능한 다기능 모델 입니다. 이 모델을 사용해서 흥미롭고 재미있는 이미지를 생성할 수 있습니다. Chapters: 00:46 OmniGen 모델 소개 02:19 OmniGen ComfyUI 설치 06:48 Workflow 에러 해결 방법 14:39 OmniGen 사용 커피 사주세요 www.buymeacoffee.com/digiclau OmniGen 모델 공식 github 사이트 github.com/VectorSpaceLab/OmniGen OmniGen ComfyUI github 사이트 github.com/AIFSH/OmniGen-ComfyUI ComfyUI Desktop V1을 소개합니다. th-c...
Sora - 드디어 공식 출시 되었습니다. 지금 당장 사용 가능 합니다
มุมมอง 4.5Kหลายเดือนก่อน
여러분, 기다리고 기다리던 소라(Sora)가 드디어 출시되었습니다! 지난 1년간 AI 도구 중에서 가장 큰 관심을 받았던 소라는 2024년 12월 9일 정식으로 출시 되었습니다. 바로 이용하실 수 있습니다. 소라를 활용하여 놀라운 콘텐츠를 제작하는 방법을 설명합니다. 커피 사주세요 www.buymeacoffee.com/digiclau OpenAI Sora 사이트 openai.com/sora/ Sora 사이트 sora.com/ (AI뉴스) 이 AI 도구는 정말 미친거 같아요 - X-Portrait 2 th-cam.com/video/CbB8Ok3fjPQ/w-d-xo.html LTXV - ComfyUI 괴물같은 영상 제작 모델이 나왔습니다. th-cam.com/video/8KQBCI6ks5Q/w-d-xo.h...
(AI뉴스) 이 AI 도구는 정말 미친거 같아요 - X-Portrait 2
มุมมอง 2.5Kหลายเดือนก่อน
AI 뉴스 입니다. 정말 AI의 미친 기능을 보여주는 X-Portrait 2를 소개 합니다. 이전 영상에서 Live Portrait을 설명했었는데요, 이 X-Portrait 2는 훨씬 더 진보한 놀라운 AI 기능을 보여줍니다. 활용도가 정말 많은 AI 도구가 될 듯 합니다. 너무나 기대가 되는 AI 도구 입니다. 커피 사주세요 www.buymeacoffee.com/digiclau x-Portrait 2 사이트 byteaigc.github.io/X-Portrait2/ LTXV - ComfyUI 괴물같은 영상 제작 모델이 나왔습니다. th-cam.com/video/8KQBCI6ks5Q/w-d-xo.html ComfyUI Desktop V1을 소개합니다. th-cam.com/video/2ga4OAFlIFs/...
LTXV - 영상 수준 향상과 영상 확장 하기
มุมมอง 3.8Kหลายเดือนก่อน
지난 LTXV 모델 설염에 이어서 두번째 영상입니다. LTXV로 비디오를 생성할때 영상의 수준을 높일 수 있는 팁을 설명하고, 이미 만들어진 영상을 이어서 확장하는 방법도 설명합니다. 그리고 알면 유용한 소소한 팁들드 설명합니다. 이전 LTXV 설명 영상을 못보셨다면 그 영상을 먼저 보시기 바랍니다. ComfyUI 와 LTXV 사용 short Cops and Gansters - Made with ComfyUI & LTXV th-cam.com/users/shorts76wWrs5CLzU 커피 사주세요 www.buymeacoffee.com/digiclau LTXV 공식 사이트 www.lightricks.com/ltxv LTXV Text2Video 예제 프롬프트 github.com/Lightricks/LTX-...
ComfyUI Desktop V1 - Comfy.ORG Blog에 올라 왔습니다
มุมมอง 2.3Kหลายเดือนก่อน
ComfyUI Desktop V1 - Comfy.ORG Blog에 올라 왔습니다
Flux Tools - Inpainting, Outpainting, Canny, Depth, Redux 종합세트
มุมมอง 7K2 หลายเดือนก่อน
Flux Tools - Inpainting, Outpainting, Canny, Depth, Redux 종합세트
Mochi - 현재 ComfyUI에서 할 수 있는 가장 최상의 영상 제작 도구
มุมมอง 6K2 หลายเดือนก่อน
Mochi - 현재 ComfyUI에서 할 수 있는 가장 최상의 영상 제작 도구
CogVideo - 최고 수준의 영상 제작을 자신의 컴퓨터에서 로컬로 생성 할 수 있습니다.
มุมมอง 10K4 หลายเดือนก่อน
CogVideo - 최고 수준의 영상 제작을 자신의 컴퓨터에서 로컬로 생성 할 수 있습니다.
Flux 로 ControlNet을 사용하면 정말 놀라운 이미지를 만들 수 있습니다.
มุมมอง 10K4 หลายเดือนก่อน
Flux 로 ControlNet을 사용하면 정말 놀라운 이미지를 만들 수 있습니다.
Flux 공식 모델과 Flux GGUF 모델 전부 Forge에서 사용할 수 있습니다.
มุมมอง 6K5 หลายเดือนก่อน
Flux 공식 모델과 Flux GGUF 모델 전부 Forge에서 사용할 수 있습니다.
Flux GGUF - 약한 GPU에 더 최적화 된 Flux 모델 - VRAM이 낮아서 Flux 사용이 힘들다면 GUFF를 사용해 봅시다
มุมมอง 8K5 หลายเดือนก่อน
Flux GGUF - 약한 GPU에 더 최적화 된 Flux 모델 - VRAM이 낮아서 Flux 사용이 힘들다면 GUFF를 사용해 봅시다
최고의 AI 생성 모델 Flux의 모든것 - 필요한 모든걸 자세하게 설명합니다.
มุมมอง 25K5 หลายเดือนก่อน
최고의 AI 생성 모델 Flux의 모든것 - 필요한 모든걸 자세하게 설명합니다.
살아 움직이는 초상화로 영화 한편 찍자 - Live Portrait Ver2 스테이블 디퓨전 ComfyUI
มุมมอง 5K5 หลายเดือนก่อน
살아 움직이는 초상화로 영화 한편 찍자 - Live Portrait Ver2 스테이블 디퓨전 ComfyUI
살아 움직이는 초상화를 만들어 주는 Live Portrait - 스테이블 디퓨전 ComfyUI
มุมมอง 15K6 หลายเดือนก่อน
살아 움직이는 초상화를 만들어 주는 Live Portrait - 스테이블 디퓨전 ComfyUI
Prompt outputs failed validation PulidFluxModelLoader: - Required input is missing: pulid_file 이문구가 뜨는 이유가 뭘까요 models 안에 pulid 폴더안에 pulid_flux_v0.9.1 들어 있는데도 안 잡히네요 앗 해결 했네요 ㅋㅋㅋ 뭐냐 데스탑 버전은 조금 다르네요 인터넷 뒤저서 설치 방법 찾았습니다.. [ 해결 방법은 표준 "\ComfyUI\models\pulid" 디렉토리 대신 "\AppData\Local\Programs@comfyorgcomfyui-electron esources\ComfyUI\models\pulid"에 모델을 넣고, 거기에 넣으면 노드가 해당 모델을 찾을 수 있게 됩니다. ]
설치가 다 됐는데요 마지막 load pulid fiux model << 커스텀 로드에서 모델이 안 잡히는 이유가 뭘까요? 모델도 메니저로 다시 받았는데요 ? 모델만 안 잡히는 것 빼고는 다 되는 것 같은데요
저도 그 문제로 못하고 있어요😢
@@k98jc002 제 밑에 댓글 보시면 해결 하실수 있을 거예요 전 해결 했어요
@@k98jc002 Prompt outputs failed validation PulidFluxModelLoader: - Required input is missing: pulid_file 이문구가 뜨는 이유가 뭘까요 models 안에 pulid 폴더안에 pulid_flux_v0.9.1 들어 있는데도 안 잡히네요 앗 해결 했네요 ㅋㅋㅋ 뭐냐 데스탑 버전은 조금 다르네요 인터넷 뒤저서 설치 방법 찾았습니다.. [ 해결 방법은 표준 "\ComfyUI\models\pulid" 디렉토리 대신 "\AppData\Local\Programs@comfyorgcomfyui-electron esources\ComfyUI\models\pulid"에 모델을 넣고, 거기에 넣으면 노드가 해당 모델을 찾을 수 있게 됩니다. ]
해셜하셨군요.
rtx4070이 백만원이 넘는데 그럼 4090은 더 비쌀텐데 그래픽 카드땜시 영상 만드는거 포기해야하나? ㅜ 우울하다 만들어보구싶은데 ㅜ
알바뛰시면 되자나용
@@마싯다샤오롱 돈이야 있쭁 부품하나에 몇백 한다는게 좀 아깝 ...
경우에 따라 처음에는 높은 사양으로 출시 되었다가 양자화 같은 작업을 통해서 조금 더 낮은 자원을 지원하는 모델이 나오기도 합니다. 이 경우도 그렇게 될지는 모르겠네요.
설명 차분하게 잘 하시네요.
여쭤볼게 있는데요. ComfyUI 버전업했다가 망했습니다. 혹시 구버전을 받으려면 어떻게 해야할까요?
ComfyUI의 portable을 사용하는 경우에는 항상 최신 버전 사용을 권장합니다. 대부분 일부러 구버전으로 가야 하는 경우는 없을겁니다. 혹시 어느 특정한 node가 이전 버전에서만 사용가능한 경우가 있을수는 있겠네요. 원하실 경우에는 portable말고 git으로 특정 이전 버전을 사용 가능 합니다. stackoverflow.com/questions/12256137/cloning-an-older-version-of-github-repo 이곳에 보면 git 사용 방법이 있습니다. github.com/comfyanonymous/ComfyUI/releases 이곳에서 이전 버전의 git 코드를 볼 수 있습니다.
저는 ComfyUI 데스크탑, RTX 3080 10GB, RAM 64GB 에서 35~45 분 걸립니다.VRAM 2GB 정도 리저브 셋팅 했는데 실제로는 1GB 정도 리저브 상태인 것 같습니다.
엄청 많이 가지고 계시네요 ^^;;
모델 파일요? ^^;;
이 기능을 정말 필요로 하는데.... 다 따라하고 나니까 두가지가 문제네요... 1. load pulid flux model에서 pulid_flux_v0.9.1.safetensors 이게 불러와지지 않네요.... models / pulid 폴더를 만들고 그 안에 넣었는데요. 2. manager에서 custom_nodes에서 pulid flux enhanced에서 보면 conflicts에 삼각형 오류문구가 뜨고 【ComfyUI-PuLID-Flux-Enhanced】Conflicted Nodes (4) ApplyPulidFlux [ComfyUI_PuLID_Flux_ll] PulidFluxEvaClipLoader [ComfyUI_PuLID_Flux_ll] PulidFluxInsightFaceLoader [ComfyUI_PuLID_Flux_ll] PulidFluxModelLoader [ComfyUI_PuLID_Flux_ll] 가 나옵니다.... 아... 방법이 있을까요?
conflicted nodes에러인거 보면, 다른 노드와 충돌인듯 합니다. 충돌이 일어나는 불필요한 노드가 있는지 확인하시기 바랍니다.
저만큼 된다면 좋은기술인거같긴한데.....;;; 삼성의 스마트링도 그렇고 휴메인 ai핀도 그렇고 웨어러블들 실제 기술수준 보면 광고와는 다르게 너무 짜치는데 저작은애가 저런기능을 할꺼라 생각되지를 않네요 전에 모기를 자동으로 감지하고 레이저로 모기잡아준다는 제품이있었는데 광고는 모기나타나자 마자 감지하고 레이저요격이었는데 실제품은 모기나타난것마저도 감지못하고 레이저도 아니었는데 딱 그 느낌의 사기같은 광고같아보여요
개발 기업에서 지향하는 목표는 높지만, 처음 제품이 출시 되면 많은 경우 그만큼 못미치는 경우가 있고, 기업측에서도 의도적으로 다음 버전에서의 발전도약을 위한 데이트 수집을 목적으로 출시하도 합니다. 그래서 이 제품이 출시 되었을때 광고에서 나오는 모든걸 다 충족시킬거라고는 저도 기대하지는 않습니다. 계속 발전해 간다면 기업에서 광고하는 최종 수준에 조금씩 더 다가가지 않을까 합니다.
안녕하세요. 혹시 video2video 또는 video2world 모델로도 동작을 해보셨는지 궁금합니다.
이걸 이제 알았네 바로 설치간다
이 영상이 나간 후 추가 기증들도 있고, 표정 관리를 더 구체적으로 할 수 있는 방법도 있습니다. 찾아 보시면 더 재밌으실 거에요.
한번 해봤는데요 속도는 빠르네요 그런데 제가 아직 프롬프트를 서투르게 다루서 그런가 영상이 이상한 방향으로 가네요 ㅋㅋㅋ 이해력이 딸리는 듯합니다. 속도는 참 빠르네요
제 comfyui에서 video combine가 아에 없어요 메니저에서 찾아봐도 없던데 사라진건가요^^;; 예전에는 있었는데
video helper suit 노드를 추가로 설치하면 됩니다.
구글 코랩으로 하고 있는데 코랩 버전은 어떻게 하나요?
며칠전에 노출 이미지 생성 문제로 저지된 상태 입니다. 조만간 해결될때까지 기다려야 합니다. 참고로, Automatic1111에서 사용하는 ReActor는 아직까지 정지 상태에서 업뎃 중이고, ComfyUI에서 사용하는 ReActor는 다른 github으로 복구되었습니다. ComfyUI에서 사용 하는 ReActor를 사용하실 수 있습니다. th-cam.com/video/Y7dZLwYiYZk/w-d-xo.html
항상 잘 보고 있습니다 혹시 신발. 귀걸이 같은 상품을 모델에 적용하는 강의도 올려주시면 감사할거 같아요 !! 옷 적용하는 강의는 있는데 신발 같은건 없네요ㅜ
감사합니다. 선생님.. 혹시 easy tag complete 하나 혹시 추천해 주실 수 있나요? 포맷했더니, 전에 쓰던게 뭔지 모르겠네요...ㅜㅜ
github.com/pythongosssss/ComfyUI-Custom-Scripts 제가 사용하는 노드 입니다. 여러가지 유용한 기능이 들어 있는 노드인데요, tag complete도 들어 있습니다. 님이 사용했던 건지는 모르겠네요.
최근에 (2025년 1월 초) 노출 이미지 생성 문제로 이 영상에서 사용했던 github 사이트(github.com/Gourieff/comfyui-reactor-node)가 정지를 먹었다가, 며칠 후에 github.com/Gourieff/ComfyUI-ReActor 로 다시 나왔습니다. 업데이트 하시기 바랍니다. 자세한 설명은 github사이트를 참조 하시기 바랍니다.
오! 굉장한 소식이네요😊❤
영상에서 설명하는대로 그대로 따라 해봤는데요 'KSampler Allocation on device' 라는 메시지가 뜨네요? 어떻게 해야 할까요?
v-ram (그래픽 카드 성능) 초과해서 그렇습니다... 다시 한번 클릭해보시고, 그래도 안되면, 하드웨어를 업그레이드!!!!
@@슬로우워커 7800X3D + 4090입니다....
와! 고맙습니다. 인장쌤!😊
저도 일주일전 실행해봤는데 4090 데스크탑인데 30분 이상걸려서 두번 돌려보고 삭제 했습니다. ㅡ.ㅠ
좋은 영상 감사합니다🎉
디지클로 님은 4090 그래픽카드 쓰시나요?
7b모델을 쓸때 vram사용량이 어느정도 쓰던가요?
좀 심각하게 무겁네ㅐ 이거
4080슈퍼가 30분 넘게 걸림. 경량화 버전 나오면 물리쪽 표현 괜찮을듯
그래픽카드 좋은게 있으면 좋겠다!
cosmos 사용법 강좌 올려주셔서 감사드립니다 해봤는데 이미지 to 비디오는 도저히 사용할 수 없는 퀄리티네요 무료제작은 유료 영상 제작 툴의 퀄리티와 비슷해지려면 아직도 멀었다는 생각뿐입니다
그런데 제가 실험해본 바로는 체크포인트 모델을 너무 따라갑니다. 일단 새롭게 제너레이팅 하는 방법이라 모든 조화가 잘 어울립니다만... 쌍꺼풀이 없는 사람 아무거나 테스트해보시면 압니다. 갑자기 없던 쌍꺼풀이 생기네요. 대부분의 체크포인트 모델러가 외국인이라 그런거 같습니다.
영상 잘봤습니다!
16기가인데 이렇게 가볍게뽑으면 결과물이 다른가요?
내, 어느정도 차이는 날겁니다.
작동까지 다 하는데 저는 선생님처럼 queue 프롬프트 창이 안뜨고 더 단순하게 생긴 실행 큐만 뜨네요ㅠㅠ 그래서 메니저를 다운받아도 뜨지를 않아서 혹시 왜 그런건지 댓글 달아주실 수 있을까요?
UI 가 바뀌었습니다. 하지만 사용하는 내용은 차이가 없습니다. 그리고, manager설치 관련 내용은 고정 댓글에 있는데요, 이렇습니다. ComfyUI Manager 사이트 github.com/ltdrdata/ComfyUI-Manager 에서 zip파일 다운 받고, custom_nodes 안에다 압축 풀면, 'ComfyUI-Manager-main' 라는 폴더가 나올겁니다. 그 폴더 이름을 'ComfyUI-Manager' 라고 바꾸고, 다시 시작해 보시기 바랍니다.
comfyui만으로는 애니메이션 스타일 말고 실사 인물느낌의 영상을 못만들까요?
Hunyuan은 실사 인물 영상이 더 잘 나오는거 같아요. Prompt나 세팅을 확인해 보시기 바랍니다.
현재에도 동일한 방식으로 다운 받으면 되나요 ? 버전이 너무 많이 나와서 여쭤봅니다!
최신 버전을 다운 받아 사용하면 됩니다. 혹시 그 이전 버전 이라도 최신 버전으로 업데이트 하면 됩니다. github.com/AUTOMATIC1111/stable-diffusion-webui?tab=readme-ov-file#installation-on-windows-1011-with-nvidia-gpus-using-release-package 이곳에 보면, 가장 최초 버전 1.0.0 다운 받아서 설치 한 후에 최신 버전으로 업데이트 해서 사용하는 방법이 있습니다. 이 방법도 쉬운 방법입니다.
실례지만 flux 모델사용시 생성시간이 얼마정도 되나요. 영상과 다르게 심히 느린데 제가 잘못 설치한건지.. 알수없네요.
아, 영상에서 보이는 생성속도는 영상 진행을 위해서 중간을 조금 스킵하거나 빠른배속으로 해놓은 경우가 있습니다. 실제 속도는 자신의 GPU 성능에 따라 다양합니다.
인장님, 안녕하세요. 강의를 들은 후 Extensions에서 Inpaint anything을 설치 했는데, 상단 화면에 Inpaint anything 텝이 나타나지 않습니다. 혹시 방법을 알 수 있을까요? 제 WebUI 버전은 v1.10.0 입니다.
에러나 문제가 있다면, command 창에 뭐라고 나올 겁니다. 그 내용을 확인해 보시기 바랍니다.
1:00 GGUF의 약어는 Georgi Gerganov Unified Format로 더 많이 쓰이는 것 같은데 확실히 어떤게 정답인지는 못 찾겠네요 ㅋㅋ
네, 님의 설명이 맞습니다. Georgi Gerganov Unified Format의 약자로, Georgi Gerganov라는 개발자의 이름으로 되어 있습니다. 많은 사람들이 GGUF를 GPTQ와 같은 양자화 모델과 함께 사용하는 경우가 많아서 다르게 불리기도 합니다.
@DigiClauLab 그렇군요! 답글 감사합니다 ㅎㅎ 좋은 하루 되십쇼! 늘 좋은 영상 정말 감사드립니다 :)
Web ui 와 forge 는 별개로 설치 되는가요? 예를들어 web ui 가 설치 되어 있다면 forge를 설치하면 forge로만 실행이 되나요?
WebUI는 Automatic1111가 제공하는거 말씀 하시는 거죠? Forge는 WebUI의 다른 버전으로 별개로 설치됩니다.
인장님, 감사합니다. 정말 신기합니다. 잘 배웠습니다.
앗, 감사합니다. 잘 배우셨다니 기쁩니다.
감사합니다. 잘 배웠습니다.
리액터 .. 깃헙 사이트 막힌거 같아요ㅠ...
며칠전에 github에서 블록시켰다가, 노출 이미지 감지하는 코드를 넣어서 다시 업데이트 되었다고 나오네요. 노출 이미지 생성 때문에 잠시 막혔던거 같습니다.
@@DigiClauLab 감사합니다 ! 선생님 혹시 comfyui 로 생성한 모델이 아이폰 이나 현실에 존재하는 물건 들고있게 하는 강의가 있을까요 .. 찾아도 안보여서요
@ 어느 특정한 포즈 이미지가 필요하면 ControlNet을 사용해 볼 수 있습니다.
안녕하세요 디지클로님 코렙을 잘 이용중이었는데 Reactor기능이 어제부터? 실행이 안되더라구요 실행 안된다기보다 아예 메뉴 자체가 없어졌네요 3일전만 해도 됬는데 아무리 실행전에 체크를 해도 계속 Reactor 기능만 빠져서 실행이 되는데 이유가 있을까요?
ReActor가 github에 의해서 차단되었다가 다시 풀렸다고 나오네요. 누드 이미지 사용을 막는 코드가 들어가서 다시 업뎃되었다고 합니다.
@@DigiClauLab 그럼 지금 되는건가요? 다시 터널 열어서 들어갔는데 여전히 나오질 않네요 ㅜㅜ
라액터 프로그램 설치 안돼는데요 재설정 부탁드려요
ReActor가 github에 의해서 차단되었다가 다시 풀렸다고 나오네요. 누드 이미지 사용을 막는 코드가 들어가서 다시 업뎃되었다고 합니다.
대단해요
ReActor 쓸려는데 깃허브 사이트 비활성화라고 적혀있네요 ㅠㅠ 파일 설치방법이나 대체제 없나요 ㅠㅠㅠㅠ
ReActor가 github에 의해서 차단되었다가 다시 풀렸다고 나오네요. 누드 이미지 사용을 막는 코드가 들어가서 다시 업뎃되었다고 합니다.
@@DigiClauLab 어찌어찌 번역기 써가면서 깔았는데 말씀하신대로 \models sfw_detector\vit-base-nsfw-detector/model.safetensors 깔아야하더군요.. 그런데 그 이후에 ReActorFaceSwap Error(s) in loading state_dict for ViTForImageClassification: size mismatch for vit.embeddings.position_embeddings: copying a param with shape torch.Size([1, 577, 768]) from checkpoint, the shape in current model is torch.Size([1, 197, 768]). You may consider adding `ignore_mismatched_sizes=True` in the model `from_pretrained` method. 이런 메세지가 뜨는데... 트랜스포머 4.0이상 깔아야 한다고 검색되어서 깔아볼려하는데 제가 할 수 있는 영역이 아니더군요 ㅠㅠ 방법이 있을까요... 문득 궁금한게 이전에 ReActor 까신분들은 사용 가능 한거고 앞으로 새로 까는분들은 누드이미지 사용 막힌채로 되는건가요? 아님 소급적용되는건지요
github.com/Gourieff/ComfyUI-ReActor 업데이트 사이트로 다시 설치 해서 사용하시는 거죠?
@@DigiClauLab중복으로 깔렸던거 같습니다 언인스톨 전부다하고 다시 까니까 되네요.. 힘든길을 택한것같네요 리엑터관련 다시 영상 올려주시면 좋을것같습니다!!감사합니다😊
잘 배웠습니다. 감사합니다.
인사잍페이스가 설치되어있는데도 pulid 노드 4개가 빨간불이라 미치버리겟네요 (IMPORT FAILED)ComfyUI-PuLID-Flux-Enhanced 상태인데 Try fix 돌려도 Installation Error: ComfyUI-PuLID-Flux-Enhanced fix failed: An error occurred while fixing 'ComfyUI-PuLID-Flux-Enhanced@unknown'. 이렇게만 뜨고. 혹시몰라서 파이썬 버전도 재 체크하고 재설치까지했는데도 안되네요 ReActor은 잘 돌아가서 인사이트페이스 문제는 아닐거같은데 뭐가 문제일까요 설치안되는게
영상 잘 봤습니다 감사합니다 선생님
선생님. depth 실행중에 이런 오류가 뜨는데요... 이건 어떻게 해결해야 할까요?? DepthAnythingV2Preprocessor No operator found for `memory_efficient_attention_forward` with inputs: query : shape=(1, 1740, 16, 64) (torch.float32) key : shape=(1, 1740, 16, 64) (torch.float32) value : shape=(1, 1740, 16, 64) (torch.float32) attn_bias : <class 'NoneType'> p : 0.0 `fa3F@0.0.0` is not supported because: xFormers wasn't build with CUDA support requires device with capability > (9, 0) but your GPU has capability (8, 9) (too old) dtype=torch.float32 (supported: {torch.bfloat16, torch.float16}) operator wasn't built - see `python -m xformers.info` for more info `fa2F@0.0.0` is not supported because: xFormers wasn't build with CUDA support dtype=torch.float32 (supported: {torch.bfloat16, torch.float16}) operator wasn't built - see `python -m xformers.info` for more info `cutlassF-pt` is not supported because: xFormers wasn't build with CUDA support
영상 잘봤습니다 궁금한게 미드저니보다 플럭스가 ai나 디자인 현업에서 더 선호하는편인가요? 혹시나 이유가있다면 궁금합니다
미드저니는 초창기 부터 워낙에 퀄러티와 인기가 좋았어서 지금도 현업에서는 최고인거 같습니다. 하지만, 점점 Flux등 다양한 모델들의 퀄러티가 정말 좋게 나오고 있고, 특히 자신의 컴퓨터 사용만 되면 추가 비용없이 무한정으로 사용가능 하기에 많은 관심을 받고 있습니다. 미드저니의 경우에도 역시 계속적으로 발전을 하고 있기 때문에, 이 서열이 쉽게 바뀌기는 어려울듯 합니다. 하지만, 다양한 무료/open source 모델들도 퀄러티가 훌륭하고 특히 미드저니에서는 어려운 과정을 제공하는 경우가 나오기 때문에, 다른 모델을 선호하는 경우도 있어 보입니다.