먼저 DigiClau님께 감사드립니다. 평소에 사진과 동영상을 취미로 하고 있었는데 이 채널을 만나게 되었습니다. 처음 영상부터 차근차근 보고 공부하고 있습니다. 프로그램 설치가 참 어렵긴 하지만 그건 제 개인 문제입니다. 다름아니라, 작은 보답이라도 하고 싶습니다. 저도 과거에 유튜브를 하다가 지금은 안합니다. 여기에는 슈퍼챗도 없네요. 하도 고마워서 그럽니다. '커피 사주세요.' 그런 건가요? 한번 자세히 보겠습니다. 다시한번 감사드리고 열심히 배우겠습니다.
설명해주신대로 똑같이 따라 했는데 vae Decode에서 계속 오류가 납니다.4개 채널을 예상했으나 16 채널이 입력되었다... 뭐 이런 내용이 있는 거 같아요. 제가 스테이블 디퓨전도 같이 쓰고 있어서 기존에 체크포인트나 로라, vae 등은 모두 스테이블 디퓨전 모델 파일에다 다운 받아서 컴피유아이도 같이 쓰는걸로 바꿔서 쓰고 있는데 그런것 때문일까요..? ㅠ ㅠ
안녕하세요. 강의 잘보고 많이 배우고 있습니다. 감사합니다. 근데 안풀리는게 있어 한가지 여쭙겠습니다. 코랩으로 comfyui를 실행하는데, custom node중에 gguf, crystools 는 매번 install을 해야 하는 건가요? 다음날 코랩으로 다시 실행하면 위 두 항목이 import failed가 나서 매번 다시 install하고 있거든요.
다 따라해 봤는데요, 맥북에선 어떤 문제인지 모르겠으나 girl에서 노인이 나오고 car는 신호등이 나오고 엉망진창이네요. 게다가 메모리 부하가 너무 높아서.... 512x512에서 노란색 메모리부하그래프를 볼줄은 상상도 못했습니다. q4짜리도 그러네요. 일단은 포기... (램36gb M3max)
네, GGUF의 가장 우선적인 의도는 VRAM용량이 약해서 Flux를 사용하지 못하는 경우에 Flux를 사용할 수 있도록 하는 거라서, VRAM 사용량에 차이가 납니다. 님 말씀처럼 생성 과정 자체의 속도에는 큰 차이가 없을수 있습니다. 다만 모델 로딩 시간이 조금 더 빠르다는 결과는 있습니다.
gguf까지 다 이용하고 낮은 설정으로 세팅했는데도 이미지 하나 만드는데 엄청 오래걸리네요 ㅠ 10분째 이미지 만드는중.. (사양 :13th Gen Intel(R) Core(TM) i7-13700HX 2.10 GHz, ram: 32.0GB, nvidia geforce rtx 4060 laptop gpu) 왜그런걸까요 ㅠ
안녕하세요 . 잘 보고 배우고 있습니다. 다름이 아니라 다 잘 따라 했는데 전 자꾸 아래 오류가 나는데 이유를 몰라서 질문 드려봅니다. Error occurred when executing CLIPTextEncode: Allocation on device File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 317, in execute output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 192, in get_output_data return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 169, in _map_node_over_list process_inputs(input_dict, i) File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 158, in process_inputs results.append(getattr(obj, func)(**inputs)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI odes.py", line 65, in encode output = clip.encode_from_tokens(tokens, return_pooled=True, return_dict=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd.py", line 126, in encode_from_tokens o = self.cond_stage_model.encode_token_weights(tokens) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\flux.py", line 57, in encode_token_weights t5_out, t5_pooled = self.t5xxl.encode_token_weights(token_weight_pairs_t5) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd1_clip.py", line 41, in encode_token_weights o = self.encode(to_encode) ^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd1_clip.py", line 229, in encode return self(tokens) ^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd1_clip.py", line 201, in forward outputs = self.transformer(tokens, attention_mask_model, intermediate_output=self.layer_idx, final_layer_norm_intermediate=self.layer_norm_hidden_state, dtype=torch.float32) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 241, in forward return self.encoder(x, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 213, in forward x, past_bias = l(x, mask, past_bias, optimized_attention) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 190, in forward x = self.layer[-1](x) ^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 66, in forward forwarded_states = self.DenseReluDense(forwarded_states) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 46, in forward hidden_gelu = self.act(self.wi_0(x)) ^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\ops.py", line 78, in forward weight, bias = self.get_weights(x.dtype) ^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\ops.py", line 149, in get_weights weight = self.get_weight(self.weight, dtype) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\ops.py", line 136, in get_weight weight = dequantize_tensor(tensor, dtype, self.dequant_dtype) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\dequant.py", line 15, in dequantize_tensor return dequantize(data, qtype, oshape, dtype=dequant_dtype).to(dtype) ----- 여기서 막히니 답답해서 답을 찾아보다 도저히 막혀 이렇게 올려 봅니다.
`ComfyUI-GGUF install failed: With the current security level configuration, only custom nodes from the "default channel" can be installed.` 에러가 발생합니다.. ㅠㅠ `ComfyUI Manager Menu`에서 Channel: default`로 설정되어 있습니다.
`Flux` 강의들이 잘 진행이 안 되네요... ㅠㅜ 아래와 같은 에러가 발생합니다. ``` Error occurred when executing VAEDecode: 'VAE' object has no attribute 'vae_dtype' File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 317, in execute output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 192, in get_output_data return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 169, in _map_node_over_list process_inputs(input_dict, i) File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 158, in process_inputs results.append(getattr(obj, func)(**inputs)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI odes.py", line 284, in decode return (vae.decode(samples["samples"]), ) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\comfy\sd.py", line 319, in decode memory_used = self.memory_used_decode(samples_in.shape, self.vae_dtype) ^^^^^^^^^^^^^^ ```
`newbyteorder` was removed from the ndarray class in NumPy 2.0. Use `arr.view(arr.dtype.newbyteorder(order))` instead. unet gguf 모델 불러들이는데서 위와같이 오류메세지가 나옵니다. 이컴 저컴 다 돌아댕김서 해봐도 똑같이 오류가 나오네요... 도와주세요~~~~~
너무 감사합니다 사부님!!!!
좋은 영상 늘 감사합니다~!
늘 감사합니다. 차분하시고, 쉽게 설명해주셔서 따라하기 쉽습니다.
친절한 말씀 감사합니다.
취미로 즐기는 사람에게 한줄기 빛...
유익한 내용 잘 감상했습니다.
감사합니다~!!
플럭스 거프에 맞는 로라 중에 라이트닝 같은 속도를 빠르게 해주는 로라도 나왔나요? 기존 sdxl 지원하던 lcm로라나 라이트닝 로라는 맞지 않겠지요...?
사랑합니다
내 컴이 쓸만한 컴이였다늬
먼저 DigiClau님께 감사드립니다.
평소에 사진과 동영상을 취미로 하고 있었는데
이 채널을 만나게 되었습니다.
처음 영상부터 차근차근 보고 공부하고 있습니다.
프로그램 설치가 참 어렵긴 하지만 그건 제 개인 문제입니다.
다름아니라,
작은 보답이라도 하고 싶습니다.
저도 과거에 유튜브를 하다가 지금은 안합니다.
여기에는 슈퍼챗도 없네요.
하도 고마워서 그럽니다.
'커피 사주세요.' 그런 건가요?
한번 자세히 보겠습니다.
다시한번 감사드리고 열심히 배우겠습니다.
커피 사주세요에 가서 커피 5잔 보낼려는데 프로그램 까는 거보다 어렵네요.
아들한테 물어보고 기어코 보내고야 말겠습니다.
앗, 감사합니다.
기어코~ 라는 표현에 높은 결의가 느껴지네요. ㅎㅎ. 차근차근 배우시면 금방 익숙해 질 겁니다. 화이팅 입니다.
설명해주신대로 똑같이 따라 했는데 vae Decode에서 계속 오류가 납니다.4개 채널을 예상했으나 16 채널이 입력되었다... 뭐 이런 내용이 있는 거 같아요. 제가 스테이블 디퓨전도 같이 쓰고 있어서 기존에 체크포인트나 로라, vae 등은 모두 스테이블 디퓨전 모델 파일에다 다운 받아서 컴피유아이도 같이 쓰는걸로 바꿔서 쓰고 있는데 그런것 때문일까요..? ㅠ ㅠ
고맙습니다 잘보겠습니다 😊
지금 스테이블 디퓨전 배우고 잇는데, 이거는 comfyUI에서만 사용가능한가 보네요 ㅎㅎ
영상에 워크플로우도 업로드 가능할까요? 감사합니다.^^
제가 개인 파일 공유 하는 장소가 없어서 파일 공유가 어렵네요.
안녕하세요. 강의 잘보고 많이 배우고 있습니다. 감사합니다. 근데 안풀리는게 있어 한가지 여쭙겠습니다.
코랩으로 comfyui를 실행하는데, custom node중에 gguf, crystools
는 매번 install을 해야 하는 건가요?
다음날 코랩으로 다시 실행하면 위 두 항목이 import failed가 나서 매번 다시 install하고 있거든요.
아니요. 설치 하고 나면 계속 존재합니다. 그런데, 때때로 업데이트가 필요할 수 있습니다.
배경영상 예를들면 드론으로촬영한 산 바다 모래 이런풍경영상을 픽셀변환을 위한 실사에서 실사로 영상변경같은것도 가능할까요? 바다의 움직임을 변화시킨다거나 모래재질같은거 변화같은거용
생성 AI로 이미지 생성하는 방식은 그것과는 조금 다른 개념입니다. Photoshop으로 작업하는게 더 효율적이지 않을까 합니다.
디지크로님 혹시 텍스트 투 비디오만들때 바이올린 연주 하면 팔이 하늘에서내려오고 움직임이 완전 이상하게 나오는데 이런건 어떻게 만들어야하나요,
swarm 과 comfyui 를 번갈아 써가며 flux 로 이미지를 만들어 보는데 이상하게 Lora 가 끼면 둘다 엄청 오래 걸리네요. 원래 그런건가요, 디지클로님?
글쎄요.. 아무래도 뭔가 더 사용하면 더 걸리기는 하겠죠? 근데 LoRA 사용할때 엄청난 속도의 저하라면 .... 좀 이상하군요.
강의 감사합니다. 제 UI랑 다른데, Queue Prompt 아래 cpu ram vram 사용량은 어떻게 표시하나요?
crystool custom 노드를 설치하고, manager 세팅에 들어가서 원하는 정보 표시 선택 하면 됩니다.
다 따라해 봤는데요, 맥북에선 어떤 문제인지 모르겠으나 girl에서 노인이 나오고 car는 신호등이 나오고 엉망진창이네요. 게다가 메모리 부하가 너무 높아서.... 512x512에서 노란색 메모리부하그래프를 볼줄은 상상도 못했습니다. q4짜리도 그러네요. 일단은 포기... (램36gb M3max)
web ui vs comfy ui vs forge 중 코랩과 로컬 중 어떤 것을 코랩에서 어떤 것을 로컬에서 사용하는게 더 효과적일까요?
무얼 사용하든 local과colab의 차이에 따라 원하시는걸 사용하시면 됩니다. local은 시작하고 모델 로드 하는 시간이 상대적으로 빠르지만, 본인의 GPU사양이 높지 않으면 colab이 더 효과적일겁니다.
GGUF는 Web UI Forge에서는 아직 사용에 문제가 있는 것 같네요. Forge개발자가 아직 이걸 support 하기 위해 작업 중인가 봅니다.
Forge에서 이미 사용 가능 합니다. GGUF를 forge에서 사용하는거 설명해 달라는 댓글들이 올라와서 이거 곧 올릴 예정 입니다.
사용해 봤는데 ckpt 모델과 속도는 별반 차이는 없군요. VRAM 사용량만 차이가 나는 듯 합니다.
네, GGUF의 가장 우선적인 의도는 VRAM용량이 약해서 Flux를 사용하지 못하는 경우에 Flux를 사용할 수 있도록 하는 거라서, VRAM 사용량에 차이가 납니다. 님 말씀처럼 생성 과정 자체의 속도에는 큰 차이가 없을수 있습니다. 다만 모델 로딩 시간이 조금 더 빠르다는 결과는 있습니다.
comfy말고 stable diffusion Forge로 할수 있는 방법도 알려주세요~~
영상 올렸습니다.
11:45
`Flux`는 `negative`를 사용하지 않기 때문에 `CFG`를 `1`로 사용합니다. `FluxGuidance`를 사용하면 기존의 `CFG` 값을 다르게 해서 사용했던 거처럼 사용할 수 있습니다.
13:25
`Upscale Image` 노드 사용법
이분 댓글은 좀~ 강의 요약 노트 같아요. ㅎㅎ
@@DigiClauLab 😂 제가 기억력이 좋지 않아서... `나 > 시청 기록 > 댓글`에서 각 동영상 내용을 찾아보기 쉽게 하기 위해서 타임라인을 걸어뒀어요 ㅠㅜ...
GUFF 에서 IP adpater 를 쓰려면 어떻게 해야 할까요? 다른것은 다 동일하고 Load Diffusion Model 을 스면 잘 되는데 Unet Loader (GGUF) 로 guff 모델을 로딩하면 에러가 나네요.
기회가 되면 Flux IP Adapter관련 내용도 만들 계획입니다.
GUFF -> GGUF 영상제목에 오타같습니다.
VAE모델이 다운이 안되네요 ㅠ 로그인해도 안되네요ㅠㅠ
gguf까지 다 이용하고 낮은 설정으로 세팅했는데도 이미지 하나 만드는데 엄청 오래걸리네요 ㅠ 10분째 이미지 만드는중.. (사양 :13th Gen Intel(R) Core(TM) i7-13700HX 2.10 GHz, ram: 32.0GB, nvidia geforce rtx 4060 laptop gpu) 왜그런걸까요 ㅠ
저두요..
네, 생성 속도가 느리다고들 말씀하시는 분들이 계시네요... 10분째... 이미지 생성과정이 진행이 되기는 하는거죠?ㅠㅠ
Flux 전용 VAE 모델 파일의 ae.safetensors가 다운로드가 안되네요.
로그인 해야 하는 거 같아요 ㅠㅠ
포지에 적용하는것좀자세히알려주세요
영상 올렸습니다.
안녕하세요 .
잘 보고 배우고 있습니다.
다름이 아니라 다 잘 따라 했는데 전 자꾸 아래 오류가 나는데 이유를 몰라서 질문 드려봅니다.
Error occurred when executing CLIPTextEncode:
Allocation on device
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 317, in execute
output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 192, in get_output_data
return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 169, in _map_node_over_list
process_inputs(input_dict, i)
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 158, in process_inputs
results.append(getattr(obj, func)(**inputs))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI
odes.py", line 65, in encode
output = clip.encode_from_tokens(tokens, return_pooled=True, return_dict=True)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd.py", line 126, in encode_from_tokens
o = self.cond_stage_model.encode_token_weights(tokens)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\flux.py", line 57, in encode_token_weights
t5_out, t5_pooled = self.t5xxl.encode_token_weights(token_weight_pairs_t5)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd1_clip.py", line 41, in encode_token_weights
o = self.encode(to_encode)
^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd1_clip.py", line 229, in encode
return self(tokens)
^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sd1_clip.py", line 201, in forward
outputs = self.transformer(tokens, attention_mask_model, intermediate_output=self.layer_idx, final_layer_norm_intermediate=self.layer_norm_hidden_state, dtype=torch.float32)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 241, in forward
return self.encoder(x, *args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 213, in forward
x, past_bias = l(x, mask, past_bias, optimized_attention)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 190, in forward
x = self.layer[-1](x)
^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 66, in forward
forwarded_states = self.DenseReluDense(forwarded_states)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\text_encoders\t5.py", line 46, in forward
hidden_gelu = self.act(self.wi_0(x))
^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1553, in _wrapped_call_impl
return self._call_impl(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1562, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\ops.py", line 78, in forward
weight, bias = self.get_weights(x.dtype)
^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\ops.py", line 149, in get_weights
weight = self.get_weight(self.weight, dtype)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\ops.py", line 136, in get_weight
weight = dequantize_tensor(tensor, dtype, self.dequant_dtype)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\dequant.py", line 15, in dequantize_tensor
return dequantize(data, qtype, oshape, dtype=dequant_dtype).to(dtype)
-----
여기서 막히니 답답해서 답을 찾아보다 도저히 막혀 이렇게 올려 봅니다.
에러 메세지만 봐서는 정확히 모르겠습니다. clip text encoder관련 에러라고 하니까, text encoder 파일을 다시 확인해 보시기 바랍니다.
@@DigiClauLab 소중한 답변 감사드립니다.
네 확인해보겠습니다.
너무 잘 배우고 있네요.
다시 한번 감사드립니다.^^
찾기는 어디로 들어가나요? load unet 검색창
마우스 더블클릭입니다. ComfyUI의 기본 사용 방법을 설명하는 영상이 있씁니다. th-cam.com/video/NqmWqd-op1c/w-d-xo.html&pp=gAQBiAQB 이곳에서 배우실 수 있습니다.
@@DigiClauLab 감사합니다. 다 해결되었습니다. 그러나 컴퓨터를 바꾸기전에는 작업이 어려울 것 같습니다. 시간이 너무 오래 걸리네요...
`ComfyUI-GGUF install failed: With the current security level configuration, only custom nodes from the "default channel" can be installed.` 에러가 발생합니다.. ㅠㅠ `ComfyUI Manager Menu`에서 Channel: default`로 설정되어 있습니다.
`Flux` 강의들이 잘 진행이 안 되네요... ㅠㅜ 아래와 같은 에러가 발생합니다.
```
Error occurred when executing VAEDecode:
'VAE' object has no attribute 'vae_dtype'
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 317, in execute
output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 192, in get_output_data
return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 169, in _map_node_over_list
process_inputs(input_dict, i)
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 158, in process_inputs
results.append(getattr(obj, func)(**inputs))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI
odes.py", line 284, in decode
return (vae.decode(samples["samples"]), )
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\comfy\sd.py", line 319, in decode
memory_used = self.memory_used_decode(samples_in.shape, self.vae_dtype)
^^^^^^^^^^^^^^
```
뭐가 문제였던 건지는 모르겠지만 여러 번 종료했다가 재실행하니 지금은 또 잘 되네요...
암튼 다시 잘 된다니 다행입니다. 가끔 미스테리가 발생하기도 합니다.ㅎㅎ
`newbyteorder` was removed from the ndarray class in NumPy 2.0. Use `arr.view(arr.dtype.newbyteorder(order))` instead.
unet gguf 모델 불러들이는데서 위와같이 오류메세지가 나옵니다.
이컴 저컴 다 돌아댕김서 해봐도 똑같이 오류가 나오네요... 도와주세요~~~~~