ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
ครับ จากตอนแรกที่คิดว่าจะทำส่งอาจารย์เพื่อให้ได้คะแนนเยอะๆ ตอนนี้เปลี่ยนใจแล้วครับ ขั้นตอนยุ่งยากมากกกกกกกกก ยกเลิกโปรเจ็คนี้ครับ 5555
สุดยอดมากครับ ผมตามมาจากคลิป ลุงป้อม+ตู่+ทักษิณ ร้องเพลงครับ
ติดตามคับ
อยากทราบความคิดเห็นหน่อยครับว่า ระหว่างการ์ดจอ 4060TI Vram16Gที่พึ่งออกมาใหม่ กับ 4070 Vram 12G และแรมDDR4 3200 กับ DDR5 5200 ทั้ง 2 อย่างตัวไหนใช้เทรนได้ไวกว่ากันครับ เปรียบเทียบกับขนาดที่เท่าๆกันครับ ตอนนี้ปวดหัวมากเลือกไม่ถูกลังเล ขอบคุณครับ🙏
ผมไม่ได้ติดตามข้อมูลสเปคการ์ดจอใหม่ๆ ด้วยสิ เอาเป็นว่าความเห็นของผม ดูจากสเปคที่โปรแกรมเขาแนะนำเป็นหลักนะครับ ขึ้นอยู่กับความต้องการของคุณว่าต้องการผลงานละเอียดระดับไหน เพราะสเปคที่โปรแกรมแนะนำคือ การ์ดจอ VRAM 11-12GB จะได้ผลงานความละเอียดที่ 256-320 ส่วน GPU 16-24GB จะได้ความละเอียดมากกว่า 320+ หมายความว่าถ้าคุณต้องการรายละเอียดที่ดีที่สุดเท่าที่โปรแกรมทำได้ ก็คงต้องเลือก การ์ดจอ VRAM 16GB เพราะมันทำได้ละเอียดกว่า 12GB แต่ถ้าคิดว่าความละเอียดแค่256-320 ก็พอใจแล้วก็เลือก 12GB ก็พอ ส่วนแรม ไม่ได้มีผลกับความเร็วในการเทรนโดยตรง อยู่ที่ GPU เป็นหลักครับ แต่คุณก็ต้องเลือกแรมที่ทำงานเข้ากับ GPU และ CPU ของคุณ ในระดับที่ไม่ให้เกิดคอขวดในการประมวลผลด้วยครับ ถ้าเลือกเร็วเกิน GPU ก็จะเสียเงินเปล่า ถ้าเลือกต่ำไปก็จะไปหน่วงการทำงานของ GPU (อ้อการตัดสินใจเลือกการ์ดจอ ก็ต้องดูที่ความเร็วเข้ากับ CPU ของคุณด้วยนะครับ ลองปรึกษาร้าน หรือจะลองหาเวบเทสต์ความเข้ากันได้ของ cpu - gpu - ram ก็มีอยู่หลายเวบครับ เซิร์จหาด้วยคำว่า bottleneck calculator)
@@netfake ขอบคุณมากครับ คืออ่านหลายที่เห้นบอกว่าเล่น AI ใช้ แบบ16Gดีกว่าแต่ว่า4060Tiมันแรงสู้4070ไม่ได้ และผมไปลังเลเพราะว่า 4060Ti16G ราคามันน้อยกว่า 4070 ตัวราคาต่ำสุดแค่1000-1500ครับ แต่ว่า4070มันแรงกว่า 20-30เปอร์เซ็นต์เลยในนเรื่องเล่นเกมส์นะครับ แต่พอดีมัน 2 พัดลม ผมอยากได้แบบ3พัดลมแต่ราคาก็ขยับขึ้นไปอีก ทีนี้มันเลยลังเลครับ จริงๆคือแค่ต้องการเอาหน้าตัวเองไปใส่ในMVเก็บไว้ดูเองขำๆเท่านั้นครับ
อยากตัดขอบหน้า ระหว่าง ผมเนียนๆอะครับ พอดีผมเลือก wf ผมเห็นคนอื่นทำเค้าเอาไฟล์alpha ที่เป็นขาวดำ เข้าadobe ae เป็น mask แล้วเอาไป msak output ที่เราได้ matte chokker mask ให้เล็กลง หรือroto ส่วนที่เกินออก แล้วค่อยเอาหน้าไปแปะกลับบนไฟล์ des อีกรอบ ผมก็อปคำพูดเค้ามาอีกทีพี่ทำคลิปสอนอันนี้ได้ไหมครับผมหาของต่างชาติสอนไม่มีค่อยเข้าใจเลยครับแบบละเอียด
อันนี้ผมยังทำไม่เป็นครับ ผมใช้วิธีแบบบ้าน ๆ มั่ว ๆ (ซึ่งผลออกมาก็ไม่ค่อยเนียนด้วยครับ) คือ ใช้ clone ทีละเฟรมเลย แล้วก็ใช้ร่วมกับเอ็ฟเฟกซ์ blur ให้ขอบมันดูกลืน ๆ ไปครับ ส่วนวิธีที่คุณบอก ผมขอไปศึกษาดูก่อนนะครับ
gpu gtx1650 ไหวไหมครับ ตอนนี้ทำไม่สำเร็จครับ data dst ไม่แคปหน้า
สอบถามครับผม ที่พี่แจ้งว่า " แต่ต้องตั้งค่าแบบใช้ cpu (6 core) ช่วย gpu ทำงานบ้างเป็นบางครั้ง " ไม่ทราบว่าต้องตั้งค่าตรงไหนครับ ผมลองทำในตามในคลิปเบื้องต้น โปรแกรมไม่ย้อมใช้ gpuเลย แต่cpu วิ่ง100% ขอบพระคุณครับ
ใช่ครับ มันจะสลับมาใข้ cpu อย่างเดียวเลย ไม่ใช่การช่วยกันทำงาน ต้องระวังเรื่องความร้อน (ถ้าเป็น notebook ไม่ควรใช้)
เพิ่มเติม ไม่แน่ใจว่าคุณทำแบบไหนการใช้ cpu ทำงานแทน มี 2 แบบ1. ใช้ตั้งแต่ต้น คือพอเรารันคำสั่ง train SAEHD.bat แล้ว มันจะให้เราเลือกว่าจะทำงานด้วย CPU หรือ GPU โดยเลือกในบรรทัดแรก ๆ หน้าตาประมาณนี้Choose one or several GPU idxs (separated by comma). [CPU] : CPU [0] : Quadro xxxx ถ้าจะใช้ cpu ก็พิมพ์ว่า cpu ถ้าจะใช้ GPU ก็พิมพ์ตัวเลข 0 ซึ่งในขั้นนี้ไม่แนะนำให้ใช้ cpu เท่าไร เพราะโปรแกรมมันจะทำงานช้ามาก ๆ (ใช้เฉพาะกรณีที่ใช้ gpu ไม่ผ่าน ถ้าสามารถใช้ gpu ได้ก็ควรใช้ gpu)2. ใช้ทีหลัง คือ ตอนแรก เราเลือกทำงานด้วย GPU ตั้งแต่ต้น โดยเลือก 0 แล้ว ค่อยมาเลือกทำงานด้วย GPU ในขั้นตอนของการเก็บภาพ modelsในระหว่างทำงาน ว่าจะเก็บไว้ใน cpu หรือ gpu โดยบรรทัดคำสั่ง หน้าตาประมาณนี้[n] Place models and optimizer on GPU (y/n)ให้เราเลือก n จะเป็นการใช้ cpu แทน GPU ในการเก็บ models ในระหว่างการทำงาน(ใช้เฉพาะกรณีที่ใช้ gpu ไม่ผ่าน ถ้าสามารถใช้ gpu ได้ก็ควรใช้ gpu)
ตอนนี้ทำได้แล้วครับพี่ ตอนที่สั่ง5.XSeg) data_src trained mask - applyมันขึ้นว่าChoose one GPU idx.[CPU] : CPU [0] : NVIDIA GeForce GTX 1080 [1] : NVIDIA GeForce GTX 1080แต่ตอนที่สั่ง6) train SAEHDผมสามารถเลือก gpu ได้ 0,1 รันพร้อมกันสองตัวได้เลยตอนนี้ใช้ gpu ทำงานได้แล้วgpu 0 จะวิ่งราวๆ 80%gpu 1 จะวิ่งราวๆ 20%แต่ cpu ก็ยังวิ่ง 100% ตลอดเหมือนเดิมครับไม่เข้าใจเหมือนกันว่าเป็นเพราะอะไรผมเลยแก้ปัญหาเฉพาะหน้าด้วยการจำกัดความเร็ว cpuให้วิ่งที่ 90%ช้าลงหน่อย แต่เครื่องไม่ค่อยร้อนครับผมใช้โน๊ตบุ๊ค msi gt83vr 7rf ขอบคุณมากๆเลยนะครับ :D
คลิปปลายทางสัก15นาที จะเทรนประมาณกี่วันครับ
15 นาที น่าจะยาวเกินไปครับ ผมเองไม่เคยทำยาวเท่านี้ ตอบไม่ได้เหมือนกัน ไม่ทราบว่า 15 นาที นีคือคลิปเต็มเลยรึเปล่า ถ้าเป็นคลิปเต็มควรตัดต่อคลิปก่อน โดยตัดช็อตอื่นๆ ออก เหลือแต่ช็อตที่มีหน้าคนที่เราต้องการเท่านั้น แล้วพอทำ deepfake เสร็จค่อยไปตัดต่อรวมกับคลิปเต็มอีกที (ผมเคยทำยาวสุดแค่ 7 นาที ยังรู้สึกว่าโปรแกรมทำงานช้าลงมาก รวมเวลาเฉพาะช่วงเทรนนิ่ง ทั้งหมดประมาณ 147 ชั่วโมง ได้ 290k iterations ส่วนวิดีโอที่เป็นตัวอย่างในการสอนคลิปนี้ ยาว 29 วินาที ใช้เวลาเทรนทั้งหมด 65 ชั่วโมง ได้ 190k iterations)
มีแอพบนมือถือไหมครับ
ของโปรแกรมนี้ไม่มีครับ แต่ของยี่ห้ออื่นอาจจะมีครับ แต่ไม่เคยใช้
ในขั้นตอน 5.XSeg) train ปกติใช้เวลานานไหมครับ ถ้ายิ่งนานยิ่งดีไหมครับ
นาน แต่ไม่เท่าตอนเทรนใบหน้า ดูที่ภาพ mask ถ้าคม ก็หยุดเทรนได้เลย ถ้า mask คมแล้ว เทรนต่อไปก็ไม่มีประโยชน์อะไร
Train mark ไม่ได้ครับ เป็นเพราะรุ่นการ์ดจอริป่าวครับ
ใช้ 5.XSeg Generic) ...apply ได้มั้ยคะรับ (ไม่ต้องเทรน)
ถ้าต้องการเทรนเอง เราต้องวาดจุด mask ก่อนที่จะเทรนครับ
ใช้Genericแล้วก้อยังเทรนไม่ได้ครับผม
ใช้การ์ดจอ กี่ GB ครับ ขั้นต่ำ 5GB ถึงจะเทรนได้
@@netfake อ้อออ ของผมแค่Quadro P400 ไม่น่าถึง5GB ขอบคุณมากครับผม เด่วคงต้องไปแต่งในอาฟเตอร์อีกทีครับ
เราสามารถ train model เพื่อใช้สำหรับวิดิโอปลายทางหลายๆคลิปได้มั๊ยครับ หรือถ้าอยากได้คลิปใหม่ก็ต้องtrainใหม่หมด
ได้ครับ แต่ผมยังไม่เคยลองหัดทำเลยครับ ยังไม่ค่อยเข้าใจเท่าไร คร่าว ๆ คือ เอาหน้าคนต้นทาง src เทรนกับ RTM (ready to merge) wf faceset (คือหน้าปลายทางแบบ random ทุกเพศทุกวัยทุกสีผิวทุกมุมและทุกสภาพแสง จำนวนมากซึ่งมีให้มาด้วยตอนดาวโหลดโปรแกรม ) และต้อง train RTT model (ready to train model) คือ LIAE model ที่ reused ซ้ำ ๆ กับหลาย ๆ src sets (ขั้นต่ำ 10 sets แต่ละเซ็ต เทรน 300k iterations) และมีขั้นตอนการเทรน ยิบย่อยอีกที่ผมอ่านแล้วยัง งงๆ อยู่ครับ
ที่จริงเขาทำมาสำหรับใช้เปลี่ยนหน้าแบบสด ๆ ด้วยโปรแกรม deepfacelive แต่มันเอามาใช้กับ deepfacelab ได้ด้วยครับ
รู้สึกว่าrttโมเดลมีแจกอยู่นะครับ แต่ไปดูขั้นตอนเทรนของrtmมาแบบ ใช้เป็นล้านinter ท้อเลย
@@butbesticandois0723 ผมลองไปอ่านดูอีกที เราสามารถ reuse โมเดลที่ไม่ใช่ RTM ก็ได้ครับ โดยใช้โมเดลที่เทรนกับ SRC คนเดิม ไปใช้กับ DST ใหม่ หรือจะใช้โมเดลเดิมนั้นกับ SRC คนใหม่ก็ได้ แต่รูปหน้าต้องไม่ต่างกันมากนัก และต้องเริ่มต้น re-enable Random Warp โมเดลอีกครั้งครับ
ยูทูปแบนดีพเฟคไหมครับ
ไม่แบนครับ ยกเว้นที่เกี่ยวกับการเลือกตั้งอเมริกา หรือที่จงใจสร้างความเข้าใจผิด
พี่ครับ ผมกด 5.xseg)train และผมก็รอไปเรื่อยๆแล้วมันขึ้นว่า ImportError: numpy.core.multiarray failed to import มันต้องแก้ไขยังไงหรอครับ
ไม่ทราบเหมือนกันครับ ทำครั้งแรกก็ error เลย หรือว่าเคยทำได้แล้ว เพิ่งมา error ครั้งนี้ครับ
@@netfake1.โอเคครับไม่เป็นไรครับ 2.ผมพึ่งทำครั้งแรกก็ error เลยครับ
จะลองเดาว่าผิดพลาดตรงไหนได้บ้างนะครับ1. ดูเวอร์ชั่นที่โปรแกรมโหลดมาตรงกับ การ์ดจอที่ใช้รึเปล่าครับ การ์ดจอ NViDiA จะใช้โปรแกรมคนละตัวกับ AMD (มันจะมีบอกไว้ที่หน้าเพจดาวโหลด)2. ตั้งค่าการ์ดจอรึยัง setting > System > Display > Graphics settings ตั้งค่า Hardware-accelerated GPU scheduling เปลี่ยนจาก OFF เป็น ON
@@netfake ขอบคุณครับผมจะลองดูครับ
mask เอง ช่วยในเรื่องการขยับปากกระพริบตา ยิ่งmask เองเยอะๆ ยิ่งดูมีการเคลื่อนไหวถูกปะครับ แล้วถ้าmask สำเร็จรูปไปเลย หน้าจะแบนๆทื่อๆหลอครับ
ทำไมเราต้องเทรน ถึง9ครั้งครับ ผมใช้เวลาเกือบ 2 วัน คลิป 17 วิ
การเทรน 9 ครั้ง เป็นไกด์ทั่ว ๆ ไปครับ ไม่จำเป็นต้องทำครบ หรือตามลำดับเป๊ะครับ การเทรนแต่ละรอบคือต่างวัตถุประสงค์กันครับ ถ้าเข้าใจวัตถุประสงค์ของแต่ละคำสั่ง เราจะทำขั้นไหนก่อนหลัง หรือข้ามขั้นไหนก็แล้วแต่ความต้องการของเราในคลิปนั้น ๆ ครับ หลัก ๆ แบ่งเป็นสองช่วงใหญ่ ๆ คือ รอบที่ 1-4 เป็นช่วงของการ random เปรียบเหมือนการร่างภาพวาด คร่าว ๆ แต่ยังไม่คมชัดมาก (การกระพริบตา ขยับปาก ตรงหรือไม่ตรงกับแบบ ต้องพยายามทำให้ตรงในช่วงนี้ครับ ถ้าพ้นช่วงนี้ไปก็ยากแล้วครับ) รอบที่ 5 -9 เป็นช่วงของการหยุด random เปรียบเหมือนการแรเงาลงรายละเอียดภาพวาด หลังจากที่เราพอใจกับภาพรวมของใบหน้าแล้ว ต้องการแค่ความคมชัดมากขึ้น โปรแกรมจะลงรายละเอียด ให้ภาพคมชัดขึ้นช่วงนี้ แต่ละรอบของ 2 ช่วงข้างต้น ก็จะทำ 3 ขั้นตอนเหมือนกัน คือเน้นเทรนเฉพาะพื้นที่บางส่วน ได้แก่- eyes and mouth ก็คือเน้นเทรน ตาและปาก, - Unform yaw เน้นเฉพาะรูปหน้าหันข้าง (ถ้าแบบของเราไม่ได้มีการหันข้างเท่าไร ก็ข้ามขั้นตอนนี้ไปได้ครับ)ส่วนคำสั่ง Use learning rate drop คือการเทรนเพิ่มพิเศษ ให้มีความคืบหน้าอีกนิดหลังจากมันหยุดคืบหน้าในขั้นก่อนหน้านี้ (ซึ่งถ้าเราเห็นว่าภาพใบหน้าเป็นที่พอใจแล้ว ก็ข้ามไปได้เหมือนกันครับ บ่อยครั้งที่หน้าชัดตั้งแต่ก่อนถึงขั้นตอนนี้แล้วครับ ให้เราดูที่ภาพใบหน้าที่ได้เป็นสำคัญครับ ถ้าดูแล้วเป็นที่พอใจก็หยุดได้ทุกเมื่อครับ) ยิ่งการเทรนรอบสุดท้ายด้วย GAN ผลที่ได้ก็แทบไม่แตกต่างกับภาพที่ได้ก่อนหน้านี้ครับ มันแค่เพิ่มรายละเอียดเล็ก ๆ น้อย ๆ ที่ต้องเพ่งถึงจะเห็นครับ เช่น texture บนหน้า รอยย่น รูขุมขน แววตา ช่วยให้ดูสมจริงขึ้นอีกนิดเท่านั้นครับ ดูเผิน ๆ เร็ว ๆ ก็แทบแยกไม่ออกจากภาพก่อนหน้านี้ครับ ดังนั้นถ้าเราไม่ได้ต้องการความเนี้ยบสมบูรณ์แบบ เราไม่ต้องเทรน GAN ก็ได้ครับ เพราะขั้นตอนนี้ถ้าเลือกจะเทรนก็ต้องเทรนนานพอให้ถึงจุดที่มันจะส่งผลด้วยครับ (เฉพาะขั้นตอนนี้ ขั้นต่ำต้องเทรนเกิน 40,000 iteration ถึงจะส่งผลครับ ถ้าไม่ถึงก็มีค่าเท่ากับไม่ได้เทรนเลย จะมาเทรนครึ่งทางไม่ได้ครับ) เทรนแค่เราดูแล้วสมจริงด้วยสายตาเราพอแล้วครับ บางกรณี ยิ่งเทรนมากไป รายละเอียดชัดเจนขึ้นมากไป จนดูไม่สมจริงไปเลย ดูแย่ลงกว่าตอนไม่ค่อยชัดก็ได้ครับ
การกระพริบตา และขยับปาก ละเอียดและตรงแค่ไหน ขึ้นอยู่กับ 1. จำนวนภาพใบหน้าต้นทาง (ที่แตกต่างกัน) ยิ่งเยอะและหลากหลายมุม ยิ่งดี (แต่มากเกินไปก็ไม่ดีนะครับ ยิ่งมากยิ่งทำงานช้าลงครับ ปกติอยู่ที่ประมาณ 2000-4000 หน้า ) และการเลือกภาพที่ใบหน้ามีการลืมตา หลับตา และขยับปากใกล้เคียงกับใบหน้าปลายทางมากที่สุด 2. การเทรน face ด้วยคำสั่ง Eyes and mouth priority โปรแกรมจะจำกัดพื้นที่การเทรนไปที่ ตาและปาก 3. batch size คือจำนวนใบหน้าที่นำมาเปรียบเทียบกัน เพื่อเลือกเอาภาพที่ดีที่สุดออกมา 1 ภาพ ในทุก ๆ 1 iteration เช่น batch size = 4 คือโปรแกรมจะสุ่มเลือกใบหน้าต้นทางมา 4 ภาพ เปรียบเทียบกัน แล้วเลือกมา 1 ภาพที่ใกล้เคียงกับภาพใบหน้าปลายทางที่สุด การเลือก 1 ภาพจาก 6 ภาพ ย่อมได้ภาพที่ดีกว่าเลือกจาก 1 ภาพจาก 4 ภาพครับ ยิ่ง batch size สูง ยิ่งดี แต่จะยิ่งทำงานอืดลงจนอาจจะแฮงก์ได้ครับส่วนการเทรน mask หรือ xseg ไม่น่าจะเกี่ยวกับการขยับตาหรือปากนะครับ เป็นการจำกัดขอบเขตให้เทรนส่วนไหน ไม่เทรนส่วนไหนเท่านั้นครับ (ถ้าไม่ใช้ mask เลยก็ยังได้ครับ โปรแกรมก็จะเทรนทั้งภาพ คือแทนที่จะเทรนเฉพาะใบหน้า ก็จะเทรนแบกกราวน์ด้วย ซึ่งจะทำให้ใช้เวลานานขึ้น แต่การเทรนแบคกราวน์บางครั้งก็มีประโยชน์ทำให้ดูสมูธขึ้น) หลัก ๆ การเทรน mask จะมีประโยชน์เวลาใบหน้าปลายทาง มีสิ่งของบดบังใบหน้าบางส่วน เช่น มือหยิบของกินเข้าปาก หรือปืนจ่อหัว เราสามารถวาด mask ให้ตรงรูปวัตถุที่บดบังใบหน้าอยู่ได้เป๊ะ ๆ ถ้าเป็น mask สำเร็จรูป มันจะบังให้ตรงบ้างไม่ตรงบ้างครับ และประโยชน์อีกอย่างคือ เวลาเราต้องการเปลี่ยนทรงผมของใบหน้าปลายทาง ให้ตรงกับต้นทาง ก็ต้องใช้การ mask ด้วยตัวเองแบบ head ครับ
อยากรู้ว่าทำยังไงให้ใช้กับการ์ดquadroได้ครับ
ใช้ได้อยู่แล้วครับ
ผมลอง quadro5000 ไม่ได้ สงสัยเก่าเกิน
@@nuiiiiiii Quadro5000 นี่ GPU 2.5GB ใช่มั้ยครับ ค่อนข้างต่ำไป โปรแกรมเขาแนะนำควรใช้ขั้นต่ำ 6GB แต่ต่ำกว่านี้ก็ใช้ได้ครับ แต่มีข้อจำกัดหน่อย ของคุณ 2.5GB คงทำตามในคลิปนี้ไม่ได้ทุกขึ้นตอน ช่วง train ต้องคลิก 6) train Quick96 (แทน 6) train SAEHD) ช่วง merge ก็ต้องใช้ 7) merge Quick96 ครับ ซึ่งโหมดนี้ก็จะได้ความละเอียดต่ำหน่อย แต่ก็น่าจะทำได้ครับ จริง ๆ ขั้นเริ่มต้นก็ควรฝึกจากโหมด Quick นี่แหละครับ เพราะไม่ต้องตั้งค่าอะไรเลย มันจัดการให้อัตโนมัติหมด
Mack ios มีไหมครับต้องโหลดอันไหน
@@cryauto คิดว่าไม่มีนะครับ นอกจาก windows ก็เห็นมีแต่ Linux
คลิปแค่ 49วิ จะ 2 ชม แล้วยังสลับไม่เสร็จเลย ใช้ nootbook tuf gaming f15 ตัว 64990บาท rtx3070
ขนาดใช้ความละเอียดแค่ 720 p นะครับ
ปกติใช้เวลาเป็นวัน ๆ หรือหลายวันเลยครับ
เราสามารถย่นระยะเวลาการเทรนได้ ด้วยการดาวโหลดโมเดลที่คนอื่นทำไว้ให้โหลดมาใช้ได้ครับ เรียกว่า pre-trained model (คือ model ที่เทรนกับหน้าคนหลายพันคน ซ้ำ ๆ กันเป็นแสนเป็นล้าน iterations) ลอง ค้น google คำว่า "deepfacelab pre-trained models download" ดูนะครับ (ไม่กล้าทิ้ง link เพราะเคยใส่ลิงค์แล้ว โดนยูทูปเตือน เพราะในเวบสอน ดันมีเนื้อหาบางส่วนติดเรตครับ) โหลดมาแล้ว ก็ก๊อปไฟล์ ไปใส่ไว้ในโฟลเดอร์ model แล้วเริ่มเทรนตามปกติได้เลยครับ
@@netfake การทำ pre-trained model เราสามารถทำเก็บไว้เองได้ไหมครับ มันต้องทำขั้นตอนที่เท่าไรถึง-จบเท่าไรพอครับ
@@datethai1747 ทำเองได้ครับ โดยการเทรน ตั้งแต่แรกเหมือนปกติ แต่คลิก y ตรงบรรทัด Enable pretraining mode (โปรแกรมจะทำการ random ภาพหน้าคนหลากหลายเพศวัยจากที่โปรแกรมเตรียมไว้ให้) เทรนไปสัก 400k-500k iterations เสร็จแล้ว copy ไฟล์(ในโฟลเดอร์ model) เก็บไว้แยกต่างหากใช้ได้เรื่อยๆ เวลาจะใช้ก็ copy ไฟล์มาวางในโฟลเดอร์ model แล้วเทรนปกติ แต่ disable pretraining ตัวเลขการเทรนจะเริ่มจาก 0 iteration แต่หน้าจะชัดเร็วกว่าการเทรนปกติหลายเท่าตัว
อย่าว่าผม xxx เลยนะ แค่จะบอกว่า มันน่ากลัวมาก ที่เจอคือ คลิป av ของ หยาง มี่ และ ของ ดิลี่เรอปา ที่.ใช้ Deepfake AI แบบเหมือนมาก ทั้งแสงเงาท่าทาง อารมณ์ ของใบหน้าคือดูไม่ออกเลย แต่พอดีไปเจอคลิบต้นฉบับ คือนางเอกหน้าตาธรรมดามาก พอเอาหน้า เร่อปาใส่เข้าไปเรายังเชื่อเลย ต่อมาหยางมี่ก็เหมือนกัน เหมือนกับสองคนนี้เคยแสดงหนัง AV มาก่อนแต่จริงๆคือคนอื่นแล้วใช้ DEEPFAKE ทำ
90 % ของ deepfake ในโลกนี้ เป็นคลิปอย่างที่คุณว่าแหละครับ แม้แต่เวบสอนดีดี ก็อยู่ในเวบชุมชนที่ทำคลิป x
ไหนว่ายูทูปแบนdeepfake
น่าจะแบนเฉพาะที่เกี่ยวกับการเลือกตั้งอเมริกานะครับ
@@netfake ถ้าผมเอารูปวาดเช่นโมนาลิซ่ามาให้พูดได้ตามผมใช้ ดีปเฟค แล้วผมอัพโหลดบนยูทูปจะผิดกฏหรือโดนแบนไหมครับ
@@hutchplay น่าจะไม่แบนนะ ถ้าจะแบนก็พวกภาพที่มีลิขสิทธิอะไรแบบนั้นมากกว่า แต่ไม่ได้แบนเพราะดีปเฟค
ขอข้อมูลสเปคเครื่องpcหน่อยครับ
มีพิมพ์ไว้ให้ใน description แล้วครับ
ขอบคุณมากครับ
ความละเอียด แปลมาจากคำว่า resolution ของภาพนิ่งที่แคปออกมาเป็นภาพตัวอย่างให้ AI เรียนรู้และนำไปวาดหน้าใหม่ครับ มีนามสกุลเป็น .jpg ก็เหมือนกับภาพถ่ายทั่ว ๆ ไป มีหน่วยเป็น pixel เช่น ความละเอียด 256 ก็คือภาพนิ่ง 256X256 พิกเซล, ความละเอียด 1024 ก็คือภาพนิ่ง 1024X1024 พิกเซล (ความละเอียดหรือ resolution นี้ เวลาเราคลิกดู properties ของภาพนิ่งในเครื่อง PC จะใช้คำว่า dimensions ครับ)
model คือ ชุดไฟล์ที่จะเป็นตัวกำหนดรูปแบบใบหน้าที่จะคอมพิวเตอร์จะสร้างขึ้นมาใหม่ จากภาพใบหน้าตัวอย่างทั้งหมดที่เราแคปไว้ครับ ชุดไฟล์นี้จะอยู่ในโฟลเดอร์ model ซึ่งจะมี 3 ประเภท คือ โมเดล SAEHD ซึ่งจะนิยมใช้ที่สุด จะสามารถเลือกความละเอียดได้ตามต้องการ และ reuse โมเดล ได้ , โมเดล AMP เป็นรูปแบบใหม่ที่ยังอยู่ในขั้นทดลอง สำหรับใบหน้าที่รูปหน้าต่างกันมาก ๆ , Quick 96 คือ โมเดลสำหรับทดสอบหรือฝึกฝน มีความละเอียดต่ำ และตายตัวที่ 96 resolution ปรับเปลี่ยนอะไรไม่ได้ แต่จะใช้เวลาเทรนน้อยและรวดเร็วกว่าแบบอื่น ๆ และโมเดล XSeg คือ โมเดลของ mask ที่เราต้องการกำหนดขอบเขตเองครับ
ขอบคุณมากครับ ผมจะติดตามผลงานของคุณนะครับ
ถ้าทำคลิปที่มีหลายๆคนต้องทำยังแบบไหนหรอครับ
ใช้ mask
โปรแกรมจะให้คลิป result ออกมา 2 คลิป คลิปนึงคือคลิปภาพเต็ม ๆ อีกคลิปคือคลิป mask เราก็เอาสองคลิปนี้ไปซ้อนในโปรแกรมตัดต่อ ทำให้ซ็อนหน้าหลาย ๆ คนได้ในคลิปเดียว
@@netfake โอเคครับ🙏
สเปคคอมแค่ไหนถึงจะใช้โปรแกรมนี้ได้ครับ
มีบอกไว้ใน description ใต้คลิปแล้วครับ
ครับ จากตอนแรกที่คิดว่าจะทำส่งอาจารย์เพื่อให้ได้คะแนนเยอะๆ ตอนนี้เปลี่ยนใจแล้วครับ ขั้นตอนยุ่งยากมากกกกกกกกก ยกเลิกโปรเจ็คนี้ครับ 5555
สุดยอดมากครับ ผมตามมาจากคลิป ลุงป้อม+ตู่+ทักษิณ ร้องเพลงครับ
ติดตามคับ
อยากทราบความคิดเห็นหน่อยครับว่า ระหว่างการ์ดจอ 4060TI Vram16Gที่พึ่งออกมาใหม่ กับ 4070 Vram 12G และแรมDDR4 3200 กับ DDR5 5200 ทั้ง 2 อย่างตัวไหนใช้เทรนได้ไวกว่ากันครับ เปรียบเทียบกับขนาดที่เท่าๆกันครับ ตอนนี้ปวดหัวมากเลือกไม่ถูกลังเล ขอบคุณครับ🙏
ผมไม่ได้ติดตามข้อมูลสเปคการ์ดจอใหม่ๆ ด้วยสิ เอาเป็นว่าความเห็นของผม ดูจากสเปคที่โปรแกรมเขาแนะนำเป็นหลักนะครับ ขึ้นอยู่กับความต้องการของคุณว่าต้องการผลงานละเอียดระดับไหน เพราะสเปคที่โปรแกรมแนะนำคือ การ์ดจอ VRAM 11-12GB จะได้ผลงานความละเอียดที่ 256-320 ส่วน GPU 16-24GB จะได้ความละเอียดมากกว่า 320+ หมายความว่าถ้าคุณต้องการรายละเอียดที่ดีที่สุดเท่าที่โปรแกรมทำได้ ก็คงต้องเลือก การ์ดจอ VRAM 16GB เพราะมันทำได้ละเอียดกว่า 12GB แต่ถ้าคิดว่าความละเอียดแค่256-320 ก็พอใจแล้วก็เลือก 12GB ก็พอ ส่วนแรม ไม่ได้มีผลกับความเร็วในการเทรนโดยตรง อยู่ที่ GPU เป็นหลักครับ แต่คุณก็ต้องเลือกแรมที่ทำงานเข้ากับ GPU และ CPU ของคุณ ในระดับที่ไม่ให้เกิดคอขวดในการประมวลผลด้วยครับ ถ้าเลือกเร็วเกิน GPU ก็จะเสียเงินเปล่า ถ้าเลือกต่ำไปก็จะไปหน่วงการทำงานของ GPU (อ้อการตัดสินใจเลือกการ์ดจอ ก็ต้องดูที่ความเร็วเข้ากับ CPU ของคุณด้วยนะครับ ลองปรึกษาร้าน หรือจะลองหาเวบเทสต์ความเข้ากันได้ของ cpu - gpu - ram ก็มีอยู่หลายเวบครับ เซิร์จหาด้วยคำว่า bottleneck calculator)
@@netfake ขอบคุณมากครับ คืออ่านหลายที่เห้นบอกว่าเล่น AI ใช้ แบบ16Gดีกว่าแต่ว่า4060Tiมันแรงสู้4070ไม่ได้ และผมไปลังเลเพราะว่า 4060Ti16G ราคามันน้อยกว่า 4070 ตัวราคาต่ำสุดแค่1000-1500ครับ แต่ว่า4070มันแรงกว่า 20-30เปอร์เซ็นต์เลยในนเรื่องเล่นเกมส์นะครับ แต่พอดีมัน 2 พัดลม ผมอยากได้แบบ3พัดลมแต่ราคาก็ขยับขึ้นไปอีก ทีนี้มันเลยลังเลครับ จริงๆคือแค่ต้องการเอาหน้าตัวเองไปใส่ในMVเก็บไว้ดูเองขำๆเท่านั้นครับ
อยากตัดขอบหน้า ระหว่าง ผมเนียนๆอะครับ พอดีผมเลือก wf ผมเห็นคนอื่นทำเค้าเอาไฟล์alpha ที่เป็นขาวดำ เข้าadobe ae เป็น mask แล้วเอาไป msak output ที่เราได้ matte chokker mask ให้เล็กลง หรือroto ส่วนที่เกินออก แล้วค่อยเอาหน้าไปแปะกลับบนไฟล์ des อีกรอบ
ผมก็อปคำพูดเค้ามาอีกทีพี่ทำคลิปสอนอันนี้ได้ไหมครับ
ผมหาของต่างชาติสอนไม่มีค่อยเข้าใจเลยครับแบบละเอียด
อันนี้ผมยังทำไม่เป็นครับ ผมใช้วิธีแบบบ้าน ๆ มั่ว ๆ (ซึ่งผลออกมาก็ไม่ค่อยเนียนด้วยครับ) คือ ใช้ clone ทีละเฟรมเลย แล้วก็ใช้ร่วมกับเอ็ฟเฟกซ์ blur ให้ขอบมันดูกลืน ๆ ไปครับ ส่วนวิธีที่คุณบอก ผมขอไปศึกษาดูก่อนนะครับ
gpu gtx1650 ไหวไหมครับ ตอนนี้ทำไม่สำเร็จครับ data dst ไม่แคปหน้า
สอบถามครับผม ที่พี่แจ้งว่า " แต่ต้องตั้งค่าแบบใช้ cpu (6 core) ช่วย gpu ทำงานบ้างเป็นบางครั้ง " ไม่ทราบว่าต้องตั้งค่าตรงไหนครับ ผมลองทำในตามในคลิปเบื้องต้น โปรแกรมไม่ย้อมใช้ gpuเลย แต่cpu วิ่ง100% ขอบพระคุณครับ
ใช่ครับ มันจะสลับมาใข้ cpu อย่างเดียวเลย ไม่ใช่การช่วยกันทำงาน ต้องระวังเรื่องความร้อน (ถ้าเป็น notebook ไม่ควรใช้)
เพิ่มเติม ไม่แน่ใจว่าคุณทำแบบไหน
การใช้ cpu ทำงานแทน มี 2 แบบ
1. ใช้ตั้งแต่ต้น คือพอเรารันคำสั่ง train SAEHD.bat แล้ว มันจะให้เราเลือกว่าจะทำงานด้วย CPU หรือ GPU
โดยเลือกในบรรทัดแรก ๆ หน้าตาประมาณนี้
Choose one or several GPU idxs (separated by comma).
[CPU] : CPU
[0] : Quadro xxxx
ถ้าจะใช้ cpu ก็พิมพ์ว่า cpu ถ้าจะใช้ GPU ก็พิมพ์ตัวเลข 0
ซึ่งในขั้นนี้ไม่แนะนำให้ใช้ cpu เท่าไร เพราะโปรแกรมมันจะทำงานช้ามาก ๆ
(ใช้เฉพาะกรณีที่ใช้ gpu ไม่ผ่าน ถ้าสามารถใช้ gpu ได้ก็ควรใช้ gpu)
2. ใช้ทีหลัง คือ ตอนแรก เราเลือกทำงานด้วย GPU ตั้งแต่ต้น โดยเลือก 0 แล้ว ค่อยมาเลือกทำงานด้วย GPU ในขั้นตอนของการเก็บภาพ models
ในระหว่างทำงาน ว่าจะเก็บไว้ใน cpu หรือ gpu โดยบรรทัดคำสั่ง หน้าตาประมาณนี้
[n] Place models and optimizer on GPU (y/n)
ให้เราเลือก n จะเป็นการใช้ cpu แทน GPU ในการเก็บ models ในระหว่างการทำงาน
(ใช้เฉพาะกรณีที่ใช้ gpu ไม่ผ่าน ถ้าสามารถใช้ gpu ได้ก็ควรใช้ gpu)
ตอนนี้ทำได้แล้วครับพี่
ตอนที่สั่ง
5.XSeg) data_src trained mask - apply
มันขึ้นว่า
Choose one GPU idx.
[CPU] : CPU
[0] : NVIDIA GeForce GTX 1080
[1] : NVIDIA GeForce GTX 1080
แต่ตอนที่สั่ง
6) train SAEHD
ผมสามารถเลือก gpu ได้ 0,1
รันพร้อมกันสองตัวได้เลย
ตอนนี้ใช้ gpu ทำงานได้แล้ว
gpu 0 จะวิ่งราวๆ 80%
gpu 1 จะวิ่งราวๆ 20%
แต่ cpu ก็ยังวิ่ง 100% ตลอดเหมือนเดิมครับ
ไม่เข้าใจเหมือนกันว่าเป็นเพราะอะไร
ผมเลยแก้ปัญหาเฉพาะหน้า
ด้วยการจำกัดความเร็ว cpuให้วิ่งที่ 90%
ช้าลงหน่อย แต่เครื่องไม่ค่อยร้อนครับ
ผมใช้โน๊ตบุ๊ค msi gt83vr 7rf
ขอบคุณมากๆเลยนะครับ :D
คลิปปลายทางสัก15นาที จะเทรนประมาณกี่วันครับ
15 นาที น่าจะยาวเกินไปครับ ผมเองไม่เคยทำยาวเท่านี้ ตอบไม่ได้เหมือนกัน ไม่ทราบว่า 15 นาที นีคือคลิปเต็มเลยรึเปล่า ถ้าเป็นคลิปเต็มควรตัดต่อคลิปก่อน โดยตัดช็อตอื่นๆ ออก เหลือแต่ช็อตที่มีหน้าคนที่เราต้องการเท่านั้น แล้วพอทำ deepfake เสร็จค่อยไปตัดต่อรวมกับคลิปเต็มอีกที
(ผมเคยทำยาวสุดแค่ 7 นาที ยังรู้สึกว่าโปรแกรมทำงานช้าลงมาก รวมเวลาเฉพาะช่วงเทรนนิ่ง ทั้งหมดประมาณ 147 ชั่วโมง ได้ 290k iterations ส่วนวิดีโอที่เป็นตัวอย่างในการสอนคลิปนี้ ยาว 29 วินาที ใช้เวลาเทรนทั้งหมด 65 ชั่วโมง ได้ 190k iterations)
มีแอพบนมือถือไหมครับ
ของโปรแกรมนี้ไม่มีครับ แต่ของยี่ห้ออื่นอาจจะมีครับ แต่ไม่เคยใช้
ในขั้นตอน 5.XSeg) train ปกติใช้เวลานานไหมครับ ถ้ายิ่งนานยิ่งดีไหมครับ
นาน แต่ไม่เท่าตอนเทรนใบหน้า ดูที่ภาพ mask ถ้าคม ก็หยุดเทรนได้เลย ถ้า mask คมแล้ว เทรนต่อไปก็ไม่มีประโยชน์อะไร
Train mark ไม่ได้ครับ เป็นเพราะรุ่นการ์ดจอริป่าวครับ
ใช้ 5.XSeg Generic) ...apply ได้มั้ยคะรับ (ไม่ต้องเทรน)
ถ้าต้องการเทรนเอง เราต้องวาดจุด mask ก่อนที่จะเทรนครับ
ใช้Genericแล้วก้อยังเทรนไม่ได้ครับผม
ใช้การ์ดจอ กี่ GB ครับ ขั้นต่ำ 5GB ถึงจะเทรนได้
@@netfake อ้อออ ของผมแค่Quadro P400 ไม่น่าถึง5GB ขอบคุณมากครับผม เด่วคงต้องไปแต่งในอาฟเตอร์อีกทีครับ
เราสามารถ train model เพื่อใช้สำหรับวิดิโอปลายทางหลายๆคลิปได้มั๊ยครับ หรือถ้าอยากได้คลิปใหม่ก็ต้องtrainใหม่หมด
ได้ครับ แต่ผมยังไม่เคยลองหัดทำเลยครับ ยังไม่ค่อยเข้าใจเท่าไร คร่าว ๆ คือ เอาหน้าคนต้นทาง src เทรนกับ RTM (ready to merge) wf faceset (คือหน้าปลายทางแบบ random ทุกเพศทุกวัยทุกสีผิวทุกมุมและทุกสภาพแสง จำนวนมากซึ่งมีให้มาด้วยตอนดาวโหลดโปรแกรม ) และต้อง train RTT model (ready to train model) คือ LIAE model ที่ reused ซ้ำ ๆ กับหลาย ๆ src sets (ขั้นต่ำ 10 sets แต่ละเซ็ต เทรน 300k iterations) และมีขั้นตอนการเทรน ยิบย่อยอีกที่ผมอ่านแล้วยัง งงๆ อยู่ครับ
ที่จริงเขาทำมาสำหรับใช้เปลี่ยนหน้าแบบสด ๆ ด้วยโปรแกรม deepfacelive แต่มันเอามาใช้กับ deepfacelab ได้ด้วยครับ
รู้สึกว่าrttโมเดลมีแจกอยู่นะครับ แต่ไปดูขั้นตอนเทรนของrtmมาแบบ ใช้เป็นล้านinter ท้อเลย
@@butbesticandois0723 ผมลองไปอ่านดูอีกที เราสามารถ reuse โมเดลที่ไม่ใช่ RTM ก็ได้ครับ โดยใช้โมเดลที่เทรนกับ SRC คนเดิม ไปใช้กับ DST ใหม่ หรือจะใช้โมเดลเดิมนั้นกับ SRC คนใหม่ก็ได้ แต่รูปหน้าต้องไม่ต่างกันมากนัก และต้องเริ่มต้น re-enable Random Warp โมเดลอีกครั้งครับ
ยูทูปแบนดีพเฟคไหมครับ
ไม่แบนครับ ยกเว้นที่เกี่ยวกับการเลือกตั้งอเมริกา หรือที่จงใจสร้างความเข้าใจผิด
พี่ครับ ผมกด 5.xseg)train และผมก็รอไปเรื่อยๆแล้วมันขึ้นว่า ImportError: numpy.core.multiarray failed to import มันต้องแก้ไขยังไงหรอครับ
ไม่ทราบเหมือนกันครับ ทำครั้งแรกก็ error เลย หรือว่าเคยทำได้แล้ว เพิ่งมา error ครั้งนี้ครับ
@@netfake1.โอเคครับไม่เป็นไรครับ 2.ผมพึ่งทำครั้งแรกก็ error เลยครับ
จะลองเดาว่าผิดพลาดตรงไหนได้บ้างนะครับ
1. ดูเวอร์ชั่นที่โปรแกรมโหลดมาตรงกับ การ์ดจอที่ใช้รึเปล่าครับ การ์ดจอ NViDiA จะใช้โปรแกรมคนละตัวกับ AMD (มันจะมีบอกไว้ที่หน้าเพจดาวโหลด)
2. ตั้งค่าการ์ดจอรึยัง setting > System > Display > Graphics settings ตั้งค่า Hardware-accelerated GPU scheduling เปลี่ยนจาก OFF เป็น ON
@@netfake ขอบคุณครับผมจะลองดูครับ
mask เอง ช่วยในเรื่องการขยับปากกระพริบตา ยิ่งmask เองเยอะๆ ยิ่งดูมีการเคลื่อนไหวถูกปะครับ แล้วถ้าmask สำเร็จรูปไปเลย หน้าจะแบนๆทื่อๆหลอครับ
ทำไมเราต้องเทรน ถึง9ครั้งครับ ผมใช้เวลาเกือบ 2 วัน คลิป 17 วิ
การเทรน 9 ครั้ง เป็นไกด์ทั่ว ๆ ไปครับ ไม่จำเป็นต้องทำครบ หรือตามลำดับเป๊ะครับ การเทรนแต่ละรอบคือต่างวัตถุประสงค์กันครับ ถ้าเข้าใจวัตถุประสงค์ของแต่ละคำสั่ง เราจะทำขั้นไหนก่อนหลัง หรือข้ามขั้นไหนก็แล้วแต่ความต้องการของเราในคลิปนั้น ๆ ครับ หลัก ๆ แบ่งเป็นสองช่วงใหญ่ ๆ คือ
รอบที่ 1-4 เป็นช่วงของการ random เปรียบเหมือนการร่างภาพวาด คร่าว ๆ แต่ยังไม่คมชัดมาก (การกระพริบตา ขยับปาก ตรงหรือไม่ตรงกับแบบ ต้องพยายามทำให้ตรงในช่วงนี้ครับ ถ้าพ้นช่วงนี้ไปก็ยากแล้วครับ)
รอบที่ 5 -9 เป็นช่วงของการหยุด random เปรียบเหมือนการแรเงาลงรายละเอียดภาพวาด หลังจากที่เราพอใจกับภาพรวมของใบหน้าแล้ว ต้องการแค่ความคมชัดมากขึ้น โปรแกรมจะลงรายละเอียด ให้ภาพคมชัดขึ้นช่วงนี้
แต่ละรอบของ 2 ช่วงข้างต้น ก็จะทำ 3 ขั้นตอนเหมือนกัน คือเน้นเทรนเฉพาะพื้นที่บางส่วน ได้แก่
- eyes and mouth ก็คือเน้นเทรน ตาและปาก,
- Unform yaw เน้นเฉพาะรูปหน้าหันข้าง (ถ้าแบบของเราไม่ได้มีการหันข้างเท่าไร ก็ข้ามขั้นตอนนี้ไปได้ครับ)
ส่วนคำสั่ง Use learning rate drop คือการเทรนเพิ่มพิเศษ ให้มีความคืบหน้าอีกนิดหลังจากมันหยุดคืบหน้าในขั้นก่อนหน้านี้ (ซึ่งถ้าเราเห็นว่าภาพใบหน้าเป็นที่พอใจแล้ว ก็ข้ามไปได้เหมือนกันครับ บ่อยครั้งที่หน้าชัดตั้งแต่ก่อนถึงขั้นตอนนี้แล้วครับ ให้เราดูที่ภาพใบหน้าที่ได้เป็นสำคัญครับ ถ้าดูแล้วเป็นที่พอใจก็หยุดได้ทุกเมื่อครับ)
ยิ่งการเทรนรอบสุดท้ายด้วย GAN ผลที่ได้ก็แทบไม่แตกต่างกับภาพที่ได้ก่อนหน้านี้ครับ มันแค่เพิ่มรายละเอียดเล็ก ๆ น้อย ๆ ที่ต้องเพ่งถึงจะเห็นครับ เช่น texture บนหน้า รอยย่น รูขุมขน แววตา ช่วยให้ดูสมจริงขึ้นอีกนิดเท่านั้นครับ ดูเผิน ๆ เร็ว ๆ ก็แทบแยกไม่ออกจากภาพก่อนหน้านี้ครับ ดังนั้นถ้าเราไม่ได้ต้องการความเนี้ยบสมบูรณ์แบบ เราไม่ต้องเทรน GAN ก็ได้ครับ เพราะขั้นตอนนี้ถ้าเลือกจะเทรนก็ต้องเทรนนานพอให้ถึงจุดที่มันจะส่งผลด้วยครับ (เฉพาะขั้นตอนนี้ ขั้นต่ำต้องเทรนเกิน 40,000 iteration ถึงจะส่งผลครับ ถ้าไม่ถึงก็มีค่าเท่ากับไม่ได้เทรนเลย จะมาเทรนครึ่งทางไม่ได้ครับ) เทรนแค่เราดูแล้วสมจริงด้วยสายตาเราพอแล้วครับ บางกรณี ยิ่งเทรนมากไป รายละเอียดชัดเจนขึ้นมากไป จนดูไม่สมจริงไปเลย ดูแย่ลงกว่าตอนไม่ค่อยชัดก็ได้ครับ
การกระพริบตา และขยับปาก ละเอียดและตรงแค่ไหน ขึ้นอยู่กับ
1. จำนวนภาพใบหน้าต้นทาง (ที่แตกต่างกัน) ยิ่งเยอะและหลากหลายมุม ยิ่งดี (แต่มากเกินไปก็ไม่ดีนะครับ ยิ่งมากยิ่งทำงานช้าลงครับ ปกติอยู่ที่ประมาณ 2000-4000 หน้า ) และการเลือกภาพที่ใบหน้ามีการลืมตา หลับตา และขยับปากใกล้เคียงกับใบหน้าปลายทางมากที่สุด
2. การเทรน face ด้วยคำสั่ง Eyes and mouth priority โปรแกรมจะจำกัดพื้นที่การเทรนไปที่ ตาและปาก
3. batch size คือจำนวนใบหน้าที่นำมาเปรียบเทียบกัน เพื่อเลือกเอาภาพที่ดีที่สุดออกมา 1 ภาพ ในทุก ๆ 1 iteration เช่น batch size = 4 คือโปรแกรมจะสุ่มเลือกใบหน้าต้นทางมา 4 ภาพ เปรียบเทียบกัน แล้วเลือกมา 1 ภาพที่ใกล้เคียงกับภาพใบหน้าปลายทางที่สุด การเลือก 1 ภาพจาก 6 ภาพ ย่อมได้ภาพที่ดีกว่าเลือกจาก 1 ภาพจาก 4 ภาพครับ ยิ่ง batch size สูง ยิ่งดี แต่จะยิ่งทำงานอืดลงจนอาจจะแฮงก์ได้ครับ
ส่วนการเทรน mask หรือ xseg ไม่น่าจะเกี่ยวกับการขยับตาหรือปากนะครับ เป็นการจำกัดขอบเขตให้เทรนส่วนไหน ไม่เทรนส่วนไหนเท่านั้นครับ (ถ้าไม่ใช้ mask เลยก็ยังได้ครับ โปรแกรมก็จะเทรนทั้งภาพ คือแทนที่จะเทรนเฉพาะใบหน้า ก็จะเทรนแบกกราวน์ด้วย ซึ่งจะทำให้ใช้เวลานานขึ้น แต่การเทรนแบคกราวน์บางครั้งก็มีประโยชน์ทำให้ดูสมูธขึ้น) หลัก ๆ การเทรน mask จะมีประโยชน์เวลาใบหน้าปลายทาง มีสิ่งของบดบังใบหน้าบางส่วน เช่น มือหยิบของกินเข้าปาก หรือปืนจ่อหัว เราสามารถวาด mask ให้ตรงรูปวัตถุที่บดบังใบหน้าอยู่ได้เป๊ะ ๆ ถ้าเป็น mask สำเร็จรูป มันจะบังให้ตรงบ้างไม่ตรงบ้างครับ และประโยชน์อีกอย่างคือ เวลาเราต้องการเปลี่ยนทรงผมของใบหน้าปลายทาง ให้ตรงกับต้นทาง ก็ต้องใช้การ mask ด้วยตัวเองแบบ head ครับ
อยากรู้ว่าทำยังไงให้ใช้กับการ์ดquadroได้ครับ
ใช้ได้อยู่แล้วครับ
ผมลอง quadro5000 ไม่ได้ สงสัยเก่าเกิน
@@nuiiiiiii Quadro5000 นี่ GPU 2.5GB ใช่มั้ยครับ ค่อนข้างต่ำไป โปรแกรมเขาแนะนำควรใช้ขั้นต่ำ 6GB แต่ต่ำกว่านี้ก็ใช้ได้ครับ แต่มีข้อจำกัดหน่อย ของคุณ 2.5GB คงทำตามในคลิปนี้ไม่ได้ทุกขึ้นตอน ช่วง train ต้องคลิก 6) train Quick96 (แทน 6) train SAEHD) ช่วง merge ก็ต้องใช้ 7) merge Quick96 ครับ ซึ่งโหมดนี้ก็จะได้ความละเอียดต่ำหน่อย แต่ก็น่าจะทำได้ครับ จริง ๆ ขั้นเริ่มต้นก็ควรฝึกจากโหมด Quick นี่แหละครับ เพราะไม่ต้องตั้งค่าอะไรเลย มันจัดการให้อัตโนมัติหมด
Mack ios มีไหมครับต้องโหลดอันไหน
@@cryauto คิดว่าไม่มีนะครับ นอกจาก windows ก็เห็นมีแต่ Linux
คลิปแค่ 49วิ จะ 2 ชม แล้วยังสลับไม่เสร็จเลย ใช้ nootbook tuf gaming f15 ตัว 64990บาท
rtx3070
ขนาดใช้ความละเอียดแค่ 720 p นะครับ
ปกติใช้เวลาเป็นวัน ๆ หรือหลายวันเลยครับ
เราสามารถย่นระยะเวลาการเทรนได้ ด้วยการดาวโหลดโมเดลที่คนอื่นทำไว้ให้โหลดมาใช้ได้ครับ เรียกว่า pre-trained model (คือ model ที่เทรนกับหน้าคนหลายพันคน ซ้ำ ๆ กันเป็นแสนเป็นล้าน iterations) ลอง ค้น google คำว่า "deepfacelab pre-trained models download" ดูนะครับ (ไม่กล้าทิ้ง link เพราะเคยใส่ลิงค์แล้ว โดนยูทูปเตือน เพราะในเวบสอน ดันมีเนื้อหาบางส่วนติดเรตครับ) โหลดมาแล้ว ก็ก๊อปไฟล์ ไปใส่ไว้ในโฟลเดอร์ model แล้วเริ่มเทรนตามปกติได้เลยครับ
@@netfake การทำ pre-trained model เราสามารถทำเก็บไว้เองได้ไหมครับ มันต้องทำขั้นตอนที่เท่าไรถึง-จบเท่าไรพอครับ
@@datethai1747 ทำเองได้ครับ โดยการเทรน ตั้งแต่แรกเหมือนปกติ แต่คลิก y ตรงบรรทัด Enable pretraining mode (โปรแกรมจะทำการ random ภาพหน้าคนหลากหลายเพศวัยจากที่โปรแกรมเตรียมไว้ให้) เทรนไปสัก 400k-500k iterations เสร็จแล้ว copy ไฟล์(ในโฟลเดอร์ model) เก็บไว้แยกต่างหากใช้ได้เรื่อยๆ เวลาจะใช้ก็ copy ไฟล์มาวางในโฟลเดอร์ model แล้วเทรนปกติ แต่ disable pretraining ตัวเลขการเทรนจะเริ่มจาก 0 iteration แต่หน้าจะชัดเร็วกว่าการเทรนปกติหลายเท่าตัว
อย่าว่าผม xxx เลยนะ แค่จะบอกว่า มันน่ากลัวมาก ที่เจอคือ คลิป av ของ หยาง มี่ และ ของ ดิลี่เรอปา ที่.ใช้ Deepfake AI แบบเหมือนมาก ทั้งแสงเงาท่าทาง อารมณ์ ของใบหน้าคือดูไม่ออกเลย แต่พอดีไปเจอคลิบต้นฉบับ คือนางเอกหน้าตาธรรมดามาก พอเอาหน้า เร่อปาใส่เข้าไปเรายังเชื่อเลย ต่อมาหยางมี่ก็เหมือนกัน เหมือนกับสองคนนี้เคยแสดงหนัง AV มาก่อนแต่จริงๆคือคนอื่นแล้วใช้ DEEPFAKE ทำ
90 % ของ deepfake ในโลกนี้ เป็นคลิปอย่างที่คุณว่าแหละครับ แม้แต่เวบสอนดีดี ก็อยู่ในเวบชุมชนที่ทำคลิป x
ไหนว่ายูทูปแบนdeepfake
น่าจะแบนเฉพาะที่เกี่ยวกับการเลือกตั้งอเมริกานะครับ
@@netfake ถ้าผมเอารูปวาดเช่นโมนาลิซ่ามาให้พูดได้ตามผมใช้ ดีปเฟค แล้วผมอัพโหลดบนยูทูปจะผิดกฏหรือโดนแบนไหมครับ
@@hutchplay น่าจะไม่แบนนะ ถ้าจะแบนก็พวกภาพที่มีลิขสิทธิอะไรแบบนั้นมากกว่า แต่ไม่ได้แบนเพราะดีปเฟค
ขอข้อมูลสเปคเครื่องpcหน่อยครับ
มีพิมพ์ไว้ให้ใน description แล้วครับ
ขอบคุณมากครับ
ความละเอียด แปลมาจากคำว่า resolution ของภาพนิ่งที่แคปออกมาเป็นภาพตัวอย่างให้ AI เรียนรู้และนำไปวาดหน้าใหม่ครับ มีนามสกุลเป็น .jpg ก็เหมือนกับภาพถ่ายทั่ว ๆ ไป มีหน่วยเป็น pixel เช่น ความละเอียด 256 ก็คือภาพนิ่ง 256X256 พิกเซล, ความละเอียด 1024 ก็คือภาพนิ่ง 1024X1024 พิกเซล (ความละเอียดหรือ resolution นี้ เวลาเราคลิกดู properties ของภาพนิ่งในเครื่อง PC จะใช้คำว่า dimensions ครับ)
model คือ ชุดไฟล์ที่จะเป็นตัวกำหนดรูปแบบใบหน้าที่จะคอมพิวเตอร์จะสร้างขึ้นมาใหม่ จากภาพใบหน้าตัวอย่างทั้งหมดที่เราแคปไว้ครับ ชุดไฟล์นี้จะอยู่ในโฟลเดอร์ model ซึ่งจะมี 3 ประเภท คือ โมเดล SAEHD ซึ่งจะนิยมใช้ที่สุด จะสามารถเลือกความละเอียดได้ตามต้องการ และ reuse โมเดล ได้ , โมเดล AMP เป็นรูปแบบใหม่ที่ยังอยู่ในขั้นทดลอง สำหรับใบหน้าที่รูปหน้าต่างกันมาก ๆ , Quick 96 คือ โมเดลสำหรับทดสอบหรือฝึกฝน มีความละเอียดต่ำ และตายตัวที่ 96 resolution ปรับเปลี่ยนอะไรไม่ได้ แต่จะใช้เวลาเทรนน้อยและรวดเร็วกว่าแบบอื่น ๆ และโมเดล XSeg คือ โมเดลของ mask ที่เราต้องการกำหนดขอบเขตเองครับ
ขอบคุณมากครับ ผมจะติดตามผลงานของคุณนะครับ
ถ้าทำคลิปที่มีหลายๆคนต้องทำยังแบบไหนหรอครับ
ใช้ mask
โปรแกรมจะให้คลิป result ออกมา 2 คลิป คลิปนึงคือคลิปภาพเต็ม ๆ อีกคลิปคือคลิป mask เราก็เอาสองคลิปนี้ไปซ้อนในโปรแกรมตัดต่อ ทำให้ซ็อนหน้าหลาย ๆ คนได้ในคลิปเดียว
@@netfake โอเคครับ🙏
สเปคคอมแค่ไหนถึงจะใช้โปรแกรมนี้ได้ครับ
มีบอกไว้ใน description ใต้คลิปแล้วครับ