Fast & Tutorial deepfake เบื้องหลัง vfx ( สอน Deepfacelab ) มิ้นท์ i Roam Alone ใน Fast & Feel Love

แชร์
ฝัง

ความคิดเห็น • 71

  • @allercetcetirizine9857
    @allercetcetirizine9857 ปีที่แล้ว +4

    ครับ จากตอนแรกที่คิดว่าจะทำส่งอาจารย์เพื่อให้ได้คะแนนเยอะๆ ตอนนี้เปลี่ยนใจแล้วครับ ขั้นตอนยุ่งยากมากกกกกกกกก ยกเลิกโปรเจ็คนี้ครับ 5555

  • @pubawtayban
    @pubawtayban 8 หลายเดือนก่อน

    สุดยอดมากครับ ผมตามมาจากคลิป ลุงป้อม+ตู่+ทักษิณ ร้องเพลงครับ

  • @sachiyabnk4816
    @sachiyabnk4816 2 ปีที่แล้ว +1

    ติดตามคับ

  • @7ooTsubasAooF
    @7ooTsubasAooF ปีที่แล้ว

    อยากทราบความคิดเห็นหน่อยครับว่า ระหว่างการ์ดจอ 4060TI Vram16Gที่พึ่งออกมาใหม่ กับ 4070 Vram 12G และแรมDDR4 3200 กับ DDR5 5200 ทั้ง 2 อย่างตัวไหนใช้เทรนได้ไวกว่ากันครับ เปรียบเทียบกับขนาดที่เท่าๆกันครับ ตอนนี้ปวดหัวมากเลือกไม่ถูกลังเล ขอบคุณครับ🙏

    • @netfake
      @netfake  ปีที่แล้ว +1

      ผมไม่ได้ติดตามข้อมูลสเปคการ์ดจอใหม่ๆ ด้วยสิ เอาเป็นว่าความเห็นของผม ดูจากสเปคที่โปรแกรมเขาแนะนำเป็นหลักนะครับ ขึ้นอยู่กับความต้องการของคุณว่าต้องการผลงานละเอียดระดับไหน เพราะสเปคที่โปรแกรมแนะนำคือ การ์ดจอ VRAM 11-12GB จะได้ผลงานความละเอียดที่ 256-320 ส่วน GPU 16-24GB จะได้ความละเอียดมากกว่า 320+ หมายความว่าถ้าคุณต้องการรายละเอียดที่ดีที่สุดเท่าที่โปรแกรมทำได้ ก็คงต้องเลือก การ์ดจอ VRAM 16GB เพราะมันทำได้ละเอียดกว่า 12GB แต่ถ้าคิดว่าความละเอียดแค่256-320 ก็พอใจแล้วก็เลือก 12GB ก็พอ ส่วนแรม ไม่ได้มีผลกับความเร็วในการเทรนโดยตรง อยู่ที่ GPU เป็นหลักครับ แต่คุณก็ต้องเลือกแรมที่ทำงานเข้ากับ GPU และ CPU ของคุณ ในระดับที่ไม่ให้เกิดคอขวดในการประมวลผลด้วยครับ ถ้าเลือกเร็วเกิน GPU ก็จะเสียเงินเปล่า ถ้าเลือกต่ำไปก็จะไปหน่วงการทำงานของ GPU (อ้อการตัดสินใจเลือกการ์ดจอ ก็ต้องดูที่ความเร็วเข้ากับ CPU ของคุณด้วยนะครับ ลองปรึกษาร้าน หรือจะลองหาเวบเทสต์ความเข้ากันได้ของ cpu - gpu - ram ก็มีอยู่หลายเวบครับ เซิร์จหาด้วยคำว่า bottleneck calculator)

    • @7ooTsubasAooF
      @7ooTsubasAooF ปีที่แล้ว

      @@netfake ขอบคุณมากครับ คืออ่านหลายที่เห้นบอกว่าเล่น AI ใช้ แบบ16Gดีกว่าแต่ว่า4060Tiมันแรงสู้4070ไม่ได้ และผมไปลังเลเพราะว่า 4060Ti16G ราคามันน้อยกว่า 4070 ตัวราคาต่ำสุดแค่1000-1500ครับ แต่ว่า4070มันแรงกว่า 20-30เปอร์เซ็นต์เลยในนเรื่องเล่นเกมส์นะครับ แต่พอดีมัน 2 พัดลม ผมอยากได้แบบ3พัดลมแต่ราคาก็ขยับขึ้นไปอีก ทีนี้มันเลยลังเลครับ จริงๆคือแค่ต้องการเอาหน้าตัวเองไปใส่ในMVเก็บไว้ดูเองขำๆเท่านั้นครับ

  • @cryauto
    @cryauto 2 ปีที่แล้ว +1

    อยากตัดขอบหน้า ระหว่าง ผมเนียนๆอะครับ พอดีผมเลือก wf ผมเห็นคนอื่นทำเค้าเอาไฟล์alpha ที่เป็นขาวดำ เข้าadobe ae เป็น mask แล้วเอาไป msak output ที่เราได้ matte chokker mask ให้เล็กลง หรือroto ส่วนที่เกินออก แล้วค่อยเอาหน้าไปแปะกลับบนไฟล์ des อีกรอบ
    ผมก็อปคำพูดเค้ามาอีกทีพี่ทำคลิปสอนอันนี้ได้ไหมครับ
    ผมหาของต่างชาติสอนไม่มีค่อยเข้าใจเลยครับแบบละเอียด

    • @netfake
      @netfake  2 ปีที่แล้ว +2

      อันนี้ผมยังทำไม่เป็นครับ ผมใช้วิธีแบบบ้าน ๆ มั่ว ๆ (ซึ่งผลออกมาก็ไม่ค่อยเนียนด้วยครับ) คือ ใช้ clone ทีละเฟรมเลย แล้วก็ใช้ร่วมกับเอ็ฟเฟกซ์ blur ให้ขอบมันดูกลืน ๆ ไปครับ ส่วนวิธีที่คุณบอก ผมขอไปศึกษาดูก่อนนะครับ

  • @UncleTimRoV
    @UncleTimRoV 7 หลายเดือนก่อน

    gpu gtx1650 ไหวไหมครับ ตอนนี้ทำไม่สำเร็จครับ data dst ไม่แคปหน้า

  • @11unk
    @11unk 5 หลายเดือนก่อน

    สอบถามครับผม ที่พี่แจ้งว่า " แต่ต้องตั้งค่าแบบใช้ cpu (6 core) ช่วย gpu ทำงานบ้างเป็นบางครั้ง " ไม่ทราบว่าต้องตั้งค่าตรงไหนครับ ผมลองทำในตามในคลิปเบื้องต้น โปรแกรมไม่ย้อมใช้ gpuเลย แต่cpu วิ่ง100% ขอบพระคุณครับ

    • @netfake
      @netfake  5 หลายเดือนก่อน +1

      ใช่ครับ มันจะสลับมาใข้ cpu อย่างเดียวเลย ไม่ใช่การช่วยกันทำงาน ต้องระวังเรื่องความร้อน (ถ้าเป็น notebook ไม่ควรใช้)

    • @netfake
      @netfake  5 หลายเดือนก่อน +1

      เพิ่มเติม ไม่แน่ใจว่าคุณทำแบบไหน
      การใช้ cpu ทำงานแทน มี 2 แบบ
      1. ใช้ตั้งแต่ต้น คือพอเรารันคำสั่ง train SAEHD.bat แล้ว มันจะให้เราเลือกว่าจะทำงานด้วย CPU หรือ GPU
      โดยเลือกในบรรทัดแรก ๆ หน้าตาประมาณนี้
      Choose one or several GPU idxs (separated by comma).
      [CPU] : CPU
      [0] : Quadro xxxx
      ถ้าจะใช้ cpu ก็พิมพ์ว่า cpu ถ้าจะใช้ GPU ก็พิมพ์ตัวเลข 0
      ซึ่งในขั้นนี้ไม่แนะนำให้ใช้ cpu เท่าไร เพราะโปรแกรมมันจะทำงานช้ามาก ๆ
      (ใช้เฉพาะกรณีที่ใช้ gpu ไม่ผ่าน ถ้าสามารถใช้ gpu ได้ก็ควรใช้ gpu)
      2. ใช้ทีหลัง คือ ตอนแรก เราเลือกทำงานด้วย GPU ตั้งแต่ต้น โดยเลือก 0 แล้ว ค่อยมาเลือกทำงานด้วย GPU ในขั้นตอนของการเก็บภาพ models
      ในระหว่างทำงาน ว่าจะเก็บไว้ใน cpu หรือ gpu โดยบรรทัดคำสั่ง หน้าตาประมาณนี้
      [n] Place models and optimizer on GPU (y/n)
      ให้เราเลือก n จะเป็นการใช้ cpu แทน GPU ในการเก็บ models ในระหว่างการทำงาน
      (ใช้เฉพาะกรณีที่ใช้ gpu ไม่ผ่าน ถ้าสามารถใช้ gpu ได้ก็ควรใช้ gpu)

    • @11unk
      @11unk 5 หลายเดือนก่อน

      ตอนนี้ทำได้แล้วครับพี่
      ตอนที่สั่ง
      5.XSeg) data_src trained mask - apply
      มันขึ้นว่า
      Choose one GPU idx.
      [CPU] : CPU
      [0] : NVIDIA GeForce GTX 1080
      [1] : NVIDIA GeForce GTX 1080
      แต่ตอนที่สั่ง
      6) train SAEHD
      ผมสามารถเลือก gpu ได้ 0,1
      รันพร้อมกันสองตัวได้เลย
      ตอนนี้ใช้ gpu ทำงานได้แล้ว
      gpu 0 จะวิ่งราวๆ 80%
      gpu 1 จะวิ่งราวๆ 20%
      แต่ cpu ก็ยังวิ่ง 100% ตลอดเหมือนเดิมครับ
      ไม่เข้าใจเหมือนกันว่าเป็นเพราะอะไร
      ผมเลยแก้ปัญหาเฉพาะหน้า
      ด้วยการจำกัดความเร็ว cpuให้วิ่งที่ 90%
      ช้าลงหน่อย แต่เครื่องไม่ค่อยร้อนครับ
      ผมใช้โน๊ตบุ๊ค msi gt83vr 7rf
      ขอบคุณมากๆเลยนะครับ :D

  • @jokertheripper8534
    @jokertheripper8534 2 ปีที่แล้ว +1

    คลิปปลายทางสัก15นาที จะเทรนประมาณกี่วันครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      15 นาที น่าจะยาวเกินไปครับ ผมเองไม่เคยทำยาวเท่านี้ ตอบไม่ได้เหมือนกัน ไม่ทราบว่า 15 นาที นีคือคลิปเต็มเลยรึเปล่า ถ้าเป็นคลิปเต็มควรตัดต่อคลิปก่อน โดยตัดช็อตอื่นๆ ออก เหลือแต่ช็อตที่มีหน้าคนที่เราต้องการเท่านั้น แล้วพอทำ deepfake เสร็จค่อยไปตัดต่อรวมกับคลิปเต็มอีกที
      (ผมเคยทำยาวสุดแค่ 7 นาที ยังรู้สึกว่าโปรแกรมทำงานช้าลงมาก รวมเวลาเฉพาะช่วงเทรนนิ่ง ทั้งหมดประมาณ 147 ชั่วโมง ได้ 290k iterations ส่วนวิดีโอที่เป็นตัวอย่างในการสอนคลิปนี้ ยาว 29 วินาที ใช้เวลาเทรนทั้งหมด 65 ชั่วโมง ได้ 190k iterations)

  • @Plamonetwo12
    @Plamonetwo12 ปีที่แล้ว +1

    มีแอพบนมือถือไหมครับ

    • @netfake
      @netfake  ปีที่แล้ว

      ของโปรแกรมนี้ไม่มีครับ แต่ของยี่ห้ออื่นอาจจะมีครับ แต่ไม่เคยใช้

  • @datethai1747
    @datethai1747 2 ปีที่แล้ว

    ในขั้นตอน 5.XSeg) train ปกติใช้เวลานานไหมครับ ถ้ายิ่งนานยิ่งดีไหมครับ

    • @netfake
      @netfake  2 ปีที่แล้ว +2

      นาน แต่ไม่เท่าตอนเทรนใบหน้า ดูที่ภาพ mask ถ้าคม ก็หยุดเทรนได้เลย ถ้า mask คมแล้ว เทรนต่อไปก็ไม่มีประโยชน์อะไร

  • @tigerdragon3015
    @tigerdragon3015 8 หลายเดือนก่อน

    Train mark ไม่ได้ครับ เป็นเพราะรุ่นการ์ดจอริป่าวครับ

    • @netfake
      @netfake  8 หลายเดือนก่อน +1

      ใช้ 5.XSeg Generic) ...apply ได้มั้ยคะรับ (ไม่ต้องเทรน)

    • @netfake
      @netfake  8 หลายเดือนก่อน +1

      ถ้าต้องการเทรนเอง เราต้องวาดจุด mask ก่อนที่จะเทรนครับ

    • @tigerdragon3015
      @tigerdragon3015 8 หลายเดือนก่อน

      ใช้Genericแล้วก้อยังเทรนไม่ได้ครับผม

    • @netfake
      @netfake  8 หลายเดือนก่อน +1

      ใช้การ์ดจอ กี่ GB ครับ ขั้นต่ำ 5GB ถึงจะเทรนได้

    • @tigerdragon3015
      @tigerdragon3015 8 หลายเดือนก่อน

      @@netfake อ้อออ ของผมแค่Quadro P400 ไม่น่าถึง5GB ขอบคุณมากครับผม เด่วคงต้องไปแต่งในอาฟเตอร์อีกทีครับ

  • @butbesticandois0723
    @butbesticandois0723 2 ปีที่แล้ว

    เราสามารถ train model เพื่อใช้สำหรับวิดิโอปลายทางหลายๆคลิปได้มั๊ยครับ หรือถ้าอยากได้คลิปใหม่ก็ต้องtrainใหม่หมด

    • @netfake
      @netfake  2 ปีที่แล้ว

      ได้ครับ แต่ผมยังไม่เคยลองหัดทำเลยครับ ยังไม่ค่อยเข้าใจเท่าไร คร่าว ๆ คือ เอาหน้าคนต้นทาง src เทรนกับ RTM (ready to merge) wf faceset (คือหน้าปลายทางแบบ random ทุกเพศทุกวัยทุกสีผิวทุกมุมและทุกสภาพแสง จำนวนมากซึ่งมีให้มาด้วยตอนดาวโหลดโปรแกรม ) และต้อง train RTT model (ready to train model) คือ LIAE model ที่ reused ซ้ำ ๆ กับหลาย ๆ src sets (ขั้นต่ำ 10 sets แต่ละเซ็ต เทรน 300k iterations) และมีขั้นตอนการเทรน ยิบย่อยอีกที่ผมอ่านแล้วยัง งงๆ อยู่ครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      ที่จริงเขาทำมาสำหรับใช้เปลี่ยนหน้าแบบสด ๆ ด้วยโปรแกรม deepfacelive แต่มันเอามาใช้กับ deepfacelab ได้ด้วยครับ

    • @butbesticandois0723
      @butbesticandois0723 2 ปีที่แล้ว

      รู้สึกว่าrttโมเดลมีแจกอยู่นะครับ แต่ไปดูขั้นตอนเทรนของrtmมาแบบ ใช้เป็นล้านinter ท้อเลย

    • @netfake
      @netfake  2 ปีที่แล้ว

      @@butbesticandois0723 ผมลองไปอ่านดูอีกที เราสามารถ reuse โมเดลที่ไม่ใช่ RTM ก็ได้ครับ โดยใช้โมเดลที่เทรนกับ SRC คนเดิม ไปใช้กับ DST ใหม่ หรือจะใช้โมเดลเดิมนั้นกับ SRC คนใหม่ก็ได้ แต่รูปหน้าต้องไม่ต่างกันมากนัก และต้องเริ่มต้น re-enable Random Warp โมเดลอีกครั้งครับ

  • @hutchplay
    @hutchplay 2 ปีที่แล้ว

    ยูทูปแบนดีพเฟคไหมครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      ไม่แบนครับ ยกเว้นที่เกี่ยวกับการเลือกตั้งอเมริกา หรือที่จงใจสร้างความเข้าใจผิด

  • @Krabaii4567
    @Krabaii4567 ปีที่แล้ว

    พี่ครับ ผมกด 5.xseg)train และผมก็รอไปเรื่อยๆแล้วมันขึ้นว่า ImportError: numpy.core.multiarray failed to import มันต้องแก้ไขยังไงหรอครับ

    • @netfake
      @netfake  ปีที่แล้ว

      ไม่ทราบเหมือนกันครับ ทำครั้งแรกก็ error เลย หรือว่าเคยทำได้แล้ว เพิ่งมา error ครั้งนี้ครับ

    • @Krabaii4567
      @Krabaii4567 ปีที่แล้ว

      @@netfake1.โอเคครับไม่เป็นไรครับ 2.ผมพึ่งทำครั้งแรกก็ error เลยครับ

    • @netfake
      @netfake  ปีที่แล้ว

      จะลองเดาว่าผิดพลาดตรงไหนได้บ้างนะครับ
      1. ดูเวอร์ชั่นที่โปรแกรมโหลดมาตรงกับ การ์ดจอที่ใช้รึเปล่าครับ การ์ดจอ NViDiA จะใช้โปรแกรมคนละตัวกับ AMD (มันจะมีบอกไว้ที่หน้าเพจดาวโหลด)
      2. ตั้งค่าการ์ดจอรึยัง setting > System > Display > Graphics settings ตั้งค่า Hardware-accelerated GPU scheduling เปลี่ยนจาก OFF เป็น ON

    • @Krabaii4567
      @Krabaii4567 ปีที่แล้ว

      @@netfake ขอบคุณครับผมจะลองดูครับ

  • @cryauto
    @cryauto 2 ปีที่แล้ว +1

    mask เอง ช่วยในเรื่องการขยับปากกระพริบตา ยิ่งmask เองเยอะๆ ยิ่งดูมีการเคลื่อนไหวถูกปะครับ แล้วถ้าmask สำเร็จรูปไปเลย หน้าจะแบนๆทื่อๆหลอครับ

    • @cryauto
      @cryauto 2 ปีที่แล้ว +1

      ทำไมเราต้องเทรน ถึง9ครั้งครับ ผมใช้เวลาเกือบ 2 วัน คลิป 17 วิ

    • @netfake
      @netfake  2 ปีที่แล้ว +2

      การเทรน 9 ครั้ง เป็นไกด์ทั่ว ๆ ไปครับ ไม่จำเป็นต้องทำครบ หรือตามลำดับเป๊ะครับ การเทรนแต่ละรอบคือต่างวัตถุประสงค์กันครับ ถ้าเข้าใจวัตถุประสงค์ของแต่ละคำสั่ง เราจะทำขั้นไหนก่อนหลัง หรือข้ามขั้นไหนก็แล้วแต่ความต้องการของเราในคลิปนั้น ๆ ครับ หลัก ๆ แบ่งเป็นสองช่วงใหญ่ ๆ คือ
      รอบที่ 1-4 เป็นช่วงของการ random เปรียบเหมือนการร่างภาพวาด คร่าว ๆ แต่ยังไม่คมชัดมาก (การกระพริบตา ขยับปาก ตรงหรือไม่ตรงกับแบบ ต้องพยายามทำให้ตรงในช่วงนี้ครับ ถ้าพ้นช่วงนี้ไปก็ยากแล้วครับ)
      รอบที่ 5 -9 เป็นช่วงของการหยุด random เปรียบเหมือนการแรเงาลงรายละเอียดภาพวาด หลังจากที่เราพอใจกับภาพรวมของใบหน้าแล้ว ต้องการแค่ความคมชัดมากขึ้น โปรแกรมจะลงรายละเอียด ให้ภาพคมชัดขึ้นช่วงนี้
      แต่ละรอบของ 2 ช่วงข้างต้น ก็จะทำ 3 ขั้นตอนเหมือนกัน คือเน้นเทรนเฉพาะพื้นที่บางส่วน ได้แก่
      - eyes and mouth ก็คือเน้นเทรน ตาและปาก,
      - Unform yaw เน้นเฉพาะรูปหน้าหันข้าง (ถ้าแบบของเราไม่ได้มีการหันข้างเท่าไร ก็ข้ามขั้นตอนนี้ไปได้ครับ)
      ส่วนคำสั่ง Use learning rate drop คือการเทรนเพิ่มพิเศษ ให้มีความคืบหน้าอีกนิดหลังจากมันหยุดคืบหน้าในขั้นก่อนหน้านี้ (ซึ่งถ้าเราเห็นว่าภาพใบหน้าเป็นที่พอใจแล้ว ก็ข้ามไปได้เหมือนกันครับ บ่อยครั้งที่หน้าชัดตั้งแต่ก่อนถึงขั้นตอนนี้แล้วครับ ให้เราดูที่ภาพใบหน้าที่ได้เป็นสำคัญครับ ถ้าดูแล้วเป็นที่พอใจก็หยุดได้ทุกเมื่อครับ)
      ยิ่งการเทรนรอบสุดท้ายด้วย GAN ผลที่ได้ก็แทบไม่แตกต่างกับภาพที่ได้ก่อนหน้านี้ครับ มันแค่เพิ่มรายละเอียดเล็ก ๆ น้อย ๆ ที่ต้องเพ่งถึงจะเห็นครับ เช่น texture บนหน้า รอยย่น รูขุมขน แววตา ช่วยให้ดูสมจริงขึ้นอีกนิดเท่านั้นครับ ดูเผิน ๆ เร็ว ๆ ก็แทบแยกไม่ออกจากภาพก่อนหน้านี้ครับ ดังนั้นถ้าเราไม่ได้ต้องการความเนี้ยบสมบูรณ์แบบ เราไม่ต้องเทรน GAN ก็ได้ครับ เพราะขั้นตอนนี้ถ้าเลือกจะเทรนก็ต้องเทรนนานพอให้ถึงจุดที่มันจะส่งผลด้วยครับ (เฉพาะขั้นตอนนี้ ขั้นต่ำต้องเทรนเกิน 40,000 iteration ถึงจะส่งผลครับ ถ้าไม่ถึงก็มีค่าเท่ากับไม่ได้เทรนเลย จะมาเทรนครึ่งทางไม่ได้ครับ) เทรนแค่เราดูแล้วสมจริงด้วยสายตาเราพอแล้วครับ บางกรณี ยิ่งเทรนมากไป รายละเอียดชัดเจนขึ้นมากไป จนดูไม่สมจริงไปเลย ดูแย่ลงกว่าตอนไม่ค่อยชัดก็ได้ครับ

    • @netfake
      @netfake  2 ปีที่แล้ว +2

      การกระพริบตา และขยับปาก ละเอียดและตรงแค่ไหน ขึ้นอยู่กับ
      1. จำนวนภาพใบหน้าต้นทาง (ที่แตกต่างกัน) ยิ่งเยอะและหลากหลายมุม ยิ่งดี (แต่มากเกินไปก็ไม่ดีนะครับ ยิ่งมากยิ่งทำงานช้าลงครับ ปกติอยู่ที่ประมาณ 2000-4000 หน้า ) และการเลือกภาพที่ใบหน้ามีการลืมตา หลับตา และขยับปากใกล้เคียงกับใบหน้าปลายทางมากที่สุด
      2. การเทรน face ด้วยคำสั่ง Eyes and mouth priority โปรแกรมจะจำกัดพื้นที่การเทรนไปที่ ตาและปาก
      3. batch size คือจำนวนใบหน้าที่นำมาเปรียบเทียบกัน เพื่อเลือกเอาภาพที่ดีที่สุดออกมา 1 ภาพ ในทุก ๆ 1 iteration เช่น batch size = 4 คือโปรแกรมจะสุ่มเลือกใบหน้าต้นทางมา 4 ภาพ เปรียบเทียบกัน แล้วเลือกมา 1 ภาพที่ใกล้เคียงกับภาพใบหน้าปลายทางที่สุด การเลือก 1 ภาพจาก 6 ภาพ ย่อมได้ภาพที่ดีกว่าเลือกจาก 1 ภาพจาก 4 ภาพครับ ยิ่ง batch size สูง ยิ่งดี แต่จะยิ่งทำงานอืดลงจนอาจจะแฮงก์ได้ครับ
      ส่วนการเทรน mask หรือ xseg ไม่น่าจะเกี่ยวกับการขยับตาหรือปากนะครับ เป็นการจำกัดขอบเขตให้เทรนส่วนไหน ไม่เทรนส่วนไหนเท่านั้นครับ (ถ้าไม่ใช้ mask เลยก็ยังได้ครับ โปรแกรมก็จะเทรนทั้งภาพ คือแทนที่จะเทรนเฉพาะใบหน้า ก็จะเทรนแบกกราวน์ด้วย ซึ่งจะทำให้ใช้เวลานานขึ้น แต่การเทรนแบคกราวน์บางครั้งก็มีประโยชน์ทำให้ดูสมูธขึ้น) หลัก ๆ การเทรน mask จะมีประโยชน์เวลาใบหน้าปลายทาง มีสิ่งของบดบังใบหน้าบางส่วน เช่น มือหยิบของกินเข้าปาก หรือปืนจ่อหัว เราสามารถวาด mask ให้ตรงรูปวัตถุที่บดบังใบหน้าอยู่ได้เป๊ะ ๆ ถ้าเป็น mask สำเร็จรูป มันจะบังให้ตรงบ้างไม่ตรงบ้างครับ และประโยชน์อีกอย่างคือ เวลาเราต้องการเปลี่ยนทรงผมของใบหน้าปลายทาง ให้ตรงกับต้นทาง ก็ต้องใช้การ mask ด้วยตัวเองแบบ head ครับ

  • @nuiiiiiii
    @nuiiiiiii 2 ปีที่แล้ว

    อยากรู้ว่าทำยังไงให้ใช้กับการ์ดquadroได้ครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      ใช้ได้อยู่แล้วครับ

    • @nuiiiiiii
      @nuiiiiiii 2 ปีที่แล้ว

      ผมลอง quadro5000 ไม่ได้ สงสัยเก่าเกิน

    • @netfake
      @netfake  2 ปีที่แล้ว

      @@nuiiiiiii Quadro5000 นี่ GPU 2.5GB ใช่มั้ยครับ ค่อนข้างต่ำไป โปรแกรมเขาแนะนำควรใช้ขั้นต่ำ 6GB แต่ต่ำกว่านี้ก็ใช้ได้ครับ แต่มีข้อจำกัดหน่อย ของคุณ 2.5GB คงทำตามในคลิปนี้ไม่ได้ทุกขึ้นตอน ช่วง train ต้องคลิก 6) train Quick96 (แทน 6) train SAEHD) ช่วง merge ก็ต้องใช้ 7) merge Quick96 ครับ ซึ่งโหมดนี้ก็จะได้ความละเอียดต่ำหน่อย แต่ก็น่าจะทำได้ครับ จริง ๆ ขั้นเริ่มต้นก็ควรฝึกจากโหมด Quick นี่แหละครับ เพราะไม่ต้องตั้งค่าอะไรเลย มันจัดการให้อัตโนมัติหมด

    • @cryauto
      @cryauto 2 ปีที่แล้ว

      Mack ios มีไหมครับต้องโหลดอันไหน

    • @netfake
      @netfake  2 ปีที่แล้ว

      @@cryauto คิดว่าไม่มีนะครับ นอกจาก windows ก็เห็นมีแต่ Linux

  • @cryauto
    @cryauto 2 ปีที่แล้ว

    คลิปแค่ 49วิ จะ 2 ชม แล้วยังสลับไม่เสร็จเลย ใช้ nootbook tuf gaming f15 ตัว 64990บาท
    rtx3070

    • @cryauto
      @cryauto 2 ปีที่แล้ว

      ขนาดใช้ความละเอียดแค่ 720 p นะครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      ปกติใช้เวลาเป็นวัน ๆ หรือหลายวันเลยครับ

    • @netfake
      @netfake  2 ปีที่แล้ว +1

      เราสามารถย่นระยะเวลาการเทรนได้ ด้วยการดาวโหลดโมเดลที่คนอื่นทำไว้ให้โหลดมาใช้ได้ครับ เรียกว่า pre-trained model (คือ model ที่เทรนกับหน้าคนหลายพันคน ซ้ำ ๆ กันเป็นแสนเป็นล้าน iterations) ลอง ค้น google คำว่า "deepfacelab pre-trained models download" ดูนะครับ (ไม่กล้าทิ้ง link เพราะเคยใส่ลิงค์แล้ว โดนยูทูปเตือน เพราะในเวบสอน ดันมีเนื้อหาบางส่วนติดเรตครับ) โหลดมาแล้ว ก็ก๊อปไฟล์ ไปใส่ไว้ในโฟลเดอร์ model แล้วเริ่มเทรนตามปกติได้เลยครับ

    • @datethai1747
      @datethai1747 2 ปีที่แล้ว

      @@netfake การทำ pre-trained model เราสามารถทำเก็บไว้เองได้ไหมครับ มันต้องทำขั้นตอนที่เท่าไรถึง-จบเท่าไรพอครับ

    • @netfake
      @netfake  2 ปีที่แล้ว +1

      @@datethai1747 ทำเองได้ครับ โดยการเทรน ตั้งแต่แรกเหมือนปกติ แต่คลิก y ตรงบรรทัด Enable pretraining mode (โปรแกรมจะทำการ random ภาพหน้าคนหลากหลายเพศวัยจากที่โปรแกรมเตรียมไว้ให้) เทรนไปสัก 400k-500k iterations เสร็จแล้ว copy ไฟล์(ในโฟลเดอร์ model) เก็บไว้แยกต่างหากใช้ได้เรื่อยๆ เวลาจะใช้ก็ copy ไฟล์มาวางในโฟลเดอร์ model แล้วเทรนปกติ แต่ disable pretraining ตัวเลขการเทรนจะเริ่มจาก 0 iteration แต่หน้าจะชัดเร็วกว่าการเทรนปกติหลายเท่าตัว

  • @greenhills7305
    @greenhills7305 2 ปีที่แล้ว +3

    อย่าว่าผม xxx เลยนะ แค่จะบอกว่า มันน่ากลัวมาก ที่เจอคือ คลิป av ของ หยาง มี่ และ ของ ดิลี่เรอปา ที่.ใช้ Deepfake AI แบบเหมือนมาก ทั้งแสงเงาท่าทาง อารมณ์ ของใบหน้าคือดูไม่ออกเลย แต่พอดีไปเจอคลิบต้นฉบับ คือนางเอกหน้าตาธรรมดามาก พอเอาหน้า เร่อปาใส่เข้าไปเรายังเชื่อเลย ต่อมาหยางมี่ก็เหมือนกัน เหมือนกับสองคนนี้เคยแสดงหนัง AV มาก่อนแต่จริงๆคือคนอื่นแล้วใช้ DEEPFAKE ทำ

    • @netfake
      @netfake  2 ปีที่แล้ว +3

      90 % ของ deepfake ในโลกนี้ เป็นคลิปอย่างที่คุณว่าแหละครับ แม้แต่เวบสอนดีดี ก็อยู่ในเวบชุมชนที่ทำคลิป x

  • @hutchplay
    @hutchplay 2 ปีที่แล้ว +1

    ไหนว่ายูทูปแบนdeepfake

    • @netfake
      @netfake  2 ปีที่แล้ว

      น่าจะแบนเฉพาะที่เกี่ยวกับการเลือกตั้งอเมริกานะครับ

    • @hutchplay
      @hutchplay 2 ปีที่แล้ว

      @@netfake ถ้าผมเอารูปวาดเช่นโมนาลิซ่ามาให้พูดได้ตามผมใช้ ดีปเฟค แล้วผมอัพโหลดบนยูทูปจะผิดกฏหรือโดนแบนไหมครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      @@hutchplay น่าจะไม่แบนนะ ถ้าจะแบนก็พวกภาพที่มีลิขสิทธิอะไรแบบนั้นมากกว่า แต่ไม่ได้แบนเพราะดีปเฟค

  • @9na991
    @9na991 2 ปีที่แล้ว

    ขอข้อมูล​สเปค​เครื่อง​pcหน่อยครับ

    • @netfake
      @netfake  2 ปีที่แล้ว

      มีพิมพ์ไว้ให้ใน description แล้วครับ

    • @9na991
      @9na991 2 ปีที่แล้ว

      ขอบคุณ​มาก​ครับ​

    • @netfake
      @netfake  2 ปีที่แล้ว

      ความละเอียด แปลมาจากคำว่า resolution ของภาพนิ่งที่แคปออกมาเป็นภาพตัวอย่างให้ AI เรียนรู้และนำไปวาดหน้าใหม่ครับ มีนามสกุลเป็น .jpg ก็เหมือนกับภาพถ่ายทั่ว ๆ ไป มีหน่วยเป็น pixel เช่น ความละเอียด 256 ก็คือภาพนิ่ง 256X256 พิกเซล, ความละเอียด 1024 ก็คือภาพนิ่ง 1024X1024 พิกเซล (ความละเอียดหรือ resolution นี้ เวลาเราคลิกดู properties ของภาพนิ่งในเครื่อง PC จะใช้คำว่า dimensions ครับ)

    • @netfake
      @netfake  2 ปีที่แล้ว +1

      model คือ ชุดไฟล์ที่จะเป็นตัวกำหนดรูปแบบใบหน้าที่จะคอมพิวเตอร์จะสร้างขึ้นมาใหม่ จากภาพใบหน้าตัวอย่างทั้งหมดที่เราแคปไว้ครับ ชุดไฟล์นี้จะอยู่ในโฟลเดอร์ model ซึ่งจะมี 3 ประเภท คือ โมเดล SAEHD ซึ่งจะนิยมใช้ที่สุด จะสามารถเลือกความละเอียดได้ตามต้องการ และ reuse โมเดล ได้ , โมเดล AMP เป็นรูปแบบใหม่ที่ยังอยู่ในขั้นทดลอง สำหรับใบหน้าที่รูปหน้าต่างกันมาก ๆ , Quick 96 คือ โมเดลสำหรับทดสอบหรือฝึกฝน มีความละเอียดต่ำ และตายตัวที่ 96 resolution ปรับเปลี่ยนอะไรไม่ได้ แต่จะใช้เวลาเทรนน้อยและรวดเร็วกว่าแบบอื่น ๆ และโมเดล XSeg คือ โมเดลของ mask ที่เราต้องการกำหนดขอบเขตเองครับ

    • @9na991
      @9na991 2 ปีที่แล้ว

      ขอบคุณ​มาก​ครับ​ ผมจะติดตามผลงาน​ของคุณนะครับ

  • @eviljohan
    @eviljohan ปีที่แล้ว

    ถ้าทำคลิปที่มีหลายๆคนต้องทำยังแบบไหนหรอครับ

    • @netfake
      @netfake  ปีที่แล้ว

      ใช้ mask

    • @netfake
      @netfake  ปีที่แล้ว

      โปรแกรมจะให้คลิป result ออกมา 2 คลิป คลิปนึงคือคลิปภาพเต็ม ๆ อีกคลิปคือคลิป mask เราก็เอาสองคลิปนี้ไปซ้อนในโปรแกรมตัดต่อ ทำให้ซ็อนหน้าหลาย ๆ คนได้ในคลิปเดียว

    • @eviljohan
      @eviljohan ปีที่แล้ว

      @@netfake โอเคครับ🙏

  • @vorayuttatong2343
    @vorayuttatong2343 ปีที่แล้ว

    สเปคคอมแค่ไหนถึงจะใช้โปรแกรมนี้ได้ครับ

    • @netfake
      @netfake  ปีที่แล้ว

      มีบอกไว้ใน description ใต้คลิปแล้วครับ