ใช้ AI ปลอมเสียงได้ขนาดไหน (2023)
ฝัง
- เผยแพร่เมื่อ 4 ม.ค. 2024
- LIVE เต็มครบๆ (เฉพาะสมาชิก):
สนับสนุนนายอาร์มง่ายๆ
- Subscribe / Like / Comment
- ซื้อสินค้านายอาร์มสุดเท่: shop.9arm.co
- ระบบสมาชิก: th-cam.com/users/9armstoryjoin
- ซื้อของผ่าน Shopee: shp.ee/qbhc4ez
อุดหนุนสินค้านายทุน
Advice: www.advice.co.th (โค้ด 9ARMPROMAX)
Ophtus: / ophtus (โค้ด 9ARM)
Grainey: / graineysnack
Keychron Thailand: www.keychronthailand.com/ (โค้ด 9ARM)
425degree: 425.ee/3wqRiRH (โค้ด 9ARM)
Electronic Extreme: exe.in.th/9arm
BullVPN: www.bullvpn.com/ref/9arm (โค้ด 9ARM ลดรายปี 15%)
Facebook : / castby9arm
Twitter : / castby9arm
IG : / castby9arm - บันเทิง
เมื่อผมลอง AI เสียงพี่อาร์มแบบ realtime ครั้งแรก
ผม: เชี่ยยย เหมือน!! โทรหาเพื่อนดีกว่า!!
จ๊อบ inorin: เชี่ยยยย ลองให้พี่อาร์มฟังดูดิ
พี่อาร์ม: เฮ้ยยยยย ไอ้เก่งๆ มาฟังดิ
พี่เก่ง: เฮ้ยยยยย!! น่ากลัว
พี่อาร์ม: เกดๆ
พี่เกด: ไม่อ่ะ ไม่เหมือนเลย ตั้งแต่เสียง จนถึงวิธีพูด
เรื่องนี้สอนให้รู้ว่า AI Voice Clone Detector ที่ดีที่สุดคือ แฟนของคุณนั้นเอง 55555
จะใช้aiทำไม ในเมื่อเรามีเงาเสียงคนดังเต็มอินเตอร์เน็ต😏
2 คนในโลกที่คุณไม่ควรโกหกด้วย
1. แม่
2. เมีย
สอนอีกอย่างคือ ให้โทรไปหลอกเพื่อนแทน 55555
😂555 เมีย กับ แม่ น่ากลัววววว😂😂😂
มันจะมีคนเทรนระดับประธานาธิบดีไหม แล้วสั่งว่า ให้ยิงนิวเคลียร์ใส่ อันนี้น่าจะน่ากลัว เพราะถ้าแบบนี้อาจจะคุ้มค่าการเทรน
เราเข้าใจมาโดยตลอดว่า จุดยืนของพี่นายอาร์มอาร์มต่อมิจฉาชีพ คือสำคัญที่ว่าเราต้องมีความระวังตัวมากกว่าความกลัว รวมถึงการพยายามกระจายบอกคนอื่น สุดท้ายแล้วหลักสำคัญคือไม่กดลิงก์มั่วซั่ว ไม่โอนเงินมั่วซั่ว ก็แทบจะปลอดภัยไปกว่า 90% แล้ว ซึ่ง Intention ของพี่นายอาร์มต่อเรื่องพวกนี้ก็คือ ให้ความเข้าใจที่ถูกต้อง ลบล้างความกลัวให้เหลือแต่ความระวังตัว มันก็เท่านั้น
ซึ่งมันทำให้เราไม่แน่ใจว่า คนที่แชร์ข่าวพวกนี้หรือเอาข่าวพวกนี้มาเล่าแบบใส่ความน่ากลัวเข้าไปเยอะๆ เขามี Intention ยังไงกันแน่ สรุปอยากให้คนระวังตัว หรือแค่อยากขายข่าว หรือแค่อยากเรียกยอดวิวเฉยๆ เพราะเมื่อมีคนให้ความเข้าใจที่แน่นอนขึ้น กลับไปบอกว่ามันมีจริงๆนะอยู่นั่นแหละ เหมือนกลัวตัวเองเสียเครดิตมากกว่าการอยากสร้าง Awareness ให้สังคม
อันนี้ขอพูดในฐานะคนใจเร็วนะครับ ผมเป็นคนระวังตัวเรื่องนี้ตลอด ใครส่งไรมาโทรมาไม่เคยจะเชื่อเลยสงสัยตลอด
แต่แล้ววันหนึ่ง มีคนทักผ่านsteamมา ชื่อดันนนนนนน คล้ายชื่อเพื่อนแล้วส่งลิ้งมาให้ พิมว่าช่วยดูลิ้งliveสด เกมเคาเตอร์ ด้วยสมัยนี้ทุกอย่างเร็วมาก ผมกดเข้าลิ้งกดstem guard ภายใน20-25 วิ พอกดเสร็จในเสี้ยววินั้นคือเอะใจ เอะใจจริงๆนี่มันหลอกรึเปล่า แล้วคือโดนจริง มันส่งลิ้งต่อเลยในid ผม ยังดีที่รู้ตัว ทันทีก็เปลี่ยนเดียวนั้นเลย
คือพอมันคิดว่าคนรู้จักความเอะใจมันหายไปจริงๆ แล้วสมัยนี่ทุกอย่างมันไว ถ้าคุณเบลอไปแปปเดียวคือเสร็จโจรเลยจริงๆ
page ข่าวก็เต้าข่าว หิวแสงสิ
อยากให้นายอาร์มพูดถึงเรื่องai artมากเลยค่ะ อยากฟังความคิดเห็นเพราะช่วงที่ผ่านมาอาร์ตติสหลายๆคนถูกดึงงานไปเทรนaiโดยไม่ได้รับอนุญาตเยอะมากจนบางคนลบรูปงานวาดของตัวเองออกหมดแล้วก็ปิดแอคไปด้วยTT
9arm เคยพูดเรื่องนี้ไปเมื่อนานมาแล้วนะคะ ตอนนั้นนี่เดือดๆเลย แต่พี่เขาเลือกที่จะพูดถึงในมุมเทคนิคมากกว่าในมุมศีลธรรมค่ะ
@@WittNV อ๋าาาาขอบคุณมากๆเลยค่าา🥹🙇🏻♀️
@@numai8131 ไว้เราคงต้องย้อนกลับไปหาแล้วค่ะ ขอบคุณมากๆเลยค่าา🙇🏻♀️🙇🏻♀️
นี่อาโดนค่ะ นางจะบอกว่าไม่สะบาย ถามว่าจำได้ไม๊ ใครเอ่ย จะโดนกับคนอายุเยอะๆ แล้วอาก็คิดว่าเป็นเรา เอ่ยชื่อว่า แก้วหรอ นางก็ว่าใช้ ละก็ยืมเงิน
ส่วนเรา แอปมันขึ้นว่าหลอก เลยรู้ แต่ รับ มันบอกรายละเอียดแบบชัดมาก งงมากจริง 😊
คนดังหรือใครก็ได้ที่มิจฉาชีพสามารถหาดาต้าเสียงคุณภาพจากช่องทางออนไลน์ที่เป็นสาธารณะ ยิ่งพวกจัดพอดแคสหรือให้สัมภาษณ์ยาว บรรยายยาวๆ น่ากลัว ai มีวัตถุดิบในการเทรนที่ดี เลยดีพอสำหรับการแปลงเสียง
เทรนเอไอเสียงตัวเองเพื่อใช้นำเสนองานกลุ่ม 😅
ปิดกล้อง เปิดสไลค์ หนึ่งคนพูดเสียงทั้งกลุ่ม เพอร์เฟค😂
@@WhatSupBroz แต่ห้ามครูถามไรนะเดี๋ยวเกม555
@@mr.plnwza009 อัดเป็นคลิปเอาให้เพื่อนส่งครู วันจริงแกล้งป่วยมาไม่ได้
กำลังคิดอยู่เลยครับ5555
1 ชม.ต่างกับ 15นาทีตรงที่สำเนียงมันชัดกว่า สมูทกว่า ส่วน train AI ด้วย เสียงHQ แล้วไปหลอกคนด้วยเสียง LQ (หมายถึงไปลดทอนคุณภาพเสียงลงเพราะ เสียงHQ ยังพอแยกได้) นี่น่าจะแยกยากมาก แต่เป้าหมายน่าจะเป็นพวกที่สามารถหาคลิปเสียงพูดยาวๆได้ เช่น streamer / influencer
ผมก็เคยลองครับ เค้าให้ลองได้ฟรี 3 นาที ส่วนน่าจะใช้ต่อ ราคาก็แพงอยู่
จากที่ลองเปลี่ยนเสียงพากษ์ตัวเองที่เป็นภาษาไทย ไปเป็นเสียงภาษาอังกฤษ ก็ถือว่าเหมือนมาก โดยผมใช้คลิปเสียงต้นฉลับ ที่มีดนตรีประกอบในคลิปด้วย ผลคือ ดนตรีไม่หาย แต่เสียงถูกเปลี่ยนไปเป็นอีกภาษาได้แบบเนียนๆ แต่ก็จำกัดก็มีเช่นกัน คือเสียงของผู้ที่ผมสนทนาด้วย หากไม่ชัด เบาไป ai ก็ตรวจจับไม่ได้ ข้อความที่ถอดออกมาจากเสียงก็ต้องไปแก้อยู่ดี และออกมาไม่ธรรมชาติเท่าไหร่
ส่วนตัวอย่างโดยทั่วๆไป ในคลิปสั้นก็เจอบ่อย แต่จะเป็นเชิงไม่ได้เอาเสียงตัวเองมาแปลง แต่จะเป็นการพิมพ์ข้อมูลให้ Ai พูดบรรยาย อันนั้นก็ไม่ธรรมชาติเท่าที่ควร เวลาแปลไปเป็นภาษาอื่น
คลิปที่ผมทดสอบใช้ Ai เปลี่ยนเสียง สามารถไปดูได้ที่ติ๊กต็อก Bggaro ในคลิปชื่อว่า สะพานมอญ
ขอบคุณที่ห่วงใย ความปลอดภัยของประชาชนฯ
พอเห็นหัวข้อนี้แล้ว มีความคิดนึงเข้าหัวในทันที ก็คือ " ไม่อยากให้ AI มาแทนนักพากย์ นักร้องแบบเต็มที่ "
ยิ่งให้ AI มาแทนนักพากย์ที่เสียไปแล้ว ผมยิ่งไม่อยากให้ทำเลย ให้กูมูฟออนจากนักพากย์ที่เสียไปแล้วเถอะ
ใช่ๆ โดยเฉพาะการเอาAi มาจำลองหรือเขียนต่อผลงานที่ยังไม่จบของนักเขียนที่เสียไปแล้ว รู้สึกน่าเกลียดมากๆที่คนพวกนี้คิดจะเหยียดหยามแม้แต่คนที่เสียไปแล้ว
จริงถ้ามัวแต่ยึดติดกับสิ่งเดิมๆสิ่งใหม่ๆก็จะไม่เกิด
อยู่ที่การดีลระหว่างนักพากย์ ถ้านักพากย์ต้องการให้เสียงอยู่ตลอดไป ในฐานะเหล่าแฟนๆที่รับไม่ได้ก็แค่ไม่สนับสนุนก็แค่นั้น 🤗🤗🤗
เหมือนดาบสองคมและเหรียญสองด้าน มีทั้งข้อดีข้อเสีย
นักพากจะตกงานละ
ผมว่าต่อไปควรเอาเทคฯนี้มาทำ countermeasure
ถ้ามีใครโทรมาจากเบอร์ที่เราไม่ได้เมมไว้คือ ควรให้ปลายสายได้ยินเสียงปลอมแทน เป็นการปกปิดเสียงจริงของเรากับคนแปลกหน้า
นายอาร์มครับ แล้วถ้าเป็นเหตุการแบบ เพื่อนสาวเมาท์กัน โดยใช้วิธิอัดเสียงแล้วส่งผ่าน messenger หรือ line เมาท์กันแบบเป็นชั่วโมง ๆ แบบนี้ก็สามารถเอาไปใช้ได้ใช่ไหมครับ
รู้สึกขอบคุณมากเลยที่มีคนแบบคุณมาให้ความรู้ในเรื่องที่เราไม่เคยได้รู้ แบบได้เปิดโลก ได้รู้อะไรหลายๆอย่าง ขอบคุณแบบจากใจเลย
ขอบคุณมากน่ะครับคอนเท้นดีๆๆมึประโยชน์
งี้แปลว่าถ้าไปเอาเสียงของ influencer ที่มี high quality sample เยอะๆอยู่แล้วและมีชื่อเสียง ถ้าโทรไปหลอกคนมันก็น่าจะมีคนหลงเชื่ออยู่นะ ไม่ได้เงินก็หลอกเอาข้อมูลได้บ้างแหละ แต่คุ้มทำแค่ไหนไม่รู้
แบบเรียลไทม์ผมเคยได้ยินคนที่เอาเสียงตาเอกไปลองพูดคุยแบบสดๆมาอย่างน้อยๆ 1 รอบ(ไม่กี่คำ)เมื่อช่วงปลายปี(น่าจะก่อนธันวามั้ง) สิ่งที่แตกต่างคือจังหวะการพูด สำเนียง สไตล์ และอื่นๆ ในฐานนะที่เป็นผู้ชมผมพอจะจับได้อยู่บ้าง แถมในบางจังหวะมันเป็นเสียงสองเสียงซ้อนกัน(มันยังไม่สามารถแปลงเสียงได้ราบเรียบ 100% อาจจะเพราะระยะเวลาเทรนที่สั้นหรือคำพูดที่ใช้ออกเสียงนั้นๆมันไม่ครอบคลุม)
ไม่อยากจะคิดภาพอายุ 60 ประมาณ 30 ปีข้างหน้า เทคนิคจะเนียนขนาดไหน
เห็นภาพตัวเองตอนแก่แมร่งคงตามไม่ทันละ
เสียงทำได้ แต่จังหวะและสไตล์ ต้องให้ Ai เรียนรู้เยอะหน่อย ต้องใช้เวลา ง่ายที่สุดคือคนในสื่อ จะก๊อบสไตล์ง่ายที่สุด แต่ถ้าจะให้ง่ายกว่านั้น ให้พวก FC ของคนนั้นๆมาลงสไตล์ให้ รับรอง โคตรเนียนครับ มดดำคชาภาเค้าลองมาแล้ว คืออึ้งเลยครับ บอก เออกรูไม่ต้องมาทำรายการเองละ 55 😊
แต่สิ่งที่เห็นทุกวันนี้คือเฟสบุค พวกเพจเล่าย่อเนื้อเรื่องหนัง เขียนบทภาษาอังกฤษครั้งเดียว สั่งแปลทุกภาษา แล้วรับเงินโฆษณารัวๆ 😊
ผมแนะนำ ตอนขายของต้นคลิปของคลิปนี้ ลองใช้เสียงคนอื่นละใช้ AI แปลงเป็นนายอาร์มดูครับ อยากรู้ว่าคนจะสามารถจับผิดได้มั้ย เพราะอย่างในคลิปผมเชื่อว่าพอการที่พี่อาร์มพูดว่าอันนี้คือเสียงของ AI คนฟังก็จะมีการรับรู้ว่ามันไม่ใช่ของจริงตั้งแต่ต้น แต่กลับกันในชีวิตจริง เราไม่มีทางรู้อยู่แล้วว่ามันคือจริงหรือหลอกก่อนที่เราจะได้ยินเสียง เลยทำให้อาจจะแยกแยะยากขึ้น+ปัจจัยอื่นๆอีกเช่นความเร่งรีบในการคุยไรงี้ครับ
ปล ขอบคุณที่นำเสนอเรื่องนี้ครับ ประเทศไทยควรมี Digital/Technology Literacy มากกว่านี้จริงๆครับ❤
อันนี้แชร์จากส่วนตัวนะครับ ไม่ได้มีหลักฐานยืนยันอะไร เพราะเป็นเคสคนรู้จัก
ที่โดนกันไม่ได้เกี่ยวกับบันทึกเสียงผ่านมือถือหรอกครับ
ที่โดนจริง ๆ เป็นเสียงวิทยากร หรือพิธีกรที่ทำงานประจำ และมีการบันทึกวิดีโอหรือเสียงเก็บไว้ตลอด จากนั้นค่อยเอามาหลอกคนในองค์กร
มีเพื่อนของแม่ผมที่โดนกันบ่อย ๆ คือเสียงที่เทรนจากพิธีกรที่รู้จักกันในสำนักงาน
กลุ่มเป้าหมายหลักคือคนแก่ใกล้เกษียณ หรือเกษียณแล้ว เพราะกลุ่มนี้ค่อนข้างมีเงินสะสมค่อนข้างเยอะ เคสที่โดนมักจะแสน++ คุ้มที่จะทำ ได้เดือนละ 3-4 ราย ก็มีโอกาสแตะล้านได้ไม่ยาก
ด้วยความที่ในองค์กรไม่ได้สนิทกันมาก เลยไม่ได้รู้วิธีการพูดที่ชัดเจน (วิธีการพูดนอกเวลางาน) บวกกับพิธีกรส่วนมากค่อนข้างมีความน่าเชื่อถือทำให้พลาดโอนไปยังมิจฉาชีพได้ง่าย
ถ้าเป็นไปได้ไปอยากให้ช่วยสร้างการตระหนักรู้เรื่องเช็คก่อนโอน หรือการสอบถามเจ้าตัวโดยตรงหากเป็นเรื่องการเงิน น่าจะช่วยกันได้เยอะครับ
ชอบช่องนี้จัง ❤
ปัจจุบัน คนที่เสี่ยง คือ คนมีชื่อเสียงที่มี digital footprint เยอะ ๆ เอามา scam ทั่ว ๆ ไป อาจจะพอจับได้ แต่ ถ้าเอามาทำ เสียง แบล็คเม ยังพอวุ่นอยู่ ที่ต้องมา prove ว่าตัวเองไม่ได้พูด แต่เป็น gen voice
ขอบคุณค่ะ เรียบเรียง นำเสนอได้ดี ชัดเจน เป็นประโยชน์ เข้าใจขึ้นมากเลยค่ะ ❤
ขอบพระคุณท่าน รมต.ที่ห่วงใยประชาชนครับ
อนาคต AI clone นี้จะทำให้ IO ทำงานง่ายยยยยขึ้น 300%
ลุงตู่อาจจะออกซิงเกิ้ลทุกสัปดาห์ น่ากลัวจัด 😂😂
ผมว่าควรมีกฎหมายควบคุมการพัฒนาของ AI ได้แล้วนะ คือตอนนี้มันอาจจะยังไม่ได้ แต่อนาคตผมว่าไม่แน่ 😅
ในทางอุตสาหกรรมเพลง ผมเห็นอกเห็นใจ แล้วก็เข้าใจในมุมของผู้บริโภคด้วยครับ เพราะ ฝั่งคนที่ยังสามารถ Perform ได้อยู่ แต่ไปโดน YT User เอาไปทำ Ai Cover เสียก่อน แทนที่ศิลปินจริงๆ เค้าจะได้ร้องเอง หาเงินกลับมาเสียโอกาสตรงนี้ ยกตัวอย่าง คนเอา Bruno Mars ไป ทำ Ai cover เพลงของ NewJeans เงี้ยะ คือ ผมก็อยากเห็นแกไปเรียนภาษาเกาหลี แล้วมาร้องเองเหมือนกัน
ในส่วนมุมมองของศิลปินที่เรารักแต่เสียชีวิตไปแล้ว เราก็ยังอยากฟังเค้าทำ Ai Cover มาร้องเพลงสมัยใหม่ให้เราฟังอยู่บางครั้งเหมือนกัน 😢😢😢😢
ถ้าใช้ในทางที่เป็นประโยชน์มันก็มีประโยชน์มากเลยครับ แต่ถ้าเสียก็เสียมากเช่นกัน
ผมลองทำดู fake voice live ใช้โมเดลของฝรั่งที่มีมา แล้วเอามาเทรนต่อ ถามว่าได้ไหม ก็ได้ แต่ติดตรงพูดแล้วมีเสียง S และไม่เหมือนมากเท่าไร (จำลองว่าเป็นแก๊งคอลแล้วอัดเสียงแบบไม่นานไม่กี่วิในการเทรน)
ดังนั้นถ้าเราเอาโมเดลเสียงคนไทยมาแล้วเทรนเพิ่มไป อาจทำให้การพูดเป็นแบบคล้ายคนไทยมากขึ้น
ส่วน deep face live อันนี้ ผมจำลองแบบแก๊งคอล เอารูปหลายรูปมาเทรน กับ แบบใช้ 1 รูป จะได้ว่า แบบโมเดลใช้ปริมาณหลายๆรูปจะเนียนกว่า เพราะ Base on model ส่วนใช้ 1 รูปก็คล้ายคลึงแต่ไม่เท่า on model แต่ทั้ง2 จะมีจุดบอดตรงการแลบลิ้น ลิ้นจะแยกออกชัดเจนว่าเป็น ai อาจเพราะว่า ตอนเทรนไม่มีรูปลิ้นรึเปล่า
แต่การเตือนภัยให้ประชาชน ทาง ตร ก็หนักใจเช่นกัน ถ้าไม่เตือน คนก็ไม่ค่อยรู้ แต่พอเตือนไปก็ไม่ค่อยสนใจกัน แต่กลับกันคนที่เข้ามาฟังมาดู กลับเป็นมิจฯ ส่วนใหญ่ แล้วเอาจุดที่เตือนภัยวิธีสังเกต มาปรับปรุงแก้ไขให้เนียนขึ้น
ตอนนี้มันมีกรณีการใช้ voip ปลอมเบอร์ แต่ยังไม่รู้วิธีแน่ชัด มีใคร demo ได้บ้าง 9arm พอทำได้ไหมครับ
คือถ้า มิจฉาชีพมาหลอกโดยตรงอาจจะยากนะครับ แต่ถ้าพวกบริษัทประกันที่ชอบโทรมาคุยกับเราเป็นชั่วโมงๆ แล้วมีการขออนุญาตบันทึกเสียง สุดท้ายแล้วดันเอาเสียงเราไปขายให้มิจฉาชีพเนี้ย เริ่มน่ากลัวแล้วนะครับ
จริงงงง😢😢
คุยอะไรกับประกันเป็นชั่วโมงไม่เสียเวลาเหรอ 555
@@Strangers3986 ถ้าคนที่ฟังข้อมูล หรือต่อรอง และสอบถามรายละเอียดมันก็คงนานค่ะ
เวลาคุยกับใครเหตุด่วน เหตุร้าย ตั้งสติก่อน เทรน AI ผมก็มองว่า ยังไม่ถึงจุด ที่ใช้เวลาสั้นและทำได้เลย แต่ก็มองว่ามันสามารถพัฒนาไปได้เรื่อยๆ ถ้ามิจฯจะหลอกเราจริง ก็จะมีหัวข้อประมาณนี้
- อ้างเป็นบุคคลใกล้ชิด เราก็ควรตั้งสติก่อนว่าใคร เป็นเขาจริงไหม เช่น ถาม ชื่อ สถานที่ๆเคยไป หรือ ลักษณะการพูดจา ต่างๆ
- อ้างว่า ป่วยให้โอนเงิน เรก็ต้องตั้งสติถามกลับว่า รพ.อะไร จังหวัดไหน อย่าเพิ่งรีบโอนไว
- อ้างเป็น นาย ABC ที่ไม่ได้เจอกัน เราอย่านึกและบอกเอง เพราะโดยปกติคนที่นานๆจะเจอกัน จะถามไถ่กันก่อน แล้วค่อยไปต่อด้วยบทสนทนาอื่นๆ
ทุกอย่างจะดีขึ้นถ้าเราตั้งสติ ก่อน โอน
ขอบคุณครับ
ขออนุญาตเล่าประสบการณ์ของคนใกล้ตัวให้ฟังเพื่อเป็นอุทาหรณ์ครับ ยายผมก็เป็นคนหนึ่งที่เจอเหตุการณ์คล้ายๆแบบนี้ มีอยู่หนึ่ง(ประมาณเกือบ2เดือน)มีสายแปลกๆโทรมาหาทุกวัน แล้วไม่เคยซ้ำกันเลย พอโทรมาก็บอกว่าต้องการจะคุยกับคนที่บ้าน ยายผมก็จะบอกว่าไม่อยู่(ผมไม่แน่ใจว่าเคยให้คนที่เขาตามหาคุยหรือยัง)ยายผมถามว่ามีธุระอะไรก็จะเงียบ แบบนี้ซ้ำๆเกือบสองเดือน ถ้าไม่รับสายก็จะโทรย้ำๆอยู่อย่างงั้นเป็นพัก จนกระทั่งมีญาติมาบอกยายว่า ยายไปขอยืมเงินใครไปทั่วเลย พอผมรู้เรื่องผมยังขนลุก แต่ดีที่ยังไม่มีใครเสียหายครับ
อยากลองเอาเสียงจาก record meeting จาก team meeting หรือ Zoom ไปลองหน่อยครับ อยากรู้ มันจะได้ขนาดไหน เอาไว้หโทรหลอก HR
ขอบคุณความรู้ใหม่ๆๆมากๆๆครับ ที่มาเตือน ปชช.
ในเชิง data sciene
มันจพะ เหมือนงาน machine leaning มั้ย
เอาเสียงเดิม มาทำ future engineering ค่อยๆ ปรับต่ำ สูง แล้ววน loop แล้วค่อยเอามา เทรนได้มั้ยครับ
บนโลกใบนี้(หรือจักรวาลนี้) มันมีความเป็นไปได้เต็มไปหมด แต่ทุกสิ่งที่ว่ามันต้องใช้เวลา แล้วยิ่งแบบที่ 9arm บอกนี่ผมว่าทำได้แหละ อาจจะอีกสัก20-30ปี ถึงตอนนั้นอาจจะเหมือนหนังเรื่อง Eagle Eye ก็ได้นะ ที่ AI หลอกมนุษย์อย่างเราๆจนหัวหมุนและทำเลวโดยไม่รู้สึกอะไร
วิธีการพูดยังไงก็ยังลอกยากครับ มันต้งใช้ Sample ของคนนั้นๆแบบเยอะมากแบบเยอะมากๆ แล้วต้องเป็นเสียงในกรณีที่พูดตามปกติ ตามธรรมชาติด้วยไม่ใช่การให้เสียงเพื่อมาเทรน ส่วนน้ำเสียงก็ทำให้คล้ายได้แล้วแต่คนใกล้ตัวคือยังไงก็แยกออก
เห็นด้วยอย่างมากเรื่องความไม่ Practical ของวิธีนี้
โดยเฉพาะการเอาเสียงจากโทรศัพท์มาเป็น Dataset สำหรับการเทรน ตลอดจนการเอาไปใช้
วิธีอื่นง่าย และหลอกง่ายกว่าเยอะ
ขออนุญาตเสริมเชิง กึ่งๆ Technical นิดนึง
ช่วงก่อนปีใหม่ ผมเทรนโมเดลเสียงด้วย AI ด้วยเทคโนโลยีปัจจุบัน (คือใหม่สุดเท่าที่หาได้)
ความยาวเสียง 1-2นาที (ที่ clean มาอย่างละเอียดด้วยสารพัดโปรแกรมและเทคนิค) ก็เพียงพอที่จะทำให้เชื่อได้แล้ว
(ความยาว Dataset ไม่ต้องถึง 5 นาที แต่ให้ผลเกือบเท่า 1 ชั่วโมงแบบในคลิป) ซึ่งน่าตกใจมาก
อย่างไรก็ตาม ถ้าจะเอาไปใช้ในระดับมืออาชีพ (เช่นการแทนเสียงนักร้อง) ยังควรต้องใช้สัก 2 ชั่วโมงขึ้นไป และอาจถึง 10 ชั่วโมง ขึ้นกับ Dataset และการเอาไปใช้
เทคโนโลยีด้านนี้ พัฒนาไวขึ้นมากในช่วงที่ผ่านมา
มองย้อนกลับไปเมื่อปี 2022 มา 2023 (8-10 เดือนก่อน) จนถึงปลายปี
ความเนียน / ความง่าย / ความไว ก้าวกระโดดจนน่าตกใจ
แต่ประเด็นคือ ผลลัพธ์จะเนียนแค่ไหน ไม่ว่าเทคโนโลยีจะไปไกลแค่ไหน
สิ่งสำคัญสุดที่จะทำให้ผลลัพธ์ดี ก็ยังคงเป็น Dataset ที่มีคุณภาพ
Garbage in > Garbage out ยังคงเป็น Classical quote ที่ยังใช้ได้ถึงวันนี้
ถ้าจะเอาข้อสรุปจากหัวข้อ
เสียงจากโทรศัพท์มันเสียหายมากเกินกว่าที่จะ Restore และ Clean เอามาทำ Dataset ที่ดีได้
พ่อผมเพิ่งโดนมาเมื่อเดือนตุลา
วันแรก
คนร้ายมันโทรมาหลอกพ่อผมบอกว่าตัวเองเป็นหลาน มันรู้ชื่อหลาน รู้ชื่อพ่อ รู้สรรพนามที่ใช้เรียกกันด้วย ทำให้พ่อเชื่อไปส่วนนึง
รายละเอียดวันแรกที่มันโทรมา เนื้อหาคือทำนองว่า "อันนี้เบอร์ใหม่ผมนะ ผมเปลี่ยนเบอร์แล้ว"
พ่อผมก็ตอบกลับไปว่า "โทรศัพท์เป็นอะไรเสียงไม่ค่อยชัดเลย อู้อี้ๆมาก" แต่ก็มีความเหมือนเสียงหลานระดับนึง คุยกันไม่ค่อยรู้เรื่อง เป็นการรีบๆคุย
วันนี้นั่งดูคลิป 9arm คลิปนี้กับพ่อ พ่อบอกเสียงแบบนี้เลย เสียงจะไม่ค่อยชัดแบบที่เทรนในคลิปนี้เลย 11:37 เหมือนสัญญาณไม่ดี
สรุปวันแรก พ่อก็ไม่เอะใจอะไรก็เพราะมันแค่โทรมาให้เมมเบอร์ใหม่เฉยๆไม่ได้จะเอาตัง
วันที่สอง
มันโทรกลับมาอีกครั้งด้วยเบอร์ใหม่ที่มันโทรมาเมื่อวันแรก คราวนี้เสียงชัดเป๊ะ แบบชัดระดับไม่สงสัยแล้ว แต่เป็นลักษณะพูดคุยแบบให้เร่งรีบโอนด้วย พ่อก็ไม่เอะใจอะไรแล้ว มันโทรมาขอให้ช่วยโอนตังมาให้มันหน่อย มันมีเรื่องฉุกเฉินบลาๆๆ พ่อก็โอนไป
เรียบร้อยยยยยยยย พ่อมารู้ตัวหลังจากส่งสลิปการโอนไปให้หลานทาง line หลานบอกไม่รู้เรื่องด้วยเลย
ปล. พ่ออายุ 67 ไม่ค่อยรู้เรื่องเทคโนโลยีอะไร แต่ผมก็ไม่เข้าใจทำไมวันแรกเสียงไม่ชัด แล้วกลับมาวันที่ 2 เสียงชัด มันใช้วิธีอะไรยังไงก็ไม่รู้เหมือนกันพ่อเล่าแบบนี้
เนียนยิ่งว่าคอลเซ็นเตอร์อีก น่ากลัว ถ้าเป็นคนไม่ค่อยรอบคอบแบบผมก็คงโอนไปเหมือนกัน😢😢
ผมคิดว่าคงจะทำให้ชัดได้ตั้งแต่ครั้งแรกแล้ว แต่ที่เอาแบบอู้อี้คือกะหลอกให้ตายใจก่อนว่าใช่ตัวจริงแน่ ๆ
พอรอบสองพอเชื่อว่าตัวจริงแล้ว ก็เลยอาจจะไม่ทันสังเกตรูปประโยคแปลก ๆ แล้ว ก็เลยเอาแบบ Hi-Res เลย จะใด้เชื่อชัวร์ ๆ
กรณีนี้หลานเป็นคนดังที่มิจสามารถหาโปรไฟล์เสียงมาเทรน ai ได้นานๆไหมครับ
แม่ผมก็โดน แต่แม่โทรมาถามผมก่อน เลยรอดตัวไป บอกแม่ไอ้ที่ชอบลงไปเที่ยวนั่นเที่ยวนี่ โพสรูปลูก ญาติ ต่างๆนาๆ ให้ลบซะ มันอันตราย แม่ไม่เชื่อ ผมก็บอก แบบนี้ต้องโดนซักวัน เวรกรรม...
ประโยชน์เยอะเหมือนกันน่ะครับ Ai แบบนี้ แต่พอมองกลับไปดูผลเสีย มันก็อันตรายเยอะเหมือนกัน
Thanks!
เป็นคลิปที่ย่อยง่ายและประโยชน์มากๆเลยค่ะ ขอบคุณนะคะ ❤
นึกถึงเทรนด์นี่เลยพี่
This is my voice 5 minutes in AI training
.
This Is mY vOiCe 15 mInuTeS in AI tRAIning
.
.
.
ThIs iS… That not more than one bottle of wine ~
อยากรู้ว่าทำไม ปีนกลเครื่องบินทำไมต้องเหมือนกับว่าต้องหันหัวไปที่เป้าจึงจะยิงโดน ระบบมันเป็นอย่างไรอยากรู้ครับ
ฟังคลิปหลายอันแล้ว Advvanced แต่เข้าใจได้ดีครับ
ยิ่งทรัพยากรในการเทรนยิ่งเยอะ Quality ยิ่งดี เว้นแต่เซ็ตผิด อีกทั้งยิ่งเทรนนานยิ่งมีประสิทธิภาพสูง พอ มีข้อมูลเยอะ เวลาเทรนเยอะ และ อุปกรณ์ดี มันก็ยิ่งเทรนได้เยอะ พอจะใช้Realtime ต้องใช้เทรนที่สูง
คุณอาร์มพอจะรู้เรื่อง Deep learning บ้างไหมคะ // ส่วนตัวทำงานเกี่ยวกับ MRI ค่ะ สองปีมานี่ Deep learning มาแรง อยากจะได้การอธิบายแบบเข้าใจง่ายๆบ้างค่ะ 😊
โอเคครับ ตัดเสียงจากคลิปนายอาร์มไปเทรนนี่แหละ55555
แล้วถ้าแบ่งการเทนออกเป็น 2 ชุด โดยการให้เทน้ำสียงสูงต่ำที่คนสามารถพูด แล้วค่อยเทในโทนเสียงได้ไหม ครับ
ผมคงใช้การแทรน ai
เพื่อสร้างความน่าเชื่อถือขึ้นอีกหน่อย
เช่น แทรนเสียงพิธีกร เพื่อหลอกประชาชน
ว่าคุณได้รางวัลมือถือนะ
แต่ต้องโอนภาษี ณ ที่จ่าย
พอโอนปุ๊บก็เข้าอิหรอบเดิมเลย
โอนแล้วโอนอีกจนหมดตัวไป
เอามาทำเรียลไทม์ ถ้าคนทีปลอมเสียงได้เก่งๆอยู่แล้ว จะเหมือนยิ่งขึ้นครับ แต่การจะปลอกเพื่อนหรือญาติก็ต้องเก็บข้อมูลเยอะ สร้างสถานการณ์แวดล้อมด้วย อนาคตน่ากลัวมากครับ สุดท้าย มีสติ ตรวจสอบทุกข้อมูลอย่างรอบคอบ รีเชคให้ดีๆ ขอให้ทุกคนปลอดภัยจากขยะสังคมพวกนี้นะครับ
สำหรับผมนะถ้าเป็นคนที่เราสนิทด้วยจริงๆ จะแยกออกครับสำเนียงมันต่างกันราวหนึ่ง ความคิดเห็นส่วนตัวนะครับ แต่ก็ค่อนข้างจับยากพอตัวครับ
แบบนี้เหล่าสตรีมเมอร์น่าจะโดนปลอมง่ายที่สุดนะ อย่างช่อง 9arm liveทีนึงเป็น ชมๆ อยู่แล้ว
จะเอากี่sample ก็ดูดจากไลฟ์ได้เลย
ตอนป.5ไม่ชอบดูพี่อาร์มเพราะช่องดูมีสาระดูไม่สนุก ตอนนี้ไม่ดูช่องอื่น เพราะดูพี่อาร์มแล้วสนุกชห. สนุกจริงจากใจจัดๆ (10ปีเอ๊ง)
โคนันใช้มานานแล้วนะครับ
ถ้าคุยกันผ่าน VoLTE ก็จะมีคุณภาพเสียงที่ดีขึ้นกว่าคุยโทรศัพท์ธรรมดา อันนี้ก็น่าระวังอยู่บ้าง
รอเห็นไลฟ์ collabเลยครับ Techcast,9arm,HRK ลองเทรนสดๆ😂😂😂😂😂 จะรั่วแค่ไหน ผมรอดูอยู่ครับ
คุณอาร์มอาจจะโฟกัสที่คุณภาพเสียงมากเกินไปรึเปล่าครับ ในทางปฏิบัติเสียงคุณภาพต่ำก็สามารถใช้ได้แล้วครับ ในการหลอกลวง(ยอมรับว่าการปลอมเสียงตอนนี้อาจจะยังไม่คุ้มครับ) จินตนาการว่าใช้เสียงกากๆอัดจากทรส. แต่ไปใส่เสียง noise พวกพัดลม, เสียงรถ ต่างๆ ก็สามารถกรบความไม่เนียนได้แล้วครับเช่นมีข้ออ้างว่ารถชนการใส่ noise เสียงรถก็ทำให้หลอกง่ายขึ้น คือผมมองว่า social engineering สำคัญกว่าคุณภาพเสียงครับในการหลอกเป้าหมายอาจจะ ไม่ได้เน้นคุณภาพเสียงอย่างเดียว (แต่ก็เน้นคำเดิมครับว่าอาจจะต้องทำกับเป้าหมายที่มีเงินเยอะหน่อยเพราะเสียเวลามากๆ)
ที่ผมลองฟัง มันไม่เหมือนสัญญาณไม่ค่อยดี มันเหมือนเสียงสังเคราะห์ๆน่ะครับ แต่คิดว่าก็พอหลอกคนไม่ค่อยรู้เรื่องได้ แต่ถ้าแบบนั้นพูดเสียงจริงไปเลยใส่ Noise เยอะๆหน่อยก็น่าจะหลอกได้เหมือนกัน
คือที่ว่ามาผมเห็นด้วยครับ ถ้าไม่สนคุณภาพเสียง จริงๆไม่ต้องใช้ ai แล้วอ้างเป็นหวัดจะง่ายกว่าครับ
คุณภาพเสียงต้นฉบับไม่ดี มันพาลจะทำให้สำเนียง และลักษณะการพูด การเน้นคำมันไม่เหมือนตัวจริงไปด้วยครับ
แต่ละพื้นที่จะมีสำเนียงต่างกันไป ลองมาหลอกคนภาคเหนือแต่ใช้คำศัพท์และสำเนียงไม่ถูกมันก็ไม่ได้ผลละ
อยากให้พูดถึงเรื่อง Optimus gen2 ของ Tesla ครับ😂
ขนลุกเลยครับ
อยากให้นายอาร์ม ทำsample ไล่โน๊ต โดเรมีฟาซอลลาที... แบบ1นาทีแล้วเทรนค่ะai ให้ดูหน่อยค่ะ
ไหนๆก็มาเรื่องเสียงแล้ว อยากฟังต่อยอดจากเรื่องสายแลนครับ คือลำโพงเสียงดีกับไม่ดีเพราะอะไร😅😅
จริงคับ
ความรู้ยามเช้าตรู่
ดูแล้วก็เริ่มสงสัยว่าถ้าพี่อาร์มบอกว่าถ้าผ่านสัญญาณโทรศัพท์เฮิร์ซก็เท่ากัน แล้วถ้าผ่านแบบโทรไลน์ เฟส etc. จะมีความต่างมั้ยคะ
นึกถึง episode "Joan is awful" ใน Black mirror se6 เลย อีกหน่อยนักร้อง คนดัง โดนโคลนเสียงเอาไปใช้ในทางล่อแหลม ปลุกปั่น น่ากลัวนะ ต้องมานั่งพิสูจน์กันอีกว่าเสียงจริงหรือ AI แต่กว่าจะพิสูจน์ได้คนก็เชื่อไปแล้ว
ผมว่าคุณอาร์มคุยเรื่องเทคโนโลยีได้ครับ ยังไงก็มีคนทำสู้บอกให้ระวังล่วงหน้าก็ดี
เท่าที่รู้มา Realtime มีมานานแล้วครับ เกือบ 1 ปีแล้วครับ เท่าที่รู้นะครับนี่เลย
Realtime Voice Changer by w-okada
ส่วนเรื่อง จะแปลงแบบ Real-time เนี่ย vga ต้องแรงมากๆถึงจะแบบ Real-time จริงๆมาก
ผมเอามาเล่นกับเพื่อนอยู่ช่วงนึง แต่เดี๋ยวนี้ไม่ได้เล่นแล้วครับ 55555😂
แล้วถ้าเรามีตัวอย่างเสียงของคนๆนึงสัก1-5นาทีซัก20 30เสียง เอามาตัดต่อรวมกันแล้วเทรน AI ได้มั้ยครับ น่าจะได้ความยาวพอใช้ได้อยู่ ..ถ้าตอบในคลิปไปแล้วต้องขออภัยฟังไปด้วยทำงานไปด้วยอาจจะตกหล่น
รายการ faceoff ของ workpoint ทำ realtime ได้ยังไงคับ
จริงๆ พอฟังแล้วไม่ได้คิดว่ามิจจะมาหลอกเอาเสียงเราไปก้อปปี้ใช้งานนะ แต่ผมคิดว่ามิจจะเอาเสียงคนดังๆ เช่นพิธีกร ยูทูปเบอร์ ฯลฯ แล้วแปลงแบบเรียลไทม์เพื่อไปหลอกชาวบ้านอีกต่อนึงน่ะสิ สมมติว่าวันนึงมีพิธีกรดังที่เราคุ้นเคยเสียงเขาผ่านทีวีบ่อยๆ โทรมาหาเราชวนให้ทำนู่นนี่นั่น อ่ะ เช่นทำบุญละกัน ถ้าเราไม่คิดอะไรอาจจะหลงกลไปแล้วก็ได้
เสียงอาจจะสามารถ ทำได้ แต่วิธีการพูดของแต่ละบุคคล คือสิ่งที่ทำไม่ได้ครับ
ก็คงต้องระวังตัวกันแหละ มิจฉาชีพคงไม่ขออนุญาตก่อนเอาเสียงไปเทรน จริงๆก็ไม่ต่างจาก ai วาดรูปเท่าไหร่ ถึงมีนักวาดเก่งๆ ในอนาคตก็โดนเอาสไตล์ไปเทรนอยู่ดี เหมือนแค่เป็นดาต้าให้คนอื่นกอบโกยผลประโยชน์ มันน่าเศร้าเนาะ
ทำเรื่อง เสาสัญญาณโทรศัพท์ อันตรายต่อมนุษย์ไหม อยากรู้มากครับว่าเป็นเรื่องจริงไหม มีงานวิจัยอะไรไหม แล้วข่าวนี้ออกมาตั้งแต่เมื่อไหร่นะครับ
ปัจจุบันสามารถเลียนเสียงแบบ real time ได้แล้ว โดยใช้ AI (เหมือนตั้งแต่ต้นเสียงยันหางเสียง)
AI ที่ใช้ก็เป็น open source ด้วย แถม AI ที่ใช้ train model ก็ open source เหมือนกัน
การ train ตัวโมเดล จำเป็นต้องใช้เสียงที่ไม่มี background ถึงจะได้คุณภาพดี
แต่นั่นก็ไม่ใช่ปัญหา เพราะปัจจุบัน มันก็มี AI ที่ตัดเสียง noise เสียง background ได้
เช่นเสียงพี่เอก ที่เสียงแกจะมี background เป็นเสียงเกมตลอด ก็สามารถ ตัดเสียงเกมออกได้
ส่วนภาษาก็มีผล เพราะมันจะส่งผลต่อสำเนียง
ในเว็บบอร์ดก็มีคนแจก model เสียงของ youtuber คนไทยหลายคน (โดยไม่ได้รับอนุญาต)
ขอsource หน่อยครับ source = trust me bro ไม่เอานะครับ55555
โห อยากลองทำบ้างจัง
ผมเห็นในดิสvoiceAI มีโมเดลเสียงพี่อามผมลองแล้วเหมือนเปะเลยพี่ไปลองโหลดมาดู😂
ช่องนี้โคตรคุณภาพค่ะ
สมมุติว่ามิจ เอาเสียงคนดังไปนั่งเทรนแบบเนียนๆ เนียบๆ แล้วเอามาหลอกคนทั่วไปอย่างนี้ก็น่ากลัวนะครับ เช่นเอาเสียงพี่ไปเทรนมาหลอก ว่าผมได้รับรางวัล หลอกเอาข้อมูล แบบนี้ก็เป็นไปได้นะครับ
ถ้าแบบนี้เราเทรนเสียงเราเองแล้วไปใช้แบบแปลงเป็นภาษาต่างประเทศอย่างผมพูดไทย แล้วให้ AI แปลงเป็นภาษาญี่ปุ่นแบบเรียลไทม์ได้ใม๊ครับ มันจะต่างกับการใช้ goolgle translate รึเปล่าครับ
ปล. ถ้าสมมุติคู่สนทนาผมใช้เอไอเทรนแบบเดียวกัน ผมจะสามารถคุยกับคู่สนทนาแบบเรียลไทม์รู้เรื่องโดยที่เราไม่ต้องเข้าใจภาษาเค้ารึเปล่าครับ?
ไม่ต้องเป๊ะก็ได้ แค่มีบางคำที่ใช่และโทนเสียงใช้หลอกเหยื่อได้ ก็ถือว่าประสบความสำเร็จ และต่อให้เทรนเสียงได้เป๊ะ แต่ลักษณะการคุยปกติก็ใช่ว่าจะทำได้ง่ายๆ 🤭🤭🤭
ดังนั้นคนที่เสี่ยงโดนเอาเสียงไปเทรนมากที่สุด คือเหล่าคนดัง ดารา สตรีมเมอร์ทั้งหลายสินะ มี sample เสียงหลายชั่วโมงให้ในอินเตอร์เน็ตแล้ว ในอนาคตถ้าจะเป็นไปได้คือการปลอมเสียงคนดังเหล่านี้ทักไปหาคนรู้จักหรือผู้ติดตามแล้วหลอกเงิน อันนี้ดูเป็นไปได้มากกว่า
เออ เพิ่งนึกได้ 9arm ถ้าเป็นเพลงละ! มันมี app karaoke อยู่ ถ้าเอาเพลงไปเทรนละ 9arm กับ techcast ลองเทสหน่อย
OPZ TV - Billie Jean ของแท้ลองไปฟังพี่อาร์ม55555555
พี่อาม อยากให้เล่าเรื่อง v2k หน่อยครับ
การโดนเทรนเสียงผ่านโทรศัพท์แทบจะเป็นไปไม่ได้ เสียงทางสัญญาณมันไม่ได้ชัดขนาดนั้น นอกจอกจะเป็นเสียงที่อัดเอาไว้ หรือเสียงจาก vdo
เรื่องเทคโนโลยีโอเคครับ แต่การวิเคราะห์ช่องทางที่มิจฉาชีพจะเอาไปใช้มันกว้างมันน่ากลัวกว่านั้นเยอะ แล้วการหลอกคนไม่ใช่ว่าหลอก 100 ต้องได้ 100 หรือได้ 50 100 ได้ 1 ก็สำเร็จสำหรับมิจแล้ว
ยามเช้า !!!
เอาเสียงนักการเมืองตอนที่พูดยาวๆ ในสภาไปเทรนได้ เช่น ตอนนายกพูดวันก่อนในการอภิปรายงบ พูดยาวเป็นชั่วโมง
ปกติตอนนายกพูด ไม่มีใครประท้วงเหมือนตอนฝ่ายค้านพูดด้วยนะ
เราไม่ได้พูดถึงแค่เทคโนโลยีในวันนี้อ่ะสิคะแอด ถ้าเขาอัดเสียงเราเก็บไว้ใช้เทรนในอีก 2 ปีข้างหน้า มันอาจจะมีอะไรให้ได้สะพรึงกว่านี้อีก.. ทุกวันนี้เริ่มไม่อยากโพสต์รูปลง facebook แล้วค่ะแอด
9arm ทำอาหารใน Facebook เต็มเลย
แต่เทรน เพื่อใช้ทำ podcast อะงี้ก็ได้ใช่ไหม
10mins sample เสียงเหมือน pyttsx3 library ใน python มากเลยคับ
ทำได้แต่ ทำตอนนี้ยากกว่าไม่คุ้มค่าเวลาที่จะทำ และอนาคตอาจจะได้เข้าใจถูกมั้ย
เอาจริงๆจะกลัวเขาเอาเสียงเราไปเทรน AI กันทำไม ในเมื่อมีเสียงคนดังมากมายเต็มโลกออนไลน์ เป็นร้อยๆชั่วโมงให้เทรนชิลๆ ส่วนเราที่เป็นใครที่ไหนก็ไม่รู้ ผมมองว่ามิจที่มันมีสมองสักหน่อยไม่น่ามาเสียเวลามายุ่งกับเราหรอก
ถ้าเป็น Lamda เวอร์ชั่นปัจุบันจะเนียนไหมนะ
แล้วถ้าพวกอินฟูที่มี video ใน youtube ให้เทรนมากมาย อันนี้น่าจะอันตรายอยู่นะครับ
พี่ครับอยากถามว่าพวกแอพธนาคารที่ให้ยืนยันตัวตนแล้วถ่ายหน้า บางธนาคารในแอพจะถ่ายหน้าเราหลายๆสี คือมันช่วยอะไรหรอครับ พอดีเห็นแล้วสนใจอยากนำไอเดียไปพัฒนาโปรเจคครับ หรือมีใครรู้บ้างไหมครับ
ถึงเอไอ จะยังเอาเสียงที่คุยไปเจนได้ไม่ขนาดนั้น แต่เป็นกุศโลบาย ที่เอาไว้ไปหลอกให้ ผู้ใหญ่ ไม่โดนหลอก หลงไปคุยนานๆ แล้วโดน โน้มน้าวใจ มันง่ายกว่ามาอธิบาย นู้นนี่นั่น ที่สุดท้าย เค้าไม่เข้าใจ
พอเห็นคำว่า "ถ้ารู้ตัวว่าเป็นมิจฉาชีพ อย่าพูดนานด่านาน เดี๋ยวมิจฉาชีพจะเอาเสียงไปให้AIปลอมเสียง" ในหัวผมคิดทันทีว่า หรือจะเป็นมิจฉาชีพมันเหนื่อยหน่ายที่โดนรู้ทันแล้วโดนด่ากลับหลอกกลับโดนต้อนเหมือนเป็นของเล่น เลยแกล้งปล่อยมุขนี้ออกมาขู่ว่าถ้ารู้ว่าเป็นมิจฉาชีพให้รีบวาง อย่าไปด่าอย่าไปเล่น
Ai จะหลอกแดกตังเพื่อนและครอบครัวของคุณไม่ได้ ถ้าเพื่อนและครอบครัวของคุณไม่มีตังเหมือนกัน😂
ผมเชื่อว่าพวกแก๊งคอลมันคงเอาไปใช้งาน
เพราะผมสังเกตุว่า เสียงคนที่โทรมาที่รับบทเป็นตำรวจมันคงไม่เสียเวลาโทรหาเราแค่คนเดียวแน่ๆ แต่มันสุ่มโทรครั้งละหลายๆสายโดยใช้เสียงตำรวจคนเดิม