LadyMirror รู้ทุกเรื่องของผู้หญิง | แฟชั่น ไลฟ์สไตล์ บิวตี้ ความงาม และอื่นๆ
LadyMirror รู้ทุกเรื่องของผู้หญิง | แฟชั่น ไลฟ์สไตล์ บิวตี้ ความงาม และอื่นๆ

‘Deepfake Porn’ ภัยเงียบบนโลกออนไลน์ ที่อาจทำร้ายผู้หญิงโดยไม่รู้ตัว

คงต้องมีสักครั้งที่เราต่างก็เคยลองเสิร์ชชื่อตัวเองขำๆ ในเสิร์ชเอนจินอย่าง Google เพื่อดูว่าผลลัพธ์จะออกมาเป็นอะไร เช่นเดียวกับนักศึกษาวิชากฎหมาย โนเอล มาร์ติน (Noelle Martin) วัย 18 ที่ลองเสิร์ชชื่อตัวเองดูบ้าง แต่แล้วก็ต้องช็อกหนัก เมื่อเป็นภาพตัวเธอไปปรากฏในหนังโป๊! ด้วยการใช้ Deepfake หรือเทคโนโลยีปลอมแปลงใบหน้า

“ฉันเห็นคลิปวิดีโอตัวเองกำลังมีเพศสัมพันธ์ โดยที่ใบหน้าของนักแสดงในร่างเปลือยเปล่าคนนั้นคือใบหน้าของฉันเอง” เธอกล่าว

แอคเคาต์บนโซเชียลมีเดียของมาร์ตินก็เหมือนกับคนทั่วไปที่เอาไปแชร์ภาพและเรื่องราวต่างๆ เธอไม่รู้เลยว่าใครเป็นคนนำภาพเธอไปตัดต่อแบบนั้น หรือว่าทำไมถึงเลือกเธอ

“ฉันไม่ใช่บุคคลสาธารณะ ไม่ใช่เซเลบริตี้ เป็นแค่คนธรรมดาๆ จากเมืองเพิร์ธ ออสเตรเลียเท่านั้น” มาร์ติน กล่าวกับ CBSN Originals “แล้วฉันก็ไม่ได้เคยมีแฟน หรือแฟนเก่าที่จะมาทำอะไรแบบนี้กับฉันด้วย”

เธอพยายามติดต่อทั้งเจ้าหน้าที่ตำรวจ นักสืบเอกชน และหน่วยงานของรัฐฯ หลายต่อหลายแห่ง แต่ก็ไม่สามารถหาคนมารับผิดชอบได้ เพราะเมื่อภาพถูกเผยแพร่ออกไปในโลกออนไลน์ ก็ยากที่จะจับมือใครดม

เธอติดต่อแม้กระทั่งกับเว็บไซต์ที่เผยแพร่ภาพของเธอโดยตรง แต่ผลลัพธ์ที่ได้กลับดูเหมือนว่าจะแย่ลงไปอีก “บางคร้ังเขาก็ยอมลบภาพฉัน แต่อีกสองอาทิตย์ถัดมา ภาพนั้นก็กลับมาอีก” เธอเล่า “มีครั้งหนึ่งที่เขาตกลงจะลบภาพนั้นให้ ถ้าฉันส่งภาพเปลือยของตัวเองไปให้เขาภายใน 24 ชั่วโมง”

ความพยายามของมาร์ตินที่จะจัดการกับภาพโป๊ตัดต่อโดยที่เจ้าของภาพไม่ยินยอมนั้นไม่เป็นผล และภาพนั้นก็ยังคงลอยวนอยู่ในโลกอินเทอร์เน็ตต่อไป

“มันเป็นอะไรที่น่ากลัว เป็นการลดทอนคุณค่าความเป็นมนุษย์ น่าอับอาย และรู้สึกเหมือนถูกล่วงละเมิด ที่เห็นภาพตัวเองกำลังทำอะไรแบบนั้น ทั้งที่ไม่ได้ทำ” เธอบอก

ช่วงเวลาหลายปีที่ผ่านมา ต้องยอมรับว่าเทคโนโลยีปัญญาประดิษฐ์ หรือ AI พิสูจน์แล้วว่ามันได้เข้ามาเป็นส่วนหนึ่งในชีวิตประจำวันของเรา เช่นเดียวกับ Visual Effects ต่างๆ ที่ใครก็ใช้ได้งานได้ง่ายๆ เพียงแค่ปลายนิ้วกด

‘Deepfake’ เป็นอีกหนึ่งเครื่องมือที่สามารถเปลี่ยนใบหน้าหรือแม้แต่น้ำเสียงของคนคนหนึ่งให้เป็นใครก็ได้ ทั้งในภาพนิ่งและภาพเคลื่อนไหว โดยการลอกเลียนบุคลิก ท่าทางของคนคนนั้นได้อย่างน่าทึ่ง หากไม่สังเกตดีๆ ก็แทบจะแยกไม่ออกว่านี่คือของจริง หรือเป็นการใช้ Deepfake ตัดต่อขึ้นมากันแน่

แรกเริ่มเดิมที Deepfake ถูกใช้เพื่อสร้างความบันเทิงสนุกๆ เท่านั้น แต่ในภายหลัง ดูเหมือนว่า Deepfake จะเริ่มเลยเถิดไปเรื่อยๆ เพราะไม่ได้มีแค่ดาราหรือคนดังในกระแสเท่านั้นที่ถูกนำไปตัดต่อใบหน้าและน้ำเสียง แต่ยังลามไปถึงผู้นำทางการเมือง บุคคลสำคัญระดับประเทศ หรือผู้บริหารองค์กรใหญ่ๆ ระดับโลก ที่ถูกตัดต่อใบหน้า ปลอมแปลงน้ำเสียงหรือคำพูดที่เขาไม่ได้กล่าว และเผยแพร่ข้อมูลอันเป็นเท็จออกไป จนอาจนำไปสู่ความเสียหายที่ยากจะคาดเดา

ซึ่งหนึ่งในบรรดาผู้ที่ตกเป็นเหยื่อของเทคโนโลยี Deepfake แบบไม่รู้ตัว ก็คือ ‘ผู้หญิง’  

ในปี 2019 องค์กรด้านความมั่นคงทางไซเบอร์ ชื่อว่า Deeptrace รายงานว่า กว่า 96% ของเทคโนโลยี Deepfake ถูกนำมาใช้ในสื่อลามกอนาจาร และเว็บโป๊สาย Deepfake Porn 5 อันดับต้นๆ นั้นก็มีเป้าหมายเป็นผู้หญิงนั่นเอง

Adam Dodge นักกฎหมาย และผู้ก่อตั้ง ‘endtab’ องค์กรที่ทำงานด้านการคุกคามทางเทคโนโลยี เปิดเผยว่า ตั้งแต่มีสิ่งที่เรียกว่า Deepfake เข้ามามีบทบาท มันก็พุ่งเป้าไปที่เหยื่อซึ่งมักเป็นผู้หญิง โดยทีมกฎหมายของ Dodge ได้เริ่มจัดการกับสื่อลามกอนาจารที่ใช้ภาพตัดต่อ Deepfake ของบรรดาเซเลบริตี้คนดังมาตั้งแต่ปี 2018 แล้ว “มันไม่สามารถมองเป็นอย่างอื่นได้เลย ไม่ใช่ว่า เออ ดีนะ เอาใครมาใส่ในหนัง Star Wars ก็ได้ อะไรแบบนั้น แต่มันคือาวุธร้ายกาจทางเทคโนโลยีที่ทำร้ายผู้หญิงและเด็กโดยตรง”

ถึงอย่างนั้น Dodge ก็บอกว่า ขั้นตอนการดำเนินการทางกฎหมายก็ยังล่าช้าเกินไปในการจะปกป้องผู้หญิงจากภัยคุกคามเหล่านี้ “ในหลายๆ ประเทศ สื่อลามกอนาจารที่ไม่ได้รับการยินยอมจากเจ้าของสื่อนั้นเป็นเรื่องผิดกฎหมาย แต่ถึงจะเป็นหนังโป๊ที่รู้ว่าใช้วิธีการ Deepfake กฎหมายที่มีอยู่ก็ไม่สามารถเอาผิดผู้เผยแพร่ได้อยู่ดี เพราะมันมีช่องว่างที่ว่า บุคคนที่ปรากฏในภาพหรือสื่อนั้นไม่ใช่เจ้าของร่างกายนั้นจริงๆ เป็นแค่ใบหน้าของพวกเขา สื่อชิ้นนั้นจึงไม่เข้าข่ายพอที่จะเอาผิดทางกฎหมาย”

เมื่อไม่นานมานี้ หนุ่มใหญ่ชาวญี่ปุ่นผู้ใช้เทคโนโลยี AI ตัดต่อเอาเซนเซอร์ในหนังโป๊ออกให้กลายเป็นหนังชัดแจ๋วไร้การเซนเซอร์ และนำไปขาย ทำรายได้ราว 11 ล้านเยน หรือกว่า 100,000 ดอลลาร์สหรัฐฯ ก็เพิ่งถูกจับฐานความผิดละเมิดลิขสิทธิ์และเผยแพร่ภาพลามกอนาจาร โทษจำคุก 2 ปี และปรับเป็นเงินกว่า 2,500,000 เยน แม้คดีนี้ถือเป็นคดีความผิดเกี่ยวกับการใช้ AI คดีแรกในญี่ปุ่น แต่ถึงอย่างนั้น ญี่ปุ่นก็ยังไม่ได้มีกฎหมายอาญาเอาผิดกับผู้ที่ใช้ AI ในสื่อลามกอนาจารโดยตรง

ส่วนในบ้านเรา มีเพียงกฎหมายที่เอาผิดผู้ครอบครอง ผลิต และจำหน่ายสื่อลามกอนาจารเด็ก ที่มีโทษจำคุกหนัก 5-7 ปี และมี พ.ร.บ.ว่าด้วยการกระทำความผิดทางคอมพิวเตอร์ 2560 ที่บอกว่า การนำข้อมูลที่มีลักษณะอันลามกเข้าสู่ระบบคอมพิวเตอร์มีความผิด จำคุกไม่เกิน 5 ปี ปรับไม่เกิน 100,000 บาท หรือทั้งจำทั้งปรับ

แต่สำหรับประเทศไทย การครอบครองสื่อลามกอนาจาร ‘ผู้ใหญ่’ ไม่ถือเป็นความผิด หากไม่ได้มีวัตถุประสงค์เพื่อการค้า เพราะถือว่าเป็นเรื่องของรสนิยมของแต่ละบุคคล และที่สำคัญก็ยังไม่มีข้อกฎหมายใดที่เฉพาะเจาะจงสื่อลามกที่ใช้เทคโนโลยี AI อย่างในกรณี Deepfake Porn เช่นนี้เลย

ด้านผู้ก่อตั้งเว็บโป๊รายหนึ่งที่ขอใช้นามแฝงว่า ดอม (Dom) ยอมรับว่า เว็บไซต์ของเขาเน้นไปที่การเผยแพร่หนังโป๊ Deepfake ของดารา-เซเลบฯ โดยเฉพาะ

“กับคนดังผมไม่ได้รู้สึกแย่นะ” เขากล่าว “ผมว่าการที่เขาเป็นบุคคลสาธารณะ ก็ต้องมีวิธีรับมือกับอะไรพวกนี้อยู่แล้ว และคิดว่าคนดังเขาคงรู้ๆ อยู่ว่ามันต้องมีคนจินตนาการถึงเขาในแง่อย่างว่าบ้างล่ะ”

ดอมสร้างแพลตฟอร์มของตัวเองขึ้นมา หลังจากเคยเผยแพร่คอนเทนต์ลงในเว็บไซต์ Reddit ก่อนที่ Reddit จะมีมาตรการแบนหนังโป๊ประเภท Deepfake ที่ไม่ได้รับการยินยอมจากเจ้าของภาพ ซึ่งดอมเผยว่าเว็บไซต์ของเขามีผู้ชมกว่า 350,000 คนต่อวัน เลยทีเดียว

ขณะที่ตัวเว็บไซต์เน้นไปที่การปลอมแปลงใบหน้าเหล่าคนดังให้มารับบทวาบหวิว แต่ภายในนั้นก็ยังมี ‘ตลาด’ ซื้อขายกันลับๆ ระหว่างครีเอเตอร์กับลูกค้าที่ต้องการงาน Deepfake ของคนทั่วๆ ไปที่ไม่ใช่คนดังด้วยเหมือนกัน “อะไรมันก็ทำกันลับหลังได้ ผมก็อาจจะไม่รู้ แอดมินเขาก็ไม่รู้ จะไปตรวจจับทุกอย่างไม่ได้หรอก” ดอม กล่าว

เขาเองก็รู้สึกไม่ดีนักกับคนที่ตกเป็นเหยื่อในหนังโป๊แบบไม่เต็มใจเหล่านี้ และถึงแม้จะมีความยากในการไล่จับอย่างที่เขาว่าจริงๆ แต่ถ้าพบว่ามีหนัง Deepfake ที่นำภาพของคนทั่วไปมาใช้โดยไม่รับการยินยอมจากเจ้าของภาพ เขาจะทำการแบนทันที อย่างไรก็ตามเขาก็ยังเชื่อว่าสื่อที่เขามีอยู่ทั้งหมด ล้วนแต่เป็นงานตัดต่อหรืองานปลอมที่ทำขึ้นมา จึงไม่ได้ลังเลที่จะเผยแพร่มันบนโลกออนไลน์

“ตราบใดที่ผู้ชมเห็นชัดว่ามันเป็นงานปลอมที่ทำขึ้นมาเพื่อความบันเทิง และไม่คิดว่ามันเป็นเรื่องจริงอะไร มันก็ยังเป็นโอกาสทองของผมอยู่”

แต่สำหรับเหยื่อของหนังโป๊ปลอมแปลงเหล่านั้น การถูกใช้เป็นเครื่องมือหากินในสื่อออนไลน์อาจไม่ได้น่าประทับใจเลยสักนิด

“ที่สุดแล้วพวกเขาก็ตกเป็นวัตถุทางเพศโดยที่ไม่ได้ยินยอม ไม่ว่าจะรูปภาพหรือวิดีโอที่สร้างขึ้นหรือแชร์ต่อๆ กัน มันก็ทำให้คนดูเชื่อไปแล้ว แล้วก็เป็นเรื่องอันตราย เพราะพวกเขาไม่ได้รู้สึกดีเลยที่มันถูกเผยแพร่ออกไปแบบนั้น” มาร์ติน กล่าว

เธอบอกว่าการตกเป็นเหยื่อการคุกคามในโลกออนไลน์ได้เปลี่ยนชีวิตเธอไปอย่างมาก

“มันปล้นเอาโอกาสในชีวิตของคุณไป มันพรากเอางาน เอาความหวัง เอาความฝันไปหมด” เธอกล่าว “ฉันฝันอยากเป็นทนายมาตลอด นั่นเป็นสิ่งเดียวที่ฉันอยากทำ แต่ทั้งชื่อเสียง ทั้งภาพลักษณ์ที่เสียไป ยากมากที่ฉันจะหางานได้”

ตั้งแต่ที่มาร์ตินเจอกับภาพปลอมแปลงของเธอครั้งนั้น เธอก็กลายมาเป็นผู้สนับสนุนเหยื่อที่เจอประสบการณ์การเข้าไปอยู่ในสื่อลามกอนาจารโดยไม่เต็มใจบนโลกออนไลน์คล้ายๆ กันกับเธอ แต่ขณะเดียวกัน การออกมาพูดเรื่องนี้ ก็ยิ่งทำให้เธอตกเป็นเป้าการคุกคามหนักขึ้นด้วยเหมือนกัน

“เพราะการที่ฉันออกมาพูดนี่แหละ ผู้กระทำความผิดเลยยิ่งเผยแพร่คลิปปลอมของฉันออกมาอีก เหมือนยิ่งออกมาพูดเรื่องนี้มากเท่าไร ยิ่งทำให้คนอยากรู้อยากเห็นในสิ่งที่คุณไม่อยากให้เขาเห็นมากขึ้นเท่านั้น”

ถึงแม้ว่าสิ่งเหล่านี้จะกดดันมาร์ตินให้เงียบและล้มเลิกความพยายาม เมื่อปี 2017 เธอก็ได้ทำหน้าที่ผลักดันให้ออสเตรเลียมีกฎหมายเอาผิดทางอาญากับผู้ที่คุกคามด้วยภาพหรือสื่อต่างๆ อย่างจริงจังเสียที

อย่างไรก็ตาม ความพยายามของเธอในหลายปีที่ผ่านมา ย่อมมีราคาที่ต้องจ่ายไปไม่น้อย

“เป็นประสบการณ์ชีวิตพังเลยละค่ะ” มาร์ติน กล่าว “หลายครั้งฉันเคยคิดว่า สิ่งที่ฉันกำลังต่อสู้ มันทำให้ฉันเจ็บปวดมากกว่าทำให้เข้มแข็งและลุกขึ้นยืนได้ใหม่เสียอีก มันเกือบจะทำลายฉันจนหมดสิ้นจริงๆ”

อ้างอิง:

https://www.cbsnews.com/news/deepfake-porn-woman-fights-online-abuse-cbsn-originals/

https://www.rt.com/news/537869-japanese-man-arrested-deepfake/?_trms=03534d9c99527e90.1642666257894

https://justicechannel.org/criminal/cyber-sexual-harassment

http://libdoc.dpu.ac.th/thesis/Teerayuth.Pob.pdf

https://ilaw.or.th/node/3849 

Author

NAT LELAPUTRA

Related Stories

“ถ่ายรูปไปฝากให้เพื่อนน้ำลายไหล” ไม่มีเจตนาคุกคามทางเพศจริงๆ ใช่ไหม จากกฎหมายห้ามแอบถ่ายในเกาหลีใต้ ถึงกรณีอธิการ ม.ดัง แอบถ่ายแอร์โฮสเตส

life

“ถ่ายรูปไปฝากให้เพื่อนน้ำลายไหล” ไม่มีเจตนาคุกคามทางเพศจริงๆ ใช่ไหม จากกฎหมายห้ามแอบถ่ายในเกาหลีใต้ ถึงกรณีอธิการ ม.ดัง แอบถ่ายแอร์โฮสเตส

MIRROR'sGuide