TNN เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram

TNN

Tech

เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram

เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram

Meta ประกาศขยายโครงการ ‘Take It Down’ เพิ่มบริการภาษาไทย เพื่อปกป้องและยับยั้งการเผยแพร่รูปเปลือยภายของเยาวชนอายุต่ำกว่า 18 ปี ร่วมกับพันธมิตรในประเทศไทย

Facebook ประเทศไทย จาก Meta ประกาศขยายโครงการ Take It Down ในประเทศไทย เพื่อปกป้องไม่ให้ภาพถ่ายของวัยรุ่นและเยาวชนที่มีอายุไม่เกิน 18 ปี ไม่ให้เผยแพร่สู่โลกออนไลน์ ด้วยการเข้าถึงการควบคุมและยับยั้งผ่านบริการของ Take It Down ไม่ว่าจะเป็นภาพเปลือย ภาพเปลือยบางส่วน หรือภาพอนาจาร โดยการเพิ่มบริการในภาษาไทย พร้อมจัดงานแถลงข่าวประกาศเปิดตัว ณ สำนักงาน Meta ประเทศไทย ในวันที่ 19 มีนาคมที่ผ่านมา


โครงการ Take It Down กับการจัดการ “ภาพโป๊” วัยรุ่น

แพลตฟอร์ม ‘Take It Down’ ได้รับการพัฒนาขึ้นโดยศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) และสนับสนุนโดยเทคโนโลยีที่พัฒนาขึ้นโดย Meta  ที่พัฒนาขึ้นเพื่อให้บริการลบรูปภาพส่วนตัวออกจากอินเทอร์เน็ต เพื่อป้องกันไม่ให้เกิดการเผยแพร่ต่อบนโลกออนไลน์ สำหรับผู้ที่มีอายุ 18 ปีหรือต่ำกว่า 


ในปัจจุบัน โครงการได้พัฒนาบริการให้ครอบคลุมกว่า 25 ภาษาทั่วโลกและขยายการดำเนินงานในหลากหลายประเทศเพิ่มเติมรวมถึงในประเทศไทย ทำให้สามารถเข้าถึงวัยรุ่นจำนวนหลายล้านคนทั่วโลก ซึ่ง Meta ประกาศเป็นหนึ่งในเจตนารมณ์ของบริษัทในการต่อสู้กับอาชญากรรมในรูปแบบการขู่กรรโชกทางเพศ (Sextortion) 


มาลีนา เอนลุนด์ ผู้จัดการฝ่ายนโยบายความปลอดภัยประจำภูมิภาคเอเชียแปซิฟิก กล่าวว่า “การถูกนำภาพส่วนตัวไปเผยแพร่เป็นเรื่องที่เลวร้ายมาก โดยเฉพาะสำหรับเด็กและเยาวชน และสถานการณ์จะยิ่งเลวร้ายกว่าเดิม หากมีใครก็ตามข่มขู่ว่าจะนำภาพส่วนตัวของพวกเขาไปเผยแพร่ หากเหยื่อปฏิเสธที่จะแชร์รูปภาพโป๊เปลือยเพิ่ม หรือมีกิจกรรมทางเพศด้วย หรือแม้แต่การส่งเงินให้ ซึ่งเป็นส่วนหนึ่งของรูปแบบอาชญากรรมที่เรียกว่าการขู่กรรโชกทางเพศ”


วิธีการใช้งานบริการ Take It Down

บริการ Take It Down สามารถใช้งานได้หลากหลายวิธี ไม่ว่าจะเป็นเพื่อการค้นหาและลบรูปภาพส่วนตัวออกจากอินเทอร์เน็ต หรือการช่วยยับยั้งการเผยแพร่รูปภาพส่วนตัวเหล่านั้นบนโลกออนไลน์ตั้งแต่แรก โดยมีขั้นตอน ดังนี้ 


  1. 1. เข้าไปยังเว็บไซต์ TakeItDown.NCMEC.org และคลิก “เริ่ม”
  2. 2. ตอบคำถามสั้น ๆ เพียงไม่กี่ข้อ
  3. 3. เลือกรูปภาพหรือวิดีโอในอุปกรณ์ของคุณที่คุณรู้สึกกังวลว่าอาจปรากฏอยู่ บนโลกออนไลน์
  4. 4. แพลตฟอร์ม Take It Down จะกำหนดลายนิ้วมือดิจิทัลที่ไม่ซ้ำกันซึ่งเรียกว่าค่าแฮชให้กับรูปภาพหรือวิดีโอภาพเปลือย
  5. 5. ค่าแฮชจะถูกแชร์ไปยังแพลตฟอร์มออนไลน์ที่เข้าร่วมเพื่อสามารถนำไปตรวจหาได้ว่ามีรูปหรือวิดีโอเหล่านั้นอยู่บนแพลตฟอร์มหรือไม่ และลบเนื้อหาหรือยับยั้งการเผยแพร่สื่อเหล่านั้นต่อไป

เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram

กระบวนการทั้งหมดนี้จะไม่มีการนำรูปภาพหรือวิดีโอออกจากอุปกรณ์ของผู้ร้องเรียนและไม่มีผู้ใดได้เห็นภาพ นอกจากนี้ ผู้ร้องเรียนไม่จำเป็นต้องเปิดเผยข้อมูลส่วนบุคคลอีกด้วย


โดยบริการดังกล่าวเปิดให้บริการใช้งานฟรีสำหรับเด็กและเยาวชนที่มีอายุต่ำกว่า 18 ปี รวมถึงผู้ปกครองหรือผู้ใหญ่ที่ได้รับความไว้วางใจจากเด็กและเยาวชนในการจัดการกับรูปภาพส่วนตัวในนามของพวกเขา ผู้ใหญ่ที่กังวลว่ารูปภาพส่วนตัวของตนเองที่ถูกถ่ายไว้ก่อนอายุ 18 ปีถูกเผยแพร่ หรืออาจถูกเผยแพร่บนโลกออนไลน์ก็สามารถใช้งานได้เช่นกัน


เทคโนโลยีที่จัดการไม่ให้ภาพโป๊เพื่อการขู่กรรโชกและหาผลประโยชน์

บริการ Take It Down ทำงานด้วยเทคโนโลยีที่สร้างจากแพลตฟอร์ม StopNCII (หยุดการแพร่ระบาดของภาพส่วนตัวที่ไม่ได้รับการยินยอม) ซึ่ง Meta ได้เปิดตัวไปเมื่อปี 2021 ร่วมกับหน่วยงานไม่แสวงหาผลกำไรกว่า 70 องค์กรทั่วโลก เพื่อให้ความช่วยเหลือแก่ผู้ใหญ่ที่ตกเป็นเหยื่อของการถูกแชร์ภาพส่วนตัวบนโลกออนไลน์หรือการโดนแก้แค้นด้วยการโพสต์ภาพโป๊เปลือย (Revenge porn)


ในขณะที่ฝั่ง Meta ได้ใช้เทคโนโลยีและการจัดการใน 4 รูปแบบ ได้แก่

  1. 1. การตรวจจับภาพและวิดีโอที่มีเนื้อหาละเมิดทางเพศในเด็กหรือ CSAM (Child Sexual Abuse Material) จากโปรไฟล์ และภาพที่ผู้ใช้งานที่รายงานเข้ามา
  2. 2. การใช้ AI ตรวจจับคำที่มีความเกี่ยวข้องกับเนื้อหา CSAM
  3. 3. การใช้ AI ตรวจจับกิจกรรมผิดปกติ การเข้าถึงเนื้อหา และพฤติกรรมที่ส่อแววว่าเกี่ยวข้องกับ CSAM โดยข้อมูลในระบบหลังบ้าน หรือที่เรียกว่าเมตาดาตา (Metadata) 
  4. 4. การใช้คนทำงานร่วมกับระบบเรียนรู้ด้วยตัวเองของโปรแกรม (Machine Learning) เพื่อคัดกรองเนื้อหาให้เข้มข้นมากขึ้น พร้อมกับประสานหน่วยงานต่าง ๆ ต่อไป


ทั้งนี้ TNN Tech ได้ถามภายในงานว่าการตรวจจับนั้นครอบคลุมไปถึงการสนทนาส่วนตัว หรือกลุ่มการสนทนาในแพลตฟอร์มหรือไม่ ซึ่งมาลีนา เอนลุนด์ ได้ให้ข้อมูลว่าการตรวจจับจะไม่สามารถถูกตรวจจับได้ เนื่องจากเป็นการละเมิดสิทธิส่วนบุคคล ซึ่งมาลีนาเปรียบเสมือนการที่ตำรวจจะค้นบ้านก็จำเป็นต้องมีการแสดงหมายจับก่อน ไม่เช่นนั้นจะเป็นการละเมิดพื้นที่ส่วนบุคคล ดังนั้น หากพบเห็นการส่งต่อภาพโป๊ ภาพอนาจารเด็กวัยรุ่นในการสนทนาจึงควรร้องเรียนทางระบบเพื่อให้ดำเนินการตามขั้นตอน


การบังคับใช้กฎหมายและการจัดการกับ “ภาพโป๊” วัยรุ่น

จากการเสวนาภายในงาน หัวข้อ “ปกป้องเยาวชนจากภัยขู่กรรโชกทางเพศ” ของ Meta ได้เปิดเผยข้อมูลการบังคับใช้มาตรฐานชุมชนของ Meta ในช่วงตุลาคม-ธันวาคม ปี 2023 ที่ผ่านมา พบเนื้อหาที่ละเมิดกฎและเกี่ยวข้องกับการแสวงหาผลประโยชน์ทางเพศกับเด็กทั่วไปแล้วกว่า 16 ล้านเนื้อหา บน Facebook และกว่า 2.1 ล้านเนื้อหาบน Instagram โดยมากกว่าร้อยละ 98 ของเนื้อหาที่พบถูกจัดการก่อนเผยแพร่ด้วยการตรวจจับจาก AI ของ Meta ก่อนการรายงานโดยผู้ใช้


ในขณะเดียวกัน พ.ต.อ.รุ่งเลิศ คันธจันทร์ ผู้กำกับกลุ่มงานต่อต้านการล่วงละเมิดทางเพศต่อเด็กทางอินเทอร์เน็ต บก.ตอท.บช.สอท. ผู้เข้าร่วมเสวนากล่าวว่า “ปี 2023 ที่ผ่านมา มีการจับกุมดำเนินคดีไปแล้วกว่า 549 คดี แต่ปัญหาเรื่องสื่อที่มีการล่วงละเมิดทางเพศต่อเด็กทางออนไลน์ยังคงแพร่ระบาดอย่างหนัก ความร่วมมือระหว่างหน่วยงานผู้บังคับใช้กฎหมายและภาคเอกชนและแพลตฟอร์มจึงเป็นปัจจัยสำคัญในการแก้ปัญหาให้มีประสิทธิภาพและมีความรวดเร็วมากขึ้น”


วีรวรรณ มอสบี้ ผู้ก่อตั้งและผู้อำนวยการประจำโครงการฮัก ประเทศไทย หนึ่งในพันธมิตรด้านความปลอดภัยของ Meta กล่าวเสริมว่า “ เมื่อมีเหตุการณ์อาชญากรรมล่วงละเมิดทางเพศเด็กในรูปแบบการขู่แชร์ภาพโป๊เปลือยเกิดขึ้น แปลว่าผู้เสียหายได้เข้าสู่สภาวะวิกฤติของชีวิต ดังนั้น การทำงานแบบร่วมมือกันอย่างใกล้ชิด ไม่ว่าจะเป็นจากภาครัฐและเอกชน และโดยเฉพาะการสนับสนุนจากหน่วยงานสื่อโซเชียลจากทุกแพลตฟอร์มจึงเป็นเรื่องสำคัญยิ่ง”


ข้อมูลและภาพจาก Meta

ข่าวแนะนำ