Tags:
Node Thumbnail

ทีมวิจัย Stanford Internet Observatory ระบุพบโพสต์เกี่ยวกับการล่วงละเมิดเด็ก (CSAM) จำนวนมากใน Mastodon แพลตฟอร์มโซเชียลมีเดียกระจายศูนย์

ในการศึกษาครั้งนี้ ทีมวิจัยพบ 112 เซิร์ฟเวอร์ (instance) ที่มีเนื้อหาเกี่ยวกับ CSAM จาก 325,000 โพสต์บน Mastodon ในเวลาเพียง 2 วัน และพบเนื้อหาจำนวน 554 โพสต์ที่มีแฮชแท็กหรือคีย์เวิร์ดที่กลุ่มผู้ล่วงละเมิดทางเพศมักใช้ทางออนไลน์ อ้างอิงจาก Google SafeSearch

ทีมวิจัยกล่าวว่า ปัญหาการแพร่หลายของโพสต์เกี่ยวกับ CSAM นั้นเป็นปัญหาใหญ่สำหรับโซเชียลมีเดียกระจายศูนย์มากกว่าโซเชียลมีเดียแบบรวมศูนย์ เช่น Twitter, Instagram หรือ YouTube เนื่องจาก โซเชียลมีเดียกระจายศูนย์ยังขาดเครื่องมือสำหรับจัดการกับปัญหาด้านความปลอดภัยของเด็ก รวมถึงไม่มีกลไกรายงาน CSAM ไปยังองค์กรด้านความปลอดภัยของเด็กที่เกี่ยวข้อง

ที่มา : The Verge

Get latest news from Blognone

Comments

By: tom789
Windows Phone
on 26 July 2023 - 12:23 #1290382

ควบคุมไมได้เหรอ

By: iamfalan
iPhoneAndroidWindows
on 26 July 2023 - 12:40 #1290392 Reply to:1290382

ไม่ได้ครับ
มันก็เหมือน webboad สมัยก่อน แต่ละคนเปิด server ของตัวเอง สิ่งที่ต่างคือ เราไปกด like/follow รวมถึงเห็น feed ของ server อื่นได้

ซึ่งในแง่การควบคุมมันยากกว่าแบบรวมศูนย์ที่บอกคนๆ เดียว ทีเดียว แล้วเค้าก็คอยดูให้
อันนี้คุณต้องไปนั่งไล่ฟ้องคนที่เปิด server เหล่านั้นแทน ก็ยากกว่า แต่ไม่ใช่ทำไม่ได้

By: schanon
Android
on 26 July 2023 - 13:39 #1290406
schanon's picture

อิสระไร้การควบคุมแบบบิทคอยน์

By: N Pack on 27 July 2023 - 21:39 #1290572
N Pack's picture

ผมขอตินิดหนึ่งนะครับ
หัวข้อ-->นักวิจัย
เนื้อหา -->ทีมวิจัย
สำหรับผมที่เข้าใจ นักวิจัยคือคนเดียวที่หาเจอ
ทีมวิยจัยคือหลายๆคนช่วยกันหา