Tags:
Node Thumbnail

Matthew Green นักวิจัยความปลอดภัยไซเบอร์ชื่อดัง อ้างแหล่งข่าวไม่เปิดเผยตัวตนหลายรายว่าแอปเปิลกำลังเปิดใช้งานตัวสแกนภาพโป๊เด็กบนไอโฟน

เนื้อหาทางเพศจากการละเมิดเด็ก (child sexual abuse material - CSAM) เป็นประเด็นสำคัญในโลกเทคโนโลยีเนื่องจากเป็นเนื้อหาที่มีความผิดจากการครองครองเพียงอย่างเดียว แต่เทคโนโลยีการเข้ารหัสทุกวันนี้ทำให้กระบวนการตรวจสอบว่าใครครอบครองหรือเผยแพร่เนื้อหาเหล่านี้ทำได้ยากขึ้น

แนวทางการสร้างฐานข้อมูลภาพโป๊เด็กและสแกนหาภาพเหล่านี้บนบริการคลาวด์มีมานานแล้ว โดยไมโครซอฟท์ได้พัฒนาโปรแกรม PhotoDNA เพื่อหาภาพที่ตรงกับฐานข้อมูลมาตั้งแต่ปี 2014 ทั้งกูเกิล, ทวิตเตอร์, และเฟซบุ๊กก็ใช้งานเครื่องมือนี้ แต่ที่ผ่านมายังจำกัดอยู่เฉพาะบริการออนไลน์เท่านั้น หากแอปเปิลนำเครื่องมือนี้มาสแกนบน iPhone จริงก็นับว่าเป็นการนำเครื่องมือมาสแกนบนอุปกรณ์ของผู้ใช้โดยตรงเป็นวงกว้างครั้งแรกๆ

Green ระบุว่าเครื่องมือจะดาวน์โหลดฐานข้อมูลแฮชลักษณะภาพ (perceptual hash) ลงมายังโทรศัพท์ และสแกนหาภาพที่ตรงกับค่าแฮช หากพบภาพที่ตรงจำนวนเกินที่ตั้งไว้ก็จะแจ้งกลับไปยังเซิร์ฟเวอร์แอปเปิล แนวทางนี้ทำให้แอปเปิลสามารถแจ้งเจ้าหน้าที่ได้ แม้ผู้ใช้จะไม่เปิดบริการคลาวด์ใดๆ เพื่อซิงก์ภาพออกจากโทรศัพท์เลยก็ตาม อย่างไรก็ดี Green ระบุว่าในช่วงแรกแอปเปิลจะตรวจสอบค่าแฮชเฉพาะภาพที่แชร์ขึ้นคลาวด์แล้วเท่านั้น แต่การสร้างโปรแกรมเพื่อรันในเครื่องผู้ใช้โดยตรงนั้นก็ไม่น่ามีวัตถุประสงค์อื่นนอกจากต้องการสแกนทุกภาพในเครื่อง

ที่ผ่านมาระบบแชตแบบเข้ารหัสจากปลายทางถึงปลายทาง (end-to-end) เป็นประเด็นถกเถียงกันมากเนื่องจากหน่วยงานรัฐไม่สามารถเข้าถึงข้อมูลในแชตผ่านทางผู้ให้บริการได้ แต่ต้องยึดโทรศัพท์และตรวจสอบข้อความจากโทรศัพท์โดยตรงเท่านั้น แนวทางการฝังโปรแกรมสแกนเนื้อหาและขอให้แจ้งเตือนเมื่อเนื้อหาในโทรศัพท์ตรงตามเงื่อนไขจึงเป็นแนวทางที่หน่วยงานรัฐหลายชาติเสนอให้ใช้งาน หลายปีก่อนโปรแกรม LINE ในจีนก็เคยดาวน์โหลดฐานข้อมูลคำสำคัญเพื่อบล็อคคำต้องห้าม

ที่มา - Hacker News, @matthew_d_green

No Description
ภาพจาก Pexels

Get latest news from Blognone

Comments

By: schanon
Android
on 5 August 2021 - 13:08 #1218495
schanon's picture

ผปค. ที่ถ่ายรูปลูกเต้า AI จะแยกแยะยังไง

By: lew
FounderJusci's WriterMEconomicsAndroid
on 5 August 2021 - 14:14 #1218497 Reply to:1218495
lew's picture

ถ้าไม่ตรงกับฐานข้อมูลก็ไม่น่า match นะครับ อันนี้มันมีการถกเถียงกันเยอะเหมือนกันว่าตัว algorithm มันไม่เปิดเผย (ซึ่งก็ติดข้อจำกัดว่าถ้าเปิดหมด คนร้ายก็แปลงรูปให้หลบได้) เลยกลายเป็นไม่แน่ใจว่าโดน report โดยไม่เป็นธรรมไหม


lewcpe.com, @wasonliw

By: hisoft
ContributorWindows PhoneWindows
on 5 August 2021 - 14:44 #1218504 Reply to:1218495
hisoft's picture

เอ๊ะ ผปค. นี่ถ่ายภาพโป๊ลูกเต้าด้วยเหรอครับ อาจจะเว้นตอนทารกไปหน่อย

By: deaknaew on 5 August 2021 - 14:52 #1218505 Reply to:1218504

ไม่แปลกนะ ฝึกการอาบน้ำลูก อาบน้ำเองครั้งแรก ฯลฯ

By: readonly
iPhone
on 5 August 2021 - 16:03 #1218525 Reply to:1218505
readonly's picture

ทารกคงไม่เข้าเกณฑ์หรอก เอาที่มีประเด็นคือเด็กเล็กแค่ไหนที่บางคนดูแล้วเกิดอารมณ์ทางเพศดีกว่า แล้ววัยเท่านั้นพ่อแม่แบบไหนจะถ่ายรูป โป๊เปลือยของลูกตัวเองเก็บไว้

By: Fourpoint
Windows PhoneAndroidSymbian
on 5 August 2021 - 14:57 #1218509 Reply to:1218504

รูปลูกแก้ผ้าวิ่งในบ้าน หรือกำลังอาบน้ำ คือแบบถอดเสื้อนี่น่าจะมีแน่ๆ มันก็หมิ่นเหม่ว่าถ้าคนในครอบครัวก็ไม่เป็นไร แต่ถ้าคนนอกเห็นก็ไม่เหมาะ เด็ก2-5ขวบก็โตกว่าทารกแล้วล่ะ

By: whitebigbird
Contributor
on 5 August 2021 - 15:16 #1218513 Reply to:1218504
whitebigbird's picture

วันก่อนเพิ่งเข้าไปเตือนแม่ท่านนึงในกลุ่มพ่อแม่บนเฟสบุค โพสท์รูปลูกเค้าเองตอนเด็กๆ ไม่ใส่เสื้อผ้า ดูแล้วก็ไม่น่าเกิน 4 ขวบ ประมาณว่าตลกดี เอ็นดูอะไรประมาณนั้น

ปรากฎว่าผมถูกด่าว่าโรคจิต สักพัก โพสท์ถูกทัวร์คุณพ่อคุณแม่มาเยือนจนต้องลบ ไม่วายคิดว่าตัวเองไม่ผิด

ที่จะบอกคือพ่อแม่บางคนก็ยังไม่ทันโลกอ่ะครับ

By: nessuchan
iPhoneAndroidWindows
on 5 August 2021 - 16:24 #1218528 Reply to:1218513
nessuchan's picture

ผมนี่ต้องเตือนแฟนตลอดเวลาโพสรูปลูก หรือแม้กระทั่งแค่ถ่ายก็ตามที พยายามอย่างน้อยไม่ให้เห็นส่วนนั้น

By: whitebigbird
Contributor
on 5 August 2021 - 21:01 #1218546 Reply to:1218528
whitebigbird's picture

ดีครับที่ช่วยกับคุณแม่ดูแลลูก หายากนะ

By: akira on 5 August 2021 - 16:05 #1218524 Reply to:1218495

มันมีรูปแบบเฉพาะของมันอยู่ ผมว่าเขาน่าจะหาทั้งโครงสร้างทั้ง 3 มิติ (+ มิติเวลาไม่ใช่ความลึก) ลักษณะที่เหมือนกับภาพต้นฉบับ รวมถึงโครงสร้างใบหน้าเพื่อยืนยันตัวเหยื่อด้วย ดังนั้นถ้าเป็นภาพของเด็กที่ไม่ใช่เหยื่อ ก็น่าจะไม่เข้าลักษณะ ยกเว้นหน้าตาดันไปคล้าย หรือเป็นรูปภาพที่ถูกถ่ายในมุมที่ไม่ชัดเจน แต่ถ้าเป็น VDO ไม่น่าจะพลาดเพราะคงต้องมีมิติเวลามาเข้าร่วมตรวจสอบเฟรมด้วย แต่วิธีนี้มีข้อจำกัด คือ ต้องมีต้นแบบต้นฉบับก่อน ดังนั้นถ้าเป็นเหยื่อที่ยังไม่เคยถูกแจ้งความาก่อน น่าจะต้องใช้เทคนิคตรวจสอบลักษณะเฉพาะของรูปแบบ และลักษณะร่างกายในแต่ละเฟรมด้วย ซึ่งผมว่าไม่น่ายากนะ เห็นหลายๆ ที่ก็ทำได้กันแล้ว

By: RyoDaii
Windows PhoneAndroidWindows
on 5 August 2021 - 14:23 #1218498

อยากรู้ว่าถ้าเป็นสาวตัวเล็กหน้าเด็กเฉยๆ กับเด็กโตเกินวัย จะแยกแยะยังไง แล้วสกัดยังไงไม่ให้ผิดพลาด

By: Mars2005
iPhoneWindows PhoneAndroidBlackberry
on 5 August 2021 - 14:44 #1218502
Mars2005's picture

ปัญหา คือ แม้จะเป็นการกระทำเพื่อปกป้องเด็ก หรือกฎหมาย แต่แอปเปิ้ลมีสิทธิ์แค่ไหนที่จะเปิดใช้งานระบบนี้ เพราะแบบนี้ก็เท่ากับแอปเปิ้ลไปละเมิดสิทธิและเสรีภาพและความเป็นส่วนตัวของทุกคนที่ใช้ iPhone ซึ่งต้องถามว่ามันใช่เหรอ

By: deaknaew on 5 August 2021 - 14:55 #1218508

ไม่คิดว่าจะทำนะ เพราะ ถึงแม้จะแจ้งไป apple แล้ว apple จะไปแจ้งตำรวจยังไงต่อ มือถือใช้ทั่วโลก

By: msmgames
iPhoneAndroidBlackberry
on 5 August 2021 - 15:06 #1218510

ผมก็ถ่ายน้องผมตอนอาบน้ำตอน 2ขวบ แบบนี้จะนับไหมนิ 555555

By: PH41
ContributorAndroidUbuntuWindows
on 5 August 2021 - 15:08 #1218511
PH41's picture

ต้นทางของ hash มาจากไหน ก็ต้องมีคนดูแล้วพิสูจย์ว่าเป็นรูปโป้เด็กก่อน คนเหล่านั้นจะไม่โดนกฎหมายใช่ไหม?

By: lew
FounderJusci's WriterMEconomicsAndroid
on 5 August 2021 - 19:25 #1218542 Reply to:1218511
lew's picture

น่าจะรูปแบบเดียวกับ PhotoDNA ที่หน่วยงานกลาง (Interpol) generate hash ออกมาให้นะครับ


lewcpe.com, @wasonliw

By: blackdemon
Windows PhoneAndroid
on 5 August 2021 - 15:18 #1218515
blackdemon's picture

เอามาไว้จัดการพวกขบวนการขายภาพโป๊เด็กรึปล่าวครับ

By: lew
FounderJusci's WriterMEconomicsAndroid
on 5 August 2021 - 15:32 #1218518 Reply to:1218515
lew's picture

ภาพโป๊เด็กนี่ผิดหมด ทั้งซื้อ, ขาย, แจก, ครอบครอง ครับ


lewcpe.com, @wasonliw

By: Witna
ContributoriPhoneAndroidWindows
on 5 August 2021 - 19:58 #1218544

หือ ? ไม่เห็นมีใครพูดถึงเรื่องความเป็นส่วนตัว ???

By: Mars2005
iPhoneWindows PhoneAndroidBlackberry
on 5 August 2021 - 20:50 #1218545 Reply to:1218544
Mars2005's picture

ผมไงพูด แต่ทุกคนดูเหมือนจะทำเป็นมองไม่เห็นจุดนั้น เพราะเป็น Apple

By: pepporony
ContributorAndroid
on 6 August 2021 - 09:06 #1218564 Reply to:1218545

Apple เค้าคิดมาดีแล้วครับ

น่าจะประมาณนี้

By: TeamKiller
ContributoriPhone
on 6 August 2021 - 10:10 #1218589 Reply to:1218545
TeamKiller's picture

เพราะ Apple ทำมุมมองเลยต่างกัน ถ้ากูเกิลทำงี้ หรือบริษัทจีนทำ คนจะไม่ค่อยเชื่อเท่าไรนะครับว่ามันจะดีอย่างที่บอกหรือเปล่า

ซึ่งอีกข่าวก็เป็นการยืนยันเล็กๆ ว่าระบบทำงานบนเครื่อง privacy ระดับหนึง https://www.blognone.com/node/124093