Tags:
Node Thumbnail

แอปเปิลเปิดตัวระบบสแกนภาพถ่ายเพื่อหาภาพอนาจารเด็ก (child sexual abuse material - CSAM) บน iPhone และ iPad อย่างเป็นทางการ พร้อมกับเพิ่มระบบบล็อคคำค้นที่เกี่ยวข้องกับภาพโป๊เด็กบน Safari และ Siri ทั้งบน Apple Watch, iPhone, iPad, และ Mac ตรงตามที่ Matthew Green นักวิจัยความปลอดภัยไซเบอร์นำข้อมูลมาเปิดเผยเมื่อวานนี้

ระบบสแกน CSAM จะทำงานสแกนภาพก่อนจะอัพโหลดขึ้น iCloud เท่านั้น โดยแอปเปิลระบุว่าเป็นการรักษาความเป็นส่วนตัวของผู้ใช้เนื่องจากไม่ต้องการไปสแกนภาพบนคลาวด์โดยตรง เมื่อสแกนแล้วจะสร้างรายการภาพที่ตรงกับฐานข้อมูลภาพโป๊เด็กจากหน่วยงานรัฐ เรียกว่า safety voucher แล้วอัพโหลดขึ้น iCloud ไปพร้อมกับภาพ

เมื่อภาพอัพโหลดขึ้น iCloud จะตรวจสอบว่าจำนวนภาพที่ตรงกับฐานข้อมูลเกินกำหนดหรือยัง หากเกินแล้วจะมีพนักงานของแอปเปิลมาตรวจสอบ และหากยืนยันว่าเป็นภาพโป๊เด็กจริงก็จะรายงานหน่วยงานที่เกี่ยวข้องต่อไป

No Description

ก่อนหน้านี้เคยมีข่าวว่าแอปเปิลยกเลิกโครงการเข้ารหัสไฟล์บน iCloud แบบ end-to-end เปิดทางให้หน่วยงานรัฐสามารถขอข้อมูลผู้ใช้จากแอปเปิลโดยตรงได้ การสร้างระบบแจ้งเตือนที่ซับซ้อนเช่นนี้จึงดูไม่จำเป็นนัก เพราะในความเป็นจริงแอปเปิลก็สแกนภาพบน iCloud ได้โดยตรง แต่กระบวนการที่ซับซ้อนเหล่านี้ช่วยให้แอปเปิลมั่นใจได้ว่าพนักงานที่เกี่ยวข้องจะไม่เข้าไปดูข้อมูลผู้ใช้โดยไม่จำเป็น

กระบวนการสแกนภาพใช้อัลกอริทึม NeuralHash ที่สามารถจับภาพได้แม้ถูกแปลงบางส่วน เช่น การหมุนภาพ, เอากล้องมาถ่ายภาพจากหน้าจอ, หรือการวางลายน้ำทับภาพ

นอกจากการสแกนภาพแล้วแอปเปิลยังอัปเดต Siri และ Safari ให้แจ้งเตือนผู้ใช้เมื่อพยายามค้นหาด้วยคำที่เกี่ยวข้องกับภาพอนาจารเด็ก พร้อมกับขึ้นลิงก์สายด่วนให้ความช่วยเหลือผู้มีความคิดและพฤติกรรมเสี่ยง แอปเปิลเตรียมอัพเดตใส่ฟีเจอร์นี้บน iOS, iPadOS, watchOS, และ mac OS ภายในปีนี้

ที่มา - Apple

Get latest news from Blognone

Comments

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 08:49 #1218561
lew's picture

ปัญหาสำคัญคือแอปเปิลกำลังทำให้โทรศัพท์กลายเป็นเครื่องมือตรวจสอบพฤติกรรมผู้ใช้

วันนี้ภาพ (ที่กำลังอัปโหลด) วันต่อไปจะมีอะไรอีก ภาพยังไม่ได้อัปโหลด, ตรวจสอบคำสำคัญในแชต (ที่ประกาศมาก็มีตรวจคำสำคัญใน search แล้ว)


lewcpe.com, @wasonliw

By: NoppawanConan
ContributoriPhoneAndroidWindows
on 6 August 2021 - 09:47 #1218576 Reply to:1218561
NoppawanConan's picture

ถ้าใช้ได้แค่ใน US ก็ไม่น่าจะมีปัญหาหรอกครับ แต่กลัวเรื่องเดียว กลัวฝั่ง Android ของ Google จะเอากับเขาด้วย โดยเฉพาะรูปใน Google Photo / Drive / Search

แต่สำหรับกรณีภาพโป๊เด็ก พูดยากอยู่นะครับ มันเป็นปัญหาเรื้อรังมานานของที่นั่น จึงต้องออกมาตรการเฉพาะของที่นั่นมา แต่ทั้งนี้ต้องดูกระแสด้วยว่าจะมีการโต้กลับยังไงบ้าง


แค่มนุษย์คนนึงที่อยากรู้เกี่ยวกับวงการไอที

By: wichate
Android
on 6 August 2021 - 09:45 #1218577 Reply to:1218561

Apple กำลังวางโครงสร้างเพื่อ "ปกครอง" ประชาชนครับ
และในอนาคตกฏของ Apple จะกลายเป็นบรรทัดฐานที่สังคมทั่วโลกต้องปฏิบัติตาม
สุดท้ายแล้วมนุษย์จะกลายเป็นส่วนหนึ่งของ Ecosystem ที่เขาอยากให้เป็น

By: oRicHalZiNe
iPhone
on 6 August 2021 - 10:30 #1218592 Reply to:1218577

อาจจะต้องย้อนกลับมาว่า การตรวจสอบการทำผิดกฎหมายที่มีลักษณะเฉพาะ (ในที่นี้คือภาพโป๊เปลือยเด็ก) เป็นสิ่งที่ควรจะให้มี เพื่อแลกมากับการไม่เป็นส่วนหนึ่งของ Ecosystem หรือไม่ครับ ซึ่งผมมองว่าส่วนนี้เป็น Dilemma หนึ่ง ทั้งๆ ที่จริงๆ แล้วมันเกิดขึ้นจากเหตุการณ์ที่คนหมู่น้อย ไม่เคารพกฎเกณฑ์ที่ตั้งไว้ร่วมกัน ทำให้ต้องเกิดการค้นหาเชิงรุกขึ้น

ถ้า Ecosystem ที่เค้าอยากให้เป็น เป็นเหมือนประเทศที่ดีในแง่ของการที่มี Detective Control ที่ดี เพื่อให้คนทุกคนอยู่ร่วมกันได้อย่างมีความสุข (?) แค่มีความหวาดกลัว (?) ว่าจะโดนจับได้ว่าทำผิด (?) แล้วส่งผลให้คนทำผิดโต้งๆ น้อยลง (แต่ไปทำแบบหลบมากขึ้น?) แบบนี้อาจจะดีแล้ว (ก็ได้?)

ส่วนตัวผมสนับสนุนการให้คนกลัวทำการผิดครับ ถ้าอนาคตคนใกล้ตัวผมต้องประสบปัญหาจากการถูกละเมิด เนื่องจากการควบคุมส่วนนี้ถูกปัดตกไป จังหวะนั้นก็คงรู้อะไรไม่สู้รู้งี้ละครับ

ในทางกลับกัน ถ้าการตรวจสอบนี้ทำให้เกิดการละเมิดความเป็นส่วนตัวของคนหมู่มาก ก็ควรจะต้องมีการจัดตั้งส่วนของผู้ตรวจสอบการใช้ข้อมูลนี้อีกที แต่จากประสบการณ์ของผมที่ใช้ Apple มา ผมขาดความรู้ไปมากเลยครับว่า Apple ใช้ข้อมูลเราไปทำอะไรบ้างที่ละเมิดความเป็นส่วนตัว

By: delytezz
iPhoneWindows
on 6 August 2021 - 13:22 #1218637 Reply to:1218561

+1 ครับ Apple กำลังทำตัวเหมือน US ยุคก่อน Trump ที่พยายาม Acting เป็นตำรวจโลก

By: pepporony
ContributorAndroid
on 6 August 2021 - 09:05 #1218563

พร้อมกับขึ้นลิงก์สายด่วนให้ความช่วยเหลือผู้มีความคิดและพฤติกรรมเสี่ยง

อ๊ะ Thought Police

By: Sephanov
iPhoneUbuntu
on 6 August 2021 - 09:10 #1218565
Sephanov's picture

ไม่โอนะ ผมว่ารุกล้ำเรื่องส่วนตัวมากเกินไป ยิ่งการเซนเซอร์คำ มันก็ไม่ต่างอะไรกับ GFW ของจีนเลย ฟีเจอร์นี้ควรถูกเลือกใช้ปฏิบัติตามภูมิภาคของกฎหมายมากกว่า

By: Pingz
ContributoriPhone
on 6 August 2021 - 09:15 #1218566 Reply to:1218565

child sexual abuse มันก็ไม่ใช่เรื่องส่วนตัวขนาดนั้นนะครับ ยิ่งฝ่ายถูกกระทำไม่มีปากเสียงด้วย

By: Kazu
iPhoneWindows PhoneAndroidUbuntu
on 6 August 2021 - 09:27 #1218568 Reply to:1218566

แต่การจะตีตราให้ทุกคนบนโลกเป็นผู้ต้องสงสัยchild sexual abuseไว้ก่อน ก็ไม่น่าจะใช่รึปล่าว

By: Bntrnc
iPhoneBlackberry
on 6 August 2021 - 10:09 #1218588 Reply to:1218568

+1

By: Iceywinchester on 6 August 2021 - 13:27 #1218639 Reply to:1218568
Iceywinchester's picture

+1

By: b00m.kl on 6 August 2021 - 09:27 #1218569 Reply to:1218566

+1

By: pepporony
ContributorAndroid
on 6 August 2021 - 10:14 #1218590 Reply to:1218566

ที่ห่วงกันไม่ใช่แค่ child porn ครับ วันนี้สแกน child porn วันหน้าสแกนอะไรอีกบ้าง? เพราะมีช่องทางมาแล้ว

ถ้าบอกว่า "ไว้ใจ Apple" ก็ไม่ต่างอะไรกับเวลาหน่วยงานราชการบอกให้ไว้ใจ จะใช้แค่จับคนผิดนี่แหละ

By: iamgotta
AndroidSymbianWindows
on 6 August 2021 - 09:39 #1218573 Reply to:1218565

"Features available in the U.S."

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 10:06 #1218585 Reply to:1218573
lew's picture

จุดที่ดอกจัน คือฟีเจอร์บล็อคคำค้นของ Siri ครับ ไม่ใช่การสแกนภาพ


lewcpe.com, @wasonliw

By: deaknaew on 6 August 2021 - 10:27 #1218591 Reply to:1218585

แต่เขาใส่ดอกจันทุก feature เลยนะ

By: NoppawanConan
ContributoriPhoneAndroidWindows
on 6 August 2021 - 10:40 #1218594 Reply to:1218591
NoppawanConan's picture

+1 ไปอ่านมาแล้ว ใช่ครับ ดอกจันหมดเลย


แค่มนุษย์คนนึงที่อยากรู้เกี่ยวกับวงการไอที

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 10:42 #1218595 Reply to:1218591
lew's picture

โอ๊ะ เจอล่ะครับ ใส่ดอกจันได้ด้านล่าง


lewcpe.com, @wasonliw

By: arth
iPhoneWindows PhoneWindows
on 6 August 2021 - 11:13 #1218604 Reply to:1218591

อาจจะทำเพราะต้องร่วมมือกับรัฐก็ได้นะครับ
จริงๆ ในเนื้อหานี้น่าจะเขียนระบุไปด้วยนะครับเนี่ยว่าเฉพาะ US

By: Important on 6 August 2021 - 09:27 #1218570
Important's picture

ถ้าไม่ได้ทำผิดก็ไม่เห็นต้องกลัวอะไร ... วนกลับมาที่คำนี้ อีกแล้วหรือ?

By: rainhawk
AndroidWindows
on 6 August 2021 - 09:37 #1218571
rainhawk's picture

แค่จุดเริ่มต้น ต่อไปไม่รู้แอบตรวจอะไรอีก
ไม่เชื่อว่าหรอกแค่ตรวจสอบ Child Porn
ละเมิดสิทธิส่วนตัวเกินไป นี้ Apple หรือ SJW / คอมมี่จีน

By: deaknaew on 6 August 2021 - 09:42 #1218572

รอดูโดนด่า
ปล.1 มาใน iOS 15
ปล.2 เหมือนจะใช้แค่ใน US

By: mr_tawan
ContributoriPhoneAndroidWindows
on 6 August 2021 - 09:47 #1218579
mr_tawan's picture

น่าสนใจตรงที่ แล้วมันจะมีปัญหาเรื่องของเชื้อชาติหรือเปล่า แบบผู้ใหญ่เอเซียดันดูเหมือนเด็กยุโรป แล้วระบบแยกไม่ออก อะไรแบบนี้ครับ

แต่เค้าน่าจะเทรนมาดีแล้วล่ะมั้ง


  • 9tawan.net บล็อกส่วนตัวฮับ
By: darkleonic
ContributorAndroidWindowsIn Love
on 6 August 2021 - 10:00 #1218583 Reply to:1218579
darkleonic's picture

ข่าวต่อไป : นักแสดงหนังผู้ใหญ่ฝ่ายหญิงต้องคัพ C ขึ้นไป....


I need healing.

By: iqsk131 on 6 August 2021 - 11:08 #1218599 Reply to:1218579

ฟังดูจากเทคนิคคือจะมีลิสของรูปอยู่แล้วตรวจสอบว่ารูปที่เรามีมัน match ในลิสนั้นไหมนะครับ

เพราะงั้นปัญหาดังกล่าว ถ้าเขาไม่เพิ่มรูปที่ว่าเข้าไปในฐานข้อมูลก็ไม่น่าจะมีปัญหาอะไร

"ถ้าเขาไม่เพิ่ม" นะ...

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 11:30 #1218610 Reply to:1218579
lew's picture

ไม่น่าเกี่ยวอะไรกับเชื้อชาติเลยครับ เพราะเป็นการหาภาพคล้ายกับภาพในฐานข้อมูล ก็ขึ้นกับว่าฐานข้อมูลมีภาพอะไรประเภทไหนบ้าง

อย่าง NeuralHash ตอนทำงานวิจัยนี่ใช้หาภาพวัตถุได้ด้วย มันไม่ใช่การพยายาม detect จากลักษณ์ภาพ (หาภาพเด็กต่ำกว่า 18 มีลักษณะอนาจาร) แต่เป็นการหาภาพที่เหมือนภาพในฐานข้อมูล

ผมสงสัยว่าฐานข้อมูลมันจะใหญ่แค่ไหน อาจจะต้องตัดเฉพาะภาพที่ยัง active มีการแชร์กันอยู่ หรืออยู่ระหว่างการช่วยเหลือเหยื่อ


lewcpe.com, @wasonliw

By: mr_tawan
ContributoriPhoneAndroidWindows
on 6 August 2021 - 12:49 #1218627 Reply to:1218610
mr_tawan's picture

ขอบคุณสำหรับข้อมูลครับ


  • 9tawan.net บล็อกส่วนตัวฮับ
By: waroonh
Windows
on 6 August 2021 - 09:57 #1218582

ปธน. Xi Jinping ถูกใจสิ่งนี้

By: PandaBaka
iPhoneAndroidWindows
on 6 August 2021 - 10:45 #1218593
PandaBaka's picture

พึ่งทราบแฮะว่ามันไม่เข้ารหัสแบบ end to end แล้ว

แบบนี้คงคุยโม้เรื่องความปลอดภัยไม่ได้แล้วมั้ง เพราะเล่นแสกนได้แบบนี้ iClound คงไม่ปลอดภัยอีกต่อไป เพราะในอนาคตหมายถึงจะขโมยหรือแอบส่องข้อมูลในเครื่องอะไรก็ได้

แล้ววันดีคืนดีระบบรั่ว หรือโดนแฮก คงน่าดูชมพลึก

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 10:54 #1218597 Reply to:1218593
lew's picture

iCloud ไม่เคย end-to-end หนิครับ ที่ end-to-end คือ iMessage


lewcpe.com, @wasonliw

By: pepporony
ContributorAndroid
on 6 August 2021 - 11:08 #1218600 Reply to:1218597

ซึ่งตอนนี้ iMessage ก็ยัง ene-to-end นะ แค่ขอแสกนก่อน end เอ๊งงง

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 11:12 #1218603 Reply to:1218600
lew's picture

ด้วยแนวทางที่ประกาศมา ถ้าอยู่ใน iMessage เฉยๆ ไม่ backup ขึ้น iCloud น่าจะไม่ถูกสแกนนะครับ


lewcpe.com, @wasonliw

By: pepporony
ContributorAndroid
on 6 August 2021 - 11:28 #1218608 Reply to:1218603

ตัว Communication safety in Messages จะสแกนก่อนส่งนี่ครับ ถ้าสมมติ user เป็นผู้เยาว์แล้วส่งรูปใดๆที่ถูก flagged ว่าเป็นภาพโป๊ จะโดนเตือนและถ้าจะส่งจะแจ้งผู้ปกครองเลย (ุถึงแม้ Apple จะบอกว่าทำที่ client-side นะเราไม่เห็นว่าเป็นรูปอะไร)

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 11:32 #1218611 Reply to:1218608
lew's picture

อันนั้นคนละฟีเจอร์ และไม่ได้เปิดทำงานหากไม่ใช้ parental control ครับ

ส่วน CSAM นี่ปิดไม่ได้


lewcpe.com, @wasonliw

By: pepporony
ContributorAndroid
on 6 August 2021 - 11:42 #1218617 Reply to:1218611

อ่าใช่ครับ แต่ผมแค่กังวลว่ามันมีฟีเจอร์ในการสแกน iMessage มาละ ต่อไปก็อาจจะสแกนเนื้อหาอื่นๆ ใน account อื่นๆเพิ่มเติมได้

By: PandaBaka
iPhoneAndroidWindows
on 6 August 2021 - 11:37 #1218615 Reply to:1218603
PandaBaka's picture

น่าจะแสกนได้เกือบทุกรายมั้งครับ เพราะแต่ค่าตั้งต้นถ้าไม่ได้ไปปิดมันคือ backup ขึ้น iClound - -"

By: PandaBaka
iPhoneAndroidWindows
on 6 August 2021 - 11:11 #1218602 Reply to:1218597
PandaBaka's picture

มันมี iCloud Keychain ด้วยครับ

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 11:13 #1218606 Reply to:1218602
lew's picture

อันนั้นน่าจะคนละ layer ครับ ตัว iCloud ไม่ได้ end-to-end แต่เรา (หรือบริการอื่น เช่น keychain) อัพโหลดข้อมูลที่เข้ารหัสไป ตัว iCloud ก็อ่านข้อมูลไม่ได้อยู่ดี


lewcpe.com, @wasonliw

By: jokerxsi on 6 August 2021 - 10:51 #1218596

กินแบตด้วยสินะ

By: Ford AntiTrust
ContributorAndroidBlackberryUbuntu
on 6 August 2021 - 11:07 #1218598
Ford AntiTrust's picture

Apple กำลังทำตัวเกินหน้าที่

By: iqsk131 on 6 August 2021 - 11:10 #1218601

เมื่อเปิดช่องเพื่อให้แสกนอย่างหนึ่งได้แล้ว จะทำให้มันแสกนเพิ่มได้อีกสองสามอย่างก็ไม่ใช่เรื่องยาก

ฟังดูจากเทคนิคแล้ว... มันสามารถเพิ่มรูปใดๆลงไปในฐานข้อมูลแล้วตรวจสอบได้เลยโดยที่ไม่ต้องแก้อะไร และฐานข้อมูลดังกล่าวก็ดูเหมือนจะไม่ได้อยู่ในความดูแลของ Apple ด้วย

By: TeamKiller
ContributoriPhone
on 6 August 2021 - 11:29 #1218609
TeamKiller's picture

มือถือสมัยนี้เหมือนเราไม่ใช่เจ้าของเท่าไร

By: Bluetus
iPhone
on 6 August 2021 - 11:35 #1218612
Bluetus's picture

อ่านรอบแรกตกใจ แต่อ่านอีกที

น่าจะโอเคนะกับการเทียบรูปในลิส ที่มีโอกาสพลิกแค่ หมุนรูปใส่ลายน้ำอะไรแบบนั้น

อีกอย่างคือ US ค่อนข้าง Serious กับเรื่อง Chid Porn อยู่แล้ว

Pornhub ยังลบคลิปไม่เหลือเพราะประเด็น Chid Porn เลย

By: wisidsak
AndroidIn Love
on 6 August 2021 - 11:36 #1218613
wisidsak's picture

อนาคตอาจจะมี รัฐธรรมนูญApple / Facebook / Android

By: S38593
Windows PhoneAndroidWindows
on 6 August 2021 - 11:37 #1218614

เอาจริงๆ ปัจจุบันเค้าสแกนกันอย่างลับๆ อยู่แล้วถ้าเป็น หนังโป๊เด็กนะ

By: Ford AntiTrust
ContributorAndroidBlackberryUbuntu
on 6 August 2021 - 11:44 #1218618 Reply to:1218614
Ford AntiTrust's picture

มีเอกสารที่เค้าว่าว่าทำไหมครับ

By: lew
FounderJusci's WriterMEconomicsAndroid
on 6 August 2021 - 11:53 #1218619 Reply to:1218614
lew's picture

ไม่ลับนะครับ แต่สแกนบน Cloud Storage

ครั้งนี้น่าจะเป็นครั้งแรกที่มาใช้เครื่องผู้ใช้สแกนเอง


lewcpe.com, @wasonliw

By: Asadalak on 6 August 2021 - 12:11 #1218622
Asadalak's picture

ไหนบอกว่า Privacy ของลูกค้า สำคัญมากไง
ขนาด FBI มาขอความร่วมมือยังปฏิเสธเลย

By: 255BB
Android
on 6 August 2021 - 12:36 #1218625

ถ้าเป็นตัวละครอนิเมะไม่ใช่เด็กแต่รูปร่างเล็ก แนวโลลิจะโดนไปด้วยรึเปล่าน่ะ (ไม่มีครอบครองแค่สงสัย)

By: LasPersonas on 6 August 2021 - 12:58 #1218630

แล้วภาพโป๊เด็กเป็นสิ่งผิดกฎหมาย ถ้าตรวจเจอตำรวจสามารถจับได้เลย
ที่ผ่านมาแค่ไม่โดนตรวจเลยไม่โดนจับ apple แค่ทำตามและปกป้องเด็ก
แล้วทำไมคนใน blognone ถึงเต้นกัน
ตามที่เข้าใจน่าจะมีภาพชุดอยู่ก่อนแล้ว หากแสกนแล้วตรงกันภาพนั้นก็จะถือเป็นภาพเข้าข่าย และจะมีการยืนยัน ส่งเรื่องให้ผู้เกี่ยวข้องต่อไป

By: pepporony
ContributorAndroid
on 6 August 2021 - 14:00 #1218649 Reply to:1218630

ที่กลัวกันเพราะเมื่อมีระบบในการสแกนหาแล้ว การจะเพิ่ม "อย่างอื่น" เข้าไปเป็นเรื่องง่ายครับ เช่นเกิดรัฐสั่งให้สแกนหารูปที่เป็นการต่อต้านรัฐ ใบปลิวโจมตีรัฐบาล จะอ้างว่าเข้าถึงข้อมูลคนใช้ iPhone ไม่ได้อย่างแต่ก่อนก็ไม่ได้แล้ว (ซึ่งกรณีนี้ก็อาจจะไปเทียบกับฐานข้อมูลที่มีอยู่แล้วเช่นกัน)

By: aomnaruk
ContributorAndroidUbuntuWindows
on 6 August 2021 - 15:19 #1218668 Reply to:1218649

+65536 มันเป็นการเปิดช่องให้รัฐเข้ามาควบคุมได้ง่ายมากขึ้น


"Those who make peaceful revolution impossible will make violent revolution inevitable." JFK.

By: Elysium
ContributorWindows PhoneSymbianWindows
on 6 August 2021 - 16:01 #1218683 Reply to:1218630
Elysium's picture

แล้วทำไมคนใน blognone ถึงเต้นกัน

ไม่ (น่าจะ) มีใครเต้น เพราะเหตุผลด้านการปกป้องสิทธิของผู้เยาว์

แต่สิ่งที่กังวลกัน คือความสามารถของมัน ที่อาจจะถูกในไปใช้เพื่อการ "อย่างอื่น" มากกว่า ตามที่หลายความเห็นได้ว่าไว้


คนขี้ลืม | คนบ้าเกม | คนเหงาๆ

By: wichate
Android
on 7 August 2021 - 08:34 #1218748 Reply to:1218630

คุณต้องแยกให้ออกระหว่าง "ทำในส่งที่ดี" กับ "ทำเกินหน้าที่" ครับ

(ถ้าทุกคนทำในสิ่งที่ดีกันหมดทั้งโลก ก็ไม่จำเป็นต้องสนใจว่าใครมีหน้าที่ทำอะไรอีกต่อไป)

By: titleds
AndroidUbuntuWindows
on 6 August 2021 - 13:46 #1218644

ผมนึกถึง setting ในอนิเมชั่นญี่ปุ่นเรื่อง Psycho-Pass นะ
มันจะเป็นอย่างไรถ้ามีกระบวนการตัดสินโทษบุคคลก่อนที่เขาจะมีโอกาสก่ออาชญากรรม เมื่อทุกคนจะมีค่าสัมประสิทธิ์อาชญากรรมให้พร้อมถูกสแกนได้ทุกเมื่อ ทุกที่ ทุกเวลา

By: aomnaruk
ContributorAndroidUbuntuWindows
on 6 August 2021 - 15:21 #1218671 Reply to:1218644

อันที่จริงมีภาค the movie ที่ตัวสแกนมันโดนแก้ค่าให้เป็นตรวจค่าสัมประสิทธิ์อย่างอื่นแทนและหลอกว่ามันคือค่าสัมประสิทธิ์อาชญากรรม


"Those who make peaceful revolution impossible will make violent revolution inevitable." JFK.

By: doodeewa
Android
on 9 August 2021 - 13:52 #1218970 Reply to:1218644

ถ้าหนังก็ MINORITY REPORT

By: doodeewa
Android
on 9 August 2021 - 13:52 #1218971 Reply to:1218644

ถ้าหนังก็ MINORITY REPORT

By: Esperanto on 6 August 2021 - 14:16 #1218651

โลกมืดมันมีพลังเยอะ มองแบบวิชาการนะ นี่เป็นจุดเริ่มต้นการล่มสลายของแอพ ซอฟแวร์จะไปอยู่ในลักษณะ wasm มากขึ้น ระบบปฏิบัติการโทรศัพท์เก่าๆอาจถูกนำกลับมาทำต่อ หลักๆมันมีแค่utilitiesพื้นฐานกับweb browserเท่านั้นเอง แอพใช้wasmแทน

By: desmon on 6 August 2021 - 14:30 #1218656

ถ้าเด็กวัยรุ่นถ่ายรูปตัวเองจะไม่โดนใช่ไหม

By: tom789
Windows Phone
on 6 August 2021 - 15:19 #1218669

เอเปิลทำดีแล้ว ปลอดภัยรอยเปอร์เรื่องความเป็นส่วนตัแนนอน
ถ้าค่ายอื่นทำแบบนี้ไมได้หรอก

By: blue111
AndroidUbuntuWindows
on 6 August 2021 - 16:37 #1218687

พอเอามาผูกกับเรื่องภาพอนาจารเด็กแบบนี้ผมล่ะกลัวจริง ๆ ว่าเวลามีคนออกมาวิจารณ์เรื่องความเป็นส่วนตัวจะโดนคนออกมาบอกว่าเพราะแกเป็นพวกชอบดูภาพพวกนี้เลยกลัวล่ะสิ

ทั้งที่จริง ๆ มันน่ากลัวมาก ๆ เลยนะเพราะตอนนี้สิ่งเดียวที่คานอำนาจกับผู้ใช้อำนาจรัฐคือพนักงานที่มาตรวจว่าเป็นภาพอนาจารเด็กจริงมั้ย เพราะจากรายละเอียดการทำงานแล้วผู้ใช้อำนาจรัฐก็แค่เพิ่มภาพเข้าไปในฐานข้อมูลเพื่อใช้สอดส่องได้และอ้างได้ว่าไม่อยากให้คนนอกเข้ามาตรวจฐานข้อมูลเพราะกลัวภาพในฐานข้อมูลหลุดไปได้ด้วยจึงไม่มีใครสามารถรู้ว่าในฐานข้อมูลนั้นมีแต่ภาพอนาจารเด็กจริงหรือไม่ แล้วถ้าหากสามารถซื้อตัวคนตรวจได้นี่เสร็จเลยนะ...

By: xyz123 on 6 August 2021 - 21:42 #1218714
xyz123's picture

ทำไมผมเข้าใจว่าการค้นหาผ่าน hash คือยังเคารพ privacy อยู่นะ คือสุดท้ายก็ยังไม่รู้ว่ารูปมันคืออะไรอยู่ดี เพราะเข้าใจว่าอย่าง internet ของฝั่ง US ทางฝั่ง ISP เขาก็ scan พวก header เป็น hash เพื่อดูว่ามีการวิ่งในรูปแบบ malware/bot/ddos รึเปล่า ถ้าเจอเยอะๆก็จะได้ป้องกันทัน ซึ่งทาง ISP ก็ไม่รู้อยู่ดีว่าคนที่ใช้งาน วิ่งผ่านเว็บอะไร หรือ ข้อมูลวิ่งอะไรแบบไหน

By: Ford AntiTrust
ContributorAndroidBlackberryUbuntu
on 6 August 2021 - 21:47 #1218715 Reply to:1218714
Ford AntiTrust's picture

ปํญหาไม่ใช่วิธีการใช้ค่า hash มาซ่อนข้อมูลจริงครับ

ปํญหาคือระบบส่วนกลางของ Apple หรือองค์กรที่ดูแลข้อมูลตัวนี้ สามารถใส่ค่า hash ใดๆ ที่เราก็ไม่รู้ว่าค่า hash นั้นสื่อถึงข้อมูลที่เป็นภาพโป๊เด็กจริงๆ หรือไม่

อาจจะเป็นข้อมูลรูปภาพบางอย่างที่ส่งไปยังเป้าหมายเพื่อตรวจสอบสอดแนมในระดับรัฐ ซึ่งในโลกนี้อาจจะมีเป้าหมายดังกล่าวเพียงคนเดียวที่จะได้ภาพภาพนั้นที่มีค่า hash ตรงกับในระบบ ซึ่งก็อาจจะเป็นภาพโป๊เด็กที่ทำขึ้นมาเฉพาะ ฯลฯ ก็ได้

By: xyz123 on 6 August 2021 - 21:55 #1218716 Reply to:1218715
xyz123's picture

ปํญหาคือระบบส่วนกลางของ Apple หรือองค์กรที่ดูแลข้อมูลตัวนี้ สามารถใส่ค่า hash ใดๆ ที่เราก็ไม่รู้ว่าค่า hash นั้นสื่อถึงข้อมูลที่เป็นภาพโป๊เด็กจริงๆ หรือไม่

ถ้างั้นคือเราไม่รู้ว่าฐานข้อมูลภาพโป๊เด็กอันนี้มาจากไหน มีหน่วยงานที่เชื่อถือได้แค่ไหนเอามาทำ hash หรือเอาแค่ภาพคนธรรมดามาทำ hash ใช่ไหมครับ?
และต้องมั่นใจว่า algorithm นี้ไม่สร้าง hash ที่ชนกันเยอะเกินไปจนสร้าง false alarm ที่ trigger ให้เจ้าหน้าที่มาตรวจสอบภาพที่ไม่เกี่ยวข้อง

อาจจะเป็นข้อมูลรูปภาพบางอย่างที่ส่งไปยังเป้าหมายเพื่อตรวจสอบสอดแนมในระดับรัฐ ซึ่งในโลกนี้อาจจะมีเป้าหมายดังกล่าวเพียงคนเดียวที่จะได้ภาพภาพนั้นที่มีค่า hash ตรงกับในระบบ ซึ่งก็อาจจะเป็นภาพโป๊เด็กที่ทำขึ้นมาเฉพาะ ฯลฯ ก็ได้

อันนี้คือถ้าเครื่องมือของ Apple อันนี้หลุดขึ้นมา (หรืออาจจะเป็นคนใน Apple ทำเองก็ได้) ไปใช้ในทางที่ผิด ก็จะเป็นปัญหาที่รุกราน privacy ขึ้นมาใช่ไหมครับ?

By: Ford AntiTrust
ContributorAndroidBlackberryUbuntu
on 6 August 2021 - 21:58 #1218717 Reply to:1218716
Ford AntiTrust's picture

ใช่ครับ เป็นปัญหาด้านความน่าเชื่อถือ โปร่งใส โลกเราเคยมีเคสอยู่บ่อยๆ ที่เครื่องมือสอดแนมหลุดจนต้องหาทางป้องกันกันอยู่

By: xyz123 on 6 August 2021 - 22:00 #1218718 Reply to:1218717
xyz123's picture

เห็นภาพชัดขึ้นแล้วครับ ขอบคุณครับ

By: jaideejung007
ContributorWindows PhoneWindows
on 7 August 2021 - 01:04 #1218730
jaideejung007's picture

สรุปฟีเจอร์นี้เฉพาะใน U.S. ใช่ไหม?

รึยังไง?

เพราะไปอ่านต้นทาง บอกว่าเฉพาะ U.S.

By: pepporony
ContributorAndroid
on 7 August 2021 - 06:43 #1218739 Reply to:1218730

ตอนนี้ US แต่เมื่อมีระบบแล้ว หากประเทศอื่นจะออกกฏหมายบอกให้ Apple ทำบ้างในประเทศตัวเองก็คงไม่ยากอะไร

By: tunnnnnn
iPhoneSymbian
on 7 August 2021 - 06:56 #1218742
tunnnnnn's picture

อนาคตถ้าใครใช้ iPhone แปลว่าคบได้ระดับนึง เพราะคนนั้นไม่ดูหนังโป๊เด็ก จบข่าว