Tags:
Node Thumbnail

ศิลปินร่วมมือกับเอเจนซี่ สร้างคลิป deepfake มาร์ค ซักเคอเบิร์ก โดยใส่คำพูดที่เป็นลางร้ายและเป็นคำพูดที่มาร์คไม่มีทางพูดเองว่า ผู้ที่ควบคุมข้อมูลและขโมยข้อมูลคนเป็นพันล้านคนได้นั้น เป็นเสมือนผู้กุมอนาคตของพวกเขาด้วย

วิดีโอนี้ถูกสร้างขึ้นโดยศิลปิน Bill Poster และ Daniel Howe โดยร่วมมือกับบริษัทโฆษณา Canny ใช้ฟุตเทจ มาร์ค นั่งอยู่หลังโต๊ะ ซึ่งเป็นวิดีโอจริงในสมัยปี 2017 ที่เขาออกมาชี้แจงเรื่องข่าวปลอมแทรกแซงการเลือกตั้ง แต่ใช้เทคโนโลยีการแทนที่เสียงหรือ video dialogue replacement ใส่คำพูดใหม่เข้าไป และปากขยับตามคำพูดนั้น

โดยตัววิดีโอปลอมได้รับการโพสต์ใน Instagram โฆษก Instagram ก้บอกว่าทางแพลตฟอร์มจะปฏิบัติต่อคลิปนี้เหมือนกับคลิปปลอมอื่นๆ ด้านโฆษก Facebook บอกว่า ไม่ได้ลบวิดีโอดังกล่าวออก แต่จะยกเลิกการจัดลำดับความสำคัญวิดีโอเพื่อให้ปรากฏบ่อยๆ ในฟีด

จุดประสงค์ของการทำวิดีโอปลอมมาร์คนี้ อาจกำลังทดสอบนโยบายกำจัดข้อมูลผิดของ Facebook โดยก่อนหน้านี้มีคลิปของ Nancy Pelosi ประธานสภาฯ แพร่ระบาด คือเป็นวิดีโอการพูดในที่ประชุมของเธอที่มีลักษณะยืดๆ เหมือนคนเมา ซึ่งเป็นของปลอมที่ทำขึ้น ดูเวอร์ชั่นของจริงและปลอมเทียบกันได้ ที่นี่ วิดีโอของเธอแพร่ระบาดตามโซเชียล แต่ Facebook ไม่ได้ลบออก เพียงแค่ไม่จัดอันดับและให้บุคคลที่สามมาเช็คข้อมูลอีกทีเท่านั้น คลิปปลอมมาร์ค จึงอาจเป็นการวัดใจ Facebook ว่า รู้ทั้งรู้ว่าปลอม แล้วจะลบออกทันทีหรือไม่

ที่มา - VICE

Get latest news from Blognone

Comments

By: tkmzaa on 12 June 2019 - 08:36 #1114582
tkmzaa's picture

กรณีแบบนี้มันตรวจสอบได้ง่ายหรือเปล่านะ ดูน่ากลัวจัง

By: toooooooon
iPhoneWindows PhoneAndroidBlackberry
on 12 June 2019 - 10:57 #1114633 Reply to:1114582

น่าจะตรวจสอบได้ง่าย เพราะมาจาก คลิปเก่า

By: sdh on 12 June 2019 - 08:56 #1114587

Nancy Pelosi โฆษกทำเนียบขาว

Nancy Pelosi เป็นประธานสภาผู้แทนครับ. speaker หมายถึงประธานสภา, House ไม่ใช่ White House แต่คือ House of Representatives

By: whitebigbird
Contributor
on 12 June 2019 - 09:12 #1114595 Reply to:1114587
whitebigbird's picture

โฆษก Instagram ก้บอกว่า

ก็บอกว่า

แต่จะยกเลิกการจัดลำดับความสำคัญวิดีโอเพื่อให้ปรากฏบ่อยๆ ในฟีด

ยกเลิก เพื่อไม่ให้ปรากฏบ่อยๆ ในฟีด*

By: jomynn on 12 June 2019 - 09:15 #1114597

ถ้ามีผลเสีย จริงๆ ก็ต้องมีการรับผิดชอบนะ

By: nant
ContributorWindows PhoneRed HatUbuntu
on 12 June 2019 - 09:28 #1114602

นึกภึงคำพูดปูติน ใครก็ตามที่ครอบครอง AI คนนั้นครอบครองโลก

By: whitebigbird
Contributor
on 12 June 2019 - 09:41 #1114606
whitebigbird's picture

alt="text"

By: adente
ContributorSUSESymbianWindows
on 12 June 2019 - 13:24 #1114673 Reply to:1114606
adente's picture

เคนก็ดีครับ ยังคิดถึงต้องเป็นนักมวยปล้ำอยู่เลย.... ผิด

By: Pinery
ContributoriPhoneAndroidIn Love
on 12 June 2019 - 10:50 #1114627

เอามาใส่ร้ายป้ายสีได้เลยนะเนี่ย แถมเป็นคลิปถือว่าหลักฐานแน่นหนาได้

น่ากลัวชิบ!

By: i3i4i5
ContributoriPhoneWindows
on 12 June 2019 - 17:10 #1114735 Reply to:1114627
i3i4i5's picture

และในอีกแง่นึง

คลิปที่มีอยู่จริง อาจโดนคนที่เสียผลประโยชน์บอกว่าเป็น "คลิปตัดต่อ DeepFakes" ก็ได้เหมือนกัน ?

By: akira on 12 June 2019 - 11:22 #1114645

ต่อไปใครทำคลิปอะไรไว้ต้องเก็บต้นฉบับ พร้อมกับแสดงวันที่และเวลาไว้ที่ต้นฉบับด้วย ยิ่งในประเทศทีกระบวนการยุติธรรมเป็นระบบกล่าวหาได้นอนมุ้งสายบัวก่อนแล้วค่อยมาแก้ข้อกล่าวหายิ่งลำบาก เพราะตอนนี้กระบวนการเชื่อถือหลักฐานทางวิทยาศาสตร์ แต่ยังไม่มีกระบวนการตรวจสอบการปลอมแปลงหลักฐาน หรือเจ้าหน้าที่ผู้เชี่ยวชาญด้านตรวจสอบหลักฐานทางเทคโนโลยี ผู้ถูกกล่าวหาต้องหาหลักฐานมายันความบริสุทธิ์เอง ถ้าเป็นตาสีตาสา ได้กินฟรี อยู่ฟรี เป็นปีเลยนะ เคยเห็นอยู่คดีนึง เจ้าหน้าที่เอาภาพถ่ายมายืนยัน แต่ต่างเวลา ทำให้ผู้เสียหายต้องไปหาหลักฐานมาสู้ เพื่อยืนยันช่วงเวลา กว่าจะจบได้นอนมุ้งสายบัวไป 1 ปี ฟรีๆ

By: porple on 12 June 2019 - 17:35 #1114741

ดูซีรีส์ดัง ข้อมูลน่ากลัวกว่าอาวุธแล้ว