Tags:
Node Thumbnail

วิดีโอ DeepFake กำลังสร้างความกังวลให้หลายภาคส่วน โดยเฉพาะเรื่องการข่าวปลอม ข้อมูลปลอมและการเลือกตั้งในสหรัฐที่กำลังจะเกิดขึ้น ล่าสุดไมโครซอฟท์เปิดตัว Microsoft Video Authenticator เครื่องมือตรวจสอบและตรวจจับวิดีโอหรือภาพนิ่งที่ผ่าน DeekFake โดยเป็นความร่วมมือระหว่างทีม Microsoft Research, ทีม Responsible AI และคณะกรรมการ AI, Ethics and Effects in Engineering and Research (AETHER) ของไมโครซอฟท์

ตัวเครื่องมือจะตรวจสอบวิดีโอหรือภาพนิ่งแบบเฟรมต่อเฟรม และแสดงผลเป็นเปอร์เซ็นต์ความมั่นใจของ AI ว่าในแต่ละเฟรมของวิดีโอมีโอกาสผ่านการปลอมแปลงมามากน้อยแค่ไหน โดยอาศัยการตรวจจับขอบของพื้นที่ระหว่างรูปจริงและส่วนที่ถูกสร้างขึ้น, ความเข้มและสเกลของสี ไปจนถึง fading ที่มองด้วยตาเปล่าไม่เห็น ส่วนอัลกอริทึมถูกพัฒนาจากชุดข้อมูลของ Face Forensic++ และ DeepFake Detection Challenge ซึ่งเอาไว้สำหรับฝึกการตรวจสอบ DeepFake อยู่แล้ว

อย่างไรก็ตามไมโครซอฟท์ยอมรับว่าเครื่องมือยังไม่ได้สมบูรณ์พร้อมขนาดตรวจจับได้ท้งหมด ขณะที่ DeepFake เองก็สามารถพัฒนาให้นำหน้าไปได้ตลอด และทีมพัฒนาก็จะพัฒนาอัลกอริทึมให้เก่งมากขึ้นต่อไป อีกโฟกัสหลักตอนนี้คือต้องการนำมาใช้งานช่วงเลือกตั้งประธานาธิบดีที่จะถึงนี้ก่อน

ที่มา - Microsoft Blog

No Description

Get latest news from Blognone

Comments

By: sian
Windows PhoneAndroidWindows
on 2 September 2020 - 16:17 #1174071
sian's picture

และทีมพัฒนาก็จะพัฒนาอัลกอริทึมให้เก่งมากขึ้นแต่ไป

แต่ไป > ต่อไป

By: -Rookies-
ContributorAndroidWindowsIn Love
on 2 September 2020 - 21:53 #1174114

เกมแมวไล่จับหนูเริ่มแล้วอย่างเป็นทางการ


เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!