Tags:
Node Thumbnail

ช่วงหลังเราได้ยินข่าวการพัฒนาปัญญาประดิษฐ์ให้สามารถพิจารณาภาพแบบต่างๆ ให้เก่งกว่ามนุษย์ แต่ข้อจำกัดอย่างหนึ่งของปัญญาประดิษฐ์เหล่านี้คือมันมักจะหารูปแบบเฉพาะบางอย่างในภาพทำให้ถูกหลอกได้ งานวิจัยล่าสุดจากทีมวิจัย LabSix จาก MIT สามารถสร้างภาพหลอกปัญญาประดิษฐ์ให้จัดหมวดหมู่ภาพเป็นหมวดหมู่อะไรก็ได้ตามกำหนด

งานวิจัยสร้างภาพเพื่อหลอกให้ปัญญาประดิษฐ์จัดหมวดหมู่ภาพ (image labelling) มีมานานหลายปี แต่งานวิจัยก่อนหน้านี้มักต้องสร้างภาพเพื่อทดสอบกับปัญญาประดิษฐ์เป้าหมายนับแสนนับล้านครั้ง หรือบางครั้งก็ต้องรู้ค่าพารามิเตอร์และสถาปัตยกรรมของปัญญาประดิษฐ์ ทำให้การโจมตีในโลกความเป็นจริงทำได้ยาก เช่น Google Cloud Vision API นั้นจำกัดการเรียก API ไว้ 20 ล้านภาพต่อเดือน แต่งานวิจัยล่าสุดจาก LabSix สามารถสร้างภาพหลอกได้โดยใช้ข้อมูลผลการจัดหมวดหมู่ภาพเท่านั้น

รายงานสาธิตการปลอมภาพจากชุดข้อมูล CIFAR-10 และ ImageNet โดยเลือกภาพสุ่มจากชุดทดสอบจำนวน 1,000 ภาพ และสุ่มหมวดหมู่เป้าหมายที่ต้องการให้ปัญญาประดิษฐ์จัดหมวดหมู่ตามต้องการ โดยจำกัดการทดสอบภาพไว้ที่ 1,000,000 ครั้ง ชุดข้อมูล CIFAR-10 อัตราความสำเร็จอยู่ที่ 99.6% และจำนวนครั้งทดสอบภาพเฉลี่ย 4,910 ครั้ง ขณะที่ชุดข้อมูล ImageNet อัตราความสำเร็จอยู่ที่ 99.2% และจำนวนครั้งทดสอบภาพเฉลี่ย 24,780 ครั้ง

ภาพตัวอย่างที่ทีมงานเปิดให้ดาวน์โหลดเป็นภาพคนเล่นสกี โดยสามารถหลอก Google Cloud Vision API ให้จัดภาพเป็นสุนัขได้สำเร็จ

อันตรายจากการโจมตีเช่นนี้มีได้หลายอย่าง ตั้งแต่การหลบหลีกการเซ็นเซอร์อนาจารด้วยปัญญาประดิษฐ์ ไปจนถึงการหลอกรถไร้คนขับที่อาจจะก่อให้เกิดอุบัติเหตุร้ายแรงได้

ที่มา - LabSix

Get latest news from Blognone

Comments

By: KuLiKo
ContributoriPhoneWindows PhoneAndroid
on 24 December 2017 - 16:38 #1025156
KuLiKo's picture

ตอนแรกผมก็เฉยๆ กับกรณีนี้นะ แต่พอยกตัวอย่างปุ๊บนี่กลายเป็นเรื่องน่ากลัวในยุคที่รถไร้คนขับกำลังจะมาเลย

By: winit_a on 24 December 2017 - 16:48 #1025158

ถ้ารู้ปัญหา ก็หาวิธีแก้

By: darkfaty
AndroidWindows
on 24 December 2017 - 19:56 #1025180
darkfaty's picture

แต่คนก็โดนหลอกได้บางทีง่ายกว่า AI เรายังต้องเรียนรู้ว่าพวกหลอกลวงจะมาวิธีไหนบ้างกันอยู่เลยนี้ครับ AI ก็ต้องเรียนรู้สิ่งเหล่านี้เหมือนกัน

By: -Rookies-
ContributorAndroidWindowsIn Love
on 24 December 2017 - 20:17 #1025185

แล้วก็จะมี AI ที่สร้างขึ้นมาหลอก AI แล้ว AI ที่โดนหลอกก็เอา AI ที่หลอกไปฝึกตัวเองให้ถูกหลอกยากขึ้น AI ทีหลอกก็เลยต้องพัฒนาตัวเอง โดยเอา AI ที่ถูกหลอก (และอัพเดตเวอร์ชันแล้ว) มาฝึกตัวเองใหม่ให้เก่งขึ้น แล้วก็วนลูปหลอกกันไปมา โอย เวียนหัว


เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!

By: akira on 24 December 2017 - 21:59 #1025192

AI ยังขาดปัจจัยที่สมองมนุษย์ทำได้ คือ ปัจจัยข้างเคียงของสิ่งที่มองเห็น แล้วก็ความผิดสังเกตุของชุดข้อมูล ยังอีกไกลที่จะทำให้ความสามารถใกล้เคียง แต่ก็เป็นจุดเริ่มต้นก็เหมือนเด็กนั่นแหล่ะ ฐานข้อมูลเปรียบเทียบเยอะพอจำแนกได้แล้ว แต่ยังขาดประสบการณ์ในการระบุให้ถูกต้องในสถานะการณ์ที่แตกต่างกัน

By: mr_tawan
ContributoriPhoneAndroidWindows
on 25 December 2017 - 10:32 #1025256
mr_tawan's picture

ทุกวันนี้หลาย ๆ คนยังโดนจ่าเฉยหลอกอยู่เลย :-/


  • 9tawan.net บล็อกส่วนตัวฮับ
By: zaturday
iPhoneAndroidBlackberryRed Hat
on 26 December 2017 - 14:14 #1025471
zaturday's picture

ตาเราโดนหลอกมากกว่า AI มันเห็นหมาในภาพจางๆ ก็น่าจะถูกนะ แต่ว่าคงต้องเป็น สิ่งนึงที่พัฒนากันต่อเป็น test case ที่ดี