ช่วงหลังเราได้ยินข่าวการพัฒนาปัญญาประดิษฐ์ให้สามารถพิจารณาภาพแบบต่างๆ ให้เก่งกว่ามนุษย์ แต่ข้อจำกัดอย่างหนึ่งของปัญญาประดิษฐ์เหล่านี้คือมันมักจะหารูปแบบเฉพาะบางอย่างในภาพทำให้ถูกหลอกได้ งานวิจัยล่าสุดจากทีมวิจัย LabSix จาก MIT สามารถสร้างภาพหลอกปัญญาประดิษฐ์ให้จัดหมวดหมู่ภาพเป็นหมวดหมู่อะไรก็ได้ตามกำหนด
งานวิจัยสร้างภาพเพื่อหลอกให้ปัญญาประดิษฐ์จัดหมวดหมู่ภาพ (image labelling) มีมานานหลายปี แต่งานวิจัยก่อนหน้านี้มักต้องสร้างภาพเพื่อทดสอบกับปัญญาประดิษฐ์เป้าหมายนับแสนนับล้านครั้ง หรือบางครั้งก็ต้องรู้ค่าพารามิเตอร์และสถาปัตยกรรมของปัญญาประดิษฐ์ ทำให้การโจมตีในโลกความเป็นจริงทำได้ยาก เช่น Google Cloud Vision API นั้นจำกัดการเรียก API ไว้ 20 ล้านภาพต่อเดือน แต่งานวิจัยล่าสุดจาก LabSix สามารถสร้างภาพหลอกได้โดยใช้ข้อมูลผลการจัดหมวดหมู่ภาพเท่านั้น
รายงานสาธิตการปลอมภาพจากชุดข้อมูล CIFAR-10 และ ImageNet โดยเลือกภาพสุ่มจากชุดทดสอบจำนวน 1,000 ภาพ และสุ่มหมวดหมู่เป้าหมายที่ต้องการให้ปัญญาประดิษฐ์จัดหมวดหมู่ตามต้องการ โดยจำกัดการทดสอบภาพไว้ที่ 1,000,000 ครั้ง ชุดข้อมูล CIFAR-10 อัตราความสำเร็จอยู่ที่ 99.6% และจำนวนครั้งทดสอบภาพเฉลี่ย 4,910 ครั้ง ขณะที่ชุดข้อมูล ImageNet อัตราความสำเร็จอยู่ที่ 99.2% และจำนวนครั้งทดสอบภาพเฉลี่ย 24,780 ครั้ง
ภาพตัวอย่างที่ทีมงานเปิดให้ดาวน์โหลดเป็นภาพคนเล่นสกี โดยสามารถหลอก Google Cloud Vision API ให้จัดภาพเป็นสุนัขได้สำเร็จ
อันตรายจากการโจมตีเช่นนี้มีได้หลายอย่าง ตั้งแต่การหลบหลีกการเซ็นเซอร์อนาจารด้วยปัญญาประดิษฐ์ ไปจนถึงการหลอกรถไร้คนขับที่อาจจะก่อให้เกิดอุบัติเหตุร้ายแรงได้
ที่มา - LabSix
Comments
ตอนแรกผมก็เฉยๆ กับกรณีนี้นะ แต่พอยกตัวอย่างปุ๊บนี่กลายเป็นเรื่องน่ากลัวในยุคที่รถไร้คนขับกำลังจะมาเลย
ถ้ารู้ปัญหา ก็หาวิธีแก้
แต่คนก็โดนหลอกได้บางทีง่ายกว่า AI เรายังต้องเรียนรู้ว่าพวกหลอกลวงจะมาวิธีไหนบ้างกันอยู่เลยนี้ครับ AI ก็ต้องเรียนรู้สิ่งเหล่านี้เหมือนกัน
แล้วก็จะมี AI ที่สร้างขึ้นมาหลอก AI แล้ว AI ที่โดนหลอกก็เอา AI ที่หลอกไปฝึกตัวเองให้ถูกหลอกยากขึ้น AI ทีหลอกก็เลยต้องพัฒนาตัวเอง โดยเอา AI ที่ถูกหลอก (และอัพเดตเวอร์ชันแล้ว) มาฝึกตัวเองใหม่ให้เก่งขึ้น แล้วก็วนลูปหลอกกันไปมา โอย เวียนหัว
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
AI ยังขาดปัจจัยที่สมองมนุษย์ทำได้ คือ ปัจจัยข้างเคียงของสิ่งที่มองเห็น แล้วก็ความผิดสังเกตุของชุดข้อมูล ยังอีกไกลที่จะทำให้ความสามารถใกล้เคียง แต่ก็เป็นจุดเริ่มต้นก็เหมือนเด็กนั่นแหล่ะ ฐานข้อมูลเปรียบเทียบเยอะพอจำแนกได้แล้ว แต่ยังขาดประสบการณ์ในการระบุให้ถูกต้องในสถานะการณ์ที่แตกต่างกัน
ทุกวันนี้หลาย ๆ คนยังโดนจ่าเฉยหลอกอยู่เลย :-/
ตาเราโดนหลอกมากกว่า AI มันเห็นหมาในภาพจางๆ ก็น่าจะถูกนะ แต่ว่าคงต้องเป็น สิ่งนึงที่พัฒนากันต่อเป็น test case ที่ดี