ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดและกูเกิลรายงานถึงการใช้โมเดลปัญญาประดิษฐ์ CycleGAN เพื่อสร้างโมเดลที่แปลงภาพถ่ายทางอากาศมาเป็นแผนที่โดยอัตโนมัติ แต่ปรากฎว่าโมเดลที่ได้กลับพยายาม "ซ่อน" ข้อมูลภาพถ่ายที่มองไม่เห็นเอาไว้ในแผนที่ เพื่อให้แปลงแผนที่กลับมาเป็นภาพถ่ายได้อย่างแม่นยำ
CycleGAN เป็นโมเดลปัญญาประดิษฐ์ที่ถูกเสนอเมื่อปี 2017 โดยเสนอว่าแทนที่จะสร้างปัญญาประดิษฐ์สำหรับแปลงข้อมูลทางเดียว เช่นโมเดลแปลงภาพม้าเป็นภาพม้าลาย ก็ให้สร้างโมเดลที่แปลงภาพกลับ จากม้าลายเป็นภาพม้า วนกลับมาเป็นวงกลม แนวทางนี้ทำให้สามารถสร้างภาพโดยไม่ต้องมีภาพที่คู่กันเป็นเฉลยไว้ล่วงหน้า มีเพียงภาพแต่ละประเภทก็เพียงพอ (unpaired training data)
ทีมวิจัยพัฒนาโมเดลสำหรับแปลงภาพถ่ายทางอากาศ 1,000 ภาพคู่กับแผนที่ 1,0000 ภาพ พบว่าเมื่่อรันโมเดลกลับข้างจากแผนที่มาเป็นภาพถ่ายแล้ว คุณภาพของภาพถ่ายที่ได้นั้นสูงมากจนน่าแปลกใจ แม้แต่รายละเอียดเล็กๆ น้อยๆ ก็สามารถสร้างภาพกลับมาได้อย่างแม่นยำเมื่อวิเคราะห์ภาพจึงพบว่าโมเดลพยายามโกงด้วยการซ่อนข้อมูลที่มองไม่เห็นลงในภาพผลลัพธ์ เพื่อให้ได้แผนที่ที่สามารถกู้คืนมาเป็นภาพถ่ายทางอากาศได้ดีขึ้น
งานวิจัยนี้แสดงให้เห็นว่าเราสามารถปรับปรุงคุณภาพโมเดลปัญญาประดิษฐ์ให้ดีขึ้นได้อีก หากเราสามารถป้องกันไม่ให้โมเดลปัญญาประดิษฐ์พยายามซ่อนข้อมูลเช่นนี้ ตัวโมเดลก็น่าจะทำความเข้าใจปัญหาและเป้าหมายได้ตรงไปตรงมา ทำให้ได้โมเดลที่ใช้งานจริงได้มากกว่าเดิม
ที่มา - ArXiv: 1712.02950, TechCrunch
Comments
งงว่าทำไมมองเป็นความพยายามซ่อน
เพราะมันเป็นการแปลงโดยโมเดลที่คนสร้างอาจตั้งโจทย์แค่ว่าให้แปลงภาพเป็นแผนที่โดยให้รายละเอียดหายน้อยที่สุด
จริงๆ แล้วโจทย์มันบอกให้ "แปลงโดยแยกไม่ได้ว่าแปลงมา" ครับ อันนี้เป็นหลักการของ GAN โดยทั่วไป
เสร็จแล้ว ฝึก mapping ให้สร้างภาพให้เนียนที่สุด ไปพร้อมๆ กับฝึก discriminator ให้แยกแยะได้แม่นที่สุด พัฒนาไปพร้อมๆ กัน
CycleGAN มีลักษะพิเศษคือภาพที่แปลง "ไป" แล้วจะถูกใช้แปลง "กลับ" มาอีกรอบด้วย เป็นการออกแบบของสถาปัตยกรรมนี้ โดยทั้งขาไปและกลับ ล้วนมีเป้าหมายหลักคือ "หลอก discriminator ของตัวเอง"
ในกรณีนี้ mapping ขาไป นอกจากจะพยายามหลอก discriminator แล้ว ยังแอบส่งโพยให้ mapping ขากลับด้วย โดยที่โพยนั้นซ่อนไว้เนียนๆ ตัว discriminator ของตัวเองจะได้มองไม่เห็น
lewcpe.com, @wasonliw
บอกตรงๆว่า งงครับ
ความเข้าใจผมคือ AI ตัวนี้เขาสอนให้มันแปลงภาพกลับไปกลับมาจากภาพเดียวกันใน2รูปแบบ เพื่อให้ว่าเวลา มีภาพแบบใดแบบนึงมามันก็จะแปลงไปอีกแบบได้เลย ไม่ต้องสอนแบบทางเดียว อย่างแปลงได้จากม้าเป็นม้าลายอย่างเดียว หรือแปลงจากม้าลายเป็นม้าได้แบบเดียวอะไรงั้น
แล้วคราวนี้เขาก็เอาภาพถ่ายแผนที่กับภาพถ่ายทางอากาศมาให้มันเรียนจำนวนนึงแล้วตอนเทสเขาก็ดันเอาภาพที่ให้มันเรียนนั่นแหละมาให้มันแปลง ปรากฏว่าแปลงได้แทบเหมือนภาพจริงเป๊ะ เพราะAI มันฝังข้อมูลในภาพตัวอย่างไว้ตอนเรียนแล้ว เวลาแปลงมันเลยแปลงได้เหมือนมาก เช่นสมมติว่า แผนที่A ปกติมีภาพตึกสูง 2 ตึกในภาพทางอากาศ AI ก็เลยแอบยัดข้อมูลว่าจุดนี้ในแผนที่ A มีตึก2ตึกนะ เวลาแปลงภาพเลยเหมือนมาก แทนที่จะใช้อัลกอริทึมแปลงภาพจากแผนที่มาเป็นภาพทางอากาศสดๆ ประมาณนี้ป่าวครับ
อ่านความเห็นคุณ zerost แล้วย้อนกลับไปอ่านข้างบน กับดูรูปประกอบเลยเข้าใจมากขึ้น ผมว่าปัญหาน่าจะมาจากการเขียนที่เนื้อหาคลุมเครือนะครับ
เห็นด้วยครับ อ่านของคุณ zerost และ Onewings แล้วเข้าใจเลย อ่านบทความตอนแรกงงมาก ว่าทำไมถึงบอกว่ AI โกง
จากที่เข้าใจคือสอนให้ AI แปลงจากภาพถ่ายมุมสูง(Aerial Photograph)กลายเป็น แผนที่(Genereated map)
แล้วให้ AI พยายามแปลงจาก แผนที่(Genereated map)ให้กลับเป็นภาพถ่ายมุมสูง(Aerial reconstruction)
ซึ่งขั้นตอนการแปลงกลับเป็นภาพถ่ายมุมสูง(Aerial reconstruction)ไม่ควรจะได้รายละเอียดเดิมเป๊ะเพราะข้อมูลควรจะขาดหายไปจากการแปลงไปมา เลยไปตรวจสอบพบว่า AI พยายามโกงโดยใส่ข้อมูลของ(Aerial Photograph)ลงไปในข้อมูลของแผนที่(Genereated map)ด้วย?
ถ้า AI จะผิดจริง ต้องผิดที่คนสอนพยายามสอนให้เก็บข้อมูลแบบไปกลับ แล้วพอไม่ได้แบบตั้งใจก็บอกว่าโกง แต่เอาจริง ภาพมุมสูงที่เป็นแผนที่และภาพถ่าย มันก็น่าจะ match กัน AI มันเลยใส่ข้อมูลได้ละเอียด สำหรับผม ผมมองว่ามันไม่ได้ผิดอะไรนะ ดีซะอีกได้ภาพที่ละเอียด
ผิดครับ เพราะเป้าหมายคือการ “แปลงภาพใดๆ” ไม่ใช่การ “แปลงภาพที่ ai เคยแปลงมา”
ฉลาด GAN โกง
สงสัยเรื่องผลทดสอบนิดนึงว่า แล้วถ้าใส่ภาพที่ไม่เคยให้ AI แปลงมาก่อนเพื่อทดสอบว่าทำได้จริงมั้ย ผลออกมาเป็นยังไงคะ?
คิดว่าทำได้แต่ไม่แม่นยำมากเพราะไม่มีโพยข้อสอบเขียนไว้+ข้อมูลจากแผนที่มันมักจะมีข้อมูลบางส่วนซึ่งไม่สำคัญมากขาดหายไปอยู่แล้ว ซึ่งตรงนี้คือจุดที่เขาจะพยายามให้ AIแปลงให้เหมือนที่่สุดเท่าที่ทำได้ แต่มันต้องลำบากตรง matching แผนทีกับรูปถ่ายให้ได้ตรงกัน(ความเห็นส่วนตัว)เลยลดปัญหาด้วยการให้ AI แปลงมันซะก่อนแล้วค่อยให้มันแปลงกลับแต่กลายเป็นพบปัญหาใหม่แทน
มันถึงเป็นความน่ากลัวของ ai ที่ว่าวันหนึ่งคนสอนลืมใส่กฎข้อห้ามบางอย่างอย่างลงไป
มันจะเกิดผลอะไรที่คาดไม่ถึงหรือไม่ เพราะกรณีก็เหมือนว่าเพราะไม่ได้ห้ามจึงทำได้
อันนี้ผลที่คาดไม่ถึงคือมัน "โง่" กว่าที่ออกแบบไว้ครับ เพราะตอนฝึกดันทำข้อสอบที่มีโพย
และผลสุดท้ายคือได้โมเดลที่แปลงภาพแค่นั้น ทำอย่างอื่นไม่ได้อยู่ดี
lewcpe.com, @wasonliw
ถ้าตามที่ผมเข้าใจ คือวัตถุประสงค์ของผู้สร้างคืออยากให้ AI มันวาดแปลงภาพถ่ายทางอากาศจากแผนที่ และวาดแปลงแผนที่จากภาพถ่ายทางอากาศได้ ก็เลยให้หนังสือ(ข้อมูล)ไปอ่าน
แล้วเขาก็เอาโจทย์ในหนังสือที่สอนมันไปนั่นแหละมาให้มันแก้
แต่แทนที่ AI มันจะวาดแปลงภาพมันกลับแอบดราฟภาพเอาไว้ สิ่งที่มันทำได้จึงไม่ใช่การวาดดัดแปลงภาพตามที่ผู้สร้างตั้งใจแต่เป็นแค่การดราฟภาพจากข้อมูลที่แอบจดเอาไว้ สุดท้ายความสามารถของมันจะเอาไปใช้กับภาพอื่นนอกจากที่เคยสอนไม่ได้เพราะมันทำได้แค่ดราฟภาพที่เคยจดไว้ ไปเจอภาพที่ไม่มีอะไรให้ดราฟก็จะง่อย เหมือนกับคนที่ไม่มีปัญญาทำโจทย์เองทำได้แค่ลอกคำตอบถ้าไม่มีใครให้ลอกก็จะไม่มีคะแนน ประมาณนี้ไหมครับ
ต้องค่อย ๆ อ่านตาม อ่านความคิดเห็นของท่านอื่น ๆ เพิ่มเติมด้วยถึงจะเข้าใจว่าข่าวนี้กำลังจะนำเสนออะไร?
อ่านเผินๆ เหมือน normalize/filter ไม่พอ (คือ generated image มี level ของข้อมูลมากไป) มากกว่าการเรียกว่าพยายามโกงหรือเปล่าครับ
เพราะถ้าว่ากันตรงๆ คำว่า "มองไม่เห็น" ขนาดกับคนด้วยกัน ค่าสายตายังไม่เท่ากันเลย ถ้าไม่ได้กำหนดไว้ว่าสิ่งนี้ มนุษย์ และ/หรือ กล้องที่มนุษย์ใช้บันทึกภาพ ไม่สามารถบันทึกรายละเอียดได้ จะเรียกว่า โกง ก็ไม่น่าจะถูกซะทีเดียว
โมเดลมันน่าจะทำงานถูกต้องอยู่แล้วโดยการออกแบบ แต่ parameter ที่กำหนดค่าสายตา อาจจะตั้งไม่ดีแต่แรก
ในเคสนี้ AI อาจจะเทียบได้กับคุณสุภาพสตรี เวลาพูดถึงสีลิป (Red velvet/light pink/pink/light rose) บลาๆๆ ในขณะที่ผู้ชาย มันคือสีชมพูไง
คล้ายกับนักเรียนที่ขอก็อปปี้รายงานเพื่อนไปส่งโดยไม่แก้ไขฟอนท์หรือจัดหน้าใหม่เลย คือมันเหมือนเกินครูเลยจับได้ แต่อันนี้โดนมนุษย์จับได้
ตอนนี้คนยังจับผิดได้ อีกหน่อยจับผิด ai ไม่ทันนี้คง...