Tags:
Node Thumbnail

ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดและกูเกิลรายงานถึงการใช้โมเดลปัญญาประดิษฐ์ CycleGAN เพื่อสร้างโมเดลที่แปลงภาพถ่ายทางอากาศมาเป็นแผนที่โดยอัตโนมัติ แต่ปรากฎว่าโมเดลที่ได้กลับพยายาม "ซ่อน" ข้อมูลภาพถ่ายที่มองไม่เห็นเอาไว้ในแผนที่ เพื่อให้แปลงแผนที่กลับมาเป็นภาพถ่ายได้อย่างแม่นยำ

CycleGAN เป็นโมเดลปัญญาประดิษฐ์ที่ถูกเสนอเมื่อปี 2017 โดยเสนอว่าแทนที่จะสร้างปัญญาประดิษฐ์สำหรับแปลงข้อมูลทางเดียว เช่นโมเดลแปลงภาพม้าเป็นภาพม้าลาย ก็ให้สร้างโมเดลที่แปลงภาพกลับ จากม้าลายเป็นภาพม้า วนกลับมาเป็นวงกลม แนวทางนี้ทำให้สามารถสร้างภาพโดยไม่ต้องมีภาพที่คู่กันเป็นเฉลยไว้ล่วงหน้า มีเพียงภาพแต่ละประเภทก็เพียงพอ (unpaired training data)

ทีมวิจัยพัฒนาโมเดลสำหรับแปลงภาพถ่ายทางอากาศ 1,000 ภาพคู่กับแผนที่ 1,0000 ภาพ พบว่าเมื่่อรันโมเดลกลับข้างจากแผนที่มาเป็นภาพถ่ายแล้ว คุณภาพของภาพถ่ายที่ได้นั้นสูงมากจนน่าแปลกใจ แม้แต่รายละเอียดเล็กๆ น้อยๆ ก็สามารถสร้างภาพกลับมาได้อย่างแม่นยำเมื่อวิเคราะห์ภาพจึงพบว่าโมเดลพยายามโกงด้วยการซ่อนข้อมูลที่มองไม่เห็นลงในภาพผลลัพธ์ เพื่อให้ได้แผนที่ที่สามารถกู้คืนมาเป็นภาพถ่ายทางอากาศได้ดีขึ้น

งานวิจัยนี้แสดงให้เห็นว่าเราสามารถปรับปรุงคุณภาพโมเดลปัญญาประดิษฐ์ให้ดีขึ้นได้อีก หากเราสามารถป้องกันไม่ให้โมเดลปัญญาประดิษฐ์พยายามซ่อนข้อมูลเช่นนี้ ตัวโมเดลก็น่าจะทำความเข้าใจปัญหาและเป้าหมายได้ตรงไปตรงมา ทำให้ได้โมเดลที่ใช้งานจริงได้มากกว่าเดิม

ที่มา - ArXiv: 1712.02950, TechCrunch

No Description

Get latest news from Blognone

Comments

By: neonicus
Android
on 1 January 2019 - 22:47 #1089729

งงว่าทำไมมองเป็นความพยายามซ่อน

เพราะมันเป็นการแปลงโดยโมเดลที่คนสร้างอาจตั้งโจทย์แค่ว่าให้แปลงภาพเป็นแผนที่โดยให้รายละเอียดหายน้อยที่สุด

By: lew
FounderJusci's WriterMEconomicsAndroid
on 1 January 2019 - 23:23 #1089731 Reply to:1089729
lew's picture

จริงๆ แล้วโจทย์มันบอกให้ "แปลงโดยแยกไม่ได้ว่าแปลงมา" ครับ อันนี้เป็นหลักการของ GAN โดยทั่วไป

  • สร้างโมเดลแปลงภาพ (mapping)
  • สร้างโมเดลแยกแยะภาพ (discriminator)

เสร็จแล้ว ฝึก mapping ให้สร้างภาพให้เนียนที่สุด ไปพร้อมๆ กับฝึก discriminator ให้แยกแยะได้แม่นที่สุด พัฒนาไปพร้อมๆ กัน

CycleGAN มีลักษะพิเศษคือภาพที่แปลง "ไป" แล้วจะถูกใช้แปลง "กลับ" มาอีกรอบด้วย เป็นการออกแบบของสถาปัตยกรรมนี้ โดยทั้งขาไปและกลับ ล้วนมีเป้าหมายหลักคือ "หลอก discriminator ของตัวเอง"

ในกรณีนี้ mapping ขาไป นอกจากจะพยายามหลอก discriminator แล้ว ยังแอบส่งโพยให้ mapping ขากลับด้วย โดยที่โพยนั้นซ่อนไว้เนียนๆ ตัว discriminator ของตัวเองจะได้มองไม่เห็น


lewcpe.com, @public_lewcpe

By: zerost
AndroidWindows
on 1 January 2019 - 23:15 #1089730
zerost's picture

บอกตรงๆว่า งงครับ

ความเข้าใจผมคือ AI ตัวนี้เขาสอนให้มันแปลงภาพกลับไปกลับมาจากภาพเดียวกันใน2รูปแบบ เพื่อให้ว่าเวลา มีภาพแบบใดแบบนึงมามันก็จะแปลงไปอีกแบบได้เลย ไม่ต้องสอนแบบทางเดียว อย่างแปลงได้จากม้าเป็นม้าลายอย่างเดียว หรือแปลงจากม้าลายเป็นม้าได้แบบเดียวอะไรงั้น

แล้วคราวนี้เขาก็เอาภาพถ่ายแผนที่กับภาพถ่ายทางอากาศมาให้มันเรียนจำนวนนึงแล้วตอนเทสเขาก็ดันเอาภาพที่ให้มันเรียนนั่นแหละมาให้มันแปลง ปรากฏว่าแปลงได้แทบเหมือนภาพจริงเป๊ะ เพราะAI มันฝังข้อมูลในภาพตัวอย่างไว้ตอนเรียนแล้ว เวลาแปลงมันเลยแปลงได้เหมือนมาก เช่นสมมติว่า แผนที่A ปกติมีภาพตึกสูง 2 ตึกในภาพทางอากาศ AI ก็เลยแอบยัดข้อมูลว่าจุดนี้ในแผนที่ A มีตึก2ตึกนะ เวลาแปลงภาพเลยเหมือนมาก แทนที่จะใช้อัลกอริทึมแปลงภาพจากแผนที่มาเป็นภาพทางอากาศสดๆ ประมาณนี้ป่าวครับ

By: vesinah on 2 January 2019 - 02:39 #1089738 Reply to:1089730

อ่านความเห็นคุณ zerost แล้วย้อนกลับไปอ่านข้างบน กับดูรูปประกอบเลยเข้าใจมากขึ้น ผมว่าปัญหาน่าจะมาจากการเขียนที่เนื้อหาคลุมเครือนะครับ

By: insidious_evil on 2 January 2019 - 10:37 #1089769 Reply to:1089738

เห็นด้วยครับ อ่านของคุณ zerost และ Onewings แล้วเข้าใจเลย อ่านบทความตอนแรกงงมาก ว่าทำไมถึงบอกว่ AI โกง

By: Onewings
Windows
on 2 January 2019 - 00:32 #1089734

จากที่เข้าใจคือสอนให้ AI แปลงจากภาพถ่ายมุมสูง(Aerial Photograph)กลายเป็น แผนที่(Genereated map)
แล้วให้ AI พยายามแปลงจาก แผนที่(Genereated map)ให้กลับเป็นภาพถ่ายมุมสูง(Aerial reconstruction)
ซึ่งขั้นตอนการแปลงกลับเป็นภาพถ่ายมุมสูง(Aerial reconstruction)ไม่ควรจะได้รายละเอียดเดิมเป๊ะเพราะข้อมูลควรจะขาดหายไปจากการแปลงไปมา เลยไปตรวจสอบพบว่า AI พยายามโกงโดยใส่ข้อมูลของ(Aerial Photograph)ลงไปในข้อมูลของแผนที่(Genereated map)ด้วย?

By: sdc on 2 January 2019 - 08:17 #1089751

ถ้า AI จะผิดจริง ต้องผิดที่คนสอนพยายามสอนให้เก็บข้อมูลแบบไปกลับ แล้วพอไม่ได้แบบตั้งใจก็บอกว่าโกง แต่เอาจริง ภาพมุมสูงที่เป็นแผนที่และภาพถ่าย มันก็น่าจะ match กัน AI มันเลยใส่ข้อมูลได้ละเอียด สำหรับผม ผมมองว่ามันไม่ได้ผิดอะไรนะ ดีซะอีกได้ภาพที่ละเอียด

By: iamfalan
iPhoneAndroidWindows
on 2 January 2019 - 08:21 #1089752 Reply to:1089751

ผิดครับ เพราะเป้าหมายคือการ “แปลงภาพใดๆ” ไม่ใช่การ “แปลงภาพที่ ai เคยแปลงมา”

By: artiya4u
AndroidUbuntu
on 2 January 2019 - 10:03 #1089759
artiya4u's picture

ฉลาด GAN โกง

By: nath on 2 January 2019 - 10:03 #1089760

สงสัยเรื่องผลทดสอบนิดนึงว่า แล้วถ้าใส่ภาพที่ไม่เคยให้ AI แปลงมาก่อนเพื่อทดสอบว่าทำได้จริงมั้ย ผลออกมาเป็นยังไงคะ?

By: Onewings
Windows
on 2 January 2019 - 11:16 #1089781 Reply to:1089760

คิดว่าทำได้แต่ไม่แม่นยำมากเพราะไม่มีโพยข้อสอบเขียนไว้+ข้อมูลจากแผนที่มันมักจะมีข้อมูลบางส่วนซึ่งไม่สำคัญมากขาดหายไปอยู่แล้ว ซึ่งตรงนี้คือจุดที่เขาจะพยายามให้ AIแปลงให้เหมือนที่่สุดเท่าที่ทำได้ แต่มันต้องลำบากตรง matching แผนทีกับรูปถ่ายให้ได้ตรงกัน(ความเห็นส่วนตัว)เลยลดปัญหาด้วยการให้ AI แปลงมันซะก่อนแล้วค่อยให้มันแปลงกลับแต่กลายเป็นพบปัญหาใหม่แทน

By: Bluetus
iPhone
on 2 January 2019 - 11:08 #1089778
Bluetus's picture

มันถึงเป็นความน่ากลัวของ ai ที่ว่าวันหนึ่งคนสอนลืมใส่กฎข้อห้ามบางอย่างอย่างลงไป

มันจะเกิดผลอะไรที่คาดไม่ถึงหรือไม่ เพราะกรณีก็เหมือนว่าเพราะไม่ได้ห้ามจึงทำได้

By: lew
FounderJusci's WriterMEconomicsAndroid
on 2 January 2019 - 11:20 #1089782 Reply to:1089778
lew's picture

อันนี้ผลที่คาดไม่ถึงคือมัน "โง่" กว่าที่ออกแบบไว้ครับ เพราะตอนฝึกดันทำข้อสอบที่มีโพย

และผลสุดท้ายคือได้โมเดลที่แปลงภาพแค่นั้น ทำอย่างอื่นไม่ได้อยู่ดี


lewcpe.com, @public_lewcpe

By: zerost
AndroidWindows
on 2 January 2019 - 15:19 #1089835 Reply to:1089782
zerost's picture

ถ้าตามที่ผมเข้าใจ คือวัตถุประสงค์ของผู้สร้างคืออยากให้ AI มันวาดแปลงภาพถ่ายทางอากาศจากแผนที่ และวาดแปลงแผนที่จากภาพถ่ายทางอากาศได้ ก็เลยให้หนังสือ(ข้อมูล)ไปอ่าน

แล้วเขาก็เอาโจทย์ในหนังสือที่สอนมันไปนั่นแหละมาให้มันแก้

แต่แทนที่ AI มันจะวาดแปลงภาพมันกลับแอบดราฟภาพเอาไว้ สิ่งที่มันทำได้จึงไม่ใช่การวาดดัดแปลงภาพตามที่ผู้สร้างตั้งใจแต่เป็นแค่การดราฟภาพจากข้อมูลที่แอบจดเอาไว้ สุดท้ายความสามารถของมันจะเอาไปใช้กับภาพอื่นนอกจากที่เคยสอนไม่ได้เพราะมันทำได้แค่ดราฟภาพที่เคยจดไว้ ไปเจอภาพที่ไม่มีอะไรให้ดราฟก็จะง่อย เหมือนกับคนที่ไม่มีปัญญาทำโจทย์เองทำได้แค่ลอกคำตอบถ้าไม่มีใครให้ลอกก็จะไม่มีคะแนน ประมาณนี้ไหมครับ

By: paween_a
Android
on 2 January 2019 - 11:45 #1089791
paween_a's picture

ต้องค่อย ๆ อ่านตาม อ่านความคิดเห็นของท่านอื่น ๆ เพิ่มเติมด้วยถึงจะเข้าใจว่าข่าวนี้กำลังจะนำเสนออะไร?

By: foizy
AndroidUbuntuWindows
on 2 January 2019 - 12:31 #1089809

อ่านเผินๆ เหมือน normalize/filter ไม่พอ (คือ generated image มี level ของข้อมูลมากไป) มากกว่าการเรียกว่าพยายามโกงหรือเปล่าครับ

เพราะถ้าว่ากันตรงๆ คำว่า "มองไม่เห็น" ขนาดกับคนด้วยกัน ค่าสายตายังไม่เท่ากันเลย ถ้าไม่ได้กำหนดไว้ว่าสิ่งนี้ มนุษย์ และ/หรือ กล้องที่มนุษย์ใช้บันทึกภาพ ไม่สามารถบันทึกรายละเอียดได้ จะเรียกว่า โกง ก็ไม่น่าจะถูกซะทีเดียว

โมเดลมันน่าจะทำงานถูกต้องอยู่แล้วโดยการออกแบบ แต่ parameter ที่กำหนดค่าสายตา อาจจะตั้งไม่ดีแต่แรก

ในเคสนี้ AI อาจจะเทียบได้กับคุณสุภาพสตรี เวลาพูดถึงสีลิป (Red velvet/light pink/pink/light rose) บลาๆๆ ในขณะที่ผู้ชาย มันคือสีชมพูไง

By: keen
iPhoneAndroidUbuntu
on 2 January 2019 - 20:24 #1089869
keen's picture

คล้ายกับนักเรียนที่ขอก็อปปี้รายงานเพื่อนไปส่งโดยไม่แก้ไขฟอนท์หรือจัดหน้าใหม่เลย คือมันเหมือนเกินครูเลยจับได้ แต่อันนี้โดนมนุษย์จับได้

By: kajokman
ContributorAndroidIn Love
on 3 January 2019 - 11:46 #1089970
kajokman's picture

ตอนนี้คนยังจับผิดได้ อีกหน่อยจับผิด ai ไม่ทันนี้คง...