Tags:
Node Thumbnail

สัปดาห์ที่ผ่านมา Timnit Gebru นักวิจัยด้านจริยธรรมปัญญาประดิษฐ์ (Ethical AI) ได้ออกมาเปิดเผยว่าเธอถูกไล่ออกจากกูเกิลหลังจากพยายามตีพิมพ์งานวิจัยใหม่แต่ถูกผู้บริหารกูเกิลสั่งให้ถอนงานวิจัยออก จนเธอยื่นคำขาดว่าหากไม่ได้ตีพิมพ์งานวิจัยชิ้นนี้เธอจะลาออกจากบริษัท หลังจากนั้นเธอได้รับอีเมลว่าบริษัทตอบรับการลาออกของเธอและเตรียมให้เธอคืนอุปกรณ์ของกูเกิลในภายหลัง และพนักงานกูเกิลจำนวนมากแสดงความไม่พอใจจนลงชื่อไม่เห็นด้วยต่อการเลิกจ้างครั้งนี้มากกว่า 1,500 คน

Timnit เป็นผู้ร่วมวิจัยกับ Joy Buolamwini นักวิจัยของไมโครซอฟท์ในงานวิจัยเมื่อปี 2018 ที่แสดงให้เห็นว่าปัญญาประดิษฐ์จดจำใบหน้ามีแนวโน้มจะจดจำใบหน้ากลุ่มคนผิวสีได้แย่กว่ากลุ่มคนผิวขาวมาก กระตุ้นให้วงการปัญญาประดิษฐ์ศึกษากันมากขึ้นว่าโมเดลปัญญาประดิษฐ์ที่นำมาใช้งานกันกว้างขวางนั้นสร้างผลกระทบต่อชนกลุ่มน้อย หรือมีความโน้มเอียงในรูปแบบใดที่กระทบคนกลุ่มใดเป็นพิเศษหรือไม่

No Description

Timnit Gebru เมื่อปี 2018 ภาพโดย TechCrunch

งานวิจัยใหม่ของ Timnit ที่ร่วมกับนักวิจัยอีก 5 คน โดยนอกจาก Timnit เองแล้ว ยังมี Emily M. Bender ศาสตราจารย์ด้านการประมวลผลภาษาจากมหาวิทยาลัยวอชิงตัน (ยังไม่มีการเปิดเผยชื่อนักวิจัยอื่นในงานนี้) ระบุถึงความเสี่ยงของการพัฒนาโมเดลปัญญาประดิษฐ์ประมวลภาษาธรรมชาติทุกวันนี้ ที่โมเดลปัญญาประดิษฐ์มีขนาดใหญ่ขึ้นเรื่อยๆ และทำงานได้ดีขึ้นเรื่อยๆ จนผู้คนเริ่มไว้ใจในงานหลายๆ อย่าง โดยบทนำของงานวิจัยนี้ตั้งคำถามว่ามีการศึกษาความเสี่ยงของการใช้ปัญญาประดิษฐ์เหล่านี้ และมีแนวทางแก้ไขความผิดพลาดของโมเดลเหล่านี้เพียงพอหรือไม่

ความเสี่ยงของโมเดลปัญญาประดิษฐ์ซับซ้อนสูงที่งานวิจัยนำเสนอ มีตั้งแต่การใช้พลังงานในการฝึกปัญญาประดิษฐ์ที่สูงมาก เช่นโมเดล Tranformer นั้นปล่อยคาร์บอนประมาณ 284 ตัน และมีต้นทุนการฝึกแต่ละครั้งที่สูงมากจนกระทั่งมีเฉพาะบริษัทขนาดใหญ่เท่านั้นที่สามารถใช้พัฒนาปัญญาประดิษฐ์แบบนี้ได้ และเนื่องจากโมเดลขนาดใหญ่ต้องอาศัยข้อมูลอินพุตมหาศาล นักวิจัยมักใช้ข้อความทุกประเภทเท่าที่จะกวาดได้จากอินเทอร์เน็ต ไม่ว่าข้อความเหล่านั้นจะเหยียดเพศ, มุ่งร้าย, หรือมีด้านแย่อย่างไรก็ตาม ข้อมูลขนาดใหญ่เช่นนี้ยังทำให้นักวิจัยไม่สามารถตรวจสอบได้ว่าโมเดลปัญญาประดิษฐ์ของตัวเองมีแนวโน้มเหยียดคนกลุ่มใดเป็นพิเศษหรือไม่

แนวทางการสร้างปัญญาประดิษฐ์ที่ใหญ่ขึ้นเรื่อยๆ เช่นนี้ยังดึงความสนใจของนักวิจัย แทนที่จะสร้างโมเดลที่พยายามทำความเข้าใจภาษาอย่างแท้จริง และใช้ข้อมูลในการฝึกลดลง ไปจนถึงใช้พลังงานในการฝึกลดลง สำหรับผู้ใช้งานเองก็อาจจะเข้าใจว่าปัญญาประดิษฐ์เหล่านี้มีความเก่งกาจทั้งที่หลายครั้งมันทำผิดได้โดยง่าย กรณีตัวอย่างเช่นเฟซบุ๊กแปลคำว่า "อรุณสวัสดิ์" ในภาษาอราบิกผิดเป็น "โจมตีมัน" ในภาษาฮีบรู ทำให้นักเรียนปาเลสไตน์ถูกจับกุม (กรณีของไทยก็เคยมีกรณีคล้ายกัน)

หลังจากกูเกิลไล่ Timnit ออก Jeff Dean หัวหน้าฝ่ายวิจัยออกมาชี้แจง ยืนยันว่ากระบวนการตรวจสอบงานวิจัยก่อนเผยแพร่นั้นเป็นเรื่องปกติ และฝ่าย PR ต้องใช้เวลาอย่างน้อยสองสัปดาห์เพื่อยืนยันว่าสามารถตีพิมพ์ได้หรือไม่ แต่ Timnit กลับส่งร่างงานวิจัยให้ตรวจสอบเพียงไม่กี่วัน และเมื่อเขาตรวจสอบก็พบว่ารายงานวิจัยไม่ได้พูดถึงความพยายามแก้ข้อกังวลที่รายงานของ Timnit ได้พูดถึงไปแล้วหลายประการ ทำให้ร่างรายงานวิจัยนี้ไม่ผ่านมาตรฐานการตีพิมพ์ของกูเกิล

อย่างไรก็ดี พนักงานและอดีตพนักงานคนอื่นๆ ของกูเกิลก็ออกมาระบุว่าปกติบริษัทไม่ได้เข้ามาตรวจสอบมาตรฐานงานวิจัยอะไรมากมายนัก Nicolas Le Roux นักวิจัยของ Google Brain ระบุว่าปกติมีการตรวจสอบเพียงเนื้อหาล่อแหลมเท่านั้น ไม่ได้ตรวจสอบว่าอ้างอิงงานคนอื่นครบถ้วนหรือไม่ William Fitzgerald อดีตเจ้าหน้าที่ PR ของกูเกิลก็ระบุเหมือนว่าทีม PR รีวิวงานวิจัยไม่ทันเป็นเรื่องปกติ และไม่เคยมีการลงโทษนักวิจัยที่ไม่ทำตามกระบวนการขนาดนี้ ข้อความที่ขัดกับ Jeff Dean เช่นนี้ทำให้มองได้ว่ากูเกิลมุ่งจะเซ็นเซอร์งานนี้เป็นพิเศษ โดยเอาเรื่องคุณภาพงานวิจัยมาเป็นข้ออ้าง Bender ผู้ร่วมงานวิจัยนี้เองก็ระบุว่าการไล่ Timnit ออกครั้งนี้จะสร้างความกังวล (chilling effect) ต่อการวิจัยด้านจริยธรรมปัญญาประดิษฐ์ในอนาคต

ที่มา - MIT Technology Review, Google Walkout, The Guardian

Get latest news from Blognone

Comments

By: tontan
ContributorAndroidSymbianUbuntu
on 7 December 2020 - 02:42 #1188770

ความคิดเห็นแก้คำผิด

ตรวจสอบก็บพว่ารายงาน -> ตรวจสอบก็พบว่ารายงาน
ทำได้รางรายงานวิจัยนี้ไม่ผ่าน?
ตีพิมพ์ได้หรือไม -> ตีพิมพ์ได้หรือไม่
ไมเคยมีการลงโทษ -> ไม่เคยมีการลงโทษ


บล็อก:wannaphong.com บล็อก Python 3

By: Azymik on 7 December 2020 - 04:13 #1188772 Reply to:1188770

ย่อหน้าสาม
ระบุบุถึงความเสี่ยง > ระบุถึงความเสี่ยง
โดนบทนำของงานวิจัยนี้ > โดยบทนำของงานวิจัยนี้

By: soullz
AndroidUbuntu
on 7 December 2020 - 10:25 #1188786
soullz's picture

เหมือนงานวิจัยนี้ จะบอกว่า AI ของกูเกิ้ลเอง มีแนวโน้มที่จะตัดสินใจข้อมูลผิดพลาด
แล้วนักวิจัย ก็ไม่ได้แนะนำว่า จะแก้ไขปัญหานี้อย่างไร
กูเกิ้ลเลยบอกว่า เอาไปแก้มาใหม่ นักวิจัยก็บอกว่า ฉันจะตีพิมพ์
ฝ่ายกู้เกิ้ลเองก็คงต้องการรักษาภาพลักษณ์ของ AI ที่สมบูรณ์แบบที่สุด แต่คนรับเงินไปวิจัยก็ไม่ช่วยแก้ปัญหา แล้วยังจะตีแพ่ปัญหาอีกต่างหาก

ในแง่ของนายจ้าง กูเกิ้ลก็ทำถูกนะรักษาผลประโยชน์ขององค์กร
แต่ในแง่จริยธรรม อืมมม Don't be evil สุดๆ

By: whitebigbird
Contributor
on 7 December 2020 - 10:55 #1188790
whitebigbird's picture

มันแปลกนะ ที่มีคนพยายามพิสูจน์ว่าทุกสิ่งที่อย่างมัน racist หรือมี racial bias

ผมเห็นด้วยนะว่า AI มันมี แต่มันมีเพราะ input ให้มันเรียนรู้น้อย ไม่ใช่เพราะมัน racist

By: raindrop
ContributoriPhoneWindows PhoneWindows
on 7 December 2020 - 11:26 #1188794 Reply to:1188790

เหมือนหลายๆ ทฤษฎีครับ คือถ้าคนๆ นั้น"อิน"ในความคิดอะไรบางอย่างแล้ว พอมองไปรอบตัวก็จะรู้สึกว่าเห็นแต่สิ่งนั้น"เต็มไปหมด" (เช่น ทฤษฎีของฟรอยด์ ที่มองอะไรๆ ก็ดูจะเกี่ยวกับเรื่องเพศไปซะหมด ทฤษฎีอํานาจนิยม ทฤษฎีทางการเมือง ฯลฯ) เหมือนคนใส่แว่นสีๆ จะมองอะไรก็เป็นสีนั้นๆ ไปซะหมด

ส่วนในเคสนี้ผมว่าน่าจะเป็นเรื่องอีโก้...

By: ravipon
iPhoneWindows
on 7 December 2020 - 12:26 #1188804 Reply to:1188790
ravipon's picture

นึกถึงเคส twitter ที่เลือกcrop แต่รูปคนผิวขาวนะ
คือก็ต้องยอมรับก่อนไหมว่ามันมีปัญหานะ ไม่ใช่ไม่มีปัญหานะ “แต่มัน” อะไรแบบนี้

By: whitebigbird
Contributor
on 7 December 2020 - 15:02 #1188822 Reply to:1188804
whitebigbird's picture

ใช่ครับ มันมีปัญหาแน่นอน ซึ่งควรได้รับการดูแลแก้ไขให้ตรงจุด ไม่ใช่พยายามพิสูจน์ว่ามันเป็น racial bias

By: bluezip
AndroidUbuntuWindows
on 7 December 2020 - 10:57 #1188791

รับเงินใคร ก็ทำงานให้กับเขา
การทำงานย่อมมีสายการบังคับบัญชา มีการตรวจสอบ ถ้าหากทำไม่ได้ ก็ไม่ควรอยู่ในองค์กรนั้นๆ

By: 100dej
AndroidWindows
on 8 December 2020 - 10:30 #1188910

EGO ของนักวิจัยก็ท่าทางจะสูงอยู่

แล้วแน่ใจได้อย่างไรว่างานวิจัยไม่มีอคติอะไร

ยากจริง ๆ ทางออกเรื่องนี้

By: whitebigbird
Contributor
on 8 December 2020 - 11:24 #1188926 Reply to:1188910
whitebigbird's picture

เอาจริงๆ ปัญหาไม่ใช่เรื่องอีโก้หรอก แต่ไม่ทำตาม procedure ที่ถูกต้อง แล้วก็ไปขู่เอาตัวเองเป็นตัวประกันว่าจะลาออก ทางทีมบริหารเค้าคงไม่ต้องการให้มีพนักงานคนไหนมาขู่อะไรแบบนี้ เค้าก็อนุมัติให้ออกเลย

อคตินั้นเป็นเรื่องส่วนบุคคล ถ้ามันไม่ส่งผลกับภาพรวมของบ. ทีมบริหารคงไม่แคร์หรอก