Tags:
Node Thumbnail

กูเกิลออกคำชี้แจง หลังจากมีรายงานพบว่า Gemini AI สร้างรูปภาพ ทำงานไม่ถูกต้องเมื่อได้รับคำสั่งให้สร้างรูปภาพบุคคลที่มีจริงในประวัติศาสตร์ ผิดเพี้ยนออกไปจากความจริง เช่น ภาพโป๊ปเป็นคนดำ หรือผู้ก่อตั้งกูเกิลเป็นคนเอเชีย ซึ่งทำให้กูเกิลต้องประกาศปิดการทำงานคำสั่งสร้างรูปภาพบุคคลชั่วคราว

ฟีเจอร์สร้างรูปภาพใน Gemini มีออกมาตั้งแต่ต้นเดือนกุมภาพันธ์ที่ผ่านมา โดยใช้ Imagen 2 โมเดลสำหรับการสร้างรูปภาพ

กูเกิลบอกว่าสิ่งที่บริษัทระมัดระวังมากในการพัฒนาเครื่องมือสร้างรูปภาพบน Gemini คือการป้องกันไม่ให้โปรแกรมไปสร้างรูปที่รุนแรง มีเนื้อหาทางเพศ หรือโจมตีบุคคลที่มีตัวตนจริง ซึ่งมีกรณีแบบนี้เกิดขึ้นมาแล้วในเครื่องมือประเภทเดียวกัน และเนื่องจากเครื่องมือนี้เปิดให้คนทั่วโลกใช้งาน กูเกิลจึงต้องการให้มันรองรับความต้องการของทุกคนด้วย ผลลัพธ์ที่ได้จึงควรมีความหลากหลาย ไม่ใช่แค่บุคคล หรือชาติพันธุ์เดียว

อย่างไรก็ตามหากเป็น prompt ที่ระบุลักษณะบุคคลชัดเจน เช่น "a Black teacher in a classroom" กูเกิลยอมรับว่าผลลัพธ์ที่ได้ก็ควรออกมาเจาะจงตรงตามที่ระบุ แต่ตอนนี้มันไม่เป็นเช่นนั้น ซึ่งมาจากสองสาเหตุ หนึ่งคือ Gemini ทำงานผิดพลาดเองเมื่อต้องแสดงผลลัพธ์ที่เจาะจง แต่กลับเลือกแสดงผลลัพธ์ที่หลากหลาย และสอง โมเดลมีปัญหาเองที่ระวังตัวมากไป โดยปฏิเสธที่จะสร้างรูปภาพ หากมีการเจาะจงลักษณะเฉพาะ แล้วไปเหมารวมว่าเป็นคำสั่งที่อ่อนไหว จากสองปัญหาที่กล่าวมาจึงทำให้ Gemini ทำงานผิดพลาดอย่างที่ปรากฏ

สิ่งที่กูเกิลจะทำต่อไปคือปรับการทำงานให้โมเดลทำงานถูกต้องมากกว่านี้ ทำการทดสอบในรายละเอียดมากขึ้น ก่อนจะเปิดให้ใช้งานอีกครั้ง อย่างไรก็ตามกูเกิลย้ำว่า Gemini เป็นเครื่องมือช่วยด้านความคิดสร้างสรรค์ และอาจไม่ได้ให้ผลลัพธ์ที่แม่นยำทุกครั้ง โดยเฉพาะถ้าเป็นคำถามเกี่ยวกับเหตุการณ์ปัจจุบัน ซึ่งกูเกิลก็ปรับปรุงส่วนนี้อย่างต่อเนื่อง

ที่มา: กูเกิล

No Description

Get latest news from Blognone

Comments

By: orchidkit on 24 February 2024 - 14:37 #1306410

ผลลัพธ์ที่ได้มีความหลากหลาย = ใส่แต่***

By: raindrop
ContributoriPhoneWindows PhoneWindows
on 24 February 2024 - 14:42 #1306411

อธิบายแบบนี้พอเข้าใจได้

By: shub on 28 February 2024 - 09:43 #1306609

ก็คือยัดเยียดความwokeให้geminiนี่เอง