Tags:
Node Thumbnail

กูเกิลทดสอบฟีเจอร์ใช้ Generative AI ช่วยตอบคำถามของผู้ใช้งานผ่านหน้าผลการค้นหามาตั้งแต่ปีที่แล้ว ซึ่งปัจจุบันเรียกชื่อฟีเจอร์นี้ว่า AI Overviews และมีแผนขยายบริการนี้ไปยังผู้ใช้งานทุกคน โดยเริ่มที่สหรัฐอเมริกาในสัปดาห์ที่ผ่านมา จึงทำให้มีรายงานการตอบคำถามของกูเกิลที่ดูไม่ค่อยดีเท่าใดนักออกมา

ผู้ใช้งานคนหนึ่งแชร์คำตอบของคำถามว่า ทำพิซซ่าอย่างไรให้ชีสไม่ไหลหลุดจากแป้ง ซึ่ง AI Overviews ตอบว่าให้ผสมกาวไป 1/8 ถ้วย จะช่วยได้ คำตอบนี้ย่อมไม่ถูกต้องและทำจริงไม่ได้ ที่น่าสนใจคือใน Reddit มีคนค้นพบว่า เคยมีคนตอบแบบนี้เมื่อ 11 ปีที่แล้ว ซึ่งน่าจะเป็นแหล่งข้อมูลที่กูเกิลนำมาใช้ตอบนั่นเอง

ยังมีกรณีคำตอบอื่นที่ผิดปกติไปมาก เช่น John Adams อดีตประธานาธิบดีสหรัฐ เรียนจบ University of Wisconsin-Madison 21 ครั้ง, สุนัขสามารถลงแข่งบาสเกตบอล NBA ได้, Batman เป็นตำรวจ

Meghann Farnsworth ตัวแทนของกูเกิลชี้แจงปัญหาที่เกิดขึ้นว่าส่วนใหญ่เกิดจาก การตั้งคำถามที่ไม่ปกติ และผู้ใช้งานส่วนใหญ่ไม่ได้เจอปัญหาการให้คำตอบแบบนี้ โดยกูเกิลจะนำปัญหาที่เกิดขึ้นนี้มาปรับแก้ไขการทำงานต่อไป

ที่มา: The Verge ภาพ Pixabay

No Description

Get latest news from Blognone

Comments

By: deaknaew on 24 May 2024 - 13:50 #1312711

คำถามแรกมันค่อดธรรมดาเลยนะ

By: shub on 24 May 2024 - 14:54 #1312721

จำได้ว่ามีหนังเก่าอันนึงที่เป็นคนอยู่ดีๆสมองเชื่อมต่อกับอินเตอร์เน็ต เลยสามารถตอบคำถามได้ทุกอย่างเลยไปออกรายการแข่งขันตอบคำถาม ตอบถูกมาทุกข้อแต่ดันมีข้อนึงตอบผิดเพราะข้อมูลที่ได้มาจากบนเน็ตดันเป็นข้อมูลผิด 🤣 สภาพคือเหมือนAiตอนนี้เลยมีข้อมูลเยอะแต่ไม่สามารถแยกแยะได้ว่าอันไหนถูกหรือผิด เอาจริงๆขนาดใช้คนยังแยกยากเลยข้อมูลบางอย่างก็คือเชื่อต่อๆกันมาไม่ได้ผ่านการคิดอะไรเท่าไหร่

By: Hoo
AndroidWindows
on 24 May 2024 - 18:11 #1312739

garbage in, garbage out.

ดูท่า AI ยังคงต้องการคน clean ข้อมูลไปอีกสักพัก

By: mrBrightside
iPhoneWindows
on 24 May 2024 - 18:30 #1312743

เห็นเมื่อเช้า มันแนะนำให้คนกินก้อนหินวันละก้อน

By: Tasksenger on 24 May 2024 - 18:59 #1312744

มันก็ search engine เวอร์ชั่นสรุปข้อมูลให้นั่นแหล่ะ มันหา pattern ของข้อมูลแล้วเอาเทียบกับ prompt ที่ส่งเข้ามา ถ้ามองว่า prompt คือ dimension ส่วน pattern คือ index ที่ชี้ไปยังข้อมูลใน fact table ที่มีการ train ข้อมูลเพื่อหา pattern เอาไว้ ก็ไม่แปลกที่มันอาจให้ข้อมูลที่ผิดพลาดไปบ้างถ้า index ชี้ไปยังข้อมูลที่ไม่ได้มีการตรวจสอบความถูกต้องมาก่อน