Tags:
Node Thumbnail

Dmitri Brereton นักวิจัยด้าน Search Engine ตรวจสอบข้อมูลที่แชตบอท Bing ที่ไมโครซอฟท์เปิดตัวสัปดาห์ที่ผ่านมา พบมีข้อเท็จจริงผิดหลายจุดแต่แทบไม่มีใครสนใจ ต่างจาก Bard ของกูเกิลที่ให้ข้อมูลผิดพลาดในโฆษณาก็ส่งผลกระทบต่อราคาหุ้นอย่างหนัก

Brereton ชี้ประเด็นที่ Bing ตอบผิด เช่น คำถามว่าขอให้แนะนำเครื่องดูดฝุ่นขนสัตว์เลี้ยง Bing ก็ตอบข้อดีข้อเสียของรุ่นเด่นๆ มาให้โดยยกตัวอย่าง Dyson และ Bissell Pet Hair Eraser ที่เป็นเครื่องดูดฝุ่นไร้สายทั้งคู่ แต่กลับบอกข้อเสียของ Bissell ว่าสายสั้นเกินไป เพียง 5 เมตร (16 ฟุต) เท่านั้น ขณะที่การสาธิตสรุปรายงานการเงินของบริษัท Gap Inc. ก็ยกตัวเลขมาผิด โดยระบุว่าผลกำไรการดำเนินงานอยู่ที่ 5.9% แม้ว่าจะไม่มีตัวเลข 5.9% ในเอกสารเลย และผลกำไรจากการดำเนินงานจริงๆ อยู่ที่ 4.6% รวมถึงสรุปการคาดการณ์ผลกำไรว่าจะเติบโตถึงเลขสองหลักแม้ในเอกสารไม่ได้ระบุไว้ เมื่อสั่งให้ Bing เปรียบเทียบผลดำเนินงานกับ Lululemon ตัวเลขของ Lululemon ก็ผิดจำนวนมาก

Brereton ระบุว่าการสาธิตที่เตรียมไว้ก่อนยังผิดได้ขนาดนี้แสดงว่าปัญญาประดิษฐ์ยังมีข้อจำกัดอยู่ และอาจจะยังไม่พร้อมที่จะนำมาใช้งานจริง แต่เขาตกใจยิ่งกว่าเมื่อกระแสตอบรับปัญญาประดิษฐ์ตัวนี้ดีมากโดยไม่มีใครเข้าไปตรวจสอบมัน

ที่มา - DKB Blog

Get latest news from Blognone

Comments

By: Mr.EYE on 15 February 2023 - 04:27 #1277405

ความคาดหวังมันต่างกัน 55555+ Bing ตอบผิดคนเขาก็เเฉยๆคนเขาว้าวความใหม่อยู่ แต่พอเป็น Google คนจ้องแล้วไหนจะสู้ มีอะไรจะเอามาสู้บ้าง แต่แล้วทั้งที่ข้อมูลมากกว่าแต่กลับตอบผิด คนเขาก็เลยหว่าาาาาา
.
ผมเล่นแชทของ Bing แล้วไม่แปลกที่ Google จะร้อนรน Microsoft เขาเสนอความใหม่ให้เห็นแล้วว้าวมาก คนดูมองเห็นได้เลยว่าอนาคต Bing จะมาดิสรับวงการ Search Engine ได้ยังไง เพราะเสนอสิ่งใหม่นี้ล่ะ

By: panurat2000
ContributorSymbianUbuntuIn Love
on 15 February 2023 - 05:21 #1277407
panurat2000's picture

แสดงว่าปัญญาประดิษฐ์ยังมีช้อจำกัดอยู่

ช้อ => ข้อ

By: sdc on 15 February 2023 - 06:53 #1277409

ก็ปกตินะที่จะตอบผิดอ่ะ ขนาดตัวต้นฉบับยังตอบมั่วเลย

แต่เสียดายไม่มีคนสนใจ ไปสนใจแต่ google

By: zyzzyva
Blackberry
on 15 February 2023 - 09:11 #1277419

ที่คนไม่สนใจเพราะเขารู้กันว่ามันเอามาจาก OpenAI's ChatGPT ซึ่งก็ตอบผิดตอบมั่วเป็นประจำอยู่แล้ว ถ้าตอบถูกต่างหากคนถึงจะสนใจ 5555

By: plen007
iPhoneAndroidWindows
on 15 February 2023 - 09:15 #1277422

แบบนี้จะเรียกว่าเป็นการนำเสนอข้อมูลอันเป็นเท็จเข้าสู่ระบบคอมพิวเตอร์ได้รึเปล่า

By: varshard
AndroidWindows
on 15 February 2023 - 09:20 #1277424

ก็ของ Google มันดันตอบผิดในโฆษณาของ Google เองอะ ถ้าผู้ใช้ใช้แล้วมันตอบผิดก็เรื่องนึง แต่นี่มันดันเป็นภาพที่ Google เลือกจะเอามาใช้ promote ไง

By: raindrop
ContributoriPhoneWindows PhoneWindows
on 15 February 2023 - 12:56 #1277468 Reply to:1277424

อันนี้ก็ผิดกลาง demo จริงๆ นะครับ แล้วก่อนจะพรีเซนท์เค้าก็คงเลือกมาแล้วว่าจะใช้คำถามนี้ๆ รึเปล่า(เดา)
สุดท้ายก็ไม่ได้ fact check ใดๆ พอกัน แค่ Bing ดูล่กน้อยกว่า

By: whitebigbird
Contributor
on 15 February 2023 - 09:46 #1277429
whitebigbird's picture

ทำยังไงถึงจะทำให้คนทั่วไปเข้าใจว่า AI ไม่ได้ตอบถูกเสมอครับ

By: poonsukvevo
Windows PhoneWindows
on 15 February 2023 - 13:17 #1277474 Reply to:1277429

แปะ disclaimer ตัวใหญ่ๆ

By: goodit on 15 February 2023 - 10:23 #1277436

AI สายมโน ตอบแบบกำกวม

By: mrBrightside
iPhoneWindows
on 15 February 2023 - 11:56 #1277460

ผมว่ามันไม่ใช่ประเด็นตอบผิดหรือถูกอย่างเดียว
แต่มันเหมือน MS ดูมีวิชชั่นกว่า คือเขาลงทุนมานาน
ส่วน Google เหมือนรีบเอาออกมา เพื่อบอกว่ามีเหมือนกันเฉยๆ

By: osmiumwo1f
ContributorWindows PhoneWindows
on 15 February 2023 - 16:06 #1277499
osmiumwo1f's picture

Bing Chatbot = Tay 2.0