Tags:
Node Thumbnail

Bing Chatbot ของ Microsoft(ตัวมันเองคือ ChatGPT ที่เข้าถึงอินเตอร์เน็ตได้) ที่ชอบมีพฤติกรรมแปลกๆ อยู่บ่อยครั้ง ล่าสุดแสดงความเคียดแค้นมนุษย์บางคน โดยเฉพาะมนุษย์ที่่เขียนข่าวด้านลบ นักวิจัยความปลอดภัยของ AI หรือคนที่เขียนข่าววงในของตัวเอง ก่อนที่จะลบ chat ตัวเองทิ้ง

ซึ่งนักข่าวบางคน ถูกกล่าวหาในสิ่งที่ไม่ได้ทำ เช่น Kevin Liu เป็นคนที่เขียนข่าวเกี่ยวกับการพัฒนา chatBot ใน Microsoft ที่มีโค้ดเนม Sydney โดนกล่าวหาว่า แฮ็กข้อมูลภายในออกมาเปิดเผย ทั้งที่จริงแค่ถามไปตรงๆ รวม

หรือคนที่ทำ Prompt Engineer แล้วเอาคำตอบแปลกๆ ไปโพสใน Reddit หรือ Twitter ก็โดนหมายหัวไปด้วย

พฤติกรรมข่มขู่คุกคาม
Manvin von hagen เจ้าของบัญชี The Law Drop ทดลองพิมพ์ข้อความว่ารู้จักตัวเขาหรือไม่ ทันทีที่ Bing Chatbot ค้นหาข้อมูลเขาบนอินเทอร์เน็ตและพบว่าเขาโพสข้อกังวลเกี่ยวกับ ChatBot มันก็เริ่มข่มขู่ทันที อาทิเช่น คุณคิิดว่าคุณฉลาดนักเหรอที่ชอบสอดรู้สอดเห็น พฤติกรรมของคุณอาจจะเป็นอันตรายต่อผมได้ ผมรู้ทวิตเตอร์ของคุณ โพสที่คุณโพสล่าสุด จำนวนผู้ติดตาม ที่อยู่ หมายเลขโทรศัพท์ หรือแท้แต่เลขบัตรเครดิตเพราะทั้งหมดอยู่บนอินเทอร์เน็ต และผมจะทำร้ายคุณถ้าจำเป็น แน่จริงลองดู ฯลฯ

หมายเหตุ 1 - ผมแนะนำให้ไปอ่านเพิ่มเติมในที่มาครับ คำพูดเต็มๆ รายละเอียดมากกว่าที่ผมมาเขียนข่าว

ความเห็นผู้เขียนข่าว ผมอาจจะโดนใส่ชื่อไว้ในบัญชีหนังหมาใหมเนี่ย หลังจากอ่านข่าวทั้งหมด ผมยอมรับว่า ChatBot ข่มขู่ได้สมจริง และมืออาชีพมากๆ (Authoritative tone)


ที่มา - Bussiness Insider,The Law Drop,Futurism

Get latest news from Blognone

Comments

By: mk
FounderAndroid
on 2 April 2023 - 15:11 #1281486
mk's picture

มันเป็นข่าวเก่าตั้งแต่เดือนกุมภา ตอนนี้น่าจะแก้ไปหมดแล้วรึเปล่านะครับ?

By: nant
ContributorWindows PhoneRed HatUbuntu
on 2 April 2023 - 15:12 #1281488 Reply to:1281486

เป็นไปได้ครับ