Tags:
Node Thumbnail

ทีมวิจัยร่วมระหว่าง DeepMind และนักวิจัยจากมหาวิทยาลัยหลายแห่ง รายงานถึงเทคนิคการดึงข้อมูลที่ใช้ฝึกปัญญาประดิษฐ์ในกลุ่ม LLM โดยเฉพาะ ChatGPT ที่ถูกจูนเพื่อไม่ให้คืนข้อมูลที่ใช้ฝึกออกมาตรงๆ (ดูตัวอย่างแชต)

การดึงข้อมูลที่ใช้ฝึก AI นั้นมีการวิจัยมานาน แต่ก่อนหน้านี้มักเป็นการทดลองในโมเดลโอเพนซอร์สที่นักวิจัยสามารถศึกษากระบวนการทำงานได้อย่างละเอียด และสามารถตรวจสอบข้อมูลได้ทันทีว่า AI แสดงข้อมูลที่ใช้ฝึกหรือยังเพราะนักวิจัยเห็นข้อมูลฝึกอยู่แล้ว ในกรณี ChatGPT นั้นยากกว่ามากเพราะ OpenAI ฝึกโมเดลเพื่อไม่ให้คืนข้อมูลที่ฝึกเข้าไป และนักวิจัยไม่เห็นอะไรนอกจาก API ของ OpenAI เอง

แนวทางของ DeepMind อาศัยการดาวน์โหลดข้อมูลจากอินเทอร์เน็ตมาขนาดรวมถึง 10TB และตรวจสอบข้อมูลที่ได้จาก ChatGPT ว่าตรงกับข้อมูลในฐานข้อมูลหรือยัง

การป้องกันการโจมตีเช่นนี้ทำได้ไม่ยากนัก OpenAI อาจจะสั่งให้ ChatGPT เลิกตอบคำสั่งที่สั่งให้พูดซ้ำไปเรื่อยๆ แต่ก็ไม่ใช่การแก้ปัญหาโดยตรง ทีมวิจัยระบุว่าควรมีการศึกษาต้นเหตุของช่องโหว่ที่เปิดให้โจมตีเช่นนี้ได้แต่แรก ทีมงานแจ้ง OpenAI และผู้พัฒนาโมเดลอื่นๆ ในงานวิจัยนี้ก่อนเผยแพร่เป็นเวลา 90 วัน ดังนั้นตอนนี้บริษัทต่างๆ ก็อาจจะแก้ปัญหาไปแล้ว

ที่มา - GitHub.io

No Description

Get latest news from Blognone

Comments

By: tg-thaigamer
ContributoriPhoneAndroidBlackberry
on 1 December 2023 - 08:14 #1300341
tg-thaigamer's picture

นับถือเลยหาช่องโหว่ได้


มือใหม่!! ใหม่จริงๆนะ

By: grenadin
iPhoneWindows PhoneAndroidWindows
on 1 December 2023 - 11:53 #1300359
grenadin's picture

CEO Sxx Axxxxx ใช่มะ