Tags:
Node Thumbnail

กลุ่มผู้ร่วมก่อตั้ง OpenAI ได้แก่ Sam Altman, Greg Brockman, และ Ilya Sutskever เขียนบล็อกเรียกร้องว่ารัฐต้องเข้ามากำกับการพัฒนาปัญญาประดิษฐ์ฉลาดเหนือมนุษย์ (superintelligence) รูปแบบเดียวกับที่รัฐบาลต้องเข้ามาควบคุมการพัฒนาเทคโนโลยีนิวเคลียร์

ข้อเสนอนี้ระบุชัดว่าควรจำกัดเฉพาะระดับ superintelligence เท่านั้นไม่ควรไปสร้างเงื่อนไขกับปัญญาประดิษฐ์ที่ความสามารถต่ำกว่านี้มากเกินไป

ข้อเสนอระบุ 3 แนวทาง ได้แก่

  1. สร้างความร่วมมือขนาดใหญ่เพื่อพัฒนาปัญญาประดิษฐ์ระดับเหนือมนุษย์อย่างระมัดระวัง ทำข้อตกลงร่วมกันว่าจะเพิ่มความสามารถมันในอัตราที่กำหนดไว้
  2. มีองค์กรควบคุมการพัฒนา สามารถเข้าตรวจสอบการพัฒนาได้แบบเดียวกับที่ IAEA ตรวจสอบหน่วยงานด้านนิวเคลียร์ทั่วโลก หน่วยงานนี้สามารถกำหนดเงื่อนไขการพัฒนาหรือใช้งานเพิ่มเติมได้
  3. พัฒนาความสามารถในการตรวจสอบเพื่อให้แน่ใจว่าปัญญาประดิษฐ์เหนือมนุษย์จะปลอดภัย

บทความระบุว่าปัญญาประดิษฐ์เหนือมนุษย์นั้นมีทั้งข้อดีและข้อเสีย หากพัฒนาสำเร็จเราน่าจะแก้ปัญหาต่างๆ ในโลกได้จำนวนมาก และคุณภาพชีวิตมนุษย์ก็จะดีขึ้นมาก และการห้ามพัฒนาไปทั้งหมดก็ทำได้ยากมากเพราะหน่วยงานที่มีความสามารถจะพัฒนาก็มากขึ้นเรื่อยๆ ตามการพัฒนาของเทคโนโลยี

ที่มา - OpenAI

Get latest news from Blognone