Apple ได้ออกงานวิจัยเกี่ยวกับปัญญาประดิษฐ์ชิ้นแรกของบริษัทสู่สาธารณะตามที่เคยประกาศไว้ ซึ่งงานวิจัยชิ้นนี้เป็นรายละเอียดเกี่ยวกับการวิจัยเทคโนโลยี computer vision ที่ทางบริษัทกำลังพัฒนาอยู่ โดยยกตัวอย่างเป็นการใช้งานเพื่อระบุภาพถ่าย
งานวิจัยชิ้นนี้ เผยให้เห็นปัญหาของการระบุวัตถุของ AI ที่สอนโดยใช้ภาพที่ทำขึ้นมา เนื่องจากง่ายต่อการใช้งานมากกว่าใช้ภาพจริง แต่ในงานวิจัยกล่าวว่าวิธีการสอน AI แบบนี้มีปัญหาเมื่อนำ AI ไปใช้งานจริง จึงได้เลือกใช้เทคนิคแยก neural network ออกจากกัน และให้ neural network แต่ละเครือข่ายสอนตัวเองเพื่อปรับปรุงความเป็นจริงของภาพจำลอง จนกว่าจะดีเพียงพอที่จะหลอกเครือข่ายที่แตกต่างกัน (a rival discriminator network)
ภายในงานวิจัยบอกว่า ตามทฤษฎีแล้วการใช้หลักการพรีเทรนนิ่งนี้ จะสามารถลดเวลาที่จำเป็นต้องใช้ลงได้มาก และเก็บรายการปัญหาที่คาดการณ์ยากและเกิดขึ้นยากในภาพจริงได้ด้วย
Engadget ให้ความเห็นว่า Apple ใช้เวลานับปีเพื่อแน่ใจว่าจะเข้ามามีส่วนร่วมกับงานวิจัยทางวิทยาศาสตร์อย่างไร ซึ่งในครั้งนี้ถือเป็นก้าวสำคัญ โดย AI นั้นถือว่ากำลังเป็นสิ่งที่หลายบริษัทแข่งขันกัน และท่าทีแต่เดิมที่ Apple ไม่เป็นมิตรต่อวงการวิจัยทำให้ผู้มีความสามารถหลายคนไม่กล้าทำงานกับบริษัท การเปิดเผยงานวิจัยครั้งนี้น่าจะช่วยให้ Apple เป็นมิตรต่อวงการนี้มากขึ้น และสามารถดึงตัวผู้มีความสามารถเข้ามาทำงานกับบริษัทได้ดี โดยเฉพาะโปรเจคสำคัญของบริษัทอย่าง Siri หรือแพลตฟอร์มรถยนต์ขับเคลื่อนอัตโนมัติที่กำลังพัฒนาอยู่
สำหรับผู้ทีสนใจสามารถดาวน์โหลด paper งานวิจัยมาอ่านได้จากที่มา
ที่มา - Cornell University Library ผ่าน Engadget
Comments
ว่างๆต้องโหลดมาอ่านสักหน่อย
ทำไม ? เราไม่สร้าง AI หลายๆ ตัวให้เรียนรู้ Knowledge และพฤติกรรมในแต่ละด้าน เพื่อปรับปรุง Model ของแต่ชุดข้อมูล จากนั้นก็ให้ AI ใน Network สอนกันเองเพื่อให้ได้องค์ความรู้รวม จากนั้นก็เอาองค์ความรู้ทั้งหมด ส่งต่อให้กับ AI สำหรับติดต่อสื่อสาร เพื่อให้ติดต่อสื่อสารกับมนุษย์
เมื่อถึงจุดนึง AI ก็จะสามารถคุยกันเองกับต่างเครือข่ายได้ ถึงแม้จะมีรูปแบบโครงสร้างข้อมูลที่แตกต่างกัน แล้วเราก็จะได้ AI ที่มีองค์ความรู้ไม่สิ้นสุด และเรียนรู้ด้วยตนเองได้เรื่อยๆ โดยที่ไม่ต้องเสียเวลาสร้างองค์ความรู้
สิ่งที่ต้องทำคงไม่ใช่ AI แต่เป็นมาตรฐานให้ AI คุยกันเองได้มากกว่า