Tags:
Node Thumbnail

SiFive บริษัทผู้ผลิตซีพียู RISC-V ชื่อดัง เปิดเผยว่าซีพียูของตัวเองรุ่น SiFive Intelligence X280 ถูกนำไปใช้ในศูนย์ข้อมูลของกูเกิล เพื่อช่วยเร่งการประมวลผล AI/ML แล้ว

สิ่งที่กูเกิลทำคือนำ X280 ไปรันคู่กับหน่วยประมวลผล Tensor Processing Unit (TPU) ของตัวเอง เพื่อแบ่งเบาภาระงานบางอย่างออกจากหน่วยประมวลผลหลัก

ซีพียู SiFive X280 มีส่วนขยายชุดคำสั่งแบบเวกเตอร์ และรองรับการรวมรีจิสเตอร์เวกเตอร์เข้าด้วยกัน (รีจิสเตอร์ 512-bit x 32 ตัว) เพื่อให้ได้เวกเตอร์ยาวขึ้น (สูงสุดเป็น 4096 บิต) รวมถึงมีชุดคำสั่งคัสตอมสำหรับงาน AI/ML โดยเฉพาะด้วย จึงช่วยให้งานประมวลผล AI/ML มีประสิทธิภาพดีขึ้น

No Description

No Description

SiFive บอกว่า X280 อาจไม่ไปไกลถึงขั้นหน่วยประมวลผลที่ออกแบบมาเป็นพิเศษเพื่อเร่งความเร็ว AI/ML (accelerator) ซึ่งมีข้อเสียคือโฟกัสที่งานระดับสูงเป็นหลัก และต้องเขียนซอฟต์แวร์ขึ้นมาใหม่ทั้งหมดให้ซัพพอร์ตด้วย แต่จุดเด่นของ X280 คือการเป็นหน่วยประมวลผลร่วม เพื่อช่วยแบ่งโหลดงานบางอย่างออกมาจาก accelerator หลัก เช่น งานทั่วๆ ไปอย่างการประมวลผลสเกลาร์-เวกเตอร์ หรือการรันคำสั่งในเคอร์เนล ที่ไม่จำเป็นต้องทำใน accelerator หลัก

สิ่งที่ SiFive พัฒนาร่วมกับกูเกิลคือสร้าง Vector Coprocessor Interface eXtension (VCIX) ลงในซีพียูโดยตรง เพื่อให้ชิปสองตัวคุยกันได้ผ่านอินเทอร์เฟซนี้ และ TPU สามารถส่งงานมายัง X280 โดยที่มี latency ต่ำ ประสิทธิภาพสูง

No Description

No Description

ที่มา - SiFive, The Register

Get latest news from Blognone