Tags:
Node Thumbnail

อินเทลและกลุ่มบริษัทไอทีหลายราย ประกาศตั้งกลุ่ม Compute Express Link (CXL) พัฒนาบัสความเร็วสูง เชื่อมต่อซีพียูกับหน่วยความจำ และตัวช่วยเร่งการประมวลผล (accelerator) อย่างจีพียู, FPGA, อุปกรณ์เครือข่าย หรือหน่วยประมวลผลเฉพาะงาน AI ที่เริ่มออกสู่ตลาดกันบ้างแล้ว

พันธมิตรของอินเทลรอบนี้ได้บริษัทสำคัญๆ มากันครบ ได้แก่ Alibaba, Cisco, Dell EMC, Facebook, Google, Hewlett Packard Enterprise, Huawei, Microsoft โดยรูปแบบการใช้งานเน้นไปที่ศูนย์ข้อมูลเป็นหลัก

อินเทลบอกว่าพัฒนา CXL เพราะรูปแบบของการประมวลผลเปลี่ยนไป เราเริ่มเห็นตัวเร่งการประมวลผลเฉพาะทางกันมากขึ้น โดยเฉพาะสายงานด้าน AI จึงต้องการบัสความเร็วสูงที่รองรับการส่งข้อมูลมากๆ กับซีพียู และในหลายกรณีคือแชร์หน่วยความจำระหว่างซีพียูกับตัวเร่งการประมวลผลด้วย

No Description

CXL จึงถูกพัฒนาขึ้นเพื่อตอบโจทย์นี้ ความสามารถของมันคือมองแรมเป็นผืนเดียวกัน, latency ต่ำ และมีแบนด์วิดท์สูงพอ ตัวมันเองถูกพัฒนาต่อยอดจาก PCIe 5.0 โดยอยู่ในรูปมาตรฐานเปิดเพื่อให้สมาชิกใช้งานได้ร่วมกัน

อินเทลระบุว่าจะออกผลิตภัณฑ์ที่ใช้ CXL ในปี 2021 เป็นต้นไป ครอบคลุมทั้งซีพียูตระกูล Xeon, จีพียู, FPGA และการ์ดเครือข่าย

คู่แข่งของ CXL ในท้องตลาดคือกลุ่ม CCIX ที่มี AMD, ARM, Qualcomm, IBM เป็นสมาชิก ส่วน NVIDIA ก็มีบัสของตัวเองคือ NVLink

ที่มา - Intel, CXL, VentureBeat

Get latest news from Blognone

Comments

By: stan
ContributoriPhoneAndroidUbuntu
on 13 March 2019 - 10:14 #1101027
stan's picture

น่าจะเอามาแข่งกับ Infinity Fabric ของ AMD