Tags:
Node Thumbnail

NVIDIA เปิดตัวโมดูล NVIDIA GH200 Grace Hopper รุ่นต่อไป หลังจากปีนี้วางตลาดรุ่นแรกไปแล้ว ความเปลี่ยนแปลงสำคัญของรุ่นต่อไปคือการใช้แรม HBM3e ทำให้ใส่แรมได้มากขึ้นมาก เครื่องขนาด 2 โมดูล สามารถใส่แรมได้สูงสุด 282GB ซีพียู 144 คอร์ และพลังประมวลผล AI รวม 8 เพตาฟลอบ (ไม่ระบุว่าที่ความละเอียดระดับใด)

HBM3e เป็นหน่วยความจำประสิทธิภาพสูงที่พัฒนาต่อมาจาก HBM3 โดยก่อนหน้านี้อาจจะเรียกว่า HBM3+ หรือ HBM3 Gen 2 ตอนนี้โรงงานที่ผลิต HBM3 หลักๆ ได้แก่ SK hynix, Samsung, และ Micro และน่าจะเตรียมสายการผลิต HBM3e กันอยู่ โดยรวมแล้วแรม HBM3e บน GH200 รุ่นต่อไปรองรับแบนวิดท์ 10TB/s

Tags:
Topics: 
Node Thumbnail

Sam Altman ซีอีโอของ OpenAI พูดคุยกับ Raza Habib ซีอีโอบริษัท Humanloop ถึงแผนการเปิดตัวบริการหรือฟีเจอร์ของบริการใหม่ๆ โดยระบุว่าฟีเจอร์หลายตัวล่าช้าออกไปเพราะปัญหา GPU ไม่เพียงพอที่จะให้บริการ เช่นฟีเจอร์อ่านภาพได้โดยตรงใน GPT-4 (multimodal) ต้องเลื่อนออกไปถึงปี 2024

แผนการเพิ่มฟีเจอร์ GPT-4 ในปีนี้ ได้แก่

Tags:
Node Thumbnail

NVIDIA เปิดตัวเซิร์ฟเวอร์รุ่นใหม่ NVIDIA DGX GH200 ชูจุดเด่นที่รองรับแรมสูงถึง 144TB เป็นก้าวกระโดดจาก DGX H100 ที่เคยรองรับแรม 640GB ต่อเครื่อง

ภายในตัวเครื่อง ใช้ชิป NVIDIA Grace Hopper Superchip พร้อมแรมแบบ LPDDR5 480GB เซิร์ฟเวอร์แต่ละเครื่องมีซีพียู 8 ชุด และสามารถต่อข้ามเครื่องผ่าน NVLink Switches อีกถึง 256 ซีพียูในแต่ละคลัสเตอร์ ตัวชิปกราฟิกบนแต่ละโมดูลสามารถข้ามไปใช้แรมฝั่งซีพียูด้วยแบนวิดท์ 900GB/s

Tags:
Node Thumbnail

NVIDIA เปิดตัวสถาปัตยกรรมชิปกราฟิกรุ่นต่อไป ในชื่อ NVIDIA Hopper โดยชิปตัวแรก NVIDIA H100 สำหรับลูกค้าระดับองค์กรเป็นหลัก โดยมีฟีเจอร์ภายในสถาปัตยกรรมหลายอย่าง เช่น

Tags:
Node Thumbnail

เอเอ็มดีเปิดตัวการ์ดกราฟิกตระกูลสำหรับเซิร์ฟเวอร์ AMD Instinct MI200 โดยชุดแรกมีสองรุ่นย่อยได้แก่ MI250 และ MI250X เป็นแบบโมดูล (MI210 แบบการ์ด PCIe จะเปิดตัวภายหลัง) มีจุดเด่นอยู่ที่การรองรับแรม HBM แบบ ECC ความจุถึง 128GB ใหญ่กว่ารุ่นปัจจุบันถึง 4 เท่าตัว

เอเอ็มดีระบุว่าการ์ดตระกูล MI200 มีความเปลี่ยนแปลงสำคัญ 3 อย่าง ได้แก่

Tags:
Node Thumbnail

Tesla เปิดตัวชิปฝึกโมเดลปัญญาประดิษฐ์ของตัวเอง เป็นสถาปัตยกรรมเฉพาะชื่อว่า Dojo โดยชิปแต่ละตัวเป็นคอร์ขนาดเล็กพร้อมชุดคำสั่งประมวลผลข้อมูลแบบเวคเตอร์และเมทริกซ์ เชื่อมต่อกับคอร์อื่นๆ ด้วยช่องทางเชื่อมต่อแบนวิดท์สูง

ชิป D1 สถาปัตยกรรม Dojo แต่ละตัวมีซีพียูหรือที่ทาง Tesla เรียกว่า Training Node จำนวน 354 ชุด พลังประมวลผลรวม 362 เทราฟลอบ (ที่ bfloat16) เชื่อมต่อข้อมูลนอกชิปได้ 16 เทราไบต์ต่อวินาที (ด้านละ 4 เทราไบต์ต่อวินาที) ตัวชิปมีสเปคปล่อยความร้อน 400 วัตต์

Tags:
Node Thumbnail

OpenAI เปิดตัว Triton 1.0 ภาษาโปรแกรมที่ออปติไมซ์โค้ดสำหรับทำงานบนชิปกราฟิกโดยอัตโนมัติ โดยได้การทดสอบคูณเมทริกซ์ประสิทธิภาพเทียบกับไลบรารีที่ออปติไมซ์มาเฉพาะอย่าง cuBLAS ของ NVIDIA เอง

ตัวภาษา Triton คล้ายกับไพธอนอย่างมาก แต่กระบวนการทำงานภายในออกแบบมาเพื่อการทำงานร่วมกับชิปกราฟิกโดยเฉพาะ เนื่องจากชิปกราฟิกนั้นต้องการการออปติไมซ์หลายอย่างเพื่อให้โค้ดทำงานได้เต็มประสิทธิภาพ ได้แก่ การย้ายข้อมูลทีละมากๆ เข้าออกจากแรมนอกชิป (DRAM เช่น GDDR ที่เราเห็นในสเปคของการ์ดกราฟิก) จากนั้นต้องวางข้อมูลลง SRAM ของแต่ละคอร์โดยแย่งข้อมูลใช้งานกันให้น้อย ใช้หน่วยความจำส่วนเดิมให้มากๆ และเรียงการประมวลผลตามพฤติกรรมของคอร์กราฟิก รวมถึงการใช้งานชุดคำสั่งพิเศษสำหรับการประมวลผลเฉพาะทาง

Tags:
Node Thumbnail

MLCommons หน่วยงานกลางสำรวจประสิทธิภาพคอมพิวเตอร์ด้าน machine learning และปัญญาประดิษฐ์ออกรายงานเวอร์ชั่น 1.0 โดยมีผู้เข้าร่วมน่าสนใจได้แก่ NVIDIA ที่ส่งเครื่อง DGX-A100 เข้าทดสอบ, อินเทลส่ง Xeon Platinum 8380, กูเกิลส่ง TPUv4 ที่ยังไม่เปิดให้บริการทั่วไป, และ Graphcore สตาร์ตอัพปัญญาประดิษฐ์ส่งเครื่อง IPU-POD เข้าจัดอันดับ

Tags:
Node Thumbnail

AMD เปิดตัวการ์ดเร่งความเร็วงานด้านปัญญาประดิษฐ์และวิทยาศาสตร์ AMD Instinct MI100 ที่ใช้ชิปประมวลผลสถาปัตยกรรม CDNA (Compute DNA) พัฒนาแยกสายออกมาจากสถาปัตยกรรม RDNA ที่ใช้เพื่องานกราฟิกและเกมเป็นหลัก

Tags:
Node Thumbnail

ออราเคิลประกาศให้บริการคลาวด์สาธารณะ ที่ใช้เซิร์ฟเวอร์ที่สร้างจากแพลตฟอร์ม HGX-2 ของ NVIDIA นับเป็นคลาวด์สาธารณะรายแรกที่ใช้แพลตฟอร์มนี้

นอกจากการใช้เซิร์ฟเวอร์ HGX-2 แล้ว ออราเคิลยังประกาศรองรับไลบรารี RAPIDS ที่เพิ่งเปิดตัว ทำให้สามารถทำโค้ดที่พัฒนาด้วยชุดไลบรารี RAPIDS ไปรันบนคลาวด์ได้โดยสะดวก

เซิร์ฟเวอร์ในตระกูล HGX-2 จะเป็นเครื่องแบบ GPU4 โดยมีขนาดใหญ่สุดคือ BM.GPU4.8 ซีพียู 48 คอร์ แรม 768GB และชิปกราฟิก Tesla V100 แรม 32GB อีก 8 ชุด

ราคาต่อชั่วโมงยังไม่แจ้ง

Tags:
Node Thumbnail

งานวิทยาศาสตร์ข้อมูล (data science) มักนิยมภาษา R หรือไลบรารี Pandas ในไพธอนที่มองข้อมูลเป็น data frame ที่เป็นตาราง ตอนนี้ NVIDIA ก็หันมาจับตลาดนี้ด้วยการเปิดตัวโครงการ RAPIDS ที่เปิดให้นักวิทยาศาสตร์ข้อมูลสามารถใช้ชิปกราฟิกประมวลผลข้อมูลเหล่านี้ได้เร็วขึ้น

ตอนนี้ใน GitHub และเอกสารการใช้งานมีเฉพาะไลบรารี pygdf ไลบรารีสำหรับโหลดข้อมูลแบบ data frame แต่เมื่อโครงการสมบูรณ์จะมีโครงการ cuML ที่เทียบเท่า scikit-learn และ cuGRAPH สำหรับงานประมวลผลกราฟ และไลบรารีสำหรับแสดงผลข้อมูลประสิทธิภาพสูงเพราะใช้ชิปราฟิกเรนเดอร์

โครงการยังไม่สมบูรณ์นัก แต่หาก NVIDIA บุกตลาดนี้โดยตรงก็นับว่าน่าจับตามอง

Tags:
Node Thumbnail

Google Cloud ประกาศลดราคาค่าใช้ชิปกราฟิกทุกรุ่น ตั้งแต่ K80, P100, และ V100 เมื่อเรียกใช้แบบชั่วคราว (preemptible) ทำให้ราคาตอนนี้เหลือเพียงประมาณ 70% ของราคาเต็มเท่านั้น

ราคาใหม่ทำให้ K80 เหลือชั่วโมงละ 0.135 ดอลลาร์ (4.3 บาท), P100 เหลือชั่วโมงละ 0.43 ดอลลาร์ (14 บาท), และ V100 เหลือชั่วโมงละ 0.74 ดอลลาร์ (24 บาท) เท่ากันหมดทุกโซน

เครื่องแบบ preemptible อาจถูกสั่งปิดเครื่องได้ทุกเวลา และการเปิดเครื่องทิ้งไว้จะเปิดได้ไม่เกิน 24 ชั่วโมง จึงเหมาะกับการใช้สำหรับงานชั่วคราว เช่นการฝึกโมเดล deep learning เท่านั้น โดยโมเดลการนำเครื่อง "เหลือใช้" มาหาเงินของ Google Cloud จะต่างจาก AWS ที่มีราคาล่วงหน้าแน่นอน ขณะที่ AWS Spot Instance นั้นต้องอาศัยการประมูลเครื่องที่เหลือเอา

Tags:
Topics: 
Node Thumbnail

NVIDIA เปิดตัวแพลตฟอร์ม HGX-2 ที่ตามสเปคแล้วเหมือนกับเซิร์ฟเวอร์ DGX-2 ที่เปิดตัวมาก่อนหน้านี้แทบทุกประการ แต่ความเป็นแพลตฟอร์ม HGX-2 จะเปิดให้ผู้ผลิตที่ผลิตเซิร์ฟเวอร์บนแพลตฟอร์มนี้สามารถปรับแต่งสเปคได้ตามความต้องการ

ตัวอย่างของการปรับแต่ง เช่น ศูนย์ข้อมูลบางศูนย์ไม่ต้องการตัวจ่ายไฟแยกตามเซิร์ฟเวอร์แต่ละตัว แต่ต้องการจ่ายไฟจากระบบบัสชุดเดียวทั้งตู้ หรือลูกค้าบางรายมีสเปคเฉพาะสำหรับตำแหน่งการวางพอร์ตต่างๆ

ตอนนี้มีผู้ผลิตที่เข้าร่วมจะผลิตเซิร์ฟเวอร์ที่ใช้แพลตฟอร์ม HGX-2 แล้ว เช่น เลอโนโว, Supermicro, Wiwynn, และ QCT

Tags:
Node Thumbnail

ไอบีเอ็มประกาศเพิ่มจีพียู Tesla P100 จากเดิมที่มีเฉพาะ M60, K80, และ K2 ภายในเดือนนี้ ซึ่งทำให้เป็นคลาวด์เจ้าแรกที่ใช้จีพียูรุ่นล่าสุดจาก NVIDIA

Tesla P100 เปิดตัวมาครบหนึ่งปีพอดี แต่สำหรับคลาวด์เจ้าหลักๆ การอัพเกรดใช้เวลานานกว่ารอบอัพเกรดของจีพียูตามบ้าน โดยเมื่อต้นปีที่ผ่านมากูเกิลเปิดให้ลูกค้าสามารถต่อจีพียูเข้ากับเซิร์ฟเวอร์บนคลาวด์ได้ แต่ยังเป็น Tesla K80

ตอนนี้ไอบีเอ็มยังไม่เปิดเผยราคา แต่เครื่องรุ่นก่อนหน้านี้เป็น Tesla K80 แรม 24GB พร้อม Xeon E5-2620v4 แรม 128GB ราคาอยู่ที่ 5.3 ดอลลาร์ต่อชั่วโมง

Tags:
Node Thumbnail

Google Cloud เปิดตัวบริการ GPU ให้ลูกค้าสามารถเลือกติดตั้งการ์ด Tesla K80 เข้ากับเครื่องใดก็ได้ที่ต้องการ โดยเซิร์ฟเวอร์แต่ละเครื่องสามารถติดการ์ดได้ 8 ใบ

การ์ดแต่ละใบเป็น NVIDIA K80 มาพร้อมกับ CUDA core ทั้งหมด 2,496 คอร์ และแรม 12GB ราคาชั่วโมงละ 0.7 ดอลลาร์ในสหรัฐฯ และ 0.77 ดอลลาร์ในยุโรปและเอเชีย

บริการเช่นนี้ตรงกับบริการ Elastic GPU ของ AWS ที่เปิดตัวตั้งแต่ปลายปีที่แล้ว แต่จนตอนนี้ยังอยู่ในสถานะเบต้าวงปิด ส่วนกูเกิลเปิดเป็นเบต้าแบบเปิดให้ทุกคนใช้งานแล้ว

Tags:
Node Thumbnail

เอเอ็มดีเปิดตัวสถาปัตยกรรมกราฟิกยุคต่อไปที่ใช้ชื่อว่า VEGA อย่างเป็นทางการ หลังจากพูดถึงสถาปัตยกรรมนี้อย่างผ่านๆ ในการเปิดตัวการ์ด Instinct ตั้งแต่เดือนที่แล้ว โดยฟีเจอร์สำคัญคือระบบหน่วยความจำที่ออกแบบใหม่หมด, หน่วยประมวลผลที่ปรับการทำงานได้หลากหลาย, ระบบคำนวณเรขาคณิตรุ่นใหม่, และการเรนเดอร์ภาพประสิทธิภาพสูง

Tags:
Node Thumbnail

AWS เปิดตัวเซิร์ฟเวอร์ในกลุ่ม EC2 ชุดใหญ่ นอกจากการอัพเกรดเครื่องตามรอบแล้วยังมีสามบริการสำคัญคือ Lightsail, Elastic GPU, และเครื่อง F1 สำหรับการออกแบบวงจรเร่งความเร็วเอง

Lightsail ตอบโจทย์สำหรับผู้ที่ต้องการตั้งเซิร์ฟเวอร์เพื่องานง่ายๆ เช่นเว็บบล็อก ผู้ใช้จะสามรรถเลือกแอปพลิเคชั่นที่ต้องการใช้งานแล้วเลือกขนาดเซิร์ฟเวอร์เพื่อรันได้ทันที โดยไม่ต้องยุ่งกับระบบความปลอดภัยของ AWS อีก

Elastic GPU เป็นบริการเสริมของเครื่อง EC2 ทุกรุ่น ทำให้ทุกเครื่องสามารถใช้งานกราฟิกได้โดยไม่ต้องซื้อเครื่อง P2 ที่มีขนาดใหญ่เสมอไป แต่สามารถซื้อเครื่องและกราฟิกแยกจากกันตามความต้องการ

Tags:
Node Thumbnail

AMD เปิดตัวชุดซอฟต์แวร์ Radeon Open Compute Platform (ROCm) รุ่นใหม่ที่รองรับชิปของเอเอ็มดีรุ่นใหม่ๆ ที่เปิดตัวมาพร้อมกับ MacBook Pro รองรับการใช้งานแบบ Virtualization และ container

ชุดซอฟต์แวร์ ROCm มาพร้อมกับคอมไพล์เลอร์ HCC ตัวใหม่ที่รองรับการคอมไพล์ครั้งเดียวให้ทำงานได้ทั้งซีพียูและจีพียู, HIP ระบบพอร์ตโค้ดจาก CUDA พร้อมกับโชว์การพอร์ตโค้ดที่ใช้พัฒนาด้วย Caffe มารันบนชิป AMD, และไลบรารีทางคณิตศาสตร์ชุดใหม่

ทางเอเอ็มดีระบุว่าปีหน้า Google Compute Engine และ Google Machine Learning จะเริ่มมีเซิร์ฟเวอร์ที่ใช้ชิป AMD ให้บริการ โดยใช้ AMD FirePro S9300

Tags:
Node Thumbnail

Amazon EC2 เพิ่มเครื่องประเภทที่ต้องการชิปกราฟิกจากเดิมเครื่องแบบ G2 ที่ให้กราฟิกไม่ระบุรุ่น มาเป็นเครื่อง P2 ที่ให้การ์ด Tesla K80 แรม 12GB

เครื่อง P2 ใช้ซีพียูเป็น Intel Xeon E5-2686v4 พร้อมกับการ์ดเน็ตเวิร์คแบบใหม่ที่สามารถส่งข้อมูลได้สูงสุด 20Gbps เหมาะกับงานที่ต้องการประมวลผลสูง เช่น งานจำลองและงานเรนเดอร์

เครื่องมีให้เลือก 3 แบบ คือ

Tags:
Node Thumbnail

นอกจาก Vulkan แล้ว กลุ่ม Khronos ยังออกสเปก OpenCL 2.1 รุ่นรับฟังความเห็น (provisional spec) มาพร้อมกัน

สำหรับคนที่ไม่รู้จัก OpenCL เป็น API มาตรฐานสำหรับใช้ GPU ประมลผลงานทั่วไปที่ไม่ใช่งานกราฟิก (GPGPU) โดยมาตรฐานรุ่นล่าสุดก่อนหน้านี้คือ OpenCL 2.0 ที่ออกในปี 2013

ของใหม่ของ OpenCL 2.1 มีดังนี้

Tags:
Node Thumbnail

งาน SC14 หลักจากฝั่งอินเทลปล่อยสินค้าไปแล้ว ทางฝั่ง Nvidia ก็เปิดตัวสินค้าบ้าง คือการ์ด Tesla K80 ที่อัพเกรดจากรุ่นเดิมคือ K40 สองเท่าแทบทุกอย่าง

ฮาร์ดแวร์ของการ์ด K80 ใส่ชิปกราฟิก Kepler GK210 มาสองตัว แรม GDDR5 รวม 24GB มีคอร์ CUDA ทั้งหมด 4992 คอร์ ให้พลังประมวลผลเลขทศนิยมแบบ double precision ที่ 2.91 เทราฟลอบเมื่อเร่งสัญญาณนาฬิกา (เทียบกับ K40 ที่มีพลังประมวลผล 1.66 เทราฟลอบ)

การ์ด Tesla K80 เริ่มส่งมอบแล้ววันนี้ แต่ต้องสั่งผ่านผู้ผลิตเซิร์ฟเวอร์และตัวแทนจำหน่าย

ที่มา - Nvidia

Tags:
Topics: 
Node Thumbnail

เอเอ็มดีเปิดตัว APU ตระกูล R สำหรับคอมพิวเตอร์ฝังตัวรุ่นที่สองในชื่อรหัส Bald Eagle หลังจากเปิดรุ่นแรกในปีที่แล้ว ความเปลี่ยนแปลงคืออัพเกรดคอร์เป็น Steamroller และใช้ชิปกราฟิก Radeon HD-9000

APU รุ่นใหม่นี้จะรองรับสถาปัตยกรรม HSA ทำให้สามารถเขียนแอพพลิเคชั่นบนจีพียูได้ง่ายขึ้น สำหรับงานที่ต้องการความน่าเชื่อถือสูง Bald Eagle จะรองรับแรม ECC ด้วย

มีรุ่นสองคอร์และสี่คอร์ กินไฟ 17 วัตต์ และ 35 วัตต์ตามลำดับ ยังไม่ระบุวันวางจำหน่าย

ที่มา - AMD

Tags:
Node Thumbnail

เอเอ็มดีสาธิตซีพียู Opteron X ชื่อรหัส Berlin ในงาน Red Hat Summit 2014 เป็นครั้งแรก โดยแสดงความสามารถของซีพียูที่รองรับสถาปัตยกรรม HSA บน Fedora โดยตัวแอพพลิเคชั่นพัฒนาบน Java 8 ที่มี API ชุดใหม่ในโครงการ Sumatra ทำให้สามารถย้ายงานไปมาระหว่างซีพียูและจีพียูได้ในโค้ดเดียวกัน

ตัว Opteron X ยังไม่ระบุวันเปิดตัวแน่ชัดบอกเพียงว่าจะเปิดตัวภายในปีนี้ และตัว Fedora ที่ใช้สาธิตก็ยังไม่มีแผนว่าทาง Red Hat จะรวมความสามารถนี้เข้าไปใน RHEL เมื่อใด การใช้งานระดับองค์กรจริงๆ จึงน่าจะใช้เวลาอีกนับปี

Tags:
Node Thumbnail

ที่งาน SC13 ปีนี้พระเอกของงานคงย้ายไปอยู่ที่ผู้ผลิตชิปกราฟิก ที่ได้รับความนิยมในซุปเปอร์คอมพิวเตอร์รุ่นใหม่ๆ อย่างมาก สามวันก่อนหน้านี้ เอเอ็มดีเปิดตัว FirePro S10000 รุ่นแรม 12GB ในวันนี้เองทาง NVIDIA ก็ออกมาเปิดตัว Tesla K40 รุ่นอัพเกรดจาก K20 ให้มีแรม 12GB เท่ากัน

การใช้งานชิปกราฟิกเพื่องานจำลองทางการเงิน, ฟิสิกส์, หรือเคมี นั้นต่างจากการประมวลผลกราฟิกทั่วไป แม้งานจะประมวลผลขนานเหมือนกันทำให้ที่ผ่านมาเราสามารถใช้ชิปกราฟิกมาเร่งความเร็วได้ แต่การจำลองเหล่านี้มักมีชุดข้อมูลขนาดใหญ่มากการที่การ์ดกราฟิกมีหน่วยความจำจำกัดทำให้ต้องย้ายข้อมูลเข้าออกบ่อยครั้ง เสียประสิทธิภาพไปมาก

Tags:
Node Thumbnail

NVIDIA เปิดตัวภาษา CUDA 6 สำหรับการเขียนโปรแกรมบน GPU ของตัวเองโดยมีความสามารถสำคัญคือ Unified Memory หรือการมองหน่วยความจำของซีพียูและจีพียูเป็นผืนเดียวกัน ทำให้สามารถพัฒนาซอฟต์แวร์ได้ง่ายขึ้น

Pages