Tags:
Node Thumbnail

Groq สตาร์ตอัพผู้สร้างชิปเร่งการประมวลผล AI (คนละบริษัทกับ Grok ที่เป็นของ Twitter/X) สามารถรันโมเดล Llama 3 ตัวใหม่ล่าสุดของ Meta ด้วยความเร็วสูงถึง 800 token ต่อวินาที

ถ้าดูจากสถิติเดิมเมื่อเดือนกุมภาพันธ์ปีนี้ Groq สามารถรัน Llama 2 70B ด้วยความเร็ว 240 token ต่อวินาที ซึ่งถือว่าเร็วมากๆ แล้ว เมื่อเทียบกับตัวเลขของ GPT-4 หรือ Claude Opus ที่ทำได้ไม่ถึง 40 token ต่อวินาที

ตัวเลข 800 token อาจยังไม่ใช่ตัวเลขอย่างเป็นทางการ เพราะทดสอบโดยบุคคลภายนอก Matt Shumer ซีอีโอของบริษัท HyperWrite AI โดยมี Dan Jakaitis วิศวกรของ Groq มาตอบว่าลองทดสอบผ่าน API ของ Meta แล้วยังไม่เร็วเท่ากับการรันบนฮาร์ดแวร์ตรง ซึ่งน่าจะเป็นปัญหาด้านซอฟต์แวร์มากกว่า

ตัวเลขอย่างเป็นทางการที่ Groq โชว์ตอน Llama 3 เปิดตัววันแรก สามารถประมวลผลได้ 284 token ต่อวินาที

ผู้ก่อตั้ง Groq คือ Jonathan Ross ซึ่งเคยอยู่ในทีมออกแบบ TPU รุ่นแรกของกูเกิล จากนั้นโยกไปอยู่ทีม Google X และลาออกมาเปิด Groq โดยเขาเรียกชิปของ Groq ว่าเป็น Language Processing Unit (LPU) ซึ่งมีจุดเด่นทั้งเรื่องความเร็วที่สูงกว่า และต้นทุนในการรันที่ถูกกว่าจีพียู NVIDIA

ที่มา - Groq, VentureBeat

/script>

No Description

Get latest news from Blognone

Comments

By: StatusQuo
iPhoneWindows PhoneAndroidWindows
on 23 April 2024 - 11:16 #1310302

รอดูว่าใครจะมาซื้อไป

By: hisoft
ContributorWindows PhoneWindows
on 23 April 2024 - 12:40 #1310312
hisoft's picture

เล่นแชทบน https://groq.com/ มันก็เร็วมากจริงๆ จากที่เคยคิดว่า Gemini เร็วอันนี้คือเด้งพรวดมาอย่างกับเตรียมคำตอบไว้แล้ว กระทั่งภาษาไทยยังเร็วมากๆ แล้วมีขึ้นบอกความเร็ว token/second ไว้ด้วย เจอแบบ 700 ปลายๆ ถึง 900 กว่าๆ