Tags:
Topics: 
Node Thumbnail

AWS ประกาศเพิ่มโมเดล Mistral 7B และ Mixtral 8x7B ให้ใช้งานบน AWS Bedrock เร็วๆ นี้ โดยระบุว่าทั้งสองโมเดลมีจุดเด่นเรื่องของความเร็วและค่าใช้จ่ายที่ถูกกว่า นอกจากนี้องค์กรบางส่วนยังอาจต้องการโมเดลที่ตรวจสอบได้ การใช้โมเดลโอเพนซอร์สจึงเป็นทางเลือกสำคัญ

Mixtral 8x7B นั้นมีคะแนนทดสอบค่อนข้างใกล้เคียงกับ GPT-3.5 แต่มีจุดเด่นที่รันได้เร็วมาก โดยตอนนี้ผู้ให้บริการที่เน้นความเร็วอย่าง Groq นั้นโชว์ว่าสามารถรันได้ที่ระดับ 500 token/s เลยทีเดียว

แนวทางเพิ่มโมเดลเข้ามาเรื่อยๆ จากผู้ผลิตหลายรายทำให้ AWS Bedrock มีตัวเลือกจำนวนมาก ตอนนี้ได้แก่ AI21 Labs, Anthropic, Cohere, Meta, Stability AI, และ Amazon เอง

ตอนนี้โมเดลยังใช้งานไม่ได้ ทาง AWS ระบุว่าจะเปิดให้ใช้งานจริงเร็วๆ นี้

ที่มา - AWS Blog

No Description

Get latest news from Blognone