Tags:
Node Thumbnail

สำนักงข่าว Wall Street Journal รายงานถึงการแข่งขันสร้างบริการจากเทคโนโลยีในกลุ่ม LLM เช่น ChatGPT ในช่วงนี้ว่าบริษัทต่างๆ กำลังลงทุนอย่างหนัก และหลายบริการก็ไม่สามารถทำกำไรได้แม้จะเก็บค่าใช้งานแล้วก็ตาม

ข้อมูลจาก WSJ ระบุว่าต้นทุนการให้บริการ GitHub Copilot เฉลี่ยยังอยู่ที่ 20 ดอลลาร์ต่อคนต่อเดือน แต่เก็บค่าบริการเพียง 10 ดอลลาร์เท่านั้น ผู้ใช้บางคนใช้งานอย่างหนักจนสร้างต้นทุนเดือนละ 80 ดอลลาร์ก็มี โดยบริการ GitHub Copilot นี้มีผู้ใช้งาน 1.5 ล้านคนสร้างค่าใช้จ่ายให้ไมโครซอฟท์พอสมควร

ตัว LLM ชั้นสูงที่ให้คำตอบได้ค่อนข้างดี เช่น GPT-4 นั้นมีต้นทุนบริการค่อนข้างแพง และบริการใหม่ๆ ที่ใช้ LLM มาเป็นฟีเจอร์ก็เริ่มตั้งราคาแพงขึ้น เช่น Microsoft 365 Copilot คิดค่าใช้งาน 30 ดอลลาร์ต่อคนต่อเดือน

ต้นทุนการใช้งานที่ค่อนข้างสูงทำให้บริการต่างๆ ที่ใส่ฟีเจอร์ LLM เข้ามาต้องหาทางประหยัดต้นทุนลง เช่น Zoom มีข่าวว่าพยายามรันโมเดลของตัวเองที่ซับซ้อนน้อยลง, Adobe จำกัดปริมาณการใช้งาน แม้แต่ Bing Chat เองก็อาจจะหันไปใช้ Llama 2 ของ Meta รวมถึงการออปติไมซ์โครงสร้างการรันโมเดลขนาดใหญ่

ที่มา - ArsTechnica

Get latest news from Blognone

Comments

By: Aize
ContributorWindows PhoneAndroidWindows
on 11 October 2023 - 13:34 #1296378
Aize's picture

คงไม่ขึ้นราคา Copilot หรอกนะ...


The Dream hacker..

By: gamoman
AndroidWindows
on 12 October 2023 - 17:37 #1296507 Reply to:1296378

ลองถาม Co pilot ดูสิ อาจจะโป๊ะแตกเหมือนตอนคนถาม ChatGPT เรื่องค่าบริการที่เหมาะสมด้วย

By: Mediumrare
AndroidWindows
on 11 October 2023 - 14:01 #1296382

ตัว LLM ชั้นทำ

?

By: Tasksenger on 11 October 2023 - 17:01 #1296400

่มันก็ยังเป็นโอกาสนั่นแหล่ะ เพราะปัจจุบัน LLM ต่างก็มุ่งไปแข่งกันสร้าง model ขนาดใหญ่ ทั้งๆ ที่จริงๆ แล้วในแต่ละงานก็ใช้ขนาดโมเดลไม่ได้ขนาดนั้น ถ้ามุ่งไปเฉพาะงาน โมเดลมีขนาดเล็ก มีความถูกต้องสูง ราคาจับต้องได้ ก็ยังเป็นโอกาสอยู่