Large Language Model
Meta ประกาศอัปเดต Meta AI แชทบอตผู้ช่วยบน Facebook, Instagram, WhatsApp และ Messenger ที่เปิดตัวในงาน Connect เมื่อปีที่แล้ว โดยขยายประเทศที่รองรับเพิ่มเติมนอกจากสหรัฐอเมริกา ตามที่มีข่าวก่อนหน้านี้ รวมทั้งเพิ่มความสามารถด้วยโมเดล Meta Llama 3 ล่าสุดที่เพิ่งเปิดตัว
รายชื่อประเทศที่ได้ใช้งาน Meta AI ในภาษาอังกฤษเพิ่มเติมได้แก่ ออสเตรเลีย แคนาดา กานา จาไมกา มาลาวี นิวซีแลนด์ ไนจีเรีย ปากีสถาน สิงคโปร์ แอฟริกาใต้ ยูกันดา แซมเบีย และซิมบับเว ซึ่งจะขยายเพิ่มเติมต่อไปเร็ว ๆ นี้
Meta ปล่อยโมเดลปัญญาประดิษฐ์ Llama 3 สองรุ่น คือ 8B และ 70B แยกรุ่นย่อยสำหรับการทำตามคำสั่ง โดยยังมีรุ่น 400B อยู่ระหว่างการพัฒนา
รุ่น 8B นั้น Meta เทียบกับ Gemma 7B และ Mistral 7B Instruct เอาชนะได้ทุกชุดการทดสอบ บางหมวดเช่น HumanEval สำหรับการเขียนโปรแกรม และ GSM-8K สำหรับการคำนวณนั้นนำห่าง
รุ่น 70B ทาง Meta นำไปเทียบกับ Gemini Pro 1.5 ทำคะแนนนำได้บางชุดทดสอบ และเมื่อเทียบกับ Claude 3 Sonnet ก็ชนะทุกชุดทดสอบเช่นกัน
MLCommons หน่วยงานกลางสำหรับออกชุดทดสอบประสิทธิภาพปัญญาประดิษฐ์ ออกชุดทดสอบใหม่ AI Safety สำหรับการวัดความปลอดภัยของโมเดลปัญญาประดิษฐ์แบบ LLM โดยเฉพาะ นับเป็นครั้งแรกที่ MLCommons หันมาออกชุดสอบตัวปัญญาประดิษฐ์เอง เพราะก่อนหน้านี้ชุดทดสอบ MLPerf มีไว้สำหรับการทดสอบประสิทธิภาพของฮาร์ดแวร์ที่ใช้รันและฝึกปัญญาประดิษฐ์เป็นหลัก
OpenAI ประกาศนำโมเดล GPT-4 Turbo มาให้ใช้งานแล้วสำหรับลูกค้า ChatGPT ที่เสียเงิน
GPT-4 Turbo นั้นเปิดตัวมาตั้งแต่พฤศจิกายนปีที่แล้ว มีการปรับปรุงความสามารถเช่น การเขียน, คณิตศาสตร์, การให้เหตุผลแบบตรรกะ และการเขียนโค้ด
ทั้งนี้ไมโครซอฟท์ได้นำ GPT-4 Turbo มาให้ใช้งานบน Copilot สำหรับลูกค้าฟรีเมื่อเดือนที่แล้ว
ที่มา: Engadget
ในงาน Google Cloud Next 2024 ผมได้มีโอกาสสัมภาษณ์ Zac Maufe ผู้บริหาร Google Cloud ที่ดูแลอุตสาหกรรมทางกรเงินถึงประเด็นการใช้งาน generative AI ในอุตสาหกรรมนี้
Mistral สตาร์ทอัปด้าน AI จากฝรั่งเศส เปิดตัวโมเดลภาษาขนาดใหญ่ (LLM) Mixtral 8x22B ขนาดโมเดล 176 พันล้านพารามิเตอร์ ซึ่งเป็นรุ่นถัดจากโมเดลก่อนหน้า Mixtral 8x7B
การทำงานของ Mixtral 8x22B ยังคงใช้วิธี MoE (mixture of experts) ที่ทุกเลเยอร์ของแต่ละโทเค็น จะเลือกโมเดลที่เหมาะสม 2 ตัว (เรียกว่า experts) มาใช้ในการประมวลผล ทำให้ไม่ต้องใช้พารามิเตอร์ทั้งหมดมารัน ตอนนี้ Mistral ยังไม่ได้เปิดเผยรายละเอียดทั้งหมดของโมเดล แต่คาดการณ์ว่าโมเดลที่ถูกใช้จริงตอนรันมีประมาณ 38 พันล้านพารามิเตอร์
กูเกิลเปิดตัวบริการ Gemini Code Assist ที่เปลี่ยนชื่อมาจาก Duet AI for Developer แต่เปลี่ยนปัญญาประดิษฐ์ภายในเป็น Gemini ที่อ่านข้อมูลได้นับล้่านโทเค็น ทำให้เวลาแนะนำโค้ดนั้นไม่ใช่การอ่านทีละไฟล์ แต่อ่านทั้งโครงการทีละเป็นแสนบรรทัดและแนะนำได้ทันที
การประกาศรอบนี้ยังประกาศเป็นพันธมิตรกับบริษัทความปลอดภัยซอฟต์แวร์ Synk โดยตอนนี้ยังเป็นเพียงการแนะนำการใช้งาน Synk ในแชตก่อน แต่ภายในปีนี้จะรวมความสามารถในการสแกนโค้ดเข้าไว้ในบริการ Code Assist เลย ทำให้แนะนำช่องโหว่ในโค้ดได้ทันที
Gemini Code Assist เปิดให้ใช้ฟรีแล้ววันนี้ แต่จะเก็บเงินหลังวันที่ 11 มิถุนายนนี้ ราคา 19 ดอลลาร์ต่อคนต่อเดือน สามารถใช้งานได้บน VS Code และ JetBrains
อินเทลประกาศร่วมมือกับบริษัทพันธมิตรจำนวนมาก เตรียมสร้างแพลตฟอร์มสำหรับการใช้งาน AI ภายในองค์กร ทำให้สามารถสร้างแอปแบบ retrieval-augmented generation (RAG) ได้โดยง่าย
ทางอินเทลสัญญาว่าจะลงมือให้ก่อนเป็นโค้ดชุดแรกที่รองรับชิป Xeon และ Gaudi เป็นหลัก มีคลาวด์ให้นักพัฒนาใช้งาน และต่อจากนั้นจะสนับสนุนให้องค์กรอื่นๆ เข้ามาพัฒนาโครงการต่อให้ใช้งานได้กว้างขึ้น
กูเกิลเพิ่มบริการด้าน LLM ตัวใหม่ คือ Vertex AI Agent Builder สำหรับการพัฒนาบริการจาก LLM โดยไม่ต้องเขียนโค้ดเองโดยตรง (ยกเว้นส่วนที่เป็น integration กับภายนอก)
บริการนี้รวมเอาความสามารถหลายตัว ได้แก่
ทีมนักวิจัยของแอปเปิลเผยแพร่งานวิจัยใหม่ Ferret-UI ซึ่งเป็น Generative AI หรือ AI สร้างเนื้อหา ที่ต้องการแก้ไขปัญหาโมเดลภาษาขนาดใหญ่ข้อมูลผสมผสาน (MLLM - Multimodal Large Language Model) ที่ยังมีข้อจำกัดสำหรับอินพุทรูปภาพ ที่มีรายละเอียดเยอะมาก แต่อาจมีจุดสำคัญไม่กี่อย่าง เช่น ภาพจับหน้าจอโทรศัพท์ (Screen Capture)
สิ่งที่ท้าทายของอินพุทภาพหน้าจอโทรศัพท์คือ อัตราส่วนภาพหน้าจอโทรศัพท์ ที่แตกต่างจากรูปที่ AI นิยมใช้เทรนกัน, ในภาพหน้าจอมีไอคอนหรือปุ่ม ที่มีขนาดเล็ก ความละเอียดต่ำ AI อาจแยกแยะไม่ได้ และหลายกรณีปุ่มเหล่านั้นคือประเด็นสำคัญของอินพุทอีกด้วย
ในงาน Google Cloud Next 2024 กูเกิลเชิญผู้ให้บริการองค์กร จากองค์กรขนาดใหญ่ เช่น กลุ่มโรงแรม IHG, Verizon, Bayer โดยองค์กรเหล่านี้เตรียมใช้งาน generative AI ในแอปพลิเคชั่นที่ติดต่อกับลูกค้าแล้ว แม้จะมองเห็นโอกาสมากแต่ก็ยังเป็นการใช้งานอย่างระมัดระวังอยู่
Kalyani Sekar Chief Data Officer จาก Verizon ระบุว่าการสร้างแอปพลิเคชั่น generative AI นั้นควรเริ่มปล่อยให้ใช้งานจากวงเล็กภายในองค์กรเองก่อน และค่อยๆ ขยายไปยังกลุ่มใหญ่ขึ้นจนถึงผู้ใช้ภายนอกองค์กร เพื่อจะได้เห็นความสามารถและข้อจำกัดของระบบ และจุดสำคัญที่สุดของการใช้งาน generative AI นั้นอาจจะไม่ใช่ปัญหาว่ามันตอบอะไรได้บ้าง แต่ต้องพยายามไม่ให้ AI ตอบคำถามที่มันจะตอบผิด แล้วส่งให้คนทำงานเป็นคนตอบแทน
กูเกิลเปิด Gemini 1.5 Pro ให้คนทั่วไปใช้งานแล้ว หลังจากเปิดตัวแบบจำกัดเมื่อเดือนกุมภาพันธ์ที่ผ่านมา พร้อมกับเพิ่มฟีเจอร์ค้นหาข้อมูลอ้างอิง (grounding) ทั้งการค้นด้วย Google Search และการค้นข้อมูลภายในองค์กรเอง
สำหรับการค้นข้อมูลในองค์กร เดิม Vertex AI มีบริการ Enterprise Search อยู่แล้ว ตอนนี้เพิ่มความสามารถเชื่อมต่อกับฐานข้อมูลภายนอก เช่น AlloyDB หรือ BigQuery เข้ามาเพิ่ม และยังเชื่อมต่อแอปที่องค์กรใช้งานอยู่ เช่น Workday, Salesforce, ServiceNow, Hadoop, Confluence, และ JIRA
กูเกิลปล่อยโมเดลปัญญาประดิษฐ์ LLM สำหรับเขียนโค้ดในชื่อ CodeGemma เน้นใช้งานเป็นตัวช่วยเขียนโค้ดโดยเฉพาะ โดยมีโมเดล 3 รุ่น ได้แก่
Groq บริษัทพัฒนาชิปสำหรับประมวลผลปัญญาประดิษฐ์แบบ LLM โดยเฉพาะ ประกาศเลิกขายชิปให้กับลูกค้าทั่วไปแล้ว หลังยอมรับว่าขายยากเพราะลูกค้าต้องลงทุนสูง และตอนนี้ก็มีลูกค้าบนบริการคลาวด์จำนวนมาก
หากลูกค้าของ Groq ต้องการชิปจำนวนมากหลังจากนี้จะเป็นการเซ็นสัญญาร่วมกับศูนย์ข้อมูลเพื่อเข้าไปติดตั้งเซิร์ฟเวอร์ให้ลูกค้าใช้งานโดยเฉพาะ ตอนนี้มีลูกค้าแบบนี้คือ Aramco บริษัทน้ำมันจากซาอุดิอาระเบีย แต่มีข้อยกเว้นอยู่บ้างคือโครงการภาครัฐที่ยังซื้อชิปตรงได้
ทีมวิจัยจาก Stanford Medicine รายงานถึงการทดลองใช้ GPT-4 มาช่วยร่างข้อความสำหรับแอปต่างๆ ที่แพทย์แพลพยาบาลใช้งาน โดยข้อความทั้งหมดเจ้าหน้าที่ต้องมาตรวจสอบก่อนส่งอีกครั้ง
การทดลองครั้งนี้มีแพทย์และพยาบาลเข้าร่วม 162 คน ทดสอบเป็นเวลา 5 สัปดาห์ และเนื่องจากมีแอปที่เจ้าหน้าที่ต้องใช้งานหลากหลาย แอปที่รองรับ GPT-4 จริงๆ คิดเป็น 20% ของการตอบข้อความทั้งหมดของเจ้าหน้าที่ ข้อความมีหลากหลาย เช่น คนไข้ถามอาการข้างเคียงของยา, หรือการรักษาอาการเบื้องต้น
ผลทดสอบไม่พบว่าเวลาการตอบข้อความเปลี่ยนแปลงมากนัก แต่เมื่อนำผลทดสอบความรู้สึกว่างานหนัก หรือความเหนื่อยล้าจากการทำงาน หลังใช้งาน GPT-4 ช่วยลดคะแนนทั้งสองตัวลงได้ แสดงให้เห็นว่า GPT-4 น่าจะช่วยลดโหลดงานของเจ้าหน้าที่ลงได้บางส่วน
MyShell บริษัทปัญญาประดิษฐ์สร้างตัวตนออนไลน์ เปิดตัวโมเดล JetMoE-8B โมเดล LLM ที่ประสิทธิภาพสูงกว่า LLaMA-2 13B เสียอีก และมีต้นทุนในการฝึกและการรันถูกกว่ามาก
JetMoE อาศัยสถาปัตยกรรม Mixture-of-Expert ทำให้ใช้โมเดลตอนรันจริงเพียง 2.2B เท่านั้น ต้นทุนการรันระดับเดียวกับ Gemma-2B ขณะที่การฝึกโมเดลนั้นใช้ชิป NVIDIA H100 96 ชุดเป็นเวลา 2 สัปดาห์ รวมต้นทุนประมาณ 80,000 ดอลลาร์หรือประมาณ 3 ล้านบาท น่าจะถูกกว่าโมเดลอื่นๆ ที่ประสิทธิภาพใกล้เคียงกันมาก โดยต้นทุนการฝึก LLaMA2 13B นั้นใช้ชิป A100 368640 ชั่วโมง หากคิดเป็นค่าคลาวด์ก็น่าจะเกิน 500,000 ดอลลาร์
JetBrains ออกอัพเดตเวอร์ชัน 2024.1 ให้กับ IDE ทุกตัวในสังกัด เพิ่มฟีเจอร์ใหม่ full line code completion ใช้พลัง AI คาดเดาโค้ดบรรทัดต่อไปที่เราจะพิมพ์ใน editor โดยเป็นการคาดเดา "ทั้งบรรทัด" และสามารถทำงานได้แบบออฟไลน์ ไม่ต้องต่อเน็ต
การทำงานของ full line code completion จะแสดงข้อความสีเทาในบรรทัดถัดไป และสามารถกด tab เพื่อให้ editor เติมบรรทัดนั้นให้เราได้ ฟีเจอร์นี้รองรับโค้ดในภาษา Java, Kotlin, Python, JavaScript, TypeScript, CSS, PHP, Go, Ruby
Replit บริษัทผู้สร้าง IDE ผ่านเบราว์เซอร์ ที่ช่วงหลังเริ่มใช้งาน AI ช่วยเขียนโค้ด เปิดตัวฟีเจอร์ Code Repair ที่นำ LLM มาปรับแต่งเพื่อเน้นการแก้บั๊กโดยเฉพาะ
Replit บอกว่าการนำ LLM มาช่วยเขียนโค้ดที่ใช้กันอยู่ทุกวันนี้ เกิดจากการเทรนด้วยข้อมูลซอร์สโค้ด ผสมกับข้อมูลการพูดคุยกันของมนุษย์ เช่น กระทู้ใน StackExchange หรือ GitHub issue จึงมีข้อจำกัดเรื่องการขาดบริบทด้านสภาพแวดล้อมในการพัฒนา (development environment) ที่โปรแกรมเมอร์แต่ละคนใช้งาน
ทีมนักวิจัยของแอปเปิลเผยแพร่ผลงาน AI ที่เพิ่มความสามารถเข้าใจบริบท (context) ของคำถามจากผู้ใช้งาน โดยอ้างอิงจากสิ่งที่ปรากฏบนหน้าจอของผู้ใช้งาน
ระบบ AI นี้มีชื่อเรียกว่า ReALM ย่อมาจาก Reference Resolution As Language Modeling เป็นโมเดล LLM ที่สามารถเข้าใจคำถามซึ่งไม่ชัดเจนหรือกำกวม ด้วยการหาข้อมูลเพิ่มเติมจากสิ่งที่ปรากฏบนหน้าจอโทรศัพท์ ทำให้บทสนทนามีความลื่นไหลและเป็นธรรมชาติมากยิ่งขึ้น
ทีมนักวิจัยของ Anthropic บริษัท AI เจ้าของแชทบอต Claude เผยแพร่รายงานเกี่ยวกับช่องโหว่ของโมเดล AI ภาษาขนาดใหญ่ (LLM - large language model) ซึ่งสามารถทำให้ LLM ให้คำตอบที่ไม่เหมาะสมหรือเป็นอันตรายออกมาได้ แม้ผู้พัฒนาจะเขียนกฎป้องกันไว้แล้วก็ตาม
ช่องโหว่ที่รายงานเกิดจากการสร้างบทสนทนาถามตอบกับ LLM ที่ต่อเนื่องเป็นชุด จน LLM เกิดการเรียนรู้บริบท (in-context learning) ของเนื้อหาที่ถาม ทำให้กรอบหัวข้อที่สนใจแคบลงเรื่อย ๆ และยอมตอบคำถามที่ไม่เหมาะสมหรืออันตรายออกมา
Cloudflare ปรับบริการ Workers AI สำหรับการรันโมเดลปัญญาประดิษฐ์เข้าสู่สถานะให้บริการทั่วไป (generally available - GA) โดยจะเริ่มคิดเงินกับ 10 โมเดลที่เข้าสู่สถานะ GA เช่นกัน แต่ไม่คิดเงินสำหรับโมเดลที่ยังอยู่ในสถานะเบต้า
ความแตกต่างของ Workers AI จากบริการอื่นๆ คือ Cloudflare มีศูนย์ข้อมูลพร้อมชิปกราฟิกติดตั้งอยู่ทั่วโลก รวมถึงกรุงเทพมหานครด้วย การปรับสถานะ GA ครั้งนี้ทางบริษัทกระจายโหลดข้ามเมืองให้โดยอัตโนมัติในกรณีที่ชิปกราฟิกบางเมืองเต็ม ทำให้โดยรวมสามารถเปิดโควต้าให้นักพัฒนาใช้งานได้อิสระขึ้น
เราเห็น Amazon แก้ปัญหาเรื่องการขาดโมเดล LLM ความสามารถสูง ด้วยการลงทุน 4 พันล้านดอลลาร์ใน Anthropic เพื่อเข้าถึงการใช้งานโมเดล Claude ที่เวอร์ชันล่าสุดทำคะแนนได้ดีกว่า GPT-4
ถึงแม้เงินแก้ปัญหาในระยะสั้นได้ แต่ก็เกิดคำถามตามมา (ในหมู่พนักงานเองด้วย) ว่าบริษัทยักษ์ใหญ่ระดับ Amazon ไม่มีศักยภาพสร้างโมเดล LLM ของตัวเองได้เลยหรือ (ปัจจุบัน Amazon มีโมเดลของตัวเองชื่อ Titan ให้ใช้งานบน AWS แม้ยังอาจสู้ Claude ไม่ได้ก็ตาม)
xAI บริษัท AI ของ Elon Musk ได้เปิดตัวโมเดล Grok-1.5 โดยเพิ่มความสามารถรองรับข้อความขนาดยาวสูงสุด 128,000 โทเคน
นอกจากนี้ ผลการวัดประสิทธิภาพบนชุดทดสอบ (benchmark) ของโมเดล Grok-1.5 เช่น MATH ทำได้ถึง 50.6% (4-shot) และ GSM8K ทำได้ 90% (8-shot) สามารถเอาชนะโมเดล Mistral Large ของบริษัท Mistral รวมถึงโมเดล Grok-1 ที่เพิ่งแจกจ่ายโมเดลออกไป แต่ยังคงแพ้ Claude 3 Opus กับ GPT-4 ในหลายชุดทดสอบ
ทาง xAI ยังประกาศว่าโมเดล Grok-1.5 จะเปิดให้ใช้งานผ่าน 𝕏 เร็ว ๆ นี้และเปิดรับสมัครพนักงานดูแลงาน Infra อีกด้วย
Databricks ปล่อยโมเดล DBRX ที่เป็น LLM ระดับความสามารถใกล้เคียงกับ Gemini Pro 1.0 แต่ชูจุดเด่นด้านความเร็วในการตอบคำถาม และความสามารถด้านการเขียนโปรแกรมหรือแก้ปัญหาคณิตศาสตร์
DBRX อาศัยโครงสร้างแบบ mixture-of-experts (MoE) ภายในมีโมเดลย่อยเชี่ยวชาญแต่ละหัวข้อทั้งหมด 16 ชุด และระหว่างการทำงานจะรันทีละ 4 ชุด รวมโมเดลรวม 132 พันล้านพารามิเตอร์แต่รันจริงทีละ 36 พันล้านพารามิเตอร์ ชุดข้อมูลที่ใช้ขนาด 12 ล้านล้านโทเค็น ฝึกด้วย context windows ขนาด 32k โทเค็น
OpenAI นำเสนอตัวอย่างผลงานที่สร้างขึ้นจาก Sora เครื่องมือสร้างคลิปวิดีโอสั้นคุณภาพสูงด้วย AI จากการป้อน prompt ซึ่งร่วมมือกับผู้ผลิตผลงานหลายราย ตามที่มีข่าวก่อนหน้านี้ โดยมีทั้งศิลปิน, นักออกแบบ, ครีเอทีฟ จนถึงผู้ผลิตภาพยนตร์
ผลงานแรกคือหนังสั้น "Air Head" โดยสตูดิโอ shy kids จากแคนาดา เล่าเรื่องราวของมนุษย์หัวลูกโป่ง ซึ่งทีมผู้ผลิตบอกว่า Sora ทำให้พวกเขาสามารถผลิตผลงานแนวเซอร์เรียลที่เดิมทำได้ยาก จึงเป็นโอกาสของผู้ผลิตที่จะนำเสนอเนื้อหาแบบใหม่