ในคีย์โน้ตงาน Google I/O 2017 เมื่อสัปดาห์ที่ผ่านมา ธีมหลักของงานนั้นชัดเจนมากว่าเป็นเรื่องของ AI ที่มีความสำคัญเหนือทุกสิ่งอย่าง (Android และ VR ถูกนำไปพูดช่วงท้ายๆ และแทบไม่พูดถึงบริการตัวเก่าๆ อย่าง Google Maps หรือ Chrome เลย)
ซีอีโอ Sundar Pichai ขึ้นเวทีพร้อมกับย้ำว่าโลกกำลังเปลี่ยนผ่านจากยุค Mobile First มาเป็น AI First (เขาพูดเรื่องนี้มาตั้งแต่ปีที่แล้ว) พร้อมกับอธิบายผลงานด้าน AI ของกูเกิลในปัจจุบันว่ามีอะไรบ้าง
บทความนี้จะสรุปประเด็นและวิเคราะห์ผลงานด้าน AI ของกูเกิลว่าไปไกลแค่ไหน และเปรียบเทียบกับคู่แข่งแล้ว กูเกิลยืนอยู่ตรงไหนในโลกของ AI
ความก้าวหน้าของโลก AI ในปัจจุบัน มีโฟกัสอยู่ที่สาขา deep learning โดยมีไลบรารีสำหรับการฝึกสอน (เทรน) AI อยู่หลายตัว ส่วนใหญ่แล้วไลบรารีเหล่านี้กำเนิดมาจากโลกการศึกษา-วิจัยเป็นหลัก เช่น Caffe
แต่เมื่อกูเกิลเปิดตัว TensorFlow ในปี 2015 เวลายังผ่านไปไม่ถึงสองปีดี ความนิยมก็เทมายัง TensorFlow อย่างชัดเจน ปัจจุบันงานด้าน deep learning แทบจะเริ่มต้นที่ TensorFlow กันเป็นดีฟอลต์ และทีม AI ที่เคยใช้ไลบรารีตัวอื่นอย่าง DeepMind ของกูเกิลเอง ก็ย้ายมาใช้ TensorFlow กันเรียบร้อยแล้ว
แต่เท่านั้นยังไม่พอครับ ระดับกูเกิลแล้วไม่เคยทำอะไรอันเดียว ไลบรารียอดนิยมอันดับสองหรือสามในโลก deep learning ตอนนี้คือ Keras (ที่เน้นงานระดับ high level กว่า TensorFlow) ก็พัฒนาโดย François Chollet ที่ตอนนี้เป็นพนักงานของกูเกิล
ตัว Chollet เองเคยสำรวจความนิยมของไลบรารีด้าน deep learning ในเดือนกันยายน 2016 และพบว่า Top 3 คือ TensorFlow, Caffe, Keras แปลว่ากูเกิลเป็นเจ้าของไลบรารียอดนิยม 2 ตัว (ส่วน Caffe ตัวต้นฉบับเป็นของมหาวิทยาลัย Berkeley) อำนาจของการกำหนดทิศทางโลก deep learning จึงอยู่ในมือกูเกิลไม่มากก็น้อย
The state of the deep learning frameworks landscape, September 2016. Keras 2nd fastest growing framework after TF. pic.twitter.com/3xnQNuP8fu
— François Chollet (@fchollet) September 15, 2016
การพิชิตวงการ deep learning ยังไม่จบเพียงแค่นั้น ในงาน I/O ปีนี้ กูเกิลก็ประกาศออก TensorFlow Lite ที่จะสามารถประมวลผล deep learning บนมือถือได้ ช่วยแก้ปัญหาว่าเราเก็บข้อมูลจากสมาร์ทโฟน แล้วไม่ต้องการ/ไม่สามารถส่งไปเทรนบนคลาวด์ของกูเกิลได้ ก็เทรนกันในมือถือนี่ล่ะ (และแน่นอนว่าเอนจิน deep learning ใน Android หลักพันล้านเครื่อง ก็คงไม่ใช่ตัวอื่น)
ความน่าสนใจคือคู่แข่งในตลาดไลบรารี deep learning ส่วนใหญ่มาจากวงการวิจัย ขณะที่คู่แข่งจากภาคธุรกิจกลับมีไม่เยอะนัก ที่เพิ่งเริ่มต้นคือ Microsoft CNTK และ Facebook ที่เพิ่งประกาศทำ Caffe2 โดยทีมวิจัยที่สร้าง Caffe เวอร์ชันแรก แต่ก็ต้องยอมรับว่าตอนนี้ TensorFlow ล้ำหน้าไปไกล และครอบครองจิตใจของนักวิจัยสายนี้ไปได้เยอะแล้ว
คู่แข่งจากภาคธุรกิจ: Facebook Caffe2, Microsoft CNTK, Amazon DSSTNE
วงการนักวิจัยที่มีคอมพิวเตอร์สมรรถนะสูง อาจใช้วิธีดาวน์โหลดไลบรารีอย่าง TensorFlow หรือ Caffe ไปรันบนเครื่องของตัวเองได้ไม่ยากนัก แต่นั่นแปลว่านักวิจัยต้องทำเองทุกอย่างตั้งแต่การเตรียมเครื่อง ติดตั้งซอฟต์แวร์ จนไปถึงการเทรนและรันทดสอบโมเดล
สำหรับภาคธุรกิจที่ต้องการงานด้าน AI แต่ไม่ต้องการเสียเวลาเรียนรู้เท่า กูเกิลก็มีบริการ Cloud Machine Learning ซึ่งอยู่ภายใต้ร่ม Google Cloud Platform ให้ลูกค้าสามารถเช่าใช้เครื่องของกูเกิลเพื่อเทรนโมเดลได้ (แน่นอนว่าซอฟต์แวร์ที่ใช้คือ TensorFlow) ช่วยอำนวยความสะดวกเรื่องการบริหารจัดการเครื่อง และการขยาย (scale) เครื่องถ้าจำเป็นต้องใช้งาน
แต่การนำไลบรารีโอเพนซอร์สมารันบนคลาวด์ให้คนอื่นเช่าใช้งาน เป็นเรื่องที่ใครๆ ก็ทำได้ กูเกิลจึงสร้างจุดต่างของตัวเองด้วยการออกแบบหน่วยประมวลผลพิเศษสำหรับงาน AI โดยเฉพาะ โดยใช้ชื่อว่า Tensor Processing Unit (TPU) และเปิดตัว TPU รุ่นที่สอง ในงาน I/O ครั้งที่ผ่านมา
กูเกิลคุยว่าการประมวลผล AI ผ่าน TPU มีประสิทธิภาพดีกว่าการประมวลผลปกติหลายเท่า ตอนนี้ยังไม่มีคนนอกบริษัทได้ทดลองกันมากนักว่าจริงแค่ไหน แต่กูเกิลก็เริ่มเปิดบริการ Cloud TPU รุ่นทดสอบ และ TensorFlow Research Cloud (TFRC) ให้ลองใช้งานแล้ว
ถ้า TPU ทำงานได้ดีจริงตามที่คุย (ซึ่งก็น่าจะทำได้จากผลงานการรัน AlphaGo) และกูเกิลทำราคาได้ดึงดูดพอ ในอนาคตเมื่อทุกคนคิดถึงการเทรน AI บนคลาวด์ ก็คงคิดถึงกูเกิลเป็นอันดับแรก
ความน่าสนใจคือกูเกิลยังไม่มีคู่แข่งในตลาด TPU เท่าไรนัก ที่ใกล้เคียงที่สุดคือ Project Catapult ของไมโครซอฟท์ ที่ยังมีสถานะเป็นโครงการวิจัย ในขณะที่ฝั่งกูเกิลทำเสร็จออกมาเปิดให้บริการกับคนทั่วไปแล้ว
คู่แข่ง:
ยกระดับความขี้เกียจไปอีกขั้น ภาคธุรกิจส่วนใหญ่อาจไม่ต้องการโมเดล AI ที่พิสดารอะไรมาก ขอแค่ AI ที่สามารถแยกแยะเสียงพูดได้ แยกแยะข้อความในภาพ แยกแยะวัตถุในรูปภาพ-วิดีโอ แปลภาษาในข้อความ ฯลฯ
บริการ AI สำเร็จรูปเหล่านี้ กูเกิลเทรนเสร็จเรียบร้อยและเปิดให้เช่าใช้งานผ่าน API มาสักระยะแล้ว เรียกว่ามาตัวเปล่า ไม่ต้องมีความรู้ด้านการวิจัย ไม่ต้องมีเครื่อง ไม่ต้องเทรนโมเดล กำแต่เงินใส่บัตรเครดิตมาเขียนโปรแกรมเรียกใช้ผ่าน API ของกูเกิลได้เลย
หลายคนน่าจะจำน้องคนนี้กันได้
คู่แข่ง: Microsoft Cognitive Services, Amazon AI Services (Amazon Lex)
3 หัวข้อข้างต้นคือบริการด้านการฝึกสอนและการใช้งาน AI ส่วนในหัวข้อนี้คือการนำประโยชน์จาก AI มาปรับปรุงบริการเดิมๆ ของกูเกิลให้ดีกว่าเดิม (และล้ำหน้าคู่แข่ง)
Sundar Pichai พูดในคีย์โน้ตว่าเดิมทีในยุคของพีซี เราป้อนข้อมูลด้วยเมาส์และคีย์บอร์ด พอมาถึงยุคของสมาร์ทโฟน ก็เปลี่ยนมาเป็นการสัมผัสด้วยนิ้ว
แต่พอมาถึงยุคของ AI เราก็มีอินพุทใหม่พร้อมกัน 2 ทางคือ เสียงพูด (speech) และภาพ (vision)
Sundar โชว์ความแข็งแกร่งของกูเกิลที่ทำผลงาน speech recognition ภาษาอังกฤษได้ดีกว่ามนุษย์แล้ว มีอัตราการแยกแยะคำผิดพลาดต่ำมาก
ผลิตภัณฑ์หลักที่เรียกใช้ระบบแยกแยะเสียงพูดของกูเกิล ย่อมหนีไม่พ้น Google Assistant ผู้ช่วยส่วนตัวที่กำลังขยายพื้นที่มากขึ้นเรื่อยๆ จากเดิมที่มีเฉพาะบน Google Pixel และลำโพง Google Home ก็จะขยายไปยังอุปกรณ์ Android รุ่นอื่น, ออกแอพบน iOS และเปิด SDK ให้นำไปใช้บนอุปกรณ์ประเภทอื่น
ที่ผ่านมา Google Home/Assistant อาจยังตามหลังคู่แข่ง Amazon Echo/Alexa อยู่พอสมควร แต่ในงาน I/O รอบนี้ เราก็เห็นกูเกิลไล่กวด Amazon อย่างรวดเร็ว ฟีเจอร์ที่ Alexa ทำได้มาก่อนอย่างการจ่ายเงิน-การโทรคุย ตอนนี้ Google Assistant แทบจะตามทันหมดแล้ว
คู่แข่งที่สมน้ำสมเนื้อในตลาดนี้ เหมือนจะมีเพียงแค่ Amazon เท่านั้น แต่กูเกิลก็ได้เปรียบกว่าตรงฐานผู้ใช้ Android จำนวน 2 พันล้านเครื่อง ที่สามารถอัพเกรดมาใช้ Google Assistant ได้ง่ายกว่ามาก
คู่แข่ง:
การเกิดขึ้นของกล้องสมาร์ทโฟน ส่งผลให้วิธีการมองโลกของคนเปลี่ยนไป คนหันมาใช้การสื่อสารด้วยกล้องถ่ายภาพกันมากขึ้น (ตัวอย่างที่ประสบความสำเร็จคือ Snapchat) และในงาน Facebook F8 เมื่อเดือนที่แล้ว Facebook ก็พูดเรื่องเดียวกันว่า Camera คือแพลตฟอร์มหลักของโลก AR
กูเกิลก็มองเห็นภาพนี้ และเปิดตัว Google Lens ฟีเจอร์ด้านการใช้กล้องเพื่อแยกแยะวัตถุต่างๆ ในโลก ด้วยพลังของข้อมูลที่กูเกิลมีเก็บไว้ เราสามารถใช้ Google Lens ชี้ที่วัตถุแล้วดูได้ทันทีว่าเป็นวัตถุอะไร เป็นสถานที่ไหน ถ้าเป็นร้านอาหาร ร้านนั้นได้รีวิวกี่คะแนน
Google Lens จะกลายเป็นตัวเชื่อมใหม่ระหว่างโลกออนไลน์กับออฟไลน์ เพียงแค่เรายกกล้องขึ้นมาเท่านั้น ตอนนี้ต้องรอ Google Lens ออกแล้วถึงจะรู้ว่าทำได้สมราคาคุยแค่ไหน (Samsung Bixby ก็มีฟีเจอร์นี้ แต่ใช้วิธีร่วมมือกับพาร์ทเนอร์รายอื่นอย่าง Pinterest)
นอกจากการใช้ Google Lens ดูข้อมูลวัตถุแบบเรียลไทม์ เรายังสามารถใช้ความฉลาดของมันกับภาพที่ถ่ายไว้แล้วได้ด้วย ตอนนี้คนที่ใช้ Google Photos ก็คงทราบดีว่ามันสามารถแยกแยะวัตถุในภาพตามที่เราค้นหาได้ แต่กูเกิลกำลังจะก้าวไปอีกขั้นด้วยการใช้ AI ตกแต่งภาพให้ออกมาตามที่เราต้องการ
เดโมในงาน I/O ถ่ายภาพลูกสาวกำลังตีเบสบอลผ่านรั้วลวดตาข่าย และพลังของ AI สามารถลบรูปรั้วนั้นออกไปให้เราได้เลย (ต่อไปกล้องมือถือคงแข่งกันด้วยฟีเจอร์นี้)
คู่แข่ง: Facebook Camera Platform, Samsung Bixby
ทั้งหมดนี้คือภาพรวมของงานด้าน AI ของกูเกิลในปัจจุบัน ที่ยังไม่นับรวมงานสายงานวิจัย (เช่น DeepMind/AlphaGo) และงานที่อยู่ในส่วนของบริษัทแม่ Alphabet (เช่น รถยนต์ไร้คนขับ Waymo) ส่วนอื่นอีกมาก มากถึงขนาดกูเกิลต้องเปิดเว็บ Google.ai ขึ้นมารวมผลงานของตัวเองเผยแพร่ต่อสาธารณะ
จากผลงานด้าน AI ของกูเกิล จะเห็นว่ากูเกิลมีคู่แข่งมากมายในแต่ละระดับชั้น แต่คู่แข่งที่มีผลิตภัณฑ์ครบทุกระดับแบบเดียวกับกูเกิลนั้นยังไม่มี
สิ่งที่น่าจับตาต่อไปคือ กูเกิลจะสามารถใช้ประโยชน์จากผลิตภัณฑ์ เทคโนโลยี และทีมงานด้าน AI จำนวนมากในปัจจุบัน เพื่อสร้างความได้เปรียบในการแข่งขันได้มากแค่ไหน อีกไม่เกิน 1-2 ปี เราน่าจะเริ่มเห็นผลลัพธ์ของการแข่งขันในสายงานด้านนี้
Comments
มันพีคตรงประโยคนี้
ผมจำไม่ได้แต่อยากจำตั้งแต่บทความนี้
+1
เห็นแหวนที่นิ้วนั่นไหม...
Thank you, Captain Obvious!
เห็นชื่อที่สลักบนแหวนนั่นไหม...
ผมพลาดอะไรไป ×_×
ทำไมเรายังไม่วาร์ป
Educational Technician
รวมกับ @awachai ไปรวดเดียวแล้วกันนะครับ 1, 2
วาร์ปได้เป๊ะมั้ยครับ ;)
มีหลาย AI unit เลยได้เปรียบ ทั้ง Google research เอง และ DeepMind, Google Brain, บางส่วนของ Google X และ Boston Dynamics, และที่ซุ่มๆอย่าง Quantum Artificial Intelligence Lab ด้วย
Boston Dynamics นี่เทพมากๆครับ ไม่อยากจะคิดเวลาเอาทุกอย่างมารวมกัน
Boston Dynamics นี้ไม่ใช่ว่าขายไปแล้วหรอครับ
ยังไม่มีอะไรออกมาอย่างเป็นทางการครับ
ฝั่งเว็บก็พูดถึง AMP กับ progress webapps กันอย่างสนุกสนาน แถมยังมี instant app อีก ผมว่าปีนี้ google io ไม่น่าเบื่อเท่าไหร่นะ ดีกว่าสองปีที่ผ่านมามาก
ที่ผมคิดว่ายังก้าวหน้าน้อยไปหน่อยคือ Android Things นี่แหละ
ยังไม่มีผู้ชนะหรอก ตราบใดที่ AI ยังสร้าง หรือเขียน Model ของตนเอง โดยไม่ต้องอาศัยโปรแกรมเมอร์ไม่ได้ และยังไม่สามารถเชื่อมโยง Model ข้าม Platform เป็น AI Network เพื่อให้ไม่ต้องเรียนรู้ซ้ำซ้อนกัน ก็ยังได้แค่เป็นผู้เปิดตลาด AI ในการนำไปประยุกต์ใข้งานจริง
บรรดาทีมงานของ Google นี่เค้าเก่งจริงๆเนอะ นอกจากจะคิดนำไปไกลแล้ว ยังทำมันได้จริง นับถือจริงๆ
..: เรื่อยไป
ถ้าซื้อหุ้น Google ไว้เมื่อ 10 ปีที่แล้วนะ ...
That is the way things are.
รู้อะไรไม่สู้รู้งี้
ใกล้แล้วสิน่ะ ไม่อยากเล่นแต่ก็อดคิดไม่ได้จริงๆ
ถ้า AI ดีๆ จะทำให้คนจ้อง จอมือถือน้อยลง ผมว่าก็เข้าท่านะครับ
จริงๆ น่าจะเป็นวิสัยทัศน์ หลักๆ ของบริษัท IT ใหญ่ๆ อย่าง Google, Apple และ Microsoft
Google เขาชัดเจนมาก ในขณะที่ Apple ยังไม่เห็นความสำคัญ และ ศักยภาพของ Siri เท่าที่ควร เน้นขายของมากไปหน่อย ตาม style CEO คนใหม่ ส่วน Microsoft ก็ยังต้องเร่งเครื่องตามคนอื่นให้ทัน น่าหนักใจแทน
เปลี่ยนจากจ้องมือถือมาเป็นพูดคนเดียวกับAIแทน
ส่วนเรื่องSiriนี่ แม้ลูกเล่นมันจะไม่ค่อยแพรวพราว แต่สำนวนการโต้ตอบมันเป็นธรรมชาติดีนะครับ
แม่ผมยังสงสัยเลยว่า(ขออนุญาตไม่สุภาพ) อีนี่เป็นใคร ทำไมว่างมาคุยกับเราได้ทั้งวันทั้งคืน
ยังเร็วไปสิบปี
ผมว่า 10 ปีข้างหน้า จะเป็นยุคที่ Ai ถูกเอามาใช้กันอย่างแพร่หลายแล้ว
แต่คนที่ได้เปรียบ คือคนที่ลงมือทำในวันนี้อ่ะครับ
อนาคตเราคงใช้ AI เป็นที่ปรึกษาแน่ๆ เช่นเป็นครู เป็นทนาย
เป็นผู้ติดสินกกีฬา โอยไม่อยากจะคิด....
ลองเล่น AI ของ microsoft เพราะฟรีอยู่ ก็ใช้งานได้ง่ายเหมือนกัน ต่อไป AI มาแน่ๆ
ผมละกลัวโดน AI ด่า เพราะถ้าด่าได้คงรู้ว่าแต่ละคนด่ายังไงให้เจ็บปวดและสำนึกมากที่สุด
อยากได้แบบจาวิส
มีพลังกำหนดสนามต่อสู้เองได้ แต่ชัยชนะจะได้มาก็ต่อเมื่อผู้บริโภคยอมรับเท่านั้น ไม่ใช่ผู้กำหนดสนาม