Tags:
Node Thumbnail

หัวข้อหนึ่งที่น่าสนใจในงาน Google I/O 2018 คือ TensorFlow Lite เอนจินสำหรับประมวลผล deep learning ในอุปกรณ์พกพา ที่ทำงานได้ทั้งบน Android, iOS และลินุกซ์

กูเกิลเปิดตัว TensorFlow Lite ตั้งแต่งาน I/O ปี 2017 แต่ตอนนั้นยังไม่ค่อยมีใครเห็นภาพมากนักว่ามันคืออะไร เป้าหมายมีไว้ทำไม แต่เมื่อเวลาผ่านมาอีก 1 ปี ความชัดเจนก็เริ่มตามมา

เดิมทีกูเกิลมี TensorFlow สำหรับงาน deep learning อยู่แล้ว แต่มันออกแบบมาเพื่อการใช้งานบนเซิร์ฟเวอร์เป็นหลัก อาจใหญ่เกินไปสำหรับมาใช้งานบนมือถือที่มีทรัพยากรจำกัด

No Description

เมื่อพูดถึง deep learning บนมือถือ หลายคนอาจมีคำถามว่าเราต้องการอะไรแบบนั้นจริงๆ หรือ คำตอบคือ deep learning บนมือถือมีประโยชน์หลายอย่าง เช่น ให้ผลรวดเร็วกว่า ทำงานออฟไลน์ได้ เข้าถึงข้อมูลเซ็นเซอร์ได้จากฮาร์ดแวร์โดยตรง

No Description

แต่ข้อจำกัดของการรัน deep learning บนมือถือคือ ทรัพยากรมีจำกัดทั้งซีพียูและแรม อีกทั้งเปลืองแบตเตอรี่ด้วย

No Description

TensorFlow Lite จึงออกแบบมาเพื่อแก้ปัญหานี้ หลักการของมันคือแปลงโมเดลของ TensorFlow ตัวเต็มให้เล็กลง (ความแม่นยำย่อมลดลง แต่อยู่ในระดับที่ยอมรับได้) และ optimize ให้สามารถรันบนอุปกรณ์พกพาได้เป็นอย่างดี สามารถดึงพลังของหน่วยประมวลผล AI ที่ระดับฮาร์ดแวร์ได้ด้วย

No Description

TensorFlow Lite ออกแบบมาให้ทำงานข้ามแพลตฟอร์ม ใช้ได้ทั้งบน Android, iOS และลินุกซ์ นั่นแปลว่าใช้กับอุปกรณ์ IoT ได้ด้วย

No Description

กรณีของ iOS อาจเจอข้อจำกัดจากนโยบายของแอปเปิลบ้าง แต่นักพัฒนาก็เลือกได้ว่าจะรัน TensorFlow Lite แบบเนทีฟ (C++) หรือจะแปลงเป็นฟอร์แมต Core ML ของแอปเปิลก็ได้

No Description

เมื่อถามว่า TensorFlow Lite เล็กแค่ไหน คำตอบคือตัวคอร์ของมันมีขนาดเพียง 75KB เท่านั้น และถ้ารวมส่วนอื่นๆ ด้วยมีขนาดประมาณ 400 KB

No Description

ลำดับชั้นในการเรียกใช้ TensorFlow Lite บน Android คือ แอพจะเรียกใช้งานผ่านเอนจิน TensorFlow Lite ที่ฝังมาในตัวแอพอีกที จากนั้น TensorFlow Lite จะเรียกใช้ฟีเจอร์ Android Neural Networks (Android NN) ของตัว OS ที่เริ่มใส่เข้ามาใน Android 8.1

ลำดับสุดท้าย Android NN จะเรียกใช้ตัวเร่งการประมวลผลที่ระดับฮาร์ดแวร์ (ถ้ามี เช่น ของ ARM) หรือรันบน CPU/GPU ตามสถานการณ์ที่แตกต่างกันไป

No Description

ในกรณีของ iOS ที่ไม่มีชิปเร่งความเร็ว AI แยกเฉพาะ (หรือมีก็โดนกั๊กไว้ไม่ให้รัน) นักพัฒนาสามารถรันบน GPU ผ่าน Metal API ได้ตามปกติ

No Description

เทคนิคหนึ่งในการลดขนาดโมเดลที่กูเกิลนำมาใช้งานคือ quantization ลดความละเอียดของสัญญาณข้อมูลลง แต่ยังรักษาโครงสร้างเดิมเอาไว้

No Description

ผลของการทำ quantization ทำให้ TensorFlow Lite ทำงานได้เร็วกว่า TensorFlow ตัวเต็มถึง 3 เท่า และกราฟนี้ยังไม่ได้ใช้ฮาร์ดแวร์ AI ช่วยเร่งการทำงาน ถ้าเปิดใช้ก็น่าจะลดระยะลงได้อีก 3-4 เท่า

No Description

ตอนนี้เริ่มมีแอพของกูเกิลบางตัว เรียกใช้งาน TensorFlow Lite แล้ว เช่น แอพกล้องของ Android ที่มี Portrait Mode, ฟีเจอร์สั่งงานด้วยเสียงของ Google Assistant และฟีเจอร์ Smart Reply ช่วยเขียนคำตอบข้อความให้อัตโนมัติ

No Description

ส่วนนักพัฒนาแอพอื่นๆ ก็สามารถเรียกใช้ฟีเจอร์ deep learning เหล่านี้ได้ผ่าน ML Kit ซึ่งเป็นบริการตัวหนึ่งของ Firebase

No Description

แอพที่เริ่มเรียกใช้งาน ML Kit แล้วก็อย่างเช่น แอพแต่งภาพ PicsArt และแอพกล้อง VSCO

No Description

ตอนนี้ TensorFlow Lite ยังรองรับโมเดลเพียงบางประเภท แต่แผนการพัฒนาก็จะรองรับโมเดลชนิดใหม่ๆ มากขึ้น รวมถึงจะสามารถ "เทรน" โมเดลบนมือถือได้ในอนาคตด้วย (ปัจจุบันรันโมเดลได้อย่างเดียว)

No Description

ขั้นตอนการใช้งาน TensorFlow Lite หลักๆ เลยคือการนำโมเดล TensorFlow ที่เทรนไว้แล้ว (ไม่ว่าจะเทรนเอง หรือดาวน์โหลดอันที่คนอื่นเทรนมาให้) มาแปลงเป็นโมเดลของ TensorFlow Lite แล้วจากนั้นค่อยเรียกใช้งานในแอพอีกทีหนึ่ง

No Description

กูเกิลระบุว่า TensorFlow Lite จะกลายเป็นเครื่องมือมาตรฐานในการรัน machine learning บนมือถือ ยังไงก็หนีไม่พ้น แต่ตอนนี้ยังมีข้อจำกัดเรื่องการรองรับโมเดลเพียงบางประเภท คำแนะนำก็คือพิจารณาก่อนใช้งานว่า TensorFlow รองรับโมเดลที่เราต้องใช้หรือไม่

No Description

รายละเอียดสามารถดูได้จากวิดีโอหัวข้อ TensorFlow Lite for mobile developers ของงาน Google I/O 2018 (ตอนนี้ยังไม่ขึ้น YouTube ถ้าขึ้นแล้วจะมาแปะตรงนี้อีกรอบครับ)

Get latest news from Blognone

Comments

By: parietallobe on 11 May 2018 - 10:00 #1048861
parietallobe's picture

คลิปย้อนหลังครับ TensorFlow Lite for mobile developers (Google I/O '18)

By: mk
FounderAndroid
on 13 May 2018 - 10:48 #1049112 Reply to:1048861
mk's picture

ขอบคุณครับ เพิ่มในบทความให้แล้ว