Instagram หนึ่งในโซเชียลมีเดียที่ประสบความสำเร็จมหาศาล แต่ยังมีจุดด่างพร้อยคือคอมเมนท์สแปมทั้งจากบ็อทและคนซึ่งเป็นผู้ใช้จริงๆ เช่น ฝากร้าน ฝากกด Follow
ล่าสุด Instagram เพิ่มฟีเจอร์จัดการคอมเมนท์อีกขั้น ทั้งคอมเมนท์ใต้รูปภาพและไลฟ์วิดีโอ คือ Blocking Offensive Comments ที่มี machine learning ทำงานเบื้องหลัง ช่วยคัดกรองคอมเมนท์สแปมและคำหยาบคายอัตโนมัติ เพิ่มเติมจากฟีเจอร์รีพอร์ตคอมเมนท์ที่มีอยู่แล้วบนแพลตฟอร์ม
NVIDIA มีซอฟต์แวร์ชื่อ TensorRT สำหรับรีดประสิทธิภาพ (optimization) ของการรันโมเดล deep learning ที่พัฒนามาได้สักระยะหนึ่งแล้ว ล่าสุด NVIDIA เปิดให้นักพัฒนาสามารถดาวน์โหลด TensorRT 2.0 ไปใช้งานกัน
ปกติแล้วในโลกของ AI เราแยกงานของการเทรนหรือสร้างโมเดล (training) และการนำโมเดลไปใช้งาน (interference) ออกจากกัน
แนวคิดของ TensorRT คือการรีดประสิทธิภาพในตอนรัน (RT = runtime) ให้มีประสิทธิภาพสูงสุด มันออกแบบมาสำหรับปรับแต่งประสิทธิภาพก่อน เพื่อตอนรันงานจริง (production) จะได้ใช้งานทรัพยากรเครื่องอย่างคุ้มค่าที่สุด (เทคนิคจะคล้ายกับการแปลง bytecode ของ Java หรือการคอมไพล์แบบ ahead-of-time)
กูเกิลเพิ่มฟีเจอร์ด้านความปลอดภัยให้ Gmail/G Suite ทั้งหมด 4 อย่าง ดังนี้
เดือนที่แล้ว กูเกิลเพิ่งเพิ่มความสามารถให้ Gboard for Android ไปชุดใหญ่ ทั้งการรองรับภาษาใหม่ๆ (ส่วนใหญ่เป็นภาษาในประเทศอินเดีย) และการพิมพ์ตัวอักษรภาษาฮินดีด้วยแป้นภาษาอังกฤษ (Gboard จะเดาคำให้เราเอง)
ล่าสุดกูเกิลเผยแพร่รายละเอียดของอัลกอริทึมเบื้องหลัง Gboard เวอร์ชันใหม่ ว่านำ machine learning มาช่วยปรับปรุง Gboard ได้อย่างไร
เทคนิคของกูเกิลแบ่งออกเป็น 2 ส่วน ได้แก่ การเรียนรู้การลากนิ้ว (glide typing) และการเรียนรู้เรื่องการเดาคำต่อไปที่ผู้ใช้จะพิมพ์
ARM เปิดตัวซีพียูใหม่ทั้งระดับเรือธงและระดับกลางคือ Cortex-A75 และ Cortex-A55 ซึ่งเป็นซีพียูชุดแรกที่ผลิตบน DynamIQ ซึ่งเป็นสถาปัตยกรรมไมโครของ big.LITTLE รองรับการคอนฟิกคลัสเตอร์ที่หลากหลายมากขึ้น รวมถึงรองรับการประมวลผล AI และ Machine Learning
สำหรับ Cortex-A75 ถูกปรับปรุงประสิทธิภาพเพิ่มขึ้นจาก A73 อยู่ 20% ประสิทธิภาพการทำงานแบบมัลติคอร์ดีขึ้น 50% มีค่า memory throughput สูงขึ้น 16% รองรับการเพิ่มการใช้พลังงานสูงสุด 2W พร้อมเพิ่มประสิทธิภาพการทำงานบนอุปกรณ์หน้าจอใหญ่ 30% เพื่อรองรับอุปกรณ์ Windows ที่จะมาปลายปีนี้
กูเกิลจริงจังกับงานด้าน deep learning ถึงขนาดออกแบบชิปประมวลผลเองในชื่อ TPU (Tensor Processing Unit) โดยในงาน Google I/O 2017 กูเกิลก็เปิดตัว TPU รุ่นที่สอง ที่มีความสามารถมากขึ้น
เป้าหมายของกูเกิลคือนำ TPU ขึ้นไปอยู่บนคลาวด์ เพื่อให้นักวิจัยหรือคนที่ต้องการเทรน AI ให้เร็วกว่าทำเอง เข้ามาเช่าใช้งาน แต่ในช่วงแรกเพื่อเปิดโอกาสให้คนลองใช้กันมากๆ กูเกิลเลยสร้างคลาวด์พิเศษ TensorFlow Research Cloud (TFRC) ให้กลุ่มนักวิจัยใช้งานกันฟรีๆ
กระบวนการพัฒนาเครือข่ายนิวรอนอย่าง deep learning นั้นต้องอาศัยผู้เชี่ยวชาญในระดับสูงเพื่อออกแบบเครือข่ายที่มีประสิทธิภาพดี สามารถทำงานตามที่ต้องการ (เช่น การจัดหมวดหมู่ภาพ) ได้อย่างแม่นยำ เครือข่ายเช่น GoogleNet อาศัยการออกแบบนานหลายปี ตอนนี้กูเกิลเสนอแนวทาง AutoML ใช้ machine learning เพื่อออกแบบเครือข่ายนิวรอน
แนวทาง AutoML กูเกิลจะสร้าง "ตัวควบคุม" (the controller) ออกแบบเครือข่ายนิวรอนขึ้นมาใหม่ จากนั้นนำเครือข่ายนิวรอนที่ออกแบบมาไปฝึกกับข้อมูลและตรวจสอบความแม่นยำกับข้อมูล จนกระทั่งได้เครือข่ายนิวรอนประสิทธิภาพสูง การพัฒนาเครือข่ายนิวรอนสำหรับชุดข้อมูล CIFAR-10 ของกูเกิลสามารถทำความแม่นยำได้ 94.6% เป็นความแม่นยำระดับเดียวกับงานวิจัยใหม่ๆ ในปี 2016 ที่ใช้เวลาพัฒนามายาวนาน
หลังจากประโคมข่าวกันมานาน วันนี้ AMD ก็เปิดตัวจีพียูรุ่นถัดไปสถาปัตยกรรม Vega อย่างเป็นทางการ สินค้าตัวแรกมีชื่อว่า Radeon Vega Frontier Edition ไม่เน้นเกมมิ่ง แต่เน้นเจาะตลาด machine learning และ data science เป็นหลัก
AMD ระบุว่าตอนนี้ Radeon Vega Frontier Edition คือจีพียูที่เร็วที่สุดในโลก (the fastest graphics card on the planet) มีประสิทธิภาพสูงกว่าคู่แข่ง NVIDIA Titan Xp ถึง 42% ในงานบางประเภท
ตอบรับเทรนด์เซลฟี่ที่มาพร้อมสติกเกอร์และเอฟเฟกต์ Google เผยฟีเจอร์ใหม่ใน Allo ใช้ machine learning สร้างคาแรคเตอร์การ์ตูนจากรูปเซลฟี่ของผู้ใช้ เมื่อหยิบมือถือมาเซลฟี่ระบบจะสร้างคาแรกเตอร์ในอิริยาบถต่างๆ ให้อัตโนมัติ สามารถส่งเป็นสติกเกอร์คาแรกเตอร์ตัวเองให้เพื่อนได้ด้วย
กูเกิลเปิดตัวเว็บ AutoDraw แปลงภาพที่วาดแบบไม่บรรจงกลายเป็นสวยๆ ที่วาดโดยนักวาดมืออาชีพ ทำให้คนทั่วไปสามารถลองวาดภาพแบบหวัดๆ แล้วแปลงภาพกลายเป็นการ์ดอวยพรหรือภาพร่างได้
บริการ AutoDraw ยังเปิดรับภาพวาดจากศิลปินภายนอกสามารถส่งภาพเข้าไปให้ผู้ใช้ AutoDraw สามารถเลือกไปใช้งานได้อีกทางด้วย
ตัวซอฟต์แวร์ภายใน ใช้เทคโนโลยีแบบเดียวกับเกม Quick, Draw! ที่กูเกิลสร้างขึ้นทดสอบว่าปัญญาประดิษฐ์จะสามารถเดาว่าภาพที่เราวาดเป็นภาพอะไรได้หรือไม่ (แต่เท่าที่ผมลองแล้ว AutoDraw ฉลาดกว่ามาก)
ที่มา - Google
ที่ผ่านมา กูเกิลเปิดให้เจ้าของธุรกิจ-ร้านค้า สามารถกรอกข้อมูลของธุรกิจตัวเองลง Google Maps ผ่าน Google My Business
ปัญหาที่เกิดขึ้นคือมีคนจำนวนมากใช้ช่องทางนี้สแปมข้อมูล ทั้งสร้างร้านค้าปลอม (fake listing) หรือใส่ข้อมูลผิดๆ เข้ามาให้กับสถานที่จริง สร้างความเดือดร้อนต่อผู้ใช้งาน Google Maps
ส่วนสำคัญของการฝึกระบบปัญญาประดิษฐ์คือซอฟต์แวร์ฝึกจะต้องเห็นข้อมูลจำนวนมาก แต่สำหรับข้อมูลส่วนตัวเช่นคีย์บอร์ด การส่งข้อมูลกลับไปยังเซิร์ฟเวอร์เพื่อฝึกปัญญาประดิษฐ์ให้แนะนำคำได้ดียิ่งขึ้น จะเสี่ยงต่อการละเมิดความเป็นส่วนตัวอย่างมาก
ตอนนี้กูเกิลก็เสนอทางออกใหม่ที่ไม่ต้องส่งข้อมูลกลับไปยังเซิร์ฟเวอร์โดยตรง แต่ยังปรับปรุงปัญญาประดิษฐ์จากการใช้งานได้ เรียกว่า Federated Learning
ในระบบ Federated Learning ผู้ใช้ทุกคนจะได้รับปัญญาประดิษฐ์เริ่มต้นมาเหมือนๆ กัน จากนั้นเมื่อผู้ใช้เริ่มแนะนำข้อมูลใหม่ๆ เข้าไป ระบบปัญญาประดิษฐ์ก็จะปรับปรุงตัวเองบนเครื่องผู้ใช้ ทำให้เมื่อใช้งานไประยะหนึ่งแล้ว ปัญญาประดิษฐ์บนเครื่องผู้ใช้แต่ละคนจะมีพฤติกรรมต่างกันออกไป
SAP ผู้ให้บริการซอฟต์แวร์จากเยอรมัน เปิดตัว Digital Boardroom ในไทย เน้นกลุ่มองค์กรที่มีปริมาณข้อมูลมหาศาล และอาศัยการวิเคราะห์ข้อมูลเพื่อตัดสินใจและกำหนดทิศทางการดำเนินธุรกิจของบริษัท
Digital Boardroom เป็นหน้าจอใหญ่ มีตั้งแต่ 1 จอ ถึง 3 จอ ทำงานเชื่อมโยงกับฐานข้อมูลบนคลาวด์ (SAP BusinessObjects Cloud) และดาต้าเบสแพลตฟอร์มอื่นๆ ของ SAP (เช่น SAP S/4HANA, SAP HANA, และ SAP BusinessWarehouse หรือ เชื่อมต่อกับแหล่งข้อมูลอื่นผ่าน Smart Data Integration หรือ HANA Cloud Integration) โดยมี Machine Learning ทำงานเบื้องหลัง
ปัญญาประดิษฐ์และการประมวลผลภาพในโทรศัพท์มือถือมีการใช้งานมากขึ้นเรื่อยๆ เช่น ฟิลเตอร์เครื่องแต่งกายตามแอปไลฟต์ต่างๆ ตอนนี้ ARM ก็ออกมาปล่อยไลบรารีสำหรับการรีดประสิทธิภาพซีพียูและจีพียูให้ทำงานเหล่านี้ได้ดียิ่งขึ้น
ARM Compute Library รองรับฟังก์ชั่นพื้นฐานคล้ายกับ OpenCV เช่น การประมวลสีภาพ หรือฟิลเตอร์ HOG (histogram of oriented gradients) ไปจนถึงฟังก์ชั่นคอมพิวเตอร์เรียนรู้ด้วยตัวเอง เช่น SVM (support vector machines) หรือ convolutional neural networks
Snapchat ได้เปิดตัวฟีเจอร์ใหม่ คือ Stories in Search ซึ่งเป็นการค้นหา Story ที่ถูกโพสต์ลงบน Snapchat
สำหรับ Story ที่จะนำมาแสดงในผลการค้นหา จะต้องถูกโพสต์แบบสาธารณะใน Our Story เท่านั้น เช่น ถ้าค้นหาว่า Fashion Week ก็จะแสดงเฉพาะ Story จากงานแฟชั่นวีค ซึ่ง Snapchat จะใช้ machine learning ในการสแกนภาพที่ถูกโพสต์ลง Story ออกมาเพื่อจัดหมวดหมู่ว่าภายใน Story นั้นมีอะไรบ้าง โดยวิดีโอตัวอย่างสามารถรับชมได้ท้ายข่าว
ฟีเจอร์ Stories in Search เริ่มเปิดให้ใช้งานแล้ว แต่ยังจำกัดให้ใช้งานเฉพาะผู้ใช้ในบางกลุ่มเท่านั้น
ที่มา - Snap, TechCrunch
สวนสาธารณะหอฟ้าเทียนถาน (temple of heaven) ติดตั้งคอมพิวเตอร์จดจำใบหน้าเพื่อจำกัดการใช้กระดาษทิชชู่ในห้องน้ำสาธารณะแต่การทดสอบล้มเหลวจนต้องเลิกใช้งานไป
คอมพิวเตอร์จะจ่ายกระดาษทิชชู่ปริมาณจำกัด โดยหนึ่งคนจะกดทิชชู่ได้หนึ่งครั้งในเก้านาที แต่หลังจากใช้งานจริง ผู้ใช้แต่ละคนต้องใช้เวลาครึ่งนาทีจึงจะได้ทิชชู่ออกมา
ทางสวนสาธารณะรายงานว่าปริมาณการใช้ทิชชู่กำลดลงในปีที่ผ่านมา แม้ปริมาณนักท่องเที่ยวจะคงเดิมก็ตาม แต่นักท่องเที่ยวบางคนก็ดึงกระดาษเกินความจำเป็นหรือแม้แต่แอบหยิบทั้งม้วนกลับบ้าน
ที่มา - People's Daily
บริการ reCAPTCHA ของกูเกิลใช้สำหรับการพิสูจน์ว่าเป็นมนุษย์จริงหรือไม่ เพื่อป้องกันการสแปมเว็บหรือบริการต่างๆ โจทย์สำคัญสำหรับนักวิจัยคือเราสามารถผ่านการพิสูจน์ความเป็นมนุษย์นี้ด้วยคอมพิวเตอร์ได้หรือไม่ ตอนนี้การทดสอบล่าสุดก็สามารถผ่าน reCAPTCHA ด้วยบริการแปลงเสียงเป็นข้อความของกูเกิลเอง
Google Speech Recognition API มีค่าใช้งานเพียง 0.006 ดอลลาร์ต่อเสียง 15 วินาที และฟรี 1 ชั่วโมงต่อเดือน
นักวิจัยใช้ชื่อเพียงว่า East-Ee และยังไม่รายงานถึงความแม่นยำว่าผลลัพธ์จะดีเพียงใด แต่แนวคิดการทำงานเช่นนี้ก็น่าสนใจ เพราะบริการปัญญาประดิษฐ์ที่เป็นคลาวด์มีราคาถูกและเข้าถึงได้ง่ายขึ้นเรื่อยๆ
Jigsaw บริษัทลูกของ Alphabet ได้ใช้งาน machine learning เพื่อทำกรองคอมเม้นท์ที่มีพิษภัยและทำลายบรรยากาศการสนทนา และในอนาคตจะเปิด API ให้ใช้งานในเว็บไซต์ โดยเครื่องมือดังกล่าวใช้ชื่อว่า Perspective
Jigsaw ใช้วิธีการเทรนด์ระบบ machine learning ด้วยคอมเม้นท์นับพันคอมเม้นท์ที่ตัดสินว่าเป็นคอมเม้นท์ประเภทเป็นพิษภัยโดยมนุษย์แล้ว โดยซอฟต์แวร์จะทำการดูคอมเม้นท์และให้คะแนนตามความเหมือน ซึ่งทุกครั้งที่เห็นคอมเม้นท์ประเภทเป็นพิษภัย หรือเมื่อมีมนุษย์ไปเทรน ก็จะทำให้ตัวระบบแม่นยำมากขึ้น
ซอฟต์แวร์แห่งโลกยุคใหม่ที่มาแรงสองตัวคือ Apache Hadoop/Spark สำหรับงานประมวลผล Big Data และ TensorFlow สำหรับงาน Machine Learning
ล่าสุดทีมพัฒนาจาก Yahoo จับมันมารวมกันแล้วในชื่อว่า TensorFlowOnSpark หน้าที่ของมันคือการนำฟีเจอร์เรียนรู้ของ TensorFlow มารันอยู่บนคลัสเตอร์ Hadoop/Spark โดยตรง เพื่อไม่ให้ต้องย้ายข้อมูลระหว่างคลัสเตอร์สองระบบ ซึ่งเสียเวลาและทรัพยากรในการย้ายข้อมูลขนาดใหญ่
กูเกิลเปิดตัว TensorFlow ไลบรารีสำหรับเทรนงาน machine learning มาตั้งแต่ปลายปี 2015 และได้รับการยอมรับอย่างกว้างขวาง วันนี้กูเกิลประกาศออก TensorFlow 1.0 ในงานสัมมนา TensorFlow Developer Summit แล้ว
ของใหม่ใน TensorFlow 1.0 ได้แก่
Nikon เซ็นสัญญาเป็นพันธมิตรกับ Verily บริษัทลูกในเครือ Alphabet ที่ทำธุรกิจด้าน Life Science เพื่อพัฒนาเทคนิค machine learning ใช้วิเคราะห์ภาพเรตินาของนัยน์ตา เพื่อแก้ปัญหาโรคทางตาที่เกิดจากเบาหวาน
Verily เริ่มต้นจากคอนแทคเลนส์สำหรับผู้ป่วยเบาหวาน ส่วน Nikon มีบริษัทลูกชื่อ Optos ทำเครื่องมือการแพทย์ที่เกี่ยวข้องกับภาพถ่ายดวงตาอยู่แล้ว (สโลแกนของ Optos คือ The Retina Company)
Evernote ประกาศปรับนโยบายความเป็นส่วนตัว (Privacy Policy) ใหม่ อนุญาตให้พนักงานบางคนของบริษัทสามารถเข้าถึง "ข้อมูล" ในโน้ตของผู้ใช้ เพื่อนำไปพัฒนาระบบ machine learning ได้
Evernote ระบุว่าเป้าหมายคือปรับปรุงเทคโนโลยี machine learning ของตัวเองให้แม่นยำยิ่งขึ้น ดังนั้นจึงจำเป็นต้องให้พนักงานที่เป็นมนุษย์เข้ามาตรวจสอบความแม่นยำของ machine learning อีกชั้น บริษัทยืนยันว่าจะจำกัดจำนวนพนักงานที่เข้าถึงข้อมูลเหล่านี้เท่าที่จำเป็น ตรวจสอบประวัติของพนักงาน เก็บรักษาข้อมูลของลูกค้าที่นำมาใช้อย่างเคร่งครัด
Diabetic Retinopathy (DR) หรือภาวะเบาหวานขึ้นประสาทจอรับภาพ เป็นภาวะที่ทำให้ผู้ป่วยเบาหวานมีความเสี่ยงจะสูญเสียการมองเห็น ซึ่งสามารถรักษาได้หากตรวจพบตั้งแต่เนิ่นๆ และผู้ป่วยเบาหวานส่วนใหญ่ก็จะถูกนัดตรวจตาเป็นประจำทุกปี
ด้วยเหตุนี้ทีม DeepMind ของ Google จึงวิจัยและประสบความสำเร็จในการพัฒนาอัลกอริทึม Deep Learning สำหรับค้นหาอาการหรือตัวบ่งชี้ที่จะก่อให้เกิดภาวะเบาหวานขึ้นประสาทจอรับภาพ จากภาพถ่ายดวงตาของผู้ป่วยเพื่อช่วยลดระยะเวลาในการตรวจของจักษุแพทย์
Google เปิดเผยการพัฒนาเทคนิคที่เรียกว่า Rapid and Accurate Image Super-Resolution - RAISE สำหรับ Machine Learning แกไ้ขและแปลงภาพความละเอียดต่ำให้มีความละเอียดที่สูงขึ้น และใช้เวลาที่น้อยกว่าเทคนิคในปัจจุบัน
เทคนิคที่ใช้งานกันอย่างแพร่หลายในปัจจุบันเรียกว่า Upsampling ที่อาศัยค่าสีและองค์ประกอบต่างๆ ของพิกเซลมาประกอบสร้างพิกเซลใหม่ขึ้นเป็นเส้นตรง อย่างไรก็ตามถึงแม้วิธีนี้จะเร็วแต่ผลที่ออกมา ก็ยังไม่ใช่ภาพที่มีรายละเอียดเพียงพอ
เมื่อเดือนกันยายน เราเพิ่งเห็นข่าว Google Translate เริ่มนำเทคนิค Neural Networks ช่วยแปล เริ่มจากภาษาจีนเป็นอังกฤษ วันนี้กูเกิลขยายผลเทคนิค Neural Machine Translation ไปยังภาษาอื่นๆ แล้ว
ภาษาที่ได้ระบบการแปลแบบใหม่ตอนนี้มี 8 ภาษาคือ อังกฤษ ฝรั่งเศส เยอรมัน สเปน โปรตุเกส จีน ญี่ปุ่น เกาหลี ตุรกี โดยรองรับทั้งการแปลไป-กลับในทุกคู่ภาษา กูเกิลบอกว่าภาษาทั้ง 8 ครอบคลุมการใช้งานประมาณ 1/3 ของประชากรโลก และคิดเป็น 35% ของข้อความที่ส่งเข้ามาแปลกับ Google Translate แต่เป้าหมายในระยะยาวก็คือขยายผล Neural Machine Translation ไปยังภาษาทั้งหมด 103 ภาษาที่ Google Translate รองรับ