Tags:
Node Thumbnail

ในงาน Google I/O เมื่อกลางปีนี้ กูเกิลโชว์เทคโนโลยี Cloud Dataflow ซึ่งเป็นการประมวลผลข้อมูลจำนวนมากบนกลุ่มเมฆ โดยเป็นการพัฒนาจากแนวคิด MapReduce ที่กูเกิลเป็นคนสร้างขึ้นตั้งแต่ปี 2004 ให้เหมาะสมกับยุคสมัย

ที่ผ่านมา Cloud Dataflow ยังมีสถานะเป็นแค่ของโชว์เท่านั้น วันนี้กูเกิลเปิด Cloud Dataflow SDK ให้ลองใช้งานแล้ว โดยเริ่มต้นจากภาษา Java ก่อนเป็นอย่างแรก และจะมี Python 3 ตามมาเป็นลำดับต่อไป (สถานะของ Cloud Dataflow ในปัจจุบันคือเป็นรุ่น alpha)

แนวคิดของ Cloud Dataflow คือเป็นชุดของข้อมูล (dataset) ในรูปแบบที่เรียกว่า PCollections (ย่อมาจาก parallel collections) ซึ่งอาจมีขนาดใหญ่มากๆ ตามรูปแบบข้อมูล big data ในปัจจุบัน จากนั้นมันจะถูกประมวลผลผ่านไลบรารี PTransforms (parallel transforms) ที่ประกอบด้วยงานพื้นฐาน (เช่น top, count) และสามารถนำมาประกอบร่างกันได้/นำโค้ดกลับมาใช้ใหม่ได้

Cloud Dataflow ออกแบบด้วยแนวคิดการแยกส่วนกระบวนการ (modular) เพื่อให้รีดประสิทธิภาพของงานได้ง่าย ผู้ใช้งานสามารถโฟกัสเฉพาะตัว logic ของโปรแกรมว่าต้องการทำอะไรเท่านั้น ส่วนงานที่เหลือนั้น Cloud Dataflow จะจัดการให้อัตโนมัติ โค้ดที่ใช้งานจึงเรียบง่ายไม่ซับซ้อน ช่วยให้การประมวลผลข้อมูลขนาดใหญ่ๆ ง่ายขึ้นมาก

ที่มา - Google Cloud Platform (1), Google Cloud Platform (2)

Get latest news from Blognone

Comments

By: panurat2000
ContributorSymbianUbuntuIn Love
on 19 December 2014 - 23:01 #774540
panurat2000's picture

วันนี้กูเกิลเปิด Cloud Dataflow SDK ใช้ลองใช้งานแล้ว

ใช้ลองใช้งาน => ให้ลองใช้งาน