หลังจาก SQL Server 2014 เข้าสถานะ RTM เมื่อวานนี้ไมโครซอฟท์ก็จัดงานเปิดตัวอย่างเป็นทางการ รายละเอียดฟีเจอร์อ่านได้ในข่าวเก่า สามารถดาวน์โหลดรุ่น Express มาใช้งานได้ฟรีเช่นเดิม

ที่น่าสนใจกว่าคือในงานเดียวกัน ไมโครซอฟท์ยังเปิดตัวเครื่องมือวิเคราะห์ข้อมูลใหม่อีก 2 ตัว

  • Analytics Platform System (APS) เป็นแพลตฟอร์มสำหรับ "วิเคราะห์ข้อมูล" (analytics) ของไมโครซอฟท์ ที่ใช้ได้กับทั้งข้อมูลเชิงโครงสร้างแบบเดิม (SQL Server Parallel Data Warehouse) และข้อมูลแบบไม่มีโครงสร้างที่เก็บด้วย Hadoop/HDInsight รายละเอียดอ่านเพิ่มเติมได้จาก APS
  • Microsoft Azure Intelligent Systems Service บริการตัวนี้จะเฉพาะทางหน่อย เพราะเน้นไปที่ตลาด Internet of Things (IoT) โดยมันจะช่วยเก็บข้อมูลจากอุปกรณ์ต่างๆ ขึ้นไปเก็บไว้บนกลุ่มเมฆของไมโครซอฟท์ให้เรา ปัจจุบันยังอยู่ในสถานะพรีวิว - รายละเอียด
Tags:
Cloudera

อินเทลประกาศเข้าซื้อหุ้นในบริษัทซอฟต์แวร์ Cloudera จำนวน 18% คิดเป็นจำนวนเงิน 740 ล้านดอลลาร์ ถือเป็นการลงทุนครั้งใหญ่ที่สุดของอินเทลในบริษัทด้านเทคโนโลยีศูนย์ข้อมูล

Cloudera เป็นบริษัทผู้พัฒนาซอฟต์แวร์ต่อยอดจาก Apache Hadoop ซึ่งเป็นซอฟต์แวร์มาตรฐานในวงการ Big Data โดยใช้ชื่อผลิตภัณฑ์ว่า CDH (Cloudera Distribution Including Apache Hadoop)

หลังจากที่อินเทลเข้ามาถือหุ้น Cloudera จะพัฒนา CDH ให้เหมาะกับเทคโนโลยีของอินเทลในอนาคต ทั้งด้านแฟลช ความปลอดภัย (McAfee) และการเชื่อมต่อ (Intel Fabric) ส่วนอินเทลเองจะหยุดทำ Intel Hadoop (IHP/IDP) และรวมโครงการเข้ากับ CDH แทน

นอกจากการเข้ามาลงทุนของอินเทลแล้ว Cloudera จะยังได้เงินลงทุนอีกก้อนมูลค่า 160 ล้านดอลลาร์จากบริษัทลงทุน 4 ราย (ซึ่งในนั้นมีบริษัทลงทุนรายใหญ่ T. Rowe Price และ Google Ventures ด้วย)

ที่มา - Intel, Cloudera

Tags:
AMD

เอเอ็มดีย้ายฐานข้อมูลการผลิตและการทดสอบสินค้าจาก Oracle DB ไปยัง Hadoop เพราะประสิทธิภาพและเสถียรภาพของระบบฐานข้อมูลเมื่อข้อมูลมีขนาดใหญ่ๆ มากๆ โดยเอเอ็มดีมีปัญหากับข้อจำกัดกับฐานข้อมูลของออราเคิลที่จำกัดผลการคิวรีไว้ที่ 100,000 ชุด (ที่มาไม่ระบุว่าเอเอ็มดีใช้ฐานข้อมูลรุ่นไหนของออราเคิล) ขณะที่ Hadoop นั้นไม่มีข้อจำกัดแบบนี้ และตอนนี้การคิวรี 99% สามารถทำเสร็จใน 15 นาที ขณะที่การคิวรีเฉลี่ยใช้เวลา 23 วินาที

เอเอ็มดีใช้ Hadoop รุ่นของบริษัท Cloudera ซึ่งในแง่หนึ่ง Cloudera ก็เป็นคู่ค้าของออราเคิลที่จับมือกันมาตั้งแต่ต้นปี 2012

The Register อ้างเอกสารภายในของเอเอ็มดี ระบุว่าฐานข้อมูลของเอเอ็มดีนั้นมีขนาดถึง 276 เทราไบต์ และการย้ายฐานข้อมูลออกจากออราเคิลเพิ่งเสร็จสิ้นไปเมื่อปลายปีที่ผ่านมา

ที่มา - The Register

Tags:

โลกของซอฟต์แวร์และเทคโนโลยีเริ่มหมุนไปรับมือกับสิ่งที่เรียกว่า big data กันมากขึ้น ทำให้บทบาทของ data scientist’ หรือคนที่ทำหน้าที่เอาข้อมูลเหล่านี้มาประมวลผลเพื่อที่จะสร้างการคำนวณและวาดแนวโน้มได้อย่างแม่นยำ กลายเป็นสิ่งที่สำคัญมากขึ้นเช่นกัน

ในระยะหลังเราพบเห็นบรรดานักประมวลผลข้อมูลเหล่านี้เริ่มจัดตั้งบริษัท แสวงหาเงินทุน และนำเสนอผลิตภัณฑ์หรือเครื่องมือที่เป็นไปในลักษณะโซลูชั่น หรือชุดของการบริการที่มุ่งจะตอบโจทย์ของบริษัทขนาดใหญ่ที่ต้องการใช้ประโยชน์จากข้อมูลเหล่านี้อย่างเต็มที่

Palantir เป็นหนึ่งในบริษัทกลุ่มที่ว่านี้ (ที่เราอาจจะยังไม่รู้จักกับมันนัก) นั่นก็เพราะความใหม่ในเชิงแง่ของแนวคิดอย่างที่ได้กล่าวไปก่อนหน้าแล้วส่วนหนึ่ง และอีกส่วนหนึ่งคือเป็นบริษัทที่ทำการวิเคราะห์เกี่ยวกับ Big Data ที่ตอบโจทย์ของหน่วยงานภาครัฐ/หน่วยงานความมั่นคงเป็นหลัก (ซึ่งอยู่ห่างไกลจากชีวิตเรามาก) แต่หากพิจารณาถึงการได้ทุนสนับสนุนครั้งล่าสุดที่ 9 พันล้านบาทแล้ว ก็นับว่าเป็นความเคลื่อนไหวที่น่าสนใจอย่างยิ่ง

Tags:

ตลาดซีพียูสำหรับเซิร์ฟเวอร์ยังมีความเคลื่อนไหวอยู่เรื่อยๆ ล่าสุดอินเทลได้เปิดตัว Xeon E7 v2 สำหรับเซิร์ฟเวอร์ขนาดใหญ่ (32 ซ็อคเก็ต) ที่เน้นงานด้าน big data โดยเฉพาะ

Xeon E7 v2 จะยังใช้สถาปัตยกรรม Ivy Bridge (ตามชื่อห้อย v2, ถ้า v3 ถึงจะเป็น Haswell) โดยแบ่งเป็น 3 รุ่นย่อยคือ 8800/4800/2800

จุดเด่นของมันคือการรองรับหน่วยความจำปริมาณมากๆ (ซึ่งเป็นสิ่งจำเป็นสำหรับการประมวลผลข้อมูลจำนวนมากๆ ในการทำ in-memory analytics) ซึ่ง Xeon E7 v2 รองรับหน่วยความจำสูงถึง 1.5TB ต่อซ็อคเก็ต, นอกจากนี้ยังมีฟีเจอร์ด้าน I/O คือ Intel Data Direct I/O ช่วยให้การอ่านเขียนข้อมูลจากดิสก์ดีขึ้นถึง 4 เท่าเมื่อเทียบกับ Xeon E7 รุ่นแรก

ที่มา - Intel, ZDNet

Excel

ไมโครซอฟท์เปิดตัว Power BI (Business Intelligence) for Office 365 ชุดเครื่องมือสำหรับวิเคราะห์ข้อมูลขนาดใหญ่เพื่อภาคธุรกิจ โดยจะเป็นส่วนเสริมของเครื่องมือวิเคราะห์ตัวเลขที่ทุกคนคุ้นเคยอย่าง Excel

Power BI ประกอบด้วยส่วนเสริมของ Excel ในการวิเคราะห์ข้อมูล (query/pivot) ทำชาร์ท ทำแผนที่ visualization (เอนจินเดียวกับ GeoFlow) แต่ก็ยังเชื่อมโยงกับกลุ่มเมฆ ทั้งในแง่การแชร์ข้อมูลกับเพื่อนร่วมงานผ่าน Office 365, การประมวลผลข้อมูลขนาดใหญ่บน Windows Azure และการสร้างรายงานที่สวยงามบนแอพ Windows 8 เพื่อนำเสนอ

Power BI เป็นบริการแบบเก็บค่าสมาชิกรายเดือน ราคาเริ่มต้นอยู่ที่ 20 ดอลลาร์ต่อคนต่อเดือน (มีแพ็กเกจย่อยหลายแบบ) เบื้องต้นไมโครซอฟท์ให้ทดลองใช้ฟรี 30 วัน

ที่มา - Microsoft

Tags:
Amazon

ที่งาน re:Invent ของอเมซอนปีนี้ นอกจาก WorkSpaces และ Postgresql แล้ว วันนี้ก็มีการเปิดตัว Amazon Kinesis บริการประมวลผลข้อมูลตามเวลาจริงในขนาดใหญ่มาก โดยรับข้อมูลได้สูงสุด 1 เมกกะไบต์ต่อวินาที หรือ 1000 ชุดข้อมูลต่อวินาที

บริการ Amazon Kinesis จะเปิดให้เซ็นเซอร์หรือหน่วยเก็บข้อมูลต่างๆ สามารถใส่ข้อมูลเข้ามาในระบบได้อย่างรวดเร็ว จากนั้นนักพัฒนาจะต้องใช้เครื่องบน EC2 มาดูดข้อมูลไปประมวลผล

บริการประมวลผลข้อมูลตามเวลาจริงโดยมองข้อมูลเป็นสตรีมเป็นแนวทางที่องค์กรจำนวนมากใช้งาน ตัวอย่างคู่แข่งของวงการนี้เช่น IBM InfoSphere Stream สร้างบริการประมวลผลจำนวนมากแบบขนานเหมือนกัน แต่ Kinesis จะมีข้อได้เปรียบคือไม่ต้องเสียค่าไลเซนส์ซอฟต์แวร์และจ่ายค่าใช้งานตามจริงตามแนวทางของอเมซอน

ที่มา - Amazon, The Register

Tags:

อธิบายสั้นๆ มันคือคู่แข่งของ Apache Hive ที่พัฒนาโดย Facebook ครับ

อธิบายแบบยาวๆ คือบริษัทแบบ Facebook ที่ต้องยุ่งเกี่ยวกับข้อมูลจำนวนมหาศาลระดับ petabyte มีงานเบื้องหลังที่ต้องดึงข้อมูลเก่าที่เก็บใน data warehouse (ที่เก็บด้วย Hadoop/HFS) มาวิเคราะห์อยู่บ่อยๆ ปัญหาคือระบบคิวรีข้อมูลอย่าง Hive ที่พัฒนาอยู่บนแนวคิด MapReduce นั้นออกแบบโดยเน้นสมรรถภาพโดยรวม (overall throughput) เป็นสำคัญ แต่สิ่งที่ Facebook ต้องการคือระบบคิวรีข้อมูลที่มีการตอบสนองรวดเร็ว (low query latency)

ในเมื่อในท้องตลาดไม่มีผลิตภัณฑ์ที่ต้องการก็สร้างมันเองเสียเลย ผลออกมาเป็นโครงการชื่อ Presto ซึ่งเป็นเอนจินสำหรับคิวรีข้อมูลแบบ SQL (รองรับภาษา ANSI SQL ยังไม่ครบชุดแต่ก็เกือบทั้งหมด) มีจุดเด่นที่ความเร็วของการดึงข้อมูล

ไมโครซอฟท์เคยประกาศแผนการพัฒนา Hadoop ไว้ตั้งแต่ปี 2011 วันนี้เวลาผ่านมาเกือบสองปี มันสำเร็จเป็นรูปเป็นร่างแล้วในชื่อ Windows Azure HDInsight

ความสามารถของมันก็ตามชื่อครับ มันเป็นการเอา Apache Hadoop รุ่นมาตรฐานไปรันบนเมฆ Windows Azure ทำให้คนที่อยากวิเคราะห์ข้อมูลขนาดใหญ่ big data บนกลุ่มเมฆสะดวกแก่การใช้งาน ส่วนกระบวนการพัฒนาแอพเพื่อต่อเชื่อมกับ HDInsight ก็ใช้เครื่องมือมาตรฐานของ Azure ที่รองรับทั้ง .NET, Java และภาษาอื่นๆ อีกจำนวนหนึ่ง

งานนี้ไมโครซอฟท์ร่วมมือกับบริษัท Hortonworks (ทีมงาน Hadoop ดั้งเดิมที่แยกตัวมาจากยาฮู) ช่วยกันสร้าง HDInsight ขึ้นมา โดยอิงอยู่บนซอฟต์แวร์ Hortonworks Data Platform (HDP) ที่เป็น Hadoop เวอร์ชันบน Windows Server อีกทีหนึ่ง

ที่มา - Microsoft

Tags:
MapR

เทคโนโลยี Big Data กำลังมาแรงมากขึ้นเรื่อยๆ และซอฟต์แวร์ที่ได้รับการยอมรับว่าเป็นมาตรฐานในวงการแล้วคือ Apache Hadoop (และโครงการที่เกี่ยวข้องอื่นๆ) ซึ่งมีบริษัทมากมายเข้าไปช่วยกันพัฒนากันอย่างเต็มที่

อย่างไรก็ตาม การที่ Hadoop เป็นโครงการโอเพนซอร์สแปลว่ามันยังมีความ "ดิบ" อยู่พอสมควรในการนำมาใช้งานจริง จึงมีบริษัทหน้าใหม่หลายแห่งที่นำ Hadoop มาจัดแพ็กเกจใหม่ ทำระบบติดตั้งและบริหารจัดการ บวกกับฟีเจอร์เสริมอื่นๆ ในลักษณะเดียวกับดิสโทรของลินุกซ์ในอดีต

บริษัทหนึ่งที่เข้ามาทำ Hadoop ในเชิงพาณิชย์เป็นรายแรกๆ คือ MapR (ดูจากชื่อก็น่าจะพอนึกออกว่ามาจาก MapReduce) ซึ่งผมมีโอกาสสัมภาษณ์ทางอีเมลกับคุณ Martin Darling ซึ่งเป็นผู้บริหารดูแลภูมิภาคเอเชียแปซิฟิกของ MapR ครับ (ตำแหน่งอย่างเป็นทางการคือ Vice President, Asia Pacific & Japan) ถึงแนวโน้มของโลก Big Data ครับ

Facebook เป็นเครือข่ายสังคมที่เชื่อมโยง "ความสัมพันธ์" ของผู้คนและวัตถุต่างๆ ซึ่งบริษัทได้ออกแบบแพลตฟอร์ม Open Graph มารองรับฟีเจอร์นี้ (ข่าวเปิดตัวเมื่อปี 2010) ระยะหลัง Facebook จึงมองข้อมูลต่างๆ ในระบบของตัวเองเป็น "กราฟ" (ในความหมายทางคณิตศาสตร์ ไม่ใช้กราฟเส้นแบบราคาหุ้นนะครับ) ไปซะเยอะ

ล่าสุด Facebook ออกมาอธิบายสถาปัตยกรรมเบื้องหลัง Open Graph ที่สามารถประมวลผลข้อมูลกราฟขนาดมหาศาล (Facebook มองไกลถึงระดับ "ล้านล้าน" ความสัมพันธ์)

เริ่มจากซอฟต์แวร์ประมวลผลกราฟ Facebook ทดสอบการทำงานของซอฟต์แวร์ 3 ตัวคือ Apache Hive, GraphLab, Apache Giraph ด้วยข้อมูลระดับ 25 ล้านความสัมพันธ์ (edge ในภาษาของทฤษฎีกราฟ) และสุดท้ายเลือก Giraph ด้วยเหตุผลว่าทำงานร่วมกับสถาปัตยกรรมซอฟต์แวร์อื่นๆ ของ Facebook (เช่น Hadoop/HDFS/Hive/Corona) ได้ดี

Tags:
Google

หลายคนคงได้ยินชื่อเสียงของกระบวนการสัมภาษณ์งานกูเกิลที่มีคำถามสุดหินและประลองปัญญา ซึ่งก็ถือเป็นเสน่ห์อย่างหนึ่งของกูเกิลที่ช่วยดึงดูดให้คนเก่งๆ อยากเข้ามาสัมภาษณ์งาน

แต่ Laszlo Bock รองประธานอาวุโสฝ่ายทรัพยากรบุคคลของกูเกิล ให้สัมภาษณ์ว่าจากสถิติของกูเกิลเอง (ที่บ้า big data เป็นทุนอยู่แล้ว) กลับพบว่าคำถามประลองปัญญาเหล่านี้ไม่มีความสัมพันธ์กับประสิทธิภาพของพนักงานที่รับเข้ามาแม้แต่น้อย (Bock ใช้คำว่า "เสียเวลาอย่างสิ้นเชิง" a complete waste of time) ประโยชน์ของมันมีแค่ให้ฝ่ายที่เป็นคนสัมภาษณ์รู้สึกฉลาดเท่านั้น

สิ่งที่ Bock บอกว่าสำคัญกับการสัมภาษณ์คือการสัมภาษณ์เชิงสังเกตพฤติกรรม (behavioral interview) โดยที่ฝ่ายทรัพยากรบุคคลของกูเกิลต้องเตรียมคำถามไว้ก่อน (structured) เพื่อให้ถามคำถามชุดเดียวกันกับผู้เข้าสัมภาษณ์ทุกคนและสามารถนำมาเปรียบเทียบได้ ตัวอย่างของคำถามลักษณะนี้คือ "จงยกตัวอย่างช่วงเวลาที่คุณแก้ปัญหายากๆ ได้" ซึ่งผู้ถามจะสังเกตว่าผู้ตอบมีท่าทีต่อปัญหาในสถานการณ์จริงอย่างไร และสังเกตผู้ตอบว่าปัญหาแบบไหนที่ผู้ตอบมองว่า "ยาก"

Tags:
Twitter

Twitter ยังคงเข้าซื้อบริษัทมาเสริมทัพในธุรกิจของตนเองอย่างต่อเนื่อง ล่าสุดเป็น Lucky Sort ที่มีผลงานด้านการวิเคราะห์ และเก็บข้อมูลขนาดใหญ่ พร้อมทั้งพล็อตเป็นกราฟให้เข้าใจได้ง่าย

ผลงานเด่นของ Lucky Sort คือเครื่องมือชื่อว่า TopicWatch สำหรับเก็บข้อมูลจากทวีต และนำมาพล็อตเป็นกราฟแบ่งตามเทรนด์ต่างๆ ได้ โดยจะออกมาหน้าตาแบบนี้ และยังถูกนำไปใช้ในแอพวิเคราะห์หุ้นอย่าง StockTwits อีกด้วย

ที่มา - The Next Web

Tags:
IBM

IBM ประกาศลงทุนเพื่อพัฒนาเทคโนโลยี flash storage เป็นจำนวนเงินถึง 1 พันล้านดอลลาร์ โดยให้เหตุผลว่า flash เป็นเทคโนโลยีเก็บข้อมูลแห่งอนาคต และจะพลิกโฉมการเก็บข้อมูลของตลาดไอทีองค์กรอย่างสิ้นเชิง

IBM บอกว่าประสิทธิภาพและราคาของ flash อยู่ในระดับที่ใกล้นำมาใช้งานในระบบไอทีองค์กรอย่างจริงจัง โดยเฉพาะในงานที่ต้องการ transaction มากๆ การเปลี่ยนมาใช้ flash ช่วยให้อ่านข้อมูลมาวิเคราะห์ได้เร็วขึ้น ในขณะเดียวกันก็ตอบโจทย์เรื่องการใช้พลังงานที่ลดลง

นอกจากการวิจัยในเทคโนโลยี flash ตามปกติแล้ว IBM ยังจะเปิดศูนย์วิจัยพิเศษอีก 12 แห่งทั่วโลก เพื่อทดสอบโซลูชันระบบคอมพิวเตอร์ที่ใช้ flash ของตัวเองกับข้อมูลจริงของลูกค้า และวัดผลประสิทธิภาพที่เพิ่มขึ้นจากระบบแบบใหม่ด้วย

ที่มา - IBM

Tags:
Google

แนวทาง MapReduce ถูกเสนอครั้งแรกในรายงานของกูเกิลและได้รับความสนใจอย่างสูงจากทั้งงานวิชาการและภาคธุรกิจ ที่แปลงเป็นคำว่า BigData ขายกันทั่วไปทุกวันนี้ แต่เทคโนโลยี MapReduce ถูกจดสิทธิบัตรไว้จำนวน 10 ฉบับแยกจากกัน โดยที่ผ่านมาแม้จะมีการเขียนซอฟต์แวร์โอเพนซอร์สอย่าง Hadoop โดยไม่ได้ขออนุญาตจากกูเกิล แต่ก็ไม่มีการดำเนินคดีใดๆ และวันนี้กูเกิลก็ประกาศสัญญาว่าจะไม่ใช้สิทธิบัตรเหล่านั้นนำเดินคดีอย่างเป็นทางการกับโครงการโอเพนซอร์สทุกโครงการ

ด้วยประกาศนี้ โครงการเช่น Hadoop ทั้งนักพัฒนา, ผู้จัดจำหน่าย, และผู้ใช้จะปลอดภัยจากการถูกฟ้องด้วยสิทธิบัตรทั้งสิบฉบับ ตราบใดก็ตามที่หน่วยงานเหล่านี้ยังไม่ได้ฟ้องบริการใดๆ ของกูเกิล หรือทำกำไรจากการฟ้องร้องกูเกิล

ประกาศนี้จะมีผลผูกพันแม้กูเกิลจะโอนสิทธิบัตรไปให้บริษัทอื่นใช้งานต่อแล้วก็ตาม ดังนั้นถ้าใครมีไอเดียอยากทำโครงการเกี่ยวกับ MapReduce แล้วกลัวจะถูกฟ้อง ทางออกง่ายๆ ก็คือทำเป็นโครงการโอเพนซอร์ส ก็จะได้รับความคุ้มครองตามประกาศนี้ทันที

ที่มา - Google Open Source Blog, Open Patent Non-Assertion Pledge

Tags:
Intel

อินเทลประกาศเปิดตัว Hadoop เฟรมเวิร์ค MapReduce โอเพนซอร์สรุ่นพิเศษของตัวเอง ที่ใช้ฟีเจอร์ของชิป Xeon อย่างเต็มประสิทธิภาพ ด้วยการใช้ชุดคำสั่งพิเศษอย่าง AES-NI หรือ SSE เพื่อเพิ่มประสิทธิภาพการเข้ารหัสและการบีบอัด รวมถึงการจูนระบบไฟล์ HDFS ให้ทำงานเข้ากับ Intel SSD และการ์ด 10Gbps ของอินเทลได้ดีขึ้น

Hadoop เป็นซอฟต์แวร์ในกลุ่มการประมวลผลข้อมูลขนาดใหญ่ (Big Data) ที่ได้รับความนิยมจากภาคธุรกิจจำนวนมาก บริษัทขนาดใหญ่อย่าง EMC ไปจนถึงบริษัทสตาร์ตอัพจำนวนมาก

อินเทลระบุว่าจะโอเพนซอร์ส Hadoop รุ่นพิเศษของตัวเองออกมาทั้งหมด ดังนั้นเป็นไปได้ว่าแพตซ์ของอินเทลอาจจะได้รับกลับเข้าไปยัง Apache ผู้ดูแลโครงการหลัก แต่ส่วนที่อินเทลขายคือ Intel Manager for Apache Hadoop ที่ช่วยเรื่องการจัดการเครื่อง ซึ่งแนวทางนี้ก็คล้ายกับผู้ผลิตซอฟต์แวร์รายอื่นๆ ที่เน้นการขายเครื่องมือเป็นหลัก แต่ผู้ผลิตรายอื่นนั้นไม่ได้สัญญาว่าจะเปิดซอร์สแพตซ์ของตัวเองออกมา และตัวสัญญาอนุญาตของ Apache ก็ไม่ได้บังคับให้บริษัทต่างๆ ที่นำซอฟต์แวร์ไปพัฒนาต่อต้องโอเพนซอร์สแต่อย่างใด

ที่มา - eWeek, Hadoop

Tags:
Cisco

Cisco ออกรายงาน Cisco Global Cloud Index ประเมินสถานการณ์ของ "ข้อมูล" ที่ศูนย์ข้อมูลทั่วโลกระหว่างปี 2011-2016

ตัวเลขของ Cisco ระบุว่า "ปริมาณ" ข้อมูลในศูนย์ข้อมูลจะเพิ่มขึ้นจากปัจจุบันอีกเกือบ 4 เท่าตัว จาก 2.6ZB (1 ZB = 1 พันล้าน TB) ในปี 2012 เป็น 6.6ZB ในปี 2016 (อัตราเติบโตปีละ 31%)

ที่น่าสนใจคือ "ประเภท" ของข้อมูลในศูนย์ข้อมูลหนึ่งแห่ง ถูกส่งออกไปนอกศูนย์ข้อมูลเพียง 24% เท่านั้น โดย 76% ของข้อมูลทั้งหมดจะวิ่งวนอยู่ภายในศูนย์ข้อมูลเอง (ข้ามระหว่างเซิร์ฟเวอร์กัน) ส่วนตัวเลข 24% ก็ยังแบ่งเป็น 7% เป็นการส่งข้อมูลระหว่างศูนย์ข้อมูลคนละแห่ง (เช่น replication) เหลือเพียง 17% ที่ส่งข้อมูลไปยังผู้ใช้ที่ปลายทางจริงๆ

Tags:
EMC

เมื่อสัปดาห์ที่แล้ว EMC ยักษ์ใหญ่โซลูชันทางด้านธุรกิจได้มาจัดงานสัมมนากึ่งเวิร์คช็อปในประเทศไทยในชื่องาน EMC Forum 2012 ภายใต้คอนเซปของงานว่า "TRANSFORM IT + BUSINESS + YOURSELF" ซึ่งภายในงานจะมีการเวิร์คช็อปในหัวข้อต่างๆ ที่ครอบคลุมผลิตภัณฑ์ของ EMC ยกตัวอย่างที่หลายคนรู้จักได้แก่ VMware หรือ Greenplum เป็นต้น (ถ้าใครยังไม่คุ้นกับ EMC ลองอ่านบทสัมภาษณ์ผู้บริหารก่อนได้)

EMC Forum 2012 ปฏิรูปธุรกิจด้วยเทคโนโลยี

งาน EMC Forum 2012 ในประเทศไทยครั้งนี้จัดเป็นแห่งที่สองต่อจากสิงคโปร์ ด้วยหัวข้อที่เป็นใจความสำคัญของการจัดงานครั้งนี้คือการเชิญชวนให้ฝั่งธุรกิจหันมาสนใจความเปลี่ยนแปลงทางด้านโซลูชันสำหรับองค์กรไปสู่เทคโนโลยีที่หลายบริษัทกำลังให้ความสนใจทั้ง virtualization และระบบกลุ่มเมฆสำหรับองค์กร

ในระหว่างงาน EMC ได้แสดงวิสัยทัศน์อนาคตของโซลูชันองค์กร โดยมีคุณเดวิด เวิร์ท รองประธานฝ่ายโกลบอล เซอร์วิส ประจำ EMC ภูมิภาคเอเชียแปซิฟิก และญี่ปุ่นมาเป็นผู้อธิบายรายละเอียดต่างๆ อีกด้วย

Tags:
IBM

IBM บริษัทแม่เปิดตัวไปตั้งแต่เดือนเมษา แต่เรายังไม่ได้ลงข่าว ดังนั้นพอ IBM ประเทศไทยเปิดตัวบ้างก็ลงรวบยอดเป็นข่าวเดียวไปเลยนะครับ แถวนี้น่าจะมีคนทำ DB2 อยู่พอสมควร

ภาพรวมก็คือ IBM ออกระบบฐานข้อมูล DB2 เวอร์ชันใหม่ที่นับเป็นเวอร์ชัน 10 แล้ว (รวมถึงคลังข้อมูล InfoSphere Warehouse 10 ด้วย) ของใหม่ก็คงไม่ต่างอะไรจากคู่แข่งมากคือเน้นไปที่ Big Data เป็นหลัก สำหรับฟีเจอร์ตาม press มีดังนี้

  • ประสิทธิภาพดีกว่า DB2 ของเดิม สูงสุด 3.3 เท่าตัว
  • เทคโนโลยีการบีบอัดข้อมูล เพิ่มพื้นที่จัดเก็บได้สูงสุด 90% ทำงานได้เร็วขึ้น 10 เท่า แถมใช้กับฐานข้อมูลของ Oracle ได้ 98%
  • การบีบอัดข้อมูลปรับเปลี่ยนได้ตามความสำคัญของข้อมูล และความถี่ในการเรียกใช้ข้อมูลนั้นๆ (อันไหนใช้บ่อยก็บีบน้อยๆ จะได้เรียกใช้เร็วๆ)
  • วิเคราะห์ข้อมูลแบบเรียลไทม์ ใช้งานร่วมกับ Hadoop ได้ตามสมัยนิยม รองรับ NoSQL Graph Store และ SPARQL query language
  • Time Travel Query สืบค้นและหาความสัมพันธ์ของข้อมูลตามช่วงเวลาต่างๆ ได้ในตัว จากเดิมที่ต้องเขียนโค้ดวิเคราะห์กันเอง

ที่มา - IBM

Tags:
Dell

Blognone รายงานข่าวเรื่อง Big Data มาพอสมควร พอดีเมื่อวันก่อน Dell ประเทศไทยมีแถลงข่าวเรื่อง Storage + Big Data (ซึ่งเป็นเรื่องที่เกี่ยวข้องกัน) ผมเลยไปฟังหน่อยเผื่อว่าจะได้ภาพรวมของตลาด Big Data ในประเทศไทยนะครับ

การนำเสนอของ Dell เริ่มจากโชว์คำพยากรณ์ของ Gartner ที่ประเมินว่าอัตราการเติบโตของข้อมูลในองค์กรจะเติบโตสูงมากในอนาคต ตัวเลขปีล่าสุดคือ 47 เท่าในปี 2011 (ข้อมูลที่สร้างในปี 2011 คิดเป็น 1.8 ล้านล้าน GB)

ในแง่การเก็บข้อมูลระดับคอนซูเมอร์ก็เรื่องนึง แต่ในระดับองค์กร ต่อไปความสามารถในการนำข้อมูลมาใช้งานจะเป็นตัวชี้วัดความสามารถในการแข่งขันขององค์กรได้ องค์กรไหนที่นำข้อมูล (ที่มีอยู่แล้ว) มาสกัดออกเป็นยุทธศาสตร์ได้ก็จะประสบความสำเร็จ