Tags:
Google Cloud Platform

กูเกิลประกาศเพิ่มความสามารถให้บริการฐานข้อมูลขนาดใหญ่ BigQuery หลายอย่างดังนี้

  • เปลี่ยนวิธีคิดเงินให้ละเอียดกว่าเดิม เลือกกำหนดโควต้าตามโครงการ/วัน และตามผู้ใช้/โครงการ/วัน ช่วยให้ลูกค้าประหยัดค่าใช้บริการมากขึ้น
  • Query Explain อธิบายการทำงานของคิวรีที่ผู้ใช้ป้อนเข้าระบบ เพื่อปรับแต่งประสิทธิภาพของคิวรีให้ดีขึ้นกว่าเดิม
  • ปรับปรุง Streaming API สำหรับโหลดข้อมูลเข้าระบบ BigQuery โดยลดระยะเวลาการโหลดข้อมูลลงจากเดิม และรองรับการใช้ข้อมูลเก่าที่มีอยู่แล้ว เป็นเทมเพลตสำหรับข้อมูลใหม่ๆ ที่จะโหลดเข้าไปในอนาคต
  • เพิ่ม BigQuery Audit Logs ระบบล็อกการใช้งาน เพื่อให้ติดตามโควต้าการใช้งานของ BigQuery ได้ง่ายกว่าเดิม

ที่มา - Google Cloud Platform

Tags:
IBM

เมื่อวันอังคารที่ผ่านมา IBM ประกาศโอเพนซอร์ส SystemML ซึ่งเป็นตัวแปลข้อมูลสากล (universal translator) สำหรับงานด้านข้อมูลขนาดใหญ่ (big data) และ machine learning อย่างเป็นทางการ โดยเป็นแผนการต่อเนื่องที่ประกาศว่าจะสร้างระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่เรียกว่า Spark เมื่อเดือนมิถุนายนที่ผ่านมา โดยจะยกให้ Apache เป็นคนดูแลโครงการนี้อย่างเป็นทางการ และจะได้ชื่อว่า Apache SystemML

SystemML จะทำหน้าที่เป็นตัวแปลงข้อมูลและอัลกอริทึมที่เกี่ยวข้องในระบบของ Spark ให้สามารถทำงานกับระบบคอมพิวเตอร์ที่หลากหลายและแตกต่างกันได้ รวมถึงสามารถใช้กับเครื่องมือทั้งของ Spark หรือ Hadoop ได้ด้วยเช่นกัน ทำให้นักพัฒนาเขียนอัลกอริทึมได้เพียงครั้งเดียว แต่สามารถเอาไปประยุกต์ใช้งานได้ในหลายสถานการณ์ รวมถึงทำให้นักพัฒนาสามารถเอาคุณสมบัติด้าน machine learning เข้าไปใส่ในงานต่างๆ ได้ง่ายขึ้นกว่าเดิมด้วย

อนึ่ง SystemML เป็นผลพลอยได้จากการพัฒนาระบบประมวลผลข้อมูลขนาดใหญ่ของ IBM ซึ่งคือ Watson นั่นเอง

ที่มา - IBM

Tags:
Oracle

ช่วงนี้ ออราเคิลจัดงานประจำปี Oracle OpenWorld เลยมีข่าวผลิตภัณฑ์ใหม่ของบริษัทเยอะหน่อยนะครับ ผลิตภัณฑ์ใหม่อีกตัวที่น่าสนใจคือ Oracle Cloud Platform for Big Data แพลตฟอร์มคลาวด์สำหรับการประมวลผลข้อมูลขนาดใหญ่

Oracle Cloud Platform for Big Data เป็นการจับผลิตภัณฑ์สาย Big Data ของออราเคิลมารวมเป็นชุดเดียวกัน โดยมีของเดิมอยู่แล้ว 2 ตัวคือ Big Data Cloud Service กับ Big Data SQL Cloud Service และเพิ่มของใหม่อีก 4 ตัว

  • Big Data Preparation Cloud Service ใช้สำหรับเตรียมชุดข้อมูลก่อนประมวลผล ข้างหลังเป็น Apache Spark ทำงานร่วมกับซอฟต์แวร์ประมวลผลภาษาธรรมชาติ (NLP)
  • GoldenGate Cloud Service ใช้นำเข้าข้อมูลจำนวนมาก แต่ต้องการความเร็วต่ำ (high volume, low-latency) เข้าสู่คลังข้อมูล (Data Lake หรือ Data Warehouse) ก่อนนำไปใช้ประมวลผลอย่างอื่นต่อไป
  • Big Data Discovery Cloud Service เป็น GUI ที่รันอยู่บน Hadoop ช่วยให้การประมวลผลข้อมูลง่ายขึ้น โดยไม่ต้องหัดเรียนเครื่องมือประมวลผลในเชิงลึก
  • NoSQL Database Cloud Service อันนี้ตามชื่อคือเป็นบริการฐานข้อมูลแบบ NoSQL (key-value)
Tags:
Zendesk

Zendesk ผู้พัฒนาซอฟต์แวร์ CRM สำหรับบริการลูกค้าชื่อดัง เตรียมนำเทคนิค machine learning เข้ามาช่วย "พยากรณ์" อารมณ์ของลูกค้าว่าแย่แค่ไหน เพื่อให้พนักงานเตรียมรับมือกับลูกค้าได้ทันท่วงที

ฟีเจอร์ใหม่ของ Zendesk เรียกว่า Satisfaction Prediction โดยจะนำฐานข้อมูลการบริหารลูกค้าจำนวนมหาศาลของ Zendesk มาวิเคราะห์ด้วยเทคนิค machine learning จากนั้นในอนาคต ถ้าหากลูกค้ามีแนวโน้มว่ากำลังโกรธหรืออารมณ์เสีย ระบบจะแจ้งเตือนพนักงานดูแลลูกค้าเป็นลำดับคะแนน 0-100 (0 คือแย่ที่สุด) เพื่อให้พนักงานสามารถจัดลำดับความสำคัญ มาช่วยดูแลลูกค้ากลุ่มนี้ก่อน

Zendesk ระบุว่าพิจารณาปัจจัยหลายอย่างประกอบกัน เช่น ดูว่าลูกค้าตั้งใจกรอกแบบฟอร์มขอความช่วยเหลือมากน้อยแค่ไหน พนักงานตอบสนองเร็วหรือไม่ รูปแบบของภาษาที่ใช้ในฟอร์ม เป็นต้น

ฟีเจอร์นี้เริ่มเปิดใช้กับลูกค้า Zendesk Enterprise บางรายแล้ว และจะขยายกลุ่มผู้ใช้ต่อไปในปี 2016

ที่มา - Zendesk

Tags:
Microsoft Azure

ไมโครซอฟท์เปิดตัวบริการใหม่ Azure Data Lake แพลตฟอร์มสำหรับจัดเก็บและประมวลผลข้อมูลขนาดใหญ่ (big data) บนกลุ่มเมฆ

Azure Data Lake ประกอบด้วยชิ้นส่วนย่อย ดังนี้

  • Azure Data Lake Store เป็นบริการสำหรับจัดเก็บข้อมูล (data store) จากแหล่งอื่น เช่น เว็บไซต์ เซ็นเซอร์ หรืออุปกรณ์ต่างๆ จุดเด่นของมันคือเก็บข้อมูลอยู่บนแพลตฟอร์มของ Azure และเข้ากันได้กับระบบไฟล์ HDFS สามารถนำไปประมวลผลต่อด้วยแอพพลิเคชัน Hadoop ได้
  • Azure Data Lake Analytics เป็นบริการตัวใหม่สำหรับวิเคราะห์ข้อมูล โดยไมโครซอฟท์นำโค้ดของโครงการ Apache YARN มาปรับปรุงให้ทำงานบน Azure ได้ดีขึ้น
  • Azure HDInsight ดิสโทร Hadoop/Spark/HBase/Storm เวอร์ชันของไมโครซอฟท์ที่พัฒนามาได้สักระยะแล้ว ล่าสุดออกเวอร์ชันลินุกซ์แล้ว
Tags:
AWS

Amazon Web Services เปิดบริการใหม่ชื่อ Amazon Elasticsearch Service (ตัวย่อ ES) โดยนำซอฟต์แวร์ค้นหาและวิเคราะห์ข้อมูลแบบโอเพนซอร์ส Elasticsearch มารันบนคลาวด์ของ AWS

Elasticsearch ถูกออกแบบมาใช้ค้นหาคำที่ต้องการจากข้อมูลขนาดใหญ่ โดยแบ่งงานแบบกระจายศูนย์ตามคลัสเตอร์ได้ (จึงเหมาะแก่การรันบน AWS ตั้งแต่แรกอยู่แล้ว) ตัวซอฟต์แวร์มี API สำหรับเชื่อมกับระบบงานภายนอกอื่นๆ เช่น visualization ได้ด้วย

AWS ไม่ใช่ผู้ให้บริการคลาวด์รายแรกที่นำระบบ Elasticsearch มาใช้งาน เพราะ Google Compute Engine ให้บริการแบบเดียวกันมาตั้งแต่เดือนมกราคม 2015

ที่มา - AWS Blog via Data Center Knowledge

Google Cloud Platform

Google Cloud Platform เปิดบริการใหม่ (อีกแล้ว) โดยใช้ชื่อว่า Google Cloud Dataproc มันคือการนำเอาซอฟต์แวร์วิเคราะห์ข้อมูลอย่าง Apache Hadoop และ Apache Spark มาโฮสต์บนระบบคลาวด์ของกูเกิล และปรับแต่งให้เซ็ตอัพ คอนฟิก และใช้งานง่ายขึ้น ลดความยุ่งยากในการดูแลระบบลง

Cloud Dataproc ยังใช้ประโยชน์จากราคาประมวลผลบนกลุ่มเมฆ โดยคิดราคาเพิ่มจากปกติเพียงแค่ 1 เซ็นต์ต่อซีพียูต่อชั่วโมง (นอกเหนือจากค่าประมวลผล-สตอเรจที่ต้องจ่ายให้กูเกิลอยู่แล้ว) และถ้าอยากประหยัดแบบสุดๆ ก็สามารถรันงานบน Preemptible Instances เซิร์ฟเวอร์พร้อมตายทุกเวลา ที่ราคาถูกมากเป็นพิเศษได้

บริการ Cloud Dataproc ยังสามารถทำงานร่วมกับบริการอื่นๆ ในชุด Cloud Platform เช่น BigQuery, Cloud Storage, Cloud Bigtable, Cloud Logging, Cloud Monitoring และสั่งงานได้ผ่านคอนโซลของกูเกิล หรือ Google Cloud SDK ได้ด้วย

ที่มา - Google Cloud Platform Blog

Tags:

ไมโครซอฟท์ประกาศซื้อกิจการบริษัท VoloMetrix ผู้พัฒนาซอฟต์แวร์ด้านการวิเคราะห์องค์กร (organizational analytics) และความสัมพันธ์ของคนในองค์กร (people analytics)

เป้าหมายของไมโครซอฟท์ชัดเจนว่าต้องการนำเทคโนโลยีของ VoloMetrix ไปรวมกับชุด Office 365 ที่ภายหลังมีฟีเจอร์ Office Graph แสดงความเชื่อมโยงของคนในองค์กร และมีโปรแกรมใหม่ Delve มาช่วยวิเคราะห์ข้อมูลความสัมพันธ์เหล่านี้

ทีมงานและเทคโนโลยีของ VoloMetrix จะถูกนำไปใช้กับ Delve Organizational Analytics ในไม่ช้า

ที่มา - Microsoft, VoloMetrix

Tags:
HortonWorks

Hortonworks บริษัทซอฟต์แวร์ด้าน Big Data ที่เชี่ยวชาญ Hadoop (อ่านบทสัมภาษณ์คุณทัศพล อธิอภิญญา คนไทยใน Hortonworks) ประกาศซื้อกิจการบริษัท Onyara สตาร์ตอัพที่ทำด้าน data flow จากเซ็นเซอร์ที่ฝังอยู่ในอุปกรณ์ Internet of Things

Onyara เป็นผู้สนับสนุนโครงการ Apache NiFi ซอฟต์แวร์โอเพนซอร์สที่ทำเรื่องการไหลของข้อมูล (data routing) ซึ่งเป็นซอฟต์แวร์ที่จำเป็นในยุคที่เรามีเซ็นเซอร์อยู่รอบตัว และเซ็นเซอร์เหล่านี้ส่งข้อมูลออกมาตลอดเวลา แถมในหลายกรณียังต้องรับข้อมูลกลับมาประมวลผล เพื่อสื่อสารกันเองระหว่างเซ็นเซอร์แต่ละตัวด้วย

Tags:
Intel

อินเทลเปิดตัวสินค้าฝั่งซอฟต์แวร์ Intel Data Analytics Acceleration Library (Intel DAAL) เป็นไลบรารีสำหรับการประมวลผลข้อมูลขนาดใหญ่ (big data) ที่ออปติไมซ์มาสำหรับซีพียูของอินเทลทั้ง Xeon, Core, Atom, และ Xeon Phi

อัลกอริทึมที่อยู่ในไลบรารีชุดนี้มีตั้งแต่ การจัดชุดข้อมูล (clustering), หาความแตกต่างระหว่างข้อมูล (distance), แปลงข้อมูล (transformation) อัลกอริทึมเหล่านี้ใช้งานกันบ่อยในงานประมวลผลอยู่แล้ว คู่แข่งของที่ DAAL เช่น MLlib ของ Apache ทางอินเทลชูจุดเด่นว่า DAAL ปรับแต่งมาสำหรับซีพียูของอินเทลโดยเฉพาะทำให้ประสิทธิภาพดีขึ้นมากบนเครื่องเดียวกัน

ทางอินเทลระบุว่าจะเพิ่มอัลกอริทีมใหม่เข้ามาใน DAAL เรื่อยๆ ตัวไลบรารีเป็นภาษา C++ และมีชุด API จาวามาให้ ส่วนระบบปฎิบัติการรองรับลินุกซ์, วินโดวส์, และ OS X

เริ่มวางขายแล้ววันนี้สำหรับคนที่อยากลองใช้งานมีทั้งรุ่นทดสอบ และรุ่นชุมชนที่ไม่ต้องเสียเงินทั้งคู่

ที่มา - Intel

Tags:
Intel

อินเทลเปิด Discovery Peak แพลตฟอร์มสำหรับการวิเคราะห์ข้อมูลขนาดใหญ่ที่รวมเอาทั้งระบบประมวลข้อมูล, การแสดงผลการประมวล, และแพลตฟอร์มพัฒนาแอพพลิเคชั่นจากข้อมูล เข้าเป็นชุดซอฟต์แวร์

พร้อมๆ กับการเปิดตัวชุดซอฟต์แวร์ ทางอินเทลประกาศร่วมมือกับ Oregon Health & Science University (OHSU) เปิดตัวคลาวด์เพื่อความร่วมมือการวิจัยมะเร็ง (Collaborative Cancer Cloud) เป็นความร่วมมือระหว่างสามศูนย์วิจัยทั่วสหรัฐฯ ที่จะแชร์ข้อมูลคนไข้อย่างปลอดภัย เพื่อพัฒนาการรักษาที่เจาะจงกับคนไข้แต่ละคน

Collaborative Cancer Cloud จะเริ่มเปิดให้บริการปีหน้า โดยใช้ซอฟต์แวร์ที่พัฒนาจาก Discovery Peak และทางอินเทลระบุว่าซอร์สโค้ดบางส่วนในโครงการจะเปิดซอร์สออกมาให้นักพัฒนาภายนอกช่วยกันพัฒนาด้วยเช่นกัน

ตอนนี้ผมค้นดูยังไม่เจอว่า Discovery Peak เปิดให้ดาวน์โหลด

Cortana

ไมโครซอฟท์เปิดตัว Cortana Analytics Suite ชุดบริการสำหรับวิเคราะห์ข้อมูลให้องค์กรภาคธุรกิจ

ถึงแม้ว่า Cortana Analytics Suite จะมีชื่อ Cortana แปะมาด้วย แต่มันเป็นผลิตภัณฑ์คนละตัวกับ Cortana บน Windows Phone หรือ Windows 10 เพราะจริงๆ แล้วมันเป็นชื่อเรียกของซอฟต์แวร์ด้านประมวลผล-วิเคราะห์ข้อมูลหลายตัวของไมโครซอฟท์มารวมกัน เช่น Azure Machine Learning, Azure HDInsigh, Power BI รวมไปถึง Cortana ตัวปกติด้วย

หน้าที่ของ Cortana Analytics Suite จะทำหน้าที่ดูดข้อมูลจากแหล่งต่างๆ ที่องค์กรมีอยู่แล้ว แล้ววิเคราะห์ ประมวลผล หาแนวโน้ม (ด้วยเทคนิคด้าน analytics หรือ machine learning) จากนั้นก็นำเสนอต่อผู้ใช้งานผ่านช่องทางต่างๆ ไม่ว่าจะเป็น Power BI หรือคุยโต้ตอบผ่าน Cortana ตัวปกติ (อธิบายง่ายๆ ว่าคล้าย IBM Watson แต่เป็นของฝั่งไมโครซอฟท์)

Tags:
MIT

ทีมวิจัยจาก MIT เสนอสถาปัตยกรรม BlueDBM สำหรับการประมวลผลข้อมูลขนาดใหญ่ด้วยแนวคิดว่าไม่ต้องเน้นการเพิ่มแรมเข้าไปมากๆ เหมือนแต่ก่อน

กรณีของข้อมูลสำหรับ BlueDBM เช่นการประมวลผลข้อมูลทวิตเตอร์ขนาด 5TB ถึง 20TB ที่ต้องใช้เซิร์ฟเวอร์นับร้อยตัว แต่ละตัวติดตั้งแรมจำนวนมากเพื่อให้ข้อมูลทั้งหมดอยู่บนแรม ข้อเสนอของ BlueDBM เสนอให้ไปเน้นหน่วยความจำแบบแฟลชที่ประสิทธิภาพสูงแต่ยังมีราคาถูกและประหยัดไฟแทน

BlueDBM พัฒนาการ์ดหน่วยความจำแฟลชเฉพาะทาง เชื่อมต่อกับเครื่องเซิร์ฟเวอร์หลักด้วย PCIe บนตัวการ์ดเองสามารถเชื่อมต่อกับการ์ดบนเครื่องอื่นๆ ได้โดยตรงผ่านสาย SATA จุดพิเศษอีกอย่างหนึ่งคือแต่ละการ์ดจะเป็น FPGA ทำให้สามารถส่งงานง่ายๆ ไปประมวลผลบนตัวการ์ดได้โดยตรง ตัวอย่างเช่น การค้นหาข้อความในไฟล์ขนาดใหญ่จะเสียเวลาจำนวนมากไปกับการทำ I/O ส่งข้อมูลเข้ามายังซีพียู ส่วนซีพียูทำงานจริงเพียง 13% สำหรับการค้นหาบนฮาร์ดดิสก์ และ 65% บน SSD แต่สำหรับ BlueDBM งานเกือบทั้งหมดจะถูกย้ายไปอยู่บน FPGA ที่ควบคุมหน่วยความจำแฟลชแทนทำให้ซีพียูหลักแทบไม่ต้องทำงานเลย

ทีมงานเสนอสถาปัตยกรรมนี้โดยยกตัวอย่างการใช้งานสามประเภท ได้แก่ การหาข้อมูลใกล้เคียง (nearest neighbor search), การเดินทางในกราฟ (graph traversal), และการค้นหาข้อความ (string search) ซึ่งเป็นงานที่พบได้บ่อยๆ ในงานประมวลผลข้อมูลขนาดใหญ่

งานวิจัย "BlueDBM: An Appliance for Big Data Analytics" ตีพิมพ์ในการประชุมวิชาการ International Symposium on Computer Architecture 2015

ที่มา - MIT

Apache Spark

ซอฟต์แวร์ที่มาแรงในโลกของ Big Data คือ Apache Spark ที่เปรียบเสมือน Hadoop ทำงานในหน่วยความจำ (MapReduce in memory)

ล่าสุดไมโครซอฟท์ที่เคยรองรับ Hadoop บน Azure ในชื่อ HDInsight ก็ประกาศรองรับ Spark เพิ่มเติมแล้ว โดยยังมีสถานะเป็น public preview ภายใต้บริการ Azure HDInsight อีกทีหนึ่ง

Apache Spark for Azure HDInsight เป็นบริการประมวลผลข้อมูลบนกลุ่มเมฆ และสามารถใช้เครื่องมือช่วยวิเคราะห์ข้อมูลยี่ห้อใดก็ได้มาช่วยอ่านค่า ไม่ว่าจะเป็น Power BI ของไมโครซอฟท์เอง, Tableau, SAP Lumira, Qlik

ไมโครซอฟท์อธิบายว่าการรัน Spark บน Azure มีข้อดีเหนือกว่าการรัน Spark ด้วยตัวเองตรงที่ deploy ง่ายกว่า, เลือกขนาดของ VM ได้ตามต้องการ และการันตีอัพไทม์ 99.9%

ที่มา - Microsoft

Tags:
IBM

IBM และ ลอนเทนนิสสมาคมของอังกฤษ (All England Lawn Tennis Club (AELTC)) ผู้จัดการแข่งขันเทนนิส Wimbledon ร่วมกันแถลงข่าวเพื่อประกาศว่าทางผู้จัดการแข่งขัน จะนำเอาเทคโนโลยีของ IBM เข้ามาใช้งานในการแข่งขันอย่างเป็นทางการ

หน้าที่ของ Watson จะนำเอาข้อมูลจากการแข่งขัน จำนวนกว่า 3.2 ล้านชุด ทั้งจากการจดบันทึกทั่วไป กล้อง รวมถึงเซนเซอร์ต่างๆ เข้าสู่ระบบประมวลผลของ Watson และ InfoSphere ของ IBM โดยจะสามารถประมวลผลแล้วแจ้งเตือนเหตุการณ์ต่างๆ ในสนามระหว่างแข่งขันได้ทันที (เช่น ความเร็วของลูกเสิร์ฟที่เร็วที่สุด เป็นต้น) ส่วนผู้พากย์ (commentator) สามารถหาข้อมูลที่น่าสนใจระหว่างการแข่งขันได้ เป็นต้น

ระบบของ IBM จะถูกเริ่มใช้กับการแข่งขันที่จะมีขึ้นในอีกไม่กี่วันข้างหน้านี้

ที่มา - Ars Technica

Tags:
Watson

หากยังจำกันได้เมื่อช่วงต้นปี IBM ประกาศเตรียมวางจำหน่ายหนังสือสูตรอาหารที่คิดขึ้นโดย Watson ระบบประมวลผลข้อมูลขนาดใหญ่ของตัวเอง (ข่าวเก่า) มาคราวนี้ IBM ร่วมมือกับนิตยสารด้านอาหารอย่าง Bon Appetit เปิดตัวแอพ Chef Watson ให้ใช้งานอย่างเป็นทางการ

ในเชิงหลักการ Watson จะนำข้อมูลสูตรอาหารในฐานข้อมูล ผสมกับข้อมูลเกี่ยวกับด้านเคมีและข้อมูลในเชิงจิตวิทยา เพื่อสร้างสูตรอาหารใหม่ขึ้นมา โดยปีที่แล้วได้เริ่มทดลองในวงปิดกับผู้อ่านของนิตยสาร Bon Appetit ก่อนที่จะเปิดให้ใช้อย่างเป็นทางการ

ตัวแอพตอนนี้เป็นเว็บแอพ เปิดให้ใช้งานแล้วโดยลงชื่อเข้าใช้ผ่าน Facebook หรือ IBM ID (ใช้งานได้ที่นี่) ครับ (มีสูตรอาหารไทยด้วย!)

ที่มา - BBC

Tags:
HortonWorks

ช่วงที่ผมไปซิลิคอนวัลเลย์มีโอกาสเจอคนไทยที่ทำงานอยู่ในบริษัทไอทีระดับโลกหลายคน เลยติดต่อขอสัมภาษณ์ลง Blognone เพื่อถ่ายทอดประสบการณ์ล้ำค่าเหล่านี้กับคนอื่นๆ ที่อยากไปสานฝันในระดับเดียวกัน

บทสัมภาษณ์ชุดนี้จะทยอยลงต่อกันเป็นซีรีส์ ซึ่งบทความตอนแรกเริ่มจากคุณทัศพล อธิอภิญญา วิศวกรของบริษัท Hortonworks ที่มีชื่อเสียงด้าน Hadoop ครับ (บริษัทนี้แยกตัวมาจากยาฮูในปี 2011) จะมาให้ความรู้เกี่ยวกับเทคโนโลยีด้าน Big Data และ Hadoop ที่กำลังร้อนแรงอยู่ในปัจจุบัน จากมุมมองของคนที่อยู่ในบริษัทด้านนี้โดยตรง

Tags:
IBM

Ginni Rometty ซีอีโอของ IBM กล่าวในงานประชุมผู้ถือหุ้นประจำปีว่าบริษัทจะโฟกัสการลงทุน 3 ยุทธศาสตร์สำคัญคือ cloud services, data analytics, mobile businesses

IBM จะลงทุนในธุรกิจทั้งสามกลุ่มนี้อีก 4 พันล้านดอลลาร์ ซึ่งบริษัทหวังว่าจะทำรายได้กลับมา 40 พันล้านดอลลาร์ต่อปีในปี 2018

ปีที่แล้วรายได้ของ IBM ลดลงเหลือ 93 พันล้านดอลลาร์จากเดิม 100 พันล้านดอลลาร์ แต่ Rometty บอกว่านั่นเป็นความตั้งใจ และเป็นผลจากการขายธุรกิจเซิร์ฟเวอร์ให้ Lenovo กับขายโรงงานผลิตชิปให้ GlobalFoundries เพื่อปรับโครงสร้างธุรกิจเพื่อลดสัดส่วนรายได้จากฮาร์ดแวร์ลง

Rometty บอกว่า IBM จะจับมือเป็นพันธมิตรกับบริษัทอื่นๆ มากขึ้น ที่ผ่านมา IBM จับมือกับแอปเปิลเพื่อขายโซลูชันอุปกรณ์พกพาสำหรับองค์กร และจับมือกับ SoftBank เพื่อผลักดัน Watson ในญี่ปุ่น

ที่มา - Re/code

Tags:
Watson

เมื่อต้นสัปดาห์ที่ผ่านมา IBM ประกาศอย่างเป็นทางการว่า บริการ Watson Personality Insights ได้เปิดให้เข้าใช้งานเป็นการทั่วไปแล้ว โดยนักพัฒนาหรือลูกค้าสามารถใช้งานได้จากแพลตฟอร์มคลาวด์ IBM Bluemix อย่างเป็นทางการ

สำหรับ Watson Personality Insights เป็นบริการวิเคราะห์ข้อมูลโดยใช้ IBM Watson วิเคราะห์ข้อมูลที่ผู้ใช้อนุญาต เช่น อีเมล์ ข้อความสั้น ข้อความผ่านสื่อสังคมออนไลน์ เป็นต้น ในการวิเคราะห์ข้อมูลแล้วหาบุคลิกส่วนตัวของคนๆ นั้น รวมถึงความต้องการและค่านิยม/ความเชื่อของคนๆ นั้นได้อีกด้วย เพื่อนำเสนอบริการหรือสินค้าที่เหมาะสมให้กับคนๆ นั้น

ราคาการใช้งานนั้นจะฟรีสำหรับการเรียกใช้ต่อ API เป็นจำนวน 100 ครั้งแรก จากนั้นจะคิดครั้งละ 60 เซนต์ (ประมาณ 20 บาท) ต่อการเรียกใช้งาน ซึ่งสำหรับคนที่ใช้ Bluemix อยู่แล้วในช่วงทดลองจะใช้งานได้ฟรีครับ ส่วนใครที่อยากลองดูว่าบริการนี้เป็นอย่างไร ลองดูได้จากเดโมนี้ครับ

ที่มา - IBM

Tags:
Whitehouse

ในยุคสมัยแห่ง big data ที่การวิเคราะห์ข้อมูลสำคัญมากขึ้นเรื่อยๆ รัฐบาลสหรัฐก็ตอบรับความเปลี่ยนแปลงนี้ด้วยการแต่งตั้ง "หัวหน้านักวิทยาศาสตร์ข้อมูล" (Chief Data Scientist) ขึ้นมาวางนโยบายด้าน big data ของประเทศแล้ว

รัฐบาลบารัค โอบามา ใช้วิธีดึงผู้บริหารสายไอทีไปช่วยงานหลายคน โดยสหรัฐอเมริกามีทั้ง CTO (Chief Technology Officer) และ CIO (Chief Information Officer) ครั้งแรกในสมัยรัฐบาลโอบามารอบแรก

ผู้ที่ประธานาธิบดีโอบามาแต่งตั้งเป็น Chief Data Scientist คือ DJ Patil (เขาชื่อย่อ DJ นะครับ ไม่ได้มีอาชีพดีเจ) อดีตผู้บริหารของ LinkedIn, eBay, PayPal, Skype และก่อนหน้านี้เคยอยู่กับบริษัทลงทุน Greylock Partners เขามีประวัติการทำงานสายวิทยาศาสตร์ข้อมูลมาอย่างโชกโชน แถมยังเป็นคนคิดคำว่า "data scientist" อีกด้วย

ตำแหน่งอย่างเป็นทางการของ Patil คือ "Chief Data Scientist and Deputy Chief Technology Officer for Data Policy" ถ้าย่อตามนี้จะกลายเป็น CDSaDCTODT ซึ่ง Patil ก็ทวีตข้อความติดตลกว่าจะใส่ตำแหน่งนี้ในนามบัตรยังไงดี

ที่มา - White House Blog, Wired