ทุกวันนี้คงไม่มีใครปฏิเสธแล้วว่า "ศูนย์ข้อมูล" (data center) ต้องใช้พลังงานเยอะมาก และบริษัทส่วนมากก็ไม่ค่อยเปิดเผยว่าศูนย์ข้อมูลของตัวเองใช้ไฟเท่าไร ซึ่งรวมถึงกูเกิลในฐานะเจ้าพ่อแห่งศูนย์ข้อมูลด้วย
แต่คราวนี้กูเกิลกลับลำ ออกมาเปิดเผยข้อมูลการใช้พลังงานของตัวเองแล้ว
ข้อมูลของกูเกิลน่าตกใจไม่น้อย เพราะในปี 2010 ศูนย์ข้อมูลทั้งหมดของกูเกิลใช้ไฟฟ้ารวมกัน 260 เมกะวัตต์ชั่วโมงตลอดปี ตัวเลขนี้มากแค่ไหน? เท่ากับ 1/4 ของโรงไฟฟ้านิวเคลียร์หนึ่งโรง
จากข่าวก่อนหน้านี้ว่าบริการบนกลุ่มเมฆของแอปเปิลที่ชื่อ iCloud น่าจะทำงานอยู่บน AWS ของอเมซอนและ Azure ของไมโครซอฟท์จริง ก็เกิดคำถามว่าแล้วตกลงศูนย์ข้อมูลขนาดมหึมาที่แอปเปิลลงทุนสร้างด้วยเงินเป็นพันล้านดอลลาร์ ซึ่งสตีฟ จ็อบส์เองได้
นี่เป็นเทคนิคทางวิศวกรรมอีกอย่างหนึ่งที่วิศวกรของ Facebook เปิดเผยผ่านโครงการ Open Compute เปิดเผยรายละเอียดศูนย์ข้อมูลประสิทธิภาพสูง
นางสาวยิ่งลักษณ์ ชินวัตร นายกรัฐมนตรีมีความสนใจที่จะสร้างดาต้าเซ็นเตอร์ทั่วประเทศไทย เพื่อที่จะรองรับการใช้งานบัตรประชาชนสมาร์ทการ์ด ในการเปิดใ้ห้ประชาชนใช้บริการ e-Services ต่าง ๆ ของรัฐบาลได้อย่างเต็มที่เสียที โดยก่อนหน้านี้ผู้ที่ริเริ่มไอเดียบัตรประชาชนสมาร์ทการ์ดขึ้นมาก็คืออดีตนายกทักษิณ ชินวัตรนั่นเอง
นอกจากเรื่องการเปิดดาต้าเซ็นเตอร์แล้ว รัฐบาลยังต้องการเริ่มโครงการทางด้าน ICT ต่าง ๆ อีกมากมาย ที่นอกเหนือไปจากนโยบายที่ได้เปิดเผยมาก่อนหน้านี้แล้วอย่างเช่น One Tablet Per Child (OTPC) หรือ Wi-Fi สาธารณะทั่วประเทศ
จากที่ทราบกันไปแล้วว่า Facebook สร้างศูนย์ข้อมูลขนาดยักษ์ของตัวเองขึ้นมาเมื่อปีที่แล้ว และสร้างเสร็จแล้วในช่วงไตรมาสแรกของปีนี้
ในช่วงเดือนที่ผ่านมา (มิ.ย. 2554) Facebook ก็ได้ฤกษ์ถ่ายโอนข้อมูลขนาดมหึมาของตนเองบนเฟรมเวิร์ค Hadoop จากระบบเดิมสู่ระบบใหม่ และเปิดใช้งานระบบจากศูนย์ข้อมูลใหม่อย่างเป็นทางการ
เมื่อสองสามปีก่อนการออกแบบศูนย์ข้อมูลของบริษัทใหญ่ๆ เช่นกูเกิล, อเมซอน, และเฟชบุ๊กนั้นเป็นความลับระดับสุดยอดที่เราได้เพียงเห็นภาพมุมแคบๆ นานๆ ครั้งเท่านั้น แต่ช่วงหลังๆ ข้อมูลเหล่านี้กลับเป็นเครื่องมือชั่นดีสำหรับการโปรโมทบริษัท เราก็เริ่มจะเห็นบริษัทต่างๆ เปิดเผยข้อมูลออกมา และตอนนี้ก็ถึงคิวของอเมซอนบ้างแล้ว
งานนี้ James Hamilton อดีตวิศวกรของ Microsoft Research ที่ย้ายงานมาอเมซอนได้นำเสนอข้อมูลว่าศูนย์ข้อมูลของ Amazon Web Services (AWS) นั้นกำลังเติบโตเร็วมาก โดยทุกๆ วันจะมีการเพิ่มกำลังประมวลผลพอที่จะรองรับงานของเว็บอเมซอนเองในช่วง 5 ปีแรกได้สบายๆ โดยในช่่วง 5 ปีแรกของอเมซอนนั้นตัวอเมซอนเองก็เป็นเว็บขายของออนไลน์ที่มียอดขาย 2,760 ล้านดอลลาร์เข้าไปแล้ว
กูเกิลโชว์วิดีโอของศูนย์ข้อมูลสร้างใหม่ในเมือง Hamina ประเทศฟินแลนด์ จุดเด่นของศูนย์ข้อมูลแห่งนี้คือสร้างติดกับทะเล และใช้การสูบน้ำทะเลเข้ามาเพื่อทำความเย็นแทนการใช้แอร์หรือระบบทำความเย็นแบบอื่น
อาคารของศูนย์ข้อมูลแห่งนี้เป็นโรงงานกระดาษที่ปิดตัวลงในปี 2008 โดยกูเกิลซื้อกิจการมาในปี 2009 ตัวสถานที่มีอุโมงค์ทำด้วยหินแกรนิตสำหรับให้น้ำทะเลเข้ามาอยู่แล้ว (ตั้งแต่สมัยโรงงานกระดาษ) ตอนซื้อมาใหม่ๆ กูเกิลได้ทดสอบการทำงานของอุโมงค์ด้วยเรือดำน้ำขนาดเล็กว่าอุโมงค์ยังทำงานได้ ไม่อุดตัน
กูเกิลกำลังเปิดรับสมัครงานในศูนย์ข้อมูลแห่งนี้ประมาณ 50 ตำแหน่ง ใครสนใจก็ไปสมัครกันได้ครับ Hamina Data Center
เราเคยได้ยินศูนย์ข้อมูลสำเร็จรูปที่สร้างขึ้นเป็นตู้คอนเทนเนอร์แล้ววางขายเป็นตู้ๆ เพื่อให้ติดตั้งได้เร็วกันมาแล้วหลายครั้ง เช่นกูเกิล, และ Sun Blackbox แต่วันนี้ก็มีคนมาลงตลาดนี้อีกหนึ่งเจ้าคือ Cisco ที่ครองตลาดเครือข่ายอยู่ก่อนมาลงตลาดนี้แล้ว
ศูนย์ข้อมูลเคลื่อนที่นี้มีให้เลือกหลายรูปแบบตั้งแต่ขนาดตู้ 20 หรือ 40 ฟุต (ตู้สั้นและตู้ยาวที่เราเห็นตามท่าเรือ) มันสามารถใส่อุปกรณ์ไปได้สูงสุด 16 ตู้ แต่ละตู้มีระบบจ่ายไฟขนาด 25kW และสามารถจัดตู้ซ้อนสองชั้นเพื่อประหยัดพื้นที่ได้อีกด้วย นอกจากนี้ยังมีระบบทำความเย็นด้วยน้ำให้เลือกติดตั้งด้านล่างของตู้
กูเกิลมีชื่อเสียงเรื่องเทคโนโลยีที่ใช้ในศูนย์ข้อมูล (data center) มาก แต่ไม่ค่อยมีใครเคยเห็นศูนย์ข้อมูลของกูเกิลมากนัก
ในโอกาสที่กูเกิลเพิ่งโพสต์วิดีโอพาทัวร์ศูนย์ข้อมูลของตัวเองที่ Moncks Corner, South Carolina เราจึงมีโอกาสดูว่าหน้าตาศูนย์ข้อมูลเป็นอย่างไร วิดีโอนี้จะเน้นที่ระบบรักษาความปลอดภัยหลายชนิด ที่น่าสนใจคือกระบวนการทำลายฮาร์ดดิสก์หลังหมดอายุขัย เพื่อรักษาข้อมูลของลูกค้าครับ
ที่มา - AllThingsD
ทาง Peer 1 Hosting ได้จัดทำแผนภาพข้อมูล(Infographic) แสดงขนาดและองค์ประกอบภายในของ Data Center ที่ให้บริการเว็บไซต์รายใหญ่ในปัจจุบัน ตามลำดับขนาดตั้งแต่ Facebook, Google, Yahoo ไปจนถึงเว็บจับคู่เดท PlentyofFish
แผนภาพนี้จัดทำก่อน Facebook เปิดเผยโครงการ Open Compute ซึ่งอาจมีข้อมูลบางอย่างที่ไม่ได้อัพเดตบ้าง แต่ถึงกระนั้นก็เป็นแผนภาพที่ใหม่และมีประโยชน์มากสำหรับทำความเข้าใจขนาดของ Data Center ในปัจจุบันนี้
ยกตัวอย่างบางข้อมูล ที่ได้จากแผนภาพนี้
บริษัทขนาดใหญ่เช่นเฟชบุ๊กและกูเกิลนั้นมีเซิร์ฟเวอร์จำนวนมหาศาล และมักลงทุนวิจัยจำนวนมากเพื่อเพิ่มประสิทธิภาพของศูนย์ข้อมูลของตนให้ดีที่สุด เพื่อลดค่าใช้จ่ายด้านพลังงาน การออกแบบศูนย์ข้อมูลนี้เป็นทรัพย์สินที่กูเกิลหวงแหนมากที่สุดอันหนึ่ง โดยมีข้อมูลหลุดออกมาภายนอกน้อยมาก แต่เมื่อวานนี้เฟชบุ๊กก็กำลังเปลี่ยนโฉมวงการด้วยการยอมเปิดสเปคภายในศูนย์ข้อมูลทั้งหมดให้ใช้งานได้ฟรี
โครงการ Open Compute จะแสดงการออกแบบทั้งหมดตั้งแต่เมนบอร์ด, ชุดจ่ายไฟ, ระบบไฟฟ้า, ระบบสำรองไฟ, ไปจนถึงโครงสร้างอาคารเพื่อการประหยัดไฟ
ฝ่ายบริหารประเทศของประธานาธิบดีบารัค โอบามา กำหนดแผนการประหยัดงบประมาณสำหรับเทคโนโลยีสารสนเทศ และตั้งเป้าไว้ว่าจะสามารถลดค่าใช้จ่ายบางส่วนได้ไม่ต่ำกว่า 3 พันล้านเหรียญ โดยกลยุทธ์ที่ใช้คือ การรวมระบบสารสนเทศจากหลายหน่วยงาน และนำระบบไปติดตั้งรวมกันที่กลุ่มเมฆ นอกจากนี้ รัฐบาลกลางยังมีแผนในการปิดศูนย์ข้อมูลของหน่วยงานรัฐบาลกว่า 800 แห่งจากทั้งหมดที่มีอยู่ 2,100 แห่งให้แล้วเสร็จในปี 2015
หลังจากที่ขายเซิร์ฟเวอร์และอุปกรณ์เครือข่ายมานาน HP ก็บุกอีกธุรกิจคือการรับสร้างศูนย์ข้อมูลในชื่อฝ่าย Critical Facilities Implementation หรือ CFI
HP ระบุว่าก่อนหน้านี้บริษัทก็เคยรับงานสร้างศูนย์ข้อมูลให้กับลูกค้าในเอเชียบางรายบ้าง แต่ไม่มีแผนกโดยตรงสำหรับเรื่องนี้ โดยลูกค้าจำนวนมากต้องการทำสัญญากับบริษัทเจ้าเดียวให้รับงานไปแบบครบวงจร ขณะที่ HP สามารถขายอุปกรณ์เครือข่าย, เซิร์ฟเวอร์, และซอฟต์แวร์จัดการได้ในรายเดียว แต่กลับไม่สามารถรับงานก่อสร้างตัวศูนย์ข้อมูลได้แม้จะมีความสามารถในการสร้างศูนย์ข้อมูลอยู่แล้วก็ตาม หลังจากมีฝ่ายนี้ HP หวังจะบุกตลาดทั่วโลกโดยมุ่งหวังอเมริกาเหนือและยุโรปไว้เป็นภูมิภาคแรกๆ
IBM ประกาศจับมือกับบริษัท Range Technology Development จากประเทศจีน สร้างศูนย์ข้อมูลขนาดใหญ่รวม 13 แห่งในเมือง Langfang เมื่อเสร็จแล้วมันจะกลายเป็นศูนย์ข้อมูลขนาดใหญ่ที่สุดในเอเชีย รองรับการเติบโตของตลาด cloud computing ของจีนได้เต็มที่
เมือง Langfang อยู่ทางตอนเหนือของจีน อยู่ระหว่างกรุงปักกิ่งกับเขตเศรษฐกิจพิเศษเมืองเทียนจิน ศูนย์ข้อมูลนี้จะกลายเป็นแกนกลางของเขตพัฒนาเศรษฐกิจ Hebei Langfang Economic Development Zone
สิ่งปลูกสร้างทั้งหมดจะมีพื้นที่ใช้สอย 6.2 ล้านตารางเมตร ขั้นแรกจะประกอบด้วยศูนย์ข้อมูล 7 แห่ง และถ้ามีความต้องการมากพอก็จะสร้างอีก 6 แห่งตามมา กำหนดเสร็จปี 2016
เมื่อปีที่แล้วทางกูเกิลได้ซื้อโรงงานทำกระดาษเก่าๆ ในประเทศฟินแลนด์เอาไว้ครับ ตอนนี้ทางกูเกิลได้วางแผนในการสร้างดาต้าเซ็นเตอร์แห่งใหม่ขึ้นที่นี่ โดยมีขนาดพื้นที่รวมทั้งหมด 8,000 ตารางเมตร (เทียบกับสนามฟุตบอลมาตรฐานขนาดประมาณ 7,500 ตารางเมตร) คาดว่าจะเริ่มใช้งานได้ฤดูใบไม้ผลิปีหน้า โดยหลังจากสร้างเสร็จแล้วจะมีพนักงานประจำประมาณ 50-60 คน พนักงานที่ดาต้าเซ็นเตอร์จะได้รับสิทธิ์ในการตกแต่งสภาพแวดล้อมการทำงานข้างในดาต้าเซ็นเตอร์ตามต้องการ (ลักษณะคือตั้งใจจะให้สภาพแวดล้อมน่าทำงานเหมือนที่สำนักงานของกูเกิล) อย่างไรก็ตามจะยังคงหน้าตาภายนอกของโรงงานกระดาษเก่าๆ ที่มีอายุโรงงานมากว่า 50 ปีนี้ไว้เหมือนเดิมให้คนภายนอกเห็น ตามข่าวบอกว่าใช้งบประมาณทั้งสิ้นรวม 260 ล้านเหรียญสหรัฐ ในการสร้างห้องโถงใหญ่สำหรั
ปกติเวลานำเสนอภาพข่าวเกี่ยวกับดาต้าเซ็นเตอร์ เรามักจะเห็นตู้แร็คที่บรรจุเซิร์ฟเวอร์เรียงกันเป็นแถวๆ ไม่สีขาวก็สีดำ จนแทบจะเรียกได้ว่าจุดที่ถือเป็นแหล่งความความทันสมัยของโลกกลับไม่มีแฟชั่นหรือสีสันอะไรเลยแม้แต่นิดเดียว
ในวันนี้ดาต้าเซ็นเตอร์แห่งหนึ่งของอินโดนีเซียในเมืองจาการ์ตา ได้เปิดตัวดาต้าเซ็นเตอร์ที่มีสีสันที่สุดเท่าที่เคยเห็นมา โดยแบ่งตู้แร็คออกเป็นโซนๆ ตามฤดูกาลและแต่ฤดูกาลก็มีสีของตัวเอง ใครที่วางเครื่องเซิร์ฟเวอร์ที่นี่คงไม่เหนื่อยกับการเห็นตู้ขาวๆ ดำๆ อีกต่อไปแล้ว
วีดีโอข้างล่างนี้เป็นวีดีโอสัมภาษณ์ Michael Walsh พาทัวร์ดาต้าเซ็นเตอร์แห่งนี้ครับ
จริงๆ ข่าวนี้ควรจะเป็นข่าวขำๆ แต่พอเป็นเรื่องของ Wikileaks ซึ่งกำลังโด่งดังในฐานะศัตรูกับรัฐบาลทั่วโลก มันเลยเป็นเรื่องที่น่าสนใจขึ้นมาทันที
เรื่องมีอยู่ว่าเซิร์ฟเวอร์บางส่วนของ Wikileaks ซึ่งได้รับการสนับสนุนจากพรรคโจรสลัดของสวีเดน (ทั้งคู่อยู่ในสวีเดน) ได้ย้ายไปอยู่ในศูนย์ข้อมูลชื่อ White Mountains ของบริษัท Bahnhof ความน่าสนใจอยู่ที่ White Mountains เป็นอดีตหลุมหลบภัยนิวเคลียร์สมัยสงครามเย็น ทำให้เซิร์ฟเวอร์ของ Wikileaks ได้ไปอยู่ในสภาวะใต้ดินลึก 30 เมตร มีประตูเหล็กหนาครึ่งเมตร และมีระบบปั่นไฟสำรองที่นำมาจากเรือดำน้ำของเยอรมัน
ไมโครซอฟท์จับมือฟูจิตสึร่วมกันลุยตลาด cloud computing หรือ "บริการกลุ่มเมฆ" ทั้งนี้ ฟูจิตสึได้เตรียมศูนย์ข้อมูลสำหรับติดตั้ง Windows Azure ซึ่งเป็นแก่นของบริการกลุ่มเมฆของไมโครซอฟท์ และภายในสิ้นปีงบประมาณนี้ ฟูจิตสึจะก่อตั้งศูนย์ข้อมูลสำหรับบริการกลุ่มเมฆอีกหลายแห่ง ทั้งในสหราชอาณาจักร ออสเตรเลีย สิงคโปร์ เยอรมนี และสหรัฐอเมริกา โดยฟูจิตสึวางแผนทุ่มงบถึง 1.1 พันล้านเหรียญสำหรับธุรกิจบริการกลุ่มเมฆ รวมไปถึงงานวิจัยและพัฒนาในเรื่องที่เกี่ยวข้องกับบริการกลุ่มเมฆอีกด้วย
ที่มา - MarketWatch
HP กำลังสร้างศูนย์ข้อมูลแห่งใหม่ที่เมือง Wynyard ในอังกฤษ ความพิเศษคือศูนย์ข้อมูลแห่งนี้อยู่เกือบติดทะเล และระบายความร้อนด้วยลมธรรมชาติล้วนๆ
การทำงานของมันคือ จะมีพัดลมขนาดใหญ่ดูดลมภายนอกไปใช้ระบายความร้อน ลมที่ถูกดูดเข้าไปจะผ่านตัวกรองฝุ่นและสิ่งสกปรกออก ก่อนที่จะเอาไปวิ่งผ่านเครื่องเซิร์ฟเวอร์ โดยจำกัดอุณหภูมิให้คงที่ที่ประมาณ 24C
เมืองที่ศูนย์ข้อมูลแห่งนี้ตั้งอยู่มีอุณหภูมิคงที่ที่ประมาณ 24C เป็นเวลา 20 ชม. ต่อวัน ซึ่งเอื้อต่อวิธีการระบายความร้อนในลักษณะนี้มาก อย่างไรก็ตาม ศูนย์ข้อมูลแห่งนี้ยังต้องมีเครื่องทำความเย็นเพื่อใช้เป็นครั้งคราว การใช้สภาพธรรมชาติช่วยลดพลังงานแบบนี้ ช่วยลดค่าไฟของ HP ลงได้ 4.16 ล้านดอลลาร์ต่อปี
ข่าวนี้เก่าแล้วครับ เมื่อวันที่ 22 มกราคมที่ผ่านมา
Jonathan Heiliger ได้บันทึกไว้ใน Facebook ของเค้านะครับข้อความน่าสนใจ
จากเดิมที่โปรเจคตัว Facebook เริ่มในหอพัก ด้วยจำนวนเซิร์ฟเวอร์แค่เครื่องเดียวแถมยังไม่รองรับ รูปภาพหรือวิดีโอ แต่ตอนนี้ยอดผู้ใช้ทั่วโลกมากกว่า 400 ล้านคนเข้าไปแล้ว ใครจะไปรู้ว่า ทุกวันนี้ Facebook ใช้วิธีฝากเซิร์ฟเวอร์ไว้กับผู้ให้บริการหลายๆแห่ง แต่จากแนวโน้มปริมาณข้อมูลที่เพิ่มมากขึ้นเรื่อยๆอย่างนี้ทาง Facebook ก็เลยเริ่มลงมือสร้าง Data Center เป็นของตัวเองขึ้นในเมือง Prineville รัฐ Oregon
มีเทคโนโลยีด้านการใช้พลังงานที่น่าสนใจอยู่สามสี่ข้อ
ไม่มีใครรู้ว่ากูเกิลมีเซิร์ฟเวอร์ทั้งหมดกี่ตัว รายละเอียดเกือบทั้งหมดของ IDC ของกูเกิลเป็นความลับ แต่ในงานสัมมนาด้านระบบคอมพิวเตอร์ขนาดใหญ่ที่จัดโดย ACM วิศวกรของกูเกิล Jeff Dean ได้กล่าวถึง "Spanner" ซอฟต์แวร์สำหรับกระจายงานคำนวณและเก็บข้อมูลที่กูเกิลกำลังพัฒนาอยู่ จุดเด่นคือมันสามารถทำงานข้าม IDC ได้ด้วย
สิ่งที่น่าสนใจคือ Jeff Dean เล่าว่า Spanner ออกแบบมาสำหรับคอมพิวเตอร์จำนวน 1-10 ล้านเครื่อง และเป้าหมายสูงสุดของกูเกิลคือระบบคอมพิวเตอร์ที่กระจายตัวอยู่ทั่วโลกเพื่อลดเวลาและค่าใช้จ่ายในการส่งข้อมูล โดยที่มันสามารถจัดการตัวเองได้อย่างอัตโนมัติ
ค่าใช้จ่ายของศูนย์ข้อมูล (Data Center) ในส่วนของพลังงานนั้นนับวันจะสูงขึ้นเรื่อยๆ ก่อนหน้านี้เราเคยมีข่าวเซิร์ฟเวอร์ของกูเกิลที่ใช้ไฟ 12 โวลต์เพียงอย่างเดียวเพื่อประสิทธิภาพในการส่งและสำรองพลังงาน ล่าสุดข้อมูลอีกอย่างที่มีการเปิดเผยคือศูนย์ข้อมูลของกูเกิลที่เบลเยียมนั้นไม่มีส่วนทำความเย็นเลย เพราะใช้อากาศที่เย็นอยู่แล้วจากภายนอกมาช่วยระบายความร้อน
แนวทางการลดการค่าใช้จ่ายด้วยการใช้อากาศภายนอกนั้นไม่ใช่เรื่องแปลกใหม่แต่อย่างใด แต่ปรกติแล้วศูนย์ข้อมูลมักมีระบบทำความเย็นเตรียมเอาไว้เผื่อช่วงเวลาที่อากาศร้อนขึ้นระบบทำความเย็นก็จะเปิดการทำงานขึ้นมา
เมื่อไม่นานมานี้ ไมโครซอฟท์ได้ทดสอบเอาชิป Atom ของอินเทลไปพัฒนาเซิร์ฟเวอร์ ซึ่งเป็นที่ทราบกันว่า Atom เป็นชิปที่ประหยัดพลังงานไฟฟ้าและปล่อยความร้อนต่ำ แต่ว่าในเชิงปฏิบัติแล้ว Atom จะเหมาะกับเซิร์ฟเวอร์หรือไม่ ?
ต้องยอมรับเลยว่าไมโครซอฟท์ลงทุนอย่างมากกับการประมวลผลแบบกลุ่มเมฆ ดูได้จากงบหลายพันล้านเหรียญที่เตรียมไว้กับแผนการสร้างศูนย์ข้อมูลสำหรับการประมวลผลแบบกลุ่มเมฆอีกหลายแห่ง [รายงานเก่า] แต่ทว่าวิกฤตเศรษฐกิจโลกกลับกลายเป็นขวากหนามอันยิ่งใหญ่ของไมโครซอฟท์ในแผนการครั้งนี้ โดยในไตรมาสที่ 2 ของปีนี้ ไมโครซอฟท์เตรียมตัดค่าใช้จ่ายหลายอย่าง รวมถึงค่าใช้จ่ายที่เกี่ยวข้องกับศูนย์ข้อมูลด้วย
ไมโครซอฟท์เปิดเผยว่า ไมโครซอฟท์ได้พัฒนาต้นแบบของศูนย์ข้อมูลยุคที่สี่ ที่เรียกสั้นๆว่า Gen 4 หรือชื่อเต็มคือ Generation 4 Modular Data Centers โดยไมโครซอฟท์วางแผนไว้ว่าจะใช้ต้นแบบดังกล่าวในการสร้างศูนย์ข้อมูลที่จะเกิดขึ้นอีกหลายแห่งใน 5 ปีข้างหน้านี้ เพื่อรองรับการประมวลผลแบบกลุ่มเมฆ และบริการแบบกลุ่มเมฆ* อาทิเช่น Hotmail, Live Search, Virtual Earth และ Azure เป็นต้น มากไปกว่านั้น ไมโครซอฟท์กล่าวว่าจะเปิดเผยข้อมูลของต้นแบบนี้ต่อสาธารณะ และบริษัทอื่นๆสามารถนำต้นแบบดังกล่าวไปพัฒนาศูนย์ข้อมูลยุคที่สี่ของตนเองได้อีกด้วย