Tags:
Node Thumbnail

คนที่ติดตามวงการ deep learning คงรู้จัก Caffe เฟรมเวิร์คสำหรับเทรน AI ให้เรียนรู้ด้วยเทคนิค deep learning

Caffe ถูกสร้างโดย Yangqing Jia อดีตนักวิจัยปริญญาเอกของมหาวิทยาลัย UC Berkeley ปัจจุบันมันเป็นซอฟต์แวร์โอเพนซอร์สที่ดูแลโดย Berkeley AI Research

ตัวของ Yangqing Jia ตอนนี้มีสถานะเป็นพนักงานของ Facebook (ก่อนหน้านี้เขาเคยทำงานกับกูเกิล และอยู่ในทีม TensorFlow ด้วย) สิ่งที่เกิดขึ้นคือ Jia พัฒนาเฟรมเวิร์คตัวใหม่ Caffe2 ที่ดีกว่าของเดิม

Tags:
Node Thumbnail

นักวิจัยจาก Adobe และ Cornell University ได้ร่วมกันพัฒนาเทคโนโลยีด้านภาพถ่ายใหม่ คือการนำสไตล์ภาพหนึ่ง ไปใส่อีกภาพ คือจะมีภาพสองภาพ ภาพหนึ่งเป็นภาพหลัก และอีกภาพเป็นภาพอ้างอิง ภาพผลลัพธ์จะเป็นการนำโครงสร้างของภาพหลัก มาทำการตกแต่งด้วยสีและแสงในลักษณะเหมือนกับภาพอ้างอิง โดยจะดูเป็นธรรมชาติและไม่ทำให้โครงสร้างของภาพหลักเปลี่ยนแปลงไป

งานวิจัยนี้ ใช้วิธีการ deep learning จากแสงและสีจากภาพอ้างอิง จากนั้นก็จะนำแสงและสีในลักษณะเดียวกันไปใช้กับภาพหลัก ดังนั้นภาพที่ได้จึงดูเป็นธรรมชาติ โดยรายละเอียดของงานวิจัย สามารถอ่านได้จากที่นี่ ส่วนโค้ดสามารถดูได้จาก GitHub

Tags:
Node Thumbnail

กูเกิลเคยเปิดบริการ Cloud Vision API ลูกค้าสามารถส่งไฟล์ภาพขึ้นคลาวด์ แล้วให้ AI ของกูเกิลแยกแยะกลับมาให้ว่าในภาพมีวัตถุอะไรบ้าง

ปีนี้ระบบของกูเกิลพัฒนาไปอีกขั้น เพราะมันสามารถแยกแยะวัตถุในวิดีโอได้แล้ว ภายใต้ชื่อว่า Cloud Video Intelligence API

หลักการของ Cloud Video Intelligence API ก็เหมือนกันคือใช้เอนจินเรียนรู้ deep-learning ของตัวเอง TensorFlow แล้วให้ฝึกเรียนรู้จากวิดีโอบน YouTube ตอนนี้มันเก่งพอที่จะแยกแยะเนื้อหาในวิดีโอได้แล้ว จากภาพตัวอย่างที่กูเกิลนำมาโชว์ มันสามารถแยกแยะได้ว่าในวิดีโอมี "เสือ" และถ้าค้นด้วยคำว่า Tiger เราก็จะได้คำตอบกลับมาเป็นช่วงเวลาทั้งหมดในวิดีโอที่มีเสืออยู่ในภาพ

Tags:
Node Thumbnail

Google Translate ปรับปรุงฟีเจอร์การแปลเพิ่มเติม ใช้ deep learning เพิ่มความถูกต้องแม่นยำเวลาแปลทั้งประโยค แทนที่จะแปลแค่วลีมาประกอบกัน ก่อนหน้านี้อัพเดทเฉพาะ 8 ภาษาก่อนคือ อังกฤษ ฝรั่งเศส เยอรมัน สเปน โปรตุเกส จีน ญี่ปุ่น เกาหลี และตุรกี ล่าสุดเพิ่มมาอีกสามภาษาคือ ฮินดี รัสเซีย และเวียดนาม

ช่วงเดือนพฤศจิกายนปีที่แล้ว Google เปลี่ยนเอนจินการแปลใหม่ ขยายผลเทคนิค Neural Machine Translation ไปยังภาษาอื่นๆ ผลคือสามารถแปลทั้งประโยคได้ถูกต้อง และทำความเข้าใจได้มากขึ้นเมื่ออ่านรวมกันทั้งประโยค

ทาง Google ระบุว่าจะมีอัพเดทภาษาอื่นเพิ่มเติมภายใน 2-3 สัปดาห์นี้

Tags:
Node Thumbnail

Baidu Research รายงานความสำเร็จของโครงการ Deep Voice แปลงจากข้อความเป็นเสียง (text-to-speech - TTS) นอกจากความแม่นยำของเสียงที่ออกมาเป็นธรรมชาติแล้ว ระบบนี้ยังมีความเร็วสูงกว่าระบบก่อนๆ ทำให้ใช้เวลาไม่กี่วินาทีในการสังเคราะห์เสียง

Deep Voice ยังไม่ใช่ระบบแบบ end-to-end ที่ใช้เครือข่ายประสาทเทียมในการวิเคราะห์ทั้งหมด แต่ต้องการตัวแปลงข้อความเป็น phoneme เสียก่อน จากนั้นจึงฝึกสามระบบแยกจากกัน ได้แก่ ระบบสังเคราะห์เสียง (audio synthesis), ระบบทำนายระยะเวลาเสียง (duration prediction), และระบบทำนายความถี่พื้นฐาน (fundamental frequency prediction)

ตัวอย่างเสียงที่สังเคราะห์ได้มีให้ฟังในที่มา

Tags:
Node Thumbnail

Deepgram บริษัทสร้างระบบวิเคราะห์ข้อมูลเสียงเพื่อธุรกิจโอเพนซอร์สซอฟต์แวร์ Kur สำหรับการสร้างเครือข่ายประสาทเทียมแบบ Deep Learning โดยไม่ต้องโค้ดแต่อาศัยการคอนฟิกไฟล์ YAML เท่านั้น

ทาง Deepgram ยังเตรียมสร้างเว็บ Kurhub สำหรับให้นักวิจัยและผู้สนใจมาแชร์โมเดลเครือข่ายประสาทเทียมที่ออกแบบไว้สำหรับงานต่างๆ

สำหรับผู้ที่ใช้งานหรือพัฒนาเครือข่ายประสาทเทียมเช่นนี้อยู่แล้ว สิ่งที่ Kur พิเศษกว่าคือมันมีชุดข้อมูลของ Deepgram สำหรับการฝึกระบบจดจำเสียงมาให้ในตัวด้วย โดยชุดข้อมูลเสียงมีจำนวน 10 ชั่วโมง แบ่งออกเป็นไฟล์ๆ ละ 10 วินาที การเทรนเครือข่ายตัวอย่างจะใช้เวลาประมาณหนึ่งวันเต็มบนชิปกราฟิก

Tags:
Node Thumbnail

ตั้งแต่เดือนเมษายน 2016 ที่ผ่านมา เมื่อเราอัพโหลดภาพขึ้นไปยัง Facebook ทางระบบจะวิเคราะห์และติด tag ให้กับภาพของเราแบบอัตโนมัติ โดยพิจารณาจาก “เนื้อหา” ของสิ่งที่อยู่ในภาพ ซึ่ง Facebook ใช้ระบบ deep learning ที่ชื่อว่า Deep ConvNet ซึ่งพัฒนาขึ้นมาโดยทีม FAIR ของ Facebook

แต่ผู้ใช้ทั่วไปกลับไม่รู้ว่า Deep ConvNet มองเห็นอะไรในภาพของเราบ้าง จึงมีคนทำ “Show Facebook Computer Vision Tags” เป็น Extension ฟรีสำหรับ Google Chrome โชว์ให้เราได้รู้ว่า Facebook เห็นอะไรและ tag อะไรในภาพของเรา ตรงมุมขวาบนของภาพ ซึ่ง tag เหล่านี้เราไม่สามารถมองเห็นได้จากการใช้งานตามปกติ

Tags:
Node Thumbnail

ตลาดปัญญาประดิษฐ์เป็นตลาดที่ NVIDIA ได้เปรียบอย่างมากในช่วงปีที่ผ่านมา เพราะเฟรมเวิร์คหลักๆ ล้วนรองรับการ์ด GeForce แต่ตอนนี้เอเอ็มดีก็ประกาศชิงตลาดนี้อย่างเป็นทางการ โดยการประกาศชุดฮาร์ดแวร์และซอฟต์แวร์ออกมาพร้อมกัน

ฮาร์ดแวร์ชุดใหม่ของเอเอ็มดีเป็นการ์ดประมวลผล Radeon Instinct การ์ดสำหรับประมวลผลที่ผลิตโดยเอเอ็มดีเองโดยตรง โดยการ์ดที่เปิดตัวครั้งนี้มีสามรุ่น ได้แก่

Tags:
Node Thumbnail

AWS ประกาศเลือก MXNet เฟรมเวิร์คสำหรับการพัฒนา Deep Learning เป็นเฟรมเวิร์คหลัก แม้ว่าตัวบริการ AWS เองจะยังรองรับเฟรมเวิร์คตัวอื่นๆ เช่น Tensorflow หรือ Caffe ต่อไปก็ตาม

การเลือกเฟรมเวิร์คหลักหมายถึง AWS จะส่งโค้ดเข้าไปช่วย MXNet ในการพัฒนา และโครงการของ AWS เองจะใช้ MXNet ในการพัฒนาด้วยเช่นสกัน

ทาง AWS ระบุเหตุผลที่เลือก MXNet เป็นเพราะโครงการนี้รองรับภาษาในการพัฒนาที่หลากหลาย ตัวโค้ดจะถูกแปลงเป็น C++ เพื่อทำงานบนซีพียูและจีพียู และการสเกลระบบยังทำได้โดยมีประสิทธิภาพค่อนข้างดี AWS ระบุว่าในเครื่องที่กระจายการประมวลผลไปยังการ์ดกราฟิก 16 ใบจะได้ประสิทธิภาพถึง 91% ขณะที่การกระจายงานไป 16 เครื่องรวมการ์ด 256 ใบยังได้ประสิทธิภาพถึง 88%

Tags:
Node Thumbnail

เทคโนโลยี FPGA กำลังได้รับความนิยมมากขึ้นเรื่อยๆ ในงานประมวลผลเฉพาะทาง (เช่น งานด้าน AI) บริษัทหนึ่งที่มีความเคลื่อนไหวด้าน FPGA ค่อนข้างเยอะในช่วงหลังคืออินเทล ที่เพิ่งควบรวม Altera เมื่อปีที่แล้ว

เทคโนโลยีที่อินเทลได้จาก Altera มีชื่อเรียกว่า Deep Learning Inference Accelerator (DLIA) เป็นการนำ FPGA รุ่น Arria 10 ของ Altera มาใช้งานด้านการประมวลผลงานด้าน AI แขนง convolutional neural network (CNN) ซึ่งอินเทลตั้งเป้าว่า จะเพิ่มประสิทธิภาพการประมวลผลให้ได้ 100 เท่าในปี 2020

Tags:
Node Thumbnail

อินเทลประกาศมุ่งรองรับเทคโนโลยีปัญญาประดิษฐ์เต็มรูปแบบ หลังจากฝั่งซอฟต์แวร์ประกาศร่วมมือกับกูเกิลพัฒนา TensorFlow ฝั่งฮาร์ดแวร์ก็ประกาศแผนการชิปรุ่นต่อไปในปีหน้าอีกสองรุ่น

Lake Crest จะเป็นชิปตัวแรกที่ใช้เทคโนโลยีจาก Nervana ที่อินเทลเพิ่งซื้อมา โดยจะเริ่มทดสอบระดับซิลิกอนในต้นปีหน้า และจะส่งมอบให้กับลูกค้าสำคัญก่อนภายในปี 2017

Knights Crest เป็นชิปรุ่นต่อไป ที่ฝังเทคโนโลยีจาก Nervana เข้าไปในชิป Xeon ยังไม่มีกำหนดส่งมอบสินค้า แต่อินเทลก็ตั้งเป้าว่าชิปของตัวเองจะมีประสิทธิภาพในการฝึกโมเดล deep learning ได้ดีกว่าชิปกราฟิกถึง 100 เท่าตัวก่อนปี 2020

Tags:
Node Thumbnail

ประโยชน์สำคัญของปัญญาประดิษฐ์คือการใช้อธิบายภาพถ่ายและวิดีโอ ทำให้คอมพิวเตอร์สามารถค้นหาภาพจากคำอธิบายได้อย่างแม่นยำ แต่ผู้ใช้ ryanjay0 บน GitHub ก็เสนอแนวทางการพัฒนาปัญญาประดิษฐ์เพื่อการอธิบายแต่ละช่วงเวลาของภาพยนตร์สำหรับผู้ใช้ ที่ชื่อระบบว่า Miles Deep

Miles Deep เป็นเครือข่ายประสาทแบบ CNN ที่ใช้โมเดลที่ฝึกด้วย ImageNet มาล่วงหน้า จากนั้นจึงสร้างโมเดลเพิ่มเติมด้วยภาพอีก 36,000 ภาพ และข้อมูลทดสอบอีก 2,500 ภาพ โดยภาพที่ใช้ฝึกเป็นภาพ 6 ประเภท ได้แก่ (ขออนุญาตไม่แปล) blowjob_handjob, cunnilingus, sex_back, sex_front, titfuck, และ other

Tags:
Node Thumbnail

เมื่อต้นปี ไมโครซอฟท์ออกชุดเครื่องมือพัฒนา Deep Learning สำหรับเทรน AI ในชื่อ CNTK (ย่อมาจาก Microsoft Cognition Toolkit) พร้อมเปิดซอร์สขึ้นบน GitHub

ล่าสุดไมโครซอฟท์ออกชุดเครื่องมือเวอร์ชันใหม่ 2.0 Beta แล้ว พร้อมเปลี่ยนชื่อมันจากตัวย่อ มาเป็นชื่อเต็มๆ คือ Microsoft Cognitive Toolkit แทน

ของใหม่ที่สำคัญในเวอร์ชันนี้คือรองรับภาษา Python เพิ่มเข้ามาจากรุ่นแรกที่รองรับแต่ C++ (ในอนาคตจะรองรับภาษาอื่นๆ อย่าง R และ C#), ปรับปรุงประสิทธิภาพ และทำงานร่วมกับ Visual Studio ได้แล้ว

Tags:
Node Thumbnail

เทคโนโลยีอย่าง AI ไม่ได้จำเป็นว่าจะต้องนำมาแก้ปัญหาที่มีความซับซ้อนแต่จับต้องไม่ได้ แต่เพียงอย่างเดียว อย่าง Makoto Koike นักออกแบบ Embedded System ได้ตัดสินใจนำเอาระบบ Deep Learning บน TensorFlow ของกูเกิลมาใช้ในฟาร์มแตงกวาของพ่อแม่ตัวเอง เพื่อช่วยเรื่องการคัดแยกแตงกวาทั้งเรื่องของขนาด สี ฯลฯ ซึ่งช่วยลดระยะเวลาในการคัดแยกลงไปได้ค่อนข้างมาก

Tags:
Node Thumbnail

TensorFlow เฟรมเวิร์คสำหรับสร้างโครงข่าย Deep Learning ประกาศเพิ่มไลบรารี TF-Slim สำหรับการสร้างโครงข่ายในระดับสูงได้ทั้งการฝึกโครงข่ายและประเมินผล

TF-Slim เคยเป็นโครงการทดลองสำหรับโมเดล Inception-V3 ที่ TensorFlow ปล่อยออกมาก่อนหน้านี้ แต่ตอนนี้กลายเป็นไบรารีเต็มรูปแบบอยู่ใต้แพ็กเกจ tf.contrib.slim

ในเวอร์ชั่นล่าสุด TensorFlow ยังเพิ่มฟีเจอร์อีกจำนวนมาก เช่น เลเยอร์ของนิวรอนแบบใหม่ๆ, ฟังก์ชั่นเพิ่มเติม, ไลบรารีสำหรับการทำงานร่วมกันระหว่างชิปกราฟิกและซีพียู, ไปจนถึงโมเดลที่ฝึกไว้ล่วงหน้า

ที่มา - Google Research

Tags:
Node Thumbnail

อินเทลซื้อกิจการบริษัท Nervana Systems สตาร์ตอัพด้าน Deep Learning ที่ก่อตั้งเมื่อปี 2014 โดยไม่เปิดเผยมูลค่า

Nervana Systems สร้างระบบคลาวด์เพื่อให้หน่วยงานที่ต้องการพัฒนาระบบ Deep Learning มาเช่าใช้บริการได้ โดยไม่ต้องลงทุนซื้อฮาร์ดแวร์ด้าน Deep Learning ราคาแพงด้วยตัวเอง ตัวเฟรมเวิร์ค "neon" พัฒนาด้วยภาษา Python และรองรับงานด้าน Deep Learning หลากหลายประเภท

นอกจากนี้ Nervana ยังมีฮาร์ดแวร์ Nervana Engine เป็นวงจรออกแบบพิเศษ (ASIC) สำหรับงานด้าน Deep Learning โดยเฉพาะ

หลังซื้อกิจการแล้ว ทีมซอฟต์แวร์ของ Nervana จะเข้าไปช่วยพัฒนา Intel Math Kernel Library ส่วนทีมฮาร์ดแวร์จะร่วมพัฒนา Xeon และ Xeon Phi

Tags:
Node Thumbnail

แมวมีเป้าหมายจะครองโลก แต่กว่าจะไปถึงจุดนั้นคงต้องเอาชนะ Deep learning ให้ได้ก่อนล่ะ Robert Bond วิศวกรซอฟต์แวร์ของ NVIDIA พัฒนาซอฟต์แวร์บน Jetson TX1 โมดูลขนาดเล็กของซุปเปอร์คอมพิวเตอร์ ให้เรียนรู้ด้วยวิธี Deep Learning จากภาพแมวที่เข้ามาในสวนหน้าบ้าน เมื่อจับได้ สปริงเกอร์พ่นน้ำจะทำงาน ไล่แมวออกไปจากสวนได้

ในการฝึกซอฟต์แวร์ให้ทำงาน Bond จำเป็นต้องป้อนข้อมูลเรื่องแมวให้มากที่สุด ใส่ภาพแมวเป็นจำนวนมาก ผ่านระบบเดสก์ท็อปที่ใช้กราฟิกการ์ด NVIDIA GeForce GTX TITAN

Tags:
Node Thumbnail

ต่อเนื่องจากข่าวเมื่อ 2 เดือนก่อนเรื่องป้ายโฆษณาข้างทางด่วนของ Dentsu ที่จะเปลี่ยนเนื้อหาอิงตามผู้ที่ขับรถผ่าน ตอนนี้ก็มีข้อมูลจากการทดลองใช้งานเปิดเผยว่าระบบของป้ายดังกล่าวสามารถแยกแยะยี่ห้อ, โมเดล และปีที่ผลิตของรถที่แตกต่างกันได้ 200 รุ่นแล้ว โดยมีความแม่นยำในการระบุข้อมูลของรถถึง 94%

Couldian ซึ่งเป็นหนึ่งใน 3 บริษัทไอทีที่ร่วมพัฒนาป้ายโฆษณาอัจฉริยะของ Dentsu นี้ เปิดเผยว่าทีมพัฒนาได้ทำการสอนให้ปัญญาประดิษฐ์รู้จักจำแนกภาพของรถยนต์ยี่ห้อและรุ่นต่างๆ โดยใช้ภาพถ่ายรถยนต์จากเว็บขายรถมือสองหลายแสนภาพ โดยมีภาพรถยนต์ที่แตกต่างกันทั้งยี่ห้อ, โมเดล และปีที่ผลิตของรถ ปะปนกันไป (เฉลี่ยแล้วปัญญาประดิษฐ์จะได้เรียนรู้ภาพรถยนต์แต่ละรุ่นประมาณ 4,000 ภาพ)

หลังผ่านการทดสอบมาตั้งแต่ช่วงต้นปี Dentsu จะเปิดใช้งานป้ายโฆษณาอัจฉริยะนี้อย่างเป็นทางการในช่วงปลายปีนี้ โดยจะรับลงโฆษณาแบบเน้นกลุ่มเป้าหมายอิงตามข้อมูลรถของผู้ขับขี่สัญจรไปมา

ที่มา - CNN Money

Tags:
Node Thumbnail

Andrew Ng หนึ่งในผู้บุกเบิกสายวิชา Deep Learning ที่ปัจจุบันทำงานอยู่ Baidu Research ประกาศเขียนหนังสือเล่มใหม่ Machine Learning Yearning ที่ระบุว่าจะช่วยลดเวลาในการทำความเข้าใจการสร้างระบบคอมพิวเตอร์เรียนรู้ด้วยตัวเอง

ลำพัง Ng เขียนหนังสือเล่มใหม่ก็คงเป็นข่าวอยู่แล้ว แต่เขากลับเปิดตัวหนังสือเล่มนี้ด้วยการเปิดลงทะเบียนรับร่างหนังสือฟรี โดยจะได้รับทีละบทเมื่อเขาเขียนเสร็จไปเรื่อยๆ

เขาระบุว่าหนังสือจะหนาเพียงประมาณ 100 หน้า และแต่ละบทจะสั้นๆ เพียง 1-2 หน้าเท่านั้น

ลงทะเบียนรับหนังสือได้ที่เว็บ mlyearning.org

ที่มา - Facebook: Andrew Ng

Tags:
Node Thumbnail

ทีมวิจัยจาก Beth Israel Deaconess Medical Center (BIDMC) และ Harvard Medical School (HMS) ร่วมมือกันพัฒนาปัญญาประดิษฐ์ให้สามารถตรวจหาเซลล์มะเร็งจากการอ่านภาพทางพยาธิวิทยาได้ โดยใช้วิธี Deep Learning ซึ่งเป็นวิธีที่ใช้กันในการฝึกให้ปัญญาประดิษฐ์เข้าใจภาษา ศิลปะ และอื่นๆ

ทีมวิจัยป้อนข้อมูลรูปภาพทางพยาธิวิทยาเป็นร้อยๆสไลด์ให้ปัญญาประดิษฐ์วินิจฉัยว่า ภาพใดเป็นภาพปกติ และภาพใดมีเซลล์มะเร็งกำลังก่อตัว ปรากฏว่าปัญญาประดิษฐ์สามารถวินิจฉัยถูกต้องถึง 92% แม้จะยังไม่เทียบเท่าได้กับนักพยาธิวิทยาที่สามารถวินิจฉัยได้มากกว่าคือ 96% แต่ทีมวิจัยระบุว่าถือเป็นสัญญาณที่ดี

ที่มา - Engadget

Tags:
Node Thumbnail

วันนี้ Blog ของ Facebook เปิดตัวเทคโนโลยีใหม่ชื่อ Deep Text ที่ช่วยให้ Facebook เข้าใจข้อความที่ผู้ใช้โพสต์ และการสนทนาโต้ตอบมากขึ้น Deep Text คือระบบ deep learning ที่เข้าใจข้อความหรือเนื้อหาได้ถูกต้องและใกล้เคียงกับมนุษย์ ใช้เวลาในการทำความเข้าใจกว่า 1,000 โพสต์ต่อวินาที ใช้งานได้มากกว่า 20 ภาษา

Tags:
Node Thumbnail

เว็บไซต์ The Next Web รายงานว่าทีมงาน Cortex ของ Twitter ร่วมกับ Periscope กำลังพัฒนาระบบค้นหาและรวบรวมวิดีโอที่กำลังถ่ายทอดสด รวมถึงระบบ deep learning algorithm สำหรับการวิเคราะห์เนื้อหาที่กำลังถูกถ่ายทอด

หากสำเร็จการค้นหาคีย์เวิร์ดที่สำคัญบน Twitter จะถูกเชื่อมโยงเข้ากับวิดีโอถ่ายทอดสดที่มีเนื้อหาและสถานที่ตรงกันคีย์เวิร์ดนั้น รวมถึงจะทำให้ Periscope สามารถค้นหาวิดีโอที่ละเมิดกฎการใช้งานได้ง่ายขึ้นด้วย

ที่มา - The Next Web

Tags:
Node Thumbnail

กูเกิลเปิดซอร์ส SyntaxNet เครือข่ายประสาทเทียมที่สร้างบน TensorFlow สำหรับการวิเคราะห์รูปประโยคโดยเฉพาะ โดยตัวอย่างที่ให้มาเพียงพอที่จะสร้างโมเดลภาษาขึ้นมาเองได้ หรือจะใช้โมเดล Parsey McParseface ที่มาในตัวก็ได้เช่นกัน

ความยากของการวิเคราะห์รูปประโยคเกิดจากความกำกวมของภาษาที่เราใช้กันอยู่ทุกวันนี้ เช่นประโยค "อลิซขับรถไปตามถนน" อาจจะแปลเป็น "อลิซขับรถเพื่อไปตามถนน" หรือ "อลิซขับไปตามถนน" แม้ว่าการแปลแบบแรกจะแปลกๆ สำหรับคนทั่วไปก็ตาม ถ้าใครทันหนังสือเรียนมานีมานะก็อาจจะจำประโยค "ยานี้กินแล้วแข็งแรงไม่มีโรคภัยเบียดเบียน" กันได้

Tags:
Node Thumbnail

Game of Thrones ซีซั่นนี้สร้างปรากฏการณ์การวิเคราะห์อย่างกว้างขวางบนโลกออนไลน์ ไม่เว้นแม้แต่โปรแกรมคอมพิวเตอร์และปัญญาประดิษฐ์ที่ออกมาวิเคราะห์ตัวละครและทำนายตัวละคร ล่าสุด นักวิทยาศาสตร์ด้านคอมพิวเตอร์สถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) ก็ขอเข้ามาแจมกับเขาด้วย หัวข้อคือ ตัวละครใดใน GOT น่าจดจำมากที่สุด โดยใช้อัลกอริทึมคอมพิวเตอร์ช่วยค้นหา

Tags:
Node Thumbnail

ไม่ใช่ Tesla ที่เป็นรถยนต์ แต่เป็น Tesla P100 จาก NVIDIA ที่เป็นผลิตภัณฑ์ชิ้นแรกของค่ายนี้ที่ใช้ชิปตระกูล Pascal ในรูปแบบ HPC Board ไว้ใช้ในซูเปอร์คอมพิวเตอร์เช่น NVIDIA DGX-1 ที่เอาไว้ประมวลผลเรื่อง Deep Learning โดยเฉพาะ ต่อยอดจาก Tesla K40 (Kepler) และ M40 (Maxwell)

Tesla P100 ใช้จีพียู Pascal ผลิตบน 16nm FinFET มีทรานซิสเตอร์ 15 พันล้านตัว ทำงานกับแรมบนชิป HBM2 4096 บิต ด้านความสามารถคุยกันที่ระดับ 21.2 TFLOP/s เมื่อประมวลผลแบบ FP16 และพร้อมทำงานร่วมกันทีละหลายตัวผ่านระบบบัส NV Link ที่แบนด์วิดท์ทั้งสองขารวมกัน 160GB/s มีสเปคความร้อน 300 วัตต์ต่อตัว พร้อมจำหน่ายไตรมาสแรกปีหน้าครับ

ที่มา - NVIDIA

Pages