Tags:
OpenCV

หลังจากออกรุ่น OpenCV 2.4.x มาอย่างยาวนาน เมื่อวันที่ 4 มิถุนายนที่ผ่านมา ทางทีมงาน OpenCV ได้ประกาศออกรุ่น OpenCV 3.0 เรียบร้อยแล้ว ในรุ่นนี้ได้เพิ่มฟังก์ชันการประมวลผลภาพและปรับปรุงเวลาการประมวลผลให้เร็วขึ้น อีกทั้งมีเสถียรภาพมากขึ้นด้วย นอกจากส่วนหลักของ OpenCV 3.0 แล้ว ยังมีส่วนขยายเพิ่มเติม โดยเพิ่มฟังก์ชันใหม่ต่างๆ ที่อาจจะยังไม่มีเสถียรภาพมากเพียงพอ หรือยังไม่ผ่านการทดสอบที่เพียงพอที่จะนำเข้าโครงการหลัก จะปรากฏในส่วนของ opencv_contrib

เดือนที่แล้วไมโครซอฟท์สร้างความฮือฮาไปทั่วโลกด้วยเว็บ How-Old.net อัพโหลดภาพเพื่อทายอายุ (ซึ่งเป้าหมายจริงๆ คือโชว์ความสามารถของ Azure Machine Learning)

เดือนนี้ไมโครซอฟท์กลับมาอีกครั้งกับเว็บคล้ายๆ กันชื่อ TwinsOrNot.net อัพโหลดภาพไป 2 ภาพเพื่อตรวจสอบว่าเป็นฝาแฝดกันหรือไม่

ในแง่การใช้งาน เว็บนี้อาจไม่ต่างไปจาก How-Old.net มากนัก แต่จุดที่น่าสนใจจริงๆ คือเบื้องหลังการสร้างเว็บนี้ เพราะ Mat Velloso วิศวกรของไมโครซอฟท์ใช้เวลาแค่ 4 ชั่วโมง โดยใช้ Face API ของไมโครซอฟท์ เขียนเว็บด้วย ASP.NET MVC และรันทั้งหมดบน Azure

ที่มา - Mat Velloso, The Verge

Tags:
Microsoft

จำได้ไหม? พวกเราจำได้ใช่ไหม? ปีที่แล้ว Google เผยแพร่งานวิจัยการใช้โครงข่ายประสาทเทียมที่เรียนรู้จนสามารถแยกแยะวัตถุที่เห็นในภาพต่างๆ ได้ ล่าสุด Microsoft ก็โชว์ผลงานลักษณะเดียวกันนี้ให้เห็นบ้าง โดย Microsoft อ้างว่านี่เป็นครั้งแรกที่ระบบซอฟต์แวร์สามารถเอาชนะมนุษย์ได้สำเร็จในการแยกแยะวัตถุในภาพ

Microsoft อ้างอิงจากการแยกแยะวัตถุในภาพจากคลังภาพของ ImageNet (เจ้าเดียวกับที่จัดการแข่งขันซอฟต์แวร์แยกแยะวัตถุในภาพชื่อ ILSVRC ที่ Google ได้แชมป์บางประเภทในปีก่อน) โดยระบุว่าผลงานของ Microsoft ระบุข้อมูลวัตถุในภาพผิดไปเพียง 4.94% ต่ำกว่าค่าประมาณอัตราการผิดพลาดจากการแยกแยะด้วยสายตามนุษย์ซึ่งอยู่ที่ 5.1%

Tags:
Microsoft

ไมโครซอฟท์ รีเสิร์ช อัพเดต Image Composite Editor (ICE) แอพทำภาพพาโนรามา จากรุ่น 1.4.4 เป็นรุ่น 2.0 โดยแอพรุ่นล่าสุดมากับส่วนติดต่อผู้ใช้ (UI) ใหม่หมด เพิ่ม Image Autocomplete ฟีเจอร์เติมเต็มส่วนของภาพที่หายไปหลังการรวมภาพ (ดูภาพเปรียบเทียบที่ท้ายข่าวประกอบ) และฟีเจอร์ทำภาพพาโนรามาจากวิดีโอ สนับสนุนซีพียู 64 บิต เป็นต้น

ดูคลิปนำเสนอแอพได้ที่ท้ายข่าว และดาวน์โหลดแอพได้จากที่มาของข่าวครับ

ที่มา: WinBeta

Tags:
Google

ผลของการจับเอางานวิจัยด้านการรู้จำและแยกแยะวัตถุในภาพของ Google มารวมพลังกับงานวิจัยด้านภาษาธรรมชาติของ Stanford ทำให้ได้ระบบซอฟต์แวร์ที่สามารถทำความเข้าใจองค์ประกอบของภาพถ่าย และบรรยายออกมาเป็นประโยคด้วยถ้อยคำที่เป็นธรรมชาติ

เราเคยเห็นข่าวงานวิจัยของ Google ที่ได้รางวัลจากการประกวดซอฟต์แวร์รู้จำและแยกแยะวัตถุในภาพมาแล้ว ซึ่งงานวิจัยดังกล่าวได้มีการพัฒนาโครงข่ายประสาทเทียมเพื่อให้ระบบซอฟต์แวร์เรียนรู้รูปร่างของวัตถุสิ่งของต่างๆ จนทำให้ได้มาซึ่งความสามารถในการใช้คำระบุว่าสิ่งของหรือคนที่ปรากฎในภาพนั้นคืออะไร มีลักษณะอย่างไร ทว่าด้วยข้อมูลที่ได้มาเป็นคำเหล่านี้คงยังไม่อาจเรียกว่าเป็นการบรรยายภาพถ่ายได้ ดังนั้นจึงมีการผนวกเอางานวิจัยของ Stanford ที่ใช้โครงข่ายประสาทเทียมเพื่อเรียนรู้วิธีการแยกแยะสิ่งต่างๆ ในภาพ และนำเอาข้อมูลที่ได้มาเรียบเรียงให้เป็นภาษาธรรมชาติมาปรับใช้งานร่วมกัน

ไมโครซอฟท์มีแอพชื่อ Office Lens บน Windows Phone ใช้สำหรับถ่ายภาพเอกสารแล้วแปลงเป็นโน้ตของ OneNote (ข่าวเก่า) ล่าสุดไมโครซอฟท์อัพเกรดความสามารถของมันเพิ่มเติม ให้สามารถถ่ายภาพเอกสารแล้วแปลงเป็นไฟล์ Word หรือ PowerPoint ได้ด้วย

หลักการทำงานของมันคือใช้เทคนิค image processing ช่วยแปลงเอกสารที่อาจถ่ายมุมเอียง กลับมาเป็นเอกสารที่ถูกสแกนมาแบบแนวราบ จากนั้นใช้เทคนิค OCR แปลงข้อความบนเอกสารเป็นไฟล์ข้อความ โดยยังคงรักษาฟอร์แมตของเอกสารเอาไว้ (ทำได้แม้กระทั่งตาราง) แนะนำให้ดูภาพและวิดีโอประกอบ

นอกจากนี้เรายังสามารถใช้ Office Lens ถ่ายภาพแผนผังต่างๆ บนกระดานไวท์บอร์ด แล้วแปลงมันเป็นไฟล์ PowerPoint ได้ทันที แถมยังไม่ใช่แค่การแทรกภาพแบบ raster ธรรมดา แต่จะแปลงวัตถุต่างๆ ในภาพ (เช่น สี่เหลี่ยม วงกลม ลูกศร ข้อความ) เป็นวัตถุในระบบของ PowerPoint ที่สามารถเคลื่อนย้ายได้อย่างอิสระด้วย

Tags:
Google

เทคโนโลยีการใช้ระบบคอมพิวเตอร์มาจดจำภาพใบหน้าของมนุษย์เพื่อแยกแยะจำแนกบุคคลนั้นว่าน่าทึ่งแล้ว แต่เทคโนโลยีในห้องวิจัยนั้นยังคงเดินหน้าต่อไปเรื่อยจนถึงขนาดที่ว่าระบบคอมพิวเตอร์สามารถระบุได้ว่าวัตถุต่างๆ ที่ปรากฏในภาพถ่ายที่มันมองเห็นนั้นคืออะไร

Google ได้เล่าเรื่องราวเกี่ยวกับการประกวด ILSVRC ซึ่งจัดขึ้นเพื่อให้ผู้เข้าร่วมแข่งขันนำเอาระบบซอฟต์แวร์จำแนกและระบุตำแหน่งวัตถุสิ่งของในภาพมาทำการแข่งขันเปรียบเทียบประสิทธิภาพกันใน 3 หมวด อันได้แก่ "การแยกแยะ", "การแยกแยะและระบุตำแหน่ง" และ "การตรวจจับ" ซึ่งในปีนี้ทีมวิจัยของ Google ที่มีชื่อว่า GoogLeNet ได้รับรางวัลชนะเลิศจากงานนี้ในหมวดแรกและหมวดสุดท้าย

ทีม GoogLeNet อาศัยการพัฒนา "โครงข่ายประสาทเทียม" อันหมายถึงแบบจำลองทางคอมพิวเตอร์ที่ถูกสร้างขึ้นเพื่อให้เรียนรู้และจดจำรูปแบบของข้อมูล (ซึ่งต้นแบบในการพัฒนาวิทยาการด้านนี้มาจากการถอดแบบการทำงานของระบบประสาทในสิ่งมีชีวิต) จนทำให้มันสามารถแยกแยะขอบเขตของวัตถุต่างๆ ที่ปรากฏในภาพได้โดยไม่ต้องพึ่งพาพลังประมวลผลมหาศาลจากคอมพิวเตอร์อื่นใดภายนอก

Baidu

Baidu ระบุว่ากำลังสร้าง "ซูเปอร์คลัสเตอร์" ระบบคลัสเตอร์ที่ใหญ่ที่สุดในโลก เพื่อมาคำนวณระบบ image recognition เพื่อรองรับตลาดไอทีที่เปลี่ยนไปจากข้อความสู่ยุคของข้อมูลภาพ/เสียง

คอมพิวเตอร์รุ่นนี้ของ Baidu จะแรงกว่าคอมพิวเตอร์ "Google Brain" ที่กูเกิลสร้างขึ้นในปี 2012 ถึง 100 เท่า โดยหัวหน้านักวิทยาศาสตร์ของโครงการนี้คือ Andrew Ng อดีตนักวิทยาศาสตร์ของกูเกิลผู้เชี่ยวชาญเรื่อง deep learning ที่ย้ายกลับไปอยู่กับบริษัทจีน (อ่านเรื่องนี้ได้ที่ Thai Robotics) นอกจากนี้ถ้าเทียบกับคลัสเตอร์ AI ของมหาวิทยาลัยสแตนฟอร์ดก็ดีกว่ากัน 10 เท่า

สถาปัตยกรรมของคอมพิวเตอร์ตัวนี้จะใช้จีพียูช่วยประมวลผลด้วย (ตามแนวทางของซูเปอร์คอมพิวเตอร์รุ่นใหม่ๆ) ในขณะที่คอมพิวเตอร์ของกูเกิลเน้นการใช้ซีพียูเป็นหลัก

คอมพิวเตอร์ของ Baidu จะอยู่ที่ปักกิ่ง และต้องใช้เวลาสร้างอีก 6 เดือน จึงจะเสร็จสมบูรณ์

ที่มา - Bloomberg

Tags:
MIT

แม้ข่าวนี้จะมาช้าไปหน่อย (ราว 2 สัปดาห์) แต่ก็ถือว่าควรค่าแก่การติดตาม กับผลงานการวิจัยจาก MIT เกี่ยวกับเทคนิคที่เรียกว่า Visual Microphone ซึ่งสามารถถอดรหัสเสียงจากคลิปวิดีโอที่ถ่ายภาพวัตถุในบริเวณที่มีเสียงนั้น

เราคงพอรู้จักเทคนิคการอ่านปากจากในหนังหรือตามข่าวต่างๆ ถึงความสามารถในการเข้าใจคำพูดของบุคคลได้โดยพิจารณาจากลักษณะริมฝีปากของผู้พูด และนั่นทำให้เรารู้ได้ว่าเขากำลังพูดว่าอะไรแม้ว่าในความจริงแล้วเราจะไม่ได้ยินเสียงพูดนั้น แต่ผลงานวิจัยของ MIT นั้นล้ำไปกว่านั้น เพราะอัลกอริธึมของงานวิจัยนี้สามารถรู้ถึงเสียงพูดได้โดยการวิเคราะห์การสั่นไหวของวัตถุซึ่งอยู่ในสถานที่นั้น

Tags:
Fire Phone

จากข่าว Amazon เตรียมเปิดตัวสมาร์ทโฟน 3D Phone 18 มิถุนายนนี้ โดยตัวโทรศัพท์นั้นมีเทคโนโลยีตรวจจับใบหน้าจากกล้องที่ติดอยู่รอบตัวเครื่อง

เว็บไซต์ TechCrunch ได้ข้อมูลที่ยังไม่ได้รับการยืนยันว่า Amazon นำเทคโนโลยีตรวจจับใบหน้าชื่อ OKAO Vision ของบริษัท OMRON จากญี่ปุ่นมาดัดแปลงอีกต่อหนึ่ง

เทคโนโลยี OKAO Vision จะสร้างจุดอ้างอิงสามมิติ (แกน x/y/z) บนใบหน้าจากภาพที่ได้จากกล้อง และใช้ไจโรสโคปกับเซ็นเซอร์วัดอัตราเร่งวัดพิกัดของตัวเองเพื่อช่วยให้การประมวลผลเร็วและแม่นยำกว่าเดิม ผลที่ได้คือภาพสามมิติที่ไม่ต้องใช้แว่นหรือจอแสดงผลพิเศษแบบ 3DS (รายละเอียดบนเว็บไซต์ OMRON)

ที่มา - TechCrunch

Tags:

เอกสารงานวิจัยที่เพิ่งได้รับการเผยแพร่ใหม่ระบุว่า ภาพถ่ายดิจิทัลแต่ละภาพมีลักษณะเฉพาะซึ่งรวมถึงรูปแบบของ noise ที่เกิดในภาพแตกต่างกันออกไป ซึ่งอาจทำให้ระบุได้ว่าภาพถ่ายนั้นถูกถ่ายโดยใคร และงานวิจัยนี้อาจเป็นประโยชน์ต่องานสืบสวนหาผู้กระทำผิด (เช่น ถ่ายภาพอนาจารเด็ก, ขโมยสมาร์ทโฟนแล้วมาใช้งานถ่ายภาพ) ในอนาคต

งานวิจัยนี้เป็นผลงานของ Riccardo Satta และ Pasquale Stirparo ซึ่งเป็นนักวิจัยจากสถาบันเพื่อการป้องกันและความปลอดภัยพลเมืองของคณะกรรมการยุโรป มีเนื้อหาเกี่ยวกับการศึกษาลักษณะเฉพาะของภาพถ่ายดิจิทัล โดยระบุว่าภาพที่ถูกถ่ายมาจากอุปกรณ์ตัวเดียวกัน จะมีลักษณะเฉพาะซึ่งรวมถึงรูปแบบของ noise เกิดขึ้นในรูปแบบเดียวกันในทุกภาพ ทว่าภาพที่ถ่ายมาจากอุปกรณ์ต่างชิ้นกันจะมีลักษณะดังกล่าวแตกต่างกัน

ทีมวิจัยได้ทดลองรวบรวมข้อมูลภาพถ่ายจากเครือข่ายสังคมออนไลน์อย่าง Facebook, Google+, Tumblr, Flickr รวมถึงบล็อกต่างๆ และทำการจับคู่ภาพถ่ายที่มีลักษณะเฉพาะแบบเดียวกันเพื่อระบุตัวผู้ถ่ายภาพ ผลการทดสอบมีความถูกต้องราว 56%

แม้ว่าผลการทดสอบที่ออกมายังถือว่าการระบุผู้ถ่ายภาพจากภาพถ่ายยังไม่แม่นยำนัก แต่ผู้วิจัยก็มองว่าอย่างน้อยเทคนิคนี้ก็ยังคงเป็นประโยชน์สำหรับงานสืบสวนหาผู้กระทำผิดบนอินเทอร์เน็ตได้โดยการจำกัดวงผู้ต้องสงสัยให้แคบลง ซึ่งก็ถือว่ายังดีกว่าการสุ่มไล่ตรวจสอบรายละเอียดข้อมูลของทุกคนบนอินเทอร์เน็ต

ที่มา - The Verge, เอกสารงานวิจัย

Tags:
Toshiba

Toshiba เผยโมดูลกล้องถ่ายภาพก่อนโฟกัสทีหลัง TCM9518MD สำหรับอุปกรณ์พกพาอย่างสมาร์ทโฟนและแท็บเล็ต และจะจัดแสดงโมดูลนี้ในงาน CES 2014

TCM9518MD ประกอบด้วยเซ็นเซอร์ 5 ล้านพิกเซลสองตัว และชิปประมวลผลที่สามารถถ่ายภาพและเก็บข้อมูลความลึกในเวลาเดียวกัน เทคนิคถ่ายภาพแบบนี้คล้ายกับที่ Pelican Imaging ผู้พัฒนาเทคโนโลยีถ่ายก่อนโฟกัสทีหลังบนสมาร์ทโฟนที่มีข่าวว่า Nokia ไปลงทุน

Toshiba กล่าวว่าทดลองผลิตโมดูลกล้องใหม่นี้แล้ว เว็บไซต์ The Verge เสริมว่าหากโมดูลนี้ดีจริงดังที่ว่า คาดว่าเราจะได้เห็นโมดูลนี้ในอุปกรณ์ที่วางขายในท้องตลาดภายในปีหน้า

ที่มา: Toshiba (PR Newswire) ผ่าน The Verge

Kinect

ข่าวสั้นของ Kinect ครับ ผู้บริหารไมโครซอฟท์ Phil Harrison ไปพูดที่งาน Eurogamer Expo และให้ข้อมูลว่าเซ็นเซอร์ Kinect รุ่นใหม่ที่มาพร้อมกับ Xbox One จะเพิ่มความสามารถด้านการแยกแยะเสียงพูดจากรุ่นเดิม โดยของใหม่นี้สามารถแยกแยะเสียงจากผู้เล่น 2 คนที่พูดพร้อมๆ กันได้

นอกจากนี้ Kinect ยังแยกแยะการขยับของ "ปาก" ของผู้เล่นได้, ตรวจจับความเคลื่อนไหวของผู้เล่นได้ 6 คนพร้อมกัน (นับเป็นความเคลื่อนไหวของข้อต่อได้สูงสุด 25 จุด), ประเมินอัตราการเต้นของหัวใจ และตรวจสอบรูปร่างของใบหน้าได้สูงสุด 1,400 จุด

ที่มา - Polygon

Tags:
Nokia

ดูท่าโนเกียคงจะทุ่มสุดตัวกับการพัฒนาจุดเด่นเรื่องกล้องบนสมาร์ทโฟนต่อไป หลังจากเพิ่งมีข่าวว่าไปลงทุนใน Pelican Imaging บริษัทสัญชาติสหรัฐฯ ที่พัฒนาเทคโนโลยีชื่อว่า Array Cameras บนสมาร์ทโฟน ที่ช่วยให้ถ่ายภาพก่อน แล้วเลือกจุดโฟกัสได้ทีหลังเหมือนกับกล้อง Lytro

วิธีที่ Pelican Imaging เลือกใช้คือการเพิ่มชิ้นเลนส์เข้าไปหลายๆ ชิ้นในมอดูลกล้องตัวเดียว (เหมือนกับที่ Toshiba เอามาโชว์ก่อนหน้า) และใช้ซอฟต์แวร์ช่วยประมวลผลอีกที โดย Bo Ilsoe แห่ง Nokia Growth Partners ที่เป็นผู้ลงเงินให้กับ Pelican Imaging ในครั้งนี้บอกว่าตัวเขาได้เฝ้ามองการทำงานของบริษัทนี้มาตั้งแต่เริ่มต้นเมื่อปี 2008 และมั่นใจว่าที่นี่เป็นหนึ่งในบริษัทที่เชี่ยวชาญทางด้านนี้มากที่สุด

อย่างไรก็ตามไม่มีรายละเอียดว่าโนเกียลงทุนไปกับ Pelican Imaging เท่าไหร่ แต่ในอนาคตเราคงจะได้เห็นเทคโนโลยีถ่ายก่อนโฟกัสทีหลังบนสมาร์ทโฟนในอีกไม่ช้านี้ละครับ

ที่มา - The Verge

Tags:
Kinect

ไมโครซอฟท์ประกาศ Kinect for Windows SDK เวอร์ชัน 1.7 ฟีเจอร์ใหม่ที่สำคัญคือดักจับการเคลื่อนไหวของมือและนิ้วได้แล้ว ทำให้แอพต่างๆ สามารถใช้คำสั่งอย่าง "จับเพื่อขยาย" หรือ "ดันเพื่อกดปุ่ม" ได้

ฟีเจอร์อีกอันที่สำคัญคือ Kinect Fusion หรือการใช้กล้อง Kinect แสกนโมเดล 3 มิติลงไปในคอมพิวเตอร์ได้ด้วย

ตัว SDK จะเปิดให้ดาวน์โหลดวันที่ 18 มีนาคมนี้

ที่มา - Kinect for Windows

Tags:
Google Glass

ทีมนักวิจัยจาก Duke University กำลังพัฒนาแอพสำหรับ Google Glass ชื่อว่า InSight

แนวคิดของมันเหมือนกับแอพกลุ่ม facial recognition แต่เปลี่ยนจากใบหน้ามาเป็นเสื้อผ้าหรือเครื่องประดับแทน ทีมงานผู้พัฒนาระบุว่าแอพนี้ตั้งใจทำเพื่อค้นหาเพื่อนของเราที่อยู่กลางฝูงชน ไม่ว่าจะเป็นศูนย์การค้า สนามกีฬา หรือสนามบิน

หลักการทำงานคือฝั่งผู้ถูกค้นหาต้องถูกถ่ายภาพด้วยแอพบนสมาร์ทโฟนของเจ้าตัว แล้วสร้างเป็นประวัติเครื่องแต่งกายที่เรียกว่า spatiogram (เก็บข้อมูลสีหรือลายของเสื้อผ้า) จากนั้นแอพบน Google Glass จะทำการแยกแยะบุคคลผู้นี้จากประวัติเครื่องแต่งกายนี้

ทางทีมผู้พัฒนาระบุว่าประวัติเครื่องแต่งกายจะใช้ไม่ได้ทันทีเมื่อเปลี่ยนชุด ทำให้ปกป้องความเป็นส่วนตัวของบุคคลได้ระดับหนึ่ง

ผลการทดลองกับอาสาสมัคร 15 คนพบว่าถูกต้องแม่นยำ 93% แม้บางครั้งบุคคลผู้ทดสอบจะหันหลังให้ Glass ก็ตาม

ที่มา - NewScientist

Tags:
OpenCV

ทีมงาน OpenCV ประกาศออกรุ่นไลบรารีสำหรับการประมวลผลภาพ OpenCV 2.4.4 สำหรับรุ่นนี้มีการพัฒนาที่สำคัญดังต่อไปนี้

  • ปรับปรุงให้ไลบรารี Java ที่ทำงานอยู่บน Android ให้สามารถทำงานได้บน JVM รุ่นปรกติ ซึ่งต่างจากไลบรารี JavaCV
  • ปรับปรุงการทำงานบน Android รวมถึงเอกสาร และตัวอย่างการพัฒนา
  • ปรับปรุงประสิทธิภาพการทำงานบนเทคโนโลยี NVIDIA Kepler, CARMA และ CUDA
  • พัฒนาไลบรารีให้สามารถทำงานร่วมร่วมกับ OpenCL บน GPU จากค่ายต่างๆ เช่น AMD, NVIDIA, Intel HD4000
  • แก้ปัญหาต่างๆ มากกว่า 100 รายการจากรายงานข้อผิดพลาด

นอกจากนี้สามารถดูรายละเอียดเพิ่มเติมได้จาก ChangeLog

จนถึงตอนนี้ OpenCV มีอินเตอร์เฟสสำหรับภาษาต่างๆ ดังต่อไปนี้ C, C++, Python และ Java สามารถใช้งานได้บน Windows, Linux, Android และ Mac OS

ที่มา OpenCV 2.4.4 is out!

Tags:

สวัสดีครับ พวกเรา N3Infinity ที่เขียนถึง Sketch Hockey ไปเมื่อประมาณเดือนที่แล้ว มีเกมใหม่ที่พึ่งปล่อยเข้าสู่ App Store สดๆ ร้อนๆ มานำเสนอครับชื่อว่า Huntoto ซึ่งเป็นเกมจับผิดภาพ (photo hunt) สำหรับเล่นบน iPad ที่แปลกใหม่ไม่เหมือนใคร เพราะว่าสามารถเล่นจับผิดภาพกับรูปภาพใดๆ ก็ได้ ซึ่งรวมถึงรูปภาพที่ถ่ายจากกล้อง, อัลบั้มใน iPad และรูปภาพบน Facebook Album ของคุณเอง  โดย Huntoto ใช้เทคนิคพิเศษในการสร้างจุดต่างในภาพโดยอัตโนมัติ โดยผู้เล่นสามารถเลือกความยากของจุดต่างที่จะถูกสร้างได้ Huntoto ได้รับการเสนอชื่อเข้ารับรางวัล Best Innovation จากการประกวดแข่งขันเกมสำหรับที่ประเทศสวีเดน (Swedish Game Award 2012)  Huntoto พัฒนาขึ้นจากการศึกษางานวิจัยด้านประมวลภาพ (image processing) จากงานวิจัยวิชาการต่างประเทศหลายฉบับ รวมถึงการประยุกต์ใช้อัลกอริทึมที่มีอยู่แล้วมาดัดแปลงให้เหมาะยิ่งขึ้น เฟรมเวิร์คที่มีส่วนสำคัญในการพัฒนาคือ OpenCV โดยทีมงานได้ทำการปรับแต่งแก้ไขและทดสอบ ให้สามารถทำงานได้อย่างราบรื่นบน iOS  ขอให้เพื่อนๆ ลองเล่นดู ยินดีรับข้อเสนอแนะหรือคำแนะนำติชมใดๆ ครับ

Tags:
Kinect

ไมโครซอฟท์โชว์ "Kinect Fusion" ฟีเจอร์ใหม่ของ Kinect for Windows ที่ใช้ในงานวิจัย ความสามารถของมันคือใช้กล้องของ Kinect จับภาพวัตถุหรือสภาพแวดล้อมภายในห้อง แล้วสร้างเป็นโมเดล 3 มิติให้อัตโนมัติ

เทคนิคนี้ใช้ภาพในทางลึก (depth data) จากกล้องของ Kinect โดยการสแกนหลายๆ ครั้งจากหลายมุม (หลักร้อยหรือพันครั้ง) นำมาสร้างพื้นผิว 3 มิติของวัตถุหรือสภาพแวดล้อม

ฟีเจอร์นี้จะถูกรวมเข้ามาใน Kinect for Windows ในอนาคต ตอนนี้ยังเป็นแค่ของโชว์เฉยๆ ครับ หน้าตาเป็นอย่างไรดูกันเองตามลิงก์

ที่มา - Kinect for Windows

Tags:
Google

กูเกิลออกฟีเจอร์ใหม่สำหรับการค้นหาบนมือถือ โดยเปิดให้ผู้ใช้สามารถลากนิ้วเป็นตัวอักษรและข้อความ แทนการป้อนข้อมูลด้วยคีย์บอร์ดได้

ฟังดูธรรมดา แต่ที่ไม่ธรรมดาคือมันสามารถทำได้จากหน้าเว็บ Google Mobile โดยที่เราไม่ต้องติดตั้งอะไรเพิ่มเลย (ตอนนี้ใช้ได้กับ iOS 5+, มือถือ Android 2.3+ และแท็บเล็ต Android 4.0+) ขั้นตอนใช้งานต้องเปิดใช้ในส่วนของ Settings ของหน้าเว็บกูเกิลเสียก่อน (ดูภาพประกอบ) จากนั้นจะมีปุ่ม Handwrite เพิ่มเข้ามาที่ด้านล่างของจอภาพ กดแล้วสามารถวาดข้อความลงไปได้ตรงๆ ในหน้าเว็บได้เลย

กูเกิลบอกว่าสามารถใช้งานได้ 27 ภาษา แต่ผมหาข้อมูลไม่เจอว่ามีภาษาอะไรบ้างนะครับ