ต้องบอกว่ามาแรงจริงๆ สำหรับ Google Pixel 2 สมาร์ทโฟนจากกูเกิลที่ขึ้นชื่อว่ากล้องดีในระดับท็อปๆ ของมือถือทั้งหมด โดยตอนนี้มีข้อมูลใหม่ที่ไม่ถูกพูดถึงบนเวทีเปิดตัวเลย แต่กูเกิลเพิ่งเปิดเผยเรื่องนี้กับสื่อว่าที่จริงแล้ว Pixel 2 มีชิปประมวลผล (SoC) ถึง 2 ชุดด้วยกัน คือชิปเซ็ตหลัก Snapdragon 835 และ SoC อีกชุดเรียกว่า Pixel Visual Core ใช้สำหรับการประมวลผลภาพถ่ายโดยเฉพาะ
ชิป Pixel Visual Core นี้ถูกออกแบบและพัฒนาโดยกูเกิลเอง ประกอบไปด้วยซีพียู Cortex A53 1 คอร์, แรม LPDDR4 ไม่ระบุความจุ, บัส PCIe สำหรับติดต่อกับตัวเครื่อง และหน่วยประมวลผลภาพ (Image Processing Unit - IPU) ถึง 8 คอร์ที่สามารถประมวลผลได้มากกว่า 3 ล้านล้านคำสั่งต่อวินาที โดยกูเกิลระบุว่าสามารถประมวลผลภาพถ่าย HDR+ ได้เร็วกว่าซีพียูหลักถึง 5 เท่า และใช้พลังงานน้อยกว่า 1 ใน 10 เสียอีก (อันนี้ถือว่าแก้ปัญหาได้ตรงจุด เพราะ Pixel รุ่นแรกใช้เวลาหลายวินาทีกว่าจะโปรเซสภาพ HDR+ เสร็จ)
อย่างไรก็ตาม ขณะนี้ Pixel Visual Core ยังไม่ถูกใช้งาน แต่จะเริ่มใช้ใน Android 8.1 Developer Preview ที่จะปล่อยออกมาในอนาคต อีกทั้งจะเปิดให้แอพของนักพัฒนาเข้าถึงอัลกอริทึม HDR+ ได้ด้วย แปลว่ารูปที่ถ่ายจากแอพอื่นๆ เช่น Instagram, WhatsApp ฯลฯ จะถ่ายได้สวยเท่าแอพ Google Camera นั่นเอง เท่านั้นยังไม่พอ กูเกิลบอกว่า Pixel Visual Core ถูกออกแบบมาสำหรับการประมวลผลภาพที่ยากมากๆ รวมถึงการประมวลผล Machine Learning ด้วยเช่นกัน และขณะนี้กำลังเตรียมใช้งานชิปนี้กับงานอื่นๆ นอกเหนือจากการประมวลผลรูปถ่ายจากกล้องด้วย
ที่มา - Ars Technica
Comments
ตอน DxOMark ประเมินนี่ได้ใช้ชิพนี้มั้ย มีการกั๊ก Hissatsu ไว้อีก
my blog
เข้าใจว่าชิพนี้ช่วยเรื่องเวลาในการประมวลผลนะครับ ส่วนคุณภาพยังเหมือนเดิม
นี่ขนาดไม่ใช้ชิพยังได้ 99 คะแนน
จากข่าวผมว่าความสามารถของตัวซอฟท์แวร์รวมถึง AI น่าจะเอามาใช้งานแล้วตั้งแต่แรก การใช้ชิพน่าจะเพียงช่วยลดเวลาในการประมวลผลมากกว่า ซึ่งถ้าถึงเวลาที่เปิดให้ใช้งานก็อาจจะไม่มีความต่างมากเท่าไหร่ในเรื่องคุณภาพของภาพ
เปิดให้ใช้ น่าจะหมายถึงให้นักพัฒนาทั่วไปใช้งานได้ครับ ในส่วนของกูเกิลน่าจะใช้งานมันอยู่แล้ว เหมือนของ iOS ที่เพิ่งจะเปิดให้นักพัฒนาสามารถใช้งานฟังชั่น ML/AI ได้
The Dream hacker..
ถ้าเปลี่ยนเลนส์ได้ มิลเลอร์เลสคงสั่นสะเทือน.
ไม่ต้องเปลื่ยนเลนส์ แต่คุณภาพเท่า mirrorless นี้สิน่ากลัวของจริง
เสียค่าเลนส์ไปเท่าไหร่แต่ละคน
พอดีเห็นพูดถึงเรื่องค่าเลนส์
ณ ตอนนี้ผมว่าคุณภาพยังไม่ได้ไปไกลกว่าเลน kit นะครับ แต่เทียบเท่าน่าจะพอได้ ปรกติผมจะบอกว่าถ้าซื้อกล้องมาแล้วจะ auto กับไม่ซื้อเลนส์เพิ่มก็ให้ใช้มือถือคุณภาพดีๆ แทนดีกว่า
แต่ถ้าจะเทียบกับกล้องที่ไม่ใช้เลนส์ kit ผมว่ามันเร็วไปครับ
จริงถ้าเทียบกล้องใหญ่ เจอขนาด Sensor ผมว่ามันก็ต่างกันเยอะแล้วนะครับ ไม่ต้องเทียบ Lens เลยด้วยซ้ำ
จะมี Google Camera แบบเป็นกล้องจริง ๆ ออกมาไหม?
Jusci - Google Plus - Twitter
นี่ขายมือถือหรือขายกล้องคอมแพคกัน
น่าสนใจจริง ๆ ครับ สำหรับผม ที่เลือกมือถือ โดยมองจากกล้องเป็นปัจจัยอันดับต้น ๆ ดูตัวนี้ให้ความสำคัญที่กล้องเยอะมาก คุณภาพภาพที่ได้นี่ ชนะกล้องคู่ได้ รุ่นหน้าถ้าออกมาเป็นกล้องคู่ด้วยนี่อาจมีลังเล (Apple ทำอะไรหน่อยสิครับ เห็นปีนี้กล้องดีขึ้นมา พอเทียบเคียงกับเจ้าอื่นได้หน่อย ปีหน้า 2018 ขอ AI นะครับ แบบเรียนรู้การปรับภาพได้ ทุกวันนี้ยังต้องมาโปรเซสภาพเองเกือบทุกภาพอยู่เลย)
Mate 10 วัดกันไหวมั้ยครับ ในเรื่องของ AI
อยากรู้เหมือนกัน จีนจะสู้ google ไหงไหม
แต่อนาคตผมว่าไหวแน่ huawei พัฒนาเร็วมาก
4 ปี ก่อนยังเป็นแค่ มือถือจีนไม่มีคนรู้จักอยู่เลย มาปีนี้ ทำ Ai แข่ง Google แล้ว
แนวโน้มกล้องปีหน้าจะเป็นยังไงนะ
1. กล้องคู่ที่วางเลียนแบบตามนุษย์ หรือ
2. กล้องขาวดำความไวแสงสูง + ตัววัดสเปกตรัมเอามาใส่สีแบบยานสำรวจอวกาศ
I need healing.
กล้องหลัง 4 ตัวครับ ปกติ ขาวดำ เทเล ไวด์
รอ mate 10 เปิดตัวก่อนนี่เอง ถึงค่อยพูด
รอฝากญาติที่อยู่เมกาซื้อให้เลยดีกว่าแบบนี้
That is the way things are.
อยากได้การประมวลผลภาพดีๆแบบนี้มาใส่กะ mirrorless จังเลย
โดยเฉพาะของ sony
ยิ่งเห็นยิ่งอยากได้ แต่คงไม่มีตังค์ซื้อ เฮ้ออออออ
อยากได้ แต่ราคาแพงมาก แพงกว่า Iphone X แถม cpu gpu ความเร็วก็ยังต่างกันมากๆ
CPU Single-Core ฝั่ง Android ตาม Apple อยู่ครึ่ง ๆ ฮะ
แต่ GPU Adreno ใน Snap ฝั่ง Apple ก็ตามอยู่ครึ่ง ๆ เช่นกัน