Tags:
Node Thumbnail

ช่วงต้นเดือนตุลาคมนี้ Tesla ได้ปล่อยอัพเดตซอฟต์แวร์เวอร์ชัน 9.0 ให้รถยนต์ Tesla Model S, X และ 3 มีฟีเจอร์ใหม่ๆ มากมาย อันที่สำคัญก็เช่นการเปิดใช้กล้องรอบตัวครบ 8 ตัว ช่วยให้รถรับรู้สถานการณ์รอบตัวได้ดีขึ้น รวมถึงเตรียมความพร้อมสำหรับการนำทางขณะใช้ฟีเจอร์ขับอัตโนมัติ (Autopilot)

ฟีเจอร์ใหม่ๆ เหล่านี้ล้วนต้องใช้ความสามารถของคอมพิวเตอร์บนรถมากขึ้น ซึ่งอาจใกล้ถึงขีดจำกัดของฮาร์ดแวร์ปัจจุบันที่ใช้ NVIDIA Drive PX2 โดย Tesla ก็ทราบเรื่องนี้ดีและเคยจ้าง Jim Keller นักออกแบบชิปมือดีจาก AMD เข้ามารับตำแหน่งรองประธานฝ่ายฮาร์ดแวร์ Autopilot เพื่อสร้างชิป AI ของตนเอง

ล่าสุดเว็บไซต์ Electrek ลงบทความว่าซอฟต์แวร์เวอร์ชัน 9.0 มีการพัฒนาที่ดีขึ้น และ Elon Musk ได้เสริมว่าเวอร์ชัน 9.0 มีการประมวลผลมากขึ้นจากเวอร์ชัน 8.1 ราว 400% เป็นผลจากการเปิดใช้ GPU ออนบอร์ดและใช้งาน GPU แยกได้ดีขึ้น

ต่อมามีคนถาม Elon Musk ทางทวิตเตอร์ว่าชิปรุ่นใหม่ของ Tesla จะต่างจากนี้มากแค่ไหน ซึ่ง Elon ตอบว่าน่าจะสามารถประมวลผลได้มากขึ้น 500 ถึง 2000% เลยทีเดียว และจะนำมาติดตั้งเข้ากับรถยนต์ที่วางขายจริงภายใน 6 เดือนข้างหน้า รวมถึงจะไม่มีการเปลี่ยนแปลงเซ็นเซอร์ต่างๆ เลย กล่าวคือเป็นแค่การเอาคอมพิวเตอร์รุ่นใหม่ใส่แทนเข้าไปเฉยๆ

นอกจากนี้ Elon ยังบอกว่าลูกค้าคนไหนที่ซื้อแพคเกจขับอัตโนมัติเต็มรูปแบบ (Full Self-Driving Capability Package) ไว้ตั้งแต่แรกก็สามารถนำรถเข้ามาเปลี่ยนเป็นคอมพิวเตอร์รุ่นใหม่ได้ฟรี หรือหากต้องการซื้อตอนนี้ก็จ่ายส่วนต่างเพิ่ม 5,000 ดอลลาร์สหรัฐและรับอัพเดตไปได้เลยเพราะเซ็นเซอร์และกล้องต่างๆ ถูกติดตั้งจากโรงงานมาพร้อมอยู่แล้ว แค่ลูกค้าซื้อแพคเกจก็ใช้งานได้ทันที

วิดีโอท้ายข่าวเป็นการแสดงให้เห็นว่าคอมพิวเตอร์บนรถ Tesla มองเห็นโลกอย่างไร

ที่มา – Electrek

Get latest news from Blognone

Comments

By: e.p.
ContributorAndroid
on 16 October 2018 - 20:36 #1076617
e.p.'s picture

XX% ต่อวินาที => XX%

ไม่ต้องมีต่อวินาทีครับ (ร้อยละไม่มีหน่วย)

ต้นทางเค้าขยายว่า "in operation per second" เพื่อที่จะบอกว่าที่เพิ่มนี่เพิ่มอะไร แต่มันไม่ใช่หน่วยครับ

By: BlackMiracle
WriterAndroidUbuntuWindows
on 16 October 2018 - 21:14 #1076620 Reply to:1076617

แก้แล้วครับ ขอบคุณครับ


Pitawat's Blog :: บล็อกผมเองครับ

By: Hadakung
iPhoneWindows PhoneAndroidWindows
on 16 October 2018 - 21:54 #1076627

ดูภาพแล้วอีกนานครับที่จะขับมาได้ถึงหน้าบ้านผม เจอทำถนนก็วิ่งตกหลุมไม่ต้องไปต่อแล้ว...

By: terdsak.s on 17 October 2018 - 08:41 #1076687

เดาว่าคงจะ OC หนักๆแล้วใช้การระบายความร้อนด้วยสารทำความเย็นจากระบบปรับอากาศส่วนหนึ่งหรือเปล่า เพราะ 500-2000% มันเพิ่มมากขึ้นผิดปกติจนเกินไป

By: phziaz on 17 October 2018 - 11:57 #1076754 Reply to:1076687

ไม่จำเป็นครับ ถ้า chip ที่ใช้ก่อนหน้าค่อนข้างจะ general กว่า เช่นเป็น GPU และรองรับการคำนวณทั้ง fp32 fp16 เค้าสามารถออกแบบ chip ที่ specific สำหรับงานเค้ามากกว่านี้เช่นเหลือแค่ fp16 อย่างเดียว (และตั้ง design assumption ที่เหมาะเฉพาะกับงานของตัวเอง เช่น วางแผนไว้เลยว่าจะคูณ matrix ขนาดเท่าไหร่ แล้วก็ออกแบบไว้เท่านั้น, ตรงนี้ TPU ของ Google เองก็แสดงให้เห็นว่าถ้าเราตั้งใจจะออกแบบให้เฉพาะเจาะจงจริง ๆ เราทำได้ดีกว่า GPU มาก ๆ ครับ เช่น TPU ไม่ใช้ register, memory ในระหว่างคำนวณเลย แต่ว่า output จาก ALU ถูกส่งไปยัง ALU ต่อ ๆ ไปโดยตรงเลย ตรงนี้ก็ลดข้อจำกัดของ memory bandwdith และ latency ได้เยอะเลยครับ) แล้วก็ tune ทุกอย่าง ตั้งแต่การออกแบบ neural network ให้สามารถทำงานบน fp16 ได้ดี เค้าก็จะได้ gain เยอะมาก ๆ ครับ เช่นที่เราเห็น tensor core จาก nvidia ที่ให้ gain เยอะระดับ 10 เท่า (10 tflops บน fp32 เป็น 100+ tflops บน fp16) ใน generation เดียว และนี่คือ nvidia ยังไม่ได้ตัดส่วนเดิมทั้งไปเลย ถ้าเปลี่ยนส่วนเดิมทั้งหมดมาเป็น tensor core ก็น่าจะได้ gain มากกว่านี้อีก แต่การจะใช้ของพวกนี้ให้เกิดประโยชน์อย่างที่มันออกแบบค่อนข้างจะต้องอาศัยความตั้งใจและความเข้าใจใน architecture ในระหว่างการออกแบบ neural network ด้วยครับ

By: mbdsc28
Android
on 17 October 2018 - 08:42 #1076690
mbdsc28's picture

ต่อไป ถอดเปลี่ยนอุปกรณ์ได้แบบ PC

By: marshazz
AndroidUbuntu
on 17 October 2018 - 19:20 #1076871

เท่าที่อ่านเจอเค้าบอกว่าใช้ 8 ตัวอยู่แล้ว แต่การให้น้ำหนักกับกล้องบางตัวน้อย
แต่ตอนนี้ใน V9 มันให้น้ำหนักกล้องทุกตัวเท่ากัน กลายเป็นว่า ข้อมูลที่จะใช้เทรนมีมหาศาลกว่าเดิมหลายเท่า
นั่นคือเหตุผลว่าทำไมต้องใช้ความสามารถในการประมวลผลที่มากขึ้นกว่าเดิม

  • Same weight file being used for all cameras (this has pretty interesting implications and previously V8 main/narrow seems to have had separate weights for each camera)
  • Processed resolution of 3 front cameras and back camera: 1280×960 (full camera resolution)
  • Processed resolution of pillar and repeater cameras: 640×480 (1/2×1/2 of camera’s true resolution)
  • all cameras: 3 color channels, 2 frames (2 frames also has very interesting implications) (was 640×416, 2 color channels, 1 frame, only main and narrow in V8)
    .
    “This V9 network is a monster, and that’s not the half of it. When you increase the number of parameters (weights) in an NN by a factor of 5 you don’t just get 5 times the capacity and need 5 times as much training data. In terms of expressive capacity increase it’s more akin to a number with 5 times as many digits. So if V8’s expressive capacity was 10, V9’s capacity is more like 100,000. It’s a mind boggling expansion of raw capacity. And likewise the amount of training data doesn’t go up by a mere 5x. It probably takes at least thousands and perhaps millions of times more data to fully utilize a network that has 5x as many parameters.