Tags:
Node Thumbnail

Amazon ประกาศว่าปัญญาประดิษฐ์ Alexa ย้ายโหลดงานปัญญาประดิษฐ์ที่เดิมรันอยู่บนชิปกราฟิกไปรันบนชิป AWS Inferentia ที่เปิดตัวมาตั้งแต่ปี 2018 และให้บริการเป็นเครื่อง EC2 Inf1 ในปี 2019 เกือบทั้งหมดแล้ว

Alexa ฝังอยู่ในลำโพง Echo และแท็บเล็ต Kindle Fire ทำให้ผู้ใช้สามารถสั่งงานอุปกรณ์ในบ้านและติดต่อกับบริการของ Amazon ได้โดยสั่งด้วยเสียง โดยตอนนี้มีอุปกรณ์รองรับ Alexa กว่าร้อยล้านชิ้นแล้ว โดยปัญญาประดิษฐ์ที่ Alexa ใช้มีสามส่วนหลักคือการแปลงเสียงเป็นข้อความ (automatic speech recognition - ASR) และทำความเข้าใจคำสั่งของผู้ใช้ (natural language understanding - NLU) จากนั้น Alexa จะส่งคำตอบเป็นข้อความและใช้ปัญญาประดิษฐ์สร้างเสียงพูด (text-to-speech - TTS)

ก่อนหน้านี้ Alexa รันบนเครื่อง EC2 G4 ที่ใช้ชิป Intel Cascade Lake และการ์ดกราฟิก NVIDIA T4 การย้ายมาใช้ EC2 Inf1 ทำให้ Alexa มี latency ลดลงทั้งระบบ 25% ขณะที่ราคาต่อการประมวลผลปัญญาประดิษฐ์ก็ลดลง 30%

ที่มา - AWS

No Description

Get latest news from Blognone

Comments

By: A4
iPhoneAndroidRed HatSUSE
on 16 November 2020 - 01:29 #1185836
A4's picture

โดยปัญญาประดิษฐ์ที่ Alexa ใช้มีสามส่วนหลักคือ...

น่าจะบอกเป็นข้อๆ 1 2 3 แทนการใช้และซ้ำๆ
.

By: tekkasit
ContributorAndroidWindowsIn Love
on 16 November 2020 - 07:03 #1185841
tekkasit's picture

AWS Interentia สะกดผิดครับ ต้องเป็น AWS Inferentia

By: sukjai
iPhoneAndroidRed HatUbuntu
on 16 November 2020 - 08:16 #1185844

เจ้าใหญ่ๆ เริ่มทำ hardware ของตัวเองมากขึ้นลดการพึ่งพาคนอื่นลง

By: jane
AndroidUbuntu
on 16 November 2020 - 09:04 #1185850
jane's picture

ตอนนี้ AWS มีท่อยิงมา BKNIX แล้วด้วย

By: Jirawat
Android
on 16 November 2020 - 14:53 #1185897
Jirawat's picture

อะไรคือหน่วงลง งงแท้ จะบอกว่าเร็วขึ้นไหม