ทีมวิจัยจาก MIT ตีพิมพ์งานวิจัย DeepMoji ที่สามารถวิเคราะห์อารมณ์ของคำพูดต่างๆ ได้อย่างแม่นยำ ด้วยการสร้างฐานข้อมูลจากทวีต 1,200 ล้านรายการ (กรองจากที่สะสมไว้ 55,000 ล้านทวีต) ทีมวิจัยพบว่าข้อมูลการใช้อิโมจิแสดงอารมณ์ของคำพูดได้เป็นอย่างดี โดยสามารถแบ่งกลุ่มอารมณ์ของอิโมจิ 64 ภาพยอดนิยมออกเป็นกลุ่มๆ แล้วแยกทวีตที่มีอีโมจิภาพละหมื่นทวีตเอาไว้เป็นข้อมูลทดสอบ
โมเดลของ DeepMoji แบ่งออกเป็น 5 ชั้น embedding, BiLSM สองชั้น, Attention, และปิดด้วย Softmax เทคนิคการฝึกทีมงานเสนอเทคนิค chain-thaw ที่หยุดบางชั้นเอาไว้เพื่อฝึกทีละชั้นไปเรื่อยๆ แล้วค่อยฝึกทุกชั้นพร้อมกันในรอบสุดท้าย
โมเดลที่ได้สามารถนำไปวัดกับชุดข้อมูลอื่นๆ ที่ใช้กันโดยทั่วไป เช่น SS-Twitter ที่มีข้อความ 4,242 ข้อความ หรือชุดข้อมูลอื่นๆ โมเดล DeepMoji สามารถทำงานได้ผลเป็นอย่างดี
ที่มา - DeepMoji
Comments
โอ้ววว เริ่มจับอารมณ์ต่างๆได้ อ่านความรู้สึกมนุษย์ได้คงอยู่ไม่ไกลเกินเอื้อม
1,200 รายการ => 1,200 ล้านรายการ?
this is the shit คืออะไรหรอครับ ทำไมมันถึงเป็นรูปเพลง