Tags:
Node Thumbnail

มีข้อถกเถียงน่าสนใจเกี่ยวกับ Google Assistant ที่สามารถคุยโทรศัพท์แทนคนได้ ว่าการที่ให้ AI คุยกับปลายสายที่คน โดยคนนั้นไม่รู้ตัวว่ากำลังคุยกับอะไรนั้นเป็นเรื่องน่ากังวล สร้างความสับสนแก่มนุษย์ และ AI อาจถูกใช้ในทางที่ผิด

การที่ Google Assistant เริ่มมีความใกล้เคียงมนุษย์มากขึ้น มาจากเทคโนโลยี Google Duplex ที่สามารถรองรับความซับซ้อนของภาษาได้มากกว่า Assistant ตามปกติ ผ่านการฝึกฝนจากบทสนทนาในคลังเป็นจำนวนมาก

บล็อกของ Lauren Weinstein นักกิจกรรมเรียกร้องประเด็นต่างๆ ที่เกี่ยวข้องกับอินเทอร์เน็ต (ผู้ร่วมก่อตั้ง PFIR - People For Internet Responsibility) ตั้งคำถามถึงเรื่องนี้ว่า การที่คนคุยกับ AI โดยไม่รู้ว่าปลายสายไม่ใช่คนนั้น ถูกต้องตามหลักจริยธรรมหรือไม่ ที่ผ่านมามนุษย์สื่อสารกับ AI ได้อย่างสบายใจตราบใดที่พวกเขารู้ว่ากำลังคุยกับอะไร และไม่ว่าผู้สร้างเทคโนโลยีจะตั้งใจหรือไม่ การที่คนไม่รู้ว่าคุยกับ AI นั้นดูคล้ายกับการหลอกลวง

Weinstein บอกเพิ่มเติมว่ายังพอมีทางแก้ปัญหาด้วยการป้อนคำเตือนให้ปลายสายที่เป็นคนรู้ตั้งแต่เริ่มการสนทนาว่า คุณกำลังคุยกับระบบอัตโนมัติ ป้องกันไว้ก่อนก่อนที่จะเป็นปัญหาในอนาคต จะช่วยให้เทคโนโลยีนี้ได้รับการยอมรับอย่างชอบธรรม

No Description

ที่มา - Lauren Weinstein 1, 2

Get latest news from Blognone

Comments

By: -Rookies-
ContributorAndroidWindowsIn Love
on 10 May 2018 - 19:28 #1048759

นึกถึงเรื่องสั้นหักมุมของคุณวินทร์ขึ้นมาเลย


เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!

By: stickyficky on 10 May 2018 - 19:43 #1048763

โดยส่วนตัวแล้วผมยังมองไม่เห็นเลยว่าการที่ Assistant มีลักษณะการพูดเหมือนมนุษย์มากเกินไปนั้นมันจะมีผลเสียอย่างไร ผมว่าเจตนาของการทำให้เอไอมีลักษณะการพูดเหมือนมนุษย์นั้นไม่ได้ต้องการจะหลอกลวงอะไรนะครับ แค่เพื่อให้การติดต่อประสานงานราบลื่น ลองสมมุตเหตุการณ์จริงว่าเอไอโทรไปนัดหมายก็ได้ครับ ถ้าเริ่มต้นการสนทนาด้วยการที่บอกให้ผู้รับสายรู้ตัวก่อนเลยว่าเป็นเอไอ ก็มีโอกาสสูงที่จะถูกตัดสายทิ้งหรือไม่ก็โดนโต้ตอบเกรียนๆใส่เพื่อลองของได้ กลายเป็นว่านัดหมายไม่สำเร็จไป เรื่องที่ติกันว่าเหมือนมนุษย์มากเกินไปนั้น ผมยังไม่เห็นใครเลยที่สามารถชี้ให้เห็นข้อเสียได้ชัดๆ มีแต่บอกว่ารู้สึกไม่ดี รู้สึกเหมือนโดนหลอก ซึ่งก็ดูจะเป็นคำติที่ไม่ค่อยมีน้ำหนักอะไร

By: Hadakung
iPhoneWindows PhoneAndroidWindows
on 10 May 2018 - 20:21 #1048770 Reply to:1048763

แล้วถ้าเกิด AI ทำงานผิดพลาดละครับ ปลายสายควรรู้ไหมครับว่าผิดพลาดจากคนหรือผิดพลาดจากระบบอัตโนมัติ ถ้ามันทำให้ข้อความผิดพลาดจนฝ่ายใดฝ่ายหนึ่งเสียหาย อีกอย่างไม่ใช่ทุกคนจะยอมคุยกับระบบอัตโนมัตินะครับเพราะคนคุยด้วยไม่ได้ยอมรับข้อตกลงในการให้ข้อมูลแก่บริษัท AI อยู่ดีมาเก็บข้อมูลโดยไม่ได้ยินยอมแบบนี้ฟ้องร้องได้นะครับ ขณะคนยังต้องแจ้งล่วงหน้าเลยว่ามีการเก็บสนทนา

By: stickyficky on 10 May 2018 - 21:41 #1048777 Reply to:1048770

ครับ ถ้าเปลี่ยนไปพูดถึงเรื่องกลัวว่าเอไอจะทำงานผิดพลาดจนเกิดความเสียหาย หรือเป็นห่วงเรื่องความเป็นส่วนตัวของคู่สาย เรื่องพวกนั้นก็ดูจะเป็นปัญหาที่ต้องหาทางแก้ไขไว้ก่อนจะปล่อยฟีเจอร์นี้ออกมาให้ใช้กันจริงๆอ่ะนะครับ แต่ทั้งสองเรื่องที่ว่ามานั้นมันไม่ได้เกี่ยวอะไรกับการที่เอไอพูดเหมือนมนุษย์อ่ะครับ พูดไม่เหมือนมนุษย์ก็ทำงานผิดพลาดได้ พูดไม่เหมือนมนุษย์ก็เก็บข้อมูลเสียงปลายสายได้อยู่ดี ผมไม่เข้าใจเลยว่าประเด็นของคุณมันเชื่อมโยงกับเรื่องที่ผมโพสต์ไปยังไงอ่ะครับ

By: ปาโมกข์
iPhoneAndroidWindows
on 10 May 2018 - 23:17 #1048790 Reply to:1048777
ปาโมกข์'s picture

สมมุติ โรคจิตโทรไป 191 ไงครับ
ถ้าเป็นเสียงมนุษย์
ตำรวจยังเอาเสียงมาเปรียบเทียบได้ว่าเป็นเสียงของใคร
หรือกรณีหมิ่นประมาท
ถ้าเป็นเสียงมนุษย์ก็สามารถเปรียบเทียบเสียงเป็นหลักฐานเอาผิดได้นะครับ
อย่างกรณีคลิปหลุดหวย 30 ล้าน

By: stickyficky on 10 May 2018 - 23:20 #1048792 Reply to:1048790

คุณครับ นี่มันฟีเจอร์สร้างการนัดหมายตามตารางเวลาที่เรากำหนดอัตโนมัตินะครับ
คุณเข้าใจว่าคุณสามารถเอาเอไอของกูเกิ้ลไปทำอะไรก็ได้เหรอครับ?

By: ปาโมกข์
iPhoneAndroidWindows
on 11 May 2018 - 06:50 #1048820 Reply to:1048792
ปาโมกข์'s picture

มันไม่ใช่ว่าคนที่ถกเถียงเรื่องนี้จะเห็นด้วยหรือไม่เห็นด้วยกับเทคโนโลยีนี้
มันเป็นข้อถกเถียงเพื่อล้อมคอกก่อนวัวหายครับ
อะไรที่คิดว่าอาจก่อเกิดความเสียหาย
ก็จะได้ช่วยกันหาทางป้องกันดูแล
และดูเหมือนเป้าหมายของ google
คือต้องการให้ AI เข้ามาทำหน้าที่แทนมนุษย์ให้มากที่สุด
ไม่ใช่แค่ตารางนัดหมายนะครับ

By: stickyficky on 11 May 2018 - 07:15 #1048827 Reply to:1048820

เผอิญผมพูดถึงเรื่องนี้ตอนนี้อ่ะครับ แล้วผมก็พูดแต่เรื่องเลียนแบบลักษณะการพูดของมนุษย์ด้วยว่ามันไม่ได้มีข้อเสียอะไร ไม่ได้อยากจะพูดถึงการนำเอไอไปใช้ก่ออาชญากรรม ซึ่งถ้าจะให้พูด เอไอก็เป็นเครื่องมือชนิดหนึ่งอ่ะนะครับ มีดก็เป็นเครื่องมือชนิดหนึ่ง ถ้าโจรเอามีดไปปล้นธนาคารคุณคงไม่โทษคนทำมีดใช่ไหมครับ

By: Sxton on 11 May 2018 - 09:09 #1048857 Reply to:1048827

แต่ถ้ามีหนทางทำให้มีดทุกเล่มติดเซฟตี้แล้วแทงคนไม่เข้าได้ แต่คนทำมีดไม่ยอมทำ

ผมว่าคนทำมีดก็มีส่วนต้องรับผิดชอบนะครับ

By: stickyficky on 11 May 2018 - 09:36 #1048865 Reply to:1048857

เซฟตี้ที่ว่าคืออะไรอ่ะครับ? แล้วทำงานยังไง? โจรเป็นเจ้าของมีดจะถอดเซฟตี้ได้ไหมครับ?

By: Sxton on 11 May 2018 - 12:12 #1048927 Reply to:1048865

ก่อนตอบ ผมอยากทราบก่อนครับว่า
1. คุณไม่ทราบจริงๆ ว่าผมต้องการสื่อความหมายอะไร
2. คุณต้องการเถียงให้ชนะ

ถ้าเป็นข้อแรก ผมต้องการจะสื่อความหมายว่า การจะพัฒนาเทคโนโลยีอะไรขึ้นมาสักอย่างและนำเสนอออกสู่สาธารณชน ผู้พัฒนาที่ดีก็ควรจะมีความรับผิดชอบคิดให้รอบด้านและรับฟังผลกระทบทุกๆ ด้านไม่ว่าจะเป็นเรื่องเล็กน้อยแค่ไหนก็ตาม เพราะหากเกิดปัญหาภายหลังมันจะแสดงถึงความอ่อนหัดของผู้พัฒนาคนนั้นเอง

ถ้าเป็นข้อที่สอง ผมคงไม่จำเป็นต้องตอบคำถามของคุณครับ

By: hisoft
ContributorWindows PhoneWindows
on 10 May 2018 - 23:44 #1048799 Reply to:1048790
hisoft's picture

โปรแกรมเปลี่ยนเสียงเยอะแยะไปครับไม่ต้องถึง AI หรอก

By: zerocool
ContributoriPhoneAndroid
on 11 May 2018 - 02:29 #1048806 Reply to:1048777
zerocool's picture

ผมว่าความคิดเห็นคุณมันย้อนแย้งในตัวเองนะ คุณบอกว่าไม่อยากให้ AI ประกาศตัวเองก่อนสนทนาว่าเป็น AI แต่ก็มาสนับสนุนว่า AI ก็ทำงานผิดพลาดได้ AI ก็เก็บข้อมูลได้

ก็ถ้าไม่บอกคู่สายก่อนว่าตัวเองเป็น AI แล้วคู่สายปลายทางจะป้องกันความผิดพลาดจำกัดความเสียหายให้กับตัวเองได้อย่างไร ? ถ้าไม่บอกว่าเป็น AI คู่สายจะรู้ได้อย่างไรว่าข้อมูลการสนทนาถูกเก็บเอาไป train AI ต่อ ดังนั้นจะพูดแบบไหนก็เป็นเรื่องของ AI แต่ต้องบอกว่าตัวเองเป็น AI ครับ ไม่มีข้อแม้ใด ๆ ทั้งสิ้น

คนเราทุกคนมีสิทธิ์รู้ตัวว่ากำลังคุยกับใคร การพยายามไม่บอกหรือปิดบังมันก็ถือเป็นการหลอกลวงรูปแบบหนึ่งนั่นเอง ถ้าผมไม่อยากคุยกับ AI ต่อให้เรื่องที่คุยจะดีเลิศประเสริฐสักเพียงใด นั่นก็เป็นสิทธิ์ของผมที่จะเลือก ไม่ใช่หน้าที่ของคนอื่นที่จะมาหลอกให้ผมคุยโดยไม่รู้ตัวว่ากำลังคุยกับ AI


That is the way things are.

By: stickyficky on 11 May 2018 - 08:02 #1048823 Reply to:1048806

ส่วนผมคิดว่าคุณอ่านหนังสือไม่แตกอ่ะครับ แนะนำให้ลองอ่านใหม่ดูดีๆนะครับ ไม่ใช่ตัดคำของผมหนึ่งวรรคมาแล้วสรุปว่าผมสนับสนุนไอ้นั่นไอ้นี่เอาเอง ลองกลับไปอ่านตั้งแต่เริ่มนะครับ

By: zerocool
ContributoriPhoneAndroid
on 11 May 2018 - 11:30 #1048916 Reply to:1048823
zerocool's picture

ผมอาจจะผิดเองที่ใช้คำว่า "สนับสนุน" ในบริบท comment ของผม ลองทำความเข้าใจใหม่ว่าที่ผมเขียนว่าแปลว่าอะไร ผมจะเขียนอธิบายแปลไทยให้เป็นไทยอีกทีแล้วกันนะครับ ผมว่าผมน่าจะใช้คำว่า "เข้าใจ", "ยอมรับ" หรือ "เห็นด้วย" แทนมากกว่า

คือคุณเข้าใจว่าระบบ AI นั้นสามารถทำงานผิดพลาดได้ คุณเองก็มองว่าควรจะต้องป้องกันปัญหานั้น แต่คุณเองกลับบอกว่าไม่อยากให้ AI ประกาศตัวเองว่าเป็น AI

นี่แหละครับที่ผมบอกว่ามันย้อนแย้ง มันทำไม่ได้ ถ้าไม่ประกาศตัวเองว่าเป็น AI แล้วจะป้องกันปัญหาพวกนั้นได้อย่างไร

ถ้าอ่านภาษาไทยที่ผมพิมพ์เข้าใจแล้ว ช่วยกลับมาตอบ หรือไม่ก็ทำความเข้าใจกับความคิดเห็นตัวเองเสียใหม่อีกรอบด้วยนะครับ ผมเองก็อยากรู้เหมือนกันว่าถ้าไม่ประกาศตัวเองว่าเป็น AI จะป้องกันปัญหาเหล่านั้นอย่างไร เผื่อคุณจะมีความคิดดี ๆ มานำเสนอ


That is the way things are.

By: impascetic
Android
on 11 May 2018 - 13:43 #1048940 Reply to:1048823

เดี๋ยวนี้เจอคนแบบนี้บ่อยแฮะ เถียงจะเอาชนะ พอไม่ชนะก็หาว่าเค้าอ่านไม่เคลียร์ แทนที่จะอธิบายดันไล่ให้ไปอ่านใหม่

By: Holy
ContributorAndroidWindowsIn Love
on 11 May 2018 - 10:04 #1048887 Reply to:1048777
Holy's picture

เพราะ AI อาจจะไม่มีสามัญสำนึกทั่วไปที่คนควรมี และคนฟังก็ไม่รู้ว่าเป็น AI ที่ไม่มีสามัญสำนึกนี้ครับ

เห็นคุณอยากได้ตัวอย่างในกรณีนี้ งั้นผมยกตัวอย่างเลยละกัน

ผมสั่งให้ AI ช่วยจองร้านอาหารแห่งหนึ่ง จำนวน 17 (seventeen) ที่ จะปาร์ตี้วันเกิดกับเพื่อน แต่บังเอิญ AI ได้ยินว่าเป็น 70 (seventy) ที่ บังเอิญร้านเป็นร้านใหญ่พอ มีที่นั่งเยอะพอจะรับทั้งแบบ 17 และแบบ 70 คนนะครับ

AI : สวัสดีครับ ร้านอาหาร XXX ใช่มั้ยครับ
ร้าน : ใช่ครับ
AI : ผมขอจองโต๊ะสำหรับ 70 ที่ วันที่ Y เวลา Z ครับ จะจัดเลี้ยงปาร์ตี้วันเกิดครับ
ร้าน : 70 ที่เลยเหรอครับ
AI : ใช่ครับ
ร้าน : จะสั่งอาหารไว้ล่วงหน้าเลยมั้ยครับ เพราะอาจจะต้องจัดเตรียมนาน
AI : ไม่ครับ (เพราะเจ้านายไม่ได้สั่งไว้)
ร้าน : ขอเบอร์ติดต่อกลับด้วยครับ
AI : นาย ก เบอร์ XXXXXXX ครับ
(ขอบคุณเรื่อยเปื่อย)

---จบการสนทนา---

ถ้าผมเป็นร้านแล้วไม่รู้ว่าเป็น AI ผมก็อาจจะจองไว้ อาจจะปิดร้านวันนั้นเพื่อรับกลุ่มเดียวเลย เพราะถามยืนยันแล้วก็ยังยืนยันว่าใช่ พอโทรกลับไปคอนเฟิร์มใกล้วันก็อาจจะรู้ตัวช้า เสียโอกาสธุรกิจได้ แต่ถ้าผมรู้ว่าเป็น AI ผมจะโทรกลับไปยืนยันอีกทีเดี๋ยวนั้น เพราะความไม่มั่นใจใน AI และรู้ตัวทันทีก็ได้ครับ

By: Sxton on 10 May 2018 - 22:45 #1048789 Reply to:1048763

โดยส่วนตัวผมว่ามีผลนะ

ยกตัวอย่างเคสง่ายๆ ในชีวิตประจำวัน
พอมีสายเข้ามาปุ้ป ถ้าผมฟังออกว่าเป็นบ็อท-สคริป จะตัดสายทันทีใน 2-3 วินาที
แต่ถ้าเป็นเสียงคนพูด ผมจะต้องใช้เวลา 5-10 วินาทีเพื่อฟังเนื้อหา

คนทั่วไปอาจจะมองว่ามันเป็นความต่างเล็กน้อย หรือเรื่องจุกจิก
แต่สำหรับคนที่มีความคิดสร้างสรรค์ ความต่างเล็กน้อยตรงนี้อาจจะเป็นจุดขาย
หรืออาจจะเอาไปก่ออาชญากรรมที่เราคาดไม่ถึงก็ได้

By: put4558350
ContributorAndroidUbuntuWindows
on 11 May 2018 - 04:07 #1048813 Reply to:1048789
put4558350's picture

ในฐานะคนที่ติดต่อธุรกิจ คิดว่าการที่คุยกับ bot เอาเสียงไปทำ Turing Test .... แลกกับการได้ลูกค้าที่ไม่ต่อรอง เรื่องมาก ผม ok นะ

คิดว่าเวลาเอาไปไช้จริงเตือนสักหน่อยก็ดีเหมือนกัน จะได้คุยกันเร็วขึ้นด้วย เผื่อ bot เจอ bot คุยกันแบบเสียงโมเด็ม ธุรกิจลื่นใหล

เอาไปทำ call center ก็ดีเหมือนกันจะได้คำตอบรวดเร็วไม่มั่ว ไม่อู้ (แต่คนตกงานเพียบแทน)


samsung ใหญ่แค่ใหน ?
https://youtu.be/6Afpey7Eldo

By: time3957
iPhoneWindows PhoneAndroidWindows
on 11 May 2018 - 09:53 #1048878 Reply to:1048813

call center นี่ในฐานะที่ทำงานทางนี้ ผมว่ายังยากอยู่นะ ขนาดเอาคนปกติมารับสายยังจัดการลูกค้าได้ไม่เท่ากันเลย มันเป็นเรื่องของอารมณ์อะไรน้ำเสียง หลายอย่างๆ ถ้าเป็นพวกแค่ข้อมูลส่วนๆ ไปนี่ไม่น่าจะมีปัญหา แต่ส่วนใหญ่ที่โทรๆ มักจะใช่แค่เรื่องข้อมูลแต่ไปคุยอ้อมโลกกันเยอะ

By: YF-01
AndroidUbuntu
on 11 May 2018 - 10:51 #1048902 Reply to:1048763

จริงๆก็อาจจะตามที่คุณว่าแหละครับ ประเด็นหลักๆตอนนี้ก็แค่คนคุยสายจะรู้สึกไม่ดี (ยังไม่พูดถึงอนาคตหรือเคสอื่น)
แต่แต่รู้สึกไม่ดีหรือไม่วางใจก็เป็นข้อเสียแล้วครับ ยิ่งโดยเฉพาะกับธุรกิจที่จะเอาไปใช้

ลองคิดภาพว่าคุณเป็นเจ้าของธุรกิจ การเสี่ยงที่จะมีลูกค้าบางคนไม่พอใจกับเรื่องนี้เป็นต้นทุนที่ราคาแพงกว่าการแจ้งบอกแต่ต้นว่าเป็น AI เยอะเลยนะครับ โดยเฉพาะถ้าแจ๊คพ็อตไปแตกกับลูกค้ารายสำคัญเนี่ย

By: nrml
ContributorIn Love
on 11 May 2018 - 15:56 #1048921 Reply to:1048763
nrml's picture

คุณเคยเห็นโฆษณาที่เนียนไปกับเว็บไซต์มากๆ มั้ยครับ ก่อนหน้านี้มันอาจจะไม่เนียนเท่านี้ แต่พักหลังมามันเนียนจนบางครั้งแยกแทบจะไม่ออก มีหลายครั้งที่ผมก็เผลอกดโฆษณาเหล่านี้ไปเพราะความเนียนของมัน ซึ่งส่วนใหญ่พบว่ามันไม่ใช่สิ่งที่ผมต้องการเลย และนำมาซึ่งความเสียเวลาในการค้นหาข้อมูลของผม แต่ยังดีที่อย่างน้อยตอนนี้โฆษณาจากหลายเจ้าจะมีคำว่า ads, ads by blah blah blah ... กำกับอยู่ ทำให้ผมสามารถเข้าใจได้ทันทีว่านั่นคือโฆษณาที่มีความเป็นไปได้สูงว่าจะไม่มีความสัมพันธ์ใดๆ กับเนื้อหาที่ผมต้องการ ช่วยป้องกันการ navigate ไปผิดที่ผิดทางได้มาก

การที่ปลายสายแจ้งก่อนหรือมีสัญลักษณ์อะไรที่แสดงให้เห็นว่าเรากำลังคุยกับบอท ก็จะช่วยให้เราสามารถตัดสินใจหรือตอบสนองต่อบทสนทนานั้นๆ ได้อย่างเหมาะสม สมมติในสถานการณ์ที่มีความซับซ้อนที่บอทไม่สามารถให้คำตอบแบบที่มนุษย์ให้ได้ ตรงนี้ก็อาจจะมีทางให้เลือกได้ว่าขอคุยกับโอเปอเรเตอร์ที่เป็นคนจริงๆ ได้

By: dragonfairy
AndroidWindows
on 10 May 2018 - 20:03 #1048766

ไม่น่าจะมีผลเสียอะไร มันก็เหมือนกับเราโทรหาผู้ช่วยของคนนั้น แต่ถ้าอนาคตมันสามารถเลียนแบบเสียงเจ้านายแล้วหลอกปลายสายว่าเป็นคนนั้นได้ อันนั้นค่อยน่ากลัวขึ้นมาหน่อย

By: Noblesse
AndroidRed HatUbuntuWindows
on 10 May 2018 - 20:15 #1048769
Noblesse's picture

ผ่าน Turing Test ได้แบบง่ายๆ เลย

By: Iamz
AndroidWindows
on 10 May 2018 - 20:41 #1048776

ที่อเมริกามี telemarketing โทรไปขายของโดยใช้ bot มาตั้งนานแล้วไม่บอกก่อนด้วยว่าไม่ใช่คน ไม่เห็นโวยวายเลย

By: Pingz
ContributoriPhone
on 10 May 2018 - 21:30 #1048783 Reply to:1048776

ผมว่าอันนั้นคนฟังดูก็รู้ไงครับว่าเป็นบอทเลยไม่มีปัญหา

By: Iamz
AndroidWindows
on 11 May 2018 - 11:40 #1048918 Reply to:1048783

เคยฟังคนเล่าใน YouTube ตั้งแต่ปี 2015 ครับว่าไม่รู้เลย

By: olan16
AndroidWindowsIn Love
on 10 May 2018 - 20:55 #1048780
olan16's picture

นึกถึงหนังเรื่อง blade runner เลย ที่มีปัญหาไม่สามาถแยก ai ออกจากมนุษย์ปกติได้

By: TheOne
iPhoneWindows Phone
on 10 May 2018 - 21:56 #1048785
TheOne's picture

อารมณ์คงประมาณ Raiden ในเมทัลเกียร์ โซลิด 2 ที่โดน AI หลอกไปทำภาระกิจตั้งไกลจนเกือบจบเกม ดีที่ความแตกซะก่อน (ระบบถูกแฮคปล่อยไวรัสจน AI คุยอะไรเพี้ยน ๆ)

By: alph501
iPhoneWindowsIn Love
on 11 May 2018 - 08:24 #1048841 Reply to:1048785
alph501's picture

Raiden ไม่เท่าไร แต่ผม นี้ เจอ turn of the console ไป เจอกันอีกอาทิตย์เลย 555

By: ปาโมกข์
iPhoneAndroidWindows
on 10 May 2018 - 23:21 #1048793
ปาโมกข์'s picture

เราจะรู้ได้ไงว่า
กำลังคุยกับใคร
และสิ่งที่ AI พูดออกมาตรงกับเจตนาของอีกฝ่ายหนึ่งจริงๆ
เช่นการทำนิติกรรม หรือทำอะไรก็ตามที่ผูกพันทั้งสองฝ่าย
มันมีผลทางกฎหมายเหมือนกันนะ

By: toooooooon
iPhoneWindows PhoneAndroidBlackberry
on 11 May 2018 - 09:56 #1048880 Reply to:1048793

ผมว่ามันคงต้อง แยกแยะ "งาน" ที่เหมาะกับ AI บางประเภทครับ

นัดหมายเจอกันกินข้าวแฮงเอ้าท์ จองตั๋วเครื่องบิน เช่นคนใช้สั่ง เฮ้กูเกิ้ล นัดปราณีให้หน่อย จะไปเซียงใหม่ หาร้านดีดี จองตั๋ว จองโต๊ะร้านดังให้ด้วยนะ... แบบนี้เหมาะกับชีวิตประจำวัน เพราะมันเกิดมาเพื่อเป็น Assistans

แต่เรื่ออื่นก็อาจจะต้องทำเอง และถ้ามี AI ช่วยมันก็น่าจะต้องมี กฏหมาย มารองรับด้วย

แต่ทั้งนี้ผมว่า น่าจะยังมีช่องโหว่อยู่เยอะ

By: adente
ContributorSUSESymbianWindows
on 11 May 2018 - 07:44 #1048829
adente's picture

เจอพนักงานปลายสายจีบเพราะนึกว่าคนจริงๆจะเจ็บปวดแค่ไหน

By: breambeem
UbuntuWindows
on 11 May 2018 - 09:37 #1048864

ถ้าบอกก่อนว่าเป็น AI แล้วจะทำให้คนรับสาย พยายามแกล้ง AI รึเปล่า? กรณีผู้รับสายส่วนใหญ่ก็จะเป็นภาคธุรกิจอยากได้ลูกค้า ก็ไม่น่าจะมีปห.อะไรในแง่ความรู้สึกมั้งฮะ

By: nrml
ContributorIn Love
on 11 May 2018 - 11:24 #1048915 Reply to:1048864
nrml's picture

ผมว่าแก้ได้ด้วยการแจ้งขออนุญาตบันทึกเสียงสนทนาก่อนเลย ถ้าเกิดมีปัญหาก็สามารถเอามาใช้เป็นหลักฐานได้ อาจจะทำให้คนที่คิดอยากจะแกล้งหรือกวนมีเวลาได้ไตร่ตรองมากขึ้นกว่าเดิม

By: ปาโมกข์
iPhoneAndroidWindows
on 11 May 2018 - 13:37 #1048939
ปาโมกข์'s picture

ต่อไปก็อาจจะใช้ในศูนย์รับเรื่องร้องเรียนหรือศูนย์รับแจ้งเหตุต่างๆ
คุยด้วย AI แล้วแจ้งผลออกมาเป็น google sheet หรือ doc
ว่าแต่
ถ้าคนมันพา AI คุยนอกเรื่อง จะทำอย่างไงนะ

By: mrBrightside
iPhoneWindows
on 11 May 2018 - 14:09 #1048949

ควรบอกอย่างยิ่ง ปลายทางจะได้รับมือถูก อย่างถ้าเกิดมันสื่อสารอะไรผิด หรือฟังดูแปลกๆ จะได้เดาไว้ก่อนว่าอาจมีอะไรผิดพลาด อาจไม่ใช่ความตั้งใจของเจ้าของ

By: lexy
Blackberry
on 11 May 2018 - 17:32 #1048973

ผมอ่าน Origin นิยายเล่มล่าสุดของ Dan Brown ผมก็มีความชอบในทักษะ AI ในระดับใกล้เคียงมนุษย์และสูงกว่าในแง่ของข้อมูลรอบด้านจากหลายแหล่ง โดยเฉพาะอินเทอร์เนต

เท่าที่ผมสัมผัส AI ตอบโต้แบบนี้ ที่คล้ายๆ จาวิสในไออ้อนแมน มันก็ฟังดูเป็นเทคโนโลยีที่น่าสนใจนะครับ

โดยการสืบค้นย้อนกลับก็สามารถทำได้ และสามาารถโปรแกรมให้ AI มี LOG ที่ตรวจสอบได้

ถ้าเทคโนโลยีนี้มาถึง ผมคนนึงที่สนับสนุนครับ

By: lexy
Blackberry
on 11 May 2018 - 17:33 #1048975

ซ้ำครับ