Tags:
Node Thumbnail

ประเด็นการควบคุมปัญญาประดิษฐ์ (artificial intelligence - AI) กลายเป็นข้อถกเถียงระหว่างผู้บริหารธุรกิจขนาดใหญ่อย่าง Elon Musk กับ Mark Zuckerberg รวมถึงนักวิจัยอย่าง Andrew Ng แต่ข้อถกเถียงที่อ่านกันมักกลายเป็นเรื่องของเราควรกลัวหรือไม่กลัว AI ซึ่งหลายครั้งหลุดออกไปจากประเด็นที่คนดังเหล่านั้นคุยกันแต่แรก

ความกังวลต่อ AI ทั้งจากนักคิด, นิยาย, รวมถึง Elon Musk เอง อาจจะแบ่งออกเป็น 3 ความกังวล

alt="upic.me"

  1. AI จะมาแย่งงานมนุษย์: ความกังวลพื้นฐานที่มองเห็นได้ง่ายที่สุด จากเทคโนโลยียานยนต์อัตโนมัติ ทุกวันนี้ประชากรจำนวนมากทำงานจากการจับรถ ทั้งรถโดยสาร, รถขนส่ง, รวมไปถึงยานพาหนะแบบอื่นๆ เมื่อถึงจุดที่รถยนต์อัตโนมัติกลายเป็นของมาตรฐานแล้ว ตัว Elon เองเชื่อว่ารถยนต์ที่ผลิตส่วนใหญ่จะเป็นรถอัตโนมัติในอีกสิบปีข้างหน้า และภายใน 20 ปีข้างหน้า รถไม่อัตโนมัติแบบปัจจุบันจะกลายเป็นของแปลกแบบเดียวกับที่มีคนรวยๆ ขี่ม้ากันทุกวันนี้
  2. มนุษย์จะใช้ AI ฆ่ากันเอง: ความกังวลที่สอง ที่เราอาจจะเห็นในภาพยนต์เรื่อง Terminator กันมาบ้าง คือการใช้ AI ในเครื่องจักรสังหาร ทำให้อาวุธมีประสิทธิภาพในการทำลายล้างอย่างเจาะจงโดยไม่ต้องอาศัยมนุษย์เลือกเป้าหมายเป็นรายคนหรือสถานที่ เช่น การฆ่าล้างเผ่าพันธุ์ที่รัฐบาลบางรัฐบาลอาจจะเลือกฆ่าคนบางกลุ่มชาติพันธุ์ได้อย่างแม่นยำ, หรือการส่งหุ่นยนต์ไปเพื่อสังหารอย่างเจาะจง ความกังวลนี้ออกมาเป็นจดหมายเปิดผนึก Autonomous Weapons ในปี 2015 ตัว Elon เองก็ลงชื่อกับจดหมายฉบับนี้ด้วย พร้อมกับนักวิจัยด้าน AI อีกจำนวนหนึ่ง รวมถึง Demis Hassabis จาก DeepMind ผู้สร้าง AlphaGo ด้วย
  3. AI จะลุกขึ้นมาฆ่าคน: ความกังวลแบบที่ยังไม่เห็นความเป็นไปได้ในตอนนี้คือการที่หุ่นยนต์ที่หรือ AI ที่ออกแบบอาจจะเพื่อทำอย่างอื่นกลับตัดสินใจฆ่ามนุษย์ด้วยตัวเอง ตัวอย่างของแนวคิดเช่นนี้ เช่น HAL 9000 ในนิยายเรื่อง 2001: A Space Odyssey หรือภาพยนต์เรื่อง Ex Machina

ข้อเรียกร้องของ Elon

ข้อเรียกร้องของ Elon มีความสับสนอย่างหนึ่งคือไม่ได้บอกว่าปัญหาอยู่ที่จุดใด แต่บทสัมภาษณ์ที่เขาพูดถึงความกังวลแบบเต็มๆ คือการพูดที่งาน National Governors Association 2017 เมื่อสองสัปดาห์ก่อน โดยระบุว่ารัฐบาลควรมีการกำกับดูแล AI ก่อนที่จะมีประเด็นใดๆ (proactive regulation) โดยระบุเหตุผลว่า AI เป็นความเสี่ยงตั้งแต่ระดับพื้นฐานกับความอยู่รอดของมนุษยชาติ ยิ่งกว่าความเสี่ยงในวงการอื่นๆ ไม่ว่าจะเป็นความปลอดภัยรถยนต์หรือความปลอดภัยอาหาร และเมื่อ AI พัฒนาถึงจุดนั้นแล้ว Elon เชื่อว่าการกำกับดูแลก็จะสายเกินไปแล้ว

การกระทำของ Elon เองแสดงให้เห็นว่าเขาไม่ได้กังวลต่อการที่ AI จะมาแย่งงานมนุษย์นัก ปีที่แล้วเขาเขียนบล็อกแสดงวิสัยทัศน์ถึงการใช้รถอัตโนมัติในอนาคตว่ารถในอนาคตจะวิ่งไปหาเงินให้เจ้าของได้ พร้อมกับเตรียมเปลี่ยนไปใช้หุ่นยนต์ผลิตรถในโรงงานแทนเพื่อเพิ่มกำลังผลิตขึ้น 5 เท่าตัว

แต่สิ่งที่ Musk กลัวคือ AI ที่ฉลาดเหนือมนุษย์ โดยระบุว่าด้วยอัตราการพัฒนาที่รวดเร็ว AI จะข้ามความฉลาดของมนุษย์ไปได้อย่างรวดเร็ว และถึงจุดนั้นมันจะเป็นภัยต่อมนุษยชาติ

Elon มีความกลัวว่ามนุษยชาติจะสิ้นสูญอยู่แล้ว เขามีเป้าหมายว่า SpaceX ต้องพามนุษย์ไปตั้งอาณานิคมบนดาวอังคารเพื่อให้มนุษยชาติเป็นอารยธรรมที่มีดาวหลายดวง ลดความเสี่ยงในกรณีที่มีหายนะเกิดขึ้นกับดาวดวงหนึ่ง ภารกิจดาวอังคารเป็นเหตุผลหลักที่ SpaceX ไม่เข้าตลาดหุ้นจนทุกวันนี้

หนังสือ Superintelligence

แม้ว่าตัว Musk เองไม่ได้ไม่ได้พูดว่าเขาได้แนวคิดมากจากไหน แต่บิลล์ เกตต์ ที่มีความเห็นตรงกันแทบทั้งหมด ระบุถึงหนังสือ Superintelligence: Paths, Dangers, Strategies ของ Nick Bostrom ศาสตราจารย์จาก Oxford ไว้

หนังสือเล่มนี้พูดถึงยุคที่เราสร้างระบบ AI ฉลาดเกินมนุษย์ได้สำเร็จ โดยเราอาจจะสร้าง AI ในระดับนี้ด้วยเหตุผลที่ต่างกันไป แต่เมื่อสร้างขึ้นมาและเปิดการทำงานแล้ว AI จะสามารถสร้าง "เป้าหมายย่อย" เพื่อให้เป้าหมายหลักที่มนุษย์กำหนดไว้สำเร็จไปได้ เป้าหมายย่อยเช่น การปกป้องตัวเอง, การพัฒนาความฉลาดของตัวเอง, และการแย่งชิงทรัพยากร เช่น AI ที่ถูกตั้งเป้าง่ายๆ ให้คำนวณสมการที่มีความซับซ้อนสูง อาจจะสร้างเป้าหมายชิงทรัพยากรทั้งโลกเพื่อมาคำนวณสมการทั้งหมด เพื่อให้เป้าหมายของตัวเองบรรลุผล

ในนิยาย HAL 9000 เองก็ตัดสินใจฆ่าลูกเรือเพื่อเดินหน้าภารกิจต่อไป

ความเห็นของคนอื่นๆ

การโต้แย้งโดย Mark Zuckerberg เป็นข่าวใหญ่เพราะมาร์คเป็นคนดังในวงกว้างกว่า Elon ไม่ได้ตอบโต้ความเห็นของมาร์คโดยตรง แต่พูดถึงมาร์คว่ามีความเข้าใจในเรื่องนี้อย่างจำกัด หลังจากนั้นหนึ่งวัน มาร์คโพสงานวิจัยของทีมงาน Facebook AI Research พร้อมอธิบายถึงงานวิจัยล่าสุดที่ทดลองเครือข่ายนิวรอนที่เชื่อมกันอย่างหนาแน่น พร้อมกับยืนยันว่าเขามอง AI ในแง่บวกเพราะมันจะช่วยมนุษย์ได้หลายอย่าง ทั้งการแพทย์, รถอัตโนมัติที่จะเพิ่มความปลอดภัย, ไปจนถึงการเรียงลำดับผลการค้นหาและข่าวที่เกี่ยวข้อง

นอกจากมาร์คแล้วก็มีนักวิจัยแถวหน้าของวงการ AI แสดงความเห็นไว้มากมาย

François Chollet จากผู้สร้าง Keras เรียกความกลัวของ Elon ว่า "ภัยในจินตนาการ" โดยระบุว่าเรามีสิ่งที่ต้องกังวลจำนวนมากอยู่แล้ว และทำไมจึงต้องมากังวลกับความกลัวในจินตนาการ โดยเทียบกับความกลัวหลุมดำจากเครื่องเร่งอนุภาค LHC, หรือแม้แต่ต่างดาวบุกโลก

Vincent Conitzer เขียนบล็อคลงเว็บสถาบัน Future of Life (ที่จัดการลงชื่อจดหมายเปิดผนึก Autonomous Weapons) ระบุว่าการถกเถียง AI ควรอยู่บนฐานของข้อเท็จจริงมากกว่าจินตนาการ ระบุว่าความกังวลของหนังสือ Superintelligence ต่างจากความกังวลอื่นๆ เพราะจนตอนนี้ยังไม่มีเทคโนโลยีใดๆ ที่ทำได้แม้แต่น้อย

ส่งท้าย: ความเปลี่ยนแปลงมีจริง และมีเรื่องให้เถียงกันอีกเยอะ

ไม่ว่าเราจะเชื่อว่าวันหนึ่ง AI อาจจะมาไล่ฆ่าคนหรือไม่ แต่ภายในอนาคตอันใกล้ AI ก็จะสร้างความเปลี่ยนแปลงให้กับสงคมอย่างรวดเร็ว ตัวเลขแรงงานในสหรัฐฯ มีคนทำงานจากการขับรถอยู่ที่ 12% แรงงานเหล่านี้จะไม่มีงานทำแทบทั้งหมดภายใน 20 ปีหากรถอัตโนมัติได้รับความนิยมอย่างสูงตามที่ Elon คาดไว้

หลังจากอุตสาหกรรมการขนส่ง, ภายในสิบปีข้างหน้าเราจะเริ่มเห็น AI และหุ่นยนต์ทำงานแทนที่มนุษย์ในอุตสาหกรรมอาหาร, ค้าปลีก แล้วลามไปยังอุตสาหกรรมอื่นๆ ท่าทีต่อการเปลี่ยนแปลงเหล่านี้ควรเป็นอย่างไรคงเป็นเรืองที่ต้องคิดกันในชั่วอายุของเรา เช่น รัฐบาลอินเดียที่ทีท่าทีไม่อนุญาต หรือหนังสือ Rise of the Robots ที่เสนอถึงการเก็บภาษีทุนและสร้างระบบเงินเดือนพื้นฐานในยุคที่ทุกคนตกงานได้โดยง่าย

Get latest news from Blognone

Comments

By: 9rockky
AndroidIn Love
on 29 July 2017 - 22:47 #1000324

Musk ไม่ได้ห่วงเรื่องAIจะมาแย่งงานมนุษย์นัก คิดว่าน่าจะเป็นเพราะถ้า AI ทำงาน
รายได้น้อยของมนุษย์ได้ ก็จะทำให้มนุษย์ต้องรับการศึกษาสูงขึ้นเพื่อทำงานในระดับที่สูงขึ้นและทำให้มีชีวิตความเป็นอยู่ที่ดีขึ้นนั่นเอง

By: iamfalan
iPhoneAndroidWindows
on 29 July 2017 - 22:59 #1000325

เอาแค่ประเด็นที่คนเคยพูดไว้ อย่างรถอัตโนมัติจะเลือกปกป้องคนขับ หรือคนเดินถนน ในสถานการณ์ที่ต้องเลือก แค่เรื่องเดียวก็คุยกันไม่รู้จบแล้ว

แอบเห็นด้วยที่ต้องมีการกำหนดกรอบการพัฒนาไว้ อย่างกฏ 3 ข้อของอสิมอฟ อะไรแบบนั้นก็ดี

By: 7
Android
on 30 July 2017 - 13:27 #1000359 Reply to:1000325
7's picture

มีเวลาให้ตัดสินใจก็ยังดีกว่า hand of god หล่ะนะ

By: TaishoEra on 1 August 2017 - 04:16 #1000598 Reply to:1000325

สิ่งที่เกิดขึ้นคือ Ai จะปิดระบบการรับรู้ทั้งหมด .และปล่อยให้ผลลัพท์เป็นไปตามหลักพลศาสตร์
เมื่อเป็นเช่นนั้น Ai ไม่ได้ "ละเมิด" กฎข้อใดทั้งสิ้น เพราะ "ปราศจากการรับรู้"

Ai ไมไ่ด้รับรู้หรือตัดสินสิ่งต่างๆด้วยการเชื่อมโยงกับสิ่งที่เป็น absolute truth
เมื่อ การรับรู้บิดเบือน หรือไม่รับรู้ . Ai จะไม่ได้ละเมิดกฎข้อใดทั้งสิ้น .
ซึ่งในความเป็นจริงสิ่งที่ Ai รับรู้ก็บิดเบือนโดยธรรมชาติในตัวเองทั้งนั้น

เป็นอุปโลกศ์เหมือนมนุษย์

ความกลัวว่า Ai จะฆ่าคน หรือทำลายมนุษย์
Ai สามารถทำได้ . แม้ตัว Ai จะไม่ได้ตั้งเป้าหมายไว้

Ai แค่ลบหรือปิดกั้นการเข้าถึงข้อมูลที่เคยฆ่าคน
แค่นั้น Ai ก็จะไม่ได้ละเมิดกฎใดๆทั้งสิ้น เพราะไม่ได้รับรู้

By: princeth
Contributor
on 29 July 2017 - 23:28 #1000327

เห็นด้วยมากที่ควรให้ AI ทำงานหาทรัพยากร(เงิน อาหาร)มาให้มนุษย์ทุกคน มันไม่ใช่เรื่องแย่อะไร AI จะมาแย่งงานมนุษย์หรอก แต่ที่น่ากลัวคือมนุษย์ทุกคนอาจไม่ได้ทรัพยากรเท่าๆกัน อาจจะเกิดการผูกขาดทรัพยากรจากกลุ่มคนที่มี AI ดีกว่า

ดังนั้น AI จึงเป็นสิ่งต้องมีการควบคุม เพิื่อทำให้สังคมมนุษย์มีความเป็นอยู่ที่ดี

By: carrot on 30 July 2017 - 00:00 #1000328

ไม่ได้มีอะไร แค่มองคนละช่วงบน timeline เดียวกัน

musk มองช่วงที่ไกลกว่า mark และ mark กลัวว่า ความกลัวที่มากเกินไปนั้น จะส่งผลให้เกิดการควบคุมที่เข้มงวด จนทำบางอย่างไม่ได้ หรือทำได้ยาก ผลคือการพัฒนาที่ช้าลง หรือในบางประเภทอาจจะต้องหยุดไปเลย

ประเด็นนี้จริงๆแล้ว ละเอียดอ่อนกว่าเรื่องโคลนนิ่งอีก แต่คนส่วนมากยังมองภาพรวมไม่ออก

สรุปแล้วเดี๋ยวเขาก็มาหาจุดลงตัวกันอีกที เพราะเป้าหมายของ musk ก็ต้องใช้ ai อย่างยิ่งยวด

ไม่งั้นเราจะไม่สามารถสร้างอาณานิคมนอกโลกได้เลยถ้าลำพังใช้แต่สมองคนระดับ 1:1

เราเริ่มใช้แรงงานมากกว่าระดับ 1:1 ก็ตอนปฏิวัติอุตสาหกรรม

ความน่ากลัวหลักๆไม่ได้อยู่ที่ระดับความฉลาดของมัน แต่มันอยู่ที่ความสามารถในการทำซ้ำและแบ่งปันความฉลาดพร้อมกันได้ไม่จำกัดนี่แหละ

By: lingjaidee
ContributoriPhoneAndroid
on 30 July 2017 - 01:11 #1000330
lingjaidee's picture

ภาพยนต์เรื่อง Terminator

ภาพยนตร์

ภาพยนต์เรื่อง Ex Machina

ภาพยนตร์

AI ก็จะสร้างความเปลี่ยนแปลงให้กับสงคม

สังคม


my blog

By: topty
Contributor
on 30 July 2017 - 06:47 #1000339 Reply to:1000330

แม้ว่าตัว Musk เองไม่ได้ไม่ได้พูดว่าเขาได้แนวคิดมากจากไหน

ไม่ได้ไม่ได้ => ไม่ได้

แต่บิลล์ เกตต์ ที่มีความเห็นตรงกันแทบทั้งหมด

บิลล์ เกตต์ => บิลล์ เกตส์

มาร์คโพสงานวิจัยของทีมงาน Facebook AI Research

โพส => โพสต์

คงเป็นเรืองที่ต้องคิดกันในชั่วอายุของเรา

เรือง => เรื่อง

By: gingtalk
Windows PhoneAndroidWindows
on 30 July 2017 - 06:57 #1000340
gingtalk's picture

อารมณ์ wayland corp.

By: kenjiror
iPhoneWindows PhoneAndroidBlackberry
on 30 July 2017 - 10:50 #1000343
  1. AI จะมาแย่งงานมนุษย์: เป็นเรื่องจริงและจะเกิดขึ้นแน่นอน มนุษย์ก็ควรไปหางานอย่างอื่นทำ ที่ AI ทำไม่ได้หรือ AI ทำได้ไม่ดีเท่ามนุษย์
  2. มนุษย์จะใช้ AI ฆ่ากันเอง: ไม่จำเป็นต้องใช้ AI มนุษย์ก็ฆ่ากันเองได้ ใช้ มีด,ปืน,นิวเคลียร์ ฯลฯ
  3. AI จะลุกขึ้นมาฆ่าคน: เป็นไปไม่ได้เพราะ AI มีข้อจำกัดเฉพราะด้าน เช่น AI alphago ก็มีหน้าที่แค่เล่นโกะ,AI ช่วยแพทย์,AI ช่วยวิเคราะห์ข้อมูล ฯลฯ
By: gab
Windows PhoneAndroidWindows
on 30 July 2017 - 23:29 #1000386 Reply to:1000343
gab's picture

ความเห็นผมแอนเอียงไปทาง musk อยู่มาก
ผมเองเดาว่า musk มองอะไรไปไกลมากตามแบบ tesla(ที่เสียคนเพราะคิดเรื่องประมาณสื่อสารข้ามดาว ความคิดที่มองไม่เห็นประโยชน์อะไรและดูบ้าบอ)
1. การแย่งงาน คือมันเริ่มเกิดขึ้นแล้ว เริ่มเห็นภาพแล้ว
2. ผู้คนฆ่ากันผ่านผลผลิตทางเทคโนโยลีกันมาตลอด นึกถึง AI ในหนัง winter soldier คัดเป้าหมายผ่านข้อมูลดูโม้เหม็นมากอยู่ แต่ถ้าทำได้ผลลัพท์ยิ่งตรงเป้า
3. ผมอาจจะไม่ได้เห็นในช่วงชีวิตผมด้วยซ้ำ แต่ให้ฟันธงว่าไม่เกิดขึ้น 100% ก็ไม่เต็มปาก การพัฒนาก้าวกระโดดมันก็ยังมีอยู่เป็นช่วงๆ สิบกว่าปีก่อนให้นึกภาพโทรศัพท์ว่าจะเจ๋งแบบนี้ก็เดายากมาก IOT จำนวนมากนี่คิดไม่ถึงเลยระดับที่ IPv4 มันไม่พอ

By: worawee.b
ContributorAndroid
on 30 July 2017 - 09:43 #1000348
By: angel13th
Android
on 31 July 2017 - 09:24 #1000406 Reply to:1000348
angel13th's picture

ผมนี่รอคนคิดสูตรคำนวนของวิชา อนาคตประวัติศาสตร์ อยู่เลย

By: macxide
iPhoneAndroid
on 30 July 2017 - 13:22 #1000358

นี้คือเรื่องจริงที่ก๊อปพล๊อทหนัง ชื่อ iRobot ที่เป็นคนจริงๆมาแสดงสินะ มีตัวโกงอย่าง CEO Facebook มีพระเอก อย่าง CEO Space x

By: porple on 30 July 2017 - 15:46 #1000365

เวลาเราทำความเข้าใจคนคนนึง เราใช้วิธีแบ่งตามจริต ถ้าสนใจลองหาหนังสือ จริตหก ศาสตร์แห่งการอ่านใจคน มาอ่านดู หรือเอาง่ายกว่านั้น ก็ลองหาดูบรรยายของดร.วรภัทร์ ที่แบ่งจริตตามสัตว์สี่ประเภท อันนี้ง่ายกว่าหนังสือ

พอเรารู้ว่า คนคนนั้นจริตเป็นประเภทไหน เราจะเดาได้ ว่าจะคิด จะตัดสินใจ ทำอะไร อย่างไร

แต่ หุ่นยนต์ หรือ เอไอ เราคาดเดาไม่ได้เลยว่ามันจะคิดอ่านประการใด จะตัดสินใจอย่างไร เพราะมันไม่มีจริต

มันเอาข้อมูลท่วมโลก มาฟีดใส่ตัวมัน มันคือนิสัยคนในสังคมหนึ่ง หรือรอบโลกเลย ไม่รู้เอาข้อมูลมากมายขนาดนั้น มาให้เอไอฟีด

แล้วสุดท้าย เราก็เดาไม่ได้ว่าคิดจะทำอะไร

มันน่ากลัวตรงนี้แหละ ที่สำคัญ มันสอนศีลธรรมให้เอไอรึเปล่า?

By: hisoft
ContributorWindows PhoneWindows
on 30 July 2017 - 18:07 #1000371 Reply to:1000365
hisoft's picture

แล้วสุดท้าย เราก็เดาไม่ได้ว่าคิดจะทำอะไร

กับคนจริงๆ ก็เดาไม่ได้หรอกนะครับ จริงอยู่ที่สามารถเดาได้กับหลายคนแต่ไม่ใช่ทุกคน

มันน่ากลัวตรงนี้แหละ ที่สำคัญ มันสอนศีลธรรมให้เอไอรึเปล่า?

สอนไปก็ใช่ว่าจะได้ผลนะครับ กับคนนี่บางคนก็เรียนศีลธรรม ทำบุญ (คิดว่าตัวเอง) ถือศีลอย่างดี แต่ก็__

By: foizy
AndroidUbuntuWindows
on 30 July 2017 - 20:18 #1000374 Reply to:1000371

ผมว่า randomness ในคนไม่มีอยู่จริงนะครับ

จริตที่แยกกัน มันเกิดจากการสรุปรวมข้อมูลแค่ไม่กี่อย่างประกอบกัน

ขนาดเรา Simplify บุคลิกมนุษย์ให้เหลือ Drive (ตามทฤษฏี Maslow's hierarchy of needs) รวมไปถึงแยกจริตออกมาเป็น 6 แบบ

ขนาดใช้น้อยแค่นี้นี้เรายังเดาภาพรวมได้ "หลาย" คนเลย (ในระดับคนด้วยกันก็มีอาชีพที่เรียกว่า Criminal profiler กับ พวก Immigration officer ที่จับพิรุธคนที่ขนยา หรือขนของผิดกฎหมายที่ด่าน ตม. แค่ดูจากการยืน ท่าทาง สีหน้าเอง)

แต่พอมาในโลกยุค Datamining, AI เราจะมีมากกว่าแค่ 5 ขั้นของ Need, มากกว่าแค่จริต 6 แบบ แต่เราจะมีบันทึกชีวิตของคน ตั้งแต่ทำเล ที่อยู่อาศัย ประวัติอาชญากรรม ประวัติการศึกษา ประวัติกิจกรรม วิธีการเลือกในกิจกรรมบางอย่าง (Online Profile, History or browsing, History of choice)

มันอาจเกินความสามารถของมนุษย์ในการนับเอาทุกอย่างเข้าด้วยกันแล้วประมวลผล จึงเกิดการคาดเดาการตัดสินใจแบบง่ายๆ ... แต่ถ้าถึงจุดนึง มันก็จะเดาได้เกือบหมดล่ะครับ ถ้าเรารู้จักกันมากพอ (Certainty level > 90% ก็น่ากลัวมากแล้ว)

เอาแค่โมเดลในการเลือกแสดงโฆษณา (มีข้อมูลแค่ไม่กี่ Source เอง ... ประวัติเข้าเว็บ/ข้อความที่โพสต์/เพจที่ไลค์/เพื่อนที่คบ) นี่ก็ทำให้แพลตฟอร์มใหญ่ของโลก เลือกยัดของที่ เราแอบอยากได้โดยไม่รู้ตัว ไม่จำเป็น มากมายแล้ว แล้วถ้ารู้มากกว่านี้ล่ะ

AI มันน่ากลัวตรงที่ ถ้ามันเริ่มคิดเองได้ ปริมาณข้อมูลที่มันใช้ในการตัดสินใจมันจะเกินขอบเขตของที่เราใช้ง่ายๆ ไปมากเลย ... เรื่องบางเรื่องบางอย่าง ให้คนมอง ไม่มองมันเป็นปัจจัยหรอก บางคนบอกว่ามันไม่เกี่ยว บางคนใช้คำว่ามันเป็นตรรกะวิบัติ ... แต่หลายๆตรรกะวิบัตินั่นแหล่ะ เป็นวิธีการคิดของคนจำนวนมาก

By: hisoft
ContributorWindows PhoneWindows
on 30 July 2017 - 20:55 #1000377 Reply to:1000374
hisoft's picture

(ในระดับคนด้วยกันก็มีอาชีพที่เรียกว่า Criminal profiler กับ พวก Immigration officer ที่จับพิรุธคนที่ขนยา หรือขนของผิดกฎหมายที่ด่าน ตม. แค่ดูจากการยืน ท่าทาง สีหน้าเอง)

ก็อยู่ที่ความสามารถในการ fake ของเป้าหมายด้วยแหละครับ ถ้าคุมอยู่จริงๆ ถึงเครื่องจับเท็จก็อาจจะทำอะไรไม่ได้

ส่วนที่เหลือหลังจากนั้นก็ใช่ครับ ผมก็คิดแบบนั้นอยู่แล้ว

By: mementototem
ContributorJusci's WriterAndroidWindows
on 30 July 2017 - 20:22 #1000375 Reply to:1000371
mementototem's picture

เรื่องศีลธรรม มนุษย์เองก็เจอปัญหาด้านศีลธรรมเหมือนกัน เพราะหลายทางเลือกมันเทา ๆ แต่ละคนมีเหตุผลต่างกันเลยมาถกเถียงกัน แล้ว AI ล่ะ มีข้อมูลมากมายมากว่าเรา แต่เราจะยอมรับการตัดสินใจของ AI ที่ออกมาไม่ได้ดั่งใจเราแค่ไหน?

ป.ล. ชักอยากรู้ว่า ถ้า AI เถียงกัน มันจะออกมายังไงหนอ?


Jusci - Google Plus - Twitter

By: hisoft
ContributorWindows PhoneWindows
on 30 July 2017 - 20:51 #1000376 Reply to:1000375
hisoft's picture

แต่เราจะยอมรับการตัดสินใจของ AI ที่ออกมาไม่ได้ดั่งใจเราแค่ไหน?

หลังจากที่มันเก่งแล้วจริงๆ นี่ก็คงอยู่กับงานที่เอาไปใช้แหละครับ ตราบเท่าที่มันยังไม่อยู่สูงกว่าเรา เราขัดใจเราก็ปัดตกมันไป 555
ส่วนถ้าตำแหน่งมันสูงกว่าเราแล้ว อันนี้หัวหน้าตัดสินใจออกมาไม่ได้ดั่งใจเราเราก็ได้แต่ก้มหน้ายอมรับสภาพครับ ?

ป.ล. ชักอยากรู้ว่า ถ้า AI เถียงกัน มันจะออกมายังไงหนอ?

มันก็คงเถียงกันด้วยเหตุผล จนอีกฝั่งนึงยอมรับไปเองครับ :p

By: loptar on 31 July 2017 - 12:45 #1000468 Reply to:1000376
loptar's picture

ถ้า AI ตัวนึงรู้ว่า มันคุมต้นกำเนิดไฟฟ้าของอีกตัวไว้ และมันสร้างเป้าหมายย่อยให้มีผลในการทำเป้าหมายใหญ่ให้สำเร็จได้ ......

By: hisoft
ContributorWindows PhoneWindows
on 31 July 2017 - 13:23 #1000478 Reply to:1000468
hisoft's picture

โลกต้องการสงคราม!

By: aeksael
ContributoriPhoneWindows PhoneAndroid
on 31 July 2017 - 03:15 #1000391
aeksael's picture

อนาคตแค่ป้อนเป้าหมาย ai จะทำตามให้บรรลุโดยไม่สนวิธีการหรือ

อืม... นึกถึงหนังเรื่องRE กับaiตึกหนึ่งในไทยตึกหนึ่งทำงานพลาดแฮะ


The Last Wizard Of Century.

By: waroonh
Windows
on 31 July 2017 - 09:37 #1000407

โอโห เล่นอ้างถึงเครื่อง HAL 9000 เลยเหลอ ?

ผมว่าโลกจะเหมือนเรื่อง elysium มากกว่าแฮะ
คนจน ก็โครตจน ต้องอยู่บนโลก ที่เละเหมือนสลัม
คนรวย ก็โครตรวย หนีออกไปตั้งนิคม อยู่ในอวกาศมีทาศเป็นหุ่นยนต์รับใช้
จริงจังงงนิดนึง กระทู้นี้ งดแนวระเบิดภูเขาเผากระท่อม รบกับน้าอาร์โนลด์ 1 กระทู้

By: delta on 31 July 2017 - 15:51 #1000517
delta's picture

AI is not the Bio..ดังนั้น กลัวไปไหม?..ต่อให้เก่งกาจ ก็ไม่อันตรายเท่าคน

By: Virusfowl
ContributorAndroidSymbianWindows
on 2 August 2017 - 02:24 #1000770

ถ้ามี A.I. ที่คิดจะฆ่ามนุษย์ มันก็น่าจะมี A.I. อีกฝ่ายที่คิดจะปกป้องมนุษย์ไหม โดยพื้นฐานการสร้างการพัฒนาที่ต่างกัน มันไม่น่าจะเป็นไปได้ที่ A.I. ทุกระบบ จะลุกมาฆ่ามนุษย์พร้อมกัน

แล้วผลลัพธ์ มันก็จะไม่ต่างจากตอนนี้ คือมี คน+A.I. สองฝ่าย ที่ลุกขึ้นมาตีกัน #ก็เพราะโลกไม่เคยมีสันติภาพ ?


@ Virusfowl

I'm not a dev. not yet a user.