Tags:
Node Thumbnail

ProPublica เว็บไซต์ข่าวเชิงลึกของสหรัฐอเมริกา ตีพิมพ์รายงานชิ้นใหม่ที่เป็นการวิเคราะห์อัลกอริทึมของซอฟต์แวร์ประเมินความเสี่ยงด้านอาชญากรรมจากสถิติ ซึ่งผู้พิพากษาศาลต่างๆ มักจะนำข้อมูลเหล่านี้ (ที่จะออกมาเป็นคะแนนเรียกว่า risk assessment score) มาพิจารณาร่วมกับโทษที่ได้รับทำให้กำหนดโทษที่เหมาะสม โดย ProPublica ระบุว่าตัวซอฟต์แวร์มีความลำเอียงหรืออคติ (bias) ในการประเมินและให้คะแนน

ซอฟต์แวร์ดังกล่าวออกแบบและสร้างโดยบริษัทที่ชื่อว่า Northpointe โดย ProPublica ระบุในรายงานว่า ตัวซอฟต์แวร์ดังกล่าวมักจะประเมินความเสี่ยงของผู้กระทำความผิดที่เป็นผิวดำสูงกว่าผู้กระทำผิดที่เป็นผิวสีอื่นๆ ในบางกรณีมากกว่าถึงสองเท่าหากเทียบกับผู้กระทำความผิดที่เป็นคนผิวขาว ส่วนผู้กระทำผิดที่เป็นคนผิวขาวมักจะได้รับการประเมินความเสี่ยงที่ต่ำกว่า นอกจากนั้นแล้วตัวเลขของผู้กระทำผิดที่กลับไปกระทำความผิดซ้ำก็มีเพียง 20% เท่านั้น ทำให้รายงานระบุว่าความแม่นยำของซอฟต์แวร์ มีเท่ากับการออกหัวก้อยของเหรียญเท่านั้น

ด้าน Northpointe ออกมาระบุว่าไม่เห็นด้วยกับรายงานฉบับนี้ และการประเมินความเสี่ยงก็ไม่ได้กระทำอยู่บนหลักการของสีผิว อย่างไรก็ตาม Engadget ระบุว่าข้อมูลทางสังคมบางอย่าง เช่น การศึกษา สถานะการจ้างงาน หรือสภาพทางสังคม สามารถบ่งบอกได้ว่าคนๆ นั้นมีสีผิวอะไรอยู่ดี ใครสนใจสามารถอ่านรายงานฉบับเต็มได้จากที่มาครับ

ใครว่าอัลกอริทึมไม่มีการเลือกปฏิบัติ?

ที่มา - ProPublica ผ่าน Engadget

Get latest news from Blognone

Comments

By: trufa
ContributorWindows PhoneAndroidWindows
on 24 May 2016 - 11:47 #913991
trufa's picture

ซอฟต์แวร์มี bias หรือคนตีความผลประเมินมี bias กันแน่???


Happiness only real when shared.

By: nrad6949
WriterAndroidBlackberryWindows
on 24 May 2016 - 13:20 #914021 Reply to:913991
nrad6949's picture

ถ้ายึดตาม Lessig's Code is Law ตัวซอฟต์แวร์ย่อมมีโอกาสเกิด bias ที่ได้รับ (inherit) มาจากคนเขียนหรือนักพัฒนาครับ ส่วนจะรู้หรือไม่อันนี้ก็อีกเรื่องหนึ่งครับ ยังไม่นับเรื่องของ input อีกด้วย ลองจินตนาการว่าให้ machine learning เรียนรู้แบบมีอคติจากข้อมูลที่เรากำหนดให้ ผลก็ย่อมเบี้ยวไปตาม input ด้วย


I'm ordinary man; who desires nothing more than just an ordinary chance to live exactly what he likes and do precisely what he wants.

By: kindraywind
iPhoneUbuntu
on 24 May 2016 - 12:55 #914004

ผมว่า software ไม่ bias หรอก มันก็เรียนรู้จากข้อมูลที่ถูกป้อนเข้ามา

แค่เรายอมรับการ racist ไม่ได้แค่นั้นเอง

By: BLiNDiNG
AndroidUbuntuWindowsIn Love
on 24 May 2016 - 13:08 #914014 Reply to:914004
BLiNDiNG's picture

เอาจริง​ๆแล้ว​ พวก Machine​ learning​ มันก็คือการ biased จากกลุ่ม​ตัวอย่าง​ที่มี properties ​ใกล้เคียง​กัน​ ไม่ใช่​เหรอ​ครับ​

คือมันเป็น​การทำนาย​เฉยๆจากความน่าจะเป็นนั่นแหละ​​ แต่เรื่องทางกฎหมายแบบนี้ ไม่น่าจะเอาความน่าจะเป็น​มาตัดสินกันได้นี่นา.......