AI สามารถมีอคติได้ไหม?

ผู้เขียน: Laura McKinney
วันที่สร้าง: 5 เมษายน 2021
วันที่อัปเดต: 24 มิถุนายน 2024
Anonim
AI จะครองโลกจริงไหม? แล้วมนุษย์จะเอายังไงต่อ? | DTF EP.3 | LDA World
วิดีโอ: AI จะครองโลกจริงไหม? แล้วมนุษย์จะเอายังไงต่อ? | DTF EP.3 | LDA World

เนื้อหา


Takeaway:

ในช่วงไม่กี่ปีที่ผ่านมา AI ได้รับการยอมรับและนำไปใช้กับทุกสิ่งมากขึ้นตั้งแต่การประเมินความงามไปจนถึงการประเมินความเสี่ยงของการกระทำผิดซ้ำ ในการทำเช่นนั้นก็ยังยึดถือมาตรฐานที่สนับสนุนอคติและการเลือกปฏิบัติในหลายกรณี

ความก้าวหน้าของเทคโนโลยีมีศักยภาพที่จะทำให้เป็นประชาธิปไตยอย่างแท้จริงในการเข้าถึงข้อมูลและโอกาส อย่างไรก็ตามในบางกรณีมันถูกใช้ในรูปแบบที่เสริมความคิดว่าในสังคมของเราบางคนมีความเท่าเทียมกันมากกว่าคนอื่น ๆ

นี่คือสิ่งที่เราได้เห็นจากเจ็ดตัวอย่างต่อไปนี้ซึ่งใช้ปัญญาประดิษฐ์ (AI) อย่างจงใจเพื่อยกเว้นบางหมวดหมู่หรือเป็นเพียงการสะท้อนอคติที่ฝังอยู่โดยโปรแกรมเมอร์ของมนุษย์ที่มีผลกระทบพินิจพิเคราะห์

AI Beauty Bias

ความงามอาจอยู่ในสายตาของคนดู แต่เมื่อมุมมองแบบอัตนัยสามารถเขียนโปรแกรม AI คุณจะมีอคติในรายการ ราเชลโทมัสรายงานตอนหนึ่งในการแข่งขันความงามจาก beauty.ai ในปี 2559 ผลการวิจัยพบว่าผิวที่จางลงได้รับการจัดอันดับให้น่าสนใจมากกว่าความมืด

ในปีต่อไปนี้“ FaceApp ซึ่งใช้เครือข่ายประสาทเทียมเพื่อสร้างฟิลเตอร์สำหรับภาพถ่ายสร้าง“ ฟิลเตอร์ร้อนแรง” ที่ทำให้ผิวของคนดูสว่างขึ้นและมอบคุณสมบัติยุโรปให้พวกเขามากขึ้น”


อคติทางเพศในภาษา

โทมัสยังอ้างถึงตัวอย่างเอกสารการแปลที่มีผลต่อความคาดหวังของอาชีพ จุดเริ่มต้นคือประโยคสองประโยค: "เธอเป็นหมอเขาเป็นพยาบาล"

หากคุณแปลเป็นภาษาตุรกีและกลับมาเป็นภาษาอังกฤษคุณจะได้รับผลลัพธ์ที่คาดหวังจากเกมโทรศัพท์

แทนที่จะได้สิ่งที่คุณเริ่มต้นมาคุณจะได้รับความคาดหวังในทศวรรษ 1950 "เขาเป็นหมอเธอเป็นพยาบาล" เธออธิบายว่าเป็นเพราะสรรพนามเอกพจน์เพศกลางในภาษาตุรกีที่จะกำหนดเพศตามความคาดหวังและอคติโปรเฟสเซอร์ (อ่านผู้หญิงใน AI: ตอกย้ำความรังเกียจผู้หญิงและแบบแผนด้วยเทค)

ในขณะที่อคติทางเชื้อชาติและเพศที่กรองลงในภาพและภาษาเป็นสาเหตุของความเดือดดาล แต่พวกเขาก็ไม่ได้เป็นเช่นเดียวกันกับการเลือกปฏิบัติอย่างแข็งขันที่เกิดจาก AI แต่ก็เกิดขึ้นเช่นกัน

ข้อพิสูจน์ของมันคือภาพหน้าจอของข้อ จำกัด ที่ใส่ไว้สำหรับโฆษณาภายใต้หมวดหมู่ที่พักอาศัยที่อนุญาตให้ตัวเลือกในการ จำกัด ผู้ชมโดยการตรวจสอบการยกเว้นหมวดหมู่เช่นแอฟริกันอเมริกันเอเชียนอเมริกันหรือละตินอเมริกา โฆษณาสามารถดูได้ที่นี่

ดังที่ ProPublica ชี้ให้เห็นว่าการเลือกปฏิบัติของโฆษณาดังกล่าวนั้นผิดกฎหมายทั้งภายใต้พระราชบัญญัติการเคหะแห่งปี 2511 และพระราชบัญญัติสิทธิพลเมืองปี 2507 การป้องกันเพียงอย่างเดียวในกรณีนี้คือโฆษณาไม่ได้มีไว้สำหรับสร้างเอง เกี่ยวกับอสังหาริมทรัพย์หรือบ้านสำหรับขายหรือให้เช่า


อย่างไรก็ตามมีการตั้งเป้าหมายอื่น ๆ ที่บ่งบอกถึงความลำเอียงทางเชื้อชาติและมีแรงจูงใจให้หน่วยงานต่าง ๆ นำคดีความทางแพ่งมาปะทะกับเครือข่ายสังคมออนไลน์ ในฐานะที่เป็น Wired รายงานในที่สุดก็ตัดสินใจที่จะปรับเปลี่ยนเทคโนโลยีการกำหนดเป้าหมายโฆษณาอันเป็นผลมาจากการตั้งถิ่นฐานของคดีทางกฎหมายห้าคดีที่ถูกกล่าวหาว่าเปิดใช้งานการเลือกปฏิบัติต่อชนกลุ่มน้อยผ่านโฆษณาในเดือนมีนาคม 2019

ในรายงานการตั้งถิ่นฐาน ACLU ชี้ให้เห็นว่าโฆษณาที่เป็นเป้าหมายเช่นนี้น่าร้ายกาจอย่างไรเนื่องจากชนกลุ่มน้อยและผู้หญิงอาจไม่รู้ด้วยซ้ำว่าพวกเขาไม่ได้รับการเข้าถึงข้อมูลที่อยู่อาศัยและโอกาสในการทำงานที่แชร์กับคนผิวขาว

เมื่อผู้คนจำนวนมากหันมาใช้อินเทอร์เน็ตเพื่อหางานอพาร์ทเมนท์และสินเชื่อมีความเสี่ยงที่แท้จริงที่การกำหนดเป้าหมายโฆษณาจะทำซ้ำและแม้แต่ทำให้ความลำเอียงทางเชื้อชาติและเพศสภาพแย่ลงในสังคม ลองนึกภาพถ้านายจ้างเลือกที่จะแสดงโฆษณาสำหรับงานวิศวกรรมเฉพาะกับผู้ชาย - ผู้ใช้ที่ไม่ได้ระบุว่าเป็นผู้ชายไม่เคยเห็นโฆษณาเหล่านั้นพวกเขาจะไม่เคยรู้ว่าพวกเขาพลาดอะไรไป

ท้ายที่สุดเราแทบจะไม่มีวิธีระบุโฆษณาที่เราไม่ได้เห็นออนไลน์ การเลือกปฏิบัตินี้ไม่สามารถมองเห็นได้โดยผู้ใช้ที่ถูกกีดกันทำให้ยากต่อการหยุด

2. การแบ่งแยกเพศและอายุในงาน

ในบรรดาคดีทางกฎหมายคือการเลือกปฏิบัติอย่างผิดกฎหมายในที่อยู่อาศัยที่อนุญาตให้มีการกำหนดเป้าหมาย ในรายงานเกี่ยวกับการตั้งถิ่นฐาน ProPublica กล่าวว่าได้ทดสอบแพลตฟอร์มและประสบความสำเร็จในการซื้อ“ โฆษณาที่เกี่ยวข้องกับที่พักอาศัยในกลุ่มที่ไม่รวมเช่นชาวอเมริกันเชื้อสายแอฟริกันและชาวยิวและก่อนหน้านี้พบโฆษณางานที่ไม่รวมผู้ใช้ตามอายุและเพศ นั่นคือชื่อครัวเรือน”

โฆษณาตำแหน่งงานจำนวนหนึ่งที่ ACLU พบว่ามีจุดมุ่งหมายอย่างชัดเจนเฉพาะผู้ชายในช่วงอายุที่เฉพาะเจาะจงเนื่องจากผู้ใช้สามารถค้นหาคำตอบว่าทำไมพวกเขาจึงแสดงโฆษณาตัวนั้นในบทความ Wired อีกบทความหนึ่ง ACLU รับผิดชอบต่อคณะกรรมการโอกาสการจ้างงานที่เท่าเทียมกับเครือข่ายสังคมออนไลน์และ บริษัท ที่วางโฆษณาในบริเวณที่พวกเขาละเมิดกฎหมายแรงงานและสิทธิพลเมือง

การเลือกปฏิบัติต่อผู้ว่าจ้างกว่า 40 คนเป็นการละเมิดกฎหมายว่าด้วยการเลือกปฏิบัติทางอายุของรัฐบาลกลาง (ADEA) แต่การกำหนดเป้าหมายโฆษณางานเฉพาะกับผู้ที่มีอายุต่ำกว่านั้นเป็นหนึ่งในสิ่งที่เปิดใช้งานโดยแพลตฟอร์ม

ProPublica ได้ให้ความสำคัญกับหนึ่งในรายงานที่เผยให้เห็นว่าโฆษณาตำแหน่งงานตัวใดพิมพ์ใหญ่ในรูปแบบการยกเว้นที่ผิดกฎหมายนี้ "ชื่อครัวเรือน" ได้แก่ Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, กองทุนเพื่อสาธารณประโยชน์, Goldman Sach, OpenWorks และอื่น ๆ

การจดจำใบหน้าล้มเหลว

“ การจดจำใบหน้านั้นถูกต้องหากคุณเป็นคนผิวขาว” ได้ประกาศพาดหัวข่าวของบทความในนิวยอร์กไทมส์ตีพิมพ์เมื่อเดือนกุมภาพันธ์ 2018 โดยอ้างถึงผลลัพธ์ที่พบว่ามีความสัมพันธ์กันอย่างชัดเจนระหว่างสีผิวและการระบุที่ผิดพลาด:

“ ผิวคล้ำยิ่งมีข้อผิดพลาดมากขึ้น - มากถึง 35% สำหรับภาพของผู้หญิงผิวคล้ำจากการศึกษาใหม่ที่ทำลายพื้นผิวที่สดใหม่โดยการวัดว่าเทคโนโลยีทำงานกับคนต่างเชื้อชาติและเพศอย่างไร”

การค้นพบนี้ให้เครดิตกับ Joy Buolamwini นักวิจัยที่ MIT Media Lab และผู้ก่อตั้ง Algorithmic Justice League (AJL) พื้นที่ของการวิจัยของเธอคืออคติที่รองรับ AI ทำให้เกิดผลลัพธ์ที่เบ้เมื่อต้องจดจำใบหน้าที่ไม่ตรงกับบรรทัดฐานชายสีขาวที่กำหนดไว้สำหรับตัวแบบ

Buolamwini นำเสนอปัญหาอคติทางเชื้อชาติและเพศสำหรับการจดจำใบหน้าในการพูดคุย TED ในปี 2560 ซึ่งเธอพูดถึงช่วงต้นปี 2561 ในวิดีโอเกี่ยวกับโครงการออฟออฟเดอะเฉดสีจาก MIT Lab:

<

การสะกดคำในคำอธิบายของวิดีโอคือการไม่ทำเครื่องหมายอคติ AI ไว้ "จะทำให้อายุของระบบอัตโนมัติลดลงและทำให้ความไม่เท่าเทียมเพิ่มมากขึ้นหากปล่อยให้เป็นปัญหา" ความเสี่ยงไม่น้อยไปกว่า "การสูญเสียกำไรที่เกิดจากขบวนการสิทธิพลเมืองและขบวนการสตรีภายใต้ข้อสันนิษฐานที่ผิด ๆ เกี่ยวกับความเป็นกลางของเครื่องจักร"

คำอธิบายวิดีโอเพิ่มคำเตือนที่คนอื่น ๆ ได้ชี้ไปแล้วในขณะที่เราเห็นในผู้หญิงใน AI: การตอกย้ำเรื่องเพศและแบบแผนด้วยเทค: "ระบบอัตโนมัติไม่เป็นกลางโดยธรรมชาติพวกมันสะท้อนถึงลำดับความสำคัญความชอบและอคติ - รหัส จ้องมอง - ของผู้ที่มีอำนาจในการปั้นปัญญาประดิษฐ์ "

เมื่อวันที่ 25 มกราคม 2019 Buolamnwini ตีพิมพ์โพสต์ขนาดกลางที่ดึงงานวิจัยของเธอเองและของนักวิจัยเพิ่มเติมที่ชี้ให้เห็นว่าข้อบกพร่องของ AI ส่งผลให้เกิดข้อผิดพลาดใน Rekognition ของ Amazon และเรียกร้องให้ บริษัท หยุดจำหน่ายบริการ AI

ในขณะที่ Rekognition สามารถอวดความแม่นยำได้ 100% สำหรับการจดจำตัวผู้ที่มีผิวขาวและความแม่นยำ 98.7% แม้สำหรับตัวผู้ที่เข้มกว่าเมื่อพูดถึงตัวเมีย แต่ความแม่นยำลดลงถึง 92.9% สำหรับตัวเมียที่เบากว่า การลดแสงที่คมชัดยิ่งขึ้นคือความแม่นยำลดลงเพียง 68.6% สำหรับผู้หญิงที่เข้มกว่า

แต่อเมซอนปฏิเสธที่จะลดละ บทความ Venture Beat อ้างถึงคำแถลงจากดร. แมตต์วูดผู้จัดการทั่วไปของการเรียนรู้อย่างลึกและ AI ที่ AWS ซึ่งเขายืนยันว่าสิ่งที่นักวิจัยพบไม่ได้สะท้อนให้เห็นว่าการใช้ AI นั้นใช้จริงอย่างไรอธิบาย:

“ การวิเคราะห์ใบหน้าและการจดจำใบหน้านั้นแตกต่างอย่างสิ้นเชิงในแง่ของเทคโนโลยีพื้นฐานและข้อมูลที่ใช้ในการฝึกอบรม การพยายามใช้การวิเคราะห์ใบหน้าเพื่อวัดความแม่นยำของการจดจำใบหน้านั้นไม่ควรทำเพราะมันไม่ใช่อัลกอริทึมที่ตั้งใจไว้สำหรับจุดประสงค์นั้น”

แต่มันไม่ใช่แค่ผู้ที่มีส่วนเกี่ยวข้องกับศูนย์วิจัยสำคัญ ๆ ที่พบว่าอัลกอริทึมนั้นมีปัญหามาก ACLU ทำการทดสอบของตัวเองในราคาที่สมเหตุสมผลมากที่สุดที่ $ 12.33 ตามรายงานของ Gizmodo พบว่า Rekognition จับคู่สมาชิกสภาคองเกรส 28 คนกับภาพถ่ายของอาชญากร

“ การระบุที่ผิดเกิดขึ้นเมื่อ ACLU ทางตอนเหนือของแคลิฟอร์เนียมอบหมาย Rekognition พร้อมรูปถ่ายที่ตรงกันของสมาชิกรัฐสภาทั้ง 535 คนจากภาพถ่าย mugshot จำนวน 25,000 ภาพที่เปิดเผยต่อสาธารณะ”

ขณะที่ 11 จาก 28 คนเป็นสีมันสะท้อนให้เห็นถึงอัตราข้อผิดพลาดอย่างมีนัยสำคัญ 39% สำหรับพวกเขา ในทางตรงกันข้ามอัตราความผิดพลาดโดยรวมนั้นยอมรับได้มากกว่า 5% สมาชิกหกคนของ Congress Black Caucus ซึ่งเป็นหนึ่งใน Rekognition ที่เชื่อมโยงกับ mugshots ได้แสดงความกังวลในจดหมายเปิดผนึกถึงซีอีโอของ Amazon

การกระทำผิดซ้ำ

อคติที่ฝังอยู่ใน AI กับคนที่มีสีกลายเป็นปัญหาที่ร้ายแรงมากขึ้นเมื่อมันมีความหมายมากกว่าแค่ข้อผิดพลาดในการระบุ นั่นคือการค้นพบการสืบสวน ProPublica อีกครั้งในปี 2559 ผลที่ตามมาของความลำเอียงดังกล่าวไม่ได้มีอะไรน้อยไปกว่าเสรีภาพส่วนบุคคลควบคู่ไปกับการเพิกเฉยต่อความเสี่ยงที่แท้จริงจากบุคคลที่สีผิวเป็นที่ชื่นชอบ

บทความที่อ้างถึงกรณีที่ขนานกันสองกรณีที่เกี่ยวข้องกับผู้กระทำความผิดสีขาวหนึ่งคนและอีกหนึ่งคนดำ อัลกอริทึมถูกนำมาใช้เพื่อทำนายว่าอันใดที่น่าจะผิดกฎหมายอีกครั้ง คนผิวดำมีคะแนนความเสี่ยงสูงและคนผิวขาวมีความเสี่ยงต่ำ

คำทำนายนั้นผิดอย่างสมบูรณ์และคนผิวขาวที่เป็นอิสระก็ต้องถูกจำคุกอีกครั้ง นี่เป็นปัญหาอย่างมากเพราะศาลต้องขึ้นอยู่กับการให้คะแนนในการตัดสินใจทัณฑ์บนและนั่นหมายความว่าการมีอคติทางเชื้อชาติในโปรแกรมหมายถึงการปฏิบัติที่ไม่เท่าเทียมกันภายใต้กฎหมาย

ProPublica ใช้อัลกอริทึมในการทดสอบของตัวเองเปรียบเทียบคะแนนความเสี่ยงของคนกว่า 7,000 คนที่ถูกจับกุมใน Broward County, Florida ในปี 2013 และ 2014 กับจำนวนที่มีการฟ้องร้องคดีอาญาใหม่ในอีกสองปีต่อมา

สิ่งที่พวกเขาพบก็คือว่ามีเพียง 20% ของการคาดการณ์สำหรับอาชญากรรมที่เกิดขึ้นซ้ำ ๆ ของความรุนแรงที่เกิดขึ้นจริงและอาชญากรรมเล็ก ๆ น้อย ๆ ที่เกิดขึ้นเพียง 61% ของผู้ที่มีคะแนนแสดงความเสี่ยง

ปัญหาที่แท้จริงไม่ใช่แค่การขาดความแม่นยำ แต่มีอคติเกี่ยวกับเผ่าพันธุ์ที่เกี่ยวข้อง:

  • สูตรดังกล่าวมีแนวโน้มที่จะตั้งธงว่าจำเลยสีดำเป็นอาชญากรในอนาคตโดยเฉพาะอย่างยิ่งติดป้ายชื่อพวกเขาด้วยวิธีนี้ในอัตราเกือบสองเท่าในฐานะจำเลยขาว
  • จำเลยสีขาวติดฉลากผิดเพราะมีความเสี่ยงต่ำมากกว่าจำเลยดำ

ผลก็คืออัตราความผิดพลาด 45% สำหรับคนผิวดำและ 24% สำหรับคนผิวขาว แม้จะมีสถิติที่จ้องมองโทมัสรายงานว่าศาลฎีกาของรัฐวิสคอนซินยังคงยึดถือการใช้อัลกอริทึมนี้ เธอยังมีรายละเอียดปัญหาอื่น ๆ ที่เกี่ยวข้องกับอัลกอริทึมการกระทำผิดซ้ำ