AIs มีบางอย่างอธิบายให้ทำ

ผู้เขียน: Roger Morrison
วันที่สร้าง: 28 กันยายน 2021
วันที่อัปเดต: 19 มิถุนายน 2024
Anonim
วิธีได้และใช้AIS Point แลกของรางวัลและส่วนลด
วิดีโอ: วิธีได้และใช้AIS Point แลกของรางวัลและส่วนลด

เนื้อหา


ที่มา: Sdecoret / Dreamstime.com

Takeaway:

เพื่อที่จะไว้วางใจผลลัพธ์ของระบบ AI มันเป็นสิ่งสำคัญที่จะต้องเข้าใจกระบวนการของมันและรู้ว่ามันมาถึงข้อสรุปได้อย่างไร AI ที่อธิบายได้เป็นกุญแจสำคัญในการกำจัดอคติที่อาจเกิดขึ้น

คุณเชื่อถือ AI ได้ไหม คุณควรยอมรับข้อค้นพบของมันว่ามีเหตุผลโดยไม่มีคำถามหรือไม่? ปัญหาคือว่าแม้การตั้งคำถามกับตัวเอง AI จะไม่ได้คำตอบที่ชัดเจน

ระบบ AI มักใช้งานเหมือนกล่องดำ: ข้อมูลเป็นอินพุตและข้อมูลเป็นเอาต์พุต แต่กระบวนการที่แปลงข้อมูลนั้นเป็นปริศนา ที่สร้างปัญหาสองเท่า หนึ่งคือมันไม่ชัดเจนประสิทธิภาพการทำงานของอัลกอริทึมที่น่าเชื่อถือที่สุด อีกประการหนึ่งคือผลลัพธ์ที่ดูเหมือนวัตถุประสงค์อาจบิดเบือนโดยค่านิยมและอคติของมนุษย์ที่ตั้งโปรแกรมระบบ นี่คือเหตุผลที่มีความจำเป็นสำหรับความโปร่งใสสำหรับกระบวนการคิดเสมือนที่ระบบดังกล่าวใช้หรือ "AI ที่อธิบายได้"

ความจำเป็นทางจริยธรรมได้กลายเป็นสิ่งที่ถูกกฎหมายสำหรับทุกคนที่อยู่ภายใต้ GDPR ซึ่งไม่เพียงส่งผลกระทบต่อธุรกิจที่อยู่ในสหภาพยุโรปเท่านั้น แต่ยังเกี่ยวข้องกับผู้คนหรือองค์กรที่เกี่ยวข้องด้วย มันมีจำนวนของบทบัญญัติเกี่ยวกับการปกป้องข้อมูลที่ขยายไปถึงพลเมืองของสหภาพยุโรป“ สิทธิที่จะไม่ต้องอยู่ภายใต้การตัดสินใจอัตโนมัติเท่านั้นยกเว้นในบางสถานการณ์” และ“ สิทธิที่จะได้รับข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้องในการตัดสินใจ .”


กล่าวอีกอย่างหนึ่งก็คือไม่เพียงพอที่จะพูดว่า "อัลกอริทึมปฏิเสธใบสมัครของคุณ" มีคำสั่งทางกฎหมายเพื่ออธิบายแนวความคิดที่นำไปสู่ข้อสรุปที่มีผลกระทบต่อชีวิตของผู้คน (สำหรับข้อมูลเพิ่มเติมเกี่ยวกับข้อดีข้อเสียของ AI โปรดดูที่สัญญาและข้อผิดพลาดของการเรียนรู้ของเครื่อง)

ผลลัพธ์ที่เอนเอียง

สิ่งหนึ่งที่คนบางคนกังวลเกี่ยวกับการตัดสินใจของอัลกอริทึมคือแม้ว่าในขณะที่ยืนหยัดเพื่อการให้เหตุผลอย่างมีเหตุผลพวกเขาก็สามารถเสริมอคติได้ นั่นคือจุดเริ่มต้นของการโต้แย้งที่ Cathy ONeil สร้างขึ้นใน "อาวุธทำลายล้างทางคณิตศาสตร์: ข้อมูลขนาดใหญ่ช่วยเพิ่มความไม่เท่าเทียมและคุกคามประชาธิปไตยได้อย่างไร" การปรากฏตัวของความเป็นกลางที่เกี่ยวข้องกับข้อมูลขนาดใหญ่เป็นสิ่งที่ทำให้เกิดอันตรายในการใช้งาน .

สิ่งที่เธอเรียกว่า "คณิตศาสตร์พินาศ" คือ "ผลลัพธ์ของแบบจำลองที่เสริมสร้างสิ่งกีดขวางทำให้ประชากรประชากรโดยเฉพาะด้อยโอกาสด้วยการระบุว่าพวกเขามีค่าเครดิตการศึกษาโอกาสในการทำงานทัณฑ์บน ฯลฯ "

เธอไม่ได้อยู่คนเดียวในการค้นหาอคติอัลกอริทึม ในปี 2559 Pro Publica แบ่งปันผลการวิจัยว่าอัลกอริทึมทำนายอัตราการกระทำผิดซ้ำที่ยิ่งใหญ่สำหรับคนผิวดำมากกว่าคนผิวขาวซึ่งเป็นปัจจัยที่แปลเป็นประโยคคุกที่แตกต่างกันสำหรับอาชญากรรมประเภทเดียวกัน บทความการ์เดียนปี 2017 ขยายอคติต่อเพศเช่นกัน


ปัญหาคือระบบเหล่านี้ถูกตั้งโปรแกรมด้วยผลที่ตามมาอย่างมากมาย ในการสัมภาษณ์ทางโทรศัพท์ Stijn Christiaens ผู้ร่วมก่อตั้งและ CTO ของ Collibra เขาอธิบายว่า AI ช่วยให้ "การตัดสินใจอัตโนมัติ" ซึ่งเกินกว่า 10,000 การตัดสินใจต่อวินาที

ไม่มีข้อบกพร่องไม่มีความเครียด - คู่มือแบบเป็นขั้นตอนเพื่อสร้างซอฟต์แวร์ที่เปลี่ยนแปลงชีวิตโดยไม่ทำลายชีวิตของคุณ

คุณไม่สามารถพัฒนาทักษะการเขียนโปรแกรมของคุณเมื่อไม่มีใครใส่ใจคุณภาพของซอฟต์แวร์

นั่นหมายความว่าระบบที่ตั้งอยู่บนการตัดสินใจที่ไม่ดีจะทำให้พวกเขามากขึ้นอย่างรวดเร็วมากเกินกว่าที่มนุษย์จะทำได้ หากระบบมีอคติการตัดสินใจจำนวนมากนั้นสามารถ“ สร้างความเสียหายให้กับประชากรบางกลุ่ม” ซึ่งมีผลที่ร้ายแรงและแพร่หลายมากคริสเตียน Christiaens กล่าว

การดูแลและการให้อาหารของอัลกอริทึม

แน่นอนว่ามีข้อผิดพลาดที่เกิดจากข้อมูลที่ไม่สมบูรณ์หรือไม่ดี นั่นคือเหตุผลที่ผู้เชี่ยวชาญบางคนอ้างถึงในบทความของ Guardian ที่อ้างถึงด้านบนเพื่อผลลัพธ์อัลกอริทึมแบบเอนเอียง Sandra Wachter ของมหาวิทยาลัยอ๊อกซฟอร์ดสรุปได้ดังนี้:“ โลกมีความเอนเอียง, ข้อมูลทางประวัติศาสตร์นั้นมีอคติ, ดังนั้นจึงไม่น่าแปลกใจที่เราได้รับผลลำเอียง”

ตามแนวเดียวกัน Christiaens กล่าวว่า“ ตามที่มีอยู่ในการสังเกตโลกแห่งความเป็นจริง” AI“ สังเกตอคติของเราและสร้างผลลัพธ์ทางเพศหรือชนชั้นเหยียดผิว” การใช้คำศัพท์ของเขาเองกับสิ่งที่เป็นที่รู้จักกันอย่างแพร่หลายว่าเป็นขยะ ) เขากล่าวว่าปัญหาอาจเป็น“ อาหาร” ที่ประกอบขึ้นเป็นข้อมูลการฝึกอบรมเพราะมันไม่ถูกต้องไม่สมบูรณ์หรือลำเอียง

ผลการแบ่งแยกเชื้อชาติและเพศหญิงสามารถถูกฝึกเข้าสู่ระบบจากข้อมูลที่ไม่ได้แสดงถึงความแตกต่างในประชากรอย่างเพียงพอ เขาเสนอกรณีการวาดภาพข้อมูลการฝึกอบรมโดยใช้วิทยากรในการประชุมซึ่งผู้หญิงอาจมีตัวแทนเพียง 20 เปอร์เซ็นต์เท่านั้น เมื่อได้รับการฝึกฝนเกี่ยวกับการเป็นตัวแทนที่เบ้เช่นนั้นอัลกอริทึมจะมีอคติในตัว

AI การเล่นแร่แปรธาตุ

ปัญหาอคติของ AI ไม่ได้เกิดจากฟีดข้อมูลเสมอไป แต่ยังรวมถึงวิธีในการตัดสินใจ ความลึกลับของการปฏิบัติการเหล่านั้นทำให้ Ali Rahimi และ Ben Recht ทำการเปรียบเทียบกับการเล่นแร่แปรธาตุ

แม้ว่าการเล่นแร่แปรธาตุอาจมีสถานที่ แต่ก็ไม่ใช่สิ่งที่ผู้คนต้องการเป็นคำตอบสำหรับคำถามของพวกเขาเกี่ยวกับการตัดสินใจอัตโนมัติโดยมีผลกระทบร้ายแรง ดังที่ Rahimi และ Recht กล่าวไว้ว่า:“ แต่ตอนนี้เรากำลังสร้างระบบที่ควบคุมการดูแลสุขภาพและการมีส่วนร่วมในการถกเถียงทางแพ่ง ฉันอยากอยู่ในโลกที่ระบบมีความรู้ที่เข้มงวดเชื่อถือได้ตรวจสอบได้และไม่ใช่การเล่นแร่แปรธาตุ” (สำหรับข้อมูลเพิ่มเติมเกี่ยวกับ AI ในการดูแลสุขภาพให้ดู 5 ความก้าวหน้า AI ที่น่าทึ่งที่สุดในการดูแลสุขภาพ)

นอกเหนือจากกล่องดำ: ค้นหาสิ่งที่กำหนดการตัดสินใจ

นี่คือสาเหตุที่บางคนพยายามผลักดันวิธีการที่โปร่งใสในกระบวนการคิดของระบบ AI โดยอธิบายว่าทำไมถึงได้ข้อสรุปที่เป็นเช่นนั้น มีความพยายามจากหลายที่

กลุ่มอาจารย์และนักวิจัยสามคนที่มหาวิทยาลัยในอเมริกาทำงานในการแก้ปัญหาในปี 2559 พวกเขาเรียกว่า Local Interpretable Model-Agnostic Explanations (LIME) พวกเขาอธิบายวิธีการของพวกเขาในวิดีโอนี้:

แม้ว่าจะเป็นขั้นตอนในทิศทางที่ถูกต้อง แต่การแก้ปัญหาไม่ได้ผลอย่างสมบูรณ์ ดังนั้นการวิจัยยังคงดำเนินต่อไปและในแง่ของ GDPR ผู้ที่เชื่อมต่อกับสหภาพยุโรปมีความสนใจเป็นพิเศษในการบรรลุ AI ที่สามารถอธิบายได้

ห้องปฏิบัติการปัญญาประดิษฐ์แห่งมหาวิทยาลัย Brussel ซึ่งเป็นสถาบันที่ บริษัท Christiaens ก่อตั้งขึ้นเป็นหนึ่งในสถานที่ที่อุทิศให้กับการวิจัยดังกล่าว ห้องปฏิบัติการพบวิธีที่จะทำงานกับการจดจำภาพและมี“ เครือข่ายภาษาอธิบายสิ่งที่ได้เห็นและทำไม” มันมาถึงข้อสรุปที่ทำเกี่ยวกับสิ่งที่อยู่ในภาพเขากล่าวว่า

“ อัลกอริทึมทำงานในลักษณะเดียวกันเสมอ” Christiaens อธิบาย “ ข้อมูลอินพุตได้รับการแปลเป็นฟีเจอร์” ที่ห้องปฏิบัติการ AI พวกเขามีวิธีการ“ เจาะลึกและดูสิ่งที่เกิดขึ้นในโครงสร้างการตัดสินใจ” บนพื้นฐานนั้นเป็นไปได้ที่จะ“ ดูเส้นทางที่ตามมา” เพื่อ ดูว่ามีบางอย่างผิดปกติ” จากนั้นปรับและฝึกฝนใหม่”

ไอบีเอ็มยังให้ความสนใจกับปัญหากล่องดำและเมื่อไม่นานมานี้ได้ประกาศให้บริการซอฟต์แวร์ที่จะรับอคติและพิจารณาการตัดสินใจของ AI แม้ว่าระบบจะทำงานผ่านคลาวด์ IBM นอกเหนือจากการแจ้งเตือนอย่างทันท่วงทีแล้วยังมีข้อเสนอแนะเกี่ยวกับข้อมูลที่จำเป็นในการต่อต้านผลลำเอียง

นอกจากบริการคลาวด์ไอบีเอ็มยังเสนอให้คำปรึกษาสำหรับ บริษัท ที่กำลังสร้างระบบการเรียนรู้ของเครื่องเพื่อพยายามลดผลลำเอียงในอนาคต บางทีผู้เชี่ยวชาญ AI อื่น ๆ ก็จะมีส่วนร่วมในการให้คำปรึกษาเพื่อช่วยสร้างระบบที่ดีขึ้นและเสนอการตรวจสอบอคติที่เป็นไปได้ที่ได้รับการตั้งโปรแกรม

เราต้องจำไว้ว่าระบบ AI นั้นมีข้อผิดพลาดเหมือนกับมนุษย์ที่ตั้งค่าไว้และดังนั้นจึงไม่มีใครให้การตัดสินใจ