จากบทความ รู้หรือไม่ว่าข้อมูลจาก AI หรือ Algorithm ก็มีความลำเอียง ทำให้เราทราบว่าแท้จริงแล้ว AI หรือ Algorithm ไม่ได้ลำเอียง หากแต่มาจากข้อมูลที่เราป้อนเข้าระบบและเทรนเครื่องให้เรียนรู้ข้อมูลที่เป็นตัวแแทนของสิ่งที่เราต้องการประมวลผลเท่านั้น ซึ่งถือเป็นเรื่องยากที่จะทำความเข้าใจและหาทางแก้ไขให้สำเร็จ
ทำไมความลำเอียงจาก AI ถึงเป็นเรื่องยากที่จะแก้ไข
เมื่อพิจารณาตามด้านบนแล้ว ความท้าทายที่ถือว่ายากในการลดอคติจาก AI มีอยู่ 4 อย่างด้วยกัน
1. ข้อมูลที่บิดเบือนหรือลำเอียงมาแต่แรกโดยที่ไม่มีใครสังเกตุ
การเกิดความลำเอียงไม่ใช่สิ่งที่สามารถสังเกตเห็นได้ง่ายในช่วงของการสร้างแบบจำลอง เพราะคุณอาจยังไม่ได้รับผลกระทบอะไรจากข้อมูลและตัวเลือกของคุณจนกว่าเวลานั้นมาถึง ผลกระทบที่ต่อเนื่องจากข้อมูลเหล่านั้นทำให้เราทราบว่ามีความลำเอียงบางอย่างเกิดขึ้น พอคุณทำแล้วจะย้อนหลังมาค้นหาว่าความลำเอียงนั้นมาจากไหนก็ระบุได้ยาก แถมยังต้องมาหาวิธีการกำจัดความลำเอียงออกไปจากแบบจำลองอีก ในกรณีของระบบคัดกรองใบสมัครงาน Amazon ทีมวิศวกรคิดหาวิธีการจ้างงานแบบอัตโนมัติผ่านการสร้างโมเดลคอมพิวเตอร์จำนวนกว่า 500 เครื่องเพื่อสืบค้นประวัติการทำงานและเรซูเมของผู้สมัครงานด้วยเงื่อนไขมากกว่า 50,000 แบบ หากในระบบมีผู้ยื่นสมัครงานในตำแหน่งเดียวกัน 100 คน ระบบจะคัดกรองให้เหลือผู้สมัครแค่ 5 คนที่ดีที่สุด เพื่อช่วยย่นระยะเวลาในการจัดหาบุคลากรของบริษัท เครื่องมือสรรหาบุคคลากรก็สามารถทำสิ่งที่ต้องการ แต่ปรากฏว่าแค่ 1 ปีผ่านไป ทีมกลับตรวจพบสิ่งผิดปกติบางอย่าง เนื่องจาก AI ของพวกเขาเกิด ‘อคติ’ ต่อผู้สมัครงานเพศหญิง เท่านั้นยังไม่พอ ยังมีการเปิดเผยอีกด้วยว่ามันคัดกรองตัดเอาเรซูเมของผู้สมัครหญิงออกไป รวมถึงผู้สมัครหญิงที่จบการศึกษามาจากวิทยาลัยหญิงล้วนเท่านั้น แถมยังตัดผู้สมัครที่มีคุณสมบัติไม่ตรงตามความต้องการออกทันทีโดยไม่พิจารณาเหตุผลประกอบอื่นๆ และเมื่อทีมวิศวกรพยายามเขียนโปรแกรมให้เพิกเฉยต่อคำว่า ผู้หญิง ก็ยังไม่สามารถขจัดปัญหานี้ออกไปได้อยู่ดี สุดท้ายต้องยุบโครงการนี้ไป
2. Deep learning ไม่ได้ออกแบบมาให้ตรวจจับความลำเอียง
การออกแบบการเรียนรู้ของ deep learning ไม่ได้ออกแบบมาให้คำนึงถึงการตรวจจับความลำเอียงที่แฝงมา ปกติแล้วแบบจำลองการเรียนรู้ได้รับการทดสอบประสิทธิภาพการทำงานก่อนที่จะนำไปใช้งานจริง สามารถตรวจจับความลำเอียงได้ด้วย แต่ในทางปฏิบัติแล้วการทดสอบโดยทั่วไปจะมีลักษณะดังนี้: นักวิทยาศาสตร์คอมพิวเตอร์จะสุ่มแยกข้อมูลก่อนการเทรนเครื่องออกเป็นกลุ่มที่ใช้จริงสำหรับการเทรน และอีกกลุ่มหนึ่งที่สงวนไว้สำหรับการทดสอบ เมื่อการเทรนเครื่องเสร็จสิ้น ถ้าข้อมูลที่คุณใช้เพื่อทดสอบประสิทธิภาพของแบบจำลองของคุณมีความลำเอียง เหมือนกับข้อมูลที่คุณใช้ในการเทรนเครื่อง ดังนั้นจึงมีความเป็นไปได้อย่างสูงว่าผลที่ได้จะล้มเหลวเพราะเกิดอคติ
3. การสร้างแบบจำลองเพื่อวัตถุประสงค์อื่นแต่ผลลัพธ์กระทบต่อบริบททางสังคม
เวลาที่นักวิทยาศาสตร์คอมพิวเตอร์สร้างแบบการเรียนรู้เพื่อนำมาแก้ปัญหาที่วางไว้สำหรับแต่ละวัตถุประสงค์ ไม่ได้ถูกกำหนดมาให้สอดคล้องไปด้วยกันกับปัญหาทางสังคม สำหรับวิทยาการคอมพิวเตอร์แล้วหากคุณมีแผนการออกแบบระบบที่สามารถใช้งานสำหรับระบบที่แตกต่างกันได้ในบริบทที่แตกต่างกันถือว่าเป็นสิ่งที่ดี แต่ทว่าสิ่งที่เกิดขึ้นคือ ระบบไม่ได้ออกแบบมาเผื่อผลลัพธ์ที่อาจเกี่ยวข้องทางสังคม เพราะในแต่ละพื้นที่ที่แตกต่างกันย่อมมีความเป็นธรรมทางสังคมที่แตกต่างกัน คุณไม่สามารถสร้างระบบที่ใช้หาความเป็นธรรมที่เกี่ยวข้องกับคดีอาญา แล้วนำไปใช้หาความเป็นธรรมกับการสรรหาบุคคลขององค์กรได้ วิธีที่เราคิดเกี่ยวกับความเป็นธรรมในบริบทเหล่านั้นในแต่ละสังคมแตกต่างกันอย่างสิ้นเชิง
ความแม่นยำที่ไม่แน่นอนของโปรแกรมสามารถกระทบต่อประเด็นด้านอื่นๆ เช่น ด้านจริยธรรม วัฒนธรรม มนุษยวิทยา สังคม ฯลฯ หากเรื่องที่ต้องใช้ AI วิเคราะห์ในแง่ของพฤติกรรมของมนุษย์
4. คำจำกัดความของความเป็นธรรม
ความเป็นธรรมเป็นส่วนหนึ่งของโครงสร้างทางสังคม เวลาที่เราวิพากษ์ว่า Algorithm ลำเอียง จริงๆแล้วเราอาจจะไม่ได้เข้าใจบริบทของความเป็นธรรมหรือความลำเอียงอยู่เหมือนกัน เพราะมันคาบเกี่ยวกับคำจำกัดความของความเป็นธรรมที่เราป้อนข้อมูลให้ Algorithm เอาไปประมวลต่อ ในการตีความหมายของ Fairness หรือความเป็นธรรม ในทางวิทยาศาตร์ สามารถแปลงออกมาในรูปแบบทางคณิตศาตร์ได้ถึง 20 แบบ (คลิกดูได้ที่นี่) แล้วพอเวลาเราเลือกขึ้นมาสักหนึ่งแบบ กลายเป็นว่าเราจะละเมิดแง่มุมของคนอื่นๆทันที ถ้าจะให้พูดง่ายๆก็คือ มันไม่มีชุดรูปแบบความเป็นธรรมที่เท่าเทียมกันจริงๆสำหรับทุกคน ในทุกโอกาส
นอกจากนี้ยังไม่มีคำจำกัดความที่ชัดเจนว่า การไร้ซึ่งอคติควรมีลักษณะอย่างไร สิ่งที่แตกต่างเกี่ยวกับวิทยาการคอมพิวเตอร์คือต้องกำหนดแนวคิดของ ความเป็นธรรม หรือ Fairness ในรูปแบบของคณิตศาสตร์ เช่น การปรับสมดุลอัตราผลบวกเท็จ-ลบเท็จ (false positive – false negative) ของระบบทำนาย แต่ตามคำจำกัดความทางคณิตศาสตร์ที่แตกต่างกันของความเป็นธรรมที่ไม่เหมือนกัน ตัวอย่างเช่น ความยุติธรรม หมายความว่า ในสัดส่วนที่เท่ากันของคนผิวขาวและดำ พวกเขาควรได้รับคะแนนการประเมินความเสี่ยงสูงทั้งคู่หรือไม่? หรือว่าระดับความเสี่ยงเดียวกันควรส่งผลให้ระดับการให้คะแนนเหมือนกันโดยไม่คำนึงถึงเชื้อชาติ? เป็นไปไม่ได้ที่จะปฏิบัติตามคำจำกัดความทั้งสองในเวลาเดียวกัน (นี่คือเหตุผลที่มีความซับซ้อนและเป็นเชิงลึกมากขึ้น) ดังนั้นในบางจุดคุณต้องเลือก แต่ในขณะที่ในสาขาอื่นการตัดสินใจนี้ถูกเข้าใจว่าเป็นสิ่งที่สามารถเปลี่ยนแปลงได้ตลอดเวลา ในขณะที่ถ้าคุณทำข้อมูลอย่างนี้คุณต้องหารูปแบบคำนวณชุดใหม่มาใช้ประมวลข้อมูล และแก้ปัญหาใหม่ที่เกิดขึ้นต่อไป
ทั้งหมดนี้จะเห็นได้ว่า การแก้ไขความลำเอียงของข้อมูลที่ได้จาก AI หรือ Algorithm เป็นเรื่องยากที่ต้องวางแผนและกรอบแนวทางการทำงานเป็นอย่างดี แต่จากนี้ไปเราต้องทำอย่างไร แนวทางใดที่จะสามารถช่วยชี้นำความเข้าใจที่ถูกต้องตรงกันมาสู่การปรับปรุงเพื่อให้เกิดผลกระทบน้อยที่สุดในการส่งข้อมูลใป้ AI ประมวลผล บทความต่อไปจะแนะนำ คำถามสำคัญ 6 ข้อที่คุณไม่ควรมองข้ามหากต้องการข้อมูลที่ไม่ลำเอียงจาก AI
อ้างอิงจาก
- technologyreview.com
- strategy-business.com
https://www.strategy-business.com/article/What-is-fair-when-it-comes-to-AI-bias?gko=827c0
- zdnet.com
https://www.zdnet.com/article/what-is-bias-in-ai-really-and-why-cant-ai-neutralize-it/
- techsauce.co
https://techsauce.co/tech-and-biz/is-ai-biased-really-a-thing-and-how-to-tackle-it
Digital Marketing Executive | Aware Group ตั้งใจที่จะส่งมอบเนื้อหาที่เป็นประโยชน์ เขียนให้อ่านง่ายและเข้าใจง่าย แม้ผู้ที่ไม่มีความรู้ทางด้านเทคโนโลยีมาก่อนก็สามารถศึกษาร่วมกันได้ ยินดีที่จะนำเสนอเรื่องราวน่าสนใจด้านเทคโนโลยี มาร่วมเรียนรู้ด้วยกันนะคะ