หลายครั้งที่ในโลกแห่งความเป็นจริง ชนกลุ่มน้อย (minority groups) ต้องพบเจอกับความลำเอียงหรือการเลือกปฏิบัติในสายวิชาชีพ เช่นว่าผู้ว่าจ้างอาจมีความลำเอียง (biases) ในการคัดเลือกผู้สมัครงานเนื่องจากผู้สมัครเป็นคนผิวสีหรือมีเชื้อชาติที่แตกต่าง ดังนั้น จึงมีความพยายามที่จะลดการเลือกปฏิบัติโดยการใช้แพลตฟอร์มอื่น ๆ ที่ไม่ต้องพึ่งพาการตัดสินใจจากมนุษย์ อาทิ อัลกอริทึม อย่างไรก็ตาม จากงานศึกษาในปี 2562 พบว่าเมื่อไม่มีการแทรกแซงจากมนุษย์ ระบบอัลกอริทึมที่ใช้ในการคัดเลือกใบสมัครงานสามารถเกิดความลำเอียงขึ้นเหมือนกับการที่ใช้มนุษย์คัดเลือกได้เช่นกัน
ความสงสัยจึงเกิดขึ้นว่า ‘ปัญญาประดิษฐ์’(Artificial Intelligence) ซึ่งเป็นเครื่องมือที่มีอิทธิพลในศตวรรษที่ 21 เป็นอย่างมาก อีกทั้งยังเป็นเครื่องมือที่สามารถเรียนรู้และจำแนกสิ่งต่าง ๆ ได้ด้วยตัวเอง นั้นจะสามารถช่วยลดการเลือกปฏิบัติในการรับเข้าทำงานได้จริงหรือไม่?
จากรายงานที่ชื่อ The Elephant in AI โดย ศาสตราจารย์ Rangita de Silva de Alwis ได้ทำการตรวจสอบกระบวนการในการจ้างงานที่มีการนำปัญญาประดิษฐ์เข้ามาใช้ และมีข้อค้นพบสำคัญ ดังต่อไปนี้
- ร้อยละ 40 ของผู้สมัครงานได้รับข้อเสนอในตำแหน่งงานที่ถูกอิงจากอัตลักษณ์ (identities) มากกว่าจากคุณสมบัติหรือคุณวุฒิ (qualifications) ของผู้สมัคร มากไปกว่านั้น ยังมีอีกร้อยละ 30 ที่พบว่าได้รับการแจ้งเตือนตำแหน่งงาน (job alerts) ที่ต่ำกว่าทักษะการทำงานที่พวกเขามี
- ประมาน 63 เปอร์เซ็นต์ของผู้สมัครพบว่าการรับรองระดับการศึกษา (academic recommendation) จากแพลตฟอร์มดังกล่าวนั้น เสนอระดับการศึกษาของพวกเขาต่ำกว่าระดับการศึกษาจริงที่พวกเขาได้สำเร็จมา ซึ่งข้อค้นพบดังกล่าวเป็นสิ่งที่น่าผิดหวังเพราะข้อเท็จจริงคือผู้หญิงผิวสีเป็นกลุ่มที่สำเร็จการศึกษาสูงมากที่สุดในสหรัฐฯ
ข้อค้นพบข้างต้นชี้ให้เห็นว่าความพยายามในการนำ ‘ปัญญาประดิษฐ์’ เข้ามาแทนที่ระบบที่ใช้ในการรับเข้าทำงานที่มีก่อนหน้า ยังไม่สามารถขจัดปัญหาดังกล่าวไปได้ . . .
จึงนำมาสู่ข้อเสนอแนะที่ว่า การนำปัญญาประดิษฐ์เข้ามาใช้เพื่อช่วยจัดการกับปัญหาเดิมนั้นยังคงทำได้ เพียงแต่ว่าหน้าที่ที่สำคัญที่สุด จะอยู่ที่มนุษย์ผู้สร้างเครื่องมือเหล่านี้ขึ้น ที่จะต้อง ‘สอน’ ให้ปัญญาประดิษฐ์เข้าใจและสามารถสร้างความเท่าเทียมในการจ้างงานได้จริง นอกจากนั้น ผู้ว่าจ้าง (employers) ที่ใช้เครื่องมือเหล่านี้ในการรับสมัครงาน ก็ควรที่จะตรวจสอบกระบวนการทำงานของแพลตฟอร์มนั้น ๆ อยู่เสมอ เพื่อค้นหาว่ามีข้อผิดพลาดอยู่หรือไม่ และยังควรที่จะตรวจสอบข้อมูลของผู้สมัครงานด้วยตัวเองอีกครั้ง เพื่อเป็นการลดปัญหาความลำเอียงที่อาจเกิดขึ้นได้
ประเด็นดังกล่าวเกี่ยวข้องกับ
#SDG8 ส่งเสริมการเจริญเติบโตทางเศรษฐกิจที่ยั่งยืน
– (8.5) ส่งเสริมการจ้างงานเต็มที่และมีผลิตภาพ เหมาะสมและเท่าเทียมสำหรับคนทุกกลุ่ม
#SDG9 ในด้านการส่งเสริมการพัฒนาเทคโนโลยีและนวัตกรรมในภาคสาธารณะและเอกชน
#SDG10 ลดความเหลื่อมล้ำทั้งภายในและระหว่างประเทศ
– (10.2) ให้อำนาจและส่งเสริมความครอบคลุมทางสังคม เศรษฐกิจ การเมืองของคนทุกกลุ่มโดยไม่คำนึงถึงอายุ เพศ ความบกพร่องทางร่างกาย เชื้อชาติ ชาติพันธุ์ แหล่งกำเนิด ศาสนา หรือสถานะทางเศรษฐกิจหรืออื่น ๆ ภายในปี 2573
นอกจากนี้ ความพยายามที่ขจัดปัญหาการเลือกปฏิบัติกับกลุ่มเชื้อชาติและเพศนั้นจะช่วยส่งเสริม #SDG5 (ส่งเสริมความเท่าเทียมทางเพศ) ด้วย
#SDGWatch #IHPP #SDG5 #SDG8 #SDG9 #SDG10
แหล่งที่มา:
New study finds AI-enabled anti-Black bias in recruiting (Thomson Reuters)
The Elephant in AI (AI and Bias Policy Lab at Penn Law)
Ali, Muhammad, Piotr Sapiezynski, Miranda Bogen, Aleksandra Korolova, Alan Mislove, and Aaron Rieke. “Discrimination through optimization: How Facebook’s Ad delivery can lead to biased outcomes.” Proceedings of the ACM on Human-Computer Interaction 3, no. CSCW (2019): 1-30.