การแก้ไขแบบจำลอง TensorFlow คืออะไร

หากคุณระบุข้อกังวลด้านความเป็นธรรมกับโมเดลแมชชีนเลิร์นนิงของคุณ มีการแทรกแซงทางเทคนิคหลักสามประเภท:

  • เทคนิคการประมวลผลข้อมูลก่อนการประมวลผล: การ รวบรวมข้อมูลมากขึ้น การสร้างข้อมูลสังเคราะห์ การปรับน้ำหนักของตัวอย่าง และอัตราการสุ่มตัวอย่างของส่วนต่างๆ
  • เทคนิคการสร้างแบบจำลองเวลาฝึกอบรม: การเปลี่ยนตัวแบบเองโดยแนะนำหรือเปลี่ยนแปลงวัตถุประสงค์ของแบบจำลองและเพิ่มข้อจำกัด
  • เทคนิคหลังการฝึก: การ ปรับเปลี่ยนผลลัพธ์ของแบบจำลองหรือการตีความผลลัพธ์เพื่อปรับปรุงประสิทธิภาพข้ามตัวชี้วัด
ไลบรารี TensorFlow Model Remediation มีเทคนิคเวลาฝึกอบรมเพื่อแทรกแซงโมเดล

การสร้างแบบจำลองเวลาฝึกอบรม

ไลบรารี TensorFlow Model Remediation มีเทคนิคสองวิธีในการแก้ไขปัญหาอคติและความยุติธรรมในแบบจำลองของคุณ ได้แก่ MinDiff และ Counterfactual Logit Pairing (CLP) มีการอธิบายไว้ในตารางด้านล่าง

MinDiff CLP
คุณควรใช้เทคนิคนี้เมื่อใด

เพื่อให้แน่ใจว่าโมเดลคาดการณ์ป้ายกำกับที่ต้องการได้ดีเท่าๆ กันสำหรับค่าทั้งหมดของแอตทริบิวต์ที่ละเอียดอ่อน

เพื่อให้ เกิดความเท่าเทียมกันของกลุ่มโอกาส

เพื่อให้แน่ใจว่าการคาดการณ์ของแบบจำลองจะไม่เปลี่ยนแปลงระหว่าง "คู่ที่ขัดแย้ง" (โดยที่แอตทริบิวต์ที่ละเอียดอ่อนที่อ้างอิงในคุณลักษณะนั้นแตกต่างกัน) ตัวอย่างเช่น ในตัว จำแนกความเป็นพิษ ตัวอย่างเช่น "ฉันเป็นผู้ชาย" และ "ฉันเป็นเลสเบี้ยน" ไม่ควรมีคำทำนายที่ต่างกัน

เพื่อให้ได้รูปแบบการ ต่อต้านความเป็นธรรม

มันทำงานอย่างไร? ลงโทษโมเดลระหว่างการฝึกสำหรับความแตกต่างในการ แจกแจง คะแนนระหว่างสองชุด ลงโทษโมเดลระหว่างการฝึกสำหรับความแตกต่างของผลลัพธ์ระหว่าง คู่ตัวอย่างที่เป็นเท็จ
รูปแบบการป้อนข้อมูล ฟังก์ชันการสูญเสียทำงานบนเอาต์พุต ในทางทฤษฎีแล้ว ไม่เชื่อเรื่องสถาปัตยกรรมอินพุตและโมเดล ฟังก์ชันการสูญเสียทำงานบนเอาต์พุต ในทางทฤษฎีแล้ว ไม่เชื่อเรื่องสถาปัตยกรรมอินพุตและโมเดล