MinDiff یک تکنیک اصلاح مدل است که به دنبال برابر کردن دو توزیع است. در عمل، میتوان از آن برای متعادل کردن نرخ خطا در بخشهای مختلف دادههای شما با جریمه کردن تفاوتهای توزیعی استفاده کرد.
معمولاً هنگام تلاش برای اطمینان از عادلانه بودن گروه، از MinDiff استفاده میکنید، مانند به حداقل رساندن تفاوت در نرخ مثبت کاذب (FPR) یا نرخ منفی کاذب (FNR) بین تکهای از دادههای متعلق به یک کلاس حساس و یک برش با عملکرد بهتر. برای بحث عمیق در مورد معیارهای انصاف، ادبیات مربوط به این موضوع را مرور کنید. 1 2 3
MinDiff چگونه کار می کند؟
با توجه به دو مجموعه نمونه از مجموعه داده ما، MinDiff مدل را در طول آموزش به دلیل تفاوت در توزیع امتیازات بین دو مجموعه جریمه می کند. هر چه دو مجموعه بر اساس امتیازات پیش بینی کمتر متمایز شوند، جریمه اعمال شده کمتر خواهد بود.
جریمه با اضافه کردن یک جزء به ضرری که مدل برای آموزش استفاده می کند اعمال می شود. می توان آن را به عنوان اندازه گیری تفاوت در توزیع پیش بینی های مدل در نظر گرفت. همانطور که در نمودارهای زیر نشان داده شده است، همانطور که مدل آموزش می بیند، سعی می کند با نزدیک کردن توزیع ها به یکدیگر، جریمه را به حداقل برساند.
استفاده از MinDiff ممکن است با توجه به عملکرد در کار اصلی با معاوضه همراه باشد. MinDiff می تواند موثر باشد در حالی که عملکرد فراتر از نیاز محصول را بدتر نمی کند، اما تصمیم برای ایجاد تعادل بین عملکرد و اثربخشی MinDiff باید عمداً توسط صاحب محصول گرفته شود. برای مثالهایی که نحوه اجرای MinDiff را نشان میدهند، به دفترچه مطالعه موردی اصلاح مدل مراجعه کنید.
منابع
برای آموزش استفاده از MinDiff در مدل طبقهبندی متن، به دفترچه یادداشت MinDiff Keras مراجعه کنید.
برای پست وبلاگ در MinDiff در وبلاگ TensorFlow، به کاربرد MinDiff برای بهبود پست وبلاگ مدل مراجعه کنید.
برای کتابخانه کامل Model Remediation، به Repo Github مدل-remediation مراجعه کنید.
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R. (2011). انصاف از طریق آگاهی. ↩
هاردت، ام.، پرایس، ای.، سربرو، ن. (2016). برابری فرصت ها در یادگیری تحت نظارت. ↩
Chouldechova، A. (2016). پیشبینی منصفانه با تأثیر متفاوت: مطالعه سوگیری در ابزارهای پیشبینی تکرار جرم ↩