نمای کلی
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
MinDiff یک تکنیک اصلاح مدل است که به دنبال برابر کردن دو توزیع است. در عمل، می توان از آن برای متعادل کردن نرخ خطا در بخش های مختلف داده های شما با جریمه کردن تفاوت های توزیعی استفاده کرد.
معمولاً هنگام تلاش برای اطمینان از عدالت گروهی، از MinDiff استفاده میکنید، مانند به حداقل رساندن تفاوت در نرخ مثبت کاذب (FPR) یا نرخ منفی کاذب (FNR) بین یک تکه داده متعلق به یک کلاس حساس و یک برش با عملکرد بهتر. برای بحث عمیق در مورد معیارهای انصاف، ادبیات مربوط به این موضوع را مرور کنید. 1 2 3
MinDiff چگونه کار می کند؟
با توجه به دو مجموعه نمونه از مجموعه داده ما، MinDiff مدل را در طول آموزش به دلیل تفاوت در توزیع امتیازات بین دو مجموعه جریمه می کند. هر چه دو مجموعه بر اساس امتیازات پیش بینی کمتر متمایز شوند، جریمه اعمال شده کمتر خواهد بود.
جریمه با اضافه کردن یک جزء به ضرری که مدل برای آموزش استفاده می کند اعمال می شود. می توان آن را به عنوان اندازه گیری تفاوت در توزیع پیش بینی های مدل در نظر گرفت. همانطور که در نمودارهای زیر نشان داده شده است، همانطور که مدل آموزش می بیند، سعی می کند با نزدیک کردن توزیع ها به یکدیگر، جریمه را به حداقل برساند.

استفاده از MinDiff ممکن است با توجه به عملکرد در کار اصلی با معاوضه همراه باشد. MinDiff می تواند موثر باشد در حالی که عملکرد فراتر از نیازهای محصول را بدتر نمی کند، اما تصمیم برای ایجاد تعادل بین عملکرد و اثربخشی MinDiff باید به طور عمدی توسط صاحب محصول گرفته شود. برای مثالهایی که نحوه اجرای MinDiff را نشان میدهند، به دفترچه مطالعه موردی اصلاح مدل مراجعه کنید.
منابع
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Overview\n\n\u003cbr /\u003e\n\nMinDiff is a model remediation technique that seeks to equalize two distributions.\nIn practice, it can be used to balance error rates across different slices of\nyour data by penalizing distributional differences.\n\nTypically, you apply MinDiff when trying to ensure group fairness, such as\nminimizing the difference in either\nfalse positive rate (FPR) or false negative rate (FNR) between a slice of data\nbelonging to a sensitive class and a better-performing slice. For in-depth\ndiscussion of fairness metrics, review the literature on this subject.^[1](#fn1)^^[2](#fn2)^^[3](#fn3)^\n\nHow does MinDiff work?\n----------------------\n\nGiven two sets of examples from our dataset, MinDiff penalizes the model during\ntraining for differences in the distribution of scores between the two sets.\nThe less distinguishable the two sets are based on prediction scores, the\nsmaller the penalty that will be applied.\n\nThe penalty is applied by adding a component to the loss that the model is using\nfor training. It can be thought of as a measurement of the difference in\ndistribution of model predictions. As the model trains, it tries to minimize\nthe penalty by bringing the distributions closer together, as shown in the\ngraphs below.\n\nApplying MinDiff may come with tradeoffs with respect to performance on the original\ntask. MinDiff can be effective while not deteriorating\nperformance beyond product needs, but the decision to balance between performance\nand effectiveness of MinDiff\nshould be made deliberately by the product owner. For examples showing how to implement\nMinDiff, see [the model remediation case study notebook](/responsible_ai/model_remediation/min_diff/tutorials/min_diff_keras).\n\nResources\n---------\n\n- For a tutorial on applying MinDiff on a text classification model, see\n [MinDiff Keras notebook](/responsible_ai/model_remediation/min_diff/tutorials/min_diff_keras).\n\n- For a blog post on MinDiff on the TensorFlow blog, see\n [Applying MinDiff to improve model blog post](https://blog.tensorflow.org/2020/11/applying-mindiff-to-improve-model.html).\n\n- For the full Model Remediation library, see the\n [model-remediation Github repo](https://github.com/tensorflow/model-remediation).\n\n*** ** * ** ***\n\n1. Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R. (2011).\n [Fairness Through Awareness.](https://arxiv.org/abs/1104.3913) [↩](#fnref1)\n\n2. Hardt, M., Price, E., Srebro, N. (2016). [Equality of Opportunity in Supervised Learning.](https://arxiv.org/abs/1610.02413) [↩](#fnref2)\n\n3. Chouldechova, A. (2016). [Fair prediction with disparate impact: A study of bias in recidivism prediction instruments.](https://arxiv.org/abs/1610.07524) [↩](#fnref3)"]]