نظرة عامة
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
MinDiff هي تقنية معالجة نموذجية تسعى إلى مساواة التوزيعتين. ومن الناحية العملية، يمكن استخدامه لموازنة معدلات الخطأ عبر شرائح مختلفة من بياناتك عن طريق معاقبة الاختلافات التوزيعية.
عادةً، يمكنك تطبيق MinDiff عند محاولة ضمان عدالة المجموعة، مثل تقليل الفرق في المعدل الإيجابي الخاطئ (FPR) أو المعدل السلبي الخاطئ (FNR) بين شريحة البيانات التي تنتمي إلى فئة حساسة وشريحة ذات أداء أفضل. لإجراء مناقشة متعمقة لمقاييس العدالة، قم بمراجعة الأدبيات المتعلقة بهذا الموضوع. 1 2 3
كيف يعمل MinDiff؟
بالنظر إلى مجموعتين من الأمثلة من مجموعة البيانات الخاصة بنا، فإن MinDiff يعاقب النموذج أثناء التدريب بسبب الاختلافات في توزيع الدرجات بين المجموعتين. كلما كان التمييز بين المجموعتين أقل بناءً على درجات التنبؤ، كلما كانت العقوبة التي سيتم تطبيقها أصغر.
يتم تطبيق العقوبة عن طريق إضافة مكون إلى الخسارة التي يستخدمها النموذج للتدريب. ويمكن اعتباره قياسًا للاختلاف في توزيع تنبؤات النموذج. أثناء تدريب النموذج، يحاول تقليل العقوبة عن طريق تقريب التوزيعات من بعضها البعض، كما هو موضح في الرسوم البيانية أدناه.

قد يأتي تطبيق MinDiff مع مقايضات فيما يتعلق بالأداء في المهمة الأصلية. يمكن أن يكون MinDiff فعالاً مع عدم تدهور الأداء بما يتجاوز احتياجات المنتج، ولكن يجب أن يتم اتخاذ قرار الموازنة بين الأداء وفعالية MinDiff عن عمد من قبل مالك المنتج. للحصول على أمثلة توضح كيفية تنفيذ MinDiff، راجع دفتر دراسة حالة معالجة النموذج .
موارد
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-07-25 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-25 (حسب التوقيت العالمي المتفَّق عليه)"],[],[],null,["# Overview\n\n\u003cbr /\u003e\n\nMinDiff is a model remediation technique that seeks to equalize two distributions.\nIn practice, it can be used to balance error rates across different slices of\nyour data by penalizing distributional differences.\n\nTypically, you apply MinDiff when trying to ensure group fairness, such as\nminimizing the difference in either\nfalse positive rate (FPR) or false negative rate (FNR) between a slice of data\nbelonging to a sensitive class and a better-performing slice. For in-depth\ndiscussion of fairness metrics, review the literature on this subject.^[1](#fn1)^^[2](#fn2)^^[3](#fn3)^\n\nHow does MinDiff work?\n----------------------\n\nGiven two sets of examples from our dataset, MinDiff penalizes the model during\ntraining for differences in the distribution of scores between the two sets.\nThe less distinguishable the two sets are based on prediction scores, the\nsmaller the penalty that will be applied.\n\nThe penalty is applied by adding a component to the loss that the model is using\nfor training. It can be thought of as a measurement of the difference in\ndistribution of model predictions. As the model trains, it tries to minimize\nthe penalty by bringing the distributions closer together, as shown in the\ngraphs below.\n\nApplying MinDiff may come with tradeoffs with respect to performance on the original\ntask. MinDiff can be effective while not deteriorating\nperformance beyond product needs, but the decision to balance between performance\nand effectiveness of MinDiff\nshould be made deliberately by the product owner. For examples showing how to implement\nMinDiff, see [the model remediation case study notebook](/responsible_ai/model_remediation/min_diff/tutorials/min_diff_keras).\n\nResources\n---------\n\n- For a tutorial on applying MinDiff on a text classification model, see\n [MinDiff Keras notebook](/responsible_ai/model_remediation/min_diff/tutorials/min_diff_keras).\n\n- For a blog post on MinDiff on the TensorFlow blog, see\n [Applying MinDiff to improve model blog post](https://blog.tensorflow.org/2020/11/applying-mindiff-to-improve-model.html).\n\n- For the full Model Remediation library, see the\n [model-remediation Github repo](https://github.com/tensorflow/model-remediation).\n\n*** ** * ** ***\n\n1. Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R. (2011).\n [Fairness Through Awareness.](https://arxiv.org/abs/1104.3913) [↩](#fnref1)\n\n2. Hardt, M., Price, E., Srebro, N. (2016). [Equality of Opportunity in Supervised Learning.](https://arxiv.org/abs/1610.02413) [↩](#fnref2)\n\n3. Chouldechova, A. (2016). [Fair prediction with disparate impact: A study of bias in recidivism prediction instruments.](https://arxiv.org/abs/1610.07524) [↩](#fnref3)"]]