ওভারভিউ
সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
MinDiff হল একটি মডেল প্রতিকারের কৌশল যা দুটি বিতরণকে সমান করতে চায়। অনুশীলনে, এটি আপনার ডেটার বিভিন্ন স্লাইস জুড়ে ত্রুটির হারের ভারসাম্য বজায় রাখতে ব্যবহার করা যেতে পারে বন্টনগত পার্থক্যকে শাস্তি দিয়ে।
সাধারণত, আপনি গোষ্ঠী ন্যায্যতা নিশ্চিত করার চেষ্টা করার সময় MinDiff প্রয়োগ করেন, যেমন একটি সংবেদনশীল শ্রেণীর ডেটার একটি স্লাইস এবং একটি ভাল-পারফর্মিং স্লাইসের মধ্যে মিথ্যা পজিটিভ রেট (FPR) বা মিথ্যা নেতিবাচক হার (FNR) এর মধ্যে পার্থক্য হ্রাস করা। ন্যায্যতা মেট্রিক্সের গভীর আলোচনার জন্য, এই বিষয়ে সাহিত্য পর্যালোচনা করুন। 1 2 3
MinDiff কিভাবে কাজ করে?
আমাদের ডেটাসেট থেকে উদাহরণের দুটি সেট দেওয়া হয়েছে, MinDiff দুটি সেটের মধ্যে স্কোর বিতরণে পার্থক্যের জন্য প্রশিক্ষণের সময় মডেলটিকে শাস্তি দেয়। ভবিষ্যদ্বাণী স্কোরের উপর ভিত্তি করে দুটি সেট যত কম আলাদা করা যায়, পেনাল্টি তত কম প্রয়োগ করা হবে।
মডেল প্রশিক্ষণের জন্য ব্যবহার করছে এমন ক্ষতির সাথে একটি উপাদান যোগ করে শাস্তি প্রয়োগ করা হয়। এটি মডেল ভবিষ্যদ্বাণীগুলির বিতরণের পার্থক্যের পরিমাপ হিসাবে বিবেচনা করা যেতে পারে। মডেল ট্রেনিং করার সময়, এটি নীচের গ্রাফে দেখানো হিসাবে, বিতরণগুলিকে কাছাকাছি এনে শাস্তি কমানোর চেষ্টা করে।

MinDiff প্রয়োগ করলে মূল কাজের পারফরম্যান্সের ক্ষেত্রে ট্রেডঅফ আসতে পারে। MinDiff কার্যকর হতে পারে যখন পণ্যের প্রয়োজনের বাইরে কর্মক্ষমতার অবনতি না হয়, তবে MinDiff-এর কার্যকারিতা এবং কার্যকারিতার মধ্যে ভারসাম্য বজায় রাখার সিদ্ধান্তটি পণ্যের মালিকের ইচ্ছাকৃতভাবে নেওয়া উচিত। MinDiff কিভাবে প্রয়োগ করতে হয় তা দেখানোর উদাহরণের জন্য, মডেল রিমিডিয়েশন কেস স্টাডি নোটবুকটি দেখুন।
সম্পদ
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-07-25 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-07-25 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[],null,["# Overview\n\n\u003cbr /\u003e\n\nMinDiff is a model remediation technique that seeks to equalize two distributions.\nIn practice, it can be used to balance error rates across different slices of\nyour data by penalizing distributional differences.\n\nTypically, you apply MinDiff when trying to ensure group fairness, such as\nminimizing the difference in either\nfalse positive rate (FPR) or false negative rate (FNR) between a slice of data\nbelonging to a sensitive class and a better-performing slice. For in-depth\ndiscussion of fairness metrics, review the literature on this subject.^[1](#fn1)^^[2](#fn2)^^[3](#fn3)^\n\nHow does MinDiff work?\n----------------------\n\nGiven two sets of examples from our dataset, MinDiff penalizes the model during\ntraining for differences in the distribution of scores between the two sets.\nThe less distinguishable the two sets are based on prediction scores, the\nsmaller the penalty that will be applied.\n\nThe penalty is applied by adding a component to the loss that the model is using\nfor training. It can be thought of as a measurement of the difference in\ndistribution of model predictions. As the model trains, it tries to minimize\nthe penalty by bringing the distributions closer together, as shown in the\ngraphs below.\n\nApplying MinDiff may come with tradeoffs with respect to performance on the original\ntask. MinDiff can be effective while not deteriorating\nperformance beyond product needs, but the decision to balance between performance\nand effectiveness of MinDiff\nshould be made deliberately by the product owner. For examples showing how to implement\nMinDiff, see [the model remediation case study notebook](/responsible_ai/model_remediation/min_diff/tutorials/min_diff_keras).\n\nResources\n---------\n\n- For a tutorial on applying MinDiff on a text classification model, see\n [MinDiff Keras notebook](/responsible_ai/model_remediation/min_diff/tutorials/min_diff_keras).\n\n- For a blog post on MinDiff on the TensorFlow blog, see\n [Applying MinDiff to improve model blog post](https://blog.tensorflow.org/2020/11/applying-mindiff-to-improve-model.html).\n\n- For the full Model Remediation library, see the\n [model-remediation Github repo](https://github.com/tensorflow/model-remediation).\n\n*** ** * ** ***\n\n1. Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R. (2011).\n [Fairness Through Awareness.](https://arxiv.org/abs/1104.3913) [↩](#fnref1)\n\n2. Hardt, M., Price, E., Srebro, N. (2016). [Equality of Opportunity in Supervised Learning.](https://arxiv.org/abs/1610.02413) [↩](#fnref2)\n\n3. Chouldechova, A. (2016). [Fair prediction with disparate impact: A study of bias in recidivism prediction instruments.](https://arxiv.org/abs/1610.07524) [↩](#fnref3)"]]