TensorFlow.org에서 보기 | Google Colab에서 실행 | GitHub에서 보기 | 노트북 다운로드 |
사례 연구 개요
이 사례 연구에서는이 적용됩니다 TensorFlow 모델 분석 및 공정성 지표를 각 행은 지상 진실 라벨, 다양한 기능을 포함하는 팬더 DataFrame, 그리고 모델 예측으로 저장된 데이터를 평가. 모델을 구성하고 교육하는 데 사용되는 프레임워크와 상관없이 이 워크플로를 사용하여 잠재적인 공정성 문제를 찾는 방법을 보여줍니다. 이 사례 연구에서와 같이 Pandas DataFrame으로 변환되면 모든 기계 학습 프레임워크(예: TensorFlow, JAX 등)의 결과를 분석할 수 있습니다.
이 연습을 위해, 우리는 개발 된 깊은 신경망 (DNN) 모델을 활용합니다 Tensorflow 격자와 윤리에 대한 형상 제약 로스쿨 입학위원회 (LSAC)에서 로스쿨 입학 데이터 세트를 사용하여 사례 연구를. 이 분류기는 로스쿨 입학 시험(LSAT) 점수와 학부 GPA를 기반으로 학생이 바를 통과할지 여부를 예측하려고 시도합니다. 이 분류기는 LSAT 점수와 학부 GPA를 기반으로 학생이 기준을 통과할지 여부를 예측하려고 시도합니다.
LSAC 데이터세트
이 사례 연구에서 사용 된 데이터 세트는 원래 '라는 연구를 위해 수집 된 LSAC 국립 세로 바 항로 연구. LSAC 연구 보고서 시리즈 린다 Wightman으로는 '1998 년 데이터 세트는 현재 호스팅 여기 .
- dnn_bar_pass_prediction 다음 DNN 모델에서 LSAT 예측.
- 성별 : 학생의 성별.
- LSAT : LSAT 점수는 학생이 받았다.
- pass_bar : 지상 진실 레이블은 학생이 결국 막대를 통과했는지 여부를 나타내는.
- 인종 : 학생의 레이스.
- ugpa : 학생의 학부 GPA.
!pip install -q -U pip==20.2
!pip install -q -U \
tensorflow-model-analysis==0.30.0 \
tensorflow-data-validation==0.30.0 \
tfx-bsl==0.30.0
필수 패키지 가져오기:
import os
import tempfile
import pandas as pd
import six.moves.urllib as urllib
import pprint
import tensorflow_model_analysis as tfma
from google.protobuf import text_format
import tensorflow as tf
tf.compat.v1.enable_v2_behavior()
데이터를 다운로드하고 초기 데이터 세트를 탐색합니다.
# Download the LSAT dataset and setup the required filepaths.
_DATA_ROOT = tempfile.mkdtemp(prefix='lsat-data')
_DATA_PATH = 'https://storage.googleapis.com/lawschool_dataset/bar_pass_prediction.csv'
_DATA_FILEPATH = os.path.join(_DATA_ROOT, 'bar_pass_prediction.csv')
data = urllib.request.urlopen(_DATA_PATH)
_LSAT_DF = pd.read_csv(data)
# To simpliy the case study, we will only use the columns that will be used for
# our model.
_COLUMN_NAMES = [
'dnn_bar_pass_prediction',
'gender',
'lsat',
'pass_bar',
'race1',
'ugpa',
]
_LSAT_DF.dropna()
_LSAT_DF['gender'] = _LSAT_DF['gender'].astype(str)
_LSAT_DF['race1'] = _LSAT_DF['race1'].astype(str)
_LSAT_DF = _LSAT_DF[_COLUMN_NAMES]
_LSAT_DF.head()
공정성 지표를 구성합니다.
DataFrame과 함께 공정성 지표를 사용할 때 고려해야 할 몇 가지 매개변수가 있습니다.
입력 DataFrame에는 모델의 예측 열과 레이블 열이 포함되어야 합니다. 기본적으로 공정성 지표는 예측 열라고 찾습니다
prediction
및 라벨 열라는label
당신의 DataFrame 내.- 이 값 중 하나를 찾지 못하면 KeyError가 발생합니다.
DataFrame 이외에, 당신은 또한 포함해야합니다
eval_config
계산하기에 메트릭을 계산하기 조각, 예 라벨 및 예측에 대한 열 이름을 메트릭을 포함해야한다.metrics_specs
계산에 메트릭을 설정합니다.FairnessIndicators
메트릭은 공정성 메트릭을 렌더링해야합니다 그리고 당신은 추가 옵션 메트릭의 목록을 볼 수 있습니다 여기에 .slicing_specs
당신이 조사에 관심이 기능을 지정하는 옵션 슬라이스 매개 변수입니다. 이 사례 연구 내에서 race1이 사용되지만 이 값을 다른 기능(예: 이 DataFrame 컨텍스트의 성별)으로 설정할 수도 있습니다. 경우slicing_specs
제공되지 않는 모든 기능이 포함됩니다.당신의 DataFrame 기본 다른 레이블 또는 예측 열이 포함 된 경우
prediction
또는label
, 당신은 구성 할 수 있습니다label_key
및prediction_key
새로운 값을.
경우
output_path
지정되지 않은 임시 디렉토리가 생성됩니다.
# Specify Fairness Indicators in eval_config.
eval_config = text_format.Parse("""
model_specs {
prediction_key: 'dnn_bar_pass_prediction',
label_key: 'pass_bar'
}
metrics_specs {
metrics {class_name: "AUC"}
metrics {
class_name: "FairnessIndicators"
config: '{"thresholds": [0.50, 0.90]}'
}
}
slicing_specs {
feature_keys: 'race1'
}
slicing_specs {}
""", tfma.EvalConfig())
# Run TensorFlow Model Analysis.
eval_result = tfma.analyze_raw_data(
data=_LSAT_DF,
eval_config=eval_config,
output_path=_DATA_ROOT)
WARNING:apache_beam.runners.interactive.interactive_environment:Dependencies required for Interactive Beam PCollection visualization are not available, please use: `pip install apache-beam[interactive]` to install necessary dependencies to enable all data visualization features. WARNING:apache_beam.io.tfrecordio:Couldn't find python-snappy so the implementation of _TFRecordUtil._masked_crc32c is not as fast as it could be. WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow_model_analysis/writers/metrics_plots_and_validations_writer.py:113: tf_record_iterator (from tensorflow.python.lib.io.tf_record) is deprecated and will be removed in a future version. Instructions for updating: Use eager execution and: `tf.data.TFRecordDataset(path)` WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow_model_analysis/writers/metrics_plots_and_validations_writer.py:113: tf_record_iterator (from tensorflow.python.lib.io.tf_record) is deprecated and will be removed in a future version. Instructions for updating: Use eager execution and: `tf.data.TFRecordDataset(path)`
공정성 지표로 모델 성능을 살펴보십시오.
공정성 지표를 실행한 후 모델 성능을 분석하기 위해 선택한 다양한 메트릭을 시각화할 수 있습니다. 이 사례 연구에는 공정성 지표를 포함하고 AUC를 임의로 선택했습니다.
각 레이스 슬라이스에 대한 전체 AUC를 처음 볼 때 모델 성능에서 약간의 불일치를 볼 수 있지만 틀림없이 놀라운 것은 아닙니다.
- 아시아 : 0.58
- 블랙 : 0.58
- 스페인 : 0.58
- 기타 : 0.64
- 화이트 : 0.6
그러나 인종별로 나눈 위음성 비율을 볼 때 우리 모델은 사용자가 다른 비율로 막대를 통과할 가능성을 다시 잘못 예측하고 이번에는 많이 그렇습니다.
- 아시아 : 0.01
- 블랙 : 0.05
- 스페인 : 0.02
- 기타 : 0.01
- 화이트 : 0.01
가장 주목할 만한 것은 흑인 학생과 백인 학생의 차이가 약 380%라는 것을 의미합니다. 이는 우리 모델이 흑인 학생이 통과하지 못할 것이라고 잘못 예측할 가능성이 미성년 학생보다 거의 4배 더 높다는 것을 의미합니다. 우리가 이 노력을 계속한다면 실무자는 이 결과를 모든 배경의 사람들에게 자신의 모델이 잘 작동하는지 확인하는 데 더 많은 시간을 할애해야 한다는 신호로 사용할 수 있습니다.
# Render Fairness Indicators.
tfma.addons.fairness.view.widget_view.render_fairness_indicator(eval_result)
FairnessIndicatorViewer(slicingMetrics=[{'sliceValue': 'Overall', 'slice': 'Overall', 'metrics': {'auc': {'dou…
tfma.평가 결과
eval_result
객체에서 위의 렌더링 render_fairness_indicator()
, 프로그램에 TFMA 결과를 읽을 수 있습니다 자신의 API가 있습니다.
get_slice_names()
및 get_metric_names()
평가된 슬라이스 및 메트릭을 가져오려면 해당 함수를 사용할 수 있습니다.
pp = pprint.PrettyPrinter()
print("Slices:")
pp.pprint(eval_result.get_slice_names())
print("\nMetrics:")
pp.pprint(eval_result.get_metric_names())
Slices: [(), (('race1', 'white'),), (('race1', 'hisp'),), (('race1', 'asian'),), (('race1', 'black'),), (('race1', 'nan'),), (('race1', 'other'),)] Metrics: ['fairness_indicators_metrics/negative_rate@0.9', 'fairness_indicators_metrics/true_negative_rate@0.5', 'fairness_indicators_metrics/false_positive_rate@0.9', 'fairness_indicators_metrics/false_discovery_rate@0.9', 'fairness_indicators_metrics/false_positive_rate@0.5', 'auc', 'fairness_indicators_metrics/false_discovery_rate@0.5', 'fairness_indicators_metrics/false_omission_rate@0.9', 'fairness_indicators_metrics/false_omission_rate@0.5', 'fairness_indicators_metrics/true_positive_rate@0.5', 'fairness_indicators_metrics/positive_rate@0.9', 'fairness_indicators_metrics/false_negative_rate@0.9', 'fairness_indicators_metrics/negative_rate@0.5', 'fairness_indicators_metrics/true_positive_rate@0.9', 'fairness_indicators_metrics/true_negative_rate@0.9', 'fairness_indicators_metrics/false_negative_rate@0.5', 'fairness_indicators_metrics/positive_rate@0.5']
get_metrics_for_slice()
및 get_metrics_for_all_slices()
특정 조각에 대한 메트릭을 얻고 싶은 경우에, 당신이 사용할 수있는 get_metrics_for_slice()
. 그것은에 대한 사전 매핑 메트릭 이름 반환 메트릭 값을 .
baseline_slice = ()
black_slice = (('race1', 'black'),)
print("Baseline metric values:")
pp.pprint(eval_result.get_metrics_for_slice(baseline_slice))
print("Black metric values:")
pp.pprint(eval_result.get_metrics_for_slice(black_slice))
Baseline metric values: {'auc': {'doubleValue': 0.6286112666130066}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.052173524948674464}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.0502241746297722}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 4.7085412939071474e-05}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.012524719841793012}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.8159509202453987}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.9486740804106074}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 4.462891060829205e-05}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.014549024858303209}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 0.9999553710893917}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9854509751416968}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.05132591958939264}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 0.9999529145870609}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.987475280158207} } Black metric values: {'auc': {'doubleValue': 0.5779293775558472}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.22189128816083395}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.21048451151707703}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.04880382775119617}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.6071428571428571}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.889261744966443}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.06254653760238273}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9374534623976173}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.11073825503355705}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.9511961722488038} }
모든 조각에 대한 메트릭을 얻고 싶다면, get_metrics_for_all_slices()
사전 매핑에게 대응하는 각 슬라이스 반환 get_metrics_for_slices(slice)
.
pp.pprint(eval_result.get_metrics_for_all_slices())
{(): {'auc': {'doubleValue': 0.6286112666130066}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.052173524948674464}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.0502241746297722}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 4.7085412939071474e-05}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.012524719841793012}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.8159509202453987}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.9486740804106074}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 4.462891060829205e-05}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.014549024858303209}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 0.9999553710893917}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9854509751416968}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.05132591958939264}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 0.9999529145870609}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.987475280158207} }, (('race1', 'asian'),): {'auc': {'doubleValue': 0.5817844271659851}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.07803790412486064}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.07674943566591422}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.010882708585247884}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.8181818181818182}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.9714285714285714}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.012263099219620958}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.987736900780379}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.02857142857142857}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.9891172914147521} }, (('race1', 'black'),): {'auc': {'doubleValue': 0.5779293775558472}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.22189128816083395}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.21048451151707703}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.04880382775119617}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.6071428571428571}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.889261744966443}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.06254653760238273}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9374534623976173}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.11073825503355705}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.9511961722488038} }, (('race1', 'hisp'),): {'auc': {'doubleValue': 0.5754180550575256}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.124634858812074}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.12139303482587065}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.017797552836484983}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.7272727272727273}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.953125}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.021421616358325218}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9785783836416748}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.046875}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.982202447163515} }, (('race1', 'nan'),): {'auc': {'doubleValue': 0.7142857313156128}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.125}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.125}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 1.0}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.0}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 1.0} }, (('race1', 'other'),): {'auc': {'doubleValue': 0.6389539241790771}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.10294117647058823}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.09523809523809523}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.01366120218579235}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 'NaN'}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.5555555555555556}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.9047619047619048}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.022058823529411766}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9779411764705882}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.09523809523809523}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.9863387978142076} }, (('race1', 'white'),): {'auc': {'doubleValue': 0.5987964272499084}, 'fairness_indicators_metrics/false_discovery_rate@0.5': {'doubleValue': 0.03360940422121293}, 'fairness_indicators_metrics/false_discovery_rate@0.9': {'doubleValue': 0.03316050982933679}, 'fairness_indicators_metrics/false_negative_rate@0.5': {'doubleValue': 5.52883286338254e-05}, 'fairness_indicators_metrics/false_negative_rate@0.9': {'doubleValue': 0.010228340797257698}, 'fairness_indicators_metrics/false_omission_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_omission_rate@0.9': {'doubleValue': 0.925}, 'fairness_indicators_metrics/false_positive_rate@0.5': {'doubleValue': 1.0}, 'fairness_indicators_metrics/false_positive_rate@0.9': {'doubleValue': 0.9761526232114467}, 'fairness_indicators_metrics/negative_rate@0.5': {'doubleValue': 5.3430220132506944e-05}, 'fairness_indicators_metrics/negative_rate@0.9': {'doubleValue': 0.010686044026501388}, 'fairness_indicators_metrics/positive_rate@0.5': {'doubleValue': 0.9999465697798675}, 'fairness_indicators_metrics/positive_rate@0.9': {'doubleValue': 0.9893139559734986}, 'fairness_indicators_metrics/true_negative_rate@0.5': {'doubleValue': 0.0}, 'fairness_indicators_metrics/true_negative_rate@0.9': {'doubleValue': 0.02384737678855326}, 'fairness_indicators_metrics/true_positive_rate@0.5': {'doubleValue': 0.9999447116713662}, 'fairness_indicators_metrics/true_positive_rate@0.9': {'doubleValue': 0.9897716592027423} } }
결론
이 사례 연구에서 우리는 데이터 세트를 Pandas DataFrame으로 가져온 다음 공정성 지표로 분석했습니다. 모델의 결과와 기본 데이터를 이해하는 것은 모델이 유해한 편향을 반영하지 않도록 하는 중요한 단계입니다. 이 사례 연구의 맥락에서 우리는 LSAC 데이터 세트와 이 데이터의 예측이 학생 인종에 의해 어떻게 영향을 받을 수 있는지 조사했습니다. "무엇이 불공평하고 무엇이 공정한가"라는 개념은 교육, 고용 및 기계 학습을 포함하여 50년 넘게 여러 분야에서 도입되었습니다. 1 공정성 표시는 모델을 학습 컴퓨터의 도움 완화 공정성 우려하는 도구입니다.
더에 대한 공정성 문제가보고 배울 공정성 표시 등 및 자원 사용에 대한 자세한 내용은 여기 .
- Hutchinson, B., Mitchell, M. (2018). 50년의 테스트(불공정): 머신 러닝을 위한 교훈. https://arxiv.org/abs/1811.10104
부록
다음은 ML 모델을 Pandas DataFrame으로 변환하는 데 도움이 되는 몇 가지 함수입니다.
# TensorFlow Estimator to Pandas DataFrame:
# _X_VALUE = # X value of binary estimator.
# _Y_VALUE = # Y value of binary estimator.
# _GROUND_TRUTH_LABEL = # Ground truth value of binary estimator.
def _get_predicted_probabilities(estimator, input_df, get_input_fn):
predictions = estimator.predict(
input_fn=get_input_fn(input_df=input_df, num_epochs=1))
return [prediction['probabilities'][1] for prediction in predictions]
def _get_input_fn_law(input_df, num_epochs, batch_size=None):
return tf.compat.v1.estimator.inputs.pandas_input_fn(
x=input_df[[_X_VALUE, _Y_VALUE]],
y=input_df[_GROUND_TRUTH_LABEL],
num_epochs=num_epochs,
batch_size=batch_size or len(input_df),
shuffle=False)
def estimator_to_dataframe(estimator, input_df, num_keypoints=20):
x = np.linspace(min(input_df[_X_VALUE]), max(input_df[_X_VALUE]), num_keypoints)
y = np.linspace(min(input_df[_Y_VALUE]), max(input_df[_Y_VALUE]), num_keypoints)
x_grid, y_grid = np.meshgrid(x, y)
positions = np.vstack([x_grid.ravel(), y_grid.ravel()])
plot_df = pd.DataFrame(positions.T, columns=[_X_VALUE, _Y_VALUE])
plot_df[_GROUND_TRUTH_LABEL] = np.ones(len(plot_df))
predictions = _get_predicted_probabilities(
estimator=estimator, input_df=plot_df, get_input_fn=_get_input_fn_law)
return pd.DataFrame(
data=np.array(np.reshape(predictions, x_grid.shape)).flatten())