Fairness Indicators for TensorBoard محاسبات آسان معیارهای انصاف را برای طبقهبندیکنندههای باینری و چند کلاسه ممکن میسازد. با این افزونه، می توانید ارزیابی های عادلانه را برای اجراهای خود تجسم کنید و به راحتی عملکرد را در گروه ها مقایسه کنید.
به طور خاص، Fairness Indicators برای TensorBoard به شما امکان میدهد عملکرد مدل را در گروههای مشخصی از کاربران ارزیابی و تجسم کنید. با فواصل اطمینان و ارزیابی در آستانه های متعدد نسبت به نتایج خود مطمئن باشید.
بسیاری از ابزارهای موجود برای ارزیابی نگرانی های انصاف در مجموعه داده ها و مدل های مقیاس بزرگ به خوبی کار نمی کنند. در گوگل برای ما مهم است که ابزارهایی داشته باشیم که بتوانند روی سیستم های میلیارد کاربر کار کنند. نشانگرهای انصاف به شما این امکان را می دهد که در هر اندازه مورد استفاده، در محیط TensorBoard یا در Colab ارزیابی کنید.
الزامات
برای نصب Fairness Indicators برای TensorBoard، اجرا کنید:
python3 -m virtualenv ~/tensorboard_demo
source ~/tensorboard_demo/bin/activate
pip install --upgrade pip
pip install fairness_indicators
pip install tensorboard-plugin-fairness-indicators
نسخه ی نمایشی
اگر میخواهید شاخصهای انصاف را در TensorBoard آزمایش کنید، میتوانید نمونه نتایج ارزیابی مدل TensorFlow (eval_config.json، فایلهای متریک و نمودارها) و یک ابزار demo.py
را از Google Cloud Platform با استفاده از دستور زیر دانلود کنید.
pip install gsutil
gsutil cp -r gs://tensorboard_plugin_fairness_indicators/ .
به دایرکتوری حاوی فایل های دانلود شده بروید.
cd tensorboard_plugin_fairness_indicators
این داده های ارزیابی بر اساس مجموعه داده های Civil Comments است که با استفاده از کتابخانه model_eval_lib Tensorflow's Model Analysis محاسبه شده است. همچنین شامل یک نمونه فایل داده خلاصه TensorBoard برای مرجع است.
ابزار demo.py
یک فایل داده خلاصه TensorBoard می نویسد که توسط TensorBoard برای نمایش داشبورد Fairness Indicators خوانده می شود (برای اطلاعات بیشتر در مورد فایل های داده خلاصه به آموزش TensorBoard مراجعه کنید).
پرچم هایی برای استفاده با ابزار demo.py
:
-
--logdir
: دایرکتوری که TensorBoard خلاصه را می نویسد -
--eval_result_output_dir
: فهرست حاوی نتایج ارزیابی ارزیابی شده توسط TFMA (دانلود در مرحله آخر)
ابزار demo.py
را برای نوشتن نتایج خلاصه در فهرست ورود به سیستم اجرا کنید:
python demo.py --logdir=. --eval_result_output_dir=.
اجرای TensorBoard:
tensorboard --logdir=.
این یک نمونه محلی را شروع می کند. پس از شروع نمونه محلی، پیوندی به ترمینال نمایش داده می شود. برای مشاهده داشبورد Fairness Indicators پیوند را در مرورگر خود باز کنید.
دمو کولب
Fairness_Indicators_TensorBoard_Plugin_Example_Colab.ipynb شامل یک نسخه آزمایشی سرتاسر برای آموزش و ارزیابی یک مدل و تجسم نتایج ارزیابی عادلانه در TensorBoard است.
استفاده
برای استفاده از شاخص های انصاف با داده ها و ارزیابی های خود:
یک مدل جدید آموزش دهید و با استفاده از
tensorflow_model_analysis.run_model_analysis
یاtensorflow_model_analysis.ExtractEvaluateAndWriteResult
API در model_eval_lib ارزیابی کنید. برای تکههای کد در مورد نحوه انجام این کار، Fairness Indicators colab را اینجا ببینید.با استفاده از
tensorboard_plugin_fairness_indicators.summary_v2
API خلاصه Fairness Indicators را بنویسید.writer = tf.summary.create_file_writer(<logdir>) with writer.as_default(): summary_v2.FairnessIndicators(<eval_result_dir>, step=1) writer.close()
TensorBoard را اجرا کنید
-
tensorboard --logdir=<logdir>
- اجرای ارزیابی جدید را با استفاده از منوی کشویی در سمت چپ داشبورد برای تجسم نتایج انتخاب کنید.
-