کتاب راهنمای هوش مصنوعی TensorFlow
مقدمه
در سال 2018، گوگل اصول هوش مصنوعی خود را معرفی کرد که توسعه اخلاقی و استفاده از هوش مصنوعی در تحقیقات و محصولات را هدایت می کند. در راستای این اصول، تیم TensorFlow تلاش میکند تا ابزارها و تکنیکهایی را در اختیار توسعهدهندگان قرار دهد تا به شیوههای هوش مصنوعی مسئول (RAI) پایبند باشند.
در این کتاب راهنما، راهنمایی در مورد نحوه استفاده از ابزارها در جعبه ابزار هوش مصنوعی مسئول برای ایجاد یک گردش کار منسجم که مورد استفاده خاص و نیازهای محصول شما را برآورده می کند، خواهید یافت. ابزارهای این کتاب راهنما شامل مواردی است که می تواند در حوزه هایی مانند عدالت و شفافیت به کار رود. این یک حوزه توسعه فعال در Google است، و میتوانید انتظار داشته باشید که این کتاب راهنما شامل راهنمایی برای حوزههای مرتبط دیگر، مانند حریم خصوصی ، توضیحپذیری ، و استحکام باشد.
سازمان کتاب راهنما
مستندات و راهنمایی API
برای هر ابزار، راهنمایی در مورد اینکه ابزار چه کاری انجام می دهد، جایی که ممکن است در جریان کاری شما قرار بگیرد و ملاحظات مختلف استفاده از آن ارائه می شود. در صورت لزوم، صفحه «نصب» در برگه «راهنما» برای هر ابزار، و مستندات API مفصل در برگه «API» گنجانده شده است. برای برخی از ابزارها، راهنماهای فنی ارائه شده است که مفاهیمی را نشان می دهد که کاربران ممکن است هنگام به کارگیری آنها چالش برانگیز باشند.
آموزش ها
در صورت امکان، آموزش های نوت بوک ارائه می شود که نشان می دهد چگونه ابزارهای موجود در جعبه ابزار RAI را می توان اعمال کرد. اینها معمولاً نمونه های اسباب بازی هستند که برای جلب توجه یک ابزار خاص انتخاب می شوند. اگر در مورد این موارد سؤالی دارید، یا اگر موارد استفاده دیگری وجود دارد که میخواهید بررسی شود، لطفاً با تیم TensorFlow RAI در tf-responsible-ai@google.com تماس بگیرید .
آموزش های زیر می تواند شما را با ابزارهایی برای ارزیابی و اصلاح عادلانه مدل شروع کند.
مقدمه ای بر شاخص های انصاف
مقدمه ای بر شاخص های انصاف که در نوت بوک Google Colab اجرا می شوند. روی دکمه Run in Google Colab کلیک کنید تا خودتان آن را امتحان کنید.شاخصهای انصاف با جاسازیهای متنی TF Hub
برای ارزیابی معیارهای عادلانه رایج در مدلهای جاسازی متن TF Hub با استفاده از مجموعه داده نظرات Civil ، از شاخصهای انصاف استفاده کنید.مطالعه موردی نسب شاخصهای انصاف
برای بررسی نگرانی های مربوط به عدالت در مجموعه داده COMPAS ، از شاخص های انصاف استفاده کنید.از MinDiff با Keras استفاده کنید
MinDiff را امتحان کنید، یک تکنیک اصلاح مدل که میتواند عملکرد مدل را در معیارهای عادلانه که معمولاً استفاده میشود، بهبود بخشد.کارت های مدل را با TFX تولید کنید
از جعبه ابزار مدل کارت با TFX برای تولید کارت های مدل استفاده کنید.ایجاد گزارش های حفظ حریم خصوصی
با استفاده از گزارش حریم خصوصی TF، حریم خصوصی مدل خود را ارزیابی کنید.ملاحظات اضافی
طراحی یک گردش کار مسئولیتپذیر هوش مصنوعی مستلزم یک رویکرد متفکرانه در هر مرحله از چرخه حیات ML، از فرمولبندی مشکل تا استقرار و نظارت است. فراتر از جزئیات پیاده سازی فنی خود، برای به کارگیری این ابزارها باید تصمیمات اجتماعی و فنی مختلفی بگیرید. برخی از ملاحظات رایج RAI که پزشکان ML باید رعایت کنند عبارتند از:
- برای اطمینان از عملکرد خوب مدلم در کدام دسته بندی جمعیتی نیاز دارم؟
- اگر برای انجام ارزیابی عادلانه باید برچسب های حساس را ذخیره کنم، چگونه باید تعادل بین عدالت و حریم خصوصی را در نظر بگیرم؟
- از چه معیارها یا تعاریفی برای ارزیابی عدالت استفاده کنم؟
- چه اطلاعاتی را باید در مصنوعات مدل و شفافیت دادهام لحاظ کنم؟
پاسخ به این سؤالات و بسیاری از سؤالات دیگر به موارد استفاده خاص و نیازهای محصول شما بستگی دارد. به این ترتیب، ما نمیتوانیم دقیقاً به شما بگوییم که چه کاری باید انجام دهید، اما راهنماییهایی را برای تصمیمگیری مسئولانه، با راهنماییهای مفید و پیوندهایی به روشهای تحقیق مرتبط در صورت امکان ارائه میکنیم. همانطور که گردش کار مسئول هوش مصنوعی خود را با TensorFlow توسعه می دهید، لطفاً بازخورد خود را در tf-responsible-ai@google.com ارائه دهید. درک آموختهها و چالشهای شما برای توانایی ما در ساخت محصولاتی که برای همه مفید است، حیاتی است.