Buku Panduan AI Bertanggung Jawab TensorFlow

Pada tahun 2018, Google memperkenalkan Prinsip AI -nya, yang memandu pengembangan etis dan penggunaan AI dalam penelitian dan produk. Sejalan dengan prinsip-prinsip ini, tim TensorFlow bekerja untuk menyediakan alat dan teknik bagi developer untuk mematuhi praktik AI (RAI) yang Bertanggung Jawab.

Dalam buku panduan ini, Anda akan menemukan panduan tentang cara menerapkan alat di Responsible AI Toolkit untuk mengembangkan alur kerja yang kohesif yang melayani kasus penggunaan khusus dan kebutuhan produk Anda. Alat-alat dalam buku panduan ini mencakup alat-alat yang dapat diterapkan di bidang-bidang seperti keadilan dan transparansi . Ini adalah area pengembangan aktif di Google, dan Anda dapat mengharapkan buku panduan ini menyertakan panduan untuk area terkait tambahan, seperti privasi , kemampuan menjelaskan , dan ketahanan.

Organisasi Buku Panduan

Untuk setiap alat, panduan tentang apa yang dilakukan alat, di mana dalam alur kerja Anda mungkin cocok, dan berbagai pertimbangan penggunaannya disediakan. Jika memungkinkan, halaman "Instal" disertakan dalam tab "Panduan" untuk setiap alat, dan dokumentasi API terperinci di tab "API". Untuk beberapa alat, disediakan panduan teknis yang menunjukkan konsep yang mungkin sulit bagi pengguna saat menerapkannya.

Jika memungkinkan, tutorial buku catatan disediakan yang menunjukkan bagaimana alat dalam RAI Toolkit dapat diterapkan. Ini biasanya contoh mainan yang dipilih untuk menyoroti alat tertentu. Jika Anda memiliki pertanyaan tentang ini, atau jika ada kasus penggunaan tambahan yang ingin Anda jelajahi, hubungi tim RAI TensorFlow di tf-responsible-ai@google.com .

Tutorial berikut dapat membantu Anda memulai dengan alat untuk evaluasi dan perbaikan keadilan model.

Pengantar Indikator Kewajaran yang berjalan di notebook Google Colab. Klik tombol Jalankan di Google Colab untuk mencobanya sendiri.
Terapkan Indikator Kewajaran untuk mengevaluasi metrik keadilan yang umum digunakan dalam model Penyematan Teks Hub TF menggunakan Kumpulan Data Komentar Sipil .
Terapkan Indikator Kewajaran untuk memeriksa masalah keadilan dalam Kumpulan Data COMPAS .
Coba MinDiff, teknik remediasi model yang dapat meningkatkan performa model di seluruh metrik keadilan yang umum digunakan.
Gunakan Toolkit Model Card dengan TFX untuk menghasilkan Model Cards .
Nilai privasi model Anda menggunakan Laporan Privasi TF.

Pertimbangan Tambahan

Merancang alur kerja AI yang bertanggung jawab memerlukan pendekatan yang cermat di setiap tahap siklus hidup ML, mulai dari perumusan masalah hingga penerapan dan pemantauan. Di luar detail implementasi teknis Anda, Anda perlu membuat berbagai keputusan sosioteknik untuk menerapkan alat ini. Beberapa pertimbangan RAI umum yang perlu dilakukan oleh praktisi ML meliputi:

  • Di kategori demografis mana saya perlu memastikan model saya berperforma baik?
  • Jika saya harus menyimpan label sensitif untuk melakukan evaluasi keadilan, bagaimana saya harus mempertimbangkan tradeoff antara keadilan dan privasi?
  • Metrik atau definisi apa yang harus saya gunakan untuk mengevaluasi keadilan?
  • Informasi apa yang harus saya sertakan dalam model dan artefak transparansi data saya?

Jawaban atas pertanyaan ini dan banyak pertanyaan lainnya bergantung pada kasus penggunaan khusus dan kebutuhan produk Anda. Karena itu, kami tidak dapat memberi tahu Anda apa yang harus dilakukan, tetapi akan memberikan panduan untuk membuat keputusan yang bertanggung jawab, dengan tips dan tautan bermanfaat ke metode penelitian yang relevan bila memungkinkan. Saat Anda mengembangkan alur kerja AI yang bertanggung jawab dengan TensorFlow, berikan masukan di tf-responsible-ai@google.com . Memahami pembelajaran dan tantangan Anda sangat penting bagi kemampuan kami untuk membuat produk yang cocok untuk semua orang.