TensorFlow を使用して責任ある AI への取り組みを ML ワークフローに統合する方法をご確認ください

TensorFlow は ML コミュニティとさまざまなリソースやツールを共有することで、責任ある AI 開発の推進に取り組んでいます。

責任ある AI とは

AI 開発により、現実世界の困難な問題を解決する新たなチャンスが生まれています。同時に、誰にとっても有意義な AI システムを構築するための最善の方法に関して、新たに考慮すべき点があります。

AI に関するおすすめのベスト プラクティス

AI システムを設計する際は、ソフトウェア開発のベスト プラクティスに沿って進めつつ、ML に対しては人間中心のアプローチを取る必要があります。

公平さ

さまざまなセクターや社会に AI の影響が広がる今日、誰にとっても公正でインクルーシブなシステムを目指すことが重要です。

解釈可能性

意図したとおりに動作させるには、AI システムを理解し、信頼することが大切です

プライバシー

機密データを使用してモデルをトレーニングする際はプライバシー保護対策が必要です

セキュリティ

潜在的な脅威を特定して、AI システムの安全性を確保できます

ML ワークフローで責任ある AI を

責任ある AI への取り組みは、ML ワークフローのあらゆる段階に組み込めます。各段階で検討すべき重要な点は、以下のとおりです。

システムはどのようなユーザーを対象としているか?

システムによる予測や推奨、決定の持つ真の影響力を評価するためには、実際のユーザーがどのようにシステムを使用しているのかを知ることが重要です。開発の早い段階で、多様なユーザーからフィードバックをもらいましょう。

使用しているデータは代表的なデータセットか?

データのサンプリングは、実際のユーザーに応じて(例: 全年齢層が対象なのに高齢者のトレーニング データしかない)、かつ実際の状況に応じて(例: 年間を通じて使用するのに夏期のトレーニング データしかない)行われていますか?

現実世界や人間のバイアスがデータに含まれていないか?

データの根底にあるバイアスは、既存の固定概念を強化する複雑なフィードバック ループの原因になる可能性があります。

どのような方法でモデルのトレーニングを行えばよいか?

モデルに公平性と解釈可能性をもたらし、プライバシーとセキュリティに配慮したトレーニング方法を選びます。

モデルのパフォーマンスをどのように把握するか?

さまざまなユーザー、ユースケース、使用コンテキストにわたって現実世界のシナリオでのユーザー エクスペリエンスを評価します。まず dogfood でテストを繰り返し実行し、リリース後も継続してテストを行います。

複雑なフィードバック ループが存在していないか?

システムの全体的な設計に細部まで慎重に取り組んだとしても、機械学習モデルを現実世界のデータに適用した場合、100% 完璧に動作することはめったにありません。稼働中のプロダクトに問題が発生した場合は、その問題が、既存の社会的なデメリットと合致するものか、また短期および長期ソリューションによってどのように影響を受けるかを検討してください。

責任ある AI のための TensorFlow 用の各種ツール

TensorFlow エコシステムには、上記の項目に取り組むためのさまざまなツールとリソースがそろっています。

ステップ 1

問題の定義

次のリソースを使用して、責任ある AI を念頭に置いたモデルを設計します。

People + AI Research(PAIR)ガイドブック

AI の開発プロセスと考慮すべきポイントに関する詳細をご覧ください。

PAIR Explorables

インタラクティブに可視化された、責任ある AI 分野の重要な問いとコンセプトをご覧ください。

ステップ 2

データの作成と準備

次のツールを使用して、データに潜在的なバイアスが含まれていないか調べます。

Know Your Data (Beta)

対話方式でデータセットを調べることにより、データ品質を改善し、公平性とバイアスの問題を軽減します。

TF Data Validation

データを分析、変換して問題を見つけ出し、より効果の高い特徴セットを設計できます。

データカード

データセットに関する透明性レポートを作成します。

Monk Skin Tone スケール(MST)

データの収集とモデル構築のニーズをより堅牢で包括的にするための、より包括的なスキントーン スケール(オープン ライセンス)。

ステップ 3

モデルの構築とトレーニング

次のツールを使用して、わかりやすく、プライバシーに配慮した手法などでモデルをトレーニングします。

TF Model Remediation

機械学習モデルをトレーニングして、より公平な成果を促進します。

TF Privacy

プライバシーに配慮しつつ機械学習モデルをトレーニングします。

TF Federated

フェデレーション ラーニング技術を使用して機械学習モデルをトレーニングします。

TF Constrained Optimization

不均衡によって制約を受けた問題を最適化します。

TF Lattice

柔軟でわかりやすく、制御された格子ベースのモデルを実装します。

ステップ 4

モデルの評価

次のツールを使用して、モデルのパフォーマンスをデバッグ、評価、可視化します。

公平性インジケーター

バイナリとマルチクラス分類器の一般的な公平性指標を評価します。

TF Model Analysis

分散方式でモデルを評価し、さまざまなデータスライスで計算します。

What-If Tool

機械学習モデルを調査、評価、比較します。

Language Interpretability Tool

NLP モデルを可視化して理解します。

Explainable AI

包括的でわかりやすい機械学習モデルを開発します。

TF Privacy Tests

分類モデルのプライバシー特性を評価します。

TensorBoard

機械学習ワークフローを測定し、視覚化できます。

ステップ 5

デプロイとモニタリング

次のツールを使用して、モデルのコンテキストと詳細を追跡し、整理します。

Model Card Toolkit

Model Card Toolkit を使用すると、簡単にモデルカードを作成できます。

ML Metadata

ML デベロッパーとデータ サイエンティストのワークフローに関連するメタデータを記録および取得します。

モデルカード

機械学習に関する重要な事実を構造化して整理します。

コミュニティ リソース

コミュニティの活動内容と参加方法についてご確認ください。

Google のクラウドソース

Google がより包括的で、お客様の言語、地域、文化を反映したサービスを提供できるようご協力ください。

責任ある AI DevPost の取り組み

参加者に TensorFlow 2.2 を使って、責任ある AI の原則を踏まえたモデルやアプリケーションを構築してもらいました。ギャラリーで、受賞者や素晴らしいプロジェクトをチェックしてみましょう。

TensorFlow を使用した責任ある AI(TF Dev Summit '20)

ML、公平性、プライバシーについて検討するためのフレームワークをご紹介します。