TensorFlow を使用して、責任ある AI プラクティスを ML ワークフローに統合する方法を学びます
TensorFlow は、一連のリソースとツールを ML コミュニティと共有することにより、AI の責任ある開発の進歩を支援することに取り組んでいます。
責任ある AI とは
AI の発展は、困難な現実世界の問題を解決する新たな機会を生み出しています。また、すべての人に利益をもたらす AI システムを構築する最善の方法について、新たな疑問も生じています。
AI の推奨されるベスト プラクティス
AI システムの設計は、ソフトウェア開発のベスト プラクティスに従う必要があります。
機械学習へのアプローチ
公平性
セクターや社会全体で AI の影響が増大するにつれて、すべての人にとって公平で包括的なシステムに向けて取り組むことが重要です。
解釈可能性
AI システムを理解して信頼することは、AI システムが意図したとおりに機能することを保証するために重要です
プライバシー
機密データからモデルをトレーニングするには、プライバシーを保護するセーフガードが必要です
安全
潜在的な脅威を特定することで、AI システムを安全かつセキュアに保つことができます
ML ワークフローにおける責任ある AI
責任ある AI プラクティスは、ML ワークフローのすべてのステップに組み込むことができます。ここでは、各段階で考慮すべきいくつかの重要な質問を示します。
私の ML システムは誰のためのものですか?
実際のユーザーがシステムをどのように体験するかは、その予測、推奨事項、および決定の真の影響を評価するために不可欠です。開発プロセスの早い段階で、さまざまなユーザーから意見を聞くようにしてください。
代表的なデータセットを使用していますか?
データはユーザーを表す方法でサンプリングされていますか (たとえば、すべての年齢層に使用されますが、高齢者からのトレーニング データしかありません)、現実世界の設定 (例: 一年中使用されますが、トレーニングしか受けていません)夏のデータ)?
私のデータには現実世界/人間の偏りがありますか?
データの根底にあるバイアスは、既存のステレオタイプを強化する複雑なフィードバック ループに寄与する可能性があります。
モデルのトレーニングにはどのような方法を使用すればよいですか?
公平性、解釈可能性、プライバシー、およびセキュリティをモデルに組み込むトレーニング方法を使用します。
モデルのパフォーマンスは?
幅広いユーザー、ユース ケース、および使用コンテキストにわたって、実際のシナリオでユーザー エクスペリエンスを評価します。最初にドッグフードでテストと反復を行い、その後、リリース後にテストを継続します。
複雑なフィードバック ループはありますか?
全体的なシステム設計のすべてが慎重に作成されたとしても、ML ベースのモデルが実際のライブ データに適用されたときに 100% 完璧に動作することはめったにありません。実際の製品で問題が発生した場合は、それが既存の社会的不利益と一致するかどうか、および短期的および長期的な解決策によってどのように影響を受けるかを検討してください。
TensorFlow 向けの責任ある AI ツール
TensorFlow エコシステムには、上記の質問のいくつかに取り組むのに役立つ一連のツールとリソースがあります。
問題を定義する
次のリソースを使用して、責任ある AI を念頭に置いてモデルを設計してください。

データの構築と準備
次のツールを使用して、潜在的なバイアスについてデータを調べます。


モデルを評価する
次のツールを使用して、モデルのパフォーマンスをデバッグ、評価、視覚化します。


コミュニティ リソース
コミュニティが何をしているかを学び、参加する方法を探ります。


参加者には、TensorFlow 2.2 を使用して、責任ある AI の原則を念頭に置いてモデルまたはアプリケーションを構築するように依頼しました。ギャラリーをチェックして、受賞者やその他の素晴らしいプロジェクトをご覧ください。
