Help protect the Great Barrier Reef with TensorFlow on Kaggle Join Challenge

TensorFlow Responsible AI 指南

简介

2018 年,Google 推出了 AI 原则,用于指导在我们的研究和产品中如何以符合道德行为标准的方式开发和使用 AI。为了遵循这些原则,TensorFlow 团队致力于为开发者提供帮助落实 Responsible AI (RAI) 做法的工具和技术。

在本指南中,您会了解如何应用 Responsible AI Toolkit 中的工具,根据您的特定用例和产品需求开发一个统一的工作流。本指南介绍了可以应用于公平性和透明度等领域的工具。这是 Google 的一个活跃开发领域,并且本指南还包含其他相关领域的指导,例如隐私权可解释性和稳健性

指南内容结构

API 文档和指导

对于每种工具,我们将提供关于工具用途、在工作流中的适用环节及其各种使用注意事项的指导。在适用的情况下,我们将在每个工具的“指南”标签页中包含一个“安装”页面,并在“API”标签页中包含详细的 API 文档。对于某些工具,我们还将提供一些技术指南,解释用户在运用这些工具时可能会难以理解的概念。

教程

我们会尽可能提供笔记本教程,展示如何运用 RAI Toolkit 中的工具。我们精心挑选了这些典型的小型示例,重点说明某个特定的工具。如果您对这些示例有疑问,或者希望在教程中了解其他用例,请发邮件至 tf-responsible-ai@google.com 与我们联系。

其他注意事项

设计 Responsible AI 工作流时,您需要在机器学习生命周期的每个阶段(从问题界定到部署和监控)都保持深思熟虑的态度。除了技术实现的细节之外,您还需要做出各种社会技术方面的决策,才能顺畅运用这些工具。机器学习从业者需要考虑的一些常见 RAI 注意事项包括:

  • 我需要确保我的模型在哪些受众类别方面保持良好的性能?
  • 如果我必须存储敏感标签来进行公平性评估,我应该如何在公平性与隐私权之间做出权衡?
  • 我应该使用哪些指标或定义来评估公平性?
  • 我应该在模型和数据透明度工件中包含哪些信息?

上述问题和许多其他问题的答案取决于您的特定用例和产品需求。因此,我们无法确切地告诉您应该怎么做,但会提供相关指导,帮助您做出负责任的决定,同时尽可能提供有用的提示和相关研究方法的链接。当您使用 TensorFlow 开发 Responsible AI 工作流时,请向 tf-responsible-ai@google.com 发送反馈。了解您的学习经验和遇到的挑战对于我们打造适用于所有人的产品至关重要。