Poradnik dotyczący odpowiedzialnej sztucznej inteligencji TensorFlow

Wstęp

W 2018 r. firma Google wprowadziła zasady dotyczące sztucznej inteligencji , które kierują etycznym rozwojem i wykorzystaniem sztucznej inteligencji w naszych badaniach i produktach. Zgodnie z tymi zasadami zespół TensorFlow pracuje nad zapewnieniem programistom narzędzi i technik umożliwiających przestrzeganie praktyk odpowiedzialnej sztucznej inteligencji (RAI).

W tym przewodniku znajdziesz wskazówki, jak zastosować narzędzia z zestawu narzędzi Responsible AI Toolkit, aby opracować spójny przepływ pracy, który będzie odpowiadał Twoim konkretnym przypadkom użycia i potrzebom produktu. Narzędzia zawarte w tym przewodniku obejmują te, które można zastosować w takich dziedzinach, jak uczciwość i przejrzystość . Jest to aktywny obszar rozwoju w Google i możesz oczekiwać, że ten przewodnik będzie zawierał wskazówki dotyczące dodatkowych powiązanych obszarów, takich jak prywatność , wyjaśnialność i niezawodność.

Organizacja przewodnika

Dokumentacja i wskazówki dotyczące interfejsu API

W przypadku każdego narzędzia zapewnimy wskazówki dotyczące działania narzędzia, miejsca, w którym może ono pasować, oraz różnych kwestii związanych z użytkowaniem. W stosownych przypadkach umieścimy stronę „Instaluj” na karcie „Przewodnik” dla każdego narzędzia oraz szczegółową dokumentację interfejsu API na karcie „API”. W przypadku niektórych narzędzi zamieścimy również przewodniki techniczne przedstawiające koncepcje, które mogą znaleźć użytkownicy trudne przy ich stosowaniu.

Poradniki

W miarę możliwości udostępnimy samouczki zeszytu pokazujące, jak można zastosować narzędzia z zestawu narzędzi RAI. Są to zazwyczaj przykłady zabawek wybranych do rzucenia światła na konkretne narzędzie. Jeśli masz pytania na ten temat lub jeśli istnieją dodatkowe przypadki użycia, które chciałbyś omówić w samouczkach , skontaktuj się z nami pod adresem tf-responsible-ai@google.com .

Dodatkowe uwagi

Projektowanie odpowiedzialnego przepływu pracy AI wymaga przemyślanego podejścia na każdym etapie cyklu życia ML, od formułowania problemu po wdrażanie i monitorowanie. Poza szczegółami implementacji technicznej, aby zastosować te narzędzia, będziesz musiał podjąć różne decyzje socjotechniczne. Niektóre z typowych rozważań dotyczących RAI, które praktykujący ML muszą wziąć pod uwagę, obejmują:

  • W jakich kategoriach demograficznych muszę mieć pewność, że mój model działa dobrze?
  • Jeśli muszę przechowywać poufne etykiety w celu przeprowadzenia oceny uczciwości, jak powinienem rozważyć kompromis między uczciwością a prywatnością?
  • Jakich metryk lub definicji powinienem użyć, aby ocenić uczciwość?
  • Jakie informacje należy uwzględnić w artefaktach modelu i przezroczystości danych?

Odpowiedzi na te i wiele innych pytań zależą od konkretnego przypadku użycia i potrzeb produktu. W związku z tym nie możemy dokładnie powiedzieć, co robić, ale zapewnimy wskazówki dotyczące podejmowania odpowiedzialnych decyzji, wraz z pomocnymi wskazówkami i linkami do odpowiednich metod badawczych, gdy tylko będzie to możliwe. Podczas opracowywania odpowiedzialnego przepływu pracy AI za pomocą TensorFlow prosimy o przesyłanie opinii na adres tf-responsible-ai@google.com . Zrozumienie wiedzy i wyzwań ma kluczowe znaczenie dla naszej zdolności do tworzenia produktów, które działają dla wszystkich.