Wstęp
W 2018 r. firma Google wprowadziła zasady dotyczące sztucznej inteligencji , które kierują etycznym rozwojem i wykorzystaniem sztucznej inteligencji w naszych badaniach i produktach. Zgodnie z tymi zasadami zespół TensorFlow pracuje nad zapewnieniem programistom narzędzi i technik umożliwiających przestrzeganie praktyk odpowiedzialnej sztucznej inteligencji (RAI).
W tym przewodniku znajdziesz wskazówki, jak zastosować narzędzia z zestawu narzędzi Responsible AI Toolkit, aby opracować spójny przepływ pracy, który będzie odpowiadał Twoim konkretnym przypadkom użycia i potrzebom produktu. Narzędzia zawarte w tym przewodniku obejmują te, które można zastosować w takich dziedzinach, jak uczciwość i przejrzystość . Jest to aktywny obszar rozwoju w Google i możesz oczekiwać, że ten przewodnik będzie zawierał wskazówki dotyczące dodatkowych powiązanych obszarów, takich jak prywatność , wyjaśnialność i niezawodność.
Organizacja przewodnika
Dokumentacja i wskazówki dotyczące interfejsu API
W przypadku każdego narzędzia zapewnimy wskazówki dotyczące działania narzędzia, miejsca, w którym może ono pasować, oraz różnych kwestii związanych z użytkowaniem. W stosownych przypadkach umieścimy stronę „Instaluj” na karcie „Przewodnik” dla każdego narzędzia oraz szczegółową dokumentację interfejsu API na karcie „API”. W przypadku niektórych narzędzi zamieścimy również przewodniki techniczne przedstawiające koncepcje, które mogą znaleźć użytkownicy trudne przy ich stosowaniu.
Poradniki
W miarę możliwości udostępnimy samouczki zeszytu pokazujące, jak można zastosować narzędzia z zestawu narzędzi RAI. Są to zazwyczaj przykłady zabawek wybranych do rzucenia światła na konkretne narzędzie. Jeśli masz pytania na ten temat lub jeśli istnieją dodatkowe przypadki użycia, które chciałbyś omówić w samouczkach , skontaktuj się z nami pod adresem tf-responsible-ai@google.com .
Dodatkowe uwagi
Projektowanie odpowiedzialnego przepływu pracy AI wymaga przemyślanego podejścia na każdym etapie cyklu życia ML, od formułowania problemu po wdrażanie i monitorowanie. Poza szczegółami implementacji technicznej, aby zastosować te narzędzia, będziesz musiał podjąć różne decyzje socjotechniczne. Niektóre z typowych rozważań dotyczących RAI, które praktykujący ML muszą wziąć pod uwagę, obejmują:
- W jakich kategoriach demograficznych muszę mieć pewność, że mój model działa dobrze?
- Jeśli muszę przechowywać poufne etykiety w celu przeprowadzenia oceny uczciwości, jak powinienem rozważyć kompromis między uczciwością a prywatnością?
- Jakich metryk lub definicji powinienem użyć, aby ocenić uczciwość?
- Jakie informacje należy uwzględnić w artefaktach modelu i przezroczystości danych?
Odpowiedzi na te i wiele innych pytań zależą od konkretnego przypadku użycia i potrzeb produktu. W związku z tym nie możemy dokładnie powiedzieć, co robić, ale zapewnimy wskazówki dotyczące podejmowania odpowiedzialnych decyzji, wraz z pomocnymi wskazówkami i linkami do odpowiednich metod badawczych, gdy tylko będzie to możliwe. Podczas opracowywania odpowiedzialnego przepływu pracy AI za pomocą TensorFlow prosimy o przesyłanie opinii na adres tf-responsible-ai@google.com . Zrozumienie wiedzy i wyzwań ma kluczowe znaczenie dla naszej zdolności do tworzenia produktów, które działają dla wszystkich.