컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
도구
TensorFlow 워크플로를 지원하고 가속화하는 도구를 탐색하세요.
Colab
Colaboratory는 설치가 필요 없고 완전히 클라우드에서 실행되는 무료 Jupyter 노트북 환경이며, 한 번의 클릭으로 브라우저에서 TensorFlow 코드를 실행할 수 있습니다.
Visual Blocks
I/O 기기, 모델, 데이터 증강, Colab 코드를 재사용 가능한 구성요소로 사용하여 ML 워크플로의 프로토타입을 제작하는 시각적 코딩 웹 프레임워크입니다.
텐서보드
TensorFlow 프로그램을 이해하고 디버깅하고 최적화할 수 있는 시각화 도구 제품군입니다.
What-If Tool
모델 이해, 디버깅, 공정성에 유용한 머신러닝 모델의 코드 없는 프로빙을 위한 도구입니다. 텐서보드와 jupyter 또는 colab 노트북에서 사용 가능합니다.
ML Perf
ML 소프트웨어 프레임워크, ML 하드웨어 가속기, ML 클라우드 플랫폼의 성능을 측정하기 위한 광범위한 ML 벤치마크 제품군
XLA
XLA(가속 선형 대수학)는 TensorFlow 계산을 최적화하는 선형 대수학용 도메인별 컴파일러입니다. 그 결과 서버 및 모바일 플랫폼에서 속도, 메모리 사용, 이식성이 개선되었습니다.
TPU Research Cloud
TPU Research Cloud(TRC) 프로그램을 통해 연구원은 1,000개가 넘는 Cloud TPU의 클러스터에 대한 무료 액세스를 신청할 수 있으며, 이를 통해 새로운 연구 혁신을 가속화할 수 있습니다.
MLIR
새로운 중간 표현이자 컴파일러 프레임워크입니다.
[null,null,[],[],[],null,["# Tools\n=====\n\nExplore tools to support and accelerate TensorFlow workflows. \n[Colab](https://colab.sandbox.google.com/notebooks/welcome.ipynb) \nColaboratory is a free Jupyter notebook environment that requires no setup and runs entirely in the cloud, allowing you to execute TensorFlow code in your browser with a single click. \n[Learn more](https://colab.sandbox.google.com/notebooks/welcome.ipynb) \n[Visual Blocks](https://visualblocks.withgoogle.com/) \nA visual coding web framework to prototype ML workflows using I/O devices, models, data augmentation, and even Colab code as reusable building blocks. \n[Learn more](https://visualblocks.withgoogle.com/) \n[TensorBoard](/tensorboard) \nA suite of visualization tools to understand, debug, and optimize TensorFlow programs. \n[Learn more](/tensorboard) [View code](https://github.com/tensorflow/tensorboard) \n[What-If Tool](https://pair-code.github.io/what-if-tool/) \nA tool for code-free probing of machine learning models, useful for model understanding, debugging, and fairness. Available in TensorBoard and jupyter or colab notebooks. \n[Learn more](https://pair-code.github.io/what-if-tool/) [Get started](https://colab.research.google.com/github/PAIR-code/what-if-tool/blob/master/What_If_Tool_Notebook_Usage.ipynb) \n[ML Perf](https://mlperf.org/) \nA broad ML benchmark suite for measuring performance of ML software frameworks, ML hardware accelerators, and ML cloud platforms. \n[Learn more](https://mlperf.org/) \n[XLA](/xla) \nXLA (Accelerated Linear Algebra) is a domain-specific compiler for linear algebra that optimizes TensorFlow computations. The results are improvements in speed, memory usage, and portability on server and mobile platforms. \n[Learn more](/xla) \n[TensorFlow Playground](https://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle®Dataset=reg-plane&learningRate=0.03®ularizationRate=0&noise=0&networkShape=4,2&seed=0.04620&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTimesY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=false&collectStats=false&problem=classification&initZero=false&hideText=false) \nTinker with a neural network in your browser. Don't worry, you can't break it. \n[Learn more](https://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle®Dataset=reg-plane&learningRate=0.03®ularizationRate=0&noise=0&networkShape=4,2&seed=0.04620&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTimesY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=false&collectStats=false&problem=classification&initZero=false&hideText=false) \n[TPU Research Cloud](https://sites.research.google/trc/) \nThe TPU Research Cloud (TRC) program enables researchers to apply for access to a cluster of more than 1,000 Cloud TPUs at no charge to help them accelerate the next wave of research breakthroughs. \n[Learn more](https://sites.research.google/trc/) \n[MLIR](/mlir) \nA new intermediate representation and compiler framework. \n[Learn more](/mlir) \n\nExplore libraries that build advanced models, methods, and extensions using TensorFlow\n--------------------------------------------------------------------------------------\n\n[See libraries](/resources/libraries-extensions)"]]