Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Herramientas
Explore herramientas para respaldar y acelerar los flujos de trabajo de TensorFlow.
colaboración Colaboratory es un entorno de notebook Jupyter gratuito que no requiere configuración y se ejecuta completamente en la nube, lo que le permite ejecutar código TensorFlow en su navegador con un solo clic.
Bloques visuales Un marco web de codificación visual para crear prototipos de flujos de trabajo de aprendizaje automático utilizando dispositivos de E/S, modelos, aumento de datos e incluso código Colab como bloques de construcción reutilizables.
Tablero Tensor Un conjunto de herramientas de visualización para comprender, depurar y optimizar programas de TensorFlow.
Herramienta Qué pasaría si Una herramienta para sondear modelos de aprendizaje automático sin código, útil para la comprensión, la depuración y la equidad de los modelos. Disponible en cuadernos TensorBoard y jupyter o colab.
Rendimiento de aprendizaje automático Un amplio conjunto de pruebas de aprendizaje automático para medir el rendimiento de los marcos de software de aprendizaje automático, los aceleradores de hardware de aprendizaje automático y las plataformas en la nube de aprendizaje automático.
XLA XLA (Álgebra lineal acelerada) es un compilador de dominio específico para álgebra lineal que optimiza los cálculos de TensorFlow. Los resultados son mejoras en la velocidad, el uso de la memoria y la portabilidad en plataformas móviles y de servidor.
Nube de investigación de TPU El programa TPU Research Cloud (TRC) permite a los investigadores solicitar acceso a un grupo de más de 1000 Cloud TPU sin costo alguno para ayudarlos a acelerar la próxima ola de avances en investigación.
MLIR Un nuevo marco de compilación y representación intermedia.
[null,null,[],[],[],null,["# Tools\n=====\n\nExplore tools to support and accelerate TensorFlow workflows. \n[Colab](https://colab.sandbox.google.com/notebooks/welcome.ipynb) \nColaboratory is a free Jupyter notebook environment that requires no setup and runs entirely in the cloud, allowing you to execute TensorFlow code in your browser with a single click. \n[Learn more](https://colab.sandbox.google.com/notebooks/welcome.ipynb) \n[Visual Blocks](https://visualblocks.withgoogle.com/) \nA visual coding web framework to prototype ML workflows using I/O devices, models, data augmentation, and even Colab code as reusable building blocks. \n[Learn more](https://visualblocks.withgoogle.com/) \n[TensorBoard](/tensorboard) \nA suite of visualization tools to understand, debug, and optimize TensorFlow programs. \n[Learn more](/tensorboard) [View code](https://github.com/tensorflow/tensorboard) \n[What-If Tool](https://pair-code.github.io/what-if-tool/) \nA tool for code-free probing of machine learning models, useful for model understanding, debugging, and fairness. Available in TensorBoard and jupyter or colab notebooks. \n[Learn more](https://pair-code.github.io/what-if-tool/) [Get started](https://colab.research.google.com/github/PAIR-code/what-if-tool/blob/master/What_If_Tool_Notebook_Usage.ipynb) \n[ML Perf](https://mlperf.org/) \nA broad ML benchmark suite for measuring performance of ML software frameworks, ML hardware accelerators, and ML cloud platforms. \n[Learn more](https://mlperf.org/) \n[XLA](/xla) \nXLA (Accelerated Linear Algebra) is a domain-specific compiler for linear algebra that optimizes TensorFlow computations. The results are improvements in speed, memory usage, and portability on server and mobile platforms. \n[Learn more](/xla) \n[TensorFlow Playground](https://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle®Dataset=reg-plane&learningRate=0.03®ularizationRate=0&noise=0&networkShape=4,2&seed=0.04620&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTimesY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=false&collectStats=false&problem=classification&initZero=false&hideText=false) \nTinker with a neural network in your browser. Don't worry, you can't break it. \n[Learn more](https://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle®Dataset=reg-plane&learningRate=0.03®ularizationRate=0&noise=0&networkShape=4,2&seed=0.04620&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTimesY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=false&collectStats=false&problem=classification&initZero=false&hideText=false) \n[TPU Research Cloud](https://sites.research.google/trc/) \nThe TPU Research Cloud (TRC) program enables researchers to apply for access to a cluster of more than 1,000 Cloud TPUs at no charge to help them accelerate the next wave of research breakthroughs. \n[Learn more](https://sites.research.google/trc/) \n[MLIR](/mlir) \nA new intermediate representation and compiler framework. \n[Learn more](/mlir) \n\nExplore libraries that build advanced models, methods, and extensions using TensorFlow\n--------------------------------------------------------------------------------------\n\n[See libraries](/resources/libraries-extensions)"]]