TensorFlow Olasılığı
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
TensorFlow Probability, TensorFlow'da olasılıksal akıl yürütme ve istatistiksel analize yönelik bir kütüphanedir. TensorFlow ekosisteminin bir parçası olarak TensorFlow Probability, olasılıksal yöntemlerin derin ağlarla entegrasyonunu, otomatik farklılaştırmayı kullanan gradyan tabanlı çıkarımı ve donanım hızlandırmalı (GPU'lar) ve dağıtılmış hesaplamalı büyük veri kümelerine ve modellere ölçeklenebilirlik sağlar.
TensorFlow Probability'yi kullanmaya başlamak için kurulum kılavuzuna bakın ve Python not defteri eğitimlerini görüntüleyin.
Bileşenler
Olasılığa dayalı makine öğrenimi araçlarımız aşağıdaki şekilde yapılandırılmıştır:
Katman 0: TensorFlow
Sayısal işlemler (özellikle LinearOperator
sınıfı), verimli hesaplama için belirli bir yapıdan (köşegen, düşük dereceli vb.) yararlanabilen matrissiz uygulamalara olanak tanır. TensorFlow Probability ekibi tarafından oluşturulup bakımı yapılır ve çekirdek TensorFlow'daki tf.linalg
bir parçasıdır.
Katman 1: İstatistiksel Yapı Taşları
Katman 2: Model Oluşturma
- Ortak Dağıtımlar (örneğin,
tfp.distributions.JointDistributionSequential
): Bir veya daha fazla muhtemelen birbirine bağımlı dağıtım üzerindeki ortak dağıtımlar. TFP'nin JointDistribution
ile modellemeye giriş için bu ortak çalışmaya göz atın - Olasılıksal katmanlar (
tfp.layers
): Temsil ettikleri işlevler üzerinde belirsizliğe sahip, TensorFlow katmanlarını genişleten sinir ağı katmanları.
Katman 3: Olasılığa Dayalı Çıkarım
- Markov zinciri Monte Carlo (
tfp.mcmc
): Örnekleme yoluyla integrallere yaklaşma algoritmaları. Hamilton Monte Carlo'yu , rastgele yürüyüşlü Metropolis-Hastings'i ve özel geçiş çekirdekleri oluşturma yeteneğini içerir. - Varyasyonel Çıkarım (
tfp.vi
): Optimizasyon yoluyla integrallerin yakınlaştırılmasına yönelik algoritmalar. - Optimize Ediciler (
tfp.optimizer
): TensorFlow Optimize Edicileri genişleten stokastik optimizasyon yöntemleri. Stokastik Gradyan Langevin Dinamiklerini içerir. - Monte Carlo (
tfp.monte_carlo
): Monte Carlo beklentilerini hesaplamaya yönelik araçlar.
TensorFlow Probability aktif olarak geliştirilme aşamasındadır ve arayüzler değişebilir.
Örnekler
Gezinme bölümünde listelenen Python not defteri eğitimlerine ek olarak bazı örnek komut dosyaları da mevcuttur:
Sorunları bildir
TensorFlow Olasılık sorun izleyicisini kullanarak hataları veya özellik isteklerini bildirin.
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2025-07-25 UTC.
[null,null,["Son güncelleme tarihi: 2025-07-25 UTC."],[],[],null,["# TensorFlow Probability\n\n\u003cbr /\u003e\n\nTensorFlow Probability is a library for probabilistic reasoning and statistical\nanalysis in TensorFlow. As part of the TensorFlow ecosystem, TensorFlow\nProbability provides integration of probabilistic methods with deep networks,\ngradient-based inference using automatic differentiation, and scalability to\nlarge datasets and models with hardware acceleration (GPUs) and distributed\ncomputation.\n\nTo get started with TensorFlow Probability, see the\n[install guide](./install) and view the\n[Python notebook tutorials](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/examples/jupyter_notebooks/).\n\nComponents\n----------\n\nOur probabilistic machine learning tools are structured as follows:\n\n### Layer 0: TensorFlow\n\n*Numerical operations* ---in particular, the `LinearOperator`\nclass---enables matrix-free implementations that can exploit a particular structure\n(diagonal, low-rank, etc.) for efficient computation. It is built and maintained\nby the TensorFlow Probability team and is part of\n[`tf.linalg`](https://github.com/tensorflow/tensorflow/tree/master/tensorflow/python/ops/linalg)\nin core TensorFlow.\n\n### Layer 1: Statistical Building Blocks\n\n- *Distributions* ([`tfp.distributions`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/distributions)): A large collection of probability distributions and related statistics with batch and [broadcasting](https://docs.scipy.org/doc/numpy-1.14.0/user/basics.broadcasting.html) semantics.\n- *Bijectors* ([`tfp.bijectors`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/bijectors)): Reversible and composable transformations of random variables. Bijectors provide a rich class of transformed distributions, from classical examples like the [log-normal distribution](https://en.wikipedia.org/wiki/Log-normal_distribution) to sophisticated deep learning models such as [masked autoregressive flows](https://arxiv.org/abs/1705.07057).\n\n### Layer 2: Model Building\n\n- Joint Distributions (e.g., [`tfp.distributions.JointDistributionSequential`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/distributions/joint_distribution_sequential.py)): Joint distributions over one or more possibly-interdependent distributions. For an introduction to modeling with TFP's `JointDistribution`s, check out [this colab](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/examples/jupyter_notebooks/Modeling_with_JointDistribution.ipynb)\n- *Probabilistic layers* ([`tfp.layers`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/layers)): Neural network layers with uncertainty over the functions they represent, extending TensorFlow layers.\n\n### Layer 3: Probabilistic Inference\n\n- *Markov chain Monte Carlo* ([`tfp.mcmc`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/mcmc)): Algorithms for approximating integrals via sampling. Includes [Hamiltonian Monte Carlo](https://en.wikipedia.org/wiki/Hamiltonian_Monte_Carlo), random-walk Metropolis-Hastings, and the ability to build custom transition kernels.\n- *Variational Inference* ([`tfp.vi`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/vi)): Algorithms for approximating integrals through optimization.\n- *Optimizers* ([`tfp.optimizer`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/optimizer)): Stochastic optimization methods, extending TensorFlow Optimizers. Includes [Stochastic Gradient Langevin Dynamics](http://www.icml-2011.org/papers/398_icmlpaper.pdf).\n- *Monte Carlo* ([`tfp.monte_carlo`](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/python/monte_carlo)): Tools for computing Monte Carlo expectations.\n\nTensorFlow Probability is under active development and interfaces may change.\n\nExamples\n--------\n\nIn addition to the\n[Python notebook tutorials](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/examples/jupyter_notebooks/)\nlisted in the navigation, there are some example scripts available:\n\n- [Variational Autoencoders](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/vae.py) ---Representation learning with a latent code and variational inference.\n- [Vector-Quantized Autoencoder](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/vq_vae.py) ---Discrete representation learning with vector quantization.\n- [Bayesian Neural Networks](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/bayesian_neural_network.py) ---Neural networks with uncertainty over their weights.\n- [Bayesian Logistic Regression](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/logistic_regression.py) ---Bayesian inference for binary classification.\n\nReport issues\n-------------\n\nReport bugs or feature requests using the\n[TensorFlow Probability issue tracker](https://github.com/tensorflow/probability/issues)."]]