توزیع برنولی پیوسته[۱][۲][۳] در نظریه احتمالات، آمار و یادگیری ماشین، خانوادهای از توزیعهای احتمال پیوستهاست که توسط پارامتر تعریف میشود. بازه این توزیع است و به این شکل تعریف میشود:
توزیع پیوسته برنولی در یادگیری عمیق و بینایی رایانهای، بهویژه در زمینه رمزگذارهای خودکار متغیر[۴][۵] برای مدلسازی پیکسلهای تصاویر طبیعی مورد استفاده قرار میگیرد. به این ترتیب، یک همتای احتمالی مناسب برای از دست دادن آنتروپی متقاطع باینری که معمولاً مورد استفاده قرار میگیرد، تعریف میکند که اغلب برای پیوسته اعمال میشود. دادههای با ارزش[۶][۷][۸][۹] این عمل به معنای نادیده گرفتن ثابت نرمال کننده توزیع پیوسته برنولی است، زیرا از دست دادن آنتروپی متقاطع باینری تنها یک احتمال لگ واقعی را برای گسسته تعریف میکند. دادههای با ارزش
برنولی پیوسته نیز یک خانواده نمایی از توزیعها را تعریف میکند. نوشتن برای پارامتر طبیعی، چگالی را میتوان به شکل متعارف بازنویسی کرد: .
برنولی پیوسته را میتوان به عنوان نسخه پیوسته توزیع برنولی در نظر گرفت که بر روی مجموعه گسسته و به وسیله تابع چگالی احتمال پایین تعریف میشود:
جایی که یک پارامتر عددی بین ۰ و ۱ است. اعمال همین تابع در بازه پیوسته منجر به ضریبی از تابع چگالی احتمال پیوسته برنولی میشود.
توزیع بتا تابع چگالی را پایین را دارد:
که میتوان آن را به این شکل نوشت:
در اینجا پارامترهای عددی مثبت هستند و نشان دهنده یک نقطه دلخواه در داخل سادک میباشد. با تعویض نقش پارامتر و ورودی در این تابع چگالی، عبارت پایین را به دست میآوریم:
با اعمال محدودیت و تغییر متغیر به عبارت پایین خواهیم رسید:
که دقیقاً مطابق با چگالی برنولی پیوستهاست.
توزیع نمایی محدود به بازه ۰ تا ۱ معادل توزیع برنولی پیوسته با پارامتر مناسب است.
تعمیم چند متغیره برنولی پیوسته، پیوسته-دستهای نامیده میشود.[۱۰]
- ↑ Loaiza-Ganem, G. , & Cunningham, J. P. (2019). The continuous Bernoulli: fixing a pervasive error in variational autoencoders. In Advances in Neural Information Processing Systems (pp. 13266-13276).
- ↑ PyTorch Distributions. https://pytorch.org/docs/stable/distributions.html#continuousbernoulli
- ↑ Tensorflow Probability. https://www.tensorflow.org/probability/api_docs/python/tfp/edward2/ContinuousBernoulli بایگانیشده در ۲۵ نوامبر ۲۰۲۰ توسط Wayback Machine
- ↑ Kingma, D. P. , & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114.
- ↑ Kingma, D. P. , & Welling, M. (2014, April). Stochastic gradient VB and the variational auto-encoder. In Second International Conference on Learning Representations, ICLR (Vol. 19).
- ↑ Larsen, A. B. L. , Sønderby, S. K. , Larochelle, H. , & Winther, O. (2016, June). Autoencoding beyond pixels using a learned similarity metric. In International conference on machine learning (pp. 1558-1566).
- ↑ Jiang, Z. , Zheng, Y. , Tan, H. , Tang, B. , & Zhou, H. (2017, August). Variational deep embedding: an unsupervised and generative approach to clustering. In Proceedings of the 26th International Joint Conference on Artificial Intelligence (pp. 1965-1972).
- ↑ PyTorch VAE tutorial: https://github.com/pytorch/examples/tree/master/vae.
- ↑ Keras VAE tutorial: https://blog.keras.io/building-autoencoders-in-keras.html.
- ↑ Gordon-Rodriguez, E. , Loaiza-Ganem, G. , & Cunningham, J. P. (2020). The continuous categorical: a novel simplex-valued exponential family. In 36th International Conference on Machine Learning, ICML 2020. International Machine Learning Society (IMLS).