Bộ tự mã hóa

Bộ tự mã hóa (tiếng Anh: autoencoder) là một dạng mạng thần kinh nhân tạo được dùng để học các mã hóa dữ liệu hiệu quả theo cách học không có giám sát.[1] Mục tiêu của một bộ tự mã hóa là học một học đặc tính (mã hóa) từ một tập dữ liệu, thông thường dành cho giảm chiều dữ liệu (dimensionality reduction), bằng cách huấn luyện mạng thần kinh bỏ qua các tín hiệu "lỗi". Cùng với mặt rút gọn, một mặt tái tạo cũng được học, trong đó bộ tự mã hóa cố gắng tạo ra từ mã hóa rút gọn một thể hiện gần nhất có thể với đầu vào ban đầu của nó. Một vài biến thể tồn tại đối với mô hình cơ bản, với mục đích ép buộc các thể hiện đã được học của đầu vào để giả định các thuộc tính hữu ích.[2] Các ví dụ là các bộ tự mã hóa chính quy (thưa thớt, giảm nhiễu, và các bộ tự mã hóa có tính chất co rút), chứng minh là hiệu trong các thể hiện học dành cho các tác vụ phân loại theo sau,[3] và các bộ tự mã hóa đa dạng, với các ứng dụng gần đây là các mô hình sinh mẫu.[4] Các bộ tự mã hóa có hiệu quả khi dùng cho việc giải quyết nhiều vấn đề có tính ứng dụng, từ hệ thống nhận dạng khuôn mặt[5] cho đến tiếp thu ý nghĩa ngữ nghĩa của các từ vựng.[6][7]

Tham khảo

[sửa | sửa mã nguồn]
  1. ^ Kramer, Mark A. (1991). “Nonlinear principal component analysis using autoassociative neural networks” (PDF). AIChE Journal. 37 (2): 233–243. doi:10.1002/aic.690370209.
  2. ^ Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Deep Learning. MIT Press. ISBN 978-0262035613.
  3. ^ Vincent, Pascal; Larochelle, Hugo (2010). “Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion”. Journal of Machine Learning Research. 11: 3371–3408.
  4. ^ Welling, Max; Kingma, Diederik P. (2019). “An Introduction to Variational Autoencoders”. Foundations and Trends in Machine Learning. 12 (4): 307–392. arXiv:1906.02691. Bibcode:2019arXiv190602691K. doi:10.1561/2200000056.
  5. ^ Hinton GE, Krizhevsky A, Wang SD. Transforming auto-encoders. In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.
  6. ^ Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). “Modeling word perception using the Elman network”. Neurocomputing. 71 (16–18): 3150. doi:10.1016/j.neucom.2008.04.030.
  7. ^ Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). “Autoencoder for words”. Neurocomputing. 139: 84–96. doi:10.1016/j.neucom.2013.09.055.
Chúng tôi bán
Bài viết liên quan
Advanced JavaScript Features
Advanced JavaScript Features
JavaScript is one of the most dynamic languages. Each year, multiple features are added to make the language more manageable and practical.
Mối liên hệ giữa Attack on Titan và Thần Thoại Bắc Âu
Mối liên hệ giữa Attack on Titan và Thần Thoại Bắc Âu
Hôm nay mình sẽ bàn về những mối liên hệ mật thiết giữa AoT và Thần Thoại Bắc Âu nhé, vì hình tượng các Titan cũng như thế giới của nó là cảm hứng lấy từ Thần Thoại Bắc Âu
Thao túng tâm lý: Vì tôi yêu bạn nên bạn phải chứng minh mình xứng đáng
Thao túng tâm lý: Vì tôi yêu bạn nên bạn phải chứng minh mình xứng đáng
Thuật ngữ “thao túng cảm xúc” (hay “tống tiền tình cảm/tống tiền cảm xúc”) được nhà trị liệu Susan Forward đã đưa ra trong cuốn sách cùng tên
Chân dung Drew Gilpin Faust - Hiệu trưởng Đại học Harvard
Chân dung Drew Gilpin Faust - Hiệu trưởng Đại học Harvard
Đó là những lời khẳng định đanh thép, chắc chắn và đầy quyền lực của người phụ nữ đang gánh trên vai ngôi trường đại học hàng đầu thế giới