Bộ nhớ dài-ngắn hạn

Tế bào bộ nhớ dài-ngắn hạn (LSTM) có thể xử lý dữ liệu tuần tự và giữ trạng thái ẩn của nó theo thời gian.

Bộ nhớ dài-ngắn hạn[1] hay Bộ nhớ ngắn-dài hạn (tiếng Anh: Long short-term memory, viết tắt LSTM) là một mạng thần kinh hồi quy (RNN) nhân tạo[2] được sử dụng trong lĩnh vực học sâu. Không giống như các mạng thần kinh truyền thẳng (FNN) tiêu chuẩn, LSTM có chứa các kết nối phản hồi. Mạng không chỉ xử lý các điểm dữ liệu đơn lẻ (như các hình ảnh), mà còn xử lý toàn bộ chuỗi dữ liệu (chẳng hạn như lời nói hoặc video). Ví dụ, LSTM có thể áp dụng cho các tác vụ nhận dạng chữ viết tay[3], nhận dạng tiếng nói[4][5] và phát hiện bất thường có tính chất kết nối, không phân đoạn trong giao thông mạng hoặc các IDS (hệ thống phát hiện xâm nhập).

Một đơn vị LSTM thông thường bao gồm một tế bào (cell), một cổng vào (input gate), một cổng ra (output gate) và một cổng quên (forget gate). Tế bào ghi nhớ các giá trị trong các khoảng thời gian bất ý và ba cổng sẽ điều chỉnh luồng thông tin ra/vào tế bào.

Các ứng dụng

[sửa | sửa mã nguồn]

Các ứng dụng sử dụng LSTM bao gồm:

Tham khảo

[sửa | sửa mã nguồn]
  1. ^ Mạng neural hồi quy cheatsheet, Standford University.
  2. ^ Sepp Hochreiter; Jürgen Schmidhuber (1997). "Long short-term memory". Neural Computation. Quyển 9 số 8. tr. 1735–1780. doi:10.1162/neco.1997.9.8.1735.
  3. ^ Graves, A.; Liwicki, M.; Fernandez, S.; Bertolami, R.; Bunke, H.; Schmidhuber, J. (2009). "A Novel Connectionist System for Improved Unconstrained Handwriting Recognition" (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. Quyển 31 số 5. tr. 855–868. CiteSeerX 10.1.1.139.4502. doi:10.1109/tpami.2008.137. PMID 19299860.
  4. ^ Sak, Hasim; Senior, Andrew; Beaufays, Francoise (2014). "Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling" (PDF). Bản gốc (PDF) lưu trữ ngày 24 tháng 4 năm 2018.
  5. ^ Li, Xiangang; Wu, Xihong (ngày 15 tháng 10 năm 2014). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". {{Chú thích arXiv}}: Cần |arxiv= (trợ giúp)
  6. ^ Mayer, H.; Gomez, F.; Wierstra, D.; Nagy, I.; Knoll, A.; Schmidhuber, J. (tháng 10 năm 2006). A System for Robotic Heart Surgery that Learns to Tie Knots Using Recurrent Neural Networks. tr. 543–548. CiteSeerX 10.1.1.218.3399. doi:10.1109/IROS.2006.282190. ISBN 978-1-4244-0258-8. {{Chú thích sách}}: Đã bỏ qua |journal= (trợ giúp)
  7. ^ Wierstra, Daan; Schmidhuber, J.; Gomez, F. J. (2005). "Evolino: Hybrid Neuroevolution/Optimal Linear Search for Sequence Learning". Proceedings of the 19th International Joint Conference on Artificial Intelligence (IJCAI), Edinburgh. tr. 853–858.
  8. ^ Graves, A.; Schmidhuber, J. (2005). "Framewise phoneme classification with bidirectional LSTM and other neural network architectures". Neural Networks. Quyển 18 số 5–6. tr. 602–610. CiteSeerX 10.1.1.331.5800. doi:10.1016/j.neunet.2005.06.042. PMID 16112549.
  9. ^ Fernández, Santiago; Graves, Alex; Schmidhuber, Jürgen (2007). An Application of Recurrent Neural Networks to Discriminative Keyword Spotting. ICANN'07. Berlin, Heidelberg: Springer-Verlag. tr. 220–229. ISBN 978-3540746935. {{Chú thích sách}}: Đã bỏ qua |journal= (trợ giúp)
  10. ^ Graves, Alex; Mohamed, Abdel-rahman; Hinton, Geoffrey (2013). "Speech Recognition with Deep Recurrent Neural Networks". Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on. tr. 6645–6649. arXiv:1303.5778. doi:10.1109/ICASSP.2013.6638947. ISBN 978-1-4799-0356-6.
  11. ^ Gers, F.; Schraudolph, N.; Schmidhuber, J. (2002). "Learning precise timing with LSTM recurrent networks" (PDF). Journal of Machine Learning Research. Quyển 3. tr. 115–143.
  12. ^ Eck, Douglas; Schmidhuber, Jürgen (ngày 28 tháng 8 năm 2002). Learning the Long-Term Structure of the Blues. Lecture Notes in Computer Science. Quyển 2415. Springer, Berlin, Heidelberg. tr. 284–289. CiteSeerX 10.1.1.116.3620. doi:10.1007/3-540-46084-5_47. ISBN 978-3540460848. {{Chú thích sách}}: Đã bỏ qua |journal= (trợ giúp)
  13. ^ Schmidhuber, J.; Gers, F.; Eck, D.; Schmidhuber, J.; Gers, F. (2002). "Learning nonregular languages: A comparison of simple recurrent networks and LSTM". Neural Computation. Quyển 14 số 9. tr. 2039–2041. CiteSeerX 10.1.1.11.7369. doi:10.1162/089976602320263980. PMID 12184841.
  14. ^ Gers, F. A.; Schmidhuber, J. (2001). "LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages" (PDF). IEEE Transactions on Neural Networks. Quyển 12 số 6. tr. 1333–1340. doi:10.1109/72.963769. PMID 18249962. Bản gốc (PDF) lưu trữ ngày 10 tháng 7 năm 2020. Truy cập ngày 21 tháng 11 năm 2020.
  15. ^ Perez-Ortiz, J. A.; Gers, F. A.; Eck, D.; Schmidhuber, J. (2003). "Kalman filters improve LSTM network performance in problems unsolvable by traditional recurrent nets". Neural Networks. Quyển 16 số 2. tr. 241–250. CiteSeerX 10.1.1.381.1992. doi:10.1016/s0893-6080(02)00219-8. PMID 12628609.
  16. ^ A. Graves, J. Schmidhuber. Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks. Advances in Neural Information Processing Systems 22, NIPS'22, pp 545–552, Vancouver, MIT Press, 2009.
  17. ^ Graves, Alex; Fernández, Santiago; Liwicki, Marcus; Bunke, Horst; Schmidhuber, Jürgen (2007). Unconstrained Online Handwriting Recognition with Recurrent Neural Networks. NIPS'07. USA: Curran Associates Inc. tr. 577–584. ISBN 9781605603520. {{Chú thích sách}}: Đã bỏ qua |journal= (trợ giúp)
  18. ^ M. Baccouche, F. Mamalet, C Wolf, C. Garcia, A. Baskurt. Sequential Deep Learning for Human Action Recognition. 2nd International Workshop on Human Behavior Understanding (HBU), A.A. Salah, B. Lepri ed. Amsterdam, Netherlands. pp. 29–39. Lecture Notes in Computer Science 7065. Springer. 2011
  19. ^ Huang, Jie; Zhou, Wengang; Zhang, Qilin; Li, Houqiang; Li, Weiping (ngày 30 tháng 1 năm 2018). "Video-based Sign Language Recognition without Temporal Segmentation". arXiv:1801.10111 [cs.CV].
  20. ^ Hochreiter, S.; Heusel, M.; Obermayer, K. (2007). "Fast model-based protein homology detection without alignment". Bioinformatics. Quyển 23 số 14. tr. 1728–1736. doi:10.1093/bioinformatics/btm247. PMID 17488755.
  21. ^ Thireou, T.; Reczko, M. (2007). "Bidirectional Long Short-Term Memory Networks for predicting the subcellular localization of eukaryotic proteins". IEEE/ACM Transactions on Computational Biology and Bioinformatics. Quyển 4 số 3. tr. 441–446. doi:10.1109/tcbb.2007.1015. PMID 17666763.
  22. ^ Malhotra, Pankaj; Vig, Lovekesh; Shroff, Gautam; Agarwal, Puneet (tháng 4 năm 2015). "Long Short Term Memory Networks for Anomaly Detection in Time Series" (PDF). European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning — ESANN 2015. Bản gốc (PDF) lưu trữ ngày 30 tháng 10 năm 2020. Truy cập ngày 21 tháng 11 năm 2020.
  23. ^ Tax, N.; Verenich, I.; La Rosa, M.; Dumas, M. (2017). Predictive Business Process Monitoring with LSTM neural networks. Lecture Notes in Computer Science. Quyển 10253. tr. 477–492. arXiv:1612.02130. doi:10.1007/978-3-319-59536-8_30. ISBN 978-3-319-59535-1. {{Chú thích sách}}: Đã bỏ qua |journal= (trợ giúp)
  24. ^ Choi, E.; Bahadori, M.T.; Schuetz, E.; Stewart, W.; Sun, J. (2016). "Doctor AI: Predicting Clinical Events via Recurrent Neural Networks". Proceedings of the 1st Machine Learning for Healthcare Conference. Quyển 56. tr. 301–318. arXiv:1511.05942. Bibcode:2015arXiv151105942C. PMC 5341604. PMID 28286600.
  25. ^ Jia, Robin; Liang, Percy (2016-06-11). Arxiv:1606.03622. arXiv:1606.03622 [cs].
  26. ^ Wang, Le; Duan, Xuhuan; Zhang, Qilin; Niu, Zhenxing; Hua, Gang; Zheng, Nanning (ngày 22 tháng 5 năm 2018). "Segment-Tube: Spatio-Temporal Action Localization in Untrimmed Videos with Per-Frame Segmentation" (PDF). Sensors. Quyển 18 số 5. tr. 1657. doi:10.3390/s18051657. ISSN 1424-8220. PMC 5982167. PMID 29789447.{{Chú thích tạp chí}}: Quản lý CS1: DOI truy cập mở nhưng không được đánh ký hiệu (liên kết)
  27. ^ Duan, Xuhuan; Wang, Le; Zhai, Changbo; Zheng, Nanning; Zhang, Qilin; Niu, Zhenxing; Hua, Gang (2018). Joint Spatio-Temporal Action Localization in Untrimmed Videos with Per-Frame Segmentation. 25th IEEE International Conference on Image Processing (ICIP). doi:10.1109/icip.2018.8451692. ISBN 978-1-4799-7061-2.
  28. ^ Orsini, F.; Gastaldi, M.; Mantecchini, L.; Rossi, R. (2019). Neural networks trained with WiFi traces to predict airport passenger behavior. 6th International Conference on Models and Technologies for Intelligent Transportation Systems. Krakow: IEEE. arXiv:1910.14026. doi:10.1109/MTITS.2019.8883365. 8883365.
  29. ^ Zhao, Z.; Chen, W.; Wu, X.; Chen, P.C.Y.; Liu, J. (2017). "LSTM network: A deep learning approach for Short-term traffic forecast". IET Intelligent Transport Systems. Quyển 11 số 2. tr. 68–75. doi:10.1049/iet-its.2016.0208.
  30. ^ Gupta A, Müller AT, Huisman BJH, Fuchs JA, Schneider P, Schneider G (2018). "Generative Recurrent Networks for De Novo Drug Design". Mol Inform. Quyển 37 số 1–2. doi:10.1002/minf.201700111. PMC 5836943. PMID 29095571.{{Chú thích tạp chí}}: Quản lý CS1: nhiều tên: danh sách tác giả (liên kết)

Liên kết ngoài

[sửa | sửa mã nguồn]
Chúng tôi bán
Bài viết liên quan
Đầu Xạ Chú Pháp mạnh tới mức nào?
Đầu Xạ Chú Pháp mạnh tới mức nào?
Đầu Xạ Chú Pháp là một thuật thức di truyền của gia tộc Zen’in. Có hai người trong gia tộc được xác nhận sở hữu thuật thức này
Tết Hàn thực cổ truyền của dân tộc
Tết Hàn thực cổ truyền của dân tộc
Tết Hàn Thực hay Tết bánh trôi bánh chay là một ngày tết vào ngày mồng 3 tháng 3 Âm lịch.
Vegapunk và quan điểm về tôn giáo của Albert Einstein
Vegapunk và quan điểm về tôn giáo của Albert Einstein
Tương lai đa dạng của loài người chính là năng lực. Căn cứ theo điều đó, thứ "Trái với tự nhiên" mới bị "Biển cả", mẹ của tự nhiên ghét bỏ
Làm thế nào để hiểu thấu tâm lý người khác
Làm thế nào để hiểu thấu tâm lý người khác
Những câu truyện nhỏ này sẽ giúp ích bạn rất nhiều trong nắm bắt tâm lý người khác