واحدهای بازگشتیدروازهای (GRUs) یک مکانیسم دروازهای در شبکههای عصبی بازگشتی هستند که در سال ۲۰۱۴ توسط کیونگهیون چو و همکارانش ایجاد شدند.[۱]واحد بازگشتیدروازهای مانند یک حافظه طولانی کوتاه مدت (LSTM) با یک دروازه فراموشی کار میکند،[۲] اما پارامترهای کمتری نسبت به LSTM دارد، زیرا فاقد دروازه خروجی است.[۳] عملکرد GRU در برخی از وظایف مانند مدلسازی موسیقی چندصدایی، مدلسازی سیگنال گفتار و پردازش زبان طبیعی مشابه عملکرد LSTM است.[۴][۵] GRUها عملکرد بهتری در مجموعه دادههای کوچکتر و دادههای کمبسامد دارند.[۶]
واحد تکراری تطبیقی محتوا یا Content Adaptive Recurrent Unit (CARU) گونهای از GRU است که در سال ۲۰۲۰ توسط کاهو چان و همکاران وی ایجاد شد.[۹] CARU شامل گیت به روز رسانی مانند GRU است، اما به جای گیت ریست، یک گیت تطبیقی با محتوا معرفی میکند. CARU برای کاهش مشکل وابستگی طولانی مدت مدلهای RNN طراحی شدهاست. CARU پارامترهای کمتری نسبت به GRU دارد و در مسائل پردازش زبانهای طبیعی عملکردش تنها قدری بهتر از GRU است.[۱۰]
در معادلات زیر، متغیرهای حروف کوچک نشان دهنده بردارها و پارامترهای مدل را نشان میدهد که لایههای خطی هستند که از وزنها و بایاسها تشکیل شدهاند. در ابتدا، برای ، CARU مستقیماً بردارد را برمیگرداند؛ برای خروجیها عبارتند از:
↑Ravanelli, Mirco; Brakel, Philemon; Omologo, Maurizio; Bengio, Yoshua (2018). "Light Gated Recurrent Units for Speech Recognition". IEEE Transactions on Emerging Topics in Computational Intelligence. 2 (2): 92–102. arXiv:1803.10225. doi:10.1109/TETCI.2017.2762739.
↑Su, Yuahang; Kuo, Jay (2019). "On extended long short-term memory and dependent bidirectional recurrent neural network". Neurocomputing. 356: 151–161. arXiv:1803.01686. doi:10.1016/j.neucom.2019.04.044.
↑Gruber, N.; Jockisch, A. (2020), "Are GRU cells more specific and LSTM cells more sensitive in motive classification of text?", Frontiers in Artificial Intelligence, 3: 40, doi:10.3389/frai.2020.00040
↑Dey. "Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks". arXiv:1701.05923.
↑Heck. "Simplified Minimal Gated Unit Variations for Recurrent Neural Networks". arXiv:1701.03452.