استنظام الدفعة

تسوية الحزمة[1] أو استنظام الدُّفْعَة[2][3] هي طريقة تستخدم لجعل تدريب الشبكات العصبونية الاصطناعية أسرع وأكثر استقرارًا من خلال تسوية مدخلات الطبقات عن طريق إعادة التوسيط وإعادة القياس. اقترحها سيرجي إيوفي وكريستيان زيجيدي في عام 2015.[4]

في حين أن تأثير استنظام الدفعة واضح، فإن الأسباب الكامنة وراء فعاليتها تظل قيد المناقشة. كان يُعتقد أنه يمكن أن يخفف من مشكلة التحول المتغير الداخلي، حيث تؤثر تهيئة المعلمة والتغييرات في توزيع مدخلات كل طبقة على معدل التعلم للشبكة. [5] جادل بعض العلماء في الأوان الأخير أن تطبيع الدُفعات لا يقلل من التحول المتغير الداخلي، بل يعمل على تسهيل الوظيفة الموضوعية ، والتي بدورها تعمل على تحسين الأداء. [6] ومع ذلك يؤدي استنظام الدُفعات عند التهيئة في الواقع إلى حدوث انفجار متدرج شديد في الشبكات العميقة، والذي يُخفف فقط عن طريق تخطي الاتصالات في الشبكات المتبقية.[7] ويرى آخرون أن استنظام الدفعة يحقق فصلًا في اتجاه الطول، وبذلك يسرع الشبكات العصبوينة الاصطناعية.[8]

المراجع

[عدل]
  1. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 45، QID:Q111421033
  2. ^ موفق دعبول؛ مروان البواب؛ نزار الحافظ؛ نوار العوا (2017)، قائمة مصطلحات المعلوماتية (بالعربية والإنجليزية)، دمشق: مجمع اللغة العربية بدمشق، ص. 170، QID:Q112244705
  3. ^ موفق دعبول؛ مروان البواب؛ نزار الحافظ؛ نوار العوا (2017)، قائمة مصطلحات المعلوماتية (بالعربية والإنجليزية)، دمشق: مجمع اللغة العربية بدمشق، ص. 20، QID:Q112244705
  4. ^ Ioffe، Sergey؛ Szegedy، Christian (2015). "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift". arXiv:1502.03167 [cs.LG].
  5. ^ Ioffe، Sergey؛ Szegedy، Christian (2015). "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift". arXiv:1502.03167 [cs.LG].Ioffe, Sergey; Szegedy, Christian (2015). "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift". arXiv:1502.03167 cs.LG.
  6. ^ Santurkar، Shibani؛ Tsipras، Dimitris؛ Ilyas، Andrew؛ Madry، Aleksander (29 مايو 2018). "How Does Batch Normalization Help Optimization?". arXiv:1805.11604 [stat.ML].
  7. ^ Yang، Greg؛ Pennington، Jeffrey؛ Rao، Vinay؛ Sohl-Dickstein، Jascha؛ Schoenholz، Samuel S. (2019). "A Mean Field Theory of Batch Normalization". arXiv:1902.08129 [cs.NE].
  8. ^ Kohler، Jonas؛ Daneshmand، Hadi؛ Lucchi، Aurelien؛ Zhou، Ming؛ Neymeyr، Klaus؛ Hofmann، Thomas (27 مايو 2018). "Exponential convergence rates for Batch Normalization: The power of length-direction decoupling in non-convex optimization". arXiv:1805.10694 [stat.ML].