این نامساوی یکی از نامساویهای احتمالاتی است که در تحلیل الگوریتمها و مسائل مرتبط با حوزه تئوری احتمالات و آمار به کار میرود. این نامساوی توسط کلی مکدیارمید ارائه شدهاست و از آن برای تخمین احتمالات و حدود بسیار بالای احتمالاتی استفاده میشود.
نامساوی مکدیارمید به زبان ساده:
نامساوی مکدیارمید یکی از مفاهیم اساسی ریاضیات است که در حل مسائل به کار میرود. این نامساوی به صورت عمومی به شکل زیر است:
در این نامساوی و
مثال: برای حل نامعادله زیر و بدست آوردن مقادیر ممکن برای
ابتدا از دو طرف نامعادله واحد کم میکنیم:
سپس برای حذف ضریب ، دو طرف نامعادله را در عبارت ضرب میکنیم:
پس مقادیر ممکن برای تمام اعداد حقیقی کوچک تر از میباشد.
نامساوی مکدیارمید یکی از ابزارهای مهم در تحلیل و حل مسائل ریاضیاتی و کاربردهای علمی است.
معادلات مکدیارمید (McDiarmid Equations):
این معادلات به شیوهای مختصر در مورد رفتار دینامیکی و توزیعهایی که در حالت تعادلی در معادلات دیفرانسیلی ظاهر میشوند توضیح میدهد. این معادلات معمولاً در زمینههای مختلفی از علوم مورد استفاده قرار میگیرند. از جمله فیزیک، مهندسی و بیولوژی.
معادلات مکدیارمید در موارد مختلف علوم از جمله فیزیک، مهندسی، اقتصاد و بیولوژی به کار میروند. این معادلات برای توصیف رفتارهایی مانند انتقال حرارت، جریان سیالات، دینامیک سیالات و بسیاری موارد دیگر استفاده میشوند.
معمولاً معادلات مکدیارمید به صورت یک معادله دیفرانسیلی خطی با ضرایب متغیرهای زمان و فضا و معمولاً در ابعاد چندین متغیره بیان میشوند. این معادلات میتوانند به صورت تحلیلی یا عددی حل شوند، و معمولاً در موارد پیچیده، روشهای تقریبی مانند روش المان محدود برای حل آنها استفاده میشود.
برای مطالعه بیشتر در مورد معادلات مکدیارمید، میتوانید به کتب مرجع در زمینه فیزیک و ریاضیات، منابع دانشگاهی یا مقالات علمی در این زمینه مراجعه کنید.
در بیشتر مواقع ما نیاز داریم که نشان دهیم که یک quantity رندوم نزدیک میانگینش هست. برای همین است که ما یک نتیجه به شکل زیر میخواهیم:
اینگونه نتایج با عنوان concentration of measure شناخته میشوند. این نتایج برای ایجاد تضمینهای عملکرد بسیاری از الگوریتمها اساسی هستند. در واقع برای تئوری یادگیری آماری، ما به باند یکنواخت به فرم زیر نیاز داریم:
روی یک کلاس از توابع .
در قضیه احتمال و تئوری علوم کامپیوتر نامساوی McDiarmid یک نوع نامساوی concentration هست که کران بالایی برای انحراف بین نمونههای آزمایش که به صورت متغیرهای تصادفی مستقل هستند و امید ریاضی تابع مشخص ارائه میدهد.
این نامساوی روی توابعی که bounded differences property هستند تعریف میشود.
از جمله مفاهیم اصلی در این موضوع میتوان به مفهوم bounded differences property اشاره کرد. وقتی یک تابع این ویژگی را برای دارد. یعنی برای هر و هر که تنها تفاوتشان در جمله i ام هست داشته باشیم:
در اینصورت میگوییم این تابع bounded differences property- هست.
مفهوم دیگری که در اینجا داریم مفهوم concentration inequalities هست. اینگونه نامساویها یک کرانی درمورد اینکه یک متغیر تصادفی چگونه از یک مقدار که بهطور معمول امید ریاضی هست انحراف دارد. در قانون اعداد بزرگ جمع متغیر تصادفیهای مستقل به احتمال زیاد نزدیک به امید ریاضی آنها است. البته نتایج اخیر نشان میدهد که این رفتار با تابعهای دیگری از متغیرهای تصادفی نیز به اشتراک گذاشته شدهاست.
فرض کنید متغییرهای تصادفی مستقل از یک توزیع باشند که یک مقدار مشخص با احتمال p وجود نداشته باشد و تابعی با bounded differences property- باشد. آنگاه برای هر t بزرگتر از صفر داریم:
فرض کنید متغییرهای تصادفی مستقل باشند و یک تابع باشد که همان kامین ورژن centered conditional از f باشد. را نورم sub-Gaussian یک متغیر تصادفی در نظر بگیرید. آنگاه برای هر t بزرگتر از صفر داریم:
فرض کنید متغییرهای تصادفی مستقل باشند و یک تابع باشد که همان kامین ورژن centered conditional از f باشد. را نورم sub-Exponential یک متغیر تصادفی در نظر بگیرید. آنگاه برای هر t بزرگتر از صفر داریم:
از مثالهای کلاسیک این نامساوی میتوان به نامساوی Hoeffding که در بالا آن را بیان کردیم اشاره نمود.
مثال دیگری که میتوان از حالت خاص unbalanced این نامساوی داشت استفاده آن در یک تابع در گرافها هنگام ارزیابی بر روی گرافهای تصادفی پراکندهاست زیرا در یک گراف تصادفی پراکنده احتمال نبودن یک یال خاص بسیار بیشتر از وجود آن است.
از کاربردهای سایر بخشها در این بخش میتوان به entropy اشاره کرد. درواقع وقتی ما میخواهیم از حالت جمع (در نامساوی Hoeffding) به حالت تابع general از متغیرهای تصادفی مستقل نامساوی را extend کنیم از متد entropy استفاده میکنیم.
از کاربردهای این نامساوی میتوان به اینکه کران این نامساوی به عنوان یک ابزار استاندارد در آنالیز الگوریتمها به کار میرود اشاره کرد.
از این نامساویها در برخی از مسایل استاندارد در تیوری یادگیری و vector valued concentration و تعمیم PCA و روش پیچیدگی Rademacher استفاده میشود. و البته در مرور زمان از اینها برای تعمیم کرانها در شرایط مختلف نیز اثبات شد.
همچنین میتوان نشان داد با استفاده از این نامساویها که نامساوی Kontorovich که تمرکز بر محصولات فضاهای احتمال متریک زیر گاوسی را توصیف میکند و کاربردهایی برای پایداری الگوریتم دارد میتواند به حالت زیر نمایی نیز بسط پیدا کند.