نظریه نرخ-اِعوِجاج (نرخِ اعوجاج خوانده نشود)، یک شاخه اصلی از نظریه اطلاعات است که اصول نظری برای فشرده سازیِ خطادارِ داده (دیتا) است. این نظریه سعی در حل مسئلهٔ مشخص کردن حداقل تعداد بیت برای هر سمبل دارد (که با نرخ R اندازه گرفته میشود) که باید در کانال انتقال یابد به گونهای که منبع اولیه را بتوان به صورت تقریبی در مقصد بازیابی کرد، ضمن اینکه اعوجاج (Distortion) از حد معینی (D) بیشتر نشود.
نظریه نرخ-اعوجاج یک فرمول بندی ریاضی است که بیان می کند چه مقدار فشرده سازیِ خطا دار امکانپذیر است. بسیاری از روشهای فشرده سازی، صدا، گفتار، تصویر ثابت یا متحرک، دارای تبدیلات، کوانتیزاسیون، و روندهایی برای تعیین نرخ بیت هستند که در قالب کلی توابع نرخ-اعوجاج قرار می گیرند.
نظریه نرخ-اعوجاج توسط شانون در کار اساسی اش در نظریه اطلاعات شکل گرفت.
در نظریه نرخ-اعوجاج، معمولاً نرخ به عنوان تعداد بیت مورد استفاده برای هر سمبل به منظور ارسال یا فشرده سازی شناخته میشود. در بسیاری از موارد ساده، اعوجاج به صورت متوسطِ (امیدِ ریاضی) مربع اختلاف سیگنال ورودی و خروجی تعریف میشود. اما، از آنجایی که تکنیکهای فشرده سازی خطادار روی داده هایی اعمال میشوند که قرار است برای انسان قابل درک باشند (مانند موسیقی، تصاویر ثابت یا متحرک)، اندازهگیری اعوجاج باید به گونهای مدل شود که متناسب با درک انسان باشد. بسیار شبیه استفاده از احتمالات در فشرده سازی خطا دار، معیارهای اعوجاج میتوانند با توابع هزینه (همان گونه که در تخمین بِیزَین و تئوری تصمیم استفاده میشود)، بیان شوند. در فشرده سازی صوت، مدلهای ادراکی (و در نتیجه اعوجاج ادراکی) نسبتاً خوب پیشرفت کردهاند و به صورت معمول در تکنیکهای فشرده سازی نظیر MP3 یا Vorbis استفاده میشوند، اما اغلب ساده نیست که در غالب تئوری نرخ- اعوجاج آورده شوند. در فشرده سازی تصویر ثابت یا متحرک، مدلهای مبتنی بر ادراک انسان کمتر توسعه یافتهاند و به صورت محدود در ماتریس وزنهای JPEG و MPEG استفاده میشود.
توابعی که نرخ و اعوجاج را به هم مرتبط میکنند، جوابهای مسئلهٔ کمینه سازی زیر هستند:
در اینجا (QY | X(y | x، که گاهی تست کانال نامیده میشود، تابع چگالی احتمال شرطی (PDF) خروجی کانال ارتباطی Y برای یک ورودی مفروض X است و (IQ(Y ; X اطلاعات متقابل بین Y و X است که به صورت زیر تعریف میشود:
که (H(Y و (H(Y | X آنتروپی سیگنال خروجی (y) و آنتروپی شرطی سیگنال خروجی به شرط سیگنال ورودی است :
همچنین مسئله را میتوان به صورت یک تابع نرخ-اعوجاج فرمول بندی کرد که قصد داریم آن را روی اعوجاجهای دست یافتنی برای یک محدودیت روی نرخ مینیمم کنیم. عبارت مرتبط با آن به صورت خواهد بود:
این دو فرمول بندی به توابعی منجر میشود که معکوس یکدیگر هستند.
اطلاعات متقابل میتواند به عنوان معیاری باشد برای تفاوت عدم قطعیت گیرنده از سیگنال Y و عدم قطعیت از Y به شرط دانستن X. البته این کاهش عدم قطعیت به خاطر میزان اطلاعاتی است که بین فرستنده و گیرنده مخابره میشود. (I(Y; X
به عنوان مثال، اگر هیچ مخابرهای نداشته باشیم، آنگاه (H(Y |X) = H(Y و I(Y; X) = ۰. در طرف دیگر، اگر کانال مخابراتی بدون خطا باشد و سیگنال دریافتی Y برابر سیگنال ارسالی X باشد، آنگاه H(Y | X) = ۰ و (I(Y; X) = H(Y.
در تعریف نرخ- اعوجاج، اعوجاج بین X و Y برای یک(QY | X(y | x هستند و حداکثر اعوجاج مجاز هستند. هنگامی که از میانگین مربع خطا به عنوان معیار اعوجاج استفاده میکنیم، داریم: (برای سیگنالهای با دامنه پیوسته)
همانطور که معادله بالا نشان میدهد، محاسبهٔ یک تابع نرخ-اعوجاج نیاز به توصیف احتمالی ورودی X در قالب PDF آن دارد، و سپس به دنبال PDF شرطی ای (QY | X(y | x میرود که نرخ را برای یک اعوجاج D* کمینه کند.
یک تعریف آنالیزی برای حل این مسئلهٔ کمینه سازی، اغلب سخت بدست میآید، جز در مواردی که به دو مورد از آنها اشاره میکنیم. تابع نرخ-اعوجاج هر منبع از چند ویژگی اساسی پیروی میکند. مهم ترینشان این است که یک تابع پیوستهٔ اکیداً نزولی مقعر است.
اگر چه جواب آنالیتیکال برای این مسائل نادر است، حد بالا و پایینی نظیر حد پایین شانون (SLB) برای این توابع وجود دارد، که در مورد خطای مربع و منبع بی حافظه، عنوان میکند که برای هر منبع دلخواه با آنتروپی تفاضلی محدود داریم:
که(h(D آنتروپی تفاضلی متغیر تصادفی گاوسی با واریانس D است. این حد پایین قابل تعمیم به منابع حافظه دار و سایر معیارهای اعوجاج است. یک ویژگی مهم SLB این است که در شرایط اعوجاج اندک برای گروه وسیعی از منابع باند سفتی در دسترس قرار میدهد.
الگوریتم Blahut–Arimoto یک روش مبتنی بر تکرار برای حل عددی تابع نرخ-اعوجاج برای الفبای محدود ورودی - خروجی منبع است و کارهای زیادی برای گسترش این راه حل به مسائل عمومی تری انجام شده است.
هنگام کار با منابع حافظه دار، ضروری است که تعریف تابع نرخ-اعوجاج بازنگری شود و به صورت یک حد روی دنبالههایی که طول افزایشی دارد دیده شود.
جایی که:
و
که بالانویسها یک دنباله کامل تا آن زمان را نشان میدهد و زیرنویس 0، حالت اولیه را نشان میدهد.
اگر فرض کنیم که (PX(x یک توزیع گاوسی با واریانس σ2 و نمونههای آتی سیگنال X مستقل هستند (منبع بی حافظه است یا سیگنالها ناهمبسته اند)، فرم بستهٔ زیر برای تابع نرخ-اعوجاج استخراج میشود:
شکل زیر نشان میدهد که این تابع بدین صورت است:
نظریه نرخ-اعوجاج به ما میگوید هیچ سیستم فشرده سازی وجود ندارد که خارج از ناحیهٔ خاکستری عمل کند. خط قرمز یک باند برای فشرده سازهای عملی است. به عنوان یک قانون کلی این حد تنها با افزایش طول بلوکهای کد امکانپذیر است. با این وجود، حتی در طول بلوک واحد امکان یافتن کوانتایز خوب به گونهای که با فاصله خوبی از تابع نرخ-اعوجاج کار کند وجود دارد.
این تابع نرخ-اعوجاج تنها برای منابع گاوسی بدون حافظه برقرار است. منبع گاوسی سخت ترین منبع برای دیکد کردن است. برای یک خطای میانگین مربعات، این منبع به بیشترین تعداد بیت نیاز دارد. بهرهوری یک سیستم فشرده سازی عملی که بر روی تصاویر کار میکند ممکن است به خوبی زیر باند پایین (R(D نشان داده شده باشد.
فرض کنید می خواهیم اطلاعات منبعی را ارسال کنیم بطوری که اعوجاج از حد D تجاوز نکند. نظریه نرخ-اعوجاج میگوید که حداقل (R(D بیت برای هر سمپل از اطلاعات باید از منبع به گیرنده برسد. همچنان از نظریهٔ کدینگِ کانال شانون میدانیم که اگر آنتروپی منبع، H بیت برای هر سمبل باشد، و ظرفیت کانال (C (C<H باشد، آنگاه H-C بیت برای هر سمبل هنگام ارسال اطلاعات روی کانال از دست میرود. برای اینکه گیرنده بتواند اطلاعات را با حداکثر اعوجاج D بازیابی کند، باید از دست دادن اطلاعات در هنگام انتقال از بیشینه خطای قابل تحمل (H − R(D بیت برای هر سمیل بیشتر نباشد؛ که این به این معنی است که ظرفیت کانال باید حداقل بیشتر از (R(D باشد.
<link rel="mw:PageProp/Category" href=". /رده:نظریه_اطلاعات"/>