Die Rate-Distortion-Theorie (deutsch: Rate-Verzerrungs-Theorie) ist eine theoretische Grundlage für Berechnungen in der Informationstheorie. Mit ihrer Hilfe kann rechnerisch eine untere Grenze der Datenübertragungsrate für eine Nachrichtenquelle bestimmt werden, bei der eine Rekonstruktion der Nachricht am Empfänger unter Einhaltung eines vorgegebenen Gütekriteriums, der sogenannten Verzerrung, noch gewährleistet werden kann. Entwickelt wurde sie von Claude E. Shannon, der als Begründer der Informationstheorie gilt.
Durch die Rate-Distortion-Theorie ist es möglich, bei der Nutzung von Irrelevanzreduzierender Codierung theoretische Grenzen für die maximale Kompression zu finden. In vielen Verfahren der Audio-, Sprach-, Bild- und Videocodierung wird die Theorie daher angewendet.
Sie ermöglicht zudem die Bewertung der Effektivität verschiedener Quellencodierungsverfahren, indem die jeweilige Datenrate der verlustbehafteten Kompressionsverfahren mit der unteren Grenze verglichen wird.
Zur Berechnung der Rate-Distortion-Funktion wird jeder möglichen Darstellung eines gesendeten Symbols k durch ein empfangenes Symbol j ein numerischer Wert als Maß für die Verfälschung zugeordnet. Dieser ist das sogenannte Verzerrungsmaß D(k;j). Ein großes D(k;j) bedeutet somit eine große Verfälschung des Signals. Als Verzerrungsmaß wird häufig der einfache Fall des mittleren quadratischen Fehlers genutzt. Die maximal zulässige Verzerrung wird als D* bezeichnet. Die Rate-Distortion-Funktion R(D*) kann nun als Minimum der mittleren Transinformation berechnet werden.
Der Verlauf der Rate-Distortion-Funktion entspricht einer konvexen U-Funktion, die mit wachsendem D* fällt. Das Maximum von R(D*) ist gleich der Entropie H(U) und tritt auf bei D* = 0, also bei keiner erlaubten Verzerrung.