In matematica, la disuguaglianza di Prékopa-Leindler è una disuguaglianza integrale strettamente correlata alla disuguaglianza inversa di Young, alla disuguaglianza di Brunn-Minkowski e ad altre numerose, importanti e classiche disuguaglianze in analisi. Il risultato porta il nome dei matematici ungheresi András Prékopa e László Leindler.
Sia 0 < λ < 1 e siano f, g, h : Rn → [0, +∞) due funzioni misurabili a valori reali non negative definite su uno spazio euclideo n-dimensionale Rn. Supponiamo che queste funzioni soddisfino
per ogni x e y appartenenti a Rn. Allora
Ricordiamo che l'estremo superiore essenziale di una funzione misurabile f : Rn → R è definito da
Questa notazione consente di enunciare la seguente forma essenziale della disuguaglianza di Prékopa-Leindler: sia 0 < λ < 1 e siano f, g ∈ L1(Rn; [0, +∞)) due funzioni non negative assolutamente integrabili. Sia
Allora s è misurabile e
La forma basata sull'estremo superiore essenziale venne presentata in.[1] Il suo utilizzo può cambiare il membro sinistro della disuguaglianza. Per esempio, una funzione g che assume il valore 1 esattamente in un punto, di solito, non produrrà un membro sinistro uguale a zero nella forma non basata sull'estremo superiore essenziale, ma produrrà sempre un membro sinistro uguale a zero nella forma basata sull'estremo superiore essenziale.
Si può dimostrare che l'usuale disuguaglianza di Prékopa-Leindler implica la disuguaglianza di Brunn-Minkowski nella forma seguente: se 0 < λ < 1 e A e B sono sottoinsiemi misurabili limitati di Rn tali che la somma di Minkowski (1 − λ)A + λB è anche misurabile, allora
dove μ denota la misura di Lebesgue n-dimensionale. Quindi, la disuguaglianza di Prékopa-Leindler può anche essere usata[2] per dimostrare la disuguaglianza di Brunn-Minkowski nella sua forma più familiare: se 0 < λ < 1 e A e B sono sottoinsiemi misurabili limitati non vuoti di Rn tali che (1 − λ)A + λB è anche misurabile, allora
La disuguaglianza di Prékopa-Leindler risulta utile nella teoria delle distribuzioni logaritmicamente concave, poiché essa può essere usata per mostrare che la concavità logaritmica è conservata dalla marginalizzazione e dalla somma indipendente di variabili casuali distribuite logaritmicamente concave. Supponiamo che H(x,y) sia una distribuzione logaritmicamente concava per (x,y) ∈ Rm × Rn, in modo tale che dalla definizione abbiamo
(equazione 2),
mentre M(y) denoti la distribuzione marginale ottenuta dall'integrazione su x:
Siano dati y1, y2 ∈ Rn e 0 < λ < 1. Allora l'equazione 2 soddisfa la condizione corrispondente all'equazione 1 con h(x) = H(x,(1 − λ)y1 + λy2), f(x) = H(x,y1) and g(x) = H(x,y2), così si applica la disuguaglianza di Prékopa-Leindler. Ciò può essere scritto in termini di M come
che è la definizione di concavità logaritmica per M.
Per vedere come questo implichi la conservazione della convessità logaritmica nelle somme indipendenti, supponiamo che X e Y siano variabili casuali indipendenti con distribuzione logaritmicamente concava. Poiché il prodotto di due funzioni logaritmicamente concave è logaritmicamente concavo, la distribuzione congiunta di (X,Y) è anche logaritmicamente concava. La concavità logaritmica è conservata da cambiamenti affini di coordinate, dunque anche la distribuzione di (X + Y, X − Y) è logaritmicamente concava. Poiché la distribuzione di X+Y è marginale sulla distribuzione congiunta di (X + Y, X − Y), noi concludiamo che X + Y ha una distribuzione logaritmicamente concava.