Đặt là tập hợp các phân bố xác suất trong đó A là một tập hợp cùng với một σ-đại số gồm các tập con đo được. Cụ thể hơn, ta chỉ xem xét A là tập hợp hữu hạn hoặc đếm được với mọi tập con đều đo được. Khoảng cách Jensen-Shannon (JSD) là phiên bản đối xứng và trơn của khoảng cách Kullback-Leibler . Nó được định nghĩa như sau
trong đó
Nếu A là đếm được thì có định nghĩa tổng quát hơn cho phép so sánh nhiều hơn hai phân bố, như sau:
trong đó là trọng số của các phân bố và là entropy Shannon của phân bố . Trong trường hợp chỉ có hai phân bố mô tả ở trên,
Khoảng cách Jensen-Shannon đúng bằng thông tin tương hỗ giữa biến ngẫu nhiên phân phối theo một phân phối hỗn hợp và biến ngẫu nhiên trong đó nếu được lấy từ và nếu được lấy từ .
Từ kết quả trên có thể suy ngay ra khoảng cách Jensen-Shannon nằm trong khoảng từ 0 đến 1 vì thông tin tương hỗ là không âm và bị chặn bởi .
^D. M. Endres & J. E. Schindelin (2003). “A new metric for probability distributions”. IEEE Trans. Inf. Theory. 49 (7): 1858–1860. doi:10.1109/TIT.2003.813506.Quản lý CS1: sử dụng tham số tác giả (liên kết)
^F. Ôsterreicher & I. Vajda (2003). “A new class of metric divergences on probability spaces and its statistical applications”. Ann. Inst. Statist. Math. 55 (3): 639–653. doi:10.1007/BF02517812.Quản lý CS1: sử dụng tham số tác giả (liên kết)