Тэо́рыя інфарма́цыі — раздзел кібернетыкі, які вывучае працэсы захоўвання, пераўтварэння і перадачы інфармацыі.
У тэорыі інфармацыі выкарыстоўваюцца метады тэорый імавернасцей, лікаў, графаў, гульняў, матэматычнай статыстыкі, алгебры.
Інтэнсіўнае развіццё абумоўлена патрэбамі сродкаў сувязі, электроннай вылічальнай і кіравальнай тэхнікі, радыёлакацыі і інш.
Узнікла тэорыя інфармацыі ў канцы 1940-х гадоў на аснове прац амерыканскага матэматыка К. Шэнана; значны ўклад у яе абгрунтаванне зрабілі савецкія вучоныя А. М. Калмагораў, А. Я. Хінчын, А. А. Харкевіч.
На Беларусі даследаванні па тэорыі інфармацыі праводзяцца з 1960-х гадоў у Інстытуце тэхнічнай кібернетыкі НАН Беларусі, БДУ, Беларускім дзяржаўным універсітэце інфарматыкі і радыёэлектронікі і іншых.
Асноўная частка тэорыі інфармацыі — агульная тэорыя сувязі, якая распрацоўвае эфектыўныя метады перадачы інфармацыі па лініях сувязі, вывучае праблемы аптымальнага кадзіравання і фільтрацыі інфармацыі, выяўлення і прадказання сігналаў.
Тэорыя інфармацыі зыходзіць з таго, што сігналы (паведамленні) паступаюць ад крыніцы ў выпадковай паслядоўнасці, маюць пэўную імавернасць, а таксама імавернасць таго, што паведамленні могуць скажацца ў час перадачы. У якасці меры такой неазначальнасці прымаецца сярэдняя колькасць двайковых знакаў, неабходная для запісу адвольнага паведамлення дадзенай крыніцы самым эканомным спосабам кадзіравання. Гэтая мера не меншая за энтрапію мноства паведамленняў
дзе n — колькасць паведамленняў, pi — імавернасць з'яўлення асобнага паведамлення.
Колькасць інфармацыі ў паведамленні X адносна паведамлення Y вызначаецца суадносінамі
дзе H(X,Y) — энтрапія пары (X,Y).
Скорасць V перадачы інфармацыі па канале сувязі не перавышае велічыні, вызначанай з суадносін
дзе H — энтрапія крыніцы на сімвал, C — прапускная здольнасць дадзенага канала.