Теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой. Пусть x и h.- случайные величины, определенные на нек-ром вероятностном пространстве и принимающие значения в измеримых пространствах и соответственно, а — их совместное и маргинальные распределения вероятностей. Если распределение Pxh (Х). абсолютно непрерывно относительно прямого произведения мер — плотность (по Радону — Никодиму) меры Pxh( Х) относительно меры и — информационная плотность (логарифмы обычно берутся по основанию 2 или е), то, по определению, И. к. дается формулой Если же мера не является абсолютно непрерывной относительно произведения мер то, по определению, В случае, когда величины x и h принимают конечное число значений, выражение для И. к. I(x, h) приобретает следующий вид: где {pij, i=1, ...,n; j=1, ...,m) — распределения вероятностей x,h и пары (x, h) соответственно (в частности, является энтропией случайной величины x), а если x,h — случайные векторы и существуют плотности Px(x), рh (у), Рxh( х, у )случайных векторов x, h и пары (x, h) соответственно, то В общем случае где верхняя грань берется по всем измеримой функциям и с конечным числом значений. Понятие И. к. используется главным образом в теории передачи информации. Лит. см. [1], [2], [4] при ст. Информации передача. Р. Л. Добрушин, В. В Прелов.