Клод Шеннон: Математическая теория связи
<< Часть 2. Дискретный зашумленный канал | Оглавление | Часть 4. Непрерывный канал >>
Часть 3. Математические основы
В дальнейшем мы рассмотрим ситуации, в которых сигналы и/или сообщения являются непрерывными величинами, в противоположность рассмотренному ранее дискретному случаю. Непрерывный случай может быть получен предельным переходом из дискретного - делением непрерывного множества сообщений и сигналов на большое но конечное число малых областей и вычислением величин по такой дискретной системе. С уменьшением размеров отдельных областей эти параметры в общем случае стремятся к соответствующим величинам непрерывной задачи. Однако, появляются и некоторые новые эффекты, кроме того, акценты смещаются в направлении специализации общиз результатов для конкретных задач.
В непрерывном случае мы не будем пытаться получать результаты с как можно большей общностью или математической строгостью, так как это потребовало бы существенного углубления в абстрактную теорию меры и увело нас далеко от основной линии нашего исследования. Предварительное рассмотрение, однако, показывает, что теория может быть сформулирована полностью аксиоматически и строго так, что будет включать в себя как непрерывный, так и дискретный случаи, и многое другое. Определенноые вольности в предельных переходах в нашеи рассмотрении могут быть строго обоснованы для всех практически интересных ситуаций.
Множества и ансамбли функций
При рассмотрении непрерывного случая мы будем иметь дело с множествами и ансамблями функций. Множество функций, как следует из названия, есть просто набор или группа их, зависящих обычно от одной переменной, времени. Оно определяется явным заданием различных составляющих его функций, или же свойством, которым обладают это функции, а все остальные - нет. Приведем несколько примеров.
-
Множество функций
Каждое значение определяет некоторую функцию этого множества.
- Множество всех функций, завивящих от времени и не содержащих гармоник с частотами, большими .
- Множество всех функций, ограниченных частотным диапазоном и амплитудой .
- Множество всех сигналов английской речи как функций от времени.
Назовем ансамблем функций множество их с мерой, посредством которой можно определить вероятность функции из этого множества, имеющей заданные свойства. (Математическим языком - функции принадлежат пространству с мерой, причем его полная мера равна единице.). К примеру, для множества
мы можем задать распределение вероятности для , . Множество при этом становится ансамблем.
Приведем еше несколько примеров ансамблей.
- Конечный набор функций () с вероятностью , равной .
-
Конечномерное семейство функций
с плотностью вероятности параметров
К примеру, можно рассмотреть ансамбль, определяемый
с амплитудами , распределенным нормально и независимо, и фазами , распределенными равномерно (от до ) и независимо.
-
Ансамбль
с , нормально распределенными и независимыми с одинаковым стандартным отклонением . Это представление ``белого'' шума, ограниченного диапазоном частот от до и со средней мощностью (Это представление можно считать определением ограниченного по частоте белого шума. Оно имеет некоторые преимущества перед другими используемыми, так как содержит меньшее число предельных переходов. Возможно, название ``белый шум'', широко закрепившееся в литературе, не вполне удачно, так как в оптике белым цветом называют либо любой непрерывный спектр (в отличие от точечного), либо же спектр, плоский по длинам волн, а это не то же самое, что плоский по частоте спектр.).
-
Пусть точки распределены на оси согласно распределению Пуассона. В каждой выбранной точке помещается функция , и эти функции затем складываются, образуя ансамбль
где - точки пуассоновского распределения. Этот ансамбль можно считать частным случаем импульсного или дробового шума, в котором все импульсы одинаковы.
- Набор функций английской речи, для которого за вероятности приняты частоты встречаемости в языке.
Назовем ансамбль функций стационарным, если результаты расчета по нему не меняются при произвольном (фиксированном) сдвиге по времени. Ансамбль
стационарен, если распределена равномерно на интервале от до . При сдвиге каждой из функций на получаем
где распределено равномерно от до . Каждая из фугкций меняется, но ансамбль как целое инвариантен по отношению к такому преобразованию. Остальные вышеприведенные примеры также являются стационарными.
Ансамбль является эргодическим, если от стационарен и в нем отсутствуют подмножества с вероятностью, отличной от 0 и 1, которые являются стационарными. Ансамбль
является эргодическим. Ни одно из его подмножеств с вероятностью не переходит в себя при произвольном сдвиге по времени. С другой стороны, ансамбль
с нормально распределенной и равномерно - стационарен, но не эргодичен, так как, к примеру, его подмножество с между 0 и 1 стационарно.
Среди вышеприведенных примеров третий и четвертый эргодичны, пятый, возможно, тоже. Если ансамбль эргодичен, можно (грубо) считать, что любая из его фкнкций является для него типичной. Более точно, известно, что для эргодического ансабмля среднее любой статистики по ансамблю равно (с вероятностью 1) среднему по времени для любой из функций (Это - заменитая эргодическая теорема (точнее, один из ее аспектов), доказанная в немного различных формулировках Бирковым, фон Нейманом и Купманом (Birkoff, von Neumann, Koopman), и обобщенная затем Винером, Хопфом, Гуревичем (Wiener, Hopf, Hurewicz) и другими. Литература по эргодической теории достаточно обширна, и мы отсылаем читателя к статьям этих авторов за точной и общей формулировкой; к примеру, см. E. Hopf, ``Ergodentheorie,'' Ergebnisse der Mathematik und ihrer Grenzgebiete, v. 5; ``On Causality Statistics and Probability,'' Journal of Mathematics and Physics, v. XIII, No. 1, 1934; N. Wiener, ``The Ergodic Theorem,'' Duke Mathematical Journal, v. 5, 1939.). Грубо говоря, можно считать, что каждая функция со временем проходит с соответствующей частотой все элементы формы всех остальных функций.
Точно так же, как мы производим некоторые операции над числами или функциями для получения новых чисел лил функций, мы можем производить некоторые операции над ансамблями для получения новых. Пусть, к примеру, у нас есть ансамбль функций и оператор , переводящий каждую из функций в
Меру вероятности для множества определим через меру для . Вероятность некоторого подмножества равна вероятности его прообраза из (то есть такого подмножества, которое переводится действием оператора в данное). Физически это соответствует пропусканию ансамбля через некоторое устройство, к примеру - фильтр, выпрямитель или модулятор. Функции на выходе этого устройства образуют ансамбль .
Устройство или оператор назовем инвариантным, если сдвиг входного сигнала соответствующим образом сдвигает выходной, то есть из
следует
для всех и . Легко показать (см. приложение 5), что если оператор инвариантен и входной ансамбль стационарен, выходной ансамблю также будет стационарным. Аналогично, если входной ансамбль эргодичен, будет эргодичным и выходной.
Фильтр или выпрямитель инвариантны относительно любых преобразований времени, тогда как операция модуляции - нет, так как несущая частота имеет определенную временную структуру. Однако, модуляция инвариантна относительно всех преобразований, кратных периоду несущей частоты.
Винер (Wiener) обратил внимание на глубокую связь инвариантности физических устройств относительно временных сдвигов с теорией Фурье (Теория связи обязана Винеру основами свой философии и теории. Его классический доклад (NDRC report) The Interpolation, Extrapolation and Smoothing of Stationary Time Series (Wiley, 1949) содержит первую ясную и четкую формулировку теории связи как статистической задачи изучения операций над временными рядами. Эта работа, хотя и посвященная главным образом задачам линейного предсказания и фильтрации, является важным дополнением к данной статье. Хотелось бы также отметить его Cybernetics (Wiley, 1948), посвященную общей задаче связи и управления.). Так, он показал, что, если устройство является линейным и инвариантным, фурье-анализ дает подходящий математический аппарат для его описания.
Ансамбль функций является подходящим математическим представлением сообщений, выдаваемых непрерывным источником (к примеру, речи), сигналов, сформированных преобразователем, и возмущающего шума. Теория связи в корректной формулировке, как было отмечено Винером, должна иметь дело не с конкретными функциями, а с их ансамблями. Система связи должна разрабатываться не для конкретной речевой функции, и уж тем более не для синусоидального сигнала, а для ансамбля функций речи.
Ансамбли функций с ограниченным диапазоном частот
Если функция времени ограничена интервалом частот от до , то она полностью определяется набором своих значений в дискретном наборе точек с шагом способом, представленным в нижеприведенной теореме (За доказательством и обсуждением отсылаем к работе автора ``Communication in the Presence of Noise'', опубликованной в Proceedings of the Institute of Radio Engineers, v. 37, No. 1, Jan., 1949, pp. 10--21.).
Теорема 13: Пусть не содержит компонент с частотой, большей . Тогда
где
В этом разложении представляется суммой ортогональных функций. Коэффициенты можно рассматривать как координаты в бесконечномерном ``пространстве функций'', в котором каждая функция соответствует только одной точке, и каждая точка - функции.
Функцию можно считать ограниченной временем , если все ее значения за пределами этого интервала равны нулю. Таким образом, функции, ограниченные частотным диапазоном и временным - , соответствуют точкам пространства размерности .
Подмножество таких функций соответствует области в этом пространстве. К примеру, функции с полной энергией, меньшей , соответствуют точкам внутри -мерной сферы радиуса .
Ансамбль функций ограниченных длины и частотного диапазона можно представить распределением вероятности в соответствующем -мерном пространстве. Если же ансамбль не ограничен во времени, можно считать, что координат на интервале представляют часть функции, лежащую на этом интервале, а распределение вероятности - статистическую структуру ансамбля интервалов такой длины.
Энтропия непрерывного распределения
Энтропия дискретного набора вероятностей была определена как
Определим аналогично и энтропию непрерывного распределения с плотностью
Для -мерного распределения имеем
При наличии двух аргументов и (которые, в свою очередь могут быть многомерными) совместная и условная энтропии имеют вид
и
где
Энтропии непрерывных распеределий сохраняют большинство (но не все) свойств дискретного случая. В частности,
- Если ограничено некоторым обьемом пространства , то максимально и равно когда постоянно (и равно ) в этом обьеме.
-
Для люьых двух переменных , имеем
причем равенство имеет место тогда и только тогда, когда и независимы, то есть (за исключением набора точек нулевой вероятности).
-
Рассмотрим обобщенную операцию усреднения вида
с
Тогда энтропия усредненного распределения не меньше энтропии исходного .
-
Имеет место
и
-
Пусть - одномерное распределение. Формой его, максимизирующей энтропию при условии постоянства стандартного отклонения , является гауссиана. Чтобы продемонстрировать это, максимизируем
withпри условиях
Это требует, согласно вариационному исчислению, максимизации
Условием для этого является
и следовательно (подбирая константы для удовлетворения ограничений)
Аналогично, в случае измерений, зафиксируем вторые моменты :
Тогда энтропия максимальна (согласно аналогичным вычислениям), когда является -мерным гауссовым распределением со вторыми моментами .
-
Энторпия одномерного гауссова распределения со стандартным отклонением дается выражением
Его можно вычислить следующим образом:
Аналогично, -мерное гауссово распределение с соответствующей квадратичной формой дается
и энтропия может быть рассчитана как
где - определитель с элементами .
-
Если ограничено полупрямой ( при ) и первый момент фиксирован и равен ,
то максимальная энтропия достигается при
и равна .
-
Есть одно существенное различие между непрерывной и дискретной энторпией. В дискретном случае энтропия является абсолютной мерой случайности некоторой величины, тогда как в непрерывном эта мера - в общем случае она изменится при изменении системы координат. Так, при переходе к координатной системе энтропия будет равна
где - якобиан преобразования координат. Раскрывая логарифм и переходя к переменным , получаем
Таким образом, новая энтропия меньше старой на логарифм якобиана. В непрерывном случае энтропию можно считать мерой случайности величины по отношению к принятому эталону, а именно - к системе координат, в которой все малые элементы обьема имеют равные веса. Когда мы меняем систему координат, энтропия в новой системе характеризует случайность при равных весах равных элементов обьема
Несмотря на эту зависимость от системы координат понятие энтропии в непрерывном случае так же важно, как и в дискретном, благодаря тому, что определения темпа информации и пропускной способности зависят от разности двух энтропий, которая инвариантна, так как каждая из них изменяется на одну и ту же величину.
Энтропия непрерывного распределения может быть отрицательной. Шкала измерения ее имеет произвольный ноль, соответствующий равномерному обьемному распределению. Более компактное, чем жто, распределение имеет меньшую энторпию, которая отрицательна. Темпы и пропускные способности, однако, всегда неотрицательны.
-
Частный случай изменения системы координат - линейное преобразование
В этом случае якобиан равен просто определителю , и
При повороте системы координат (или любом другом преобразовании, сохраняющем длины) и .
Энтропия ансамбля функций
Рассмотрим эргодический ансамбль функций, ограниченных полосой частот ширины $W$. Пусть
плотность функции распределения амплитуд в последовательных точках. Определим энтропию ансамбля в расчете на степень свободы как
Можно также определить энтропию в секунду, поделив не на , а на время в выборках. Так как , .
При белом тепловом шуме гауссово, и
Для данной средней мощности белый шум обладает наибольшей возможной энтропией, что следует из свойств максимизации гауссова распределения, отмеченных выше.
Энтропия непрерывного стохастического процесса обладает многими свойствами, аналогичными дискретному случаю. В дискретном случае энтропия была связана с логарифмом вероятности длинных последовательностей и числом достаточно вероятных последовательностей большой длины. В непрерывном же случае она связана похожим образом с логарифмом плотности вероятности длинных выборок и обьемом достаточно большой вероятности в пространстве функций.
Более точно, если непрерывно по всем для всех , то для достаточно больших
для всех за исключением множества полной вероятности меньше , где и произвольно малы. Это следует из свойства эргодичности при делении пространства на большое число маленьких ячеек.
Связь с обьемом можно установить следующим образом. При тех же условиях рассмотрим -мерное пространство, соответствующее . Пусть - наименьший обьем в этом пространстве, содержащий в себе полную вероятность . Тогда
при не равно 0 или 1.
Это показывает, что для больших есть хорошо определенный обьем (как минимум в логарифмическом смысле) большой вероятности, и внутри него плотность вероятности достаточно донородна (опять же в логарифмическом смысле).
В случае белого шума фкнкция распределения дается выражением
Так как это зависит лишь от , поверхности равной плотности вероятности являются сферами и все распределение сферически-симметрично. Область большой вероятности является шаром радиуса . При вероятность находиться вне этой области радиуса стремится к нулю, и умноженный на логарифм ее обьема стремится к .
В непрерывном случае удобно работать не с энтропией ансамбля, а с некоторой производной от нее величиной, которую мы будем называть мощностью энтропии. Определим ее как мощность ограниченного тем же диапазоном частот белого шума той же энтропии. Иными словами, если энтропия ансамбля равна , то ее мощность есть
В геометрическом подходе это соответствует измерению обьема высокой вероятности квадратом радиуса шара того же обьема. Так как белый шум имеет наибольшую энтропию, мощность энтропии любого шума не превосходит его действительную мощность.
Усиление | Фактор мощности энтропии | Усиление мощности энтропии в децибелах | Импульсный отклик |
2}$ | |||
$\frac{1}{\alpha t^2}\bigl[\cos(1-\alpha)t-\cos t\bigr]$ |
Потери энтропии в линейных фильтрах
Теорема 14: При пропускании ансамбля с энтропией в расчете на степень свободы в полосе частот через фильтр с характеристической функцией $Y(f)$ энтропия выходного ансамбля равна
Действие фильтра сводится к линейному преобразованию координат. Если мы рассмотрим различные частотные компоненты как исходную систему координат, новые частотные компоненты получаются из них умножением на некоторые факторы. Матрица преобразования координат, следовательно, диагонализуется в терминах этих координат. Якобиан преобразования тогда (для синусоидальных и
Энтропия суммы двух ансамблей
косинусоидальных компонент) имеет видгде находятся на равных друг от друга расстояниях в полосе частот . Это имеет место в пределе
Так как - константа, ее среднее значение равно самой величине, и, используя теорему об изменении энтропии при преобразовании координат, получаем искомое доказательство. Таким образом, если энтропия первого ансамбля равна , то второго -
Конечная мощность энтропии равна исходной, помноженной на геометрическое среднее усиления фильтра. Если усиление измеряется в децибелах (db), то мощность энтропии на выходе окажется больше входной на арифметическое среднее усиления на .
В таблице 1 приведены потери мощности энтропии (и переведены в децибелы) для некоторых идеальных характеристик усиления. Кроме того, представлены импульсные отклики этих фильтров для в предположении, что фаза равна нулю.
Потери энтропии для многих иных случаев могут быть получены из вышеприведенных. К примеру, фактор мощности энтропии применим также к любым характеристикам усиления, полученным из произвольным сохраняющим меру преобразованием оси . К примеру, линейно возрастающее усиление (или ``пилообразный зубец'') на интервале от 0 до 1 ведет к тем же самым потерям энтропии. Обратное усиление приводит к обращению фактора, следовательно, для фактор равен . Возведение усиления в любую степень приводит к возведению в ту же степень фактора.
Если у нас есть два ансамбля функций и , мы можем образовать новый, ``сложив'' их. Пусть первый ансамбль имеет плотность вероятности , а второй - . Тогда плотность вероятности их суммы дается выражением
Физически это соответствует сложению сигналов или шумов, описываемых исходными ансамблями.
Следующий результат получается в приложении 6.
Теорема 15: Пусть средние мощности двух ансамблей суть и , а мощности энтропии - и . Тогда мощность энтропии их суммы, , ограничена
Гауссовский белый шум имеет отличительное свойство, состоящее в том, что он может поглотить любой другой сигнал или шум при его добавлении, и результирующая мощность энтропии будет примерно равна сумме мощностей белого шума и сигнала (измеряя от средней величины сигнала, равной обычно нулю), если сигнал достаточно мал по сравнению с шумом.
Рассмотрим -мерное пространство функций, соответствующих этим ансамблям. Белый шум соответствует сферическому гауссовому распределению в этом пространстве, сигнал - некоторому другому, не обязательно гауссовому или сферически-симметричному. Пусть вторые моменты этого распределения относительно центра тяжести суть , то есть, для плотности вероятности ,
где - координаты центра тяжести. Теперь - положительно определенная квадратичная форма, и мы может повернуть систему координат так, чтобы ее оси совпадали с осями этой формы. тогда сводится к диагональному виду .Потребуем, чтобы все были малы по сравнению с , квадратом радиуса сферически-симметричного распределения.
В этом случае свертка сигнала с шумом дает примерно гауссовское распределение, которому соответствует квадратичная форма
Мощность энтропии такого распределения имеет вид
или, приближенно,
Последний член соответствует мощности сигнала, тогда как первый - мощности шума.
<< Часть 2. Дискретный зашумленный канал | Оглавление | Часть 4. Непрерывный канал >>
" align="absmiddle" width="673" height="760" >
Публикации с ключевыми словами:
математика - информация - Шеннон
Публикации со словами: математика - информация - Шеннон | |
См. также:
Все публикации на ту же тему >> |