У'ЧЕБМОЕ
А . И -
ПОСОБИЕ
П е р о в
СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОТЕХНИЧЕСКИХ СИСТЕМ
РАДИОТЕХНИКА
УДК 6 2 1 J 7
П26
Б Б К 32. 965
Учебное
пособие
Рецензенты докт. техн. наук, профессор В.Н. Юдин; канд. техн. наук, профессор A.M. Бонч-Бруевич
Перов А.И. П26
С т а т и с т и ч е с к а я т е о р и я радиотехнических систем. Учеб. пособие вузов. - М.: Радиотехника, 2003,400 е., ил.
для
ISBN 5-93108-047-3
PaccMOipeiibi проблемы статистической теории радиосистем. Кратко изложены основы статистаческого описания событии и процессов: приведены статистические модели сигна10в. сообщений и помех, используемые в радиолокации, связи, навигации, радиоуправлении: ланы основы теории статистических решений; предстаапены рамичные типы задач синтеза опти.чальных устройств и систем, решаемые статистической теорией (обнаружение, различение, согласованная фильтрация, оценка параметров сигналов, линейная и нелинейная фильтрация, экстрапатящ1я и интерполяция информационных процессов); ихюжеиы основы оптимальной прос грансгвенно-временной обработтсн сигналов. Для студентов радиотехнических спещ1а1Ьностей ву зов: .может быть полезн аспиранта.^ и инженера.», занимающи.мся аттезо.м радиотехнически.х устройст и cucme.li.
УДК 621.37 Б Б К 32. 965
ISBN 5-93108-047-3 © Перов А. И., 2003 © Издательство "Радиотехника", 2003
ОГЛАВЛЕНИЕ Предисловие Введение Глава 1. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СОБЫТИЙ И ПРОЦЕССОВ 1.1. Понятие вероятности 1.2. Элементарные события. Случайная величина 1.3. Вероятностное описание случайных величин 1.4. Многомерные случайные величины 1.5. Условные функции распределения и плотности вероятности случайных величин 1.6. Случайные процессы 1.7. Гауссовские случайные процессы 1.8. Марковские случайные процессы 1.8.1. Марковские случайные последовательности 1.8.2. Цепи Маркова 1.8.3. Марковские процессы Глава 2. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ, СООБЩЕНИЙ И ПОМЕХ 2.1. Общие определения 2.2. Узкополосные сигналы 2.3. Статистические модели сигналов 2.4. Статистические модели сообщений 2.5. Статистические модели помех Глава 3. ОСНОВЫ ТЕОРИИ СТАТИСТИЧЕСКИХ РЕШЕНИЙ 3.1. Общие положения 3.2. Решения, функция потерь, риск 3.3. Оптамальные решения 3.4. Оптимальные решения при наличии случайных неинформативных параметров сигнала 3.5. Оптимальные решения при наличии случайных параметров сообщения Глава 4. ОБНАРУЖЕНИЕ СИГНАЛОВ 4.1. Постановка задачи обнаружения сигналов 4.2. Обнаружение детерминированного сигнала 4.2.1. Байесовское решение. Простая функция потерь 4.2.2. Байесовское решение. Обобщенная функция потерь ... 4.2.3. Небайесовское решение. Критерий Неймана—^Пирсона 4.2.4. Формула для отношения правдоподобия
9 10 13 13 14 15 22 26 27 34 41 41 43 45 51 51 54 55 63 67 70 70 71 76 79 81 83 83 84 84 86 88 3
4.2.5. Структура оптимального обнаружителя 4.2.6. Характеристики обнаружения 4.2.7. Обнаружение сигнала при коррелированной помехе ... 4.3. Обнаружение сигнала со случайными параметрами 4.3.1. Общее решение задачи обнаружения сигнала со случайными параметрами 4.3.2. Оптимальный приемник обнаружителя сигнала со случайной начальной фазой 4.3.3. Оптимальный приемник обнаружителя сигнала со случайными амплитудой и начальной фазой 4.3.4. Оптимальный приемник обнаружителя сигнала со случайными начальной фазой, амплитудой, временем запаздывания и смещением частоты 4.4. Обнаружение сигнала по дискретной выборке 4.5. Обнаружение сигнала на фоне негауссовских помех 4.5.1. Обнаружение детерминированного сигнала 4.5.2. Обнаружение сигнала со случайными параметрами .... 4.6. Обнаружение пространственно-временного сигнала 4.6.1. Отношение правдоподобия для пространственновременного сигнала 4.6.2. Оптимальный алгоритм обнаружения пространственно-временного сигнала Глава 5. ОПТИМАЛЬНАЯ СОГЛАСОВАННАЯ ФИЛЬТРАЦИЯ СИГНАЛОВ 5.1. Общие положения теории согласованной фильтравд1и сигналов 5.2. Согласованные фильтры для некоторых типов сигналов 5.2.1. Согласованный фильтр для когерентной пачки радиоимпульсов 5.2.2. Согласованный фильтр для когерентной пачки радиоимпульсов с фазовой манипуляцией Глава 6. РАЗЛИЧЕНИЕ СИГНАЛОВ 6.1. Различение двух детерминированных сигналов 6.2. Различение двух квазидетерминированных сигналов 6.3. Различение т детерминированных сигналов Глава 7. ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА 7.1. Постановка задачи оценки параметров сигнала 7.2. Общее решение задачи оптимального оценивания параметров сигнала на основе теории статистических решений 7.3. Оценки максимального правдоподобия 4
92 94 97 102 102 104 107 110 113 119 119 121 123 124 126 134 134 137 137 140 144 144 150 152 158 158 159 160
7.4. Свойства оценок максимального правдоподобия 7.4.1. Несмещенность 7.4.2. Эффективность 7.4.3. Достаточность 7.5. Свойства оценок случайных параметров 7.5.1. Смещенность оценок случайного параметра 7.5.2. Граница Рао—^Крамера для оценки случайного параметра 7.6. Оценка параметров сигнала, принимающих дискретные значения 7.6.1. Байесовское решение 7.6.2. Небайесовское решение. Оценки максимального правдоподобия 7.7. Оценка параметров сигнала с непрерывной областью значений 7.7.1. Прямые методы решения задач оценки параметров сигнала 7.7.2. Оценка параметров сигнала с помощью дискриминаторов 7.8. Потенциальная точность оценок параметров сигнала 7.9. Оценка параметров сигнала по наблюдениям дискретной выборки 7.10. Оценка информативных параметров сигнала при наличии случайных неинформативных параметров 7.10.1. Оценка параметров сигнала со случайной начальной фазой 7.10.2. Оценка параметров сигнала со случайными амплитудой и начальной фазой 7.11. Оценка параметров сигнала, наблюдаемого на фоне коррелированного шума Глава 8. РАЗРЕШЕНИЕ СИГНАЛОВ 8.1. «Разрешение - обнаружение» сигналов 8.2. «Разрешение - измерение» сигналов 8.3. Функция неопределенности сигнала по задержке и частоте .. Глава 9. ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ 9.1. Уравнение для апостериорной плотности вероятности непрерывных процессов 9.2. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов
162 162 162 167 168 168 168 173 173 177 177 177 182 184 195 197 197 200 201 204 204 206 209 216 218 223
9.3. Рекуррентаое уравнение для апостериорной плотности вероятности дискретных процессов при наличии случайных неинформативных параметров сигнала 9.4. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов при наличии случайных неинформативных параметров сигнала 9.5. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов, зависящих от случайных параметров 9.6. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов, зависящих от случайных параметров Глава 10. ОПТИМАЛЬНАЯ ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ 10.1. Оптимальная линейная фильтрация непрерывных процессов 10.1.1. Общие уравнения оптимальной линейной фильтрации 10.1.2. Некоторые обобщения алгоритмов оптимальной линейной фильтрации 10.1.3. Использование теории оптимальной линейной фильтрации для синтеза сглаживающих цепей следящих измерителей 10.1.4. Примеры синтеза оптимальных линейных систем фильтрации 10.1.5. Оптимальный фильтр Винера 10.2. Оптимальная линейная фильтрация дискретных процессов 10.2.1. Рекуррентные алгоритмы оптимальной дискретной линейной фильтрации 10.2.2. Пример синтеза оптимальной дискретной системы фильтрации 10.2.3. Некоторые обобщения алгоритмов оптимальной дискретной линейной фильтрации 10.2.4. Дискретный фильтр Винера 10.3. Оптимальная комбинированная калмановско-винеровская фильтрация 10.3.1. Непрерывно-дискретная калмановско-винеровская фильтрация 10.3.2. Дискретная калмановско-винеровская фильтрация ... 10.4. Оптимальная линейная экстраполяция и интерполяция 10.4.1. Оптимальная линейная экстраполяция 10.4.2. Оптимальное линейное интерполяция
225
227 229 232 236 236 236 241 242 245 249 257 257 264 266 268 270 271 275 278 278 280
10.5. Оптимальная линейная фильтрация при коррелированных шумах наблюдения Глава 11. ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ 11.1. Уравнения оптимальной нелинейной фильтрации в гауссовском приближении 11.2. Дискриминатор и фильтр в оптимальной системе фильтрации 11.3. Уравнения дискретной нелинейной фильтрации в гауссовском приближении 11.4. Оптимальная непрерывно-дискретная фильтрация и дискретная фильтрация с оптимальным накоплением И .4.1. Оптимальная непрерывно-дискретная фильтрация ... 11.4.2. Дискретная фильтрация с оптимальным накоплением 11.5. Оптимальная нелинейная фильтрация при случайных неинформативных параметрах сигнала 11.5.1. Общие алгоритмы оптимальной фильтрации в гауссовском приближении 11.5.2. Оптимальная фильтрация информационных процессов, переносимых сигналом со случайной начальной фазой 11.5.3. Оптимальная фильтрация информационных процессов, переносимых сигналом со случайными начальной фазой и амплитудой 11.5.4. Оптимальная фильтрация при переменных неинформативных параметрах сигнала 11.6. Оптимальная фильтрация информационных процессов в присутствии дополнительных узкополосных помех 11.7. Оптимальная фильтрация при негауссовских помехах Глава 12. ОПТИМАЛЬНАЯ КОМПЛЕКСНАЯ ФИЛЬТРАЦИЯ 12.1. Радиолокационный двухдиапазонный комплексный измеритель дальности 12.2. Комплексный измеритель дальности и радиальной скорости 12.3. Модифицированный вариант комплексирования Глава 13. АДАПТИВНАЯ ФИЛЬТРАЦИЯ СООБЩЕНИЙ ... 13.1. Постановка задачи адаптивной фильтрации 13.2. Показатели качества адаптивных систем фильтрации 13.3. Общее решение задачи адаптивной фильтрации 13.4. Многоканальные адаптивные системы фильтрации
286
292 292 298 306 309 309 315 317 317 319 322 325 328 330 333 333 338 344 350 350 352 358 361
13.5. Алгоритмы скользящей адаптации 13.5.1. Общее решение задачи по методу скользящей адатадии 13.5.2. Алгоритм скользящего адаптивного приема в непрерывном времени 13.5.3. Понятие контура адапташ1и 13.5.4. Алгоритм скользящего адаптивного приема в дискретном времени Глава 14. ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ПРИ ПРИЕМЕ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ СИГНАЛОВ 14.1. Оптимальная фильтращм при приеме пространственновременного сигнала на фоне внутренних шумов 14.1.1. Оптимальная фильтрация при известном направлении на источник сигнала 14.1.2. Оптимальная фильтрация при неизвестном направлении на источник сигнала 14.2. Оптимальная фильтрация при наличии пространственнораспределенных помех Литература
3 68 368 370 375 376 380 380 380 384 389 398
ПРЕДИСЛОВИЕ Предлагаемая вниманию читателя книга является учебным пособием по курсу «Статистическая теория радиотехнических систем». Этот курс, в соответствии с Государственным образовательным стандартом высшего профессионального образования (2000 г.) по направлению подготовки дипломированного специалиста 654200, «Радиотехника», входит в раздел «Специальные дисциплины» (СД), СП.01 - 200700 «Радиотехника», курс СД.05, объемом 100 часов. В предыдущих стандартах образования данного курса не было, а отдельные его разделы входили в различные курсы: «Радиоавтоматика», «Радиотехнические системы», «Радиолокация», «Радиоуправление» и др. При работе над книгой автор опирался на опыт чтения лекций на радиотехническом факультете Московского энергетического института (технического факультета). Учебник включает 14 глав, каждая из которых посвящена отдельной проблеме в общей статистической теории радиосистем. В первой главе дается краткое изложение основ статистического описания событий и процессов. Если читатель хорошо знаком с теорией вероятностей и теорией случайных процессов, то данная глава при изучении может быть опущена. Во второй главе приводятся статистические модели сигналов, сообщений и помех, которые часто используются в радиотехнических приложениях: радиолокации, связи, навигации, радиоуправлении. Третья глава посвящена основам теории статистических решений, которая является методологической базой, четко определяющей понятие оптимальности принимаемых решений (алгоритмов обработки). В последующих десяти главах рассматриваются основные типы задач, решаемые статистической теорией радиосистем: обнаружение, различение, разрешение, согласованная фильтрация, оценка параметров сигналов, фильтрация информационных процессов. Порядок изложения материала данных глав принят таким, чтобы последующий материал мог использовать те или иные положения и формулы, полученные в предшествующем материале. В то же время, данные главы написаны достаточно «автономно», что допускает их изучение в произвольном порядке, используя ряд необходимых формул как справочный материал. Автор надеется, что данное пособие окажется полезным не только студентам радиотехнических специальностей вузов, но и аспирантам и инженерам, занимающихся вопросами синтеза радиотехнических устройств и систем.
ВВЕДЕНИЕ Радиотехнические системы (РТС) являются информационными системами, осуществляющими передачу, прием и обработку информации в интересах потребителя с использованием радиосигнала в качестве переносчика. Отличительной особенностью условий функционирования РТС является наличие радиоканала, под которым понимают совокупность источника радиосигнала, среды его распространения и приемника. Основное тре^вание, предъявляемое к радиосистеме, состоит в достоверном и своевременном получении необходимой информации потребителем. Однако достоверному приему и извлечению информации мешают реальные физические свойства приемопередающих устройств и среды распространения сигнал, суть которых заключается, во-первых, в случайных изменениях их параметров, а, во-вторых, в возникновении помех, тоже имеющих случайную природу. Действительно, при распространении радиосигнала через турбулентную атмосферу и ионосферу, обладающих случайными коэффициентами поглощения и преломления, происходит случайная модуляция радиосигнала по амплитуде, частоте и фазе. Внешние естественные помехи создаются различными электромагнитными процессами, происходящими в атмосфере, ионосфере и космическом пространстве, которые также имеют случайный характер. В приемных устройствах возникают случайные процессы (шумы), обусловленные тепловым хаотическим движением электронов и т.д. Таким образом, задача приема и извлечения информации в РТС решается в условиях искажений сигнала и информации случайного характера. Очевидно, что такие искажения снижают достоверность извлекаемой информации, а, следовательно, надо принимать меры по ослаблению влияния данных факторов, т.е., по сути, решать задачу оптимизации РТС. Математическим аппаратом, позволяющим оперировать случайными величинами и случайными процессами, является теория вероятностей и математическая статистика. На возможность и целесообразность использования статистических методов в радиотехнике одними из первых указали работы А.Н. Колмогорова (1939 г.) и Н. Винера (1942 г.) по синтезу оптимальных линейных систем фильтрации [2, 17]. Фундаментальной работой, посвященной систематическому применению методов математической статистики в задачах радиосвязи, является теория потенциальной помехоустойчивости В.А. Котельникова (1946 г.). За прошедшие более чем 60 лет статистические методы настолько прочно вошли в теорию РТС, что ни одна новая разработка не начинается без детального анализа функционирования проектируемой системы в условиях влияния случайных процессов и синтеза отдельных устройств и под10
систем статистическими методами. Все наиболее совершенные радиосистемы, такие, например, как системы мобильной связи, спутниковой радионавигации, спутникового телевидения, дистанционного зондирования Земли и планет, базируются на рекомендациях и выводах, полученных в статистической теории РТС. Задачи анализа радиотехнических устройств и систем, подверженных случайным воздействиям, рассматриваются в курсах «Радиотехнические цепи и сигналы», «Радиоавтоматика» и др. В настоящем курсе основное внимание уделяется методам статистического синтеза оптимальных, т.е. в том или ином смысле наилучших, систем. Конечно, после синтеза оптимальной системы естественно встает вопрос об анализе характеристик полученной системы. Другими словами, синтез не исключает необходимости анализа. Однако для проведения анализа в учебнике не рассматриваются какие-либо новые методы, а используются уже известные. Задачи синтеза РТС классифицируются не по типу радиосистем (радиолокационные, радионавигационные, радиоуправления или радиосвязи), а по смыслу решаемой задачи: обнаружение, распознавание, разрешение, оценка параметров сигнала и т.д. Такой подход позволяет дать решение соответствующей задачи с единых теоретических позиций, а особенности ее применения в той или иной РТС (характер априорных данных, статистика распределений, тип сигнала и др.) иллюстрируются на примерах. Итогом синтеза РТС и конечной его целью являются: оптимальный алгоритм обработки принимаемых сигналов в РТС; структура оптимальной РТС, реализующая синтезированный алгоритм; количественная оценка качества работы РТС. Все задачи синтеза РТС рассматриваются с единых позиций, основанных на рассмотрении апостериорных плотностей вероятности информационных процессов и байесовской методологии, предусматривающей использование априорных сведений о сигналах, помехах и информационных процессах. Если априорных сведений для решения задачи статистического синтеза оказывается недостаточно, то используется методология параметрической априорной неопределенности, также допускающая рассмотрение апостериорных плотностей вероятности, но в другом пространстве состояний. В рамках такого подхода естественным образом возникают адаптивные РТС, которые в процессе работы приспосабливаются к параметрической априорной неопределенности условий работы. Для достижения наилучших характеристик РТС в условиях априорной неопределенности адаптивные системы являются более 11
предпочтительными перед другими, такими, например, как инвариантные или робастные системы. Для решения отдельных задач (например оценки постоянных параметров сигнала) рассматриваются небайесовские методы (например, метод максимального правдоподобия), которые хорошо зарекомендовали себя на практике. В учебнике рассматриваются задачи синтеза РТС как в непрерывном, так и в дискретном времени. Последние приобретают все большее значение в связи с бурным развитием вычислительных средств, позволяющих в реальном времени реализовывать сложные оптимальные алгоритмы обработки сигналов. Так, например, в цифровых приемниках спутниковых радионавигационных систем (ГЛОНАСС, GPS) обрабатываются сигналы 12 спутников и реализуются оптимальные корреляционные алгоритмы, алгоритмы поиска, обнаружения и слежения за фазой, частотой и задержкой сигнала. Различным аспектам проблем статистического синтеза РТС посвящена обширная литература (статьи, монографии, научные доклады на конференциях и симпозиумах) как отечественная, так и зарубежная, и число публикаций постоянно растет. Поэтому в списке литературы к учебнику даны лишь основные (по мнению автора) отечественные работы, в которых отдельные вопросы синтеза рассматриваются более подробно, чем в учебнике, и с которыми будет целесообразно ознакомиться особо заинтересовавшемуся читателю.
12
Глава
1
СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СОБЫТИЙ И ПРОЦЕССОВ 1.1. Понятие вероятности Результаты многих физических измерений, опытов, наблюдений меняются (возможно, незначительно) от одного сеанса их проведения к другому. В этих случаях говорят о том, что интересующее нас событие (результат) является случайным. При этом подразумевается, что оно в принципе может быть осуществимо неограниченное число раз. Для математического описания случайных событий вводят понятие вероятности. Пусть некоторое случайное событие А може: принимать конечное число исходов Ai,A2,...,A„ . Практическое понятие вероятности заключается в том, что относительная частота того или иного исхода случайного события в каждой последовательности независимых повторных испытаний приближается к соответствующей вероятности. Таким образом, если имеется JV результатов экспериментов, среди которых событие А = Aj наступило л^ («) раз, то вероятность такого события определяется как Р{А = 4 ) = "А ( 0 / ^ • в строгой математической теории вероятностями называют значения некоторой действительной функции Р{А), определенной на множестве (классе) некоторых событий Ае А, которые представляют собой результаты испытаний (опыта или наблюдения). Вероятности (т.е. функцию Р(А)) вводят посредством определенных аксиом. Пусть имеем множество событий А , которое обладает следующими свойствами: если Ае А и 5 е А , т о данному множеству событий принадлежат также события АВ — произведение событий, заключающееся в наступлении обоих событий А и В , (А+В) — сумма событий, под которой понимаю событие, состоящее в наступлении хотя бы одного из событий А и В А-В) — разность событий, т.е. событие, состоящее в том, что А происходит, а 5 не происходит; множество А содержит достоверное / и недостоверное О события. Вероятностью Р{А) события А называется определенная на А однозначная действительная функция, удовлетворяющая трем аксиомам: 13
А к с и о м а ! . Р(А)>0
для любого Ае А,
А к с и о м а 2. Р{1) = 1 для достоверного события А = 1, А к с и о м а 3.
U
и....) =
для любой по-
следовательности попарно несовместных событий Ai,A2 Из аксиом 1—следует, что 0 < Р ( . 4 ) < 1 . Если А = 0 — невозможное событие, то Р(0) = О . Дополнительно к трем основным аксиомам вводится четвертая, которая связывает «абсолютную» вероятность Р ( А ) , относящуюся к данному испытанию, и условную вероятность Р(^А bJ, относящуюся к испытанию, ограниченному дополнительным условием осуществления события 3 . Условная вероятность
определяется следующей
аксиомой. А к с и о м а 4. Вероятность совмещения событий АпВ Р(АПВ) = Р(В)Р(Х\В}.
равна (1.1)
Формулу (1.1) иногда называют правилом умножения вероятностей. Если /'(J9) = О, то вероятность Р[Аг\В) не определена. Два события А и В называются независимыми (по вероятности), если Р{АпВ)^Р{А)Р{В). 1.2. Элементарные события. Случайная величина Каждое множество событий А = множество G = ^Xj
} может быть представлено как
попарно несовместных событий X j
, так что
каждое событие Aj есть объединение некоторого подмножества событий Xj е Xj из G . Тогда Xj называется элементарныл1 событием, а G = X y j — множеством элементарных событий (или пространством выборок). Каждое множество X^t элементарных событий из G соответствует некоторому событию Af^ из множества А . В частности, само G соответствует достоверному событию, а пустое множество из G — невозможному событию. 14
Пусть Ai,A2,...,A„ — последовательность попарно несовместных событий, образующих полную группу, т.е. Ai KJA2
= I. Тогда
из (1.1) для каждой пары событий Д , В имеет место формула Байеса
^^
^
р{в)
~Ър{А)р{в\а^-
Случайная величина (СВ) есть любая переменная х, значения которой X образуют множество элементарных событий, или, другими словами, обозначают точки в пространстве выборок. В дальнейшем будем полагать, что все рассматриваемые случайные величины заданы на интервале (— 1.3. Вероятностное описание случайных величии Если СВ X принимает конечное (или счетное) число значений {д:,}, I = l,iV, то она называется дискретной, и ее вероятностное описание задается
соответствующими
вероятностями
{Pj = Р{Х = Xi)],
i = l,N, совокупность которых называют законом распределения вероN
ятностей. Очевидно, что X ^ = ^ • 1=1 Если область возможных значений СВ непрерывна, то говорят о непрерывной СВ, для которой аналогом закона распределения вероятностей является функция распределения F^ (jc) = F [х) = Р{Х < х). Другим определением непрерывной СВ может быть следующее: действительная случайная величина X называется непрерывной, если ее функция распределения -F(jc) непрерывна по х и имеет кусочнонепрерывную производную, которая называется плотностью распределения вероятностей случайной величины (кратко — плотностью вероятности (ПВ)) р{Х = х)= lim Дх-^О
Р(х<Х<х Ах
+ ^х)
dF(x) — ^ dx
(1.2) Х =х
Из определения (1.2) следует 15
—«0
P { x i < X <X2) = F{x2)-F{x^) = ' j p i v ) d v , J p(v)^/v = F(co) = l. дс, Иногда вместо плотности вероятности СВ удобнее использовать характеристическую функцию, под которой понимают математическое ожидание случайной величины Y — е^^"^ или, что то же самое, преобразование Фурье от ГШ (1.3) Обратное преобразование Фурье дает
Числовые характеристики плотности вероятности. Математическим ожиданием (МО) функции ф(А') от дискретной или непрерывной случайной величины X называют 1
, Х-
дискретная СВ,
оо
J
Л!" - непрерывная СВ.
Существуют различные числовые характеристики плотности вероятности. Наиболее часто используются моменты. Моментом порядка к случайной величины X относительно числа Р называется МО М Начальным моментом (или просто моментом) порядка к называют М Центральный момент порядка к — это момент порядка к относительно центра распределения тх = М [А"], т.е. М {Х-тх 16
)
Второй центральный момент М {X-mxf
называют дисперсией
Dx • Дисперсия характеризует концентрацию ПВ р[х) в окрестности МО шх = М
. Используя неравенство Чебышева, можно записать
Р{\х-тх\>г)<о/г\ где е > О — произвольное положительное число. Таким образом, дисперсия характеризует меру рассеяния (разброса) значений СВ относительно математического ожидания. Примеры распределений и плотностей вероятностей случайных величин. П р и м е р ! . Равномерное распределение (рис. 1.1): p{x) = \l{b-a),x^{a,b).
(1.4)
Среднее значение, второй момент и дисперсия равномерного распределения равны тх=М[х]
= ^{а + Ь),
М Dy=M
Рис. 1.1. График ПВ равномерного распределения
Равномерное распределение используется в радиотехнике, например, для описания случайной фазы сигнала, принимающей значения на интервале [-rt,7c]. Пример
2. Нормальное (гауссовское) распределение (рис. 1.2) ч2 (х-тх) 1I I Y — т гехр 2Dx
где т х = Л/ [х] — среднее значение; Dx — дисперсия. Момент 2-го порядка определяется выражением
МГУ с БИБЛ&ЮТЕКА
УК
м
=
Dx+m/
Гауссовское распределение широко используется в радиотехнике, например, для описания флуктуационных явлений в аппаратуре. П р и м е р 3. Хи-квадрат распределение {рж. 1.3). Рис. 1.2. График ПВ нормального распределения
Пусть Xj, i = \,n — совокупность независимых гауссовских случайных величин, имеющих нулевые МО и одинаковые дисперсии а^ . Рассмотрим случайную величину (1.5)
Y=lXf. /=1
Распределение случайной величины Y называют хи-квадрат распределением с п степенями свободы. Плотность вероятности такого распределения описывается формулой Р{У) =
^ (\ —п 2
где Г(д') —гамма-функция, определяемая как при g > 0 ,
о
(1.6)
Г(9) = ( ^ - 1 ) !,при q>0 и 9 - целое число. Например: Г
ГП
2 2 W/ На рис. 1.3 приведены графики ПВ хи-квадрат распределения для некоторых значений я при о = 1. Случай, когда /1=2, определяет экспоненциальное распределение. Первые два начальных момента и дисперсия хи-квадрат распределения соответственно равны 18
М
Если случайные величины Xi, i = \,n имеют ненулевые математические 15 У ожидания т ^ , то распределение случайной величины Рис. 1.3. График ПВ хи-квадрат распределения Y, определяемой (1.13), называется нецентральным хи-квадрат распределением, а соответствующая ПВ имеет вид р{у)-
1
ch
yjlnya
где ch(z) = ^e^+e
, >'>0,
(1.7)
—гиперболический косинус.
Первые два начальных момента и дисперсия ПВ (1.7) равны ту =М [У] = пст^ + птх, М Y^ = Ino^ + Ао^пшх + Dy =
+ '""Х f»
+4с^птх •
Хи-квадрат распределение с двумя степенями свободы описывает, например, распределение квадрата огибающей (или мощности) радиосигнала. П р и м е р 4. Рэлеевское распределение (рис. 1.4) Рассмотрим частный случай (1.5), а именно Y = х1 +Х2, где ЛГ, , г = 1,2 — независимые гауссовские случайные величины, имеющие нулевые МО и одинаковые дисперсии а ^ . Определим новую случайную величину Z=
y/Y=ylxf+^
•
(1-8)
Данная случайная величина имеет рэлеевское распределение с ПВ 19
,
(1.9)
z>0.
На рис. 1.4 приведен график рэлеевской ГШ при а = 1. Первые моменты и дисперсия рэлеевской ПВ равны т2
(1.10)
М Dz={2-n/2)a\ Рис. 1.4. График ПВ рэлеевского распределения
В общем случае рассматривается СВ Z = ylY, где СВ Y определена в соответствии с (1.5). При этом ПВ СВ Z определяется выражением =
2{«-2)/V ;
—п 2
..О,
Для момента к -го порядка данной ПВ (1 ^ —и 2
М а дисперсия распределения Dz =М
-ml.
П р и м е р 5. Распределение Райса (рис. 1.5) Данное распределение является обобщением рэлеевского распределения на случай, когда случайные величины Л",-, / = 1,2 в (1.5) имеют ненулевые математические ожидания т х . , в общем случае неравные. Плотность вероятности для распределения Райса определяется в виде
20
ZS о"
s^
Z>0,
(1.11)
где /o(v) — модифицированная функция Бесселя нулевого порядка, которую можно представить рядом
v>0. На рис. 1.5 приведены ПВ распределения Райса при а = 1 и s = l;4. Распределение Райса можно обобщить, если СВ Y определяется в соответствии с (1.5), а СВ Z = л/у . Плотность вероятности в этом случае определяется соотношением
г Рис. 1.5. Графики ПВ распределения Райса
ZS /=1
где / а (v) — модифицированная функция Бесселя порядка а , которая представляется рядом ча+2»
Распределения Рэлея и Райса часто используют для описания амплитудных флуктуаций радиосигнала, в том числе в многолучевых каналах распространения радиосигнала. Преобразование случайных величии и их плотностей вероятностей. При рассмотрении примеров различных распределений и соответствующих им ПВ уже использовались функциональные преобразования СВ, например (1.5), (1.7). Рассмотрим общий случай. Пусть СВ X с заданной плотностью вероятности рх (д:) подвергается функцио-
21
нальному преобразованию Y = f ( Z ) , где / ( * ) — однозначная детерминированная функция. Найдем ПВ ру (;>) СВ Y. Поскольку преобразование СВ детерминированное и однозначное, то из того факта, что значение СВ X заключено в интервале {x,x + dx\, следует,
что
значение
f{x),f[x-¥dx)
+
СВ
Y где
будет
находится
в
интервале
= / ' ( j c ) d r . Положим, что сущест-
вует однозначная функция h{*) = / " ' ( * ) . Тогда можно утверждать, что вероятности указанных двух событий равны. Поэтому запишем Pr{y)dy
= Px{x)dx
или PY (у) - Рх {x)\dxldy\ = Рх
•
(1-12)
Если функция А (*) = / " ' ( * ) — неоднозначная (например, двузначная), тогда одному значению у
соответствует два значения
JC] = /!] (j) и X2=h2 (у) • При этом выполнению события y
+ dy
(1.13)
соответствует два несовместных события xx<x<xx+dxx и x 2 < x < x 2 + d x 2 .
(1.14)
Следовательно, вероятность события (1.12) равна сумме вероятностей событий (1.14), т.е. py {y)dy = рх
)dxi + рх
> что приво-
дит к следующей форме преобразования ПВ: PY (у) = Рх
(>')!+ РХ {h2 (>'))И (З')! •
•
Обобщение на более сложные случаи (многозначные функции h (*) =
(*)) проводится аналогично.
1.4. Многомерные случайные величины Пусть имеется совокупность случайных величин Xj, i = l,n . Если нас интересует вся совокупность в целом, то удобно ввести понятие векторной случайной величины Х = {Хх,Х2 -^л}- По аналогии с обычной СВ, векторная случайная величина (ВСВ) описывается вероят22
ностями
= Р ( Х = X,)}, i = \,N, если множество возможных значе-
ний всех СВ Xj конечно (или счетно), или функцией распределения FX(x) = F ( x ) = F ( ^ I < j : , , ^ 2 < ^ 2 . -
(1.16)
если множество возможных значений СВ непрерывно. В первом случае говорят о дискретной векторной СВ, а во втором — о непрерывной ВСВ. Для непрерывной ВСВ вводится ГШ Ах] ...Ах„
Дх,-»0
Эх1 ...дх„
Дг2->0
Дг„-»0 (1.17) функция распределения (1.16) обладает следующими свойствами: 1) Fx (х) О, когда хотя бы одна из компонент вектора х стремиться к -оо и Fx (х)
1, когда все компоненты вектора х стремятся
к +00; 2)
Fx (х) — неубывающая и непрерывная слева функция по каж-
дой из компонент вектора х ; Плотность вероятности (1.17) удовлетворяет следующим условиям: 1) / ' W S O ; ов
во
2) I ... j p{xi,...,x„)dxi...dx„=l
;
—оо —ее
3) p{xi,...,x„)
симметрична относительно любых перестановок ар-
гументов Xj; 4) при любом т<п выполняется равенство оа
р{х^,...,х„)=
оо
j ... J р{х^
x^,x„+i,...,x„)dx„+i..xix„
.
(1.18)
—оо —оо
Свойство (4) называется условием согласованности ПВ. Оно показывает, что из « -мерной ПВ всегда можно получить любую ПВ меньшей размерности. 23
Характеристическая функция случайного X = [Xi,X2, ... ,Х„}, по аналогии с (1.3) вводится формулой 0 ( j e ) = A/ je^x
вектора
(1.19)
Обратное преобразование Фурье имеет вид {2к)" ^ Характеристическая функция обладает следующими свойствами: 1) Ф(]0) — непрерывна и симметрична относительно своих аргументов; 2) | Ф 0 в ) | < 1 , Ф ( 0 ) = 1 ; 4)еслиСВ Xi, i = l,n —независимые, то ФО^!
= /=1
При работе с ВСВ наиболее часто приходится сталкиваться с ситуацией, когда компоненты Xj, i = l,n являются гауссовскими СБ с МО /и,, дисперсиями of и взаимными дисперсиями а,у . Как и выше, введем векторную СБ X = {Xi,A'2»
МО которой обозначим как
Шх. Определим корреляционную матрицу данной ВСБ как Rv =Л/ ( Х - т х ) ( Х - т х Г Совместная ПВ гауссовских случайных величин дается формулой 1
exp
Rx ( x - m x )
(2Kr/^(det(Rx)f Характеристическая функция, соответствующая этой и -мерной ПВ и вычисленная по (1.19), равна Ф О в ) = ехр j m ^ e - ^ e ^ R x e
24
Разложив экспоненту в правой части (1.19) в ряд Маклорена и взяв затем МО от каждого члена ряда, получаем Ф О е ) = А/ i=l /=1
^
а=1
Таким образом, коэффициенты разложения характеристической функции в ряд Маклорена определяются через начальные моменты соответствующей ПВ. Коэффициенты разложения логарифма характеристической функции в ряд Маклорена называются кумулянтами (или корреляционными функциями). Поскольку моменты и кумулянты получаются в результате разложения характеристической функции или ее логарифма, то можно найти выражения, связывающие эти характеристики. При нелинейном преобразовании многомерной СВ с компонентами Xi, i = \,n Yi=fi{X^,X2,...,X„),i = Ui
(1-20)
совместная ПВ р х (дс1,дс2,...,лг„ )преобразуется аналогично тому, как это было в случае скалярных СВ (1.12). Положим, что для системы уравнений (1.20) существуют однозначные обратные функции Xi^hi{Y^,Y2,...,Y„), i =
(1.21)
Тогда совместная ПВ определяется формулой PY {УьУг
Уп) =
^Px{^h{Уl^Уъ•••^УnV••^K{УьУ2^•••^Уn))Jn{УьУ2^^••^Уn)^ d/i, где J„{y],y2
d/i, (1.23)
Уп) = ЭЛ. ^п
— якобиан преобразования переменных. 25
Если обратные функции (1.21) неоднозначны, то в правой части (1.22) следует брать сумму по каждой из однозначных областей, как это было сделано в (1.15). 1.5. Условные функции распределения и плотности вероятности случайных величин В статистической теории радиосистем широко используются условные функции распределения. Пусть имеем СВ А' и некоторое событие А . Условной функцией распределения называется условная вероятность выполнения неравенства X <х при условии осуществления события А , т.е. = Р{Х < д;|л) = Р{Х < х,А)/Р{А).
(1.24)
Условная ПВ определяется выражением , , , P(jc
(xU)= lim ^^ ' '
Дх-^0
Дх
+ AxU)
=
dF{x\A) — ( dx
1
.
2
5 ^
) '
Если в качестве события А определить факт принятия другой СВ Y значения у , то (1.24) принимает вид
Если СВ Л' и У независшол, то из (1.26) получаем р{х,у) = р{х)р{у).
(1.27)
Эта формула выражает необходимое и достаточное условие независимости двух СВ. Приведенные выше соотношения естественным образом обобщаются на случай ВСВ, если в (1.24)-{1.27) вместо скаляров подставить соответствующие вектора. Для ВСВ полезным оказывается еще ряд свойств и определений. Положим, что в совокупности случайных величин X,, / = 1,и определены вектора Х = { ^ „ } , Y = {A'i, ...
Тогда (1.26)
преобразуется к виду Р (-^л 1-^1 -«п-1) (jci.
) = Р (^1.
-«л ) •
Повторив последовательно данную процедуру для р{х^,...,х„_х), р (х],..., Jc„_2) и т.д., получим такое выражение: 26
fi-2
P (^1
) =(jc,)
П(x„-i ). /=0 Используя свойство согласованности ПВ (1.18), можно получить следующие правила «исключения» отдельных аргументов в условной ПВ: 1) исключение левого аргумента в условной ПВ
оп-
ределяется формулой />(.t,|jt3,X4)= J p[x^,x2\x^,x^)dx2 \ 2) исключение правого аргумента в условной ВП р{х^,х2\х-^,х^) определяется как оо —«о
= J p{xx,x2\x-i,x^)p{x7,\x4)dx^ .
(1.28)
—во
Частным случаем (1.28) является формула
которая широко используется в теории марковских процессов. Случайные величины Xj, i = \,n называют взаимно независимыми, если события А', <д:, , i = l,n независимы при любых значениях дг,, /• = 1,и . Для взаимно независимых СВ справедливы формулы л
л
^ ( . • • •. ^л ) = П ^ ( ) . ( . - , ) = П Р ( ) • (=1 j=l Если случайные величины Xj, i = l,n взаимно независимы, то они и попарно независимы. 1.6. Случайные процессы Наряду со случайной величиной, определенной как единичное (разовое) событие или явление, для описания событий, развивающихся во времени, вводят понятие случайного процесса (СП). Случайный процесс 27
можно определить как случайную функцию от независимой переменной t . Термин «случайная функция» характеризует тот факт, что при каждом фиксированном t значение функции X(t) есть случайная величина. Каждое испытание (опыт) дает вполне определенную функцию x ( t ) , которая называется реализацией СП или выборочной функцией. Случайный процесс можно рассматривать как совокупность реализаций Другая трактовка СП — совокупность случайных величин, зависящих от времени t . Из нее следует, что для вероятностного описания СП должны быть заданы распределения вероятностей систем случайных величин Z j = Х (/|), Х2= X (12) Случайный процесс называют дисьретньш или непрерывным, если дискретно или непрерывно распределение случайных величин X(t\), Х2
),•••• Значение х, случайной величины Л!", =X[tj)
в момент
времени называется выборочным значением. Случайный процесс называется случайной последовательностью (процессом с дискретным временем), если независимая переменная t может принимать лишь счетное число значений. Рассмотрим для определенности непрерывную случайную последовательность / = 1,2,.... Для описания такой последовательности надо задать распределение случайной величины л:(/]) и распределения систем случайных величин [^X{ti),X{t2)\, [A'(/i),A'(/2),A'(J3)], ... для каждого конечного множества значений - - Для вероятностного описания таких систем СВ можно использовать определения (1.16) для функций распределения и (1.17) для ПВ, которые обладают соответствующими свойствами. Так, например, для непрерывной случайной последовательности необходимо задать совокупность ПВ P{x\,tbX2,t2 ) , p{xx,ti;X2,t2-r^y,t3 ) ит.д. Если f[x{ti),x[t2),...,x(t„)) ных значений х^ =
00
—некоторая функция от п выбороч-
),Х2 =x{t2 ),...,JC„ = x{t„), то формула
00
= /.../ f{xi,x2,...,x„)p(xx,h-,x2,h\...,x„,t„)dx^dx2,...,dx„ 28
определяет среднее по ансамблю реализаций (множеству наблюдений), если интеграл сходится абсолютно. На практике наиболее часто используют М x(fi) — среднее значение; М Ar^(fl)
— средний квадрат, М
дисперсию, Л/[л:(Г[)дс(^2)] — корреляционную функцию. Раздел теории случайных процессов, посвященный изучению лишь тех их свойств, которые определяются указанными выше характеристиками, называется корреляционной теорией. Эта теория дает полное описание одного очень важного класса случайных процессов — гауссовских. Для СП условные функции распределения и условные ГШ вводятся аналогично тому, как это сделано в п. 1.5. Например, можно записать p{xx,tx\x2,t2) = p{x2,t2)p{xx,tx\x2>t2)Для совместного вероятностного описания двух (или нескольких) СП вводят совместные функции распределения и совместные плотности вероятности. Например, для совместной ПВ имеем ... ,x„,t„\yx,t\\ Два СП
(1.29)
и У(/) называются незавмс1шьшм, если совокупность
значений первого процесса X{tx),X{t2) купности значений второго процесса У^/] •
•
X{t„) не зависит от сово••• ' ^ ( ' п ) "Р" любых
I
tx,t2,...,trn И • Необходимым и достаточным условием того, что два процесса независимы, является то, что совместная ПВ (1.29) равна произведению ПВ каждого из процессов, т.е. p[x\,tu
-
...•,y„,t„'^ =
= p{xi,ti-, ...,х„,1^)р[ух,Ц\
...•,y„,t„).
(1.30)
Для случайных процессов можно ввести условные функции распределения и условные плотности вероятности p\xx,tx, - ,x„,t„\yx,t\> =
•••>y„,t„) =
... ,x„,t„)p{^yx,t\; ...;y„,i„\xx,ti; ...
(1.31) 29
Для независимых СП (1.31) переходит в (1.30). Наряду с ПВ, для описания случайного процесса могут быть использованы характеристические функции (1.19). Стационарные и нестационарные процессы. Случайный процесс называется стационарным в узком (строгом) смыане, если все конечномерные функции распределения вероятностей (и плотности вероятности) любого порядка инвариантны относительно сдвига по времени, т.е. p{xi,tx-to;x2,t2-to-,
...
p{x],ii;x2,t2'^
При решении ряда технических задач многомерные ПВ не рассматривают, а оперируют только МО и корреляционными функциями (корреляционная теория). В связи с этим вводят понятие стационарности в широком смысле. Случайный процесс с конечной дисперсией называется стационарным в широко.» смысле, если его МО и корреляционная функция инвариантны относительно сдвига по оси времени. Из этого определения следует, что для таких процессов const,
=
Два стационарных случайных процесса X{t)
и У (г) называются
стационарно связанными в широком смысле, если их взаимная корреляционная функция инвариантна относительно сдвига по времени RxY{h,t2) = M[X{ti)Y{t2j =
= =
(1-32)
Заметим, что, если каждый из процессов X ( t ) и У(/) является стационарным в широком смысле, то это вовсе не означает, что они являются стационарно связанными в широком смысле. Корреляционная функция случайного процесса. Ввиду важности корреляционных функций (КФ) стационарных процессов при исследовании радиотехнических систем, приведем некоторые их свойства. 1. Абсолютное значение КФ при любом х = /2 ~ значения при т = О, т.е. Rx (х) < Rx (0) = Dx • 30
превышает ее
2. Корреляционная функция вещественного стационарного процесса X(t) является четной функцией своего аргумента, т.е. 3. Взаимная КФ двух вещественных СП свойством: Rxy (f) = Ryx
и У(г) обладает
•
4. Если КФ непрерывна при t = О, то она непрерывна при всех других значениях х. 5. Для многих стационарных СП выполняется условие lim % ( т ) = 0. 6. Преобразование Фурье от КФ есть неотрицательная функция, которую принято называть спектральной плотностью случайного процесса
—оо
Обратное преобразование Фурье от спектральной плотности СП дает корреляционную функцию =
(1.34) —оо
На практике бывает удобно пользоваться нормированной КФ
которая при т = О принимает значение гх (0) = 1 • Для упрощенного описания нормированной КФ часто указывают лишь интервал х^ , при котором два значения СП X [ t ) и Д'(/±Тк) в среднем имеют заметную корреляцию. В качестве определения т^ можно принять fx
= О
Геометрически х^ равно основанию прямоугольника с высотой 1, имеющего ту же площадь, что и площадь между кривой гх (х) и осью абсцисс. 31
Спектральная плотность случайного процесса. Спектральная плотность СП определяется в соответствии с (1.33) как преобразование Фурье от КФ. Полагая в (1.34) t = О, получаем Rx{0) = Dx = ] Sx{i0)df,
(1.36)
—oe
где (О = 2it/. Следовательно, дисперсия стационарного СП равна интегралу от спектральной плотности. Так как корреляционная функция СП четная относительно аргумента т , то из (1,33) следует, что спектральная плотность (to) — четная функция относительно своего аргумента. Из определений (1.33), (1.34) и свойства четности функций Rx (х) и Sx (ftj) следует оо
5^((o)= I
(x)(cos((OT)-jsin((OT))i/T =
—«в оо
оо
= J %(т)СО8(ОЭТ)Л = 2|Лд'(Т)СО8(ШТ)^/Т,
о
Rx
=
(27^)cos(27i/t)rf/ .
(1.37) (1.38)
О
Спектральная плотность 5х{<>>) определена на положительных и отрицательных частотах, т.е. является некоторой «математической» конструкцией. В отличие от такого двустороннего спектра введем одностороннюю («физическую») спектральную плотность N x (to) = = 25^- (со). При этом выражения (1.37), (1.38) принимают вид iV^-(«)) = 4j/?;f(T)cos(2rt/T)jT,
о
Rx
/SO,
^ I n x (/)cos(27c/T)rf/, / > о.
о
(1.39)
в радиотехнике «протяженность» спектральной плотности по оси частот часто характеризуют термином ширина спектра или эффективная ширина спектра. Ширину спектра Д/ можно определять поразному, например, 32
\Sx{2irf)df A/•=-^
,
Sxi-^^o) где /о —некоторая характерная частота. Иногда в качестве ДГ выбирают ширину Д/"о 5 спектральной плотности на уровне 0,5Nx ( / 0 ) • По параметру «ширина спектра» среди всех СП выделяют узкоподосные. Узкополосным называется СП, спектральная плотность которого сконцентрирована в узкой полосе частот А/" около частоты /о » А/". Если данное условие не выполняется, то процесс не является узкополосным. Рассмотрим СП, спектральная плотность которого приведена на рис. 1.6 и рассчитаем Рис. 1.6. Спектральная плотность СП КФ такого СП Л(т) = J JV(/)cos(27t/T)rf/ =
=
О
M / t
smiiiMx)
,
,
где Dx = Л^оА/^ — дисперсия (мощность) СП (1.36). Эргодические и неэргодические стационарные процессы. Для некоторых стационарных процессов рассмотренные выше статистические характеристики (МО, моментные функции, КФ и др.), полученные в результате усреднения по большому числу реализаций, могут быть найдены путем усреднения соответствующих величин по одной реализации большой длительности. Стационарные случайные процессы, для которых это обстоятельство справедливо, называют эргодическими: I г
=
J г
2
J i m l i m - J C j c C O - m A - ) 1 ^
Rx ( t ) =\M-j{x{t T^I Q
2—2041
+
T)-mx){x{t)-mx)dt. 33
1.7. Гауссовские случайные процессы Как отмечалось выше, для вероятностного описания СП необходимо использовать совокупность соответствующих ПВ. Рассмотрим случайную последовательность
/ = 1,2,..., развивающуюся во вре-
мени. В момент времени t\ имеем СВ
для вероятностного опи-
сания которой необходимо задать ПВ /'(jCb^i). В момент времени t j для описания всего СП, т.е. совокупности СВ задавать совокупность трех ПВ— /'(^b^i).
X{t2), следует )•
В следующий момент времени t^ полное вероятностное описание задается системой ПВ p{xi,ti),
p{x2,t2),
p{xi,ti;x2,t2 ),
) . p{x2>hix3,t3 ) , p{xi,ti-,x2,t2-,x;i,t^ ) . Для последующих моментов времени вероятностное описание СП будет все более и более сложным. На практике использовать такую математическую конструкция неудобно. Поэтому целесообразно найти СП, для вероятностного описания которых в любой момент времени
требуется ограни-
ченное число ПВ, например, одномерной p{x^,t{)
и/или двумерной
p[x\,t^\x2,t2 ) . Простейшим примером такой СП является случайная последовательность
j = l,2,...
с независимыми значениями
X (t,), для которой можно записать p(x,,ti;x2,t2;
..•;x„,t„ ) =
л (=1
Такая СП задается совокупностью одномерных ПВ p(x, ,t, ), а для стационарной СП требуется задание одной ПВ p(x,t). Другим классом СП, для описания которых необходимо задавать ограниченное число ПВ, являются гауссовские случайные последовательности (ГСП), для которых ПВ любой конечной совокупности СВ X{ti), / = 1,2,...,л в произвольные моменты времени Ц,12,...,1„ имеет совместную гауссовскую (нормальную) ПВ . (1.40) (27c)72^det(R;,) 34
где х = \х^х2...х„\\
R^^=A/[(x-A/[X])(x-A/[X]f
— корреляци-
онная матрица, элемент которой определяется как Rij=M
(1.41)
здесь т х . =Л/
) .
Для гауссовского процесса характеристическая функция записывается в виде 4'(j0) =
е/2 (1.42)
= ехр
v=l
•^v=ln=l
Определения, приведенные для ГСП, остаются справедливыми и для гауссовского случайного процесса, поэтому в дальнейшем для простоты будут рассматриваться только ГСП. Свойства гауссовских случайных последовательностей. 1. ГСП X{tj), / = 1,2,... полностью определяется заданием МО M [ x { t i ) ] и КФ Rx{ti,tj)
(СМ.(1.40Н1-42)).
2. Для ГСП некоррелированность значений последовательности, т.е. выполнение условия Действительно,
тождественна их независимости.
рассмотрим
... ,x„,t„).
Так
как
Rx ( t j О для любых tj Ф t j , то матрица R;t- будет диагональной. Таким образом, соотношение (1.40) можно записать в виде 1 "
ехр
п
1
ехр
2,ti
А
(xi-'nxS Di
1=1
где Dj = Rjj — дисперсия СВ X j . 35
Справедливо и обратаое утверждение: если значения ГСП независимы, то они и некоррелированы. 3. Для ГСП понятие стационарности в широком и узком смысле совпадают. 4. Условные ПВ значений совместно гауссовских последовательностей X{ti) и Y{ti) или значений одной ГСП являются также гауссовскими. Это следует из формулы Р{Х\У) = Р{Х,У)1Р{У).
(1.43)
Пусть имеем два вектора: X — п -мерный, Y — т -мерный. Тогда (1.43) принимает вид p{X\Y)
= p{X,Yyp{Y).
(1.44)
5. При линейных преобразованиях ГСП свойство «гауссовости» сохраняется. Если на вход линейной системы с импульсной характеристикой h{ti^,tj) воздействует ГСП X{ti), то при выполнении надлежащих к условий интегрируемости процесс получаю/=1 щийся на выходе системы, будет также гауссовским. Справедливо и обратное утверждение: если каждый линейный функционал от X ( t / ) есть ГСП y ( ( i ) , то также является ГСП. Это важное свойство часто принимается за исходное определение гауссовской последовательности X ( t i ) . 6. При нелинейных преобразованиях свойство гауссовости утрачивается. Если ГСП X{ti) подвергается нелинейному преобразованию, например, вида
= / , А ' ) ) , где / ( • ) - нелинейная функция
относительно X , то последовательность
будет негауссовской.
Однако, если негауссовская случайная последовательность с интервалом корреляции t^ воздействует на инерционную линейную систему (с постоянной времени t g » т ^ ), то процесс на выходе такой системы приближается к гауссовскому (ПВ стремится к нормальной). Это приближение тем лучше, чем сильнее выполняется неравенство т ^ . » т^ . 7. С помощью линейного преобразования коррелированные значения ГСП можно привести к некоррелированным. Заметим, что, если корреляционная матрица Rjj- диагональная, то совместно гауссовские 36
св - некоррелированные. Поэтому линейное преобразование, в результате которого корреляционная матрица для преобразованных величин будет диагональной, приводит к совместно гауссовским некоррелированным величинам. Методика приведения матрицы к диагональной форме с помощью линейного преобразования известна. 8. Гауссовские случанйные последовательности с дробно-рациональной спектральной плотностью являются одновременно марковскими (марковские случайные порследовательности будут более подробно описаны в п. 1.8). 9. При заданной дисперсии (средней мощности) ГСП обладает максимальной энтропией, т.е. максимальной степенью неопределенности. Гауссовские случайные последовательности наиболее часто встречаются на практике, поэтому занимают особое место среди других случайных последовательностей. Большинство встречающихся на практике электрических явлений, таких, например, как дробовой шум, тепловые флюктуации, собственный шум типового радиоприемника до детектора, атмосферные и космические шумы, представляют собой суммарный эффект большого числа сравнительно слабых элементарных импульсов, возникающих в случайные моменты времени. Согласно центральной предельной теореме теории вероятностей плотность вероятности суммы СВ неограниченно приближается к нормальной с увеличением числа слагаемых, независимо от того, какие ПВ имеют отдельные слагаемые. При этом важно лишь, чтобы влияние отдельных слагаемых на сумму было равномерно малым (приблизительно одинаковым). Белый гауссовский шум. В дальнейшем будет часто использоваться идеализированный случайный процесс — белый гауссовский шум (БГШ). Приведем его определение и укажем специфические свойства. Под БГШ n{t) понимается стационарный гауссовский СП с нулевым МО и дельтаобразной корреляционной функцией: /г(т) = Л/[й(/)й(?+х)] = ^ 8 ( т ) ,
(1.45)
где Nq — односторонняя спектральная плотность. Преобразование Фурье от (1.45) дает равномерную спектральную плотность 5 „ ( / ) = Л^о/2 для всех частот - о о < / < о о . Такой процесс имеет бесконечную дисперсию (мощность), поэтому является физически нереализуемым, т.е. некоторой математической моделью. Однако такая математическая модель оказывается очень удобной и широко используется в статистической теории радиосистем. 37
Модель белого шума может быть получена из модели случайного процесса, имеющего равномерную спектральную плотность в некоторой полосе частот (рис. 1.6) и, следовательно, конечную дисперсию. Введем для спектральной плотности (рис. 1.6) /min = / о " 4 / ^ / 2 и /max = = /о + А/'/2 . Корреляционная функция для такого процесса, в соответствии с (1.39), описывается выражением fmax NQCos{2Krx)df,f>0.
(1.46)
fmin Используя представление cos(jc) = — условия
^ О, / п ^
2 о
и введя в (1.46)
оо, получаем
2
2
С другой стороны, условия о, f j j ^ оо соответствуют тому, что полосовая спектральная плотность (рис. 1.6) переходит в равномерную с физическим уровнем Щ для положительных частот / > О. Поэтому, оперируя в дальнейшем в статистической теории радиосистем с белым шумом, определенным в соответствии с (1.45) и имеющим равномерную двустороннюю спектральную плотность Nq/2, необходимо помнить, что Nq — уровень спектральной плотности физического шума, определенного лишь для положительных частот. Наряду с БГШ, определенным как случайный процесс, можно рассматривать белую гауссовскую последовательность, которую часто называют дискретным белым гауссовским шумом (ДБГШ). Последний термин, строго говоря, противоречит определениям, данным в п. 1.7, где термин «дискретный» характеризует тот факт, что СП в каждый фиксированный момент времени может принимать лишь конечное (счетное) число значений. Когда говорят о ДБГШ, то имеют в виду, что дискретны моменты времени, а значения процесса в каждый момент времени принимают значения в некоторой непрерывной области. Тем не менее, в учебной и научной литературе термин «дискретный белый гауссовский шум» устоялся, поэтому в дальнейшем он и будет использоваться. Для ДБГШ КФ задается в виде R,j=M 38
fl, i = j, _2 . где % = •{[О, J,
дисперсия процесса.
Мгновенные значения ДБГШ, т.е. случайные величины п {ti), имеют гауссовскую ГШ
2а2
(1.47)
Дискретный белый гауссовский шум п (/,•) может быть получен из непрерывного и (О с помощью его усреднения на интервале Т =
Очевидно, что среднее значение СВ п {tj) равно нулю, а дисперсия ]
M[n{t)n{s)\dtds=^.
(1.48)
ti-x U-\
Возможен и обратный переход от дискретного времени к непрерывному при Г О. Однако здесь возникает некоторая сложность с представлением (1.47), так как в этом случае . Для преодоления этой трудности для непрерывного БГШ определяют не ПВ мгновенного значения процесса, а ПВ отрезка реализации, например длительностью Т^, т.е. p{n{t)) = p\ri{s),sB
t,t + T^ j . Тогда, записав совместную (гаус-
совскую) ПВ p{xx,tx-,xx,t2-,...-,x„,t„) для совокупности дискретных отсчетов и выполнив предельный переход при Г—>0, л—»», Тр =пТ = = const, можно получить следующее выражение: - А
I
(1.49)
Формулу (1.49) можно трактовать как гауссовский закон распределения для отрезка реализации БГШ. Следствия для условных плотностей вероятности. Пусть имеем два гауссовских вектора: X — я-мерный, Y — ?и-мерный. Для данных векторов можно записать 39
=
. I
;j(Y) =
j
exp|-l(X-mv)^Rv'(X-mv)
exp | - - ( Y - my Y Ry' (Y - m y )
(1.50)
Положим также, что X и Y — совместно гауссовские процессы, т.е. совместная плотность вероятности - гауссовская 1
где Z =
X , «"z =
™х
exp|-l(Z-mzrRz'(Z-inz)
, Rz =
, (1.51)
RXY
Y Шу Rxy RY Из свойства (1.44) следует, что условная плотность вероятности / > ( X | Y ) — гауссовская, т.е. можно записать
(2jt)72^det(Rx|y)
I ^
^
J (1.52)
Подставляя (1.50)—(1.52) в (1.44) и проделав несложные преобразования, можно получить следующие соотношения >-1, (1.53) ™X|Y = ' П х + R x y R Y ( Y - m y ) , (1.54) Из (1.53) следует, что условное математическое ожидание 1Пх|у является линейной функцией от величин, входящих в условие, т.е. от Y . Но условное математическое ожидание, как будет показано далее, является оптимальной оценкой вектора X при квадратичной функции потерь. Отсюда вытекает еще одно следствие. Пусть наблюдаем случайную выборку xi,x2, ... ,х„.
Определим
X = дг,, Y — все остальные наблюдения. Будем интересоваться оценкой Xj =А/ x, |Y . Тогда из (1.53) следует, что данная оценка является линейной функцией от остальных наблюдений. 40
Определим теперь вектор X = Х-1Пх|у . Докажем, что вектор X не зависит от Y , имеет нулевое МО и корреляционную матрицу Rx ~ '^х - RxyRY'RYX Действительно, подставляя (1.53), получаем М
= 0.
=М
Аналогично рассматривается М X(Y-mYf
= Л/
X - т х - RxyRY ( Y - my)}( Y - m y f
Это доказывает некоррелированность рассматриваемых процессов, а, следовательно, и их независимость. 1.8. Марковские случайные процессы 1.8.1. Марковские случайные последовательности Пусть имеем моменты времени Г),/2
для которых опреде-
лена последовательность случайных величин Xi = X{ti),X2 = X(12), ... ,Х„ =X(t„)
Рассмотрим ПВ p(xj,ti;x2,t2''
-'^n''n) ивыразимее
через условную ПВ
Случайная х„ =x(t„),... Р {^п. 'л
последовательность
= x(ti),x2 = x(t2), ...,
называется марковской, если для любого п условная ПВ , ; JC2, ; •••;
. 'л-l) зависит только от х
), т.е.
Рассмотрим три произвольных момента времени 't-i./jt.^A^+l. На основании (1.55) можно записать Р(-^it+i.h.tk;.'t-l)
= Р{^М.tk+\ h'tk)-
(1 -56)
41
Анализируя (1.56), можно сказать, что, если известно состояние марковской последовательности (МПС) в момент времени tj^, то будущее МПС (т.е. ее значение при ) не зависит от прошлого состояния МПС (при ). Это характерное свойство МПС часто принимают за определение. Дадим еще одно возможное определение. Рассмотрим Р (-^i+i'
;
=
.
.
) =
p{ч+ъh+\W-ъh-ьЧЛ)p{ч-\^^k-\\ч^^k)-
Данная запись означает, что при фиксированном значении МПС в настоящий момент времени t^ будущее (при ) и прошлое (при ) состояния МПС независимы. Из приведенных определений следует, что для марковских последовательностей любая л -мерная ПВ (совокупность которых полностью описывает случайную последовательность) может быть представлена в виде л-1 p { x \ , h W 2 \ . . . ; x „ , t „ ) = p{x^,t])'[lp (-t/+i. ',+1 \xi,(,). (1.57) (=1 Следовательно, описание МПС задается ПВ распределения начального значения p(xi,tj) и совокупностью условных ПВ /'(jCj+l.^i+l которые называют плотностями вероятности перехода случайной последовательности из одного состояния в другое. Для стационарных МПС условная ПВ не зависит от времени, т.е. имеем h)Рассмотрим определение условной ПВ для произвольных случайных векторов X и Y . По определению (1.26) /)(x|Y) = p ( X , Y ) / p ( Y ) .
(1.58)
Умножим обе части равенства (1.58) на />(Y) и проинтегрируем по Y . Тогда получаем J/»(x|Y);,(Y)^nf = /7(X). Y 42
(1.59)
Применяя свойство (1-59) к МП, получаем оо \
in I J^n-l. tn-\) Р (-«л-1. tn-\ ) dXn-\
(1.60)
—оо
Зная начальное значение p{xx,t{), переходные ПВ и используя (1.60), можно вычислить ПВ p{x„,t„)
р , \ x i , )
в любой момент вре-
мени t„ . TaicHM образом, вместо описания случайной последовательности в виде совокупности ПВ имеем компактное правило (процедуру) (1.57) для вычисления произвольной многомерной ПВ и выражение (1.60) для вычисления одномерной плотности в любой момент времени t„ . Формула (1.60) может быть обобщена для условных вероятностей перехода из одного состояния в другое оо
p{xn't„\xk,tk)=
.
! p{x„,t„\xj,tj)p{xj,tj\xk,tt)dxj
(1.61)
Соотношение (1.61) называют >равнекг<еи Маркова шт уравнением Смолуховского. 1.8.2. Цепи Маркова Пусть случайная последовательность X(ti),
i = 1,2,... может прини-
мать конечное число К дискретных значений
В дис-
кретные моменты времени t\,t2,..;t„,... значение процесса скачкообразно изменяется, т.е. имеют место переходы х^ —^Х2 чем
х„
при-
) = JC| — начальное значение. Полагаем также, что заданы веро-
ятностные законы изменения СП на каждом шаге из любого состояния i = l,K в любое другое состояние х^-'^, J = I,К, т.е. известны условные вероятности перехода Р x\l\t„ \
. /
Заданное описание случайной последовательности является достаточно общим. Простой цепью Маркова (ПЦМ) называется случайная последовательность, для которой вероятность значения х^/^ процесса в момент времени t„ зависит лишь от того, какое значение имел процесс 43
в предшествующий момент времени r„_i и не зависит от значений процесса в более ранние моменты времени, т.е. лл
•П
'-'^n-l
= р М)
J0
Кроме ПЦМ можно определить сложную цепь Маркова порядка т, как случайную последовательность, у которой вероятность нового значения зависит от т предыдущих значений Jy)
= р
Можно показать, что сложная цепь Маркова порядка т с помощью известной методики может быть сведена к ПЦМ, но для m-мерного векторного процесса. Поэтому в дальнейшем ограничимся рассмотрением лишь ПЦМ. Аналогично случайным последовательностям, для ПЦМ справедливо выражение для совместной вероятности
(О
М
Л ) irv-,)
^ 'v=2 Для полного вероятностного описания ПЦМ необходимо записать алгоритм, в соответствии с которым можно вычислить вероятности тех или иных значений ПЦМ в произвольный момент времени t„ по известным вероятностям значений ПЦМ в другой произвольный (но более ранний) момент времени. Пусть в некоторый момент времени /у заданы вероятности нахождения ПЦМ в том или ином состоянии
1 = pj ( j ) , j =
. Рас-
смотрим произвольный момент времени t„>t,. Пусть известны вероятности переходов Р .(О = л , (5,и), j = l,K, i = l,K, для которых справедливы соотношения К
к
j=\
/=1
К ^ji
44
/=1
К") •
(1.62)
Теперь вероятность р,- (и) = Р^х^^^ может быть рассчитана по формуле
к
Pi{n)=^T^ji{s,n)pj{s).
(1.63)
7=1
Приведенные выражения удобно представлять в векторно-матричной форме. Введем вектор Р ( л ) = Р\{") Р\{п) .•Pк{^^У
и матрицу
n(s,n) = {лу, (5,л)}. Тогда формулы (1.62), (1.63) принимают вид P(«) = n^(5,/i)P(s), Tc(s,n) = n(s,m)n(m,n).
(1.64)
Кроме того, для матрицы n(s,n) оказывается справедливым выражение П rc(j+i,j + i + l), (1.65) /=0 из которого следует, что для определения данной матрицы достаточно знать последовательность матриц одношаговых вероятностей перехода. Среди ПЦМ различают однородные и неоднородные. Однородная цепь Маркова характеризуется тем, что вероятности перехода зависят только от разности аргументов, т.е. n(s,n) = n(/2-s). Обозначим ге(1) = л . Тогда из (1.65) имеем
п(п) = л"-\
(1.66)
а из (1.64), (1.65) получаем Р^ (л) = Р^
.
Однородная цепь Маркова, для которой вероятности Р^(л) не зависят от п называется стационарной. 1.83. Марковские процессы Непрерывный случайный процесс X ( t ) является марковским (МП), если для любых последовательных моментов времени /q <
< — < 'л
условная ПВ p(x„,t„lxj,ti;x2,t2;...;x„_j,t„_i) зависит лишь от последнего значения
в момент времени („_i, т.е. 45
Р{Хп.'я h,h;x2,t2;...;x„_^,)
= p{x„,t„ |д:„_,
(1.67)
Определение (1.67) формально совпадает с определением (1.55) для марковских случайных последовательностей. Справедливыми остаются и другие определения и свойства. В частности: 1) плотность вероятности перехода неотрицательна и нормирована к единице оо
p{x„,t„\x„_^,t„_i)>0,
j p{x„,t„\x„_i,t„_i)dx„=l-,
(1.68)
—оо
2) плотность вероятности перехода p{xn,t„\x„_y,t„_x) переходит в 5 -функцию при совпадении рассматриваемых моментов времени, т.е. lim p{xn,tn\xn.x,t„-{) = b{x„-x„.^)(1.69) •я-1 3) плотность вероятности перехода p{x„,t„\xi^,tic) удовлетворяет соотношению (1.61); 4) если задана начальная ПВ
и найдена ПВ перехода
p{^ny^n\xk^h) дая произвольных x„,t„ и Xi^yti^, то можно вычислить все другие ПВ, например, двумерная ПВ в произвольный момент времени t>tQ определяется p{xQ,tQ-,x,t) = p{xQ,tQ)p{x,t\xQ,tQ)-,
(1.70)
5) интегрирование (1.70) по xq позволяет получить одномерную ПВ марковского процесса в произвольный момент времени оо
p{x,t)=
j p{xo,to)p{x,t\xQ,to)dxQ
-,
(1.71)
6) если ПВ перехода зависит только от разности временных аргументов т = то p{x,t\x',t') = р{х,х\х),
(1.72)
а МП называется однородным во времени. Из приведенного описания МП следует, что при их описании существенную роль играет ПВ перехода p[x,t\xQ,tQ), t>tQ. Для нее можно получить дифференциальное уравнению в частных производных [12] 46
Ot где K„{x,t)=
(1.73)
„=1 л! аьс lim ^ I Д/—»0 At
+
Если первые два коэффициента ATj
, К2 {x,t) отличны от нуля,
а остальные коэффициенты K„{x,t) = 0 ( и > 3 ) , то МП называется диффузионным. В дальнейшем будут рассматриваться только диффузионные МП, поэтому введем более удобные обозначения ATj (jc,;) = а(дг,/), K2{x,t) = b{x,t). Коэффициенты а(х,/) и b{x,t) называют коэффициентами сноса и диффузии соответственно. Для диффузионных МП уравнение (1.73) принимает вид
(1.74) и называется уравнением Фоккера—Планка—Колмогорова (ФПК). При фиксированном начальном значении jcq уравнение (1-74) решается при начальном условии р (;с, ?о |д:о, /д ) = 5 (дс - лтд). Если значение МП в начальный момент времени t^ является случайным и имеет ПВ /?(xo,fo). то эта ПВ должна выбираться в качестве начального условия для (1.74). Одномерная ПВ p{x,t)
для произвольного момента времени может
быть определена из (1.71) и (1.74), что приводит к уравнению =
=
(1-75)
в котором оператор ! ( * ) называют оператором Фоккера—Планка— Колмогорова. Диффузионный МП с коэффициентами сноса a(x,t)
и диффузии
b(x,t) удовлетворяет стохастическому дифференциальному уравнению 47
J^=f{x,t)^g{x,t)i,{t), где
=
(1.76)
— Б Г Ш с К Ф /г^(-с) = 5 ^ / 2 5 ( т ) , a f{x,t)
и g{x,t)
опреде-
ляются из соотношений =
b{x,t)-\s^g\x,t).
(1.77)
Важной особенностью стохастических дифференциальных уравнений типа (1.76) является то, что при их интегрировании в подынтегральной функции стоит БГШ, который не удовлетворяет необходимым требованиям «гладкости», для которых определен интеграл Римана. В связи с этим в математике разработана специальная теория стохастических интегралов. Существуют различные определения стохастического интеграла, одно из которых введено Р.Л. Стратоновичем и получило название симметризоватого [9]. Не углубляясь в математические тонкости (более подробно можно ознакомиться в [9, 12, 13]), отметим лишь, что при таком определении стохастического интеграла справедливы формулы классического дифференциального исчисления и выражения (1.77) для коэффициентов сноса и диффузии. Отметим также, что если в (1.77) коэффициент диффузии не зависит от х,го все определения стохастических интегралов эквивалентны. В частности, это справедливо для линейного уравнения ^ = F{t)x + G { t n t ) , x{to) = x^. at Наряду со скалярным МП x{t) (многомерные)
МП.
= 1^1(^)^2(0 - ^ « ( O l •
Рассмотрим
(1.78)
важную роль играют векторные случайный
вектор
® выражениях (1.74)—(1.77) вместо ска-
лярной величины x{t) подставить векторную х(/), то тем самым будет определен векторный марковский процесс. Уравнение (1.75) для векторного диффузионного МП преобразуется к виду
" э г , ч / М 1 ^ 1^[а,(х,/)р(х,0 + - I 48
э^
bij{i.,t)p{x,t) , (1.79)
где aj{x,t),
i = l,n —коэффициенты сноса; bjj{x,t),
=
—ко-
эффициенты диффузии. Векторный диффузионный МП может быть описан векторным стохастическим дифференциальным уравнением
^ = f(x,/)+g(x,0^(/), Х(/0)=Х0,
(1.80)
at где %{t) — /и-мерный вектор БГШ с диагональной корреладионной матрицей R^(х) = S^/25(T),т.е.Л,, (т) = 5^,,/28(т), / =
/?y ( t ) = 0,
У; f(x,/) — и-мерный вектор; g(x,/) —матрица размером я х т . Связь между коэффициентами сноса и диффузии и коэффициентами уравнения (1.80) определяется выражениями
b i j M = ^is^jgi,{x,t)gjii{x,t).
(1.81)
Линейная модель векторного МП описывается уравнением ^
=
+
х(/о) = хо.
(1.82)
Описание марковских процессов с помощью дифференциальных уравнений очень удобно, так как позволяет поучить описание оптимальных систем обработки таких процессов также в форме дифференциальных уравнений. Учитывая это обстоятельство, приведем описание марковских последовательностей в форме разностных уравнений. Пусть имеем векторную случайную последовательность х )= = т
= х^ (tj^) xi {t/^)
... х„ (/^) , которая описывается разностным уравнением х(/о) = хо,
(1.83)
где ^^ — векторный дискретный БГШ с матрицей дисперсий D^^ . Доказано, что случайная последовательность , описываемая (1.83), является марковской. Линейная модель марковской последовательности задается уравнением 49
« ( ' 0 ) = *0-
(1-84)
Для линейных моделей (1.82), (1.84) и начальном условии Xq, распределенном по гауссовскому закону, процесс х ( / ) и последовательность x j являются гауссовскими. Поэтому их иногда называют гауссовско-марковскими процессами. Марковские процессы играют основополагающую роль в теории оптимальной фильтрации, которая подробно будет рассмотрена в гл. 9—13.
Контрольные 1. 2. 3. 4. 5. 6. 7. 8.
50
вопросы к главе 1
Как преобразуются плотности вероятности распределения случайных величин при их функциональном преобразовании? Что такое корреляционная функция случайного процесса и какую роль она играет при его статистическом описании? Чем отличаются определения стационарности случайных процессов в широком и узком смыслах? Какими вероятностными характеристиками описывается произвольная случайная последовательность? Какими вероятностными характеристиками описывается гауссовская случайная последовательность? Какими вероятностными характеристиками описывается марковская случайная последовательность? При каких условиях понятия марковский и гауссовский процессы тождественны? Дайте определение белого гауссовского шума. Какими свойствами обладает такой шум?
Глава 2 СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ, СООБЩЕНИЙ И ПОМЕХ
2.1. Общие определения Радиотехнические системы (РТС) различного назначения являются информационными системами, т.е. системами, которые предназначены для передачи и извлечения информации. Под информацией понимают совокупность сведений, данных о каких-либо событиях, явлениях или предметах. Информацию, в широком смысле, можно определить как совокупность знаний об окружающем нас мире. В таком понимании информация является важнейшим ресурсом научно-технического и социально-экономического развития общества. В отличие от материального и/или энергетического ресурсов, информационный ресурс не уменьшается при потреблении, накапливается со временем, сравнительно легко и просто с помощью технических средств обрабатывается, хранится и передается на значительные расстояния. Для представления, передачи или хранения информации используют различные знаки, символы, параметры и т.д., позволяющие выразить (представить) ее в некоторой форме. Совокупность знаков, символов, параметров, отображающих ту или иную информацию, называют сообщением. Так, при телеграфной передаче сообщением является текст телеграммы, представляющий собой последовательность отдельных знаков — букв и цифр. При разговоре по телефону сообщением является непрерывное изменение во времени звукового давления, отображающее не только содержание, но и интонацию, тембр, ритм и иные свойства речи. В радиолокации сообщение представляет собой изменяющиеся во времени координаты объекта. Сообщения могут быть функциями времени А,(/), например, речь при передаче телефонных разговоров, температура или давление при передаче телеметрических данных, спектакль при передаче по телевидению, координаты движущегося объекта и т.п. В других случаях сообщение не является функцией времени (например, текст телеграммы, неподвижное изображение и т.д.). Если сообщение представляет собой функцию '^{t), принимающую только определенные дискретные значения (например, 1 и 0), то его называют квантованным или дискретным по уровню (амплитуде). Сообщение (сигнал) с конечным числом дискретных уровней часто на-
51
зывают цифровым, поскольку уровни можно пронумеровать числами с конечным числом разрядов. Если же сообщение может принимать любые уровни в некотором интервале, то они называются непрерывными или аналоговыми. В некоторых случаях сообщение задают не на всей оси времени, а в определённые моменты tj^. Такие сообщения называют дискретными по времени в отличие от непрерывных по времени, заданных на всей оси I. Например, речь является сообщением непрерывным как по уровню, так и по времени, а датчик температуры, выдающий ее значения через каждые 5 мин, служит источником сообщений, непрерывных по величине, но дискретных по времени. Если сообщение (сигнал) принимает дискретные по уровню (квантованные) значения в дискретные моменты времени, то его называют дискретным квантованным сообщением. На рис. 2.1 проиллюстрированы различные виды сообщений.
о 1, и
а)
6)
ii — К
Ц г
К
X,
>•2 J
в)
О /,I /'2
г)
Рис. 2.1. Виды сообщений: а — непрерывное; 6 — дискретное по времени; в — квантованное; г — дискретное квантованное
Перенос сообщений (а следовательно, и информации) на расстояние осуществляется с помощью какого-либо материального носителя (бу52
маги, магнитной ленты и т.д.) или физического процесса (звуковых или электромагнитных волн, тока и т.а.). Физический процесс, несущий передаваемое сообщение, называется сигналом. В качестве сигнала можно использовать любой физический процесс, изменяющийся в соответствии с переносимым сообщением. В РТС (например, радиолокационных, радионавигационных, системах радиосвязи) перенос сообщений осуществляется электромагнитными волнами. В то же время, в радиоаппаратуре электромагнитное поле антенной системой преобразуется в электрические сигналы S{X,t), которые в последующем тракте приемника являются переносчиками сообщений. Физической величиной, определяющей такой сигнал, является ток или напряжение. В современных системах управления и связи также используют электрические сигнапы. Передача сообщения с помощью сигналов реализуется путем изменения тех или иных параметров физического носителя в соответствии с передаваемым сообщением. Этот процесс (изменения параметров носителя) принято называть модуляцией. Сигнал передает (развертывает) сообщение во времени. Следовательно, он всегда является функцией времени, даже если сообщение (например, неподвижное изображение) таковым не является. Также как и сообщения, электрические сигналы могут быть непрерывными и дискретными по времени, непрерывными и дискретными по уровню, цифровыми. Электромагнитное поле можно рассматривать как пространственновременной сигнал 5(г,Я,,/), где г — радиус-вектор некоторой точки пространства. Такой сигнал всегда является непрерывным во времени и по уровню. Во многих РТС пространственно-временной сигнал S{r,X,t) на входе системы может быть представлен в виде произведения S (г,Х,/) = = F{r)S{X,t), т.е. в виде разделяющихся пространственной /"(г) и временной 5(Л,,<) функций. В этом случае обработка сигнала разделяется на пространственную (в антенне) и временную (в приемнике). Учитывая это, в дальнейшем (если не рассматривается обработка пространственно временного сигнала) под сигналом будем понимать временную функцию S{X,t). В общем случае в радиосигнале могут переноситься несколько сообщений, поэтому там, где это необходимо, будем рассматривать вектор сообщений X(t). Каждое отдельное сообщение Я., (/) связано с тем или 53
иным параметром сигнала (амплитудой, частотой, фазой, задержкой), который в этом случае называется информативным. Для удобства дальнейшего изложения сообщение будем отождествлять с информативными параметрами сигнала. Параметры сигнала, не несущие полезной информации (сообщений), называются неинформативными. В различных приложениях в качестве информативных и неинформативных могут выступать различные параметры сигнала. Например, в системах связи с частотной модуляцией сообщение содержится в частоте сигнала, а амплитуда и начальная фаза сигнала являются неинформативными параметрами. При измерении дальности до объекта в радиолокации сообщение закодировано в задержке сигнала, которая в этом случае является информативным параметром. Если кроме дальности измеряется и угловое положение объекта с использованием фазовых методов пеленгации, то к информативным параметрам следует относить и фазу сигнала. При приеме и обработке сигналов в РТС неинформативные параметры не извлекаются и не передаются потребителю, однако их и их свойства необходимо учитывать. Поэтому введем вектор ц неинформативных параметров сигнала. При этом сигнал в общем виде представляется как 2.2. Узкополосные сигналы Рассмотрим общие статистические свойства радиосигналов безотносительно к типам и свойствам передаваемых сообщений. В связи с этим сигнал будем рассматривать как простой временной процесс S{t). Такой сигнал можно представить в виде процесса с изменяющейся амплитудой A{t) и фазой ф(<) 5 ( 0 = ^(Осо8((ВоГ + Ф(/)),
(2.1)
где coq = ? fo — несущая частота сигнала. Амплитуда и фаза сигнала в большинстве приложений меняются существенно медленнее, чем несущая частота. Полоса спектра такого сигнала ДГ^ « /д , и поэтому сигнал называют узкополосным. Для узкополосного сигнала широко используется комплексная запись 5 ( ; ) = Re
54
При этом вводится медленно меняющаяся комплексная амплитуда сигнала (2.2) а сам сигнал выражается через комплексную амплитуду
где * — знак комплексного сопряжения. Комплексная амплитуда сигнала (2.2) несет всю информацию о сообщении X, что и определяет целесообразность ее введения. Пусть заданы два узкополосных сигнала 5(г) и U{t), для которых, в соответствии с (2.2), определены комплексные амплитуды S{t)
и
О (t). Рассмотрим произведение 5(0f/(v) = - R e
(2.3)
При t = v первое слагаемое в квадратной скобке (2.3) описывает медленно меняющийся процесс, а второе — колебание с удвоенной несущей частотой. Поэтому при вычислении корреляционного интеграла можно записать /+Т
I I
1
S{t)U{t)dt'=-Re ^
jHt)U*{t)dt
(2.4)
где
x»l/fQ. Свойство (2.4) позволяет сущесгвенно упростить анализ многих РТС, содержащих инерционные звенья при использовании метода комплексных амплитуд. В таких системах вместо (2.3) можно использовать приближенное равенство 5(/)t/(/) = l R e [ s ( / ) t / * ( 0
(2.5)
в котором не учитывается слагаемое с удвоенной частотой изменения. 2.3. Статистические модели сигналов Пусть радиосигнал, излучаемый передающей системой, имеет вид (2.1). При его распространении от места передачи до места приема он 55
подвергается различным случайным воздействиям (флуктуациям параметров среды распространения, эффектам многолучевого распространения, многоточечным отражениям от объектов и подстилающей поверхности в радиолокации и др.), поэтому принимаемый сигнал становится случайным. Для математического описания принимаемого сигнала необходимо задаться той или иной его моделью. В литературе описано множество моделей принимаемого сигнала, которые в той или иной мере соответствуют рассматриваемой РТС и условиям ее функционирования. Одной из таких моделей может служить следующая. Сигнал в месте приема представляется в виде двух составляющих: детерминированной и случайной, т.е.
5(r) = CL4(r-T)cos(coo (?-т)+ф(/-х)+5)+ +(i(0/4(t-T)cos((O00-T)+9(f-T)+e(0),
(2.6)
где а и 6 — соответственно амплитудный коэффициент и фазовый сдвиг детерминированной составляющей сигнала, которые полагаются постоянными на интервале наблюдения; и е(г) — амплитудный коэффициент и фазовый сдвиг случайной составляющей сигнала, которые в общем случае могут меняться во времени; t — задержка прини^ маемого сигнала относительно переданного. Сигнал (2.6) можно записать в виде узкополосного колебания 5 (/) = а (О ^ (' - t)cos (шо (' - х ) + - х) - \|/(/)),
(2.7)
где a ( 0 = ^(acos(8)+p(/)cos(e(0)f+{asin(6)+p(/)sin(e(/))) = = ^a4p(/)42ap(0cos(5-e(r)), v
asin(5)+p{0sin(e(0)
— ; ; ; ; acos(6) + p(r)cos(e(?))
(2.8) (2.9)
— соответственно амплитуда и фаза принимаемого узкополосного колебания, при этом a(t) характеризует амплитудные флуктуации (замирания), а
— фазовые флуктуации сигнала.
В ряде задач допустимо считать Р(?) и £(?) независимыми случайными величинами, причем фаза е распределена по равномерному зако56
ну на интервале - л < в < л : ;?(£)= 1/2п, а амплитудный множитель Р — по рэлеевскому закону (1.9):
Перейдем от случайных переменных р,е к новым переменным а,\|/ и рассчитаем ПВ р ( а , у ) , используя (1.22). При выполнении условия V - 5 j < n из (2.8)—(2.9) можно записать однозначные обратные функции г^ ; ; ~ а sin ( ф ) - а sin (5) р = Ja^+a^+2aacos(\|/-5), e = arctg ^ * / а cos ( ф ) - а cos (5) Якобиан преобразования (1.23) переменных равен Уз (а, V) = I . ^ja'^
" • +2aacos(i|/-5)
Следовательно, совместная плотность вероятности амплитуды а и фазы принимаемого сигнала, рассчитанная по (1.22), определяется формулой
[
а^
-2aacos(\|»-5)
, при а > 0 , \ | / - 5 | < л. при других а,\|/.
О,
(2.10) Интегрируя (2.10) по \|i или а , получим одномерные плотности вероятности для случайной амплитуды и фазы принимаемого сигнала для модели (2.7) а 20^
[.0
аа
,
WJ
а>0.
г./ \ 1 a c o s ( \ | / - 6 ) ^ —cos(\|/-8) р(ш) = — е 2<г-1V— Ф о ^^ 2л aV^ \|/-5|<Л,
(2.11)
(2.12) 57
1 ^ "•/-» где Ф(х) = - у = I е~' '~dt — интефал вероятности. V27C_„ Описанная модель принимаемого случайного сигнала часто используется в системах радиосвязи. При а = 0 формула (2.11) переходит в рэлеевский закон распределения амплитуды сигнала, который часто используют в задачах радиолокации. Рэлеевскому закону подчиняются также медленные замирания сигналов в радиолиниях, использующих ионосферное или тропосферное рассеяние. В дальнейшем при решении отдельных задач статистической теории радиосистем будут использоваться следующие частные случаи модели (2.7). 1. Детерминированный сигнал, т.е. сигнал с полностью известными параметрами 5 ( 0 = а(И(г-т„)со5{ц,(/-То)+ф(/-То)+¥о)-
(213)
Такой сигнал является в определенном смысле идеализацией, так как он не несет никакой информации. Однако его удобно использовать для получения потенциальных (предельных) характеристик оптимальных приемников. 2. Сигнал со случайной начальной фазой S(/) = a,)A(f-To)cos(o^,(r-To) + 9(f7To)+v|/).
(2.14)
Здесь, в отличие от (2.13), начальная фаза принимаемого сигнала полагается случайной величиной с равномерным законом распределения на интервале [-It, л]. 3. Сигнал со случайными амплитудой и начальной фазой 5 ( / ) = аА(/-То)со5Ц,(г-1:о)+ф('-^())+М').
(2.15)
При этом начальная фаза, по-прежнему, распределена равномерно на интервале [-тс, л], а амплитуда распределена по рэлеевскому закону (1.9). Сигналы, описываемые детерминированными функциями, в которых один или несколько параметров являются случайными величинами, называют квазидетерминированными. В радиолокации часто используют сигнал в виде пачек из N радиоимпульсов с длительностью пачки т^ . Различают когерентную и некогерентную пачки радиоимпульсов. Если фазы высокочастотного заполнения радиоимпульсов связаны между собой детерминированной зависимостью, то имеем когерентную пачку, в противном случае гово58
рят о некогерентной пачке радиоимпульсов. Когерентная пачка радиоимпульсов с известной начальной фазой и амплитудой является детерминированным сигналом, а аналогичная пачка со случайной начальной фазой (для всей пачки) — квазидетерминированным сигналом. Если амплитудные и/или фазовые флуктуации сигнала нельзя считать медленными, то вместо случайных величин а и \|/ в модели (2.7) следует рассматривать случайные процессы a{t) и \|/(/). В этом случае удобно перейти к представлению сигнала его комплексной огибающей (2.2), которую во многих случаях можно считать комплексным стационарным гауссовским СП. Под комплексным гауссовским СП S{t) = S^{t)+iSj{t)
(2.16)
понимают процесс, действительная
(/) и мнимая 5/ (/) компоненты
(квадратурные компоненты) которого являются гауссовскими СП. Рассмотрим статистические характеристики огибающей и фазы стационарного узкополосного комплексного гауссовского СП (2.16). Запишем совместную ПВ квадратурных компонент 5/j и 5/ в фиксированных сечениях СП (т.е. при фиксированном значении t = (SK-m.f yjlmsit
(S,-m,f
yJlTKJf
(2.17) где m^,mj,Gj{,aj — MO и дисперсии квадратурных компонент; при записи (2.17) использован тот факт, что квадратурные компоненты (t), Sj (/) — независимые СП. 1
2
Для упрощения последующих выкладок будем полагать О/г = 0 / = = с^ . Тогда из (2.17) следует + sf ^ = —Ц-ехр
+mf 2а2
Sj^ntj^+Sjirij а^
Перейдем от декартовых координат SR,SJ К полярным координатам А = yjs^+sj
, ф = a r c t g - ^ . Тогда можно записать 3,^= А cos (ф), Sr 59
Sf = ^sin(
-е
.
(2.18)
Одномерную ПВ огибающей получается интегрированием (2.18) по ф на интервале [-те, л]
(Г
27С_„
d = arctg-^. (2.19) тц Интеграл в правой части (2.19) вычисляется с помощью табличного интеграла
f
=
(2.20)
С учетом (2.20), для ПВ огибающей получаем Л ^/Я^+Ж^
-
W
(2.21)
что соответствует распределению Райса (1.11). Запищем квадратурные компоненты узкополосного сигнала S(t) в виде = 5/(0 = '«/(0+^/(0. (2.22) где, как и ранее, П1ц,т1 — МО (регулярные составляющие) квадратурНЫ.Х компонент; ХД {t),X[ (/) — соответствующие флуктуационные составляющие. Тогда для узкополосного сигнала S{t) справедливо вьфажение
60
= {'"я (О+^л (0)cos((OoO-K
(0 + J^/ (0)sin(woO =
где 5p(/)= m/f (i)cos((Ot)/)-ff2/(/)sin(o)o/) щая узкополосного сигнала;
(;)=
{t)+Sc
(0.
— регулярная составляю-
(/)cos(o)o')~s/(')sin(co^)/) —
случайная составляющая сигнала. Отсюда видно, что амплитуда регулярной составляющей сигнала А^ = yjmj^ +mj . Следовательно, (2.21) можно записать в виде
р(А) =
с"
k
g'
(2.23)
А^О.
Данная формула определяет распределение Райса (см. также п. 1.3). При отсутствии регулярной составляющей сигнала выражение (2.23) переходит в распределение Рэлея (1.9). (Графики ПВ для распределения Райса приведены на рис. 1.5, а для распределении Рэлея — на рис. 1.4.) Одномерная ПВ фазы получается интегрированием (2.18) по А на интервале [0,«>] ^(ф) = 1 2л хФ
w^cos(9)+m;sin(9) <У\'2л
'mj( со8(ф)+от/ 5т(ф)'
- 1 2л niR
ml+mj \mg cos((p)4-/n, 5т((р)У
20^ (2.24)
При отсутствии регулярной составляющей сигнала, т.е. при ^ = О, выражение (2.21) преобразуется в равномерное распределение. Плотности вероятности распределения фазы узкополосного гауссовского сигнала для различных значений А^ / а приведены на рис. 2.2. Формулы (2.23)—(2.24) совпадают с (2.11)—(2.12), которые были получены иным путем, а именно при исходном представлении сигнала в виде регулярной и случайной составляющей (2.6). 61
Для учета временной корреляции флуктуаций сигнала его случайные составляющие XK(t),Xf{t) квадратурных компонент в (2.22) представляются в виде марковских процессов a Ф-S, рал Рис. 2.2. Графики ПВ фазы узкополосного гауссовского сигнала
(2.25) — независимые БГШ с единичной односторонней
где
спектральной плотностью; о — среднеквадратичное значение флуктуаций (параметр распределения Райса (2.20)); а = 0,2 ... 5 Гц — параметр, характеризующий ширину спектра флуктуаций (т^ = 1/а — время корреляции флуктуаций). В ряде задач синтеза радиотехнических систем бывает удобно в качестве исходных процессов рассматривать не квадратурные компоненты сигнала (2.16), а амплитуду A(t) и фазу ф(/) сигнала. При таком подходе А(/) и ф(г) полагаются независимыми СП. В качестве моделей изменения фазы сигнала часто используют следующие =
(2-26)
d
(2.27)
dt
ф _ dt
«9+4(0-
(2.28)
где ^{t) —БГШ с двусторонней спектральной плотностью Модель амплитуды сигнала представляется в виде
где
— квадратурные составляющие, которые описываются
уравнениями типа (2.25) при рэлеевском распределении мгновенных значений амплитуды. 62
2.4. Статистические модели сообщений Как отмечалось в п. 2.1, радиосигнал используется для переноса различных сообщений Х(^), которые могут быть связаны с теми или другими параметрами сигнала: амплитудой, частотой, фазой, задержкой. В статистической теории радиосистем используется описание сообщений в виде случайных процессов (или, в частном случае, случайных фушодий) и их представление в пространстве состояний. При таком подходе /я-мерный вектор Я,(/) отображается в л-мерном пространстве вектором х(/) = (/) Х2 (/) ... х„ . Связь между двумя векторами дается соотношением >.(0 = « ( / ) ,
(2.29)
где с —матрица размером /яхи. Поясним (2.29) на примере. Пусть информационным параметром Я, является задержка сигнала х. Положим, что она меняется во времени по квадратичному закону, т.е. =4 +
+
(2.30)
Определим в двумерном пространстве состояний вектор х = |т где V^ = dx/dt — мгновенная скорость изменения задержки. Дифференцируя (2.30) два раза по времени, получаем dx/dt =
dVjdt^a^-
т(0) = То;
=
или в векторной форме ^ = Fx+Ga,o; dt
F=
0 1 0
0
; G=
0 1
При таком представлении матрица с в (2.29) имеет вид с = |l
0|.
В я-мерном пространстве состояний вектор х ( 0 в общем случае описывается нелинейным стохастическим дифференциальным уравнением (1.80) или в частном случае — линейным уравнением (1.82). Модели вектора состояния х^ в дискретном времени задаются уравнениями (1.83)—(1.84). Приведем некоторые статистические модели сообщений для РТС. 63
Системы радиосвязи. Типичным видом сообщения в радиосвязи является речь. Одной из возможных моделей речевого сигнала является двухкомпонентный процесс, описываемый уравнениями (£с,i - . dt
^ = (2-31) dt где ^(f) — БГШ с двусторонней спектральной плотностью Щ / ^ . Спектральная плотность процесса А, = jc, описывается выражением со
График нормированой к единице функции Sx (®) приведен 800 1000 1ЭОО 2000 2900 3000 ЭКХ) «ХЮ /, Гп на рис. 2.3 при Oj = 1000 с ', Рис. 2.3. График спектральной плотности речевого сигнала
аг =5000 с"'.
Радиолокационные системы. Одна из основных задач радиолокационных систем — слежение за меняющимися координатами объекта. Сообщением в данном случае являются координаты движущегося объекта. Рассмотрим модель движения РЛС и объекта в плоскости (рис. 2.4), полагая для простоты РЛС неподвижной. В полярной системе координат положение объекта характеризуется дальностью R и углом д , для РЛС которых можно записать следующие кинематические уравнения: Рис. 2.4. Схема движения РЛС и объекта
L-fo
64
^ ^ dt
R
dt
dt
dt ^
dby dt
dt
R 2V =
R
(C„ - -
-V
"dt
=
R'
__
(2.32)
"
где (Og — угловая скорость вращения линии «РЛС—объект» (линии визирования объекта). Введем проекции ускорения объекта на линию визирования объекта и на нормаль к ней:
=
-т?) и а„ (/) = c o s ( i 5 } ^ - д ) .
Тогда уравнения (2.32) принимают вид dt
dV dt
(2.33)
db dui^ _ = ®в R ^ dt dt
(2.34)
R
Уравнения (2.33), (2.34) описывают изменение полярных координат объекга при произвольном его .явижении в плоскости, которое задается проекциями ускорения ав(») и ан(/). Дальнегоиее уточнение модели движения определяется заданием моделей проекций ускорения объекта. На практике используют три основных модели, которые аналогичны (2.26)—(2.28), если в них вместо ф подставить ав(г) или ^„(г). Для описания модели движения (2.33)—(2.34) в пространстве состояний введем векторы х =
Г
сОд
и запишем
dx = f(x)+g(x)a. dt О О где f ( x ) = Г A^R
(О, -IV^JR'g(x)
=
О 1 О О О 1/R
Радионавигационные системьи Рассмотрим в качестве примера спутниковую радионавш^ационную систему (СРНС) ГЛОНАСС (или 3—2041
65
GPS). В приемниках сигналов таких систем осуществляется слежение за задержкой т огибающей сигнала (за задержкой дальномерного кода) и фазой ф сигнала, которые пропорциональны дальности до навигационных спутников: X = R/CQ ,
'
(2.35)
dt
Для построения следящих систем за задержкой огибающей обычно используют модель ускорения ронней спектральной плотностью
=
где
— БГШ с двусто-
. Вводя вектор \ = R V^ , вы-
ражение (2.35) преобразуется в векторное уравнение d\
(2.36)
dt F=
О 1 О О
(2.37)
G=
При использовании данной модели возникает вопрос о выборе значения параметра N^, которое достаточно сложно обосновать физически. В этом смысле более наглядной является модель ускорения в виде da (2.38) = -(xa + a^{t). dt где а характеризует скорость изменения ускорения (для авиационных объектов Г д = 1 / а = 1...60с), а среднеквадратичное значение а^ = = . J O N ^ J A характеризует интенсивность ускорения (например, для самолетов Од =1...50 мс"^). При использовании модели ускорения (2.38) необходимо рассматривать вектор X = \R V
, который по-прежнему описывается вектор-
ным уравнением (2.36) с матричными параметрами
66
0
1
0
0
F=0 0
1 , G= 0 0 0 -а а
Можно показать, что в первом приближении при использовании модели двумерной модели (2.36)—(2.37) спектральная плотность N^ выбирается из соотношения Nf = ——, где а„ и а , как и в модели ^ а (2.38), определяются интенсивностью и скоростью изменения ускорения объекта. При рассмотрении следящей системы за фазой сигнала в приемнике СРНС в качестве модели также используют трехмерный вектор х = = \R V , но матричные параметры в уравнении (2.36) определяют как 0
1 0
0
F=0 0
1, G=0 0 0 0 1
Спутниковые радионавигационные системы являются пассивными, т.е. приемник только принимает радиосигналы. В таких системах важную роль играет уход частоты До) опорного генератора, для которой используется модель случайного процесса с экспоненциальной функцией корреляции d/SfSi где ^ 1 (г) — БГШ с единичной односторонней спектральной плотностью; ащ — параметр, характеризующий скорость ухода частоты опорного генератора (для кварцевых генераторов а^, = 10"^ Гц). 2.5. Статистические модели помех Шумовая широкополосная помеха. В различных радиотехнических системах приходится иметь дело с различными видами помех. Однако во всех случаях обязательным является наличие флуктуационного шума, обусловленного собственными шумами радиоприемного устройства, тепловыми и другими шумами окружающего пространства. Такие шумы полагают белыми гауссовскими процессами (см. п. 1.7) с односто-
67
ронней спектральной плотностью Щ = АГщ , где Л = 1,38 -10 ^^ Вт-с/К — постоянная Больцмана; Гц, — эквивалентная шумовая температура (в градусах Кельвина), которая складывается из эффективной шумовой температуры Гц, д антенно-волноводного тракта и шумовой температуры Гц,„ приемника. Белый гауссовский шум является широкополосной помехой. Узкополосные помехи. Другим типом помех являются узкополосные помехи, к которым относятся, например, импульсные и непрерывные фоновые составляющие атмосферных и промышленных помех. В достаточно общей форме узкополосную помеху можно представить в виде
где А^ (() и <Рп (/) - случайные амплитуда и фаза помехи. Случайная фаза помехи может описываться уравнением (2.26) или (2.27). Амплитуду узкополосной атмосферной и промышленной помехи можно представить в виде суммы импульсной ^ и фоновой Аф составляющих Ajj = А„+ Аф, причем ПВ A^, описывается логарифмически нормальным законом РМ=
1
ехр
(inK)-lnK))
2
2al
а Аф распределена по рэлеевскому закону (1.9). Изменения А^, и А^ во времени можно описать стохастическими уравнениями dt
-\/4а„а^Л.^„ (О,
(2.39) (2.40)
где ^и (О " ^ф (') — БГШ с единичной односторонней спектральной плотностью.
68
Типовые значения параметров моделей (2.39)—(2.40) следующие: о„ =500 ... 1000 Гц; Сф = 1 ... 10Гц; а„ = 0,01 ... 0,07 мкВ; Оф = = (1 ...5)10"* мкВ. Широко распространенным типом помех являются импулы;ные помехи. В результате теоретических и экспериментальных исследований установлено, что ПВ импульсных помех в ряде случаев можно аппроксимировать функцией ехр
РМ=
w:
где Г(*) — гамма-функция (1.6); v — параметр, зависящий от типа помехи и принимающий значения от 0,5 до 2; при v = 1 получаем распределение Лапласа 1 23/2^ -ехр
К
(2.41)
Приведенные статистические модели сигналов, сообщений и помех не исчерпывают их многообразие. В каждом конкретном приложении они могут либо модифицироваться, либо используются другие модели.
Контрольные вопросы к главе 2 1. Чем по смыслу отличаются термины сигнал, сообщение, помеха! 2. Какие сигналы и процессы (сообщения) называются квазидетерминированными? 3. Какие основные признаки (характеристики) узкополосного сигнала? 4. Дать определение огибающей и фазы узкополосного сигнала. 5. Является ли сообщение x{t), имеющее спектральную плотность Sj^{(a) = So/a* , марковским процессом и почему? 6. Как описывается корреляционная функция помехи, имеющей равномерную спектральную плотность в заданной полосе частот?
69
Глава
3
ОСНОВЫ ТЕОРИИ СТАТИСТИЧЕСКИХ РЕШЕНИЙ
3.1. Общие положения Одним из основных вопросов статастической теории РТС является выбор наилучшей (в некотором смысле) системы. Методологической базой такого выбора является теория статистических решений, разработанная А. Вальдом. Формулировка основных положений этой теории не связана ни с какими-либо частными задачами, ни с конкретными критериями оптимальности. Поэтому она дает общий подход к решению задач статистического синтеза различных динамических (в том числе и радиотехнических) систем [5]. Прежде, чем излагать основы теории статистических решений, сформулируем в возможно более общем виде те задачи, которые решаются различными РТС. В гл. 2 было определено, что РТС предназначены для передачи и извлечения сообщений, закодированных в параметрах радиосигнала. Сообщения имеют статистическую природу и требуют задания соответствующих вероятностных распределений (или плотностей вероятности). Данную статистическую информацию называют априорной, так как исследователь располагает ею до проведения каких-либо измерений или экспериментов. Пусть — сообщение, которое представляет собой некоторый СП. Положим также, что, в соответствии с принятым в п. 2.3 представлением, отображается в пространстве состояний вектором x(f), который, в свою очередь, является векторным СП. В дальнейшем под х(/) будем понимать марковский СП (см. п. 1.8). В каждый момент времени t данный СП характеризуется ПВ априорной ПВ. Для передачи сообщения
которая является используется сигнал
На входе приемника наблюдается реализация y{t),
пред-
ставляющая собой искаженный помехой сигнал. Наблюдаемую на интервале времени [0,г] реализацию y{t) обозначим как Уд • В результате обработки
YQ
МОЖНО
извлекать дополнительную информацию об
интересующем сообщении. Эта информация также имеет статистиче70
скую природу, а соответствующие вероятностные распределения или ПВ называют апостериорными (т.е. после проведения опыта или эксперимента). Поэтому условную ПВ p{x,t Iq j называют апостериорной, так как она описывает статистические свойства вектора х в момент времени t при условии, что проведены наблюдения Уд • Результат извлечения информации из принятого сигнала (наблюдений) часто можно трактовать как принятие решения о значении сообщения либо в каждый момент, либо в заданные моменты времени. Принятие таких решений называют оцениванием. Поэтому в дальнейшем часто будет говориться об оценивании сообщений. В терминах оценивания формулируются такие задачи как обнаружение, распознавание и различение временных и пространственно-временных сигналов; оценка параметров сигналов; фильтрация сообщений, сигналов, полей и изображений; управление процессами и объектами и др. 3.2. Решения, функция потерь, риск Решение. Радиотехнические системы предназначены для обработки сигналов и информации, заключенной в них. Всякий результат такой обработки в теории статистических решений называют решением, а сам процесс обработки, который завершается тем или иным результатом (решением), называют принятием решения. В любом процессе обработки сигналов, информации и принятия решений можно выделить ряд характерных признаков, главными из которых являются следующие. 1. Всякое решение направлено на достижение какой-то цели, выбирается из ряда возможных альтернатив (конечной или бесконечной) и приводит к некоторым последствиям, по которым и должно оцениваться качество этого решения. 2. Решение принимается с помощью доступной к моменту его принятия информации двоякого рода. Одна ее часть обобщает прошлый опыт и представляет собой совокупность априорных сведений. Другая представляет совокупность данных наблюдения, получаемых в процессе выработки решения непосредственно перед его принятием. 3. Как правило, доступная при принятии решения информация и последствия от принятия того или иного решения имеют статистическую природу, что определяется статистическим характером априорных сведений, результатов наблюдения и т.п. Все это придает процедуре принятия решений статистический характер. 71
4. Выбор решения из имеющихся альтернатив не обязательно однозначно определяется имеющейся информацией. Он может допускать элементы случайности или, как принято говорить, рандомизации. Процедура случайного выбора решения предполагает, что для каждого значения совокупности данных наблюдения и для каждого из возможных альтернативных решений определены вероятности, в соответствии с которыми и может быть принято любое из возможных решений. В данной книге рассматриваются только проблемы детерминированного выбора. Введем формальное описание правила принятия детерминированного решения. Пусть YQ наблюдаемая реализация (наблюдение), которая, с точки зрения статистической теории, является одной из возможных в пространстве наблюдений Y , т.е. Jq е Y . Всякое преобразование
и (*) наблюдаемых данных YQ , т.е. и ^Уд ) > будем называть решающим правилом или, другими словами, алгоритмом обработки. Множество всех решающих правил (алгоритмов) обозначим через U , так что и^Уо j e и . Как отмечалось выше, результатом обработки наблюдений является решение, которое обозначим как d . Совокупность всех возможных решений образует множество D ( J е D ). Таким образом, каждое нерандомизированное решающее правило (алгоритм) и устанавливает однозначное соответствие между точками пространства наблюдений Y и пространства решений D,T.e. if = M^loj • Решение d может быть скалярным или векторным. Например, если ищутся оценки каждой компоненты вектора состояния х , то решение, под которым можно понимать искомые оценки, будет векторным. Для векторного решения имеем d = u ^ l o j . Функция потерь. Выбор того или иного решения приводит к определенным последствиям (результатам). Целесообразно эти последствия оценивать по степени соответствия их поставленной цели. Для количественной оценки такого соответствия вводят функцию потерьс(...,...), которая, естественно, должна зависеть от поставленной в задаче цели и от принятого решения. Фиксируем некоторый момент времени / . Определим в качестве цели вектор х , соответствующий выбранному моменту времени, а решением в данном случае будет вектор d . Таким образом, для функции потерь можно записать c(x,d). Конечно, в качестве 72
цели может выступать само сообщение X или какое-либо его функциональное преобразование, а решение при этом будет скалярное d . Поскольку этот факт не является принципиальным, то в дальнейшем будем вести речь о функции потерь вида c(x,d). При задании функции потерь во многом ориентируются на здравый смысл. В прикладных задачах обычно требуется, чтобы функция потерь удовлетворяла следующим свойствам: 1) c(x,d) — скалярная функция двух векторных переменных; 2) с(х,х) = 0 , т.е., если решение совпадает с искомым вектором, то потери равны нулю; 3) c ( x , d j ) > c ( x , d 2 ) всегда, если p ( x - d , ) > p ( x - d 2 ) , где р — скалярная неотрицательная выпуклая функция; 4) c(x,di) = ( d i ^ ) —свойство симметричности. Функция потерь, обладающая всеми указанными свойствами называется допустимой. На практике чаще всего применяются следующие т р и в и д а д о пустимой функции потерь: 1)квадратичная c(x,d) = ||x-d||^,
(3.1)
2) модульная c(x,d) = ||x-d||g, [ о , ||x-d||^<e/2, 3) простая c(x,d) =-! [l/e, | | x - d | | g > e / 2 .
(3.2)
Здесь 1*1 — символ нормы вектора; е = const; Q — неотрицательно определенная матрица размером пхп, с элементами, выполняющими роль весовых множителей. Обычно в радиотехнических задачах норма вектора определяется соотношениями ||x-d||=(x-drQ(x-d), I I - =
= 7(x-drQ(x-d).
(3.3)
Применительно к простой функции потерь часто рассматривают случай, когда значение параметра е в (3.2) стремится к нулю (е 0). При этом простую функцию потерь записывают в виде 73
c(x,d) = Z , - 5 ( x - d ) , где 5 ( x - d ) = .
О, при d?ix,
(3.4) 7 , . J 5(u)rfu = 1;
= const. oo, при d = X, Строгий предельный переход в (3.2) при е О дает Ь = о°,но так как значение b не влияет на результаты синтеза оптимальных систем, то допустимо полагать b некоторой конечной величиной. Если вектор х принимает дискретные значения х^'^, / = 1,2,..., то аналогом функции потерь (3.4) является выражение =
где
=
0,
(3.5) при d
символ Кронекера.
1, при d = Риск, функция потерь c(x,d) = c(x(/),d(f)) = c|x(/),u^}o )) > Рассматриваемая в фиксированный момент времени t , является случайной величиной, так как зависит от случайной величины х (?) и реализации Yq случайного процесса y{t),
что затрудняет сравнение различных
решающих правил. Поэтому лучшие решающие правила логично выбирать на основании сравнения усредненных значений потерь, которые называют риском. В зависимости от полноты усреднения при вычислении МО функции потерь рассматривают несколько различных рисков. Наиболее общим является средний риск, при определении которого функция штрафа усредняется по совместной ГШ
СВ х(/) и случайной
реализации YQ г(u,f) = JJc(x(О,U(Уо'(х(/),Y^)dx{t)dYl,
(3.6)
где интегрирование ведется по области допустимых значений x(f) и YQ . При записи (3.6) учтена временная зависимость информационных процессов и наблюдений. В различных задачах средний риск можно определять в текущем времени, на конечном временном интервале, для
74
различных временных интервалов относительно х(/) и y{t) и т.д. Поэтому в последующих формулах, для общности рассуждений, временной индекс будет опущен. Так, например, формула (3.6) будет записываться как
r(u) = J|c(x,u(r));;(x,y)Jxfi?y.
(3.7)
Кроме среднего риска (3.7) часто используют д'словкые риски, представляющие собой условные математические ожидания функщ1и потерь. Используя формулу Байеса для совместной ПВ p{x,Y) = = р(х|}')/7(У), запишем r(u) =
= lrp,iY,ii)p{Y)dY,
(3.8)
где r^,(i'.u) = Jc(x,u(y));.(x|y>?x
(3.9)
— апостериорный риск, т.е. при заданных наблюдениях Y. Из (3.8) видно, что любое решающее правило и определяет как значение среднего риска, так и значение апостериорного риска, причем экстремальные значения данных рисков имеют место при одном и том же решающем правиле. Другой условный риск г(х,и), который иногда называют функцией риска, определяется для условной ПВ
, которая связана с совме-
стной ПВ выражением p{\,Y) = /?(У|х)р(х). В этом случае выражение для среднего риска (3.7) можно записать в виде г(и) =
= J r (х,и)/7(х)Л,
где r(x,u) = J c ( x , u ( y ) ) p ( y | x > / y .
(3.10)
Заметим, что условный риск r(x,u) определяется при фиксированном значении х , поэтому случайным «параметром» при этом является только реализация Y, и усреднение в (3.10) проводится только по Y. Относительно х условный риск г(х,и) является обычной функцией этой переменной, поэтому он и называется функцией риска.
75
3.3. Оптимальные решения Термин «оптимальное» решение определяет наилучшее в заданном смысле решение, т.е. в соответствии с заданным критерием сравнения. Поэтому некорректно говорить об оптимальности того или иного решения, не указывая на критерий сравнения. В теории статистических решений при отыскании оптимального решения рассматривают два крайних случая: имеется полная априорная статистическая информация об информационном процессе х ; отсутствие какой либо априорной статистической информации о процессе х . Байесовские решения. При наличии полной априорной информации естественно определить оптимальным решением uq такое, которое минимизирует средний риск (3.7), т.е. средние потери от принятия решения r ( u o ) = min r ( u ) = min |fc(x,u(y));7(x,y)t/xi/y. а u Такое решение называется байесовским. Подчеркнем, что для байесовского решения характерны два признака: полная априорная статистическая информация об информационном процессе х и критерий оптимальности в виде среднего риска (3.7). Из представления среднего риска в форме (3.8) следует также, что оптимальное решение может быть найдено в результате минимизации апостериорного риска, так как p{Y) — положительно определенная функция, не зависящая от и: uo = arg min г (и).
(3.11)
u
Таким образом, байесовское решающее правило минимизирует как средний, так и апостериорный риски. Рассмотрим примеры байесовских решающих правил для двух наиболее часто используемых функций потерь: квадратичной и простой. Подставляя выражение (3.3) для квадратичной функции потерь в (3.11), запишем Эо.Ли) „=uo=2je(x-uo)/»(x|y)^ = 0. du Отсюда находим 76
=i =
(3.12)
Таким образом, для квадратичной функции потерь оптимальное байесовское решение (3.12) является апостериорным средним значением вектора х . Такое решение будем в дальнейшем называть оптимальной байесовской оценкой вектора х и обозначать х . Получим теперь байесовское решение для простой функции потерь (3.4): U o ( y ) = x = arg min J ( i - 6 ( x - u ) ) / ? ( x | y ) t / x =
а
= arg max/?(x|y).
(3.13)
Следовательно, оптимальным решением для простой функции потерь является такое значение х , при котором АПВ /'(xji') достигает максимума. Так как понятие байесовского решения связано априорной ГШ /7ар (х), то можно говорят о байесовском решении относительно заданной априорной ПВ
(х). Для каждой р^, (х) будем иметь свое байе-
совское решение, так как апостериорная ПВ /'(х|у) зависит от заданного априорного распределения а, следовательно, средний и апостериорный риски также от него зависят. Б ряде задач может отсутствовать информация об априорной ПВ />ар(х), что не позволяет использовать байесовское решение. В этом случае используют небайесовские методы выбора оптимального решения. Небайесовские решения можно получить, исходя из функции риска (3.10), которая для своего определения не требует априорной ПВ />ар (х). Одним из таких решений является минимаскное. Минимаксные (небайесовские) решения. Решение d* =и*(У) называется минимаксным, если оно удовлетворяет условию шах г (X, U* ) < max г (х, и) X
^
'
X
для всех U, или в другой записи max г(х,и* ) = min max r ( x , u ) , (3.14) X ^ ' n I т.е. если оно минимизирует максимальное значение условного риска. 77
Величина max
пгаыъгегсся мингшаксным риском.
Для нахождения минимаксных решений в общем случае нет конструктивных процедур, кроме доказанного Вальдом результата: при некоторых несущественных допущениях минимаксное рещение является байесовским относительно наименее благоприятного априорного распределения (х). При этом минимаксный риск равен байесовскому риску д
л
я
а
условный риск
не зависит от х .
Минимаксные решения часто используются при робастных методах синтеза, которые малочувствительны к априорным данным. Метод максимального правдоподобия. При определении функции риска в (3.10) использовалась условная ПВ /7(Г|х), которая представляет собой ПВ наблюдений Y, при фиксированном значении х . Так как значение вектора х фиксировано, то он уже не является случайной величиной, однако может рассматриваться как неизвестный параметр. Условная ПВ p ( J ' | x ) , рассматриваемая как функция неслучайного параметра X, называется функцией правдоподобия L(x). Обратим внимание на различие между условной плотностью вероятности
и функцией правдоподобия L(x).
В первом случае
фиксируется значение х и рассматривается ПВ реализации Y, которой соответствует заданное (фиксированное) значение х , что можно обозначить как У(х). Следовательно, в этом случае имеем ;?(У(х)|х). При определении функции правдоподобия L{x) рассматривается принятая реализация Y, соответствующая некоторому (истинному) значению х„ , что обозначим как У(х„), а параметр х , стоящий в условии ПВ р(У|х), меняется в пределах заданной области определения. Поэтому в данном случае имеем i ( x ) = р(У(х„)|х). Функция правдоподобия широко используется для нахождения небайесовского решения в задачах оценки постоянных параметров сигнала. Зададим в (3.10) некоторое значение х = х„ и положим в качестве с(х„,и(У(х„))) простую функцию потерь (3.4). Подставляя (3.4) в (3.10) и используя свойство дельта-функции, получаем 78
f(u) = J ( 6 - 6 ( x - u ( y ) ) ) / 7 ( y | x ) r f y = 5 - p ( y | u ) = 5 - i ( u ) ,
(3.15)
где В — константа, не зависящая от и. Минимум функции риска (3.15) достигается при значении u = i „ , при котором функция правдоподобия i ( u ) = р(У(х„ )|и) максимальна I ( x „ ) = max I ( u ) = max Z,(x). (3.16) а X Для нахождения оценки максимального правдоподобия необходимо решить уравнение правдоподобия Щх) ^ ' . =0. (3.17) Эх Оценки максимального правдоподобия имеют ряд важных свойств, которые более подробно будут рассмотрены в гл. 7. 3.4. Оптимальные решения при наличии случайных неинформативных параметров сигнала Как отмечалось в п. 2.1, в задачах приема и обработки радиосигналов последние могут иметь как информативные, так и неинформативные параметры. Выше была рассмотрена ситуация, когда сигнал 5(/,Я,(/)) имел только информативные параметры X. Идеология получения оптимальных решений при наличии неинформативных параметров сигнала такая же, что и при их отсутствии. Пусть сигнал
имеет векторный неинформативный па-
раметр ц , который полагаем векторной случайной величиной, т.е. постоянной за время наблюдения. Сообщение, как и ранее, отображается в пространстве состояний вектором х . Полагаем, что заданы априорные
ПВ РАР (х) и РДР (р.). Проведя наблюдения YQ , как и выше, можн искать то или иное решение d = u|lo ) • Однако в каждой реализации Уд случайная величина ц имеет вполне конкретное значение, которое, естественно, влияет на качество решения. Поэтому можно записать d(^l) = Следовательно, функция потерь c^x.u^jq'M')) зависит от случайных величин х,|х и случайного процесса YQ , поэтому при оп79
ределении среднего риска необходимо проводить усреднение по совместной ГШ р(х,ц,У),т.е.
где (3.19) — апостериорный риск. Для квадратичной функции потерь (3.1) минимизация (3.19) дает оптимальное решение (3.20) где £(ц) = | х р ( х | Г . ц ) Л
(3.21)
— условная оценка вектора х при фиксированном значении неинформативных параметров ц . Используя формулу Байеса /?(х,ц,У) =/7(У|х,|х)^з(х,ц), средний риск можно записать в виде
где (3.22) — функция риска, которая отличается от (3.10) дополнительным усреднением по неинформативным параметрам ц . В частном случае, когда в качестве функции с(х,и(У,ц)) выбирается простая функция потерь (3.4), оценкой, минимизирующей функцию риска (3.22), является оценка максимального правдоподобия, определяемая из условия х^ =argmax Z ( x ) , где 80
=
(3.23) (3.24)
Формула (3.23) получается аналогично тому, как это сделано в (3.15). Для нахождения оценок максимального правдоподобия в этом случае также можно использовать уравнение правдоподобия (3.17) с заменой L{x) на Z(x),T.e.
Эх
.
= О.
(3.25)
Отметим, что оценка (3.23) достаточно условно может быть названа «оценкой максимального правдоподобия», так как она использует априорную информацию о распределении р (|д,) неинформативных параметров сигнала. «Классические оценки максимального правдоподобия» базируются на отказе от использования какой-либо априорной информации. И, строго говоря, их надо было бы получать в результате рассмотрения функции правдоподобия вводя расширенный векX тор Z = и рассматривая уравнение правдоподобия (3.17) относительно расширенного вектора z , что существенно усложняет задачу. В то же время, физически понятно, что наличие и использование любой априорной информации позволяет улучшить качество формируемых оценок. Поэто\1у, если есть априорная информация о параметрах сигнала, то ее нужно использовать для формирования любых оценок, в том числе «оценок максимального правдоподобия» относительно информативного вектора х . В радиотехнических задачах априорные сведения о распределениях таких возможных неинформативных параметрах сигнала как начальная фаза и амплитуда известны. Поэтому относительно данных неинформативных параметров рассмотрение оценок в соответствии с (3.23) вполне оправдано. 3.5. Оптимальные решения при наличии случайных параметров сообщения «Неинформативные» случайные параметры могут быть присущи не только сигналу 5(/,А,(/)), но и сообщению
Пусть сообщение X
отображается в пространстве состояний вектором х , который является векторным марковским процессом. Положим, что процесс х(г) описывается, например, уравнением (1.82), в котором матрицы F(f) и/или 81
G(/) зависят от случайного веьсторного параметра а , постоянного за время наблюдения, т.е. F ( a , / ) , G ( a , / ) . В этом случае процесс х(а,г) и сообщение А,(а,г) также зависят от случайного параметра а . Параметрами а могут быть, например, дисперсия сообщения, его ширина спектра и др. Если потребителя интересует само сообщение Я,, а не его отдельные характеристики, то для него параметры а являются неинформативными. С точки зрения теории статистических решений данная задача полностью эквивалентна той, что описана выше, т.е. задаче принятия решения при наличии случайных неинформативных параметров сигнала. Поэтому, заменив в (3.18), (3.19) ц на а , получаем необходимые соотношения для среднего риска и апостериорного риска r^„(u) = jjc(x,u(y,a))/»(x,a|y)^xrfa.
(3.26)
Оптимальная оценка вектора х при квадратичной функции потерь дается выражениями, аналогичными (3.20), (3.21)
X=
(x,a|y)t/xrfa - Jx(a);7(a|y)^^a,
x ( a ) = Jxp(x|y,a)c^x.
(3.27) (3.28)
Соотношения (3.26)—(3.28) используются при синтеза адаптивных систем фильтрации, работающих в условиях, когда не полностью известны априорные статистические характеристики сообщения. Контрольные вопросы к главе 3 1. Какое решение называется байесовским? 2. Чем байесовское решение отличается от минимаксного? 3. Чем байесовское решение отличается от решения максимального правдоподобия? 4. Чем отличается байесовское решение в задаче приема сигнала со случайными неинформативными параметрами от аналогичного решения при приеме сигнала без неинформативных параметров? 5. Что такое апостериорная плотность вероятности и каково ее значение в теории статистических решений? 82
Глава
4
ОБНАРУЖЕНИЕ СИГНАЛОВ
4.1. Постановка задачи обнаружения сигналов Под обнаружением сигнала понимают анализ принятой реализации на интервале времени [0,Г] с целью принятия решения о наличии или отсутствии в ней полезной составляющей S(t,X), т.е. составляющей, несущей сообщение А,, которая, в соответствии с определением п. 2.1, названа сигналом. Данное определение предполагает, что кроме сигнала в принятой реализации присутствуют другие составляющие, которые относят к помехам n{t). Взаимодействие сигнала с помехой (или помехалш) может иметь достаточно сложный характер, что математически может быть представлено функциональной зависимостью yit)=f{s{a),n{t)), где f{x,y)
—заданная функция двух переменных.
В данной книге будет рассматриваться простейший случай аддитивного взаимодействия сигнала и помехи, т.е. y{t) = Sit,l)+n{t).
(4.1)
Математически задача обнаружения формулируется следующим образом. Пусть неизвестен факт наличия или отсутствия сигнала в принятой на отрезке [0,Г] реализации >>(/). Тогда можно записать если сигнал присутствует, n{t),
если сигнал отсутствует.
По наблюдаемой реализации случайного процесса y{t) и имеющейся априорной информации требуется решить: присутствует или отсутствует сигнал в наблюдениях. Задачу обнаружения можно сформулировать иначе, а именно — как задачу оценивания случайного параметра. Для этого принятую реализацию (4.1) запишем в виде =
/е[0,Г] .
(4.2) 83
Параметр О полагается случайной величиной, которая может принимать одно из двух значений: д = 1 (что соответствует наличию сигнала в наблюдаемой реализации) с априорной вероятностью ; 0=0 (что означает отсутствие сигнала) с априорной вероятностью (l-f\). При этом задача обнаружения формулируется как задача оценки значения случайной величины д по наблюдениям (4.2). В дальнейшем, для удобства обозначения, реализацию y{t), / € [о, г ] будем обозначать YQ . 4.2. Обнаружение детерминированного сигаала Начнем рассмотрение задач обнаружения с наиболее простого случая приема детерминированного сигнала S ( t ) , т.е. сигнала с полностью известными параметрами, на фоне аддитивного БГШ n{t) с двусторонней спектральной плотностью NQ/2. 4.2.1. Байесовское решение. Простая функция потерь Нахождение байесовского решения предполагает задание статистических характеристик всех случайных величин и процессов. В рассматриваемой задаче имеется один случайный параметр О, который может принимать два значения: О и 1. Поэтому положим, что заданы априорные вероятности /^р (1) = Рдр {i^ = 1} наличия и Р^р (0) = Р^р = 0} отсутствия сигнала в принимаемом колебании, причем jP^ ( 1 ) + ( 0 ) = 1. Простая функция потерь для параметра, принимающего конечное число значений, описывается соотношением (3.5), из которого следует, что при правильном решении потери нулевые, а при неправильном — равны единице. Оптимальным правилом решения при простой функции потерь является такое решение (оценка д ), для которой апостериорная вероятность максимальна. Так как параметр д может принимать только два значения (О и 1), то имеем соответственно две апостериорных в е р о я т н о с т и : = 1
j
— вероятность того, что сигнал присутствует в принятой реализации;
84
= 0 Jq^ j — вероятность отсутствия сигнала в наблюдаемой реализации. При этом оптимальное решающее правило можно записать в виде Ь=1.
при (4.3)
«о К ) =
В соответствии с формулой Байеса (1.58), для апостериорной вероятности Р^тЗ YQ j можно записать соотношение
где Рар (д) — априорная вероятность того или иного значения параметра д . Тогда сравнение апостериорных вероятностей в (4.3) может быть записано в виде (4.4)
где р(^Ь^) — отношение двух условных ПВ; блюдаемой p{Yq
реализации
при
условии
наличия
= в
ней
— ПВ насигнала;
= o j — ПВ наблюдаемой реализации при отсутствии сигнала.
Данное отношение (данную функцию) называют отношением правдоподобия. В (4.4) h — константа, получившая название порога сравнения или просто порога. Таким образом, оптимальное байесовское правило обнаружения при простой функции потерь сводится к вычислению отношения правдоподобия и сравнению его с порогом. Оптимальное решающее правило (4.4) совпадает с известным в литературе правигюм, соответствующим критерию идеального наблюдателя, и часто применяется в системах радиосвязи, когда известны априорные вероятности Рар{\) и Рар{^)-
85
4.2.2. Байесовское решение. Обобщенная функция потерь Обобщенная функция потерь, в отличие от простой функции, задает потери в более общем виде. В рассматриваемой задаче обнаружения возможны четыре ситуации: 1) сигнал в наблюдениях присутствует, и принимается решение, что сигнал есть; 2) сигнал в наблюдениях присутствует, но принимается решение, что сигнала нет; 3) сигнал в наблюдениях отсутствует, а принимается решение, что сигнал есть; 4) сигнал в наблюдениях отсутствует, и принимается решение, что сигнала нет. Пусть dx — решение о наличии сигнала (т.е. д = 1) и (IQ — решение об отсутствии сигнала (т.е. ^ = О). При принятии правильного решения (ситуации 1 и 4) естественно, как и раньше, полагать, что потерь нет, т.е. они равны нулю. При неправильном принятии решения (ситуации 2 и 3) потери отличны от нуля. Пусть соответствующие потери равны c ( d = l,rfo) = Cio —потери для ситуации 2 , а c ( d = 0,
j должно каждой реализации Iq^ е Y по-
ставить в соответствие одно из решений d^, / = 0,1, т.е. фактически разбить область возможных реализаций Y на две непересекающиеся подобласти Y| и Yq , которым соответствуют решения d^ и Jg > причем Yj и Yq = Y , где и — знак объединения множеств. Формально это можно записать так: если yo^eY,, 0 = 0,
если
YIBYQ.
Для нахождения байесовского решающего правила конкретизируем выражение (3.7) для среднего риска 86
r{u) = P,p{l)j где p ^Уо^
с,OP(Уо'' Yo
+ Pap (0) J Y,
\^ = o)dY, (4.5)
— условная ГШ наблюдаемой реализации при заданном
значении д . Учитывая, что области
y]
и
yq
взаимосвязаны, т.е.
вероятностное пространств нормировано J P{YQ
y]
= yxyq , а
= 1, то справед-
ливо равенство Рар (0) 1 Со,/' (Го'^ = l) = ^'.р (0)со, - Рар (0) j Y] Yo И выражение (4.5) можно представить в виде
=
,
+
^Рар (0)со, = J {Рар Yo +/'.p(0)co,.
=
{^Wp(УО^
- 0)}rfy + (4.6)
Байесовское решение должно минимизировать средний риск г (и). Из (4.6) следует, что, если выражение, стоящее в фигурных скобках отрицательно, то средний риск будет меньше, чем в том случае, когда это выражение положительно или равно нулю. Поэтому, определим область yq таким образом, что для входящих в нее реализаций YQ условие =
=
•
выполняется (4.7)
Учитывая, что выражения, входящие в (4.7) положительны, аналогичное неравенство можно записать и для интегралов Рар{0) ! Coip{Yj\^ = OyY>P,p(l) Yo*
J Yo'
Покажем, что для решающего правила «q^iq")' определяемого соотношением (4.7), средний риск (4.6) имеет минимальное значение. Для этого возьмем любое другое решающее правило М] ^Уо^ . Очевидно, что 87
для этого правила хотя бы для одной реализации YQ условие (4.7) не выполняется, т.е. вместо знака ">" имеет место знак "<" или "=". Поскольку выражения, входящие в (4.7), положительны, то это приведет к
(0) J cq i/?^
тому, что значение
=
станет меньше, а
Рар (1) I C^QP^YQ |д = ijt/y — больше. Подставляя эти значения в (4.6) Yo* получаем, что величина среднего риска увеличится. Отсюда следует вывод, что решающее правило (4.7) является оптимальным. При выполнении условия (4.7) принимается решение о том, что наблюдаемая реализация относится к множеству yq, которому соответствует принятие решения об отсутствии сигнала. Решение о наличии сигнала в наблюдаемой реализации принимается при выполнении обратного соотношения, которое удобно представить в виде
/ 7-\ ^
'
Рар{0)со1 p[YI\^ = 0)
Pap i^ho
Таким образом, байесовское решающее правило обнаружения для обобщенной функции потерь описывается соотношением "О
(П)-
^ = 0,
если р(Уо")>/го, (4.9) если p(fo^)
и сводится, как и выше, к вычислению отношения правдоподобия р Уо^ j и сравнению его с порогом Aq , величина которого изменилась и определяется не только априорными вероятностями наличия и отсутствия сигнала, но и значениями потерь при неправильных решениях. Отметим, что оптимальный алгоритм обнаружения для простой функции потерь получается из оптимального алгоритма для обобщенной функции потерь, если в нем положить потери при неправильных решениях равными, т.е. cqi = с|о • 4.2.3. Небайесовское решение. Критерий Неймана—Пирсона Чтобы воспользоваться приведенными выше байесовскими решениями (4.4), (4.9), необходимо знать априорные вероятности (д = 1) 88
и Рар{^ = 0) наличия и отсутствия сигнала. Однако на практике они часто бывают неизвестны, например, в задачах радиолокации. В этих условиях следует использовать небайесовские оптимальные решающие правила, одно из которых получается на основе критерия Неймана— Пирсона. Решающее правило Неймана—Пирсона, как и байесовское, разбивает область всех возможных реализаций y на две непересекающихся подобласти y] и yg, для которых принимается соответственно решение о наличии и отсутствии сигнала. Однако выбор этих областей производится из других соображений. В задаче обнаружеьшя возможны д в а в и д а о ш и б о к , соответствующие ситуациям 2 и 3 п. 4.2.2: л о ж н а я т р е в о г а , которую часто называют ошибкой 1-го рода, когда принимается решение о наличии сигнала в принимаемой реализации, в то время как его на самом деле нет; п р о п у с к с и г н а л а , которую называют ошибкой 2-го рода, когда принимается решение об отсутствии сигнала в принимаемой реализации, в то время как он есть. Введем вероятности ошибочных решений: вероятность ложной тревоги Рр^ - P{di вероятность пропуска сигнала Р = /"(i/o
= О) = P^yJ е y, |тз = о) ; = О~
^
Ь~
•
Величина Р[,={1- Р) есть вероятность правильного обнаружения. Согласно критерию Неймана—Пирсона оптимальным решением считается такое, которое обеспечивает максимум вероятности Р^ правильного обнаружения (или, что тоже самое, минимум вероятности пропуска сигнала Р) при заданной вероятности ложной тревоги Рр^^^. Опуская строгое доказательство, приведем конечный результат: решающее правило Неймана—Пирсона и* ^YQ j также описывается выражением (4.4) и заключается в вычислении отношения правдоподобия P^Jq^ j и сравнении его с порогом. Однако величина порога h отлична от байесовского значения h (или Лд) и выбирается из условия p ( p ( y j ^ ) > л > = о ) = P ( y ^ € У,
О)=Р,^ , 89
т.е. вероятность того, что при отсутствии сигнала в принимаемой реализации
величина отношения правдоподобия превысит порог, долж-
на быть равна вероятности ложной тревоги Рр^^^. В отличие от байесовских критериев, в которых не выделялись ошибки 1-го и 2-го рода, а минимизировалась вероятность суммарной ошибки, в критерии Неймана—Пирсона вероятностям ложной тревоги (ошибка 1-го рода) и пропуска сигнала (ошибка 2-го рода) придается различное значение. А именно, ошибка 1-го рода жестко фиксируется, а ошибка 2-го рода — минимизируется. Конечно, в результате минимизации ошибка 2-го рода становится минимальной. Однако абсолютное значение этой минимальной ошибки не контролируется и жестко не ограничивается. Такая ситуация характерна, например, для радиолокации, где "ложная тревога" и "пропуск сигнала" ведут к разным последствиям, так как ложная тревога приводит к необходимости выполнения целого ряда мероприятий по защите, в то время как пропуск сигнала не приводит к какому-либо непосредственному действию, хотя и может повлечь серьезные последствия. 4.2.4. Формула для отношения правдоподобия Из приведенных выше результатов синтеза опкшальных обнаружителей, как байесовских, так и небайесовских, следует, что все они вычисляют отношение правдоподобия и сравнивают его с порогом. Отличие при использовании различных критериев заключается лишь в величине порога. Отношение правдоподобия p(io^) определяется, в соответствии с (4.4), через условные ПВ наблюдаемой реализации при наличии и отсутствии сигнала. Для большей наглядности изложения перейдем от непрерывных наблюдений (4.1) к дискретным. Для этого разобьем интервал времени [о,г] равноотстоящими точками /j,/3, где к = \,т . Сформируем дискретные отсчеты у]^ наблюдаемого процесс путем его усреднения на временном интервале Tj 1 'i Ук=— \ y{t)dt 90
.
(4.10)
1 =—
Обозначим
1 п^. =—
S{t,X)dt,
J n{t)dt,
где А,
постоянный (скалярный или векторный) параметр сигнала. Тогда можно записать (4.11)
Ук Здесь rij^ — ДБГШ с нулевым МО и дисперсией М
1
4
Td
n{t)dt^
I Td tk-\
(4.12) ] M[n{t)n{v)\dtdv=^ Td ^^d Рассмотрим совместную условную ГШ совокупности отсчетов yi^, к = \,т
mil ехр 1
(4.13)
т/2 ехр (2.0^)'
щ к=\
Запишем отношение правдоподобия для совокупности наблюдений
I 2о„к=\
J/
[ 2а„А=1 (4.14)
[а^
t=i
V
2 91
При переходе к непрерывному времени нужно в (4.14) перейти к пределу при О и одновременном увеличении /и «>. При этом совокупность дискретных отсчетов { у / ^ =
переходит в отре-
зок непрерывной реализации y{t), r e [о,г], а (4.14) принимает вид р(Уо'") = е х р | ^ / 5 ( г д / > - ( 0 - ^ 5 ( г Д ) 1 л 1 . "О о ^
(4.15)
Обобщение (4.15) на случай векторных наблюдений у(0 = 8(гД)+п(0, где
(4.16)
ii(f) — векторный БГШ с матрицей двусторонних спектральных
плотностей N„ /2 , задаваемый выражением (4.17) lo
\
^
)
В различных задачах статистической теории РТС кроме отношения правдоподобия часто рассматривается условная ПВ (4.13). При Tj выражение для суммы, стоящее под знаком " ехр "переходит в соответствующий интеграл, а сомножитель перед экспонентой, строго говоря, стремится к бесконечности. Однако, поскольку данный сомножитель в задачах синтеза оптимальных систем приема и обработки сигналов не играет никакой роли (см., например, задачу обнаружения и формулу (4.14)), то обычно полагают следующее представление для условной ПВ наблюдаемой реализации в непрерывном времени Л 7*
/
t
= I
о
^
Л dt\, ; .
(4.18)
где к — произвольная фиксированная константа. 4.2.5. Струшура оптимального обнаружителя Структура оптимального обнаружителя вытекает из формул (4.4) и (4.15). Учитывая, что отношение "неравенства" инвариантно относительно монотонных преобразований, сравнение отношения правдоподобия с порогом в (4.4) можно заменить сравнением с порогом логарифма 92
отношения правдоподобия, что, с учетом (4.15), приводит к следующему алгоритму: 1п(Р(>')) = ^ ? 5 ( 0 ( > ' ( 0 - 0 . 5 5 ( 0 ) Л > 1 П ( А о ) . '^О о
(4.19)
Обозначим через Е энергию сигнала, которую определим соотношением E = \S^{t)dt. о Тогда решающее правило (4.19) можно записать так:
(4.20)
y \ y { t ) S { t y t > ^ ^ \ n { h ^ ) = h. (4.21) Щ о Выражение, стоящее в левой части (4.21) определяет оптимальный алгоритм обработки наблюдаемой реализащ1и который получил название оптимального приемника. Для выходного процесса «оп (О оптимального приемника имеем =
(4-22) ^0 0 Практическая реализация оптимального приемника возможна в двух формах. Первая — в форме коррелятора, структурная схема которого приведена на рис. 4.1. Коррелятор представляет собой перемножитель двух сигналов и интегратор. Вторая форма вытекает из ' "on С) того факта, что выражение (4.22) определяет линейное преобразование реализации 2S{i)/No y{t). Поэтому оптимальный приемник можно представить в виде линейного фильтра, получившего на-
Рис. 4.1. Структурная схема отимального приемника в форме коррелятора
звание согласованного. Известно [3], что процесс u{t) на выходе линейной системы (фильтра) с импульсной характеристикой ^(г) описывается соотношением 93
u{t) = \y{t-'c)g{xyix^]y{t)g{t-z)dx. (4.23) о о Сопоставляя (4.22) и (4.23), получаем, что импульсная характеристика согласованного фильтра определяется выражением g{t-x) = = 25{х)1Щ. Так как в обнаружителе решение принимается в момент времени Т , то импульсная характеристика согласованного фильтра обнаружителя определяется как g{T-x) = 2S{x)/NQ . Более подробно согласованные фильтры будут описаны в гл. 5. Определив структуру оптимального приемника, структура оптимального обнаружителя реализуется в виде оптимального приемника, ключа, замыкающегося в момент времени t = Т, и устройства сравнения с порогом (рис. 4.2).
м
Отггамальный приемник
р
Пороговое устройство
i
S =• 1 —
Отсчет э=о щт1=Т Рис. 4.2. Структурная схема оптимального обнаружителя
4.2.6. Характеристики обнаружения Рассчитаем количественные характеристики оптимального обнаружителя, под которыми понимают вероятность правильного обнаружения PD и вероятность ложной тревоги Рр . Пусть сигнал присутствует в наблюдаемой реализации, т.е. >'(г) = 5 ( г ) + и ( / ) . Тогда, в соответствии с (4.21) в момент времени / = Г на выходе оптимального приемника имеем СВ в виде
•'^0 о
о
которая получается в результате линейного (интегрирование) преобразования БГШ. Поэтому
имеет гауссовскую ПВ / ' i ( ^ i ) , МО /И) и
дисперсия Д которой определяются выражениями
94
2 ]y{x)S{x)dT N, О о = м
N,
2£ Щ
•|(5(т)+«(г))5(т)Л
оо
л2 1\=М
= л/
2£ Nn
где Е — энергия сигнала, определяемая выражением (4.20). В отсутствие сигнала имеем у(<) = «(/) и на выходе оптимального приемника в момент времени г = Г получаем СВ
оо
оо
которая также имеет гауссовскую ПВ PQ {^Q ) с параметрами L J Плотности вероятности р^
Nq
) и />о (^о) изображены на рис. 4.3.
2E/N,.
Рис. 4J. Гауссовские ПВ при наличии и отсутствии сигнала Рассмотрим обнаружитель, соответствующий критерию Ней.мана-— Пирсона. Согласно этому критерию задается вероятность ложной тревоги Pf , т.е. вероятность превышения СВ ^о порогового уровня h
h
рЁТщ
(4.24)
95
1 где Ф(х) = - =
Jе '
dt —интеграл вероятности.
Вероятность правильного обнаружения h
fiF'
(4.25)
h Из фор.мулы (4.24) следует, что вероятность ложной тревоги Рр однозначно определяется отношением порогового уровня h к величине отношения q = E/NQ энергии сигнала к односторонней (физической) спектральной плотности аддитивного шума, которое в дальнейшем будем называть отношением сигнал/шум (с/ш). Поэтому при заданной вероятности ложной тревоги Рр и известном отношении сигнал/шум q из (4.24) однозначно определяется требуемая величина порога Л и, в соответствии с (4.25), — вероятность правильного обнаружения. Таким образом, можно рассчитать зависимости Р^ {q) при фиксированной вероятности ложной тревоги, которые называют кривыми обнаружения (рис. 4.4). Пользуясь кривыми обнаружения, можно определить пороговое отношение с/ш, т.е. величину Л^ор , для которой при заданной вероятности ложной тревоги Рр обеспечивается требуемая вероятность правильного обнаружения Рд. На основании полученных результатов можно сделать важный вывод о том, что характеристики Рис. 4.4. Кривые обнаружения обнаружения детерминированного детерминированного сигнала сигнала при оптимальном приеме не зависят от формы сигнала, а определяются величиной отношения с/ш. На практике детерминированные сигналы, как правило, не встречаются. Поэтому, приведенные результаты следует рассматривать как верхний (теоретический) предел для характеристик обнаружения (потенциальные характеристики).
96
4.2.7. Обнаружение сигналов при коррелированной помехе При выводе оптимального решающего правила (4.4) использовались лишь общие положения теории статистических решений и не использовались конкретные статистические свойства помехи. Поэтому общее решающее правило, заключающееся в вычислении отношения правдоподобия и сравнения его с порогом, справедливо и в том случае, когда помеха коррелированна. Следовательно, структура оптимального обнаружителя, приведенная на рис. 4.2, справедлива и в этом случае, меняется лишь структура оптимального приемника, которая определяется видом функщ1и правдоподобия. Функция правдоподобия при коррелированное помехе. Получим выражение для отношения правдоподобия при наблюдении сигнала на фоне помехи, имеющей функцию коррелящ1и: =
(4-26)
Для стационарной помехи R„ (/], 'г) = ^п ('2 "" ) =
> == '2 "
Как и в п. 4.2.4, перейдем к дискретному времени и рассмотрим дискретные наблюдения (4.10), в которых М n/^nj
. Тогда гаус-
совскую совместную условную ПВ (4.13) можно записать в виде Р ( л 'У2'-'Ут I'S* (Я,),Л = 1,m) = гехр - i i где R =
I
(X))(R)-' (yj-Sj
(k)) , (4.27)
} — корреляционная матрица помехи.
При отсутствии сигнала совместная условная ПВ получается из (4.27), если в нем положить S^ (Я.) = О. Учитывая это, выражение для отношения правдоподобия в дискретном времени имеет вид р ( Г ) = ехр l i s , k=lj=\ При Tj
(уJ-0,5Sj ^
(X)) . J
(4.28)
и одновременном увеличении m-*oo совокупность
дискретных отсчетов
{>'i
=
переходит в отрезок непре-
рывной реализации ^'(f), ?€[0,Г], а (4.28) принимает вид 4—2041
97
где функция
— обратная корреляционной матрице помехи
(4.26), определяется из уравнения
т J Л„
{t,t2 )dt =
,Г2 ).
(4.30)
Обобщение (4.29) на случай векторных наблюдений (4.16) дается выражением p(Yo^) = exp
(4.31) 00
где R„ — корреляционная матрица вектора аддитивных помех. Алгоритм работы обнаружителя при коррелированной помехе. Вернемся к задаче обнаружения сигнала, наблюдаемого на фоне коррелированной помехи. Воспользуемся формулой (4.29) для отношения правдоподобия, и, переходя, как и раньше, от отношения правдоподобия к логарифму, запишем решаюшее правило в виде ТТ
J J S ) R - ' {h,t2)y{t2)dhdt2
> ^ + In(Ло) = A,
(4.32)
00
1 TT где q=U\S{t^)R„\t^,t2)S{t2)dt^dt2 . ^00 Рассмотрим = R„ {tj -
)=
случай
стационарной
помехи,
т.е.
Rn{h->h)-
- / 2 ) , и представим левую часть неравенства (4.32)
в виде Ьсо
о
L0
Л.
(4.33)
Выражение, стоящее в фигурных скобках (4.33), является функцией от t , т.е.
о
г
Тогда формула (4.33) принимает стандартный вид \y{t)y\{t)dt,
со-
0
ответствующий прохождению процесса y{t) 98
через корреляционный
приемник с опорным сигналом Г|(/) или согласованный фильтр с импульсной характеристикой
я ( г - т ) = т1(т). Структурная схема оп-
тимального приемника с корреляционной обработкой приведена на рис. 4.5. Для нахождения опорного сигнала 11(0' поступающего на второй вход коррелятора, умножим (4.30) на 5 (/2) и проинтегрируем от О до Г \R-\t-t2)S{t2)dt^dt
, f
*'oni')
Рис. 4.5. Структурная схема оптимального приемника в форме коррелятора
=
\S{t^)b{t2-h)dt^.
Из данного уравнения получаем интегральное уравнение Фредгольма 1-го рода для определения процесса ri(r) (4.34), В частном случае некоррелированной помехи имеемЛ(/-/1) = = A^o/25(f-ri) и уравнение (4.34) дает полученный ранее результат В общем случае решение уравнения (4.34) является достаточно сложной задачей. Поэтому на практике часто ищут приближенное решение. Прежде всего полагают, что время коррелящ!и помехи существенно меньше времени Т наблюдения сигнала. При этом пределы интегрирования в (4.34) можно заменить на бесконечные, т.е. рассматривать уравнение вида (4.35) Решение такого уравнения существенно проще и может быть выполнено, например, известным способом, основанном на применении преобразования Фурье. Пусть Sg (7®), ^п — преобразования Фурье для 99
функций
Ti(r),
соответственно. Тогда, применяя к (4.35)
преобразование Фурье, получим или =
(4.36)
Данное вьфажение определяет структуру физически нереализуемого фильтра, так как нули и полюса функции (7(0) лежат как в нижней, так и в верхней полуплоскости комплексного переменного со. Тем не менее, оно может быть полезным для физического понимания процессов, происходящих в оптимальном фильтре. Пусть, например, помеха представляет собой аддитивную смесь белого шума и узкополосной помехи на частоте (»„ • В этом случае спектр (ш) такой комбинированной помехи будет иметь вид (со) = ЛТд /2 + Sj, (о)п - со). Тогда из (4.36) имеем SsiM) Из данного выражения следует, что оптимальный согласованный фильтр подавляет те составляющие спектра, где расположена узкополосная помеха, т.е., по сути дела, получаем хорошо известный режекторный фильтр. Вывод выражения для комплексного коэффициента передачи оптимального физически реализуемого фильтра можно найти в [13]. Рассмотрим другой метод решения задачи обнаружения сигнала на фоне коррелированной помехи, приводящий к иной структуре оптимального приемника и получивший название "метод выбеливания". Идея метода основана на предварительном преобразовании наблюдений y{t) таким образом, чтобы после преобразования аддитивная помеха стала некоррелированной (белым шумом). После этого можно использовать оптимальный алгоритм обнаружения на фоне белого шума. Такая процедура не нарушает свойства оптимальности алгоритма в случае, если используемое линейное преобразование обратимо. Докажем этот факт. Пусть имеется оптимальная система (в нашем случае оптимальный обнаружитель), которую будем называть системой 1 (рис. 4.6, а). 100
Ostsr
Свстсш!
ВЫХОА 1 •
о) ostsr /('.Ях» в)
"MifO
Z(t)
выход} ostsfl.
Скпш1
Рис. 4.6. Структурные схемы оптимальных систем: а — оптимальная система; б — система с предварительным обратихмым преобразованием; в — оптимальная система для обработки z{t) На выходе системы получаем оптимальное решение в соответствии с заданным критерием. В системе 2, приведенной на рис. 4.6, б, над входным процессом сначала осуществляется обратимая операция с целью получения z{t), содержащего аддитивный белый шум. Затем строится система, которая выполняет над z{t) оптимальную операцию (в нашем случае оптимальное обнаружение) в соответствии с тем же критерием, что и в системе 1. Докажем, что на выходе системы 2 также имеем оптимальное решение. Очевидно, что система 2 не может давать решение, средний риск для которого меньше, чем у системы 1, так как это противоречило бы утверждению о том, что система 1 оптимальна. Теперь покажем, что система 2 не может быть хуже, чем система 1. Если бы это было так, то можно бьшо бы построить систему, показанную на рис. 4.6, в, которая осуществляет над z{t) операцию / " ' ( t , z ( / ) ) , обратную f{t,y{T)), с целью получения процесса ^ ( т ) , а затем пропускает через систему 1. Такая совокупная система будет работать так же хорошо, как система 1 (они идентичны по входу и выходу). Так как решение, формируемое на выходе системы, приведенной на рис. 4.6, в, получается путем операции над z ( / ) , то оно не может быть лучше, чем в системе 2. Иначе это будет противоречить утверждению о том, что вторая операция в системе 2 является оптимальной. Поэтому система 2 не может быть хуже, чем система 1. В качестве предварительного преобразования наблюдаемого процесса выберем линейное преобразование, т.е. линейный фильтр с изме101
няющимися во времени параметрами и импульсной характеристикой /i(i,T), такчто z{t) = ]h{t,x)y{x)dx
0
= ]h{t,x)S{t,X)dx+]h{t,x)n
0
о
{x)dx =
где М [ й ( ; ) й ( ^ + т ) ] = ;Уо/25(т). Из данного выражения следует, что процесс z{t) представляет собой аддитивную смесь "нового" сигнала 5 ( / Д ) и белого шума n{t). Поэтому в последующем оптимальном приемнике обнаружителя в качестве опорного сигнала следует использовать Схема оптимального приемника обнаружителя для случая коррелированной поh(t.r) ! мехи принимает вид, приведенный на рис. 4.7. h(t.T) Структурные схемы рис. 4.5 и рис. 4.7 эквивалентны по входу и выходу и являются двумя ваРис. 4.7. Структурная схема оптимальриантами построения оптиного приемника при коррелиромального приемника для корреванном шуме наблюдения лированного шума наблюдения.
I
Т s(tiV
4.3. Обнаружение сигнала со случайными параметрами В гл. 2 (формула (2.12)) описана одна из широко используемых моделей сигналов - сигнал, представляющий собой детерминированную функцию, в которой один или несколько параметров являются СВ. Такие сигналы называют квазидетерминированными (см. гл. 2). Если из указанных случайных параметров не извлекается информация, то они еще называются неинформативными. Естественно, что наличие случайных параметров у сигнала затрудняет их обработку, в том числе и обнаружение, и требует получения новых оптимальных алгоритмов. 4.3.1. Общее решение задачи обнаружения сигнала со случайными параметрами Пусть наблюдается реализация 102
где |1 — случайные неинформативные параметры сигнала с априорной
пв Рассмотрим для простоты байесовское решение для простой функции потерь. В п. 4.2.1 показано, что оптимальное решающее правило соответствует выбору оценки для которой апостериорная вероятность максимальна. Пользуясь свойством согласованности ПВ (1.18), можно записать
Тогда отношение правдоподобия p(jo^) (4.4) может быть записано в виде (уТ ] -
"
^
"
= jp{Yl\\l)p,pili)dii,
^ ^ ^ ^ ^
-
(4.37)
где p ^ l o ^ l n j — отношение правдоподобия при фиксированных значениях параметров ц,; здесь учтено, что при отсутствии сигнала наблюдения не зависят от параметров |А .
Далее, в соответствии с (4.4), отношение правдоподобия (4.37) необходимо сравнить с порогом, величина которого такая же, что и в задаче с полностью известным сигналом. Структура оптимального обнаружителя в рассматриваемой задаче получается такой же, что и на рис. 4.2. Изменяется только структура оптимального приемника. Для получения структуры оптимального приемника необходимо конкретизировать сигнальную функцию и неинформативные параметры. В радиотехнических задачах сигнальную функцию можно записать в обобщенном виде 5(г,Я.,ц) = а^(/)со5((Н^,г+(р(г)+фо),
(4.38)
где а — амплитуда сигнала; А (t) — функция амплитудной модуляции сигнала; (flQ — несущая частота сигнала; ф(г) — функция фазовой модуляции; фо — начальная фаза.
103
в задаче обнаружения сигнала в качестве неинформативных случайных параметров будем рассматривать амплитуду а и начальную фазу (ро • 4 J.2. Оптимальный приемник обнаружителя сигнала со случайной начальной фазой Пусть амплитуда сигнала известна, а начальная фаза неизвестна и распределена по равномерному закону (1.4) на интервале . Вычислим усредненное отношение правдоподобия (4.37). С учетом (4.15) запишем yti
Л^оо*-
п2 J[a^(/)cos((0o/ +
1 1
хехр
= ехр
с
Фо =
N.о о аа 2ЛГл
2а Х{Т) Nn
= ехр
Nn
/о
'2а Х{Т) Nn
, (4.39)
где 1о{р) —функция Бесселя нулевого порядка от мнимого аргумента. (4.40) t
-^С (О = J >'(x)^(x)cos(o)0T+ф(т))«/т, о t
^ЛО =
(х)^ (x)sin {cot)X+ф(х))^/т,
(4.41)
о (4.42) о Здесь при вычислениях была использована формула (2.20) для табличного интеграла и принято допущение о том, что несущая частота odq сигнала достаточно высокая, так что выполняется условие соцГ » 1 . 104
функция X{t), определенная формулой (4.40), предстааляет собой огибающую выходного колебания согласованного фильтра, а Xc{t) и Xg{t), определяемые формулами (4.41), являются квадратурными составляющими этого колебания. Величину а , описываемую (4.42), называют эквивалентной длительностью сигнала. При этом энергия сигнала, определяемая в общем виде формулой (4.20), может быть представлена как Е = а^а/2. Поскольку функция Бесселя, входящая в (4.39), является монотонной функцией своего аргумента, то сравнение отношения правдоподобия с порогом можно заменить сравнением аргумента с соответствующим порогом, так что оптимальное решающее правило принимает вид X(T)>h, где
(4.43) 2
Аехр ад IFn
2а
Из (4.43) следует, что оптимальный приемник обнаружителя сигнала с неизвестной начальной фазой, получивший название "некогерентного" (так как в нем не используется информация об истинном значении фазы сигнала), должен выделять огибающую на выходе согласованного фильтра. Структурная схема оптимального приемника, которую часто называют фильтровой, приведена на рис. 4.8. Дпекгор огибающей
Согякомнный филыр
«оп(0
Рнс. 4.8. Фильтровая схема оптимального приемника
Другая возможная реализация оптимального приемника основана на прямой реализации отношений (4.40), (4.41). Соответствующая схема, называемая схемой квадратурного приемника, приведена на рис. 4.9. »
y{t\
X X
-
1
/
> t г* I f n
— •
KB KB
i X'
Рис. 4.9. Схема квадратурного приемника 105
Два канала квадратурного приемника позволяют получить величины Х^ и X , , определенные выражением (4.41). Последующие нелинейные преобразования выходных колебаний этих каналов формируют огибающую X . Выше был рассмотрен синтез байесовского оптимального обнаружителя при простой фуныщи потерь. Аналогичные по структуре решения получаются при использовании обобщенной функщш потерь и при использовании критерия Неймана—Пирсона. Вычислим количественные характеристики обнаружения. Из формул (4.41) следует, что случайные величины Х,. (7) и Х^ (Г) распределены по нормальному закону с условными МО т^=М[Хс\%']
= 0,5аа cos (фц ) , /я^ = Л/ [Х, |фо ] = 0,5аа sin (фо^)
и одинаковыми дисперсиями D , = D ^ = D = Nqu/A .
(4.44)
Величины Х^ и Х^ можно считать практически независимыми, так как взаимокорреляционная функхщя между ними приближенно равна нулю М[ а д ] =
(/)8ш(2{а)/-Ьф(/)))Л = О. ^ о
Поэтому при наличии сигнала ПВ Р\{Х) X=
случайной величины
определяется законом Райса (1.11) ч X^+{0,5aaf Х^О. 1о Ща/2 No
(4.45)
При отсутствии сигнала случайные величины Х^ и Х^ также независимы, распределены по нормальному закону с нулевыми МО и одинаковыми дисперсиями (4.44). Поэтому ПВ PQ (JT) случайной величины X = yjx^
будет рэлеевской (1.9): 2Х' Ща
Для получения характеристик обнаружения воспользуемся критерием Неймана—Пирсона. Тогда по заданной вероятности ложной тревоги 106
~
со
h
h
.
у
exp
2Х 2 oLV = ехр Ща
(4.46)
где \[D
(4.47)
у1Ща/4'
определяется нормированный пороговый уровень Ад, для которого затем вычисляется вероятность правильного обнаружения ее h
= J uexp hn
®® у1 V"
exp - 2 -
h • U^ + 2E/NQ /о 2
Ща 2Е' No]
/о
laX dX = Nn
du.
(4.48)
Результаты расчетов по формулам (4.46)—(4.48) представлены на рис. 4.10 сплошными линиями, пунктирными линиями приведены аналогич' ные зависимости для полностью известного сигнала. Характеристики обнаружения сигнала со случайной фазой лежат правее соответствующих характеристик для детерминированного сигнала. Следовательно, одна и та же вероятность правильного обнаруХарактеристики обнаружения жения для сигнала со слу- Рис. 4.10. для сигнала со случайной фазой чайной фазой достигается при большем значении отношения с/ш, чем для детерминированного сигнала. Однако, это различие не очень существенно (~ 1 дБ по мощности). 4 J.3. Оптимальный приемник обнаружителя сигнала со случайными амплитудой и начальной фазой Пусть теперь сигнал имеет случайную начальную фазу, распределенную по равномерному закону, и случайную амплитуду, распреде107
ленную по рэлеевскому закону (1.9). Тогда, в соответствии с общим решением (4.37), отношение правдоподобия необходимо усреднить по начальной фазе и амплитуде. Усредненное по начальной фазе отношение правдоподобия определяется выражением (4.39). Усредним его по амплитуде ехр
_
No No + aai
ехр^-
ехр
2а аа Х{Т) •/о 2No
2о1 No(No+acyl)
у. (4.49)
где X ( t ) — по-прежнему описывается выражениями (4.40)—(4.41) и представляет собой огибающую на выходе согласованного фильтра. Вводя среднюю энергию сигнала Ё = М[Е] = 0,5ш\аЛ
= ас1,
(4.50)
выражение (4.49) можно переписать в виде 1 \+EINQ
ехр
1Ё1Щ Ща{\ + Ё1Щ)
(4.51)
Так же как и раньше, учитывая монотонный характер квадратичной функш1И и экспоненты, можно перейти от отношения правдоподобия к аргументу Х(Т) и записать решающее правило в том же виде, что и (4.43): \х{трн\
(4.52)
где (4.53) Так как алгоритм обработки (4.52) не изменился, то и структура оптимального приемника обнаружителя сигнала со случайньши начальной фазой и амплитудой также не изменилась и может быть представлена в фильтровой форме (см. рис. 4.8) или в форме квадратурного приемника (см. рис. 4.9). 108
Идентичность структур оптимальных приемников, однако, не означает, что соответствующие обнаружители имеют одинаковые характеристики обнаружения. Дело в том, что изменилась величина порога h* (4.53), а, следовательно, и вероятности превышения (или не превышения) порога. Поэтому рассчитаем характеристики обнаружения, например для критерия Неймана—^Пирсона. При отсутствии сигнала ситуащм не изменилась, следовательно можно воспользоваться формулой (4.46). При наличии сигнала ПВ СВ Х{Т) может быть получена усреднением выражения для ПВ той же величины для задачи обнаружения сигнала со случайной начальной фазой (4.45) ч-(0,5аа)' 0^0» 4Х
4Х ' aNo{M/No
2аХ Nn
щф
ехр
ехр
-ехр
2ai
da =
2Х'
2Х' aNo{i/No+l)
Вероятность правильного обнаружения определяется как
h
= exp
(4.54) 2(l + £/iVo)
где Ло определяется выражением (4.47), а £ — формулой (4.50). Из (4.54) и (4.46) можно получить следующее соотношение, связывающее вероятности ложной тревоги и правильного обнаружения (4.55) Характеристики обнаружения, рассчитанные по формуле (4.55), приведены на рис. 4.11 сплошными линиями, а аналогичные характери109
Рр Pf= 0.5 % = о, I Pf = 0.01
10 -Jq
СТИКИ для задачи обнаружения детерминированного сигнала — пунктирными линиями. Из приведенных зависимостей следует, что при больших вероятностях правильного обнаружения наличие случайной амплитуды приводит к заметному ухудшению характеристик обнаружения.
Рис. 4.11. XapaKTqDHCTHKH обнаружения для сигнала со случайными амплитудой и фазой 4.3.4. Обнаружение временного сигнала со случайными начальной фазой, амплитудой, временем запаздывания и смещением часготы Для большинства РТС характерна ситуация, когда кроме неизвестных (и случайных) начальной фазы и амплитуды неопределены также и время запаздывания т и смещение частоты сОд, обусловленное, например, эффектом Доплера. Общее решение задачи обнаружения сигнала в этом случае достаточно сложно, поэтому рассмотрим приближенный подход, который часто используется в теории оптимального оценивания. Для решения поставленной задачи необходимо уточнить модель сигнала (4.38). Положим, что на передающей стороне излучается сигнал вида 5 (/,
) =flo^ (О cos (соо/ + (р(/) + Фо),
где OQ —амплитуда излученного сигнала; A[t) —функция амплитудной модуляции; сод — несущая частота; ф(^) — функция фазовой модуляции; фо —начальная фаза. На входе приемника (после прохождения среды распространения) сигнал описывается выражением (2.7), которое для небольших интервалов времени, характерных для задачи обнаружения сигнала, может быть представлено в виде 5(/,А.,ц) = а 4 ( / - х ( / ) ) с о 8 Ц ( / - т ( 0 ) - Ь ф ( г - т ( 0 ) + > | / о ) , 110
(4.56)
где а — случайная амплитуда; \|/о — случайная начальная фаза; х(/) — задержка сигнала. При взаимном движении передатчика и приемника задержка сигнала является функцией времени, которую часто аппроксимируют параболой, т.е. t ( / ) = to + V + V ^ / 2 •
(4.57)
Как было показано ранее, в обнаружителе осуществляется корреляционная обработка сигнала на интервале времени Г , типичное значение которого Г = 2 ... 10 мс. Положим, что скорость сближения приемника и передатчика V^Q = 200 м/с, а ускорение сближения а^б = ^0 м/с^. Данные значения параметров движения характерны, например, для самолетов. Тогда в (4.57) второе слагаемое равно I/cq [с], где CQ - скорость света, а третье слагаемое — 6,25 10~^/со [с], т.е. на три порядка меньше. Поэтому для задач обнаружения сигналов вместо (4.57) с достаточной степенью точности можно полагать x(/) = t o + V -
(4-58)
Модель (4.58) имеет два параметра: tq — начальная задержка сигнала; То — скорость изменения задержки. Данные параметры в общем случае являются случайными величинами. Подставляя (4.58) в (4.56), получаем
S{lX\i) =
= а^ (< - То + ТоО cos (соо (f - То - tq/ )+Ф (/ - То + ТоО+Vo) • Выражение (4.59) можно еще более упростить, если принять во внимание следующее: задержка, обусловленная вторым слагаемым в (4.58), составляет ~ 3 не, что несущественно для выделения информации из законов амплитудной и фазовой модуляции, так как это сопоставимо с погрешностью соответствующих средств временной синхронизации; поэтому ее можно не учитывать; составляющая (ootq может быть отнесена к случайной фазе сигнала введем (ОоТо = Мд = 27^д, где /д — доплеровское смещение частоты сигнала. С учетом сделанных допущений получаем окончательную модель сигнала в виде 111
S Д , ц ) = О^ (г - То )COS ((cOft + Шд
+ (p(r - То ) + V o ) ,
где имеются четыре случайных параметра: амплитуда а ; начальная фаза Vo; задержка Tq , которую для удобства будем обозначать просто т ; доплеровское смещение частоты сОд. Для строгой постановки задачи необходимо задать вероятностные характеристики данных случайных величин. Для амплитуды и фазы сигнала они были определены выше, для двух других параметров зададим их в общем виде: р ( т ) , х е [T^in.tmax] и Шдб ®дтга'®дтах В соответствии с общим принципом синтеза оптимальных обнаружителей при наличии случайных параметров сигнала необходимо усреднить условное отношение правдоподобия по (4.37) этим параметрам. Усреднение по амплитуде и фазе было выполнено ранее. Строгое усреднение по двум другим параметрам затруднительно, поэтому сделаем следующее допущение. Заменим непрерывные области возможных значений задержек и доплеровской частоты наборами дискретных значений Ti,T2,...,T„ и <Вд1,(0д2,-,С0дда с заданными вероятностями Р ( т , ) , i = l,n и Р((Оду), у = 1,от. Для такой постановки задачи усредненное отношение правдоподобия (4.37) принимает вид PIJ'o") = i £ t=iy=l
)p(i'o'
),
(4.60)
где условное отношение правдоподобия р^}о^|т,,сОду| соответствует ситуащш, когда параметры х,-,а)ду фиксированы и выполнено усреднение по случайным амплитуде и фазе сигнала, что, по сути, соответствует решению задачи, приведенному в п. 4.3.3 при заданных значениях Выражение (4.60) описывает многоканальный приемник, состоящий из пхт каналов, в каждом из которых стоит корреляционный приемник (рис. 4.12). Канальный корреляционный приемник осуществляет корреляционную обработку сигнала со своими значениями параметров задержки т, и доплеровской частоты сОду. Сформированные значения квадрата оги112
бающей xfj подвергаются экспоненциальному преобразованию в соответствии с (4.51). Сформированные таким образом значения условных отношений правдоподобия p^Jq^ |т,-,(йду) умножаются на априорные вероятности /'(х,),
и суммируются в соответствии с (4.50).
Полученное значение сравнивается с порогом h (4.4). I A{L - т , ) < х и ( ( и о + ® д у ) + ф ( ( - т , ) )
X
X
г
J г
J
KB
^кв
I 1
0
т((шо+а1д,)+(()(г-Т/)) Рис. 4.12. Схема канального корреляционного приемника Заметим, что в рассматриваемой схеме не удается перейти от отношения правдоподобия к их логарифмам, как это было сделано в п. 4.3.1—4.3.3. Другим существенным моментом является то, что при решении задачи обнаружения сигнала не ставиться задача оценки параметров, таких как задержка и доплеровская частота, поэтому обнаружитель является в принципе многоканальным. Задача оценки параметров сигнала будет рассмотрена в гл. 7. 4.4. Обнаружение сигнала по дискретной выборке Современные приемники радиосигналов все в большей степени переходят на принципы цифровой обработки сигналов. Так, например, приемники сигналов спутниковых радионавигационных систем ГЛОНАСС и GPS используют цифровую обработку сигналов, начиная с последней промежуточной частоты ~ 4 МГц. Поэтому задача обнаружения сигнала часто решается для оцифрованного сигнала. Как отмечалось в п. 2.1, различают два типа сигналов, связанных с переходом от аналоговой к цифровой обработке. Во-первых, это сигналы, непрерывные по амплитуде и дискретные по времени, а во-вторых, — сигналы, дискретные по времени и по уровню, которые и являются цифровыми. 113
Наиболее просто задача обнаружения сигнала решается для непрерывных по амплитуде и дискретных по времени сигналов. Обнаружение непрерывного по уровню и дискретного по времени сигнала. Пусть наблюдается дискретная выборка У1,=Щ{'к)+щ,
(4.61)
где X — вектор постоянных параметров сигнала; tij^ - ДБГШ с нулевым МО и дисперсией (4.12). Рассмотрим задачу обнаружения полностью известного сигнала, т.е. положим 5j (X,) = 5 , . Обратимся к теории статистических решений (гл. 3) и еще раз отметим тот факт, что она оперирует с общими понятиями теории вероятностей и наблюдаемой реализащхей У. Причем тип выборки (непрерывная реализация или совокупность отсчетов) не имеет принципиального значения. Поэтому, заменив в рассуждениях непрерывную реализацию Y\ на дискретную выборку Y{", легко можно получить те же самые результаты. Рассмотрим байесовский критерий обнаружения и простую функцию потерь. В этом случае оптимальное решающее правило, попрежнему, имеет вид Ы, " ( О -
Ь = 0,
при р(Уо'")^Ао, при р(Уо"')<Ло
и сводится, как и выше, к вычислению отношения правдоподобия р^У"') и сравнению его с порогом h . Величина порога определяется априорными вероятностями наличия и отсутствия сигнала (4.4). Для отношения правдоподобия справедлива формула (4.14). Учитывая монотонность функции " ехр ", решающее правило можно записать для логарифма отношения правдоподобия, т.е. аналогично (4.21): 1 "" F (4.62) к=1 2<У1 ~
где 114
2
= X
~ мощность отсчетов сигнала на интервале наблюдения.
Структурная схема оптимального обнаружителя, по-прежнему, имеет вид, приведенный на рис. 4.2, и включает оптимальный приемник, ключ и пороговое устройство. Оптимальный приемник реализует алгоритм левой части формулы (4.62) и может быть выполнен по схеме коррелятора, включающего перемножитель наблюдаемых отсчетов с опорными Sjfla^ и сумматор, или по схеме согласованного фильтра с импульсной характеристикой g ( т - /) = 5,. При наблюдении сигнала на фоне коррелированной помехи с функцией корреляции Rij = М njrij алгоритм оптимальной обработки (4.62) принимает вид mm 1 1 Л Щ (=17=1
,
,
mm Sj > 0 , 5 1 I 5, (R)-' Sj +1п(Ло). 1=1 j=\
(4.63)
Для стационарной помехи имеем Rjj = Rj_i = R^_j . Обозначим m
м Тогда левую часть формулы (4.63) можно представить как т
= X ЛЛ) > а оптимальный приемник при коррелированной помехе 1=1
представляет собой коррелятор наблюдаемых отсчетов с опорным сигналом Т1,-, т.е. имеет такой же вид, что и для аналогового сигнала (см. рис. 4.5). Аналогично тому, как это было сделано в п. 4.2.7, можно получить реализацию оптимального приемника по схеме рис. 4.7 с обеляющим фильтром. При записи наблюдаемого процесса в виде (4.59) не конкретизировалось, каким образом получены дискретные отсчеты у^^. Если при синтезе обнаружителя желательно более полно учесть используемый алгоритм дискретизации по времени, то это можно сделать. Проиллюстрируем это на примере задачи обнаружения сигнала со случайными амплитудой и фазой, а в качестве алгоритма формирования дискретных отсчетов из непрерывного сигнала выберем (4.10), т.е. усреднение на интервале дискретизации Г^. Пусть на вход системы обработки поступает реализация , в которой сигнальная функция определяется соотношением (4.38). В ре115
зультате временной дискретизации процесса >*(/) в соответствии с алгоритмом (4.10), образуется последовательность значений у)^ вида (4.61), в которой для сигнальной функции S^ (о,(ро) можно записать 1 Sk{o,<po) = —
л4(/)со8((ао/ + <р(0+ФоУ'-
(4-64)
Функции амплитудной и фазовой модуляции у4(/),<р(г) являются медленно меняющимися функциями времени, поэтому на интервале дискретизации Tj их можно считать постоянными, т.е. A(t) =
Введем
/е
- Г^, ]. После интегрирования в (4.64) получаем
случайную
фазу
фо = (f>o - ЩТ^/2
и
коэффицие
sin ((OnTj / 2) К = —^ < 1. Тогда (4.65) можно записать в виде WoTj/I Sk (а.Фо ) = аКА{t^ )cos(wotjt +
)+Фо ) •
(4.66)
Таким образом, принятая модель дискретизации по времени привела к появлению дополнительного множителя /Г 5 1 , который характеризует уменьшение мощности полезного сигнала. При щТ^ « 1 получаем АГ = 1, и потери мощности не происходит. Из соотношения (4.66) следует, что отсчет сигнальной функции S^ , полученный в результате временной дискретизации, формально можно считать аналогичным аналоговой сигнальной функции 5(г,а,фо), взятой в момент времени tj^. Зависимость дискретного отсчета сигнала от неинформационных параметров (амплитуды а и начальной фазы фо) такая же, как и у аналогового сигнала. Из этого следует, что усреднение отношения правдоподобия дискретной выборки по неинформационным параметрам будет приводить к тем же формулам, что и в случае усреднения отношения правдоподобия непрерывной реализации по тем же параметрам. Так, например, при известной амплитуде сигнала и случайной начальной фазе формула усредненного отношения правдоподобия аналогична (4.39), а именно: 116
р(у,'") = ехр
1, Г"
a c V
/
\
Ка
(4.67)
где о^ =Щ11Та ; (4.68) /
\
it=i т
Хс,т = I ykA{tk )sin (coo/t +
(4.69)
));
*=1
А=1
Формулы (4.67)—(4.69) аналогачны формулам (4.39)—(4.41) для аналоговой обработки сигналов. Поэтому структурная реализация оптимальных приемников аналогична той, которая приведена на рис. 4.8, 4.9 при замене интеграторов на сумматоры. Зависимость (4.67) усредненного по начальной фазе отношения правдоподобия от амплитуды сигнала а такая же, что и в формуле (4.39) для аналоговой реализации. Поэтому последующее усреднение по случайной амплитуде приводит к результату, аналогичному (4.49): аК'а'
Ka a?
о exp
X{m)
da =
K'al
Введем, аналогично (4.50), Ё = 0,5а.Т^М
(4.70)
=
— среднюю
энергию сигнала. Тогда формула (4.70) преобразуется к виду 1 i+K^E/NQ
exp
ХЦт)
Сопоставление данного соотношения с аналогичной формулой (4.51) для случая обработки непрерывной реализации показывает, что они тождественны с точностью до множителя К^ перед средней энер117
гией сигнала Ё . Так как < 1, то это эквивалентно тому, что в результате временной дискретизации происходит потеря в отношении с/ш, что влечет соответствующее ухудшение характеристик обнаружения. Данное обстоятельство является принципиальным по следующим причинам. На входе приемника всегда имеется аналоговый сигнал. Следовательно, если не накладывать на синтезируемую систему никаких ограничений, то синтезированный оптимальный обнаружитель также будет аналоговым и иметь наилучшие (потенциальные) характеристики обнаружения. В рассмотренном выше примере синтеза обнаружителя по дискретным отсчетам сигнала до синтеза на систему были наложены ограничения, а именно: дискретизация входной реализации по времени. Естественно, что любое ограничение, используемое в процедуре синтеза, не может привести к лучшему решению, так как в противном случае первое решение не было бы оптимальным (наилучшим). Следовательно, навязываемая системе дискретизация по времени также не может улучшить характеристики синтезируемой системы, что и было показано ранее. Аналогичная ситуация будет возникать во всех задачах, которые будут рассмотрены далее: разрешение сигналов, оценка параметров и фильтрация сообщений. Однако отмеченное обстоятельство не снижает актуальности синтеза и использования оптимальных дискретных систем (в том числе и цифровых), так как при грамотном выборе шага дискретизации по времени, ухудшение характеристик синтезированной системы может быть весьма незначительным. Обнаружение дискретного по времени и по уровню сигнала. Если дискретизация по времени часто может рассматриваться как непрерывная операция над сигналом (усреднение типа (4.10) является линейной операцией), то дискретизация (квантование) по уровню относится к классу нелинейных преобразований сигнала. В результате нелинейного преобразования наблюдаемой реализации (4.61) ее ПВ становится негауссовской. Причем негауссовским становится и распределение аддитивной помехи. Поэтому для синтеза оптимального обнаружителя необходимо пользоваться другими подходами (см. п. 4.5). Если число уровней квантования достаточно велико, так что шум квантования незначителен по сравнению с внутренним шумом приемника, то аддитивную помеху можно, по прежнему, считать гауссовской и использовать аппарат синтеза обнаружителей, описанный выше. При этом возрастет дисперсия аддитивной помехи, что приведет к дополнительному (к эффекту дискретизации по времени) уменьшению эквивалентного отношения с/ш и соответствующему ухудшению характеристик обнаружеьшя. 118
4.5. Обнаружение сигнала на фоне негауссовских помех Как отмечалось в п. 2.5, на практике встречаются ситуации, когда помехи, на фоне которых принимается сигнал, являются негауссовскими. Использование в этом случае обнаружителей, синтезированных для гауссовской помехи, конечно, является неоптимальным, поэтому можно искать иные алгоритмы обнаружения. 4.5.1. Обнаружение детерминированного сигнала Рассмотрим задачу обнаружения детерминированного сигнала, наблюдаемого в дискретные моменты времени (4.61) на фоне некоррелированной помехи, мгновенные значения которой описываются ГШ Р{пк)Общее правило обнаружения (4.4), заключающееся в вычислении отношения правдоподобия и сравнении его с порогом, является универсальным и не зависит от распределения помехи. Основная проблема заключается в записи выражения для условных ПВ. Рассмотрим общий подход к рещению данной проблемы. Учитывая принятое допущение о некоррелированности отсчетов помехи, запищем выражение для отнощения правдоподобия в виде
Прологарифмируем (4.71) (4-72) Разложим In
в степенной ряд =
(4.73,
Подставляя (4.73) в (4.72), получаем *=1/=1
dy'i,
Введем функции 119
X
Н ' ^ М л )
(4.7)
dy\ характеризующие форму ПВ помехи, и запишем (4.74) в виде оо Лт = 1 г , ( ш ) ,
(4.76)
1=1
где к=\
(4.77)
Оптимальный обнаружитель принимает решение о наличии или отсутствии сигнала в результате сравнения логарифма отношения правдоподобия (4.76) с порогом. Следовательно, общая структура оптимального обнаружения такая же, что и на рис. 4.2, и включает оптимальный приемник, ключ и пороговое устройство. Различие заключается в структуре оптимального приемника. Оптимальный приемник (рис. 4.13) в этом случае состоит из бесконечного числа каналов К (4.76), выходы которых о) X t суммируются, в каждом канале приемника стоит т коррелятор, на один из X — Ук S входов которого подаются <2 txi отсчеты наблюдаемой реа: —^ т лизации (4.61), прошедшие X 1 нелинейное преобразоваЫ ние (4.75), а на второй вход поступают отсчеты Сигнала Рис. 4.13. Схема оптимального приемника S/f. прошедшие полинопри негауссовской помехе миальное преобразование (возведение в i -ю степень, значение которой соответствует номеру канала). При практической реализации многоканальных приемников число каналов выбирают конечным, что влечет некоторое ухудшение характеристик обнаружения. Если сигнал Sj^ достаточно слабый по сравнению с помехой, то при разложении в ряд (4.73) достаточно удержать два слагаемых, что приводит к следующему приближенному соотношению (в (4.76), (4.77) надо положить i = I): 120
К
=
(4.78)
к=\
где /1(л) =
(4.79) '^Ук В том случае получаем одноканальный приемник (верхняя ветвь в схеме рис. 4.13), в котором реализуется корреляционный принцип обработки сигнала. Однако входной сигнал подвергается дополнительному нелинейному преобразованию. Если помеха имеет гауссовское распределение, то нелинейный преобразователь вырождается в линейный: у/^/с^ . Для импульсной помехи, описываемой распределением Лапласа (2.41), нелинейный блок (4,79) определяется выражением / l ( л ) = ; ^ - s i g n (>>*). 1, где sign(A:)= О, -1,
при jc>о, при дс = 0, —знаковая функция. при дг < 0.
Таким образом, нелинейный блок представляет собой квантователь на два уровня с нулевым порогом квантования. 4.5.2. Обнаружение сигнала со случайными параметрами Общая методика обнаружения сигнала S^ (ц) со случайными параметрами ц предполагает рассмотрение усредненного отношения правдоподобия (4.37). Поэтому, используя определение (4.71)—(4.73), запишем Р(У,-.Ц) = « Р ( Л „ ( Ц ) ) ,
(4.80)
где Усредняя (4.80) по ПВ
, получаем 121
(4.)
В общем случае выполнить интегрирование в (4.81) не удается. Рассмотрим частный случай слабого сигнала, при котором допустимо представление (4.78)-^4.79). В этом случае (4.81) принимает вид / п, p{\l)d\i. (4.82) Р ( Г ) = ехр Рассмотрим сигнал со случайной начальной фазой 5^(Фо) = <ЦьС08(СОоГ^Л + Фо).
(4.83)
Подставляя (4.83) в (4.81) и выполняя интегрирование, получаем / S 1 2я ехр I / l ( Л Н а cos ((ЦоГД+(Ро ) (4.84) где (4.85) k=l (4.86) к=\ Так как функция Бесселя /д (jc) — монотонная, то сравнение отношения правдоподобия (4.84) с порогом можно заменить сравнением отсчета огибающей Х^ с соответствующим порогом. Следовательно, оптимальный приемник должен формировать согласно с алгоритмом (4.85), (4.86), которому соответствует схема, приведенная на рис. 4.14.
Л
X
i
KB
X
m I l-l
KB
Ф)
Рис. 4.14. Оптимальный приемник для слабого сигнала со случайной фазой и негауссовской помехе 122
Отличие схемы, приведенной на рис. 4.14, от аналогичной схемы рис. 4.9, полученной для гауссовской помехи, заключается в наличии нелинейного преобразователя на входе. Оптимальный обнаружитель при негауссовской помехе будет иметь и другое значение порога при принятии решения, что следует из сопоставления формул (4.84) и (4.39). Аналогично можно решить задачу синтеза оптимального обнаружителя сигнала со случайными фазой и амплитудой сигнала. Для этого (4.84) надо усреднить по амплитуде сигнала аналогично тому, как это сделано в п. 4.3.3. Нетрудно увидеть, что структура оптимального приемника в этом случае будет такая же, что и на рис. 4.14. Изменится лишь значение порога обнаружения. Учет коррелированности помехи может быть проведен по методике, описанной в п. 4.2.7. В результате проведенного по этой методике синтеза одно из возможных решений заключается в использовании на входе схемы рис. 4.14 обеляющего (декоррелирующего) фильтра. 4.6. Обнаружение пространственно-временного сигнала Наиболее общее решение задачи обнаружения сигнала основано на рассмотрении электромагнитного поля на входе антенной системы, которое часто называют пространственно временньт сигналом. На рис. 4.15 приведена пространственная диаграмма приема пространственно-временного сигнала 5 ( i , p ) , где р — радиус-вектор точки приема (антенной апертуры), заданный в некоторой системе координат. Будем полагать, что антенна согласована по поляризации с электромагнитным полем, так что 5(/,р) можно
Рис. 4.15. Пространственная диаграмма приема сигнала
рассматривать как скалярную функцию. Учитывая, что апертура приемной антенны ограничена некоторой областью il{x,y,z), полагаем peQ{x,y,z). К пространственно-временному сигналу 5(г,р) добавляется помеховый сигнал и (/,р), так что наблюдению доступна аддитивная смесь 123
уО.Р)
= 5 ( / . р ) + й ( / , р ) , peQ{x,y,z)),
/€[0,г].
(4.87)
Помеху п(/,р) будем полагать гауссовской с корреляционной функцией Л/ [и (г, р) и (i + т, р+Ар )] =
(т, Др).
Для получения алгоритма обнаружения пространственно-временного сигнала воспользуемся опять тем фактом, что общее правило (4.4) получено для произвольной наблюдаемой выборки Y. Основным фактором, который нужно учесть при синтезе, является соответствующее представление отношения правдоподобия. 4.6.1. Отношение правдоподобия для пространственно-временного сигнала Так же, как и в пп. 4.2.5, 4.2.7, для вывода формулы отношения правдоподобия воспользуемся методом дискретизации, однако не по времени, а по пространству. Разобьем аппретуру антенны на пространственные элементы Др^-Др^уАр^ и перенумеруем их тем или иным образом от 1 = 1 до М. Каждому i -му пространственному элементу соответствует реализация
Таким образом, имеем Л/-мерный вектор наблюдений у(/) = = Ух
У\ (О —Ум (ОГ' Д™ которого можно записать обобщенное вы-
ражение y(f) = i»S(/)+n(/),
(4.88)
где 1? — параметр обнаружения, принимающий два значения: О или 1. Рассмотрим помеху п(/) в виде некоррелированного по времени, но коррелированного по пространству процесса, т.е. М[п(;)п(^ + х)] = К„6(т). Здесь элементы
(4.89)
у матрицы R„ отображают пространственную
корреляцию помехи между j - и j -м элементами апертуры антенны. Для векторного наблюдения (4.88) отношение правдоподобия имеет вид (4.17), т.е.
124
exp
jsmor;;'
y ( 0 - t s ( o
it
(4.90)
Заметим, что в (4.90) (в отличие от (4.17)) выражение, стоящее под знаком интеграла, описывает обработку по пространственным координатам (по индексам i = ), т.е. по апертуре антенны. Для пояснения соотношения (4.89) рассмотрим случай линейной апертуры антенны, например, вдоль оси х и простирающейся от до дг^ах . т.е.
=
• Пусть корреляционная функция шума
в (4.87) имеет вид Л/[и (/, д;) л (i + т, л:+Дх)] =
(Ах)5 (т).
Разобьем аппретуру антенны на элементы &с « т^ , где т^ — параметр пространственной корреляции помехи. В этом случае элементы корреляционной матрицы помехи в (4.89) имеют вид R„jj = = R„ (|i-y'lScc), а подынтегральное выражение в (4.90) представляется как
1=17=1 (4.91) При Sx —> О и Л/ -> оо соотношение (4.91) переходит в формулу
V
/
-'^min -^min где
(:С],д:2) определяется из уравнения У
,
(д:, ДГ2)
= 5 (х,, JTJ ) •
В (4.92) явно видна обработка пространственно-временного сигнала по апертуре антенны. Если помеха однородна и некоррелирована по пространству, т.е. Л„ {xi,x2 ) = -Jfi), то (4.92) принимает вид
125
s ' (OR;;' [ у
T
.
При ЭТОМ отношение правдоподобия (4.90) запишется как р К ) =
e x p i f y
)t)-0.5s(<,*))<(«i< к
Обобщая (4.93) на случай произвольной £1(л:,>',г), получаем
апертуры
(4.93)
антенны
рЮт = ехр
^
S{t,p{x,y,z))
Оа(дг,>',г))
y{t,p{x,y,z))--S{t,p{x,y,z))
dxdydzdt
^пО
(4.94) Заметим, что спектральная плотность помехи может зависеть от времени и от пространственных координат, т.е. в общем случае в (4.94) можно полагать {t,x,y,z). 4.6.2. Оптимальный алгоритм обнаружения пространственно-временного сигнала Вычислив отношение правдоподобия по (4.94), оптимальное решающее правило записывается стандартным образом (4.4) Ы
"о
^ = 0,
если p(yo'')>/!o,
если p(Yo'')
Так же как и в задаче обнаружения временного сигнала, сравнение отношения правдоподобия с порогом можно заменить на сравнение логарифма отношения правдоподобия с соответствующим порогом
т =/
i
oa(x,y,z)) 126
y{t,p{x,y,z))-
S{t,p{x,y,z)y
dxdydzdt >\n{hQ).
f^nO (4.95)
в общем виде реализация оптимального приемника, осуществляющего операции в соответствии с (4.95), может быть выполнена в виде пространственно-временного коррелятора или пространственно-временного согласованного фильтра. При этом, строго говоря, пространственные и временные координаты взаимосвязаны. Рассмотрим условия, при которых пространственно-временная обработка распадается на пространственную и временную. Для этого положим, что пространственно-временной сигнал S(f,p(x,>',z)) на апертуре антенны Sl{x,y,z))
может быть представлен в виде S(r,p(j;,y,2)) =
= 5 ( / ) / ( p ( x , ; ; , z ) ) . Такое представление допустимо, например, если фронт принимаемой волны плоский, а запаздывание огибающей сигнала на апертуре антенны много меньше времени корреляции сигнала. Подставляя принятое представление в (4.Й) и вынося временные функции за знак интеграла по апертуре антенны, получаем ln(p(Yj-))=j5(/) .-17Isi 2 0
I
J aix,y,z))
f{p{x,y,z))R;^y{t,p{x,y,z))dxdydz](itf{p{x,y,z))dxdydz.
(4.96)
Из этого выражения следует, что оптимальный приемник должен вьшолнять операцию «ОП ( 0 = } 5 ( 0 J f{pix,y,z))R-„^y{t,pix,y,z))dxdydz dt, (4.97) О [п(.г, а отсчет (Т) на выходе оптимального приемника в момент времени t = r должен сравниваться с порогом +
J f\p{x,y,z))dxdydz. ^ О a{x,y,z)) Из полученного вьфажения следует, что при обнаружении пространственно-временного сигнала величина порога определяется от1юшением суммарной энергии сигнала, принимаемой всей апертурой антенны.
127
J a{x,y,z))
0
f{p{x,y,z))dxdydz,
К спектральной ПЛОТНОСТИ R„Q
помехи. В (4.97) внутренний интеграл определяет обработку принимаемого
сигнала >'(/,p(;c,_v,z)) по раскрыву антенны, т.е. пространственную обработку. В результате такой обработки формируется временная функция >^(0=
1
f{?{x,y,z))R-ly{t,9{x,y,z))dxdydz,
которая далее обрабатывается временным коррелятором. Таким образом, в этом случае пространственно-временная обработка распадается на пространственную и временную. В качестве примера рассмотрим плоскую линейную антенную решетку (рис. 4.16), состоящую из т всенаправленных антенных элементов, расположенных на одинаковом расстоянии d друг от друга (часто полагают d = А,/2 , где X, —длина волны принимаемого сигнала). Наориясние на
•сточнмж сигшла
Рис. 4.16. Схема приема сигнала аигенной решеткой
Плоская волна приходит с направления, которое характеризуется углом а ^ , отсчитываемым от оси X . Для линейной антенной решетки в формуле (4.95) для алгоритма работы оптимального приемника интеграл по раскрыву антенны заменяется на сумму, поэтому можно записать
128
"on (Т") = Л Si {t,Xi )R-l {у1 (f.Jf,- )-0,55,- (/.x, )>/,, ОМ
(4.98)
yi{t,Xi) = Si{t,Xi)+ni{t,Xi)
(4.99)
где — принятое на i -м антенном элементе колебание. Заметим, что (4.98), вытекающее из (4.93), справедливо для помехи, не коррелированной по пространству и времени, т.е. .М и,- (/,д:,. )nj (t + x,xj )J = R„obij5{x) = Положим, что сигнал S(t,x)
— узкополосный и, следовательно,
может описываться комплексной амплитудой S{t,x). =
Пусть
=
= 0 ) соответствует комплексной амплитуде сигнала в момент
времени t на первом антенном элементе. Тогда комплексная амплитуда сигнала на i-u антенном элементе равна
)=
27K?/cos(ac) -, а 5, {t,Xi) описывает огибающую сигнала. где ф,(ае) = Переходя в (4.98) от действительных функций сигналов к комплексным амплитудам и учитывая свойство (2.4), запишем 0^0
L/=l
Если апертура антенны L = md такова, что в каждый момент времени t огибающая
) на каждом антенном элементе равна оги-
бающей 5] (t) на первом элементе, то для комплексной амплитуды сигнала на i-u антенном элементе получаем
S,
=
Тогда (4.100) может быть представлено в виде JSUOL _0 M
}>i(t,x,)dt
(4.101)
Введем комплексный вектор входных сигналов У (О = \h 5—2041
) У2
{t'^2 ) - Ут
f
, 129
, который описывает про-
вектор Н ( а с ) =
странственные характеристики решаемой задачи (геометрия и положение антенны, направление прихода сигнала), и вектор комплексных БГШ п = П] (f) «2 (?) ... Лда (г) ^ с корреляционной матрицей М где I —единичная матрица. Тогда наблюдения (4.99) можно записать в векторном виде (4.102) а алгоритм работы оптимального приемника - в виде dt
(4.103)
Lo В (4.103) преобразование (4.104) соответствует пространственной обработке принимаемых сигналов, на выходе которой формируется временная функция далее обрабатываемая во временном корреляторе. С учетом (2.4) работу коррелятора (4.104) можно записать через действительные функции dt. оо где Si (f) — временной сигнал, соответствующий первому антенному элементу. Кроме описанного выше, оптимальный пространственно-временной обнаружитель можно представить в ином виде. В этом случае, принимая во внимание векторное представление наблюдений (4.102), запишем полное выражение для логарифма отношения правдоподобия (4.96) в рассматриваемой задаче 1П(РК)) =
Л^О 130
Na
Re
(4.105)
.0 где
1-1 0 = н(а,)[н-(а,)н(а,) Введем эквивалентное наблюдение (4.106)
Лкв(0=Р'Ч«с)у(0 и запишем (4.105) в виде 1 5 Г ( / ) к к в ( 0 - 0 . 5 5 1 (О dt О Преобразуем эквивалентное наблюдение (4.106)
(4.107)
>'экв(/) = Г ( а с ) у ( 0 = Г ( а с ) ( н ( а с ) 5 , ( / ) + п ( , ) ) =
= 5,(0+«экв(')Произведение
(4108) представляет собой взвешенное наблюдение,
поэтому вектор называют вектором весовых коэффициентов. Рассчитаем корреляционную функцию эквивалентного шума, входящего в (4.108)
Л/[«экв (')Яэкв (' + t)] = = =
(«е)п(Оп*^ ( 0 $ ] =
( а , ) Г ^ («с )5(т) =
)Н(аjT'(аjH(a,
(а, )Н(а,
5(х) = 131
л-1
(4.109)
Из приведенных соотношений следует, что в оптимальном обнаружителе пространственно-временного сигнала сначала необходимо выполнить пространственную обработку в соответствии с алгоритмом (4.106). На выходе блока пространственной обработки формируется временной сигнал (4.108), представляющий собой аддитивную смесь комплексного временного сигнала (/) и эквивалентного временного шума йэкв (О с эквивалентной спектральной плотностью (4.108). Далее, в соответствии с (4.107) необходимо решить задачу обнаружения временного сигнала Si{t) по эквивалентным наблюдениям (4.108), для чего можно использовать результаты предыдущих материалов. Схема оптимального приемника с раздельной пространственной и временной обработкой приведена на рис. 4.17.
Рис. 4 17. Структурная схема оптимального приемника
Заметим, что при решении задачи обнаружения пространственновременного сигнала со случайной амплитудой и начальной фазой блок пространственной обработки не претерпевает никакого изменения, а изменяется лишь блок временной обработки, для синтеза которого можно использовать результаты п. 4.3. То же самое утверждение относится при приеме сигнала на фоне коррелированной по времени помехи. Выше была рассмотрена ситуация, когда в пределах апертуры антенны принимаемую волну можно считать плоской (рис. 4.18). Плоский фронт волны
Рис. 4.18. Плоский фронт волны 132
Сферический фронт волны
Рис. 4.19. Сферический фронт волны
Рассмотрим теперь другой случай, когда антенна принимает волну со сферическим фронтом (рис. 4.19). Пусть некоторые параметры сигнала меняются во времени, например, амплитуда (амплитудная модуляция сигнала). Тогда в один момент времени распределение амплитуд принимаемого антенной сигнала вдоль координаты х одно, а в другой момент времени — другое. Следовательно, для каждого момента времени надо менять и структуру обработки по пространственной координате (опорную функцию 5(f,p(ji:,>',z)) в (4.94)), т.е. пространственная и временная обработка взаимно связаны. Так как любая принимаемая электромагнитная волна имеет сферический фронт, то, строго говоря, оптимальная обработка всегда должна быть взаимосвязанной пространственно-временной. Однако, если апертура приемной антенны невелика, так что принимаемую волну можно считать плоской и запаздыванием падающей волны по апертуре можно пренебречь, то пространственная и временная обработка могут быть разделены практически без потери оптимальности.
Контрольные вопросы к главе 4 1. 2. 3. 4. 5. 6. 7.
Можно ли задачу обнаружения сигнала сформулировать как задачу проверки гипотез? Сформулируйте эти гипотезы. Каким образом критерий Байеса в задаче обнаружения связан с критериями идеального наблюдателя, Неймана-Пирсона? Чем определяется порог обнаружения при приеме детерминированного сигнала? Увеличивается или уменьшается порог обнаружения при приеме детерминированного сигнала и сигнала со случайными неинформативными параметрами и почему? Что такое обеляющий фильтр, когда он используется в обнаружителе и для чего? В чем различие пространственно-временного и временного обнаружителей? Чем различаются структурные схемы оптимальных обнаружителей при приеме сигнала на фоне гауссовских и негауссовских помех?
133
Глава
5
ОПТИМАЛЬНАЯ СОГЛАСОВАННАЯ ФИЛЬТРАЦИЯ СИГНАЛОВ
5.1. Общие положения теории согласованной фильтрации сигналов При решении задачи обнаружения сигнала S{t) на фоне аддитивной гауссовской помехи n(t) оптимальный приемник реализует корреляционную обработку (4.22) вида (см. гл. 4) M(r) = />'(/)S(/)rfr, о
(5.1)
где >'(/) = S(f) + w(r) —наблюдаемая на интервале /£[0,7"] реализация. Там же было показано, что корреляционный интеграл (5.1) может быть представлен в виде '^(T) = fy(r-,)g(r)dt=fy(t)g(r-/)dt, g(r-T) = S(T). (5.2) О о Таким образом, на выходе линейного фильтра с импульсной характеристикой Ясф ( О ' S ( T - t )
(5.3)
в момент времени Т получаем такое же значение напряжения, что и на выходе коррелятора (5.1). Линейный фильтр с импульсной характеристикой (5.3) называется согласованным фильтром (СФ). Термин «согласованный» имеет смысл согласованности импульсной характеристики фильтра со структурой принимаемого сигнала. Рассчитаем комплексный коэффициент передачи СФ
-ос
=
134
-ОС
=
(5.4)
где G5(jco)= J" S(v)e
dv —комплексный спектр сигнала; «* » —
-ж знак комплексного сопряжения. Следовательно, комплексный коэффициент передачи СФ (5.4) с точностью до множителя , характеризующего запаздывание отклика фильтра на время Т , совпадает с величиной, комплексно сопряженной с комплексным спектром сигнала. Поэтому, при прохождении сигнала через такой фильтр фазовые сдвиги между отдельными спектральными составляющими сигнала компенсируются, т.е. на выходе фильтра все они складываются в фазе, и значение сигнальной составляющей будет максимально. Рассчитаем отношение с/щ на выходе СФ. Учитывая (5.2), сигнальная составляющая выходного отклика фильтра «5 (Г) = jS^ {t)dt = Е . о Дисперсия щумовой составляющей на выходе СФ определяется формулой т т No Е. ОсФ = Л/ о о Следовательно, отношение с/ш q^^ на выходе СФ в момент времени Т равно , ^СФ
(5.5) 2 JV ^ ' Осф Покажем, что отношение с/ш на выходе любого другого линейного фильтра будет меньше, чем (5.5). Для этого воспользуемся неравенством Шварца—Буняковского, согласно которому, если имеются две произвольные (в общем случае комплексные) функции f{x) и g ( x ) , то выполняется соотношение о fr(x)g(x)d.
-ж
(5-6)
причем знак равенства имеет место в том и только в том случае, когда g(x)-c/(x),
(5.7)
здесь с — некоторая константа. 135
Зададим jf = со, /*(o)) = G5(jco)ej'-^/V23t/Vo/2,
=
,
(5.8)
где /^(jco) — комплексный коэффициент передачи произвольного линейного фильтра. Подставляя (5.8) в (5.6) и разделив полученное выражение на второй сомножитель, стоящий в правой части (5.6), получаем
No /2
2л
dw.
(5.9)
Для фильтра с комплексным коэффициентом передачи (jo)) значение отклика на его выходе в момент времени Г при подаче на вход сигнала 5(f) выражается в виде
а его мощность {2nf
J G s i j w ) К d o i
(5.10)
Дисперсия шумовой составляющей на выходе фильтра (5.11) С учетом (5.10), (5.11) видно, что левая часть (5.9) есть ни что иное, как отнощение с/ш на выходе линейного фильтра с комплексным коэффициентом передачи A^(jco). В правой части (5.9) стоит максимально возможное значение с/ш, которое, в соответствии с (5.7) достигается тогда и только тогда, когда
или (5.12) 136
где с — некоторая константа. Формула (5.12) с точностью до несущественной константы совпадает комплексным коэффициентом передачи (5.4) СФ. Следовательно, на выходе СФ отношение с/ш максимально. Поэтому такой фильтр называют оптимальным согласованным фтьтром. Заметим, что приведенное выше доказательство остается в силе, если вместо белого шума с равномерной спектральной плотностью NQJI использовать помеху с заданной спектральной плотностью G„ (ш). При этом комплексный коэффициент передачи оптимального СФ будет иметь вид =
СДш)
(5ЛЗ)
В общем случае комплексный коэффициент передачи (5.13) соответствует физически нереализуемому фильтру, так как содержит полюса в правой полуплоскости комплексной переменной. Для получения физически реализуемого фильтра необходимо воспользоваться известной методикой [3]. 5.2. Согласованные фильтры для некоторых типов сигналов В радиотехнических системах используются различные сигналы. Одними из широко распространенных являются периодические импульсные сигналы. Так как энергия таких сигналов за период повторения невелика, то задачу обнаружения решают на интервале времени Т , составляющем несколько периодов повторения импульсов. Поэтому в дальнейшем будем говорить о приеме пачки из N радиоимпульсов. 5.2.1. Согласованный фильтр для когерентной пачки радиоимпульсов В общем случае когерентной пачкой радиоимпульсов называют импульсный сигнал, у которого начальные фазы каждого из импульсов связаны между собой детерминированной зависимостью. Рассмотрим наиболее простую модель когерентной пачки радиоимпульсов, которая получается модуляцией синусоидального колебания последовательностью видеоимпульсов с длительностью импульса т„, периодом повто137
рения импульсов Т„ таким, что Т - NT„. Сигнальная функция в этом случае записывается в виде 5 ( 0 = Y""o('-'^n)cos(cooO, (5.14) (-0 где а — амплитуда сигнала; мо(') — функция, описывающая форму одиночного импульса, которую будем полагать прямоугольной, т.е. 1, при О s / s , и о ( 0 = О, при / < О, ( >г„. Так как начальная фаза сигнала известна, то для простоты она в (5.14) взята равной нулю. Спектр такого сигнала равен Т
N-1
'-0 N-\
Т„
i-0
О
iT„
i-0
(5.15) где (5.16) о — спектр / -го одиночного радиоимпульса. Для упрощения дальнейшего анализа положим а)()Т„ - 2лц, где ц — целое число. Другими словами, будем считать, что на длительности импульса ую1адывается целое число периодов высокочастотного колебания. Тогда (5.16) преобразуется к виду Сц^ ( j w ) = / « о (v)cos((OOV + Шц/Гп )е J""' dv
-
Цоу) = / « о (v)cos((aov)e-j'- dv -
f cos((Oov)e-j"'^ rfv - j i l e j ' ^ ' ^ e - j e " d v ^ 0
138
0
g i K - ' o K _I
e-iK+">K_j
j(t.)o-(t))
j(oJo+a))
а для (5.15) справедлива формула (5.18) /•=0 Принимая во внимание (5.4) и (5.18), запишем комплексный коэффициент передачи СФ для пачки радиоимпульсов, полагая, что отсчет на выходе СФ берется в момент окончания последнего импульса пачки, /^СФ (
-
е
-
)
« g ; (j(0) ^ ' e i - ^ n .
(5.19)
(-0
Введем в рассмотрение СФ для одиночного радиоимпульса, отсчет на выходе которого формируется в конце импульса, т.е. при Г, = х„. С учетом (5.4) и (5.17) запишем выражение для коэффициента передачи такого фильтра /Ссф, (jco) = /Су е - j - " с ; (jco) - /Су ( l - e - j - " ^ 'шо-О)где Ку — коэффициент усиления.
(5.20)
Из (5.20) следует, что фильтр, согласованный с одиночным радиоимпульсом, включает линию задержки на длительность импульса, сумматор и идеальный колебательный контур с коэффициентом передачи jw -(рис.5.1.). (Oq-O)К, 1
* X -Н^.Осо)
"Сф(')
Рис. 5.1. Схема СФ для одиночного радиоимпульса С учетом (5.20), а также Г = NT„, формулу (5.19) можно представить в виде N-\ 1-0
Таким образом, СФ для пачки радиоимпульсов включает СФ для одиночного радиоимпульса, линию задержки на (Л^-l) периодов повторения и сумматор (рис. 5.2). 139
I
«Сф(Г-1 + т„)
~г Та N-L
Рис. 5.2. Схема СФ для пачки радиоимпульсов В момент времени Г - 1 + т„ все задержанные отклики суммируются в фазе, т.е. суммируются мгновенные отсчеты, соответствующие максимальным значениям отношения с/ш для каждого импульса. Тем самым осуществляется когерентное накопление полезного сигнала на всем интервале наблюдения. На рис. 5.3 приведена диаграмма, поясняющая работу СФ при N-3.
Отсчеты ш выходе согдасояашюго с единичным юсиульсом фклътра «Снпишы» с выхода согласованного с единичным HMiyjucoM ^uikipa Q «Сигналы» с иервого отвода линии эдкержки «Сигналы» со вторе линии задержки
Отсчет на выходе соглвсов^люго с пачкой нм11ул1с|ов фильтра
«Си1-наяы1* с выхода согласованного фн;1ьтра Рис. 5.3. Диаграмма, поясняющая работу СФ при ^ » 3 5.2.2. Согласованный фильтр для когерентной пачки радиоимпульсов с фазовой манипуляцией В радиотехнических системах для повышения точности измерения задержки, а, следовательно, и дальности до объекта необходимо расширять спектр сигнала. Одним из способов такого расширения спектра является дополнительная модуляция радиоимпульсов, например, манипуляция фазы высокочастотного заполнения. Сигнал с манипуляцией на л на длительности импульса описывается выражением 140
S(f)-acos(coo/ + d,n), O s t s T „ ,
(5.21)
где bj — последовательность нулей ii единиц, чередование которых определяется, например, семиэлементным кодом Баркера -}l 11 О О 1 0|-. Повторив те же рассуждения, что и выше, приходим к формуле (5.19) для коэффициента передачи СФ, в которой под С^^ (jco) теперь надо понимать спектр одиночного радиоимпульса с дополнительной фазовой манипуляцией. Получим для него соответствующее выражение. Заметим, что фазовая манипуляция на л в (5.21) соответствует смене знака амплитуды сигнала, т.е. может быть представлена в виде амплитудной модуляции S(t) - a/ij cos (o}Qt), 0£tsx„, где Л, =1 (если - О) или Л, = - 1 (если д,- - 1 ) . Введем также длительность кодовой посылки Tj^ (например, для упомянутого выше семиэлементного кода Бракере Т/^ = Т / 7 ) и для простоты будем полагать, что на длительности кодовой посылки укладывается целое число периодов высокочастотного заполнения. Рассчитаем спектр фазоманипулированного семиэлементным кодом Баркера импульса (j(o) - G,^, ( j w ) » / « о (v)cos((D„v + О 6 ("IK f cosMc-^'"" dvЛ-0 s7i. = f A, e" s-0
rfv
-
/ cos((Oo (/ + sTt ))e-j"" dt = Oi
6
=
/ cos(a)oOe-^"" dt. (5.22) i-0 Oj В (5.22) интефал в правой части формулы совпадает с (5.17) с той лишь разницей, что вместо длительности импульса т„ стоит длительность элементарной кодовой посылки . Поэтому можно записать Сф„ (jo,) = } cos((OoOe-^"'' Л = (l - е
-
.
(5.23) 141
Тогда (5.22) принимает вид (5.24) i-O С учетом (5.19) и (5.24) запишем выражение для коэффициента передачи СФ для одиночного радиоимпульса с фазовой манипуляцией /ГсФ, (jco) = к ^ е - j - " с ; (jco) = К^ е
-
f
h, е^"»^* С^м (ja>) = s-O
(5.25) i-O Введем в рассмотрение СФ для одиночной кодовой посылки, отсчет на выходе которого формируется в конце посылки, т.е. при Г] = . С учетом (5.4) и (5.24) запишем выражение для коэффициента передачи такого фильтра ^СФк (jco) = к ^
с ; , (jco). /Су (l
-
е
-
.
Теперь выражение (5.25) можно записать в виде (5.26) S-0
На рис. 5.4 приведена схема согласованного фильтра для радиоимпульса с дополнительной фазовой манипуляцией.
Рис. 5.4. Схема СФ для одиночного радиоимпульса с дополнительной фазовой манипуляцией Из (5.26) следует, что СФ для радиоимпульса с фазовой манипуляцией включает СФ для импульса элементарного кода, линию задержки на длительность элементарного кода с числом отводов на единицу меньше, чем число элементов кода, умножитель на h^ на выходе s -го отвода линии задержки и сумматор. Умножение на h^ обеспечивает 142
«снятие» фазовой манипуляции сигнала с целью последующего когерентного суммирования отсчетов на выходах линии задержки. Схема СФ для пачки радиоимпульсов с дополнительной внутриимпульсной фазовой манипуляцией имеет такой же вид, что и на рис. 5.2, но вместо СФ для одиночного радиоимпульса надо использовать схему СФ для радиоимпульса с фазовой манипуляцией, приведенную на рис. 5.4. Согласованные фильтры широко используются при построении аналоговой техники. Однако в настоящее время все большее число РТС переходит на цифровую обработку сигналов, при которой проще реализовать корреляционную схему оптимального приемника. Так, например, в приемниках сигналов спутниковых радионавигационных систем ГЛОНАСС, GPS используются непрерывные фазоманипулированные на л сигналы с периодом повторения кодовой последовательности 1 мс. Если бы обработка сигналов в приемнике строилась как аналоговая, то в обнаружителе сигналов с временем накопления 1 мс можно было бы использовать СФ, описанный в предыдущем разд. (с числом кодовых элементов 511 в системе ГЛОНАСС). Однако все существующие приемники для данных систем на последней промежуточной частоте ~ 4 МГц подвергаются дискретизации по времени и квантование по уровню. Обнаружитель сигнала обрабатывает уже цифровую выборку и всегда строится по схеме корреляционной обработки. Аналогичная тенденция наблюдается и при разработке современных радиолокационных систем.
Контрольные вопросы к главе 5 1. С какими характеристиками сигнала и как связан коэффициент передачи согласованного фильтра? 2. Записать коэффициент передачи согласованного фильтра при приеме одиночного видеоимпульса. 3. Записать коэффициент передачи согласованного фильтра при приеме последовательности видеоимпульсов. 4. Что можно сказать о величине отношения сигнал/шум на выходе согласованного фильтра?
143
Глава
6
РАЗЛИЧЕНИЕ СИГНАЛОВ
6.1. Различение двух детерминированных сигналов Предположим, что в наблюдаемой на входе приемника реализации y{t) может быть один из двух полезных сигналов Si (/) или (О • y{t) = Si{t)+n{t) По наблюдениям
или
= на интервале времени [0,Г] и имеющейся
априорной информации необходимо принять решение о том, какой из двух сигналов присутствует в принятом колебании. Данная задача называется задачей различения сигналов. Аналогично задаче обнаружения, задачу различения можно сформулировать как задачу оценивания. Представим наблюдаемый процесс в виде Параметр д может принимать случайным образом одно из двух значений: = 1 (присутствует сигнал 5i (/)) с априорной вероятностью Рар{}) и iJ = 0 (присутствует сигнал
(г)) с априорной вероятностью
Pap{0) = {l-Pap{\^. Задача различения в этом случае формулируется как оценка значения случайной величины Ь по наблюдениям реализации j'(t) на интервале времени / е [0,Г]. В такой формулировке данная задача ничем не отличается от задачи обнаружения, рассмотренной в гл. 4, поэтому можно воспользоваться полученными там результатами. Так, например, при простой функции потерь оптимальное решающее правило описывается соотношением (4.4) и заключается в вычислении отношения правдоподобия и сравнении его с порогом. Для вычисления отношения правдоподобия необходимо определить две условных ПВ: = соответствующей присутствию в наблюдениях сигнала 144
и
=
соответст-
вующей наличию сигнала S2 (^). Данные ПВ определяются из общего выражения (4.15)
Л^О о
Щ где £[ =
{t)dt; О
£2 = J-^l О
4,
Л^оо — энергии сигналов.
Теперь оптимальное правило обнаружения можно записать в виде
р К ) =ехр
Рар{0)_ =
N.0 0
(6.1)
или, переходя к логарифмам, N.О О
Pap{i)
(6.2)
ЛГп
Таким образом, оптимальное устройство различения двух сигналов имеет структуру, приведенную на рис. 4.2, и включает оптимальный приемник, ключ и пороговое устройство. Оптимальный приемник описывается соотношением
о N00 ^0 0 Реализация оптимального приемника устройства различения двух сигналов возможна по двум схемам; одноканальной (рис. 6.1) и двухканальной (рис. 6.2). Наряду с ними возможна
фильтровая
реализация
опти-
мального приемника, например, по двухканальной схеме (рис. 6.3).
ujT) I
6.1. Одноканальная схема
оптимального приемника различения двух сигналов 145
т
X
J
у(0
_ а X
^
г / л
X zr:
Рис. 6.2. Двухканальная схема оптимального приемника различения двух сигналов
Я')
Рис. 6.3. Двухканальная схема оптимального приемника различения двух сигналов с СФ Рассчитаем характеристики различения двух сигналов. Для этого, как и в задаче обнаружения, введем две СВ •'^0 о 2 ^г h
1 [^2
( т ) - 5 2 (т)]^т .
^ 0 0" соответствующие двум ситуациям наличия одного или второго сигналов в принимаемой реализации. Эти случайные величины распределены по нормальным законам с МО и дисперсиями соответственно
ц =м Z>2 =М {%2-тгГ
146
_2(£,+£2-2£I2) ЛГо (6.3)
где £12 =
(х)52 (Z)C/X — взаимная энергия сигналов, о Плотности вероятности ) и р (^2 ) приведены на рис. 6.4, где
заштрихованы участки, соответствующие ошибочным решениям при приеме одного или второго сигналов.
Рис. 6.4. Гауссовские ПВ при наличии одного из двух сигналов и условные вероятности ошибок Вероятность суммарной ошибки определяется соотношением ^'ош
! P(^lHl+-Pap(0)Jpa2H2 • (6-4) А Наиболее наглядные результаты получаются при равенстве энергий двух сигналов = £2 = ^ и равных априорных вероятностях (1) = -со
= /'д^,(0) = 0,5. Вводя понятие коэффициента взаимной корреляции г^ между сигналами Sj (f) и Sj (t)
^ 0 получаем следующее выражение для суммарной ошибки: 1
ч2 ^ J ехр
I ехр о
2D
2D
dk
147
= 1-ф
V
м
(6.5)
-O-'i)
где Ф(*) —интеграл вероятности. Таким образом, при известном отношении с/ш q = E/NQ вычисление вероятности полной ошибки для детерминированных равновероятных сигналов с одинаковыми энергиями сводится к определению коэффициента взаимной корреляции между сигналами. Так как интеграл вероятности является монотонно возрастаюшей функцией аргумента, то при одинаковом отношении с/ш наибольшей помехоустойчивостью (наименьшей вероятностью ошибки) обладают сигналы, для которых коэффициент взаимной корреляции минимален. Коэффициент взаимной корреляции г, может изменяться от -1 (при Si (/) = (/)) до +1 (если S, (^) = S2 (/)). В том случае, когда г^ = О, говорят, что сигналы ортогональны. Очевидно, что одинаковые сигналы (г^=1) невозможно различить и поэтому i^ui = = 1 - Ф ( 0 ) = 0,5. Наоборот, если сигналы одинаковы и противоположны по знаку (г^ = О), то их различить легче, чем любые другие два сигнала (например, ортогональные). Сказанное иллюстрируется рис. 6.5, на котором представлены результаты расчетов по формуле (6.5). Кривые, характеризующие зависимость вероятности полной ошибки от отношения сигнал/шум при оптимальных методах приема детерминированных сигналов, в радиосвязи принято называть кривыми потенциальной помехоустойчивости. Получим такие кривые для некоторых виРис. 6.S. Зависимости вероятности ошибки распознавания от значения дов манипулированных сигналов, коэффициента взаимной корреляции применяемых в радиосвязи. Амплитудная манипуляция (AM). При AM 5] (г) = ^со5(сог + ф), (О ~ ® > ' ^ 148
>
— известные параметры сигнала.
Данная задача фактически сводится к задаче обнаружения сигнала на фоне шума. Приняв в формулах (6.3) Sj (/) = О, получим т1=2Е/Щ=2д,
I\=D2=D
=2 E I ^ 2 = 0 ,
Е^А^ТИ.
Так как энергии сигналов (f) и (t) не равны, то пользоваться формулой (6.5) для расчета вероятности ошибки нельзя. Поэтому воспользуемся общим определением (6.4). Значение порога А = E/NQ = q находим из (6.2), Тогда
] = 1-Ф
ехр
J (
гЛ
2^
1
J ехр л[2тФ
2D
'
1 -9/n/O
= 0,5
(izl?) Л Л
1
ехр
f
J ехр
2D
Л Л dx
I—
(6.6)
Зависимости Р^ц, {q) представлена на рис. 6.6 (кривая AM).
Частотная манипуляция (ЧМ). При ЧМ используются два гармонических сигнала одинаковой амплитуды и длительности, имеющие разные несущие частоты S, (/) = ^ cos (со,/ + ф), S2 (/) = ^ cos (йъ/ + ф). Ai=sm((a)2-a),)r)/[((02-a),)r; . Коэффищ1ент взаимной корреляции минимален и равен г^=-0,21 при (о>2-(Oi)r = l,5ic.
Однако
на практике обычно выполняется неравенство ((02 - СО] ) 7 ' » 1 . Поэтому можно положить = О, и для вероятности полной ошибки, учитывая равенство энергий сигналов, из (6.5) получим
i 1 : 1 1 : i ; i i уiI1 : i лЧ .i \j\ V к!: TSviAM' ч |м iS.!' 'i ,
!
J
^
Рис. 6.6. Зависимости вероятностей ошибок различения для AM, ЧМ и ФМ сигналов
149
Зависимость вероятности ошибки от отношения сигнал/шум приведена на рис. 6.6 (кривая ЧМ). Фазовая манипуляция (ФМ). На практике часто используется ФМ на к , при которой 5] (r) = ^cos(a)f), Д™ таких сигналов г^ = - 1 и вероятность ошибки, согласно (6.5)
График этой функции представлен на рис. 6.6 (кривая ФМ). Сравнивая зависимости на рис. 6.6 для AM, ЧМ, ФМ, видим, что при одной и той же энергии элементарных сигналов из трех рассмотренных видов манипуляции наибольшей помехоустойчивостью обладает фазовая и наименьшей — амплитудная. 6.2. Различение двух квазидетерминированных сигналов Так же, как и в задаче обнаружения сигналов, задача различения может быть сформулирована и решена для случая наблюдения квазидетерминированных сигналов, т.е. сигналов со случайными параметрами. Рассмотрим задачу распознавания, когда принимаемые сигналы имеют случайные начальные фазы, т.е. положим 5, (О = ai^i (Ocos (ю,/+ф,), 5, (О = 02^2 (')cos (0)2/ + Ф2 ), где ai,a2,C0i,
(<) —известные амплитуды, несущие часто-
ты и законы амплитудной модуляции сигналов; (р1,ф2 — начальные фазы сигналов, которые полагаем независимыми и распределенными по равномерному закону на интервале [0,2я]. В соответствии с общим подходом (4.37), для решения данной задачи отношение правдоподобия (6.1) необходимо усреднить по начальным фазам ф1,ф2
р Ю - ехр
щах -0202 2Щ
I л я Х 150
J J ехр
-к-It
2 ^
J (0(^1 Ф1) -
"а о
Ф2)
=
= ехр
l-^l'»
2а2
'-Мт)
Ж МП
N,
,
(6.7)
где Xf{t)
= Xf,{t)+Xl{t), Xj{t) = xl{t)+xl{t), t I ^Ic ( 0 = (t)cos(a),x)t/t, Z,, {t) = \y{i)A (x)sm((OiT)(/i:, 0 t
0
t
0
0
0
0
При вычислении интегралов в (6.7) использована формула (4.39). С учетом (6.7), оптимальное решающее правило различения двух сигналов принимает вид 2а2
PgpiO)
Мт)
Papi^)'
или логарифмируя 2а, N,о
= /i. (6.8) ЫТ) Nn N,о Papi^) Левая часть неравенства (6.8) описывает алгоритм работы оптимального приемника для различения сигналов, который можно реализовать, например, на базе корреляторов (рис. 6.7). I :.<,(<)C<4.|/Vjvo In/о
-1п/,
J
i У^)
т. »
x
1
Г
i t 1 S
(."о J J.. 2 Id;,
1 N,
J
2.42(,).»(С.2,УЛ'0 Рис. 6.7. Схема оптимального приемника для разрешения двух сигналов со случайными начальными фазами
151
в (6.8) функции In/о
, / = 1,2 определяют характеристики Щ нелинейных блоков. Так как данные характеристики являются монотонными, то эти нелинейные зависимости не имеют существенного значения, и их можно пересчитать в соответствующие значения порогов. Так, например, при равенстве энергий сигналов и равных априорных вероятностях их присутствия в наблюдаемой реализации (6.8) эквивалентно условию (6.9) т.е. при выполнении (6.9) принимается решение о наличии сигнала 5i(/,(P|), а при его невыполнении принимается противоположное решение. Аналогично могут быть получены схемы, реализующие алгоритмы различения сигналов со случайными начальными фазами и случайными амплитудами. Как и в задаче обнаружения сигналов, схема оптимального приемника в этом случае будет аналогична схеме на рис. 6.7. Изменятся лишь характеристики нелинейных блоков в двух каналах приемника, а также пороги различения. 6.3. Различение т детерминированных сигаалов
y{t)
Рассмотрим более общую задачу, когда в наблюдаемой реалюации присутствует один из т возможных сигналов / = 1,ш, па-
раметры которых полностью известны. Возможны различные варианты формального математического описания данной задачи. Воспользуемся следующим векторным описанием. Введем вектор сигналов S(r) = |5i (/) 52 (/) ... S„
и случайный векторный ( Т -мерную стро-
ку) параметр 9 , который может принимать т возможных значений = |0 О ... 1|. Тогда наблюдаемую реализацию можно представить в виде >'(/) = в80)+и(0,
tG[0,T],
а задачу распознавания сформулировать как задачу оценки значения векторного параметра 0 .
152
Априорные вероетности P^[Si{t)) = Р^р^^ присутствия сигналов 5,- (/), i = l,m полагаем заданными, причем ^ P^p j = 1. /=1
В отличие от всех ранее рассмотренных задач, где оцениваемый параметр принимал лишь два возможных значения, в задаче различения т сигналов оцениваемый случайный параметр принимает более чем 2 значения. Если вспомнить процедуру синтеза алгоритма оптимального обнаружения (п. 4.2.1, формула (4.3)), то можно увидеть, что оптимальное решение заключается в вычислении двух апостериорных вероятностей — наличия и отсутствия сигнала, и выбора максимальной из них. Математически выбор максимального значения из двух возможных можно записать как сравнение их отношения с единицей, что и приводит в итоге к пороговой схеме обнаружения. Вычисление апостериорных вероятностей является принципиальным моментом в данной процедуре и вытекает из идеологии теории статистических решений (см. гл. 3), предписывающей минимизацию апостериорного риска, т.е. функции потерь, усредненной по апостериорной плотности вероятности. В гл. 2 показано, что при простой функции потерь оптимальным решением является оценка, для которой апостериорная вероятность максимальна. Учигывая сказанное, решение задачи распознавания т сигналов будем искать в виде оценки случайного параметра в , для которой апостериорная вероятность максимальна, т.е. 9 = are max е<')
(^(to'))-
Рассмотрим совместную ПВ
j . Используя правило умноже-
ния вероятностей (1.26), запишем ;; (е, y J ) =
) р (kJ" ) = Р (l^f
•
(6.10)
Из (6.10) находим (6-11) где с — константа, не зависящая от оцениваемого параметра 6 . Таким образом, апостериорные вероятности Р в Jq^ j определяются априорными вероятностями Р^р (9) значений неизвестного парамет153
pa и условной ПВ P\YQ
. Учитывая, что данная ГШ (4.18) отличается
от отношения правдоподобия (4.17) множителем к , не зависящим от оцениваемого параметра 9 , то правую часть (6.11) запишем в виде
(6.12) где p(io'|0) =:ехр
|08(О(>'(О-О.5в8(/))Л О
— отношение правдоподобия в рассматриваемой задаче различения т сигналов. Так как каждому значению случайного вектора соответствует сигнал (/), то (6.12) может быть представлено как
N,О
о
i = l,m.
(6.13)
Оптимальное устройство, реализующее различение от сигналов, является многоканальным. В каждом i -м канале стоит оптимальный приемник для выделения сигнала (/); для детерминированных сигналов — это коррелятор с опорным сигналом S,- . В момент времени Т (время принятия решения) значение отсчета на выходе оптимального приемника подвергается экспоненциальному преобразованию и умножению на соответствующую априорную вероятность , наличия данного сигнала в принимаемой реализации. В результате на выходе каждого канала формируется своя апостериорная вероятность среди которых далее определяется максимальная, а номер канала, соответствующего максимальной апостериорной вероятности, дает решение о том, какой сигнал присутствует в наблюдениях. Схема оптимального устройства распознавания приведена на рис. 6.8. На практике часто полагают априорные вероятности Р^р ^ равными, т.е. P^pj = \ / т . Если, к тому же, энергии сигналов равны, т.е. E j = E , < = 1,от, то в оптимальном алгоритме различения сравнивать можно не 154
X
—
t
i• Г
1
i
- - « х р ( . ) | —
Е
X
Ej/No
*
Я')
-
f 1
1
Ъ
—
—
»
X
argm^/
i_j Рис. 6.8. Схема оптимального устройства распознавания т детерминированных сигналов апостериорные вероятности (6.13), а лишь соответствующие корреляционные интегралы. При этом схема, приведенная на рис. 6.8, преобразуется в т -канальный корреляционный приемник, дополненный блоком выбора максимального значения на выходе каналов. Такая схема является естественным обобщением двухканальной схемы, приведенной на рис. 6.2 и полученной для задачи разрешения двух сигналов. Характеристики различения т сигналов рассчитать в общем случае достаточно сложно, так как после экспоненциальных преобразований в схеме рис. 6.8 получаем случайные величины с негауссовским законом распределения. Поэтому рассмотрим более простой вариант задачи, когда априорные вероятности P^pj равны и оптимальное устройство распознавания реализуется в виде многоканального корреляционного приемника. В этом случае на выходе i -го канала формируется отсчет (6.14) о Совокупность случайных величин м^,, i = \,m имеет гауссовский закон распределения. Методика расчета полной вероятности ошибки следующая. Рассматриваются условные распределения СВ м^,, i = \,m при фиксированном сигнале Sj{t) условная ПВ p{u^i,i =
в наблюдаемой реализации. Соответствующая (/)) являегся гауссовской с вектором МО
155
ni(y)= m](y) m2(y) ...
и
матрицей
дисперсий
0(У) =
2Е. IV
N. Поэтому запишем
{
\ т т
г
1
1
(6.15)
- т I I ( « к . ( У ) } («KV-mv0)) Для ПВ (6.15) можно рассчитать условную вероятность правильного решения, т.е. вероятность события и^у ' ^ J ^ '"е l,w, т.е. значение отсчета в j -м канале больше (или равно) значений отсчетов каждого из всех других каналов. Математически это записывается следующим образом: РоО)=
(6.16) "«у "к;
—OO
—OO
—OO
Тогда полная вероятность ошибочного решения определяется выражением т
1
\
^ош = I {j))PapJ = - I (1 U)) = 1 — I (У) • (6.17) y=i ;=i y=i Наиболее просто вероятности (6.15) рассчитываются для ортогональных сигналов с равными энергиями. В этом случае, во-первых, в (6.14) можно не учитывать втрое слагаемое, так как оно одинаково для всех отсчетов и не влияет на выбор максимального. Во-вторых, О,
=|
О,
у . .
'
т.е. матрица D(y) —диагональная. С учетом данных обстоятельств, (6.15) преобразуется к виду
156
1
(2щ)
^
exp
S^J
2g
(6.18) Подстановка (6.18) в (6.16) и инте1-рирование по «внутренним» т - 1 интегралам распадается на произведение однотипных интегралов — интегралов вероятности. Поэтому, выполнив необходимые преобразования, получаем ^D (J) =
[~(х 1 \l2K
! exp
- T ^ f } ф {x)dx = ol^x + ^Jq'jdx.
(6.19)
Так как вероятности в (6.19) не зависят от индекса j , то упрощается и выражение (6.17) (6.20) Формулы (6.19)—(6.20) при т = 2 переходят в формулу (6.6) для задачи распознавания двух сигналов. В результате расчетов вероятности полной ошибки при т>2 можно убедиться в том, что она возрастает при увеличении от. Физически это объясняется тем, что при добавлении «новых» сигналов возникает дополнительная возможность принятия ошибочных решений относительно них при тех же ошибках относительно ранее использованных сигналов. Контрольные вопросы к главе 6 1. Чем определяются характеристики различения двух детерминированных сигналов? Какие сигналы имеют наилучшие характеристики различения? 2. Че.м структура оптимального приемника для различения двух сигналов отличается от структуры оптимального приемника в задаче различения т сигналов? 3. Что изменяется в структуре оптимального приемника при решении задач различения детерминированных сигналов и сигналов, имеющих случайные неинформативные параметры? 4. Дайте качественную оценку изменения характеристик различения детерминированных сигналов и сигналов, имеющих случайные неинформативные параметры. 157
Глава
7
ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА
7.1. Постановка задачи оценки параметров сигнала В гл. 2 отмечалось, что РТС являются информационными системами, в которых радиосигнал является переносчиком информации, а сама информация закодирована в том или ином параметре сигнала. При приеме радиосигнала одной из важнейших задач является извлечение передаваемой в нем информации. Если параметр радиосигнала, в котором содержится интересующая потребителя информация, постоянен за время наблюдения (время принятия решения), то получение информации о таком параметре называют оценкой параметра сигнала. В статистической теории РТС оцениваемые параметры радиосигнала описываются как случайные величины с заданным законом распределения. Поэтому задача оценки также является статистической задачей, которая формулируется следующим образом. Пусть на отрезке времени [0,Г] принимается реализация представляющая собой аддитивную функцию сигнала
y{t), и по-
мехи п(/): y{() = S{tX\l)+n{i), где
=
fe[0,r],
(7.1)
— вектор информативных параметров сигнала.
подлежащих оцениванию; ц =
— вектор неинформатив-
ных параметров сигнала, которые не представляют интереса для потребителя; л(/) — БГШ с нулевым МО и двусторонней спектральной плотностью В общем случае А. и ц принимают значения из непрерывных многомерных областей
Qj,, на которых заданы априорные ПВ р(Х) и
//(ц). По располагаемым априорным данным и наблюдениям (7.1) необходимо сформировать оценку X информативных параметров в том Ш1И ином смысле наилучшую (оптимальную). Заметим, что в общем случае потребителя не интересует оценка неинформативных параметров ц . 158
7.2. Общее решение задачи оптимального байесовского оценивания параметров сигнала на основе теории статистических решений Рассмотрим сначала задачу оценивания параметров сигнала при отсутствии неинформативных параметров. В теории статистических решений (см. гл. 3) оптимальное байесовское решение ищется для заданной функции потерь в результате минимизации среднего риска (3.6). Для квадратичной функции потерь (3.1) средний риск имеет смысл дисперсии ошибки оценки параметров сигнала, а оптимальное решение X определяется как оценка условного среднего (3.12), т.е.
где Уо^ = {>'(0.
[0.^]} — наблюдаемая реализация.
Для простой функции потерь (3.4) оптимальная оценка — это такое значение параметров X, при котором апостериорная ГШ /^^А,
j мак-
симальна, т.е. l*=arg
(7.3)
Здесь знаком «•» подчеркивается тот факт, что оптимальная оценка при простой функции потерь в общем случае отличается от оптимальной оценки (7.2) при квадратичной функции потерь. Если АПВ
Уо^ j дифференцируема по Я, и ее максимум дости-
гается во внутренней точке области определения оцениваемых параметров, то оценку (7.3) можно найти в результате решения уравнения
ВХ
= 0
х=х*
или эквивалентного ему
ЭХ
= 0. Х = Х*
(7.4)
159
При наличии неинформативных случайных параметров ц с априорной ПВ р (ц.) оптимальная оценка для квадратичной функции потерь определяется выражением (см. гл. 3, формула (3.20)) Я=
(7.5)
где X,(|i.) — условная оценка параметров "к при фиксированных значениях р,, которая определяется при заданном ц (3.21);
—
стериорная ПВ неинформативных параметров. Напомним, что оценки, полученные в результате минимизации условного риска, называются байесовскими. Важной особенностью таких оценок является наличие априорных ПВ р{Х) и 7.3. Оценки максимального правдоподобия Пусть сигнал содержит только информативные параметры А,, однако априорная ПВ их распределения неизвестна. В этом случае для нахождения оценок параметров сигнала широко используют метод максимального правдоподобия (см. гл. 3), при котором ищется оценка максимального правдоподобия , определяемая из решения уравнения правдоподобия (3.17), которое запишем в виде
ЭХ
"
-
Напомним, что условная ПВ р [YQ
j , рассматриваемая как функ-
ция параметров X, называется функцией правдоподобия. Учитывая равенство
Уд^| =
нетрудно увидеть,
что (7.4) и (7.6) отличаются слагаемым Э1п/?(Х)/ЭХ. Следовательно, байесовские оценки при простой функции потерь и оценки максимального правдоподобия совпадают, если априорное распределение р{Х) — равномерное. Иногда бывает удобно вместо функции правдоподобия P{YQ рассматривать отношение правдоподобия, т.е. нормированную функцию 160
рКИ
=-Т7^
(7-7)
Ранее отношение правдоподобия возникало в результате решения задачи обнаружения сигнала (4.4) и широко использовалось в теориях обнаружения и различения сигналов. В отличие от (4.4) в формуле (7.7) подчеркнута зависимость отношения правдоподобия от фиксированного значения оце1шваемого параметра X,. Отношение правдоподобия также можно рассматривать как функцию от детерминированного параметра А.. Так как знаменатель в (7.7) не зависит от X , то отношение правдоподобия р X j , которое здесь для краткости будем записывать как р (X,), можно использовать в уравнении правдоподобия (7.6) вместо функции правдоподобия. Следовательно, оценки максимального правдоподобия можно искать из эквивалентного уравнения Э1пр(Я.) э;1 которое в дальнейшем также будем пзаыъать уравнением правдоподобия. При наличии неинформативных параметров сигнала |Д, оценку максимального правдоподобия следует искать из уравнения правдоподобия (3.25), в которое входит усредненная функция правдоподобия (3.24). Учитывая показанную выше допустимость использования в уравнении правдоподобия отношения правдоподобия, аналогичная процедура замены может быть сделана и для (3.25), т.е. оценку информативных параметров можно искать из уравнения
Э1пр(Х) ЭХ
^ =0, А. = Х„
(7.9)
где р(Х)=
(7.10) —оо
Оценка х„ максимального правдоподобия первоначально была определена эвристически, поэтому, в отличие от байесовских оценок, о ее качестве, исходя только из определения (3.16), ничего определенного нельзя сказать. Для определения свойств оценок максимального прав6—2041
161
доподобия были проведены серьезные исследования, в результате которых доказан ряд важных свойств таких оценок. 7.4. Свойства оценок максимального правдоподобия Свойства оценок максимального правдоподобия получены при отсутствии неинформативных случайных параметров сигнала, поэтому именно для такой задачи оценивания они будут изложены ниже. Кроме того, для простоты изложения рассмотрим задачу оценки скалярного параметра А,. 7.4.1. Несмещенность Рассматривая условную ГШ р
j , можно говорить о наблюде-
т ниях YQ , которые зависят от некоторого неслучайного, но неизвестного, параметра А,. Пусть в результате обработки наблюдений Jq сформирована некоторая оценка Х неизвестного параметра (некоторое наше решение d = u
| = X. о значении оцениваемого параметра). Данная
оценка является функцией от наблюдений, т.е. X^Iq^ j , поэтому она является случайной величиной. Если МО оценки
j равно истинно-
му значению параметра X, то оценка называется несмещенной. Если Л/р] = = Х+Дх (А.), (7.11) то оценка называется смещенной, а Д;^^ — смещением оценки. Смещение оценки в общем случае зависит от фактического значения параметра X. 7.4.2. Эффективность Запишем выражение (7.11) в виде = 0.
(7.12)
Полагая, что функция правдоподобия дифференцируема, продифференцируем (7.12) по X: 162
/
\
/
^dpfrj'X)
^
(7.13)
Учитывая равенство
дХ
' К
И
(7.14)
эх
выражение (7.13) можно записать в виде
(7.15) Используя доказанное в математике неравенство Коши—Буняковского / f(x)g(x)dx причем знак равенства имеет место при (7.16) где константа с не зависит от х, преобразуем (7.15) к виду ч2 ЭХ Ц 1 + А1 (X)).
(7.17)
Первый интеграл в левой части (7.17) определяет дисперсию ошибки оценки X
(7.18) 163
поэтому (7.17) может быть представлено как - 1
+
(X))
(7.19)
ЭХ
Формула (7.19) называется неравенством Рао—Крамера. Если оценка Л. является несмещенной, то неравенство Рао—^Крамера принимает вид 2
(7.20)
3?L
Правые части неравенств (7.19), (7.20) определяют нижние границы для дисперсии ошибки любой смещенной или несмещенной оценки, поэтому их называют границами Рао—Крамера. Несмещенная оценка, для которой в (7.20) имеет место знак равенства, называется эффективной и обозначается ^дф • Пусть Хдф — некоторая эффективная оценка. Тогда по определению эффективной оценки в (7.20) выполняется равенство, а условием, когда неравенство Коши—Буняковского переходит в равенство, является (7.16), которое в рассматриваемой задаче принимает вид (7.21) где {р(Х) — функция, не зависящая от Y^. Равенство (7.21) должно вьшолняться для любого X из областиА
возможных значений Q^. • Но оценка Хдф также принимает значение из той же области й ^ • Поэтому выберем такое значение А, = X,, для которого (7.21) обращается в ноль, т.е. Х = Хдф (^о^ ) • Тогда для (7.21) можно записать
164
Учитывая выражение (7.14) для производной логарифма функции правдоподобия, приходим к следующему результату:
дХ
= 0.
(7.22)
Но (7.22) есть не что иное, как уравнение правдоподобия. Следовательно, если существует эффективная оценка Хдф, то она совпадает с оценкой максимального правдоподобия. Получим эквивалентную форму записи правой части неравенства Рао—Крамера (7.20). Для этого рассмотрим вторую производную 1 дХ '
1 дХ
Умножим обе части полученного выражения на P{YQ
(7.23) и проин-
тегрируем по X и Jq^ или, другими словами, усредним это равенство по плотности р
=М
:
-м
' _ 1
165
= -м Следовательно, неравенство Рао—Крамера (7.20) можно записать в виде -I
-1
I
м
= А(7.24)
Выражение J =M
-i2
Э ЭХ
=
=-м
(7.25)
-
получило название информации по Фишеру. Таким образом, дисперсия любой несмещенной оценки не меньше величины, обратной информации по Фишеру. Обобщение неравенства Рао—Крамера на случай оценки векторного (/я-мерного) параметра X дается следующим образом. Пусть Ri=M
— корреляционная матрица ошибок несме-
щенной оценки а , состоящая из элементов Rjj = М (Х,,- -X,- )(Ху - Xj ) Определим матрицу J
Jy=M
ЭХ,
Uj = 1,т с элементами
ЭХ7
= -Л/
Э21п(р(у|Х)) ЭХ,ЭХ.
. (7.26)
Матрицу J называют информационной матрицей Фишера. Неравенство Рао—Крамера для нижней траницы корреляционной матрицы ошибок имеет вид (7.27) где Jт - 1 — матрица, обратная информационной матрице Фишера J .
166
Если в (7.27) имеет место знак равенства, то оценки д,, / = называются со&иестно эффективными. Применительно к оценке двух параметров X, и Хз, считая эти оценки совместно эффективными, из (7.26), (7.27) получаем _ J22
_
1
1
М
л
=^22=-^-det(j)
М (3in(p(Kj"|x))/ax2) (7.28)
Здесь
— нормированная взаимная корреляционная функция
оценок I j и ^2, det (J ) = J J j J22 ~ -^12 • Из сравнения формул (7.28) и (7.25) следует, что первый сомножитель в правых частях первых двух формул (7.28) совпадает со средним квадратом ошибки эффективной оценки одного параметра. Так как всегда выполняется условие то ясно, что наличие конечной корреляции между оценками параметров всегда приводит к увеличению среднего квадрата ошибки совместно эффективных оценок по сравнению со средним квадратом ошибки эффективной оценки одного параметра. 7.4.3. Достаточность Рассмотрим выражение (7.21), где в левой части равенства от наблюдений YQ зависит условная ПВ
|X,jj, а в правой части на-
блюдениями определяется только оценка Х^ф^Уо^ j . Оценка Я =
)
называется достаточной, если в результате обработки, т.е. при выполнении преобразования g ^Vjf j, из наблюдений YQ полностью извлечена информация об оцениваемом параметре, т.е. никакая другая обработ167
ка наблюдений (никакая другая функция g
j ) не может дать допол-
нительной информации, касающейся оцениваемого параметра X. Необходимое и достаточное условие того, чтобы оценка Х = g
)
была достаточной, состоит в возможности факторизации функции правдоподобия
т.е. ее представления в виде произведения двух сомножителей, один из которых зависит от истинного значения X параметра и его оценки X=g
j , а второй (7.28) зависит только от наблюдений YJ и не за-
висит от X. Достаточную оценку иногда называют достаточной статистикой. 7.5. Свойства оценок случайных параметров 7.5.1. Смещенность оценок случайного параметра Пусть X — случайный параметр с заданной априорной ПВ Рар
' ^ ^ — некоторая его оценка. Вычислим МО оценки М ^
и
рассмотрим разность Д^ =Х—Л/ 1 . Так как X — случайная величина, то Ах также является случайной величиной. Но в соответствии с данным в п. 7.4 определением Д^ — это смещение оценки. Следовательно, для каждого конкретного значения X, возможно кроме одного, получаем ^ О, т.е. оценка случайного параметра при определении (7.11) всегда будет смещенной. О несмещенности оценки случайного параметра можно говорить лищь в среднем, т.е. о выполнении условия М Х-М
= 0.
7.5.2. Граница Рао—Крамера для оценки случайного параметра Пусть по результатам наблюдений Уц^ оценивается параметр сигнала X, представляющий собой СВ. Покажем, что средний квадрат ошибки любой оценки i. при некоторых условиях имеет значение, которое 168
не может быть меньше нижней границы, определяемой обобщенным неравенством Рао—Крамера. Полагаются выполняющимися условия: абсолютно интегрируемы по Я, и Y^-, 2. lim [рар (Х,)Л/[Я.]| = О, где А/[А,] — условное МО ошибки при заданном Я, (7.29) Рассмотрим равенство (7.29). Умножим обе части этого равенства на Рар (Я.), а затем продифференцируем по X,
дХ Проинтегрируем полученное равенство по X
дХ
dXdYl
Согласно условию 2, левая часть данного равенства равна нулю. Следовательно, получаем
ЭХ
dXdY^ = 1.
(7.30)
Учитывая формулу дифференцирования (7.14) представим (7.30) в виде
ЪХ
p{x,Yl)dXdYl
(7.31)
Введем две случайные величины
169
и рассмотрим нормированные случайные величины (7.32)
где Л/
j^
=1
у х ^ р(х, Y^ )d-UY^ ;
ЭХ
Из очевидного неравенства (^н "Лн ) - О следует (7.33) причем знак равенства имеет место в том случае, если 4„=Л„.
(7.34)
Усредняя (7.33) по плотности вероятности
с учетом оп-
ределения (7.32), получаем
Подставляя в данное неравенство выражения (7.32) и учитывая определения случайных величин ^ и Т], приходим к следующему неравенству:
Я
1
ЭХ
причем знак равенства, в соответствии с (7.34), имеет место при
170
(7.35)
=к
дХ
(7.36)
где к — константа, не зависящая от X. Учитывая равенство (7.31), соотношение (7.35) можно представить так:
Я
дХ
p(x,Yl)dXdY^
В левой части полученного неравенства стоит средний квадрат Dj^ ошибки оценки случайного параметра X, поэтому его можно записать в виде ч2
Я
дХ
p[x,Yl)dXdYj
(7.37)
Следовательно, физический смысл полученного неравенства состоит в том, что средний квадрат ошибки любой оценки не превосходит некоторой нижней границы, которая определяется выражением, стоящим в правой части (7.37), и носит название нижней границы Рао— Крамера для оценки случайного параметра. Для оценки случайного параметра X определим понятие эффективной оценки ^эф как оценки, дисперсия ошибки которой достигает нижней границы Рао—Крамера (7.37), т.е.
=
Я
ЭА,
С другой стороны, знак равенства в (7.37) имеет место при выполнении условия (7.34). Проанализируем это условие, для чего продифференцируем (7.36) по X (7.38) Используя формулу Байеса, запишем 171
(7.3)
Подставляя данное соотношение в (7.38) и выполнив преобразования, получаем
Дважды интегрируя данное уравнение, приходим к нормальной апостериорной плотности р
) = ехр {-кХ^ + с,Х + С2 ) .
Следовательно, для эффективной оценки случайного параметра апостериорная ГШ должна быть гауссовской. Для неравенства Рао—Крамера (7.37) можно, также как и в п. 7.4.2, получить эквивалентную форму записи, аналогичную (7.24)
-1
(7.40)
М
Учитывая представление (7.39), для второй производной, входящей в (7.40), запишем -М
-м
дХ'
(7.41)
Здесь первое слагаемое в правой части учитывает информацию, получаемую из результатов наблюдений, и совпадает с введенной в п. 7.4.2 информацией по Фишеру. Второе слагаемое в правой части (7.41) учитывает априорную информа1шю. Приведем без доказательства неравенство Рао—^Крамера при оценке векторного случайного параметра Я, = {Я,,}, i = \,p . Пусть Rj;^ i,j = \,p — корреляционная матрица средних квадратов ошибок, со-
172
ставленная из элементов Л,у =М ( Х , - - Х у ) рицу i = • Jfj^,
i,j = \,р
. Определим мат-
с элементами
ЭХ,
Ъ\ j
= -М
dXidXj
Неравенство Рао—Крамера для нижней границы корреляционной матрицы ошибок имеет вид 1-1
(7.42)
1-1 —обратная матрица. где J~ Если в (7.42) имеет место знак равенства, то оценки случайных параметров называются совместно эффективными. 7.б.Оценка параметров сигнала, принимающих дискретные значения Поло}ким, что оцениваемый параметр X может принимать некоторое конечное множество значений, т.е. А, = {А,,-}, i - \ , p , а неинформативные параметры ц сигнала отсутствуют. 7.6.1. Байесовское решение Для большей наглядности рассмотрим случай оценки одного скалярного параметра X. Пусть заданы априорные вероятности возможных значений оцениваемого параметра (X,) = PjA, = А,,}, так что
1=1
Для получения байесовских решений, например (7.2), (7.3) необходимо рассчитать апостериорные вероятности возможных значений оцениваемого параметра. Используя формулу Байеса, запишем (7.43) где константа с определяется из условия нормировки суммы вероятностей к единице 173
-1 с=
(7.44)
1=1
Подставляя (7.44) в (7.43), получаем следующий алгоритм для вычисления апостериорных вероятностей: (7.45) Располагая апостериорными вероятностями, можно сформировать ту или иную оптимальную оценку. Наиболее просто получается оптимальное решение при простой функции потерь (7.3). Однако (7.3) включает нелинейные операции, что заметно усложняет вычисления. Поэтому, учитывая, что функция нахождения экстремума инвариантна относительно монотонных преобразований, прологарифмируем (7.45) In
\YJ )) = In
{Xi))+In (р (rj"
)) - In i Pap i h )р(Уо
)
Последнее слагаемое в данном выражении является одинаковым для всех апостериорных вероятностей. Поэтому при их сравнении его можно не учитывать. При фиксированных значениях А,, условная ПВ
|А,,-j, с уче-
том (4.18), записывается в виде Т
(7.46) о
J
Вводя обозначение ^(А,,) =
jj и учитывая сделанные
выше замечания, (7.46) можно представить как (7.47) о
т где E(Xj) = j S {t,Xi)dt — энергия сигнала при значении параметра О X = Xi. Из (7.47) следует, что существенной по отношению к принимаемой реализации /е[0,7']} является корреляционная обработка 174
(7.)
оО
с опорным сигналом 5 ( / Д , ) , определенным для значения информационного параметра X, равного А,,. Алгоритм (7.48) по форме аналогичен алгоритму оптимального приемника в теории обнаружения. Однако существенное отличие состоит в том, что в нем опорный сигнал 5 ( / Д / ) в общем случае (для произвольного Xj) не согласован с сигналом S{t,X) в принимаемой реализации, так как X j ^ X . Как следствие этого, действительно "оптимальным приемником" алгоритм (7.48) будет лишь для того значения Xj, которое имеет место у сигнала в принимаемой реализации. Для всех остальных значений Xj алгоритм (7.48) не оптимальный. Такая "неоптимальность" приводит к уменьшению значения корреляционного интефала (7.48), а, следовательно, уменьшению соответствующих апостериорных вероятностей и их логарифмов. Схема оптимального алгоритма оценки параметра X (рис. 7.1) представляет собой многоканальное устройство, в каждом i -м канале которого стоит перемножитель входного колебания на свой опорный сигнал S{t,Xj), интегратор и сумматор. Решающее устройство выбирает максимальное из выходных сигналов каналов и определяет соответствующее оптимальное решение X*.
i
Л')
£
J ln(Vi)
РЫ
arginaxp(X,)
ни Рис. 7.1. Схема многоканального измерителя параметра сигнала при простой функции потерь 175
Некоторое упрощение оптимального устройства оценивания получается в том случае, когда энергия сигнала не зависет от оцениваемых параметров X. Такие параметры сигнала называют неэнергетическими. При этом в (7.47) можно не учитывать последнее слагаемое, а в схеме рис. 7.1 исключить первые сумматоры. Неэнергетическими параметрами сигнала являются частота, фаза, а в ряде случаев и задержка. Параметры сигнала, от которых зависит его энергия, называют энергетическими. К ним относятся амплитуда, длительность сигнала, а в ряде случаев задержка, когда при отдельных ее значениях сигнал выходит за пределы интервала наблюдения [0,Г]. Оптимальный измеритель, приведенный на рис. 7.1, является многоканальным устройством. На практике такие многоканальные устройства широко используются в радиолокационных системах при оценке задержки сигнала и доплеровского смещения частоты. Получим теперь оптимальное решение для квадратичной функции потерь. В этом случае оптимальная оценка, в соответствии с (7.2), должна вычисляться как апостериорное среднее по формуле X=X
) • Следовательно, необходимо вычислить все апостери-
орные вероятности Р^А,,
=
где с определяется в
соответствии с (7.44). 25(лХ.,)/;Уо
/ Л^)
Г
J^/^o
Блок вычжлеши нормирующего коэффиаислтт ^Tfy
т
- S
-
s ,я
exp(*)
Г iexp« "Л
Ui
Рнс. 7.2. Схема многоканального измерителя параметра сигнала при квадратичной функции потерь 176
Существенной операцией для определения этих вероятностей попрежнему остается вычисление корреляционного интеграла (7.48). Однако в дальнейшем необходимо выполнить ряд нелинейных преобразований (экспоненциальное и нормировка, см. (7.44)). На рис. 7.2 приведена схема устройства оценивания параметра сигнала. Из рис. 7.2 следует, что оптимальная система заметно усложняется. Поэтому для решения практических задач чаще используют схему рис. 7.1, формирующую оптимальную оценку для простой функции потерь. 7.6.2. Небайесовское решение. Оценки максимальною правдоподобия Оценки максимального правдоподобия, как следует из п. 7.2, отличаются от байесовских оценок отсутствием априорных вероятностей P{Ki), i = l,pПоэтому схема оптимального устройства оценива^('Дг) ния будет такой же, что и на рис. 7.1, но с отсутствием вторых сумК маторов (с компонентами Я')
1
In [Papj) )• в случае оценки неэнергетических параметров сигнала получаем наиболее простую схему, приведенную на рис. 7.3. Данная схема включает набор корреляторов и блок определения максимального значения.
Рис. 7.3. Схема многоканального из.мерителя параметра сигнала
7.7. Оценка параметров сигнала с непрерывной областью значений 7.7.1. Прямые методы решения задач оценивания параметров сигнала Если область возможных значений параметра сигнала непрерывна, то (как показано в пп. 7.1, 7.2) оптимальные оценки параметров сигнала ищутся в результате решения уравнений (7.4) или (7.8). Рассмотрим оценки максимального правдоподобия и запишем уравнение (7.8) в развернутом виде 177
(7.49)
=0.
дХ
В ряде задач решение данных уравнений удается получить аналитически. Оценка амплитуды радиоимпульса. Пусть описывается соотношением
сигнальная
5 ( / Д ) = #(г-Тз)со5((о/ + ФО), /£[0,7-], /(0=
функция (7.50)
1, при 0 < / < т „ , О, при / < 0 ,
Положим, что все параметры сигнала, кроме амплитуда А , известны. Амплитуда сигнала является энергетическим параметром, поэтому необходимо учитывать зависимость энергии сигнала Е{А) от амплитуды. Тогда уравнение правдоподобия (7.49) принимает вид 2А
J/('-t3)cos(a)?+9o) >'(/)-у/(/-Тз)со8((о/+Фо) dt ЪАL^oo
= 0.
А=А
Оно имеет решение (7.51) о где
^ С.2 I Ej= =jsf{i)dt,
Si(/) = /(/-Хз)со8(ак + (р0) —нормированная сиг-
0
нальная функция. Из (7.51) следует, что оптимальное устройство оценивания представляет собой коррелятор входного колебания с опорным сигналом Рассчитаем характеристики оптимальной оценки амплитуды. Так как (7.51) определяет линейное преобразование входного процесса, то оценка А — случайная величина, распределенная по нормальному закону. Среднее значение оценки 178
м А =М
= А.
о Таким образом, среднее значение оптимальной оценки амплитуды равно ее истинному значению, т.е. оценка амплитуды сигнала - несмещенная (см. п. 7.4.1). / " \2l Дисперсия оценки определяется выражением М уА-М А 2
= л / [л-л]'
м
)
, Т.е. равна дисперсии ошибки оценки амплитуды n2"
'42 ( . - Л ) = Л/
о (7.52)
2£,
Таким образом, дисперсия ошибки оценки амплитуды пропорциональна интенсивности аддитивного шума и обратно пропорциональна длительности импульса. Оценка начальной фазы радиоимпульса. Пусть теперь оцениваемый параметр — начальная фаза (ро сигнала (7.50). Уравнение правдоподобия в этом случае запишется так:
- J 7 (?) 4/-(/- Тз) cos (со/+ Фо) Л= оо
Эфо N,
0.
(7.53)
Здесь учтено, что начальная фаза — это неэнергетический параметр, поэтому второе слагаемое в исходном уравнении (7.49) опущено. Выполнив в (7.53) дифференцирование, находим
т \ y{t)Af{t-l, о
)sin(cof + фо
= О,
-Тз)sin (юг)л или фо = -arctg
0
(7.54) -Тз) cos ((Of) Л
.0 179
Схема оптимального устройства оценки начальной фазы сигнала приведена на рис. 7.4.
cos(e>/) Рис. 7.4. Схема устройства оптимальной оценки начальной фазы сигаала Как следует из рис. 7.4 и формулы (7.54), устройство оценки начальной фазы сигнала есть нелинейное устройство, прямой расчет характеристик которого достаточно сложен. Поэтому отложим на некоторое время расчет характеристик оптимальной оценки начальной фазы сигнала. В других задачах оценивания параметров сигнала аналитическое решение найти не удается. В этом случае реализуются поисковые процедуры нахождения решения уравнения правдоподобия. Проиллюстрируем это на следующих примерах. Оценка временного положения радиоимпульса по огибающей. Временное положение радиоимпульса (7.50) может определяться по запаздыванию Xj огибающей. Параметр запаздывания — это параметр неэнергетический. Поэтому уравнение правдоподобия можно записать в виде (7.55) О
«•^з
Согласно этому выражению, в оптимальном измерителе осуществляется корреляционная обработка между входным колебанием и производной по задержке от огибающей сигнала. При этом производная играет роль опорного сигнала. Нахождение решения уравнения (7.55) может быть реализовано с помощью схемы, приведенной на рис. 7.5. Входная реализация y{t), ге[0,Г] запоминается. Для каждого значения Т3 вычисляется и запоминается значение корреляционного интеграла (на вы180
ходе интегратора схемы рис. 7.5). Далее фиксируется такое Т3, при котором значение отсчета на выходе интегратора переходит через значение «О». Это значение Tj и принимается как решение задачи.
<У(/-т,)
cos(co/ + (po)
Рис. 7.5. Схема поиска и оценки задержки сигнала Таким образом, получена система последовательного поиска по оцениваемому параметру. Недостатком данного метода является необходимость запоминания наблюдаемой реализации и большая длительность процедуры последовательного поиска. Альтернативным решением является дискретизация непрерывной области возможных значений оцениваемого параметра и использование методов оценивания, описанных в п. 7.2. При этом получается многоканальная система оценивания, которую можно интерпретировать как систему параллельного поиска по оцениваемому параметру. Оценка частоты радиоимпульса. Пусть оцениваемым napaMeipoM является частота ш принимаемого сигнала. Запишем уравнение правдоподобия Г
J (У ( ' ) /
-
)sin (сЬ/ + фо
= О.
(7.56)
О
Данное уравнение не решается аналитически относительно искомой оценки О). Поэтому оптимальный измеритель должен находить корень уравнения (7.56) путем перестройки частоты d) опорного сигнала и вычисления для каждого значения частоты корреляционного произведения (7.56). Таким образом, получаем систему последовательного поиска по частоте сигнала. Рассмотрим вопрос о возможной реализации такой системы. Для этого представим (7.56) в виде
О
Эю 181
о
'
26(1)
(7.57) где 5ft) — расстройка по частоте. Поиск решения уравнения (7.57) может быть реализован устройством, схема которого приведена на рис. 7.6. т ! 0
Я') cos(((a + 8ca)( +Фо) (f>o)
S
! -
Схема фиксации l перехода через О !
^
Т
! 0
LT
/(<-Тз) С05((м-6<а)г + фо)
Рис. 7.6. Схема поиска и оценки частоты сигнала Другой возможный вариант построения устройств оценки параметров сигнала основан на использовании понятия дискриминатора. 7.7.2. Оценка параметров сигнала с помощью дискриминаторов Уравнение правдоподобия (7.8) можно решать каким-либо итерационным методом, например, методом Ньютона. Суть любого итерационного решения произвольного уравнения вида h{X) = Q
-.(7.58)
заключается в следующем. Уравнение (7.58) приводится к виду ^=ф(А.). Выбирают некоторое начальное приближение последовательные приближения
(7.59) и вычисляют
Итерационный процесс продолжается до достижения требуемой точности решения.
182
Имеется много способов приведения уравнения (7.58) к виду (7.59). Например, в методе Ньютона функцию разлагают в ряд в точке Х^'^ с использованием лишь линейного члена разложения. При этом (7.58) принимает вид
dh(Х.0)
(7.60)
Полагая, что
^ О, из (7.60) получаем (7.61)
Вычисленное таким образом значение X принимают в качестве нового значения итерационной процедуры, т.е.
= А,, и процесс вы-
числения повторяется. Так как в рассматриваемой задаче оценивания, например, в соответствии с (7.8), имеем /i(A,) = Э1п(р(Я,))/ЭХ,, а равенство нулю в (7.58) выполняется при X =
, то (7.61) принимает вид (х('))
din
п-1
дХ^ Таким образом, оценка максимального правдоподобия может быть выражена через некоторое опорное значение Я,оп рестности
лежащее в ок-
, по формуле -I
Э1п(р(А.„„))
дх
дХ'
которую можно представить в виде г-1
ЩрМ)
дХ
(7.62) дХ' 183
Устройство, выделяющее информацию о рассогласовании между оценкой параметра и его опорным значением, в радиоавтоматике принято называть дискриминатором. Определим дискриминатор выражением (7.63)
ъ-к и запишем (7.62) в виде
Из курса радиоавтоматики [3] известно, что при малых фиксированных рассогласованиях ДА, =
- А-рд среднее значение процесса на вы-
ходе дискриминатора определяется выражением М Ид = 5д (А-^п ) ДА.. Поэтому, усредняя (7.63), получаем 5Д(АОП)
= -М[Э21П(Р(А„„))/ЭА2" .
Но, как следует из (7.24), при А^п = А правая часть полученного выражения — это информация J по Фишеру. Следовательно, 5д (А) = Введем дискриминатор с нормированной характеристикой "д.н (^оп) = -
Щр{Кп))
ЭА
Э'1п(р(А„„)) ЭА2
(7.64)
который иногда называют оптимальным дискриминатором. Тогда оценка максимального правдоподобия (7.62 ) может записана в виде ^м=^оп+«д,н(>-оп)-
(7.65)
Формулы (7.64), (7.65) определяют сущность метода нахождения оценок параметров сигнала с помощью дискриминаторов. 7.8. Потенциальная точность оценок параметров сигнала Под потенциальной точностью оценок параметров радиосигнала понимают нижнюю границу Рао—Крамера (7.24) для дисперсии ошиб184
ки оценки неслучайного параметра, т.е. оценки максимального правдоподобия. Потенциальная точность характеризует тот предел точности оценивания, который может быть достигнут только в результате обра-
т ботки наблюдаемой реализации YQ , т.е. без учета априорной информации. Потенциальная точность оценки векторного параметра характеризуется корреляционной матрицей ошибок Кдот > обратно пропорциональной информационной матрице Фишера, элементы которой, согласно (7.26), вычисляются как среднее значение вторых производных от функции правдоподобия по оцениваемым параметрам. Учитывая сказанное, рассчитаем потенциальную точность оценок параметров сигналов для задач оценки параметров радиосигнала. Потенциальная точность оценки амплитуды радиоимпульса. Подставляя в общую формулу для отношения правдоподобия (4.15) выражение (7.50), описывающее радиоимпульс, запишем
In (р (>!))=
(7.58)
2 Т
Л. J I ) (/ - Тз) cos (ш/ -1- фо) - 0 , ( г - Тз )cos^ {ш + ф) ^0 0 Дифференцирование (7.58) дважды по А приводит к следующему выражению для потенциальной точности: -1
1
М
(7.59)
О
т где El = jS( {t)dt5,(г)
__No
= /(г-Хз)со5(ш/
+ Фо)-
о Формула (7.59) совпадает с выражением (7.52) для дисперсии ошибки оценки амплитуды радиоимпульса, полученной прямым расчетом для алгоритма оценивания (7.51). Потенциальная точность оценки начальной фазы радиоимпульса. Получим выражение для потенциальной точности оценки начальной фазы радиоимпульса (7.50). Дифференцируя (7.58) дважды по фо, получаем
185
- 1
Щэф --^ошфо
м Э21п{р(фо))/Эф^}
где £ = 0,5.4^1/^
=
2£
2q'
(7.60)
—энергия сигнала; q = EINQ —
отношение сигнал/шум. Из (7.60) следует, что потенциальная точность оценки начальной фазы определяется отношением энергии сигнала к спектральной плотности аддитивного шума и не зависит от формы сигнала. Потенциальная точность оценки задержки радиоимпульса по огибающей. Для расчета потенциальной точности оценки задержки радиоимпульса по огибающей необходимо (7.58) дважды продифференцировать по Хз. Прежде всего заметим, что последнее слагаемое в этом выражении представляет собой энергию сигнала. Если весь радиоимпульс находится в пределах интервала наблюдения [О, Г], то его энергия не зависит от временной задержки. Поэтому производная от этого слагаемого равна нулю. Следовательно, получаем м
Э2
1пр(гз)
ТА щ м о
^3
1Аа т Эх2
оо
dt.
(7.61)
где / ( г - Т з ) = /(г-Тз)со8((ог + (ро)Для проведения дальнейших вычислений в (7.61) запишем выражение (7.62)
о которое не зависит от Т3, если радиоимпульс находится внутри интервала наблюдения [0,Г]. Продифференцируем (7.62) два раза по х,
О
ЭХз
о
(,.63)
С учетом (7.61), (7.63) получаем следующее выражение для потенциальной точности оценки задержки радиоимпульса: 186
- 1
_ Щ
М
1
(7.64)
2
где
dt
= |
(7.65)
/ о
Формула (7.64) известна под название формулы Вудворда (впервые получившего ее) для дисперсии оценки задержки сигнала. Из (7.64) следует, что потенциальная точность оценки временного запаздывания, как и для предыдущих задач, обратно пропорциональна величине отношения сигнал/шум q . Рассмотрим смысл параметра Р. Введем комплексный спектр 5(jai) сигнала S{t)
о и воспользуемся известными соотношениями £ =
=±
о
5(г -Хз) =
J 50(0)2 d(o.
-Хз ) = ^
J 5(yco)ej'^'-^') Л .
Тогда (7.65) преобразуется к виду = J (0^ \S{j(af
dta j l
| 5 ( y a ) f rfto.
(7.66)
Из данного выражения следует, что Р — нормированный второй момент энергетического спектра сигнала, часто используемый в качестве меры ширины частотного спектра сигнала. С учетом этого, из (7.64) следует, что потенциальная точность оценки временного запаздывания огибающей радиоимпульса обратно пропорциональна квадрату ширины спектра сигнала. Потенциальная точность оценки задержки по фазе сигнала. Описание принятого радиоимпульса в виде (7.50) в принципе возможно, но является в определенной степени идеализацией. Если на передающей стороне излучен радиоимпульс 187
то на приемной стороне имеем 5(Г,А,) = 4/-(/-ТЗ)СО5(Ш(Г-ТЗ)+ФО), / е [ 0 , Г ] .
(7.67)
Из (7.67) видно, что задержка t j сигнала сказывается не только на задержке огибающей, но и на изменении фазы сигнала, т.е. Фо = = Фо - оЯз. Если выше решалась задача оценки задержки сигнала по огибающей при известной начальной фазе фо, то это было не вполне корректно, так как в этом случае фаза сигнала не являлась известкой, но есть СВ, которую, в принципе, можно считать неинформативным параметром. Но в этом случае надо решать задачу оценки информативного параметра при наличии неинформативного, т.е. использовать более сложную теорию, которая будет описана в следующих разделах. Рассмотрим теперь другую модельную ситуацию, когда ихтучается синусоидальный сигнал, т.е. / ( / ) = 1, а задержка сигнала оценивается по фазе принятого сигнала. Для корректности будем полагать, что неоднозначность измерения по фазе устранена, т.е. известно целое число периодов высокочастотного колебания, входящих в сох,. Как и выше, для расчета потенциальной точности оценивания рассчитаем
М
1пр(хз)
-2Ааг No
М |>'(/)со8(ш(/-Хз)+фо)л
Следовательно, потенциальная точность оценки задержки по фазе сигнала определяется выражением ^Чзф = АошТз
1
(7.68)
т.е. обратно пропорциональна отношению с/ш q и квадрату несущей частоты сигнала. Поскольку обычно ( о » Р , то точность оценки задержки по фазе сигнала существенно выше точности измерения по задержке огибающей. Физически это вполне понятно, так как при устраненной неоднозначности фазовых измерений точность определяется периодом несущей частоты сигнала. 188
Потенциальная точность оценки задержки радиоимпульса по огибающей и фазе сигнала. Наиболее точное решение задачи оценки задержки радиоимпульса получается, если информацию извлекать как из задержки огибающей, так и из фазы сигнала. Потенциальная точность оценивания в этом случае легко получается из полученных выше результатов и равна ^
(7.69)
Потенциальная точность оценки частоты сигнала. Частота сигнала, также как и его фаза, является неэнергетическим параметром. Поэтому при дифференцировании (7.50) по частоте последнее слагаемое можно не учитывать. Тогда для соответствующей производной получаем следующее выражение: М l i i •1"(р(/))
Nn
Э/-
М j (27U f y{t)Af{t-x,)
cos (со/ + фо (7.70)
о Введем параметр
(т
а = j{2ntys^{t)dt О
/ jS^{t)dt
1/2
(7.71)
/о
представляющий собой среднеквадратическую длительность сигнала. Тогда потенциальная точность оценки частоты опреде;мется выражением -1
М
Nn
1
(7.72)
Таким образом, потенциальная точность оценки частоты обратно пропорциональна отношению сигнал/шум и квадрату среднеквадратической длительности сигнала. Потенциальная точность совместной оценки частоты и задержки сигнала (по огибающей). Рассмотрим часто встречающийся на практике случай, когда совместно оцениваются запаздывание сигнала (по огибающей) и его частота (или, что эквивалентно, доплеровское смещение частоты при известной центральной частоте сигнала 189
/ ^ / о + Л ) - Согласно (7.27) рассчитаем информационную матрицу Фишера. Принимая во внимание определение (7.26), нетрудно увидеть, что J]i » а -^22 . Получим выражение для элементов матрицы Фишера Jl2 =^21
2 N,0
Э/дТз
(7.73) 0
Введем, по аналогии с (7.65), (7.71), параметр (7.74)
/ о Тогда выражение (7.73) может быть представлено в виде Jn=J2\=2q7t.
(7.75)
Определитель информационной матрицы Фишера равен Jnjll-jh
-Aq^(ftf
=4q^(aY
'(ftf
Элементы корреляционной матрицы ошибок совместных оценок временного запаздывания и частоты равны J 22
Дошт, -
D ош /
D
2 ~
а 2q
п 2 ( •^11-^22--^12 2q Jn
ОШХЗ/
J\\J22-J\1
2
2q
(7.76)
•—а
2^
/
ft a}f-[ft)
2
(7.77)
(7.78)
Из этих соотношений видно, что при ft = Q ошибки оценок некоррелированы ( D
i
= О). При этом (7.76) и (7.77) совпадают соответ-
О Ш ТзУ
ственно с (7.64) и (7.72), полученными при раздельных оценках задержки и частоты. При f t ^ O дисперсии ошибок возрастают. 190
При фиксированном отношении сигнал/шум точность оценок задержки и частоты можно повысить за счет увеличения эффективных ширины спектра Р и длительности а радиоимпульса. Однако эти величины не являются полностью независимыми. Известно, что при уменьшении длительности импульса ширина спектра увеличивается, и наоборот. Согласно этому, точность оценки частоты сигнала (или частотного сдвига) можно повысить, только понижая точность оценки временного запаздывания, и наоборот. Рассмотрим условия, при которых можно достигнуть максимальной точности оценки и временного запаздывания и частоты. Прежде всего необходимо обеспечить ft = Q. Далее, одновременный максимум точности оценки временного запаздывания и частоты соответствует минимуму произведения
Отсюда следует, что повьш1ения точности совместных оценок можно достигнуть при увеличении отношения сигнал/шум q или произведения а р , т.е. произведения эффективной длительности сигнала на эффекгивную ширину его спектра. Данную величину называют базой сигнала. Потенциальная точность оценки угловой координаты объекта фазовым методом. Рассмотрим задачу измерения угловой координаты излучающего объекта фаПлоская волна зовым методом. Схема измерения показана на рис. 7.7. Плоская волна падает под углом д относительно нормали к плоскости антенны, состоящей из двух элементов (Л)и Ai), расположенных на расстоянии d друг от друга. Пусть на элементе имеем сигнал
р^^^
^^^^^^^ фазового метода измерения угловой координаты объекта
5] (?)=^cos((0/ + (po).
(7.80)
Тогда сигнал на элементе А2 определяется как 191
2ndsm{-&y S2(/) = ^cos (О^ + Фо-
(7.81)
где X — длина волны, соответствующая несущей частоте сигнала. С учетом аддитивных гауссовских помех наблюдаемые реализации на входах антенных элементов имеют вид (t),
(7.82)
y2{t) = S2{t)+n2{t).
(7.83)
л(/) = 5,(0+«1
Шумы «1 (f) и «2 (/) полагаем независимыми с одинаковыми двусторонними спектральными плотностями NQ/2 . Будем решать задачу оценки угловой координаты по наблюдениям двух сигналов (7.82), (7.83). Потенциальная точность оценки угловой координаты, попрежнему, определяется общим выражением (7.57). Однако, в данной задаче имеем векторное наблюдение у ( ' ) = Ji (О У2 » поэтому необходимо воспользоваться формулой (4.18) для отнощения правдоподобия при векторных наблюдениях. Используя (4.18), запишем ']y,m{t)dt N. .0
+
о
]y2it)S2{t)dt-E
(7.84)
где Е = ^Tjl — энергия сигнала на каждом антенном элементе. Дифференцируя (7.84) два раза по д и усредняя полученный результат, получаем М
-А^ N,О
27tJcos(d)
X
= -2q
2TOfcos(i5)
Следовательно, потенциальная точность оценки угловой координаты фазовым методом равна %=^ошЬ
= 2q[2ndcos{b)/xf
'
Точность оценивания возрастает с ростом отношения d/X . Однако данное отношение ограничено необходимостью обеспечения однозначности фазовых измерений, т.е. должно выполняться условие d cos(^)/A, < 1. С возрастанием угла Ь точность оценивания убывает. 192
Потенциальная точность оценки угловой координаты объекта амплитудным моноимпульсным методом. При амплитудном моноимпульсном методе пеленгации используют две диаграммы направленности антенн, смещенные относительно некоторого равносигнального направления дц (рис. 7.8). При этом сигналы от источИсточншс ника излучения на входах соответствующих антенных элементом имеют вид 51 ) = ^ ^ (тЗ - )
Н + Фо ).
52 (О = ^ ^ ) c o s ( с о / + Фо), где F{x) — функция, описывающая симметричную относительно точки д: = О диаграмму направленности (по амплитуде) антенного элемента, например,
Рис. 7.8. Схема амплитудного метода измерения угловой координаты объекта
В задаче амплитудной пеленгации логарифм отношения правдоподобия (7.84) принимает вид ln(pW) =
jЛ Яп О
{t)dt + ]y2 (0^2 ( / ) Л - 0 , 5 £ , о
(д) (7.85)
где £ , ( д ) =
i
=
^
^
Дифференцируя (7.85) два раза по т^ и усредняя полученный результат, запишем М
2
-А'Т Щ
= -2q
4. 1 \
/
Эд
Эд
^
/
Эд
Следовательно, для потенциальной точности измерения угловой координаты амплитудным методом справедливо выражение 7—2041
193
г Di
=Dошд
ЬЬ
2g \
1 -I
л.
)
(7.86)
дЬ
\
}
Максимальная точность оценки угловой координаты получается, если излучатель находится на равносигнальном направлении t^q . При этом (7.86) принимает вид Чем больше значение производной 3F(x)/3j: диаграммы направленности в точке А" = Дй/2 , тем меньше ошибка оценки угловой координаты. Введем
разностную
=
диаграмму
направленности
=
которую представим в виде функции от аргу-
мента
=
— отклонение угловой координаты
излучателя от
равносигнального направления dg =
Ad/2).
(7.88)
Функция F^ (5d) называется neленгациотой характеристикой, типичный вид которой приведен на 6S рис. 7.9. Продифференцируем (7.88) по д Э^д(бд) Эд Рис. 7.9. Пеленгационная характеристика
_
(7.89)
Э5д
(51»+Ад/2) ЪЫ
ЪР
- At?/2) Э5д
При бг") = О формула (7.89) определяет крутизну 5j, пеленгационной характеристики 5п =
Э^д(д) Эд
5д = 0
= 2
ЬF{^ф) Эд
Следовательно, (7.87) можно записать в виде
194
т.е. потенциальная точность оценки угловой координаты моноимпульсным а.мплитудным методом обратно пропорциональна квадрату крутизны пеленгационной характеристики.
7.9. Оценка параметров сигнала по наблюдениям дискретной выборки Рассмотрим задачу оценки параметров сигнала, когда на интервале [О, Г] наблюдается выборка, состоящая из К равномерно отстоящих друг от друга (с шагом дискретизации Т^) отсчетов y{k)^S{k,%)
+ n{k),
к = \,К,
(7.90)
где 5(А:,Х) = 4/"(А:Г^-Тз)со8(а)А:Г^+<Ро); п{к) — ДБГШ с нулевым МО и дисперсией а ^ . Обозначим наблюдаемую выборку
А: =
как YQ , под-
черкивая в этой записи, как и раньше, принадлежность наблюдений заданному временному интервалу [0,7]. Учитывая, что все положения статистической теории решений (см. гл. 3) справедливы как для непрерывной, так и дискретной выборки наблюдений, можно утверждать, что структура оптимальных оценок при переходе от непрерывных наблюдений к дискретным не меняется. Поэтому байесовской оптимальной оценкой для квадратичной функции потерь (3.1) является оценка условного среднего (3.12). Оптимальной байесовской оценке при простой функции потерь (3.4) соответствует такое значение оцениваемого параметра (3.13), при котором апостериорная ПВ достигает максимального значения. Продолжая рассуждать аналогичным образом, легко увидеть, что все результаты предыдущих материалов, базирующиеся на операциях с ПВ р^р (X),
Yq^PI^q
|A,j, также остаются справедливыми. Отли-
чия возникают только при переходе к конкретной записи условной ПВ и связаны они с переходом от непрерывных наблюдений к дискретным. При непрерывных наблюдениях указанная ПВ определяется формулой (4.18), а в случае дискретных наблюдений (7.90) соответствующая ПВ вычисляется через аналогичную сумму отсчетов 195
(7.91) Согласно отличиям условной ГШ
в представлениях (4.18) и
(7.91), далее их можно формально учесть и в алгоритмах оптимального оценивания, приведенных в п. 7.2—1А. Необходимые изменения сводятся к замене спектральной плотности Nf^jl аддитивного шума на дисперсию а^flHCbqjeTHoro шума, интегрирования по времени \...dt —насуммирование
0
к
а текущего времени t — на дискретное время iTj. /=1 Так, в п. 7.3, при оценке параметра, принимающего конечное число дискретных значений, в схемах оптимальных устройств оценивания (см. рис. 7.1—7.3) вместо интеграторов следует использовать сумматоры. При оценке параметров, принимающих значения из непрерывной области, оптимальные байесовские оценки для простой функции потерь находятся из условия, аналогичного (7.4):
дХ
дХ af, /=1
где Ё{Х)
2ci
= 0,
(7.92)
Х=Х
(i,X) — суммарная мощность отсчетов сигнала на ин1=1
тервале наблюдения. Оценки максимального правдоподобия находятся из уравнения, аналогичного (7.92), но не содержащего первого слагаемого. Приведем в порядке иллюстрации конечные результаты решения задач оптимального оценивания амплитуды и начальной фазы, рассмотренных в п. 7.7.1. Оценка амплитуды радиоимпульса. Оценка максимального правдоподобия амплитуды сигнала определяется выражением
Ч
196
/=1
где 5|(/) = /(/Г-Хз)со8(со«Т^+Фо) -
— нормированная сигнальная
2
функция; £"1 = X S{ (/) . /=1
Оценка начальной фазы радиоимпульса. Для оценки максимального правдоподобия начальной фазы сигнала имеем
(Ро =-arctg
/=1
-Тз)со8(амТ^) (=1 Аналогично решаются и другие задачи оценки параметров сигнала.
7.10. Оценка информативных параметров сигнала при наличии случайных неинформативных параметров Рассмотрим более общую задачу, когда сигнал кроме информативных параметров X, подлежащих оценке, содержит случайные неинформативные параметры ц.. В качестве неинформативных параметров, чаще всего, выступают начальная фаза фо и/или амплитуда а сигнала, т.е.
Полагаем, что заданы априорные ГШ р^р (ц). в частности, распределение начальной фазы — равномерное, а амплитуды — рэлеевское (1.9). Будем искать решение в форме оценок максимального правдоподобия. Общий подход, по-прежнему, основан на рассмотрении уравнения правдоподобия (7.8), в котором отношение правдоподобия р (А,) должно быть определено для рассматриваемой задачи, т.е. для наблюдения сигнала, содержащего неинформативные параметры. Аналогичная задача рассматривалась в п. 4.3.2, поэтому воспользуемся полученными там результатами. 7.10.1. Оценка параметров сигнала со случайной начальной фазой Усредненное по фазе сигнала отношение правдоподобия определяется формулой (4.39) 197
exp
аа
ко
Х{Т)
N.
(7.94)
где
Xc{t) = ly{x)A{x)cos{(OQZ
+ (p{x))dx,
о (/) = }7(T)^(x)sin(
о
а =
о
Оценка амплитуды радиоимпульса со случайной начальной фазой. Дифференцируя (7.94) по а и учитывая, что для радиоимпульса а = х„ , а 3/o(a:)/3x = / i ( x ) , где /i(jc) — функция Бесселя 1-го порядка от мнимого аргумента, из уравнения правдоподобия (7.8) получаем ^
_1,{2а^Х{Т)/Щ)
2Х{Т)
1о{2й,Х{Т)/Щ)
(7.95)
Хн
На рис. 7.10 приведена зависимость первого сомножителя в (7.95) от аргумента, откуда следует, что при ; с » 1 (т.е. 1аХ{Т)1Щ»\) справедливо приближенное равенство Следовательно, при больших отношения сигнал/шум оценка амплитуды радиоимпульса со случайной начальной фазой пропорциональна значению отсчета огибающей в момент времени Т на выходе квадратурного приемника (рис. 4.9).
Рис. 7.10. Зависимость функции / l ( x ) / / o ( j t ) от аргумента х
Потенциальная точность оценки амплитуды определяется общим выражением - 1
М 198
которое при большом отношении с/ш принимает вид (7.96) Сравнивая (7.96) с (7.59), видим, что при большом отношении с/ш точность оценки амплитуды сигнала со случайной начальной фазой и сигнала с известной фазой совпадают. Иная ситуация имеет место при малых отношениях сигнал шум, когда точность оценки амплитуды сигнала со случайной фазой становится заметно хуже точности оценки сигнала с известной фазой. Оценка задержки сигнала со случайной начальной фазой. Рассмотрим задачу оценки задержки огибающей сигнала вида 5
= оЛ (f - Хз )cos (соо/ + Фо),
(7.97)
где а — известная амплитуда; <Ро — случайная начальная фаза; A(t) — огибающая сигнала; Xj — оцениваемая задержка сигнала. Отношение правдоподобия в рассматриваемой задаче, по-прежнему, определяется формулой (7.94), в которой огибающая сигнала определяется следующими соотношениями =
(7.98)
I ^ с ('.Тз ) = | у ( т ) Л(х-хз)с08((0ох + ф(х))^х , о t ^s (/.Хз ) = |>'(х)^(х-хз)8т(соох + ф(х))^/х.
о
Так как в (7.94) от оцениваемого параметра Х3 зависит только огибающая сигнала (7.98), то уравнение правдоподобия конкретизируется в виде дХ{Т) ах.3
. =0. Т —"
(7.99)
Дифференцируя (7.98) по Х3 и приравнивая числитель полученного выражения нулю, приходим к следующим соотношениям: ^С (Т-.Хз
(ГДз
= О;
(7.100) 199
(,
dZj сЛз
Q
Лз
Как и в задаче оценки задержки детерминированного сигнала, решение уравнения (7.100) должно проводится в режиме поиска решения Тз, при котором оно выполняется. Схема, реализующая устройство обработки наблюдаемой реализации >*(/), приведена на рис. 7.11. Иг-Тз)/5 /
cos{(ot)
А!)
3L
X
L
Г f
J
ГН
Симафнхшщн
переходя ^fpfi О
sin(o>/) Та4(г-тз)/ат, Рис. 7.11. Схема устройства оценки задержки сигнала со случайной фазой
В схеме присутствуют два квадратурных канала, характерных при приеме сигнала со случайной фазой. В каждом из квадратурных каналов есть ветвь свертка наблюдаемой реализации с опорным сигналом Эу4(/-Тз)/дТз , равным производной огибающей по задержке. Данная ветвь позволяет выявить отличия оценки задержки сигнала от истинного значения задержки в каждом из квадратурных каналов. В процессе перестройки Tj ищется такое ее значение, при котором сигнал на выходе устройства принимает нулевое значение. 7.10.2. Оценка параметров сигнала со случайными амплитудой и начальной фазой Усредненное по амплитуде и фазе отношение правдоподобия определяется выражением (4.51) 200
1
РК) =\ + Е1Щ ехр
(7.101)
Ща{\ + Е1Щ)
где Ё = М[Е\ = ах^а — средняя энергия сигнала; X{t) — огибающая сигнала на выходе оптимального квадратурного приемника, описываемая формулами (7.98). Из приведенной формулы видно, что если оценивается неэнергетический параметр сигнала, например, задержка, то уравнение правдоподобия приводится к виду, совпадающему с (7.99), т.е. фактически анализируется огибающая Х{Т). Таким образом структура оптимального устройства оценивания совпадает с приведенной на рис. 7.10. Однако точность оценивания получается иной. Так как формулы для отношения правдоподобия (7.94) и (7.101) по-разному зависят от отношения с/ш q, то при вычислении потенциальной точности по формуле (4.24) получаются разные результаты.
7.11. Оценка параметров сигнала, наблюдаемого на фоне коррелированного шума Прием сигнала на фоне коррелированного шума приводит к изменению структуры отношения правдоподобия, которое в этом случае согласно (4.29) определяется как
тт 00
dtxdt2 \
При этом уравнение правдоподобия принимает вид ТТ
jiS{ti,X)R-'{t„t2) дХ 0 0
1 yit2)--S{t2,X)
= 1{t,,t2){y{t2)-S{t2,X))dt,dt2
Л1Л2 = =О .
(7.102)
00
Введем импульсную характеристику
(7.103)
о которая удовлетворяет уравнению Фредгольма 1-го рода (4.34)
201
=
(7.104)
о Дифференцируя (7.103) по X, и подставляя результат в (7.102), получаем (7.105)
= 0.
Уравнение (7.105) по структуре аналогично уравнению (7.49). Однако вместо производной сигнала по оцениваемому параметру используется производная функции Т|(гД) (7.103) по тому же параметру. Основная трудность в получении оценок параметров на основе уравнения (7.105) является нахождение функции Т1(/Д) в результате решения уравнения Фредгольма (4.34). Ряд примеров таких функций приведен в [5]. В частности, для гауссовского шума с экспоненциальной функцией корреляции =
(7.106)
имеем (7.107) az Рассматривая в качестве оцениваемого параметра амплитуду сигнала, т.е. Х = а, для радиоимпульса (7.50), формула (7.107) принимает вид 1+
0)
(г - Тз )cos (шг + фо ) .
(7.108)
/
Подставив (7.108) в (7.105) и выполнив необходимые преобразования, получаем алгоритм оптимального оценивания амплитуды сигнала 2 ^ а = — ]>'(/)^(/-Тз)со8((0?+фо)Л.
"^и о Данный алгоритм совпадает с (7.51), полученным для оценки амплитуда сигнала, наблюдаемого на фоне белого шума, если, как и ранее, обозначить 51(г) = у4(/-Хз)со8((о/ + Фо), £"1 =
. Аналогично О
202
можно показать, что алгоритм оценки начальной фазы сигнала (7.50) также не меняется в случае наблюдения сигнала на фоне шума с корреляционной функцией (7.106) и определяется выражением (7.54).
Контрольные вопросы к главе 7 1.
При использовании метода максимального правдоподобия для оценивания параметра Я, детерминированной или случайной величиной является данный параметр? 2. Что такое нижняя граница Рао—Крамера в теории оценок максимального правдоподобия и как она определяется? 3. Что такое потенциальная точность оценок параметров сигнала? 4. Как зависит потенциальная точность оценок параметров сигнал от отношения сигнал/шум? 5. В чем достоинство оценок максимального правдоподобия? 6. Какие оценки называются эффективными? 7. Что такое неэнергетический параметр сигнала и как свойство «неэнергетического параметра» используется при получении оценок максимального правдоподобия? 8. Чем байесовские оценки параметров сигнала отличаются от оценок максимального правдоподобия? 9. Что такое уравнение правдоподобия и какова его роль в теории оценок параметров сигнала? 10. Можно ли рассчитать и как потенциальную точность оценок информативных параметров сигнала при наличии неинформативных случайных параметров?
203
Г л а в а
8
РАЗРЕШЕНИЕ СИГНАЛОВ
Многие РТС работают в условиях, когда на входе приемника присутствуют несколько сигналов, и в этих условиях он должен решать возложенные на него задачи. Типичным примером этого являются радиолокационные системы (РЛС), работающие в условиях многоцелевой обстановки. Возможность раздельного наблюдения близко расположенных целей и раздельного измерения параметров каждой цели называют разрешающей способностью РЛС. Так как измерение параметров цели связано с измерение тех или иных параметров принимаемого сигнала, а от каждой цели приходит свой сигнал, то можно говорить о разрешении сигналов, под которым понимают возможность раздельного наблюдения и измерения параметров сигналов. Говоря о разрешении сигналов, всегда имеется в виду разрешение по тем или иным параметрам сигнала. Если сигналы приходят с разных направлений, то говорят о разрешении сигналов по направлению. Если сигналы имеют разную задержку, то говорят о разрешении сигналов по задержке (или по дальности в РЛС) и т.д. В статистической теории РТС под измерением параметров сигнала понимают их оценивание. При этом сформулированную выше задачу разрешения сигналов можно расширить, включив в нее параметр обнаружения О (см. гл. 4). Такую задачу часто называют «разрешение— обнаружение», для подчеркивания ее отличия от задачи «разрешение— измерение», когда разрешение проводят по параметрам самих принимаемых сигналов.
8.1. «Разрешение—обнаружение» сигналов Задача «разрешение—обнаружение», по сути, является задачей обнаружения сигнала 5] (/) на фоне мешающих сигналов Sj{t), i = 2,m и аддитивного шума n{t). Рассмотрим, например, задачу с двумя сигналами, которую сформулируем следующим образом. На интервале [0,Г] наблюдается реализация
где S] (/), $2 (t) — известные сигналы; n{t) — БГШ с нулевым МО и двусторонней спектральной плотностью NQ/I', — случайный пара204
метр, принимающий значения О с априорной вероятностью Р„р (0) или IcP^pO). Ставится задача оценки параметра д , т.е. принятия решения о том, присутствует или нет сигаал (г) в наблюдаемой реализации. Отметим, что в данной постановке полагается, что при отсутствии сигнала S] (/) наблюдения y{t), тем не менее, содержат сигнал S2 {t). Как и в гл. 2, имеем двухальтернативную задачу обнаружения, поэтому общее решение дается выражениями (4.3), (4.4), т.е. прир(Уо^)>А, «О
Ь = 0,
прир(7о^)<А,
где h = Р^р {0)jPap (1) — порог обнаружения;
рК Ь-ТТ
V
условные плотности вероятности
=
и
=
опреде-
ляются выражениями р(Уо^|т? = 1) = Лехр Оо
(8.2) />(УоПд = о) = Л е х р ] - — / 5 2 (/)(j'(/)-0,552 (0)^/ оо Подставив (8.2) в (8.1) и выполнив необходимые преобразования, получим Т
P(YJ)=CXP
т 7-
JS, ( / ) ( j . ( 0 - 0 , 5 5 , ( / ) ) Л / 5 , (0^2 {t)dt N00 О о
. (8.3)
Сравнение (8.3) с формулой (4.15), полученной для задачи обнаружения сигнала на фоне только БГШ, показывает, что они отличаются вторым слагаемым, стоящим под знаком экспоненты. Данное слагаемое определяег взаимную корреляцию двух сигналов (юаимную энергию 205
г £•[2 =
Если сигналы не коррелированны, то оно не О
влияет на процедуру и характеристики обнаружения. Для коррелированных сигналов характеристики обнаружения изменяются. Переходя от сравнения отношения правдоподобия (8.3) с порогом к сравнению соответствующих логарифмов, запишем Що
No
+
^'
щ
(8.4)
Из (8.4) видно, что структура обнаружителя сигнала не изменилась. Изменилось лишь значение порога обнаружения, и это изменение тем больше, чем больше корреляция между сигналами. Рассмотренную выше задачу «разрешения—обнаружения» можно расширить, введя дополнительные альтернативы. Например, можно рассмотреть следующие возможные альтернативы: n{t),
д = 0;
5,(0+и(/),
1^ = 1;
5,(/) + 5 2 ( 0 + П(/), 1^ = 3. При этом возникает необходимость оценивать четыре значения случайного параметра 6 , что приводит к многоканальной схеме оптимального устройства оценивания, как это имело место, например, в задаче различения т сигналов (см. п. 6.3).
8.2. «Разрешение—измерение» сигналов Рассмотрим теперь задачу разрешения сигналов по параметрам. В соответствии с принятым выше определением необходимо рассмотреть задачу оценки параметров X, сигнала, наблюдаемого на фоне аддитивного шума n{t) и мешающего сигнала, который имеет ту же структуру S(/,X,'), но иное значение оцениваемого параметра. Таким образом, имеем наблюдение y ( 0 = 5(/,>.)+S(r,A.')+«(0. t^[0,T].
(8.5)
В гл. 7 показано, что для отыскания оценок параметров сигнала часто используют функцию правдоподобия или нормированное ее значение. Нормировка при этом возможна на любую функцию, не зависящую 206
от оцениваемых параметров. Воспользуемся такой же нормировкой, что и в п. 8.1. Введем функцию
t
о
о
. (8.6)
Так же как и в задаче «разрешение—обнаружение», формула (8.6) отличается от аналогачного выражения (7.46) в задаче оценки параметров сигнала, наблюдаемого только на фоне БГШ, вторым слагаемым, стоящим под знаком экспоненты. Данное слагаемое определяет взаимную корреляцию сигнала и его копии, смещенной по оцениваемым параметрам, т.е. г
\\i{X,X') = iS{t,X)S{tX)dt.
(8
О
Таким образом, функция
определяет характеристики ре-
шения задачи «разрешение—измерения», а точнее, их отличие от обычной задачи «измерения» параметров сигналов, т.е. их оценки при наблюдении сигнала лишь на фоне БГШ. Поэтому эта функция может быть принята как мера разрешающей способности сигналов по параметрам. Обычно для сигналов с конечной энергией используют нормированную функцию 1
(8.8)
^о где Е = jS^
— энергия сигнала.
Функцию \|/(А,,А,'), определенную в соответствии с (8.8), называют функцией неопределенности сигнала S{t,X) по параметру
"к.
Для узкополосных радиосигналов, когда допустимо описание в форме комплексных амплитуд
S{t,X),
функция неопределенности мо-
жет быть представлена в виде 1
jS{t,X)S*{tX)dt
(8.9) 207
Перейдем от рассмотрения отношения правдоподобия (8.6) к его логарифму, т.е. рассмотрим функцию
т
т
о
Q
u{T) = ^\S{t,^y{t)-Q,SS{t,X))dt-^\S{a)S{tX)dt.
(8.11)
Фиксируем значения параметров X, и А,'. В гл. 4 введено понятие оптимального приемника, реализующего корреляционную обработку наблюдаемой реализации >»(?) и опорного сигнала 5(f) (4.22), т.е.
•^0 О
или с использованием импульсной характеристики ^ ( г - т ) = 5('г) =
(8.11)
Подставляя (8.5) в (8.11), запишем выражение для среднего значения процесса на выходе оптимального приемника Л^Кп (0] =
^0 0
=
о ^0 0
= ^}5(t,X)5(T.X)rfx+-^JS(T,A.)5(T,X>. ^0 0 ^0 0
(8.12)
Из (8.12) видно, что отклик на выходе согласованного с сигналом 5 (г, X) фильтра (согласованного приемника) при поступлении на его вход двух сигналов отличается от аналогичного отклика при поступлении на вход приемника одного сигнала таким же слагаемым, что (8.6). Следовательно, корреляционный интеграл (8.7) определяет также и характеристики оптимального корреляционного приемника при наличии на его входе двух сигналов. еще раз подтверждает возможность использования функции (8.8) в качестве меры разрешающей способности сигналов. Количественно разрешающую способность определяют по каждой компоненте X, (при всех остальных значениях bXj = О,J ^i) как значе208
ние ДА,-, соответствующее сечению функции неопределенности горизонтальной плоскостью на уровне 0,5.
8.3. Функция неопределенности сигнала по задержке и частоте Функция неопределенности сигнала была впервые введена Вудвордом для временных сигналов в радиолокации. В качестве оцениваемых параметров сигнала рассматриваются задержка и доплеровское смещение частоты Уд. Для узкополосного сигнала Тз'/д) = ^
- Тз )cos ((шо + (Од )f-I-ф(/- Тз))
и его смещенной по параметрам т, и
копии
5(г.т,+5Тз,/д+5/д) =
= A(t-Xj
- § т з ) с 0 5 ( ( ( 0 о +{0д +6й)д)/ + (р(г-Тз - 6 X 3 ) )
введем комплексные амплитуды
Тогда, учитывая определение (8.9), функцию неопределенности по задержке и частоте (доплеровскому смещению частоты) запищем в виде (8.13)
где Е = ^ j s ( o r ( r ) c / f Функция неопределенности (8.13) обладает следующими свойствами: наибольшее значение функция неопределенности принимает при = 1;
(8.14)
объем тела неопределенности
(8X3,^д) не зависит от вида сиг-
6 X 3 = 0 ,
5 / д = 0 ,
\|/{0,0)
нала и равен 209
(8.15) Соотношение (8.15) является наиболее общей формулировкой принципа неопределенности, согласно которому никакие виды модуляции не могут изменить объема тела неопределенности. При разных видах модуляции радиосигнала функция неопределенности может деформироваться, однако при этом должны оставаться в силе равенства (8.14) и (8.15). Поэтому, если сжать функцию неопределенности по оси т^, она расширяется по оси Д , и наоборот, при сжатии ее по оси получаем расширение по оси т^. Если требуется получить узкий пик в начале координат, то весь остальной объем функции неопределенности должен быть распределен в плоскости t j и /д в тонком слое на большой площади или в виде серии пиков. Наличие последних означает возникновение неоднозначности оценки задержи и доплеровского смещения частоты. При решении вопроса о выборе формы сигнала необходимо учитывать следующие требования: получение высокой точности измерения параметров Х3 и / д ; отсутствие (по возможности) неоднозначности оценки; обеспечение высокой разрешающей способности. Рассмотрим вопрос о связи функции неопределенности и точности оценки параметров Тз и У],. В п. 7.8 бьию показано, что потенциальная точность совместной оценки задержки сигнала по огибающей равна м а частоты —
Э2 1пр(Хз,/д) где Tj и
берутся в точках истинных значений данных параметров.
Рассмотрим Л/ Дифференцируя (8.8) два раза по Тз, получаем 210
(8.16)
asrt
5Тз=0,8/д=0
Сопоставляя (8.16) и (8.17), видим, что они с точностью до константы Е совпадают. Но вторая производная функции неопределенности характеризует ширину ее главного пика по соответствующему параметру: чем больше значение модуля производной, тем уже пик. Следовательно, ширина главного пика функции неопределенности по параметрам Тз и /д пропорциональна потенциальной точности измерения данных параметров. Разрешающая способность по t j и определяется как значения отклонений б^з, б/'д, при которых значение функции неопределенности равно 0,5 в сечениях по соответствующим осям. Прямоугольный радиоимпульс. В качестве примера рассмотрим прямоугольный радиоимпульс 5(г,Х) = 4А(?-Тз)со5(((о+а)д) f + Фо), f e [ 0 , r ] , /(0=
1,
при
О,
при / < 0 ,
Комплексная амплитуда сигнала равна S(/,X)= Тогда (8.13) принимает вид ,-JK' Л 8ш(718/д ( т „ - | 5 1 : , | ) ) / з й / д Т „ | ,
|5т,| < х„;
О,
|5Тз|>х„.
Сечения функции неопределенности \|/(бХз,6/д) в двух плоскостях определяются выражениями ^^
''
[О,
|бтз|>т„;
У (О' 5/д) = |sin (тсбУдХи)/ii5/,t„ и приведены на рис. 8.1 и 8.2.
211
'
Рис. 8.1. Сечение функции неопределенности плоскостью ^ д = О
2/т, •
Рис. 8.2. Сечение функции неопределеннос1и плоскостью бт, = О
Сечение функции неопределенности на уровне 0,5 горизонтальной плоскостью дают значения разрешающей способности Атз=т„, Д/д=1,2/т„.
(8.18)
Из (8.18) следует, что при уменьшении длительности импульса t„ разрешающая способность по задержке увеличивается, а по частоте — уменьшается, и наоборот. Это наглядно можно проиллюстрировать графиками функции неопределенности в сечении горизонтальной плоскостью на уровне 0,5 (рис. 8.3).
Рнс. 8 3 . Сечения функции неопределенностью горизонтальной плоскостью на уровне 0,5: а — для «длинного» радиоимпульса; б — д л я «короткого» радиоимпульса
212
Отметим, что два сигнала не могут быть разрешены, если значения разности времен запаздывания и частот между ними лежат внутри заштрихованной области. Радиоимпульс с линейной частотной модуляцией. Как показано в п. 7.8, для увеличения потенциальной точности совместной оценки задержки и частоты сигнала используют сигналы с большой базой, для которых произведение ширины спектра сигнала А/",, на его длительность A7J, много больше единицы: (8.19)
5 = Д/"сД7'с » 1 .
Величину В называют базой сигнала. Сигналы с В = 1 называются простыми, а сигналы, для которых выполняется условие (8.19), — сложными. Сложные сигналы получаются в результате дополнительной модуляции сигнала. Одним из типов сложных сигналов является импульсный сигнал с дополнительной частотной модуляцией. Рассмотрим случай линейной частотной модуляции (ЛЧМ), для которой / ( / ) = /о-н4Г„/Л„,
(8.20)
где /о — начальное значение частоты; — девиация частоты. При линейном законе изменения частоты (8.20) его фаза изменяется по квадратичному закону:
Следовательно, комплексная амплитуда для ЛЧМ-импульса
=
(8.21)
Подставляя (8.21) в (8.13) и выполняя интегрирование, получаем sin(ji(8/^ +Дг„5хз/х„)(т„ -|8Тз|)) ¥{8Хз,5/Д) =
0,
5тз|<т„; ;5тз|>т„.
В сечениях 8/д = О и Stj = О функция неопределенности описывается выражениями 213
8т(71(А/-„5Тз/Тн)(т„-|5Тз|))
бТз <т„;
У(5тз,0) = О,
5Хз|>'Ги;
8т(л8/дТ„) ¥(0,8/д) =
Зависимость функции неопределенности
\|/(0,^д)
в сечении
5Хз = О не изменилась и имеет вид, приведенный на рис. 8.2. График функции неопределенности в сечении \|/(6Тз,0) приведен на рис. 8.4, откуда видно, что для ЛЧМимпульса разрешающая способность по задержке определяется величиной девиации частоты , а не длительностью импульса. На рис. 8.5 приведен® горизонРис. 8.4. Сечение функции неопретальное сечение функции неопредеделенности плоскостью 5/], = О ленности ЛЧМ-импульса на уровне 0,5. Как видно из рисунка, дополнительная частотная модуляция приводит к повороту главного лепестка функции неопределенности, что вызывает уменьшение ширины пика в сечении ^ д = О.
>51,
Рис. 8.5. Горизонтальное сечение функции неопределенности ЛЧМ-импулъса на уровне 0,5
214
При прохождении ЛЧМ-импульса через оптимальный приемник (сглаживающий фильтр) на выходе получается «сжатый импульс». Если определить длительность выходного отклика по уровню 0,5 от максимального значения отклика, то можно показать, что она равна Введем коэффициент сжатия ^сж -
АТвых
1.2
Теперь разрешающую способность по задержке можно представить в виде ДХз=1,2/ДГм=х„Дсж-
(8.22)
Сопоставляя (8.22) с (8.18), видим, что разрешающая способность у импульсного сигнала с ЛЧМ в К ^ выше, чем у обычного импульсного сигнала. Разрешающая способность по частоте у обоих сигналов одинакова и обратно пропорциональна длительности импульса.
Контрольные вопросы к главе 8 1. Что понимается под разрешением сигналов? 2. Что понимается под «разрешением—обнаружением», «разрешением— измерением»? 3. Что такое функция неопределенности сигнала и какова ее роль? 4. Какими свойствами обладает функщ1я неопределенности сигнала? 5. От чего зависят характеристики разрешения сигналов? 6. Какие сигналы называются сложными и почему? 7. Как связана функция неопределенности сигнала с потенциальной точностью измерения его параметров?
215
Глава
9
ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ
Выше рассматривались задачи статистической теории радиосистем, в которых оцениваемые параметры не меняются за время наблюдения. Если они меняются, то имеем задачу оценивания случайных процессов. В отличие от задачи оценивания постоянных параметров сигнала, когда оценка формируется в конце заданного интервала времени Г , в задачах оценивания случайных процессов возможны различные комбинации между текущим моментом времени, т.е. тем моментом, когда проведено последнее наблюдение, и моментом, для которого формируется оценка процесса. В соответствии с этим различают следующие задачи и типы оценок; если оценка ^(г) процесса
формируется для того же момента
времени t , для которого получено последнее наблюдение, то говорят о задаче фильтрации, а соответствующие оценки называют фильтрационными',
если формируется оценка ^ ( t + i ) при наблюдениях y ( v ) , v e [ 0 , ? ] , то при т > О задача оценивания называется экстраполяцией, а соответствующая оценка называется экстраполированной', если в описанной выше задаче полагается т < 0 , то такая задача оценивания называется интерполяцией, а оценки — интерполяционными. Наиболее часто встречаются задачи фильтрации случайных процессов. При этом можно ставить и решать задачу фильтрации как самого сигнала S{t), т.е. полагать = так и задачу фильтрации информационного процесса, т.е. принимать = Первая постановка более характерна для задачи обнаружения сигнала при его описании случайным процессом [7]. Вторая — для задачи извлечения информации из детерминированного или квазидетерминированного сигнала, т.е. по сути, для оценки меняющихся во времени параметров сигнала. Круг задач, связанных фильтрацией случайных информационных процессов более широк и разнообразен для практических приложений, поэтому сформулируем постановку данной задачи более подробно. Пусть на интервале времени [О,/] наблюдается реализация 216
>'(0 = 5 { / Д ( 0 ) + « ( 0 . где S[t,X{t))—сигнал,
(9.1)
несущий информационный процесс Х,(/); л(г)
— помеха. Используя наблюдения (9.1) и априорную информацию о статистических характеристиках процессов
и л(f), необходимо сформиро-
вать оценку наилучшую в том или ином смысле. Заметим, что в сформулированную постановку вписываются и задачи оценивания постоянных параметров сигнала. При этом формировать фильтрационную оценку можно в каждый текущий момент времени t , а потребителю выдавать искомую оценку лишь в конечный момент г = Г . Поэтому можно говорить, что задача фильтрации случайных процессов является более общей по сравнению со всеми описанными ранее задачами. В дальнейшем, в основном, будет рассматриваться задача фильтрации, когда помеха в (9.1) является БГШ с нулевым МО и двусторонней спектральной плотностью NQ/2. Обобщения на случай коррелированных и негауссовских помех будут даны ниже. Априорная информация о фильтруемом процессе может задаваться в разной форме (см. гл. 1): в виде многомерных плотностей вероятности или дифференциальных уравнений с заданными начальными условиями. При использовании второго описания наиболее часто используют представление X{l) в виде компоненты многомерного марковского процесса, т.е. полагают X(f) = cx(/), где х(/) — «-мерный вектор, изменение во времени которого описывается дифференциальным уравнением 1-го порядка, например, линейным: ^
at
где r ^ ( t ) =
=
=
(9-2)
— ш-мерный вектор БГШ с корреляционной матрицей s^/25(x).
Наиболее полные и интересные результаты в теории фильтрации получены при описании сообщений марковскими процессами (см. п. 1.8). Поэтому в дальнейшем будет рассматриваться именно это направление общей теории фильтрации. 217
в каждый фиксированный момент времени t значение случайного процесса х(г) является векторной случайной величиной, которая описывается ПВ
В п. 1.8.3 показано, что для марковского процесса
(9.2) эволюция ПВ p{iL,t) во времени описывается уравнением Фоккера—^Планка—Колмогорова (1.79). Плотность вероятности p{x,t)
назы-
вают априорной, так как она описывает априорные статистические сведения о процессе х (;). После того как проведены какие-либо наблюдения
, связанные с процессом х(г), статистические сведения о дан-
ном процессе изменились, и они уже содержатся в апостериорной ПВ (АПВ) р [х Уд j . Естественно ожидать, что АПВ, также как и априорная ПВ, описывается некоторым дифференциальным уравнением. Если такое уравнение получим, то будем располагать всей имеющейся статистической информацией процессе х(г) при заданных наблюдениях YQ , на основе которой далее можно искать те или иные оптимальные оценки этого процесса.
9.1. Уравнение для апостериорной плотности вероятности непрерывных процессов Рассмотрим для простоты задачу фильтрации скалярного непрерывного марковского процесса X{t)-x{t), полагая, что наблюдается аддитивная смесь сигнала и БГШ Введем в рассмотрение совместную ПВ и, используя правило умножения вероятностей, представим ее в виде
где р
YQ j — АЛВ, которую для дальнейшего использования удобно
записать в виде
Jq j , подчеркивающим ее явную зависимость от
времени. Пусть на интервале времени проведено дополнительное наблюдение реализации y{t). 218
Введем приращение 6У =
и рассмот-
рим приращение ^^ps апостериорной ПВ, обусловленное приращениями 5/ и bY:
+
^Papsa "^^PapsH • Здесь ^Papsa — приращение АПВ, обусловленное изменением сообщения (динамики) за время 8/, а
— приращение АПВ, обуслов-
ленное приращением наблюдений 5 7 . При 6f-»0 приращение bp^psj^ ПВ марковского процесса X{t) описывается уравнением Фоккера—^Планка—^Колмогорова (1.75), которое можно представить в обобщенном виде
'^Paps д = [Paps '
)).
где /.(*) — дифференциальный оператор Фоккера—^Планка—^Колмогорова (1.75). Можно показать [9, 13], что при 6?
О приращение АПВ bp^psn
описывается соотношением Ф,apsH (9.3) Таким образом, изменение АПВ описывается интегро-дифференциальным уравнением ф(х,/|Уо')
dt
=L (9.4)
219
с начальным условием /7(А-,0|о) = Рд^ (А,), где Рар{^)—априорная ПВ распределения X в момент времени / = О. Первое слагаемое в правой части (9.4) ведет к расширению апостериорного распределения, обусловленному изменением марковского процесса а второе слагаемое — к его сужению, что вызвано накоплением сведений о фильтруемом процессе в результате наблюдения реализации y{t). Уравнение (9.4) впервые получено русским математиком Р. Л. Стратоновичем, поэтому в отечественной литературе оно часто называется уравнением Стратонавта. Для векторного процесса х ( ; ) , например (9.2), и векторных наблюдений y ( 0 = S(X,0+n{0,
X{t) = cx{t), M [ n ( / ) n ^ ( / + T)] = N„/28(T)
уравнение Стратоновича имеет вид •=L
dt
L
I (9.5)
с начальным условием /7(х,0|0) = р^р (х) и F ( x , / ) = S^ (cx,/)2N;;' {y(/)-0,5S(cx,f)). Уравнение (9.5) описывает эволюцию во времени АПВ и будет использовано в последующих материалах книги для синтеза алгоритмов оптимальной фильтрации. Здесь же рассмотрим один частный случай, когда фильтруемые параметры не меняются за время наблюдения, т.е. dx/dt = 0. В этом случае оператор Фоккера—^Планка—^Колмогорова L ( * ) s O и уравнение (9.5) принимает вид
dt Представим данное уравнение в эквивалентном виде
220
из которого следует очевидное решение t = Фар (з^)ехр lF{x,t)dt (9.6) где Рдр (х) —априорная ПВ оцениваемых параметров. В (9.6) экспоненциальный сомножитель — это отношение правдоподобия р(х) (4.17). Таким образом, приходим к известному результату, который заключается в том, что апостериорная ПВ может быть представлена (с точностью до константы) в виде произведения априорной ПВ Papi^) на отношение правдоподобия р(х). Положим, что в качестве постоянного оцен1шаемого параметра выбрана задержка сигнала, который в общем виде может быть записан как 5 ( М з ) = a/f
- Тз )cos (шо ( / - Хз)),
т.е. рассматривается задача оценки задержки сигнала, входящей в его огибающую A(t) и фазу. Полагая, что задержка сигнала не влияет на его энергию, уравнение (9.6) в рассматриваемом случае могут быть записаны в виде 2 jy{t)aA{t-x,)cos{(Oo{t-x,))dt N,0 0
. (9.7)
Используя известное представление c o s ( a - P ) = cos(a)cos(P)+ +sin(a)sin(P), преобразуем (9.7) к виду
'2а -(cos (а^Тз N,
)+cos ((ОоХз
(Мз)) ,(9.8)
221
где ) = Ь ( О ^ ( ' - "Сз )cos ( с о о ? , 0 1 Xsit,^,)^ ly{t)A{t-x^)sm{o^t)dt
о
—
квадратурные
=
составляющие
огибающей
X(t,Xj) =
(t,Х3) на выходе согласованного фильтра. Так как щх^ определяет составляющую фазы сигнала, то, по ана-
логии с (7.54), определим оценку этой фазы соотношением Ф = О'о'^з (') = arctg
(/, Тз )/Х, (/, Тз).
Тогда (9.8) можно записать в виде Р(-Сз|io ) = ср^р (-Гз)ехр ^Х{t,x.,)cos((йо Фиксируем
момент
времени
/=Г
(Тз -Х3 (г))) и
рассмотрим'
(9.9) АПВ
Уо^ 1 = /(Хз) как функцию х^. Из (9.9) следует, что поведение / ( X j ) определяется медленно меняющейся функцией Х(Т,х^) и быстро меняющейся периодической функцией
cos^cOq (Х^ -Х^
(/))) . Нали-
чие периодической функции приводит к периодическому характеру АПВ, вид которой схематично приведен на рис. 9.1. Многомодальность АПВ приводит к проблеме неоднозначности измерений. Это обстоятельство обусловлено попыткой оценивать задержку сигнала по фазе несущего колебания. Полученная в п. 7.8 оценка потенциальной точности задержки сигнала по фазе несущего колебания относятся к случаю, когда оценка нахоРис. 9.1. Апостч)иорная плотность дится в пределах главного маквероятности симума АПВ, т.е. решена проблема неоднозначности фазовых измерений. Отметим также, что АПВ, 222
приведенная на рис. 9.1, является негауссовской. Поэтому рассматриваемые в последующих главах приближенные алгоритмы фильтрации, основанные на гауссовской аппроксимации АПВ, в таких задачах оказываются неработоспособными.
9.2. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов При синтезе дискретных систем фильтрации считаются заданными дискретные уравнения ((1.83) или (1.84)), описывающие фильтруемый процесс, и уравнения наблюдения в дискретном времени, например, (7.90). Рассмотрим сначала задачу фильтрации одномерного МП . Используя правило умножения вероятностей, запишем два эквивалентных выражения для условной совместной ПВ
Выразим из этого выражения апостериорную ПВ
|io ) = ср[Ук К
(9-10)
где с — константа, не зависящая от X. Так как наблюдение у/^ при фиксированном Х/^. зависит лишь от шума /'(>'Jt
П)^ и не зависит от предыдущих наблюдений )=
Y^'^, то
l^it) • Таким образом, уравнение (9.10) можно
записать в виде р
\Yi ) = ср ( л
(а.,
).
(9.11)
При к = 0, т.е. при отсутствии наблюдений, следует полагать >0 ) = Условная ПВ
(9.12) может быть найдена из уравнения наблю-
дения (7.90). Ранее (в задачах обнаружения и оценки параметров сигнала) мы имели дело, например (4.13), с условной ПВ совокупности наблюдаемых отсчетов при заданном значении оцениваемого параметра. В задачах фильтрации всегда будем иметь дело с условной ПВ одного отсчета наблюдения при фиксированном значении оцениваемого про223
цесса в этом отсчете. Данная условная ПВ, рассматриваемая как функция Xi^, называется одношаговой функцией правдоподобия. Качественно такую ситуацию можно пояснить следующим образом. Ранее говорилось об оценке постоянных за время наблюдения параметров. Пусть, например, это был один параметр д . Условная ПВ р ( j ^ |д) любого отсчета наблюдений (k = l,N), рассматриваемая как функция параметра тЗ, была одной и той же. Поэтому, задание некоторого значения полностью определяло как одношаговую функцию р
, так и
«многошаговую» функцию P{YI^ | d j . Иная ситуация в задаче фильтрации, когда оцениваемый параметр Х/^ меняется в каждый момент времени. В этом случае одношаговая функция правдоподобия зависит от одного параметра
. В то же время, условная ПВ совокуп-
ности из N наблюдения зависит от N параметров: Xj, А,2 , ...Д^ Поэтому в данном случае необходимо было бы рассматривать функцию
,Х,2
j . В принципе это возможно, но
существенно усложняет проведение необходимых выкладок. Условная ПВ р
j марковского процесса
, входящая в
(9.11), определяется уравнением, аналогичным (1.71): 1
.
(913)
где р{Хк l^t-l) — ПВ переходов МП, которая может быть найдена из уравнения, описывающего фильтруемый процесс Х/^, например (1.84). Для расчета ПВ p{Xi^
используется полученная на предыду-
щем шаге расчетов АПВ p{X|^_\ Iq*"'j, в которой учтены данные, полученные из всех наблюдений, соответствующих интервалу времени [0,Л-1], и ПВ
переходов МП Л,. Следовательно, при за-
данных наблюдениях Ig^
плотность вероятности p(Xjc Yq ' j для
момента времени к рассчитывается только по априорным сведениям о 224
фильтруемом процессе. Поэтому ее иногда называют экстраполированной ПВ или плотностью вероятности экстраполированных значений процесса. Уравнения (9.11)—(9.13) позволяют рекуррентно вычислять значение АЛВ р
YQ j на л -м шаге по соответствующему значению той
же ПВ на предыдущем щаге. Начальным условием для такой рекуррентной процедуры служит (9.12). Обобщение задачи дискретной фильтрации на векторный случай дается простой заменой в (9.11)—(9.13) скалярных процессов на векторные. Полагая, как и выше, Х,^ = сх^^, где вектор х^^ описывается, например, уравнением (1.83), запишем р(х, |y* ) = ср(у,
|Yo*-').
J
(9.14)
.
/>(хо|Уо°) = /^.р(хо).
(9-15) (9.16)
9.3. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов при наличии случайных неинформативных параметров сигнала Рассмотрим задачу дискретной фильтрации, полагая, что сигнал, несущий сообщение содержит неинформативные параметры ji, которые постоянны за время наблюдения. В этом случае наблюдаемый процесс имеет вид Рассмотрение скалярного наблюдения не ограничивает общности рассматриваемого подхода, а выбрано для простоты изложения. Дополним постановку задачи соотношением = , отображающим условие постоянства неинформативных параметров. Введем расширенный вектор z^ =
и соответствующую ему
АПВ 8—2041
225
Поскольку нас интересует только фильтрация процесса обходимо получить выражение для АПВ р^х/^
» то не-
j . По свойству согла-
сованности ПВ имеем И Д С другой стороны, используя формулу Байеса, запишем (9.18) Подставляя (9.18) в (9.17), получаем р[ч ll'o* ) = с, J \ 4 ^ \ i ) p a p ( i ^ A = = q \p(Yq \4>v)Pap {Ч )Рар (fA)^ = = СхРар {Ч )J/'(J0 \4,v)Pap
= СхРар {ч)р[Уо
l^t)-
(9-1
где р(>0
=
\ч^\>)Рар
•
Аналогичные выражения можно записать для АПВ )=
К),
(9.20) j: (9.21) (9.22)
ц Представим АПВ р х^
j в виде, аналогичном (9.14) (9.23)
Из сопоставления выражений (9.19)-(9.23), получаем р{Ук
226
) = P{Yo
)/P(YO~'
l^i ) =
= \p[Yi l\p(Yt' \ч^у)рар (^)^ti • (9-24) й / и уравнение (9.23) аналогично уравнению (9.14) с той лишь разницей, что вместо одношаговой условной ПВ в него входит усредненная по априорной ПВ неинформативных параметров функция (9.24). Уравнение (9.23) необходимо дополнить уравнением (9.15) для ПВ экстраполированных значении pXxj^
которое не зависит от не-
информативных параметров ц . Таким образом, уравнения (9.21)—(9.24) и (9.15) дают общее решение задачи оптимальной нелинейной фильтрации при наличии случайных неинформативных параметров сигнала, которые не меняются за время наблюдения.
9.4. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов при наличии случайных неинформативных параметров сигнала Как следует из предыдущего матерала, при наличии неинформативных параметров сигнала в уравнениях для апостериорной ПВ возникает усредненная условная ПВ наблюдаемой реализации при заданном значении фильтруемого процесса. Аналогичная ситуация возникает и в задаче фильтрации непрерывных процессов. Для доказательства этого факта определим наблюдаемый процесс как =
A / [ « ( 0 / I ( / + t ) ] = 7VO/28(X)
и рассмотрим совместную АПВ
(9.25)
Уд j , для которой можно запи-
сать уравнение Стратоновича (9.5) для расширенного вектора z =
(9.26) 227
где L(*) — оператор Фоккера—Планка—^Колмогорова для процесса
Э1п Э/
;(9.27)
р(Уо'|х,ц) = е х р | р ( х , ц , х ) ^ т — отношение правдоподобия. Проинтегрируем (9.26) по ц
Л (9.28) где (9.29) Используя формулу Байеса, запишем =
=
(x,fi) .
(9.30)
Представим производную, входяшую в (9.27), в виде Э1п(р(Уо'|х.ц))
1
Эр(Уо'Кц)
Э/
p(l'o'Kn)
^^
(9.31)
Подставим (9.30)—(9.31) в (9.29) и выполним необходимые преобразования
Эр(Уо'|х) дг ^
228
Э1п(р(Уо'|х))
.
,
(9.32)
где
(.)
Ц
Э1п(р(Уо'|х)) (9.34)
dt
Подстановка (9.32) в (9.28) дает следующее уравнение для АПВ:
F(x,0- J
(9.35) J
Уравнение (9.35) совместно с формулами (9.33)—(9.34) дают решение задачи оптимальной фильтрации при наличии неинформативных параметров сигнала, не меняющихся за время наблюдения. Данное уравнение отличается от аналогичного уравнения (9.5), справедливого при отсутствии неинформативных параметров сигнала, функцией которая теперь определяется в соответствии с (9.33)—(9.34).
9.5. Рекуррентные уравнения для апостериорной плотности вероятности дискретных процессов, зависящих от случайных параметров В ряде задач фильтруемый процесс Xj(. может быть задан с точностью до вектора а случайных постоянных параметров, т.е. х/^ ( а ) . Такая ситуация возникает, например, когда в формируюищх уравнениях (1.83) или (1.84) те или иные матрицы, входящие в правую часть уравнений, зависят от а . Рассмотрим для примера линейную модель сообщения (1.84), которую запишем в виде =
= где
(9-36)
—векторный ДБГШ с матрицей дисперсий D^ ( а ) .
Для вектора случайных величин а можно записать тривиальное уравнение а(/о) = а о .
(9-37) 229
Положим,
что
наблюдается
реализация
Л / К п т ] =-DnSfe». где Xi ( а ) =
(Х^ (а))+л;^,
(а).
Как и в п. 9.3, введем расширенный вектор z^ =
Ч
и соответст-
вующую ему АПВ p^zj^ lo^j. Чтобы вектор z^ был марковским процессом, уточним модель (9.36) с учетом (9.37) в виде Ч = где
(«/t-i
(а*-1 )+G;t_,
,
— векторный ДБГШ с матрицей дисперсий D^ ( « t - i ) • Для МП Ъ)^ справедливы уравнения для АПВ (9.14)—(9.15) с заме-
ной х^ на z^. Однако во многих задачах фильтрации в большей степени интересна не оценка расширенного вектора z^, а оценка процесса Х;^, которая может быть найдена из АПВ p ^ j ^ Уо*)- Поэтому получим выражение для данной АПВ. Для этого рассмотрим АПВ
j для расширен-
ного вектора и, используя формулу Байеса, представим ее в виде р[ч |Yo*) = ^ ' ( х ь а л
|Yo* ) .
) = /'(xt
(9.38)
Интегрируя (9.38) по a , получаем p(x;t|Yo*)= J
.
(9.39)
—«0
Здесь
Yo
j — условная АПВ вектора x^ при заданных на-
блюдениях Yg и фиксированных значениях параметра а . Фиксация параметров а приводит уравнение (9.36) к разряду уравнений с известными параметрами, а сообщение Xj^ ( а ) имеет известные статистические характеристики. Поэтому АПВ р^)^ соответствует рассмотрению задачи фильтрации сообщений с известными параметрами, и для нее можно использовать рекуррентные урав230
нения, аналогичные (9.14) — (9.16), но при условии фиксированного значения а , т.е. р [ ч |Yo^a* ) = ср{ук
)/'(x;t
1
),
(9.40) , (9.41)
Получим выражение для
Yq j , входящей в (9.39). Для этого
рассмотрим условную ГШ р^а^.у;^ Y q " ' j . Используя формулу Байеса, запишем
Из полученной формулы следует, что =
(9.42)
где с — константа, не зависящая от а , которая может быть найдена в результате интегрирования (9.42) по а с=-
1
С учетом постоянства параметров а , что отображается уравнением (9.37), справедливы следующие выражения
(9.43) Последнее соотношение в (9.43) следует, в частности, из (9.15), если его записать для вектора а . С учетом (9.43) формула (9.42) принимает вид 231
р ( щ |Yo^ ) =
)
и является рекуррентным уравнением для расчета АПВ
(9.44) Yq j с
начальным условием /'(ao|Yo°) = ;'ap{a).
(9.45)
Уравнения (9.39)—(9.41) и (9.44), (9.45) дают решение поставленной задачи фильтрации сообщения ( а ) , зависящего от вектора а случайных параметров. Применение данных уравнений для получения оценок к/^ будет подробно рассмотрено в гл. 13.
9.6. Рекуррентные уравнения для апостериорных плотностей вероятности непрерывных процессов, зависящих от случайных параметров Рассмотрим аналогичную задачу фильтрации непрерывного сообщения
зависящего от вектора а случайных (постоянных) па-
раметров, описываемых априорной ПВ Papioi)- Процесс А,(/,а) в пространстве состояний зададим вектором х ( / , а ) , так что А,(/,а) = = сх(/,а) и ^ = F(r,a)x-bG(?,a)^(/), x(fo) = xo.
at
(9.46)
где ^(r) — w-мерный вектор БГШ с корреляционной матрицей R^(T) = S^(a)/25(x). На вход приемника поступает реализация =
(9.47)
где п(/) —БГШ с двусторонней спектральной плотностью NQII. Задание а в виде случайных величин предполагает их постоянство за время наблюдения, что математически может быть записано как ^
at
= 0 , а ( 0 ) = ао,
где Oq — случайная величина. 232
(9.48)
уравнения (9.46)—(9.48) описывают расширенный МП z =
.По-
этому для апостериорной ПВ p{z YQ j можно записать уравнение Стратоновича (9.5) F{z,t)-\F{z,t)p{z,t\Yl)dz
г
p[z,t\Yl)
J (9.49)
с начальным условием р[г,0\0) = р^{г)
= рар{\)рар{а.)
и
/'(z,r) = F ( x ( a ) , / ) = S ( c x ( a ) , r ) 2 V ( > ' ( 0 - 0 . 5 S ( c x ( a ) , r ) ) . ( 9 . 5 0 ) В (9.49) Z(*) — оператор Фоккера—Планка—Колмогорова для процесса х ( 0 . так как составляющая дифференциального оператора, соответствующая компоненте а , тождественно равна нулю вследствие постоянства данных параметров (9.48). Рассмотрим условную ПВ /^^х } о , а | . Поскольку при фиксированном значении а процесс х(г), описываемый уравнением (9.46) является марковским с известными статистическими характеристиками, то для АПВ
Jo'.aj можно записать уравнение Стратоновича (9.5) ф(х|Уо',а)
I f
,
(9.51)
X
J
где L(*) — тот же дифференциальный оператор, что и в (9.49); F ( x ( a ) , / ) —описывается тем же соотношением, что и в (9.50). Используя формулу Байеса, запишем
233
Подставляя (9.52) в (9.49) и выполняя необходимые преобразования, получим 4>(ж|Уо'.а)
ф(а|Уо')
,
.
I (
,
\\ (
F ( x ( a ) , / ) - J /'(х(а),/)/>(х,а|Уо')ли/а р(х|Уо',а)р(а|Уо').(9.53) J Домножим (9.51) на / ) | а У о | , вычтем полученное уравнение из (9.53), а результат вычитания сократим на
Уо
. В результате по-
лучим уравнение ф(а|Уо') dt
.ж - I F{x(a),/)/7(x,a|yo')rfau/a / ^ ( а к ' ) . х,а
(9.54)
Обозначим (9.55) X
и запишем (9.54) в виде
dt
F{a,t)-
J ^ ( х ( а ) , / ) / > ( х , а | У о ' ) л ^ а ;;(а|Уо'). (9.56)
Уравнение (9.56) эквивалентно уравнению
din p ( a l o ) ) ч ^ = F ( a , / ) - J F(x(a),/)p(x,ay(|)
(а|Уо') = с ехр | j F (а, т ) л |
(а),
(9.58)
где константа с находится из условия нормировки ПВ р ^а Уд ) к единице и равна ое
с = I ехр. F{a,x)dx
Pap{a)da.
(9.59)
Уравнение (9.51) совместно с формулами (9.50), (9.55), (9.58)-(9.59) дает общее решение задачи фильтрации сообщения, зависящего от вектора случайных параметров. Конкретизация этих общих соотношений для получения различных алгоритмов адаптивной фильтрации будет дана ниже ( в гл. 13).
Контрольные вопросы к главе 9 1. Является ли А П В случайного процесса детерминированной или случайной функцией и почему? 2. Как изменится общее уравнение для А П В при фильтрации квазидетерминированных процессов? 3. Как изменится общее уравнение для А П В при фильтрации процессов, переносимых детерминированным сигналом и сигналом, имеющим случайные неинформативные параметры? 4. Как изменится общее уравнение для А П В при фильтрации процессов с априорно неизвестными статистическими характеристиками?
235
Глава
10
ОПТИМАЛЬНАЯ ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ
10.1. Оптимальная линейная фильтрация непрерывных процессов 10.1.1. Общие уравнения оптимальной линейной фильтрации Уравнение Стратоновича (9.5) для АПВ в общем виде не решается. Лишь в частном случае линейной фильтрации, когда уравнения наблюдения и формирования сообщения линейные и априорная ПВ р^р (Х) — гауссовская, уравнение (9.5) имеет точное решение. Пусть фильтруемый процесс Л,(/) описывается скалярным уравнением dt где
= F ( l ) J . + C ( l ) y O . >-(11) = ^ . G{t) —известные функции времени,
(10.1) —БГШ с двусто-
ронней спектральной плотностью S ^ f l , XQ - случайное число, распределенное по гауссовскому закону с нулевым МО и дисперсией D)^ . Наблюдается реализация процесса
>'(/) = Я(/)Я,(0+и(0.
(10.2)
где n{l) —БГШ с двусторонней спектральной плотностью NQ/2. При гауссовском распределении начального значения Xq процесс Х,(/), описываемый линейным уравнением (10.1), является гауссовским. Наблюдаемый процесс (10.2) в рассматриваемой задаче также является гауссовским. Можно строго доказать [13, 15], что в этом случае АПВ р
Уд ) — гауссовская, поэтому для нее можно записать выражение (x-xf
236
где X{t) и I\{t)
— среднее значение и дисперсия гауссовского рас-
пределения; заметим, что по определению 1 \ = М [ ( x - i f , а, следовательно, 1 \ —это дисперсия ошибки фильтрации процесса А,(г). Получим уравнения, которым удовлетворяют среднее значение 1 и дисперсия . Запишем оператор Фоккера—^Планка—^Колмогорова для процесса (10.1)
. (10.4) с учетом (10.4) уравнение (9.4) для АПВ принимает вид
4
Перейдем
от
H{t)l^{y{t)-0,5H{t)X)-
+
дХ"
уравнения
для
К уравнению
для
и = In . Учитывая, что 1
dt
dt
dp{K,t
p[x,t Уо') 1
дХ
ЭХ
pi^Kj Уо')
^^ 237
дХ
(10.6) из уравнений (10.5)—(10.6) получаем dt
^'
^'
(ди^ дХ
" <
Для гауссовской ПВ
где с (г) = - In
\
/
l o j (10.3) выражение для и имеет вид
( 0 ) / ^ — переменная, не зависящая от А,.
Запишем выражения для производных, входящих в (10.7):
dt
dt
2 dt ^
'
^ ^
'dt
Преобразуем выражение, стоящее в квадратных скобках (10.7):
0 238
0
о
—оо
(,0.9) При выводе соотношения (10.9) учтено, что
—ее
—оо
Подставляя (10.8), (10.9) в уравнение (10.7), получаем
JyQ
Приравнивая в (10.10) члены при одинаковых степенях разности Я,-X, запишем j ^ = F{t)UD),{t)H{t)^(y{t)-Hit)i),
(10.11)
^
(10.12)
=
+
.
Начальные условия для уравнений (10.11), (10.12) определяются следующим образом: Х(0) = Я,о, (0) = • Уравнения (10.11) описывают линейную нестационарную следящую систему, структурная схема которой приведена на рис. 10.1, где
K{t) =—I\H(t)
— коэффивд1ент усиления следящей системы. Ко
эффищ1ент усиления меняется во времени, в первую очередь, вследствие изменения дисперсии ошибки фильтрации которая определяется уравнением Риккати (10.12).
239
Оценка к фильтруемого процесса является средним значением АЛВ (10.3), т.е.
у(') Ч 2 h iF(f) ff(r) Рис. 10.1. Схема оптимальной следящей системы
Другими словами, оценА
ка X, — это оценка условного среднего. В то же время, из теории статистических решений (см. гл. 3) следует, что оценка условного среднего минимизирует дисперсию ошибки фильтрации. Следовательно, уравнения оптимальной фильтрации (10.11), (10.12) формируют оптимальную оценку по критерию минимума дисперсии ошибки фильтрации. Приведем без вывода основные соотношения многомерной линейной фильтрации векторного процесса х(/), определяемого уравнением (9.2) в случае векторных линейных наблюдений у(0 = Н(0х(/)+п(0. (10.13) Структура оптимального линейного фильтра описывается уравнениями Л
= F ( O i - b K ( / ) ( y ( / ) - H ( O i ) , i ( 0 ) = Xo.
(10.14)
где k ( 0 = d , ( 0 h ^ ( 0 2 n ; ; '
(lo.is)
— матричный коэффициент усиления; D, (f) — матрица дисперсий ошибок фильтрации, которая определяется матричным уравнением Риккати
= F ( r ) D , + D J F ( 0 + ^ G (OS^G^ ( / ) - i K ( / ) N „ K ^ ( 0 , Dx(0) = Dx„.
(10.16)
Уравнения оптимального фильтра (10.13)—(10.16) во многом аналогичны уравнениям (10.11)—(10.12), полученным для скалярного про240
цесса Схема оптимального многомерно фильтра также практически совпадает со схемой, приведенной на рис. 10.1, если в ней под K,F,H понимать соответствующие матрицы, а связи между отдельными блоками полагать векторными. Приведенные выше уравнения оптимальной линейной фильтрации в форме дифференциальных уравнений впервые были получены Р. Калманом. [17] и носят его имя. Отметим, однако, что данные уравнения были им получены иным путем: в результате непосредственной минимизации дисперсии ошибки фильтрации с использованием методов вариационного исчисления. 10.1.2. Некоторые обобщения а.1горитмов оптимальной линейной фильтрации В ряде задач оптимальной фильтрации формирование фильтруемого процесса x{t) обусловлено не только случайным формирующим щумом
как это имело место в (9.2), но и некоторой детерминиро-
ванной составляющей, т.е. ^
= F(0x + B ( 0 u ( 0 + G ( 0 ^ ( 0 .
=
(10.17)
где U (?) — детерминированная векторная функция времени. Так как уравнение (10.17) — линейное, то, следуя принципу суперпозиции в линейных системах, можно утверждать, что добавление аддитивного детерминированного возмущения В(/)и(/) в правую часть уравнения (10.17) приведет к появлению дополнительной аддитивной составляющей в процессе х(/), которая также будет детерминированной, т.е. известной. Но тогда и в соответствующей оптимальной оценке х(/) должна появиться точно такая же составляющая, так как оптимальность оценки предполагает минимизацию среднего квадрата ошибки М . Но такая составляющая в оценке х(/) может возникнуть лишь тогда, когда в правой части фильтра Калмана (10.14) будет такой же возмущающий член, что и в (10.17). Приведенные рассуждения на «физическом» уровне подтверждаются строгим математическим выводом. В результате алгоритм оптимальной фильтрации процесса (10.17) имеет вид 241
^ = F(0i+B(/)u(/)+K(0(y(/)-H(0i),i(0) = X0-
(10.18)
Соотношение (10.15) для матрицы коэффициентов усиления и уравнение для дисперсий ошибок фильтрации (10.16) при этом не изменяются. Другое обобщение алгоритма оптимальной линейной фильтрации (10.14)—(10.16) дается на случай, когда формирующий шум и шум наблюдения п(/) коррелированны. Такая ситуация возникает, например, в задаче линейной фильтрации процесса на фоне коррелированной помехи (см. п. 10.3). Положим, что М
+
=
(10.19)
Коррелированность двух шумов не влияет на структуру алгоритма оптимальной фильтрации, т.е. уравнение для оценки процесса имеет вид либо (10.14) при отсутствии детерминированной компоненты в уравнении формирования, либо (10.18) при наличии такой детерминированной компоненты. Изменяется выражения для коэффициента усиления, которое теперь имеет вид К ( 0 = (D, (ОН^ ( 0 + G
,
(10.20)
а уравнение для дисперсий ошибок фильтрации записывается как
=
(10.21)
Коррелированность шумов формирования и наблюдения повышает точность фильтрации, так как в этом случае в наблюдениях (10.13) информация о фильтруемом процессе содержится не только в первом слагаемом, но и во втором, т.е. в шуме п ). 10.1.3. Использование теории оптимальной линейной фильтрации для синтеза сглаживающих фильтров следящих измерителей Аппарат теории оптимальной линейной фильтрации применяется в различных областях радиотехники. В том числе, он может быть применен 242
при синтезе сглаживающих цепей радиотехнических следящих систем. Как известно [3], радиотехническая следящая система (рис. 10.2) включает в себя в качестве основных элементов дискри• д -* ф X минатор (Д) и сглаживающий г—1 t фильтр (Ф). Дискриминатор является Рис. 10.2. Обобщенная схема нелинейным устройством, радиотехнического следящего измерителя выделяющим информацию о рассогласовании Sk = k—k между сообщением и его оценкой. Процесс Мд на выходе дискриминатора имеет регулярную составляющую и (5Я,) (МО процесса Ид) и флуктуационную составляющую
Флуктуационный процесс, как правило, зависит от ошибки слежения Sk, т. е. . Однако в дальнейшем, для простоты, будем полагать, что он не зависит от ошибки слежения. Представление (10.22) является статистическим эквивалентом (моделью) дискриминатора. Принимая во внимание (10.22) и вводя операторный коэффициент передачи К{р) фильтра в контуре следящей системы, схему X{t) 1 К{р) (рис. 10.2) представим в эквивалентном виде, приведенном на рис. 10.3. Рис. 1 0 J . Эквивалентная схема Зависимость математичеследящей системы ского ожидания и{ЬХ) U[OK) выходного процесса дискриминатора от ошибки слежения 5Х, называют дискриминационной характеристикой. Форма дискриминационной характеристики приведена на рис. 10.4. При большом отношении сиг•sx нал/шум на входе следящей системы ошибка слежения мала и не выходит за пределы линейного участка дискриминационной характеристики которая в Рис. 10.4. Дискриминационная этом случае может быть представлена характеристика в виде и (5Я,) = 5д5Х, где 243
_ди(Щ
5Х = 0 — крутизна дискриминационной характеристики. Следовательно, при большом отношении сигнал/шум следящую систему можно линеаризовать (рис. 10.5).
Z т : Рис. 10.5. Линеаризованная схема следящего измерителя
В линеаризованной схеме (рис. 10.5) флуктуащюнный процесс можно пересчитать на вход следящей системы, что приводит к эквивалентной схеме (рис. 10.6).
Рис. 10.6. Эквивалентная схема линеаризованного следящего измерителя
ность флуктуационного процесса
В данной эквивалентной схеме двусторонняя спектральная плотность шума л(/) равна Nfi/2 = = N ^ / 2 S l , где N^/2 — двусторонняя спектральная плотна выходе дискриминатора, и
К{р) = 5^К{р). Свойства следящей системы (рис. 10.6) определяются коэффициентом передачи К{р), который, в свою очередь, определяется коэффициентом передачи К{р) фильтра в контуре следящей системы (рис. 10.2). При изменении коэффициента передачи К{р)
меняются свойства фор-
мируемой на выходе следящей системы оценки X. Следовательно, можно ставить задачу выбора оптимального коэффициента передачи Кдр, (р), например, по критерию минимума дисперсии ошибки фильтрации. В то же время, из курса «Радиоавтоматика» известно, что в линейной следящей системе операторный коэффициент передачи от входа системы к ее выходу K.j^{p) = К(рУ(\ 244
+К{р)).
Другими словами,
коэффициент передачи к{р)
фильтра в контуре следящей системы
однозначно определяет коэффициент передачи К.^^ (р) всей следящей системы и наоборот. Поэтому оптимизация К{р) мизации
эквивалентна опти-
( р ) . Но последняя задача оптимизации есть ни что иное,
как синтез oпт^шaльнoro фильтра для выделения (оценки) процесса из наблюдаемой реализации >'(г) = А,(/)+Я(?). При описании Я,(/) в виде гауссовского МП (например, (10.1)) и шума n(t) - как белого гауссовского, для синтеза оптимальной линейной следящей системы можно использовать приведенные выше уравнения оптимальной фильтрации. 10.1.4. Примеры синтеза оптимальных линейных систем фильтрации П р и м е р ю . ! . Рассмотрим задачу синтеза оптимального линейного фильтра системы частотной автоподстройки. Полагаем, что дискриминатор полностью задан, отношение сигнал/шум достаточно велико, так что ошибка слежения мала и не выходит за пределы линейного участка дискриминационной характеристики. Запишем воздействие на входе эквивалентной следящей системы в виде = где —
БГШ с нулевым МО и спектральной плотностью No/2. Частоту
П(/) будем описывать случайным процессом со спектральной плотностью Sn(a>)=
^ . co^^co'^+a^j
Процесс
с заданной спектральной плотностью может быть
отображен
в
пространстве
состояний
двухкомпонентным
МП
х(/) = l^i
, который описывается следующими дифференциальными
уравнениями: fi(0 = ;c,(0. ^
=
^
=
где %{t) — БГШ с спектральной плотностью
(10.23) .
Запишем (10.23) в векторном виде 245
л dt где F =
(10.24) 0
1
0 -а н и й Н = | 1 0|.
; G=
0 а U
; в рассматриваемом примере матрица наблюде-
Из общих уравнений (10.14)—(10.16), с учетом (10.24), получаем следующий алгоритм оптимальной фильтрации
^
=
at
(10.25,
NQ
dt
Щ
Схема оптимальной системы фильтрации приведена на рис. 10.7, V
1 Р
а Рис. 10.7. Схема оптимальной системы фильтрации Рассмотрим установившийся режим работы следящей системы (/ -»оо). в этом случае систему уравнений (10.25) можно решить аналитически, что приводит к следующим выражениям для дисперсий ошибок фильтрации:
246
Параметр р — безразмерный и определяет отношение энергетических характеристик (спектральных плотностей) фильтруемого процесса (сообщения) и аддитивного шума. Поэтому его можно назвать отношением сообщение/шум. В установившемся режиме коэффициенты усиления К^, К2 постоянны, а операторный коэффициент передачи фильтра в контуре следящей системы (рис. 10.7) определяется выражением К2 у / : , + р+а р
+ р+а
Таким образом, в установившемся режиме в контуре следящей системы оптимальным фильтром является фильтр, состоящий из интегратора и пропорционально-интегрирующего фильтра. Оптимальные значения параметров фильтра зависят от параметра сообщения а и от отношения сообщение/шум р . Коэффициент передачи К[р)
сглаживающего фильтра в контуре
реальной следящей системы (в данном случае системы частотной автоподстройки (рис. 10.2, 10.3)) связан с коэффициентом передачи АГф (/7) синтезированной системы выражением К{р) = . Следовательно, структура фильтра остается той же самой (интегратор и пропорционально-интегрирующий фильтр), а изменяется лишь коэффициент усиления на нулевой частоте. v П р и м е р 10.2. Рассмотрим задачу фильтрации речевого сообщения передаваемому по каналу связи с БГШ. В гл. 2 представлена одна из моделей такого сообщения в виде двухкомпонентного процесса, описываемого уравнениями (2.28), которые для удобства приведем еще раз: ^
= -а,jci + QQ [-а2Х2 + а г ^ ( / ) ] ,
= -Uj^cj + «2^(О.
где ^(г) —БГШ с двусторонней спектральной плотностью 5^/2 . Спектральная плотность процесса А. = xj описывается выражением
247
2(0)2+а?)(шЧа22)" На вход приемника поступает реализация >»(/) = X(?)+л(/), где л (/) — БГШ с двусторонней спектральной плотностью NQ j l . Введем вектор x(/) = |jci x i ^ , который, также как и в предыдущем примере, описывается векторным уравнением, однако с иными матричными коэффициентами, а именно: F=
-«1
-«200
0
-02
, G = «200 «2
(10.26)
Матрица наблюдений по-прежнему равна Н = |l О . Подставляя (10.26) в общие уравнения оптимальной фильтрации (10.14)—(10.16), получаем (10.27)
dt ^
dt
NQ
= - 2 a , A2
(10.28)
Nr.
Схема оптимальной линейной фильтрации, описываемая уравнениями (10.27), приведена на рис. 10.8. Уравнения (10.28) для дисперсий опшбок фильтрации в установившемся режиме в данной задаче также могут быть решены аналитически. Однако выражения получаются достаточно громоздкими и здесь не приводятся. Операторный коэффициент передачи фильтра в контуре следящей системы рис. 10.8 определяется выражением 248
М 4 i p ) =
{р+а\){р
+ а2У
Z ГТ"
где Р = 0 2 ( 1 - 0 0 ^ 2 Д О -
JL-i
Из первого уравнения (10.28) в установившемся режиме следует, что Р = а2(1-ео^2Д1) =
—
Рис. 10.8. Схема оптимальной линейной фильтрации
= a2(l-eoA2/Ai) = ^ + a i + a 2 > 0 . Следовательно, 7р = 1/Р > О и определяет постоянную времени форсирующего звена в сглаживающем фильтре оптимальной следящей системы. 10.1.5. Оптимальный фильтр Винера Кроме дифференциальной формы представления оптимальных линейных фильтров возможна интегральная форма, предложенная Н. Винером и названая фильтром Винера. Интегральное уравнение Винера, В своей работе [18] Н. Винер рассматривал задачу фильтрации СП Х(/) по наблюдению y{t)
на ин-
тервале времени [О,/], связанному известной зависимостью с фильтруемым процессом. Предполагалось, что известны корреляционная функция
наблюдаемого процесса y{t) и взаимная корреляци-
онная функция Rxyihyh) фильтруемого процесса Х,(/) и Наблюдений . МО наблюдаемого процесса полагалось равным нулю. Оптимальный фильтр искался в классе линейных фильтров, формирующих следующую оценку:
о по критерию минимума среднего квадрата ошибки ч2'
(мо-^чо)
(10.30) 249
в отличие от постановки задачи синтеза фильтра Калмана, Н. Винер не задавал модель наблюдений в форме (10.2), а требовал лишь зависимость наблюдений от фильтруемого процесса, причем известным образом, который определяется заданием корреляционных функций Ry{tx,t2) и Rxy{h>t2). Другим отличием постановки задачи синтеза по Н. Винеру являются априорные сведения, которые определяются заданием корреляционных функций Данные априорные сведения ослаблены по отношению к априорным сведениям в постановке задачи калмановской фильтрации. Так, например, задание указанных взаимных корреляционных функций совсем не говорит о том, что процессы А,(/) и
являются гауссовскими. В общем случае они могут быть негаус-
совскими. Для таких негауссовских процессов также можно искать наилучшую оценку вида (10.29), т.е. в классе линейных фильтров. Однако, это совсем не значит, что такая оценка будет наилучшей из всех возможных, т.е. «абсолютно» оптимальной. Можно искать «нелинейные» оценки, т.е. оценки, полученные в результате нелинейной обработки наблюдений, которые будут иметь средний квадрат ошибки (10.30) меньше, чем линейные оценки (10.29). Еще одно отличие постановки задачи по Винеру заключается в том, что помеха может быть коррелированным процессом. В п. 1.7 показано (см. «Следствие для условных плотностей вероятности»), что линейная зависимость условного математического ожидания Х= \ "Kpi^YQ^dX от наблюдений y{t)
является неизбежным
следствием лишь для совместно гауссовских процессов
и
что имеет место в постановке задачи синтеза по Калману. Поэтому, лишь в этом случае линейный фильтр является «абсолютно» оптимальным, т.е. нельзя найти никакой другой системы обработки наблюдений , которая имела бы меньшее значения среднего квадрата ошибки. Заметим, что в оригинальной работе Н. Винера рассматривался обобщенный временной интервал [а, б] и оценка X* (t) искалась для произвольного момента времени i . Такая постановка охватывает как задачи фильтрации (/ = 6), так и задачи интерполяции (/ < 6 ) и экстраполяции (г > 6). В данной главе рассматриваются лишь задача фильтрации, поэтому временной интервал определен как [0,f]. 250
Преобразование (10.29) является линейным оператором над наблюдениями >'(t), т е [о,/], который обозначим как е(Уо') = Г (О = ]g{t,x)yix)dz. о
(10.31)
Докажем, что минимум среднего квадрата ошибки (10.30) достигается для такой импульсной характеристики
" соответствующе-
го ей оператора GQ ^Jq j , при которых выполняется условие
при всех v e [о,/], (10.32) где ^ ( 0 = Go ( y j ) =
(О = Ь о
•
(10.33)
О
Физический смысл условия (10.32) заключается в том, что при оптимальной оценке (10.33) текущая ошибка 5Я,(/) = Х,(/)-Х(/) не коррелированна со всеми наблюдениями 3'(v), v е [0,t]. Пусть gonr — импульсная характеристика, при которой достигается минимум среднего квадрата ошибки (10.30), а G^
• соот-
ветствующий ей линейный оператор. Положим, что go^.
при ко-
торой (10.30) достигает минимума, отлична от go(/,T), для которой выполняется условие (10.32), и
=
ствии с определением (10.31) можно записать
- В соответ=
Запишем выражение для минимального значения среднего квадрата ошибки •^min
(0=м
= л/ (10.34) 251
Так
как
по
определению
некоррелированна
оператора с любым
GQ ^Jq )
разность
наблюдением
;'(v),
V е [0,f], то она некоррелированна и с любой линейной комбинацией от ^ ( v ) , в том числе и с SG^Fq j . Следовательно: М
(10.35)
= 0.
Раскрывая правую часть (10.34) и учитывая (10.35), получаем 2"
,(0=л/
(10.36)
Первое слагаемое в правой части полученного выражения есть средний квадрат ошибки при использовании оператора GQ (Iq ) , а второе слагаемое — неотрицательно. В то же время, в левой части (10.36) стоит минимальное значение среднего квадрата ошибки. Это возможно, если SG^Jq j =
так как в противном случае использование оператора
Gq ^Уф j давало бы меньшее значение среднего квадрата ошибки. Следовательно GQ ^Iq ) = ^oirr
)» что и завершает доказательство.
При оптимальном операторе Gonrl^o) средний квадрат ошибки
Выполнив в условии (10.32) необходимые преобразования, с учетом равенства GQ (Iq j = G^m (Iq ) " приведенных в постановке задачи определений корреляционных функций, получаем =
о
ve[O,0.
(10.37)
Таким образом, оптимальная импульсная характеристика находится из интегрального уравнения (10.37), которое называют нением Винера, а импульсную характеристику ?опт = S^B зывают импульсной характеристикой фильтра Винера. 252
на-
в общем виде уравнение (10.37) не имеет аналитического решения. Стационарный фильтр Винера. Рассмотрим важный частный случай, когда процессы Я,(г) и >'(f) — стационарны и стационарно связаны в широком смысле (см. определения стационарности в п. 1.6). Это означает, что корреляционные функции Ry{t^,t2) и RxyihJz) зависят не от абсолютных значений моментов времени t^ и t i , ^ лишь от разности х = / 2 - ' i . т . е . имеем Ry{x) и Кроме того, будем полагать, что интервал наблюдения бесконечный. При этом пределы интегрирования в (10.37) следует положить ±оо. Однако, рассматривая синтез физически реализуемых фильтров, пределы интегрирования полагаем [0,°°]. При стационарном входном процессе y{t) бесконечном интервале наблюдения выходной процесс фильтра будет стационарным в широком смысле, и оптимальный фильтр можно отыскивать в классе линейных фильтров с постоянными параметрами, т.е. стационарных фильтров. Учитывая принятые допущения, уравнение (10.37) принимает вид %W=J^onT(vK(T-vVv. (10.38) о Это интегральное уравнение для нахождения оптимальной импульсной характеристики называется уравнением Винера—Хопфа. Его решение возможно для процессов, спектральная плотность которых описывается дробно-рациональной функцией
Процесс с дробно-рациональным спектром можно сформировать на выходе физически реализуемого фильтра с коэффициентом передачи Ку (jco), таким, что 253
^
(jco)
=5.((0),
(10.40)
при подаче на его вход белого шума с единичной спектральной плотностью. Заметим, что сформулированным условиям удовлетворяет процесс, отображаемый в пространстве состояний многомерным марковским процессом, например (9.2), с постоянными коэффициентами сноса и диффузии. Один из возможных методов решения уравнения Винера—^Хопфа основан на введении обеляющего фильтра, который преобразует входной процесс j ( / ) со спектральной плотностью (10.39) в процесс с равномерной спектральной плотностью, т.е. некоррелированный процесс. При этом, если операция такого преобразования является обратимой, то из процесса Т|(') в результате обратного преобразования можно получить исходный процесс ^(f). Это, в частности, означает, что при таких преобразованиях не происходит потери информации, и, следовательно, не теряется свойство оптимальности фильтра (более подробно о свойствах обратимых преобразований см. п. 4.2.7). Из (10.40) следует, что в качестве обеляющего фильтра можно выбрать линейный фильтр с частотной характеристикой 4'(jto) = l/i:^(jo))
(10.41)
и соответствующей ей импульсной характеристикой g4< ( t ) . Оптимальный стационарный фильтр Винера ищется в виде последовательного соединения двух линейных фильтров (рис. 10.9): обеляющего с коэффициентом передачи 4'(ja)) (импульсная характеристика giji (т)) и линейного фильтра
Оптимальный фндыр Винера
ЯО!
Обеляющий фильтре Ч'О®)
ЫО
Лшкйный фильтр с к
Цг)
Рис. 10.9. Оптимальный фильтр Винера в форме последовательного соединения двух фильтров
С коэффициентом передачи ArjjA(j(o)
(импульсная
рактеристика ^^ф
ха-
)•
Из определения коэффициентов передачи и
4'(j(o) следует, что процесс Tl(/) имеет единичную спектральную плотность, и, следовательно, его функция корреляции имеет вид Л,(х) = 1.6(х). 254
Определим теперь коэффициент передачи А'лф(]ш)
линейного
фильтра в схеме рис. 10.9. На выходе фильтра необходимо получить оптимальную оценку
при условии, что на его входе действует про-
цесс Л (О- Импульсная характеристика такого линейного фильтра должна удовлетворять уравнению Винера—Хопфа, но при входном процессе Г|(/). Поэтому Лхп W = J f л ф
( х - =
о
I ( v ) 5 ( t - v ) r f v = ^лф ( t ) . т S О.
о
При т < 0 импульсную характеристику физически реализуемого фильтра можно доопределить как ^дф (т) = О. Рассчитаем корреляционную функцию Щ = J
gy
1 g4'(v).>'(/-x-v)t/v HRXy {r+v)dv
= J
(-v)^x.^,
( t - v ) ^ v
.
(10.42)
Выражение (10.42) описывает прохождение через линейный фильтр с импульсной характеристикой g^/ ( - v ) (коэффициент передачи *I'*(j®)) процесса
^
= RXy{t). Такое преобразование можно запи-
сать в частотной области как
5x,,(jQ)) = 4'*(ja))Sxy(®)-
•^Хл (j®) определяется как преобразование Фурье от
Спектр
(х), т.е.
о
поэтому он содержит составляющую
все полюса которой на-
ходятся в левой полуплоскости комплексной переменной j(0, и составляющую реализуемого
(jco) с полюсами в правой полуплоскости. Для физически фильтра
необходимо
взять
только
составляющую 255
SxT|(j
(10.43)
Коэффициент передачи стационарного фильтра Винера, учитывая последовательное соединение обеляющего и линейного фильтров и формулы (10.41), (10.43) для их коэффициентов передачи, записывается как 1 ^.(jco)
(10.44)
Отметим в заключение, что выделение составляющей , входящей в (10.44), основано на разложении функции, стоящей в квадратных скобках, на неприводимые множители с последующим выбором тех из них, для которых полюса находятся в левой полуплоскости комплексной переменной jto. Вывод фильтра Винера из уравнений фильтра Калмана. Другое представление для импульсной характеристики фильтра Винера можно получить, используя постановку задачи синтеза фильтра Калмана и вытекающие из нее уравнения оптимальной калмановской фильтрации. Пусть имеем скалярное наблюдение (10.2), в котором А,(/) — фильтруемый процесс, отображаемый в пространстве состояний векторным МП так что >.(/)=:сх(/). Векторный процесс х(/) описывается априорным уравнением (9.2). Оптимальная оценка х(/) по критерию минимума дисперсии ошибки фильтрации в сформулированной задаче определяется уравнением фильтра Калмана (10.14), которое представим в виде di - = {¥{t)-K{t)H{t)c)i
+ K{t)y{t),i{0)
= x„
(10.45)
где K ( 0 = D, { t ) H { t y 2 N Q \ Введем переходную матрицу Ф(/,т), удовлетворяющую однородному уравнению 256
с начальным условием Ф(T,T) = I • Полагая, как и выше, х(0) = О, решение неоднородного матричного уравнения (10.45) можно записать через переходную матрицу Ф(г,т) в виде х ( 0 = }ф(г,т)К(т)у(1)^т =
о
= } ф ( / , т ) 0 , {х)Н {ту2Щ'у{х)с1х
о
= ]g{t,x)y{T)dx,
о
где ё(/,т) = Ф(г,т)Вх(т)Я(х)с^2ЛГо' —матричная импульсная характеристика оптимального линейного фильтра. Учитывая связь между вектором х и процессом X,(г), запишем
о = }сФ(/,т)В, {х)Н (т)с^2ЛГ„-'у (х) J t =
о
о
(i,x)y(x)dx,
где ^оп^(/,х) = сФ(/,т)Ох(т)с^Я(г)2ЛГо' — импульсная характеристика филыра Винера для рассматриваемой задачи. 10.2. Оптимальная линейная фильтрация дискретных процессов 10.2.1. Рекуррентные алгоритмы оптимальной дискретной линейной фильтрации Так же, как и в задачах непрерывной фильтрации, задача синтеза оптимальной линейной дискретной фильтрации может быть решена строго, исходя из рекуррентных уравнений для АПВ (9.11), (9.13). Пусть сообщение описывается скалярным уравнением (10.46)
9—2041
257
где
— ДБГШ с дисперсией
; Xq — начальное значение фильт-
руемого процесса, которое полагаем распределенным по гауссовскому закону с нулевым МО и дисперсией о^ • На вход системы обработки поступают дискретные отсчеты (10.47) где rij^ —ДБГШ с дисперсией а ^ . Из уравнения наблюдения (10.47) следует, что условная ПВ р ) при фиксированном значении Х^ является гауссовской с МО, равным Я^Я,^, и дисперсией а^ 1
{Ук-HkKf
(10.48)
Плотность вероятности переходов
), в соответствии с
42ml
(10.46), также является гауссовской с МО
"
дисперсией
GI_X<S\ , т.е.
)=
I,
(10.49)
где с — нормировочная константа. Рассмотрим формулу (9.13) на первом шаге к = \. Под знаком интеграла этой формулы имеем:
^Хд Iq" j =
(^о ) — гауссовская функция;
/'(^il^o) — гауссовская функция. Так как интеграл от гауссовской функции есть также гауссовская функция, то условная ПВ р ^Xj }(f j — гауссовская. Далее обратимся к уравнению (9.11), из которого следует, что апостериорная ПВ /^^Xi Fq) — также гауссовская функция, поскольку она получается в результате перемножения двух гауссовских функций. Рассуждая аналогичным образом далее, можно утверждать, что АПВ р 258
j — гауссовская. Обозначим
(1.)
и запишем очевидное выражение для гауссовской функции \2
1
(10.51)
exp
Подставим (10.49), (10.51) в (9.13) и выполним интегрирование ехр
{К
.2^ (^Л-1 - ^ ( t - l )
ехр
=
2DK,k-l
(10.52)
= С2 ехр 10.48) в (9.11), получа Подставляя (10.52), (10.48) получаем
[4-Fk-{Kk4
{Ук-НМ^
В то же время, как было показано выше, ПВ р
(10.53)
Уд* j — гауссов-
ская с МО и дисперсией, определяемыми формулами (10.50) для момента времени Л. Поэтому можно записать выражение, аналогичное (10.51): = с^ ехр
1 1>К,к 2
DK,k (10.54)
Из соотношения (10.54) следует, что оценка ент при
а величина
— это коэффици-
— коэффициент при
kl/l.Bu259
деляя аналогичные члены в показателе экспоненты (10.53) и приравнивая коэффициенты при указанных членах, получаем h =
^
(
у
п 1
,
)
,
(10.55)
2
1
(10.56)
Уравнение (10.55) описывает структуру оптимальной дискретной системы фильтрации, а уравнение (10.56) — изменение дисперсии ошибки фильтрации и коэффициента усиления синтезированной системы Kk=Hk^-
(10.57)
о; В (10.56) можно выделить переменную (10.58) которая по своей структуре повторяет регулярную компоненту фильтруемого процесса (10.46). Значение называют экстраполированной оценкой. Рассчитаем дисперсию экстраполированной оценки =м Г>К,к=М {h-hf =
(10.59)
С учетом (10.59) уравнение для дисперсии ошибки фильтрации (10.56) можно записать в виде (10.60) Из
(10.60)
>
следует,
что
всегда
выполняется
неравенство
> т.е. дисперсия ошибки экстраполяции всегда больше дис-
персии ошибки фильтрации. Физически это объясняется тем, что экстраполированная оценка
формируется по априорным данным и на-
блюдениям Уо*"', полученным на момент времени А: - 1 , в то время как л
оценка Х/^ формируется по тем же априорным данным, и по данным 260
наблюдений Iq
л-г
включающих как YQ
так и текущее
наблюдение yj^. Оптимальная дискретная система работает следующим образом. Пусть в (Л:-1)-й момент времени сформирована оценка фильтруемого процесса. Используя данную оценку, формируется экстраполированная на такт дискретной обработки оценка по алгоритму (10.58). После получения текущего наблюдения формируется разностный процесс
(10.61) который иногда называют обновляющим процессом или невязкой измерений. Процесс v^ несет информацию о расхождении текущего значения Xjt фильтруемого процесса и его экстраполированной оценкой Х.^ . Далее разностный процесс умножается на весовой коэффициент К/^ (10.57) и используется для аддитивной коррекции экстраполированной оценки , в результате чего формируется текущая оценка (ее иногда называют фильтрационной). Из уравнения (10.60) следует, что
Следовательно, для коэффициента усиления (10.57) оптимальной системы фильтрации можно записать эквивалентное выражение
(10.62) Рассмотрим разностный процесс V/^ (10.61). Прежде всего отметим, что он является гауссовским, так как получается в результате линейных преобразований гауссовских процессов. Покажем, что он к тому же является некоррелированным (т.е. типа белого шума). Для этого вычислим корреляцию двух соседних отсчетов М = Л/
] = М [ук-Hkik
(я^ (X, -
)J =
)+«, )(я,_, (V, л , . , Уч.,) 261
)(//*_,
-X^-i )+«*_!)
(10.63) При выводе (10.63) учтено выражение (10.62) и свойство некоррелированности шумов щ Х к Аналогично можно показать, что некоррелированными являются любые два отсчета обновляющего процесса. Заметим, что при выводе (10.63) существенную роль играют формулы для оптимальных значений коэффициента усиления (10.57), (10.62). Если использовать другие значения коэффициента усиления, то процесс V;^ окажется коррелированным. Это является важным признаком оптимальных систем фильтрации. Некоррелированность процесса v^^ означает, что оптимальная система извлекла из наблюдений всю возможную информацию о фильтруемом процессе. Никакая другая дополнительная обработка процесса v^ не даст дополнительной информации о Х)^, так как в белом шуме нет никакой информации. Дисперсия разностного процесса v^ равна М
=М
З а м е ч а н и е . Обновляющий процесс вида (10.61) можно ввести и в непрерывных системах фильтрации. При этом в оптимальной системе фильтрации он также является некоррелированным гауссовским процессом, т.е. БГШ, со спектральной плотностью, равной спектральной плотности аддитивного шума наблюдения. Схема оптимальной дискретной системы фильтрации приведена на рис. 10.10, где 262
обозначает задержку на такт.
Рис. 10.10. Схема оптимальной дискретной системы фильтрации Уравнения оптимальной фильтрации многомерной МП х/^, которая описывается уравнением Ч
=
(10-64)
где ^jt — векторный ДБГШ с матрицей дисперсий D^, при векторных наблюдениях (10.65) где п^ — векторный дискретный БГШ с матрицей дисперсий D„, являются обобщением уравнений (10.55)—(10.60) и имеют вид (10-66) (10.67) К, =
=
+D„
Dx,* =
,
(10.68)
. или
(10.69) .
(10.70)
Здесь i/i —оценка фильтруемого процесса; i/^ —экстраполированная оценка процесса; К^ — матричный коэффициент усиления; D , ^^ — матрица дисперсий ошибок фильтрации; D , ^ — матрица дисперсий ошибок экстраполяции. Уравнения оптимальной фильтрации (10.66)—(10.70) называют уравнениями фильтра Калмана (по имени автора, впервые их получившего). Так же как и в задаче фильтрации одномерного МП, введем векторный разностный процесс
263
который в оптимальной системе фильтрации является БГШ с нулевым МО и дисперсией М 10.2.2. Пример синтеза оптимальной дискретной системы фильтрации П р и м е р 10.3. Рассмотрим задачу дискретной фильтрации дальности до цели, движущейся на встречном курсе с РЛС. Движение цели и РЛС в плоскости описывается уравнениями (2.32). В качестве модели ускорения a{t) вдоль линии визирования цели примем БГШ ^(г) с двусторонней спектральной плотностью 5 ^ / 2 . Переходя от непрерывных уравнений (2.32) к дискретным с шагом дискретизации T j , например, методом Эйлера получаем следующую дискретную модель изменения дальности до цели Л* = Rk-i + Ш - Х , где
П = f'ik-i H k - i ,
(10.71)
—ДБГШ с нулевым VJ и дисперсией а | = S^Tj j l .
Наблюдению доступны отсчеты дальности в аддитивной смеси с ДБГШ л/ п1 = а ? . Введем вектор х =
V/^l^ . Записывая уравнения (10.71) в вектор-
ной форме (10.64), получаем F=
0 1 Td , G = , а также H = |l 0|. 0 1 1
(10.72)
С учетом (10.72) уравнения оптимальной дискретной фильтрации (10.66)-(10.70) конкретизируются в виде Чк {Ук -^к),
+ тЛ-\ >
(10.73)
(10.74) А1.* = А и - 1 + 264
+ Т}022,к-1.
(10.75)
А2,* =
+ Tdl>22,k-\ . Аггл =
Au=AIX/(AI,*+<J^).
^2.*
+04 ,
A2.*=A2X/(Au+a^), (10.76)
-Au/(Au
Схема оптимального фильтра приведена на рис. 10.11 и представляет собой дискретную следящую систему за параметром R/^. В установившемся режиме АГ] = const, К2 = const.
Рве. 10.11. Схема оптимального фильтра В задачах радиолокационных измерений фильтр (10.73) с постоянными параметрами часто называют {а-^)-фш1ьтром. При этом уравнения (10.73) записывают в виде 4 = Л* + а ( п - Л* ) >
+ TdVk-l.
где а и Р —безразмерные параметры. Дисперсионные уравнения (10.75)—(10.76) для дискретной задачи фильтрации аналитического решения в установившемся режиме не имеют, что затрудняет анализ дискретной системы фильтрации. При малом шаге дискретизации Т^ « 1 / 4 / с с » где — полоса пропускания следящей системы, анализ дискретной системы фильтрации можно заменить анализом соответствующей непрерывной системы. При ^rf ">0 уравнения оптимальной дискретной фильтрации (10.73)-(10.76) переходят в соответствующие уравнения оптимальной непрерывной фильтрации, в которых дисперсионные уравнения имеют вид —7—= 2i)i2H at
— . —Т at
NQ
^2н NQ
265
где
= Система уравнений (10.77) в установившемся режиме имеет решение
Уравнения (10.73) описывают следящую систему с астатизмом 2-го порядка. В установившемся режиме полоса пропускания такой следящей системы определяется выражением
^yer^d
4 - 2Ki уст - АГг Y„Tj
При малом шаге дискретной обработки Tj полоса пропускания пропорщюнальна
квадратному корню из коэффициента усиления
V ^ = yjf^lyer/^d по контуру следящей системы. 10.2.3. Некоторые обобщения алгоритмов оптимальной линейной дискретной фильтрации Так же, как и в случае непрерывной фильтрации, алгоритмы оптимальной линейной дискретной фильтрации могут быть обобщены на случай, когда уравнение формирования (10.64) включает дополнительное регулярное возмущение, т.е. х('о) = Хо.
(10-78)
где U;t-i — известная функция времени. Такие же рассуждения, что и в п. 10.1.2, приводят к тому, что в уравнения формирования оценки также должна входить детерминированная составляющая . Так как в дискретном алгоритме фильтрации (10.66)—(10.65) регулярная составляющая формирующего уравнения определяет закон экстраполяции оценки, то приходим к выводу, что при фильтрации процесса (10.78) в алгоритме оптимальной фильтрации (10.66)—(10.70) изменяется лишь алгоритм формирования оценки (10.67), который принимает вид 266
Остальные уравнения оптамальной фильтрации остаются без изменений. Если в постановке задачи синтеза оптимальной системы фильтрации формирующий шум
и шум наблюдения
заданы коррелиро-
ванными, т.е. М ^^nj, = Ч'^п^ы > ™ ® алгоритме оптимальной фильтрации остается неизменным уравнение (10.66) для формирования оценки х^, т.е. (y^fc-H^ii). Так как в шуме наблюдения содержится информация о шуме формирования (в их взаимной корреляции), то уравнение для экстраполированной оценки изменяется и принимает вид Ч = F*4it-l
,
(10.79)
Заметим, что в алгоритме экстраполяции (10.79) участвуют наблюдения y;t-i > полученные на предыдущем шаге, в то время как в алгоритме фильтрации участвую наблюдения у , полученные на текущем шаге. Так как изменилась экстраполированная оценка, то изменяется и уравнение для матрицы дисперсий ошибок экстраполяции Кк =
-K/fc-i
f
-K,D„K; .
(10.80) При этом матрицы коэффициента усиления и дисперсий ошибок фильтрации рассчитываются по формулам
(10.81) Форма записи соотношений (10.81) совпадает с одной из форм записи уравнений (10.68) и (10.70). Однако численные результаты расчета получаются различными, так как изменяется дисперсия ошибки экстраполяции (10.80) и (10.70) соответственно. Также как и в задаче непрерывной фильтрации, коррелированность шумов формирования и наблюдения приводит к уменьшению дисперсии ошибки фильтрации. 267
10.2.4. Дискретный фильтр Винера Пусть априорные сведения о фильтруемом
и наблюдаемом
процессах заданы в форме корреляционных функций R)^y(k,m) и Иу(к,т). .
Рассмотрим задачу получения линейной оценки
вида
* = ^ ёк.]У] > которая минимизирует средний квадрат ошибки У=1
(10.82)
ц=М
Сформулированная задача оптимальной линейной дискретной фильтрации была впервые решена А.Н. Колмогоровым в 1939 г. [2], т.е. раньше, чем фильтрация в непрерывном времени, разработанная Винером (1942 г.). Так же, как это было сделано в п. 10.1, можно показать, что миниА
мум (10.82) достигается при такой оценке Х,^ и соответствующей ей оптимальной импульсной характеристики gt^som > пр" которых выполняется условие М
Л
= О при всех sel,k.
(10.83)
к Так как
=
Skjomyj > то, выполнив в (10.83) усреднение, поМ
лучаем R\y {k,s)= i gkjo^Ry U^s). (10.84) y=i Таким образом, оптимальная импульсная характеристика фильтра Винера gk,soin находится из решения уравнения (10.84). Для стационарных и стационарно связанных процессов и у/с корреляционные функции зависят от разности временных аргументов V = s-k, т.е. Rj^y (v) и Ry{v). При бесконечном времени наблюдения фильтр Винера будет стационарным, а его импульсная характеристика находится из уравнения
268
к y=l к о т ^ е является дискретным аналогом уравнения Винера—Хопфа Связь оптимальной дискретной фильтрации по Винеру и Калману. Дискретный фильтр Винера, также как и его непрерывный вариант, описывает оптимальную линейную систему фильтрации в интегральной форме, которая может быть получена и в постановке задачи дискретной калмановской фильтрации. Пусть наблюдается процесс (10.47), в котором =сх^ описывается компонентой многомерного МП х^, удовлетворяющего уравнению (10.64). При такой постановке задачи однозначно определяются корреляционные функции Rxy
=М
] = Я^сКх
,
Ry{k,m) = M[X^y^] = HICRx {к,тУ
+К„{к,т).
Следовательно, выполнены условия постановки задачи синтеза фильтра Винера. Для сформулированной задачи оптимальная оценка, минимизирующая дисперсию ошибки фильтрации, описывается уравнениями (10.74), (10.75), которые запишем в виде it
.
(10.85)
где I — единичная матрица, Kt — матрица коэффициентов усиления фильтра Калмана, определяемая уравнениями (10.68)—(10.70). Решим уравнение (10.85) на одном шаге 1
«=0 где ф*,* = 1 , Фк,к-2 =^к.к-\'^к-1к-2Выполнив решение еще на одном шаге, получаем 269
1
ik =
+^к,к-2^к-2Ук-2 + I ^k,k-i^k-iyk-i (=0
=
2
= ^k,k-34-i
+ 1 ^k,k-i^k-iyk-i
•
1=0
Продолжая решение далее на A; - 1 шагах, запишем Ч = <^kfi4+l^k,k-i^k-iyk-i.
(10-86)
1=0
где
J-1 = П
. ' = 1.А:; Флг.лг = I •
7=0
Так как обычно полагают х© = ® > ™> вводя обозначение (10.87) представим (10.86) в виде к i * = I %k,sys •
(10.88)
s=\
Из соотношения (10.88) следует, что — импульсная характеристика дискретного линейного фильтра. Таким образом, оптимальная оценка Х;^ может быть получена на выходе линейного фильтра с импульсной характеристикой g;^ ^ (10.87). Учитывая соотношение Xj^ - сх^, запишем выражение для оценки фильтруемого процесса к к = I = S gMonrJVi . s=l j=l где gi,sotiT ~ импульсная характеристика дискретного фильтра Винера. 10.3. Оптимальная комбинированная кламановско-винеровская фильтрация В предыдущих материалах книги были приведены алгоритмы оптимальной линейной фильтрации в дифференциальной (разностной) (фильтр Калмана) и в интегральной (фильтр Винера) формах. Оба фильтра в любой момент времени дают совершенно идентичные оценки 270
фильтруемого процесса с минимальной дисперсией ошибки фильтрации. Естественно, встает вопрос об оптимальной системе фильтрации, в которой сочетаются дифференциальные (разностные) и интегральные алгоритмы обработки или, другими словами, алгоритмы Калмана и Винера. Ниже будут рассмотрены два типа таких алгоритмов, соответствующие двум различным задачам фильтрации. 10J.1. Непрерывно-дискретная калмановско-винеровская фильтрация Наблюдение (измерение) той или иной физической величины всегда аналоговое, так как реализуется тем или иным физическим датчиком (давления, температуры, радиолокатором, навигационным или связным приемником и т.д.). В то же время информация может выдаваться потребителю не непрерывно, а лишь в некоторые дискретные моменты времени . Таким образом, можно ставить задачу синтеза оптимальной системы фильтрации, которая в заданные (тактовые) моменты времени tj^ формирует оптимальные (в смысле минимума дисперсии ошибки фильтрации) оценки х^ непрерывного процесса х(<), описываемого уравнением ^ = F ( O x + G ( / H ( / ) , х(/о) = Хо
(10-89)
at и наблюдаемого на фоне БГШ у(/) = Н ( 0 х ( 0 + п ( / ) .
(10.90)
В (10.89), (10.90) A/U(/)^^(/ + x)] = S^/25(x),
Л/Гп(/)п^ (/ + т)1 =
= N„/25(t). Так как фильтруемый процесс и наблюдения являются непрерывными процессами, то рекуррентным фильтром, формирующим оптимальные оценки процесса в каждый момент времени будет фильтр Калмана (10.14), для которого запишем уравнение ^ = F(f)x + K ( / ) ( y ( 0 - H ( r ) i ) , i ( 0 ) = xo.
(10.91)
at Пусть задана равномерная сетка отсчетов
, в которые необходимо
формировать оптимальные оценки х^ , таких, что t,^
= Tj . 271
Положим, что в момент времени оценка
сформирована оптимальная
. Проинтегрируем уравнение (10.91) на интервале времени Использую ту же методику, что и в п. 10.2, представим (10.91)
в виде
| = (F(/)-K(0H(0)i + K(0y(0.
(10.92)
Введем переходную матрицу Ф(г,х), удовлетворяющую однородному уравнению (10.93) с начальным условием Ф(х,т) = I . Теперь решение неоднородного матричного уравнения (10.92) на интервале времени можно записать через переходную матрицу Ф(г,х) в виде =
=4 +
'I Ф(Гь^)К(т)у(х)^т =
Ф(/,.х)К(х)у(х)^х.
(10.94)
Соотношение (10.94) является одной из форм оптимальной непрерывно-дискретной фильтрации, которая реализуется схемой, приведенной на рис. 10.12.
Рис. 10.12. Схема оптимальной непрерывно-дискретной системы фильтрации В алгоритме непрерывно-дискретной фильтрации (10.94), так же как и в алгоритме рекуррентной дискретной фильтрации, сначала формируется экстраполированная оценка 272
(10.95)
Однако, в отличие от дискретной фильтрадии, для экстраполяции используется переходная матрица фильтра Калмана. Это отличие является принципиальным, так как физически более понятна экстраполяция в соответствии с динамикой изменения априорного уравнения (10.89), а не в соответствии с динамикой изменения оценки (10.91). Принимаемые на интервале времени наблюдения у(/) обрабатываются в фильтре Винера в непрерывном времени h tk-\ =
где
— импульсная характеристика фильтра
Винера. Сформированный на выходе фильтра Винера в момент времени tj^ отсчет используется для коррекции экстраполированной оценки (10.95), в результате чего получается искомая оптимальная оценка х^ фильтруемого процесса. Возможна другая реализация оптимальной непрерывно-дискретной системы фильтрации, которая получается, если воспользоваться следующим представлением для переходной матрицы = где
} Ф ( м ) К ( т ) Н ( х ) Ф ^ ( х , / ^ _ , ) ^ т , (10.96) — фундаментальная матрица априорного уравнения
(10.89), удовлетворяющая однородному уравнению It
= Р(ОФарО,х)
(10.97)
С начальным условием Ф^^, (т,т) = I . В справедливости (10.96) можно убедиться, продифференцировав его по времени
273
= (F(0-K(0H(0)x
= (р(0-К(0Н(/))Ф(/,/;^_,).
(10.98)
Таким образом, приходим к уравнению (10.93), которое верно по определению переходной матрицы Ф(?,т). Подставляя (10.96) в (10.94), получаем Ч =ФарОк''к-\)Ч-1
+
= х , + '} Ф ( / „ т ) К ( т ) ( у ( х ) - Н ( т ) х 0 ^ т = ty
=
.
gB('b-t)(yW-H(T)x,)t/t,
где xt = Ф^р { t k , ,
х^ = Ф^р (т,
(10.99) — экстраполирован-
ные с момента времени ti^^i на моменты времени ti^ и оценки фильтруемого процесса, g g = Ф(Г;1,т)К(т) —импульсная характеристика фильтра Винера. Отметим, что в данном случае экстраполяция осуществляется в соответствии с переходной матрицей априорного уравнения (10.89). Схема, реализующая оптимальный алгоритм непрерывно-дискретной фильтрации (10.99), показана на рис. 10.13. Схема представляет собой следящую систему комбинированного типа. Для каждого момента времени t е ,/jt ] формируется разностный процесс 274
Рис. 10.13. Схема комбинированного калмановско-винеровского фильтра
который поступает на аналоговый фильтр Винера. Фильтр Винера работает на интервале времени ('/t-i,^*], в конце которого формируется отсчет Ub (^t). Оценка фильтруемого процесса формируется в результате экстраполяции (в соответствии с переходной матрицей априорного уравнения (10.89)) на момент времени tj^ оценки , полученной на предыдущем шаге, с последующей ее аддитивной коррекцией на величину отсчета, полученного на выходе фильтра Винера. Схема непрерывно-дискретной фильтрации (рис. 10.13) получила название комбинированного калмановско-винеровского фильтра, так как она сочетает рекуррентную фильтрацию (замкнутая следящая систем) по Кламану и фильтр Винера на каждом интервале времени Причем фильтр Винера стоит внутри следящего кольца. Отметим, что в комбинированном калмановско-винеровском фильтре точность формирования оценок в моменты времени совпадает с точностью оценок в аналоговом фильтре Калмана (10.14) в те же моменты времени. Это следует, из того факта, что (10.99) получено в результате интегрирования уравнения (10.14). Поэтому можно говорить о том, что комбинированный калмановско-винеровский фильтр реализует оптимальную обработку непрерывных наблюдений с целью формирования оптимальных дискретных оценок фильтруемого процесса. 10.3.2. Дискретная калмановко-винеровская фильтрация Рассмотрим задачу дискретной фильтрации многомерной МП х^ , которая описывается уравнением
275
x(/o) = Xo, где
(10.100)
— векторный дискретный БГШ с матрицей дисперсий D^, при
векторных наблюдениях
(10.101) здесь п^ — векторный ДБГШ с матрицей дисперсий D„. Уравнения (10.10)—(10.101) заданы в дискретном времени с шагом дискретизации T j . В ряде приложений не ставится задача выдавать потребителю информацию о векторе состояния Xj^ в каждый момент времени. Достаточно формировать оценки в более редкие моменты времени, но они, по-прежнему, должны быть оптимальными, а, следовательно, обрабатывать все имеющиеся наблюдения у^. Данная задача аналогична той, которая рассматривалась ранее, с той лишь разницей, что наблюдения и фильтруемый процесс описывается в дискретном времени. Для удобства последующего изложения введем новую индексацию последовательных моментов времени, приведенную на рис. 10.14. Каждые два соседних отсчета отстоят , ' ; ' ' друг от друга на интервал времени T j . Оценки фильтруемого процесса Рис. 10.14. Временная диаграмма необходимо формировать в тактовые моменты времени t/^, к = I, 2, ... такие, что =NTj=T, t^.i^f^ = t^., = . В принятых обозначениях фильтруемый процесс (10.100) и наблюдения (10.101) на интервале времени описываются соотношениями
Ч-и =
, =
, /• = 1,ЛГ.
) = x*-i.o.
(10.102) (10.103)
Запишем уравнения дискретного фильтра Калмана для модели (10.100)—<10.103)
4-i,i =
276
. =
.
(10-104)
где
— матрица коэффициентов усиления фильтра Калмана, ко-
торая определяется уравнениями (10.68)—(10.70). Решим уравнения (10.104) на N шагах, начиная с начального значения . Используя методику, описанную в п. 10.2 и формулы (10.85)—(10.86), запишем выражение N-\ h = + I *^k-,k-\,N-i^k-l,N-iyk-l,N-i ' (10.105) 1=0
j=0 Уравнение (10.105) аналогично уравнению непрерывно-дискретной фильтрации (10.94), но для дискретного описания фильтруемого процесса (10.100) и наблюдений (10.101). Для получения алгоритма комбинированной калмановско-винеровской фильтрации воспользуемся соотношением для переходной матрицы, аналогичным (10.96), N-\ 1=0
(10.106)
ЛГ-/-1 где ^apk-\,N-r,k-\= П / = 0 , i V - l ; Фарк-\;к-\=^ — переходу=о ная матрица априорного уравнения (10.102). Подставляя (10.106) в (10.105), получаем N-l
'
/=0 Л^-I
-
\_
j=0 N-l = ik+l
i=0
8k;k-l,N-i (yk-lN-i
где времени
). ~
(10.107)
экстраполированная на момент
оценка; gk-k-l.N-i
характеристика дискретного фильтра Винера.
—импульсная 277
Уравнение (10.107) описывает дискретный комбинированный калмановско-винеровский фильтр, схема которого аналогична той, что приведена на рис. 10.13. Отличие заключается в том, что вместо непрерывного фильтр Винера используется дискретный, а вместо аналогового экстраполятора на текущий момент времени используется экстраполятор лишь на дискретные моменты времени fyt-i,/ е ('/t-i
]•
10.4. Оптимальная линейная экстраполяция и интерполяция 10.4.1. Оптимальная линейная экстраполяция Во многих радиотехнических задачах возникают ситуации, когда сигнал на некоторое время пропадает, но, тем не менее, оценку информационного процесса необходимо формировать и в отсутствие наблюдений. Такую задачу называют задачей экстраполяции. Рассмотрим случай непрерывного времени. Пусть на интервале времени [0,fi] проводились наблюдения y(/) = H(r)x(/)+ii(f), где x(t)— фильтруемый процесс, описываемый уравнением (10.89). На интервале времени [О,/]] оптимальная оценка x(t) определяется уравнениями фильтра Калмана (10.14)—(10.16). При г > /i наблюдения отсутствуют. Требуется оптимальным образом сформировать оценку x(t) при
oti-
Напомним, что при решении задачи фильтрации ищется, прежде всего, апостериорная ПВ
Yq j . Для линейной задачи фильтрации
АПВ является гауссовской, а ее МО i и дисперсия D , описываются уравнениями фильтра Калмана. Эта же методология используется и для решения задачи экстраполяции, т.е. необходимо рассмотреть апостериорную ПВ
при t > t i . Отсутствие наблюдений при t X j
формально записывается как у(0 = 0,?>/,.
(10.108)
Уравнение Стратоновича (9.5) для АПВ записано для произвольных наблюдений, в том числе и нестационарных. В момент времени ( = /[ 278
АПВ равна
Yq') с параметрами х(/,), D , ( / i ) . При
учи-
тывая (10.108), уравнение для АПВ принимает вид II
/
(10.109) t =h Данное уравнение есть ни что иное, как априорное уравнение Фоккера—^Планка—Колмогорова (1.79) с начальным условием Так как ПВ
Y^'j — гауссовская, то
Yq' .
Yoj, порождаемая
(10.109), также будет гауссовской, и для ее определения необходимо знать МО i ( / ) и дисперсию D , . Уравнение для оценки получается усреднением априорного уравнения (10.89) и имеет вид (10.110) Получим уравнение для дисперсий. Введем 6x = x - i и запишем дифференциальное уравнение
(10.111) По определению D, (/) = Л/^бх5х^ j . Продифференцируем это выражение по времени с учетом (10.111)
dt
=м
dbx
dt
+М 5х
dt
= Г(/)Л/ 5х5х^
+м 8х6х^ Вычислим математическое ожидание М
(10.112) Запишем
решение уравнения (10.111) 5 x ( 0 = 8x(/,)+J®(f,v)G(v)5(v)
dФ{t,x)
= F(/)0(M).
dt
с начальным условием Ф(х,х) = I . Тогда для искомого МО получаем М
t
1
*
2
Аналогичное выражение получается и для последнего слагаемого в (10.112). Суммируя полученные результаты, окончательно запишем
Уравнения (10.110), (10.113) дают решение задачи экстраполяции в непрерывном времени. Аналогичным образом решается задача экстраполяции при фильтрации в дискретном времени. Более того, в структуре алгоритма оптимальной дискретной фильтрации (10.66)—(10.70) уже есть алгоритм одношаговой экстраполяции (10.67), (10.69). Если поступает новое измерение, то экстраполированная оценка и ее дисперсия корректируются в соответствии с уравнениями (10.66), (10.70). Если измерение не поступает, то необходимо делать следуюпщй шаг экстраполяции по тем же уравнениям (10.67), (10.69). 10.4.2. Оптимальная линейная интерполяция В задаче интерполяции процесса x(f) по наблюдениям у(/) на интервале времени [О, г] необходимо получить оценку х(х) для момента времени т е [0,г], т.е. лежащего внутри интервала наблюдения. В отличие от задачи фильтрации, в которой при формировании оценки х(г) в 280
момент времени t использовались лишь наблюдения у (/), полученные к этому моменту времени, в задаче интерполяции в формировании оценки i ( x ) участвуют как наблюдения, полученные к моменту времени т , так и наблюдения, полученные после него. Понятно, что увеличение объема наблюдений должно приводить к увеличению точности, поэтому точность интерполированных оценок должна быть выше точности фильтрационных оценок. Различают три типа интерполяции: интерполяция на фиксированном интервале, при которой фиксируется интервал наблюдения / = const, а момент времени т , для которого ищется интерполированная оценка, может быть любым в пределах интервала [о,/]; интерполяция в фиксированной точке, при которой фиксируется момент времени т , для которого ищется интерполированная оценка, а время t > X меняется, т.е. наблюдения продолжают поступать в реальном времени; интерполяция с фиксированной задержкой, при которой поддерживается постоянной разность / - x = const>0, т.е. наблюдения продолжают поступать в реальном времени и момент времени х, для которого ищется интерполированная оценка, также меняется, таким образом, что / - х = const. Рассмотрим задачу интерполяции в дискретном времени. Пусть на интервале времени [О,)!:] наблюдается реализация (10.65), в которой фильтруемый процесс Х;^ описывается уравнениями (10.64). Оптимальную обработку во всех задачах интерполяции определяет АЛВ Yo j , V е 1, А при дополнительных ограничениях на характер изменения и соотношение между индексами \ п к . При выводе различных алгоритмов интерполяции удобно оперировать с совместной АПВ щей нас АПВ
^о ) , которая связана с интересую-
YQ) соотношением (СМ. (1.18)) (10.114) —oe
Ниже потребуется соотношение 281
/7(xv|xh,Y^) = p(xv
для всех
(10.115)
которое вытекает из равенств
Приводимая ниже методика вывода основана на получении рекуррентных уравнений для совместной АПВ
Yq j с последующим
получением обычной АПВ /^^ху Yq j по формуле (10.114). Оптимальная
интерполяция на фиксированном
Представим АПВ
интервале.
Yq j в виде
Yq ) = 1
YQ
=
= i P(xv|xit.xv+1Y0 )/'(xit»Xv+l|Yo j'/x v+i-
(10.116)
В соответствии с (10.115) имеем Р(ху
YQ ) = =
(ху |ху+1 .Yo ) = |YO j/'lxy+i |ху )//'(xv+i |YO^) •
Подставляя (10.117) в (10.116), получаем |Yo)
282
=
(10.117)
= /'(XV|Yo ) J / ' ( х ь Ч + l |YO )/'(xv+IK)//'(XV+I|YO^)
(10.119)
т.е. АПВ для задачи фильтрации, соответствующая моменту времени к . После нахождения АПВ
Yq j искомая АПВ
Yq j на-
ходится из (10.114). Так как в (10.114), (10.118)—(10.119) все преобразования линейные, то АПВ р^х^ Yq j является гауссовской и, следовательно, описывается МО
и дисперсией D^yj^^. В результате достаточно громоздких пре-
образований из (10.114), (10.118) получается следующий алгоритм интерполяции на фиксированном интервале: x^i=Xv+Kv(iv+i|;t-FvXv),
(10.120)
tA-I Ku — D_„Fu D, dxv|t =
+ ^ v (dxv+ii* -
,
(10.121)
где iy , D ^ , Djv — оптимальная оценка и дисперсии ошибок фильтрации и экстраполяции фильтра Калмана (10.66)—(10.70). Уравнения (10.120), (10.121) решаются в обратном времени с начальными условиями = Xjt, Dj^^j;^ = Djjt. Принцип работы алгоритма интерполяции основан на формировании фильтрационных оценок Ху для всех моментов времени V€ Данные оценки включают всю информацию, содержащуюся в наблюдениях, полученных к моменту времени v . Далее в обратном времени проводится коррекция этих оценок с целью включить в итоговую (интерполированную) оценку информацию, заключенную в наблюдениях, полученных после того, как была сформирована соответствующая фильтрационная оценка. Причем в этой коррекции участвуют не сами 283
наблюдения, а соответствующие фильтрационные оценки, в которые они уже вошли (которые являются достаточными статистиками).
Оптимальная интерполяция в фиксированной точке. 6 этой даче рекуррентное уравнение должно связывать АПВ р^х^^Ху, Yq j АПВ
с
Yq"*"'!. Данную задачу можно трактовать как задачу
фильтрации расширенного вектора Zj^ = Ч
по текущим наблюдениям
Yq , но при этом вторая компонента вектора z^ с течением времени не меняется. Исходя из этого, можно сразу записать рекуррентные уравнения для АПВ p^x/i ,Ху Yq , аналогичные (9.14)—(9.15): J
.
(10-122)
—оо
)=
| Y o * ) ,
которые необходимо дополнить очевидным /^^x^jxy Yq j
=/'(xv Yq
где
начальным
(10.123) условием
Yq j — обычная АПВ для за-
дачи фильтрации. Так как фильтруемый вектор z/^ является двухкомпонентным, то и оптимальный фильтр для интерполяции содержит два блока. В одном блоке формируются фильтрационные оценки х^ и сопутствующие им параметры К;^ > , Djj^ (матричный коэффициент усиления и дисперсии ошибок фильтрации и экстраполяции) в соответствии с уравнениями фильтра Калмана (10.66)—(10.70). Рекуррентные уравнения для второго блока, формирующего интерполяционную оценку Xyj^ и дисперсию , полученные на основе (10.122), (10.123), имеют вид =
284
+
-
)'
*v|v =
.
Здесь, как и в предыдущем методе интерполяции, формирование интерполированных оценок происходит в результате коррекции фильтрационных оценок, причем наблюдения в этом процессе выступают не непосредственно, а также через фильтрационные оценки.
Оптимальная интерполяция с фиксированной задержкой. В д ной задаче необходимо получить рекуррентную зависимость между АЛВ
)
и
Требуемые соотношения
можно получить из (10.118), (10.122), (10.123). При этом уравнение (10.118) надо рассматривать относительно переменной
|Yo" ) J
|YO^
)
, (10.124)
a уравнения (10.122), (10.123) объединить и представить в виде
Р (хл+1
) = ср (у it+i
—оо (10.125)
При наличии в постановке задачи фиксированной Ъ = к-\
задержки
алгоритм (10.124)—-(10.125) должен начинать работу с началь-
ного условия p^Xjt-vjXo
которое можно вычислить, используя
алгоритм интерполяции в фиксированной точке (10.122), (10.123). Уравнения для интерполированных оценок, вытекающие (10.124), (10.125), имеет вид
из
(Ук-Щч)'
285
(10.126) Как и в предыдущих задачах интерполяции, алгоритм (10.126) работает совместно с алгоритмом фильтра Калмана (10.66)—(10.70) и использует его оценку на предыдущем шаге, матричный коэффициент усиления К^ и матрицы дисперсий ошибок фильтрации и экстраполяции. Однако, в отличие от предыдущих задач интерполяции, текущее наблюдение у^ обрабатывается непосредственно в алгоритме (10.126), а не через оценку х^ (достаточную статистику). 10.5. Оптимальная линейная фильтрация при коррелированных шумах наблюдения До сих пор рассматривались задачи фильтрации процессов, наблюдаемых на фоне белого (некоррелированного) шума. Теперь рассмотрим задачу фильтрации дискретного процесса (10.64) по наблюдениям (10.65), в которых шум п^ является векторным МП, описываемым уравнением (10127) где
— ДБГШ с матрицей дисперсий D^,.
Решение данной задачи получается в результате обобщения теории фильтрации МП, приведенной в гл. 9, и базируется на теории условных марковских процессов. Рассмотрим расширенный процесс
= ** и покажем, что он яв-
ляется марковским. Подставим (10.64) и (10.127) в (10.65) и выполним ряд преобразований
У к= =
286
= +
+
-
+
(10.128)
Теперь для вектора Zf. можно записать разностное уравнение
где О
С.-1 = Gz =
Gt-i
О
Таким образом, процесс z^^ является многомерным марковским процессом. Положим, что такой процесс задан, т.е. известна ПВ переходов р ( z t
) = р{\к^Ук
Рассмотрим АПВ
.Уit-l) • Yq j и, используя свойство согласованности
ПВ, запишем ] —oe
.
(10.129)
На основании формулы Байеса для ПВ /'(х^.**-! ^о j имеем
(10.130) /'(у.К') Так как процесс г^ — марковский, то справедливо равенство (x/t. У t
.Yo*"' ) =
У к\Ч-1^Ук-1)-
(10.131)
Подставляя (10.130) в (10.129) и учитывая (10.131), получаем
(10.132) (y.|Yo-) 287
Данное уравнение является рекуррентным относительно искомой АПВ р^!^ Yq j и, следовательно, дает решение задачи фильтрации при коррелированном шуме наблюдения. При вьгеоде алгоритмов оптимальной фильтрации используется еще одно уравнение, являющееся аналогом уравнения (9.15) для экстраполированной ГШ. Используя формулу Байеса, запишем I
/'к.у^к-')
(10.133)
Сопоставляя (10.132) и (10.133), получаем искомое уравнение
—«о
Алгоритм оптимальной фильтрации получается из (10.132), (10.134) аналогично тому, как это бьшо сделано п. 10.1, т.е. ГШ p{^kVk-\)' р{^к-\
Yq j ,
р{^к Yq) представляется в виде гауссов-
ских функций, которые подставляются в (10.132), (10.134). Далее делаются необходимые матричные преобразования и приравниваются соответствующие члены в левой и правой частях равенств. В результате получаются следующие алгоритмы оптимальной фильтрации: (10.135) ^к =
+
У )х
(10.136) (10.137)
-K. где 288
= HiF^., -
(10.138) .
(10.139)
Кроме описанного выше, возможна иная методика вывода уравнений оптимальной фильтрации. Введем процесс Щ=Ук-^к-\Ук-\(10.140) Из (10.128), с учетом определения (10.139), можно записать
(10.141) где
а М Вектор u^^ можно рассматривать как новые наблюдения, представленные в форме (10.141), которые линейно зависят от фильтруемого процесса х , поэтому можно ставить и решать задачу оптимальной линейной фильтрации процесса х по наблюдениям (10.141). В этой задаче шумы формирования и наблюдения коррелированны:
М Поэтому для решения задачи оптимальной фильтрации необходимо воспользоваться уравнениями (10.79)—(10.81). Применение этих уравнений приводит а алгоритму, совпадающему с (10.135)—(10.138). Преобразование (10.140) есть ни что иное, как обеляющий (помеху) фильтр. Таким образом, решение задачи фильтрации на фоне коррелированной помехи также как и в задачах обнаружения и оценки параметров сигнала сводится к предварительному «обелению» помехи линейным фильтром с последующим решением задачи оптимальной фильтрации на фоне некоррелированной помехи. Обобщенная схема оптимальной системы фильтрации приведена на рис. 10.15. Рассмотрим задачу оптиОбедающий щ Фильтр мальной непрерывной фильт- Ук фильтр Калмана ^ рации многомерного марковского процесса х(/), описыРис. 10.15. Схема оптимального фильтра ваемого уравнением (10.89), при коррелированной помехе при наблюдениях (10.142) у(г) = Н ( / ) х ( 0 + п ( 0 , 10—2041
289
где n{t) —коррелированная помеха, описываемая уравнением
da dt = A ( 0 n + B ( 0 n ( 0 . Л/
+
=Nn/26(x).
Для получения уравнений оптимальной фильтрации воспользуемся методом обеляющего фильтра. Продифференцируем (10.142) по времени
dy dt
da. dt
„dx dn dt dt
— =—х +Н—+— = = A(0yH-(H'(0+H(/)F(/)-A(0H(0)x +
+Н(0С(0^(г)+В(/)л(0-
(10-143)
Определим процесс на выходе обеляющего фильтра соотношением и(/) = - ^ - А ( О у .
dt
(10.144)
Тогда, используя (10.143), имеем
где
и ( 0 = Н*(/)х + С ( 0 .
(10145)
H*(/) = H ' ( 0 + H ( 0 F ( / ) - A ( 0 H ( 0 .
М Как и в задаче дискретной фильтрации, формирующий шум и шум ^[t) эквивалентных наблюдений (10.45) — коррелированны. Поэтому для получения алгоритма фильтрации необходимо использовать уравнения (10.14), (10.20), (10.21). В результате получаем следующий алгоритм: ^ = F ( O i + K ( / ) ( u ( / ) - H * ( O x ) , x ( 0 ) = Xo, 290
(10.146)
K ( 0 = ( D , ( / ) H * M 0 + G(0S^(H(/)G(/))^)2Nf',
=
(10.147)
(10.148)
Уравнения (10.144), (10.146)-(10.148) определяют алгоритм оптимальной фильтрации процесса наблюдаемого на фоне коррелированной помехи.
Контрольные вопросы к главе 10 1. При каких условиях фильтр Калмана является абсолютно оптимальным, т.е. нельзя найти никакого другого линейного фильтра, дающего меньшую дисперсию ошибки фильтрации? 2. Чем постановка задачи синтеза фильтра Калмана отличается от постановки задачи синтеза фильтра Винера? 3. Какую структуру имеет оптимальная система фильтрации непрерывного процесса с формированием оптимальных оценок в дискретные моменты времени? 4. Какие типы линейного сглаживания вы знаете? Дайте их определения. 5. Чем определяется закон формирования экстраполированных оценок? 6. Какую роль играют априорные сведения в задаче фильтрации? 7. К какому значению стремятся в установившемся режиме коэффициенты усиления фильтра Калмана при фильтрации квазидетерминированного процесса и почему?
291
Глава
11
ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ
Задача фильтрации называется нелинейной, если сообщение описывается нелинейным дифференциальным уравнением и/или входит нелинейно в наблюдения Задачи нелинейной фильтрации являются типичными для радиотехнических приложений. Так, например, в системах связи, радиолокации и радионавигации, когда полезная информация (сообщение) передается путем модуляции частоты, фазы, задержки сигнала, длительности радиоимпульсов и др., имеем случай нелинейной связи сообщения и наблюдений. В ряде задач измерения координат объектов радиолокационными методами изменение координат во времени (которые в данном случае являются полезными сообщениями) описывается нелинейными дифференциальными уравнениями, например, (2.30)—(2.31). В отличие от задачи линейной фильтрации гауссовских процессов, когда АГГВ является гауссовской, в задаче нелинейной фильтрации АПВ, как правило, является негауссовской. Это, во-первых, приводит к тому, что оптимальные оценки сообщения, соответствующие различным критериям оптимальности, могут отличаться друг от друга. Так, например, оценки условного среднего и максимума АПВ не совпадают при несимметричных апостериорных распределениях. Во-вторых, даже в рамках одного критерия оптимальности, например критерия минимума дисперсии ошибки фильтрации, не удается получить точного, замкнутого решения, так как АПВ описывается бесконечной цепочкой взаимосвязанных моментов, квазимоментов или семиинвариантов (см. гл. 1). Поэтому в теории оптимальной нелинейной фильтрации используют те или иные приближенные решения. Практически наибольшее распространение получило гауссовское приближение, при котором АПВ полагается гауссовской. 11.1. Уравнения оптимальной нелинейной фильтрации в гауссовском приближении Известно несколько алгоритмов гауссовского приближения. Приведем вывод одного из алгоритмов для одномерного марковского процесса А,(/), описываемого уравнением 292
dt и скалярного наблюдения
где n{t),
— БГШ с двусторонними спектральными плотностями
Л^о/2 и 5^/2 соответственно. Будем искать оценку условного среднего Х = М
, которая яв-
ляется оптимальной по критерию минимума дисперсии ошибки фильтрации. Аппроксимируем апостериорную плотность вероятности /J
Уо j гауссовской
ехр
(11.1)
2Z\
где X VI 1 \ — среднее значение и дисперсия гауссовского распределения. В гл. 10 показано, что гауссовская АПВ (11.1) является решением уравнения Стратоновича, если наблюдения зависят линейно от фильтруемого процесса, а сам процесс описывается линейным дифференциальным уравнением. При этом функция F{X,t) (9.3), входящая в уравнение (9.4), зависит от X квадратично. Воспользуемся этим фактом для вывода приближенного алгоритма нелинейной фильтрации. Разложим нелинейные функции f{k,t), g{Kt), в ряды в окрестности А
точки оптимальной оценки X и ограничимся конечным числом членов
.
(11.2)
Учитывая (11.2), дальнейший синтез алгоритма фильтрации проведем по той же методике, что и при выводе оптимального линейного ал293
горитма (см. п. 10.1). Запишем оператор Фоккера—Планка—^Колмогорова d/(ir) дк
дХ
дк'
. (11.3)
Подставляя (11.53) в уравнение Стратоновича (9.4) и переходя от уравнения для р^Я, У© j к уравнению для
и=
}o)j. с учетом
(10.6) получаем
du
^/(Ь)
dt
ЗА.
N
ди эя.
(ы дк
+
.(11.4) После подстановки (10.8) в (11.4) имеем ч2
2 dt df(k,t)
(x-x)
дк
Ih 1
эх 294
+
2
дк^
. (11.5)
Приравнивание в (11.5) членов при одинаковых степенях разности ^Х-Х) дает следующий алгоритм фильтрации:
f
э
dt
х ах эх
"
(11.6)
° ^
2 • ^
(11.7)
эх2
Выражения для производных функции
, входящих в (11.6),
(11.7), имеют вид dF{i,t)
ЭХ
2
No
ЭХ^
ЭХ
(яо-^!^,/)),
(11.8) 2 'Э5(Х,г) ЭХ щ
ЭХ^
(11.9)
Первым слагаемым в (11.9), как правило, можно пренебречь. Тогда, подставляя (11.8), (11.9) в (11.6), (11.7), получаем
dt
>
^^ 'NQ
эх
(>'(0-5(Х,г)), .2 2
dt
(11.10)
'Э5(Х,/) ЭХ
ЭХ
(11.11)
Уравнения оптимальной в гауссовском приближении нелинейной фильтрации (11.10)—(11.11) иногда называют расширенным фильтром Колчана, так как они по структуре совпадают с уравнениями фильтра Капмана (10.8)—(10.9) с заменой
F(/)X
на
/(Х,/),
F{t).
на
Э/(Х,/)/эХ. H{t) на Э5(Х,/)/эХ. Приведем без вывода уравнения гауссовского приближения для задачи фильтрации многомерного МП х(;), описываемого уравнением ^ = f(x./)-bg(x,0^(0.
х(Го) = хо,
(11.12) 295
и векторных наблюдений y(/) = S(A.,f)+n(0, Х = сх,
(11.13)
где п(/), ^(t) — векторные БГШ с матрицами двусторонних спектральных плотностей N„/2 и S^/2 соответственно. Уравнения фильтрации в гауссовском приближении (11.14)
Эх /
f3f(i0 ^ \т
сЛ), _ 3 f ( x , 0 dt
Эх
Эх
f d ^
Di.
Эх
(11.15)
где
(11.16)
F ( x , О = 2S(ex,/)N;' (y (0-0.5S(ex,/)).
a дифференцирование no векторному аргументу определяется следующими правилами: 1) если (р(х) —скаляр, а х —вектор, то Эф(х) Э<р(х) Эх 2)
дхл
3
дх'у
Эх„
— строка;
если ф(х) —вектор, и х —вектор, то
Эф(ж)
Эф,(х)/Эх,
Эф,(х)/ах2
...
Эф,(х)/аг„
Эф2(х)/Эх,
Эф2(х)/Эх2
... Эф2(х)/аьс„
Эф„(х)/Эдг,
Эф„(^)/ах2,
...
Эх
— матрица.
d^ni^y^m
Как и в скалярном случае, уравнение (11.15) можно упростить, если не учитывать вторые производные от сигнальной функции. Дисперсионное уравнение при этом принимает вид
raf(i,/) dt 296
Эх
Эх
, \т
-2D,
(11.17)
Эх
Отметим одну особенность дисперсионных уравнений (11.17). Если в линейном алгоритме фильтрации (10.16) уравнение для дисперсии ошибки фильтрации (10.16) является детерминированным и может быть проинтегрировано до начала обработки принимаемой реализации, то в нелинейном алгоритме фильтрации (11.14)—(11.15) уравнение для дисперсий ошибок фильтрации (11.15) содержит члены, включающие текущую оценку i{t) и, следовательно, оно должно интегрироваться в процессе обработки реализации у(^), т.е. совместно с уравнением для оценки. Это существенно усложняет алгоритм фильтрации. • Поэтому часто ограничиваются отысканием приближенного решения уравнения для дисперсии ошибки фильтрации, например, усреднив уравнение (11.17) на интервале времени At, значительно превышающим время корреляции флуктуационных помех, но меньшим времени корреляции фильтруемого процесса. Гауссовское приближение в задачах нелинейной фильтрации дает хорошие результаты при больших отношениях сигнал/шум. В ряде задач алгоритмы гауссовского приближения имеют удовлетворительные характеристики при умеренных отношениях сигнал/шум. В то же время встречаются задачи, например, фильтрация хаотических процессов, адаптивная фильтрация, в которых гауссовское приближение дает неудовлетворительные результаты, и необходимо искать другие аппроксимации. 2
D x
1
sfa
Рис. 11.1. Схема нелинейной системы фильтрации в гауссовском приближении
Оптимальный в гауссовском приближении нелинейный фильтр, описываемый соотношениями (11.14), (11.15), может быть представлен в виде нелинейной следящей системы (рис. 11.1). 297
11.2. Дискриминатор и фильтр в оптимальной системе фильтрации В схеме оптимальной системы фильтрации (рис. 11.1), как и в любой следящей системе можно выделить дискриминатор и фильтр. В п. 7.7.2 дано определение дискриминатора как устройства, выделяющего информацию о рассогласовании между оценкой параметра сигнала и его опорным (истинным) значением. Математически дискриминатор был определен (7.63) как производная от логарифма отношения правдоподобия по оцениваемому параметру. Если обратиться к уравнению Стратоновича для АПВ (9.5) и вытекающему из него уравнению (11.14) для оценки фильтруемого процесса в оптимальном нелинейной фильтре, то следует заметить, что входящая в них функция F(x,t) (11.16) есть ни что иное, как логарифм одношагового отношения правдоподобия. С другой стороны, в уравнение оптимальной фильтрации (11.14) входит производная 3F(x,/)/3x. Эти факторы дают возможность выделить в схеме оптимальной нелинейной фильтрации дискриминатор. Введем интервал времени At такой, что фильтруемый процесс х(г) => const на этом интервале. Другими словами Д / « t ^ , где т^х — время корреляции фильтруемого процесса. Определим на интервале времени At логарифм отношения правдоподобия J2S(A,/)N;;' (у(/)-0.58(А.,/))Л. Л/ Д/ Определим многомерный дискриминатор соотношением 1пр(Я.)=
'ds(i,ty
ГЭ1пр(Х)
дХ
•12 Л/
x=i
дХ
L^
дХ
(11.18)
Последнее (приближенное) равенство в (11.18) выполняется для многих радиотехнических задач, так как сигнал и его производная по параметру слабокоррелированны. Вернемся к уравнению (11.14) и вычислим входящую в него производную от логарифма одношагового отношения правдоподобия 298
т \
Эх
т ЭХ
/
Эх
Гэ^(х,/)У \
эх
J
'dS{X,t)
ЭХ С учетом данного выражения запишем уравнение (11.14) в виде 2N-'(y(0-S(ci,r)).
дХ
(11.19)
Проинтегрируем обе части уравнения (11.19) на интервале времени Д/. Учитывая, что на этом интервале х = const и D, = const, получаем I чт
л л
Д/
ЭХ (11.20)
= f(i.0+D,(0c4. где Цд определяется (11.18).
Применительно к следящим системам операцию интегрирования на интервале времени At в дискриминаторе можно не выполнять, так как сама узкополосная следящая система выполняет роль интегрирования. Поэтому дискриминатор следящей системы можно определить соотношением "д=2
(11.21)
ЭХ
что следует также из сопоставления (11.19) и (11.20). Определению (11.21) соответствует также следующее представление для дискриминатора оптимальной следящей системы: ' э Э1пр(¥^|х)^ ид(0 =
ЭХ
dt
Х = Х ЭХ
F(X,t)
х=х.
(11.22)
С учетом (11.21) схему оптимальной системы фильтращ1и можно представить как на рис. 11.2, где пунктиром выделены дискриминатор и сглаживающий фильтр. 299
Дискршшыатор
у(0
Фильтр
Dxc'
—
I
X —
•
" П Рис. 11.2. Дискриминатор и фильтр в оптимальной системе фильтрации
Из (11.21) следует, что структура дискриминатора определяется структурой наблюдений y(t) (11.13), в том числе видом сигнала S{X,t) и законом модуляции сигнала сообщением X. Структура же фильтрующих цепей (сглаживающего фильтра), в соответствии с (11.19) определяется векторной функцией т. е. структурой фильтруемого процесса (11.12), и не зависит от формы и вида модуляции сигнала. Следовательно, при использовании гауссовского приближения синтез оптимальной системы фильтрации может быть выполнен раздельно для оптимального дискриминатора и оптимального сглаживающего фильтра. Использование этого факта существенно упрощает синтез оптимальной системы фильтрации. Так, например, если фильтруемый процесс является гауссовским МП, т.е. описывается линейным уравнением (например, (9.2)), то синтез сглаживающего фильтра можно провести по методике, описанной в п. 10.1.3, с использованием теории оптимальной линейной фильтрации. Как отмечалось в п. 10.1.3, процесс на выходе дискриминатора можно представить в виде статистического эквивалента и д ( 0 = и(А.-Х)+С(/), где
= М Цд ,
(11.23) — среднее значение и флуктуационная
составляющая выходного процесса. Полагая опшбку слежения Sk = X-X малой, линеаризуем функцию и запишем (11.23) в виде ид(0 = 8 д ( Х - Х ) + ; ( 0 , где 8д — крутизна дискриминационной характеристики. 300
(11.24)
При малых ошибках 5'К = Х-Х (11.21) можно записать в виде ид = 2
ЭХ
'Э8(Х,г)'
Т
/
asft/),
'
п
ЭХ Т
= 2
,
N;' /
)
ч
(11.25)
эх
п
ЭХ
Усреднив (11.25) при фиксированной расстройке 5Х, получаем регулярную составляющую процесса Цд (?) М
=
'ds(i,t), лт 2 эх
Следовательно, крутизна дискриминационной характеристики 8д=2
N:'
ЭХ
^
эх
(11.26)
'
Рассчитаем спектральную плотность процесса ид(<) на выходе дискриминатора. Из (11.25) имеем \т
эх Корреляционная функция этого процесса М
=м
'Э8(Х,/)^
ЭХ
_,Э8{Х,/+т)
ЭХ
301
J "
дХ
~
Следовательно, при малых ошибках слежения процесс на выходе дискриминатора некоррелированный (белый шум), а его спектральная плотность определяется выражением (11.27)
SJ2 =2
Заметим, что равенство спектральной плотности процесса на выходе дискриминатора оптимальной системы фильтрации крутизне дискриминационной характеристики является характерным признаком таких оптимальных систем. Поставляя (11.24) в (11.20), получаем уравнение линеаризованной системы фильтрации (11.28)
где (11.29)
y(r) = X,+n(;) = cx + n(/)
— эквивалентное наблюдение, приведенное к фильтруемому процессу x(f); при записи (11.28) учтено, что матрица 8д невырожденная. Рассчитаем корреляционную функцию шума n(t) Л/
= 8:'л/ = S;'6(t) = NJ25(X).
S ®д- ' -(11.30)
С учетом (11.30) уравнения линеаризованной системы фильтрации (11.28) можно записать в виде 302
^ =
(11.31)
Рассмотрим дисперсионное уравнение (11.17) для линеаризованного режима работы системы фильтрации. С учетом (11.27), запишем ГЭГ(х,0
dt
Эх
Эх
NT
+
(11.32) Уравнения (11.31)—(11.32) по своей структуре напоминают фильтр Калмана (10.14)—(10.16) и полностью с ними совпадают, если фильтруемый процесс х(г), описывается линейными уравнениями (9.2), т.е. f(x,/) = F ( / ) x . Таким образом, при малых ошибках слежения синтез системы фильтрации и анализ ее характеристик можно проводить для эквивалентных линеаризованных наблюдений (11.29). Это существенно упрощает анализ характеристик системы фильтрации, особенно, если фильтруемый процесс описывается линейными уравнениями. П р и м е р 11.1. Рассмотрим задачу фильтрации фазы гармонического радиосигнала. Так как модель изменения фазы сигнала определяет лишь структуру фильтрующих цепей, то для простоты изложения будем полагать, что фаза сигнала описывается линейным уравнением 1-го порядка
dt
= %{t), Л / [ ^ ( 0 ^ ( / + х ) ] = 5^/25(т).
(11.33)
Данное уравнение моделирует блуждание фазы автогенератора при учете тепловых и дробовых шумов усилительного прибора и элементов схемы. Наблюдаемая реализация имеет вид >'(f) = ^cos((or + 9 ( / ) ) + n ( i ) , М [ л ( / ) п ( / + х)] = Л^о/25(х). В рассматриваемой задаче
5((р,г)=/4со8(ш/ + ф(/)),
/(ф) = 0.
Подставляя данные соотношения в (11.14), (11.17), получаем ^
dt
=
NQ
sin (ш/ + ф)^^ (О - ^cos {ш + ф)),
(11.34)
303
(11.35) В правой части уравнения (11.34) высокочастотную компоненту 2 sin (ow + ф) cos (ш; + ф) = sin 2 (ом + ф) можно отбросить, так как частота сигнала со много больше полосы пропускания следящей системы, и вторая гармоника сигала существенно ослабляется. В результате уравнение оптимальной фильтращш принимает вид ^ф
lAD^
(11.36)
В уравнении (11.36) дискриминатор (фазовый) описывается соотношением (11-37) и представляет собой перемножитель, на один вход которого подается реализация y{t), а на второй вход — опорное колебание sin(o)^ + ф). Данное колебание может быть сформировано на выходе фазового модулятора (ФМ), на один из входов которого подается оценка фазы ф , а на другой — опорное колебание sin (со/). В качестве фильтра следящей системы используется интегратор, что определяется моделью фильтруемого процесса (11.33). Уравнение (11.36) описывает работу системы фазовой автоподстройки п ф (ФАП)(рис. 11.3). y{t) Дискриминационная характеристика фазового sin((or) дискриминатора получаетФМ ся в результате усреднения (11.37) на интервале вреРис. 1 U . Оптимальная схема слежения за мени Д/, для которого фазой сигнала 5ф = ф - ф = const, т.е.
ч
Д / « х^ , где Хи - время корреляции следящей системы Л/
2^2
J cos(ow + Ф)sin(Ш^+ф)rf^ = — s i n ( Ф - ф ) . Nn N,о д/
304
(11.38)
Уравнение (11.35) для дисперсии ошибки фильтрации также усредним на интервале времени At, в результате чего получаем dt
2
Nq '
В установившемся режиме решение данного уравнения имеет вид ^фуст
= (11.39) Таким образом, дисперсия ошибки слежения растет с увеличением интенсивности фазовых флуктуаций генератора и интенсивности аддитивной помехи и уменьшается при увеличении амплитуды сигнала. Рассмотрим м е т о д и к у р а з д е л ь н о г о с и н т е з а д и с криминатора и сглаживающего фильтра системы Ф А П. Синтез дискриминатора проводится на основе (11.21), что сразу приводит к выражению (11.37). Для синтеза сглаживающего фильтра в контуре следящей системы линеаризуем дискриминационную характеристику (11.38) дискриминатора (11.37) для малых ошибок фильтрации
Следовательно,
крутизна
дискриминационной
характеристики
Шум на выходе дискриминатора ^(г) = -2у<8т(а)г + ф)п(г)/л^0 имеет спектральную плотность iV^ I2 = A^/Nq. После пересчета шума ^(г) на вход эквивалентной следящей системы (см. рис. 10.6) получаем эквивалентное входное воздействие =
+
(11-40)
где спектральная плотность шума n{t) равна N/^/2
= Nj^Js^ = NQ/А^ .
Рассмотрим синтез линейного фильтра Калмана для модели (11.33), (11.40). Используя (10.11), (10.12) запишем (и-41)
dt
2
Nfi
2
No
(11.42) 305
Из сопоставления (11.39) и (10.42) следует, что уравнения для дисперсии ошибки фильтрации совпадают. Из уравнения (11.41) видно, что в контуре следящей системы используется фильтр с операторным коэффициентом передачи = р , причем в установившемся режиме
A^QyCT = ^^J^S^JINQ = yjqS'^ , где q = A^/INQ [С"'] — отношение мощности сигнала к спектральной плотности шума на входе системы фильтрации. Установившееся значение коэффициента усиления KQy^^ фильтра Калмана совпадает с аналогичным значением в нелинейной системе фильтрации (11.36). 11.3. Уравнения дискретной нелинейной фильтрации в гауссовском приближении Как и в аналогичной задаче нелинейной фильтрации непрерывных процессов, задача оптимальной нелинейной дискретной фильтрации не имеет в общем виде строгого замкнутого решения. Поэтому здесь так же используются те или иные приближенные алгоритмы, наибольшее распространение из которых получил алгоритм гауссовского приближения. Вывод алгоритма гауссовского приближения такой же, что и для непрерывных процессов и основан на разложении нелинейных функций в соответствующие ряды. Поэтому приведем его без вывода. Фильтруемый процесс описывается уравнением
Ч = h-\
)+%к-\ (Xit-i )%к-\. X
) = хо, (11.43)
м наблюдаемый процесс —
(11.44) Уравнения оптимальной в гауссовском приближении дискретной фильтрации будут такими: NT / - > „ / - \ \Т (dS.jcx,) хк Эх Эх (11.45) Ч = f/t-i
306
)'
(11.46)
^—
"хд
Эх (11.47) (11.48)
Эх
В уравнении (11.48), как и в непрерывном времени, можно пренебречь вторыми производными от сигнальной функции и представить его в виде -
fas^i*)
\
Эх
D.
(11.48 а)
Эх
Здесь х^ — оценка фильтруемого процесса; х^ — экстраполированная оценка процесса; D, ^ — матрица дисперсий ошибок фильтрации; ®x,/t — матрица дисперсий ошибок экстраполяции. Дискретная система фильтрации, описываемая уравнениями (11.45)—(11.48), как и аналогичная непрерывная система, может быть представлена в виде нелинейной следящей системы, включающей дискриминатор и фильтр. Для получения такого представления определим дискриминатор выражением (без накопления на интервале времени А/«т,)
"д* =
х=х
ЭХ
(11-49)
дХ
и запишем (11.45) в виде ^S/t (х*)
дХ Фильтр
Дисцмшинетор
Ук
Е
D^c'
-1
3
Рис. 11.4. Схема дискретной оптимальной системы фильтрации
307
На рис. 11.4 приведена схема дискретной нелинейной системы фильтрации, в которой выделены дискриминатор и сглаживающий фильтр. Заметим, что в оптимальном дискретном дискриминаторе функция S^ (Х^) и ее производная 3S;t {Х/^уЭХ берутся в точке экстраполированной оценки Xjt. Введем статистический эквивалент для процесса (11.49) на выходе дискриминатора (11.50) где и
~
)=^
Чд/t —дискриминационная характеристика; флуктуационный процесс на выходе
эх
дискриминатора. При малой ошибке экстраполяции = - Х/^, лежащей в пределах линейного участка дискриминационной характеристики, (11.50) можно представить в виде
где 8д =
дХ
D„
(Xk)
^—- — крутизна дискриминационной ЭХ.
характеристики. Корреляционная функция флуктуационной составляющей М
ЭХ
равна
эх
Следовательно, процесс на выходе дискриминатора является белым шумом с матрицей дисперсий D^ = 8д. Как и в непрерывных системах фильтрации, при малых ошибках экстраполяции и линейной модели фильтруемого процесса уравнения (11.45)—(11.48) переходят в уравнения дискретного фильтра Калмана (10.66)—(10.70), полученные для эквивалентных наблюдений: у^ = X + n i = c x i + n ^ , 308
(11.51)
где М n^n^m В гауссовском приближении в дискретной системе структура дискриминатора определяется структурой наблюдений ъ том числе видом сигнальной функции
Sjt(X^), а структура сглаживающего
фильтра зависит только от типа фильтруемого процесса (его структуры). При этом синтез дискриминатора и сглаживающего фильтра можно проводить раздельно. Синтез дискриминатора проводится по формуле (11.49). Синтез сглаживающего фильтра проводится для эквивалентных линеаризованных наблюдений (11.51) по методике, описанной в п. 10.2. Если в дискретных алгоритмах фильтрации (11.45)—(11.48) шаг дискретизации Tj устремить к нулю, то данные алгоритмы переходят в соответствующие непрерывные алгоритмы (см. п. 11.1). Обратное утверждение неверно, т. е. дискретизацией непрерывных уравнений фильтрации нельзя получить дискретные уравнения фильтрации (11.45)—(11.48). Это обусловлено тем, что структура дискретных алгоритмов фильтрации предполагает формирование двух оценок: экстраполированной Xj^ и фильтрационной х^ , а также соответствующих матриц дисперсий ошибок экстраполяции и фильтрации. В непрерывных же алгоритмах используется лишь одна фильтрационная оценка х(/) с соответствующей матрицей дисперсий ошибок фильтрации. Уравнения оптимальной дискретной фильтрации наиболее полно используют априорную информацию о структуре фильтруемого дискретного процесса. Поэтому при разработке дискретных алгоритмов фильтрации более предпочтительно сначала провести дискретизацию исходных уравнений, описывающих сообщение и наблюдаемый процесс, а затем использовать уравнения оптимальной дискретной фильтрации (11.45)—(11.48), а не осуществлять дискретизацию непрерывных уравнений оптимальной фильтрации тем или иным методом. 11.4. Оптимальная непрерывно-дискретная фильтрация и дискретная фильтрация с оптимальным накоплением 11.4.1. Оптимальная непрерывно-дискретная фильтрация Алгоритмы комбинированной калмановско-винеровской фильтрации гауссовских МП, рассмотренные в п. 10.3, могут быть распространены на один частный, но очень важный для радиотехнических прило309
жений случай нелинейной фильтрации, когда фильтруемый процесс является многомерным гауссовским МП и описывается уравнением (11.52) Как отмечалось в пп. 11.1, 11.2, при использовании гауссовского приближения для синтеза оптимальной системы фильтрации структура фильтруемого процесса х(г) определяет структуру сглаживающего фильтра в контуре синтезируемой следящей системы (системы фильтрации). Поэтому задание линейной модели фильтруемого процесса даст линейный сглаживающий фильтр, что позволит проинтегрировать уравнения оптимальной фильтрации с использованием аппарата переходных матриц (см. п. 10.3). Наблюдению доступна аддитивная смесь сигнала и шума (11.13). Поставим задачу синтеза оптимальной (в гауссовском приближении) непрерывно-дискретной системы фильтрации, в которой обрабатываются аналоговые (непрерывные) наблюдения (11.13), а оценки формируются лишь в заданные (тактовые) моменты времени tj^, которые будем полагать расположенными на одинаковом интервале Т друг от друга. Рассмотрим уравнение оптимальной фильтрации (11.14), которое запишем в виде ^
= F(0i +D , ( 0 c 4 ( 0 .
(11-53)
где (по определению (11.21))
т
эх
—
^
ЭХ
(11.54)
Как отмечалось в п. 11.2, процесс на выходе дискриминатора (11.54) можно представить в виде статистического эквивалента (11.23), а при малой ошибке фильтрации 6Х = Х-Х — в виде линеаризованного статистического эквивалента (11.24). Подставляя (11.24) в (11.53), получаем
(11.55) где у (/) = 8дХ+ ; ( / ) . 310
Уравнение (11.64) линейно относительно i и аналогично фильтру Калмана (10.14). Поэтому для него можно сразу записать оптимальный алгоритм непрерывно-дискретной фильтрации, аналогичный (10.99): г* J (11-56) 't-i — переходная матрица, удовлетворяющая однородному
где
уравнению (см. (10.93))
с начальным
условием
=
Ф(т,т) = 1;
^к-^api^k^^k-\)^k-\•^
=
—экстраполированные с момента времени
на
моменты времени t/^ и
оценки фильтруемого процесса;
— переходная матрица априорного уравнения (11.52), удовлетворяющая однородному уравнению (10.97). В (11.56)
означает, что оценку X следует брать в момент време-
ни т е
а так как фильтрованные оценки в промежуточные ин-
тервалы времени не формируются, то следует брать экстраполированные оценки Хх = ci^ = с Ф ( х ,
)
•
Учитывая (11.24) и (11.29), запишем ид(т) = у(х)-8д1с- Следовательно, уравнение непрерывно-дискретной фильтрации (11.56) можно записать в виде ii
I
(11.57)
Наконец, подставляя (11.54) в (11.57), получаем еще два выражения для алгоритма оптимальной непрерывно-дискретной фильтрации ЭХ ^Э5(Х(х),х) Y tk-i
ЭХ
dx =
(11.58)
N;'(y(x)-S(X(x),x))^x. 311
Схема оптимальной непрерывно-дискретной системы фильтрахщи, описываемой уравнением (11.58), приведена на рис. 11.5. 'йплшшош*дискрюошжтор с ншсопктелеы 1 ФвЖЬ1рзшмштеяь >1 |;инЦ 1 r- X I1 ) I I; I• (; I> 8н('ь') !! I
:|Двс>|>тшпор 1 1
yW;
<1
Диофегаый сгааж»
.-1
Рис. 11.5. Схема оптимальной непрерывно-дискретной системы фильтрации Оптимальная непрерывно-дискретная система фильтрации включает аналоговый дискриминатор, оптимальный накопитель в виде фильтра со сбросом в тактовые моменты времени стикой рицей х^ = Фдр (x.^t-i
и с импульсной характери-
экстраполятора с переходной матформирующего
экстраполированную
оценку
на каждый текущий момент времени т е
];
ключа, замыкающегося в моменты времени ti^; дискретного сглаживающего фильтра. Оптимальный накопитель в схеме рис. 11.5 занимает в структуре следящей системы такое же место, что и фильтр Винера в схеме комбинированной калмановско-винеровской фильтрации (см. рис. 10.13). Однако это не есть фильтр Вин^а в чистом виде. В него не вошла нормированная производная 2|Э8(Х,(х),т)/ЭА,| N~' (аналог матрицы в фильтре Винера), которая отнесена к дискриминатору, так как является основной дискриминирующей функцией (<фазличителем») по параметру X. При выводе алгоритма оптимальной непрерывно-дискретной фильтрации (11.58) полагалось, что ошибка фильтрации ЬХ = Х-Х мала и лежит в пределах линейного участка дискриминационной характеристики. При этом лишь в начале интервала интегрирования (в момент времени ) ошибка Sk — это ошибка фильтрации. Для всех осталь312
них моментов времени хе [/jt-i,?*] ошибка 5Х — это ошибка экстраполяции. Рассчитаем дисперсию ошибки экстраполяции для произвольного момента времени т е [/^.j, ]. Экстраполированная оценка фильтруемого процесса определяется выражением
Выражение для текущего значения х^ фильтруемого процесса получается в результате интегрирования априорного уравнения (11.52) на интервале [/jt-i.t]
= Фар {-^.tk-l
т
+ J Фар (^'OG {ОШ^^ •
't-l Тогда для дисперсии ошибки экстраполяции можно записать
D„=M К - Х т Ж - ^ т Г
= Фар ('t.'/t-l
(^.'i-l ) +
tk-\ Очевидно, что дисперсия ошибки экстраполяции возрастает при увеличении времени экстраполяции х, и наибольшее ее значение достигается в конце интервала интегрирования (в момент времени ). При большой длительности интервала Г = может оказаться, что, хотя дисперсия ошибки фильтрации Dj^^ мала, дисперсия ошибки экстраполяции будет велика и, следовательно, ошибка экстраполяции может выходить не только за пределы линейного участка дискриминационной характеристики, но и даже за пределы апертуры дискриминационной характеристики, т.е. будет иметь место срыв слежения. Поэтому в нелинейной непрерывно-дискретной системе фильтрации сущесг313
вует принципиальное офаничение на длительность интервала дискретной обработки Г . В комбинированном калмановско-винеровском фильтре такого ограничения не было — при любом значении Г в тактовые моменты времени формировались оптимальные оценки фильтруемого процесса с минимальной дисперсией ошибки фильтрации. П р и м е р 11.2. Для задачи фильтрации фазы гармонического сигнала, рассмотренной в примере 11.1, синтезируем оптимальную непрерывно-дискретную схему ФАП. В данной задаче имеем F(t) = 0, Фа(1,т) = 1, а крутизна дискриминатора ФАП находится из (11.38) и равна 5д = A^JNQ . Поэтому уравнение для переходной функции (матрицы) Ф((,х) имеет вид = dt
=
=
(11.59)
NQ
где D^{t) — дисперсия ошибки фильтрации фазы сигнала в непрерывной ФАП, которая описывается уравнением (11.35). Рассматривая установившийся режим работы ФАП, с учетом (1.39) можно записать = . ^ J s ^ j ^ J ^ , а решение уравнения (11.59) в этом случае имеет вид Ф(/,т) = е Подставляя (11.37) и полученное выражение для Ф(/,т) в (11.57), находим уравнение для оптимальной непрерывно-дискретной ФАП Ф* = Фл-1 -
2А '
Рассмотрим для простоты ФАП с установившимся значением ^Фуст • При этом уравнение для оптимальной оценки фазы упрощается е
Фа =Ф*-1
(11.60)
'к-, На практике обычно используется простое усреднение процесса на выходе дискриминатора ФАП, что соответствует формированию оценки фазы по алгоритму 314
о
(11.61)
где индекс "н" использован для отображения факта неоптимальности формируемой оценки. Сравним точность формирования оптимальной (11.60) и неоптимальной (11.61) оценок фазы сигнала в зависимости от длительности интервала накопления T = • На рис. 11.6 приведены соответствующие зависимости среднеквадратических ошибок при q = PjNQ =10^ Гц, 5^/2 = 0,32 p a a V .
При
таких параметрах задачи полоса пропускания ФАП А / ф а п = 2 0 Гц, что характерно, например, для схем ФАП в приемниках спутниковых радионавигационных Рве. 11.6. Зависимости СКО оценки фазы в Ф А П с оптимальным систем. Из приведенных заи неоптимальным накоплением висимостей следует, что в неоптимальной ФАП (11.61) допустимо накопление на интервале Г = 20 мс без потери точности фильтрации, в то время как в оптимальной непрерывно-дискретной ФАП длительность допустимого (без потери точности фильтрации) интервала накопления на порядок больше. 11.4.2. Дискретная фильтрация с оптимальным накоплением Из предыдущего материала следует, что, если принимается аналоговый сигнал (например, радиосигнал), а оценки фильтруемого процесса необходимо формировать лишь в дискретные моменты времени, то оптимальная систем фильтрации должна включать аналоговый дискриминатор, накопитель, ключ и дискретный фильтр. Однако на практике часто удобнее сначала провести дискретизацию сигнала по времени, а потом уже выполнять его обработку. Так, например, в приемниках сигналов спутниковой навигации ГЛОНАСС/GPS временная дискретизация принимаемых сигналов осуществляется на последней промежуточной частоте ~ 4 МГц. В то же время, оценки фильтруемых процессов (задержки и фазы сигналов) достаточно формировать с темпом Г = 20 мс (частота выдачи данных 50 Гц). Разность между частотами формиро315
вания отсчетов наблюдаемых сигналов и формирования оценок процессов составляет 8 -10^ раз. Таким образом, возникает задача построения оптимальной системы обработки данных, поступающих с высокой частотой, и формирования оценок информационных процессов с существенно меньшей частотой. Данная задача, по сути, аналогична той, что рассмотрена ранее, а также задаче линейной дискретной комбинированной калмановско-винеровской фильтрации (см. п. 10.3.2). Поэтому приведем основные соотношения без подробных выводов. Фильтруемый процесс полагаем гауссовским марковским, т.е.
где
, — векторный ДБГШ с матрицей дисперсий D^.
Здесь и далее принята двойная нумерация временных отсчетов, подробно описанная в п. 10.3.2 (см. рис. 10.14). Наблюдается реализация y^t-i,»
{^/1-1,/O+^A-l,! > ^Д®
—
векторный дискретный БГШ с матрицей дисперсий D„. Оптимальная дискретная система фильтрации, формирующая оценки х^ в тактовые моменты времени t/^, описывается уравнением N-\
1=0 \т
ЭЯ
Dn' {yk-\,N-i
где
{^k-\.N-i;k-\))
>
i-i J=0
8д — крутизна дискриминационной характеристики дискриминатора, который определяется выражением =
Ж
~ \
316
(11-63)
с учетом (11.63) уравнение (11.62) принимает вид N-\
4 = 4 + 1 . *^>k•,k-\,N-i'Oxk-\,N-fi''^^лk-\,N-r,k-l •
(11.64)
i=0
В уравнении (11.64) второе слагаемое определяет оптимальный накопитель отсчетов на входе дискриминатора следящей системы, импульсная характеристика которого определяется выражением
Если время накопления Г существенно меньше времени корреляции фильтруемого процесса (или времени корреляции следящей системы), то g^k\k-\,N-i = const на этом интервале времени и весовое суммирование в накопителе трансформируется в обычное суммирование (с равными весами) отсчетов с выхода дискриминатора.
11.5. Оптимальная нелинейная фильтрация при случайных неинформативных параметрах сигнала 11.5.1. Общие алгоритмы оптимальной фильтрации в гауссовском приближении Рассмотрим задачу оптимальной фильтрации процесса х(0» передаваемого в сигнале где A,(r) = cx(t), ц —вектор неинформативных параметров сигнала, например, начальная фаза или амплитуда, которые полагаем случайными величинами, постоянными за время наблюдения, т.е. = О. Общее уравнение для АПВ
Iq) в рассматриваемой задаче по-
лучено в п. 9.4 (уравнение (9.35)). Отличие (9.35) от аналогичного уравнения (9.5), полученного для задачи фильтрации процесса x(t) при приеме сигнала, не содержащего неинформативные параметры, отличается тем, что в него входит функция F{x,t),
определяемая
из (9.33)—(9.34), вместо функции /"(х,/), которая входит в (9.5). Если вернуться к алгоритму оптимальной в гауссовском приближении фильтрации (11.14)—(11.15), (11.2) полученному для условий, когда неинформативные параметры сигнала отсутствовали, то увидим, что в них входит функция F{x,t), которая определяет дискриминатор сле-
317
дящей системы. С учетом этого уравнения оптимальной в гауссовском приближении фильтрации, в случае, когда сигнал содержит случайные неинформативные параметры, постоянные за время наблюдения, могут быть получены из уравнений (11.14), (11.17), если в них заменить F{x,t) на Поэтому запишем (dF{x,t)]
(11.65)
дх Л), dt
af(x,o Dx+Dx дх
Эх
Эх
D,
(11.66)
Дискриминатор следящей системы определяется выражением (см.
(11.22)
' э Э1пр(¥^|>.)^ ид(0 =
д\
dt
(11.67)
Х =Х
с учетом которого (11.65) записывается в виде
полностью совпадающем (по структуре) с (11.20). Таким образом, наличие случайных параметров сигнала привело к изменению только структуры дискриминатора, и не затронуло структуру сглаживающего фильтра. Аналогичные выражения можно записать и для задачи дискретной дильтрации (11.43), (1.44), а именно Ч =Xi+I>xit
Dx,.
^^
Эх
.
Ч = Эх
)>
(11.68)
+ g/l-i (x/t-i)l>5gl-i (Xit-l), (11.69)
318
(11.70)
Эх где
=
"
^ К к ) .
определяются в соответствии с (9.20), (9.22). Дальнейшая конкретизация уравнений оптимальной фильтрации (11.68)—(11.70) получается при конкретизации соответствующих параметров . 11.5.2. Оптимальная фильтрации информационных процессов, переносимых сигналом со случайной начальной фазой Пусть информационный процесс Х(/) = сх(/) передается сигналом, начальная фаза которого случайна, и постоянна за время наблюдения, т.е. ц = фо и 5(;,Х„фо) = а4(/,А,)со8{о)оГ + ф(г,Х)+фо), где
A{t,X),
ф(/,А,) — законы амплитудной и фазовой модуляции, которые могут зависеть от информахщонного процесса X; а — известная амплитуда сигнала. Случайная фаза фд распределена равномерно на интервале К
тс].
Рассмотрим задачу непрерывной фильтрации. Так как дискриминатор определяется только структурой наблюдений и для интервала времени много меньшего времени корреляции информативного процесса, то при получении структуры дискриминатора будем полагать для простоты X = const. Усредненное по фазе отношение правдоподобия p^Jq I*) вычислялось в п. 4.3.2 и имеет вид (4.39) р(Уо'|х) = ехр
= ехр
2No
No
/о
Na
Х{1)
h X{l,X) No
(11.71)
где lo (*) — функция Бесселя нулевого порядка от мнимого аргумента,
319
(11.73)
о I
a = jA^ {x,X)dx.
(11.74)
0
Определим функцию F{x,t) в соответствии с (9.34)
т щ
+1п/о
щ
X{t,X)
2а N,О
-
Щ
2а X{t,X) N,О
dt
2а dX{t,X) Nn dt
(11.75)
Положим, что оцениваемый параметр X — неэнергетический. Тогда при формировании дискриминатора следящей системы в соответствии с (11.67) первое слагаемое в (11.75) даст ноль, поэтому его можно не учитывать. Следовательно, формулу для дискриминатора можно записать в виде / у X ч 2а N, 2а о (11.76) « д ( 0 = ЭЯ. Щ dt Рассмотрим случай большого отношения сигнал/шум, для которого гауссовское приближение дает хорошие результаты. В этом случае, как показано в п. 7.10.1 (рис. 7.10), отношение двух функций Бесселя, входящее в (11.76), можно положить равным единице и записать приближенное выражение "д(0 =
2а Э Л^о ЭХ
dt
Дифференцирование дает следующий результат: 320
по времени с учетом (11.72)—(11.73)
ЭЛ'(/Д)
Д ) > - ( / Д )sin (шо/+ ф(гД))
(11.77)
В п. 7.7.1 при решении задачи оценки начальной фазы сигнала было получено выражение (7.54) | д ' ( т ) ^ ( т Д ) 8 т ( а ) т + ф(хД))^т 9 o ( r ) = -arctg
(11.78) |>'(т)Л(тД)со8(сох+ф(тД))^1
Заменяя в этом выражении Т на текущее время t и учитывая (11.72), (11.73), нетрудно увидеть, что
С учетом этих формул (11.77) принимает вид =
(II.79)
Подставляя (11.79) в (11.75), (11.76), получаем
F (х, О = ^ >' (О ^
cos ((йо? + Ф Д )+Фо (0) =
(О 5
Фо ).
(11.80) Выражение (11.80) отличается от аналогичного выражения, получающегося при приеме полностью известного сигнала тем, что в сигнальную функцию 5(/,Х,фо) вместо истинного значения начальной фазы сигнала входит ее оценка, которая определяется в соответствии с (11.78) при текущем времени t. С увеличением времени наблюдения энергия сигнала возрастает, и точность оценки начальной фазы сигнала также возрастает. Схема оптимальной системы фильтрации при наличии случайной начальной фазы сигнала приведена на рис. 11.7. 11—2041
321
У
С08р+ф(г,х)) -
X
X
Я/2
X Фо
£ X
•д§(х,фо)/дг>.
Z
Рис. 11.7. Схема оптимальной системы фильтрации при наличии случайной начальной фазы сигнала
Оптимальная система фильтрации содержит основной блок оценки информационного процесса и блок оценки неизвестной начальной фазы, которая вводится в основной блок фильтрации. Метод приема сигнала с оценкой начальной фазы называют квазикогерентным приемом сигнала. Так как с течением времени фд —> Фо, квазикогерентный прием сигнала переходит в когерентный прием. При этом точность фильтрации информационного процесса будет такой же, что и в случае приема сигнала с известной начальной фазой. 11.5.3. Оптимальная фильтрации информационных процессов, переносимых сигналом со случайными начальной фазой и амплитудой Если сигнал кроме случайной начальной фазы имеет и случайную амплитуду, то отношение правдоподобия
('1-71) необходимо
усреднить дополнительно по случайному распределению амплитуд. В результате усреднения по рэлеевской ГШ распределения амплитуд, в соответствии с (4.49), получаем 322
in No+a{t)cl
(11.81)
No(No+a{t)al)
Положим, как и выше, что оцениваемый параметр X — неэнергетический, и пренебрежем первым слагаемым в (11.81). Обозначим для простоты /М =
—
(
1
1
-
8
2
)
и представим (11.81) в виде F{x,t) = f ' { t ) x ' { X , t ) ^ f i t ) ^ ^ ^ X { X , t ) . at
(11.83)
Подставляя в (П.83) выражение (11.81), запишем
F{x,t) = f'{t)x'{Kt)+ +f{t)y{t)A{t,'k)X{X,t)cos{(Oot = r{t)X^
+ (p{t,X)+^{t))
{К1)+/{1)у{1)Х{Х,1)ЦКфо
где
(0.0.
= (11-84)
— нормированная
на амплитуду сигнальная функция; оценка начальной фазы сигнала фо(/) определяется в соответствии с (11.78) при текущем времени а огибающая сигнала и ее квадратурные компоненты — формулами (11.72)—(11.74). Структура дискриминатора, получаемая в результате дифференцирования (11.84) по X, оказывается достаточно сложной. Существенное упрощение можно получить, если полагать, что огибающая X{X,t) не зависит от Я,. В этом случае будем иметь «д (
О
=
Э
Х
•
^^
Дальнейшее упрощение получается, если заменить произведение f{t)x(x,t^
его установившимся значением (а точнее, при большом
времени наблюдения) и принять допущение о высокой точности слеже323
ния, т.е. полагая Х =
При этих допущениях определим
X{t) = ^X^{t)+X^{t).
(11.86)
Из (11.73) получаем приближенные выражения ^ Л О = 0.5«а(Осо5(фо), Xs ( 0 = 0,5fla(Osin(9o),
(11.87)
где a{t) определяется формулой (11.74). Подставляя (11.87) в (11.86), получаем
= 0 , 5 а а ( / ) . Учитывая
определение функции / ( / ) (11.82) и тот факт, что при увеличении времени lim f(t)X(t)
наблюдения
нетрудно
увидеть,
что
= a/NQ . Из данного выражения следует, что произведе-
г->оо ние f{t)X^X,t^NQ нала, т.е. ait) =
является, по сути, блоком оценки амплитуды сиг-
f{t)x(i,t)No.
Таким образом, при большом времени наблюдения и высокой точности фильтрации имеем эквивалентное формуле (11.85) представление
где 5(Х,фо(/),/) = а5(Х,фо(/),/) — сигнальная функция при оценочном значении фазы сигнала. Сопоставляя (11.88) с (11.80), видим, что структура эквивалентного дискриминатора не изменилась, но в два раза уменьшился коэффициент передачи дискриминатора. Это приводит к увеличению крутизны дискриминационной характеристики в 2 раза, а спектральной плотности шума на выходе дискриминатора в 4 раза. Однако величина спектральной плотности эквивалентного П1ума, приведенного к оцениваемому параметру (см. (11.29)) не изменится. Следовательно, точность фильтрации процесса Х(/) также не изменится. Заметим, что данный вывод является справедливым лишь при большом отношении сигнал/шум или при / оо . 324
«/2
4д) X -
>ii
'егк-
l/p
JL
VP
A
f(i)
Фо V ^ T ^ h 13"
X
Phc. 11.8. Схема упрошенного алгоритма оптимальной фильтрации
На рис. 11.8 приведена схема упрощенного алгоритма оптимальной фильтрации в условиях, когда сигнал имеет случайные амплитуду и начальную фазу. 11.5.4. Оптимальная фильтрация при переменных случайных неинформативных параметрах сигнала Если неинформативные параметры сигнала меняются во времени случайным образом, т.е. имеем , то выполнить усреднение уравнения Стратоновича для АПВ, как это было сделано в пп. 9.3, 9.4 для постоянных ц , в общем случае не удается. Поэтому можно использовать следующий приближенный подход. Прежде всего заметим, что в рассмотренных в пп. 11.4.1, 11.4.2 задачах из усредненных уравнений Стратоновича вытекали алгоритмы фильтрации, в которых формировались текущие оценки начальной фазы фо(<) и амплитуды a(t), которые использовались в блоке фильтрации информативного параметра. Обобщая это положение на случай переменных неинформативных параметров, будем искать совместную оценку как информативных , так и неинформативных
процессов. Такие оценки можно форми-
ровать на основе рассмотрения совместной АПВ
Iq )» лля кото-
рой можно записать уравнение Стратоновича, аналогичное (9.5). Отсю325
да следует, что оптимальными в гауссовском приближении алгоритмами фильтрации расширенного вектора v(<)=
будут уравнения
(11.14)—(11.15), записанные для данного вектора v (г). П р и м е р 11.3. Рассмотрим задачу фильтрации процесса А,(/) при приеме реализации
7 (/) = а (О ^ (X,r)cos (озо/+Фо (0)+" (О, в которой неинформатавные фаза Фо(0 и амплитуда a{t) являются случайными функциями. Определим модели данных процессов следующим образом: ^Фо
(11.89)
da = at
+аа' а
(Г),
( / + т ) ] = 1/25(т). (11.90)
Модель (11.89) описывает случайные блуждания фазы в автогенераторе, а модель (11.90) описывает флуктуации амплитуды сигнала с рэлеевским законом распределения мгновенных значений и шириной спектра ~ а (см. п. 2.5). Как и раньше, полагаем, что А,(г) отображается в пространстве состояний вектором X (f), для которого, например, справедливо описание х(0 (11.52). При этом Я. = сх. Введем расширенный вектор v ( / ) = a(t) Фо(0 для которого запишем обобщенное уравнение формирования d\ = Г(у)+Вл(0. dt Гх
^(0
. f(v)
где Ti(/) = 4<р(0 326
OLCsi =-CUJ + - .в = а 0
о, о
о, о 1
(11.91)
о, —столбец, состоящий из нулей; о' —строка, состоящая из нулей. Подставляя (11.91) в уравнения оптимальной фильтрации (11.14) и переходя от вектора v (/) к его компонентам, получаем ^ =
+
(11.92)
da . аа„ • = -аа+^
=
+
(11.94)
где 5(А.,фо,/) = у4(А,,г)со8((Оо? + Фо(0) —нормированная к амплитуде функция сигнала; К , (t),
К^ (?), К^ (?) — коэффициенты усиления
соответствующих блоков, для которых можно записать необходимые соотношения на основе уравнений (11.15). При записи уравнений (11.92)—(11.94) учтен тот факт, что ввиду некоррелированности процессов х(г), a{t), ФоО) элементы матрицы взаимных дисперсий ошибок фильтрации равны нулю. В уравнениях (11.92)—(11.94) можно выделить дискриминаторы по каждой из оцениваемых компонент. В соответствии с определением (11.22) запишем
" д х ( 0 —дискриминатор информативного процесса Я.; «да ( ' ) — д и с криминатор амплитуды а ; Ид^ (/) —дискриминатор фазы фо . На рис. 11.9 приведена схема оптимальной системы фильтрации. Из схемы и уравнений (11.92)—(11.94) видно, что в системе отсутствуют перекрестные связи между разнотипными дискриминаторами и оценками параметров. Так, например, сигнал МдХ (<) с выхода дискриминатора для информативного параметра не участвует в формировании оценок 327
фазы и амплитуды и т.д. Это является следствием отмеченной выше некорелированности оцениваемых процессов. а Днсжряыкшатор а
X
Ota
|
'о Г X 1-< UP
.v(/)
I 2&S I Днс^юшяп^ X
Фо
т
Рнс. 11.9. Схема оптимальной системы фильтрации
Характерной особенностью синтезированной системы является то, что оценки всех процессов x{t), a{t), (Ро(') формируются на основе следящих систем, в то время как в схеме рис. 11.8 оценки фазы и амплитуды формируются по разомкнутой схеме. Использование методики оценки расширенного вектора состояния в гауссовском приближении в задачах фильтрации всегда приводит к следящим системам по всем оцениваемым процессам.
11.6. Оптимальная фильтрация информационных процессов в присутствии дополнительных узкополосных помех Многие РТС работают в условиях воздействия не только внутреннего шума приемника, но и дополнительных внешних помех, например, индустриальных или помех других РТС, работающих в том же частотном диапазоне. В этом случае на вход приемника поступает аддитивная смесь (11.95) 328
Возможны различные описания помехового S„(f)
сигаала. Если
структура такого сигнала известна (например, это сигнал от связной радиостанции, использующей частотно-модулированные сигналы), то можно положить 5п
где
соответствует процессу частотной
модуляции. Располагая характеристиками спектра частотной модуляции, можно для процесса (/) выбрать гауссовскую марковскую модель вида (11.52). Если информация о структуре сигнала отсутствует, то можно определить модель сигнала 5 п ( 0 узкополосный гауссовский случайный процесс с заданной функцией корреляции. Рассмотрим именно такую задачу. Пусть (г) = схд (f), а x„(l) описывается уравнением
где
(t) —БГШ с двусторонней спектральной плотностью N„/2 . Информационный процесс А,(/) также будем описывать компонен-
той многомерного марковского процесса х(/). Ставится задача: по принятой реализации (11.95) наилучшим образом оценить процесс х(/). Запишем (11.95) с учетом представления
=
(0+я(0-
Введем расширенный вектор z(/) =
и обобщенный сигнал
5(/,г) = 5(/,сх) + сХп(г). Тогда можно записать уравнения оптимальной фильтрации процесса z , которые имеют вид
di = f(i,/)+ dt 1>х(0
ГЭ5(/,сх) Эх
•«-„('К
di dt
329
ГЭ5(г,сх)
Nr.
(0
(y{t)-S{t,ci)-S„{t)),(n.97)
Эх
где S„{t) = ci„{t) ; D , ,
,
— матрицы дисперсий ошибок
фильтрации информативного процесса
взаимных дисперсий оши-
бок фильтрации двух процессов и дисперсий ошибок фильтрации неинформативного процесса Xj, (/) соответственно, для которых можно записать матричные уравнения Риккати. В алгоритме (11.96)—(11.97) осуществляется оценка помехи S„ (t) и ее вычитание из наблюдаемой реализации. Поэтому такие алгоритмы получили название компенсационных. Если рассмотреть аналогичным образом случай помехи с частично известной структурой S,,
то
компенсационная сущность алгоритма остается, т.е. из сигнала необходимо вычитать оценку
=
При этом изменится второе
слагаемое в квадратных скобках формул (11.96)-( 11.97), где вместо с^ будет стоять — 1 Эх„
11.7. Оптимальная фильтрация при негауссовских помехах Рассмотрим задачу дискретной фильтрации процесса дениям дискретной выборки yi^ = S^ (Х,^
по наблю-
, где и^ — некоррелиро-
ванная шумовая последовательность. Плотность вероятности распределения мгновенных значений задана р (ij^) и может быть произвольной, в том числе и негауссовской. Из п. 11.3 следует, что в алгоритм оптимальной фильтрации (11.45)—(11.46) наблюдения входят через функцию F^^kh), которая определяется через логарифм отношения правдоподобия
330
как
с другой стороны в п. 4.5.1 получены общие выражения {4.76)-(4.77) для А/^ = In^p^}^*
при произвольной ГШ шума p{ni^) в форме *
/=1
/
N •
7=1
/
ч
(-1)'d'\np(y,) dyj
Записывая аналогичные выражения для
и поставляя Л^ и
, получаем fk i h ) = Ак - Л * - , = l f i Ы /=1
.
(11.98)
Если сигнал достаточно слабый по сравнению с помехой, то в (11.98) можно ограничиться лишь первым членом, т.е. rflnpfv;) FkM
= fx{yk)Sk,
/х{Ук)-
(И-99) dyj Подставим (11.99) в алгоритм оптимальной фильтрации (11.45), (11.46) и рассмотрим дискриминатор следящей системы (11.49) cue») Из (11.98) следует, что дискриминатор, в отличие от (11.49), включает на входе дополнительный нелинейный блок, который преобразует входную реализацию . Тип такого нелинейного преобразования определяется видом ГШ Для гауссовской ГШ ) имеем / j {у/^) = = у!^ /ст^ , т.е. нелинейное преобразование вырождается в линейное, а дискриминатор (11.97) переходит в дискриминатор (11.49) (без учета второго слагаемого, которым во многих радиотехнических задачах можно пренебречь).
Контрольные вопросы к главе 11 1. Что такое гауссовское приближение в теории оптимальной нелинейной фильтрации? 2.
Как определяется дискриминатор в структуре оптимальной в гауссовском приближении нелинейной системе фильтрации? 3. Чем определяется структура оптимального дискриминатора?
331
4.
Чем определяется структура сглаживающего фильтра в структуре нелинейной системы фильтрации? 5. Каким образом и когда может быть использована теория оптимальной линейной фильтрации для синтеза сглаживающего фильтра нелинейной системы? 6. Что изменяется и как в структуре оптимальной системы фильтрации при решении задач приема сигнала на фоне гауссовской и негауссовской помех? 7. Что изменяется и как в структуре оптимальной системы фильтрации при решении задач приема сигнала на фоне коррелированной гауссовской помех по сравнению с задачей приема сигнала на фоне некоррелированной гауссовской помехи? 8. Как изменяется структура оптимальной системы фильтрации при приеме сигнала неинформативной случайной фазой?
332
Глава
12
ОПТИМАЛЬНАЯ КОМПЛЕКСНАЯ ФИЛЬТРАЦИЯ
В задачах фильтрации информационных процессов основным требованием, как правило, является высокая точность фильтрации. Если выбрано описание фильтруемых процессов и определены наблюдения, т.е. выбраны соответствующие измерительные датчики, то применение теории оптимальной фильтрации приводит к наилучшим алгоритмам обработки сигналов измерительных датчиков, которые обеспечивают минимальное значение дисперсии ошибки фильтрации. В то же время проектировщику системы хотелось бы знать, каким образом можно добиться дальнейшего повышения точности фильтрации. Понятно, что для этого надо повышать информативность наших наблюдений. Сделать это можно двумя способами. П е р в ы й способ заключается в использовании дополнительных датчиков одного и того же оцениваемого процесса. Причем эти датчики должны быть независимыми, так как в противном случае они не добавляют новой информации. В т о р о й способ основан на использовании датчиков процессов, отличных от оцениваемого, но связанных с ним. Например, это могут быть измерители производных оцениваемого процесса. Теория комплексной фильтрации занимается именно такими задачами совместной фильтрации взаимосвязанных процессов, в том числе и тождественных, при наличии измерений от различных датчиков. Синтез комплексной системы может быть выполнен с общих позиций теории оптимальной фильтрации. Для этого достаточно ввести обобщенный вектор измерений у ( 0 . включив в него все наблюдения (измерения), полученные от различных датчиков. Далее синтез осуществляется на основе стандартных алгоритмов оптимальной фильтрации, рассмотренных в гл. 10—И. Рассмотрим примеры синтеза комплексных систем фильтрации.
12.1. Радиолокационный двухдиапазонный комплексный измеритель дальности Рассмотрим радиолокационную станцию, которая излучает в одном направлении сигналы в двух диапазонах частот, например, сантиметровом и миллиметровом. На вход приемника в этом случае также поступают два сигнала, потому имеем два наблюдения 333
:>'i(0 = ' ? , ( t 3 , 0 + « I ( 0 . А/[И1(0«10+^)] = ЛГо,/25(Т); =
M[n2(t)n2(t + T)] = No2/2d(x).
(12.1) (12.2)
Примем следующую модель изменения дальности во времени х,=2Л/со, (12.3) где Со — скорость света. Введем вектор х = \Я
, для которого справедливо векторное
уравнение (12.4) где F =
0 1 0 0
; G=
0
(12.5)
1
Определим вектор сигналов 8(Тз,г)= 5] (Тз,/) S2{Xj,t) , вектор шумов п = |л] «2Г» векторное наблюдение y=|>'i У2^, для которого запишем выражение у ( 0 = 8(Тз,0+11(0.
(12.6)
Подставляя (12.4)—(12.6) в (11.14), (11.17), получаем
2Д,, dS2{2RlcQ,t) N.02
ък
[y2{t)-S2[2Rlc^,t)),
(12.7)
334
dt
^^
ЭЛ V
>
ал
^01
J
ч2
^02
'
2AIA2 м dD2l_4 dt 2
'2А2 дЯ
dR
Щх
Щг
^dS2(2R/co,ty dR
Щ2
. (12.8)
Схема оптимальной комплексной системы фильтрации приведена на рис. 12.1.
Рис. 12.1. Схема оптимальной комплексной системы фильтрации
Поскольку имеется два датчика сигналов (12.1), (12.2), то схема комплексной фильтрации содержит два дискриминатора задержки сигнала
(12.9) Щг <«3 Следовательно, уравнения комплексной фильтрации (12.7) можно записать в виде 335
dR dt dV
Co
cq
2D,2
,^2D^2
CQ
(12.10)
Co
Теперь введем для дискриминаторов (12.9) статистические эквиваленты (11.23) и рассмотрим работу комплексной системы фильтрации при малых ошибках, лежащих в пределах линейных участков дискриминационных характеристик, т.е. +
Ид2=5Д2(ТЗ-ТЗ) + (;2(0.
(12.11)
где qi (/), с,2 (О — флуктуационные процессы на выходах дискриминаторов, которые являются БГШ с двусторонними спектральными плотностями 5^1/2 и соответственно. Подставляя (12.11) в (12.10), получаем щ dt
£0 2
cl
dV _ 4Д|2 dt
Щг
£0
cl (12.12)
Уравнения (12.12) линейны относительно оцениваемых параметров и могут быть достаточно легко проанализированы. Рассмотрим уравнения для дисперсий (12.8). Как следует из (11.26), крутизны дискриминационных характеристик равны
{
Э52(Тз,01 . 5д2 = Эх, N,01 N, Этз 02 Подставляя (12.13) в (12.8), получаем 5д| =
dt - r dt
ct
dt
—-(5Д1+5Д2)—5-. 2 cl
Преобразуя уравнения (12.12), получим 336
(12.13)
(12.14)
=F+
m-R
cl
dV ^ Щ2 dt
cl (12.15)
cl где
(12.16) ^ iS /2 + iS /2 Спектральная плотностыиума Я(/) равна N^/2 = ——— ' Из (11.27) следует, что
jl^Sj^^,
Поэтому можно
записать cl
N,12 = -
(12.17)
С учетом (12.17) уравнения комплексной (12.14)—(12.15) при малых ошибках принимают вид dt
Na ^^^^
-dt
dt dt
>
2
N,
dt
Nfi
^^^^
'
фильтрации
(12.18)
2A1A2
(12.19)
Уравнения (12.18)—(12.19) — это уравнения фильтра Калмана для фильтруемого процесса (12.3) и эквивалентйых наблюдений (12.16). 12—2041
337
Таким образом, при малых ошибках фильтрации синтез и анализ комплексной системы фильтрации эквивалентен синтезу и анализу линейного фильтра Калмана для эквивалентного линейного наблюдения (12.16). Такую задачу синтеза решить существенно проще, чем исходную нелинейную задачу. В частности, в установившемся режиме дисперсионные уравнения (12.19) имеют аналитическое решение
(12.20) Из (12.17) следует, что при любых 5д1 > 0 и 5д2 > 0 имеем
где в правых частях неравенств стоят спектральные плотности шумов эквивалентных линейных наблюдений для задач синтеза автономных (однодиапазонных) радиолокационных измерителей дальности. Так как дисперсия ошибки фильтрации растет при увеличении спектральной плотности шума эквивалентных наблюдений (12.20), то дисперсия ошибки фильтрации в комплексном измерителе всегда меньше, чем в любом из автономных измерителей. Максимальный выигрыш в точности фильтрации получается при 5'|д — 52д и равен 23/4 = 1,68 раз по дисперсии ошибки фильтрации дальности.
12.2. Комплексный измеритель дальности и радиальной скорости
В задачах радиолокации, радионавигации и радиоуправления при определении параметров движения подвижных объектов, как правило, определяют задержку сигнала и доплеровское смещение частоты, которые пропорциональны соответственно дальности R и радиальной скорости сближения V . Так как скорость V является производной от дальности, то, располагая двумя датчиками (задержки сигнала t j и доплеровского смещения частоты сОд), можно ставить задачу синтеза комплексной системы фильтрации дальности и радиальной скорости. В отличие от рассмотренной ранее задачи, здесь различные датчики измеряют различные компоненты многомерного процесса — координату и ее производную. 338
Положим,
что
фильтрации
по-прежнему
подлежит
вектор
X = R Vf , который описывается векторным уравнением (12.4).
В рассматриваемой задаче на входе приемника имеем реализацию >'(0 = 5(Тз,Шд,/)+л(/), A / [ / i ( 0 « 0 + x)] = iVo/25(x),
где Тз = 2R/CQ ; Юд = AKV/XQ ; Я-о —длина волны несущего колебани Если проводить полный синтез комплексной системы фильтрации (как это было сделано в п. 12.1), то необходимо ввести вектор
л
т
2/со
О
Л = Хз (0„ , матрицу с =
, такую, что Л = сх, и восполь0 4K/Xq зоваться аппаратом теории оптимальной нелинейной фильтрации. Однако, если нас интересует точность фильтрации при малых ошибках, лежащих в пределах линейных участков дискриминационных характеристик, то для синтеза и анализа линеаризованной системы можно воспользоваться более простой теорией линейной фильтрации. Для этого определим линеаризованные наблюдения :Р,(Г) = Л ( 0 + Я л ( 0 . M[nR{t)n^{t + x)] = Nj,/25{x); =
M[nfr{i)ny{t
(12.21)
+ x)] = Ny/28{z);
(12.22)
введем векторы у =
, п = |л1 йг]^ и запишем наблюдения в век1 О тором виде у ( / ) = Нх + п(/), где Н = О 1 Уравнения фильтра Калмана для рассматриваемой задачи линейной фильтрации имеют вид
(12.23)
dt
^^
Np Nr
Nv Ny 2 тг>2
2Dt2 dt
2
Nr
mi
Ny
'
dt
^^
NB
NV
(12.24)
339
в установившемся режиме система дисперсионных уравнений (12.24) преобразуется в систему алгебраических уравнений, которая имеет следующее решение:
2 ( 1 . V^)
Д22уст=' где р = NyIs^Nfi
.
(12.25)
—безразмерный параметр.
Как следует из (12.25), точность фильтрации зависит от соотношения спектральных плотностей шумов в каналах измерения дальности и скорости (от величины р). При р » 1 , что соответствует, например, очень большому уровню шума в канале измерения скорости, из (12.25) получаем
A l y c T ,
Azycr =
,
(12.26) Формулы (12.26) соответствуют дисперсиям ошибок фильтрации в автономном измерителе дальности (12.20). Таким образом, эффективность комплексной системы фильтрации по сравнению с автономной возрастает с уменьшением интенсивности аддитивного шума в канале измерения скорости. При р « 1 , например, при малом уровне шума в канале измерения скорости, из (12.25) получаем (12.27) Точность измерения дальности в этом случае определяется только уровнем шумов в каналах измерения дальности и скорости и не зависит от спектральной плотности динамического возмущения (ускорения объекта). Подставляя (12.27) в уравнение для оценки дальности (12.23), получаем ^ 340
=
(12.28)
Из (12.28) видно, что при условии р « 1 оценка скорости V не входит в уравнение для оценки дальности, т. е. фильтрация скорости в отдельном канале не является необходимой для фильтрации дальности, а в кольце слежения по дальности используется нефильтрованнное наблюдение скорости y2{t). Отсутствию наблюдения по дальности соответствует N^^ -*оо , При этом из соотношений (12.26) следует
Таким образом, наблюдение только в канале скорости приводит к бесконечной дисперсии ошибки по дальности, в отличие от случая наблюдения только в канале дальности, когда дисперсии ошибок по т S - 1 Е -г» Ая ' • S /> обеим координатам коmi нечны. Схема оптимального линеаризованного комщ. Nr плексного фильтра приведена на рис. 12.2. 1 1 Ш I Из схемы рис. 12.2 Ny J " р нетрудно получить схему реального комплексного измерителя дальРнс. 12.2. Схема оптимального линеаризованного комплексного фильтра ности и скорости (рис. 12.3), дополнив ее дискриминаторами дальности и доплеровской частоты: 2 Э5(тз,а)д,г) Эх, ЛГп "дсод =
2 Э5(Тз,а)д,/) N.
Эш„
в схеме рис. 12.3 пунктиром выделены фильтры измерения скорости и дальности. Видно, что в оптимальной комплексной системе фильтрации есть перекрестные связи между каналами измерения дальности и скорости, как по выходам дискриминаторов, так и по формируемым оценкам координат R и V (оценка Я вводится в канал измерения дальности). 341
Дкк)|шав«тв))ы эмцжп 2£ll
л. Т Л')
s
2 —
p1
2D,,
I т •^(ь.Юд,») * '
<».1
' ^
I
L,
Phc. 123. Схема нелинейного комплексной системы фильтрации дальности и скорости
В ряде задач комплексирование по выходам дискриминаторов проводить нецелесообразно, но целесообразно оставить перекрестные связи по формируемым оценкам координат. Такая ситуация характерна, например, при комплексировании измерителей дальности и угловых координат. Оценим, к чему приводит отказ от комплексирования по выходам дискриминаторов в рассматриваемой задаче. В этом случае в уравнениях (12.23) необходимо положить Ц2 = 0 . Запишем получающиеся уравнения фильтрации в виде dR Рассчитаем дисперсию ошибки фильтрации по дальности и скорости в установившемся режиме ф у
1—
jtO+^2
2л
1-
K^N^
342
2Н
S^ + NyKj d(s> = 4^2
Ki(jo)+K2)+Ji:2jo> (j+A',) ф у
d(Si =
_ 4
^ NyK2 • 4^1 (л:, + K 2 ) ^ Щ К 2
+K2)'
Найдем оптимальное значение K2, при котором дисперсия ошибки Dy измерения скорости минимальна. Из условия dDy/dV = 0 находим - y j ^ ^ / ^ v • Дисперсия ошибки фильтрации скорости при оптимальном значении
опт равна
Dynnn=y]S^Ny/4.
(12.30)
Оптимальное значение , минимизирующее дисперсию ошибки измерения дальности, получается в общем случае достаточно громоздким. Поэтому рассмотрим частные случаи. При малом шуме в канале измерения скорости Ny
О из соотно-
шения (12.29) получаем DR = 4 Оптимальное значение
АКх равно ^lorrr - y l ^ v / ^ R • При этом
дисперсия ошибки измерения дальности определяется как ^Лопт =ylNRNy/4 . (12.31) Соотношения (12.30), (12.31) совпадают с аналогичными соотношениями (12.27). Следовательно, при малых шумах в канале измерения скорости комплексирование по выходам дискриминаторов является несущественным, так как не приводит к заметному увеличению точности фильтрации. Рассмотрим случай больших шумов в канале измерения скорости. Оптимальное значение А^2опт "Р" стремится к нулю, и из соотношения (12.29) получаем 4
2К1
Оптимальное значение
ATio^^ в этом случае равно
^lonx =
= 3 yj4S^Ny JNK . Дисперсия ошибки измерения дальности при опти-
V
мальных значениях ATion^ и А^2о1гт определяется выражением (12.32) 343
Из соотношений (12.30), (12.32) следует, что при большом шуме в канале измерения скорости дисперсии ошибок измерения дальности и скорости растут с увеличением Ny, в то время как в системе с комплексированием по выходам дискриминаторов дисперсии ошибок в обоих каналах не зависят от уровня шума в канале измерения скорости (12.26). Следовательно, при большом шуме в канале измерения скорости целесообразно использовать систему с комплексированием по выходам дискриминаторов. Оценим выигрыш в точности измерений дальности и скорости, который может быть получен в комплексной системе фильтрации. В качестве комплексного измерителя рассмотрим систему с комплексированием, как по выходам дискриминаторов, так и по оценкам координат. Сравнение проведем с обычным измерителем дальности, который описывается уравнениями (12.18)—(12.19), с установившимися значениями дисперсий ошибок фильтрации (12.20). Сопоставляя соотношения (12.20) с (12.26), (12.27), приходим к выводу, что при большом шуме в канале измерения скорости точность фильтрации дальности и скорости в комплексном и автономном измерителях совпадают. При малом шуме в канале измерения скорости точность фильтрации координат в комплексном измерителе выше, чем в автономном. Величина выигрыша определяется соотношением _ AlaBT _ авт AlKOMOn AlKOMIin
1
Ny
и выигрыш тем больше, чем меньше уровень шума в канале измерения скорости и чем больше интенсивность ускорения объекта и уровень шума в канале дальности. При типичных значениях N/^ = 6,5 м^с, Л^р. =0,01 m V ,
= 7 •10 m V
получаем
5 = 200 раз. Сопоставляя
данный выигрыш с выигрышом, который получается при комплексировании двух датчиков одной и той же координаты (двухдиапазонный измеритель дальности, п. 12.1), видим, что комплексная обработка сигналов, полученных с двух датчиков различных компонент фильтруемого вектора состояния, в ряде ситуаций позволяет получить существенно больший выигрыш в точности фильтрации.
12.3. Модифицированный вариант комплексирования При комплексировании радиотехнических датчиков с нерадиотехническими (например, датчиками инерциальных навигационных сис344
тем) возможна ситуация, когда наблюдаемый процесс для радиотехнического датчика имеет вид, аналогичный (12.1), т.е. = где
Л/[л(^)я(^ + т)] = Л^o/25(т),
(12.33)
= сх(/) — фильтруемый щюцесс, отофажаемый в пространстве со-
стояний векгсрным МП х (?) (напримф, (12.4)), а наблюдения нерадиотехническ(их)датчикалинейны относигелыю X, ), т.е. >'2(0 = ^ ( 0 + е ( 0 .
(12.34)
где е(/) — в общем случае код*!Л1Ч»ванный щюцесс, который в пространстве состояний также отображается e(?) = bz(/) некок^ым мфковским процесссм z(r), описываемым уравнением I
=
(О,
+ х)] = Q , / 2 5 ( t ) .
Вьфазим фо1»1алыю
из (12.34)
^(0 = >'2(0-е(0
(12.35)
и подставим полученное выражение в (1233) =
(12-36)
в (12J6) входят наблюдения ух (/), У2 (/) и случайный щюцесс е(<). Поэтому можно рассматривал, задачу фильтрации процесса e{t) по заданным наблюдениям. Для репкяия данной задачи необходимо рассмотрел. АПВ P^Z
где Y/Q,Y2Q — реализации наблюдений (12.33), (12.34).
Данная АПВ описывается уравнением Стратоновича (9.5), которое в данной задаче принимает следующий вид: dp(z,t Yi'q,Y2o)
II
t
t\\
+ F{z,t)-\F{z,t)p[z,t\Y^^,Y:l^)dz
p[z,t\Y^oK),
(12.37)
345
где F{i.,t) — производная по времени от логарифма функции правдоподобия (9.27), т.е. F{z,t) =
Э/
Представим функцию правдоподобия /'(lio.laol^) в виде =
(12.38)
Прежде всего отметим, что функция правдоподобия /7^yj|),72Q нелинейно зависит от параметра z . Из методики вывода алгоритма оптимальной фильтрации в гауссовском приближении (см. гл.9) следует, что функция F{i,t) разлагается в ряд в точке оценки г с удержанием конечного числа членов разложения. Поэтому для алгоритма оптимальной фильтращш наиболее существенным является тот из сомножителей в (12.38), который более быстро меняется при изменении z . Если дисприращения процесса Я,(/) за ма-
персия Dio^ = М лый интервал времени =М
=
много больше дисперсии 1>де =
приращения процесса е(г), то при изменении
Z второй сомножитель в (12.38) меняется существенно медленнее первого. Поэтому при синтезе алгоритма оптимальной фильтрации второй сомножитель можно считать константой, т.е. полагать = с />(}1д|2,У2о),афункцию F(z,0 =
F{z,t)
=
в (12.38) определять как
Э/
Тогда алгоритм оптимальной в гауссовском приближении фильтрации вектора z{t) записывается в виде di 2 (dS{y2it)-bz,t) — = F,z + — dt Щ dz 346
(:H,(/)-S(>'2(0-bi,0).
0239)
dz
oz
-^z •
Сффкофовав оцеяку ё(/) = bz(/), искомая оценка прсщесса
(12.40) опре-
деляется из (1235) как
^(0 = >'2(0-ё(0-
(12.41)
Модифицированный алгоритм комплексной фильтрации (12.39)(12.419) является приближенным, тем не менее, при сделанных допущениях точность фильтрации процесса Я.(<) ухудшается несущественно. Покажем этонапримфе. П р и м е р 12.1. PaccMOipiM задачу комш1екс1чх)Бания радиодальномера и датчика линапкй сщххлм (1222) инерциальной систшы навигации. При этом для просгош рассмотрим линеаризованные наблюдения радиотехнического датчика вида (1221). Так как нерадиогехнический датчик измеряет не саму дальность, а пфвую производную дальности, то для использования методики модифицированного комплекофотания проинтегрируем (1222) = dzjdt^ = ny{t). Уравнение (1236) в рассматриваемой задаче гфинимаег вид
а уравнения фильтрации (12.39)—(12.40) конкретизируются как f = ^
dt
(0-{У2 ( 0 - ё ) ) = =
2
(0-Л (0-е).
Nr
(12.42) (12.43)
В установившемся режиме уравнение (12.43) имеет решение
Оценка дальности определяется в соответствии с (12.41) как к = У 2 - ё . Дисперсия ошибки такой оценки равна 347
(R-Rf
=л/
=M (12.44)
{z-if
Выражение (12.44) совпадает с (12.27), которое получено для оптимальной комплексной системы фильтрации при малом значении Ny . А это как раз и означает, что дисперсия приращения е(/) за малый интервал времени At, равная D^ = NyAt/2,
меньше дисперсии приращения
дальности за тот же интервал времени. Заметим, что уравнение (12.42) можно представить в виде di л"
2Д
NR U k b C O - ^ '
где Д'экв (О = Л ( О - Л ( 0 =
(О •
(12.45)
Следовательно, фильтр (12.42)—(12.43) является оптимальным фильтром для эквивалентного наблюдения (12.45), которое представляет с о ^ й линейную комбинацию исходных наблюдений. Конечно, для рассмотренной линейной задачи фильтрации эквивалентное наблюдение (12.45) можно было ввести сразу. Однако при этом оставался бы вопрос об оптимальности такого подхода. Из модифицированного метода комплексирования эквивалентные наблюдения возникают из самой процедуры синтеза и не требуют дополнительного обоснования. При использовании же нелинеаризованного радиотехнического датчика введение эквивалентного наблюдения эвристически весьма затруднительно, в то время как модифицированный метод комхшексирования дает общий подход в форме уравнения (12.39). Отметим еще одно достоинство модифицированного метода комплексирования. В рассмотренной задаче оптимальная система фильтрации включает одно дифференциальное уравнение (12.42), т.е. следящую систему 1-го порядка, и одно алгебраическое уравнение (12.41), в то время как в оптимальной системе получаем два дифференциальных уравнения (12.23), т.е. следящую систему 2-го порядка. Следовательно, модифицированный метод комплексирования позволяет получить более простую систему фильтрации, что важно для практических приложений.
348
в заключение отметим, что модифицированный метод комплексирования в дискретном времени описан, например, в [13].
Контрольные вопросы к главе 12 1. Что понимается под комплексной фильтрацией? 2. Что будет происходить в двухдиапазонном комплексном измерителе дальности при отключении одного из дискриминаторов? 3. При каких условиях в комплексном измерителе дальности и скорости объекта можно отказаться от использования перекрестных связей между выходами дискриминаторов? 4. При каких условиях можно использовать модифицированный метод комплексирования ?
349
Г л а в а 13
АДАПТИВНАЯ ФИЛЬТРАЦИЯ СООБЩЕНИЙ
13.1. Постановка задачи адаптивной фильтрации В предыдущих главах рассматривались задачи синтеза оптимальных систем фильтрации в условиях, когда известны статистические характеристики информационных процессов (сообщений). Такая статистическая определенность задавалась в форме дифференциальных уравнений (например (9.2)) с известными параметрами. Данная априорная информация определяет оптимальные значения параметров синтезированных систем, что позволяет достигнуть высокой точности фильтрации. Однако во многих приложениях РТС работают в условиях существенной априорной неопределенности, связанной с неопределенностью статистического описания фильтруемых процессов. Так, например, в системах связи громкость передаваемой речи и ее спектральные характеристики могут меняться в широких пределах; в задачах радиолокации характеристики маневра цели (интенсивность и время корреляции) также могут быть различными. В этих случаях определить заранее (априорно) характеристики фильтруемых процессов невозможно, а, следовательно, невозможно и выбрать оптимальные значения параметров системы фильтрации. Таким образом, возникает проблема априорной неопределенности условий работы РТС. Существуют различные подходы к построению следящих измерителей при априорной неопределенности условий их работы [4, 5, 10]. Один из них состоит в том, чтобы оптимизировать структуру и параметры приемника для наиболее сложных условий (интенсивное и широкополосное сообщение, малое отношение сигнал/шум и др.). При таком (минимаксном) подходе достигается минимум ошибок фильтрации, когда эти ошибки максимальны. Построенные на его основе системы при более благоприятных условиях работы (меньшая интенсивность сообщения, меньший уровень шумов) оказьгааются неоптимальными. В ряде случаев это может быть вполне приемлемо, так как сами ошибки при более легких условиях работы относительно малы. Минимаксный подход прост, он позволяет использовать системы с неперестраиваемыми параметрами и ограничивать величину максимальных ошибок фильтрации. Поэтому он получил определенное распространение на практике. Для построения приемников в том случае может использоваться теория оптимальной фильтрации и результаты, приведенные в предыдущих 350
главах. Однако с учетом растущих требований к точности фильтрации он может оказаться недостаточным, так как не обеспечивает минимизацию ошибок для всех условий работы системы. Еще один способ преодоления априорной неопределенности статистических характеристик сообщения состоит в построении измерителей, инвариантных к этим характеристикам, т. е. не зависящих от них. Приемник, инвариантный к статистическим характеристикам сообщения, можно построить на базе комплексной системы фильтрации (см., например, п. 12.2), имеющей два или большее число входов, на которые в смеси с помехами поступает сообщение. Инвариантность системы к характеристикам оцениваемого процесса в этом случае достигается путем соответствующей обработки входных сигналов и исключения динамических ошибок воспроизведения сообщения. Отмечая достоинства инвариантных систем, необходимо учитывать, что при известных статистических характеристиках сообщения результирующая точность фильтрации в инвариантном фильтре хуже, чем в оптимальном, построенном с учетом знания этих характеристик. Следовательно, платой за инвариантность фильтра является увеличение ошибок фильтрации в нем при известных статистических характеристиках сообщения. Наиболее перспективным к построению следящих измерителей в условиях априорной неопределенности является адаптивный подход. В адаптивных (приспосабливающих) системах априорная неопределенность статистических характеристик сообщений преодолевается оцениванием их в процессе работы системы и использованием полученной информации для оптимизации ее параметров. Часто неопределенность характеристик сообщения может быть сведена к неопределенности некоторых параметров принятой модели сообщения, например дисперсии и(или) ширины спектра отдельных компонент, спектральной плотности формирующих шумов на нулевой частоте и др. В этом случае говорят о параметрической априорной неопределенности. В дальнейшем будем рассматривать именно такой тип априорной неопределенности. Поэтому сформулируем постановку задачи более подробно. Пусть на вход приемника поступает реализация = где
(13.1) —фильтруемый процесс, зависящий от вектора а неизвест-
ных параметров, которые будем полагать случайными величинами с заданной плотностью вероятности Рар ( а ) ; задание а в виде случай351
ных величин предполагает их постоянство за время наблюдения, что математически может быть записано как ^
= 0 , а ( 0 ) = ао,
at где ао — случайная величина. Процесс Х,(г,а)
в пространстве состояний зададим вектором
х ( / , а ) , т а к ч т о А,(г,а) = сх(/,а) и ^ = F(f,a)x+G(f,a)^(0,
х(/о) = хо,
(13.2)
at где
— /и-мерный вектор БГШ с корреляционной матрицей
R^(T) = S ^ ( a ) / 2 5 ( x ) . Если наблюдения линейно зависят от вектора >'(0 = Н ( 0 х ( г , а ) + л ( 0 .
, то имеем (13.3)
Заметим, что в (13.1), (13.3) характеристики шума n{t) полагаются известными. Задача синтеза оптимальной системы фильтрации, по-прежнему, заключается в нахождении оценки с минимальной ошибкой фильтрации.
13.2. Показатели качества адаптивных систем фильтрации Точность фильтрации. Адаптивные системы фильтрации предназначены для оценки меняющихся во времени сообщений в условиях априорной неопределенности их статистических характеристик. Основным показателем качества их работы является точность фильтрации. При описании сообщений случайными процессами точность фильтрации характеризуется дисперсией ошибки фильтрации или среднеквадратической ошибкой, которая для скалярного сообщения определяется выражением М
(x-if
Среднеквадратическое значение ошибки фильтрации зависит от истинных значений неизвестных параметров а сообщений, их оценок а , 352
формируемых в синтезированной системе и ряда других факторов. Оценка а параметров сообщения, вырабатываемая адаптивной системой, изменяется в процессе ее работы. Соответственно изменяется и точность фильтрации сообщения. Для определения точности фильтрации сообщения в адаптивном фильтре в переходном режиме, как правило, прибегают к моделированию на ЭВМ. Наряду с оценкой текущей точности фильтрации, полезным для получения представления о возможностях адаптивных систем является определение предельной точности фильтрации в таких системах. Предельная точность фильтрации достигается, когда оценки а параметров фильтруемого процесса совпадают с истинными значениями а . Задача определения предельной точности фильтрации в адаптивной системе является сравнительно несложной и решается путем его анализа в установившемся режиме известными методами радиоавтоматики [3]. Для линейной модели сообщения (13.3) с известными статистическими характеристиками и наблюдений (13.4) при оптимальной структуре системы фильтрации в форме фильтра Калмана предельная точность фильтрации определяется дисперсионными уравнениями Риккати (см.гл.10). Найденная таким образом предельная точность фильтрации сообщения определяет не только потенциальные возможности адаптивного измерителя, но и его реальные возможности при высокой точности адаптации. Выигрыш в точности фильтрации. Важным показателем качества работы адаптивных измерителей является выигрыш в точности фильтрации, который может быть получен при их использовании. Количественно оценить его можно величиной В , равной отношению среднеквадратических значений ошибок фильтрации в неадаптивной и адаптивной системах
где Z)„, Dg —дисперсии ошибок фильтрации сообщения в адаптивной и неадаптивной системе соответственно. Знание среднеквадратических значений ошибок фильтрации в адаптивных системах и выигрыша в точности фильтрации, который обеспечивается их применением, дает достаточно полное представление об эффективности использования таких систем. Предельный выигрыш в точности фильтрации получается, если в (13.4) под £>3 понимать предельную точность фильтрации в адаптивной 353
системе, т.е. такую точность, которая получается при точной адаптации в установившемся режиме. Поясним это на примере. П р и м е р 13.1. Рассмотрим задачу фильтрации дальности до цели, изменение которой во времени задается уравнениями MR(/)^(/H-x)] = ^ 5 ( t ) . (13.5) 2 Пусть неизвестным параметром является спектральная плотность формирующего шума. Наблюдается аддитивная смесь dt
=
^ = dt
y{t) = R{t)+n{t),
М [ и ( / ) « 0 + т)] = ^ 5 ( т ) .
(13.6)
Если параметр
известен, то оптимальная система фильтрации
описывается уравнениями dt
щ
dt ^
dt
^^
=
2
^ Nq ' Nq
N q ^^
dt dt
^^
Nq
г ' (13.8)
где Djj, /',7 = 1,2 —элементы матрицы дисперсий ошибок фильтрации. Система уравнений (13.8) в установившемся режиме имеет решение
(ад По определению предельной точности фильтрации в адаптивной системе полагается, что оценка неизвестного параметра (в данном слуА
чае S^) в установившемся режиме совпадает с истинным значением, т.е. = Следовательно, при идеальной адаптации в адаптивной системе в установившемся режиме точность фильтрации будет определяться выражениями (13.9), в частности для дисперсии ошибки оценки дальности имеем 354
(13.10)
в неадаптивной системе фильтрации будем применять алгоритм (13.7), в котором используется некоторое априорно заданное значение отличное от истинного значения S^. Следовательно, в фильтре (13.7) используются коэффициенты усиления
И ^ о
"
No
(13.11)
ро
На вход неадаптивного фильтра (13.7) с параметрами (13.11) поступает реализация (13.6), в которой оцениваемый процесс Л(/) соответствует истинному значению S^. Рассчитаем дисперсию ошибки фильтрации в установившемся режиме в неадаптивном фильтре 2
J_ 2л
I
(jco)
+
(jcof
jC0+^2 2
(jco)
d(i) =
—
(
1
3
.
1
2
)
Подставляя в (13.5) выражения (13.10) и (13.12), получаем 2V
^
'
х Л .
(13.13)
Как следует из (13.13) предельный выигрыш в точности фильтрации зависит только от отношения спектральных плотностей в адаптивном и неадаптивном фильтрах и не зависит от спектральной плотности аддитивного шума. Для получения количественных оценок выигрыша в точности фильтрации положи диапазон неопределенности по =0,5...20000 м^с ', что примерно соответствует интенсивности ускорения цели а = 0,5... 100 м/с^. 355
Рассмотрим две ситуации. Сначала положим, что неадаптивный фильтр настроен на минимальное ускорение, т.е. =0,5 м^с"^. График зависимости выигрыша в точности фильтрации от х приведен на рис. 13.1. Из графика следует, что при такой настройке неадаптивного фильтра выигрыш в точности фильтрации в адаптивном фильтРис. 13.1. Зависимость выигрыша в ре может достигать 6 раз при инточности фильтрации от х тенсивном ускорении цели. при = 0,5 м^с'^ Рассмотрим теперь ситуацию, когда неадаптивный фильтр настроен на максимальную интенсивность маневра цели, т.е. = 20000 м^с"'. График зависимости выигрыша от расстройки х в этом случае приведен на рис. 13.2. Для такой настройки неадаптивного фильтра величина предельного выигрыша у адаптивного фильтра не превышает 2 раз. Следовательно, неадаптивный фильтр целесообразно настраивать на максимальное значение маневра цели, т.е. по 1СГ Xпринципу минимакса. Если к системе предъявляРис. 13.2. Зависимость выигрыша в ются требования не только усточности фильтрации от х пешного выделения сообщения, при 20000 m V но и определения характеристик сообщения для их последующей идентификации, то показателем качества работы системы является также точность оценок априорно неизвестных характеристик сообщения. Точность фильтрации сообщения и выигрыш в точности фильтрации, обеспечиваемый применением адаптивных систем, являются результирующими (итоговыми) показателями качества работы таких устройств. Определение этих показателей в переходном режиме, а также в 356
условиях, когда не гарантирована высокая точность адаптации, как правило, требует проведения моделирования на ЭВМ всей системы фильтрации и поступающих на нее воздействий. Сходимость процесса адаптации. Это необходимое условие успешной работы адаптивной системы. Бели алгоритм адаптации обладает этим свойством, то оценки характеристик сообщения, вырабатываемые фильтром в процессе адаптации, сходятся к истинным значениям этих характеристик. Если в адаптивной системе адаптация проводится не к параметрам сообщения, а в результате подстройки некоторого «интегрированного» параметра системы, например, полосы пропускания, то процесс адаптации является сходящимся, когда значение этого интегрированного параметра сходится к оптимальному, которое соответствует выбранному для подстройки критерию качества. Исследования показывают [3], что не все алгоритмы адаптации удовлетворяют требованию сходимости. Поэтому определение сходимости процесса адаптации — один из важных этапов анализа таких адаптивных измерителей. Время адаптации. Пока процесс адаптации не завершен, используемые в системе оценки неизвестных параметров сообщения даже при сходящемся алгоритме адаптации значительно отличаются от истинных значений. Это приводит к увеличению ошибок фильтрации. Поэтому важно, чтобы время адаптации было достаточно малым. Если характеристики сообщения постоянны во времени, то необходимо, чтобы время адаптации было значительно меньше общей продолжительности работы системы, так как только при этом условии адаптация может дать существенный эффект. Особенно важно сокращение времени адаптации, если характеристики сообщения изменяются во времени. При малом времени адаптации адаптивная система успевает следить за изменением характеристик сообщения и обеспечивается высокая точность фильтрации. В противном случае, когда время адаптации велико, эффективная адаптация не происходит. Точность адаптации. Если неизвестные параметры сообщения постоянны во времени, то в адаптивных системах со сходящимся процессом адаптации ошибки оценивания этих параметров можно сделать в установившемся режиме равными нулю. При изменяющихся во времени параметров сообщения ошибки их оценивания даже в установившемся режиме не равны нулю, что определяется наличием шумов и динамикой изменения данных параметров. При этом возникает необходимость оце357
нить эти ошибки, так как высокая точность фильтрации сообщения достигается, если точность адаптации также достаточно высока. Чувствительность адаптивных измерителей. Еще одним важным показателем качества работы адаптивных систем является их чувствительность к изменению условий работы по сравнению с принятыми при их синтезе. Значительный интерес представляет, в частности, чувствительность адаптивной системы к изменению характера (модели) сообщения. Описание сообщения марковским процессом невысокого порядка в ряде задач является приближенным. Так, например, приближенным является описание ускорения подвижного объекта одномерным марковским процессом. Важно поэтому проанализировать работу адаптивных систем и такие их показатели, как точность и выигрыш в точности фильтрации, сходимость и время адаптации при отличии модели формирования сообщения от расчетной. При оценке возможностей адаптивных систем, адаптирующихся к неопределенности характеристик сообщения, важную роль играет также их чувствительность к изменению уровня шума (если в фильтре не предусмотрена соответствующая адаптация), изменению крутизны дискриминатора и других параметров заданной части измерителя.
13.3. Общее решение задачи адаптивной фильтрации В гл. 3 описаны основы теории статистических решений, которая определяет идеологию построения оптимальных систем. В соответствии с данной теорией оптимальное решение ищется в результате минимизации среднего риска (3.6). Б сформулированной выше задаче адаптивной фильтрации риск (3.6) будет зависеть от вектора случайных параметров а , а, следовательно, также будет случайной величиной. Следуя методологии теории статистических решений, в этом случае необходимо провести дополнительное усреднение риска по ПВ параметров а , т.е. рассмотреть средний риск вида r ( u ) = J||c(x(a),u(y))/j(x.a,y)^/x^yrfa.
(13.14)
Под оптимальной оценкой i ( / ) в задачах адаптивной фильтрации будем понимать такую оценку, которая минимизирует средний риск (13.14). Принимая в качестве функции потерь с ( х ( а ) , и ( у ) ) квадратичную (3.1), получаем (см. гл.З), что оптимальной оценкой, минимизирующей средний риск (13.14), является оценка условного среднего 358
i(/)=
«щи ~
.
.
I I х(а)р(х,аГо')л^а, ®ЦШ11
(13.15)
где /7|х,а }() j —совместная АПВ распределения значений фильтруемого процесса х и случайных параметров а . Уравнение Стратоновича для АПВ
приведено в гл. 9
(см. (9.49)). Используя формулу Байеса для совместной АПВ
Jq)» фор-
мулу (13.16) можно представить в виде
«niin-~
= "]" J х(а);7(х|Уо',а)р(а|Уо')'/х^/а = "]"х(а)/'(а|^о)а. (13.1 где х ( а ) = I х(а);7(х|Уо',а)л
(13.17)
— условная оптимальная оценка вектора х при фиксированном значении а . Условная оценка х ( а ) определяется для условной ПВ
Ко-")'
интегро-дифференциальное уравнение для которой приведено в гл. 9, формула (9.59). Данная ПВ соответствует процессу (13.2) с известным значением а , т.е. процессу с известными статистическими характеристиками. Поэтому для оценки х ( а ) можно записать уравнения оптимальной фильтрации (11.14), (11.17) в случае нелинейных наблюдений (13.1) или уравнением фильтра Калмана (10.14)-(10.16) для линейных наблюдений (13.3). Рассмотрим для простоты случай линейных наблюдений и запишем ^
at
= F 0 , a ) x ( a ) + K ( / , a ) ( y ( O - H ( O x ( a ) ) , х(0) = хо, (13.18) (13.19) 359
= F ( / , a ) D , ( a ) + D i ( а ) Г 0 , а ) + 1 с (/,a)S^ (a)G^ ( r . a ) - D , (a)H^ ( / ) 2 i V o ( a ) , D, (0)
.
(13.20)
В гл. 9 получены вьфажения (9.58)—(9.59) для АПВ /^^а Iq ) неизвестных параметров, которые перепишем для рассматриваемой задачи в виде ехр
Pap {о.) (13.21)
00
1 ехр< —оо
.0
где (13.22) X
F(x(a),0 = (H(Ox(a)f
(у(/)-0,5Н(Ох(а)).
(13.23)
Условная ПВ р^х Ig.ct) для рассматриваемой линейной задачи гауссовская, что позволяет выполнить усреднение в (13.22) в явном виде
X
= Н ( 0 х ( а ) { > ' ( / ) - 0 , 5 Н ( 0 х ( а ) ) - 0 . 5 Г г [ о , (а)Н^ ( 0 Н ( 0 ] .(13-24) где Тг [*] — обозначает след матрицы. Для нелинейных наблюдений (13.1) можно воспользоваться стандартной методикой (см. гл. 11) разложения нелинейной функции в ряд по степеням разности ( x - i ( a ) ) с удержанием линейных членов разложения. В этом случае для F{o.,t) получается приближенное выражение
360
-0,57r
Эх
.(13.25)
Эх
Соотношения (13.16), (13.18)—(13.21) дают общее решение задачи адаптивной фильтрации. Дальнейшая их конкретизация сводится, практически, к тому, как трактовать формулу (13.16). При этом различают два принципиально разных подхода, которые подробно рассматриваются ниже.
13,4. Многоканальные адаптивные системы фильтрации Практическая реализация адаптивного алгоритма фильтрации (13.16), (13.18)—(13.21) возможна в следующей форме. Дискретизируем область [«^(п.апих] возможных значений параметров а , т.е. полагаем, что а может принимать дискретные значения а , , i = l,M из заданной области. Интеграл в (13.16) при этом заменяется суммой, и выражение для оптимальной оценки принимает вид i = ix(a,)/>(a,|yo'), j=i где Р (а,
(13.26)
— апостериорная вероятность значения а = а,.
При дискретизации возможных значений вектора а (13.21) переходит в соотношение
выражение
ехр t м Хехр \F{ai,x)dx /=1 .0
Pap{0.i)
в котором Р ^ (а,-) — априорные вероятности значений а = а,. Алгоритм (13.26) определяет структуру многоканальной адаптивной системы (рис. 13.3). Она содержит набор фильтров, каждый из которых рассчитан на оптимальное выделение информационного процесса с параметром а = а^, вычислитель апостериорных вероятностей, перемножители и сумматор. В процессе работы системы условные оценки 361
X (а,-), формируемые на выходах канальных фильтров, умножаются на вероятности Р^а,- Iq) и суммируются, образуя выходную оптимальную оценку X. С течением времени апостериорная вероятность того значения а,-, которое наиболее близко к истинному значению а , стремится к единице, а вероятности остальных Oj убывают до нуля. Поэтому после завершения процесса адаптации из всех канальных фильтров оказывается "включенным" лишь тот фильтр, параметры которого соответствуют характеристикам принимаемого информационного процесса. Втнопгтелъ р(а,|Го')< = Гл7 v(a,) Отгсямаяьвый фиьтр а^
яо
о/ \
i(a2) ^ Ошташльный фнь1р а^
Оатимшный фньтр а,
г X
Рис. 13.3. Схема многоканальной адаптивной системы
В многоканальной системе формируется вся АПВ Р^а, Jq j неизвестных параметров, а условные оценки х(а, ) фильтруемого процесса усредняются по этой АПВ. Поэтому данный метод относится к штегральным методам адаптации. Процесс адаптации здесь заключается в перестройке апостериорных вероятностей /'^а, YQ j . Многоканальный адаптивный фильтр в задаче дискретной фильтрации. В задаче дискретной фильтрации полагается, что фильтруемый процесс задается уравнением (для простоты изложения взята линейная модель сообщения)
362
где ^^ — векторный ДБГШ с матрицей дисперсий D ^ ( a ) . Наблюдения также будем считать линейными и т -мерными п^п} = D A y
( 1 . )
Так как соотношения (13.14)—(13.17) являются общими и не зависят от того, в непрерывном или дискретном времени сформулирована задача фильтрации, то можно записать выражение для оптимальной оценки сообщения в виде, аналогичном (13.16); (13.29) где ж^ ( а ) — условная оценка сообщения, определяемая уравнениями фильтра Калмана при фиксированном значении а , i i (а) =
(а)+К^ (а)(у, - Щ х , (а)),
=
(13.31)
=
(13.32)
К к («) =
(a)F/_,
= Dx.^ ( a ) = (I
(13.30)
(a)D^ (a)Gl_, ( a ) , (13.33) или
(a)H,_i
Уравнение для АПВ
(a).
(13.34)
YQ ) , полученное в п. 9.5 (формула (9.44),
запишем в виде , p(a|Yo") = /7,p(a). (13.35)
Как и в случае непрерывного времени, для получения практически реализуемой системы область возможных значений параметров а дисекретизируем, что приводит к замене в (13.29) интегрирования на суммирование, а ГШ заменяется на соответствующие вероятности
1=1
363
Для апостериорных вероятностей значений неизвестных параметров можно записать выражение, аналогичное (13.35),
|Yo°) = Р^р (а,-),i = U7. Рассмотрим ПВ
(13.37
Yo~',a, j . Как следует из (13.27)—(13.28),
при фиксированном значении данная ПВ а, является гауссовской с МО М Ук
=
(а,).
(13.38)
и матрицей дисперсий М Таким образом, можно записать (13.39) ехр - ^ ( У *
(а,)Г
(а,ОН! + D „ ) ' ' ( у ,
(а,))
-im/2
Уравнения (13.30)—(13.34), (13.36)—(13.39) полностью определяют алгоритм адаптивной многоканальной фильтрации. Приведем пример работы многоканальной адаптивной системы. П р и м е р 13.2. Рассмотрим задачу адаптивной фильтрации дальности до цели в дискретном времени. Положим, что изменение дальности описывается уравнениями (13.27), в которых \ = \Д V^, а матрицы 0 1 т. , G= , где Tj — шаг временной дискретизации; = \. 0 1 Наблюдаемый процесс (13.28) в данной задаче скалярный, а матрица наблюдений равна Н = |l 0|. В качестве неизвестного параметра F=
364
определим интенсивность ускорения цели
Для синтеза многока-
нальной системы полагаем, что о^ принимает дискретные значения Оптимальная оценка процесса Х/^ определяется соотношением
где ijt (Од,) — условная оценка фильтруемого процесса при фиксированном значении параметра Стд , которая описывается уравнениями 4
)=h
^k
) = Ук-l
h
) = K,) + ^A-l Ki).
^U
)+^it
)+
)(Ук -Rk ы Ы)(Ук
- Rk
). )-
) = A1 Ki )/£>« . ^2k (Oa.i) = A2 K, )ID„ .
Уравнения для дисперсий ошибок фильтрации Ду, i,j = \,2 приведены в (10.75)—(10.76). Апостериорные вероятности значения интенсивности ускорения определяются рекуррентными соотношениями
где условная одношаговая функция правдоподобия в соответствии с (13.39) дается формулой ч2 (п-ЛлК,/)) 1 exp Схема многоканального адаптивного измерителя дальности приведена на рис. 13.4. В данной схеме апостериорные вероятности P^Caj YQ^ значений интенсивности ускорения формируются отдельными блоками, а перекрестные связи между блоками реагшзуют^ю
нормировку, так что ^ / ' ( а д , - 1о*) = 1. Если в результате адаптации 1=1 ^ ' ' некоторая P{oa j zf
то остальные апостериорные вероятности
стремятся к нулю. jL
Н Е Н ^ В Ч Ж Н З i
ный филыр 1
1
i л» к / )
Ук
Каы&льиыи филь1рi j т
1^
Г
^ J
1 Кшшшвыб филыр М Рис. 13.4. Схема многоканального адаптивного измерителя дальности
Рассмотрим характеристики многоканального адаптивного фильтра. Положим Л(0) = 50 км, К(0) = - 500 мс"', Tj = 0,02 с, D„=\0/Tj м^ М =3, Од 1 =0,707 мсЛ Од 2 = 10 мс"^, Од з =50 мс"^. Положим также, что априорные вероятности возможных значений интенсивности ускорения равны, т.е. Р^р (од, ) = / = 1,3. На рис. 13.5 приведены усредненные по 1000 реализациям зависимости апостериорных вероятностей для различных истинных значений интенсивности ускорения цели, из которых видно, что многоканальный измеритель успешно адаптируется к априорно неизвестной интенсивности маневра цели. При этом время адаптации к слабому маневру (Од <10мс'^) составляет 4...6 с, а к интенсивному маневру цели — 2...4 с. 366
I, с
Рис. 13.5. Зависимости апостериорных вероятностей значений неизвестных параметров для истинных значений интенсивности ускорения цели: а — Од = 0,707 м с б — = Ю мс"^, в — о^ = 50 мс"^
На рис. 13.6 сплошными линиями приведены зависимости среднеквадратических ошибок (СКО) измерения дальности (в метрах) для тех же значений интенсивности ускорения цели, что и выше, а штриховыми линиями — зависимости СКО в неадаптивной системе, настроенной на максимальную интенсивность маневра цели Од ,пах - 50 мс"^. Из сопоставления зависимостей, приведенных на рис. 13.6, а следует, что выигрыш по СКО измерения дальности при слабой интенсивности маневра (а^ =0,707 мс'^) составляет 2,2 раза, что соответствует теоретической оценке, приведенной в п. 13.2. При увеличении интенсивности маневра цели величина выигрыша уменьшается (рис. 13.6, б)), а при равенстве истинной интенсивности маневра той, на которую настроена неадаптивная система (рис. 13.6, в)), выигрыш отсутствует. 367
СКО. м
СКО, м
15
I, С
Рис. 13.6. Зависимости СКО оценки дальности для истинных значений интенсивности ускорения цели: а — а^ =0,707 мc•^ б — Од = 10 мс'^, в — Од = 50 мс"^
13.5. Алгоритмы скользящей адаптации 13.5.1. Общее решение задачи по методу скользящей адаптации Рассмотренные многоканальные адаптивные системы фильтрации достаточно сложны для практической реализации. Для построения более простых адаптивных систем можно использовать следующее обстоятельство. При большом отношении сигнал/шум, а также при большом времени наблюдения АПВ Jg) вектора а , описывающего неизвестные статистические характеристики, является достаточно узкой по сравнению с априорной плотностью распределения этих параметров и сосредоточенной вблизи некоторого значения а = а * . Тогда в выражении для оптимальной оценки (13.16) можно положить Уд j = 368
что приводит к соотношению х(т) = " f х(а);;(а|Уо')<^а = i(a)6(a-a* = х(а*). ®min ^mia В соответствии с полученным выражением задача адаптивной фильтрации сводится к фильтрации информационного процесса при оценочном значении а* неизвестных параметров. Описанный подход, естественно, является приближенным, так как на начальном этапе наблюдения апостериорная плотность вероятности может быть достаточно широкой. Связанная с этим неоптимальность полученного адаптивного фильтра окупается его сравнительной простотой. На рис. 13.7 показана общая схема адаптивной системы (по методу скользящей адаптации), которая состоит из двух блоков. Первый из них является оптимальной системой фильтрации, рассчитанной на выделение информационного процесса в предположении, что а = а . Второй блок является блоком адаптации. Он формирует апостериорную оценку а* априорно неизвестных параметров, которая вводится в основной блок фильтрации для подстройки его параметров.
Основной блок фильтрации (оптимальный фильтр для а = о )
а -
Блок адаптации
Такая структура адаптивных Рис. 13.7. Схема адаптивной системы фильтров получила в литературе по методу скользящей адаптации название скользящей адаптации. Характерной особенностью скользящих алгоритмов адаптации является формирование точечной оценки неизвестных параметров, в отличие от многоканальных адаптивных систем, в которых формируется вся АПВ. За счет этого фактора и происходит упрощение алгоритма адаптивной фильтрации. Основной блок фильтрации описывается уравнениями оптимальной фильтрации при оценочном значении а*. Для линейной модели сообщения (13.2) и нелинейных наблюдений (13.1) эти уравнения имеют вид Л(а-)
Вк 13—2041
369
(13.40)
Л ) , (a*)
^
,
dX
V -
(13.41)
Для оценки неизвестных параметров а можно использовать различные критерии и подходы. 13.5.2. Алгоритм скользящего адаптивного приема в непрерывном времени В качестве оценочного значения а* вполне естественно выбрать ^а Iq ) а* = а = | сф
среднее значение АПВ
Fq )
•
Алгоритм адаптивной фильтрации с использованием в качестве оценки а апостериорного среднего получил название алгоритма скользящего адаптивного приема. Уравнение, описывающее эволюцию оценки а , может быть получено из общего уравнения (9.56) для АПВ р YQ j . Напомним, что в гл. 11 был получен алгоритм (11.14), (11.17) оптимальной фильтрации, вытекающий из уравнения Стратоновича (9.5) для АПВ марковского вектора х при ее аппроксимации гауссовской функцией. Поэтому, если принять для АПВ р ^ а Kg j гауссовскую аппроксимацию, то можно воспользоваться уравнениями (11.16)—(11.17), заменив в них х на а , F{x,t)
(см. формулу (11.16)) на F{o.,t) (см. формулу (13.24)), и поло-
жив f (х,/) и О, g(x,?) = О. В результате получаем следующий алгоритм работы блока адаптации: dF{a,t) Nn 370
да
35(ci(a),0
= Da(0
da
dD
1 ЭЧ'(а) (>'(/)-S(ci(a),0)-i v ^ ' V V 2 эа
^Э5(сх(а),г)У 2 Э5(сх(а),г)
dt
Эа
4 ' ( а ) = Гг D x ( a )
iVn
da
D,a '
(13.42)
(13.43)
Э5(сх(а),/) ras(cx(a),Ol 2ЛГо Эх Эх
При записи уравнений (13.40)—(13.43) полагалось, что наблюдаемый процесс описывается выражением (13.1). Раскроем производную сигнальной функции по параметрам а , входящую в (13.42): a5(ci(d),/)
Э5(1(а),/)э(сх(а))
Эа
ЭХ
Эа
(13.44)
Подставляя (13.44) в (13.42), запишем dit dt
= Da(0
Эа
1 Гэч'(а)^
Nn
да
Щ (13.45)
В (13.45) можно выделить дискриминатор (11.21) основного блока фильтрации 2 Э5(Х(а),^) "д(0 =
No
ЭХ
(13.46)
Поэтому обобщенную схему адаптивной фильтрации, приведенную на рис. 13.7, можно уточнить и представить как на рис. 13.8. Тот факт, что блок адаптации работает по сигналу с выхода дискриминатора основного блока фильтрации, является примечательным признаком. В гл. 10, 11 при обсуждении свойств оптимальных систем фильтрации при известных статистических характеристиках сообщения отмечалось, что процесс на выходе дискриминатора является некоррелированным, т.е. белым шумом. При отклонении параметров системы фильтрации от оптимальных данный процесс становится коррелирован-
371
Рис. 13.8. Обобщенная схема адаптивной системы по методу скользящего адаптивного приема
ным, а в параметрах этой корреляции заключена информация о соответствующих рассогласованиях параметров системы. В адаптивной системе фильтрации (рис. 13.8), когда в ней еще идет процесс адаптации, ряд параметров основного блока фильтрации отличен от оптимальных значений, что приводит к коррелированности процесса Мд(/), и именно
этот процесс подается в блок адаптации с целью извлечения информации о том, как надо регулировать оценки а и, соответственно, подстраивать параметры основного блока фильтрации, чтобы они стремились к истинным значениям а . В результате такой адаптации (т.е. при а - » а ) процесс u^(t) на выходе дискриминатора основного блока фильтрации станет некоррелированным и процесс адаптации завершится. Развернутая схема адаптивной системы фильтрации по методу скользящего адаптивного приема приведена на рис. 13.9.
—
{cci(a)/aa)" г ( f T t d j / a x r K
t X !Г
Д нг «рм мм оспонюго блока фижьтрацим
т
'д(0
Фядыр осиомого блока фнльтрАцми
^
F(D)
1
Рис. 13.9. Развернутая схема адаптивной системы фильтрации по методу скользящего адаптивного приема
В (13.45) входит производная Эх(а)/Эа, уравнение для которой может быть получено дифференцированием по а уравнений основного 372
блока
фильтрации (13.40). , получаем
dt да
да
^ ' Эа
Пренебрегая
второй
производной
^ ^ да 2No'{yit)-s(i{a),t))-
дХ
^ds(i{a),t) Ix
(13.47)
Учитывая выражение (13.46) для процесса на выходе дискриминатора основного блока фильтрации, а также тот факт, что при малых л
ошибках рассогласования 5Х = Х-Х (11.26)) 5д
справедливо соотношение (см. где 5д —крутизна дискримина-
ционной характеристики дискриминатора основного блока фильтрации, уравнение (13.47) можно записать в виде
да
(13.48)
Данное уравнение является линейным дифференциальным уравнением относительно процесса р = Эх ( а ) / Э а , т.е. описы• cF(a)/5a вает линейный фильтр т : (рис. 13.10), на вход котода 1 рого поступает процесс f ! Р Ид(^) с основного блока фильтрации. ЛшкйиьА филтр Уравнения для производных ЭВ, (а)/Эа могут Рис. 13.10. Схема линейного фильтра быть получены в результате в блоке адаптации дифференцирования (13.41) по а . Если уравнения (13.41) имеют аналитическое решение в установившемся режиме, то лучше сначала найти это решение, а затем взять 373
производную по а от установившегося значения. При этом получаем более простое стационарное значение для матричного коэффициента
ЭВ,(а)/Эа. Отметим, что, согласно рис. 13.9 и 13.10, синтезированный блок адаптации не затрагивает структуры дискриминатора и сглаживающего фильтра основного блока фильтрации. Следовательно, дискриминатор и сглаживающий фильтр можно синтезировать независимо от блока адаптации. При этом можно использовать методику раздельного синтеза дискриминатора нелинейной следящей системы и сглаживающего фильтра (см. п. 11.2), причем сглаживающий фильтр синтезируется для линейных наблюдений. П р и м е р 13.3. Рассмотрим задачу измерения дальности, описанную в п р и м е р е 13.1. Изменение дальности до цели описывается уравнением (13.5), а неизвестным параметром полагается спектральная плотность S^ формирующего шума. Наблюдения—линейные (13.6). Основной блок фильтрации описывается уравнениями (13.7), (13.8), а установившиеся значения элементов матрицы дисперсий ошибок фильтрации — соотношениями (13.9) Dii,уст (13.49)
,уст
Уравнение (13.49) для оценки неизвестного параметра в рассматриваемой задаче конкретизируется как
Цу^'УЧк))dS, г
1 No
(13.50)
dS^
а уравнение для дисперсии ошибки оценки неизвестного параметра получается из (13.43)
dD, dt
dSf
N.
Уравнение для производной dAfdS^ получаем из (13.48)
dt dSt 374
dSf
NQ
dSt
dSp
NQ^^
^
dt dS^
No
dS^
dS^
Дифференцируя (13.49) no S^, получаем 1 asp
Nn
>3/4
1/2
dSf
4л/2
к
Ha рис. 13.11 приведены зависимости нормированной к истинному значению оцен1си
от времени для двух значений S^ =20 м^с"',
= 2000 м^с'^, полученные моделированием адаптивной системы фильтрации на ЦВМ при S^ (0) = 400 mV^, NQ = 20 м^с '. Как видно из рисунка, адаптация в целом проходит успешно, т.е.
. Время
адаптации составляет 4...6 с. S./& !
on ат
•• - f -
-
]
с
I. с
а)
б)
Рис. 13.11. Характеристики процесса адаптации: а— = 2000м^с"'; = 20м^с"' Отметим, что алгоритм адаптации (13.50) чувствителен к выбору начального значения коэффициента D^^ (0), и при его неправильном выборе сходимость оценки
к истинному значению может нарушаться.
13.5 J . Понятие контура адаптации Во многих алгоритмах с точечной оценкой неизвестных параметров процесс адаптации и такие его характеристики, как сходимость, продолжительность и точность можно проанализировать, представив адап375
тивную систему в виде системы автоматического регулирования, осуществляющей слежение за неизвестными параметрами. Другими словами, в составе таких адаптивных систем можно выделить контур адаптации. Для этого представим уравДис ФНЧ а . нение (13.45) в виде схемы, приведенной на рис. 13.12, где обозначено: Дис — Т дискриминатор контура адаптации, ФНЧ Рис. 13.12. Контур адаптации — фильтр нижних частот. Из (13.45) следует, что ФНЧ— это интегратор с переменным коэффициентом усиления Dq ( / ) , а дискриминатор описывается соотношением
ds(i{a),t) '•да (0=
Эа
NQ
дХ
(y(0-5(ci(a),/))-
ГЭЧ'(а) Nn
да
(13.51)
Дискриминатор контура адаптации является устройством безынерционным по отношению к изменениям параметра а и его оценки а , а его выходной процесс (13.51) зависит от рассогласования а - а . Случайный процесс (13.51) можно представить в виде суммы МО и центрированной случайной составляющей
При таком представлении Л/ ид„(/) =U(a,a)—дискриминационная характеристика дискриминатора контура адаптации, а спектральная плотность процесса характеризует флуктуационную характеристику дискриминатора. В результате анализа дискриминационной характеристики U ( a , a ) можно ответить на вопрос о сходимости процесса адаптации, а анализ флуктуационной характеристики позволяет судить о точности адаптации [3]. 13.5.4. Алгоритм скользящего адаптивного приема в дискретном времени Рассмотрим задачу адаптивной фильтрации дискретного процесса (13.27) при линейных наблюдениях (13.28). 376
Общая структура адаптивной системы фильтрации, построенной по методу скользящей адаптации, остается такой же, как и в случае непрерывного времени (см. рис. 13.8). Основной блок фильтрации описывается уравнениями фильтра Калмана (13.30)—(13-34) при оценочном значении а неизвестных параметров. Для получения оценки а рассмотрим уравнение (13.35) для АПВ неизвестных параметров. Введем гауссовскую аппроксимацию АПВ на Л: - и (Л - 1 ) -м шагах p(a\Yi)
=' ylilKfdctiD^)
D ^ ( a - d t ) } , (13.52)
exp
-
7(27trdet(D^_,)
У
(a -
)|,
где m — размерность вектора неизвестных параметров а ; Djf;^. — матрица дисперсий ошибок оценивания данного вектора на к -м шаге. Условная ПВ р^у/^
входящая в (13.35) является гауссов-
ской с МО М Ук
^ =Н,х,(а)
(13.53)
и матрицей дисперсий М (yj^
(a)f
^ Д(а) =
( а ) Н | -hD„. (13.54)
Подставляя (13.52)—(13.54) в (13.35) и логарифмируя полученное уравнение, получаем 1(а - а ^ ( а
- аО =^(а -
У
(а -
+v(a)-Hc,,
) -н (13.55)
где С] — константа, не зависящая от а , v(a) = iln{5(a))+ -
( a ) f 5 - ' ( а ) ( п - Щ х , (а)).
Разложим функцию v ( a ) в ряд в окрестности точки
(13.56) и огра-
ничимся тремя членами разложения 377
. Используя +(®*-l
da Э
(13.57)
да
очевидное
представление
а - а ^ =(a-a^t_l)+
подставляя его и (13.57) в (13.55) и приравнивая в полу-
ченном выражении коэффициенты при одинаковых степенях разности а - d j t _ i , получаем (13.58)
da
Эа
(13.59)
Эа
Найдем выражение для производной
^ ^ ' * ' ^ , дифференцируя да
(13.56),
да
да 1
ЭВ(а,_,)
. (13.60) г'"" " да 2B(a^_,) Эа Среднее значение суммы двух последних слагаемых в (13.68) равно нулю, поэтому можно принять
да
. (13.61)
да
Приближенное выражение для второй производной можно записать в виде \т т э
да
да к
>
да
да
(13.62) Подстановка (13.61)—(13.62) в (13.58), (13.59) дает итоговый алгоритм работы блока адаптации 378
да
(Ук-ЩЧ
(a*-i)). (13.63)
da
да
(13.64) Из (13.63) следует, что входным сигналом для блока адаптации является разностный процесс (yj^ - Щх/^. )), который формируется в основном блоке фильтрации. Структура адаптивной дискретной системы фильтрации аналогична той, что приведена на рис. 13.9, с заменой блоков обработки в непрерывном времени (например, интеграторов) соответствуюидами блоками обработки в дискретном времени. Как и в непрерывном времени, уравнения для производной Эх^ (ajt_i )/Эа, входящей в (13.63)—(13.64), получаются дифференцированием по а уравнений основного блока фильтрации (13.30)—(13.34). Контрольные вопросы к главе 13 1. Как определяется выигрыш в точности фильтрации в адаптивной и неадаптивной системах фильтрации? 2. Что такое сходимость процесса адаптации и время адаптации? 3. Чем принципиально отличаются многоканальные адаптивные фильтры от адаптивных фильтров, построенных по методу скользящего адаптивного приема? 4. Что такое контур адаптации и как он описывается с позиций радиоавтоматики? 5. Можно ли определить дискриминационную характеристику контура адаптации и как? 6. Какими параметрами системы фильтрации определяется время адаптации?
379
Глава
14
ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ПРИ ПРИЕМЕ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ СИГНАЛОВ
14.1. Оптимальная фильтрация при приеме пространственно-временного сигаала на фоне внутренних шумов 14.1.1. Оптимальная фильтрация при известном направлении на источник сигнала Рассмотрим задачу фильтрации информационного процесса А,(г), переносимого пространственно-временным сигналом. Пусть приемник имеет линейную антенную решетку (АР) (рис. 14.1), состоящую из т всенаправленных антенных элементов, расположенных на одинаковом друг от друга расстоянии d . На АР падает плоская электромагнитная волна, причем направление на источник излучения характеризуется углом а ^ , который полагаем известРис. 14.1. Геометрия приема сигнала ным. Принимаемое /-м антенной решеткой антенным элементом колебание имеет вид >',(/, Х() = Sj (/, X, Xj)+и, (/, X,-) =
i(tXxi)
+ ni{t,Xi),
i= \
(14.1) где Р^ — мощность сигнала;
) — нормированный сигнал с
единичной мощностью; jc,- — координата /-го антенного элемента; А,(/) — фильтруемый процесс, который отображается в пространстве состояний вектором х(/),так что А, = с х , а x(t) описывается уравнением (9.2); щ (t,Xj) — помеха с корреляционной функцией 380
М [щ {t,x, )nj
)] = Л„о§(,5(х) =
Так же как и в п. 4.6 полагаем, что сигнал
б(т).
(14.2)
— узкополос-
ный и, следовательно, может описываться комплексной амплитудой (запаздыванием огибающей сигнала по апертуре АР можно пренебречь). Пусть = = 0 ) соответствует комплексной амплитуде сигнала в момент времени t на первом антенном элементе. Тогда комплексная амплитуда сигнала на i-м антенном элементе равна где ф . ( а , ) =
=
волны принимаемого сигнала. Вводя комплексную амплитуду
длина
( / Д ) нормированного сигнала с
= a/^Sh (/,>.), комплексные векторы
соотношением У (О = li-l ('.
, Xq -
) >"2 ('.
n = й, (/) «2 (О ...
) - ^-т
Хт f .
(/)
с корреляционной матрицей М п(г)п*^(/ + т) =Л^о15(т), запишем наблюдения (14.1) в векторном виде
Н0 = Н(«с)5„(/Д)+п(/).
(14.3)
Чтобы использовать комплексную запись наблюдений (14.3), в алгоритмах оптимальной фильтрации необходимо преобразовать уравнение Стратоновича (9.5). Заметим, что входящая в него функция F{x,t) — это производная по времени от логарифма отношения правдоподобия. В то же время, для логарифма отношения правдоподобия в п. 4.6.2 (формула (4.105)) с использованием комплексных наблюдений вида (14.3) получено следующее представление:
ln(p(Y5)) =
381
= - L R e Js: (тД)Н*^ (a, )(y (т)-0.5Н(а,
(тЯ)) Л • (14.4)
.0
Дифференцируя (14.4) по времени, получаем выражение
^(х,/) = - ^ К е Г 5 : ( / Д ) Н * ^ ( а , ) ( у ( / ) - 0 , 5 Н ( а с ) 5 „ ( / Д ) ) 1.
(14.5) yV(j L Подставляя (14.5) в алгоритм оптимальной в гауссовском приближении фильтрации (11.14), получаем
. M l R e
э5;;о,сх) Эх
Н*^(а,){у(0-Н(ас)5н(/,сх))
.(14.6)
Как и в (4.105), преобразуем выражение Н*М«с)(у(0-Н(ас)5„(Лсх)) = = Н*^ ( а ,
- Н*^ К )Н («е
= Н'^ (а, ) Н (а, = Н*- ( а , ) Н ( а ,
('.«) =
(а, ) Н (а,))'' Н*^ (а, )у ( / ) - 5» (^.сх) (а, )у {t)-S„ {t,ci)
=
=
(14.7)
где H * ^ ( a e ) H ( a c ) = />cm; Р ( а , ) = н ( а , ) [ н ' ^ ( а , ) н ( а , ) р ' =H(a,)/(Pem).
(14.8)
Введем эквивалентное наблюдение Лкв(0 = Г ( « с ) у ( 0
(14.9)
и запишем уравнение оптимальной фильтрации (14.6) в виде
dt
382
No
dx
(ЛквСО-^О.сх))
.(14.10)
Переходя от комплексных амплитуд к действительным функциям, с учетом (2.4), получаем fay^x) dt
щ
Эх
(14.11) Из уравнений (14.9), (14.11) следует, что оптимальная пространственно-временная система фильтрации распадается на пространственную (14.9) и временную (14.11). На выходе блока пространственной обработки формируется временной процесс Лкв ( О = Г («с )У С ) = Г («с ) ( н («с
О д ) + й (О)=
=
(14.12)
в котором «з^в {t) — комплексный БГШ с двусторонней спектральной плотностью Ы^/Р^т . Поэтому для эквивалентных наблюдений (14.12) можно записать Re[>'3KB ( 0 ] = Лкв ( 0 = где
Изкв (/)
—
(0.
БГШ с двусторонней спектральной
(14.13) плотностью
Таким образом, временная система фильтрации (14.11) есть ни что иное, как оптимальный временной фильтр для эквивалентных наблюдений (14.13), формирующихся на выходе блока пространственной обработки. Можно также показать, что уравнение для матрицы дисперсий ошибок фильтрации D, {/) совпадает с (11.17), в котором надо использовать спектральную плотность шума для эквивалентных наблюдений (14.13). Рассмотрим пространственную обработку принимаемых колебаний (14.9), а более точно, сигнальную компоненту U^ = = р*^ (ttg )Н(а^. )5„ {t,X) , где
(а,.) — вектор весовых коэффициен-
тов системы пространственной обработки; Н(ас)5„ (/,А.) — вектор приходящих сигналов. В теории пространственно-временной обработки сигналов используют понятие характеристики напра&пенности, под которой понимают зависимость комплексной амплитуды f/c("coi"c'®n) на выходе системы пространственной обработки от направления прихо383
да ttco пробного сигнала (гармонической плоской волны) при заданных направлениях прихода полезного а^ и мешающих Сп (если они есть) сигналов. Функция t/„ (а^о |ас>®п («сО |®с>«п) ^ называется диаграммой направленности. В рассматриваемом случае мешающих сигналов нет (внутренние шумы приемника не рассматриваются как мешаюпще сигналы), поэтому можно записать (14.14)
г/с(«со|«с) = Г ( а с ) Н ( а е о ) .
Рис. 14.2. Диаграмма направленности пятнадцатиэлементной АР
Диаграмма направленности для пятнадцатиэлементной АР приведена на рис. 14.2 при а^ = = 30 град и rf = Я-о / 2 . Из графика видно, что диаграмма направленности в направлении на источник сигнала имеет ярковыраженный максимум, что обеспечивает наилучшие условия приема полезного сигнала (фокусировку на сигнал). При этом в направлении на сигнал всегда выполняется условие Г ( а е ) Н ( а , ) = 1.
14.1.2. Оптимальная фильтрация при неизвестном направлении на источник сигнала Рассмотрим более сложную задачу, когда направление а^ на источник сигнала неизвестно. Будем описывать а^ случайным процессом, например: da.
• = F^a^ . ttc (/ = 0) = tteo e 0,180° , (14.15) dt где ^(f) —БГШ с двусторонней спектральной плотностью S^/2 . Область возможных начальных значений а,, о ограничена интервалом [0,180°] с целью устранения неоднозначности измерений, обу384
словленной симметричностью задачи относительно оси X , что видно на рис. 14.2 (симметричный максимум диаграммы направленности). Учитывая то, что нас интересует оценка процесса направление прихода сигаала а^ можно считать неинформативным параметром. Наличие такого дополнительного, меняющегося во времени случайного параметра, в соответствии с результатами п. 11.5.4, приводит к необходимости рассмотрения задачи фильтрации расширенного вектора х(0 . Формадьно такая задача не отличается от рассмотренной v(0 =
«с (О
выше, поэтому запишем ее решение в форме (14.6) d\ оэто>
(14.16)
dt = F(f)v + , Р у ( 0 Re Щ где F{t) =
F(0 О
Эу
О , а для производной, стоящей в квадратных скобК
ках, справедливо выражение Э(н*(ае)5„*(г,сх)) Эа^
Эх
Эу
(14.17) Так как процессы
и
не коррелированны, то матрица
дисперсий ошибок фильтрации Dy(/) является диагональной, т.е. Dv =
Dx О
О . С учетом этого факта, а также (14.17), уравнение D„
(14.16) можно записать в виде двух уравнений di dt
= F(Oi +
. М ) я е
Эх
,(14.18) 385
da. dt эн*(«с) Эа^
N.
. (14.19)
Уравнение (4.19) совпадает с (14.6) с тем лишь отличием, что вместо истинного значения а^ в нем используется оценочное значение а ^ , которое формируется в соответствии с (14.19). Учитывая это и проделав такие же преобразования, что и в п. 14.1.1 (формулы (14.8)-(14.12), нетрудно показать, что формирование оценки х распадается на два этапа: пространственную обработку в соответствии с алгоритмом Лкв (О - Р*' ( а , )у (О. Э{«с) = Н ( а , )lP,m
(14.20)
и временную обработку сформированных эквивалентных наблюдений
Эх
dt
(Лкв (О-"^н ( ' . « ) ) . (14.21)
Таким образом, пространственная и временная обработки по информационному процессу Х,(/) = сх(/), по-прежнему, разделяются. При этом настройка блока пространственной обработки определяется оценкой dg углового положения источника излучения. Поэтому рассмотрим уравнение (14.19). Заменим производную ЭН*(ас)/Эа(. конечной разностью ЭН* (ttc)
Н* (йс + Аас /2) - Н* (бСс - Aa^. /2)
Эа^ '•с
Да, Подставляя (14.22) в (14.19), получаем do-r. dt
(ОRe
Nn
(14.23)
Да^
где Да^ — фиксированная расстройка. При записи (14.23) отброшено слагаемое вида 386
(14.22)
Н')
Да^ которое близко к нулю ввиду симметричности характеристики направленности (см. рис. 14.2) относительно направления на максимум. По аналогии с (14.20) введем параметры $(а, + Да,/2) = Н ( а , +Да,/2)//>т, р(ае - Д а е / 2 ) = Н ( а , - ^ a J 2 ) ^ P , m и новое эквивалентное наблюдение
Тогда (14.23) можно записать в виде dt
щ {рРст N.
S*{t,cx)u^^
(О (14.25)
Следовательно, формирование оценки а,, углового положения источника сигнала также распадается на пространственную обработку (14.24) и временную (14.25). Структура блока пространственной обработки (14.24) аналогична (14.9) с той лишь разницей, что в нем имеется «два канала обработки», в которых весовые коэффициенты $ сдвинуты на ±Дас/2 относительно оценки а ^ . Как и в п. 14.1.1, для алгоритма пространственной обработки (14.24) можно ввести понятие характеристики направленности С/де (а,о К , Дае) =
( а , + Да ,/2)-$*-^ (а^ - Да j 2 ) ] H ( a e o ) . (14.26)
Для пятнадцатиэлементной АР с d = XQ/2, Аа^^ 10 град и а^. = =30 град (0,523 рад) зависимость г/д(асо) = Яе ^/дс(«со|«с) "Ри единичной мощности сигнала приведена на рис. 14.3. Из графика видно, что в окрестности истинного значения угла прихода сигнала а^ вид функции UJ^{aco) аналогичен поведению типичной дискриминацион387
ной характеристики с нулем при а,. = а^о . Следовательно, блок пространственной обработки (14.24) выполняет функцию пространственного (углового) дискриминатора, на выходе которого формируется временной процесс (14.24), поступающий далее в блок временной фильтрации (14.25), представляющий собой обычную следящую систему. Уравнения (14.20), (14.21), (14.24), (14.25) описывают пространственноОсо. р«д временную систему обраРис. 14J. Характеристика направленности ботки, схема которой привепространственного дискриминатора дена на рис. 14.4. :Бяок пространсткииой обработш
f Блок •реиенвой о6р«6сття Блок вреь«енвой фильтрашш
З'Мйс) уО)
: 1 1 жрсмеавой т т Блок фильтрации ac{l) \
Г(йс + Дас/2)
г ъ LJ^
I Z 3 = =
j ! i !
i I
L
.J.j
Рис. 14.4. Схема пространственно-временной обработки В схеме можно выделить блоки пространственной и временной обработки. Блок пространственной обработки включает три канала, которыми формируются характеристики направленности в направлениях otg, а с + А а с / 2 и а ^ - А а ^ / ! . Блок временной обработки содержит две подсистемы слежения: за информационным процессом X{t) и за направлением ag(/) на источник сигнала. Сформированная в блоке временной обработки оценка а^ (/) направления прихода сигнала вводится в блок пространственной обработки с целью его фокусировки на 388
сигнал и подстройки нуля дискриминационной характеристики в направление на сигнал.
14.2. Оптимальная фильтрация при наличии пространственно-распределенных помех Пусть кроме внутренних шумов приемника присутствуют помеховые сигналы, приходанцие с различных направлений Оп^ , j - \ , p . Попрежнему полагаем, что АР — линейная (рис. 14.1), а все приходящие сигналы имеют плоский фронт волны. Принимаемое J-M антенным элементом колебание в этом случае описывается выражением yi{t,Xi) = Si{tXxi)+'^S^.{t,Xi)-^ni(t,Xi), i = Н где л,
(14.27)
) —внутренние шумы приемника с характеристиками (14.2);
Si {t,X, Xi) — полезный сигнал с комплексной амплитудой =
(l, А,, х,) =
и известным направлением прихода а,,; S,, (/,Jt,) —
помеховые сигналы, которые также будем считать узкополосными и, следовательно, допускающими описание комплексными амплитудами
(Здесь, как и выше, полагается, что запаздыванием огибающих сигнала и помех по раскрыву АР можно пренебречь.) Комплексные амплитуды помеховых сигналов (t) будем описывать комплексными гауссовскими случайными процессами, спектральная плотность которых равномерна в полосе пропускания приемника и равна Q . Такие процессы удовлетворяют требованию узкополосности, так как полоса пропускания приемника много меньше несущей частоты. В то же время в интересах синтеза оптимальной системы приема их можно заменить БГШ с двусторонней спектральной плотностью N^, о j l . В общем случае комплексные амплитуды различных помеховых сигналов могут быть коррелированны и задаваться корреляционной матрицей М [s„
(О] = ^ п . где S„ (/) =
(О ^ ^ {t) ...
('f 389
— вектор комплексных амплитуд помеховых сигналов. Если помехи не коррелированны, то V^ = V^ — диагональная действительная матрица, диагональные элементы которой равны спектральным плотностям соответствующих помех. Введем вектор а^ = «п, «п, . - а „
СМп) =
и матрицу
exp{jФп,l(0}
exp{jф„J,(^)}
...
exp{jфп^,(^)}
exp{jФп,2(0}
exp{j0„^2(O}
-
exp{jф„^2(0}
exp{jФп,ш(0} exp{jф„^„(^)} ...
exp{jф„^„(0
характеризующуто пространственное положение помех. Тогда наблюдения (14.27) можно записать в векторном виде Я 0 = Н(ае)5„(^Д)+С(г,а„)8„(0+п(0-
(14-28)
Введем суммарную помеху с коррелящюнной матрицей М [nj; (Опх^
+ т)] = ( с ( / , а „ )
= Nj:(05(t),
(f,a„
W =
(14.29)
где Nz ( а „ ) = С(/,а„ (/,а„ . (14.30) С учетом введенных обозначений, наблюдения (14.28) принимают стандартный вид y(0 = H(aj4(f,X)+nj:(0, (14.31) для которого можно записать уравнение оптимальной фильтрации процесса X (?), аналогичное (14.5) dx • = F(Oi + dt + D, (г) Re 390
(14.32)
Эх
Н*^ ( а ,
(а„ )(у 0 ) - Н ( а , )S„ (r.ci))
При Nj; = N QI уравнение (14.32) переходит в (14.5). Рассмотрим выражение, стоящее по знаком Re[»] и преобразуем его, аналогично тому, как это сделано в (14.7): Н*^ ( а , ) N i ' (а„ )(у (/) - Н ( а , )5„ ( / , « ) ) = = Н*- ( а ,
(а„ )у (г)-Н^- ( а , ) N i ' («„ ) Н ( а
(,,ci) =
= H*^(a,)Ni'(a„)H(ac)x (Н*^ ( a , ) N i ' ( а „ ) Н ( а , ) ) " ' Н*^
= Н'^ (а,
(а„ ) Н ( а ,
{a„)Ht)-S„
(/.сх)
(14.33)
( а „ а „ ) у ( О " ^н
где \-1
0 ( а „ а „ ) = Ni' (а„ )Н(ае
(а^ ) N i ' (а„
)Н(а,))
(14.34)
Введем, как и выше (14.8), эквивалентное наблюдение (14.35)
Лкв ( 0 = Р * М « с . а п ) у ( 0 . для которого после ряда преобразований можно записать >экв (О = Р
(«с.ап
= (н*' («с )Ni' (а„ )Н («е ))'' Н*^ ( а , )х
xN£' ( a „ ) ( H ( a J S „ ( г Д ) + п х ( 0 ) = 5„
Рассчитаем
корреляционную
функция
(О-
эквивалентного
(14-36)
шума
"экв (О М [йзкв
(' +
хМ
(г)]Ni' (an
[nj:
= (Н*^ ( а ,
=
(«с )Ni' («„ ) Н ( а , ))•' Н*^ ( а ,
(а„ )х
(а^ )Ni' (а„ )Н(а^))"' Н ( а ^ ) =
( а „ ) Н (а,))"' 5(т) =
,
где ^экв («с . « п ) = ( н * ' («с ) N i ' ( а „ ) Н ( а , ) ) " '
(14.37)
— спектральная плотность эквивалентного БГШ. 391
с учетом (14.37) выражение (14.34) для вектора весовых коэффициентов можно представить в виде Р ( а „ а „ ) = ЛГз,з(ае,а„)1Ч2'(ап)Н(ае),
(14.38)
а уравнение (14.32) — (14.39)
Эх
dt
Переходя от комплексных амплитуд к действительным функциям, с учетом (2.4), получаем dt
N..
(14.40)
Эх
Из уравнений (14.35), (14.40) следует, что, как и п. 4.1.1, оптимальная пространственно-временная система фильтрации распадается на два раздельных блока — пространственной обработки (14.35) и временной (14.40). На выходе блока пространственной обработки формируется временной процесс
Уэкв (О = Р*' (ас.а„)у (/) =
(О.
в котором /jj^g (?) — комплексный БГШ с двусторонней спектральной плотностью ^зкв (14.37). При этом
Re[>'3KB (0] = >'эк8 (О = "Sh ('Д) + Пэкв (О.
(14
где Идкв (/) —БГШ с двусторонней спектральной плотностью N ^ ^ j l . Таким образом, временная система фильтрации (14.40) — это оптимальный временной фильтр для эквивалентных наблюдений (14.41), формирующихся на выходе блока пространственной обработки. Заметим, что уравнение (14.40), описывающее блок временной фильтрации, по форме полностью совпадает с уравнением (14.10). Различаются они лишь характеристиками эквивалентного шума наблюдения «экв (О • Причем при отсутствии пространственно-распределенных помех выражение (14.37) переходит в соответствующее выражение для эквивалентного шума, входящего в (14.12), т.е. Л^зкв («с .«п) = (н*^ (а, 392
(а„ ) Н (а,))"' =>
Следовательно, в оптимальной пространственно-временной системе влияние пространственно-распределенных помех можно оценивать по изменению спектральной плотности эквивалентного шума наблюдений (14.37) или, что более удобно, по изменению обратной величины ^
(I
„ . = Н*^ ( а ,
(а„ ) Н ( а , ) .
(14.42)
П р и м е р 14.1. Рассмотрим задачу приема сигнала, приходящего с направления а,., при воздействии одной помехи, приходящей с направления а^ . При этом С(/,ап) является вектором. Для определения Л^экв ( " с ^ п ) в соответствии с (14.42) рассчитаем обратную матрицу п-1
(14.43)
Для этого воспользуемся л е м м о й о б о б р а щ е н и и м а т р и ц ы, согласно которой в общем случае для произвольных комплексных матриц M,P,Q • 1-1 . п-1 MPM*^+Q MP. = Р-РМ Обозначим Подставляя данные выражения в (14.43) получаем п-1 J_ = — I - No щ
1С(а„)
C * ^ ( a „ ) I . (14.44)
пJ Подставляя полученное выражение в (14.42), запищем 1
^ = -LH*-^ (tte )Н (ас ) -
393
N.
ЛГп Далее, учшывая, что Н*^
п .
а,, )Н (r.Og ) = Р^т и С^ (а^ )С* («„ ) =
= т , получаем окончательный результат:
^экв(ас.ап)
ЛГо
Введем q^^^ = —^ Щ
т—'
PcNo{mVjNo+l)
(14.45)
отношение спектральных плотностей помехи
и шума (отношение помеха/шум), Н (а^ ) = Н (а^ ную спектральную плотность N^^ (a^.ttn ) = N^^ («с.ап
и нормирован• Тогда
(14.45) принимает вид 1
9п/ш H^-'CaJCCan)!^ • = т--
(14.46)
На рис. 14.5 приведена зависимость l/N„ как функция а,, при а^ = = 30 град для семиэлементной АР и 9п/ш = 10 •
Рис. 14.5. График зависимости функции
Как видно из рисунка, при совпадении направления прихода помехи с направлением на сигнал спектральная плотность существенно возрастает, что приводит к заметному ухудшению условий фильтрации информационного процесса. Рассмотрим диаграмму направленности синтезированной системы, которую по аналогии с (14.14) опред^им как
и„ (а,о |ае ,а„) = |с7, (а,о К ,а„ f = 394
(а,.а„ ) Н ( а , о f • (14.47)
Подставляя (14.44), (14.45) в (14.38), а полученное выражение в (14.47), запишем ч2 t/„(a,oK,a„) = ЛГп (ае )С(а„ ) ) ( с ( а „ )Н (а,о)) ('"9П/Ш+1) Заметим, что при a j o = a c всегда имеем
. (14.48)
(а^ [а^. , а п ) = 1, что
соответствует представлению (14.36), т.е. фокусировке системы на полезный сигаал. На рис. 14.6 приведены графики зависимости С/„(асо|ас'"п) для пятнадцатиэлементной АР.
Рнс. 14.6. Диаграммы направленности: а— 60 град, а^ = 30 град, = 10 ; б—Ос = 30 град, а„ = 30 град, 9п/ш = Из рис. 14.6, а следует, что в синтезированной системе характеристика направленности имеет максимум в направлении на сигнал и минимум в направлении на помеху. :>го качественно отличает оптимальную систему от неоптимальных систем, например, компенсаторов помех, в которых формируется только минимум характеристики направленности на помеху и не контролируется ее значение в направлении на сигнал. 395
Из рис. 14.6, б видно, что даже при совпадении направлений прихода сигнала и помехи характеристика направленности равна единице, т.е. система фокусируется на сигнал. Однако из этого графика непосредственно не видно влияние помехи на систему в этой ситуации. Поэтому необходимо проводить дополнительный анализ для оценки такого влияния. В то же время, из графика рис. 14.5 сразу видно изменение уровня помехи на выходе блока пространственной обработки. Следовательно, с точки зрения оценки качества работы системы временной фильтрации за информационным параметром более информативным оказывается характеристика (14.45). Еще одним критерием, часто используемым при оценке качества блока пространственной обработки, является отношение мощности сигнала к спектральной плотности суммарной помехи на выходе данного блока ^вых' с '. Так как, в соответствии с (14.36), мощность действительного сигнала на выходе блока равна единице, а спектральная плотность суммарной помехи — N^,^, то получаем ?вых =l/iV,KB = H * ^ ( a c ) N i ' K ) H ( a e ) .
(14.49)
Отметим один существенный факт. Уравнение (14.40) является уравнением оптимальной фильтрации, в котором процесс
близок к некоррелированному процессу (белому шуму), спектральная плотность которого минимальна и равна спектральной плотности исходных наблюдений, т.е. в данном случае N^^^ [9, 13]. Из этого положения следует, что обратная величина 1/Л^экв имеет максимальное для данной задачи значение. Таким образом, в рассматриваемой оптимальной системе отношение сигнал/(помеха+щум) на выходе блока пространственной обработки, определяемое формулой (14.49), является максимальным, т.е. наилучшим из тех которые могут быть достигнуты. Другими словами, алгоритм пространственной обработки (14.34), (14.35) максимизирует выходное отношение сигнал/(помеха+Ц1ум). Контрольные вопросы к главе 14 1. При каких условиях алгоритмы пространственно-временной обработки сигналов распадаются на раздельные: пространственный и временной алгоритмы?
396
2. Что такое характеристика и диаграмма направленности блока пространственной обработки? 3. Чем отличаются структуры систем пространственно-временной обработки при фильтрации параметров сигнала с известным и неизвестным направлением прихода? 4. Что такое пространственный (угловой) дискриминатор, и как он может быть сформирован? 5. Как изменится структура пространственного (углового) дискриминатора при наличии пространственно-распределенных помех? 6. Как определяется отношение сигнал/(помеха+шум) на выходе блока пространственно-временной обработки и какие его свойства ? 7. Как зависит значение диаграммы направленности в направлении на сигнал от характеристик сигнально-помеховой обстановки?
397
ЛИТЕРАТУРА
1. Гришин Ю.П., Ипатов В.П., Казаринов Ю.М. и др. Радиотехнически системы/ Под ред. Ю.М. Казаринова. — М.: Высшая школа, 1990. 2. Колмогоров А.Н. Интерполирование и экстраполирование стационарных случайных последовательностей// Изв. АН СССР. Сер. Математика, 1941, т. 5, № 1, с. 3-14. 3. Первачев С.В. Радиоавтоматика. — М.: Радио и связь, 1982. 4. Первачев С.В., Перов А.И. Адаптивная фильтрация сообщений. — М.: Радио и связь, 1991. 5. Репин ВТ., Тартаковский Г.П. Статистический синтез при априорной неопределенности и адаптация информационных систем. — М.: Сов. Радио, 1977. 6. Сейдж Э.П., Меле Дж. Теория оценивания и ее применение в связи и управлении. Пер. с англ./ Под ред. Б.Р. Левина. —М.: Связь, 1976. 7. Сосулин Ю.Г. Теория обнаружения и оценивания стохастических сигналов.— М.: Сов. радио, 1978. 8. Сосулин Ю.Г. Теоретические основы радиолокации и радионавигации. — М.: Радио и связь, 1992. 9. Стратонович Р.Л. Условные Марковские процессы и их применение к теории оптимального управления. — М.: Изд. МГУ, 1966. 10. Стратонович Р.Л. Принципы адаптивного приема. — М.: Сов. радио, 1973. И . Тихонов В.И. Оптимальный прием сигналов. — М.: Радио и связь, 1983. 12. Тихонов В.И., Миронов М.А. Марковские процессы. — М.: Сов радио, 1977. 13. Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радиотехнических устройств и систем. — М.: Радио и связь, 1991. 14. Трифонов А.П., Шинаков Ю.С. Совместное различение сигналов и оценка их параметров на фоне помех. — М.: Радио и связь, 1986. 15. Ярлыков М.С., Миронов М.А. Марковская теория оценивания случайных процессов. — М.: Радио и связь, 1993. 16. Задачник по курсу «Основы теории радиотехнических систем»/ Под ред. П.А. Бакулева и В.А. Вейцеля. —М.: Радио и связь, 1996. 17. Kalman R.E. А New Approach to Liner Filteringand Prediction Problems// Trans. ASME, J. Basic Eng., 1960, vol. 82D. 18. Wiener N. Extrapolation, Interpolation and Smoothing of Stationary Time Series. — N . -Y.: John Wiley, 1949. 398
Учебное
издание
Александр Иванович Перов
Статистическая теория радиотехнических систем
Зав. редакцией И. А. Кузьмина Редактор-оператор Ю.А. Ковелина
П1Д. Х» 79. Сдано в набор 01.03.2003. Подписано в печать 09.04.2003. Формат 60 х 90 1/16. Бумага офсетная. Гарннтура Тайме. Печать офсетная Печ. л. 25. Тираж 3 ООО эк1. Зак. № 2041
Издательство «Радиотехника». 103031, Москва, К-31, Кузнецкий мост, д. 20/6. Тел./факс: 921-48-37; 925- 78-72, 925-92-41. E-mail: ipry.hrtgonline.ru >\A\w. webcenter.ru / - i p r z h r /
. Отпечатано в ООО П Ф "Полиграфист" 160001, г. Вологда, ул. Челюскинцев, д. 3.
/
Перов
Александр
Иванович
доктор техии'кнжих п а у к , jipocfjcccoi) кафе/1,ры Р?|;1,иотсхнимеских систс^м Московскслю '>не{:)гет и ч с с к о г о и н с т и т у т а (техиичсс^кого у н и в е р с и т е т а ) . Облает», н а у ч н ы х и н т е р е с о в - о п т и м а л ь н ы й и р и е м с и г н а л о в в сисп^емах р а д и о н а в и г а ц и и , р а д и о л о к а ции и радиоуправления.
Т е л . / ф а к с : (095) 9 2 5 - 9 2 4 1 E-mail: iprzhr