Оглавление

Предисловие 3

Список используемых сокращений 5

Список обозначений 6

Введение 8

Глава 1. ШКАЛЫ ИЗМЕРЕНИЯ
И ТИПЫ ПРЕДСТАВЛЕНИЯ ДАННЫХ 11
1.1. Шкалы измерений 11
1.1.1. Качественные измерения 12
1.1.2. Количественные измерения 14
1.1.3. Квазиколичественные измерения 17
1.2. Типы представления многомерных данных 19
1.2.1. Матрица «объект-признак» 20
1.2.2. Случайная векторная переменная 29
1.2.3. Ковариационная и корреляционные матрицы 30
1.2.4. Матрицы близостей 33
1.2.5. Нечеткие методы представления данных 38
Упражнения и задачи 43
Литература 44

Глава 2. РАЗВЕДОЧНЫЙ АНАЛИЗ ДАННЫХ 46
2.1. Основные узловые моменты разведочного анализа 46
2.2. Неоднородные выборки 52
2.2.1. Разделение неоднородной совокупности на однородные 53
2.2.2. Обнаружение аномальных наблюдений 55
2.3. Простые числовые и графические сводки данных 63
2.4. Преобразования данных 66
2.4.1. Простые преобразования 66
2.4.2. Преобразования, стабилизирующие дисперсию 71
2.4.3. Преобразование зависимостей 76
2.4.4. Обратное преобразование 78
Упражнения и задачи 79
Литература 80

Глава 3. АНАЛИЗ КАТЕГОРИЗОВАННЫХ ДАННЫХ 82
3.1. Критерии независимости для ТСП 82
3.2. Меры связи 85
3.2.1. Точный критерий Фишера для ТСП 2×2 88
3.2.2. Таблица сопряженности признаков 90
3.3. Упорядоченные ТСП 91
3.4. Меры связанности Гудмена–Крускала 93
3.5. Логарифмически-линейные модели для ТСП 96
3.5.1. Модели для таблицы 2×2 96
3.5.2. Многомерные таблицы 100
Упражнения и задачи 101
Литература 102

Глава 4. НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ 103
4.1. Введение 103
4.2. Критерии случайности 106
4.3. Одновыборочные критерии для медианы 109
4.4. Двухвыборочный критерий Уилкоксона – Манна – Уитни 113
4.5. Дисперсионный анализ Крускала – Уоллиса
по одному признаку для независимых выборок 116
4.6. Дисперсионный анализ Фридмана по двум признакам для зависимых выборок 118
4.7. Меры ранговой корреляции 120
4.8. Коэффициент конкордации 123
Упражнения и задачи 126
Литература 127

Глава 5. КЛАССИЧЕСКИЙ ЛИНЕЙНЫЙ
РЕГРЕССИОННЫЙ АНАЛИЗ 128
5.1. Оценки модели линейной регрессии 128
5.1.1. Построение модели 128
5.1.2. Оценивание параметров. Свойства оценок 131
5.1.3. Проверка статистических гипотез 136
5.1.4. Адекватность модели 139
5.1.5. Интервальные оценки 141
Упражнения и задачи 143
5.2. Одномерная линейная регрессия 145
5.2.1. Оценка параметров 145
5.2.2. Доверительные интервалы и полосы 148
5.2.3. Линеаризующие преобразования 150
5.2.4. Оценка регрессии по коэффициентам корреляции 152
Упражнения и задачи 157
5.3. Нарушение основных предпосылок МНК 158
5.3.1. Полнота модели 158
5.3.2. Измерение регрессоров с ошибками 161
5.3.3. Анализ остатков 162
5.3.4. Обобщенный метод наименьших квадратов 166
5.3.5. Взвешенная оценка метода наименьших квадратов 167
5.3.6. Oбнаружение плохо влияющих наблюдений 167
5.3.7. Проверка восстановленных пропусков 170
Упражнения и задачи 172
5.4. Методы вычислений в регрессионном анализе 173
5.4.1. Методы преобразования в простую структуру 174
5.4.2. Устойчивость и обусловленность СНУ 178
5.4.3. Решение задачи МНК-оценки с помощью разложения по сингулярным числам 183
5.4.4. Центрирование и стандартизация данных 185
Упражнения и задачи 188
5.5. Выбор наилучшего уравнения регрессии 188
5.5.1. Построение всех возможных регрессий 189
5.5.2. Выбор наилучшего набора регрессоров 192
5.5.3. Метод исключения и пошаговой регрессии 196
Упражнения и задачи 199
Литература 200

Глава 6. ОЦЕНИВАНИЕ В УСЛОВИЯХ
МУЛЬТИКОЛЛИНЕАРНОСТИ 201
6.1. Гребневая регрессия 201
6.2. Регрессия на главных компонентах 204
6.3. Регрессия на компонентах дискретно-косинусного преобразования 207
6.4. Использование полиномов Чебышева
в параболической регрессии одной переменной 209
6.5. Безошибочные решения в регрессионном анализе 214
6.5.1. Использование безошибочных вычислений
при определении параметров параболической регрессии 215
6.5.2. Комбинированный метод решения задачи 218
6.5.3. Результаты идентификации параболической регрессии 219
Упражнения и задачи 221
Литература 222

Глава 7. РОБАСТНАЯ, ЗНАКОВАЯ И БУТСТРЕП РЕГРЕССИИ 224
7.1. Робастная регрессия 224
7.1.1. Нахождение М-оценок робастной регрессии 226
7.1.2. Метод модифицированных остатков 228
7.1.3. Метод модифицированных весов 231
7.1.4. Метод псевдонаблюдений 233
7.2. Знаковая регрессия 235
7.2.1. Знаковая оценка одномерной регрессии 236
7.2.2. Результаты вычислительного эксперимента 239
7.3. Бутстреп-регрессия 241
Упражнения и задачи 246
Литература 247

Глава 8. КЛАССИЧЕСКИЕ МЕТОДЫ
МНОГОМЕРНОГО АНАЛИЗА 248
8.1. Метод главных компонент и дискретно-косинусное преобразование 249
8.1.1. Применение МГК для сжатия сигналов 258
8.1.2. Применение главных компонент
в задаче классификации 263
8.1.3. Дискретно-косинусное преобразование 266
Упражнения и задачи 269
8.2. Факторный анализ 270
8.2.1. Основные понятия факторного анализа 270
8.2.2. Свойства факторного анализа 273
8.2.3. Решение факторной системы 274
8.2.4. Проблема общности 277
8.2.5. Поиск простой структуры 278
8.2.6. Оценка факторов 284
Упражнения и задачи 285
8.3. Каноническая корреляция 286
8.3.1. Канонические корреляции совокупности 287
8.3.2. Статистика канонических корреляций 289
Упражнения и задачи 292
8.4. Дискриминантный анализ 293
8.4.1. Дискриминация 294
8.4.2. Классифицирующие функции 303
8.4.3. Классификационная матрица 308
8.4.4. Выбор информативных признаков 310
Упражнения и задачи 315
Литература 316

Глава 9. АНАЛИЗ СООТВЕТСТВИЙ
И МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ 317
9.1. Мультипликативные модели и теорема Экарта – Юнга 317
9.2. Анализ соответствий 319
9.3. Многомерное шкалирование 326
9.3.1. Метрическое многомерное шкалирование 328
9.3.2. Неметрическое многомерное шкалирование 337
Упражнения и задачи 348
Литература 351
Глава 10. НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ АНАЛИЗА СЛУЧАЙНЫХ ПРОЦЕССОВ И ВРЕМЕННЫХ РЯДОВ 352
10.1. Основные понятия теории и статистики СП 352
10.1.1. Что такое случайный процесс и временной ряд 352
10.1.2. Выбор класса моделей 358
10.1.3. Основные задачи статистики случайных процессов 359
10.1.4. Задача наилучшей линейной оценки 365
10.1.5. Предварительная обработка данных 368
Упражнения и задачи 370
10.2. Оценка среднего стационарного случайного процесса 370
10.2.1. Оценка среднего по непрерывным данным 371
10.2.2. Свойства среднеинтегральной оценки 373
10.2.3. Оценка среднего по дискретизированным данным 375
Упражнения и задачи 377
10.3. Оценка корреляционных функций 378
10.3.1. Постановка задачи определения
оценок корреляционных функций 378
10.3.2. Дисперсия оценки АКФ 380
10.3.3. Оценка автокорреляционной последовательности 385
10.3.4. Оценка взаимной корреляционной функции 388
10.3.5. Оценка корреляционных последовательностей
с помощью быстрого преобразования Фурье 390
Упражнения и задачи 392
10.4. Методы оценивания СПМ 392
10.4.1. Математическое ожидание оценки СПМ 393
10.4.2. Дисперсия оценки СПМ 394
10.4.3. Периодограммная оценка СПМ 396
10.4.4. Коррелограммный метод оценки СПМ 405
10.4.5. Оценка СПМ процессов с дискретным временем 412
Упражнения и задачи 416
Литература 417

Глава 11. ПАРАМЕТРИЧЕСКИЕ МЕТОДЫ АНАЛИЗА
ВРЕМЕННЫХ РЯДОВ 418
11.1. Модели стационарного СВР 418
11.2. АР-модели временных рядов 422
11.2.1. Автокорреляционная последовательность АР-процесса 423
11.2.2. Спектральная плотность мощности АР-процесса 423
Упражнения и задачи 428
11.3. Алгоритмы блочной обработки АР-процессов 429
11.3.1. Оценка параметров АР-процесса
методом Юла – Уолкера 429
11.3.2. Оценка параметров АР-процесса
методом наименьших квадратов 431
11.3.3. Свойства оценок коэффициентов
линейного предсказания 434
11.3.4. Выбор порядка модели 435
Упражнения и задачи 440
11.4. Алгоритмы обработки последовательности данных 442
11.4.1. Вывод алгоритма РНК 442
11.4.2. Алгоритм РНК с экспоненциальным взвешиванием 445
11.4.3. Дисперсия ошибки предсказания РНК-алгоритма 447
11.4.4. Вычислительные аспекты алгоритма РНК 448
Упражнения и задачи 449
Литература 450

Глава 12. АНАЛИЗ МНОГОКОМПОНЕНТНЫХ СВР 451
12.1. Сингулярный анализ временных рядов 451
12.1.1. Оценивание частот спектра стационарного СВР 452
12.1.2. Метод гармонического разложения Писаренко 454
12.1.3. Функции оценок частоты 455
12.1.4. Выбор порядка модели 459
12.2. Сингулярный анализ многокомпонентных СВР 466
Упражнения и задачи 473
12.3. Элементы вейвлет-анализа 474
12.3.1. Проблемы преобразования Фурье 475
12.3.2. Вейвлет-преобразование 477
12.3.3. Вейвлет-функции 483
12.3.4. Свойства вейвлет-преобразования 485
12.3.5. Применение вейвлет-анализа 487
12.3.6. Кратномасштабный анализ 492
Упражнения и задачи 503
Литература 504

Приложение. СИНГУЛЯРНОЕ РАЗЛОЖЕНИЕ
И ЕГО СВОЙСТВА 505

Предметный указатель 509



В последние годы по мере роста возможностей вычислительной техники многомерный анализ постепенно превращается из важного теоретического раздела математической статистики в мощный инструмент исследования экспериментальных данных. Несмотря на наличие содержательной и разнообразной научной литературы по многомерному статистическому анализу, до сих пор нет доступного для студента учебного пособия, в котором были бы систематически изложены методы обработки многомерных экспериментальных данных и временных рядов.
Содержание большинства учебных пособий по обработке многомерных данных и временных рядов представляет собой абстрактную теорию статистических выводов в предположении, что реальные данные подчиняются определенному параметрическому семейству. При этом, как правило, считается, что данные, измеряются в количественных шкалах и имеют нормальное распределение и однородную структуру. Применение пакетов прикладных программ (ППП) (Statgraphics, Statistica, SPSS, NCSS, Exel, Matlab, MathCad и др.) в значительной степени облегчает обработку широкого класса экспериментальных данных. Простота получения результата таит в себе и опасности, во-первых, руководства пользователя пакетами, как правило, не содержат описания методов, требуемых процедур предобработки данных, таких как восстановление пропусков, выбор требуемого объема выборки, обнаружение аномальных наблюдений, расслоения неоднородных выборок, особенности проверки адекватности полученной модели, во-вторых, не уделяется достаточного внимания данным, измеряемым в различных шкалах. Часто можно увидеть книги ППП, в которых методы для количественных данных применяются к выборкам нечисловых выборок: номинальных (дихотомических и полиохотомических), порядковых выборок, для которых арифметические действия не имеют смысла.
Учебное пособие условно можно разделить на четыре части.
В первую часть входят гл.1 – 4, содержащие представление и разведочный анализ данных; методы анализа категоризованных и непараметрических наблюдений.
В настоящее время статистические методы широко используются для обработки многомерных данных, измеренных в смешанных шкалах, и часто эти данные собраны в различные социологические, биологические и хронологические моменты. Поэтому в пособии подробно рассматриваются типы представления многомерных исходных данных матрицей типа «объект-признак», случайной векторной переменной, ковариационными и корреляционными матрицами, таблицами сопряженности признаков, матрицами близостей и нечеткими методами представления данных.
Важными является методы предобработки количественных и качественных исходных данных. Поэтому в первых двух главах пособия подробно рассматриваются различные методы предобработки качественных и смешанных исходных данных. Большой интерес представляют предложенные методы обнаружения аномальных наблюдений и расслоения неоднородных выборок. Особое внимание уделено важным на практике различным преобразованиям одно- и многомерных данных с целью нормализации наблюдений и стабилизации дисперсии.
В третьей главе рассмотрены два метода анализа данных, основанные на адекватном количественном представлении неколичественной (нечисловой) информации в терминах таблиц сопряженности признаков (ТСП) (Contingency Tables). Первый из них используется для вычисления связи между признаками и является наиболее распространенным приемом предварительного анализа категоризованных данных. Второй метод связан с так называемыми логлинейными моделями, которые основаны на представлении распределений с системами «вкладов» (эффектов), даваемых теми или иными множествами признаков. В силу количественного характера этих моделей они позволяют решать задачи конструирования факторов, наилучшим образом соответствующих исходным данным.
Четвертая глава посвящена непараметрическим методам анализа. Модели, основанные на нормальной теории предусматривают непрерывность распределения и измерение данных, как минимум, в интервальной шкале. Однако допущения о виде распределения и количественном характере измерений не всегда выполнимы. В реальных условиях, например, при малых выборках проверка типа распределения не всегда возможна, а измерения часто выражены в порядковой шкале.
Рассматриваются процедуры, которые не зависят от вида исходных распределений. Такие процедуры называются свободными от распределения. Большинство этих процедур предназначены для решения задач непараметрическими методами. Название непараметрические методы подчеркивает их отличие от классических (параметрических) методов, в которых предполагается, что неизвестное теоретическое распределение принадлежит какому-либо семейству, зависящему от конечного числа параметров. Важным свойством непараметрических статистик является простота их вычисления и то, что они приводят к процедурам проверки гипотез с уровнями значимости, которые могут быть определены при любом распределении генеральной совокупности.
Непараметрические процедуры используют знаки и знаковые ранги исходных данных, что приводит неизбежной потере некоторой доли информации. Поэтому для нормально распределенных выборок эффективность непараметрических процедур ниже эффективности параметрических процедур. Для данных же с тяжелыми (длинными и толстыми) хвостами распределения асимптотическая эффективность непараметрических процедур относительно параметрических может быть сколь угодно большой. Непараметрические процедуры устойчивы к аномальным наблюдениям в данных и пригодны для данных с разнораспределенными ошибками в схемах линейных моделей регрессии и авторегрессии.
Рассмотрены непараметрические методы, позволяющие решать такие задачи, как проверка гипотезы случайности наблюдений; гипотез о медианах независимых одинаково распределенных наблюдений; однофакторного дисперсионного анализа; двухфакторного дисперсионного анализа; определения связи между данными с помощью ранговых корреляций для парных и многомерных выборок.
Вторая часть (п 5–11) посвящена регрессионному анализу. Регрессионный анализ стал привычным, а применение процедур пакетов прикладных программ позволяет получать результаты без лишних затрат, что мы уже не замечаем и не задумываемся о том, в какой мере соблюдаются система постулатов регрессионного анализа. Поэтому в пособии особое внимание уделено организации процедур регрессионного анализа, проблеме обнаружения аномальных наблюдений в матрице исходных данных, погрешностям измерений регрессоров и отклика. Если эти вопросы проработаны в достаточной мере корректно, то результаты пассивного эксперимента могут оказаться не хуже данных, полученных в активном эксперименте.
В этой части учебного пособия рассматриваются и основные моменты линейного и робастного и непараметрического (знакового) множественного регрессионного анализов, освоение которых облегчит самостоятельное изучение более сложных разделов регрессионного анализа.
Изложено нахождение точечных, интервальных оценок и проверка различных гипотез модели многомерной линейной регрессии в предположении, что соблюдаются все постулаты МНК. В этом случае МНК обеспечивает наилучшие линейные оценки параметров регрессии.
Проведено детальное изучение влияния нарушений всех предпосылок МНК на оценки параметров регрессии. Однако здесь не все проблемы удается разрешить аналитическими методами, поэтому значительное внимание уделено визуальному анализу графиков остатков. В отдельный параграф выделен вопрос обнаружения и удаления плохо влияющих данных. Рассмотрены три метода обнаружения влияющих данных, первый из них использует матрицу подгонки, второй базируется на расстоянии Махаланобиса и третий – метод Кука основан на взвешенных оценках коэффициентов регрессии.
Вычислительные аспекты МНК рассмотрены с точки зрения плохой обусловленности системы нормальных уравнений, когда численное решение задачи МНК представляет значительные трудности. Число обусловленности матрицы регрессоров примерно в квадрат раз меньше числа обусловленности матрицы системы нормальных уравнений, поэтому приводится прямой метод решения задачи МНК, использующий сингулярное разложение исходной матрицы регрессоров.
Мультиколлинеарность (п.5.5)– одна из основных препятствий эффективного применения аппарата регрессионного анализа, поэтому этой главе рассмотрены методы, позволяющие состоятельные оценки: гребневая регрессия, регрессия на главных компонентах и регрессия на компонентах субоптимального дискретно-косинусного преобразования.
В остальных разделах рассматривается задача нахождения наилучшего уравнения регрессии, которая завершает классический линейный регрессионный анализ. Однако остаются не полностью разрешенными проблемы регрессионного анализа при наличии аномальных наблюдений в откликах и негауссовых распределениях остатков. Часть этих проблем разрешается с помощью робастной, непараметрической (знаковой) и бутстреп-регрессий. В заключительных разделах изложены вопросы логистической регрессии и нечеткого регрессионного моделирования.
Третья часть учебного пособия (гл.8) содержит, посвященные методам многомерного анализа статистических данных. Использование многомерного анализа тесно связано с системным анализом изучаемого явления, его составляющих и их связей, интерпретацией полученных результатов и принятием решения о характере установленных закономерностей. Многие методы многомерного анализа тесно связаны с задачами распознавания и классификации данных и, как правило, результаты такого анализа представляются в виде описания на естественном языке, широко используемом в системах искусственного интеллекта.
В многомерном анализе можно выделить две основные задачи: описание распределений и изучение сложной внутренней зависимости между случайными величинами с интерпретацией результатов анализа этих зависимостей. Рассматривается вторая задача, и для решения ее применяются следующие методы: метод ортогональных преобразований, факторный анализ, каноническая корреляция, дискриминантный анализ, анализ соответствий и многомерное шкалирование данных.
Как и в большинстве работ, изложение ортогональных преобразований начинается с метода главных компонент (МГК). Далее рассматривается дискретно-косинусное преобразование (ДКП) и вейвлет преобразование (ВП), разработанное в последние десять лет для анализа сложных сигналов с резкими изменениями локальных свойств. Из обширного перечня задач, решаемых с помощью перечисленных преобразований, рассматриваются задачи сжатия временных рядов и выбора пространства признаков при классификации многомерных объектов.
В п.6.4 изложены основные положения факторного анализа. Изучение факторного анализа представляет значительные трудности. Во-первых, имеются многочисленные методы получения факторного решения, ознакомление с которыми может ошеломить даже искушенного в статистике специалиста. Во-вторых, студент должен обладать хорошими знаниями матричной алгебры и методами вращения системы координат и, наконец, нужно приложить значительные усилия для интерпретации полученных результатов. Из всего многообразия методов факторного анализа изложены только современные методы, тесно связанные с МГК. Такой подход не наносит большого ущерба, так как применение остальных методов приводит практически к сходным результатам.
В п.6.5 рассматривается метод канонической корреляции, теория которого базируется на МГК. Цель этого метода – получение канонических переменных, которые позволяют сжато описать зависимость между двумя векторными случайными переменными.
Параграф 6.6. посвящен многомерному дискриминантному анализу, который представляет собой статистический метод, предназначенный для изучения различий между двумя и более группами объектов, описываемых -матрицей количественных данных типа «объект-признак». При этом для обозначения двух групп используется дихотомическая переменная, а в случае k групп – полихотомическая несовместная переменная. Дискриминантный анализ используется в социологии при решении задач классификации, в медицине для целей дифференциальной диагностики, в психологии для изучения стереотипов в поведении людей, в учебном процессе для определения ожидаемой успеваемости студентов до его прослушивания.
В п. 6.7. рассматриваются методы, которые являются дальнейшим развитием МГК. Они позволяют представить сходство или различие между n объектами в виде геометрической интерпретируемой конфигурации в пространстве не выше третьего порядка. Близкие точки в конфигурации соответствуют похожим отображаемым ими объектам, а далекие – менее похожим. Отсюда следует, что расстояние между точками является основным понятием, подлежащим интерпретации. Если исходные данные заданы в виде таблицы сопряженности признаков (ТСП), то применяется анализ соответствий, который основывается на теореме Экарта-Юнга, если же исходные данные представляют собой матрицы различий типа «объект-объект», то используется метод многомерного метрического и неметрического шкалирования.
В четвертой части учебного пособия излагаются вопросы статистики случайных процессов. Целью этой части учебного пособия является овладение студентами основными непараметрическими и параметрическими методами обработки случайных процессов (СП). В ней изложены разделы статистики стационарных СП в рамках корреляционной теории. Для понимания материала необходимо знание теории вероятностей, теории случайных процессов и наличие некоторого опыта использования систем обработки данных типа MathCad, Matlab, Statgraphics, Statistica, NCSS. Значительная часть материала пособия основывается на важных классических работах Г. Дженкинса, Д. Ваттса (G. Jenkins, D. Watts) [11] и С. Л. Марпл.-мл. (S.L. Marple, Jr.) [27], с момента появления которых прошло, соответственно, 33 года и 13 лет, и они практически недоступны студенческой аудитории.
Эта часть учебного пособия состоит из семи пунктов, каждый из которых построен таким образом, чтобы облегчить практическую реализацию излагаемых методов. Изучение методов обработки данных немыслимо без их практического использования, поэтому после описания метода приводится численный пример, а в конце каждой главы – ряд упражнений и задач.
В п.7.1 изложены основные обсуждаемые проблемы. После введения основных понятий теории и статистики СП в ней дана постановка задачи выбора класса моделей СП и методов статистических исследований, рассматриваемых в данной части учебного пособия.
В п.7.2 изложены вопросы оценки математического ожидания стационарных СП. В п.7.3–7.4 исследуются классические методы оценивания авто– и взаимных корреляционных функций процессов и спектральной плотности мощности (СПМ) процессов. Наибольшее внимание уделено центральной проблеме статистики случайных процессов – оценке СПМ по единственной реализации. Описаны два классических метода оценивания СПМ: прямой и коррелограммный методы. Прямой метод нахождения оценки СПМ основан на вычислении периодограмм и модифицированных периодограмм, которые реализованы на алгоритмах быстрого преобразования Фурье. Метод коррелограмм рассмотрен для широкого класса временных и частотных окон.
В п.7.5 рассмотрены параметрические модели временных рядов. Дано описание случайных временных рядов параметрическими моделями авторегрессии скользящего среднего (АРСС) и их реализации в виде цифровых фильтров.
Параграфы. 7.6 – 7.7 посвящены оценкам параметров АР-моделей. Подробный анализ АР-моделей объясняется двумя причинами: во-первых, параметры этих моделей можно получить как решения системы линейных уравнений, во-вторых, эти модели обеспечивают лучшее спектральное разрешение, чем модели АРСС. Рассмотрены два класса алгоритмов оценивания: блочные и рекурсивные алгоритмы обработки данных, базирующиеся на использовании свойств фильтра линейного предсказателя.
В п.7.8. изложены методы оценивания частоты СПМ, основанные на анализе собственных значений автокорреляционной матрицы, которые обеспечивают лучшие характеристики разрешения и оценивания частоты. Ключевым моментом этих методов является разделение информации, содержащейся в автокорреляционной матрице на два векторных подпространства – подпространство сигнала и подпространство шума. Полученные оценки не являются оценками истинной СПМ, так как они не сохраняют мощность исследуемого процесса и для них не существует обратного преобразования Фурье.
Последние два параграфа содержат материал, посвященный элементам анализа выбросов и теории вейвлет-преобразования (ВП), бурно развивающейся в последние 10 лет и позволяющей обрабатывать реализации нестационарных СП.
ВП является ядром новых международных стандартов по обработке неподвижных изображений и видео – JPEG2000 и MPEG-4. ВП широко используется при описании локальных особенностей сигналов (аномальных наблюдений, скачков), фильтрации помех, сжатии.
Появившись, как альтернатива оконным преобразованиям Фурье для спектрального анализа сигналов, содержащих сингулярности типа скачков, изменений периодов, амплитуд и фаз гармонических компонентов, ВП стало необходимым математическим инструментом при решении задач во многих областях: в радиотехнике, связи, обработке и сжатии изображений, анализе речи, распознавании образов, анализе кардиограмм, энцефалограмм и томограмм и т. д.
Особенностью пособия является то, что теоретические изложение материала сопровождается рассмотрением тщательно подобранных примеров. В конце каждой главы приводятся задачи, упражнения и темы рефератов для более углубленного изучения наиболее трудных разделов. Для трудных задач даются в помощь студенту краткие указания.