Мои Конспекты
Главная | Обратная связь

...

Автомобили
Астрономия
Биология
География
Дом и сад
Другие языки
Другое
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Металлургия
Механика
Образование
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Туризм
Физика
Философия
Финансы
Химия
Черчение
Экология
Экономика
Электроника

Columns 1 through 10 1 страница





Помощь в ✍️ написании работы
Поможем с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой

Е. Д. Агафонов, О. В. Шестернёва

 

Математическое моделирование

Линейных динамических систем

 

Учебное пособие для студентов

направления 230100.62 «Информатика и вычислительная техника»

профиля 230102.62.02 «Автоматизированные системы

обработки информации и управления»

 

Красноярск

СФУ

 
 

УДК 517.93(07)

ББК 22.143я73

А23

 

Рецензенты:

доктор физико-математических наук, профессор Б. С. Добронец,

Сибирский федеральный университет;

доктор технических наук, профессор А. Н. Ловчиков,

Сибирский государственный аэрокосмический университет имени

академика М. Ф. Решетнева

 

 

Агафонов, Е. Д.

А23 Математическое моделирование линейных динамических систем: учеб. пособие / Е. Д. Агафонов, О. В. Шестернёва; Сибирский федеральный ун-т. – Красноярск, 2011. – 92 с.

ISBN 978-5-7638-2162-8

 

Рассмотрены основные сведения теории идентификации динамических и статических систем. Описаны способы определения параметров в уравнениях модели,
в том числе адаптивные. Для систем с неизвестной структурой приведены подходы
к построению непараметрических моделей. Основное внимание уделяется способам
и приемам идентификации линейных динамических систем в условиях неопределенности.

Предназначено для студентов бакалавриата, обучающихся по направлению 230100.62 «Информатика и вычислительная техника», профиль 230102.62.02 «Автоматизированные системы обработки информации и управления».

 

 

ISBN 978-5-7638-2162-8

УДК 517.93(07)

ББК 22.143я73

 

© Сибирский федеральный университет, 2011

ã Агафонов Е. Д., Шестернёва О. В., 2011

 
 

ОГЛАВЛЕНИЕ

 


ПРЕДИСЛОВИЕ…………………………………………….……………………………………
Глава 1. ПАРАМЕТРИЧЕСКИЕ РЕГРЕССИОННЫЕ МОДЕЛИ….…………………..……..
1.1. Линейная регрессия………………………………………………………………..……
1.2. Метод наименьших квадратов. Критерий метода наименьших квадратов…………
1.3. Идентификация линейных по параметрам моделей с использованием метода наименьших квадратов………………………………………………………….  
1.4. Линейный метод наименьших квадратов с использованием ортогональных полиномов………………………………………………………………  
1.5. Рекуррентный метод наименьших квадратов…………………………..…………….
1.6. Линейная аппроксимация метода наименьших квадратов………………..…………
1.7. Методы максимального правдоподобия и максимума апостериорной вероятности……………………………………………………………..  
1.8. Метод инструментальных переменных………………………………………..………
1.9. Реализация метода наименьших квадратов в пакете MATLAB …….…….………...
1.10. Метод стохастической аппроксимации…………………………………….………...
Контрольные задания………………………………………………………………………...  
Глава 2. НЕПАРАМЕТРИЧЕСКИЕ РЕГРЕССИОННЫЕ МОДЕЛИ…………………………
2.1. Непараметрическая оценка плотности распределения вероятностей Розенблатта–Парзена…………………..……………………………………………….  
2.2. Непараметрическая оценка регрессии Надарая–Ватсона……………..……………..
Контрольные задания………………………………………………………………………...  
Глава 3. МОДЕЛИ ЛИНЕЙНЫХ ДИНАМИЧЕСКИХ СИСТЕМ………………………….....
3.1. Способы описания линейных динамических систем………………………………...
3.2. Модель динамической системы в виде представления Фурье (модель сигнала)…………………………………………………………………………  
3.3. Частотный метод описания линейных динамических систем………………………
3.4. Определение передаточной функции линейных динамических систем на основе спектральных плотностей………………………………………………….  
Контрольные задания………………………………………………………………………..  
Глава 4. НЕПАРАМЕТРИЧЕСКИЕ МОДЕЛИ ЛИНЕЙНЫХ ДИНАМИЧЕСКИХ СИСТЕМ………………………………………………………………………………………….  
4.1. Постановка задачи идентификации линейных динамических систем……………...
4.2. Математическое описание и построение непараметрической модели линейных динамических систем……………………………………………………….  
4.3. Оптимизация непараметрических моделей линейных динамических систем………
4.4. Непараметрические модели линейных динамических систем на основе уравнения Винера–Хопфа……………………………………………….....  
Контрольные задания……………………………………………………………………….  
ЗАКЛЮЧЕНИЕ…………………………………………………………………………………..  
БИБЛИОГРАФИЧЕСКИЙ СПИСОК…………………………………………………………  
АНГЛО-РУССКИЙ СЛОВАРЬ ТЕРМИНОВ…………………………………………………..  
Приложение……………………………………………………………………………………....


предисловие

 

 

Одной из проблем современной науки является разработка и внедрение в практику методов исследования функционирования сложных систем. К классу сложных систем относят технологические, производственные, энергетические комплексы, системы автоматизации управления и другие объекты. Моделирование является наиболее мощным средством исследования подобных систем на сегодняшний день.

Моделирование – один из самых распространенных способов изучения различных процессов и явлений. Моделью исходного объекта называется представление объекта в некоторой форме, отличной от формы его реального существования. В инженерной практике модель обычно создается:

– для проведения экспериментов, которые невозможно или сложно провести на реальном объекте (что дает новые знания об объекте);

– для ускорения, удешевления, упрощения и любого другого усовершенствования процесса проектирования, достигаемого за счет работы с более простым объектом, чем исходный, т. е. с моделью.

В настоящее время известны и широко используются в научных исследованиях и инженерной практике различные типы моделей и многочисленные методы моделирования. Если взять за основу степень абстрактности, т. е. степень отличия от реального объекта, то можно определить следующие типы моделей:

– физические (натурные) модели, которые воспроизводят изучаемый процесс с сохранением его физической природы и являются инструментом физического моделирования;

– аналоговые модели, которые заменяют один объект на другой с похожими свойствами;

– математические модели – абстрактные модели, существующие в форме специальных математических конструкций и имеющие смысл только для интерпретирующего их человека или машины.

Под математическим моделированием (идентификацией) понимают способ исследования различных процессов путем изучения явлений, имеющих различное физическое содержание, но описываемых одинаковыми математическими соотношениями. Значение математических моделей непрерывно возрастает из-за их гибкости, адекватности реальным процессам, а также из-за невысокой стоимости их реализации на базе современных ЭВМ. Особенно эффективно применение моделирования на ранних стадиях проектирования автоматизированных систем, когда цена ошибочных решений наиболее значительна.

Перспективным и значимым для теории и практики математического моделирования является дальнейшее развитие научных основ моделирования с ориентацией на новые информационные технологии в проектировании, управлении и обучении. В связи с этим актуально изложение методов и алгоритмов, реализующих непараметрический подход к моделированию, который требует для своей реализации существенных вычислительных ресурсов.

Подготовка бакалавров по направлению 230100.62 «Информатика и вычислительная техника» профиля 230102.62.02 «Автоматизированные системы обработки информации и управления» включает в себя изучение курсов, содержание которых охватывает различные разделы теории идентификации. Выбор учебной, методической и научной литературы в этой области знаний достаточно велик. При этом наибольшее внимание уделяется классическому регрессионному анализу и задачам параметрической идентификации. Методы и алгоритмы непараметрической идентификации – сравнительно новое, развивающееся направление, которое в учебной и методической литературе практически не раскрывается. Данное учебное пособие призвано устранить этот пробел: в нем обобщены и структурированы основные сведения теории идентификации с использованием принципов системного подхода, а также некоторые рецепты решения практических задач. В ходе изучения материала студентам предлагается применять специальное программное обеспечение, например систему MATLAB.

В первой главе пособия обобщены сведения о классических моделях линейных статических объектов, описаны методы максимального правдоподобия, метод наименьших квадратов, стохастической аппроксимации и другие методы построения статических моделей. Вторая глава знакомит читателя с непараметрическими регрессионными моделями, основанными на ядерной оценке плотности вероятности. В ней также затрагиваются вопросы настройки моделей и приведены примеры функционирования простых алгоритмов, реализующих непараметрические модели. В третьей главе представлены различные способы описания линейных динамических систем, составляющие основу моделей систем этого класса. Четвертая глава описывает непараметрический подход к построению моделей линейной динамики с использованием операторного представления моделей в виде интеграла свертки и уравнения Винера–Хопфа. Попутно даются основные сведения о случайных процессах и их свойствах.

В конце пособия приведен англо-русский словарь терминов, относящихся к тематике издания. В приложении содержится информация о сходимости статистических оценок.

Авторы пособия выражают особую благодарность доктору технических наук, профессору кафедры системного анализа Сибирского государственного аэрокосмического университета имени академика М. Ф. Решетнева А. В. Медведеву за помощь, оказанную им при работе над рукописью.

 

 

 
 

Глава 1

Параметрические регрессионные
модели

 

 

Глава посвящена параметрическим регрессионным моделям. Дается представление о линейной парной и множественной регрессии, приводятся сведения о методе наименьших квадратов (МНК) и вывод критерия наименьших квадратов. Рассматривается линейный метод наименьших квадратов в матричной форме, предлагается вариант МНК с использованием ортогональных полиномов, выводится рекуррентная форма линейного МНК. Далее метод МНК распространяется на нелинейный случай с применением метода линеаризации. Кратко описываются другие методы построения статических моделей – методы максимального правдоподобия и максимума апостериорной вероятности. В заключение представлен адаптивный подход к идентификации, реализованный с использованием метода стохастической аппроксимации.

 

 

1.1. Линейная регрессия

Взаимосвязь между случайными величинами может быть представлена разными способами. Например, эту связь можно описать с помощью различных коэффициентов корреляции (линейных, частных, корреляционного отношения
и т. п.). В то же время эту связь можно выразить и как зависимость между аргументом (величиной) X и функцией Y. В этом случае задача будет состоять в нахождении зависимости вида или, напротив, в нахождении зависимости вида . Зависимость между случайными величинами, выраженная функционально, называется регрессией.

Графическое выражение регрессионного уравнения называют линией ре-
грессии
. Линия регрессии выражает наилучшее предсказание зависимой переменной Y по независимым переменным X. Эти независимые переменные, а их может быть много, носят названиепредикторов.

Регрессию выражают с помощью двух уравнений регрессии, которые в самом простом случае являются линейными:

 

, (1.1)
. (1.2)

 

В уравнении (1.1) Y – зависимая переменная, Х – независимая переменная, – свободный член, – коэффициент регрессии, или угловой коэффициент, определяющий наклон линии регрессии по отношению к осям координат. В уравнении (1.2) Х – зависимая переменная, Y – независимая переменная, – свободный член, – коэффициент регрессии, или угловой коэффициент, определяющий наклон линии регрессии по отношению к осям координат (рис. 1.1).

 

 

Рис. 1.1. Линии регрессии Х по Y и Y по X

 

Линии регрессии пересекаются в точке с координатами, соответствующими средним арифметическим значениям корреляционно связанных между собой переменных Х и Y. Линия АВ, проходящая через точку О, соответствует линейной функциональной зависимости между переменными величинами Х и Y, когда коэффициент корреляции между Х и Y равен 1. При этом наблюдается такая закономерность: чем сильнее связь между Х и Y, тем ближе обе линии регрессии к прямой АВ, и, наоборот, чем слабее связь между этими величинами, тем больше линии регрессии отклоняются от прямой АВ. При отсутствии связи между Х и Y линии регрессии оказываются под прямым углом по отношению друг к другу и в этом случае .

Количественное представление связи (зависимости) между Х и Y (между Y и X) называется регрессионным анализом. Главная задача регрессионного анализа заключается в нахождении коэффициентов , , и . При этом коэффициенты регрессии и показывают, насколько в среднем величина одной переменной изменяется при изменении на единицу меры другой.

Коэффициент регрессии в уравнении (1.1) можно подсчитать по формуле

 

(1.3)

 

а коэффициент в уравнении (1.2) – по формуле

 

, (1.4)

 

где – коэффициент корреляции между переменными Х и Y; – среднеквадратическое отклонение, подсчитанное для переменной Х:

 

;

 

– среднеквадратическое отклонение, подсчитанное для переменной Y:

 

;

 

N – количество элементов выборки.

Коэффициенты регрессии также можно вычислить без подсчета среднеквадратических отклонений по формулам

 

, (1.5)
. (1.6)

 

В случае если коэффициент корреляции неизвестен, коэффициенты регрессии можно определить по следующим формулам:

 

, (1.7)
. (1.8)

 

Сравнивая формулы (1.7) и (1.8), мы увидим, что в числителе стоит одна и та же величина: . Последнее говорит о том, что величины a1, b1 и взаимосвязаны. Более того, зная две из них, всегда можно получить третью. Например, зная величины a1 и b1, можно легко получить :

 

. (1.9)

Формула (1.9) достаточно очевидна, поскольку, умножив коэффициент а1, вычисленный по формуле (1.3), на коэффициент b1, вычисленный по формуле (1.4), получим:

.

Формула (1.9) очень важна, поскольку она позволяет по известным значениям коэффициентов регрессии а1 и b1 определить коэффициент корреляции и, кроме того, проверить правильность расчета коэффициента корреляции. Как и коэффициент корреляции, коэффициенты регрессии характеризуют только линейную связь и при положительной связи имеют знак «плюс», при отрицательной – знак «минус».

Свободные члены а0 и b0 в уравнениях регрессии можно вычислить по следующим формулам:

 

, (1.10)
. (1.11)

 

Зависимость между несколькими переменными величинами выражают уравнением множественной регрессии, которая может быть как линейной, так и нелинейной.

 

 

1.2. Метод наименьших квадратов.
Критерий метода наименьших квадратов

История метода наименьших квадратов (МНК)восходит к работам А. М. Ле-
жандра и К. Гаусса. Первоначально этот метод использовался в астрономии для определения орбит небесных тел и лишь впоследствии нашел свое место в статистике и теории идентификации.

Для обработки результатов экспериментов, определения неизвестных величин и оценки точности результатов A. M. Лежандр (1752–1833) предложил принцип наименьших квадратов, заключающийся в том, чтобы обратить в минимум сумму квадратов погрешностей. Лежандр обращал внимание на то, что предлагаемый им принцип для оценки неизвестной величины произволен, и указывал, что из всех принципов, которые можно предложить для этой цели, не существует более простого. В своем труде «Новые методы для определения орбит комет» (1806) он писал: «Из всех принципов, которые здесь могут быть предложены, по моему мнению, наиболее общим, наиболее правильным и наиболее удобным в применении является тот, который обращает в минимум сумму квадратов остающихся ошибок. Этот принцип, устанавливая в ошибках род равновесия, удерживает наибольшие из них в должных границах»[1].

Исследования Лежандра продолжил К. Гаусс (1777–1855). В своем сочинении «Теория движения небесных тел по коническим сечениям вокруг Солнца», опубликованном в 1809 г., он принял за основу при обработке экспериментальных данных «...один простой и постоянно используемый принцип. Обычно принимают за аксиому гипотезу о том, что если некоторая величина определяется из многих непосредственных наблюдений, произведенных с одинаковой тщательностью в сходных условиях, то среднее арифметическое из наблюденных значений будет наиболее вероятным значением этой величины, если не с полной точностью, то, во всяком случае, с хорошим приближением...»[2].

Пользуясь этим утверждением, Гаусс показал, что плотность вероятности заданной совокупности измерений достигает максимального значения, если сумма квадратов отклонений результатов измерений от истинного значения достигает минимума.

Дальнейшее развитие метод наименьших квадратов получил в работах
П. Л. Чебышёва (1821–1894), разработавшего теорию параболического интерполирования по методу наименьших квадратов с помощью ортогональных полиномов.

Метод наименьших квадратов позволяет найти решение переопределенной и несовместной системы уравнений и применяется при решении двойственных задач линейного программирования и теории антагонистических игр. Другие приложения этого метода связаны, например, с математическим решением технических проблем теории оптимального управления. В частности, на основе МНК Л. С. Понтрягиным (1908–1988) был открыт принцип максимума.

Наиболее активно метод наименьших квадратов используется в решении задач математической статистики и теории идентификации, в приложении к задачам которой мы и дадим его описание.

Рассмотрим задачу оценивания некоторой величины по результатам ее многократных измерений. Пусть величина X в процессе измерения принимает следующие значения: . Для простоты будем считать, что все измеренные значения равновероятны. Наилучшей оценкой величины X будет выборочное среднее:

 

. (1.12)

 

Отклонением (невязкой) назовем разность между выборочным значением и выборочным средним: .

Для того чтобы охарактеризовать рассеяние наблюдаемых значений вокруг среднего значения, вводят характеристику, названную выборочной дисперсией:

 

. (1.13)

Необходимо отметить следующее важное свойство дисперсии: .

Пусть существует некоторая величина , где . Покажем, что сумма квадратов отклонений выборочных значений от среднего будет всегда меньше, чем сумма квадратов отклонений выборочных значений от какой бы то ни было другой величины (в нашем случае ):

 

.

 

Таким образом, выборочное среднее наилучшим образом на основании имеющейся выборки приближает к истинному значению величины X. Критерием здесь служит средний квадрат отклонений выборочных значений от оценки величины X. Другими словами, среднее значение является решением следующей задачи оптимизации:

 

. (1.14)

 

Приведенный критерий носит название критерия метода наименьших квадратов. В теории идентификации критерий МНК позволяет строить параметрические модели регрессионного типа.

Пусть задана функциональная зависимость с точностью до вектора параметров: , а также доступна выборка измерений , . Для оценивания параметров этой модели используем критерий МНК:

 

. (1.15)

 

Наиболее просто задача минимизации критерия (1.15) решается в случае, когда модель имеет линейную структуру относительно входящих в нее параметров.

 

 

1.3. Идентификация линейных
по параметрам моделей с использованием
метода наименьших квадратов

 

Рассмотрим задачу оценивания функциональной зависимости по выборке некоррелированных и равноточных измерений этих переменных , в случае, когда уравнение этой зависимости представляет собой функцию, линейную относительно параметров:

 

. (1.16)

 

В матричной форме это уравнение имеет вид

 

, (1.17)

 

где – вектор параметров модели; – вектор базисных функций.

Также введем следующие матрицы:

– матрицу, составленную из базисных функций, рассчитанных в выборочных значениях независимой переменной:

 

;

 

– вектор выборочных значений зависимой переменной:

 

Доверь свою работу ✍️ кандидату наук!
Поможем с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой



Поиск по сайту:







©2015-2020 mykonspekts.ru Все права принадлежат авторам размещенных материалов.