Учебная работа. Курсовая работа: Численные методы решения задач управления технологическими процессами
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение
высшего проф образования
«МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ПИЩЕВЫХ ПРОИЗВОДСТВ»
Кафедра «Автоматика и Электротехника».
Курсовая работа.
«Численные способы решения задач управления технологическими действиями».
Группа: 07-ИУ-4
Студент: Коняхин Е. И.
Педагог: Михайлов А. В.
Москва 2010.
Поиск глобального максимума способом равномерного поиска.
способ равномерного поиска заключается в поочередном вычислении мотивированной функции при всех допустимых значениях варьируемого параметра x:
Пусть данная погрешность определения наибольшего значения .
Тогда для реализации метода поиска следует найти в
точках, умеренно относящихся друг от друга на расстоянии ,
т.е. в точках:
Из приобретенных значений показателя свойства выбирается наибольшее
метод расчета.
f=f(x)
ДА
Результаты расчета.
Мотивированная функция имеет вид :
Интервал (-100;100)
Шаг H
Кол-во вычислений
1
1
23
21
0,1
0,19999998
23
201
0,01
0,959999
23,056
2001
Вывод :
при уменьшении данной погрешности ( точность измерений возрастает, что дозволяет нам получить верное количество вычислений функции, что приводит к огромным затратам машинного времени.
Одномерная оптимизация способом дихотомии.
Этот способ употребляется для поиска экстремума класса унимодальных функций. Мысль способа ординарна – разделять интервал [
a,
b]
, где размещена точка экстремума , напополам
и отбрасывать ту часть, где экстремума заранее быть не может. С данной для нас целью довольно вычислить в точках ,
отстоящих друг от друга на расстояние данная погрешность определения оптимума. По двум вычисленным значениям и , в силу унимодальности функция просто установить новейший интервал неопределенность по последующим условиям ( при поиске максимума):
Таковым образом, в итоге 2-ух вычислений , просвет , где содержится экстремум сократится в двое. Последующая пара измерений делается в районе серидины новейшего интервала неопределенности. Вычисления выполняются до того времени, пока на k
-м шаге, опосля 2
k
вычислений длина интервала неопределенности , где находится оптимум, не станет меньше либо равна .
метод расчёта.
ДА
ДА
Результаты расчета
.
Мотивированная функция имеет вид :
Интервал (-100;100)
Погрешность Е
Кол-во итераций
Кол-во вычислен.
0.1
1,06640625
22,600226978
14
7
0.1
0,954638671
23,054333993
20
10
0.01
0,959232788
23,05589651
26
13
0.001
0,96173743
23,056110564
34
17
Вывод :
как видно способ дихотомии дозволяет достаточно стремительно попадать в район оптимума. И просит наименьшего числа расчётов по сопоставлению с некими иными способами (к примеру : способом равномерного приближения).
Одномерная оптимизация способом золотого сечения.
Интервал неопределенности делится на три отрезка, при этом внутренние точки размещаются симметрично по отношению к последним .
Берутся пробные точки и размещаются последующим образом :
Рассчитывается мотивированная функция в этих точках. В итоге анализа 2-ух значений и мотивированной функции исключается один из подинтервалов, где оптимума заранее быть не может, и выбирается новейший интервал неопределенности, который должен изучить в предстоящем.
Поиск оптимума заканчивается, если опосля k
— го шага длина интервала неопределенности станет меньше либо равна .
метод расчёта.
нет
нет
Результаты расчета
.
Мотивированная функция имеет вид :
Интервал (-100;100)
Погрешность Е
Кол-во итераций
Кол-во вычислен.
1
0,895427987
22,910241869
9
8
0.1
0,94547427929
23,046790768
14
13
0.01
0,96349811902
23,055988462
18
17
0.001
0,96148191718
23,05610953
23
22
Вывод : преимуществом этого способа над способом дихотомии будет то, что на любом шаге рассчитывается только одно , а не два.
Одномерная оптимизация способом поразрядного приближения.
способ владеет высочайшим быстродействием. Это достигается тем, что употребляется метод с переменным шагом поиска. Задаем интервал [
a,
b]
, содержащий снутри себя точки максимума :
Задается изначальное и рассчитывается .
Задается исходный шаг поиска h
и кратность конфигурации шага k
в районе оптимума. Делается поиск максимума. Поиск из исходной точки x=
осуществляется с неизменным шагом h
, опосля всякого шага рассчитывается , оно сравнивается с предшествующим и в случае улучшения аспекта шаги длятся. движение к оптимуму с постоянным шагом h
длится до того времени, пока очередной шаг не окажется плохим. Опосля этого поиск максима длится из крайней точки в оборотном направлении с шагом в k
раз меньше прежнего. Эта процедура будет длиться до того времени, пока не выполнится условие:
, где — данная погрешность определения оптимума.
Метод расчета.
да
нет
Результаты расчета.
Мотивированная функция имеет вид :
X=
-100;h=10;k=10
Погрешность Е
Лучшая точка х
Наилучшее
Кол-во итераций
Кол-во вычислений
1
0,895427987
22,910241869
2
23
0.1
0,94547427929
23,046790768
3
35
0.01
0,96349811902
23,055988462
4
51
0.001
0,96148191718
23,05610953
5
65
X=
-100;h=10;e=0.01
Кратность k
Лучшая точка х
Наилучшее
Кол-во итераций
Кол-во вычислений
2
0,95703125
23,0553
11
51
5
0,9632
23,0560
6
46
10
0,96
23,0560
4
51
20
0,96125
23,0560
4
65
50
0,96
23,0560
3
101
X=
-100;k=10;e=0.01
Шаг h
Лучшая точка х
Наилучшее
Кол-во итераций
Кол-во вычислений
0.1
0,95999
23,05601
2
1028
0.5
0,96
23,05601
3
231
1
0,96
23,05601
3
123
5
0,96
23,05601
4
53
10
0,96
23,05601
4
51
50
0,96
23,05601
5
57
100
0,96
23,05601
5
48
Вывод:
способ является действенным для измерения оптимума унимодальной функции, при этом изменение шага поиска либо кратности уменьшения шага ( при постоянной погрешности вычисления на итог фактически не влияет).
Одномерная оптимизация способом квадратичной интерполяции.
В прошлых способах была изготовлена попытка отыскать малый интервал, в каком находится оптимум функции f0
(х)
. В этом способе применяется другой подход. Он заключается в построении аппроксимирующей модели оптимизируемой функции (х). Функция может аппроксимирована полиномом второго порядка:
(х) = ах2
+ Ьх + с
по последней мере в маленькой области значений, в том числе в области оптимума. При всем этом положении экстремума (х)
определяется по положению экстремума полинома, так как крайний вычислить проще.
Экстремум функции fап
(х)
как понятно размещен в точке: = -Ь/2а.
Положим, что округа некой начальной точки х=х1
области определения f0
(х)
аппроксимирована полиномом fап
(х).
задачка поиска заключается в определении смещения
= х°ап
– х1
Которое приводит из начального состояния х = х1
, поближе к экстремуму х = х°
. Если f0
(х)
строго квадратичная функция, то смещение опосля первого шага сходу приведет к. В неприятном случае достижение х°
просит выполнения итерационной процедуры. Для определения смещения необходимо найти коэффициенты параболы. Для этого нужно вычислить f0
(х)
в 3-х точках. Пусть вычисление делается в начальном состоянии х = х1
и в точках, ,
и при всем этом получено три значения данной для нас функции
,
где h
— полуинтервал интерполяции, малая неизменная величина. Подставляя эти значения в уравнение (х),
получаем систему из 3-х линейных уравнений с 3-мя неведомыми а, Ь, с
:
а(х1 —
h)2
+ Ь(х1 —
h) + с =а(х1 —
h)2
+ Ь(х1 —
h) + с =
а*х12
+ Ь*х1 + с =
а(х1 +
h)2
+ Ь(х1 +
h) + с =
Для того, чтоб система имела решение, нужно чтоб ее определитель не был равен нулю. Это условие производится, потому что определитель равен: = — 2
h3
0
потому что . Решая систему уравнений, получаем интересующие нас значения характеристик а, Ь, с подставляя их в формулу находим положение экстремума параболы
х°ап
= х1 +
h(
—
)/2(
— 2
+
)
Зная коэффициенты а, Ь, с можно найти и экстремальное (х)
.
сейчас следует проверить, вправду ли найден экстремум. Для этого довольно вычислить (х)
в предполагаемом экстремуме х=х1+
Δх — х°ап
и сравнить его с оценкой. Если эти величины различаются не наиболее чем на ɛ т. е:
|
( х°ап
)-
(х°ап
)|
, где ɛ
данная погрешность определения экстремума. При всем этом = х1
. Если условие не производится, тогда следует процесс поиска; т.е. выполнить последующий цикл, но уже построение
аппроксимирующей модели делается в округи точки х1=
х°ап
.
Процедура будет повторяться пока не выполнится условие.
метод расчета
.
Результаты расчета.
Мотивированная функция имеет вид :
Нач. знач.
X=-100,H=0.5
Погрешность Е
Кол-во итераций
Кол-во вычислений
1
(-)2,19360741
(-)919,076558
10
30
0.1
0,8912446
22,8921666
14
45
0.01
0,79728604
22,27161267
16
48
0.001
0,7960595
22,2612358
17
51
Нач. знач. Х=-100, Е=0.1
Шаг Н
Знач Х
Знач F
Кол-во итераций
Кол-во вычислений
Повышение шага
0,3
0,901465
22,93463
25
75
0,5
0,797286
22,27161
16
48
0,8
0,6115913
20,33949
35
105
Уменьшение шага
0.5
0,79728604
22,27161267
16
48
0.4
0,8540667
22,69232
20
60
0.3
0,901465
22,934634
25
75
0.2
0,936694
23,034198
41
123
0.1
0,961479
23,056109
31
93
0.02
0,961661
23,05611
25
75
Вывод:
расчеты проявили, что изменение погрешности определения экстремума ɛ, фактически не влияет на точность вычисления в то время, как изменение шага поиска h оказывает существенное воздействие. При уменьшении шага точность вычислений улучшается и напротив, при увеличении шага миниатюризируется. И в итоге, когда шаг поиска очень велик для того, чтоб при помощи итерационной процедуры уточнения значений получить итог с данной погрешностью, программка отрешается создавать вычисления.
оптимизация
способом наискорейшего спуска.
способ наискорейшего спуска предназначен для поиска минимума. Данный способ различается от способа градиента правилом определения коэффициента шага. Поначалу выделяется исходная точка. В пространстве X могут быть выделены области притяжения всякого из локальных минимумов.
Если метод начинает поиск из исходной точки, лежащей в области притяжения некого минимума функции против направления градиента. Таковым образом, в любом цикле решается одномерная задачка минимизации , опосля чего же шаг находится как
метод расчета.
Результаты расчета.
Мотивированная функция имеет вид :
Н=1,
E=0.01
Приращение L
Оптим. зн. XI
Оптим. зн. Х2
Оптим. зн. ХЗ
Оптим. зн. F
0,5
-10,75
17,25
-12,75
0,1875
0.1
-10,95
17,04
-12,95
0,0074
0.01
-10,995
17,005
-12,994
7,5000001E-7
0.001
-10,99
17
-12,99
7,49752E-9
L=0.0001, Е=0.1
Шаг h
Оптим. зн. XI
Оптим. зн. Х2
Оптим. зн. ХЗ
Оптим. зн. F
10
-100
100
-100
31979
5
-100
100
-100
31979
1
-10,9
17
-12,9
7,5
0,5
-10,9
17
-12,9
7,49934E-9
0,1
-10,9
17
-12,9
7,49934E-9
Н=0.5,
L=0.0001
Погрешность Е
Оптим. зн. X 1
Оптим. зн. Х2
Оптим. зн. ХЗ
Оптим. зн. F
1
-121,99
65,9
-125,9
31978,93
0.1
-10,99
17
-12,99
7,49752Е-9
0.01
-10,99
17
-12,99
7,49752Е-9
0.001
-10,99
17
-12,99
7.49752Е-9
оптимизация способом линейного программирования.
f0
(x)=4x+3y
Представим уравнения прямых, составляющих прямоугольник, в виде ограничений для мотивированной функции и проверим корректность постановки символов:
1)3x-y≤4
2)x-2y≤-7
3)3x+y≤21
4)-x+4y≤6
Как следует разыскиваемые ограничения:
1)-3x+y-4
2)-x+2y≤7
3)3x+y≤21
4)x-4y≤-6
Точки min и max:
Amin
(2;2) Cmax
(5;6)
min и max функции:
f0
(x)min
=14
f0
(x)max
=38
Расчет делается в приложении МАТLАВ.
»f=[4,3]
f = 4 3
»A=[-3,l;-l,2;3,l;l,-4]
A =
-3 1
-1 2
3 1
1 -4
» B=[-4;7;21;-6]
B =
-4
7
21
-6
» [x,y,z]=linprog(f,A,B) Optimization terminated,
x =
2.0000
2.0000
y =
14.0000
z = 1
Решение задачки нелинейного программирования.
Задачка №2.
Имеются три продукта n1
,n2
,n3
разной цены. Любой из их содержит определенное количество питательных ингредиентов, при этом для обычного употребления требуется u1
≥250; u2
≥60; u3
≥100; u4
≥220.
Минимизировать Издержки на приобретение продукта.
N1
N2
N3
U1
4
6
15
U2
2
2
0
U3
5
3
4
U4
7
3
12
Стоимость за единицу
44
35
100
Расчет делается в приложении МАТLАВ.
a=[-4 -6 -15;-2 -2 0;-5 -3 -4;-7 -3 -12]; »b=[-250-60-100-220];
»f=[44 35 100]
f =
44 35 100
» [x,y,z]=linprog(f,a,b) Optimization terminated. x= 13.2143
16.7857
6.4286
y =
1.8118e+003 z= 1
задачка №3 Вариант№13
N1
N3
N4
N5
В1
А1
2
7
9
12
4000
А2
4
9
16
21
28
6000
АЗ
7
12
18
27
34
8000
А4
10
18
26
34
42
10000
А5
14
23
32
44
51
12000
А6
18
29
39
50
63
14000
С
10
11
12
13
14
Расчет делается в приложении МАТLАВ.
a=[2,5,7,9,12;4,9,16,21,28;7,12/
18,27,34;10,18,26,34,42;14l
23,32,44,51;18,29,39,50,63]
b=[4000;60000;8000;10000;12000;14000]
lb=zeros(5,l)
f=[-10-ll -12-13-14]
»[x,y,z]=linprog(f,a,b,[],[],lb)
Optimization terminated.
x =
777.7778
0.0000
0.0000
0.0000
0.0000
y =
-7.7778e+003
z =
1
задачка №4 Вариант №8
12.
Уваривание рецептурной консистенции в змеевиковом уварочном аппарате.
τвар=f(P пара)
y=178-865,5*x+1629,4*x^2-1025*x^3
Минимизировать время уваривания консистенции до влажности 16% при ограничении на давлении в магистрали пара, обусловленного экономической эффективность.
0,2 <Р пара<0,7 Мпа; f`(Р пара)≤-44
Расчет делается в приложении МАТLАВ.
function f=myfun(x)
function[c,ceq]=ogr(x); c=-865,5+3258,8*x-3075*x^
2+44;
ceq=[];
»[x,y,z]=fmincon(@myfun,[1],
[],[],[],
[],
[0,
7],
[0,2],
@ogr)
x =
0
Y =
-687
z =
1
13.
Уваривание рецептурной консистенции в змеевиковом уварочном аппарате.
y отк=f(P апп)
y=47,5-2,01*x+0,03*x^2-0,000015*x^3
Повысить свойство консистенции, выраженное в данной взякости 20 Па*с зависимо от ограничения для температуры в аппарате и частотой вращения мешалки.
60 <Т апп<76 °С; 15<w лоп<35 о/мин;
Расчет делается в приложении МАТLАВ.
function f=myfun(x)
f=47,5-2,01*x+0,03*x^2-0,00015*x^3;
function[c,ceq]=ogr(x); c=-2,01+0,06*x-0,00045*x^2; ceq=[];
»[x,y;
z]=fmincon(@myfun,[l],[],[],[],[],[65],[93],@ogr)
x =
65.0001
y =
47
z =
1
]]>