МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ УКРАИНЫ
НАЦИОНАЛЬНЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
«ХАРЬКОВСКИЙ ПОЛИТЕХНИЧЕСКИЙ ИНСТИТУТ»
Факультет информатики и управления
Кафедра экономической кибернетики и маркетингового менеджмента
КУРСОВАЯ РАБОТА
По математическому программированию
Исследование методов оптимизации
Харьков 2009
РЕФЕРАТ
Данная курсовая работа содержит : 41 страницу, 16 таблиц, 6 графиков.
В курсовой работе рассмотрены теоретические основы двух методов оптимизации математического программирования :
- метод Нелдера-Мида ;
- градиентный метод с дроблением шага.
Произведена минимизация исследуемой функции указанными методами. Выявлена зависимость числа итераций от заданной точности. Сопоставлена трудоемкость и эффективность оптимизации заданной функции различными методами (градиентным и методом Нелдера-Мида).
Ключевые термины:
Градиент - вектор первых частных производных функции.
Линии уровня - множества точек, в которых функция принимает постоянные значения, т.е.
Методы нулевого порядка - методы, которые не предполагают вычисления производной для поиска оптимума.
Методы первого порядка - методы, в которых кроме вычисления функции в любой точке предлагается вычисление первых производных.
СОДЕРЖАНИЕ
1. Введение
2. Математическое описание методов оптимизации
2.1 Метод Нелдера-Мида
2.2 Градиентный метод с дроблением шага
3. Решение задачи минимизации для каждого из методов
3.1 Метод Нелдера-Мида
3.2 Градиентный метод с дроблением шага
4. Графическая интерпретация решения задачи
5. Аналитическое исследование методов
6. Заключение
7. Приложение
8. Список литературы
СПИСОК УСЛОВНЫХ ОБОЗНАЧЕНИЙ
- точка
- длинна шага
- вектор градиент
E - точность
N - количество итераций
Д - матрица координат симплекса
t - длинна ребра симплекса
1. ВВЕДЕНИЕ
Объектом исследования предмета математическое программирование являются задачи оптимизации.
Оптимизация подразумевает нахождение наилучшего варианта среди всех существующих. В любой практической оптимизационной задаче существует много совпадающих этапов. Наиболее важным этапом является моделирование рассматриваемой физической ситуации с целью получения математической функции, которую необходимо минимизировать, а также определения ограничений, если таковые существуют. Затем следует выбрать подходящую процедуру для осуществления минимизации. Эта процедура должна быть реализована на практике, что во многих реальных случаях вынуждает использовать ЭВМ для выполнения большого объема вычислений.
Универсальных методов, подходящих для поиска экстремума абсолютно любой функции не существует. Данная курсовая работа ставит себе целью исследовать метод оптимизации нулевого порядка - метод Нелдера-Мида, а также метод оптимизации первого порядка - градиентный метод с дроблением шага на примере конкретной функции. Таким образом, получив практические результаты, можно будет сравнить эффективность рассматриваемых методов, применяемых к исследуемой функции.
ПОСТАНОВКА ЗАДАЧИ ( Вариант задания 1)
Исследовать функцию типа :
Используемые методы минимизации :
1. Метод: Нелдера-Мида.
2. Метод: Градиентный с дроблением шага.
Необходимо :
1. Решить задачу минимизации , начав итерации из выбранной начальной точки x0=(1;1) заданными по варианту методами, необходимая точность решения . Привести таблицу результатов расчета типа: Итерация: - точка: значение: критерий: .
2. Рассчитать 3 линии уровня функции и изобразить их на графике.
3. Отобразить на графиках линий уровня для каждого из заданных методов траекторию движения по итерациям (траекторию спуска).
4. Выявить зависимость числа итераций N от заданной точности E, значения точности: , , , , , . Привести таблицу результатов как в п.1 для каждого значения E.
5. Сравнить эффективность рассмотренных в варианте методов по числу итераций N, построить графики N=F(E).
2. МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ МЕТОДОВ ОПТИМИЗАЦИИ
2.1 Метод Нелдера-Мида
Вводится симплекс, координаты вершин которого заданы таблицей (одна из вершин в начале координат).
t - некоторое выбранное число.
Если n = 2, то при t = 1 имеем
Расположение симплекса показано на рисунке 2.1
Рисунок 2.1- Начальное расположение симплекса
Легко убедиться в том, что если координаты вершин симплекса задать в соответствии с матрицей Д0 , то расстояние между двумя любыми вершинами симплекса всегда будет равно выбранной константе t независимо от размерности задачи n .
Действительно, расстояние между любой вершиной xj , j= 2,3,.., n+1, и вершиной x1 равно
С другой стороны, расстояние между любой парой вершин , , , равно Зададим начальную точку процедуры поиска минимума вектором Перенесем исходный симплекс таким образом, чтобы вершина, находившаяся в начале координат, оказалась в точке . Получим матрицу
Вычислим значения оптимизируемой функции в точках и переномеруем точки так, чтобы выполнялись неравенства :
.
Найдем координаты центра тяжести фигуры , получающейся в результате удаления вершины :
Осуществим отражение вершины относительно центра тяжести. Получим точку
.
Если a=1 , то получим зеркальное отражение. В одномерном случае процедура отражения, обеспечивающая получение точки , симметричной точке относительно иллюстрируется рис. 2.2
Рисунок 2.2 - Построение точки
Сравним теперь между собой значения
Возможны следующие варианты
а). В этом случае выполняется растяжение симплекса и отыскивается точка
Параметр обычно принимается равным 1,5.
Полученная точка заменяет , если . В противном случае для замены используется точка .
б) . При этом реализуется отражение. Точка заменяет .
в) . В этом случае осуществляется сжатие и отыскивается точка
Параметр обычно принимается равным 0,5. Точка заменяет .
г) . При этом осуществляется редукция (уменьшение размера симплекса путем приближения всех его вершин к вершине ). Координаты вершин нового симплекса рассчитываются по формулам
Критерий останова вычислительной процедуры имеет вид :
Критерий останова J является составным. При этом его компоненты имеют различный вес в зависимости от того, каков характер поведения оптимизируемой функции в окрестности экстремума. Если в районе экстремума оптимизируемая функция изменяется по типу «глубокая впадина», то больший вклад в численное значение критерия J вносит первое слагаемое, а второе при этом быстро уменьшается. Напротив, если оптимизируемая функция изменяется по типу «пологое плато», то первое слагаемое быстро становится малым и поэтому второе слагаемое вносит больший вклад в величину критерия J.
Модификация метода
Описанный «классический» вариант построения алгоритма метода Нелдера-Мида обладает конструктивным недостатком, который состоит в следующем. Предположим, что оптимизируемая функция, для простоты, двух переменных имеет вид глубокого оврага с очень пологим дном. Тогда может случиться так, что симплекс, который в рассматриваемом случае представляет собой треугольник, в какой-то момент двумя вершинами ляжет на дно оврага, а третья окажется на его склоне. При этом на очередном шаге произойдет переброс этой вершины на другой склон, а затем редукция или сжатие симплекса. Если склон оврага крутой, то эта процедура повторится много раз, в результате чего симплекс сожмется и может сработать критерий останова, хотя до точки минимума еще может быть очень далеко. Естественное усовершенствование алгоритма состоит в следующем. После срабатывания критерия останова целесообразно построить над центром тяжести сжавшегося симплекса новый, размеры которого соответствуют исходному симплексу. Пусть координаты центра тяжести сжавшегося симплекса образуют вектор
.
Найдем теперь координаты точки такой, что центр тяжести симплекса с длиной ребра, равной t , использующего вершину в качестве начальной, совпадал бы с . Матрица координат указанного симплекса имеет вид
(2.1)
Координаты центра тяжести этого симплекса образуют вектор
Теперь координаты точки найдем из равенства =, откуда
где
Подставляя вычисленные значения в выражение (2.1) , получим требуемый симплекс, используя который продолжим процедуру поиска минимума. С другой стороны, для продолжения процедуры в качестве начальной точки может быть использован центр тяжести «сжавшегося» симплекса. Возникающее при этом смещение нового симплекса относительно сжавшегося (точки предполагаемого останова) во многих случаях может даже оказаться полезным. Эту процедуру считаем законченной, если после очередного сжатия алгоритм приведет в точку, расстояние от которой до точки предыдущего сжатия не превосходит некоторого достаточно малого .
2.2 Градиентный метод с дроблением шага
Большей эффективностью обладают итерационные процедуры, в которых приближение к минимуму осуществляется сразу по всем переменным. При этом задача состоит в нахождении последовательности векторов таких, что
(2.2)
Методы построения таких последовательностей называют методами спуска. Пусть Поставим задачу отыскания последовательности ., сходящейся к .
Выберем произвольным образом точку , направление и сконструируем луч
. (2.3)
Рассмотрим вопрос о выборе направления , обеспечивающего (2.2). Для этого изучим поведение вдоль луча . Имеем
Введем
(2.4)
Здесь
В соответствии с (2.3)
Тогда
Вычислим (2.5)
Теперь, чтобы для любого обеспечить отрицательность (2.5), достаточно положить , где произвольная положительно определенная матрица. Тогда
При этом (2.6)
Выбрав каким-либо образом , получим Затем аналогично рассчитаем
Общее рекуррентное соотношение имеет вид :
(2.7)
Различные варианты градиентных процедур отличаются друг от друга способом выбора .
Полученное соотношение (2.7) обеспечивает построение последовательности точек , сходящейся к точке , минимизирующей . Понятно, что каждая из точек этой последовательности может рассматриваться как некоторое приближение к точке минимума , положение которого, вообще говоря, остается неизвестным в ходе всей процедуры спуска. Поэтому для всех таких процедур принципиальной остается проблема останова. В вычислительной практике часто используются следующие критерии останова:
(2.8)
(2.9)
где и -некоторые достаточно малые числа .
Понятно, что критерий (2.8) хорош в тех случаях, когда функция в окрестности минимума, используя ранее введенную классификацию, имеет характер «глубокой» впадины. С другой стороны, если функция ведет себя как «пологое плато», то более предпочтительным является критерий (2.9). Аналогом критерия (2.8) является другое часто применяемое правило останова :
, (2.10)
использующее необходимое условие экстремума функции. Очевидным недостатком критериев (2.8)-(2.10) является то, что их качество существенно зависит от абсолютных значений величины и компонентов векторов ,. Более универсальными являются относительные критерии :
(2.11)
(2.12)
(2.13)
Заметим, что очень часто на практике используются составные критерии, представляющие собой линейную комбинацию критериев (2.11)-(2.13), например,
Иногда применяют другой вариант построения составного критерия :
При реализации градиентного метода с дроблением шага в качестве выбирают единичную матрицу, то есть
а длину шага определяют путем проверки некоторого неравенства. При этом основное рекуррентное соотношение (2.7) приобретает вид :
Ясно, то если , выбирать достаточно малым, то это обеспечит убывание , но потребуется весьма большое число шагов. Если же неосторожно выбрать большим , то можно проскочить минимум, а это опасно в связи с возможным осциллированием. Для выбора шага используется правило Голдстейна-Армийо :
а) (2.14)
б) (2.15)
Выполнение условия а) обеспечивает выбор не слишком большим. Выполнение условия б) не дает возможность выбрать слишком малым.
Практическая процедура строится следующим образом. Выбирается начальная точка и некоторое начальное значение , проверяется (2.14) и, если оно выполняется, то делается шаг в направлении В новой точке вычисляется градиент и вновь проверяется условие (2.14). В случае его удовлетворения продвижение к минимуму продолжается с тем же шагом. Если же оно не удовлетворяется, то параметр , определяющий длину шага, делят пополам до тех пор, пока это неравенство не будет выполнено. Затем выполняется очередной шаг. Процедура продолжается до выполнения критерия останова.
3. РЕШЕНИЕ ЗАДАЧИ МИНИМИЗАЦИИ ДЛЯ КАЖДОГО ИЗ МЕТОДОВ
3.1 Метод Нелдера-Мида
Построим симплекс состоящий из 3-х вершин. Длину ребра t возьмем равной 1 .
Начальные координаты симплекса :
Проводим сортировку по значениям функции для поиска точки с наименьшей функцией. Далее записываем симплекс таким образом, чтобы первая точка была лучшей, а каждая последующая - хуже.
Для осуществления оптимизации вычислим новую точку как отражение самой «плохой» вершины относительно центра тяжести симплекса. Формула для вычисления новой точки:
Затем, после сравнения значения функции в новой точке со значениями функции в остальных трех, а также после осуществления одного из четырех действий (замены, сжатия, растяжения и редукции), строится новый симплекс.
Одно из четырех действий, указанных выше, выполняется в соответствии с значением функции в новой точке, по отношению к значению функции в старых точках.
Замена происходит в случае, если новая точка лучше чем лучшая.
Если выполняется условие , то при этом реализуется отражение. Точка заменяет .
При выполнении условия осуществляется сжатие и отыскивается точка :
Параметр принимается равным 0,5. Точка заменяет . Таким образом полученная точка заменяет самую «плохую»
Если новая точка окажется самой «плохой», необходимо осуществить редукцию (уменьшение размера симплекса путем приближения всех его вершин к лучшей вершине)
После выполнения указанных действий проверяется параметр останова. В случае, если он признан большим, чем выбранное значение точности, действия повторяются снова. Параметр останова рассчитывается по формуле :
Результат работы метода представлен в таблице 3.1
Таблица 3.1 - Решение задачи минимизации при помощи метода Нелдера-Мида
Номер итерации |
Х1 |
Х2 |
Функция |
Параметр останова |
|
1 |
0,4066667 |
0,4066667 |
45,631123492267 |
14,5885289 |
|
2 |
0,4433333 |
0,2683333 |
29,870063661634 |
2,8471538 |
|
3 |
0,3141667 |
0,2704167 |
16,456883364840 |
0,8308005 |
|
4 |
0,2495833 |
0,2714583 |
13,667862520021 |
0,3301516 |
|
5 |
0,2194792 |
0,2030729 |
12,662220410942 |
0,1540974 |
|
6 |
0,1796615 |
0,1864974 |
12,281326901893 |
0,0870517 |
|
7 |
0,1546549 |
0,1481608 |
12,136891733007 |
0,0558708 |
|
8 |
0,1284945 |
0,1302889 |
12,072845463097 |
0,0394655 |
|
9 |
0,1094511 |
0,1066526 |
12,044325208099 |
0,0355389 |
|
10 |
0,0380868 |
0,0472725 |
12,032057545239 |
0,0204381 |
|
11 |
0,0107240 |
0,0206094 |
12,021017539213 |
0,0124410 |
|
12 |
0,0217244 |
0,0287886 |
12,011093940034 |
0,0130068 |
|
13 |
-0,0220008 |
-0,0163585 |
12,008732867306 |
0,0089109 |
|
14 |
-0,0274319 |
-0,0235556 |
12,005248404276 |
0,0053110 |
|
15 |
-0,0178584 |
-0,0140681 |
12,003293104515 |
0,0042019 |
|
16 |
-0,0191470 |
-0,0189750 |
12,002069416305 |
0,0030794 |
|
17 |
-0,0146824 |
-0,0154579 |
12,001121615618 |
0,0025320 |
|
18 |
-0,0132441 |
-0,0133520 |
12,000655246493 |
0,0026725 |
|
19 |
-0,0028766 |
-0,0042119 |
12,000504634754 |
0,0015212 |
|
20 |
0,0004344 |
-0,0008739 |
12,000339347268 |
0,0009248 |
|
21 |
-0,0013297 |
-0,0023245 |
12,000183034613 |
0,0009948 |
|
22 |
0,0035282 |
0,0029010 |
12,000137117579 |
0,0007582 |
|
23 |
0,0038607 |
0,0034821 |
12,000078476732 |
0,0004900 |
|
24 |
0,0027293 |
0,0023210 |
12,000050320679 |
0,0004156 |
|
25 |
0,0022628 |
0,0023222 |
12,000031684386 |
0,0002830 |
|
26 |
0,0015804 |
0,0017419 |
12,000017894979 |
0,0002411 |
|
27 |
0,0015265 |
0,0015966 |
12,000009969113 |
0,0002705 |
|
28 |
0,0001079 |
0,0002907 |
12,000008036464 |
0,0001594 |
|
29 |
-0,0002737 |
-0,0001084 |
12,000005403290 |
0,0000921 |
|
В результате решения задачи минимизации с помощью метода Нелдера-Мида получено следующее значение функции : . Данный оптимум достигается в точке . Этот метод позволяет найти минимум (при начальной точке Х (1 ; 1)) за 29 итераций при точности решения . При этом параметр останова равен 0,0000921.
3.2 Градиентный метод с дроблением шага
Для реализации процедуры необходимо вычислить градиент:
В процедуре используется критерий останова, который вычисляется по формуле:
,
где E - заданная точность решения (в данной задаче E=).
Результат работы метода представлен в таблице 3.2
Вследствие того, что таблица содержит 1263 итерации, целесообразно предоставить первые и последние 25 итераций.
Таблица 3.2 - Решение задачи минимизации при помощи градиентного метода
Номер итерации |
Х1 |
Х2 |
Функция |
Параметр останова |
|
1 |
0,992187500 |
0,976562500 |
14,872248322711100 |
5,725771436 |
|
2 |
0,972112596 |
0,966700991 |
14,755778561425900 |
5,391343315 |
|
3 |
0,960252606 |
0,949298075 |
14,647453457158200 |
5,170831157 |
|
4 |
0,944120479 |
0,937143394 |
14,545808827169400 |
4,999364954 |
|
5 |
0,931250704 |
0,922455245 |
14,450015755630300 |
4,851038521 |
|
6 |
0,917052669 |
0,909905567 |
14,359522419103900 |
4,715343849 |
|
7 |
0,904265341 |
0,896648294 |
14,273894939963900 |
4,588117156 |
|
8 |
0,891210499 |
0,884368998 |
14,192768112137200 |
4,467486611 |
|
9 |
0,878869537 |
0,872030350 |
14,115817843495700 |
4,352565782 |
|
10 |
0,866628626 |
0,860230552 |
14,042753034754000 |
4,242801681 |
|
11 |
0,854831609 |
0,848589700 |
13,973308662686200 |
4,137814211 |
|
12 |
0,843250897 |
0,837314037 |
13,907242987828300 |
4,037283606 |
|
13 |
0,832001542 |
0,826261206 |
13,844334505896600 |
3,940936337 |
|
14 |
0,820995553 |
0,815497743 |
13,784380045189000 |
3,848521743 |
|
15 |
0,810266979 |
0,804966957 |
13,727192808899800 |
3,759812059 |
|
16 |
0,799778396 |
0,794686358 |
13,672600853099300 |
3,674595835 |
|
17 |
0,789535800 |
0,784630345 |
13,620445636362400 |
3,592677880 |
|
18 |
0,779520366 |
0,774799711 |
13,570580790710000 |
3,513876598 |
|
19 |
0,769728817 |
0,765180416 |
13,522870992857600 |
3,438023378 |
|
20 |
0,760149472 |
0,755767918 |
13,477190974079800 |
3,364961115 |
|
21 |
0,750776352 |
0,746552749 |
13,433424623226000 |
3,294543452 |
|
22 |
0,741600798 |
0,737528983 |
13,391464187766000 |
3,226633778 |
|
23 |
0,732616368 |
0,728689198 |
13,351209552529500 |
3,161104506 |
|
24 |
0,723815911 |
0,720027406 |
13,312567592195300 |
3,097836320 |
|
25 |
0,715193248 |
0,711537292 |
13,275451586431100 |
3,036717546 |
|
1239 |
0,000042461 |
0,000042461 |
12,000000003605800 |
0,000120097 |
|
1240 |
0,000042129 |
0,000042129 |
12,000000003549700 |
0,000119159 |
|
1241 |
0,000041800 |
0,000041800 |
12,000000003494500 |
0,000118228 |
|
1242 |
0,000041473 |
0,000041473 |
12,000000003440100 |
0,000117304 |
|
1243 |
0,000041149 |
0,000041149 |
12,000000003386500 |
0,000116388 |
|
1244 |
0,000040828 |
0,000040828 |
12,000000003333800 |
0,000115479 |
|
1245 |
0,000040509 |
0,000040509 |
12,000000003281900 |
0,000114576 |
|
1246 |
0,000040192 |
0,000040192 |
12,000000003230900 |
0,000113681 |
|
1247 |
0,000039878 |
0,000039878 |
12,000000003180600 |
0,000112793 |
|
1248 |
0,000039567 |
0,000039567 |
12,000000003131100 |
0,000111912 |
|
1249 |
0,000039258 |
0,000039258 |
12,000000003082300 |
0,000111038 |
|
1250 |
0,000038951 |
0,000038951 |
12,000000003034400 |
0,000110170 |
|
1251 |
0,000038647 |
0,000038647 |
12,000000002987100 |
0,000109309 |
|
1252 |
0,000038345 |
0,000038345 |
12,000000002940600 |
0,000108455 |
|
1253 |
0,000038045 |
0,000038045 |
12,000000002894900 |
0,000107608 |
|
1254 |
0,000037748 |
0,000037748 |
12,000000002849800 |
0,000106767 |
|
1255 |
0,000037453 |
0,000037453 |
12,000000002805500 |
0,000105933 |
|
1256 |
0,000037161 |
0,000037161 |
12,000000002761800 |
0,000105106 |
|
1257 |
0,000036870 |
0,000036870 |
12,000000002718800 |
0,000104285 |
|
1258 |
0,000036582 |
0,000036582 |
12,000000002676500 |
0,000103470 |
|
1259 |
0,000036296 |
0,000036296 |
12,000000002634800 |
0,000102662 |
|
1260 |
0,000036013 |
0,000036013 |
12,000000002593800 |
0,000101860 |
|
1261 |
0,000035731 |
0,000035731 |
12,000000002553500 |
0,000101064 |
|
1262 |
0,000035452 |
0,000035452 |
12,000000002513700 |
0,000100274 |
|
1263 |
0,000035175 |
0,000035175 |
12,000000002474600 |
0,000099491 |
|
В результате реализации градиентного метода минимальное значение функции составляет . Данный оптимум достигнут в точке . Этот метод позволяет найти минимум (при начальной точке Х(1;1) за 1263 итерации при точности решения . При этом параметр останова равен 0,000099491.
4. ГРАФИЧЕСКАЯ ИНТЕРПРИТАЦИЯ РЕШЕНИЯ ЗАДАЧИ
График исследуемой функции имеет вид :
Рисунок 4.1 - График исследуемой функции
Изобразим на рисунке (4.2) линии уровня функции
Рисунок 4.2 - Линии уровня исследуемой функции
Отобразим на графиках линий уровня для каждого из заданных методов траекторию спуска
Рисунок 4.3 - траектория спуска (метод Нелдера-Мида)
Рисунок 4.4 - траектория спуска (градиентный метод)
5. АНАЛИТИЧЕСКОЕ ИССЛЕДОВАНИЕ МЕТОДОВ
Для выявления зависимости числа итераций от заданной точности методы реализованы для каждого значения точности. Результаты представлены в таблицах (5.1-5.6, 5.8-5.13)
Реализация метода Нелдера-Мида :
Таблица 5.1 - Реализация метода Нелдера-Мида при
Номер итерации |
Х1 |
Х2 |
Функция |
Параметр останова |
|
1 |
0,4066667 |
0,4066667 |
45,631123492267 |
14,5885289 |
|
2 |
0,4433333 |
0,2683333 |
29,870063661634 |
2,8471538 |
|
3 |
0,3141667 |
0,2704167 |
16,456883364840 |
0,8308005 |
|
4 |
0,2495833 |
0,2714583 |
13,667862520021 |
0,3301516 |
|
5 |
0,2194792 |
0,2030729 |
12,662220410942 |
0,1540974 |
|
6 |
0,1796615 |
0,1864974 |
12,281326901893 |
0,0870517 |
|
Таблица 5.2 - Реализация метода Нелдера-Мида при
Номер итерации |
Х1 |
Х2 |
Функция |
Параметр останова |
|
1 |
0,4066667 |
0,4066667 |
45,631123492267 |
14,5885289 |
|
2 |
0,4433333 |
0,2683333 |
29,870063661634 |
2,8471538 |
|
3 |
0,3141667 |
0,2704167 |
16,456883364840 |
0,8308005 |
|
4 |
0,2495833 |
0,2714583 |
13,667862520021 |
0,3301516 |
|
5 |
0,2194792 |
0,2030729 |
12,662220410942 |
0,1540974 |
|
6 |
0,1796615 |
0,1864974 |
12,281326901893 |
0,0870517 |
|
7 |
0,1546549 |
0,1481608 |
12,136891733007 |
0,0558708 |
|
8 |
0,1284945 |
0,1302889 |
12,072845463097 |
0,0394655 |
|
9 |
0,1094511 |
0,1066526 |
12,044325208099 |
0,0355389 |
|
10 |
0,0380868 |
0,0472725 |
12,032057545239 |
0,0204381 |
|
11 |
0,0107240 |
0,0206094 |
12,021017539213 |
0,0124410 |
|
12 |
0,0217244 |
0,0287886 |
12,011093940034 |
0,0130068 |
|
13 |
-0,0220008 |
-0,0163585 |
12,008732867306 |
0,0089109 |
|
Таблица 5.3 - Реализация метода Нелдера-Мида при
Номер итерации |
Х1 |
Х2 |
Функция |
Параметр останова |
|
1 |
0,4066667 |
0,4066667 |
45,631123492267 |
14,5885289 |
|
2 |
0,4433333 |
0,2683333 |
29,870063661634 |
2,8471538 |
|
3 |
0,3141667 |
0,2704167 |
16,456883364840 |
0,8308005 |
|
4 |
0,2495833 |
0,2714583 |
13,667862520021 |
0,3301516 |
|
5 |
0,2194792 |
0,2030729 |
12,662220410942 |
0,1540974 |
|
6 |
0,1796615 |
0,1864974 |
12,281326901893 |
0,0870517 |
|
7 |
0,1546549 |
0,1481608 |
12,136891733007 |
0,0558708 |
|
8 |
0,1284945 |
0,1302889 |
12,072845463097 |
0,0394655 |
|
9 |
0,1094511 |
0,1066526 |
12,044325208099 |
0,0355389 |
|
10 |
0,0380868 |
0,0472725 |
12,032057545239 |
0,0204381 |
|
11 |
0,0107240 |
0,0206094 |
12,021017539213 |
0,0124410 |
|
12 |
0,0217244 |
0,0287886 |
12,011093940034 |
0,0130068 |
|
13 |
-0,0220008 |
-0,0163585 |
12,008732867306 |
0,0089109 |
|
14 |
-0,0274319 |
-0,0235556 |
12,005248404276 |
0,0053110 |
|
15 |
-0,0178584 |
-0,0140681 |
12,003293104515 |
0,0042019 |
|
16 |
-0,0191470 |
-0,0189750 |
12,002069416305 |
0,0030794 |
|
17 |
-0,0146824 |
-0,0154579 |
12,001121615618 |
0,0025320 |
|
18 |
-0,0132441 |
-0,0133520 |
12,000655246493 |
0,0026725 |
|
19 |
-0,0028766 |
-0,0042119 |
12,000504634754 |
0,0015212 |
|
20 |
0,0004344 |
-0,0008739 |
12,000339347268 |
0,0009248 |
|
Таблица 5.4 - Реализация метода Нелдера-Мида при
! | Как писать курсовую работу Практические советы по написанию семестровых и курсовых работ. |
! | Схема написания курсовой Из каких частей состоит курсовик. С чего начать и как правильно закончить работу. |
! | Формулировка проблемы Описываем цель курсовой, что анализируем, разрабатываем, какого результата хотим добиться. |
! | План курсовой работы Нумерованным списком описывается порядок и структура будующей работы. |
! | Введение курсовой работы Что пишется в введении, какой объем вводной части? |
! | Задачи курсовой работы Правильно начинать любую работу с постановки задач, описания того что необходимо сделать. |
! | Источники информации Какими источниками следует пользоваться. Почему не стоит доверять бесплатно скачанным работа. |
! | Заключение курсовой работы Подведение итогов проведенных мероприятий, достигнута ли цель, решена ли проблема. |
! | Оригинальность текстов Каким образом можно повысить оригинальность текстов чтобы пройти проверку антиплагиатом. |
! | Оформление курсовика Требования и методические рекомендации по оформлению работы по ГОСТ. |
→ | Разновидности курсовых Какие курсовые бывают в чем их особенности и принципиальные отличия. |
→ | Отличие курсового проекта от работы Чем принципиально отличается по структуре и подходу разработка курсового проекта. |
→ | Типичные недостатки На что чаще всего обращают внимание преподаватели и какие ошибки допускают студенты. |
→ | Защита курсовой работы Как подготовиться к защите курсовой работы и как ее провести. |
→ | Доклад на защиту Как подготовить доклад чтобы он был не скучным, интересным и информативным для преподавателя. |
→ | Оценка курсовой работы Каким образом преподаватели оценивают качества подготовленного курсовика. |
Курсовая работа | Деятельность Движения Харе Кришна в свете трансформационных процессов современности |
Курсовая работа | Маркетинговая деятельность предприятия (на примере ООО СФ "Контакт Плюс") |
Курсовая работа | Политический маркетинг |
Курсовая работа | Создание и внедрение мембранного аппарата |
Курсовая работа | Социальные услуги |
Курсовая работа | Педагогические условия нравственного воспитания младших школьников |
Курсовая работа | Деятельность социального педагога по решению проблемы злоупотребления алкоголем среди школьников |
Курсовая работа | Карибский кризис |
Курсовая работа | Сахарный диабет |
Курсовая работа | Разработка оптимизированных систем аспирации процессов переработки и дробления руд в цехе среднего и мелкого дробления Стойленского ГОКа |