Судебные споры

Время пребывания заявки в очереди. Многоканальная смо с ожиданием

Изложенные выше методы поиска основаны на различных операциях над образцами, составленными из пробных точек. Несмотря на то что в предыдущем подразделе основное внимание было уделено-геометрическому расположению пробных точек, совершенно ясно,. что основная цель построения множества таких точек заключается в определении направления, в котором должен вестись поиск. Расположение пробных точек влияет лишь на чувствительность направления поиска к изменениям топологических свойств целевой функции. В частности, уравнение для вычисления координат отраженной точки

x = x+ λ (x x)

четко устанавливает, что множество отраженных точек описывается. вектором, определяющим некоторое направление в пространстве управляемых переменных. Остальные элементы логической структуры поиска связаны лишь с выбором такой величины шага λ, которая позволяет достигнуть заметного «улучшения» значений целевой функции. Если же главная задача работы с образцом, составленным из пробных точек, состоит в определении направления поиска, то стратегию поиска по симплексу можно усовершенствовать путем непосредственного введения множества векторов, задающих направления поиска. Простейший подход заключается в том, что поиск ведется на основе рекурсивного перебора направлений из произвольно заданного множества. С другой стороны, можно построить стратегию поиска, в рамках которой одно или несколько направлений поиска уточняются на каждой итерации, что позволяет согласовать систему направлений поиска с глобальной топологией целевой функции. Для того чтобы гарантировать возможность проведения поиска по всей рассматриваемой области, в обоих случаях целесообразно наложить требование линейной независимости направлений поиска, которые должны образовывать базис в допустимой области определения f (x ). Например, легко убедиться в том, что нельзя вести поиск оптимума функции трех переменных с использованием двух направлений поиска. Отсюда следует, что все рассматриваемые методы прямого поиска используют по меньшей мере N независимых направлений поиска, где N - размерность вектора х.

Элементарным примером метода, в рамках которого реализуется процедура рекурсивного перебора на множестве направлений поиска, является метод циклического изменения переменных, в соответствии с которым каждый раз меняется только одна переменная. При таком подходе множество направлений поиска выбирается в виде множества координатных направлений в пространстве управляемых переменных задачи. Затем вдоль каждого из координатных направлений последовательно проводится поиск точки оптимума на основе методов решения задач оптимизации с одной переменной. Если целевая функция обладает свойством сферической симметрии, такой поиск обеспечивает получение решения исходной задачи. Однако если линии уровня функции искривлены или растянуты (что весьма часто имеет место в возникающих на практике задачах), то итерации могут превратиться в бесконечную последовательность уменьшаю­щихся шагов и процедура поиска становится неэффективной. Кроме того, как показал Пауэлл , изменение координатных направлений поиска (или направлений поиска из любого заданного множества) в циклическом порядке может не только оказаться неэффективным, но и привести к отсутствию сходимости к точке локального оптимума даже при бесконечном числе итераций.

Конструктивные попытки повышения эффективности этого метода были связаны с тем обстоятельством, что поиск, периодически проводимый в направлении d ( i ) = x ( i ) x ( i -1) позволяет существенно ускорить сходимость. Это обстоятельство было положено в основу модифицированного метода, разработанного Хуком и Дживсом и являющегося одним из первых алгоритмов, в которых при определении нового направления поиска учитывается информация, полученная на предыдущих итерациях. По существу процедура Хука - Дживса представляет собой комбинацию «исследующего» поиска с циклическим изменением переменных и ускоряющегося поиска по образцу с использованием определенных эвристических правил. Исследующий поиск ориентирован на выявление характера локального поведения целевой функции и определение направлений вдоль «оврагов». Полученная в результате исследующего поиска информация затем используется в процессе поиска по образцу при движении по «оврагам».

Исследующий поиск. Для проведения исследующего поиска необходимо задать величину шага, которая может быть различной для разных координатных направлений и изменяться в процессе поиска. Исследующий поиск начинается в некоторой исходной точке. Если значение целевой функции в пробной точке не превышает значения функции в исходной точке, то шаг поиска рассматривается как успешный. В противном случае необходимо вернуться в предыдущую точку и сделать шаг в противоположном направлении с последующей проверкой значения целевой функции. После перебора всех N координат исследующий поиск завершается. Полученную в результате точку называют базовой точкой.

Поиск по образцу. Поиск по образцу заключается в реализации единственного шага из полученной базовой точки вдоль прямой, соединяющей эту точку с предыдущей базовой точкой. Новая точка образца определяется в соответствии с формулой

x
= x + (x x
). (3.24)

Как только движение по образцу не приводит к уменьшению целевой функции, точка x
фиксируется в качестве временной базовой точки и вновь проводится исследующий поиск. Если в результате получается точка с меньшим значением целевой функции, чем в точке x , то она рассматривается как новая базовая точка x
.С другой стороны, если исследующий поиск неудачен, необходимо вернуться в точку x , и провести исследующий поиск с целью выявления нового направления минимизации. В конечном счете возникает ситуация, когда такой поиск не приводит к успеху. В этом случае требуется уменьшить величину шага путем введения некоторого множителя и возобновить исследующий поиск. Поиск завершается, когда величина шага становится достаточно малой. Последовательность точек, получаемую в процессе реализации метода, можно записать в следующем виде:

x текущая базовая точка,

x
предыдущая базовая точка,

x
точка, построенная при движении по образцу,

x
следующая (новая) базовая точка.

Приведенная последовательность характеризует логическую структуру поиска по методу Хука - Дживса.

Метод поиска Хука - Дживса

Шаг 1. Определить:

начальную точку x

приращения ∆,i = l, 2, 3,..., N ,

коэффициент уменьшения шага α > 1,

параметр окончания поиска ε > 0.

Шаг 2. Провести исследующий поиск.

Шаг 3. Был ли исследующий поиск удачным (найдена ли точка с меньшим значением целевой функции)?

Да: перейти к шагу 5.

Нет: продолжать.

Шаг 4. Проверка на окончание поиска. Выполняется ли неравенство || x || < ε?

Да: прекратить поиск; текущая точка аппроксимирует точку оп­тимума х*.

Нет: уменьшить приращения по формуле

∆= ∆/ α, i = 1, 2, 3,…, N ,

Перейти к шагу 2.

Шаг 5. Провести поиск по образцу:

x
= x + (x x
).

Шаг 6. Провести исследующий поиск, используя x
в качестве базовой точки; пусть x ( k +1) - полученная в результате точка.

Шаг 7. Выполняется ли неравенство f (x ( k +1} )< f (x )?

Да: положить x
= x ( k ) , x ( k ) = x
.

Перейти к шагу 5.

Нет: перейти к шагу 4.

Пример 3.3. Поиск по методу Хука - Дживса

Найти точку минимума функции

f (x ) = 8 x + 4 xx+ 5 x,

используя начальную точку х (0) =[4, 4] T .

Решение. Для того чтобы применить метод прямого поиска Хука - Дживса, необходимо задать следующие величины:

x - векторная величина приращения = ,

α - коэффициент уменьшения шага = 2,

ε - параметр окончания поиска - 10 -4 .

Итерации начинаются с исследующего поиска вокруг точки х (0) , которой соответствует значение функции f (х (0)) = 272. Фиксируя x 2 , дадим приращение переменной x :

x= 4

x = 4+1→ f (3, 4) = 200< f (х (0)) → Успех.

Следовательно, необходимо зафиксировать x = 3 и дать прираще­ние переменной х 2:

x = – 3,

x= 4+1→ f (3, 3) = 153< 200 → Успех.

Таким образом, в результате исследующего поиска найдена точка

x = [3, 3] , f (x ) = 153

Поскольку исследующий попек был удачным, переходим к поиску по образцу:

x =x+ ( x х (0)) = [2, 2],

f (x ) = 68

Далее проводится исследующий поиск вокруг точки x который оказывается удачным при использовании положительных приращений переменных x и x. В результате получаем точку

x= [1, 1], f (x) = 17.

Поскольку f (x (2)) < f (x (1)), поиск по образцу следует считать успеш­ным, и х (2) становится новой базовой точкой при следующем проведении поиска по образцу. Итерации продолжаются, пока уменьшение величины шага не укажет на окончание поиска в окрестности точки минимума х * = T . Последовательные шаги реализации метода показаны на рис. 3.7.

Из примера 3.3 следует, что метод Хука - Дживса характеризуется несложной стратегией поиска, относительной простотой вычислений и невысоким уровнем требований к объему памяти ЭВМ, который оказывается даже ниже, чем в случае использования метода поиска по симплексу. Благодаря этому алгоритм Хука - Дживса находит широкое применение во всех областях инженерной практики; особенно эффективны его варианты с использованием штрафных функций, которые рассматриваются в гл. 6. Однако необходимо отметить, что основанный на циклическом движении по координатам алгоритм в ряде случаев может заканчивать работу преждевременно, а при наличии значительных нелинейных эффектов вырождается в последовательность исследующих поисков без перехода к ускоряющемуся поиску по образцу.

Известен целый ряд подходов к усовершенствованию метода Хука - Дживса. В частности, Бендлер и Мак-Дональд модифицировали процедуру Хука - Дживса путем введения дополнительных правил увеличения и уменьшения приращений переменных, а также правила уменьшения шага по образцу, которое применяется в тех случаях, когда обычный шаг оказывается неудачным. Эксперименты, проведенные авторами данной книги, позволили доработать другую фазу реализации алгоритма, которую иногда называют использованием образца. Если движение по образцу приводит к успеху, имеются определенные основания для того, чтобы полностью использовать возможности поиска вдоль прямой, определяемой образцом, или по крайней мере увеличить длину шага по образцу. Такие действия часто позволяют существенно ускорить сходимость метода. Эмери и О"Хаган изменили фазу исследующего поиска путем введения системы ортогональных направлений поиска, ориентация которой случайным образом меняется на каждой итерации. Розенброк разработал метод, в котором, как и в методе Хука - Дживса, новое направление поиска определяется с учетом информации, полученной на предыдущих итерациях. Однако (в отличие от метода Хука-Дживса) подход, предложенный Розенброком, основан на непрерывном изменении множества векторов, используемых при исследующем поиске, с помощью процедуры ортогонализации. Другой метод, изложенный в работе Свенна и иногда называемый методом поиска Дэвиса, Свенна и Кемпи, опирается на стратегию поиска, подобную стратегии Розенброка. При его реализации поиск ведется не с помощью фиксированных шагов по каждому из выбранных направлений, а вдоль каждой прямой, заданной одним из направлений 1) . Каждый из перечисленных методов прямого поиска обладает рядом преимуществ перед остальными при решении задач определенного типа.

f(x) = 8x + 4xx+ 5x

Метод Хука-Дживса был разработан в 1961 году, но до сих пор является весьма эффективным и оригинальным. Поиск состоит из последовательности шагов исследующего поиска вокруг базисной точки, за которой в случае успеха следует поиск по образцу. Он применяется для решения задачи минимизирования функции без учета ограничений

Описание этой процедуры представлено ниже:

А. Выбрать начальную базисную точку b 1 и шаг длиной h 1 для каждой переменной x j , j = 1, 2,…, n. В приведенной ниже программе для каждой переменной используется шаг h , однако указанная выше модификация тоже может оказаться полезной

Б. Вычислить f (х) в базисной точке b 1 с целью получения сведений о локальном поведении функции f (x). Эти сведения будут использоваться для нахождения подходящего направления поиска по образцу, с помощью которого можно надеяться достичь большего убывания значения функции. Функция f (x) в базисной точке b 1 , находится следующим образом:

  • 1. Вычисляется значение функции f (b 1) в базисной точке b 1
  • 2. Каждая переменная по очереди изменяется прибавлением длины шага. Таким образом, мы вычисляем значение функции f (b 1 +h 1 e 1), где e 1 - единичный вектор в направлении оси x 1 . Если это приводит к уменьшению значения функции, то b 1 заменяется на b 1 +h 1 e 1 . В противном случае вычисляется значение функции f (b 1 -h 1 e 1), и если ее значение уменьшилось, то b 1 заменяем на b 1 -h 1 e 1 . Если ни один из проделанных шагов не приводит к уменьшению значения функции, то точка b 1 остается неизменной и рассматриваются изменения в направлении оси х 2, т. е. находится значение функции f (b 1 +h 2 e 2) и т. д. Когда будут рассмотрены все n переменные, мы будем иметь новую базисную точку b 2
  • 3. Если b 2 =b 1 , т. е. уменьшение функции не было достигнуто, то исследование повторяется вокруг той же базисной точки b 1 , но с уменьшенной длиной шага. На практике удовлетворительным является уменьшение шага (шагов) в десять раз от начальной длины
  • 4. Если b 2 b 1 , то производится поиск по образцу

В. При поиске по образцу используется информация, полученная в процессе исследования, и минимизация функции завершается поиском в направлении, заданном образцом. Эта процедура производится следующим образом:

Разумно двигаться из базисной точки b 2 в направлении b 2 -b 1 , поскольку поиск в этом направлении уже привел к уменьшению значения функции. Поэтому вычислим функцию в точке образца

P 1 =b 1 +2(b 2 -b 1)

В общем случае

P i =b i +2(b i+1 -b i)

  • 2. Затем исследование следует продолжать вокруг точки Р 1 (Р i)
  • 3. Если наименьшее значение на шаге В, 2 меньше значения в базисной точке b 2 (в общем случае b i+1), то получают новую базисную точку b 3 (b i+2), после чего следует повторить шаг В, 1. В противном случае не производить поиск по образцу из точки b 2 (b i+1), а продолжить исследования в точке b 2 (b i+1)

Г. Завершить этот процесс, когда длина шага (длины шагов) будет уменьшена до заданного малого значения.

Модифицированный метод Хука-Дживса

Этот метод нетрудно модифицировать и для учета ограничений. Было выдвинуто предложение, что для этого будет вполне достаточно при решении задачи минимизации присвоить целевой функции очень большое значение там, где ограничения нарушаются. К тому же такую идею просто реализовать с помощью программирования.

Нужно проверить, каждая ли точка, полученная в процессе поиска, принадлежит области ограничений. Если каждая, то целевая функция вычисляется обычным путем. Если нет, то целевой функции присваивается очень большое значение. Таким образом, поиск будет осуществляться снова в допустимой области в направлении к минимальной точке внутри этой области.

В тексте программы модифицированного метода прямого поиска Хука-Дживса сделана попытка реализовать такую процедуру. Рассматриваемая задача формулируется следующим образом:

минимизировать f (x 1 ,x 2) = 3x 1 2 +4x 1 x 2 +5x 2 2 ,


Текст программы

program HuDjMody;

  • (*** Модифицированный метод Хука-Дживса ***)
  • (*** (при наличии ограничений) ***)

label 0,1,2,3,4,5,6,7;

var k,h,z,ps,bs,fb,fi:real;

i,j,n,fe:integer;

x,y,b,p:array of real;

(*** Процедура,вычисляющая функцию ***)

procedure calculate;

z:=3*sqr(x)+(4*x*x)+(5*sqr(x));

if (x<0) or (x<0) or ((x+x)<4) then

fe:=fe+1; (*** Счетчик ***)

writeln("Модифицированный метод Хука-Дживса");

writeln("(при наличии ограничений)");

writeln("Введите число переменных:");

writeln("Введите начальную точку x1,x2,…,xN");

for i:=1 to n do

writeln("Введите длину шага");

for i:=1 to n do

writeln("Начальное значение функции", z:2:3);

for i:=1 to n do

writeln(x[i]:2:3);

(*** Исследование вокруг базисной точки ***)

0: x[j]:=y[j]+k;

if z

if z

  • 1: y[j]:=x[j];
  • 2: calculate;

writeln("Пробный шаг"," ", z:2:3);

for i:=1 to n do

writeln(x[i]:2:3);

if j=n then goto 3;

  • 3: if fi
  • (*** После оператора 3,если функция не уменьшилась, ***)
  • (*** произвести поиск по образцу ***)

if (ps=1) and (bs=0) then

  • (*** Но если исследование производилось вокруг точки ***)
  • (*** шаблона PT,и уменьшение функции не было достигнуто,***)
  • (*** то изменить базисную точку в операторе 4: ***)
  • (*** в противном случае уменьшить длину шага в операторе***)
  • (*** 5: ***)

4: for i:=1 to n do

writeln("Замена базисной точки"," ",z:2:3);

for i:=1 to n do

writeln(x[i]:1:3);

  • (*** (следует за последним комментарием) ***)
  • (*** и провести исследование вокруг новой базисной точки ***)

writeln("Уменьшить длину шага");

if k<1e-08 then goto 7;

  • (*** Если поиск незакончен,то произвести новое ***)
  • (*** исследование вокруг новой базисной точки ***)
  • (*** Поиск по образцу ***)
  • 6: for i:=1 to n do

p[i]:=2*y[i]-b[i];

writeln("Поиск по образцу"," ",z:2:3);

for i:=1 to n do

writeln(x[i]:2:3);

  • (*** После этого произвести исследование вокруг ***)
  • (*** последней точки образца ***)

7: writeln("Минимум найден");

for i:=1 to n do

writeln("x(",i,")=",p[i]:2:3);

writeln("Минимум функции равен"," ",fb:2:3);

writeln("Количество вычислений функции равно"," ",fe);

repeat until keypressed;

Приведенная выше программа реализует описанную процедуру. Одной или двух точек бывает недостаточно для определения начальной точки. Первая точка всегда должна выбираться осмотрительно. ЭВМ работает только с ограниченной точностью, и ошибки могут накапливаться в процессе сложных вычислений, особенно если шаг имеет “неудобную” длину. (Обычно мы будем избегать “неудобной” длины, но программа должна быть работоспособна и в таких ситуациях.) Поэтому в строке, где выясняется вопрос об изменении базисной точки, мы избегаем уменьшения длины шага из-за накапливания ошибки введением длины шага, равной. Мы отслеживаем, где производится исследование - в базисной точке (В5 = 1, Р5 = 0) или в точке образца (В5 = 0, Р5 = 1). Как можно убедиться на практике, если не принимаются такие меры предосторожности даже программа с удовлетворительной логикой будет неработоспособна.

В приведенной программе минимальная длина шага равна, но она может быть изменена. Для контроля за выполнением процедуры в программу введена печать промежуточных результатов. Для увеличения скорости счета могут быть удалены строки вывода подсказок и пояснений

Процедура calculate вычисляет значение минимизируемой функции, в нашем случае: f (x 1 ,x 2) = 3x 1 2 +4x 1 x 2 +5x 2 2 ,

при ограничениях x 1 x 2 x 1 +x 2

Минимум, равный 44, достигается в точке (3;1) при ограничении x 1 +x 2 =4

Для начальной точки (4;3) и при длине шага, равной единице, программой успешно решена задача минимизации

Ниже приведена распечатка результата работы программы:

Введите число переменных

Введите длину шага

Начальное значение функции 141.000

  • 4.000
  • 3.000

Пробный шаг 108.000

  • 3.000
  • 3.000

Пробный шаг 71.000

  • 3.000
  • 2.000
  • 2.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Поиск по образцу 1.70000000000001566Е+0038

  • 3.000
  • 0.000

Пробный шаг 48.000

  • 4.000
  • 0.000

Пробный шаг 48.000

  • 4.000
  • 0.000

Замена базисной точки 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Минимум найден

Минимум функции равен 44.000

Количество вычислений равно 74

Для начальной точки (3;4) и длины шага, равной единице, программой также успешно решена задача минимизации

Для начальной точки (5;6) и длины шага, равной единице, задача не решена, т.к. программа остановилась в точке (1;3), т.е. на активном ограничении, и выдала неверный результат

Распечатка результата работы программы приведена ниже:

Модифицированный метод Хука-Дживса (при наличии ограничений)

Введите число переменных

Введите начальную точку х1,х2,…,хN

Введите длину шага

Начальное значение функции 375.000

  • 5.000
  • 6.000

Пробный шаг 324.000

  • 4.000
  • 6.000

Пробный шаг 253.000

  • 4.000
  • 5.000

Поиск по образцу 155.000

  • 3.000
  • 4.000

Пробный шаг 124.000

  • 2.000
  • 4.000

Пробный шаг 81.000

  • 2.000
  • 3.000

Поиск по образцу 1.70000000000001566Е+0038

  • 0.000
  • 1.000
  • 0.000
  • 1.000

Пробный шаг 1.70000000000001566Е+0038

  • 0.000
  • 1.000

Замена базисной точки 81.000

  • 2.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Поиск по образцу 1.70000000000001566Е+0038

  • 0.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Замена базисной точки 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Минимум найден

Минимум функции равен 60.000

Количество вычислений равно 89

Аналогичные неутешительные результаты были получены для начальной точки (5;6) и длины шага, равной 0.5.Неверное решение было найдено в точке (1.5;2.5). Для начальной точки (4;3) и длины шага, равной 0.5,программа работала нормально, но было получено неверное решение в точке (2.5;1.5)

Проблема понятна. С помощью данного метода невозможно двигаться вдоль границы области ограничений и сходимость достигается в первой же точке границы, где и находится решение. Общая задача оптимизации при наличии ограничений очень сложна и для получения практического метода решения требуются более изощренные процедуры, чем приведенная выше.

Введение

В науке существует большое количество методов, с помощью которых определяются те или иные свойства и параметры функций. Эти методы постоянно совершенствовались, уточнялись, получали новое применение.

В этой работе пойдет речь об одном из методов, так называемого, прямого поиска. Это - метод Хука-Дживса. Он применяется для определения минимума функций и переменных. Этот метод, созданный в середине двадцатого столетия применяется и сейчас, так как очень хорошо себя зарекомендовал.

Целю данной работы, является освещения концепций метода Хука-Дживса.

Основными задачами, подлежащими рассмотрению в связи с поставленной целью являются:

  • - объяснить в чем состоит суть метода Хука-Дживса;
  • - показать его отличие от других методов данного типа;
  • - рассмотреть алгоритм работы метода;
  • - пояснить этапы выполнения метода;
  • - уточнить в чем состоит модификация данного метода;
  • - наглядно продемонстрировать работу метода с помощью блок-схем.

Актуальность данной работы заключается в конкретизации и резюмированию знаний об этом методе.

хук дживс функция минимизирование

Метод Хука-Дживса

На разработку методов прямого поиска для определения минимума функций и переменных было затрачено много усилий. Методы прямого поиска являются методами, в которых используются только значения функции. Мы рассмотрим подробно лишь один из них. Практика показала, что этот метод эффективен и применим для широкого числа приложений. Рассмотрим функцию двух переменных.

Минимум лежит в точке (x 1 * ,x 2 *). Простейшим методом поиска является метод покоординатного спуска. Из точки А мы производим поиск минимума вдоль направления оси и, таким образом, находим точку В, в которой касательная к линии постоянного уровня параллельна оси. Затем, производя поиск из точки В направлении оси, получаем точку С, производя поиск параллельно оси, получаем точку D, и т. д. Таким образом, мы приходим к оптимальной точке. Очевидным образом эту идею можно применить для функций n-переменных.

Теоретически данный метод эффективен в случае единственного минимума функции. Но на практике он оказывается слишком медленным. Поэтому были разработаны более сложные методы, использующие больше информации на основании уже полученных значений функции.

Метод Хука-Дживса был разработан в 1961 году, но до сих пор является весьма эффективным и оригинальным. Поиск состоит из последовательности шагов исследующего поиска вокруг базисной точки, за которой в случае успеха следует поиск по образцу. Он применяется для решения задачи минимизирования функции без учета ограничений.

Описание этой процедуры представлено ниже:

А . Выбрать начальную базисную точку b 1 и шаг длиной h 1 для каждой переменной x j , j = 1, 2,…, n. В приведенной ниже программе для каждой переменной используется шаг h , однако указанная выше модификация тоже может оказаться полезной.

Б . Вычислить f (х) в базисной точке b 1 с целью получения сведений о локальном поведении функции f (x). Эти сведения будут использоваться для нахождения подходящего направления поиска по образцу, с помощью которого можно надеяться достичь большего убывания значения функции. Функция f (x) в базисной точке b 1 , находится следующим образом:

  • 1. Вычисляется значение функции f (b 1) в базисной точке b 1 .
  • 2. Каждая переменная по очереди изменяется прибавлением длины шага. Таким образом, мы вычисляем значение функции f (b 1 +h 1 e 1), где e 1 - единичный вектор в направлении оси x 1 . Если это приводит к уменьшению значения функции, то b 1 заменяется на b 1 +h 1 e 1 . В противном случае вычисляется значение функции f (b 1 -h- 1 e 1), и если ее значение уменьшилось, то b 1 заменяем на b 1 -h 1 e 1 . Если ни один из проделанных шагов не приводит к уменьшению значения функции, то точка b- 1 остается неизменной и рассматриваются изменения в направлении оси х 2 , т. е. находится значение функции f (b 1 +h 2 e 2) и т. д. Когда будут рассмотрены все n переменные, мы будем иметь новую базисную точку b 2 .
  • 3. Если b 2 =b 1 , т. е. уменьшение функции не было достигнуто, то исследование повторяется вокруг той же базисной точки b 1 , но с уменьшенной длиной шага. На практике удовлетворительным является уменьшение шага (шагов) в десять раз от начальной длины.
  • 4. Если b 2 b 1 , то производится поиск по образцу.

В . При поиске по образцу используется информация, полученная в процессе исследования, и минимизация функции завершается поиском в направлении, заданном образцом. Эта процедура производится следующим образом:

1. Разумно двигаться из базисной точки b2 в направлении b2-b-1, поскольку поиск в этом направлении уже привел к уменьшению значения функции. Поэтому вычислим функцию в точке образца

P 1 =b 1 +2(b 2 -b 1).

В общем случае

P i =b i +2(b i+1 -b i).

  • 2. Затем исследование следует продолжать вокруг точки Р 1 (Р i) .
  • 3. Если наименьшее значение на шаге В, 2 меньше значения в базисной точке b 2 (в общем случае b i+1), то получают новую базисную точку b 3 (b i+2), после чего следует повторить шаг В, 1. В противном случае не производить поиск по образцу из точки b 2 (b i+1), а продолжить исследования в точке b 2 (b i+1).

Г . Завершить этот процесс, когда длина шага (длины шагов) будет уменьшена до заданного малого значения.

1) Методы Розенброка и Дэвиса, Свенна, Кемпи более подробно изложены в книге Химмельблау , переведенной на русский язык,- Прим. Перев

Вместе с тем вопрос о том, являются ли дополнительные усложнения метода Хука - Дживса оправданными, по-видимому, остается открытым. Если же существует возможность реализовать более сложный алгоритм, то предпочтение следует отдать методу Пауэлла, превосходство которого над рассмотренными выше эвристическими методами несомненно.

3.2.3. Метод сопряженных направлений Пауэлла

Наиболее эффективным из алгоритмов прямого поиска является метод, разработанный Пауэллом , в особенности его модифици­рованные варианты, предложенные Зангвиллом и Брентой . При работе этого алгоритма информация, полученная на предыдущих итерациях, используется для построения векторов направлений поиска, а также для устранения зацикливания последовательности координатных поисков. Метод ориентирован на решение задач с квадратичными целевыми функциями и основывается на фундаментальных теоретических результатах.

Задачи с квадратичными целевыми функциями занимают важное место в теории оптимизации по двум причинам.

    Квадратичная функция представляет простейший тип нелинейных функций, для которых может быть сформулирована задача безусловной оптимизации (линейные функции не обладают внутренними оптимумами). Следовательно, если с помощью того или иного метода успешно решаются задачи оптимизации с целевыми функциями общего вида, то такой метод должен оказаться эффективным при решении задач с квадратичными функциями.

    В окрестности точки оптимума любую нелинейную функцию можно аппроксимировать квадратичной функцией (поскольку линейный член разложения Тейлора обращается в нуль). Следовательно, работа алгоритма при решении задач с квадратичными функциями позволяет получить определенное представление о сходимости алгоритма в случае, когда минимизируется функция общего вида.

Основная идея алгоритма заключается в том, что если квадратичная функция N переменных приведена к виду суммы полных квадратов, то ее оптимум может быть найден в результате реализации N одномерных поисков по преобразованным координатным на­правлениям.

Процедура преобразования квадратичной функции

q (x ) = a + bx + ½ xC x (3.25)

к виду суммы полных.квадратов эквивалентна нахождению такой матрицы преобразования Т , которая приводит матрицу квадратич­ной формы к диагональному виду. Таким образом, заданная квадратичная форма

Q (x ) = xC x (3.26)

путем преобразования

x = T z (3.27)

приводится к виду

Q (x ) = zTC T z = zD z (3.28)

где D - диагональная матрица, т. е. элементы D отличны от нуля только при i = j

f(x) = 4x+ 3x- 4xx+ x

Рис. 3.8. Линии уровня квадратичной функции с перекрёстными членами.

Пусть t - j -й столбец матрицы Т . Тогда преобразование (3.27) позволяет записать каждый вектор х в виде линейной комбинации вектор-столбцов t.

x = T z = t z + tz+…+ tz . (3.29)

Другими словами, вместо координат вектора х в стандартной коор­динатной системе, определяемой множеством векторов e ( i ) , используются координаты вектора в новой координатной системе, заданной векторами t. Кроме того, система векторов t соответствует главным осям рассматриваемой квадратичной формы, поскольку матрица квадратичной формы приводится к диагональному виду. Такая ситуация возникает, если квадратичную функцию с перекрестными членами, линии уровня которой изображены на рис. 3.8, записать в новой координатной системе, оси которой совпадают с большой и малой осями квадратичной функции (см. рис. 3.9).

Итак, с помощью преобразования переменных квадратичной функции строится новая система координат, совпадающих с главными осями квадратичной функции. Следовательно, одномерный поиск точки оптимума в пространстве преобразованных переменных z эквивалентен поиску вдоль каждой из главных осей квадратичной функции. Так как направления главных осей определяются векторами t одномерный поиск проводится в направлениях, заданных этими векторами. Проиллюстрируем вышеизложенное примером.

f(x) = 4x+ 2x+ x+x

Рис. 3.9. Линии уровня квадратичной функции без перекрёстных членов

Пример 3.4. Преобразование к виду суммы квадратов

Рассмотрим функцию

f (x ) = 4 x+ 3x 4xx+ x

и преобразование

x = z + ½ z, x= z,

Преобразованная квадратичная функция принимает следующий вид:

f (z )= 4 z+ 2 z+ z + ½ z.

Заметим, что это преобразование не является единственным, поскольку система векторов t не удовлетворяет условию ортонормированности. В частности, нетрудно проверить, что преобразование

также приводит матрицу квадратичной формы к диагональному, виду. Задавая начальную точку x = и два столбца матрицы преобразования

t = , t = [½, 1],

можно найти точку оптимума [,] T в результате проведения двух последовательных поисков в направлениях t и t Поиск в направлении t по формуле

x= x+ λt

позволяет получить значение λ = и точку х (1) = [, 0]. Далее из точки х (1) проводится поиск в направлении t 2 . Получаем значение λ = и решение х (2) = [,] T .

Из рассмотренного примера и предыдущего изложения следует, что если система векторов t, j = 1,...,N , или система сопряженных направлений, построена, то точку оптимума квадратичной функции можно найти в результате реализации в точности N одномерных поисков, которые проводятся вдоль каждого из N направлений t, j = 1,...,N . Таким образом, нерешенными остаются лишь вопросы, связанные с построением системы векторов t. Если матрица С известна, то матрицу преобразования Т можно найти с помощью метода Гаусса - Жордана (как это выполнено в приложении А). Метод Гаусса - Жордана позволяет представить матрицу С в виде произведения

C = P T DP , откуда (3.30)

(P )C (P ) = D и T = P (3.31)

Однако матрица С (или ее оценка) в данном случае неизвестна, по­скольку речь идет о построении метода решения задач безусловной оптимизации с целевой функцией f (x ), при реализации которого используются только значения функции и не используются значе­ния первых и тем более вторых производных. Тем не менее и в этом случае можно определить систему сопряженных направлений на основе следующего элементарного свойства квадратичных функ­ций.

Свойство параллельного подпространства

Пусть заданы квадратичная функция q (x ), две произвольные не­совпадающие точки x (1) и х (2) , а также направление d . Если точка y (1) минимизирует q (x (1) d ), a точка y (2) минимизирует q (x (1) + λ d ), то направление (y (2) - y (1)) сопряжено с d .

Рис. 3.10 иллюстрирует сформулированное свойство для случая двух переменных. Нетрудно видеть, что поиск, проводимый из точки y (1) или y (2) в направлении (y (2) - y (1)), обеспечивает получение точки минимума. Таким образом, в случае двух переменных реализация трех одномерных поисков позволяет построить систему сопряженных направлений и, кроме того, найти точку оптимума квадратичной функции. Прежде чем продолжать алгоритмические построения, докажем теорему о свойстве параллельного подпространства.

Рис. 3.10. Сопряженные направления на плоскости.

Напомним, что по определению С -сопряженные направления задаются системой вектор-столбцов матрицы Т , которая приводит матрицу С к диагональному виду:

ТC Т = D (3.32)

Поскольку все внедиагональные элементыD равны нулю, отсюда следует, что

(3.33)

где t - i -й столбец матрицы Т. Таким образом, мы получили возможность дать более удобное, эквивалентное и, по-видимому, более конструктивное определение сопряженности направлений.

Сопряженные направления

Пусть С - симметрическая матрица порядка NN ; направления s (1) , s (2) , s (3) ,..., s, r ≤ N , называются С -сопряженными, если эти направления линейно независимы и

s
C s= для всех i j . (3.34)

Опять обратимся к квадратичной функции общего вида

q(x ) = a + b T x+( 1 / t )x T C x.

Точки прямой, исходящей из х (1) в направлении d , задаются формулой

x = x+ λd .

Минимум q (x ) вдоль направления d определяется путем нахождения значения λ*, при котором q / λ=0. Вычислим эту производную по правилу дифференцирования сложной функции:

= =b+ xC d . (3.35)

По предположению теоремы минимум достигается в точке y (1) следовательно,

[(y (1))C b ] d = 0. (3.36)

Аналогично, так как минимум q (x ) при движении из точки х (2) в направлении d достигается в точке y (2) имеем

[(y (2))C b ] d = 0. (3.37)

Вычитая (3.36) из (3.37), получаем

(y (2) - y (1))C d = 0 (3.38)

В соответствии с данным выше определением направления d и (y (2) - y (1)) оказываются С -сопряженными, и свойство параллельного подпространства для квадратичных функций доказано.

Пример 3.5. Минимизация на основе свойства параллельного подпространства.

Опять рассмотрим квадратичную функцию q (x ) = 4 x+ 3 x - 4 xx+ x . Пусть заданы две точки х (1) = ,х (2) = и направлениеd = T . Первый поиск проводится вдоль прямой

x =

и приводит к точке y (1) = [-,-](λ*= -). Второй поиск проводится вдоль прямой

x =

и позволяет получить точку y (2) = [,](λ*=). Согласно свойству параллельного подпространства, направление

y (2) y (1) = [,] [,]= [,]

сопряжено с d = T

C [,].

Выше отмечалось, что в случае двух переменных оптимум q (x ) можно найти путем проведения поиска вдоль прямой, заданной направлением (y (2) y (1)). Этот факт нетрудно проверить, поскольку минимум q (x ) вдоль прямой

x = [,]+λ [,]

достигается в точке х* = [,] T (λ* = ), которая сов­падает с полученным ранее решением.

В рассмотренных выше построениях для того, чтобы определить сопряженное направление, требовалось задать две точки и некоторое направление. Это не слишком удобно при проведении расчетов, поэтому предпочтительнее строить систему сопряженных направлений, исходя из одной начальной точки, что легко осуществить при помощи единичных координатных векторов е (1) , е (2) , е (3) ,..., е (N) . (Здесь рассматривается процедура построения сопряженных на­правлений в случае двух переменных, которая допускает очевидное обобщение для N-мерного пространства.) Пусть е (1) = ие (2) = . При заданной начальной точкех (0) вычислим значение λ (0) , которому соответствует минимум f (х (0) + λ (0) е (1)).

x (1) = х (0) + λ (0) е (1) .

и вычислим значение λ (1) , которому соответствует минимум f (х (1) + λ (1) е (2)). Положим

x (2) = х (1) + λ (1) е (2) .

x (3) = х (2) + λ (2) е (1) .

При этом направления (х (3) – х (1)) и е (1) оказываются сопряженными. Для того чтобы убедиться в этом, рассмотрим рис. 3.11. Заметим, что точка х х (0) в направление е (1) , а точка х (3) получена при поиске из точки х (2) в направлении е (1) . Следовательно, направление е (1) и (х (3) – х (1)) являются сопряжёнными согласно свойству параллельного подпространства. Далее если на следующей итерации провести поиск в направлении (x (3) x (1)), то процедура поиска будет охватывать два сопряженных направления, и поскольку f (x ) предполагается квадратичной функцией двух переменных, в результате будет найдено решение х* .

Проведенное на основе свойства параллельного подпространства построение рассмотрено для случая, когда число сопряженных направлений равняется двум. Однако это построение естественным образом обобщается на случай задач более высокой размерности

В частности, нетрудно показать, что если точка y (1) найдена в результате поиска из точки х (1) вдоль каждого из М (< N ) сопряженных направлений, а точка y (2) получена в результате поиска из точки х (2) вдоль каждого из тех же М сопряженных направлений s (1) , s (2) , s (3) ,..., s ( M ) то вектор (y (2) y (1)) задает направление, сопряженное со всеми выбранными М направлениями. Это утверждение известно как обобщенное свойство параллельного подпространства. Используя указанное свойство, можно обобщить метод построения сопряженных направлений, последовательные шаги реализации которого отражены на рис. 3.11 на случай пространства управляемых переменных более высокой размерности. Рис. 3.12 иллюстрирует построение сопряженных направлений в трехмерном пространстве.

Как показано на рис. 3.12, сначала поиск осуществляется вдоль трех координатных направлений е (1) , е (2) и е (3) затем эти направления последовательно заменяются вновь построенными сопряженными направлениями. Серия одномерных поисков из точки x (0) проводится в направлении е (3) , затем е (1) , е (2) и снова е (3) ; в результате построены сопряженные направления е (3) и (x (4) x (1)). Направление е (1) заменяется новым направлением поиска, которое на рис. 3.12 обозначено цифрой 4 . Следующая серия поисков проводится в направлении 4 , затем е (2) , е (3) и снова 4 . Согласно обобщенному свойству параллельного подпространства, новое направление (x (8) x (5)), обозначенное на рисунке цифрой 5 , сопряжено не только с 4 , но и с е (3) . Следовательно, направления е (3) , (x (4) x (1)) и (x (8) x (5)) образуют систему взаимно сопряженных направлений.

Рис. 3.11. Построение сопряженных направлений из одной точки.

Поэтому если провести дополнительный поиск из точки x (5) в направлении (x (8) x (5)) (т. е. в направлении 5 на рисунке), то будет найдена точка x (9) , в которой должен достигаться оптимум квадратичной функции трех переменных f (x ) , поскольку поиск последовательно осуществляется в трех взаимно сопряженных направлениях. Таким образом, в трехмерном случае для нахождения точного (если, разумеется, оперировать недесятичными дробями) оптимума квадратичной функции требуется провести девять поисков вдоль прямой с использованием только значений функции. Алгоритм легко обобщается и в случае N -мерного пространства требует проведения последовательности N одномерных поисков, которая приводит к получению точки оптимума квадратичной функции. Ниже представлены шаги обобщенного алгоритма.

Рис. 3.12. Построение сопряженных направлений в трехмерном пространстве.

Метод сопряженных направлений Пауэлла

Шаг 1. Задать начальную точку х (0) и систему N линейно независимых направлений; возможен случай, когда s ( i ) = e ( i ) i = 1, 2, 3,..., N.

Шаг 2. Минимизировать f (x ) при последовательном движении по (N +1) направлениям; при этом полученная ранее точка минимума берется в качестве исходной, а направление s ( N ) используется как при первом, так и последнем поиске.

Шаг 3. Определить новое сопряженное направление с помощью обобщенного свойства параллельного подпространства.

Ш а г 4. Заменить s (l) на s (2) и т. д. Заменить s ( N ) сопряженным направлением. Перейти к шагу 2.

Для того чтобы применить изложенный метод на практике, его необходимо дополнить процедурами проверки сходимости и линей­ной независимости системы направлений. Проверка линейной неза­висимости особенно важна в тех случаях, когда функция f (x ) не является квадратичной .

Из способа построения алгоритма следует, что в случае, когда целевая функция квадратична и обладает минимумом, точка минимума находится в результате реализации N циклов, включающих шаги 2, 3 и 4, где N - количество переменных. Если же функция не является квадратичной, то требуется более чем N циклов. Вместе с тем можно дать строгое доказательство того, что при некотором предположении метод Пауэлла сходится к точке локального мини­мума с суперлинейной скоростью (см. данное ниже определение).

Скорость сходимости. Рассматриваемый метод позволяет построить последовательность точек х ( k ) , которая сходится к решению x *. Метод называется сходящимся, если неравенство

≤1, где (3.39)

= x – х* , (3.40)

выполняется на каждой итерации. Поскольку при расчетах обычно оперируют конечными десятичными дробями, даже самый эффективный алгоритм требует проведения бесконечной последовательности итераций. Поэтому в первую очередь интерес представляют асимпто­тические свойства сходимости изучаемых методов. Будем говорить, что алгоритм обладает сходимостью порядка r (см. ), если

, (3.41)

где С - постоянная величина. Из формулы (3.39) следует, что при r = 1 имеет место неравенство С ≤ 1. Если r = 1 или r = 2, то алгоритм характеризуется линейной или квадратичной скоростью сходимости соответственно. При r = 1 и С = 0 алгоритм характеризуется суперлинейной скоростью сходимости.

Пример 3.6. Метод сопряженных направлений Пауэлла

Найти точку минимума функции

f (x ) = 2 x + 4 xx 10 x x+ x,

если задана начальная точка х (0) = T , в которой f (x (0)) = 314.

Шаг 1. s (1) = T , s (2) = T .

Шаг 2. (а) Найдем такое значение λ, при котором

f (x (0) + λs (2)) → min.

Получим: λ* - 0,81, откуда

x (l) = T - 0,81 T = T , f (x (l)) = 250.

(б) Найдем такое значение λ, при котором f (x (1) + λs (1)) → min.

λ* = – 3,26, x (2) = T , f (x (2)) = 1.10.

(в) Найдем такое значение λ, при котором f (x (2) + λs (2)) → min.

λ* = – 0.098, x (3) = T , f (x (3)) = 0.72.

Шаг 3. Положим s (3) = х (3) - x (1) = [-3.26,-0.098] T . После нормировки получим

s (3) = = [0,99955, 0,03] T .

Положим s (1) = s (2) , s (2) = s (3) и перейдем к шагу 2 алгоритма.

Шаг 4. Найдем такое значение λ, при котором f (x (3) + λs (2)) → min.

λ* = – 0.734, x (4) = T , f (x (4)) = 2,86.

Примечание. Если бы f (x ) была квадратичной функцией, то полученная точка являлась бы решением задачи (если пренебречь ошибкой округления). В данном случае итерации следует продолжить до получения решения.

Направления поиска, полученные в процессе реализации метода, показаны на рис. 3.13.

Результаты вычислительных экспериментов позволяют утверж­дать, что метод Пауэлла (дополненный процедурой проверки линейной зависимости направлений) отличается по меньшей мере столь же высокой надежностью, как и другие методы прямого поиска, и в ряде случаев является значительно более эффективным. Поэтому проблема выбора алгоритма прямого поиска часто (и обоснованно) разрешается в пользу метода Пауэлла.

Здесь заканчивается рассмотрение методов прямого поиска решений в задачах безусловной оптимизации. В следующем разделе описываются методы, основанные на использовании производных.

Метод Хука-Дживса - это комбинация исследующего поиска с циклическим изменением переменных и ускоряющего поиска по образцу. Схематично стратегия поиска изображена на рис. 3.7.

Данный метод является аналогом метода циклического покоординатного спуска с изменяющимся шагом.

В 1961 году Хук и Дживс придумали эвристический метод «-мерного прямого поиска, но он до сих пор является весьма эффективным, оригинальным и популярным.

Суть метода такова:

Исследующий поиск

Вначале для выбора базовой точки исследуется окрестность х = {х,х 2 ,...,х„}по различным координатам вектора х (может быть с различным шагом). После того как выбрано приемлемое направление (фиксируется новая базовая точка), осуществляется переход к этапу 2. Если значение целевой функции/(х) увеличилось, то необходимо вернуться в предыдущую точку и сделать половинный шаг.

Установление конфигураций (поиск по образцу)

Из базовой точки в приемлемом направлении делается большой шаг, и шаг увеличивается в этом направлении до тех пор, пока целевая функция уменьшается. Когда функция перестанет уменьшаться, то от принятой конфигурации необходимо отказаться и размер шага уменьшить. Производится новое обследование окрестности. Таким образом, делается попытка поиска оврага целевой функции, а затем движение по этому оврагу. Поиск по образцу - это движение вдоль прямой, соединяющей две базовые точки.

Введем обозначения:

х* - текущая базовая точка;

х* 4 - предыдущая базовая точка;

х* +| - новая базовая точка;

х*/ 1 - точка, построенная при движении по образцу:


Рис. 3.7.

Как только движение по образцу нс приводит к уменьшению целевой функции, точка х* +| фиксируется в качестве временной базовой

точки и вновь проводится исследующий поиск.

Если в результате получается точка с меньшим значением целевой функции, чем в точке х*, то она рассматривается как новая базовая точка х* +| . С другой стороны, если исследующий поиск неудачен, необходимо вернуться в точку х* и провести исследующий поиск с целью выявления нового направления минимизации. В конечном итоге возникает ситуация, когда такой поиск не приводит к успеху. В этом случае требуется уменьшить величину шага и возобновить исследующий поиск. Поиск завершается, если величина шага меньше заданной точности вычисления экстремума S.

Алгоритмизация метода Хука-Дживса

Шаг 1. Задать начальные условия - х, шаг перемещения - Лх, точность вычисления экстремума - е, коэффициент шага убывания - Р> 1, число итераций к = 0.

Шаг 2. Провести исследовательский поиск:

в зависимости от убывания /(х, ± Ах), /" = 1,2.

Шаг 3. Оценить, произошло ли убывание целевой функции:

  • -4+1 - 4
  • если /(х)(х)-» Шаг 5;
  • -4+1
  • если J(х )>/(х)->Шаг4.

Шаг 4. Окончание поиска:

  • если ||Алг|| s -» выход из процедуры, печать результатов х ,/(х);
  • если ||Дх|| > ?, Д, = i - 1,2 -» переход на Шаг 2.

Шаг 5. Провести поиск по образцу

Шаг 6. Оценить убывание целевой функции:

  • если f(x p )f(x), х* +| =х* + "^ Шаг 5;
  • -*+1
  • если f(x P ) > f(x ) ^ Шаг 4.

Замечание. Достоинством метода Хука-Дживса является го, что он позволяет восстанавливать направление движения вдоль оврага, когда из-за искривления оврага установленная конфигурация теряется.

Пример

Найти методом Хука-Дживса минимум функции с точностью? = 10 ", при заданных начальных условиях.