Скачать

Решение задач - методы спуска

Методы спуска

Общая схема.

Все методы спуска решения задачи безусловной минимизации различаются либо выбором направления спуска, либо способом движения вдоль направления спуска. Это позволяет написать общую схему методов спуска.

Решается задача минимизации функции φ(x) на всём пространстве En. Методы спуска состоят в следующей процедуре построения последовательности {xk}. В качестве начального приближения выбирается любая точка x0∈En. Последовательные приближения x1, x2, … строятся по следующей схеме:

  1. в точке xk выбирают направление спуска - Sk;
  2. находят (k+1)-е приближение по формуле xk+1=xk-pkSk.

Направление Sk выбирают таким образом, чтобы обеспечить неравенство φ(xk+1)<φ(xk) по крайней мере для малых значений величины pk. На вопрос, какому из способов выбора направления спуска следует отдать предпочтение при решении конкретной задачи, однозначного ответа нет.

Число pk определяет расстояние от точки xk до точки хk+1. Это число называется длиной шага или просто шагом. Основная задача при выборе величины βk - это обеспечить выполнение неравенства φ(xk+1)<φ(xk). Одним из элементарных способов выбора шага является способ удвоения шага.

Выбирают βk=βk-1. Если при этом φ(xk+1)<φ(xk), то либо переходят к следующей (k+2)-й итерации, либо выбирают βk=2βk-1. Если значение φ(х) меньше его предыдущего значения, то процесс удвоения можно продолжать до тех пор, пока убывание не прекратится. Если φ(xk+1)≥φ(xk), то выбирают βk=0.5βk-1. Если φ(xk-0.5βk-1Sk)<φ(xk), то полагают xk+1=xk-0.5βk-1Sk и переходят к следующей (k+2)-й итерации. Если же φ(xk-0.5βk-1Sk)≥φ(xk), то выбирают βk=0.25βk-1 и т.д.

Метод градиентного спуска.

Одним из самых распространённых методов минимизации, связанных с вычислением градиента, является метод спуска по направлению антиградиента минимизируемой функции. В пользу такого выбора направления спуска можно привести следующие соображения. Поскольку антиградиент, то есть φ’(xk) в точке xk указывает направление наискорейшего убывания функции, то естественным представляется сместиться из точки xk по этому направлению.

Метод спуска, в котором Sk=φ’(xk), называется методом градиентного спуска.

Величина βk в методе градиентного спуска традиционно вычисляется путём применения одного из методов одномерной минимизации функции ψ(β)=φ(xk-βφ’(xk)), что не исключает применение и других способов отыскания βk.

Если в качестве βk выбирают точку одномерного минимума функции ψ(β)=φ(xk-βSk) релаксационный процесс называется методом наискорейшего спуска: xk+1=xk-βkφ’(xk), βk=arg min {ψ(β)=φ(xk-βSk) | β≥0}.

Метод покоординатного спуска.

Одним из наиболее простых способов определения направления спуска является выбор в качестве Sk одного из координатных векторов ±e1, ±e2, …, ±en, вследствие чего у xk на каждой итерации изменяется лишь одна из компонент.

Существуют многочисленные варианты покоординатного спуска. Но в любом из этих методов выбирают в качестве -Sk то из двух направлений, +ej, -ej, которому соответствует неравенство

(φ’(xk), Sk) > 0.

В случае, если =0, полагают xk+1=xk и переходят к следующей итерации.

Опишем первый цикл метода, состоящий из n итераций. В произвольной точке x0 выбирают S0=±e, и определяет величину β0 способом удвоения так, чтобы было φ(x1)=φ(x0-β0S0)<φ(x0). Затем выбирают S1=±e2 и, полагая β=β0, удвоением вычисляют β1 и так далее. При этом на каждой итерации стремятся определение величины шага методом удвоения осуществлять с наименьшим числом вычислений значений функции φ(х). Цикл заканчивается при k=n-1, после чего начинают следующий цикл, полагая Sn=±e1 и т.д.

Практическое задание

На практике нам нужно было найти минимум функции z(x)=x2+y2-xy-3y c точностью ε, используя описанные выше методы.

Нахождение минимума моей функции с помощью метода покоординатного спуска.

Для нахождения минимума моей функции с помощью метода покоординатного спуска я использовал программу, представленную ниже. Входными параметрами этой программы являются координаты начальной точки (я взял х=10, y=10), начальный шаг по х и по y (я взял Δх=0.5 и Δy=0.5), а так же точность (ε=10-5; большую точность брать не имеет смысла, поскольку во время выполнения программы накапливается ошибка и искажает данные такой точности). Итак, взяв в качестве начальных условий эти значения я получил координаты точки минимума:

х= 1,00000977

y= 1,99999931

z=-3,00000142

Для получения результата программой было выполнено 24 итерации.

Нахождение минимума с помощью метода градиентного спуска.

Программа, использованная мной для выполнения этой задачи представлена ниже.

Поскольку входные параметры этой программы совпадают со входными параметрами задачи №1, то я взял их такие же, что и для первой задачи, чтобы, сравнив полученные результаты и количество итераций, необходимых для поиска минимума, я смог сделать какие-либо выводы о преимуществах и недостатках обеих задач из практики.

Итак, взяв те же начальные условия я получил следующие результаты:

x= 1,00000234

y= 2,00000119

z=-3,00000094

Количество итераций, которое потребовалось для нахождения точки минимума равно 20. Видно, что количество итераций, потребовавшееся первой программе больше, чем количество итераций, необходимых второй программе. Это следует из того, что антиградиент указывает направление наискорейшего убывания функции.

Ниже также представлен график сходимости вышеописанного процесса для моей функции и моих начальных условий.

Необходимо также добавить несколько важных моментов. Во-первых, из того, что количество итераций, потребовавшееся для нахождения минимума в первой задаче больше, чем во второй не следует тот факт, что вторая программа работает быстрее, чем первая, поскольку для второй задачи необходимо вычислять не только значение функции в какой-либо точке, но и её производной в этой точке, которая может быть более громоздка, чем сама функция. Наконец, второй метод плох ещё и потому, что для произвольной функции производную вычислить невозможно; придётся сначала аппроксимировать её, а затем искать минимум (за счёт аппроксимации значительно вырастает время и погрешность измерений).