Не отобразилась форма расчета стоимости? Переходи по ссылке

Не отобразилась форма расчета стоимости? Переходи по ссылке

Реферат на тему «Решение задач — методы спуска»

Все методы спуска решения задачи безусловной минимизации различаются либо выбором направления спуска, либо способом движения вдоль направления спуска. Это позволяет написать общую схему методов спуска.

Написание реферата за 4 часа

Решается задача минимизации функции j(x) на всём пространстве En. Методы спуска состоят в следующей процедуре построения последовательности {xk}. Â качестве начального приближения выбирается любая точка x0ÎEn. Последовательные приближения x1, x2, … строятся по следующей схеме:

1) в точке xk выбирают направление спуска — Sk;

2) находят (k+1)-е приближение по формуле xk+1=xk-pkSk.

Направление Sk выбирают таким образом, чтобы обеспечить неравенство j(xk+1)<j(xk) по крайней мере для малых значений величины pk. На вопрос, какому из способов выбора направления спуска следует отдать предпочтение при решении конкретной задачи, однозначного ответа нет.

Число pk определяет расстояние от точки xk до точки хk+1. Это число называется длиной шага или просто шагом. Основная задача при выборе величины bk — это обеспечить выполнение неравенства j(xk+1)<j(xk). Одним из элементарных способов выбора шага является способ удвоения шага.

Выбирают bk=bk-1. Если при этом j(xk+1)<j(xk), то либо переходят к следующей (k+2)-й итерации, либо выбирают bk=2bk-1. Если значение j(х) меньше его предыдущего значения, то процесс удвоения можно продолжать до тех пор, пока убывание не прекратится. Если j(xk+1)³j(xk), то выбирают bk=0.5bk-1. Если j(xk-0.5bk-1Sk)<j(xk), то полагают xk+1=xk-0.5bk-1Sk и переходят к следующей (k+2)-й итерации. Если же j(xk-0.5bk-1Sk)³j(xk), то выбирают bk=0.25bk-1 и т.д.

Метод градиентного спуска.

Одним из самых распространённых методов минимизации, связанных с вычислением градиента, является метод спуска по направлению антиградиента минимизируемой функции. В пользу такого выбора направления спуска можно привести следующие соображения. Поскольку антиградиент, то есть j’(xk) в точке xk указывает направление наискорейшего убывания функции, то естественным представляется сместиться из точки xk по этому направлению.

Метод спуска, в котором Sk=j’(xk), называется методом градиентного спуска.

Величина bk в методе градиентного спуска традиционно вычисляется путём применения одного из методов одномерной минимизации функции y(b)=j(xk-bj’(xk)), что не исключает применение и других способов отыскания bk.

Если в качестве bk выбирают точку одномерного минимума функции y(b)=j(xk-bSk) релаксационный процесс называется методом наискорейшего спуска: xk+1=xk-bkj’(xk), bk=arg min {y(b)=j(xk-bSk) | b³0}.

Метод покоординатного спуска

Одним из наиболее простых способов определения направления спуска является выбор в качестве Sk одного из координатных векторов ±e1, ±e2, …, ±en, вследствие чего у xk на каждой итерации изменяется лишь одна из компонент.

Существуют многочисленные варианты покоординатного спуска. Но в любом из этих методов выбирают в качестве -Sk то из двух направлений, +ej, -ej, которому соответствует неравенство

[j’(xk), Sk] > 0.

В случае, если =0, полагают xk+1=xk и переходят к следующей итерации.

Опишем первый цикл метода, состоящий из n итераций. В произвольной точке x0 выбирают S0=±e, и определяет величину b0 способом удвоения так, чтобы было j(x1)=j(x0-b0S0)<j(x0). Затем выбирают S1=±e2 и, полагая b=b0, удвоением вычисляют b1 и так далее. При этом на каждой итерации стремятся определение величины шага методом удвоения осуществлять с наименьшим числом вычислений значений функции j(х). Цикл заканчивается при k=n-1, после чего начинают следующий цикл, полагая Sn=±e1 и т.д.

На практике нам нужно было найти минимум функции z(x)=x2+y2-xy-3y c точностью e, используя описанные выше методы.

Нахождение минимума моей функции с помощью метода покоординатного спуска.

Для нахождения минимума моей функции с помощью метода покоординатного спуска я использовал программу, представленную ниже. Входными параметрами этой программы являются координаты начальной точки (я взял х=10, y=10), начальный шаг по х и по y (я взял Dх=0.5 и Dy=0.5), а так же точность (e=10-5; большую точность брать не имеет смысла, поскольку во время выполнения программы накапливается ошибка и искажает данные такой точности). Итак, взяв в качестве начальных условий эти значения я получил координаты точки минимума:

х= 1,00000977

y= 1,99999931

z=-3,00000142

Для получения результата программой было выполнено 24 итерации.

Нахождение минимума с помощью метода градиентного спуска.

Программа, использованная мной для выполнения этой задачи представлена ниже.

Поскольку входные параметры этой программы совпадают со входными параметрами задачи №1, то я взял их такие же, что и для первой задачи, чтобы, сравнив полученные результаты и количество итераций, необходимых для поиска минимума, я смог сделать какие-либо выводы о преимуществах и недостатках обеих задач из практики.

Итак, взяв те же начальные условия я получил следующие результаты:

Нужна помощь в написании реферата?

Мы - биржа профессиональных авторов (преподавателей и доцентов вузов). Наша система гарантирует сдачу работы к сроку без плагиата. Правки вносим бесплатно.

Цена реферата

x= 1,00000234

y= 2,00000119

z=-3,00000094

Количество итераций, которое потребовалось для нахождения точки минимума равно 20. Видно, что количество итераций, потребовавшееся первой программе больше, чем количество итераций, необходимых второй программе. Это следует из того, что антиградиент указывает направление наискорейшего убывания функции.

Ниже также представлен график сходимости вышеописанного процесса для моей функции и моих начальных условий.

Необходимо также добавить несколько важных моментов. Во-первых, из того, что количество итераций, потребовавшееся для нахождения минимума в первой задаче больше, чем во второй не следует тот факт, что вторая программа работает быстрее, чем первая, поскольку для второй задачи необходимо вычислять не только значение функции в какой-либо точке, но и её производной в этой точке, которая может быть более громоздка, чем сама функция.

Наконец, второй метод плох ещё и потому, что для произвольной функции производную вычислить невозможно; придётся сначала аппроксимировать её, а затем искать минимум (за счёт аппроксимации значительно вырастает время и погрешность измерений).

Средняя оценка 0 / 5. Количество оценок: 0

Поставьте оценку первым.

Сожалеем, что вы поставили низкую оценку!

Позвольте нам стать лучше!

Расскажите, как нам стать лучше?

573

Закажите такую же работу

Не отобразилась форма расчета стоимости? Переходи по ссылке

Не отобразилась форма расчета стоимости? Переходи по ссылке