Градиентные методы
Градие́нтные ме́тоды — численные методы итерационного приближения к экстремумам функции с помощью её градиента.
Постановка задачи решения системы уравнений в терминах методов оптимизации
Задача решения системы уравнений:
(1)
с
эквивалентна задаче минимизации функции
(2)
или какой-либо другой возрастающей функции от абсолютных величин невязок (ошибок)
,
. Задача отыскания минимума (или максимума) функции
переменных и сама по себе имеет большое практическое значение.
Для решения этой задачи итерационными методами начинают с произвольных значений и строят последовательные приближения:
или покоординатно:
(3)
которые сходятся к некоторому решению при
.
Различные методы отличаются выбором «направления» для очередного шага, то есть выбором отношений
.
Величина шага (расстояние, на которое надо передвинуться в заданном направлении в поисках экстремума) определяется значением параметра , минимизирующим величину
как функцию от
. Эту функцию обычно аппроксимируют её тейлоровским разложением или интерполяционным многочленом по трем-пяти выбранным значениям
. Последний метод применим для отыскания max и min таблично заданной функции
.
Градиентные методы
Основная идея методов заключается в том, чтобы идти в направлении наискорейшего спуска, а это направление задаётся антиградиентом: :
,
где выбирается:
- постоянной, в этом случае метод может расходиться;
- дробным шагом, то есть длина шага в процессе спуска делится на некое число;
- наискорейшим спуском:
.
Метод наискорейшего спуска (метод градиента)
Выбирают , где все производные вычисляются при
, и уменьшают длину шага
по мере приближения к минимуму функции
.
Для аналитических функций и малых значений
тейлоровское разложение
позволяет выбрать оптимальную величину шага
, (5)
где все производные вычисляются при . функции
может оказаться более удобной.
Алгоритм
- Задаются начальное приближение и точность расчёта
- Рассчитывают
, где
- Проверяют условие останова:
- если
, то
и переход к шагу 2;
- иначе
и останов.
- если
Метод покоординатного спуска Гаусса — Зейделя
Этот метод назван по аналогии с методом Гаусса — Зейделя для решения системы линейных уравнений. Улучшает предыдущий метод за счёт того, что на очередной итерации спуск осуществляется постепенно вдоль каждой из координат, однако теперь необходимо вычислять новые раз за один шаг.
Алгоритм
- Задаются начальное приближение и точность расчёта
- Рассчитывают
, где
- Проверяют условие остановки:
- если
, то
и переход к шагу 2;
- иначе
и останов.
- если
Метод сопряжённых градиентов
Метод сопряженных градиентов основывается на понятиях многомерной оптимизации — метода сопряжённых направлений.
Применение метода к квадратичным функциям в определяет минимум за
шагов.
Алгоритм
- Задаются начальным приближением и погрешностью:
- Рассчитывают начальное направление:
- Если
или
, то
и останов.
- Иначе
- если
, то
и переход к 3;
- иначе
и переход к 2.
- если
- Если
См. также
- Интерполяционные формулы
- Математическое программирование
- Метод градиента
- Метод сопряжённых градиентов
- Метод коллинеарных градиентов
- Формула Тейлора
- Численные методы
- Численное решение уравнений
- Метод Нелдера — Мида
Литература
- Акулич И.Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. спец. вузов. — М.: Высш. шк., 1986.
- Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. — М.: Мир, 1985.
- Коршунов Ю.М., Коршунов Ю.М. Математические основы кибернетики. — М.: Энергоатомиздат, 1972.
- Максимов Ю.А.,Филлиповская Е.А. Алгоритмы решения задач нелинейного программирования. — М.: МИФИ, 1982.
- Максимов Ю.А. Алгоритмы линейного и дискретного программирования. — М.: МИФИ, 1980.
- Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М.: Наука, 1970. — С. 575-576.
В статье есть список источников, но не хватает сносок. |
Википедия, чтение, книга, библиотека, поиск, нажмите, истории, книги, статьи, wikipedia, учить, информация, история, скачать, скачать бесплатно, mp3, видео, mp4, 3gp, jpg, jpeg, gif, png, картинка, музыка, песня, фильм, игра, игры, мобильный, телефон, Android, iOS, apple, мобильный телефон, Samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Сеть, компьютер, Информация о Градиентные методы, Что такое Градиентные методы? Что означает Градиентные методы?
Gradie ntnye me tody chislennye metody iteracionnogo priblizheniya k ekstremumam funkcii s pomoshyu eyo gradienta Postanovka zadachi resheniya sistemy uravnenij v terminah metodov optimizaciiZadacha resheniya sistemy uravnenij f1 x1 x2 xn 0 fn x1 x2 xn 0 displaystyle left begin array lcr f 1 x 1 x 2 ldots x n amp amp 0 ldots amp amp f n x 1 x 2 ldots x n amp amp 0 end array right 1 s n displaystyle n x1 x2 xn displaystyle x 1 x 2 ldots x n ekvivalentna zadache minimizacii funkcii F x1 x2 xn i 1n fi x1 x2 xn 2 displaystyle F x 1 x 2 ldots x n equiv sum i 1 n f i x 1 x 2 x n 2 2 ili kakoj libo drugoj vozrastayushej funkcii ot absolyutnyh velichin fi displaystyle f i nevyazok oshibok fi fi x1 x2 xn displaystyle f i f i x 1 x 2 ldots x n i 1 2 n displaystyle i 1 2 ldots n Zadacha otyskaniya minimuma ili maksimuma funkcii n displaystyle n peremennyh i sama po sebe imeet bolshoe prakticheskoe znachenie Dlya resheniya etoj zadachi iteracionnymi metodami nachinayut s proizvolnyh znachenij xi 0 i 1 2 n displaystyle x i 0 i 1 2 n i stroyat posledovatelnye priblizheniya x j 1 x j l j v j displaystyle vec x j 1 vec x j lambda j vec v j ili pokoordinatno xi j 1 xi j l j vi j i 1 2 n j 0 1 2 displaystyle x i j 1 x i j lambda j v i j quad i 1 2 ldots n quad j 0 1 2 ldots 3 kotorye shodyatsya k nekotoromu resheniyu x k displaystyle vec x k pri j displaystyle j to infty Razlichnye metody otlichayutsya vyborom napravleniya dlya ocherednogo shaga to est vyborom otnoshenij v1 j v2 j vn j displaystyle v 1 j v 2 j ldots v n j Velichina shaga rasstoyanie na kotoroe nado peredvinutsya v zadannom napravlenii v poiskah ekstremuma opredelyaetsya znacheniem parametra l j displaystyle lambda j minimiziruyushim velichinu F x1 j 1 x2 j 1 xn j 1 displaystyle F x 1 j 1 x 2 j 1 ldots x n j 1 kak funkciyu ot l j displaystyle lambda j Etu funkciyu obychno approksimiruyut eyo tejlorovskim razlozheniem ili interpolyacionnym mnogochlenom po trem pyati vybrannym znacheniyam l j displaystyle lambda j Poslednij metod primenim dlya otyskaniya max i min tablichno zadannoj funkcii F x1 x2 xn displaystyle F x 1 x 2 x n Gradientnye metodyOsnovnaya ideya metodov zaklyuchaetsya v tom chtoby idti v napravlenii naiskorejshego spuska a eto napravlenie zadayotsya antigradientom F displaystyle nabla F x j 1 x j l j F x j displaystyle overrightarrow x j 1 overrightarrow x j lambda j nabla F overrightarrow x j gde l j displaystyle lambda j vybiraetsya postoyannoj v etom sluchae metod mozhet rashoditsya drobnym shagom to est dlina shaga v processe spuska delitsya na nekoe chislo naiskorejshim spuskom l j argminlF x j l F x j displaystyle lambda j mathrm argmin lambda F vec x j lambda nabla F vec x j Metod naiskorejshego spuska metod gradienta Osnovnaya statya metod gradienta Vybirayut vi j F xi displaystyle v i j frac partial F partial x i gde vse proizvodnye vychislyayutsya pri xi xi j displaystyle x i x i j i umenshayut dlinu shaga l j displaystyle lambda j po mere priblizheniya k minimumu funkcii F displaystyle F Dlya analiticheskih funkcij F displaystyle F i malyh znachenij fi displaystyle f i tejlorovskoe razlozhenie F l j displaystyle F lambda j pozvolyaet vybrat optimalnuyu velichinu shaga l j k 1n F xk 2 k 1n h 1n 2F xkdxh F xk F xh displaystyle lambda j frac sum k 1 n frac partial F partial x k 2 sum k 1 n sum h 1 n frac partial 2 F partial x k dx h frac partial F partial x k frac partial F partial x h 5 gde vse proizvodnye vychislyayutsya pri xi xi j displaystyle x i x i j funkcii F l j displaystyle F lambda j mozhet okazatsya bolee udobnoj Algoritm Zadayutsya nachalnoe priblizhenie i tochnost raschyota x 0 ϵ displaystyle vec x 0 epsilon Rasschityvayut x j 1 x j l j F x j displaystyle vec x j 1 vec x j lambda j nabla F left vec x j right gde l j argminlF x j l F x j displaystyle lambda j mathrm argmin lambda F left vec x j lambda nabla F left vec x j right right Proveryayut uslovie ostanova esli x j 1 x j gt ϵ displaystyle left vec x j 1 vec x j right gt epsilon to j j 1 displaystyle j j 1 i perehod k shagu 2 inache x x j 1 displaystyle vec x vec x j 1 i ostanov Metod pokoordinatnogo spuska Gaussa Zejdelya Zapros Pokoordinatnyj spusk perenapravlyaetsya syuda Na etu temu nuzhno sozdat otdelnuyu statyu Etot metod nazvan po analogii s metodom Gaussa Zejdelya dlya resheniya sistemy linejnyh uravnenij Uluchshaet predydushij metod za schyot togo chto na ocherednoj iteracii spusk osushestvlyaetsya postepenno vdol kazhdoj iz koordinat odnako teper neobhodimo vychislyat novye ln displaystyle lambda quad n raz za odin shag Algoritm Zadayutsya nachalnoe priblizhenie i tochnost raschyota x 00 e displaystyle vec x 0 0 quad varepsilon Rasschityvayut x 1 j x 0 j l1 j F x 0 j x1e 1 x n j x n 1 j ln j F x n 1 j xne n displaystyle left begin array lcr vec x 1 j amp amp vec x 0 j lambda 1 j frac partial F vec x 0 j partial x 1 vec e 1 ldots amp amp vec x n j amp amp vec x n 1 j lambda n j frac partial F vec x n 1 j partial x n vec e n end array right gde li j argminlF x i 1 j l j F x i 1 j xie i displaystyle lambda i j mathrm argmin lambda F left vec x i 1 j lambda j frac partial F vec x i 1 j partial x i vec e i right Proveryayut uslovie ostanovki esli x n j x 0 j gt e displaystyle vec x n j vec x 0 j gt varepsilon to x 0 j 1 x n j j j 1 displaystyle vec x 0 j 1 vec x n j quad j j 1 i perehod k shagu 2 inache x x n j displaystyle vec x vec x n j i ostanov Metod sopryazhyonnyh gradientov Osnovnaya statya Metod sopryazhyonnyh gradientov Metod sopryazhennyh gradientov osnovyvaetsya na ponyatiyah mnogomernoj optimizacii metoda sopryazhyonnyh napravlenij Primenenie metoda k kvadratichnym funkciyam v Rn displaystyle mathbb R n opredelyaet minimum za n displaystyle n shagov Algoritm Zadayutsya nachalnym priblizheniem i pogreshnostyu x 0 e k 0 displaystyle vec x 0 quad varepsilon quad k 0 Rasschityvayut nachalnoe napravlenie j 0 S kj f x k x kj x k displaystyle j 0 quad vec S k j nabla f vec x k quad vec x k j vec x k x kj 1 x kj lS kj l arg minlf x kj lS kj S kj 1 f x kj 1 wS kj w f x kj 1 2 f x kj 2 displaystyle vec x k j 1 vec x k j lambda vec S k j quad lambda arg min lambda f vec x k j lambda vec S k j quad vec S k j 1 nabla f vec x k j 1 omega vec S k j quad omega frac nabla f vec x k j 1 2 nabla f vec x k j 2 Esli S kj 1 lt e displaystyle vec S k j 1 lt varepsilon ili x kj 1 x kj lt e displaystyle vec x k j 1 vec x k j lt varepsilon to x x kj 1 displaystyle vec x vec x k j 1 i ostanov Inache esli j 1 lt n displaystyle j 1 lt n to j j 1 displaystyle j j 1 i perehod k 3 inache x k 1 x kj 1 k k 1 displaystyle vec x k 1 vec x k j 1 quad k k 1 i perehod k 2 Sm takzheInterpolyacionnye formuly Matematicheskoe programmirovanie Metod gradienta Metod sopryazhyonnyh gradientov Metod kollinearnyh gradientov Formula Tejlora Chislennye metody Chislennoe reshenie uravnenij Metod Neldera MidaLiteraturaAkulich I L Matematicheskoe programmirovanie v primerah i zadachah Ucheb posobie dlya studentov ekonom spec vuzov M Vyssh shk 1986 Gill F Myurrej U Rajt M Prakticheskaya optimizaciya Per s angl M Mir 1985 Korshunov Yu M Korshunov Yu M Matematicheskie osnovy kibernetiki M Energoatomizdat 1972 Maksimov Yu A Fillipovskaya E A Algoritmy resheniya zadach nelinejnogo programmirovaniya M MIFI 1982 Maksimov Yu A Algoritmy linejnogo i diskretnogo programmirovaniya M MIFI 1980 Korn G Korn T Spravochnik po matematike dlya nauchnyh rabotnikov i inzhenerov M Nauka 1970 S 575 576 V state est spisok istochnikov no ne hvataet snosok Bez snosok slozhno opredelit iz kakogo istochnika vzyato kazhdoe otdelnoe utverzhdenie Vy mozhete uluchshit statyu prostaviv snoski na istochniki podtverzhdayushie informaciyu Svedeniya bez snosok mogut byt udaleny 3 sentyabrya 2013
