Студопедия

Главная страница Случайная лекция


Мы поможем в написании ваших работ!

Порталы:

БиологияВойнаГеографияИнформатикаИскусствоИсторияКультураЛингвистикаМатематикаМедицинаОхрана трудаПолитикаПравоПсихологияРелигияТехникаФизикаФилософияЭкономика



Мы поможем в написании ваших работ!




Прямые методы поиска оптимального решения

Терминологически этот класс методов имеет различные названия: метод сканирования, метод перебора, метод итерации или шаговый поиск, методы безусловного экстремума. В свою очередь, методы поиска безусловного экстремума могут быть разделены на методы минимизации (максимизации) унимодальных функций и методы глобальной минимизации многоэкстремальных функций.

По способу получения информации о расположении точки испытания (очередная итерация) на каждом шаге методы поиска можно разделить на детерминированные методы и методы случайного поиска.

По определению способа очередной точки методы подразделяются на методы последовательного поиска и методы пассивного поиска. Методы последовательного поиска указывают очередную точку, в которой вычисляется целевая функция. Q(x) на основании данных, полученных на предыдущем шаге. Методы пассивного поиска указывают все точки одновременно (до первого вычисления функции Q(x)).

Прямые методы поиска оптимального решения предполагают, вообще говоря, последовательное пошаговое вычисление критерия оптимизации и ограничений при фиксированных значениях параметров x=(x1,x2,…,xn) и варьировании параметра xn. Такой алгоритм может потребовать больших затрат машинного времени. В связи с этим возникает проблема решения задачи при наименьшем числе испытаний. Путь ее решения лежит на использовании рекуррентных соотношений, которые для начального приближения x0 в общем виде можно записать следующим образом

xr=Fr[x0,Q(x0),g(x0);…;xr-1,Q(xr-1),g(xr-1)], (4)

r= .

После проведения N испытаний (итераций, шагов поиска), связанных с определением из (6) векторов x2, приближенное значение функции критерия Q* выбирается из условия

Q*=Q(x*)=minQ(xr) (5)

0

Выражение (7) и начальное приближение x0 вместе с системой соотношений (8) являются математической записью метода поисковой оптимизации.

При отсутствии ограничений g(x) соотношение (7) прямой вид xr=Fr[x0,Q(x0);…;xr-1,Q(xr-1)] (3), который и определяет группу методов поиска безусловного минимума.

Если в соотношениях (1) и (2) вместо вектора xr рассматривается скалярная величина, то методы поиска называются одномерными. В противном случае - многопараметрическими.

Методы поиска безусловного минимума (как одномерные, так и многопараметрические), в свою очередь, могут быть разделены на методы минимизации унимодальных функций и методы минимизации экстремальных функций.

Рассмотрим метод поиска оптимального решения на примере одномерной минимизации унимодальной функции.

Пусть требуется найти минимум одномерной функции min Q(x) x D,где D={x:a }(1).

Функция Q(x) принадлежит классу унимодальных функций, т.е. существует значение x* ,такое, что Q(x) строго убывает при x x* и строго возрастает при x x*. При помощи фиксированного числа шагов (испытаний) N,которые могут быть проведены в любой тоже интервала [a,b], требуется локализовать положение минимума x* с небольшой точностью. Для решения этой задачи в условиях, когда положение x* возможен только один путь- сокращение интервала неопределенности.

Стратегия проведения испытаний строится таким образом, чтобы в процессе поиска происходило исключение тех подинтервалов, в которых в силу унимодальности функции Q(x) точное x* отсутствует. Это позволяет после проведения N испытаний выделить некоторый подинтервал, принадлежащий отрезку [a,b] и содержащий точку x*.

Сокращение интервала неопределенности осуществляется на основе так называемого “наилучшего алгоритма поиска”, под которым понимается алгоритм, для которого интервал неопределенности имеет наименьшее значение, т.е.

 

*n= n(F*)=min max n(Q,Fi) Fi AF Q KQ (6)

 

Отсюда следует, что величина интервала неопределенности зависит от алгоритма поиска F* AF*, от вида функции Q(x) KQ, определяющей конкретный индекс k, при котором получено минимальное ее значение.

Наиболее простыми алгоритмами поисковой оптимизации являются алгоритмы, реализующие F11- метод равномерного поиска и F12- метод равномерного дихотомического поиска. В них расположение точек xi выбирается заранее до проведения первого испытания, т.е. шаги распределяются равномерно на всем интервале [a,b]. В полученных точках оцениваются значение функции Q(x) и из них выбирается наименьшее. В методе дихотомического поиска шаги выбираются также равномерно, но значение функции оценивается парой подинтервалов. Недостатком этих алгоритмов является то, что в них при выборе точек xi не используется информация, полученная в xi-1 шаге. Этот недостаток устранен в методе деления пополам и в методе последовательного дихотомического поиска.

В методе деления пополам координаты каждой последующей пары шагов выбираются в средней точке текущего интервала неопределенности. По значениям функции Q(x) полученным в этих точках, одна половина исследуемого интервала исключается из дальнейшего рассмотрения в силу унимодальности исследуемой функции. В середине оставшейся части интервала вновь делается пара испытаний и т.д. Среди прямых методов поиска оптимального решения необходимо выделить градиентные методы наискорейшего спуска.

Общая схема решения задач данным методом стоит в построении последовательности x0,x1,x2,…,xn,…решений по следующему принципу: в качестве x0 выбирается, вообще говоря, любая точка области решений и затем каждая последующая точка получается из предыдущей по формуле (7) xk+1=xk+ , где 1, 2,…, n) некоторое направление (вектор), а -действительное число. При этом направление и длина шага выбирается так, чтобы обеспечить сходимость процесса оптимального решения x*.

Так как направление градиента целевой функции является направлением ее наискорейшего роста, то при отыскании max вогнутой функции (минимума вогнутой функции) в качестве часть берется и тогда формула принимает вид

 

Xk+1=xk+ (xk), - если имеется максимум, и

Xk+1=xk- k), - если ищется минимум. (7)

 

Методы спуска, в которых итерационная последовательность x0, x1, x2,…, xk…находится по формулам (8) называются градиентными. Эти методы отличаются друг от друга способами выбора длины шага и алгоритмами нахождения точки xk+1, которые изложены выше.

Выбор длины шага очень важен, т.к. при его нерациональной величине можно “проскочить” искомый экстремум.

Определение.Если величина шага = выбирается так, чтобы приращение функции при перемещении из предыдущей точки в последущую было наибольшим (при fmax) или наименьшим (при fmin), то градиентный метод называется методом наискорейшего спуска.

Для случая функции двух переменных f(x,y) метод наискорейшего спуска имеет простую геометрическую интеграцию:

для любого ki луч, идущий от точки xk к точке xk+1 перпендикулярен к линии уровня функции f(x,y), проходящей через точку xk (т.к. направлен по градиенту), и касается линии уровня, проходящей через точку xk+1.

F

 
 


X*

X1 x3 x4

 

 

X2

 

X0

 

 

 
 


X

Рис. 8. Линии уровня f (x,y)= const

 

 

Отличие этих методов заключается в том, что в методе градиентного спуска величина шага постоянна для каждой итерации, а для метода наискорейшего спуска характерен переменный шаг.

 

 


<== предыдущая страница | следующая страница ==>
Унимодальные и выпуклые функции | Методы, использующие производные целевой функции

Дата добавления: 2015-07-26; просмотров: 240; Нарушение авторских прав




Мы поможем в написании ваших работ!
lektsiopedia.org - Лекциопедия - 2013 год. | Страница сгенерирована за: 0.004 сек.