![]() Главная страница Случайная лекция ![]() Мы поможем в написании ваших работ! Порталы: БиологияВойнаГеографияИнформатикаИскусствоИсторияКультураЛингвистикаМатематикаМедицинаОхрана трудаПолитикаПравоПсихологияРелигияТехникаФизикаФилософияЭкономика ![]() Мы поможем в написании ваших работ! |
Прямые методы поиска оптимального решения
Q*=Q(x*)=minQ(xr) (5) Функция Q(x) принадлежит классу унимодальных функций, т.е. существует значение x* Стратегия проведения испытаний строится таким образом, чтобы в процессе поиска происходило исключение тех подинтервалов, в которых в силу унимодальности функции Q(x) точное x* отсутствует. Это позволяет после проведения N испытаний выделить некоторый подинтервал, принадлежащий отрезку [a,b] и содержащий точку x*. Сокращение интервала неопределенности осуществляется на основе так называемого “наилучшего алгоритма поиска”, под которым понимается алгоритм, для которого интервал неопределенности имеет наименьшее значение, т.е.
Отсюда следует, что величина интервала неопределенности зависит от алгоритма поиска F* Наиболее простыми алгоритмами поисковой оптимизации являются алгоритмы, реализующие F11- метод равномерного поиска и F12- метод равномерного дихотомического поиска. В них расположение точек xi выбирается заранее до проведения первого испытания, т.е. шаги распределяются равномерно на всем интервале [a,b]. В полученных точках оцениваются значение функции Q(x) и из них выбирается наименьшее. В методе дихотомического поиска шаги выбираются также равномерно, но значение функции оценивается парой подинтервалов. Недостатком этих алгоритмов является то, что в них при выборе точек xi не используется информация, полученная в xi-1 шаге. Этот недостаток устранен в методе деления пополам и в методе последовательного дихотомического поиска. В методе деления пополам координаты каждой последующей пары шагов выбираются в средней точке текущего интервала неопределенности. По значениям функции Q(x) полученным в этих точках, одна половина исследуемого интервала исключается из дальнейшего рассмотрения в силу унимодальности исследуемой функции. В середине оставшейся части интервала вновь делается пара испытаний и т.д. Среди прямых методов поиска оптимального решения необходимо выделить градиентные методы наискорейшего спуска. Общая схема решения задач данным методом стоит в построении последовательности x0,x1,x2,…,xn,…решений по следующему принципу: в качестве x0 выбирается, вообще говоря, любая точка области решений и затем каждая последующая точка получается из предыдущей по формуле (7) xk+1=xk+ Так как направление градиента
Xk+1=xk+ Xk+1=xk-
Методы спуска, в которых итерационная последовательность x0, x1, x2,…, xk…находится по формулам (8) называются градиентными. Эти методы отличаются друг от друга способами выбора длины шага и алгоритмами нахождения точки xk+1, которые изложены выше. Выбор длины шага очень важен, т.к. при его нерациональной величине можно “проскочить” искомый экстремум. Определение.Если величина шага Для случая функции двух переменных f(x,y) метод наискорейшего спуска имеет простую геометрическую интеграцию: для любого ki луч, идущий от точки xk к точке xk+1 перпендикулярен к линии уровня функции f(x,y), проходящей через точку xk (т.к. направлен по градиенту), и касается линии уровня, проходящей через точку xk+1.
X1 x3 x4
X2
X0
X Рис. 8. Линии уровня f (x,y)= const
Отличие этих методов заключается в том, что в методе градиентного спуска величина шага постоянна для каждой итерации, а для метода наискорейшего спуска характерен переменный шаг.
Дата добавления: 2015-07-26; просмотров: 240; Нарушение авторских прав ![]() Мы поможем в написании ваших работ! |