Docsity
Docsity

Подготовься к экзаменам
Подготовься к экзаменам

Учись благодаря многочисленным ресурсам, которые есть на Docsity


Получи баллы для скачивания
Получи баллы для скачивания

Заработай баллы, помогая другим студентам, или приобретай их по тарифом Премиум


Руководства и советы
Руководства и советы

Нелинейное программирование реферат по информатике , Сочинения из Информатика

Нелинейное программирование реферат по информатике

Вид: Сочинения

2016/2017

Загружен 12.04.2017

refbank20402
refbank20402 🇷🇺

10 документы

1 / 34

Toggle sidebar

Сопутствующие документы


Частичный предварительный просмотр текста

Скачай Нелинейное программирование реферат по информатике и еще Сочинения в формате PDF Информатика только на Docsity! Южно-Уральский Государственный Университет Кафедра АиУ реферат на тему: Нелинейное программирование Выполнил: Пушников А. А., ПС-263. Проверил: Разнополов О.А. Челябинск - 2003. Оглавление 1. Постановка задачи нелинейного программирования 2. Критерии оптимальности в задачах с ограничениями 2.1.. Задачи с ограничением в виде равенств 2.2.. Множители Лагранжа 3. Условия Куна-Таккера 3.1.. Условия Куна-Таккера и задача Куна-Таккера 3.2.. Интерпретация условий Куна-Таккера 3.3.. Теоремы Куна-Таккера 4. Функции нескольких переменных 4.1.. Методы прямого поиска 4.1...1... Метод поиска по симплексу (S2 - метод) 4.1...2... Метод поиска Хука-Дживса ограничений в виде равенств фактически позволяет уменьшить размерность исходной задачи с n до n-k.. В качестве иллюстрации рассмотрим следующий пример. Пример 1 Минимизировать при ограничении Исключив переменную , с помощью уравнения , получим оптимизационную задачу с двумя переменными без ограничений min Метод исключения переменных применим лишь в тех случаях, когда уравнения, представляющие ограничения, можно разрешить относительно 0 0 1 Fнекоторого конкретного набора независимых пере менных. При наличии большого числа ограничений в виде равенств, процесс исключения переменных становится весьма трудоемкой процедурой. Кроме того, возможны ситуации, когда уравнение не удается разрешить относительно переменной. В частности, если в примере 1 ограничение задать в виде то получить аналитическое выражение какой-либо из переменных через другие не представляется возможным. Таким образом, при решении задач, содержащих сложные ограничения в виде равенств, целесообразно 0 0 1 Fиспользовать метод множителей Лагранжа, описа ние которого дается в следующем разделе. 2.2. Множители Лагранжа С помощью метода множителей Лагранжа по существу устанавливаются необходимые условия, позволяющие идентифицировать 0 0 1 Fточки оптимума в задачах оптимизации с ограничениями в виде ра венств. 0 0 1 FПри этом задача с ограничениями преобразуется в эквива лентную задачу безусловной оптимизации, в которой фигурируют некоторые неизвестные 0 0 1 Fпараметры, называемые множителями Ла гранжа. Рассмотрим задачу минимизации функции n 0 01 F переменных с уче том одного ограничения в виде равенства: Минимизировать (3) при ограничениях (4) В соответствии с методом множителей Лагранжа эта задача преобразуется в следующую задачу безусловной оптимизации: минимизировать L(x,u)=f(x)-u*h(x) (5) Функция L(х;u) называется функцией Лагранжа, u 0 01 F — неизвест ная постоянная, которая носит название множителя Лагранжа. На знак u никаких требований не накладывается. Пусть при заданном значении u=u0 0 01 F безусловный минимум функ ции L (x,u) по х достигается в точке и 0 01 F удовлетворяет урав нению . Тогда, как нетрудно видеть, x0 минимизирует (1) с учетом (4), поскольку для всех значений х, удовлетворяющих (4), и L(x,u)=min f(x). Разумеется, необходимо подобрать значение u=u 0 01 F° таким обра зом, 0 0 1 Fчтобы координата точки безусловного минимума х° удовлетво ряла равенству (4). Это можно сделать, если, рассматривая u как переменную, найти безусловный минимум функции (5) в виде функции u, а затем выбрать значение u, при котором выполняется равенство (4). Проиллюстрируем это на конкретном примере. Пример 2 Минимизировать при ограничении =0 Соответствующая задача безусловной оптимизации записывается в следующем виде: минимизировать L(x,u)= -u Решение. Приравняв две компоненты градиента L к нулю, получим Для того чтобы проверить, соответствует ли стационарная точка х° минимуму, вычислим элементы матрицы Гессе функции L(х;u), рассматриваемой как функция х, , которая оказывается положительно определенной. Это означает, что L (х,,u) — выпуклая функция х. Следовательно, координаты , 0 0 1 Fопределяют точку глобального минимума. Оптималь ное значение u находится путем подстановки значений и 0 01 F в урав нение =2, откуда 2u+u/2=2 или . Таким образом, условный минимум достигается при и и равен min f(x)=4/5. При решении задачи из примера 2 мы рассматривали L(х;u) как функцию двух переменных и и, кроме того, предполагали, что значение параметра u 0 01 F выбрано так, чтобы выполнялось ограни чение. Если же решение системы , j=1,2,3,…,n в виде явных функций u получить нельзя, то значения х и u 0 01 F нахо дятся путем решения следующей системы, состоящей из n 0 01 F+1 урав нений с n+1 неизвестными: , j=1,2,3,…,n Для нахождения всех возможных решений данной системы можно использовать численные методы поиска (например, метод Ньютона). Для каждого из решений ( 0 01 F) сле дует вычислить элементы матрицы Гессе функции L 0 01 F, рассматри ваемой как функция х, и выяснить, является ли эта 3. Условия Куна-Таккера 0 0 1 FВ предыдущем разделе было установлено, что множители Лаг ранжа 0 0 1 Fможно использовать при построении критериев оптималь ности для задач оптимизации с ограничениями в виде равенств. Кун и Таккер обобщили этот 0 0 1 Fподход на случай общей задачи нели нейного программирования с ограничениями, как в виде равенств, так и в виде неравенств. 0 0 1 FРассмотрим следующую общую задачу не линейного программирования: минимизировать (0) при ограничениях (1) (2) Определение: Ограничение в виде неравенства называется активным, или связывающим, в точке , если , и неактивным, или несвязывающим, если 0 0 1 FЕсли существует возможность обнаружить ограничения, ко торые неактивны в точке оптимума, до непосредственного решения задачи, то эти ограничения можно исключить из модели и тем самым уменьшить ее размеры. Основная трудность заключается при этом в идентификации 0 0 1 Fнеактивных ограничений, предшествующей ре шению задачи. Кун и Таккер построили необходимые и достаточные условия оптимальности для задач нелинейного программирования, исходя из предположения о дифференцируемости функций . Эти условия оптимальности, широко известные как условия Куна—Таккера, можно сформулировать в виде задачи нахождения решения некоторой системы нелинейных уравнений и неравенств, или, как иногда говорят, задачи Куна— Таккера. 3.1. Условия Куна—Таккера и задача Куна—Таккера Найти векторы ,удовлетворяющие следующим условиям (3) (4) (5) (6) (7) Прежде всего проиллюстрируем условия Куна — Таккера на примере. Пример 3 Минимизировать при ограничениях Решение. 0 0 1 FЗаписав данную задачу в виде задачи нелиней ного программирования (0)-(2), получим Уравнение (3), входящее в состав условий Куна—Таккера, принимает следующий вид: откуда Неравенства (4) и уравнения (5) задачи Куна — Таккера в данном случае записываются в виде Уравнения (5.16), известные как условие дополняющей нежесткости, принимают вид Заметим, что на переменные и накладывается требование 0 0 1 Fне отрицательности, тогда как ограничение на знак отсутствует. Таким образом, этой задачи условия Куна—Танкера записываются в следующем виде: 3.2. Интерпретация условий Куна — Таккера Для того чтобы интерпретировать условия Куна — Таккера, рассмотрим 0 0 1 Fзадачу нелинейного программирования с ограничения ми в виде равенств: минимизировать при ограничениях Запишем условия Куна—Таккера (8) (9) Далее рассмотрим функцию Лагранжа для задачи нелинейного программирования с ограничениями в виде равенств Для этой функции условия оптимальности первого порядка 0 0 1 Fзапи сываются в виде Нетрудно видеть, что условия Куна-Таккера (8) и (9) совпадают с условиями оптимальности первого порядка для задачи Лагранжа. Рассмотрим задачу нелинейного программирования с 0 01 Fограни чениями в виде неравенств: минимизировать при ограничениях 0 0 1 Fчасти области, определяемой ограниче ниями-неравенствами. Другими словами, существует такая точка х, что Если условие линейной независимости в точке оптимума не 0 0 1 Fвы полняется, то задача Куна—Таккера может не иметь решения. Пример 4 Минимизировать при ограничениях Решение. 0 0 1 FНа рис.1 изображена область допустимых ре шений сформулированной выше нелинейной задачи. Ясно, что оптимальное 0 0 1 Fрешение этой задачи есть . Пока жем, что условие линейной независимости не выполняется в точке оптимума. Рис.1 Допустимая область в задаче 4 Так как Легко видеть, что векторы линейно зависимы, т. е. условие линейной независимости в точке 0 01 Fне выпол няется. Запишем условия Куна—Таккера и проверим, выполняются ли они в 0 0 1 Fточке (1, 0). Условия (3), (6) и (7) принимают сле дующий вид; (11) (12) (13) (14) (15) (16) При из уравнения (11) следует, что , тогда как уравнение (14) дает , Следовательно, точка оптимума не является точкой Куна — Таккера. Заметим, что нарушение условия линейной независимости не обязательно означает, что точка Куна—Таккера не существует. Для того чтобы подтвердить это, заменим целевую функцию из этого примера функцией . При этом оптимум по-прежнему достигается в точке (1,0), в которой условие линейной независимости не выполняется. 0 0 1 FУсловия Куна—Так кера (12) - (16) остаются неизменными, а уравнение (11) принимает вид Нетрудно проверить, что точка является точкой Куна —Таккера, т. е. удовлетворяет условиям Куна—Таккера. Теорема о необходимости условий Куна—Таккера позволяет 0 0 1 Fидентифицировать неоптимальные точки. Другими словами, тео рему 1 0 0 1 Fможно использовать для доказательства того, что задан ная допустимая 0 0 1 Fточка, удовлетворяющая условию линейной неза висимости, не является оптимальной, если она не удовлетворяет условиям Куна—Таккера. С другой стороны, если в этой точке условия Куна—Таккера выполняются, то нет 0 0 1 Fгарантии, что най дено оптимальное решение нелинейной задачи. В качестве примера рассмотрим следующую задачу нелинейного программирования. Следующая теорема устанавливает условия, при выполнении которых точка Куна—Таккера автоматически соответствует оптимальному решению задачи нелинейного программирования. Теорема.2 Достаточность условий Куна—Таккера Рассмотрим задачу нелинейного программирования (0) — (2). Пусть целевая функция выпуклая, все ограничения в виде неравенств содержат вогнутые функции , а ограничения в виде равенств содержат линейные функции . Тогда если существует решение , 0 0 1 Fудовлет воряющее условиям Куна—Таккера (3) — (7), то х* — 0 0 1 Fоп тимальное решение задачи нелинейного программирования. Если условия теоремы 2 выполняются, то нахождение точки Куна— Таккера обеспечивает получение оптимального решения задачи нелинейного программирования. Теорему 2 можно также использовать для доказательства оптимальности данного решения задачи нелинейного программирования. В качестве иллюстрации опять рассмотрим пример: Минимизировать при ограничениях С помощью теоремы 2 докажем, что решение является оптимальным. Имеем Так как матрица положительно полуопределена при всех х, функция оказывается выпуклой. Первое ограничение в виде неравенства содержит линейную функцию 0 01 F, которая одновре менно является как выпуклой, так и вогнутой. Для того чтобы показать, что функция является вогнутой, вычислим Поскольку матрица отрицательно определена, функция является вогнутой. Функция 0 01 F входит в линейное ограни чение в вяде равенства. Следовательно, все условия теоремы 2 выполнены; если мы 4. Функции нескольких переменных Ограниченные возможности симплексного метода, заключенные в задачах со сложными видами ограничений и произвольным видом целевой функции, привели к широкому использованию итеративных методов поиска оптимального решения. 0 0 1 FСначала рассмотрим вопрос анализа «в статике» с использова нием 0 0 1 Fположений линейной алгебры и дифференциального исчисле ния, а также условия, которые (в достаточно общих возможных ситуациях) позволяют 0 0 1 Fидентифицировать точки опти мума. Такие условия используются для проверки выбранных точек и дают возможность выяснить, являются ли эти 0 0 1 F 0 0 1 Fточки точками ми нимума или максимума. При этом задача вы бора указанных точек остается вне рамок проводимого анализа; основное внимание уделяется решению вопроса о том, соответствуют ли исследуемые точки решениям многомерной задачи безусловной оптимизации, в которой требуется минимизировать f(x) x при отсутствии ограничений на x, где x — вектор управляемых переменных размерности n, f — скалярная целевая 0 0 1 Fфункция. Обыч но предполагается, что xi (для всех значений i=1, 2, …, n) 0 0 1 Fмогут принимать любые значения, хотя в ряде практических при ложений область значений x 0 01 F выбирается в виде дискретного мно жества. Кроме того, часто оказывается удобным предполагать, что функция f и ее производные существуют и непрерывны всюду, хотя известно, что оптимумы могут достигаться в точках разрыва f или ее градиента Градиентом функции f(х) называют вектор, величина которого определяет скорость изменения функции f(x), а направление совпадает с направлением наибольшего возрастания этой функции. Следует помнить, что функция f может принимать минимальное значение в точке x, в которой f или претерпевают разрыв. Кроме того, в этой 0 0 1 Fточке может не существовать. Для того чтобы по строить систему 0 0 1 Fконструктивных критериев оптимальности, необ ходимо (по крайней мере на первой стадии исследования) исключить из рассмотрения подобные 0 0 1 Fситуации, которые весьма усложня ют анализ. 4.1. Методы прямого поиска Ниже рассматривается вопрос анализа «в динамике» для функций нескольких переменных, т. е. исследуются методы и алгоритмы, 0 0 1 Fпозволяющие на итерацион ной основе получать оценки х*— вектора управляемых переменных, которому соответствует минимальное значение функции f(x 0 01 F). Ука занные методы применимы также к задачам 0 0 1 Fмаксимизации, в кото рых целевую функцию следует заменить на -f(х). 0 0 1 FМетоды, ориен тированные на решение задач безусловной оптимизации, можно разделить на три широких класса в соответствии с типом 0 0 1 Fиспользуе мой при реализации того или иного метода информации. 1. Методы прямого поиска, основанные на вычислении только значений целевой функции. 0 0 1 F2. Градиентные методы, в которых используются точные значе ния первых производных f(x). 3. Методы второго порядка, в которых наряду с первыми 0 0 1 Fпро изводными используются также вторые производные функции f(x). Ниже рассматриваются методы, относящиеся к каждому из 0 0 1 Fпере численных классов, поскольку ни один метод или класс методов не отличается высокой эффективностью при решении оптимизационных задач 0 0 1 Fразличных типов. В частности, возможны случаи, когда про исходит переполнение памяти ЭВМ; в других ситуациях вычисление значений целевой функции требует чрезмерных затрат времени; в некоторых задачах требуется получить решение с очень высокой степенью точности. В ряде приложений либо невозможно, либо весьма затруднительно найти 0 0 1 Fаналитические выражения для произ водных целевой функции. Поэтому 0 0 1 Fесли предполагается использо вать градиентные методы, следует применить процедуру разностной аппроксимации производных. В свою очередь это 0 0 1 Fприводит к необ ходимости экспериментального определения длины шагов, 0 0 1 Fпозво ляющего установить надлежащее соответствие между ошибкой округления и ошибкой аппроксимации. Таким образом, инженер вынужден 0 0 1 Fприспосабливать применяемый метод к конкретным ха рактеристикам решаемой задачи. Методы решения задач безусловной оптимизации отличаются относительно высоким уровнем развития по сравнению с другими методами нелинейного программирования. Ниже речь идет о методах прямого поиска, для реализации которых требуются только значения целевой функции; в следующем разделе рассматриваются градиентные методы и методы второго порядка. Здесь предполагается, что f(x) непрерывна, а может как существовать, так и не существовать, поскольку соответствующие числовые значения не используются. Однако следует отметить, что методы прямого 0 0 1 Fпоиска можно приме нять для решения задач, в которых существует, и они часто используются в тех случаях, когда представляет собой сложную векторную функцию управляемых переменных. Наконец, в этом и последующих разделах предполагается, что функция f 0 01 F(х) унимо дальна в рассматриваемой области. Если же изучаемые методы применяются для 0 0 1 Fанализа мультимодальных функций, то приходит ся ограничиваться идентификацией локальных минимумов. 0 0 1 FМногомерные методы, реализующие процедуру поиска оптиму ма на основе вычисления значений функции, с общих позиций можно разделить на эвристические и теоретические. Эвристические методы, как это следует из названия, реализуют процедуры поиска с помощью интуитивных 0 0 1 Fгеометрических представлений и обеспечи вают получение частных 0 0 1 Fэмпирических результатов. С другой сто роны, теоретические методы основаны на фундаментальных математических теоремах и обладают такими операционными свойствами, как сходимость (по крайней мере при 0 0 1 Fвыполнении некоторых опре деленных условий). Ниже подробно рассматриваются три метода прямого поиска: более эффективных методов прямого поиска 0 01 Fдля решения возникаю щих на практике задач оптимизации. 0 0 1 FОдна из вызывающих особый интерес стратегий поиска положе на в основу метода поиска по симплексу, предложенного Спендли, Хекстом и Химсвортом. Следует отметить, что указанный метод и другие подобные методы не имеют отношения к симплекс-методу линейного 0 0 1 Fпрограммирования, а сходство названий носит случай ный характер. Процедура симплексного поиска Спендли, Хекста и Химсворта базируется на том, что экспериментальным образцом, содержащим наименьшее количество точек, является регулярный симплекс. Регулярный симплекс в n-мерном 0 0 1 Fпространстве пред ставляет собой многогранник, образованный n+1 равностоящими друг от друга точками-вершинами. Например, в случае двух 0 0 1 Fпере менных симплексом является равносторонний треугольник; в 0 0 1 Fтрех мерном пространстве симплекс представляет собой тетраэдр. В 0 0 1 Fалго ритме симплексного поиска используется важное свойство 0 0 1 Fсимплек сов, согласно которому новый симплекс можно построить на любой грани начального симплекса путем переноса выбранной вершины на надлежащее расстояние вдоль прямой, проведенной через центр тяжести 0 0 1 Fостальных вершин начального симплекса. Полученная та ким образом точка 0 0 1 Fявляется вершиной нового симплекса, а выбран ная при построении вершина начального симплекса исключается. Нетрудно видеть, что при переходе к новому симплексу требуется одно вычисление значения целевой функции. Рис 3 иллюстрирует процесс построения нового симплекса на плоскости. Рис.3.Построение нового симплекса. а – начальный симплекс б – новый симплекс Работа алгоритма симплексного поиска начинается с построения регулярного симплекса в пространстве независимых переменных и 0 0 1 Fоценивания значений целевой функции в каждой из вершин симп лекса. При этом определяется вершина, которой соответствует наибольшее значение целевой функции. Затем найденная вершина проецируется через центр тяжести остальных вершин симплекса в новую точку, которая используется в качестве вершины нового симплекса. Если функция убывает достаточно плавно, итерации продолжаются до тех пор, пока либо не будет накрыта 0 0 1 Fточка мини мума, либо не начнется циклическое движение по двум или 0 0 1 Fболее симплексам. В таких ситуациях можно воспользоваться следую щими тремя правилами. Правило 1. «Накрытие» точки минимума 0 0 1 FЕсли вершина, которой соответствует наибольшее значение це левой функции, построена на предыдущей итерации, то вместо нее берется вершина, которой соответствует следующее по величине значение целевой функции. Правило 2. Циклическое движение 0 0 1 FЕсли некоторая вершина симплекса не исключается на протя жении более чем М итераций, то необходимо уменьшить размеры симплекса с помощью коэффициента редукции и построить новый симплекс, выбрав в качестве базовой точку, которой соответствует минимальное значение целевой функции. Спендли, Хекст и Химс-ворт предложили вычислять М по формуле M=1,65n+0,05 где n — размерность задачи, а М округляется до ближайшего целого 0 0 1 Fчисла. Для применения данного правила требуется уста новить величину коэффициента редукции. Правило 3. Критерий окончания поиска Поиск завершается, когда или размеры симплекса, или разности между 0 0 1 Fзначениями функции в вершинах становятся достаточно ма лыми. Чтобы 0 0 1 Fможно было применять эти правила, необходимо за дать величину параметра окончания поиска. Реализация изучаемого алгоритма основана на вычислениях двух типов: (1) построении регулярного симплекса при заданных базовой точке и масштабном множителе и (2) расчете координат отраженной точки. Построение симплекса является достаточно простой процедурой, так как из элементарной геометрии известно, что при заданных начальной (базовой) точке 0 01 F и масштабном мно жителе координаты остальных n вершин симплекса в n-мерном пространстве вычисляются по формуле (7) для i и j=1,2,3,…,n Приращения и , зависящие только от n и выбранного 0 0 1 Fмас штабного множителя , определяются по формулам (8) (9) Заметим, что величина масштабного множителя выбирается 0 0 1 Fис следователем, исходя из характеристик решаемой задачи. При =1 ребра регулярного симплекса имеют единичную длину. Вычисления второго типа, 0 0 1 Fсвязанные с отражением относи тельно центра тяжести, также представляют несложную процедуру. Пусть — точка, подлежащая отражению. Центр 0 0 1 Fтяжести осталь ных n точек расположен в точке (10) Все точки прямой, проходящей через и хс, задаются формулой 3. Не существует простого способа расширения симплекса, не требующего пересчета значений целевой функции во всех точках образца. Таким образом, если по какой-либо причине уменьшается (например, если 0 0 1 Fвстречается область с узким «оврагом» или «хреб том»), то поиск должен продолжаться с уменьшенной величиной шага. 4.1.2. Метод поиска Хука-Дживса. Метод, разработанный Хуком и Дживсом, является одним из первых алгоритмов, в которых при определении нового направления поиска учитывается информация, полученная на предыдущих итерациях. По существу процедура Хука—Дживса представляет собой комбинацию «исследующего» поиска с циклическим изменением переменных и ускоряющегося поиска по образцу с использованием определенных эвристических правил. Исследующий поиск ориентирован на выявление характера локального поведения целевой функции и определение направлений вдоль «оврагов». Полученная в результате исследующего поиска информация затем используется в процессе поиска по образцу при движении по «оврагам». Исследующий поиск. Для проведения исследующего поиска необходимо задать величину 0 0 1 Fшага, которая может быть раз личной для разных координатных 0 0 1 Fнаправлений и изменяться в про цессе поиска. Исследующий поиск начинается в некоторой исходной точке. Если значение целевой функции в 0 0 1 Fпробной точке не превы шает значения функции в исходной точке, то шаг 0 0 1 Fпоиска рассматри вается как успешный. В противном случае необходимо вернуться в предыдущую точку и сделать шаг в противоположном направлении с последующей проверкой значения целевой функции. После 0 0 1 Fпере бора всех N 0 0 1 Fкоординат исследующий поиск завершается. Получен ную в результате точку называют базовой точкой. Поиск по образцу. Поиск по образцу заключается в реализации единственного шага из полученной базовой точки вдоль-прямой, соединяющей эту точку с предыдущей базовой точкой. Новая точка образца определяется в соответствии с формулой 0 0 1 FКак только движение по образцу не приводит к уменьшению целе вой функция, точка 0 01 F фиксируется в качестве временной базо вой точки и 0 0 1 Fвновь проводится исследующий поиск. Если в резуль тате получается точка с меньшим значением целевой функции, чем в точке , то она рассматривается как новая базовая точка . С другой стороны, если исследующий поиск неудачен, необходимо вернуться в точку и провести 0 0 1 Fисследующий поиск с целью вы явления нового направления минимизации. 0 0 1 FВ конечном счете, воз никает ситуация, когда такой поиск не приводит к успеху. В этом случае требуется уменьшить величину шага путем введения 0 0 1 Fнеко торого множителя и возобновить исследующий поиск. Поиск 0 0 1 Fзавер шается, когда величина шага становится достаточно малой. 0 0 1 FПосле довательность точек, получаемую в процессе реализации метода, можно записать в следующем виде: - текущая базовая точка, - предыдущая базовая точка, - точка, построенная при движении по образцу, - следующая (новая) базовая точка. Приведенная последовательность характеризует логическую 0 0 1 Fструк туру поиска по методу Хука — Дживса. Структура метода поиска Хука — Дживса Шаг 1 . Определить: начальную точку , приращения коэффициент уменьшения шага , параметр окончания поиска . Ш а г 2. ровести исследующий поиск. 0 0 1 FШ а г 3. Был ли исследующий поиск удачным (найдена ли точ ка с меньшим значением целевой функции)? Да: перейти к шагу 5. Нет: продолжать. Ш а г 4. Проверка на окончание поиска. Выполняется ли неравенство ? 0 0 1 FДа: прекратить поиск; текущая точка аппроксимирует точку оп тимума . Нет: уменьшить приращения по формуле Перейти к шагу 2. Ш а г 5. Провести поиск по образцу: Шаг 6. Провести исследующий поиск, используя 0 01 F в ка честве базовой точки; пусть полученная в результате точка. Ш а г 7. Выполняется ли неравенство ? Да: положить Перейти к шагу 5. Нет: перейти к шагу 4. Пример 6 Поиск по методу Хука — Дживса Найти точку минимума функции используя начальную точку . Решение.
Docsity logo