Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10)...

98
ЕВРОПЕЙСКИ СЪЮЗ ЕВРОПЕЙСКИ СОЦИАЛЕН ФОНД Република България Министерство на образованието, младежта и науката Оперативна програма “Развитие на човешките ресурси” 2007 – 2013 Схема за предоставяне на безвъзмездна финансова помощ: “Подкрепа за развитието на докторанти, пост-докторанти, специализанти и млади учени” ПРОЕКТ : BG051PO001-3.3.04/40 ИЗГРАЖДАНЕ НА ВИСОКОКВАЛИФИЦИРАНИ МЛАДИ ИЗСЛЕДОВАТЕЛИ ПО СЪВРЕМЕННИ ИНФОРМАЦИОННИ ТЕХНОЛОГИИ ЗА ОПТИМИЗАЦИЯ, РАЗПОЗНАВАНЕ НА ОБРАЗИ И ПОДПОМАГАНЕ ВЗЕМАНЕТО НА РЕШЕНИЯ Период за реализация на проекта: 28.08.2009 – 27.08.2011

Transcript of Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10)...

Page 1: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

ЕЕВВРРООППЕЕЙЙССККИИ ССЪЪЮЮЗЗ ЕЕВВРРООППЕЕЙЙССККИИ ССООЦЦИИААЛЛЕЕНН ФФООННДД

Република България

Министерство на образованието, младежта и науката

Оперативна програма “Развитие на човешките ресурси”

2007 – 2013

Схема за предоставяне на безвъзмездна финансова помощ: “Подкрепа за развитието на докторанти,

пост-докторанти, специализанти и млади учени”

ППРРООЕЕККТТ:: BBGG005511PPOO000011--33..33..0044//4400 ИИЗЗГГРРААЖЖДДААННЕЕ ННАА ВВИИССООККООККВВААЛЛИИФФИИЦЦИИРРААННИИ ММЛЛААДДИИ ИИЗЗССЛЛЕЕДДООВВААТТЕЕЛЛИИ

ППОО ССЪЪВВРРЕЕММЕЕННННИИ ИИННФФООРРММААЦЦИИООННННИИ ТТЕЕХХННООЛЛООГГИИИИ ЗЗАА ООППТТИИММИИЗЗААЦЦИИЯЯ,, РРААЗЗППООЗЗННААВВААННЕЕ ННАА ООББРРААЗЗИИ

ИИ ППООДДППООММААГГААННЕЕ ВВЗЗЕЕММААННЕЕТТОО ННАА РРЕЕШШЕЕННИИЯЯ

Период за реализация на проекта: 28.08.2009 – 27.08.2011

Page 2: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

2

ЕВРОПЕЙСКИ СЪЮЗ

ЕВРОПЕЙСКИ СОЦИАЛЕН ФОНД

Лекция на тема:

“Конвенционални и интелигентни методи за оптимизация”

проф. Стоян К. Стоянов

Химикотехнологичен и металургичен

университет – София

01.10.2010 г. София

Page 3: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

4

Съдържание стр.

Въведение 5

1. Постановка на оптимизационните задачи 6

2. Основни конвенционални методи за оптимизация 18

3. Методи за търсене на глобален екстремум 48

4. Многокритериално вземане на оптимални решения 61

5. Определяне на тегловни коефициенти при многокритериално

вземане на решения 81

6. Методи и алгоритми за оптимизация при непълна информация 91

Литература 97

Page 4: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

5

Въведение

В лекционните материали е дефинирана общата задача за статична и динамична оптимизация и са посочени основните видове оптимизационни задачи. Разгледани са необходимите предпоставки при формулиране и решаване на оптимизационни задачи и основните методи за тяхното решаване. Разгледани са най-използваните и ефективни конвенционални методи на нелинейната оптимизация.

Разгледани са и някои интелигентни подходи при търсене на глобален екстремум и при оптимизация с непълна информация.

Дадени са и методи и стратегии за вземане на оптимални решения при много критерии, определяне на приоритети на критериите и техните тегловни коефициенти. За по точно и лесно възприемане на тези стратегии са приложени и авторски примери.

Page 5: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

6

1. Постановка на оптимизационните задачи

1.1. Въведение

Оптимизацията е целенасочена дейност за получаване на най-добър резултат в определен смисъл и при определени условия.

При различни дейности на изследователите се налага те да разглеждат множество варианти и да вземат решения за избора на един от тях. Изборът на най-доброто решение, удовлетворяващо даден критерий за оптималност (критерий на качеството), е свързан с процес на търсене. Задачата за търсене на оптималното решение се поставя както при изследване на съществуващи технологични процеси, така и в стадия на тяхното проектиране. Търсенето на оптималното решение става или експериментално или аналитично. Най-често се използва аналитичното търсене на оптимално решение по схемата дадена на Фиг. 1.1.

Фиг. 1.1. Основна схема на оптимизационен процес

На базата на експерименти, опита и знанията за обекта се съставя математичен модел на процеса (обекта, системата). Оценяват се параметрите на математичния модел и моделът се симулира на компютър. С използването на процедура за търсене на оптимално решение се намира оптималния проект, оптималното управление или условията за получаване на оптимално качество.

1.2. История на оптимизацията

Търсенето на оптимални решения е съпътствало човека от зараждането на човешкия род. Но математическите основи на оптимизацията са свързани с имената на Newton I. (1642 - 1727); Lagrange J. L. (1736 - 1813); Gauss C. F. (1777 - 1855); Cauchy A. L. B. (1789 - 1857) и други. Първите най-известни книги, които оформят началните съвременните научни и приложни основи на оптимизацията са книгите на:

* Bellman R., (1957), “Динамично програмиране”; * Hadley G., (1962), “Линейно програмиране”; * Pontryagin L., (1962), “Математическата теория на оптималните процеси”; * Dantzig G., (1963), “Линейното програмиране и развитие”; * Wilde D., (1964), “Методи за търсене на екстремум”;

РЕАЛЕН СВЯТ, ИЗСЛЕДОВАТЕЛ, ПРОЕКТАНТ, ...

МАТЕМАТИЧЕН МОДЕЛ

ОПИТ ЗНАНИЯ

ЕКСПЕ-

РИМЕНТИ

ОЦЕНКА НА ПАРА-МЕТРИ

СИМУЛИРАНЕ

ОПТИМИЗАЦИЯ

БАЗА ДАННИ, БАЗА ЗНАНИЯ

ОПТИМАЛЕН ПРОЕКТ,

ОПТИМАЛНОКАЧЕСТВО

ОПТИМАЛНОУПРАВЛЕНИЕ

Page 6: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

7

* Fiacco A. and G. McCormick, (1968), “Нелинейно програмиране. Методи за последователно нелинейно програмиране без ограничения”;

* Beveridge G. and R. Schachter, (1970), “Оптимизация: Теория и практика” * Himmelblau D., (1970), “Анализ на процеси”; * Fox R., (1971), “Оптимизационни методи и инженерно проектиране”; * Polak E., (1971), ”Изчислителни методи в оптимизацията”; * Himmelblau D., (1972), “Приложно нелинейно програмиране”.

Във втората половина на двадесети век се появяват стотици нови книги по оптимизация. Някои по достъпни у нас са [1, 2, 3, 4].

1.3. Необходими предпоставки за оптимизация

Необходимите предпоставки за реализиране на една оптимизационна задача са следните:

1. Обект за оптимизация. Обектът за оптимизация може да бъде производствен процес, система, апарат, агрегат, машина дори и човешката дейност за определен период от време.

2. Критерий за оптималност. Това е числен показател, по който се оценява обекта за оптимизация. Той може да е технически (маса, габарити), технологичен (добив, чистота, якост), икономически (печалба, себестойност) и смесен технико – икономически. Най-добрата стойност на критерия за оптималност се нарича оптимум или екстремум.

3. Управляемост на обекта. За да се осигури управлението на обекта, трябва да има управляващи параметри (степени на свобода), които се изменят независимо един от друг, вследствие на което се получават множество варианти на състоянието на обекта, от които се избира най-добрият.

4. Метод за оптимизация. Той е най-важната предпоставка за решение на оптимизационните задачи, тъй като той отразява принципната същност на процеса на търсене на най-добрият резултат независимо от характера на обекта за оптимизация и поставената цел. Не е възможно по един единствен метод да се решават всички оптимизационни задачи, които възникват в практиката. Изборът на конкретен метод се определя от изискванията и характера на обекта и от правилната постановка на оптимизационната задача. Ето защо е необходимо да се познават различни методи за намиране на оптимални решения, техните особености, свойства и области на приложение.

Задължителната последователност на етапите при търсене на оптималното решение са следните:

1. Определяне на изискванията към обекта; 2. Избор на целева функция; 3. Избор на управляващи параметри; 4. Избор на метод за оптимизация; 5. Намиране на оптимално решение. Алгоритъмът за решаване на оптимизационната задача е последователност от

логически и изчислителни действия, с които се постига най-добрият резултат при поставените условия. Най-важните изисквания към алгоритмите за изискванията за сходимост и универсалност. Но въпреки усилията на много изследователи и десетки предложени методи за оптимизация, се оказва, че един алгоритъм дава бързосходимо решение за една задача, но не решава други и обратно.

Една от най-важните предпоставки за решението на оптимизационните задачи е правилно формулираната цел, която определя възможността за решаване на оптимизационната задача. Формулировка като „Да се получи максимална производителност при минимален разход на суровина” води до тривиалното решение – нищо да не се произвежда. Правилната формулировка на тази задача е „Да се постигне максимална производителност при зададено количество суровина”.

Page 7: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

8

Крайното решение на една оптимизационна задача обикновено е свързано с голям брой междинни решения, от които се избира най-доброто. Ето защо друга важна предпоставка при търсене на екстремум е необходимостта от изчислителна машина и съответното програмно осигуряване за оптимизация.

1.4. Обща формулировка на оптимизационните задачи По принцип оптимизационното изследване се провежда при непосредствено

експериментиране с обекта по схемата: управляващо въздействие – резултат – ново управляващо въздействие. На практика обаче оптимизационните изследвания се извършват, като обектът или системата се представя чрез математически модел. Математичните модели дават възможност за числени експерименти и за най-икономично изучаване на влиянието на управляващите параметри върху качеството на функциониране на съществуващата система или върху критерия за ефективност на проектираната.

В най-общ вид една оптимизационна задача се дефинира по следния начин. Търси се максимум на целевата функция

Q(x) = Q(x1, x2,…,xn) (1.1)

в пространството определено от управляващите параметри

x Гx (1.2)

и наложените ограничения от други функции:

i (x1, x2,…,xn) = 0il , i = 1,2,…,ml < n (1.3)

j (x1, x2, …,xn) 0j , j = 1,2,…,m2 . (1.4)

Съотношенията (1.3) се наричат функционални ограничения тип равенство, а (1.4) - ограничения тип неравенство или областни ограничения. В конкретните задачи някои от неравенствата (1.4) могат бъдат обратни или двустранни.

Задачата за оптимизация е, да се намерят такива стойности на управляващите параметри x* = (x1

*, x2*,…, xn

*), за които се изпълнява условието:

Q(x*) = Q(x1*, x2

*,…, xn*) = Qmax > Q(x1, x2,…, xn) (1.5)

при спазване на ограниченията (1.2), (1.3), (1.4):

x* Гx (1.6)

i (x1*, x2

*,…,xn*) = 0i , i = 1,2,…,ml < n (1.7)

j (x1*, x2

*, …,xn*) 0j , j = 1,2,…,m2 , (1.8)

т.е. ,,*

xx

Множеството от точки, които удовлетворяват ограниченията (1.2), (1.3) и (1.4), се нарича множество на допустимите решения за целевата функция Q(x) или за краткост допустима област - ,,

*xx .

Когато (1.1), (1.3) и (1.4) са нелинейни функции на х, формулираната задача от (1.1) до (1.8) се нарича нелинейна оптимизационна задача или обща задача на нелинейното програмиране.

Когато целевата функция (1.1) и ограниченията (1.3) и (1.4) са линейни функции на х, оптимизационната задача е линейна или задача на линейното програмиране.

Ако целевата функция е линейна, а ограниченията нелинейни или обратното, задачите също се причисляват към нелинейното програмиране, въпреки че има и други класификации.

В редица други случаи критерият за оптималност на технологични обекти не може да се изрази само с една целева функция, а се представя с множество критерии или така

Page 8: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

9

наречен векторен критерий за оптимизация Q (добив, чистота, физико-механични показатели, цвят, цена и други):

Qj = Qj(x) , j = 1,2,…,m. (1.9)

Изискванията към всеки критерий Qj(x) са различни и оптималото решение x* не може да удовлетвори максимално всичките. Тогава се формулира така наречената задача за многокритериална оптимизация (векторна оптимизация, компромисна оптимизация).

Когато се търси оптимално решение на обект, който е в динамично или многостадийно състояние, оптимизационната задача се дефинира чрез интегралната целева функция:

k

yxxQ0

max)),(),(())(( . (1.10)

Задачата се решава с методите на динамичното програмиране или оптималното динамично управление (принцип на максимума).

1.5. Графична интерпретация на оптимизационните задачи

Графично изобразяване на целевата функция Q(x) е възможно само при един и два

управляващи параметъра. При п = 2 управляващи параметъра това изобразяване се прави чрез линиите на постоянни стойности на Q(x1, x2) (фиг.1.2). Те се получават чрез пресичане на целевата повърхнина с равнини, успоредни на координатната равнина (x1, x2) и прекарани през определени стойности на ординатата Q(x1, x2)= Qconst. По-нататък, при излагане на методите за оптимизация, графичната интерпретация се извършва в двумерното пространство на управляващите параметри, а разсъжденията по аналогия се правят и за многомерното, когато п>2 .

Фиг. 1.2. Графично представяне на целевата функция с линии на постоянно ниво 1.6. Видове целеви функции Когато в допустимата област на изменения на управляващите параметри целевата

функция има само един екстремум от търсения вид, тя се нарича едноекстремална или унимодална, а при наличие на повече от един минимум (или максимум) – многоекстремална или мултимодална.

При многоекстремални целеви функции глобалният екстремум е най-добрата стойност на целевата функция сред множество локални екстремуми

1

Page 9: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

10

Целевите функции могат да бъдат линейни и нелинейни. Функцията е нелинейна, когато зависимостта (1.1) e нелинейна по отношение на управляващите параметри x, в противен случай тя се нарича линейна.

Нелинейната целева функция е квадратична, ако може да се представи във вида:

n

i

n

i

n

jjiijii xxbxbbQ

1 1 10)(x (1.11)

Прости целеви функции се наричат лесноизчислимите и леснодиференцируемите функции, при които производните от първи и втори ред могат да се получат аналитично. Квадратичните целеви функции са сравнително прости.

Сложна целева функция се нарича функцията, която изисква много време за изчисляването й, често пъти е зададена в неявен вид и е труднодиференцируема аналитично. Сложни функции обикновено са неквадратичните, многоекстремалните, овраговите, с трансцедентни зависимости и други функции.

1.7. Класификация на оптимизационните задачи и методи

Признаците, по които могат да се класифицират оптимизационните задачи, са много. Те се разделят на няколко по-големи групи (фиг. 1.3).

Задачите за статическа оптимизация възникват, когато обектът се разглежда в стационарно (равновесно) състояние, т.е. след затихване на преходния процес.

Задачата за динамическа оптимизация се поставя, когато в целевата функция участват параметри, зависещи от времето, или се налага оптималната работа на обекта да се разглежда многостадийно във времето или пространството.

Когато целевата функция (1.1) или някое от наложените ограничения (1.3), (1.4) е нелинейна функция на управляващите параметри, задачата е за нелинейна оптимизация, известна като задача на нелинейното програмиране. Ако целевата функция е линейна и наложените ограничения също са линейни, оптимизационната задача е линейна или задача на линейното програмиране.

Фиг. 1.3. Класификация на оптимизационните задачи

Задачите на нелинейната оптимизация имат много разновидности и изборът на

алгоритъм за решение зависи главно от вида на целевата функция, броят и вида на управляващите параметри и от вида на ограниченията (фиг. 1.4).

Оптимизация на обекти и системи

Оптимизация в статика

Оптимизация в динамика

Нелинейно програмиране

Оптимално динамично управление

Линейно програмиране

Динамично програмиране

Page 10: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

11

Фиг. 1.4. Избор на алгоритъм за оптимизация В зависимост от управляващите параметри задачита се делят:

1. задачи за едномерно търсене (n = 1); 2. задачи за многомерно търсене (с малка n = 4 ÷ 5, средна 5<n<20 и голяма

размерност n > 20); 3. задачи с пълна и непълна информация за параметрите в математичния модел; 4. задачи в барицентрично, Декартово или смесено пространство на

управляващите параметри; 5. задачи с непрекъснати, дискретни и смесени управляващи параметри; 6. задачи със зададена или незададена начална точка при търсене на оптимума; 7. задачи със зададена абсолютна или относителна точност на локализация на

екстремума по всеки управляващ параметър. В зависимост от целевата функция методите се делят на:

1. методи за едноцелева оптимизация; 2. методи за многоцелева оптимизация; 3. със зададени и незададени производни на целевата функция; 4. зададена или незададена точност на локализация на екстремума по целева

функция; 5. оптимизация при оврагови целеви функции; 6. оптимизация при едноекстремални или многоекстремални целеви функции; 7. оптимизация при експериментално определена или аналитично зададена

целева функция. В зависимост от ограниченията оптимизационните задачи са:

1. без ограничения; 2. с фактории ограничения; 3. с функционални и смесени ограничения; 4. оптимизация в изпъкнали, неизпъкнали и несвързани допустими области.

Задачата за оптимизация се решава по някой от следните методи: 1. Аналитични методи - те се основават на анализа на производните чрез

класическия математичен анализ и вариационното изчисление. При много технологични задачи със сложни (трансцедентни) математични модели и при наличие на ограничения на управляващите параметри аналитичните методи не винаги са приложими, затова те не се разглеждат в тази разработка.

2. Числени (итеративни) методи - това са най-прилаганите методи за решаване на оптимизационните задачи с помощта на ЕИМ. Основават се на изучаване на целевата повърхнина и организиране на стъпки (итерации) за движение към екстремума.

Общата схема на итеративен метод в задачата на нелинейното програмиране е показана на фиг. 1.5 [1].

Конвенционални и неконвенционални (интелигентни) методи за нелинейна оптимизация

(а) Конвенционални методи за нелинейна оптимизация - Методи на сканирането; - Методи на Гаус – Зайдел; - Интерполационни методи;

Избор на алгоритъм за нелинейна оптимизация

Управляващи параметри

Ограничения Целева функция

Page 11: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

12

- Монте - Карло методи; - Неадаптивни методи на случайното търсене; - Симплексни методи; - Градиентни методи от първи ред; - Нютонови и квази-Нютонови методи; - Оврагови методи; - Експериментални методи; - Комбинирани методи.

(б) Неконвенционални (интелигентни) методи за нелинейна оптимизация - Адаптивни методи; - Евристични методи; - Еволюционни методи; - Генетични методи; - Методи основани на база знания; - Методи за оптимизация при непълна информация; - Методи за оптимално вземане на решения; - Комбинирани методи.

Фиг. 1.5. Обща схема за решаване на оптимизационни задачи Числените методи се делят на две групи:

2.1. С използване на производни на целевата функция (градиентни методи); 2.2. Без използване на производни (безградиентни методи).

Задаване на структура на обекта

Избор на управляващи параметри х

Необходимост от промяна на структурата

Оптимизационна процедура

Начални стойности на x

Анализ на Q(x)

Промяна на x

Нарушени ограничения

Математичен модел Y(x)

Ограничения (x) = 0, (x)

Целева функция

Q*, x*

x Гx

Не

Да

x0

Page 12: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

13

3. Графични методи - при тези методи оптимизационното решение се търси с помощта на графични изображения на целевата функция и ограниченията. Отличават се с голяма нагледност и възможност за изменения на условията на оптимизационната задача, но могат да се прилагат само при не повече от два управляващи параметъра или при трикомпонентни диаграми състав - свойства.

4. Експериментални методи - екстремумът на Q(х) може да се определи чрез организирани експерименти на реален обект вместо с изследване на математичния му модел чрез ЕИМ. Обикновено по резултатите от серия експерименти се прогнозира посоката към екстремума и се провеждат следващите експерименти. Тези методи са удобни при липса на математичен модел на обекта.

1.8. Изисквания към алгоритмите за оптимизация Алгоритъмът за решаване на оптимизационна задача е последователност от

логически и изчислителни действия, с които се постига най-добрият резултат при поставените условия.

Основните изисквания към оптимизационните алгоритми са: 1. Сходимост - под сходимост на решението по даден алгоритъм се разбира

получаване на числено решение, което не се различава от теоретичното с повече от зададената точност по целева функция и (или) по управляващи параметри.

2. Бърза сходимост - получаване на решение за кратко време с малък брой изчисления на целевата функция.

3. Малка заемана памет от програмата на ЕИМ. 4. Лесна подготовка на условията на задачата за алгоритъма и минимална входна

информация за работата на програмата. 5. Сигурно изпълнение на критерия за спиране на търсенето съобразно зададената

точност. 6. Изпълнение на всички ограничения, наложени от задачата. 7. Универсалност. Най-важните изисквания към алгоритмите са изискванията за сходимост и

универсалност. Въпреки усилията на много изследователи и десетките предложени методи за оптимизация, все още не е създаден алгоритъм, по който да се решават всички или даже голям брой класове задачи. Оказва се, че един алгоритъм дава бързосходимо решение за една задача, но не решава други и обратното.

Не може да се препоръча и единен критерий за прекратяване на търсенето при числените алгоритми. Най-разпространен е критерият за точност на локализация на екстремума по управляващи параметри, т.е. по зададена минимална стъпка hmini . Според него търсенето се прекратява, ако е изпълнено условието:

hi hmini , i = 1,2,…,n . (1.13)

Ако целевата функция е с голяма чувствителност на екстремума (фиг.1.6 б и фиг.1.6 е), полученото решение може да се окаже незадоволително по стойност на екстремума.

Другият препоръчван критерий - по разликата на управляващите параметри на всеки две последователни итерации, също може да води до преждевременно спиране на търсенето (фиг. 1.6 г):

1

)1(

k

kk

x

xx. (1.14)

Критериите за прекратяване на търсенето по стойност на целевата функция също са неефективни в някои случаи. Например критерият

2)(

)()1(

)(

)()(

k

kk

Q

QQ

x

xx (1.15)

Page 13: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

14

води до преждевременно спиране, когато функцията Q(х) е с малка чувствителност на оптимума (тип плато или по линия на овраг) - фиг.1.6 а и фиг.1.6 е. Освен това чувствителността на функцията Q(х), изразена чрез първите производни в околността на екстремума, може силно да се различава в отделните направления.

Фиг. 1.6. Чувствителност на екстремума в оптимизационните задачи

В по-голяма част от разглежданите алгоритми в разработката е използван критерият

по минимална околност за локализация на екстремума, т.е. по минимален параметър на стъпката. Изследователите предпочитат този критерий, тъй като обикновено по-добре се познават управляващите параметри, тяхното влияние и точност на измерване, отколкото видът на целевата функция и стойността на екстремума. За да се избегне недостатъчно точното локализиране на екстремума при изпълнение на критерия (1.13) по минимален параметър на стъпката (фиг.1.7 а), може да се препоръча двоен критерий, формиран по следния начин:

nQ

QQhh iii ,...,2,1,

21)( 3

)2()1(

min

(1.13)

където Q(1) и Q(2) са двете най-близки стойности от стъпковото търсене до предполагаемия екстремум Q*, определен по алгоритъма.

Препоръчва се, след като се изпълни първото неравенство за параметъра на стъпката в (1.13), да се провери и вторият критерий за точност на Q(х). Ако са изпълнени и двата (фиг. 1.7 б), търсенето се прекратява. Ако второто неравенство в (1.13) не се изпълнява, параметърът на стъпката hi продължава да се намалява и търсенето продължава до изпълнение и на двата подкритерия в (1.13).

Критерият (1.13) става неустойчив, ако Q* 0. За такива случаи се препоръчва критерият:

nhh iii ,...,2,1,2

)( 42)1(

min

(1.14)

където:

Page 14: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

15

∆(1) = Q* - Q(1) (1.15)

∆(2) = Q* - Q(2) (1.16)

Фиг. 1.7. Локализиране на екстремума

В някои оптимизационни задачи се задава не абсолютната hmin, а относителната

точност за локализация на екстремума minh . В такъв случай вместо (1.13) в критерия за спиране на търсенето се включва изпълнение на условието:

iT

ii h

x

hh min*

, i = 1, 2, …, n (1.17)

където x*T е текущото приближение към максимума.

Относителната точност ihmin , може да участва също така и в критериите (1.13) и

(1.14). Обикновено един алгоритъм се изпълнява за решаване на оптимизационна задача за

търсене или на максимум, или на минимум. Ако се разполага с алгоритъм и програма на ЕИМ за търсене на максимум, тя може да се използва и за търсене на минимум. За целта е необходимо да се смени знакът на целевата функция и да се заложи в програмата Q = - Q(х), тъй като

minQ(x) = - max[ - Q(x)] (1.18)

и обратно

maxQ(x) = - min[- Q(x)] (1.19)

В по-нататъшното разглеждане на методите и алгоритмите се приема, че се търси максимум, ако не е отбелязано за конкретната задача противното.

1.9. Графични примери за оптимизационни задачи

На следните фигури са дадени графични примери на основните типове оптимизационни задачи:

На Фиг. 1.8 - Оптимизационна задача само с фактории ограничения; На Фиг. 1.9 - Оптимизационна задача с функционално ограничение тип равенство; На Фиг. 1.10 - Оптимизационна задача с неравенствени функционални ограничения; На Фиг. 1.11 - Оптимизационна задача със смесени функционални ограничения тип

равенство и неравенство; На Фиг. 1.12 - Оптимизация при оврагова целева функция; На Фиг. 1.13 - Многоекстремална оптимизационна задача; На Фиг. 1.14 - Оптимизационна задача на линейното програмиране.

Page 15: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

16

Фиг. 1.8. Оптимизационна задача само с фактории ограничения

Фиг. 1.9. Оптимизационна задача с функционално ограничение тип равенство;

Фиг. 1.10. Оптимизационна задача с неравенствени функционални ограничения;

Page 16: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

17

Фиг. 1.11. Оптимизационна задача със Фиг. 1.12, Оптимизация при оврагов смесени функционални ограничения тип целева функция равенство и неравенство

Фиг. 1.13. Многоекстремална Фиг. 1.14. Оптимизационна задача оптимизационна задача на линейното програмиране.

Page 17: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

18

2. Основни конвенционални методи за оптимизация

2.1. Оптимизация при целева функция с един управляващ параметър При много оптимизационни задачи е необходимо да се намери максимумът на целева

функция, която зависи само от един управляващ параметър, например: определяне на оптималната температура в реактор, при която се получава максимален добив; определяне на оптималната дебелина на изолацията на топлообменен апарат, при която разходите за нагряващата среда и за изолационен материал са минимални; минимизация на функционал при оценка на параметър в математичен модел; определяне на оптималната производителност за получаване на минимална себестойност при дадено производство и много други. Тази задача, макар и проста, е особено важна както при експериментална или числена оптимизация с един параметър, така и при решаване на многопараметрични оптимизационни задачи, т.е. когато целевата функция зависи от много управляващи параметри [1, 2, 3].

Една такава оптимизационна задача се дефинира по следния начин: нека е дадена целевата функция, на която се търси максимум:

Q = Q(x) (2.1)

при наложени ограничения на управляващия параметър:

a ≤ x ≤ b или x [a, b]. (2.2)

Задачата е да се намери такава стойност на управляващия параметър х*, при която целевата функция има максимум в допустимите граници на изменение на х (фиг. 2.1):

Q(x*) = Qmax > Q(x) (2.3)

при следните ограничения:

a ≤ x* ≤ b. (2.4)

Фиг. 2.1. Унимодална едномерна целева функция с (а) безусловен максимум и (б) с условен максимум

Полученият максимум може да бъде безусловен или условен (Фиг. 2.1). Условието (2.2) почти винаги съществува при решаване на реални задачи, но в някои

случаи не се задава, например при оценяване на параметър в математичен модел. Ограниченията на управляващия параметър могат да бъдат и едностранни със зададена само долна граница a или горна b.

Page 18: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

19

В математичния анализ са известни аналитични методи за решаване на този тип задачи чрез диференциране на целевата функция и изследване на производството. Тези методи обаче са приложими за прости задачи, при които е лесно да се диференцира Q(x) и да се намери х* чрез решаването на Q'(x) = 0. При сложни математични модели и сложни трансцедентни зависимости аналитичното решаване често пъти е трудно или невъзможно и е необходимо да се прилагат числени методи с помощта на ЕИМ за решаването на оптимизационната задача. Това важи особено за задачите в автоматизираното проектиране или изследване на множество варианти за избор на оптимален вариант при наличие на ограничението (2.2).

Методите за едномерна оптимизация с използване на ЕИМ се разделят на две основни групи:

1. Методи на сканирането в различни модификации - те се основават на последователното изследване на целевата функция в различни точки на областта [а, b] достигане на предварително зададения интервал на неопределеност min. Известни са методите на сканиране с постоянна и променлива стъпка, методът на "дихотомията", методът на "златното сечение", методът на Кифер - Джонсън с използването на числата на Фибоначи и неговите модификации. Повечето от тези методи изискват строго да се задават началните граници на неопределеност [а, b] и се основават на деленето на текущия интервал (k) на части, отнасящи се помежду си в определено съотношение, което гарантира сходимостта на решението при унимодални целеви функции.

2. Интерполационни методи – при тези методи не е необходимо да се задава началният интервал [а, b]. При тях по определен брой точки за целевата функция се прави квадратична или кубична апроксимация с полином, по който се намира текущото приближение към екстремума.

2.1.1. Методи на сканирането 2.1.1.1. Сканиране с постоянна стъпка

При методите на сканирането при едномерна оптимизация последователно се изследва

целевата функция през определени интервали на управляващия параметър, наречени стъпки на сканирането. Когато сканирането е с постоянна стъпка от започване на решението на задачата до завършването му, то се нарича сканиране с постоянна стъпка. Като се започне от началото на интервала a, целевата функция Q(x) се изчислява във всички точки при последователно нарастване на х с до стигане на горната граница b. При сравнение на получените резултати за целевата функция Q за максимум се приема най-добрият (максималният) резултат, а съответната стойност х*, която го определя - за негови координати. Полученият максимум е локализиран с точност min = . Алгоритъмът на метода на сканиране с постоянна стъпка е показан на Фиг. 2.2.

При сканиране с постоянна стъпка точността на локализация на максимума е толкова по-голяма, колкото стъпката на сканиране е по-малка, но в същото време броят на изчисленията S на целевата функция Q(x) се увеличава.

Зависимостта между точност и "загуби" на търсене S се определя от формулата:

1

ab

S . (2.5)

Предимствата на метода на сканирането с постоянна стъпка са следните: а) методът е лесен за алгоритмизация; б) при малка стъпка дава възможност за намиране на глобален екстремум.

Недостатък на метода е много големият брой необходими изчисления на Q(x).

Page 19: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

20

Фиг. 2.2. Блоков алгоритъм на метода на сканиране

2.1.1.2. Сканиране с променлива стъпка

За да се избегне посоченият основен недостатък при сканирането с постоянна стъпка, може да се направи сканиране с променлива стъпка. За целта първото сканиране се прави с голяма стъпка (1) и грубо се локализира екстремумът xm . След това областта на локализация xm

(1) ± (1) се избира за нов интервал (област) [а, b] и сканирането се прави с по-малка стъпка . Стъпката се променя, докато се постигне желаната точност min. Въпреки че сканирането с променлива стъпка изисква по-малък брой изчисления на целевата функция, при многоекстремална функция има вероятност глобалният екстремум да се пропусне.

2.1.1.3. Сканиране с променлива обратна стъпка

Както бе казано по-горе при някои технологични задачи е възможно горната граница b на областта или долната а да не бъде зададена. В други случаи, като например оценка на параметър в математичен модел, може да липсват и двете граници. В такива случаи се препоръчва едномерният симплексен метод, известен още като сканиране с променлива възвратна стъпка.

Qmax, Xm

Входни данниa, b,

Q(x) max

Qmax = Q(a)

X = a

Xm = a

X = X +

X > b

Q1 = Q(x)

Q1 > Qmax

Qmax = Q1

Xm = X

Край

Да

Да

Не

Не

Page 20: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

21

Графичната интерпретация на метода е показана на фиг. 2.3. Отначало сканирането започва с голяма стъпка (0) и продължава до получаване на неуспешен резултат за целевата функция, т. е. по-малка стойност за Q(x) от предходната. В такъв случай посоката на сканиране се променя, като се тръгва от последния неуспешен резултат в обратна посока с намалена стъпка (1). При ново достигане на неуспешен резултат посоката отново се променя и се прави сканиране с намалена стъпка (2) и така нататък до получаване на желаната точност на локализация min. Последният най-добър (максимален) резултат за Q(x) е търсеният максимум, локализиран с крайната стъпка (k).

Фиг. 2.3. Сканиране с променлива възвратна стъпка

Препоръчва се всяка следваща намалена стъпка да се определя, като предишната се дели на четири:

4

)()1(

kk

. (2.6)

Като недостатък на метода може да се посочи, че той гарантира намиране на екстремум само при унимодални (едноекстремални) целеви функции.

2.1.2. Метод на “дихотомията” Методът на "дихотомията" или методът на "делене на половина" представлява

своеобразно сканиране на допустимата област [а, b], при което на всяка итерация областта за изследване се намалява два пъти [1].

От графичната интерпретация на метода (фиг. 2.4) се вижда, че на всяка итерация областта на изследване се намаля на половина, а останалата неизследвана област е разделена на две равни части, всяка от които при следващата итерация се дели на още две и така нататък, докато се постигна желаната точност min. Оттук идва и наименованието ма метода – “дихотомия“ или “ делена на половина “.

Методът на “дихотомията” гарантира намирането на максимум на унимодална целевата функция.

Page 21: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

22

Фиг. 2.4. Графична илюстрация на метода на “дихотомията”

2.2. Безградиентни методи за оптимизация при много управляващи параметри 2.2.1. Методи на сканирането

При метода на сканирането последователно (стъпково) се изследва целевата функция

в допустимата област и се избира най-добрият резултат от множеството изследвани точки. Всъщност при много управляващи параметри сканирането се изпълнява като сканиране при един параметър с последователно стъпково изменение на останалите в цялата допустима област.

Графичната интерпретация на метода на сканиране по два управляващи параметъра е показана на фиг. 2.5.

Фиг. 2.5. Графична илюстрация на метода на двумерно сканиране с постоянна стъпка

За дадена стойност на единия параметър x2 се сканира x1 с определена стъпка ∆x1.

След като се изследва целият интервал xmin1 x1 xmax1 и се запомни най-добрият резултат Qm с координатите му xe1 и xe2, се изменя параметърът x2 със стъпка x2 и процедурата на сканирането по x1 отново се повтаря. След достигане на горната граница хmax2 сканирането е завършено. Максималната запомнена стойност за целевата функция Qm е търсеният екстремум с координати xe1 и xe2, локализиран с точност x1 и x2.

Точността на метода се определя от големината на стъпките xi и е толкова по-голяма, колкото по-малки са те. Но в същото време, като се намалява xi се увеличава броят на управляващите параметри n, броят на изчисленията S се увеличава. Ако се приеме,

Page 22: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

23

че по всички параметри стъпката е еднаква, то броят на изчисленията се определя по формулата:

n

S

11

, (2.7)

където ∆ е стъпка на сканиране и n е брой управляващи параметри. Намаляване на броя на изчисленията на Q(x), се постига при променливи стъпки на

сканирането. В началото стъпката се избира голяма i(0). След локализиране на екстремума

xei с голямата стъпка се определя нова област на сканиране xei ∆i(0), която се сканира с

намалена стъпка i(1) и т.н. до постигане на желаната точност min. На фиг. 2.6 е показано

търсене с променлива стъпка по два параметъра:

Фиг. 2.6. Графична илюстрация на метода на двумерно сканиране с променлива

стъпка 2.2.2. Методи на случайното търсене 2.2.2.1. Метод на просто случайно търсене

Методите на случайното търсене, наречени още Монте Карло методи имат много

модификации. Основно те се делят на прости методи на случайно търсене и адаптивни методи на случайно търсене. Методът на простото случайно търсене е своеобразен аналог на сканирането, при който целевата функция се изчислява в последователно генерирани случайни точки х, равномерно разпределени в допустимото пространство [xmin, xmax]. Всяка подобрена стойност на целевата функция се запомня като текущ максимум.

За да се генерира случайна точка в допустимото пространство се използва формулата:

)( minmaxmin iiiii xxxx , i = 1, 2, …, n , (2.8)

където αi е равномерно разпределено случайно число в границите [0; 1]. Търсенето се прекратява при удовлетворяване на един от следните два критерия: 1. Достигане на предварително зададен брой изчисления M1 на Q(x). 2. Достигане на зададен брой изчисления M2 на Q(х) след последното подобрение на

текущия максимум. Приема се:

M2 = (10 50)n, (2.9)

където n – брой управляващи параметри. Приблизителната точност за локализиране на екстремума в зависимост от броя

равномерно генерирани точки М1 в допустимото пространство се изчислява по формулата:

n

M 1

1 . (2.10)

Page 23: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

24

При простото случайно търсене вероятността да се намери максимумът нараства с увеличаване броя на изчисленията на целевата функция. Методът не е ефективен, но се използва широко като помощен при алгоритми за търсене на глобален екстремум или за избор на оптимална начална точка в различни други методи.

2.2.2.2. Метод на случайните направления

Основната идея на метода се състои в следното: нека е дадена точка х0 в допустимото пространство Гx (фиг. 2.7):

Фиг. 2.7. Стъпки в случайни направления

Ако се направи стъпка от x0 в случайно направление, то има три възможности: 1. Стъпка в успешната област т.е. в посока на подобряване на Q(x); 2. Стъпка в неуспешната област т.е. в посока на влошаване на Q(x); 3. Стъпка в неутралната област т.е. Q(x) има същата стойност.

Ако стъпката е в успешната област, точката може да се приеме за нова начална и да се прави стъпка в ново случайно направление. Ако стъпката е в неуспешната област, тя се изоставя и се извършва нова стъпка от същата начална точка до намиране на нова успешна точка. Като се правят последователно стъпки с постоянна дължина ∆х по случаен начин и старата начална точка се заменя с новата успешна точка, се стига до областта на екстремума х*. В областта на х* стъпката може да се намалява до предварително зададени размери.

Графичната илюстрация на метода е дадена на фиг. 2.8. Последователността на успешните итерации е отбелязана с надебелена начупена линия.

Фиг. 2.8. Метод на случайните направления

Page 24: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

25

Основната задача в тези алгоритми е формиране на стъпка в случайно направление. Това може да се осъществи, ако се формира случаен вектор =( 1, 2, …, n)T с дължина единица, който да заема от дадена точка с еднаква вероятност всички възможни направления в пространството на управляващите параметри. Стъпката от дадена точка (к) в нова точка (к+1) в случайно направление е:

xi(k+1) = xi

(k) + hi i(k) , i = 1, 2, …, n, (2.11)

където: hi - параметър на стъпката по всеки управляващ параметър; i

(k) – i - та компонента на случайния вектор, формиран в k – та стъпка (точка). Критерият за успешна стъпка при търсене на максимум е:

Q(x(k+1)) > Q(x(k)). (2.12)

Критерий за прекратяване на търсенето може да бъде достигането на Мк на брой неуспешни направления след последната успешна стъпка. Броят Мк се определя по емпиричните формули:

Мк = 2n + 4 при n 3, (2.13) Мк = 2n +4 при n > 3, (2.14)

където n – брой управляващи параметри. Блоковият алгоритъм на метода на случайните направления е даден на фиг. 2.9.

Фиг. 2.9. Алгоритъм на метода на случайните направления

Page 25: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

26

В алгоритъма на метода на случайните направления (Фиг. 2.15) е приложен метода на намаляваща стъпка до достигане на зададената точност hmini на търсене по всеки управляващ параметър xi, (i = 1, 2, …, n). Намаляването на големината на стъпката h0i става чрез зададената кратност на намаление LH (обикновено LH = 2 до 4).

2.2.2.3. Метод на случайно търсене с обратна стъпка

Съществено подобрение в скоростта на сходимост при метода на случайните направления се постига, като се въвежда обратна стъпка, ако се направи стъпка в неуспешната област. Тази идея е илюстрирана на фиг. 2.10. Ако се направи стъпка 1 в случайно направление и тя се окаже неуспешна, логично е да се провери обратната посока (стъпка 2). В случай че и правата, и обратната стъпка се окажат неуспешни (стъпки 4 и 5), търси се друго случайно направление. Блоковият алгоритъм на метода на случайно търсене с обратна стъпка е даден на фиг. 2.11.

Фиг. 2.10. Метод на случайните направления с обратна стъпка

Фиг. 2.11. Алгоритъм на метода на случайно търсене с обратна стъпка.

Page 26: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

27

2.2.2.3. Метод на случайно търсене с “наказание за случайност”

Алгоритъмът на метода е следният: 1. Избира се начална точка хо. 2. Намира се успешно случайно направление по метода, описан в т. 2.2.2.3. 3. Локализира се екстремумът в това направление. Локализацията може да се извърши с

постоянна стъпка до получаване на неуспешен резултат или с променлива обратна стъпка (виж т. 2.1.1.3).

4. Последната успешна стъпка в успешното направление се приема за нова начална точка хо и алгоритъмът се повтаря от т. 2.

5. Критериите за прекратяване на търсенето са като описаните в т. 2.2.2.2 и т. 2.2.2.3. Графична интерпретация на метода е дадена на фиг. 2.12. На фигурата са показани два

възможни случая (I и II) за достигане на максимума от една и съща начална точка хо в зависимост от успешното случайно направление. При случай II направлението, макар и успешно, води до удължаване на времето за търсене на максимума. По тези причини методът е наречен метод с "наказание за случайност".

2.2.2.4. Генериране на случайни числа

Почти всички методи на случайнототърсене използват случайни числа , които саравномерно разпределени в интервала [0, +1].За генериране на тези случайни числа сеизползват програмни генератори, каквито иматпочти всички статистически и оптимизационнипрограмни продукти (MATLAB, QStatLab и др.)[27]. Като пример на Фиг. 2.13 е даден блоковалгоритъм на такъв програмен генератор. Застартиране на генератора се задават две числа:случайното число B0 в границите 0 < B0 < 1(например B0 = 0.31415787) и числото А0 =1.2717. Обикновено B0 и А0 се задават вначалото на главната програма. Случайноточисло се получава в блок 4 (Фиг. 2.13), катона реалното число B1 се отстрани цялата част[B1].

Фиг. 2.13. Генериране на случайни числа

Фиг. 2.12. Случайно търсене с “наказание за случайност”

Page 27: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

28

2.2.2.5. Формиране на случаен вектор

Компонентите на случайния вектор Tn ),...,,( 21 ξ , който може да заема с еднаква

вероятност всички възможни направления в n – мерното пространство (Фиг. 2.14) може да се получи от n равномерно разпределени в симетричен интервал [-C; +C] случайни числа

i , (i = 1, 2, …, n) по следната формула

n

ii

ii

1

2

, i = 1, 2, …, n (2.15)

При това се изпълнява условието за “единичен” случаен вектор, т. е. вектор с големина 1.

.11

2

n

ii (2.16)

Фиг. 2.14. Формиране на случаен вектор Ако се разполага с последователност от равномерно разпределени случайни числа

i само в положителен интервал [0; +C], те трябва да се трансформират в симетричен

около нулата интервал [-C; +C] по формулата

niC

ii ,...,2,1,2)2

( . (2.17)

Например, ако i са в интервала [0; +1], те се трансформират границите [-1; +1]:

niii ,...,2,1,2)5.0( , (2.18)

след което се изчисляват и nii ,...,2,1, .

2.2.2.6. Проверка на факторните ограничения

При изпълнение на стъпки в случайно направление по формула (2.25) е възможно новата точка да наруши факторните ограничения [xmin, xmax], т. е. xx . По тази причина в

алгоритмите за случайно търсене и почти във всички други алгоритми се включва процедура, тук условно наречена LIMIT, за проверка за нарушаване на факторните ограничения и внасяне на корекция в случай на нарушение. Графична интерпретация на тази процедура за двумерно пространство е дадена на Фиг. 2.15, а блоков алгоритъм за N – мерно пространство на Фиг. 2.16.

Page 28: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

29

Фиг. 2.15. Проверка на факторните Фиг. 2.16. Блоков алгоритъм за ограничения проверка на факторните ограничения

2.2.3. Симплексен метод за нелинейна оптимизация Симплексът е най-простата изпъкнала фигура в дефинираното пространство [1]. В n-мерното Евклидово пространство симплексът е многостен, образуван от n + 1

точки (върха), не лежащи едновременно в нито едно (n-1)-мерно подпространство на n-мерното пространство. Симплексът в нула мерното пространство е точка, а в едномерното - две точки (отсечка), които не съвпадат. В двумерното пространство симплексът представлява триъгълник и трите точки не могат да лежат на една права линия, в тримерното симплексът има четири върха (пирамида), в четири мерното - пет върха и т.н. На фиг. 2.17 са показани симплекси до тримерно пространство. Задрасканите фигури не отговарят на условието за симплекс.

n = 0 n = 1 n = 2 n = 3

Фиг. 2.17. Симплекси в 0, 1, 2 и 3 – мерни пространства

При оптимизацията се използва следното важно свойство на симплекса: от всеки

симплекс може да се построи нов, ако се отхвърли само един връх и на негово място се добави нов (фиг. 2.18). Тъй като срещу всеки връх k(j) е разположена само една стена на

симплекса, нов симплекс се построява, ако се добави нов връх (точка) )(~ jk , симетрично отразен чрез срещуположната стена.

Page 29: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

30

Фиг. 2.18. Промяна на симплекса Полученият симплекс заема нова област в n-мерното пространство. По този начин,

като последователно се отхвърлят върхове и се добавят нови, симетрично отразени на тяхно място, симплексът се премества в пространството (фиг. 2.19):

Фиг. 2.19. Отразяване на връх от симплекс

Въз основа на това свойство на симплекса Спендли, Хекст и Химсуърт [1, 2, 3] са

предложили ефективен метод за оптимизация. Графичната интерпретация на метода е показана на фиг. 2.20.

Фиг. 2.20. Графична илюстрация на симплексния метод

При два управляващи параметъра е формиран начален симплекс 1, 2, 3. Във всеки

връх на симплекса (точка) се определя целевата функция Q(х). Отхвърля се върхът 1 с най-лош резултат за целевата функция и се изчисляват координатите на нов връх 4 чрез симетрично отразяване на връх 1 спрямо страната 2 - 3. В т. 4 се определя Q(х). След това се отразява връх 2 с най-лош резултат за симплекс 2, 3, 4. Получава се връх 5 и т.н. По този начин чрез заместване на върховете от симплекса с най-лош резултат с нови върхове симплексът се премества последователно в посока на максимума. В областта на екстремума симплексът се зацикля, т.е. започва да се върти около една точка с максимална стойност на

Page 30: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

31

целевия параметър. Координатите на този връх определят търсения екстремум с точност големината на симплекса.

Характерна особеност на този метод е, че след като се формира начален симплекс от n + 1 точки (върха), за по-нататъшно изучаване на целевата повърхнина и за придвижване по нея се извършва само по едно изчисление на Q(x) независимо от размерността на пространството. Това прави симплексния метод много ефективен.

Определяне на координатите на отразения връх Координатите на отразения връх )(kx е изчисляват по следния начин (виж Фиг. 2.21)

Фиг. 2.21. Координати на отразения връх

))()()()( wcwk x-2(xxx , (2.19)

1

1

)()()( 1 n

j

wjc

nxxx . (2.20)

Като се замести )(cx от (2.20) в (2.19) се получава

1

1

)()()( 22 n

j

wjk

nnx1xx (2.21)

или по координатите за всеки управляващ параметър

nixn

xn

xn

j

wi

ji

(k)i ...,,2,1,

22 1

1

)()(

1 . (2.22)

Формиране на начален симплекс Има много методи за формиране на начален симплекс [2]. Един от най-често

прилаганите методи е следният. Регулярен симплекс (с разстояние между върховете равно на единица) е разположен така, че един от върховете му лежи в началото на координатната система, а излизащите от него страни сключват еднакви ъгли със съответните координатни оси. Пример за двумерно и тримерно пространство е показан на Фиг.2.22 Координатите на върховете за n-мерен единичен симплекс са дадени в Таблица 2.1 като p и u се определят в зависимост от размерността на пространството n

)11(2

1nn

np (2.23)

)11(2

1 n

nu (2.24)

Например при n = 3, p = 0.944 и u = 0.236 (Табл. 2.2). При зададена начална точка x0i (i = 1, 2, ..., n), около която ще се формира началния

симплекс и определени размери на симплекса по всеки управляващ параметър

Page 31: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

32

nixi ,...,2,1, симплексът в реалната координатна система (Фиг. 2.23) се получава по

формулата nixxxx iiii ,...,2,1,0 (2.25)

където ix са координатите на единичния симплекс от Табл.2.1.

Фиг. 2.22 Формиране на единичен начален Фиг. 2.23 Формиране на реален

симплекс симплекс

Предимства на симплексния метод: 1. Методът е ефективен при голям брой управляващи параметри 2 n 3050, тъй

като за изучаване на целевата повърхнина и движението по нея се прави само една стъпка независимо от броя на управляващите параметри.

2. Методът е приложим и за числена, и за експериментална оптимизация. 3. Размерите на симплекса могат да се изменят в зависимост от получаваните

резултати при отразяване на върховете. 4. Симплексния метод е приложим при неограничена област на пространството за x. Недостатъци на симплексния метод: 1. Пътят към екстремума и скоростта на сходимост зависят от началната ориентация

на симплекса. 2. При много голям брой управляващи параметри (n > 50) при числена оптимизация се

получава матрица от координатите на върховете на симплекса с голяма размерност n(n+1), която заема много памет в ЕИМ и е необходимо значително време за опериране с нея.

Таблица 2.1. Таблица 2.2.

Page 32: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

33

Page 33: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

34

Page 34: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

35

2.2.4. Метод на Нелдер – Мид Скоростта на сходимост на симплексния метод съществено зависи от размера на

симплекса. Ако симплексът е формиран далеч от екстремума и е с малки размери, той се придвижва до максимума много бавно. Ако размерите на симплекса са големи, екстремумът се локализира неточно.

Нелдер и Мид са предложили метод на деформируемия симплекс, при който размерите на симплекса се изменят в зависимост от резултатите за целевата функция в процеса на търсенето [1]. Симплексът може да се разтегля, свива и редуцира.

Алгоритъмът на метода е следният: 1. Задават се начална точка хо, размерите на симплекса хi (i = 1, 2,...,n) и величината

Q. 2. Формира се начален симплекс х(j), (j = 1, 2, ..., n + 1) по описания в т. 2.2.3. начин. 3. Изчислява се целевата функция във всеки връх на симплекса:

Q(j) = Q(x(j)), j = 1, 2, …, n + 1. (2.26)

4. Определя се върхът x(w) с най-лош резултат за Q(x): )(

)(

)()( min)( j

j

ww QQQ x . (2.27)

5. Определя се върхът x(b) с най-добър резултат за Q(х): )(

)(

)()( max)( j

j

bb QQQ x . (2.28)

6. Определя се върхът х(w1) с резултат, следващ след най-лошия: )(

)(

)1()1( min)( j

wj

ww QxQQ

. (2.29)

7. Изчисляват се координатите на центъра на тежестта на симплекса без върха с най-лош резултат х(w):

1

1

)()()( 1 n

j

wjc

nxxx . (2.30)

8. Изчислява се:

Q(c) = Q(x(c)). (2.31)

9. Проверява се критерият за спиране на търсенето. Ако е изпълнено условието:

Q

n

j

cj QQn

1

1

2)()(

1

1, (2.32)

търсенето се прекратява и се отпечатват х(b) и Q(b). В противен случай алгоритъмът продължава с т. 10.

10. Отразява се върхът с най-лош резултат и се изчисляват координатите на нов връх: x(N) = x(c) + (x(c) – x(w)); > 0, (2.33)

където: x(c) – център на тежестта на симплекса; x(w) – върхът с най-лош резултат за целевата функция; - коефициент на отражение.

11. Изчислява се:

Q(N) = Q(x(N)) (2.34)

12. Ако Q(N) ≥ Q(b), симплексът се разтегля и се изчислява нов връх:

1;~ )()()()( cNcN xxxx , (2.35)

където: - коефициент на разтегляне; x(c) – център на тежестта на симплекса.

13. Изчислява се целевата функция във върхът )(~ Nx :

Page 35: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

36

)()( ~~ NN QQ x . (2.36)

14. Ако )(~ NQ > Q(b) (фиг. 2.25), x(w) и Q(w) се заменят с )(~ Nx и )(~ NQ . Алгоритъмът се повтаря от т. 4.

Фиг. 2.25. Разтегляне на симплекса

15. Ако )(~ NQ Q(b) (фиг. 2.26), то x(w) и Q(w) се заменят с x(N) и Q(N). Алгоритъмът се повтаря от т. 4.

Фиг. 2.26. Отражение на симплекса

16. Ако Q(w) Q(N) Q(w1) (фиг. 2.27), то симплекса се свива. Изчислява се нова

точка:

x(M) = x(c) + (x(w) – x(c)), 0 < < 1, (2.37)

където: x(c) – център на тежестта на симплекса; x(w) – върхът с най-лош резултата за целевата функция;

- коефициент на свиване.

Фиг. 2.27. Свиване на симплекса

Page 36: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

37

17. Изчислява се целевата функция в точка x(M):

Q(M) = Q(x(M)). (2.38)

18. Заменя се x(w) и Q(w) с x(M) и Q(M). Алгоритъмът се повтаря от т. 4. 19. Ако Q(N) < Q(w) (фиг. 2.28), то размерите на симплекса се редуцират (намаляват)

два пъти при запазване на върха с най-добър резултат x(b):

x(j) = x(b) + 0.5(x(j) – x(b)), j = 1, 2, …, n +1 и j b (2.39)

Фиг. 2.28. Редукция на симплекса

20. Изчисляват се Q(x(j)) при j = 1, 2, …, n + 1 и j b. Алгоритъмът се повтаря от т.4. 21. Ако условията от т.12, т.16 и т.19 не се изпълняват, то x(w) и Q(w) се заменят с x(N)

и Q(N) и алгоритъмът се повтаря от т.4. От съществено значение за работата на алгоритъма са коефициентите на

отражение, свиване и разтегляне - , и . Нелдер и Мид препоръчват следните коефициенти: = 1, = 0,5 и = 2.

В т. 9 на алгоритъма е предвиден критерий за спиране на търсенето по зададена точност Q на целевата функция. Ако е зададена точност по управляващите параметри x, условието (2.32) трябва да се замени с:

x

n

i

wi

bi xx

1

2)()( . (2.40)

Освен това алгоритъмът може да се подобри, като се избегне изчисляването на целевата функция в центъра на тежестта на симплекса Q(c), чиято стойност участва само в критерия за спиране (2.32) и този критерий се замени с:

Qwb QQ )()( . (2.41)

Методът на Нелдер - Мид се препоръчва при оценка на параметри в нелинейни математични модели чрез минимизация на функционала на грешката, ако той е едноекстремален.

2.2.5. Комплекс - метод В допустимото пространство на управляващите параметри може да се формира не

симплекс, а “облак” от случайно генерирани точки, наречен комплекс, (по-съвременните алгоритми се нарича “популация”), който последователно се премества и свива в областта на екстремума на Q(x) [1].

Page 37: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

38

Алгоритъмът на комплекс – метода е следният: зададена е целевата функция Q(x), на която се търси максимум в допустимото пространство x Гx.

1. Формира се случаен комплекс от Nm случайни точки х(j), j = 1, 2,…, Nm по формулата:

miij

iij

i Njnixxxx ,...,2,1;,...,2,1,minmax)(

min)( , (2.42),

където i са равномерно разпределени случайни числа в границите [0,+1]. Броят на точките от комплекса Nm се определят по следния начин:

Nm = 2n + 2 при n 3, (2.43)

Nm = 2n + 2 при n >3, (2.44)

където n – брой управляващи параметри. 2. Във всяка точка от комплекса x(j) се изчислява целевата функция:

Q(j) = Q(x(j)). (2.45)

3. Определят се точките от комплекса с най-добър Q(b) и с най-лош Q(w) резултат за целевата функция:

)(

)(

)()( max)( j

j

bb QQQ x , (2.46)

)(

)(

)()( min)( j

j

ww QQQ x . (2.47)

4. Проверява се критерият за спиране на търсенето:

x

n

i

wi

bi xx

1

2)()( , (2.48)

където x е малко положително число, което определя минималното зададено разстояние между точките на най-добрия и най-лошия резултат за Q(x).

Ако критерият (2.48) е изпълнен, алгоритъмът се прекратява и се отпечатват Q(b) и x(b). В противен случай алгоритъмът продължава с т.5.

5. Изчисляват се координатите на нова точка:

nixxx wi

bi

Ni ,...,2,1,2 )()()( . (2.49)

6. Проверяват се ограниченията x(N) Гx по процедурата LIMIT – процедура, която следи дали се спазват ограниченията [xmin i, xmax i] от управляващите параметри.

7. Изчислява се целевата функция в x(N):

Q(N) = Q(x(N)). (2.50)

8. Ако Q(N) > Q(w), то x(N) се приема за точка от комплекса на мястото на x(w), т.е. х(w) = х(N) и Q(w) = Q(N) и алгоритъмът се повтаря от т.3.

9. Ако Q(N) Q(w), то новата точка се изоставя и се изчисляват координатите на нова точка )(~ Nx , която е по средата между х(w) и х(b):

nixxx wi

bi

Ni ,...,2,1,

2

1~ )()()( . (2.51)

10. Изчислява се целевата функция:

)()( ~~ NN QQ x . (2.52)

11. Новата точка )(~ Nx се включва в комплекса на мястото на x(w), т.е. x(w) = )(~ Nx и

Q(w) = )(~ NQ . Алгоритъмът се повтаря от т. 3. Описаният алгоритъм има много предимства: 1. Изключително прост е за програмно реализиране. 2. Позволява да се намери условен и безусловен екстремум.

Page 38: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

39

3. Универсален е и в различни модификации е приложим за оптимизация при оврагови целеви функции, търсене на глобален екстремум, оптимизация при функционални ограничения, оптимизация в барицентрично пространство и др.

2.3. Градиентни методи за търсене на екстремум 2.3.1. Общи сведения за градиентните методи Градиентните алгоритми за търсене на екстремум се основават главно на линейната и

квадратичната апроксимация на функцията Q(x) в областта на дадена точка х(k). Линейната или апроксимацията от първи ред на функцията Q(x) в областта на х(k) се представя с отсечената част на реда на Тейлър:

Q(x) = Q(x(k)) + TQ(x(k))(x – x(k)). (2.53)

Квадратичната апроксимация на Q(x) се получава, като в реда на Тейлър се отхвърлят членовете от трети и по-висок ред:

)()(2)()()()(

2

1)( kkTkkkTk xxxQxxxxxQxQxQ , (2.54)

където: Q(x(k)) - градиентът на функцията Q(x), 2Q(x(k)) - матрицата на Хес, която се използва в Нютоновите методи за оптимизация.

Вектор-градиентът Q в n-мерното пространство има п компонента, представляващи частни производни на целевата функция по всеки управляващ параметър в точка x(k):

ni

x

xQxgradQxQ

i

kkk ,...,2,1,

)()()(

. (2.55)

За краткост по-нататък се приема означението Q(k) = Q(x(k)) и следните означения за съставките на градиента в точка x(k):

n

kkkk

x

Q

x

Q

x

QxQ

)(

2

)(

1

)()( ,...,, . (2.56)

Матрицата на Хес е квадратна матрица на вторите частни производни на Q(x) в точката x(k):

2

)(2

1

)(2

1

)(2

21

)(2

)()(2

...

...

n

k

n

k

n

kk

kk

x

Q

xx

Q

xx

Q

x

Q

xHxQ

. (2.57)

Основното свойство на вектор-градиента Q(x) на целевата функция е това, че във всяка точка от пространството:

Tkn

kkk xxxx )()(2

)(1

)( ,...,, (2.58)

той е насочен по нормалата към повърхнината с постоянна стойност на Q(x) (линия при два управляващи параметъра), преминаваща през дадена точка (фиг. 2.29), т.е. градиентът на целевата функция във всяка точка х(k) е вектор, насочен в направление на най-бързото увеличаване на Q(х) от тази точка. Следователно, ако се направи стъпка в посока на градиента, това ще бъде стъпка в посока на подобряване на Q(x), т.е. към максимума, а обратната стъпка - в посока на намаляване на целевата функция т.е. към минимума.

Page 39: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

40

Фиг. 2.29. Градиентни направления в двумерно пространство

От дадено начално или междинно състояние х(k) преходът към следващото х(k+1) може

да се направи стъпково (итеративно) със стъпка ∆х(k), която да бъде в градиентно направление за търсене на максимум:

x(k+1) = x(k) + ∆x(k) = x(k) + hk Q(x(k)) (2.59)

и в обратно на градиента направление за търсене на минимум: x(k+1) = x(k) - hk Q(x(k)). (2.60).

При зададен параметър на стъпката hi в зависимост от големината и знака на ix

Q

движението в градиентно направление се осъществява по всеки управляващ параметър:

nix

Qhxx

i

k

ik

ik

i ,...,2,1,)(

)()1(

(2.61)

при търсене на максимум и

nix

Qhxx

i

k

ik

ik

i ,...,2,1,)(

)()1(

(2.62)

при търсене на минимум на целевата функция Q(х). В по-голямата си част в задачите за оптимизация управляващите параметри имат най-

различни дименсии и параметрите на стъпката могат да се избират с произволна дължина. Това води до различни направления за движение към екстремума в зависимост от мащаба на xi и големината на параметрите на стъпката hi. В случаите, когато хi са с различни дименсии, не е съвсем коректно да се прилагат формулите (2.61) и (2.62). В такива случаи се използуват нормираните съставки на градиента:

ni

x

Q

x

Qh

xxn

i i

k

i

kk

ik

ik

i ,...,2,1,

1

2)(

)()(

)()1(

, (2.63)

където: )(kih - параметър на стъпката, а n – брой параметри.

В алгоритмите за градиентно търсене, при които се прилага съотношението (2.63), нормираният вектор - градиент показва само посоката на най-бързо изменение на целевата функция, но не определя скоростта за движение към екстремума. Тази скорост се определя от параметъра на стъпката hi (i = 1,2,…,n), който се определя от изследователя за всеки управляващ параметър.

Page 40: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

41

Посоката на градиента се изменя на всяка стъпка съответно на изменението на целевата повърхнина и за да се направи следващата стъпка отново в посока на най-бързото изменение на Q(x), градиентът трябва да се определи отново. На фиг. 2.30 е показан пътят на движение към максимума след оценяване на градиента Q(x) на всяка стъпка. Процедурата на градиентното търсене трябва да завърши теоретично в стационарна точка, в която съставките на градиента са равни на нула:

0)(2

1

n

i ix

QxQ . (2.64)

Тъй като движението по градиента е стъпково и търсенето завършва в област около

стационарната точка, в която 0

ix

Q, необходимо е да се постави следният критерий за

спиране на търсенето:

n

i i

k

x

Q

1

2)(

, (2.65)

където е малко положително число.

Фиг. 2.30. Графична илюстрация на градиентен метод

Като критерий за спиране на търсенето се използува и Чебишевата норма на

градиента:

n

i i

k

x

Q

1

)(

. (2.66)

2.3.2. Определяне на градиента на целевата функция Компонентите на градиента на целевата функция се определят по различни начини:

1. Когато аналитичния вид на целевата функция е зададен, производните могат да се определят аналитично, въпреки че това е много трудно.

2. Съставките на градиента е възможно да се определят и по експериментален път. 3. В повечето реални технически задачи зависимостта Q(x) не може да се запише в

явен вид или е твърде обемиста и сложна и аналитичното пресмятане на производните е невъзможно. В такива задачи се налага числено определяне на съставките на градиента.

Прилагат се няколко метода за числено диференциране:

Page 41: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

42

Метод А: Дават се нарастъци поотделно на всеки управляващ параметър ∆xi и по

изменението на целевата функция ∆Q се изчисляват оценките на ix

Q

:

i

ninii

ii x

xxxxQxxxxxQ

x

Q

x

Q

)0()0()0(

2)0(

1)0()0()0(

2)0(

1 ,...,,...,,,...,,...,,. (2.67)

Необходимият брой изчисления на целевата функция за оценка на всички съставки на градиента е:

S = n + 1, (2.68)

където: S – брой изчисления, а n – брой управляващи параметри.

Метод Б: По-точни оценки на ix

Q

могат да се намерят, ако се дадат двустранни

нарастъци на xi с ∆xi по формулата:

i

niinii

ii x

xxxxxQxxxxxQ

x

Q

x

Q

2

,...,,...,,,...,,...,,

2

)0()0()0(2

)0(1

)0()0()0(2

)0(1 . (2.69)

Необходимият брой изчисления на Q(х) при този метод е почти два пъти по-голям, отколкото при метод A:

S = 2n, (2.70)

където: S – брой изчисления, а n – брой управляващи параметри.

Метод В: Оценките на ix

Q

са още по-точни, ако се използуват четири изчислени

стойности на Q(х) по формулата:

nix

QQQQ

x

Q

ii

,...,2,1,90

64125 3412

, (2.71)

където стойностите на Q1 до Q4 се изчисляват при изменение на i-тия управляващ параметър съответно с ii xx )0( за Q1; ii xx )0( за Q2; ii xx 25.1)0( за Q3 и

ii xx 25.1)0( за Q4.

При този метод за оценка на n – съставки на градиента в една точка са необходими: S = 4n (2.72)

изчисления на целевата функция Q(x).

Въпреки че при метод А оценките на ix

Q

са най-неточни, той се предпочита поради

малкия брой изчисления на целевата функция Q(x). 2.3.3. Алгоритми на градиентни методи от първи ред 2.3.3.1. Основен градиентен метод

При градиентните методи са предложени много алгоритми. Те са свързани с основната

идея на градиентното търсене с различни модификации, целящи по-бърза сходимост или надеждност на алгоритъма. Основният алгоритъм с постоянен параметър на стъпката на чисто градиентно търсене е показан на фиг. 2.31. В алгоритъма се използват три подпрограми:

ZEL – за изчисляване на целевата функция; NABLA – за оценка на съставките на градиентите; LIMIT – за проверка на ограниченията x Гx. Реализирането на този алгоритъм е много лесно, но той има и много недостатъци –

голям брой необходими изчисления; постоянен параметър на стъпката, което води до

Page 42: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

43

трудно изпълнение на критерия за спиране на търсенето при целеви функции с голяма чувствителност на екстремума и други.

2.3.3.2. Метод на най-стръмното изкачване

При чисто градиентно търсене на всяка стъпка е необходимо да се изчисляват производните на целевата функция, което изисква минимум n+1 изчисления на Q(х). При голям брой управляващи параметри п броят на изчисленията силно нараства и скоростта на сходимост съществено намалява. Броят на изчисленията на Q(х) се намалява, ако се прилага методът на най-стръмното изкачване. След оценяване на градиента в дадена точка х(0) се правят последователни стъпки в градиентна посока до намиране на максимума в това направление. След това отново се оценява градиентът и се локализира максимумът в новото направление и т. н. По този начин се намалява значително броят на изчисленията на Q(х) спрямо метода на градиента.

Фиг. 2.31. Блоков алгоритъм на градиентен метод

На фиг. 2.32 е показан характерът на движението към максимума по метода на най-

стръмното изкачване. С прекъсната линия е показано чистото градиентно търсене. Пътят към екстремума по метода на градиента е по-кратък, но с по-голям брой изчисления на

n, , x0i, hi, ∆xi, xmin i, xmax i,

i = 1, 2, …, n

ZEL Q(x) max

NABLA ix

Q

LIMIT

Q0 = Q(x0)

(NABLA)

Изчисляване на ix

Q

, i = 1, 2, …, n

S =

2

1

n

i ix

Q

x0i = x0i + hi ix

Q

/ S

LIMIT

x0i, Q0 i = 1, 2,.., n

край

Да

Не

Page 43: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

44

целевата функция и следователно по-продължителен по-време от метода на най-стръмното изкачване.

Фиг. 2.32. Графична илюстрация на метода на най-бързото изкачване

При метода на най-стръмното изкачване всяко ново направление практически е почти

перпендикулярно на предишното и траекторията на движението към екстремума е стъпаловидна.

Методът на най-стръмното изкачване е един от най-често използваните градиентни методи в различни варианти с автоматично коригиране на стъпката.

2.3.3.3. Градиентни алгоритми с автоматична корекция на параметъра на

стъпката

В алгоритъма за градиентно търсене с нормиран вектор на градиента съществен недостатък е постоянната стъпка при изпълнение на итерациите по (2.66). Скоростта на движение към максимума зависи от сполучливия избор на параметъра на стъпката hi по всеки управляващ параметър. При малък параметър на стъпката hi броят на итерациите за достигане на екстремума силно нараства и това изисква много изчисления на целевата функция. При голям параметър на стъпката hi в областта на максимума възникват "прескачания" особено при ясно изразен максимум и вероятността за изпълнение на критерия за спиране (2.68) е малка. Ето защо в алгоритмите се въвежда автоматично изменение на параметъра на стъпката. Използват се главно следните алгоритми:

А. Намаляване на параметъра на стъпката

1)-(k(k))(

1) -(k (k))()1(

Q Q ако ,5.0

Q Q ако ,k

i

kik

ih

hh , (2.73)

където: k – номер на стъпката, а hi – параметър на стъпката.

Ако стъпката в градиентното направление е успешна, параметърът се запазва. При неуспешна стъпка той намалява два пъти. В такъв случай могат да се предвидят два критерия за спиране на търсенето: основният (2.68) и когато параметрите на стъпката hi станат по-малки от предварително зададените hmini (i = 1,2,...,n). При този алгоритъм има опасност от прекратяване на търсенето далеч от екстремума.

При алгоритъма на най-бързото изкачване сходимостта е по-бърза, ако търсенето започне с постоянна и относително голяма стъпка h0i (i = 1,2,...,n) и тя се намалява два пъти само когато още първата стъпка в градиентно направление от x(0) се окаже неуспешна.

Page 44: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

45

Б. Корекция на параметъра на стъпката по ъгъла на завъртане на градиента при две последователни стъпки

При изпълнение на стъпка в градиентно направление от точки x(k) в точка x(k+1) двата

градиента Q(x(k)) и Q(x(k+1)) обикновено се различават по направление с ъгъл (фиг. 2.33).

Фиг. 2.33. Ъгъл между две съседни градиентни направления

При малък параметър на стъпката hi и точка далече от екстремума ъгълът е малък, а при голяма стъпка и особено в областта на екстремума ъгълът се увеличава съществено. Това се използва в следната стратегия за изменение на hi:

при 3

h

при h

при 2

max(k)

(k)i

max(k)

min(k)i

min(k))(

)1(

ki

ki

h

h , (2.74)

където ъгълът на завъртане на градиента (k) на k – та итерация се изчислява чрез формулата:

n

i

n

i i

k

i

k

n

i i

k

i

k

k

x

Q

x

Q

x

Q

x

Q

1 1

2)1(2)(

1

)1()(

)(cos . (2.75)

Тук min и max са допустими граници на завъртане на градиента, които се задават

предварително, например min= 30° и max = 60°. Тези стойности не са регламентирани и подлежат на изследване.

Предимство на този алгоритъм е адаптацията на параметъра на стъпката в зависимост от целевата повърхнина. Увеличаването и намаляването на hi стават при некратно съотношение, за да се намали опасността от многократно прескачане на областта на екстремума.

Page 45: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

46

В. Корекция на параметъра на стъпката въз основа на резултатите за Q(x) в последните три итерации:

)(

1)-(k(k))(

3)-(k2)-(k1) -(k (k))(

)1( Q Q ако ,2

1

Q Q Q Q ако ,2

ki

ki

ki

ki

h

h

h

h . (2.76)

Ако три последователни стъпки са били успешни, то параметърът на стъпката hi се увеличава два пъти. Ако последната стъпка е била неуспешна, то hi се намалява два пъти. При всички останали случаи hi остава непроменен.

Алгоритмите с автоматична корекция на стъпката имат съществения недостатък, че при някои видове целеви функции, например "оврагови", може да се получи засядане далеч от екстремума (фиг. 2.34) поради преждевременно изпълнение на критерия за спиране на търсенето:

hi hmin , i = 1,2,...,n. (2.77)

Фиг. 2.34. “Засядане” на линията на оврага

При градиентните алгоритми с и без автоматична корекция на стъпката, както и при

много други алгоритми с не напълно гарантирана сходимост за всякакъв вид целеви функции се препоръчва включването и на критерий за "аварийно" спиране на търсенето. За целта се задава или се залага в програмната реализация на метода предварително зададен брой итерации (брой изчисления на целевата функция) и "броител". Когато "броителят" достигне този предварително зададен брой итерации и решението на задачата не е завършено по някой от другите критерии за спиране, работата на програмата се прекратява. Отпечатва се най-добрият резултат, получен до "аварийното" спиране и подходящо съобщение.

2.4. Заключение Задачата за едномерна оптимизация в основните си насоки се смята за решена. Други

методи са дадени в [1, 3] При оптималното управление на технологични обекти или в стадия на тяхното проектиране се

налага да се търси оптимална стойност на даден критерий в зависимост от много управляващи параметри. Векторът **

2*1

* ,..., nxxxx при целевата функция Q(x*) има максимум в допустимото

пространство x Гx, може да се определи по редица методи. Голяма част от тях са така наречените директни методи без използване на производни. Те са лесни за алгоритмизиране на ЕИМ и са удобни в случаите, когато намирането на производните е трудно. Най-разпространени методи за директно търсене са методите на сканирането, методът на Гаус – Зайдел, случайното търсене, симплексния метод и други [1, 3].

Page 46: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

47

Методите за без градиентно търсене на екстремума, т.е. директните методи, нямат стабилна математическа основа, каквато имат градиентните методи. Не винаги може да се докаже или отхвърли сходимостта на някои от техните варианти. Независимо от това в инженерната практика при технологичните изследвания и в много области на науката те са получили широко приложение поради предимствата си пред градиентните методи.

Градиентните методи за търсене на екстремум са развивани и изследвани най-продължително и затова в литературата се срещат десетки модификации и много противоречиви мнения за тяхната ефективност.

Сходимостта и ефективността на един градиентен алгоритъм зависят от комбинираното влияние на метода, използуван в него, на параметрите, които се задават за работа на алгоритъма (параметри на стъпката, критерии за спиране на търсенето, параметри за числено диференциране, начална точка и други), и главно от вида и сложността на целевата функция.

От особено значение за градиентните алгоритми е аналитичното задаване на производните от първи и втори ред или численото им определяне. Във всички случаи градиентните алгоритми с аналитично зададени производни са по-бързо [1]. и надеждни от алгоритмите с числено диференциране. За съжаление в много практически инженерни задачи не е възможно задаването им.

Page 47: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

48

3. Методи за търсене на глобален екстремум

3.1. Въведение

При много практически задачи за търсене н екстремум целевата функция е със сложна конфигурация - оврагова, седловидна, много екстремална, платовидна или смесена [1]. Причина за това обикновено е сложното взаимосвързано влияние на управляващите параметри с различни дименсии. Нека този тип целеви функции имат обобщаващото наименование сложни от гледна точка на решаването на оптимизационната задача, тъй като в друг смисъл те могат да бъдат сложни поради изчислителни трудности и др. Сложните целеви функции затрудняват търсенето на екстремума и описаните в предната глава конвенционални методи за оптимизация не винаги водят до сходимо решение.

За решаването на този тип задачи са разработени специални методи. Особеност на някои от тези методи е, че те решават и задачите със сравнително прости целеви функции (унимодални, квадратични, близки до квадратичните и др.), но с по-малка ефективност от описаните в предната глава.

3.2. Методи за търсене на глобален екстремум

Целева функция Q(x) която в границите на допустимото пространство има повече от един екстремум (или максимум, или минимум), се нарича много екстремална или мултимодална. Множеството екстремуми се наричат локални, а най-добрата стойност между тях се нарича глобален екстремум.

Функцията Q(x), дефинирана в n-мерното допустимо пространство x , има

абсолютен (глобален) максимум в точка х*, т. е. ,,xam

x

*xQQ xxx (3.1)

ако за всички xx е в сила неравенството

xx QQ * . (3.2)

Тази функция е много екстремална и има локален максимум, ако може да се намери подобласт X такава, че за всяко x да съществува lx , за което да са в сила

следните неравенства:

xx QQ l , (3.3)

lQQ xx * . (3.4)

Областта се нарича околност на локалния максимум lx (фиг.3.1).

Два или повече локални максимуми с еднаква стойност се наричат еквивалентни. Следователно една задача може да се разглежда като много екстремална, ако съществуват няколко (не по-малко от два) не еквивалентни максимума. В противен случай намирането на поне един от тези еквивалентни максимуми се смята за решение на задачата. В случаите, когато в околността * на точката на глобалния екстремум х* функцията xQ е const за всички Гx *, задачата се смята за много екстремална с еквивалентни екстремуми и намирането на която и да е точка от Гx * е решение на задачата.

Page 48: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

49

Фиг. 3.1. Глобален максимум Многоекстремалността при инженерни, икономически и други оптимизационни

задачи е много често срещано явление при сложни целеви функции от висок ред или трансцедентен вид. Ето защо за търсене на глобален екстремум са разработени много методи. Много от тях са с математически доказана сходимост, но и досега няма все още предложен ефективен числен алгоритъм, който с разумен брой итерации да гарантира намирането на глобалния екстремум. За коректното и надеждното решаване на задачата за глобален екстремум е необходимо да се намерят всички екстремуми и да се избере глобалният. В реалните технически задачи обаче броят на локалните екстремуми може да бъде много голям (стотици) и такъв подход е нереален. Необходимо е да се търси решение, без да се преглеждат всички екстремуми.

За краткост методите за търсене на глобален екстремум се наричат глобално търсене. Тези методи се класифицират по различни признаци , но главно се включват в групите градиентни, стохастични, комбинирани, евристични и генетични.

Чисто градиентните методи са сравнително слабо използувани за глобално търсене. Най-известният метод от тях е методът на "тежкото топче" в различни модификации. Най-широко приложение са намерили методите на случайното търсене. Основното предимство при тях е по-широката възможна област за изследване от дадена начална точка, по-малък брой изчисления и др. Широко приложение са получили методите на случайно търсене от множество начални точки, организирани по различни начини: случайно търсене с променлива плътност, методите на Уанг - Лус [21], Лус - Якола [19]и др.

Най-перспективни са евристичните методи за глобално търсене, които получиха значително развитие през последните години, като методите на Торн, Прайс, Опачич, Камей-Иноуе-Араки, Чичинадзе, тунелният метод, генетичните методи и др. [1,11,13,20,22].

Един от добрите методи за търсене на глобален екстремум е методът на сканирането с постоянна малка стъпка. Необходимостта от сканиране с много малка стъпка, (за да не се пропусне глобалният екстремум), ограничава приложението на метода. Той може да се прилага при малък брой управляващи параметри 43n и лесно изчислима функция.

3.3. Случайно търсене от сканирани начални точки

Търсенето на глобален екстремум в допустимото пространство изисква равномерното му изследване. Това може да се постигне със следния алгоритъм: Наличието на повече от един екстремум в допустимото пространство

1. Приема се стъпка за сканиране по всеки управляващ параметър ix . Препоръчва

се

niL

xxx ii

i ,...,2,1,minmax

, (3.5)

Page 49: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

50

където L = 45.

2. Започва се последователно сканиране на допустимата област за ix , но всяка точка

от мрежата на скандиране се приема за начална точка ix0 .

3. От всяка начална точка се изпълнява случайно търсене, като се запомнят координатите на най-добрата стойност на целевата функция.

4. След приключване на случайното търсене от последната начална точка, получена от сканирането, се отпечатва най-добрият намерен резултат като глобален екстремум.

Графична интерпретация на метода при два управляващи параметъра и L = 4 е показана на фиг.3. 2. Пътят към намерения екстремум от всяка начална точка е показан с прекъсвана линия. Броят на началните точки в случая е 25.

При увеличаване на броя на управляващите параметри се увеличава и броят на началните точки, а оттам и общият брой необходими изчисления за търсене на екстремум. Ето защо методът се препоръчва при 54n .

Фиг. 3.2. Случайно търсене от сканирани начални точки

3.4. Случайно търсене от множество случайни точки

Ако се предположи, че локалните екстремуми са равномерно разпръснати в допустимото пространство, търсенето им може да се организира от равномерно разпределени случайни начални точки в това пространство. Алгоритъмът на търсене е следният:

1. Генерира се начална точка в допустимото пространство maxmin x,x по случаен

начин ,,...,2,1,minmaxmin0 nixxxx iiii (3.6)

където i е равномерно разпределено случайно число в границите 10 .

2. От началната точка 0x се изпълнява случайно търсене на екстремума. Резултатът се

запомня. 3. Генерира се нова случайна начална точка и т. 2 от алгоритъма се повтаря. Ако

полученият екстремум е по-добър от предишния, той се запомня на негово място. Ако е по-лош или е намерен същият екстремум, отброява се едно неуспешно търсене и алгоритъмът се повтаря от т. 1.

4. Критерий за прекратяване на търсенето е достигане на NK неуспешни търсения

след последния намерен най-добър резултат за целевата функция. NK се изчислява по

емпиричната формула

Page 50: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

51

4.2

42

nK

K

N

nN

при

при

3

3

n

n (3.7)

Ако предпоставката за равномерно разпределение на екстремумите не е изпълнена и има струпване на екстремуми в една зона, особено в границата на допустимата област, вероятността за намиране на глобален екстремум се намалява.

Този метод е приложим при голям брой управляващи параметри.

3.5. Случайно търсене с променлива плътност на началните точки

Алгоритъмът дава възможност да се увеличава плътността на случайните точки в предполагаемата област на глобалния екстремум, без да се изхвърля напълно от разглеждане останалата област, както е в метода на Лус - Якола.

Алгоритъмът е следният: 1. Изходното допустимо пространство на управляващите параметри Гх се разделя

на две подобласти. 2. Във всяка от двете подобласти се генерира по случаен начин начална точка по

формула (3.6) 3. Изчислява се стойността на целевата функция във всяка точка. 4. Определя се областта, в която е точката с най-добър резултат. Проверява се

дали размерите на тази област са достигнали предварително зададени минимални граници. Ако границите са достигнати, алгоритъмът продължава от т. 8, иначе от т. 5.

5. Областта, в която е точката с най-добър резултат, се разделя на две подобласти. 6. Във всяка от съществуващите до този момент подобласти се генерира по една

нова случайна начална точка и алгоритъмът се повтаря от т. 3. 7. Ако при генериране на нови точки във всяка подобласт не се получи по-добър

резултат за Q(x) от предишните, повтаря се т. 6. Ако се достигне определен, предварително зададен брой неуспешни генерирания на нова начална точка, алгоритъмът се продължава от т. 8.

8. Точката с най-добра стойност на целевата функция се приема за начална точка и се изпълнява алгоритъм на случайно търсене в допустимото пространство xx .

Този метод се характеризира със значителен брой изчисления на целевата функция, но има следните предимства:

а. Не съществува точка в областта xx , която при всеки цикъл да не може да

бъде избрана и целевата функция в нея определена. б. На всеки цикъл нараства "плътността" на генерираните точки в онази

подобласт, която е потенциално съдържаща глобалния екстремум. Това условие характеризира приетия в алгоритъма начин за "обучение" на случайно търсене по предишната информация.

Графична интерпретация на метода е дадена на фиг. 3.3.

Фиг. 3.3. Случайно търсене с променлива плътност на началните точки

Този метод може да се усъвършенствува, ако от всяка генерирана точка в подобластите всеки път се изпълнява случайно търсене в тях и по анализа на получените резултати се взема решение в т. 5 коя област да се раздели.

Page 51: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

52

3.6. Генетичен алгоритъм на Прайс

Методът на Прайс [20, 42, 43] е евристичен метод, който е много перспективен, ако се усъвършенстват някои от евристиките използвани в него и ако се добавят и комбинират нови евристики. Това е един от първите генетични алгоритми с голяма ефективност.

В метода на Прайс не е достатъчно добре фиксиран броят на точките М. Прайс предлага М = 10 100 при n = 2 3. Необходимо е да се потърси оптимално число за М в зависимост от броя на управляващите параметри n. Очевидно, колкото М се увеличава, толкова се увеличава и вероятността за намиране на глобалния екстремум, но и броят на изчисленията на Q(х) силно се увеличава.

Значително подобряване в скоростта на сходимост на алгоритъма се очаква, ако кластерният анализ се прави не след генерирането на М случайни точки в допустимото пространство, а след намерени локални максимуми от определен брой случайни начални точки. Подлежи на изследване и оптималният брой точки 1M в кластериите. Броят, приет

от Прайс, е сравнително малък: 11 nM . Може да се усъвършенствува и критерият за спиране на търсенето.

Оригиналният алгоритъм на метода на Прайс е следният: 1. Генерират се в допустимото пространство М равномерно разпределени случайни

точки )( jix , ;,....,2,1 ni Mj ,....,2,1 по формула:

iij

iij

i xxxx minmaxmin , (3.8)

където α са равномерно разпределени случайни числа в интервала от 0 до +1;

maximini , xx са границите на допустимото пространство на управляващите

параметри. 2. Изчислява се целевата функция )( )()( jj QQ x Mj ,....,2,1 .

3. Приема се К = 0 и 0TI , където К и IT са идентификатори.

4. Определят се точката )(wx с най-лош резултат за целевата функция )(wQ и точката )(bx с най-добър резултат )(bQ за )(xQ .

5. Проверява се критерият за спиране на търсенето

xwb )()( xx . (3.9)

Ако горното условие е изпълнено, алгоритъмът се прекратява и се отпечатват най-добрият резултат за целевата функция )(bQ и координатите му )(bx .

6. От общия брой М точки, по случаен начин се избират 11 nM . От тях също по

случаен начин се избира една, наречена полюс )( px . Изчислява се центърът на тежестта )( px на останалите 11 M точки

1

1

)(

1

)(

1

1 M

l

pi

li

ci xx

Mx , ni ,...,2,1 . (3.10)

7. Изчислява се нова точка )( Nx : )()()( 2 pcN xxx , (3.11)

1 TT II . (3.12)

8. Изчислява се )( )()( NN QQ x

9. Ако )()()( , wwN xQQ се отхвърля и се заменя с )( Nx , т.е. )()( Nw xx и )()( Nw QQ . Алгоритъмът продължава от т. 4.

10. Ако )()( wN QQ , тогава К = К + 1.

Page 52: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

53

11. Ако )(,2

NTIK x се изоставя и алгоритъмът продължава от т. 6. В противен случай

алгоритъмът продължава от продължава т. 12. 12. Изчислява се нова пробна точка )(Gx :

)()()(

2

1 NcG xxx . (3.13)

13. Изчислява се )( )()( GG QQ x .

14. Ако )()()( , GwG QQ x се отхвърля и алгоритъмът продължава от т. 6.

15. Ако )()()( , GwG QQ x се включва в М-те точки на мястото на )(wx , т. е. )()( Gw xx и )()( Gw QQ . Алгоритъма продължава от т. 4.

Някои недостатъци на метода на Прайс са: (1) При случаен избор на точки в алгоритъма на Прайс за класическия анализ е

необходим целочислен генератор на случайни числа в предварително зададени граници ]:1[ 1M .

(2) Не е достатъчно добре фиксиран броя на точките М в метода на Прайс. Прайс предлага М в границите от 10 – 100 при n = 2-3. Необходимо е да се потърси оптимално число за М в зависимост от броя на управляващите параметри n. Колкото М се увеличава, толкова се увеличава и вероятността за намиране на глобалния екстремум, но в същото време и броят на изчисленията S на целевата функция )(xQ силно се увеличава.

3.7. Метод на "тежкото топче"

За търсене на глобален екстремум са предложени и редица градиентни методи, например методът на Бочаров - Фелдбаум, тунелният метод, "голф-метод", модифицираният метод на Гелфанд и Цетлин и др. Ефективността на тези методи е по-малка, тъй като обикновено изискват по-голям брой изчисления на целевата функция, отколкото в алгоритмите, организирани на основата на директното търсене. Един от известните градиентни методи за търсене на глобален екстремум е т. нар. метод на "тежкото топче".

Характерна особеност на този метод е, че на изобразяващата движението към екстремума точка се приписва маса. Така тя "придобива" тежест и се разглежда като малко метално топче. Ако това топче се хвърли върху многоекстремална повърхнина с много локални минимуми, благодарение на масата си и набраната инерция в градиентно направление топчето може да преодолява и да прескача някои не много силно изразени локални минимуми.

Рекурентната формула за движение към минимума при метода на

,,...,2,1,11 nixxx

Qhxx k

ik

ik

i

k

ik

ik

i

(3.14)

където kih е параметър на стъпката, а k

i - маса на "тежкото топче". При организиране

на алгоритъм за търсене на максимума на Q(х) знакът пред kih в (3.14) трябва да бъде

плюс.

Масата се избира в границите 10 ki и е функция на съставката на градиента на

i-тия управляващ параметър

i

kk

i x

Qf . (3.15)

За да може топчето да прескача локални минимуми, зависимостта (1.44) се съставя така, че при голяма стойност на съставката на

Page 53: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

54

градиента ki да намалява и когато

i

k

x

Q

намалява, ki да расте

1,0

k

ii

k

x

Q . (3.16)

Различните алгоритми на метода на "тежкото топче" всъщност се различават по организацията на зависимостта (1.44). Може да се приеме например

,

1

1

i

k

ki

x

Q

i =1, 2,…, n. (3.17)

Изменението на i-тия управляващ параметър в (к + 1)-та стъпка според (3.14) се определя от влиянието на съставката на градиента и от влиянието на "масата".

iik

ik

i xxxx 1 . (3.18)

Наблюдават се няколко последователни етапа от движението към минимума по един

управляващ параметър ix ,за функцията Q(х) (фиг. 3.4).

Фиг. 3.4. Метод на тежкото топче

За т. 1:

ix

Q

1

е голяма и 01 i . Производната е отрицателна и движението е в

посока на нарастване на ix :

ik

ik

i xxx 1 . (3.19)

За т. 2:

02

ix

Q и 0;12

ii x .Движението продължава в същата посока, тъй

като 0 ix .

За т. З:

ix

Q

3

е малка и положителна;. 13 i . Ако се допусне, че

ix

Q

3

не е голяма и

ix е доминиращо, движението продължава в същата посока, тъй като . 0 ii xx .

За т. 4: същото както в т.2. За т. 5: същото както в т.1. За т. 6: същото както в т.2.

Page 54: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

55

За т. 7:

ix

Q

7

е голяма и положителна, 07 i . Движението сменя посоката си,

тъй като i

ki

ki xxx 1 . (3.20)

В областта на т.6 и т. 7 възникват колебания. За да се спре търсенето, необходимо е да се следи посоката на движение на "топчето". Когато посоката се смени, трябва да се приеме 0 и да се използува някой от градиентните критерии за спиране.

Описаният метод дава възможност да се прескочат някои локални минимуми, но не гарантира намирането на глобалния само от една начална точка. Алгоритъмът трябва да се изпълни многократно от няколко начални точки.

Освен трудността при формирането на ki , този алгоритъм има всички

недостатъци на градиентните методи.

3.8. Тунелен метод

Тунелният метод за глобална оптимизация, развит последователно от Леви - Монталво - Гомез [22, 23] има евристична организация и включва две фази - минимизираща и тунелна. Основният му вариант е разработен за търсене на минимум на Q(х), затова втората фаза е наречена тунелна. Авторите са използували градиентни оптимизационни процедури в двете фази, но на основата на интересната идея на метода той може да се развие във варианти и с без градиентно търсене. Графична илюстрация на метода при един управляваш параметър е дадена на фиг.3.5.

Алгоритъмът на метода е следният:

1. Избира се начална точка 0x (т. 1).

2. По метода за локално търсене (градиентен, случайно търсене и др.) се намира минимум на Q(х) с текущо приближение към глобалния минимум Q* и х* (т. 2). Тази фаза се нарича минимизираща.

3. Формира се нова функция

n

iii xx

QQ

1

2*

2*

xTx

. (3.21)

Фиг. 3.5. Тунелен метод

Page 55: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

56

4. По някои от известните методи за оптимизация се намира минимумът на Т(х), т. е. точка Tx (т. З), при която 0T T x или при числено решение 0T T x . Тази фаза се нарича тунелна.

5. Получената точка Tx се приема за нова начална точка T0 xx и алгоритъмът се

повтаря от т. 2. 6. Двете фази се редуват последователно до намиране на точка х* (т. 6 фиг. 3.5), от

която не може да се намери решение (T)x , при кoето 0T T x . От значение за работата на алгоритъма е точното локализиране на минимума на Q(х)

при минимизиращата фаза. Това е възможно, ако се използуват някои методи с аналитично зададени производни от първи и втори ред. Обикновено локалният минимум в числените процедури се намира със зададена точност Q за целевата функция. За да се подобри сходимостта на алгоритъма, тази точност се въвежда като коригиращ параметър във функцията (3.21) и тя получава следния вид:

n

iii xx

QQQ

1

2*

2* ΔxT

x. (3.22)

Най-съществен проблем при тунелния алгоритъм е критерият за спиране на търсенето. Ефективността на метода би се повишила значително, ако се намери процедура, която да установява бързо, че функцията (3.22) няма минимум, равен на нула след последното текущо решение х*.

3.9. Метод на преместващото се ограничение

Методът на преместващото се ограничение [9] е ефективен и бързосходим метод, който е приложим за мултимодална целева функция, на която освен ограниченията

xx могат да бъдат наложени и областни ограничения 0 x .

Алгоритъмът на метода е следният: 1. Дадени са целевата функция xamQ

xx , xΓx (3.23)

и областните ограничения

2,...,2,1,0 mjj x . (3.24)

2. Намира се начална точка 0x в допустимото пространство.

3. По някои от известните методи се намира локален максимум *Q и х* с

предварително зададена точност Q по целевата функция.

4. Към основната задача (1.42), (1.43) и (1.44) се добавя ново ограничение

0)( * aQQ x . (3.25)

Алгоритъмът се повтаря от т. 2. 5. Алгоритъмът прекратява търсенето, ако не се намери начална точка, която да

удовлетворява (3.23), (3.24) и (3.25). Обикновено се задава предварително броят NM на

опитите за намиране на нова х0 след последния етап на преместване на ограничението (3.25).

Графичен пример за отделните етапи на преместващото се ограничение при намиране на максимум на едномерна многоекстремална целева функция е показан на фиг.3.6.

Page 56: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

57

Фиг. 3.6. Метод на преместващото се ограничение

При този метод най-трудно е да се намери начална точка и да се удовлетвори критерият за спиране на търсенето. Този проблем може да се реши, ако се намери ефективна процедура за бързо решаване на системата нелинейни неравенства (3.24) и (3.25) или за доказване, че такова решение не съществува. Известните в литературата методи не са достатъчно ефективни при сложни мултимодални целеви функции.

Друг проблем е оптимизация в несвързани допустими области, които неминуемо се получават при преместване на ограниченията (3.25).

Анализът на метода на преместващото се ограничение и сравнението му с други алгоритми показва много добра сходимост.

3.10. Мултикомплекс-метод

Комплекс-методът, който е един генетичен алгоритъм [1, 3], е приложим и за оптимизация при многоекстремални целеви функции.

Мултикомплекс-методът представлява многократно формиране на нов комплекс (“популация”) със запазване в новия на точката с най-добър резултат за xQ от предишния. Търсенето се прекратява, когато при два или повече последователни комплекси не се намери по-

добър резултат съобразно със зададената точност x . Укрупнената блокова схема на алгоритъма на мултикомплекс-метода е дадена на фиг. 3.7.

Page 57: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

58

Фиг. 3.7. Блоков алгоритъм на мултикомплекс метод

3.11. Генетични алгоритми Генетичните алгоритми са част от еволюционната оптимизация, което е бързо

разрастващата се област на изкуствения интелект [10, 11, 12, 13, 45, 46]. Идеята за еволюционни изчисления е била предложена от Rechenberg [28]. Неговите идеи след това са развити от други изследователи. Генетичните алгоритми са представени най-добре от John Holland в книгата му "Adaptation in Natural and Artificial Systems" публикувана през 1975 [29]. Така се заражда и продължава да се развива в последното десетилетие ново “програмиране” наречено “генетично програмиране”. Трябва да споменем, че съществуват много “програмирания” – “линейно”, “нелинейно”, “квадратично”, “динамично” и др.

В основата на генетичните алгоритми, както се вижда и от наименованието им, са заложени принципите на еволюционните генетични процеси на развитие, които трябва да водят до по “добри поколения”. Затова в тях се използват много “биологични” термини. В действителност, те не са самостоятелен отделен клас методи и са силно обвързани с много други методи и алгоритми за оптимизация, като евристичните, адаптивните, стохастичните и използват много евристични правила от тях. По тази причина много алгоритми, които имат генетичен характер, не са дефинирани при публикуването им като генетични.

Генетичните алгоритми се стартират с множество от възможни решения (представени от хромозоми) наречени популация. Решенията от една популация се вземат и използват от новата популация. Това е обосновано от надеждата, че новата популация ще бъде по-добра от старата. Решенията, които са избрани да формират новата популация (потомство) са избрани съгласно тяхната жизнеспособност - по подходящите са с по-

Page 58: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

59

големи шансове за репродукция. Това се повтаря докато някакво условие е удовлетворено (например броят популации е изчерпан или е доказано, че е намерено най-доброто решение). В организацията на такъв алгоритъм е важно да се анализират множество решения, да се отхвърлят лошите решения и да се запазват по-добрите на всяка итерация в алгоритъма.

Един примерен генетичен алгоритъм е следният: 1. Генериране на определен брой случайни точки (популация) от N подходящи

решения на проблема (N хромозоми) 2. Изчисляване на целевата функция Q(x ) във всяка точка. Стойността на целевата

функция се отъждествява със жизнеспособността на всеки хромозом в популацията. 3. Създава се нова популация като:

3.1. Прави се “селекция”, като се избират два родителски хромозома от популацията съобразно тяхната жизнеспособност (по добри шансове за селекция имат тези, които имат по-добра жизнеспособност, т.е. по добри стойности на целевата функция).

Хромозомите се селектират от популацията за следващото ниво “кръстосване”. Проблемът е в това как да бъдат подбрани тези хромозоми. Съгласно еволюционната теория на Дарвин най-добрите трябва да оцелеят и да създадат ново потомство. Има много методи за избор на най-добрите хромозоми, примерно селекция по кръгова рулетка, състезателна селекция, селекция по ранг, селекция на устойчивите състояния и др.

Например, при селекция по кръгова рулетка ''родителите'' се избират според тяхната жизнеспособност. Колкото по-добри са хромозомите, толкова по-добър шанс имат да бъдат избрани. Да си представим, че всички хромозоми от популацията са поставени в колелото на рулетката и всеки има собствено място и големина съответстваща на функцията му за жизнеспособност. Тогава при ''хвърляне на топчето'' ще се избере хромозома с по-голяма жизнеспособност, т. е. с по-добра стойност на целевата функция.

3.2. На ниво ''кръстосване'', вероятностно се кръстосват родителите за да формират новото поколение (нови точки). Ако не бъде извършено кръстосване, поколението е точно копие на родителите. Кръстосването избира гени от родителските хромозоми и създава ново поколение. Най-простия начин, по който може да се извърши това е да се избере случайна точка на кръстосване и всичко преди тази точка да е копие от първия “родител”, а всичко останало след точката на кръстосване да е копие на от втория “родител”.

3.3. На ниво “мутация” вероятностно се мутира новото поколение на някое място (позиция в хромозомата). Това е за предпазване всички решения в популацията да не попаднат в локален оптимум на решавания проблем. Мутацията променя случайно новото поколение.

3.4. Приемане на новото поколение в новата популация. 4. Използване новогенерираната популация за по-нататъшни изпълнение на

алгоритъма. 5. Проверка на критерия за спиране. Ако зададеното крайното условие за спиране е

удовлетворено търсенето се прекратява, иначе търсенето продължава със запазване на най-доброто решение от досегашната популация и цикълът се повтаря от т. 2.

Това означава, че последното най-добро решение непрекъснато се “копира” (запазва) без промяна в новата популация, така че най-доброто намерено решение може да “оцелее” до края на изпълнението на алгоритъма (виж мултикомплекс метода, метода на Прайс).

Някой от генетичните алгоритми за оптимизация са заложени в програмния пакет QstatLab [27].

3.12. Сравнителен анализ на методи за търсене на глобален екстремум

Сравнението на различни методи и алгоритми за търсене на глобален екстремум е трудно, тъй като са разработени много методи и техни модификации, а самият сравнителен анализ представлява многокритериална оптимизационна задача. Основните критерии за сравнение са следните [1, 2, 3,]:

Page 59: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

60

(а) Сходимост към глобалния екстремум; (б) Брой изчисления на целевата функция S. (в) Разход на изчислително време на компютър. При някои алгоритми може да се

гарантира сходимост, но с големи изчислителни разходи, които не са приемливи за on-line алгоритми или управление.

(г) Заемана оперативна памет от програмата. Този показател е от значение, когато оптимизационните алгоритми се използуват в реално време от неголеми изчислителни устройства за целите на управлението на обекти.

В литературата има публикувани много анализи на алгоритми за глобално търсене .Те обаче обхващат или определен клас алгоритми, или група модификации, или броят на изследваните методи и задачи е малък.

Изследването на ефективността на алгоритмите трябва да бъде комплексно, с оценка от всички критерии, с различни по сложност реални задачи и тестови функции и с различна размерност на х. Едно такова изследване е направено в [1, 3].

Най-голяма ефективност показват директните методи с елементи на евристичност: - случайно търсене от множество случайни точки[1]; - метод на Лус – Якола [19]; - модифициран метод на Уанг – Лус [21]; - метод на преместващото се ограничение с комплекс-метод [1]; - метод на Прайс [20].

Бъдещото усъвършенствуване на тунелния метод с цел ускоряване на неговата сходимост може да реши до известна степен задачата за глобална оптимизация в неограничена област на факторното пространство.

Проблемът за намиране на оптимален алгоритъм за глобална оптимизация все още не е решен. Направеният анализ показва, че алгоритмите могат да се усъвършенствуват чрез комбиниране на положителните качества на няколко от тях на основата на приети евристични правила.

Page 60: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

61

4. Многокритериално вземане на оптимални решения

4.1. Формулировка на задачата за многоцелева оптимизация

Качеството на един технологичен продукт, екологичната целесъобразност на едно производство или качеството на функциониране на един обект или система са комплексни показатели, съставени от множество целеви параметри ( y y ym1 2, ,..., ). Всеки от тях има определено значение, но не е достатъчен за оптимизацията на процеса или за управлението на обекта. Оптималните стойности на различните целеви параметри обикновено се получават при различни стойности на множеството управляващи параметри ( x x xn1 2, ,..., ), а оптимизацията само по един критерий не винаги е най доброто решение. В действителност реалните технологични оптимизационни задачи и задачите за оптимизация на качеството винаги са многоцелеви. Необходимо е например да се създаде сплав, която да има голяма устойчивост на високи температури, голяма пластичност, голяма корозионна устойчивост и др. Един текстилен продукт трябва да има голяма здравина, малка мачкаемост, голяма плътност, малка разтегливост, голяма устойчивост на цветовете при пране и минимално да се замърсява околната среда от технологията на обработката му. Информационната схема на многоцелеви технологичен обект е показана на Фиг. 4.1.

Фиг. 4.1. Информационна схема на управляем обект за оптимизация

Управляващите параметри (фактори) x ( , ,..., )x x xm1 2 (температура, налягане, разход на реагенти, време, количество добавки др.) обикновено са дефинирани в определени граници определящи така нареченото допустимо пространство на управляващите параметри (факторни ограничения)

x x x i ni i imin max , , ,..., 1 2 , или x x . (4.1)

Управляващите параметри могат да бъдат и неограничени или частично ограничени. Те могат да бъдат също така непрекъснати (време, налягане, температура) и дискретни (брой работници, машини, горивни дюзи). Към целевите параметри y ( , ,..., )y y ym1 2 (добив, здравина, цена, вредни примеси) се поставят различни технологични, технически, икономически, екологични, социални и др. изисквания, удовлетворяващи условия поставени от потребителя, производителя, обществото, стандарти, норми и др. Целевите параметри се представят главно числено (добив, цена, количество примеси, физико-механични показатели, количество на емисии), но могат да бъдат изразени и лингвистично (мириз, прозрачност, отдалеченост, цвят). Някои от многоцелевите задачи могат да се сведат до един основен параметър (критерий), а останалите да играят ролята на областни ограничения. Това разделяне обаче не винаги е възможно. Множеството целеви параметри

ОБЕКТ ЗА ОПТИМИЗАЦИЯ

x1

x2

xi

xn

y1

y2

yj

ym

Page 61: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

62

)](),...,(),([)( 21 xxxxy myyy (4.2)

носи названието векторен критерий. Оптимизационната задача при векторен критерий изисква намирането на такова

множество на управляващите фактори x*, при които целевите параметри

y j = 1,2,...,mj ( ),x* ще удовлетворят комплекс от компромисни изисквания.

Оптимизационната задача за многокритериално вземане на оптимално решение може да се формулира по следния начин:

)}(),...,(),({max)(max xxxxxx

j m21 yyyy

xx

, (4.3)

при наложени функционални ограничения от тип равенство или неравенство (ако има такива):

.,,0)(h

0,)(g

k1,2,.p

s1,2,...,=l

p

l

..

x

x (4.4)

4.2. Особености на задачите за многокритериално вземане на решение

Основната характеристика на задачата за многоцелева оптимизация е, че задачата е некоректна, тъй като няма едно единствено решение, а има безброй решения. Регуляризацията на тази некоректна задача обикновено става чрез скаларизация на векторния критерий.

На Фиг. 4.2 е показан графичен пример за две целеви функции y x1( ) и y x2 ( ) ,

които зависят от един управляващ параметър 0 x b . За y x1( ) се търси максимум, а за

y x2 ( ) - минимум. Максимумът на y1 се получава при x x ( )1, а минимумът на y2 при

x x ( )2 .

Фиг. 4.2. Области на съгласие и област на компромиси

Областта за x от 0 до x ( )1 и от b до x ( )2

се нарича "област на съгласие", тъй като измененията на x, които причиняват желаното повишение на y x1( ) , водят до желаното

намаляване на y x2 ( ) и обратно. Всяко изменение на x в областта x ( )1 до x ( )2

, което подобрява единия целеви параметър, води до влошаване на другия. Тази област се нарича "област на компромисите". В нея се намира търсеното "компромисно" решение.

Page 62: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

63

Ако x ( )1 се приеме за решение на задачата, това значи, че y x2 ( ) няма значение за

обекта. Ако се вземе x ( )2, то y x1( ) е без значение. Ако и двата целеви параметъра са

еднакво важни, компромисното решение x* може да се избере на средата между x ( )1

и

x ( )2. При по-голяма важност на y x1( ) , x*

трябва да е по-близо до x ( )1 и обратно.

Изборът на компромисното решение зависи от избрания принцип на компромис и от приетите тегловни коефициенти Wj , определящи важността на отделните целеви

параметри. Тази важност, изразена чрез тегловните коефициенти, е показател за удовлетвореността от отделните критерии (целеви показатели). Решението от областта на компромисите често се нарича Парето - оптимално. На Фиг. 4.3 е показан “пътят на движение” към компромисната област в двумерно

пространство на управляващите параметри x1 и x2 от начална точка x0. Компромисното

решение x* зависи от тегловните коефициенти W1 и W2 на y1 и y2 . Решение x ( )1

е при

W1 1 и W2 0 ; решение x ( )2 е при W1 0 и W2 1 ; решение x1

* е при W W1 2 , а x2

* при

W W2 1 . Съществуват различни концепции за решаване на оптимизационните задачи с няколко критерия за оптималност. До неотдавна решението на такива задачи се смяташе за некоректно предвид на това, че те нямат едно-единствено решение. Въпреки това необходимостта от решаването на множество практически задачи с векторен критерий е довела до развитието на много методи за компромисни оптимални решения [1, 7, 10, 12, 16, 14, 24, 25, 26].

Фиг. 4.3. Компромисна оптимална област при два управляващи фактора

Въпреки многото класификации в литературата на методите за компромисна

оптимизация, предложените методи могат да се разделят главно на две групи: 1. Методи за намиране на множество Парето-оптимални решения (множество на не подобряващи се точки). 2. Методи на скаларизацията и компромисните решения.

4.3. Парето - оптимални решения

В задачите за векторна оптимизация се е наложила концепцията за Парето-оптималност съгласно принципа, предложен от Вилфредо Парето [17].

Page 63: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

64

Парето-оптималното решение (управление) x* x е онова решение при което

не съществува друго решение x0 в допустимата област x , така че

m,...,2,1,()( jyy jj )x*x0, (4.5)

като неравенството (4.5) се спазва строго поне за един от критериите. Посоката на неравенството (4.5) е съобразена с изискването за търсене на максимум на всеки от критериите.

Дефиниция за Парето-оптимално решение

Парето-оптималното решение x* x , при спазени ограничения (4.4), притежава свойството, че всяко отклонение от него с цел подобряване на един или по-вече критерии, води до влошаване на един или по-вече от останалите критерии.

Парето-оптималните решения се наричат още ефективни, не доминиращи, не подобряващи се, компромисни или приемливи. За всяка допустима област xx стойностите на компонентите на векторния критерий определят точка y( )x от множеството V . Tук V е множество в m-мерното пространство на критериите за оптимизация (Фиг. 4.4). Множеството на Парето-оптималните решения V в пространството на критериите принадлежи на границата на множеството V . Получаване на Парето – фронт може да се направи с QstatLab [27]. При два критерия за оптималност y1( )x и y2 ( )x и при изпълнение на условията за

изпъкналост за x и y jj ( ) , ( , )x 1 2 множеството V и Парето-оптималните решения V

са дадени на Фиг. 4.4. Множеството точки, удовлетворяващи условията за Парето - оптималност, са дадени с линията АВ.

Фиг. 4.4. Парето и не Парето области Както се вижда от Фиг. 4.4, от всяка точка на допустимите решения за y1( )x и y2 ( )x в областта x x ,която се намира вътре в защрихованата област, може да се получи по-добро решение (повишаване) и за двата критерия, с изключение на точките, лежащи на линията АВ, които удовлетворяват условието за Парето-оптималност (4.5). Точката В определя максималната възможна стойност за критерия y1( )x , а т. А - максималната възможна стойност за критерия y2 ( )x . В зависимост от изискванията към критериите се мени и Парето-оптималната област. На Фиг. 4.5 са показани четирите възможни случая на Парето-оптималната област в

Page 64: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

65

зависимост от това, какво се иска от y1 и y2 - максимум или минимум. Четирите Парето-оптимални области са дадени в табл. 4.1.

Точката u1 на Фиг. 4.5 се нарича "утопична точка", т. е. нереално решение за получаване на възможните безкомпромисни максимуми на двата критерия при едни и същи условия за управляващите параметри. Освен в случаите, когато максимумите на двете целеви функции съвпадат в пространството на управляващите параметри, такова решение е наистина утопично.

Фиг. 4.5. Различни Парето оптимални области

Обшият брой утопични точки за случаите на Фиг. 4.5 и табл. 4.1 е четири ( , , , )u u u u1 2 3 4 .

Таблица 4.1. Области на Парето оптимални решения Множество Парето-оптимални решения

Изисквания за критериите

y1( )x y2 ( )x АВ max max CD min min BC max min DA min max

При методите за скаларизация и компромисни решения, в зависимост от приетата схема за компромис, се препоръчва една оптимална точка, която максимално да удовлетворява обобщаващия скаларен критерий (максимум полезност, минимум загуби от утопичното решение, максимална желателност и др.). В задачите за многокретериална оптимизация основният проблем е "вземане на решение", коя точка от компромисната област да бъде избрана за оптимална. Това вземане на решение трябва да бъде максимално подпомогнато от избрания метод за многоцелева оптимизация. При многокритериалното вземане на оптимално решение съществуват редица проблеми свързани с избора на стратегия за компромисно решение, избор на начално решение, избор на приоритети за отделните критерии (тегловни коефициенти), избор на обобщена (скаларизираща) функция, избор на крайно решение от множество Парето - оптимални, избор на необходими, желани, препоръчани, идеални, полезни и др. стойности за отделните критерии, трансформиране на лингвистични описания на критерии и др. Основната схема за вземане на оптимални решения е показана на Фиг. 4.6.

Page 65: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

66

Фиг. 4.6. Схема за вземане на оптимални решения

В решаването на многокритериални задачи при управление на качеството най-голяма роля играе така нареченото "лице вземащо решение" (decision maker). Това лице трябва да може да прави системен, йерархичен, експертен, статистически и корелационен анализ, анализ при размити ситуации и при непълна информация. Лицето вземащо решение трябва да владее стратегиите и методите за многоцелева оптимизация и въз основа на анализа на множество решения да препоръча или да взема оптимално решение. Оптималното решение обикновено се получава след интензивно взаимодействие между производител, потребител, мениджър и лицето със знания и опит по многокритериални оптимални решения и методи за оценка на удовлетвореността.

Фиг. 4.7. Итеративен алгоритъм за многоцелева оптимизация

Укрупненият итеративен алгоритъм за многоцелева оптимизация е показан на Фиг. 4.7.

НЕ

НАМИРАНЕ НА НАЧАЛНО ДОПУСТИМО РЕШЕНИЕ

ФОРМУЛИРАНЕ НА ПРОБЛЕМА

НАЧАЛО

ОБСЪЖДАНЕ И АНАЛИЗ НА РЕШЕНИЕТО

ТЪРСЕНЕ НА НОВО РЕШЕНИЕ

ДА

КРАЙ

Приемливо ли е решението?

ПРОБЛЕМ

ЗНАНИЯ, МЕТОДОЛОГИЯ,

ОПИТ

НАТРУПВАНЕ НА ИНФОРМАЦИЯ

ОБРАБОТКА НА ИНФОРМАЦИЯТА

СУБЕКТ

ИЗПЪЛНЕНИЕ НА РЕШЕНИЕТО

ОБЕКТ

ВЗЕМАНЕ НА РЕШЕНИЕ

Page 66: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

67

4.4. Методи на препоръчаното решение за оптимизация при много критерии

Най-голямо приложение за вземане на оптимално решение при много критерии са получили различните модификации на така наречените методи на препоръчаните решения (Reference point approach) [1, 7, 14, 16, 24, 25, 26,]. Тези методи се отнасят към широкия клас на методите на скаларизацията. За всеки целеви показател се задава препоръчана стойност (препоръчана точка) -

(reference point) - jry . В различни варианти на метода идеята е да се максимизират

надхвърлянията над препоръчаната стойност jry , т.е. jmax и/или да се минимизира

недостигането до препоръчаната стойност jry , т.е. jmin , j=1,2,..., m. Задачата е да се

намери решение (управление) *x , при което се получава

jmax и/или jmin , т.е.

}{max)(max00

m

1ij

m

1ij

Xr

XF

xxx , (4.6)

където

jrjj yy )(x , j=1,2,…,m. (4.7)

j се нормира, когато )(xjy имат различни дименсии, по следния начин

jr

jrj

y

yy

)()(

xxj , j=1,2,…,m (4.8)

Когато jry клони към 0, или е много малко число се използва следният начин на

нормиране

jminjmax

jrjj yy

yy

)()(

xx , j=1,2,…,m, (4.9)

където jminy и jmaxy са избрани съответно минимална и максимална стойност за

Формиране на обобщена целевата функция

Обобщената (скаларизираната) целева функция, която замества векторния критерий (множеството от целеви параметри) може да се състави от "адитивен" (4.29), "мултупликативен" (4.30) или "хармоничен" (4.31) тип. Например, обобщената функция от "адитивен" тип може да се състави по следните начини:

j

m

j jr

jrjrа w

y

yyF

1

)()(

xx ; (4.10)

или

j

m

j jminjmax

jrjrа w

yy

yyF

1

)()(

xx ; (4.11)

или

j

m

j jr

jrjrа w

y

yyF

2

1

)()(

xx ; (4.12)

или

j

m

j jminjmax

jrjrа w

yy

yyF

2

1

)()(

xx , (4.13)

Page 67: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

68

Във всички скаларизирани (обобщени) функции (4.10) до (4.13) са включени тегловни коефициенти wj за отделните показатели yj. Тегловните коефициенти отразяват степента на важност на всеки отделен показател или удовлетвореността от показателя. Ако такива тегловни коефициенти не са зададени, те се приемат за равни на единица (wj = 1).

Общ алгоритъм на методите на препоръчаните решения

1. Задават се целевите функции y j mj ( ), , ,...,x 1 2 , изискванията към тях,

ограниченията (4.1) и (4.4), тегловните коефициенти wj и др.;

2. Избира се стратегия и се специфицират препоръчаните стойности jry , j =

1,2,…,m;

3. В зависимост от избраната стратегия се формира )(xrF , така че да се

максимизират надхвърлянията над препоръчаната стойност (max j ) или да се

минимизират не достиганията до препоръчаната стойност ( min j ), или едновременно

max j и min j

;

4. Максимизира се (или се минимизира, виж разд. 2.4.1) )(xrF и се намира *x ;

5. Променят се препоръчаните стойности y j mjr , , ,..., 1 2 и (или) начина на

формиране на )(xrF ;

6. Търси се ново решение (с тегловни коефициенти wj или без wj );

7. Прави се анализ на решенията и се избора едно от тях *x . Методите на препоръчаните решения имат няколко модификации [1,7,14,16,24]:

* Метод на функция на загубите (оптимистичен подход); * Метод на функция на полезност (песимистичен подход); * Рамков подход (обединен оптимистичен и песимистичен подход); * Метод на статистически -средна препоръчана стойност; * Метод на функция на желателност.

4.4.1. Компромисна оптимизация по функция на загубите

Този подход се нарича "оптимистичен", тъй като се задават "оптимистични" (високи) изисквания за препоръчаните стойности на целевите параметри (качествените показатели) и се минимизират загубите, т.е. недостига до тях.

Изборът на работна точка (оптимално управление) x от областта на компромисите

винаги е свързан с известни загуби от безкомпромисните оптимални решения. Тези загуби са теоретически равни на нула, когато екстремумите на m-те целеви функции съвпадат. Във

всички други случаи се получават загуби. Например изборът на x от Фиг. 4.2 води до

загуба от безкомпромисното оптимално решение по y1( )x с y1 и по y2 ( )x с y2.

Фиг. 4.8. Минимизиране на загубите от препоръчаната стойност Идеята за минимизиране на загубите от оптимистично зададената препоръчана стойност yj

* за j – тия целевия показател yj(x) и намиране на компромисно решение yjkp е

илюстрирана на фиг. 4.8. Загубите от оптимистично препоръчаната стойност за всяка целева функция

y j mj ( ), , ,...,x 1 2 се изчисляват по формулата

yjkp yj

* yjmin

min

yj(x)

Page 68: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

69

,,...,2,1,)(

)(*

*

mjy

yyy

j

jjj

xx (4.14)

където y j* e безкомпромисната оптимална стойност (или зададена оптимистична стойност)

за j -целеви параметър (максимум или минимум) при управляващи параметри x ( )jx ;

y j ( )x е всяка текуща стойност на целевата функция в областта xx .

Oт всички относителни загуби се формира обобщената целева функция

F yy y

yro

jj

mj j

jj

m

( ) ( )( )*

*x xx

1

2

1

2

, (4.15)

където означението Fro ( )x e зa "оптимистична" скаларизирана функция на загубите.

Компромисното оптимално решение x се получава при намиране на минимума на Fr

o ( )x . Обобщената функция на загубите може да се формира и чрез сумата на абсолютните

стойности на всички относителни загуби

m

1j*j

j*j

m

j

or y

yyF

)()()(

1

xxyx j . (4.16)

Ако целевите параметри имат различна важност и са зададени тегловните коефициенти за всеки един от тях Wj , компромисното решение може да се измести в посока

на по-важните параметри, като се състави функцията

).1()x(

)x(

2

1*

*

j

m

j j

jjor W

y

yyF

(4.17)

или

)1()(

)( j

m

1j*j

j*jo

r Wy

yyF

xx . (4.18)

Пример 4.1. Дадени са три целеви функции y y1 2( ), ( )x x и y3 ( )x , като за y1 и y3 се търси максимум, а за y2 - минимум. Безкомпромисните оптимални стойности за всеки

целеви параметър са: y1 = 68.2; y2

= 8.4; y3

= 99.5. Тегловните коефициенти, които

изразяват важността на отделните цели, са W W W1 2 30 3 0 2 0 5 , ; , ; , . Обобщената функция на загубите, на която трябва да се намери минимума е

.

5,99

)5,01()x(5,99

4,8

)2,01()x(4,8

2,68

)3,01()x(2,68)x(

2

23

2

22

2

21

yyy

F or (4.19)

Алгоритъмът за намиране на компромисно решение по метода на относителните загуби е следният: 1. Дадени са целевите функции y j mj ( ), , ,..., ,x 1 2 видът на екстремума, който се

търси на всяка от тях, и тегловните им коефициенти Wj.

2. Задават се оптимистичните стойности y j mj , , ,...,1 2 (максимума или

минимума на yj(x)) на всеки целеви параметър в зависимост от изискванията към него. 3. Съставя се обобщената функция от тип (4.15) - (4.16) без тегловни коефициенти или (4.17) - (4.18) с тегловни коефициенти.

4. Намират се условията x, при които формираната функция от типа (4.15) до (4.18)

има минимум. Получените стойности x i са търсените компромисни оптимални условия,

осигуряващи минимални относителни загуби от безкомпромисните решения.

Page 69: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

70

Съществен недостатък на този метод е, че стойностите на относителните загуби зависят силно от y j

, особено когато те са много малки ( )jy 0 . Тогава решението става

неустойчиво. Този недостатък се компенсира, ако в знаменателя се постави разликата от

минималната y jmin и максималната y jmax стойност на целевия параметър, които могат да

се получат в границите xx , т. e.

m

1jj

2

minjmaxj

jjo1r W-1

yy

yyF ).(

)(xx ︶︵ (4.20)

или

m

1jj

minjmaxj

jjo1r W-1

yy

yyF )(

)(xx ︶︵ . (4.21)

На обобщените функции на загубите (4.20) или (4.21) се търси минимума и се намират в условията за компромисното решение x*. Ако целевите функции имат еднакви дименсии, не е необходимо да се нормират и се минимизира следната функция

m

jjj

ojr

or wyyF

1

2 )1()]([min)(min xxxx

. (4.22)

Вайстрофер [24] е предложил и следния вариант на компромисна оптимизация по функция на загубите:

min ( ) min max[ ( )] ,x x

x xF y yro

jjro

jj

m

2

1, (4.23)

където y j mjro , , ,..., 1 2 е оптимистичната зададена стойност, която може да бъде и

идеалната y j mj* , , ,..., 1 2 стойност за даден целеви параметър.

Методът на функцията на загуби се прилага основно, когато се решава многокритериална оптимизационна задача при проектиране или експлоатация и е необходимо да се удовлетворят максимално поръчковите искания или най-добрите световни постижения.

4.4.2. Многоцелева оптимизация по обобщена функция на полезност

Този подход се нарича "песимистичен", тъй като се задават "песимистични" (минимално допустими) изисквания за препоръчаните стойности p

jry на целевите параметри

yj(x) и се максимизират надхвърлянията над тях. Идеята за максимизиране на надхвърлянията над песимистично зададената препоръчана стойност p

jry за j – тия целевия показател yj(x) и намиране на компромисно

решение yjkp е илюстрирана на фиг. 4.9.

Фиг. 4.9. Mаксимизиране на надхвърлянията над песимистично препоръчана стойност

Когато целевите функции (качествените показатели) имат най-различни физически измерения, целевите параметри трябва да се приведат към еднаква скала на измерение и след това се съставя обобщен критерий. За такава скала се използува полезността на

yjkp yjmax yjr

p

max

yj(x)

Page 70: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

71

получените резултати за целевите параметри при различните стойности на x . Според теорията на полезността на всяко явление, събитие или целеви параметър може да се постави в съответствие положително число от 0 до +1, което да изразява полезността на това явление, събитие или целеви параметър. Целевият параметър y j ( )x в условията x се трансформира в коефициент на

полезност j ( )x по формулата [7]

,m1,2,...,j,

yy

yyk

minjmaxj

pjrjj

)()(

xxj (4.24)

където k j 1, когато повишаването на y j е полезно, и k j 1, когато намаляването на y j

е полезно;

y jrp

е най-безполезненият резултат за целевия параметър, зададен по стандарт,

отраслова нормала и др. или получен в границите на допустимото за управляващите параметри пространство;

y jmax и y jmin са границите на полезност, т.е. максималната и минималната

стойност за y j ( )x . Избирането на границите на полезност се направи по предварително

зададени изисквания или по най-добрия и най-лошия резултат, получени за y j ( )x в

областта xx . Пример 4.2.а. На целевия параметър y1( )x се търси максимум. По изискванията на

стандарта той трябва да бъде по-голям от 20 %. Най-добрият резултат за y1, получен в

допустимата област за x x , e 68,5 %. Да се направи трансформация на y1( )x във

функция на полезност 1( )x . Най-безполезният резултат е y rp

1 = 20 %, а границите на

полезност са ymax1 = 68,5 % и ymin1 = y rp

1 = 20 %. Тогава за 1( )x при k1 1 се получава

11 20

68 5 20( )

( )

,.x

x

y (4.25)

Пример 4.2.б. От целевия параметър y2 ( )x се изисква минимална стойност. Чрез експерименти в пространството xx , са получени следните максимални и минимални

резултати за целевия параметър: ymax2 = 1845 и ymin2 = 640. Най-безполезният резултат е

y yrp2 2 1845 max . За трансформацията на y2 ( )x в полезност 2 ( )x при k2 1 ще се

използува формулата

2

2 2

2 2

( )( )

max min

xx

y y

y yr

p

, (4.26)

или

221845

1845 640( )

( ).x

x

y

(4.27)

Както се вижда от формула (4.24), всеки целеви параметър y j ще се трансформира в

коефициент на полезност j в границите от 0 за най-безполезния до +1 за най-полезния

резултат. Ако в допустимото пространство xx има резултати за y j , по-лоши от най-

безполезния y jrp

, при прилагане на формула (4.24) те се приемат за равни на y jrp

.

Page 71: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

72

След трансформиране на физическите параметри в безразмерни полезности се

съставя обобщена функция на полезност F p ( )x , на която се търси максимум. Тя може да

бъде от следните три типа: а. Средно-аритметична функция на полезност без тегловни коефициенти

Fma

pj

j

m

( ) ( )x x1

1

(4.28)

и при наличие на тегловни коефициенти

Fm

Wap

jj

m

j( ) ( ) .x x1

1

(4.29)

б. Средно-геометрична обобщена функция на полезност. m

mp

gF )(...)().()( 21 xxxx (4.30)

в. Средно-хармонична обобщена функция

m

1j j

ph

mF

)(

1)(

x

x

(4.31)

Средно - - геометричната функция и средно хармоничната функция на полезност се използува при оптимизация на технологични процеси, качество и услуги, за които продуктът (качеството или услугата) не се приема, ако дори един от целевите параметри не отговаря на изискванията. В такива случаи Fg

p ( )x 0 и 0)( xphF .

За намиране на максимума на обобщената функция на полезност (4.28) - (4.31) или на минимума на функцията на загуби (4.20) или (4.21) се прилага някой от известните методи за оптимизация в допустимото пространство x [1]. Oбобщената функция на полезност, както и функцията на загубите се прилагат не само при аналитично зададени целеви функции y j mj ( ) , , ,...,x 1 2 , но също така и при

търсене на компромисно оптимално решение от множество дискретни експериментални данни за целевите параметри (показатели за качеството). Пример 4.3. Хартията се характеризира с много качествени показатели, по-голямата част от които са физико-механични. Физико-механичните показатели на хартията зависят в голяма степен от условията на работа на хартиената машина. За изследване на влиянието на обтягането на хартиеното платно върху качеството на хартията е проведен планиран експеримент [8] с два управляващи параметъра: x1 - обтягане на хартиеното платно в пресовата част на машината;

x2 - обтягане на хартиеното платно в сушилната част на машината. За базово (основно) ниво (0) е прието нормалното състояние на работа на машината, за горно ниво (+1) - обтегнато платно и за долно ниво (-1) - провиснало състояние на платното. Всичките 9 възможни комбинации на работа на машината са дадени в табл. 2.2. Като целеви параметри са изследвани основните физико-механични якостни показатели на получената хартия: y1 - удължение в ;

y2 - дължина (якост) на скъсване в km;

y3 - брой двойни прегъвания до скъсване.

Експерименталните резултати за y1, y2 и y3 са дадени в табл. 4.2. Многокритериална оптимизационна задача е да се определи оптималното обтягане

на хартиеното платно в пресованата *1x сушилната част

*2x на хартиената машина така, че

да се получи хартия с минимално удължение y1 ( ), максимална дължина на скъсване y2

Page 72: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

73

( ) (над 9 km, според изискванията на стандарта) и максимален брой двойни прегъвания y3 ( ).

Таблица 4.2. Експериментални резултата и функции на полезност No Обтягане y1 ,

% y2 , km

y3 , брой

1 2 3 Fap Fg

p

_

x1 _

x2

1 0 0 3.37 10.00 1651 0.304 0.417 0.0 0.240 0.0 2 +1 0 2.41 11.40 2050 0.722 1.0 0.212 0.644 0.535 3 -1 0 3.57 9.25 2067 0.217 0.104 0.221 0.181 0.171 4 -1 +1 2.00 9.70 2477 0.900 0.292 0.438 0.543 0.487 5 0 +1 2.11 9.92 2826 0.852 0.383 0.623 0.619 0.587 6 +1 +1 1.77 10.86 2733 1.0 0.775 0.574 0.783 0.765 7 +1 -1 2.77 10.90 3132 0.565 0.792 0.785 0.714 0.706 8 0 -1 4.07 9.55 2926 0.0 0.229 0.676 0.302 0.0 9 -1 -1 3.95 7.75 3537 0.052 0.0 1.000 0.351 0.0

Wj 1.0 1.0 1.0 Прието е задачата за компромисна оптимизация да се реши по средно-аритметична и средно-геометрична функция на полезност без и с тегловни коефициенти. Оптимизация без тегловни коефициенти Планът на експериментите, който представлява всички възможни комбинации от обтяганията на хартиеното платно в пресовата и в сушилната част на машината и получените експериментални резултати за целевите параметри са дадени в табл. 4.2.

Tаблица 4.3. Зададени изисквания за целевите показатели Целеви параметър y j y1,% y km2 , y3 , бр.

Най-безполезен резултат y jrp

4,07 9,0 1651

Граници на полезност y jmax 4,07 11,4 3537

y jmin 1,77 9,0 1651

Koд на полезност k j -1 +1 +1

Teгловни коефициенти Wj 0,1 0,6 0,3

Най- безполезният резултат y jrp , границите на полезност y jmax , y jmin , кодът за

полезност k j и тегловните коефициенти Wj са дадени в табл. 2.3. Най-безполезният

резултат за y1 и y3 е избран от експерименталните данни, а за y2 е предварително зададен

по изисквания на стандарта ( y kmrp2 9 ).

За всеки режим на работа на хартиената машина (u = 1,2,...,9, табл. 2.2) целевите параметри са трансформирани в коефициенти на полезност по формули (4.24)

,1,2,...,3j,

yy

yyk

minjmaxj

pjrjj

)()(

xxj (4.32)

съобразно данните от табл. 2.3. Получените коефициенти на полезност 1( )x , 2 ( )x и 3 ( )x са дадени на табл. 2.2. Обобщените функции на полезност са изчислени без въвеждане на тегловни коефициенти (Wj = 1.0 за j = 1, 2, 3) и са дадени също в табл. 4.2. Средно-аритметичната

функция Fap, изчислена по формула (4.28) и средно-геометричната Fg

p изчислена по

формула (4.30). Максималната стойност и на двете функции на полезност Fa 0 783, и

Page 73: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

74

Fg 0 765, се получава при експеримент No 6, т.е. при максимално обтягане на хартиеното

платно в пресовата и в сушилната част на машината.

Оптимизация с тегловни коефициенти

Многоцелевата оптимизационна задача е решена също и с тегловният коефициенти W jj , , , 1 2 3 , които са дадени в табл. 4.3. Изчислените обобщени функции са дадени в табл.

2.4. Максималната стойност на обобщената функция на полезност Fa = 0,256 се получава

при експеримент No 7, т. е. при максималното обтягане в пресовата част и провиснало състояние на хартиеното платно в сушилната част. По средно геометрична функция на полезност с тегловни коефициенти най-добрият технологичен режим е No 6 с Fg

* = 0.200 и с малка разлика в стойността на обобщената функция е технологичен режим No 7.

Таблица 4.4. Функции на полезност с тегловни коефициенти No Обтягане y1 ,

% y2 , km

y3 , брой

1w1 2w2 3w3 Fap (wj) Fg

p (wj)

_

x 1 _

x 2

1 0 0 3.37 10.00 1651 0.0304 0.250 0.0 0.093 0.0 2 +1 0 2.41 11.40 2050 0.0722 0.600 0.064 0.245 0.1404 3 -1 0 3.57 9.25 2067 0.0217 0.062 0.066 0.050 0.0446 4 -1 +1 2.00 9.70 2477 0.0900 0.175 0.131 0.110 0.1273 5 0 +1 2.11 9.92 2826 0.0852 0.230 0.187 0.176 0.1542 6 +1 +1 1.77 10.86 2733 0.1000 0.465 0.172 0.246 0.2000 7 +1 -1 2.77 10.90 3132 0.0565 0.475 0.236 0.256 0.1850 8 0 -1 4.07 9.55 2926 0.0 0.137 0.203 0.113 0.0 9 -1 -1 3.95 7.75 3537 0.0052 0.0 0.300 0.102 0.0

Wj 0.1 0.6 0.3 В Таблица 4.4 Fa и Fg се изчисляват по формулите:

xj

pa

wwwwF max

3)( 332211

xj

pg wwwwF max..)( 3

332211

Методът на функцията на полезност се използва тогава, когато се решават многокритериални оптимизационни задачи при проектиране или експлоатация и е необходимо да се удовлетворят задължително изискванията на стандарти, норми или поръчкови искания.

4.4.3. Рамков подход за многоцелева оптимизация

Рамковият подход (Bracketing approach) обединява метода на функцията на загуби и функцията на полезност, т.е. на оптимистичния и песимистичния подход.

Оптималното компромисно решение y jkp

се търси чрез едновременното

минимизиране на недостига до желаните (идеалните) стойности y j* и максимизиране на

надхвърлянията над необходимите (исканите) стойности y jrp

:

m

1jpjr

*j

j*j

m

1jpjr

*j

pjrjbr

r yy

yy

yy

yyF

)()(max)(max

xxx

xx (4.33)

Първият член на обобщения критерий в (4.33) представлява функцията на полезност, (която трябва да се максимизира) и вторият член е функцията на загуби с обратен знак, (която трябва да се минимизира).

Page 74: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

75

Фиг. 4.10. Търсене на компромисно решение по рамков подход

Идеята за максимизиране на надхвърлянията над песимистично зададената препоръчана стойност yj

p и за минимизиране на загубите от оптимистично зададената препоръчана стойност yj

* за j – тия целевия показател yj(x) и намиране на компромисно решение по рамковия подход yj

kp е илюстрирана на фиг. 4.10. Алгоритъмът на метода е следният:

1. Лицето вземащо решения спесифисира: а. Необходимите (препоръчани, искани) стойности, които задължително трябва да се удовлетворят - y jr

p , j m 1 2, ,..., ;

б. Желаните (оптимистични, идеални) стойности - y j mj* , , ,..., 1 2 .

2. Съставя се обобщената функция (4.33). 3. Намира се компромисно оптимално решение y j nj

kp , , ,..., 1 2 чрез намиране на

максимума на (4.33). 4. Намаляват се някои или всички желани и се повишават някои или всички от необходимите стойности на целевите параметри. (стесняване на "рамките") Фиг. 4.11. Алгоритъмът продължава от т. 2.

... . .

...

y1*yr1

yr2

y2*

yr3

y3*

Фиг. 4.11. Промяна на “рамката” при рамковия подход

5. Алгоритъмът се прекратява когато всички решения в "кутията" (рамката) се приближат максимално до най-добрата "композиция", приемлива за лицето вземащо решения.

Пример 4.4. Избор на оптимална оферта при закупуване на графитови електроди за електро - дъгови стоманодобивни пещи

Получени са 5 оферти за графитови електроди, които се произвеждат от 5 компании А, Б, В, Г и Д с различни стойности на основните показатели за качеството на графитовите електроди. Необходимо е да се избере най-добрата оферта. Основните показатели при оценяване на качеството на графитовите електроди и техните граници по офертите са дадени в таблица 4.5.

Таблица 4.5. Основни показатели при оценяване на качеството на графитовите електроди *

yj Означение Показател Граници Дименсиy1 Обемна плътност (1.5 1.78).103 kg/m3

y2 cs Якост на натиск (13.0 26.0).106 N/m2

yjkp yj

* yjrp

max min

yj(x)

Page 75: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

76

y3 ts Якост на опън (2.5 7.8).106 N/m2

y4 bs Якост на огъване 7.5 13.0).106 N/m2

y5 ima Ударна жилавост (2.0 6.0).104 N/m

y6 tw Якост на усукване (2.5 5.5).106 N/m2

y7 el Електрическо съпротивление (5 14).106

y8 swC Специфично тегло (1.90 2.З0).103 kg/m3

y9 P Порьозност 18 30 %

y10 Е Модул на еластичност (68 120).107 N/m2

y11 0t Време на релаксация 10 25 min

y12 0 Параметър на формата 0.10 0.38 -

y13 Степен на деформируемост 0.04 0.20 -

y14 Z Цена 1800 2600 $/t

*Данните са от компаниите: SERS, UKAR, STEEK, AGL и SIGRI, но по фирмени съображения, тази последователност не отговаря на последователността А, Б, В, Г и Д.

Таблица 4.6. Качествени показатели на електроди, произведени от компаниите А,Б,В,Г и Д

* Означение за най-добрата стойност от офертите за даден показател: 1.64 Означение за най-лошата стойност от офертите за даден показател: 1.54

Таблица 4.7. Избор на оптимална оферта по метода на препоръчаното решение Песимистичен подход

2y 7y 9y 10y 14y 2

7 9

10 14

Fao Fg

o Fho

А

Б

В

Г

Д

Page 76: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

77

Оферта

Як. на натиск

Ел. съпр.

Порьозност

Модул на

еласт.

Цена

Ср. аритм.

Ср. геом.

Ср. харм.

cs el P E Z - - - - - - - -

N/m2 % N/m2 $/t - - - - - - - -

A .106 22,3

6,15

22.0

91,67

2400

1.0

1.0

0.73

0.42

0.25

0.680

0.596

0.513

Б 14,2 7.73 27.4 79.33 2600 0.0 0.70 0.0 0.0 0.0 0.140 0.0 0.0 В 15.6 8.23 24.1 108.67 1800 0.17 0.61 0.45 1.0 1.0 0.646 0.560 0.426 Г 14.4 9.36 26.4 92.86 2100 0.03 0.40 0.14 0.46 0.63 0.330 0.216 0.107 Д 14.7 11.50 20.0 99.63 2000 0.06 0.0 1.0 0.69 0.75 0.490 0.0 0.0

pjry

14.2 11.50 27.4 79.33 2600

pjry - Песимистична стойност

maxjy 22.3 11.50 27.4 108.67 2600

minjy 14.2 6.15 20.0 79.33 1800

)(5

1 5

1

x

j

jaF , 5

5

1

)(

j

jgF x ,

5

1 )(

1

5

j j

hF

x

, x

hga FFF max,,

Таблица 4.8. Избор на оптимална оферта по метода на препоръчаното решение

Оптимистичен подход

2y 7y

9y 10y 14y2

7 9

10

14 Fa

o

Ранг

Оферта

Якост на

натиск

Ел. съпр.

Порьоз-ност

Модул на еласт.

Цена

Ср. аритм.

cs el P E Z - - - - - - -

N/m2 % N/m2 $/t - - - - - - -

A .106 22.3

6.15

22.0

91.67

2400

0.0

0.0

0.27

0.58

0.75

0.320

1

Б 14,2 7.73 27.4 79.33 2600 1.0 0.22 1.0 1.0 1.0 0.844 5

В 15.6 8.23 24.1 108.67 1800 0.83 0.39 0.55 0.0 0.0 0.354 2

Г 14.4 9.36 26.4 92.86 2100 0.98 0.60 0.86 0.54 0.36 0.668 4

Д 14.7 11.50 20.0 99.63 2000 0.94 1.0 0.0 0.31 0.25 0.500 3

ojry 22.3 6.15 20.0 108.57 1800

5,...,2,1,)(

)(minmax

j

jj

jоjr

j yy

yy xx , )(

5

1 5

1

x

j

jaF , x

aF max

1.8

)(3.22 12

xy

35.5

15.6)(27

xy

4.7

0.20)(39

xy

34.29

)(57.108 410

xy

800

180)(514

xy

5,...,2,1,)(

)(minmax

jjj

pjrj

j yy

yy xx ,

1.8

2.14)(12

xy 35.5

)(5.11 27

xy

4.7

)(4.27 39

xy

34.29

33.79)(410

xy

800

)(2600 514

xy

ojry - Оптимистична стойност

Page 77: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

78

В табл. 4.7 са дадени резултатите от оптималния избор на оферта по представителни качествени показатели за електродите, като е приложена песимистичната стратегия на препоръчаните стойности, включително и цената. В последните три колони на таблицата са дадени средно – аритметичната Fa

o , средно - геометричната Fgo и средно – хармоничната Fh

o

обобщена функция на полезност. Максималната стойност на обобщените функции, определят оптималния избор на офертата. На табл. 4.8. са дадени резултатите с прилагане на оптимистичната стратегия, като е използвана обобщена средно аритметична функция на загубите. В последната колона на таблицата са ранжирани офертите по оптималност. На таблица 2.9 са дадени резултатите от рамковия подход.

Таблица 4.9. Избор на оптимална оферта за електроди по рамков подход

2y 7y 9y 10y 14y2

b 7b 9

b 10b

14

b

baF

Ранг

Оферта

Якост на

натиск

Ел. съпротивл.

По-рьоз-ност

Модул на

еласт.

Цена

Сред-но

аритм.

cs el P E Z - - - - - - -

N/m2 % N/m2 $/t - - - - - - -

A

.106 22.3

6.15

22.0

91.67

2400

1.0

1.0

0.46

-0.16

-0.50

0.360

1

Б 14,2 7.73 27.4 79.33 2600 -1.0 0.48 -1.0 -1.0 -1.0 -0.704 5 В 15.6 8.23 24.1 108.67 1800 -0.66 0.22 -0.10 1.0 1.0 0.292 2 Г 14.4 9.36 26.4 92.86 2100 -0.95 -0.20 -0.72 -0.08 0.27 -0.336 4 Д 14.7 11.50 20.0 99.63 2000 -0.88 -1.0 1.0 0.38 0.50 0.000 3

ojry 22.3 6.15 20.0 108.57 1800

pjry

14.2 11.50 27.4 79.33 2600

5,...,2,1,)()(

minmaxminmax

jjj

jojr

jj

jpjr

j yy

xyy

yy

xyyb , )(

5

1 5

1

xbFj

ja

, x

aF max

В много задачи за многокритериална оптимизация се използва подхода за оптимизация на качеството на продукт или услуга без да се включва цената в основното решение. Цената се използва в крайното вземане на решение. На табл. 4.10 е показано търсене на оптимално решение при избора на оферта за електроди, като са приложени две стратегии (оптимистична и песимистична) по всички качествени показатели за електродите, без цената. Цената се взема предвид в крайното ранжиране и крайното вземане на решение. Резултатите в табл. 4.10 показват, че не винаги най-скъпата оферта предлага и най-добро качество. Същото се наблюдава и в резултатите дадени в табл. 4.7, табл. 4.8 и табл. 4.9.

Таблица 4.10. Многокритериална оценка по оптимистичен и песимистичен подход на всички качествени показатели (от y1 до y13) без цената y14

Page 78: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

79

Пример 4.5. Избор на оптимална оферта при закупуване на преносим компютър

Получени са N = 18 оферти от различни компании за закупуване на преносими компютри. Компютрите се оценяват по m = 6 целеви показателя (критерии):

у1 - бързодействие на процесора в GHz (търси се максимум); у2 - оперативна памет (RAM) в MB (търси се максимум); у3 - хард диск (HDD) в GB (търси се максимум); у4 – широчина на монитора в mm (търси се максимум); у5 – тегло на преносимия компютър в kg (търси се минимум); у6 - гаранционнен срок в години (търси се максимум).

Таблица 4.11. Оптимистичен подход за избор на оптимална оферта за преносим компютър

Оферта

1y

2y

3y

4y

5y

6y

2δ 3δ 4δ 5δ

oaF

Ранг Цена

GHz MB GB mm kg Год - - - - - - -

$

1 1.4 256 40 328 2.7 1 0.86 1 1 0.64 0.50 1 0.833 17 902 2 1.4 256 60 328 2.7 1 0.86 1 0.67 0.64 0.50 1 0.788 15 971 3 1.4 512 80 328 2.7 1 0.86 0.67 0.33 0.64 0.50 1 0.667 13 1003 4 2.0 1024 80 328 2.72 1 0.57 0 0.33 0.64 0.51 1 0.508 6 1264 5 1.86 512 60 328 2.7 3 0.64 0.67 0.67 0.64 0.50 0 0.520 7 1632 6 1.86 512 60 285 1.77 3 0.64 0.67 0.67 1 0.21 0 0.532 8 1772 7 2.0 1024 80 335 2.6 1 0.57 0 0.33 0.59 0.47 1 0.496 5 1882 8 2.13 1024 80 355 2.8 3 0.51 0 0.33 0.42 0.53 0 0.298 1 2464 9 1.8 1024 80 332 2.7 2 0.67 0 0.33 0.61 0.50 0.5 0.435 4 1397

10 1.4 256 40 332 2.8 1 0.86 1 1 0.61 0.53 1 0.833 17 946 11 3.2 512 80 329 3.29 1 0 0.67 0.33 0.64 0.69 1 0.555 10 1314 12 1.5 512 80 357 2.77 1 0.81 0.67 0.33 0.40 0.52 1 0.622 12 1467 13 1.8 512 40 330 2.2 3 0.67 0.67 1 0.63 0.35 0 0.553 9 1886 14 2.0 1024 60 311 2.5 3 0.57 0 0.67 0.79 0.44 0 0.412 3 3176 15 1.6 512 40 320 2.32 1 0.76 0.67 1 0.71 0.38 1 0.753 14 1397 16 1.6 256 40 332 2.67 1 0.76 1 1 0.61 0.49 1 0.810 16 889 17 1.1 512 40 286 1.09 3 1 0.67 1 0.99 0 0 0.610 11 1994 18 2.13 1024 100 406 4.3 2 0.51 0 0 0 1 0.5 0.335 2 2871

ojr

y 3.2 1024 100 406 1.09 3

minjy 1.1 256 40 285 1.09 1

maxjy

3.2 1024 100 406 4.3 3

maxmin 2.1 768 60 121 3.21 2

Оферта

Функция на загуби

(оптимистичен подход)

Ранг

Функция на полезност

(песимистичен подход)

Ранг

Цена

$/t

Окончателен ранг с

отчитане на цената

А 0.1308 1 0.61994 1 2400 ? (2) Б 0.3687 3 0.41555 3 2600 ? В 0.2790 2 0.44104 2 1800 ? (1) Г 0.5412 4 0.35186 5 2100 ? Д 0.6614 5 0.41250 4 2000 ?

Page 79: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

80

Оферираните стойности за целевите показатели yj, j= 1,2, ... ,6 от всяка фирма са дадени в Tабл. 4.11. В таблицата също е дадена и цената. Желаната стойност за всеки целеви показател (max или min) е посочена съответно със и . Оптималното решение е търсено по оптимистичната стратегия.

Оптимистичните стойности ojr

y за всеки качествен показател са дадени в таблицата.

Стойностите на скаларизиращата функция на загубите o

aF и ранговете на офертите са

дадени също в таблицата. В зависимост от цената дадена в последната колона може да се избере оптимална оферта.

4.5. Заключение

При оптималното управление на качеството на продукти или услуги, числено оценената удовлетвореност на клиента е от особено значение. Тъй като качеството на един продукт или услуга обикновено се определя от множество критерии (показатели), които имат различна важност. Приоритетите на различните показатели трябва да се обвързват със степента на удовлетвореност на клиентите от тях и да се използват в стратегиите за многоцелева оптимизация. Въвеждането на тегловни коефициенти, определени на базата на удовлетвореността дава възможност за намиране на оптимално управление, което да подобрява показателите с ниска удовлетвореност без да се влошават показателите, от които клиентите са удовлетворени. В следващата глава се разглеждат методи за обективна оценка на субективни мнения за приоритетите на качествените показатели и определяне на тегловни коефициенти за тях. За намиране на Парето-оптимални решения с използване на генетични алгоритми (NSGA-II) може да се използва QstatLab [27].

Page 80: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

81

5. Определяне на тегловни коефициенти при многокритериално вземане на решения

5.1. Определяне на тегловни коефициенти чрез ранжиране на целевите параметри

Компромисното оптимално решение при многоцелевата оптимизация при управление на качеството силно зависи от приетите тегловни коефициенти Wj на

различните показатели за качеството. Тези тегловни коефициенти характеризират степента на удовлетвореност от съответния показател. За определяне важността на критериите и съответните им тегловни коефициенти засега няма строго формализирани методи. Най-често тези коефициенти се определят субективно. Сравнително надеждни тегловни коефициенти могат да се определят при допитване до множество клиенти (или обикновени граждани, или специалисти) и прилагане на обективни методи за оценка на субективните им мнения. Анкетираните, по-долу, ще ги наричаме клиенти, въпреки че при рещаване на проблеми за управление на качеството или оценяване на удовлетвореността на клиентите се правят допитвания както до специалисти, така и до граждани (клиенти) изразяващи общественото мнение. Един от методите за определяне на тегловни коефициенти по мнения на клиенти (експерти) е следният [1, 5, 7, 15]. На R клиенти се предлага да дадат своето мнение за m целеви параметъра на качеството чрез анкетен лист, като ги подредят по важност от 1 до m. Препоръчва се в анкетния лист целевите параметри да се разположат в случайна последователност и без номерация пред тях (вж. табл. 5.1). Получените резултати се записват в тегловна матрица (табл. 5.1). Всяко число в тегловната матрица ja определя теглото (ранга), което клиентът преписва на целевия параметър j.

Таблица 5.1. Тегловна матрица Целеви параметър

Клиент 1y 2y jy

my

1 11a 12a 1 ja 1ma

2 21a 22a 2 ja 2ma

3 31a 32a 3 ja 3ma

1a 2a ja ma

R Ra 1 Ra 2 Rja Rma

j

R

a

1

j

jV

jW

При наличие на "свързани рангове" (съвпадащи рангове), т. е. класиране на няколко целеви параметъра с общ ранг (на едно и също място), ранговата матрица се нормализира така, че сумата ja за всеки ред да бъде равна на Sp

Page 81: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

82

p

m

jj Sa

1 , (5.1)

където

2

)1(

mmS p . (5.2)

Например, нека клиентите , ( +1) и ( +2) са направили ранжиране на m = 7 целеви параметъра, показано в табл. 5. 2. Клиентът e поставил на първо място 2 целеви параметъра y

2 и y

4 и 3 на четвърто място 3y , 5y и 7y . Клиентът ( +1) е поставил на

второ място два параметъра 2

y и 4

y и два на четвърто място y5 и y

6. При клиент ( +2)

няма повтарящи се рангове. За да могат да се сравнят свързаните рангове с несвързаните, дадени от клиентите, класирали целевите параметъри с последователни числа от 1 до m, както в случая за клиент ( +2), необходимо е редовете от табл. 5. 2. да се нормализират така, че за всеки клиент да е изпълнено условието

jaj

m

pSm m

1

7 7 1

228

12

( ) ( ). (5.3)

Таблица 5. 2. Повтарящи се рангове

Целеви параметри Клиент 1y 2y 3y 4y 5y 6y 7y

jj

a

1

7

2 1 4 1 4 3 4 19() +1 1 2 3 2 4 4 5 21() +2 2 1 3 5 6 4 7 28

Нормализираните рангове от табл. 5.2 са дадени в табл. 5.3. Нормализирането става, като на всички целеви параметри, класирани на едно и също място, се приписва тегло, равно на средноаритметичното от ранговете, които те трябва да си поделят.

Таблица 5.3. Нормализиране на ранговете

Целеви параметри

Клиент

1y

2y

3y

4y

5y

6y

7y

jaj

1

7

Брой на повтаря-щите се

рангове t

T

3 1.5 6 1.5 6 4 6 28 2+3 2.5 + 1 1 2.5 4 2.5 5.5 5.5 7 28 2+2 1.0 + 2 2 1 3 5 6 4 7 28 0 0

В табл. 5. 3. е даден и броят на повтарящи се рангове за всеки клиент t и величината T . Пресмятането на тегловни коефициенти се прави, ако има съгласуваност в мненията на клиентите.

Page 82: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

83

5.1.1. Изчисляване на коефициента на конкордация Съгласуваността в мненията на клиентите (анкетираните) се проверява, като се

изчисли коефициентът на конкордация (съгласие) kw по методите на рангова корелация [15, 44]: а. Изчисляване на коефициента на конкордация при отсъствие на съвпадащи се рангове

)(

12

32

1

2

mmRw

m

jj

k

(5.4)

където

cp

R

jj Sa 1

, (5.5)

2

)1(

mRScp , (5.6)

cpS e средната сума от всички тегла;

j - oтклонението на сумата от теглата за всеки целеви параметър от средната сума.

б. Изчисляване на коефициента на конкордация при наличие на съвпадащи се рангове

,12)3(2

121

2

TRmmR

m

jj

wk (5.7)

където

T t tt

1

123( ) . (5.8)

t е брой на поотделно повтарящите се рангове за всеки клиент.

Очевидно е, че при отсъствие на повтарящи се (съвпадащи) рангове вторият член в знаменателя на (5.7) отсъствува и формула (5.7) става еднаква с (5.4).

5.1.2. Проверка на коефициента на конкордация на значимост Коефициентът на конкордация може да се изменя от 0 при пълна несъгласуваност в

мненията до +1 при пълна съгласуваност. Оценката на значимостта на изчисления

коефициент kw може да стане (а) по 2 -критерий при m 7 или (б) по Z - критерия [11]

при m 7. (а) При m 7 се изчислява величината

k

kизч w

wRZ

1

)1(ln

2

1. (5.9)

Page 83: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

84

Ако Z изч Z табл( , , ), 1 2 kw е значим. Z табл се взeма от таблица

(Табл.5.13) при степени на свобода

Rm

211 , (закръглено до цяло число), (5.10)

12 )1( R , (закръглено до цяло число). (5.11)

(б) При m 7 се изчислява

2изч = R m wk( ) .1 (5.12)

Koефициентът на конкордация kw е значим, ако

2изч >

2 табл ( , ). (5.13)

2 табл се взема от таблица при степени на свобода 1 m и ниво на значимост

a (Табл.3.12).

5.1.3. Изчисляване на тегловни коефициенти

При условие, че има съгласуваност в субективните мнения на клиентите (специалистите), могат да се изчислят тегловните коефициенти [1, 7].

jj

j

mWV

jV

1

; j m 1 2, , . . . , , (5.14)

където

.1

RRm

aRmR

j

jV

(5.15)

За така получените тегловни коефициенти е изпълнено условието

jj

mW

11. (5.16)

Пример 5.1: На R 9 млади специалисти е предложено да ранжират по важност m = 7 критерия при избор на място за работа. Всеки от анкетираните е помолен да даде анонимно своето мнение за класиране по важност на всеки един от критериите. На деветте анкетирани е предложена за попълване анкетната карта дадена на табл. 5.4:

Таблица 5.4. Анкетна карта

Критерий yj Ранг

- Отдалеченост y1 - Заплата y2

- Квартира y3

- Замърсеност на района y4

- Вредни газови емисии на местоработата y5

- Наличие на транспорт y6

- “Репутация” на района y7

Page 84: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

85

Резултатите от анкетирането са дадени в табл. 5.5. Средната сума от всички тегла, определена по формула (5.7) е

cpSR m

( ) ( )

.1

2

9 7 1

236

Таблица 5.5. Матрица на ранговете

Целеви параметри Специалисти 1y 2y 3y 4y 5y 6y 7y

1 1 3 2 4 5 7 6 2 3 1 5 6 2 4 7 3 6 1 2 7 3 5 4 4 3 5 1 6 2 4 7 5 2 1 3 7 4 6 5 6 3 2 1 7 4 6 5 7 1 2 3 6 5 4 7 8 1 3 2 7 4 5 6 9 2 1 4 7 5 3 6

ja

1

9

22

19

23

57

34

44

53

j -14 -17 -13 21 -2 8 17

jV 0.759 0.815 0.741 0.111 0.537 0.352 0.185

jW 0.218 0.234 0.213 0.030 0.154 0.100 0.052

Въз основа на данните от табл. 5.4 са изчислени

ja

1

9

и i по формула (5.6) и

резултатите са дадени в същата таблица. При това jj

2

1

7

= 1452.0.

За коефициента на конкордация по формула (5.5) се получава

.64.0)737(29

1452.12

kw

Значимостта на kw се проверява по 2 критерия по формула (5.13):

2 изч = 9 (7-1) 0.64 = 34.56.

При ниво на значимост 01.0 и степени на свобода

7 - 1 = 6, табличната стойност на 2 табл = 16.812, (Табл.5.12)

2 изч =34.56 16.812 =

2 табл .

С вероятност не по-малка от 99 има съгласуваност в мненията на анкетираните и тегловните коефициенти могат да се изчисляват. Тегловните коефициенти са пресметнати по формули (5.15) и (5.16) и са дадени в табл. 5.4. С най-голяма важност се оказват критериите y1, y2 и y3. Изчислените тегловни коефициенти са показани графично на фиг.5.1.

Page 85: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

86

0,2180.234

0,213

0,030

0.154

0,100

0.052

0

0.05

0.1

0.15

0.2

0.25

Тегловен

коефициент

W

y1 y2 y3 y4 y5 y6 y7

Фиг. 5.1. Тегловни коефициенти на показателите на качеството при избор на място за

работа

Таблица 5.12. Таблични стойности на 2 критерия

Стойности на 2 при брой на степени на свобода и ниво на значимост *

= 0.20

= 0.10

= 0.05

= 0.01

1 1.642 2.706 3.841 6.635 2 3.219 4.605 5.991 9.210 3 4.642 6.251 7.815 11.345 4 5.989 7.779 9.488 13.277 5 7.289 9.236 11.070 15.086 6 8.558 10.645 12.592 16.812 7 9.803 12.017 14.067 18.475 8 11.030 13.362 15.507 20.090 9 12.242 14.684 16.919 21.666 10 13.442 15.987 18.307 23.209 11 14.631 17.275 19.675 24.725 12 15.821 18.549 21.026 26.217 13 16.983 19.812 22.362 27.688 14 18.151 21.064 23.685 29.141 15 19.311 22.307 24.996 30.578 16 20.465 23.542 26.296 32.000 17 21.615 24.769 27.587 33.409 18 22.760 25.989 28.869 34.805 19 23.900 27.204 30.144 36.191 20 25.038 28.412 31.410 37.566 21 26.171 29.615 32.671 38.932 22 27.301 30.813 33.924 40.289 23 28.429 32.007 35.172 41.638 24 29.553 33.196 36.415 42.980 25 30.675 34.382 37.652 44.314 26 31.795 35.563 38.885 45.642 27 32.912 36.741 40.113 46.963 28 34.027 37.916 41.337 48.278 29 35.139 39.087 42.557 49.588 30 36.250 40.256 43.773 50.892

* Таблицата е заимствана от книгата на R. A. Fisher, Statistical Methods for Research Workers, Oliver and Boyd, Edinburgh, Р. Фишер, Статистические методы для исследователей, руски превод, Госстатиздат, М. 1958.

Page 86: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

87

Таблица 5.13. Таблица на Z разпределение

Разпределение Z при ниво на значимост 0 05. *

Стой-ности

Стойности на 1

на 2 1 2 3 4 5 6 8 12 24 1 2,54 2,65 2,69 2,71 2,72 2,73 2,74 2,75 2,76 2,77 2 1,46 1,47 1,48 1,48 1,48 1,48 1,48 1,48 1,48 1,48 3 1,16 1,13 1,11 1,10 1,10 1,10 1,09 1,08 1,08 1,07 4 1,02 0,97 0,94 0,93 0,92 0,91 0,90 0,89 0,88 0,86 5 0,94 0,88 0,84 0,82 0,81 0,80 0,79 0,77 0,75 0,74 6 0,89 0,82 0,78 0,76 0,74 0,73 0,71 0,69 0,67 0,65 7 0,86 0,78 0,73 0,71 0,69 0,68 0,66 0,64 0,61 0,59 8 0,84 0,75 0,70 0,67 0,65 0,64 0,62 0,59 0,57 0,54 9 0,82 0,72 0,68 0,64 0,62 0,61 0,59 0,56 0,53 0,50 10 0,80 0,71 0,66 0,62 0,60 0,58 0,56 0,53 0,50 0,47 11 0,79 0,69 0,64 0,60 0,58 0,56 0,54 0,51 0,48 0,44 12 0,78 0,68 0,62 0,59 0,57 0,55 0,52 0,50 0,46 0,42 13 0,77 0,67 0,61 0,58 0,55 0,54 0,51 0,48 0,44 0,40 14 0,76 0,66 0,60 0,57 0,54 0,52 0,50 0,46 0,43 0,38 15 0,76 0,65 0,60 0,56 0,53 0,51 0,48 0,45 0,41 0,36 16 0,75 0,64 0,59 0,55 0,52 0,50 0,48 0,44 0,40 0,35 17 0,75 0,64 0,58 0,54 0,52 0,50 0,47 0,43 0,39 0,34 18 0,74 0,63 0,58 0,54 0,51 0,49 0,46 0,42 0,38 0,32 19 0,74 0,63 0,57 0,53 0,50 0,48 0,45 0,42 0,37 0,32 20 0,74 0,62 0,56 0,53 0,50 0,48 0,45 0,41 0,37 0,30 21 0,73 0,62 0,56 0,52 0,49 0,47 0,44 0,40 0,36 0,30 22 0,73 0,62 0,56 0,52 0,49 0,47 0,44 0,40 0,35 0,29 23 0,73 0,62 0,55 0,51 0,48 0,46 0,43 0,40 0,35 0,28 24 0,72 0,61 0,55 0,51 0,48 0,46 0,43 0,39 0,34 0,27 25 0,72 0,61 0,55 0,51 0,48 0,46 0,42 0,39 0,34 0,27 26 0,72 0,61 0,54 0,50 0,48 0,45 0,42 0,38 0,33 0,26 27 0,72 0,60 0,54 0,50 0,47 0,45 0,42 0,38 0,33 0,26 28 0,72 0,60 0,54 0,50 0,47 0,45 0,41 0,38 0,32 0,25 29 0,72 0,60 0,54 0,50 0,47 0,44 0,41 0,37 0,32 0,25 30 0,71 0,60 0,53 0,49 0,46 0,44 0,41 0,37 0,32 0,24 60 0,69 0,57 0,51 0,46 0,43 0,41 0,37 0,32 0,26 0,16 0,67 0,55 0,48 0,43 0,40 0,37 0,33 0,28 0,21 0

* Заимствано от книгата на R. A. Fisher, Statistical Methods for Research Workers, Oliver and Boyd, Edinburgh, Р. Фишер, Статистические методы для исследователей, руски превод, Госстатиздат, М. 1958.

Page 87: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

88

5.2. Определяне на тегловни коефициени по мнението на клиенти за взаимните

приоритети на целевите параметри

За определяне на iW може да се използуват мненията на специалисти или на клиенти относно взаимните приоритети на качествените показатели. Опитът и интуицията им могат да помогнат в ранжирането на приоритетите за влиянието на измерената удовлетвореност чрез приоритети за оптималното управление на качеството на продукт или услуга.

За определяне на тегловните коефициенти iW за параметрите iy се предлага следният евристичен подход, основан на мнението на клиенти или специалисти [6]. Нека е предоставено на K клиенти (специалисти) (l = 1, 2, ..., K), независимо един от друг да дадат своето мнение за взаимните приоритети на М целеви параметри (показатели

за качеството) iy , i= 1, 2, ..., M. Приемаме тристепенна функция на принадлежност, при която приоритетният коефициент ija получава стойности 0; 0.5 и 1.0 по следното евристично правило на съответствие.

Ако iy jy , то ija = 1.0;

Ако iy jy , то ija = 0.0;

Ако iy II jy то ija = 0.5.

Символът означава, че целевият параметър i има приоритет пред j - тия, символът означава обратното, а II означава, че i и j са еднакви по важност. На всеки клиент (специалист) се предоставя възможност да изрази своето мнение за

важността на параметрите iy като попълни матрицата на приоритетите (табл. 5.5).

Таблица 5.5. Матрица на приоритетите

jy

iy

1y 2y jy

My

1y 11a 12a 1 ja 1Ma

2y 21a 22a 2 ja 2 Ma

iy ia 1 iia iMa

My Ma 1 Ma 2 Mja MMa При попълване на приоритетните коефициенти ija се приема, че собственият

приоритетен коефициент iia e 1. При наличие на К на брой таблици (l = 1, 2, ..., К) от вида на табл. 5.5 се съставя сумарната табл. 5.6 на приоритетите, в която всеки елемент ijb се получава

i ij jl

l

K

b a

( )

1. (5.17)

Page 88: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

89

Таблица 5.6. Матрица на сумарните приоритети

jy

iy

1y 2y jy My iS iW

1y 11b 12b 1 jb 1Mb 1S 1W

2y 21b 22b 2 jb 2 Mb 2S 2W

iy ib 1 ib 2 ijb iMb iS iW

My Mb 1 Mb 2 Mjb MMb MS MW

В табл. 5.6 iS е сумата от приоритетите, които е получил всеки iy параметър без сумарния собствен коефициент bii.

i ijj

M

S b K i M 1

1 2, , ,..., . (5.18)

Oчевидно максималната сума от приоритети, която може да се събере от един параметър yi , ако е посочен от всички клиенти (експерти) като най-важен, е

max ( ) ,S K M 1 (5.19)

a минималната сума от приоритети е min .S 0 Тегловните коефициенти за всеки параметър iW се изчисляват по формулата

ii

i

WS

Si M

i

M

1

1 2, , , ..., . (5.20)

За изчислените по формула (2.20) коефициенти iW е изпълнено условието

0.11

M

iiW (5.21)

Пример 3.2. Да се определят тегловните коефициенти iW чрез анализ на приоритетите на следните 4 качествени показатели за текстилен материал: 1. Устойчивост на пране -

1y ;

2. Немачкаемост- 2

y ;

3. Здравина- 3

y ;

4. Цвят - 4

y .

За четирите параметъра 1 2 3y y y, , и 4y ( , , ,..., )iy i 1 2 4 са получени частните

матрици на приоритетите от К = 5 анкетирани:

1 0 5 1 1

0 5 1 0 0

0 1 1 0

0 1 1 1

.

. ,

1 1 1 0 5

0 1 1 0

0 0 1 0

0 5 1 1 1

.

.

,

1 1 1 0

0 1 1 1

0 0 1 0

1 0 1 1

,

1 1 1 0

0 1 1 1

0 0 1 1

1 0 1 1

и

1 1 1 1

0 1 1 1

0 0 1 1

0 0 0 1

.

Page 89: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

90

Общата сума на приоритетите и изчислените тегловни коефициенти iW по описания по-горе метод са дадени в табл. 5.7.

Таблица 5.7. Матрица на сумарните приоритети

jy

iy 1y

2y 3y

4y

iS

iW

1y

5 4.5 5 2.5 12 0.40

2y

0.5 5 4 3 7.5 0.25

3y

0 1 5 2 3 0.10

4y 2.5 2 3 5 7.5 0.25

i

iS

1

4

30 ii

W

1

4

1.0

Тегловните коефициенти са показани графично на фиг. 5.2.

0,40

0.25

0,10

0.25

00.050.1

0.150.2

0.250.3

0.350.4

Тегловен

коефициент

W

y1 y2 y3 y4

Фиг. 5.2. Тегловни коефициенти за качествените показатели на текстилен материал

Предложеният метод за определяне на тегловните коефициенти iW по мнението на клиентите или специалисти може да се приложи и при по-сложна функция на принадлежност, при която приоритетите да бъдат по-прецизно оценянявани и

коефициентите ija да се представят с реални числа в границите [0, +1]. Опитът показва, че

подобен метод съществено затруднява анкетираните при оформянето на матрицата ija (табл. 5.5), затова препоръчваме тристепенната функция на принадлежност. Освен за оценка на удовлетвореността на клиентите при управление на качеството на продукти и услуги, описаният подход за определяне на тегловни коефициенти може да се използува и в най-различни области на научните изследвания (социологични изследвания, технологични изследвания, опазване на околната среда и др.).

Page 90: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

91

6. Методи и алгоритми за оптимизация при непълна информация 6.1. Въведение Оптимизационните проблеми не винаги са детерминистични. Това се дължи основно

на значителните неопределености, които съпътстват практическите приложения на оптимизационните методи. Непълната информация при решаване на оптимизационни проблеми е свързана основно с обекта за оптимизация. Различните неопределености могат да бъдат:

* Структурни и параметрични; * Вътрешни и външни; * Количествени и качествени; * Пълна или частична неопределеност. Разглежданите стратегии за оптимизация при непълна информация в настоящия

доклад са с количествени, вътрешни или външни параметрични неопределености и с частична определеност. Това предполага, че се познава поне една от следните характеристики: номинална стойност или математическо очакване; граници на възможно изменение; дисперсия; функция на разпределение.

Неопределените параметри може да участват в целевата функция и (или) в оптимизационните ограничения. Тези неопределености са свързани главно с непълно познаване на точните стойности на много топлофизични, кинетични, каталитични и други константи, както и външни промени в качеството и свойствата на захранващите потоци, суровини или енергия. Изискванията за качеството, цените на суровините или енергията, както и пазарната политика са винаги потенциална неопределеност при търсене на оптимални решения.

Проблемът за оптимизацията при непълна информация е разглеждан в различни аспекти и са публикувани много подходи за преодоляването му [1, 30, 34, 40, 41]. При решаване на оптимизационни задачи или при оптимално управление с неопределености обикновено се подхожда по различен начин:

* Максимално детерминиране на неопределеностите; * Синтезиране на оптимални системи, които са робастни към неопределеностите; * Синтезиране на адаптивни системи; * Използване на различни стратегии за оптимизация в задачите с частична

определеност. При оптималното проектиране на технологични обекти или системи или

разработване на нови технологии се прилагат основно три вида стратегии: * Стратегии базирани на минимизиране на чувствителността на решението към

неопределеностите [35]; * Стратегии базирани на вероятностните характеристики на неопределените

параметри [1, 34, 36]; * Смесени стратегии [38]. 6.2. Формулиране на оптимизационната задача Тъй като решаването на задачи с неопределености се налага най-много на стадия на

проектиране ще дефинираме задачата за оптимизация при наличие на параметри с непълна информация р с разделени отделно конструктивни d и управляващи параметри х, въпреки че конструктивните d може да се причислят към управляващите параметри х. Търсенето на максимума на целевата функция

)(max,

pd,x,dx

QDX

(6.1)

се приема в допустимото пространство на управляващите и конструктивните параметри DX dx , и при спазване на ограниченията от тип равенство и/или неравенство

Page 91: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

92

0)( pd,x,h , (6.2) 0)( pd,x,g . (6.3) 6.3. Основни стратегии за оптимизация при неопределености Все още не съществува универсална стратегия, която да се препоръча за решаване на

всички задачи при неопределености. Ще разгледаме някои основни стратегии, намерили широко приложение при оптимизация с частична количествена параметрична неопределеност.

Стратегии по чувствителност. При всички стратегии стремежът е да се намери оптимално решение, което е максимално инвариантно към непълната информация. Базовата стратегия е основана на едновременното максимизиране на основната целева функция

)( pd,x,Q и минимизиране на функцията на нормираната чувствителност )( pd,x,NS

)]()([max,

pd,x,pd,x,dx

NDX

SQ

, (6.4)

където

)(.

)()(

1 Npd,x,

pd,x,pd,x,

Q

p

p

QS Ni

i

m

ipiN

(6.5)

Nip са номиналните стойности на неопределените параметри, а pi приети тегловни

коефициенти за pi. Методи за изчисляване на pi са дадени в [1].

Друг подход за решаване на оптимизационната задача е с добавяне на ограничение по чувствителност

)(max,

pd,x,dx

QDX

(6.6)

при miSS iN ,...,2,1,)( 0 pd,x, . (6.7)

Основната трудност при тази стратегия е задаване на стойностите за S0i. Оптимизационната задача може да се представи като двукритериална [40] и да се

реши по метода на препоръчаните решения с минимизиране на обобщена функция на загубите

SN

QDdXx

lossDdXx

WSS

SSW

QQ

QQ2

minmax

min

2

minmax

max

,,

)()(min),(min

pd,x,pd,x,pdx,

(6.8)

или с максимизиране на обобщена функция на полезност

SN

QDdXx

useDdXx

WSS

SSW

QQ

QQ2

minmax

max

2

minmax

min

,,

)()(max)(max

pd,x,pd,x,pd,x,

(6.9)

където ;)(max

,max N

DdXQQ pd,x,

x (6.10)

)(min,

min NDdXQQ pd,x,

x ; (6.11)

;)(max,

max NNDdX

SSx

pd,x,x

(6.12)

.)(min,

min NNDdX

SSx

pd,x,x

(6.13)

WQ и WS са съответно тегловни коефициенти за целевата функция и за чувствителността. Определянето на WQ и WS може да стане по мнението на експерти с прилагане на методи на субективната статистика [32, 33, 37].

Методите с използване на функция на чувствителност се прилагат при малък брой и малки граници на изменение на неопределените параметри pi и се предполага линейна зависимост на целевата функции от pi в тези граници.

Стохастични стратегии. Ако са познати функциите на разпределение f(p) на

неопределените параметри може да се използва следната стратегия

Page 92: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

93

PD

XdfQ

pdx

pppd,x, )()(max (6.14)

или да се минимизира рискът на решението

p dx

dx

pppd,x,pd,x, dfQQDX

DX

)()()(maxmin (6.15)

В задачите за оптимално проектиране и управление на обекти при непълна информация е предложена следната стратегия [36]

)(maxmax pd,x,

xdQ

xXXpD

(6.16)

В [1, 31] за решаване на същата задача с ограничения е предложена следната

стратегия )(maxmax pd,x,

xdQ

PpXD , (6.17)

1...,,2,1,0)(Е mjh jPp

pd,x, , (6.18)

2...,,2,1,0)(E mjg jPp

pd,x, , (6.19)

където ...Pp е математическото очакване на ... в областта на неопределените параметри

Pp . При сравнителния анализ [31] на стратегия (6.16) и стратегия (6.17) при решаване на

практически задачи се оказва, че стратегия (6.17) дава почти същите решения като (6.16), но бързодействието на (6.17) е на порядък по добро.

Методите с използване на теорията на статистическите решения се препоръчват когато интервалите на неопределеност на pi са големи и се познава вида на разпределение на неопределените параметри. Обемът от необходими изчисления при тези методи е голям.

Минмаксни стратегии. Основната игрова стратегия за оптимизация при непълна

информация е следната

)(maxmin

,pd,x,

dxpQ

DXP (6.16)

В [40] е предложена и следната стратегия:

)(max

)()(maxminmax

,

,

, pd,x,

pd,x,pd,x,

dx

dx

pdx Q

QQ

DX

DX

PDX

(6.17)

3. Стратегии за оптимизация при неопределеност и дискретен брой варианти

В много практически задачи възможните варианти, от които трябва да се избере

оптималното решение е краен брой Vj, j = 1, 2, …, M. Да приемем също, че съществуват краен брой комбинации j , j = 1, 2, …, K от възможните неопределености. Например,

необходимо е да се избере в коя от 3 възможни технологии (V1, V2 и V3), да се инвестират средства при наличие на две неопределености: p1 - цена на енергията и p2 - цена на суровините така че годишната печалба Q( , ) maxV p

V . Нека възможните комбинации от

неопределеностите е също краен брой j , j = 1, 2, 3, 4 комбинации за неопределеностите p1

и p2 . Тези комбинации например, могат да бъдат четирите комбинации от възможните граници на неопределените параметри minip и maxip . За подобен род задачи се използват

следните стратегии:

Page 93: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

94

Стохастична стратегия. Зададени са вероятностите Sj, j = 1, 2,…,K на

комбинациите j , j = 1, 2, …, K на неопределеност. Оптималният вариант се намира чрез

),(max1

ji

K

jj

VVQS

i

. (6.18)

“Песимистична” игрова стратегия. Оптималният вариант е: ),(maxmin ji

VVQ

ji

. (6.19а)

“Оптимистична” игрова стратегия. Оптималният вариант е ),(maxmax ji

VVQ

ji

. (6.19б)

Стратегия на “съжалението”. Стойностите на целевата функция за всеки вариант на неопределеност j се трансформират в “Матрица на съжаление” ijr . Оптималният

вариант се намира чрез

),(min),(max

),(),(max

,,

,

jiΘV

jiΘV

jijiΘV

ΘVij

ΘV ΘVQΘVQ

ΘVQΘVQmaxminrmaxmin

jiji

ji

jiji

. (6.20)

Неутрална стратегия (рамкова стратегия, стратегия на средния мax-min). Оптималното решение е

2

),(min),(maxmaxmax

jiji

Vi

V

ΘVQΘVQQ jj

ii

ΘΘ . (6.21)

Рамкова стратегия с тегловни коефициенти. Използват се тегловни коефициенти

за вариантите Vi, 0 10 Vi

. , Vii

n

1

10.

Оптималното решение е

),(min)1(),(maxmax)(

jij

VjiΘ

VV

iV

ΘVQΘVQQmaxi

ji

ii

. (6.22)

6.4. Пример за избор на оптимален вариант за изграждане на инсинератор за битови отпадъци

В настоящия пример се разглежда опростен вариант на актуална задача за избор на място за изграждане на инсинератор за изгаряне на битови отпадъци. Проблем при избора е непълната информация за количествата отпадъци, които ще се генерират през следващите 20 и повече години. Изборът на оптималното разположение на инсинератора се оказва многокритериална задача и едновременно с това и задача с непълна информация. Разположението на инсинератора трябва да отговаря на изискванията на екологичното законодателство и да бъде разположен така, че разходите за транспорт на отпадъците до инсинератора да бъдат минимални. Трябва да се отчете и неопределеността на бъдещите количества отпадъци, които ще се генерират, както и измененията в цените за транспорт и горива. Задачата в примера е ограничена до 4 основни източника на отпадъци G-1, G-2, G-3 и G-4 в даден район (Фиг. 6.1). Координатите на тези източници в произволно избрана координатна система са дадени на Фиг. 6.1.

На основата на задълбочени статистически проучвания за демографското и икономическото развитие на района и на населените места в него са определени границите на възможните изменения на количествата генерирани отпадъци от основните източници, които представляват параметри с непълна информация pi:

G-1: 3520 1 p х. тона; G-2: 3020 2 p х. тона; G-3: 2415 3 p х. тона;

G-4: 2012 4 p х. тона. Всички варианти получени от възможните комбинации на генерираните отпадъци от

различните източници G-1 до G-4 са дадени в табл. 6.1.

Page 94: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

95

Оптималните теоретични координати х*i осигуряващи минимални транспортни

разходи ще се определят от условието 2,1,/

4

1

4

1

*

iTTxxj

jj

jj

ii. (6.23)

За определяне на транспортните разходи от източниците на отпадъци до площадката на инсинератора се изчислява показателя Кп

j

jjn TLК

4

1

, тона.км./год, (6.24)

където Lj е разстоянието от инсенератора до всеки град, което се изчислява по формулата

4,..,2,1,)(2

1

2

jxxLi

*i

jij

., (6.25)

където j

ix са координатите на всеки град (i = 1, 2; j= 1, 2, 3, 4);

ix са координатите (разположението) на инсинератора (i = 1, 2);

jT са генерираните отпадъци на всеки град (j=1, 2, 3).

Да приемем цена за транспортни разходи С (лв./тон.км.) за извозване на отпадъците в областта. Сумарните транспортни разходи (ТР) се изчисляват по формулата

ТР (лв./год.) = С (лв./тон.км.)*Кп (тон.км./год.). (6.26) Минималните и максималните възможни количества твърди битови отпадъци от

различните градове определят 16 възможни варианти, които трябва да се имат в предвид при определяне оптималното разположение на инсинератора. Тези варианти са дадени в табл. 6.1.

За всеки вариант по формула (6.23) се изчисляват теоретичните координати на оптималното разположение на площадката xj

*, (i = 1, 2). По формула (6.25) се изчисляват разстоянията от всеки град до оптималната точка на разполагане на инсинератора. По формула (6.24) се изчислява показателя Кп. Получените резултати са дадени в табл. 6.1.

Оптималните транспорни разходи при предполагаема цена на превоза С = 0.25 лвт/км цената за всеки вариант се изчисляват по формула (6.26). Тези разходи са дадени в табл. 6.1.

Анализ на транспортните разходи до площадката. За решаване на

оптимизационната задача могат да се приложат описаните по-горе стратегии за оптимизация при неопределености при дискретни случаи на възможните варианти. Трябва да се реши задачата

V

ij pVF min),( , (6.27)

където Vj е всеки вариант j = 1, 2,…, 17 от табл. 6.1. За намиране на оптимален вариант за разполагане на инсинератора ще приемем

Стохастическата стратегия със зададена вероятност за възможните количества отпадъци.

При зададени вероятности за възможните количества отпадъци през 2020 година, дадени в табл. 6.1 са изчислени минималните вероятни транспортни разходи (ТРVj

*) TPVj

* = TPVj/SVj , (6.28)

Page 95: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

96

Таблица 6.1. Оптимално разположение на инсинератор за битови отпадъци

Възможни количества

отпадъци Оптимални координати

Разстояния от инсинератора до източниците

Транспортни разходи и оптимални варианти

G-1

G-2

G-3

G-4

x1

*

x2

*

LG-1

LG-2

LG-3

LG-4

Пока-зател Кп

Тр. разходи

SV

TP*

V

кт кт кт кт км км км км км км кт*км лв*103 - - 1 20 20 15 12 26,24 12,30 13.14 21,21 25,56 5,63 1107,96 276,99 0,1 2769,9 2 35 20 15 12 25,39 10,04 10,73 23,07 23,22 6,55 1263,85 315,96 0,3 1053,2 3 20 20 24 12 23,49 12,75 12,88 23,49 20,77 8,41 1326,80 331,70 0,8 414,6 4 35 20 24 12 23,18 10,65 10,76 24,68 20,92 8,65 1476,08 369,02 0,5 738,0 5 20 20 15 20 26,84 12,20 13,27 20,73 24,17 5,02 1142,95 285,73 0,3 952,4 6 35 20 15 20 25,96 10,16 11,00 22,52 23,74 5,97 1312,65 328,16 0,2 1640,8 7 20 20 24 20 24,28 12,62 12,90 22,82 21,57 7,61 1384,28 346,07 0,4 865,1 8 35 20 24 20 23,87 10,71 10,94 24,05 21,57 7,60 1533,58 383,39 0,6 638,9 9 20 30 15 12 28,68 13,58 15,31 18,45 25,81 3,80 1292,45 323,11 0,3 1077,0

10 35 30 15 12 27,52 11,36 12,80 20,56 24,99 4,28 1491,01 372,75 0,5 745,5 11 20 30 24 12 25,29 13,85 14,33 21,40 22,41 6,95 1549,84 387,46 0,8 483,7 12 35 30 24 12 25,34 11,79 12,36 22,24 22,77 6,42 1717,72 429,43 0,8 536,7 13 20 30 15 20 26,31 13,37 14,17 20,67 23,48 5,83 1372,30 343,07 0,5 686,1 14 35 30 15 20 27,87 11,37 12,98 20,26 25,33 3,92 1520,46 380,11 0,4 950,2 15 20 30 24 20 26,48 13,64 14,48 20,40 23,61 5,77 1583,64 395,91 0,8 494,8

16 35 30 24 20 28,47 11,76 13,61 19,55 25,85 3,34 1750,05 437,51 0,6 729,1 17 27,5 25 19,5 16 24,81 11,94 12,32 22,64 22,22 7,0 1449,54 362,38 0.5 724.8

Фиг. 6.1. Оптимално разположение на инсинератор

където SVj са вероятностите за всяка възможна комбинация от генерирани отпадъци до 2020 година. Определянето на вероятностите SVj трябва да се базира на задълбочено изследване на демографското развитие на района, икономическото развитие и статистическите тенденции във времето.

x1

x2 k

21.6; 0.0

31.8; 11.4

3.0; 16.2

45.0; 22.2

3

12

11

G-1

G-2

G-3

G-4

Page 96: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

97

От получените вероятни транспортни разходи по (6.28) (табл. 6.1), минималните транспортни разходи TPV

* са 414,6 хлв/год. (Вариант 3). За по нататъшно обсъждане от компетентните органи като оптимално решение се

предлага Вариант 3. На второ място за обсъждане на оптимално решение може да се постави Вариант 11 с минимални вероятни транспортни разходи 483,7 хлв/год. За обсъждане могат да се поставят резултатите и от други стратегии, разгледани по горе в т. 3.

Полученото оптимално решение (Вариант 3) е все още теоретично, тъй като координатите на оптималното решение (х1

*, х2*) = (23,49 км, 12,75 км) се нуждаят от анализ

на реално съществуващите и проектираните в бъдеще пътища за превозване на отпадъци до инсинератора. Например Вариант 12 показан (табл. 6.1) е също подходящ. За него не е необходимо прокарване на допълнителни пътища, но като недостатък може да се отбележи, че е прекалено близо до населено място и трябва да се спазят екологичните изисквания за защитните зони.

6.5. Заключение За решаване на оптимизационни проблеми с непълна информация има предложени

достатъчно стратегии и методи за решаване на практически задачи с количествени параметрични неопределености. В бъдещите изследвания се очакват ефективни методи и алгоритми, които да позволят надеждно и обективно преодоляване на качествени, структурни и нестационарни неопределености, както и търсене на оптимални алгоритми за намаляване на големия обем необходими изчисления.

Литература

1. Стоянов, С., Оптимизация на технологични процеси, Техника, София, 1993.

2. Стоянов, С., Оптимизация на технологични обекти, Техника, София, 1983.

3. Стоянов, С., Методи и алгоритми за оптимизация, Техника, София, 1990.

4. Вучков, И., С. Стоянов, Математическо моделиране и оптимизация на технологични обекти, Техника, София, 1986.

5. С. Стоянов, Е. Удовлетвореност на клиентите и вземане на решения в здравните организации, ЕС принт, София, 2008, ISBN 97895491913-9-4.

6. Стоянов С., Р. Павлова, Г. Бафас, Эвристическое ранжирование параметров с неполной информации при оптимальном управлении, "Sistem Modeling, Control", 6, Zakopane, Poland, 1990.

7. Вучков, И., С. Стоянов, Компромисни решения при оптимизация на сложни технологични процеси, Целулоза и хартия, No 5, 1970.

8. Вълчев, В., С. Стоянов, А. Стоянова, Върху оптимизиране на работата на дългоситова машина за производство на хартия, Целулоза и хартия, No 1, 1972.

9. Стоянов, С. Метод на преместващите се ограничения при търсене на глобален екстремум. Юбил. сб. Трудове ВХТИ, София, т.5, 1981.

10. Deb, K. An ideal evolutionary multi-objective optimization procedure. IPSJ Transactions on Mathematical Modeling and Its Applications, 45(SIG 2), p. 1-11, 2004.

11. Deb, K. Genetic algorithms for optimization. In D. Kundu and A. Basu (eds.) Statistical Computing: Existing Methods and Recent Developments. New Delhi, India: Narosa Publishing House, p. 85-123, 2004.

Page 97: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

98

12. Deb, K. Multi-objective optimization using evolutionary algorithms, John Wiley & Sons, Ltd, New York, 2003.

13. Deb, K., Pratap. A, Agarwal, S., and Meyarivan, T. A fast and elitist multi-objective genetic algorithm: NSGA-II. IEEE Transaction on Evolutionary Computation, 6(2), p.181-197, 2002.

14. Voutchkov, I. I., A. J. Keane. Multiobjective optimization using surrogates. In Proc. 7th Int. Conf. Adaptive Computing in Design and Manufacture, Bristol, p. 167-175, 2006.

15. Kendal M. G., Rank Correlation Methods, London, Griffin, 1957.

16. Harington, E. C., The desirability function. Ind. Quality Control, No 4, p. 494-498, 1965.

17. Pareto, V., Cours d'economie politique, Lausanne, Rouge, 1896.

19. Luus, R., T. H. Jaakola. Optimization by Direct Search and Systematic Reduction of the Size of Search Region. – AIChE J., v. 19, 1973.

20. Price, W. L. A. Controlled Random Search Procedure for Global Optimization, Report 75-23, University of Leicester, Eng Dept., Nov., 1975.

21. Wang, B. C., R. Luus, Optimization of Nonunimodal Systems. – Intern. J., Num. Meth. Eng., v. 11, 1977.

22. Comez, S. A. Method for Solving the Global Constrained Minimization Problem. Ph. D. Dissertation. Dept. of Chem. Eng. Techn., IC London, 1981.

23. Levy, A. V., A. Montalvo. S. Comez. A Caledorn Topics in Global Optimization, Proc. Of the Third IIMAS Workshop, Cocoypc, Mexico, Springer-Verlag, Ser. 909, 1982.

24. Weistroffer, H. R., A combined over- and under- achievement programming approach to multiple objective decision making, Large Scale Systems, 7, p. 47-58, 1984.

25. Wierzbicki, A. P., The use of reference objectives in multiobjective optimization - Theoretical implications and practical experiences, WP-79-66, IIASA, Laxenberg, Austria, 1979.

26. Wierzbicki, A. P., A methodological guide to multiobjective optimization,WP-79-122, IIASA, Laxenburg, Austria, 1979.

27. QstatLab Manual, www.qstat.dir.bg, 2007.

28. Rechenberg, I., Evolutionsstrategie. Frommann-Holzboog, Stuttgart, Germany, 1973.

29. Holland J.H., Adaptation in Natural and Artificial Systems. An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence. University of Michigan. Press, 1975.

30. Вощинин, А. П., Г. Р. Сотиров, Оптимизация в условиях неопределенности, М., Наука, 1966.

31. Павлова, Р. Б. Оптимизация на технологични обекти и системи при непълна информация, Докт. дис., ХТМУ, София, 1988.

32. Стоянов, С. К., Методи и алгоритми с ускорена сходимост при, Дисертация за дтн, ХТМУ, София, 1990.

33. Тенекеджиев, К. Количествен анализ на решенията, АИ “М. Дринов”, София, 2004.

34. Biegler, L. and Grossmann, I.E. Retrospective on Optimization, www.egon.cheme.cmu.edu/, 2006.

35. Chen, M. S. K., L. E. Erickson, and L. T. Fan, "Consideration of Sensitivity and Parameter Uncertainty in Optimal Process Design," I.E.C. Process Design and Development, 9, p. 514, 1970.

Page 98: Република България · функция: k Q x x y 0 (( )) ( ( ), ( ), ) max . (1.10) Задачата се решава с методите на динамичното

99

36. Grossmann I. E., K. P. Halemane, R. E. Swaney. Optimization strategies for Flexible Chemical Processes, Comp. Chem. Eng., v. 7, p. 439, 1983.

37. Kendall, M. G. Rank correlation Methods, London, Griffin, 1957.

38. Nishida, N., A. Ichikawa, E. Tazaki. Optimal design and control in a class of distributed parameter systems under uncertainty-application to tubular reactor with catalyst deactivation, AIChE Journal, Volume 18, Issue 3, p. 561 – 568, 1972.

39. Rohrer, R. A., M. Sobral. “Sensitivity Considerations in Optimal System. Design”, IEEE Transaction on Automatic Control, v. 10, No 1, p. 43, 1965.

40. Stoyanov, S. K. Towards Optimization under Uncertainties as a multicriteria Problem, IIASA Report CP-82-S12, Laxenburg, Austria, 1982.

41. Szidarovszky, F., A. Eskandari, and J. Zhao. An Application of Multiobjective Optimization under Uncertainty in Modelling and Simulation (Editor M.H. Hamza), Marina del Rey, CA, USA, 2004.

42. Jiao Y.-C., C. Dang, Y. Leung, Y. Hao. A modification of the New Version of the Price’s Algorithm for Continuous Global Optimization Problems, J. Glob. Optim., 36, p. 609-626, 2006.

43. Keil F., S. Stoyanov, S. Yordanov. Improved Heuristic Rules for the Price Algorithm of Global Optimization, Journal of Applied Computer Science, Lodz, Poland, 15, No 1, p. 63-82, 2007.

44. Kendall M., J. D. Gibbons. Rank Correlation Methods, Oxford University Press, New York, 1990.

45. Roeva O. A modified genetic algorithm for a parameter identification of fermentation processes, Biotechnology and Biotechnological Equipment, 20(1), p. 202-209, 2006.

46. Roeva O., T. Pencheva, B. Hitzmann, S.. Tzonkov. A Genetic Algorithms Based Approach for Identification of Escherichia coli Fed-batch Fermentation, Bioautomation, 1, p. 30-41, 2004.