WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

198
WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA modele preferencji i zastosowania do wspomagania decyzji Wlodzimierz Ogryczak Uniwersytet Warszawski Instytut Informatyki Warszawa 1997

Transcript of WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Page 1: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

WIELOKRYTERIALNA OPTYMALIZACJA

LINIOWA I DYSKRETNA

modele preferencji

i zastosowania do wspomagania decyzji

W lodzimierz OgryczakUniwersytet WarszawskiInstytut Informatyki

Warszawa 1997

Page 2: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4

Pusta strona

Page 3: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Spis tresci

Przedmowa 7

1 Wprowadzenie 131.1 Wielokryterialne programowanie liniowe dyskretne . . . . . . . . . . 131.2 Rozwi ↪azania efektywne . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3 Techniki skalaryzacji . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.4 Systemy wspomagania decyzji . . . . . . . . . . . . . . . . . . . . . . 38

2 Programowanie celowe 452.1 Modele programowania celowego . . . . . . . . . . . . . . . . . . . . 452.2 Symetryczna teoria dualnosci . . . . . . . . . . . . . . . . . . . . . . 522.3 Techniki obliczeniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . 692.4 Model preferencji programowania celowego . . . . . . . . . . . . . . . 77

3 Metody punktu referencyjnego 813.1 Metoda punktu referencyjnego . . . . . . . . . . . . . . . . . . . . . 813.2 System DINAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 883.3 Referencyjne programowanie celowe . . . . . . . . . . . . . . . . . . 100

3.3.1 Model wazony . . . . . . . . . . . . . . . . . . . . . . . . . . 1003.3.2 Model leksykograficzny . . . . . . . . . . . . . . . . . . . . . 105

3.4 Przedzia lowe referencyjne programowanie celowe . . . . . . . . . . . 1123.4.1 Model wazony . . . . . . . . . . . . . . . . . . . . . . . . . . 1123.4.2 Implementacja w arkuszu kalkulacyjnym . . . . . . . . . . . . 1173.4.3 Model leksykograficzny . . . . . . . . . . . . . . . . . . . . . 125

4 Modele preferencji z elementami rownosci 1334.1 Rozwi ↪azania symetrycznie efektywne . . . . . . . . . . . . . . . . . . 133

4.1.1 Symetryczna efektywnosc . . . . . . . . . . . . . . . . . . . . 1334.1.2 Techniki generacji . . . . . . . . . . . . . . . . . . . . . . . . 1414.1.3 Podejscie dystrybucyjne . . . . . . . . . . . . . . . . . . . . . 145

4.2 Rozwi ↪azania wyrownuj ↪aco efektywne . . . . . . . . . . . . . . . . . . 1534.2.1 Wyrownuj ↪aca efektywnosc . . . . . . . . . . . . . . . . . . . . 1534.2.2 Techniki generacji . . . . . . . . . . . . . . . . . . . . . . . . 163

5

Page 4: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

6 SPIS TRESCI

4.2.3 Podejscie dystrybucyjne . . . . . . . . . . . . . . . . . . . . . 1734.3 Leksykograficzna metoda punktu referencyjnego . . . . . . . . . . . . 178

5 Zakonczenie 187

Literatura 191

Skorowidz 199

Page 5: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Przedmowa

Praktyczne problemy decyzyjne s ↪a na tyle z lozone, ze nie mog ↪a byc modelo-wane przy uzyciu tradycyjnych technik programowania matematycznego z jedn ↪askalarn ↪a funkcj ↪a celu. Powoduje to rosn ↪ace zainteresowanie wielokryterialnymprogramowaniem matematycznym (optymalizacj ↪a wektorow ↪a). Wiele roznych me-tod analizy wielokryterialnych problemow decyzyjnych zosta lo zaproponowanychw literaturze. Dokonany w ci ↪agu ostatnich lat post ↪ep w technologii komputero-wej umozliwia implementacj ↪e nawet bardzo z lozonych technik optymalizacji wie-lokryterialnej, wymagaj ↪acych rozwi ↪azywania wielu pomocniczych zadan jednokry-terialnych. Co wi ↪ecej, systemy komputerowe o duzej mocy obliczeniowej sta ly si ↪enarz ↪edziami bezposrednio uzywanymi przez decydentow. Dlatego w ostatnich la-tach zarysowa l si ↪e w badaniach operacyjnych trend rozwoju szerzej pojmowanejanalizy decyzji (por. Geoffrion, 1992). W po l ↪aczeniu z nowoczesnymi metodamiinformatyki prowadzi to do rozwoju interaktywnych systemow wspomagania decy-zji, gdzie matematyczne modele i metody jedynie wspieraj ↪a proces analizy decyzjidokonywanej przez decydenta. Techniki optymalizacji stanowi ↪a j ↪adro obliczeniowetych systemow. S ↪a one jednak tylko cz ↪esci ↪a ca lego systemu informatycznego i za-zwyczaj nie s ↪a bezposrednio widoczne dla decydenta.

Niniejsza praca dotyczy analizy problemow wielokryterialnego programowanialiniowego i dyskretnego. Wi ↪ekszosc wielokryterialnych problemow decyzyjnych, aw szczegolnosci decyzyjnych problemow zarz ↪adzania, moze byc sformu lowana wpostaci odpowiednich zagadnien programowania liniowego i dyskretnego. Ponadtowiele przedstawionych tu wynikow dotyczy dowolnych zadan optymalizacji wielo-kryterialnej, a ograniczenie do zadan liniowych i dyskretnych jest spowodowanejedynie przeprowadzon ↪a analiz ↪a mozliwosci efektywnej implementacji odpowied-nich metod i algorytmow. Zgodnie z biez ↪acym trendem rozwoju badan operacyj-nych, optymalizacja wielokryterialna jest tu traktowana jako narz ↪edzie stosowanew szerzej pojmowanym procesie rozwi ↪azywania problemu decyzyjnego, czyli jakotechnika do wykorzystania w systemie wspomagania decyzji. Dlatego w pracyskoncentrowano si ↪e na interaktywnych technikach optymalizacji wielokryterialnej,pozwalaj ↪acych modelowac rozne preferencje decydenta. Co wi ↪ecej, zaj ↪eto si ↪e otwar-tymi technikami interaktywnymi, nie narzucaj ↪acymi decydentowi zadnego sztyw-nego scenariusza analizy problemu decyzyjnego i dopuszczaj ↪acymi mozliwosc mo-dyfikacji jego preferencji w trakcie analizy, w wyniku poznawania specyfiki prob-lemu decyzyjnego (Wierzbicki, 1993). Dlatego tez praca ta jest poswi ↪econa analizie

7

Page 6: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

8 Przedmowa

roznych technik interaktywnych z punktu widzenia reprezentowanych przez nie mo-deli preferencji i ich przydatnosci w praktycznych systemach wspomagania decyzji.

W rozdziale 1 zdefiniowane s ↪a rozwazane problemy wielokryterialne i wprowa-dzane podstawowe poj ↪ecia wykorzystywane w tej pracy. Najwazniejszym z nichjest racjonalna relacja preferencji. Rozwi ↪azania efektywne s ↪a zdefiniowane jakoelementy minimalne dla roznych racjonalnych relacji preferencji. Techniki interak-tywne analizy problemow wielokryterialnych s ↪a definiowane przez parametryczneracjonalne relacje preferencji (parametryczne skalaryzacje). Wiele twierdzen za-wartych w tym rozdziale dotyczy znanych faktow z teorii programowania wielo-kryterialnego, jednakze s ↪a one dowodzone ze wzgl ↪edu na odmienne sformu lowaniaoparte na poj ↪eciu racjonalnej relacji preferencji.

Rozdzia l 2 dotyczy programowania celowego, ktore jest najpowszechniej stoso-wan ↪a technik ↪a analizy wielokryterialnych problemow decyzyjnych (White, 1990).Jest to historycznie najstarsza technika uzywaj ↪aca poziomow aspiracji jako para-metrow steruj ↪acych. Najcz ↪esciej wykorzystywanym modelem programowania celo-wego jest leksykograficzne liniowe programowanie celowe, pozwalaj ↪ace na okreslaniehierarchii priorytetow poszczegolnych poziomow aspiracji. Najwazniejszym wyni-kiem zawartym w tym rozdziale jest symetryczna teoria dualnosci dla liniowychleksykograficznych zadan programowania celowego (podrozdzia l 2.2). W prezen-towanej teorii zadanie dualne do zadania programowania celowego jest zadaniemprogramowania celowego i zachowane s ↪a wszystkie podstawowe zaleznosci teoriidualnosci programowania liniowego, l ↪acznie z w lasnosci ↪a punktu siod lowego. Teo-ria ta pozwala na wyprowadzenie poprawnego dualnego algorytmu rozwi ↪azywanialeksykograficznych zadan liniowego programowania celowego (podrozdzia l 2.3). Wpodrozdziale 2.4 pokazano niezgodnosc modelu preferencji programowania celowegoz modelem racjonalnych relacji preferencji i wynikaj ↪ace z tego konsekwencje.

Rozdzia l 3 jest poswi ↪econy metodom punktu referencyjnego (Wierzbicki, 1977;1982). W pierwszym podrozdziale sformu lowano w terminach relacji preferencjitzw. quasi–zadowalaj ↪acy model procesu decyzyjnego, lez ↪acy u podstaw metodpunktu referencyjnego. Pozwala to wykazac, ze metody punktu referencyjnego,uzywaj ↪ac podobnie jak programowanie celowe poziomow aspiracji jako g lownychparametrow steruj ↪acych, zachowuj ↪a zgodnosc z modelem racjonalnych relacji pre-ferencji. W podrozdziale 3.2 zaprezentowano system DINAS dla analizy wielokry-terialnych zagadnien transportowo–lokalizacyjnych. System ten stanowi pierwsz ↪aimplementacj ↪e metod punktu referencyjnego do wielokryterialnych zadan progra-mowania dyskretnego. Kolejne dwa podrozdzia ly wprowadzaj ↪a metody punktureferencyjnego (odpowiednio standardow ↪a i przedzia low ↪a) wykorzystuj ↪ace technikiprogramowania celowego. Umozliwia to dok ladniejsze porownanie metod punktureferencyjnego z programowaniem celowym. Co istotniejsze, pozwala to na wprowa-dzenie hierarchii priorytetow poziomow aspiracji do metod punktu referencyjnegoi na scislejsz ↪a realizacj ↪e quasi–zadowalaj ↪acego modelu procesu decyzyjnego.

Oparcie poj ↪ecia rozwi ↪azania zadania wielokryterialnego na poj ↪eciu racjonalnejrelacji preferencji pozwala na rozwazanie rozwi ↪azan zgodnych z pewnymi dodat-kowymi w lasnosciami relacji preferencji. W rozdziale 4 omowione s ↪a modele pre-ferencji uwzgl ↪edniaj ↪ace elementy rownosci kryteriow. Rozwini ↪eta zosta la teoria

Page 7: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Przedmowa 9

symetrycznie efektywnych i wyrownuj ↪aco efektywnych rozwi ↪azan zagadnien wielo-kryterialnych, jako rozwi ↪azan minimalnych w sensie relacji preferencji anonimoworacjonalnych i odpowiednio wyrownuj ↪aco racjonalnych. Wyprowadzone zosta ly tezodpowiednie wersje metod punktu referencyjnego przyjmuj ↪ace postac interaktyw-nych technik referencyjnej dystrybucji ocen. Ponadto w podrozdziale 4.3 poka-zano, jak koncepcja wyrownuj ↪aco racjonalnej relacji preferencji moze byc wykorzy-stana do konstrukcji metody punktu referencyjnego scisle implementuj ↪acej quasi–zadowalaj ↪acy model procesu decyzyjnego dla standardowych zadan optymalizacjiwielokryterialnej.

Niniejsza praca stanowi podsumowanie najwazniejszych wynikow uzyskanychprzez autora w czasie kilku lat prac badawczych nad optymalizacj ↪a wielokryte-rialn ↪a i jej wykorzystaniem w systemach wspomagania decyzji. Badania te by lyw wi ↪ekszosci prowadzone w Instytucie Informatyki Uniwersytetu Warszawskiego.Cz ↪esc wynikow powsta la jednak w trakcie stazy autora w College of Business,Marshall University (Huntington, USA) oraz w Service de Mathematiques de laGestion, Universite Libre de Bruxelles (Bruksela, Belgia). Ponadto prace nad me-todologi ↪a i implementacj ↪a omawianego w podrozdziale 3.2 systemu DINAS by lycz ↪esciowo finansowane przez International Institute for Applied Systems Analysis(Laxenburg, Austria) w ramach projektu Methodology of Decision Analysis.

Page 8: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

10 Przedmowa

Page 9: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Pusta strona

11

Page 10: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

12 Przedmowa

Page 11: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Rozdzia l 1

Wprowadzenie

1.1 Wielokryterialne programowanie liniowe dys-kretne

Efektywne zarz ↪adzanie wymaga cz ↪estego podejmowania z lozonych decyzji, czylirozwi ↪azywania problemow decyzyjnych. Moze to byc na przyk lad problem ustaleniawielkosci produkcji poszczegolnych asortymentow towarow, rozdzielenia srodkowna poszczegolne inwestycje itp. Problemy decyzyjne opisuje si ↪e matematycznie,wprowadzaj ↪ac zmienne decyzyjne. Na przyk lad, planuj ↪ac dzia lalnosc zak ladu wy-twarzaj ↪acego n roznych produktow, okreslamy zmienn ↪a xj jako wielkosc produk-cji j–tego asortymentu (j = 1, 2, . . . , n). Podobnie, rozwazaj ↪ac rozdzia l zasobowna n inwestycji, mozemy okreslic zmienn ↪a decyzyjn ↪a xj jako kwot ↪e przeznaczon ↪ana realizacj ↪e j–tej inwestycji (j = 1, 2, . . . , n). Ogolnie, mozemy wyroznic prze-strzen decyzji X, ktorej elementy jednoznacznie opisuj ↪a podj ↪ete decyzje. Naszerozwazania ograniczamy tu do przypadku skonczenie wymiarowych rzeczywistychprzestrzeni decyzji X = Rn. Oczywiscie, zmienne decyzyjne nie mog ↪a przyjmowacwartosci dowolnych. W praktycznych problemach wyst ↪epuj ↪a pewne ograniczeniana zmienne decyzyjne, wynikaj ↪ace na przyk lad z okreslonych mozliwosci technolo-gicznych i surowcowych w przypadku produkcji czy tez z okreslonego budzetu wprzypadku rozdzia lu srodkow. Ogolnie mozemy powiedziec, ze wektor zmiennychdecyzyjnych x powinien nalezec do pewnego ustalonego zbioru decyzji dopuszczal-nych Q ⊂ X. Zbior Q b ↪edziemy dalej nazywac zbiorem dopuszczalnym, a nalez ↪acedo niego wektory zmiennych decyzyjnych x ∈ Q wektorami (rozwi ↪azaniami) do-puszczalnymi .

W problemach decyzyjnych wyst ↪epuj ↪a pewne miary jakosci podejmowanychdecyzji. Matematycznie miary jakosci decyzji wyraza si ↪e za pomoc ↪a funkcjifi : X → R, nazywanych funkcjami oceny . Przyk ladem funkcji oceny mozebyc funkcja wyrazaj ↪aca zysk, jaki przyniesie dany profil produkcji (dany wek-tor x) b ↪adz tez wysokosc kosztow zwi ↪azanych z dan ↪a produkcj ↪a. Istnieje zatemprzekszta lcenie (funkcja wektorowa) f = (f1, f2, . . . , fm) przestrzeni decyzji X w

13

Page 12: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

14 ROZDZIA L 1. WPROWADZENIE

przestrzen ocen Y = Rm. W naturalny sposob pojawia si ↪e tu problem wyborunajlepszej decyzji. Zak ladamy, ze wybor ten bierze pod uwag ↪e tylko odpowied-nie wektory ocen i decyzje o jednakowych wektorach ocen s ↪a jednakowo dobre.Tym samym problem wyznaczenia najlepszej decyzji mozemy ograniczyc do za-gadnienia wyboru najlepszego wektora ocen w zbiorze osi ↪agalnych wektorow ocenA = {y ∈ Y : y = f(x), x ∈ Q}. Bez zmniejszania ogolnosci rozwazan mozemyza lozyc, ze dla kazdej indywidualnej oceny fi mniejsza wartosc oceny oznacza lepsz ↪aocen ↪e decyzji.

Z kazdym problemem decyzyjnym zwi ↪azany jest pewien model preferencji. Mo-del taki ustala, ze dla pewnych par wektorow ocen okreslone jest, ktory z nich jestlepszy. Wyrazane jest to za pomoc ↪a relacji scis lej preferencji

y′ ≺ y′′ ⇔ y′ jest lepszy niz y′′

Podobnie, dla pewnych par wektorow ocen mozna stwierdzic, ze s ↪a one jednakowodobre. Wyraza si ↪e to za pomoc ↪a relacji indyferencji

y′ ∼= y′′ ⇔ y′ jest tak samo dobry jak y′′

Dla pewnych par wektorow ocen mozna stwierdzic jedynie, ze jeden z nich jest niegorszy od drugiego. Zapisuje si ↪e to za pomoc ↪a relacji s labej preferencji

y′ � y′′ ⇔ y′ jest nie jest gorszy niz y′′

W ogolnym przypadku model preferencji moze nie byc spojny (zupe lny). To znaczy,mog ↪a istniec pary nieporownywalnych wektorow ocen, dla ktorych nie zachodzizadna z relacji ≺, �, ∼=.

Model preferencji jest kompletnie okreslony przez relacj ↪e s labej preferencji �(por. Roy, 1990; Vincke, 1992). Relacje scis lej preferencji i indyferencji s ↪a induko-wane przez relacj ↪e s labej preferencji wed lug nast ↪epuj ↪acych wzorow

y′ ≺ y′′ ⇔ (y′ � y′′ i y′′ 6� y′) (1.1)

y′ ∼= y′′ ⇔ (y′ � y′′ i y′′ � y′) (1.2)

Dlatego w dalszych rozwazaniach b ↪edziemy utozsamiac model preferencji z relacj ↪a(s labej) preferencji �. To znaczy, przez relacj ↪e preferencji � b ↪edziemy rozumiecuk lad relacji �, ≺ i ∼= spe lniaj ↪acych warunki (1.1)–(1.2).

Nasze rozwazania ograniczamy do tzw. racjonalnych modeli preferencji, wktorych zak ladamy, ze relacja preferencji jest:

• zwrotnay � y dla y ∈ Y (1.3)

• przechodnia (tranzytywna)

(y′ � y′′ i y′′ � y′′′) ⇒ y′ � y′′′ dla y′,y′′,y′′′ ∈ Y (1.4)

• oraz scisle monotoniczna

y − εei ≺ y dla y ∈ Y, ε > 0, i = 1, 2, . . . ,m (1.5)

gdzie ei oznacza i–ty wektor jednostkowy w przestrzeni ocen Y .

Page 13: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.1. WIELOKRYTERIALNE PROGRAMOWANIE LINIOWE DYSKRETNE15

Zauwazmy, ze relacja indyferencji dla dowolnej zwrotnej i przechodniej relacjipreferencji spe lnia warunki zwrotnosci i przechodniosci oraz symetrii

y′ ∼= y′′ ⇔ y′′ ∼= y′

czyli jest relacj ↪a rownowaznosci.

Definicja 1.1 Relacj ↪e preferencji � nazywamy racjonaln ↪a relacj ↪a preferencji,jezeli spe lnione s ↪a warunki (1.3)–(1.5).

Racjonalna relacja preferencji jest scisle monotonicznym preporz ↪adkiem (cz ↪es-ciowym). W ogolnym przypadku moze ona nie byc preporz ↪adkiem liniowym, po-niewaz moze nie spe lniac warunku spojnosci (zupe lnosci)

dla dowolnych y′,y′′ ∈ Y, y′ � y′′ lub y′′ � y′ (1.6)

Dopuszczenie niespojnosci relacji preferencji moze byc dyskusyjne. Gdy relacjapreferencji opisuje preferencje fizycznego decydenta, nieporownywalnosc pewnychwektorow ocen jest raczej zwi ↪azana z niedostateczn ↪a znajomosci ↪a problemu decy-zyjnego i mozna argumentowac, ze przy idealnej znajomosci problemu decyzyjnegowszystkie wektory ocen s ↪a porownywalne. Dlatego wiele podejsc do modelowaniaproblemow decyzyjnych zak lada spojnosc relacji preferencji (por. Sawaragi i inni,1985). Matematycznie jest to zwykle formalizowane przez przyj ↪ecie relacji scis lejpreferencji ≺ jako podstawowej relacji definiuj ↪acej model preferencji i okreslenierelacji indyferencji oraz s labej preferencji za pomoc ↪a wzorow

y′ ∼= y′′ ⇔ (y′ 6≺ y′′ i y′′ 6≺ y′)

y′ � y′′ ⇔ (y′ ≺ y′′ lub y′ ∼= y′′)

W dalszych rozwazaniach dopuszczamy mozliwosc niespojnosci racjonalnej relacjipreferencji, ale nie traktujemy braku spojnosci jako za lozenia istotnego.

W przypadku spojnej racjonalnej relacji preferencji rozwi ↪azanie problemu de-cyzyjnego polega na wyznaczeniu dopuszczalnego wektora zmiennych decyzyjnychz najmniejszym (w sensie danej relacji) wektorem ocen, czyli wektora x0 ∈ Q ta-

kiego, ze f(x0) � y dla kazdego y ∈ A. W ogolnym przypadku, dopuszczaj ↪acym

niespojnosc racjonalnej relacji preferencji, rozwi ↪azanie problemu decyzyjnego wy-maga wyznaczenia dopuszczalnego wektora zmiennych decyzyjnych z minimalnym(w sensie danej relacji) wektorem ocen, czyli wektora x0 ∈ Q takiego, ze nie ist-

nieje y ∈ A spe lniaj ↪acy zaleznosc y ≺ f(x0). Zauwazmy, ze w przypadku niespojnej

relacji preferencji rozne minimalne wektory ocen mog ↪a byc nieporownywalne.Tradycyjne programowanie matematyczne wymaga wprowadzenia pojedynczej

skalarnej funkcji celu v : Y → R wartosciuj ↪acej poszczegolne wektory ocen y i — coza tym idzie — wektory decyzji x. Rozwi ↪azanie problemu decyzyjnego jest wtedysprowadzane do wyznaczenia rozwi ↪azania optymalnego zadania

min {v(f1(x), f2(x), . . . , fm(x)) : x ∈ Q}Podejscie to oznacza przyj ↪ecie za lozenia, ze relacja preferencji moze byc opisana zapomoc ↪a funkcji uzytecznosci v (Fishburn, 1970; Keeney i Raiffa, 1976) spe lniaj ↪acejzaleznosci

Page 14: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

16 ROZDZIA L 1. WPROWADZENIE

y′ � y′′ ⇔ v(y′) ≤ v(y′′)

Zeby to by lo mozliwe, relacja preferencji � musi byc spojna i spe lniac pewnedodatkowe wymagania. W szczegolnosci przy naturalnym za lozeniu, ze funkcjauzytecznosci jest ci ↪ag la, racjonalna relacja preferencji musi spe lniac warunek

y′ ≺ y′′ ≺ y′′′ ⇒ y′′ ∼= ty′ + (1− t)y′′′ dla pewnego t ∈ (0, 1)

Warunku tego nie spe lnia na przyk lad relacja porz ↪adku leksykograficznego. Zau-wazmy, ze zasadnicza trudnosc w rozwi ↪azywaniu wielokryterialnych problemowdecyzyjnych wynika z niemoznosci ustalenia a priori pojedynczego zagregowa-nego wskaznika jakosci, podczas gdy funkcja uzytecznosci jest w lasnie takimwskaznikiem. Trudnosci ze stosowaniem modeli funkcji uzytecznosci powoduj ↪arosn ↪ace zainteresowanie wielokryterialnym programowaniem matematycznym (op-tymalizacj ↪a wektorow ↪a) nie wykorzystuj ↪acym modeli funkcji uzytecznosci. Zna-laz lo to odbicie w licznych monografiach i artyku lach przegl ↪adowych (Nykowski,1977; Stadler, 1979; Hwang i Masud, 1979; Krawczyk, 1980; Ameljanczyk, 1980;Konarzewska–Guba la, 1980; Rietveld, 1980; Hwang i Yoon, 1981; Podinowski iNogin, 1982; Chankong i Haimes, 1983; S lowinski, 1984; Yu, 1985; Sawaragi i inni,1985; Steuer, 1986; Galas i inni, 1987; Luc, 1989; Bogetoft i Pruzan, 1991; Korho-nen, 1992; Ringuest, 1992; Stewart, 1992; Vincke, 1992; Kaliszewski, 1994; Steueri inni, 1996).

Model wielokryterialnego programowania matematycznego pozwala rozpatry-wac oryginalny uk lad funkcji oceny fi (i = 1, 2, . . . ,m) jako funkcje celu wektoro-wego zadania optymalizacji

min {(f1(x), f2(x), . . . , fm(x)) : x ∈ Q}

Najcz ↪esciej stosowanym dzia lem programowania matematycznego jest progra-mowanie liniowe (PL), gdzie optymalizowana jest liniowa funkcja celu na zbiorzedopuszczalnym okreslonym uk ladem rownan i nierownosci liniowych. Podobniemodele liniowe dominuj ↪a zastosowania wielokryterialnego programowania mate-matycznego (por. White, 1990). W wielokryterialnym zadaniu programowanialiniowego (WPL) zbior dopuszczalny Q jest zbiorem rozwi ↪azan uk ladu ograniczen

n∑j=1

akjxj ♦k bk dla k = 1, 2, . . . , l

gdzie ♦k oznacza jedn ↪a z relacji ≤, = lub ≥. Funkcje oceny maj ↪a postac

fi(x) =

n∑j=1

cijxj dla i = 1, 2, . . . ,m

Wspo lczynniki cij , akj oraz bi stanowi ↪a dane zadania. Wspo lczynniki funkcji ocenycij tworz ↪a macierz C = (cij)i=1,...,m;j=1,...,n. Podobnie wspo lczynniki akj tworz ↪amacierz A = (akj)k=1,...,l;j=1,...,n, a wspo lczynniki bk wektor (kolumn ↪e) prawychstron b = (b1, b2, . . . , bl)

T . Pozwala to na uproszczony macierzowy zapis zadaniaWPL w postaci

min {Cx : Ax>= b} lub min {Cx : Ax = b, x

>= 0}

Page 15: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.1. WIELOKRYTERIALNE PROGRAMOWANIE LINIOWE DYSKRETNE17

gdzie>= oznacza nierownosci ≥ na wszystkich wspo lrz ↪ednych odpowiednich wek-

torow. Dok ladniej, stosujemy nast ↪epuj ↪acy zapis nierownosci wektorowych w prze-strzeni Rn

x′<= x′′ ⇔ x′j ≤ x′′j dla j = 1, 2, . . . , n

x′ ≤ x′′ ⇔ x′ 6= x′′ i x′<= x′′

x′ < x′′ ⇔ x′j < x′′j dla j = 1, 2, . . . , n

Modele programowania liniowego maj ↪a bardzo rozleg le zastosowania. W wieluprzypadkach s ↪a one jednak modelami przyblizonymi, poniewaz nie uwzgl ↪edniaj ↪apewnych zaleznosci lub zbytnio je upraszczaj ↪a. Dodatkowe mozliwosci daje prog-ramowanie liniowe dyskretne (PLD), gdzie wprowadza si ↪e do rozwazan zmiennedecyzyjne przyjmuj ↪ace jedynie wartosci ze zbioru liczb ca lkowitych (oznaczanegodalej przez Z). Najprostszym zastosowaniem tych zmiennych jest wyrazanie iloscidobr niepodzielnych, takich jak pojazdy, fabryki itp. Co wi ↪ecej, ca lkowitoliczbowe(dyskretne) zmienne decyzyjne daj ↪a mozliwosc prostego zapisu szeregu zaleznoscilogicznych i kombinatorycznych (por. Williams, 1993). Dotyczy to w szczegolnoscisytuacji, gdzie trzeba dokonac wyboru jednego z kilku wariantow. Techniki prog-ramowania liniowego rozszerzone o dyskretne zmienne decyzyjne pozwalaj ↪a mo-delowac wi ↪ekszosc problemow decyzyjnych wywodz ↪acych si ↪e z zarz ↪adzania i wieluinnych dziedzin. Dlatego nasze rozwazania dotycz ↪ace wielokryterialnego progra-mowania matematycznego w zastosowaniach do rozwi ↪azywania problemow decy-zyjnych koncentrujemy na wielokryterialnych zadaniach programowania liniowegodyskretnego (WPLD), czyli zadaniach WPL, gdzie pewna cz ↪esc zmiennych decyzyj-nych (w szczegolnosci wszystkie) przyjmuje tylko wartosci ca lkowite. Zdania WPLb ↪edziemy traktowac jako szczegolny (prostszy) przypadek zadan WPLD. Wieleprzedstawionych w tej pracy wynikow moze jednak miec zastosowanie do innychklas zadan wielokryterialnych.

Przyk lad 1.1. Rozwazmy problem decyzyjny polegaj ↪acy na wyborze inicjatywgospodarczych, ktore bed ↪a sfinansowane w ramach dost ↪epnego budzetu b. Roz-patrujemy n mozliwych inicjatyw, dla ktorych s ↪a znane wysokosci nak ladow kj(j = 1, 2, . . . , n), wielkosci przewidywanych dochodow dj (j = 1, 2, . . . , n) orazwielkosci zatrudnienia pj (j = 1, 2, . . . , n). Jestesmy zainteresowani takim wyko-rzystaniem budzetu, aby maksymalizowac dochod i zatrudnienie.

W rozwazanym problemie decyzje mozna opisac przez zmienne binarne xj(j = 1, 2, . . . , n) rowne 1, gdy ma byc wybrana j–ta inicjatywa, a 0 w przeciwnymprzypadku. Zmienne decyzyjne xj musz ↪a spe lniac ograniczenie

∑nj=1 kjxj ≤ b.

Przewidywany dochod wyraza si ↪e wzorem∑nj=1 djxj , a wielkosc zatrudnienia wzo-

rem∑nj=1 pjxj . Rozwazany problem decyzyjny mozemy zatem zapisac w postaci

nast ↪epuj ↪acego zadania WPLD z dwoma funkcjami oceny

min {(−n∑j=1

djxj ,−n∑j=1

pjxj) :

n∑j=1

kjxj ≤ b, xj ∈ {0, 1} dla j = 1, 2, . . . , n}

Page 16: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

18 ROZDZIA L 1. WPROWADZENIE

1.2 Rozwi ↪azania efektywne

Rozpatrzmy problem decyzyjny zdefiniowany jako zagadnienie wielokryterial-nego programowania matematycznego z m skalarnymi funkcjami oceny

min {f(x) : x ∈ Q} (1.7)

gdzie

f = (f1, . . . , fm) jest funkcj ↪a (wektorow ↪a) przekszta lcaj ↪ac ↪a przestrzen decyzji(realizacji) X = Rn w przestrzen ocen Y = Rm;poszczegolne wspo lrz ↪edne fi reprezentuj ↪a skalarne funkcjeoceny;I = {1, 2, . . . ,m} jest zbiorem indeksow ocen,

Q ⊂ X oznacza zbior dopuszczalny,

x ∈ X oznacza wektor zmiennych decyzyjnych.

Funkcja f przyporz ↪adkowuje kazdemu wektorowi zmiennych decyzyjnych x ∈ Qwektor ocen y = f(x), ktory mierzy jakosc decyzji x z punktu widzenia ustalonegouk ladu funkcji oceny f1, . . . , fm. Obraz zbioru dopuszczalnego Q dla funkcji fstanowi zbior osi ↪agalnych wektorow ocen

A = {y ∈ Y : y = f(x), x ∈ Q} (1.8)

Definicja 1.2 Zadanie wielokryterialne (1.7) nazywamy regularnym wtedy i tylkowtedy, gdy wszystkie jednokryterialne zadania

min {fi(x) : x ∈ Q}, i = 1, 2, . . . ,m (1.9)

maj ↪a rozwi ↪azania optymalne.

Nawet nie znaj ↪ac relacji preferencji (wiedz ↪ac jedynie, ze jest to racjonalna re-lacja preferencji), mozemy stwierdzic, ze pewne wektory ocen nie mog ↪a byc mi-nimalne w sensie danej relacji. Wynika to z faktu, ze pewne wektory ocen s ↪agorsze od innych dla wszystkich racjonalnych relacji preferencji. Mozna to sforma-lizowac za pomoc ↪a relacji racjonalnej dominacji . Poniewaz model racjonalnych re-lacji preferencji jest najogolniejszym modelem preferencji rozwazanym w tej pracy,to poza przypadkami mog ↪acymi prowadzic do niejasnosci, relacj ↪e racjonalnej do-minacji b ↪edziemy nazywac po prostu relacj ↪a dominacji .

Definicja 1.3 Mowimy, ze wektor ocen y′ ∈ Y (racjonalnie) dominuje y′′ ∈ Y ,lub y′′ jest (racjonalnie) dominowany przez y′ wtedy i tylko wtedy, gdy y′ ≺ y′′ dlawszystkich racjonalnych relacji preferencji.

Relacj ↪e racjonalnej dominacji b ↪edziemy oznaczac symbolem ≺r. Dok ladniej,zapis y′ ≺r y′′ oznacza, ze wektor ocen y′ ∈ Y racjonalnie dominuje y′′ ∈ Y .Analogicznie do relacji racjonalnej dominacji mozemy rowniez zdefiniowac relacjeracjonalnej indyferencji ∼=r i s labej dominacji �r.

Definicja 1.4 Mowimy, ze wektor ocen y′ ∈ Y jest racjonalnie indyferentny z y′′ ∈Y wtedy i tylko wtedy, gdy y′ ∼= y′′ dla wszystkich racjonalnych relacji preferencji.

Page 17: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.2. ROZWI ↪AZANIA EFEKTYWNE 19

Definicja 1.5 Mowimy, ze wektor ocen y′ ∈ Y (racjonalnie) s labo dominuje y′′ ∈Y lub y′′ jest (racjonalnie) s labo dominowany przez y′ wtedy i tylko wtedy, gdyy′ � y′′ dla wszystkich racjonalnych relacji preferencji.

Zauwazmy, ze relacje racjonalnej dominacji ≺r, indyferencji ∼=r i s labej domi-nacji �r spe lniaj ↪a warunki (1.1)–(1.2), czyli stanowi ↪a relacj ↪e preferencji �r. Cowi ↪ecej, jak latwo sprawdzic, spe lnia ona warunki zwrotnosci (1.3), przechodniosci(1.4) i scis lej monotonicznosci (1.5), czyli jest racjonaln ↪a relacj ↪a preferencji. Relacjadominacji �r jest najogolniejsz ↪a racjonaln ↪a relacj ↪a preferencji i kazda racjonalnarelacja preferencji � jest z ni ↪a zgodna w tym sensie, ze

y′ �r y′′ ⇒ y′ � y′′

Relacja racjonalnej dominacji �r moze byc wyrazona za pomoc ↪a nierownosci

wektorowej<=. Zauwazmy, ze relacja

<= jest zwrotna i przechodnia. Ponadto praw-

dziwe s ↪a dla niej zaleznosci

y′ ≤ y′′ ⇔ (y′<= y′′ i y′′ 6<= y′)

y′ = y′′ ⇔ (y′<= y′′ i y′′

<= y′)

Zatem relacja<= jest relacj ↪a preferencji z relacjami scis lej preferencji i indyferencji

okreslonymi odpowiednio jako ≤ i =.

Twierdzenie 1.1 Dla dowolnych wektorow ocen y′,y′′ ∈ Y

y′ �r y′′ ⇔ y′<= y′′

Dowod. Zauwazmy, ze relacja preferencji � zdefiniowana jako

y′ � y′′ ⇔ y′<= y′′

jest racjonaln ↪a relacj ↪a preferencji. Zatem bezposrednio z definicji relacji dominacjiwynika, ze

y′ �r y′′ ⇒ y′<= y′′

Dla udowodnienia odwrotnej implikacji za lozmy, ze y′<= y′′. Jezeli y′ = y′′, to

na mocy zwrotnosci y′ �r y′′. Pozostaje zatem przypadek, gdy y′ ≤ y′′. Jednakze,korzystaj ↪ac ze scis lej monotonicznosci i przechodniosci relacji �r otrzymujemy im-plikacj ↪e y′ ≤ y′′ ⇒ y′ ≺r y′′

Zatem ostateczniey′

<= y′′ ⇒ y′ �r y′′

Wniosek 1.1 Wektor ocen y′ ∈ Y dominuje y′′ ∈ Y wtedy i tylko wtedy, gdyy′ ≤ y′′.

Wniosek 1.2 Dla kazdej racjonalnej relacji preferencji � prawdziwe s ↪a nast ↪epu-j ↪ace implikacje

y′<= y′′ ⇒ y′ � y′′

y′ ≤ y′′ ⇒ y′ ≺ y′′

Page 18: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

20 ROZDZIA L 1. WPROWADZENIE

Relacja dominacji ≺d moze byc ilustrowana za pomoc ↪a tzw. struktury domina-cji (Yu, 1974; Sawaragi i inni, 1985), czyli przekszta lcenia przyporz ↪adkowuj ↪acegowektorom ocen y ∈ Y zbior dominowania D(y) okreslony jako zbior kierunkowprowadz ↪acych z y do wektorow dominowanych przez y, rozszerzony o wektor zero-wowy

D(y) = {d ∈ Y : y ≺d y + d} ∪ {0} (1.10)Zgodnie z wnioskiem 1.1 struktura racjonalnej dominacji ma postac

D(y) = {d ∈ Y : y ≤ y + d} ∪ {0} = {d ∈ Y : d>= 0}

czyli jest sta la (nie zalezy od wektora ocen y) i jest zawsze rowna nieujemnemuorthantowi. Rysunek 1.1 przedstawia D(y) zaczepiony w y, czyli zbior y +D(y).

6

-y1

y2

ty��������

��������

��������

��������

�������

������

�����

����

�����

�������

������

�����

����

���

��

Rysunek 1.1:Rys. 1.1. Struktura racjonalnej dominacji w R2

Relacja racjonalnej dominacji zazwyczaj nie spe lnia warunku spojnosci (1.6) idlatego nie generuje preporz ↪adku w zbiorze A (a jedynie cz ↪esciowy preporz ↪adek).Dlatego moze istniec wiele wektorow ocen minimalnych w sensie relacji racjonalnejdominacji, z ktorych zaden nie jest najmniejszy. To znaczy, na ogo l nie istniejewektor ocen dominuj ↪acy wszystkie pozosta le. Zatem relacja dominacji nie poz-wala na jednoznaczne okreslenie najlepszego wektora ocen. Umozliwia ona jedyniewyroznienie zbioru niezdominowanych wektorow ocen AN (elementy minimalne w

sensie relacji<=) w odroznieniu od zdominowanych wektorow ocen (pozosta le wek-

tory ze zbioru A). Zdominowane wektory ocen odpowiadaj ↪a oczywiscie decyzjomnieoptymalnym, poniewaz s ↪a one gorsze od innych osi ↪agalnych wektorow ocen wsensie kazdej racjonalnej relacji preferencji.

Definicja 1.6 Wektor ocen y ∈ A nazywamy (racjonalnie) niezdominowanymwtedy i tylko wtedy, gdy nie istnieje y′ ∈ A taki, ze y′ ≺r y.

Bezposrednio z definicji racjonalnej dominacji i wniosku 1.1 wynikaj ↪a nast ↪epu-j ↪ace charakterystyki niezdominowanych wektorow ocen.

Page 19: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.2. ROZWI ↪AZANIA EFEKTYWNE 21

Wniosek 1.3 Wektor ocen y0 ∈ A jest wektorem niezdominowanym wtedy i tylkowtedy, gdy istnieje racjonalna relacja preferencji � taka, ze dla zadnego y ∈ A niezachodzi y ≺ y0.

Wniosek 1.4 Wektor ocen y0 ∈ A jest wektorem niezdominowanym wtedy i tylkowtedy, gdy nie istnieje y ∈ A taki, ze y ≤ y0.

Twierdzenie 1.2 Jezeli zbior osi ↪agalnych wektorow ocen A 6= ∅ jest domkni ↪etyi istnieje wektor y∗ ∈ Y dominuj ↪acy wszystkie osi ↪agalne wektory ocen y ∈ A, toistnieje niezdominowany wektor ocen y0 ∈ A.

Dowod. Niech y′ ∈ A b ↪edzie dowolnym osi ↪agalnym wektorem ocen. Rozpatrzmyzbior A′ = {y ∈ A :

∑mi=1 yi ≤

∑mi=1 y′i}. Zbior A′ jest zawarty w zbiorze

Y0 = {y ∈ Y : yi ≥ y∗i dla i = 1, 2, . . . ,m,

m∑i=1

yi ≤m∑i=1

y′i}

Zatem A′ jest ograniczonym zbiorem domkni ↪etym i zadanie min {∑mi=1 yi : y ∈

A′} ma rozwi ↪azanie optymalne y0 ∈ A′. Co wi ↪ecej, dla kazdego y ∈ A praw-dziwa jest nierownosc

∑mi=1 y0

i ≤∑mi=1 yi, czyli y0 jest rowniez rozwi ↪azaniem

optymalnym zadania

min {m∑i=1

yi : y ∈ A} (1.11)

Zauwazmy, ze relacja preferencji definiowana przez minimalizacj ↪e (1.11) wyraza si ↪ewzorem

y′ � y′′ ⇔m∑i=1

y′i ≤m∑i=1

y′′i

i jest racjonaln ↪a relacj ↪a preferencji. Zatem, zgodnie z wnioskiem 1.3, y0 jest nie-zdominowanym wektorem ocen.

Twierdzenie 1.3 Wektor ocen y0 ∈ A jest wektorem niezdominowanym wtedy itylko wtedy, gdy istnieje spojna racjonalna relacja preferencji � taka, ze y0 � ydla wszystkich y ∈ A.

Dowod. Za lozmy, ze dla pewnej racjonalnej relacji preferencji y0 � y dla wszyst-kich y ∈ A. Wtedy na mocy wniosku 1.3 y0 jest niezdominowanym wektoremocen.

Niech y0 ∈ A b ↪edzie niezdominowanym wektorem ocen. Okreslmy relacj ↪e

y′ �o y′′ ⇔ maxi=1,...,m

(y′i − y0i ) < max

i=1,...,m(y′′i − y0

i ) lub(max

i=1,...,m(y′i − y0

i ) = maxi=1,...,m

(y′′i − y0i ) i

m∑i=1

y′i ≤m∑i=1

y′′i

)

Dla tak okreslonej relacji y0 �o y dla wszystkich y ∈ A. Latwo sprawdzic, zerelacja �o jest spojna, zwrotna i przechodnia. Ponadto, odpowiednia relacja ≺oprzyjmuje postac

Page 20: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

22 ROZDZIA L 1. WPROWADZENIE

y′ ≺o y′′ ⇔ maxi=1,...,m

(y′i − y0i ) < max

i=1,...,m(y′′i − y0

i ) lub(max

i=1,...,m(y′i − y0

i ) = maxi=1,...,m

(y′′i − y0i ) i

m∑i=1

y′i <

m∑i=1

y′′i

)

i spe lnia warunek scis lej monotonicznosci (1.5). Tym samym relacja �o jest racjo-naln ↪a relacj ↪a preferencji, co konczy dowod twierdzenia.

Poj ↪ecie niezdominowanych wektorow ocen dotyczy elementow przestrzeni ocenY . W wielokryterialnym problemie decyzyjnym interesuj ↪a nas raczej odpowiedniewektory dopuszczalne w przestrzeni decyzji X.

Definicja 1.7 Wektor dopuszczalny x ∈ Q nazywamy rozwi ↪azaniem efektywnym(Pareto–optymalnym, sprawnym) zadania wielokryterialnego (1.7) wtedy i tylkowtedy, gdy odpowiadaj ↪acy mu wektor ocen y = f(x) jest wektorem niezdomino-wanym.

Z wnioskow 1.3 i 1.4 i twierdzenia 1.3 wynikaj ↪a nast ↪epuj ↪ace charakterystykirozwi ↪azan efektywnych.

Wniosek 1.5 Wektor dopuszczalny x0 ∈ Q jest rozwi ↪azaniem efektywnym zada-nia wielokryterialnego (1.7) wtedy i tylko wtedy, gdy istnieje racjonalna relacja

preferencji � taka, ze dla zadnego x ∈ Q nie zachodzi f(x) ≺ f(x0).

Wniosek 1.6 Wektor dopuszczalny x0 ∈ Q jest rozwi ↪azaniem efektywnym zadaniawielokryterialnego (1.7) wtedy i tylko wtedy, gdy istnieje spojna racjonalna relacja

preferencji � taka, ze f(x0) � f(x) dla kazdego x ∈ Q.

Wniosek 1.7 Wektor dopuszczalny x0 ∈ Q jest rozwi ↪azaniem efektywnym zadaniawielokryterialnego (1.7) wtedy i tylko wtedy, gdy nie istnieje x ∈ Q taki, ze f(x) ≤f(x

0).

Wniosek 1.8 Dla dowolnej permutacji τ zbioru {1, 2, . . . ,m}, wektor x0 ∈ Q jestrozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdyjest rozwi ↪azaniem efektywnym zadania

min {(fτ(1)(x), fτ(2)(x), . . . , fτ(m)(x)) : x ∈ Q}

Wniosek 1.9 Dla dowolnych scisle rosn ↪acych funkcji si : R→ R (i = 1, 2, . . . ,m),wektor x0 ∈ Q jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7)wtedy i tylko wtedy, gdy jest rozwi ↪azaniem efektywnym zadania

min {(s1(f1(x)), s2(f2(x)), . . . , sm(fm(x))) : x ∈ Q}

Zauwazmy, ze zgodnie z wnioskami 1.8 i 1.9 efektywnosc rozwi ↪azania nie zalezyod kolejnosci uzytych funkcji oceny fi i od scisle monotonicznych zmian skal indy-widualnych ocen.

Page 21: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 23

Stanowi ↪ace g lowny przedmiot naszych rozwazan zadania WPL i WPLD maj ↪adomkni ↪ete zbiory rozwi ↪azan dopuszczalnych Q i liniowe funkcje oceny fi. Zatemdomkni ↪ete s ↪a odpowiednie zbiory ocen osi ↪agalnych A. Co wi ↪ecej, w przypadku re-gularnego zadania WPL lub WPLD zbior Q jest niepusty oraz istniej ↪a rozwi ↪azaniaoptymalne xi (i = 1, 2, . . . ,m) jednokryterialnych zadan (1.9). St ↪ad A 6= ∅ i

A ⊂ Y (y∗) = {y ∈ Y : y>= y∗}, gdzie y∗i = fi(x

i) dla i = 1, 2, . . . ,m. Z twier-dzenia 1.2 wynika wi ↪ec nast ↪epuj ↪acy wniosek.

Wniosek 1.10 Regularne zadania WPL i WPLD maj ↪a rozwi ↪azania efektywne.

Wniosek 1.5 identyfikuje rozwi ↪azania efektywne zadania wielokryterialnego jakoelementy minimalne racjonalnej relacji preferencji. Zgodnie z definicj ↪a 1.1 racjo-nalna relacja preferencji spe lnia warunki zwrotnosci, przechodniosci i scis lej mono-tonicznosci na ca lej przestrzeni ocen Y . W przypadku konkretnego zadania wielo-kryterialnego o ustalonym zbiorze dopuszczalnym Q i zbiorze ocen osi ↪agalnych Anie ma potrzeby rozpatrywania relacji preferencji okreslonych na ca lej przestrzeniY .

Twierdzenie 1.4 Jezeli A ⊂ Y (y∗) = {y ∈ Y : y>= y∗} dla pewnego y∗ ∈

Y i istnieje relacja preferencji � spe lniaj ↪aca warunki zwrotnosci, przechodnioscioraz scis lej monotonicznosci na zbiorze Y (y∗) taka, ze dla zadnego x ∈ Q nie

zachodzi f(x) ≺ f(x0), to wektor x0 ∈ Q jest rozwi ↪azaniem efektywnym zadania

wielokryterialnego (1.7).

Dowod. Przypuscmy, ze x0 nie jest rozwi ↪azaniem efektywnym. Na mocy wniosku1.7 istnieje wtedy x ∈ Q taki, ze f(x) ≤ f(x

0). Niech I0 = {i ∈ I : fi(x) < fi(x

0)}.Zauwazmy, ze f(x) = f(x

0) −

∑i∈I0(fi(x) − fi(x0))ei oraz dla dowolnego J ⊂ I0

wektor ocen f(x0)−∑i∈J(fi(x)−fi(x0))ei nalezy do zbioru Y (y∗). Zatem, dzi ↪eki

przechodniosci i scis lej monotonicznosci relacji � na zbiorze Y (y∗), otrzymujemy

f(x) ≺ f(x0), co przeczy za lozeniu twierdzenia.

Twierdzenie 1.5 Jezeli istnieje relacja preferencji � spe lniaj ↪aca na zbiorze ocenosi ↪agalnych A warunek

y′ ≤ y′′ ⇒ y′ ≺ y′′ (1.12)

taka, ze dla zadnego x ∈ Q nie zachodzi f(x) ≺ f(x0), to wektor x0 ∈ Q jest

rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Dowod. Przypuscmy, ze x0 nie jest rozwi ↪azaniem efektywnym. Na mocy wniosku1.7 istnieje wtedy x ∈ Q taki, ze f(x) ≤ f(x

0). Zatem, dzi ↪eki (1.12), f(x) ≺ f(x

0),

co przeczy za lozeniu twierdzenia.

1.3 Techniki skalaryzacji

Zgodnie z wnioskiem 1.6 pojedyncze rozwi ↪azania efektywne zadania wielokryte-rialnego mozna wyznaczac poszukuj ↪ac w zbiorze ocen osi ↪agalnych A wektorow naj-mniejszych w sensie pewnej spojnej racjonalnej relacji preferencji. W szczegolnosci,

Page 22: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

24 ROZDZIA L 1. WPROWADZENIE

mozna w tym celu rozwi ↪azywac skalaryzacje zadania wielokryterialnego, czyli za-dania optymalizacji jednokryterialnej z funkcj ↪a skalaryzuj ↪ac ↪a s : Rm → R

min {s(f1(x), f2(x), . . . , fm(x)) : x ∈ Q} (1.13)

Minimalizacja funkcji skalaryzuj ↪acej s definiuje relacj ↪e preferencji

y′ �s y′′ ⇔ s(y′) ≤ s(y′′) (1.14)

Zauwazmy, ze relacja �s jest zawsze spojna, zwrotna i przechodnia. Nast ↪epuj ↪acetwierdzenie dostarcza prostego warunku dostatecznego na to, by rozwi ↪azanie opty-malne skalaryzowanego zadania (1.13) by lo rozwi ↪azaniem efektywnym oryginalnegozadania wielokryterialnego.

Twierdzenie 1.6 Jezeli funkcja skalaryzuj ↪aca s : Rm → R definiuje relacj ↪e prefe-rencji �s spe lniaj ↪ac ↪a warunek scis lej monotonicznosci (1.5), to rozwi ↪azanie opty-malne zadania (1.13) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego(1.7).

Dowod. Dla dowolnej funkcji s : Rm → R relacja preferencji�s zdefiniowana wzo-rem (1.14) jest zwrotna, przechodnia i spojna. Jezeli relacja �s spe lnia warunekscis lej monotonicznosci (1.5), to jest racjonaln ↪a relacj ↪a preferencji. Rozwi ↪azanie

optymalne x0 zadania (1.13) spe lnia warunek f(x0) �s f(x) dla kazdego x ∈ Q.

Zatem na mocy wniosku 1.6 x0 jest rozwi ↪azaniem efektywnym zadania wielokryte-rialnego (1.7).

Twierdzenie 1.6 dotyczy sytuacji, gdy funkcja skalaryzuj ↪aca definiuje relacj ↪epreferencji spe lniaj ↪ac ↪a warunek scis lej monotonicznosci na ca lej przestrzeni Y .Odpowiednia skalaryzacja (1.13) pozwala nam wtedy wyznaczyc rozwi ↪azanie efek-tywne dla dowolnego zadania wielokryterialnego (1.7). W przypadku konkretnegozadania wielokryterialnego moze wystarczac, ze funkcja skalaryzuj ↪aca definiuje re-lacj ↪e preferencji spe lniaj ↪ac ↪a warunek scis lej monotonicznosci na pewnym zbiorzeD ⊂ Y , czyli

y − εei ≺ y dla ε > 0, (y − εei), y ∈ D, i = 1, 2, . . . ,m (1.15)

Twierdzenie 1.7 Jezeli istnieje y∗ ∈ Y taki, ze A ⊂ Y (y∗) = {y ∈ Y : y>= y∗}

oraz funkcja skalaryzuj ↪aca s : Rm → R definiuje relacj ↪e preferencji �s spe lniaj ↪ac ↪awarunek scis lej monotonicznosci (1.15) na zbiorze Y (y∗), to rozwi ↪azanie optymalnezadania (1.13) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Dowod. Dla dowolnej funkcji s : Rm → R relacja preferencji �s zdefiniowanawzorem (1.14) jest zwrotna i przechodnia. Jezeli relacja �s spe lnia warunek scis lejmonotonicznosci (1.5) na zbiorze Y (y∗), to spe lnione s ↪a za lozenia twierdzenia 1.4.Zatem na mocy twierdzenia 1.4 x0 jest rozwi ↪azaniem efektywnym zadania wielo-kryterialnego (1.7).

Cz ↪esto funkcje skalaryzuj ↪ace definiuj ↪a relacje preferencji nie spe lniaj ↪ace wa-runku scis lej monotonicznosci (1.5), a jedynie warunek s labej monotonicznosci

y − εei � y dla ε > 0, i = 1, 2, . . . ,m (1.16)

S ↪a to rowniez interesuj ↪ace skalaryzacje, poniewaz jest dla nich prawdziwe nast ↪epu-j ↪ace twierdzenie.

Page 23: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 25

Twierdzenie 1.8 Jezeli funkcja skalaryzuj ↪aca s : Rm → R definiuje relacj ↪e pre-ferencji �s spe lniaj ↪ac ↪a warunek s labej monotonicznosci (1.16), to zbior rozwi ↪azanoptymalnych zadania (1.13) zawiera rozwi ↪azanie efektywne zadania wielokryterial-nego (1.7).

Dowod. Niech x0 ∈ Q b ↪edzie rozwi ↪azaniem optymalnym zadania (1.13). Jezeli

x0 nie jest rozwi ↪azaniem efektywnym, to istnieje x ∈ Q taki, ze f(x) ≤ f(x0). Na

mocy (s labej) monotonicznosci i przechodniosci relacji �s prawdziwa jest wtedy

nierownosc s(f(x)) ≤ s(f(x0)). Oznacza to, ze wektor x jest rozwi ↪azaniem opty-

malnym zadania (1.13). Zatem nie istnieje wektor x ∈ Q nie nalez ↪acy do zbioru

rozwi ↪azan optymalnych zadania (1.13) taki, ze f(x) ≤ f(x0), co dowodzi praw-

dziwosc tezy twierdzenia.

Wniosek 1.11 Jezeli funkcja skalaryzuj ↪aca s : Rm → R definiuje relacj ↪e prefe-rencji �s spe lniaj ↪ac ↪a warunek s labej monotonicznosci (1.16), to jednoznaczne wprzestrzeni ocen Y rozwi ↪azanie optymalne zadania (1.13) jest rozwi ↪azaniem efek-tywnym zadania wielokryterialnego (1.7).

Wniosek 1.12 Jezeli istnieje y∗ ∈ Y taki, ze A ⊂ Y (y∗) = {y ∈ Y : y>= y∗}

oraz funkcja skalaryzuj ↪aca s : Rm → R definiuje relacj ↪e preferencji �s spe lniaj ↪ac ↪awarunek s labej monotonicznosci na zbiorze Y (y∗), to zbior rozwi ↪azan optymal-nych zadania (1.13) zawiera rozwi ↪azanie efektywne zadania wielokryterialnego (1.7)i jednoznaczne w przestrzeni ocen Y rozwi ↪azanie optymalne zadania (1.13) jestrozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Zgodnie z twierdzeniem 1.8 zbior rozwi ↪azan optymalnych skalaryzacji (1.13)definiuj ↪acej relacj ↪e preferencji spe lniaj ↪acej jedynie warunek s labej monotonicznoscizawiera rozwi ↪azanie efektywne zadania wielokryterialnego (1.7). Moze on jednakzawierac rowniez pewne nieefektywne rozwi ↪azania optymalne, a standardowe pro-cedury obliczeniowe optymalizacji jednokryterialnej wyznaczaj ↪a na ogo l tylko jednorozwi ↪azanie optymalne (ktore moze byc nieefektywne). Dla praktycznego wykorzy-stania tych skalaryzacji w systemie wspomagania decyzji potrzebne jest uscisleniewyboru rozwi ↪azania optymalnego tak, aby zagwarantowac efektywnosc wyznaczo-nego rozwi ↪azania. Takie uscislenie b ↪edziemy dalej nazywac regularyzacj ↪a skalary-zacji. Zauwazmy, ze skalaryzacja polegaj ↪aca na wyborze jednej ustalonej funkcjioceny fj (j ∈ I), czyli s(y) = yj , spe lnia za lozenia twierdzenia 1.8. Zatem dlazadan optymalizacji jednokryterialnej

min {(fj(x) : x ∈ Q}, j ∈ I (1.17)

prawdziwy jest nast ↪epuj ↪acy wniosek.

Wniosek 1.13 Zbior rozwi ↪azan optymalnych zadania (1.17) zawiera rozwi ↪azanieefektywne zadania wielokryterialnego (1.7), a jednoznaczne w przestrzeni ocen Yrozwi ↪azanie optymalne zadania (1.17) jest rozwi ↪azaniem efektywnym zadania wie-lokryterialnego (1.7).

Page 24: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

26 ROZDZIA L 1. WPROWADZENIE

Szczegolnym przypadkiem skalaryzuj ↪acej funkcji celu spe lniaj ↪acej za lozeniatwierdzenia 1.6 jest suma indywidualnych funkcji oceny, ktora prowadzi do zadaniapostaci

min {m∑i=1

fi(x) : x ∈ Q} (1.18)

Wniosek 1.14 Rozwi ↪azanie optymalne zadania (1.18) jest rozwi ↪azaniem efektyw-nym zadania wielokryterialnego (1.7).

Powszechnie stosowan ↪a technik ↪a wyznaczania rozwi ↪azan efektywnych jest me-toda wazenia ocen oparta na skalaryzacji za pomoc ↪a liniowych kombinacji funkcjioceny, czyli na wyznaczaniu rozwi ↪azan optymalnych skalaryzacji postaci

min {m∑i=1

wifi(x) : x ∈ Q} (1.19)

Poprawnosc takiego podejscia wynika z twierdzenia 1.9 i wniosku 1.14.

Wniosek 1.15 Dla dowolnych dodatnich wag wi (i = 1, 2, . . . ,m) rozwi ↪azanieoptymalne zadania (1.19) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego(1.7).

Metoda wazenia ocen z odpowiednio dobieranymi wagami pozwala na wyznacze-nie dowolnego rozwi ↪azania efektywnego wielokryterialnego zadania programowanialiniowego. Prawdziwe jest bowiem nast ↪epuj ↪ace twierdzenie (por. Steuer, 1986).

Twierdzenie 1.9 Dla kazdego x0 rozwi ↪azania efektywnego zadania WPL istniej ↪adodatnie wagi wi (i = 1, 2, . . . ,m) takie, ze x0 jest rozwi ↪azaniem optymalnym od-powiedniego zadania (1.19).

Metoda wazenia ocen jest bardzo atrakcyjn ↪a skalaryzacj ↪a, poniewaz funkcjaskalaryzuj ↪aca jest tu liniowa i dlatego nie wprowadza zadnych utrudnien oblicze-niowych do zadan WPL i WPLD. To znaczy, skalaryzacja (1.19) zadania WPLjest zadaniem programowania liniowego i odpowiednio skalaryzacja (1.19) zadaniaWPLD jest zadaniem PLD. Niestety twierdzenie 1.9 dotyczy tylko wielokryterial-nych zadan programowania liniowego i nie jest prawdziwe w przypadku ogolnychzadan optymalizacji wielokryterialnej. W szczegolnosci twierdzenie to nie jest praw-dziwe w przypadku interesuj ↪acych nas zadan WPLD. Dok ladniej, w przypadkuzadania WPLD mog ↪a istniec rozwi ↪azania efektywne, ktore nie s ↪a rozwi ↪azaniamioptymalnymi zadania

min {m∑i=1

si(fi(x)) : x ∈ Q} (1.20)

dla zadnych scisle rosn ↪acych liniowych funkcji si : R → R (i = 1, 2, . . . ,m). Ilus-truje to nast ↪epuj ↪acy prosty przyk lad.

Przyk lad 1.2. Rozpatrzmy dwukryterialne zagadnienie optymalnego za ladunku

min {(3x1 +2x2, 2x2 +3x3) : x1 +x2 +x3 = 1, xj ≥ 0, xj ∈ Z dla j = 1, 2, 3}

Page 25: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 27

Zadanie to ma trzy rozwi ↪azania dopuszczalne: (1,0,0), (0,1,0) i (0,0,1), z wekto-rami ocen odpowiednio: (3,0), (2,2) i (0,3). Jak latwo sprawdzic, wszystkie trzywektory ocen s ↪a niezdominowane i, co za tym idzie, wszystkie trzy rozwi ↪azania do-puszczalne s ↪a efektywne. Pokazemy, ze (0,1,0) nie jest rozwi ↪azaniem optymalnymodpowiedniego zadania (1.20) dla zadnych scisle rosn ↪acych liniowych funkcji s1 is2.

Przypuscmy, ze (0,1,0) jest rozwi ↪azaniem optymalnym zadania (1.20) dla pew-nych funkcji

s1(y1) = α1y1 + β1, s2(y2) = α2y2 + β2, α1, α2 > 0

Spe lnione s ↪a wtedy nierownosci

2α1 + β1 + 2α2 + β2 ≤ β1 + 3α2 + β2

2α1 + β1 + 2α2 + β2 ≤ 3α1 + β1 + β2

St ↪ad 4(α1 + α2) ≤ 3(α1 + α2), co przeczy warunkowi α1, α2 > 0. Zatem (0,1,0)nie jest rozwi ↪azaniem optymalnym zadania (1.20) dla zadnych scisle rosn ↪acychliniowych funkcji s1 i s2. �

Zadania programowania liniowego dyskretnego s ↪a w ogolnym przypadku istotnietrudniejsze od zadan programowania liniowego. Istnieje jednak obszerna klasa (jed-nokryterialnych) zadan PLD, ktore mog ↪a byc rozwi ↪azywane jak zwyk le zadania PL.S ↪a to tzw. zadania unimodularne, obejmuj ↪ace mi ↪edzy innymi problem przydzia lu iszereg innych zagadnien optymalizacji na grafach (por. Nemhauser i Wolsey, 1988;Walukiewicz, 1986). W zadaniach tych macierz A spe lnia warunek ca lkowitej uni-modularnosci (wszystkie nieosobliwe kwadratowe podmacierze maj ↪a wyznacznikirowne 1 lub −1), co gwarantuje, ze dla dowolnego ca lkowitego wektora prawychstron b wszystkie wierzcho lki zbioru dopuszczalnegoQmaj ↪a ca lkowite wspo lrz ↪edne.Zbior rozwi ↪azan optymalnych zadania dyskretnego jest wtedy ca lkowicie zawarty wzbiorze rozwi ↪azan optymalnych ci ↪ag lej relaksacji zadania PLD (zadania PL otrzy-manego przez pomini ↪ecie warunkow ca lkowitoliczbowosci zmiennych) i kazde wierz-cho lkowe rozwi ↪azanie optymalne zadania ci ↪ag lego jest jednoczesnie rozwi ↪azaniemoptymalnym oryginalnego problemu dyskretnego. Oznacza to, ze w unimodu-larnych jednokryterialnych zadaniach PLD mozna po prostu pomin ↪ac warunkica lkowitoliczbowosci zmiennych i wyznaczac wierzcho lkowe rozwi ↪azania optymalne(np. metod ↪a sympleks) odpowiednich ci ↪ag lych zadan PL.

W przypadku zadan WPLD unimodularnosc modelu nie upraszcza tak bar-dzo zadania jak w optymalizacji jednokryterialnej. Zbior rozwi ↪azan efektywnychunimodularnego problemu WPLD moze nie byc zawarty w zbiorze rozwi ↪azanefektywnych ci ↪ag lej relaksacji tego zadania. Nawet w przypadku, gdy wszystkierozwi ↪azania dopuszczalne problemu WPLD s ↪a wierzcho lkowymi rozwi ↪azaniami do-puszczalnymi ci ↪ag lej relaksacji, moze si ↪e zdarzyc, ze pewne rozwi ↪azanie efektywnezadania WPLD nie jest rozwi ↪azaniem efektywnym odpowiedniego problemu WPL.Wynika to z faktu, ze wierzcho lek zbioru dopuszczalnego Q moze byc rozwi ↪azaniemefektywnym w zbiorze wszystkich wierzcho lkow, ale nie byc rozwi ↪azaniem efektyw-nym w przypadku ca lego zbioru Q. Tak ↪a sytuacj ↪e ilustruje przyk lad 1.2. Za-

Page 26: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

28 ROZDZIA L 1. WPROWADZENIE

uwazmy, ze zbiorem rozwi ↪azan efektywnych ci ↪ag lej relaksacji problemu rozpatry-wanego w przyk ladzie jest odcinek l ↪acz ↪acy wierzcho lki (1,0,0) i (0,0,1) (wraz ztymi wierzcho lkami). Rozwazane rozwi ↪azanie efektywne problemu WPLD (0,1,0)nie nalezy do zbioru rozwi ↪azan efektywnych ci ↪ag lej relaksacji. Dlatego tez, inaczejniz w programowaniu jednokryterialnym, unimodularne zadania WPLD nie mog ↪abyc zast ↪apione swoimi ci ↪ag lymi relaksacjami.

Minimalizacja funkcji skalaryzuj ↪acej w postaci sumy poszczegolnych funkcjioceny (1.18) moze byc interpretowana jako wyznaczanie rozwi ↪azania o najlepszejsredniej ocenie. Podobnie mozna rozpatrywac minimalizacj ↪e najgorszej oceny, czyliskalaryzacj ↪e minimaksow ↪a

min { maxi=1,...,m

fi(x) : x ∈ Q} (1.21)

Funkcja skalaryzuj ↪aca maxi=1,...,m fi(x) nie jest funkcj ↪a liniow ↪a. W przypadkuliniowych funkcji fi jest ona jednak wypuk l ↪a funkcj ↪a kawa lkami liniow ↪a i dlategominimalizacja (1.21) moze byc zapisana za pomoc ↪a zaleznosci liniowych

min z

pod warunkiem, ze x ∈ Qfi(x) ≤ z dla i = 1, 2, . . . ,m

Tym samym skalaryzacja (1.21) zadania WPL jest zadaniem PL i odpowiednio ska-laryzacja (1.21) zadania WPLD jest zadaniem PLD. Ponadto w przypadku zadanWPL istnieje mozliwosc implementacji metody sympleks z niejawn ↪a reprezentacj ↪aminimaksowej funkcji celu bez wprowadzania dodatkowych nierownosci do ograni-czen zadania (Ogryczak i Zorychta, 1994).

Relacja preferencji definiowana przez zadanie (1.21)

y′ � y′′ ⇔ maxi=1,...,m

y′i ≤ maxi=1,...,m

y′′i (1.22)

nie spe lnia warunku scis lej monotonicznosci (1.5). Tym samym minimaksowa ska-laryzacja (1.21) nie spe lnia za lozen twierdzenia 1.6. Niemniej jednak jest to inte-resuj ↪aca skalaryzacja, poniewaz prawdziwe s ↪a dla niej nast ↪epuj ↪ace zaleznosci.

Twierdzenie 1.10 Zbior rozwi ↪azan optymalnych zadania (1.21) zawiera rozwi ↪a-zanie efektywne zadania wielokryterialnego (1.7).

Dowod. Relacja preferencji (1.22) spe lnia warunek s labej monotonicznosci (1.16).Zatem na mocy twierdzenia 1.8 zbior rozwi ↪azan optymalnych zadania (1.21) za-wiera rozwi ↪azanie efektywne zadania wielokryterialnego (1.7).

Wniosek 1.16 Jednoznaczne w przestrzeni ocen Y rozwi ↪azanie optymalne zadania(1.21) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Skalaryzacj ↪e minimaksow ↪a (1.21), podobnie jak skalaryzacj ↪e (1.18), mozna roz-patrywac z wagami. Ogolniej, mozemy wprowadzic do skalaryzacji minimaksowejfunkcje si : R → R (i = 1, 2, . . . ,m) skaluj ↪ace oceny, czyli rozpatrywac zadaniepostaci

min { maxi=1,...,m

si(fi(x)) : x ∈ Q} (1.23)

Page 27: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 29

Twierdzenie 1.11 Jezeli funkcje si : R → R (i = 1, 2, . . . ,m) s ↪a scisle rosn ↪ace idla pewnego y0 ∈ Y spe lniaj ↪a warunek

s1(y01) = s2(y0

2) = · · · = sm(y0m) (1.24)

to dla kazdego y ∈ Y prawdziwa jest implikacja

y 6<= y0 ⇒ maxi=1,...,m

si(y0i ) < max

i=1,...,msi(yi) (1.25)

Dowod. Jezeli y 6<= y0, to istnieje indeks i0 taki, ze yi > y0i . Zatem, korzystaj ↪ac

z warunku (1.24) i faktu, ze funkcje si s ↪a scisle rosn ↪ace, otrzymujemy

maxi=1,...,m

si(y0i ) = si0(y0

i0) < si0(yi0) ≤ maxi=1,...,m

si(yi)

Wniosek 1.17 Jezeli funkcje si : R → R (i = 1, 2, . . . ,m) s ↪a scisle rosn ↪ace i dlapewnego y0 ∈ Y spe lniaj ↪a warunek (1.24), to relacja preferencji � definiowanaprzez zadanie (1.23) spe lnia warunek

y 6�r y0 ⇒ y0 ≺ y (1.26)

Twierdzenie 1.12 Rozwi ↪azanie efektywne x0 zadania wielokryterialnego (1.7)jest jednoznacznym w przestrzeni ocen rozwi ↪azaniem optymalnym zadania (1.23) zfunkcjami skaluj ↪acymi postaci

si(yi) = yi − fi(x0) dla i = 1, 2, . . . ,m (1.27)

Dowod. Funkcje si okreslone wzorem (1.27) s ↪a scisle rosn ↪ace i spe lniaj ↪a waru-

nek (1.24) dla y0 = f(x0). Zatem spe lnione s ↪a za lozenia twierdzenia 1.11. Jed-

noczesnie z efektywnosci wektora x0 wynika, ze nie istnieje x ∈ Q spe lniaj ↪acynierownosc f(x) ≤ f(x

0) (por. wniosek 1.7). St ↪ad na mocy twierdzenia 1.11

maxi=1,...,m si(fi(x0)) < maxi=1,...,m si(fi(x)) dla kazdego x ∈ Q takiego, ze

f(x) 6= f(x0). Zatem x0 jest jednoznacznym w przestrzeni ocen rozwi ↪azaniem

optymalnym odpowiedniego zadania (1.23).

Twierdzenie 1.13 Jezeli dla wszystkich osi ↪agalnych wektorow ocen y ∈ Y praw-dziwa jest nierownosc y∗ < y, to dla kazdego rozwi ↪azania efektywnego x0 zadaniawielokryterialnego (1.7) istniej ↪a dodatnie wagi wi (i = 1, 2, . . . ,m) takie, ze x0

jest jednoznacznym w przestrzeni ocen rozwi ↪azaniem optymalnym zadania (1.23) zfunkcjami skaluj ↪acymi postaci

si(yi) = wi(yi − y∗i ) dla i = 1, 2, . . . ,m (1.28)

Dowod. Z za lozen twierdzenia wynika, ze mozna przyj ↪ac wi = 1/(fi(x0) − y∗i ).

Przy tak okreslonych wagach wi, funkcje si okreslone wzorem (1.28) s ↪a scisle ros-

n ↪ace i spe lniaj ↪a warunek (1.24) dla y0 = f(x0). Zatem spe lnione s ↪a za lozenia

twierdzenia 1.11. Jednoczesnie z efektywnosci wektora x0 wynika, ze nie istniejex ∈ Q spe lniaj ↪acy nierownosc f(x) ≤ f(x

0) (por. wniosek 1.7). St ↪ad na mocy

twierdzenia 1.11 maxi=1,...,m si(fi(x0)) < maxi=1,...,m si(fi(x)) dla kazdego x ∈ Q

takiego, ze f(x) 6= f(x0). Zatem x0 jest jednoznacznym w przestrzeni ocen rozwi ↪a-

zaniem optymalnym odpowiedniego zadania (1.23).

Page 28: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

30 ROZDZIA L 1. WPROWADZENIE

Wniosek 1.18 Dla kazdego x0 rozwi ↪azania efektywnego zadania wielokryterial-nego (1.7) istniej ↪a scisle rosn ↪ace funkcje liniowe si : R → R (i = 1, 2, . . . ,m)takie, ze x0 jest rozwi ↪azaniem optymalnym zadania (1.23).

Wprowadzaj ↪ac skalaryzacj ↪e (1.13) zadania wielokryterialnego okreslamy w prze-strzeni ocen Y spojn ↪a, zwrotn ↪a i przechodni ↪a relacj ↪e preferencji (1.14). Zgodniez twierdzeniem 1.6, jezeli relacja (1.14) spe lnia warunek scis lej monotonicznosci,to rozwi ↪azanie optymalne skalaryzacji (1.13) jest rozwi ↪azaniem efektywnym za-dania wielokryterialnego. Istotn ↪a zalet ↪a skalaryzacji (1.13) jest mozliwosc wyko-rzystania standardowych metod programowania matematycznego do wyznaczaniajej rozwi ↪azania optymalnego. Zauwazmy, ze mozliwosc praktycznego wyznaczeniarozwi ↪azania optymalnego (najmniejszego) dotyczy nie tylko skalaryzacji (1.13), alerowniez szeregu innych preporz ↪adkow liniowych. W skalaryzacji (1.13) dokonu-jemy odwzorowania s : Y → R i poszukujemy elementu s(y) ∈ R najmniejszegow sensie porz ↪adku okreslonego nierownosci ↪a ≤. Rownie dobrze mozna rozpatrywacodwzorowania s : Y → Rp i poszukiwac wektora s(y) ∈ Rp najmniejszego w sensiepewnego porz ↪adku okreslonego na Rp. Szczegolnie cz ↪esto wykorzystuje si ↪e w ta-kim podejsciu porz ↪adek leksykograficzny okreslony na przestrzeni Rp relacj ↪a ≤lexzdefiniowan ↪a nast ↪epuj ↪aco

v′ <lex v′′ ⇔ istnieje indeks r taki, ze v′r < v′′r oraz v′k = v′′k dla k < r

v′ ≤lex v′′ ⇔ v′ <lex v′′ lub v′ = v′′

Relacja nierownosci leksykograficznej ≤lex jest zwrotna, przechodnia, spojna iantysymetryczna

(y′ � y′′ i y′′ � y′) ⇒ y′ = y′′

Definiuje ona zatem porz ↪adek liniowy.Jako uogolnienie skalaryzacji (1.13) b ↪edziemy rozpatrywac skalaryzacje leksy-

kograficzne, czyli zadania postaci

lexmin {(s1(f(x)), s2(f(x)), . . . , sp(f(x))) : x ∈ Q} (1.29)

Poniewaz wyst ↪epuj ↪acy w zapisie zadania (1.29) operator minimum leksykograficz-nego jednoznacznie okresla, ze jest to skalaryzacja leksykograficzna, to tam, gdzienie b ↪edzie to prowadzic do niejasnosci, zadanie typu (1.29) b ↪edziemy nazywacpo prostu skalaryzacj ↪a wielokryterialnego zadania (1.7). Zadanie leksykograficzne(1.29) okresla nast ↪epuj ↪acy ci ↪ag zadan skalarnych:

1. Wyznaczamy zbior S1 rozwi ↪azan optymalnych zadania

P1 : min {s1(f(x)) : x ∈ Q}

2. Dla k = 2, 3, . . . , p wyznaczamy zbior Sk rozwi ↪azan optymalnych zadania

Pk : min {sk(f(x)) : x ∈ Q, x ∈ Sk−1}

3. Kazdy element zbioru Sp jest rozwi ↪azaniem optymalnym zadania leksykogra-ficznego (1.29).

Page 29: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 31

Najprostsz ↪a technik ↪a definiowania zbiorow Sk jest zapisywanie ich za pomoc ↪awarunkow

st(f(x)) = zt dla t = 1, 2, . . . , k (1.30)gdzie zt jest wartosci ↪a optymaln ↪a funkcji celu w zadaniu Pt. Prowadzi ona dotzw. podejscia sekwencyjnego, czyli rozwi ↪azywania ci ↪agu zadan o rosn ↪acej liczbieograniczen. Podejscie sekwencyjne moze byc latwo stosowane do dowolnych typowproblemow (zarowno liniowych, jak i nieliniowych) i implementowane z wykorzysta-niem standardowych procedur optymalizacji jednokryterialnej odpowiedniego typu.Przyk lad prostego programu steruj ↪acego implementuj ↪acego podejscie sekwencyjnew pakiecie MPSX zosta l przedstawiony w ksi ↪azce Ogryczaka (1989, rozdzia l 14).

Skalaryzacja leksykograficzna (1.29) definiuje relacj ↪e preferencji

y′ � y′′ ⇔ s(y′) ≤lex s(y′′) (1.31)

Zauwazmy, ze relacja (1.31) jest zawsze spojna, zwrotna i przechodnia. Nast ↪epuj ↪acetwierdzenie dostarcza prostego warunku dostatecznego na to, by rozwi ↪azanie opty-malne skalaryzacji leksykograficznej (1.29) by lo rozwi ↪azaniem efektywnym orygi-nalnego zadania wielokryterialnego.

Twierdzenie 1.14 Jezeli skalaryzacja leksykograficzna (1.29) definiuje relacj ↪epreferencji (1.31) spe lniaj ↪ac ↪a warunek scis lej monotonicznosci (1.5), to rozwi ↪azanieoptymalne zadania (1.29) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego(1.7).

Dowod. Dla dowolnej funkcji wektorowej s : Rm → Rp relacja preferencji �zdefiniowana wzorem (1.31) jest zwrotna, przechodnia i spojna. Jezeli relacja �spe lnia warunek scis lej monotonicznosci (1.5), to jest racjonaln ↪a relacj ↪a preferencji.

Rozwi ↪azanie optymalne x0 zadania (1.29) spe lnia warunek f(x0) � f(x) dla kazdego

x ∈ Q. Zatem na mocy wniosku 1.6 x0 jest rozwi ↪azaniem efektywnym zadaniawielokryterialnego (1.7).

Najprostsz ↪a skalaryzacj ↪a leksykograficzn ↪a zadania wielokryterialnego (1.7) jestzadanie

lexmin {(f1(x), f2(x), . . . , fm(x)) : x ∈ Q} (1.32)czyli zadanie z ustalon ↪a hierarchi ↪a waznosci fukcji oceny.

Twierdzenie 1.15 Rozwi ↪azanie optymalne zadania leksykograficznego (1.32) jestrozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Dowod. Zadanie (1.32) definiuje relacj ↪e preferencji � okreslon ↪a wzorem

y′ � y′′ ⇔ y′ ≤lex y′′

Relacja ta jest zwrotna, przechodnia i spe lnia warunek scis lej monotonicznosci(1.5), czyli jest racjonaln ↪a relacj ↪a preferencji. Rozwi ↪azanie optymalne x0 zadania

(1.32) spe lnia warunek f(x0) � f(x) dla kazdego x ∈ Q. Zatem na mocy wniosku

1.6 x0 jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Wniosek 1.19 Dla dowolnej permutacji τ zbioru I = {1, 2, . . . ,m} rozwi ↪azanieoptymalne zadania leksykograficznego

lexmin {(fτ(1)(x), fτ(2)(x), . . . , fτ(m)(x)) : x ∈ Q} (1.33)

jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Page 30: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

32 ROZDZIA L 1. WPROWADZENIE

Twierdzenie 1.16 Dla dowolnej permutacji τ zbioru I = {1, 2, . . . ,m} i dowol-nego 1 ≤ p ≤ m, zbior rozwi ↪azan optymalnych zadania

lexmin {(fτ(1)(x), fτ(2)(x), . . . , fτ(p)(x)) : x ∈ Q} (1.34)

zawiera rozwi ↪azanie efektywne zadania wielokryterialnego (1.7), a jednoznaczne wprzestrzeni ocen Y rozwi ↪azanie optymalne zadania (1.34) jest rozwi ↪azaniem efek-tywnym zadania wielokryterialnego (1.7).

Dowod. Zadanie (1.34) definiuje relacj ↪e preferencji � okreslon ↪a wzorem

y′ � y′′ ⇔ (y′τ(1), y′τ(2), . . . , y

′τ(p)) ≤lex (y′′τ(1), y

′′τ(2), . . . , y

′′τ(p))

Relacja ta jest zwrotna, przechodnia i spe lnia warunek s labej monotonicznosci(1.16).

Niech x0 ∈ Q b ↪edzie rozwi ↪azaniem optymalnym zadania (1.34). Jezeli x0 nie

jest rozwi ↪azaniem efektywnym, to istnieje x ∈ Q taki, ze f(x) ≤ f(x0). Na mocy

s labej monotonicznosci i przechodniosci relacji � prawdziwa jest wtedy nierownosc

(fτ(1)(x), fτ(2)(x), . . . , fτ(p)(x)) ≤lex (fτ(1)(x0), fτ(2)(x

0), . . . , fτ(p)(x0))

Oznacza to, ze wektor x jest rozwi ↪azaniem optymalnym zadania (1.34). Zatem nieistnieje wektor x ∈ Q nie nalez ↪acy do zbioru rozwi ↪azan optymalnych zadania (1.34)

taki, ze f(x) ≤ f(x0), co dowodzi prawdziwosci tezy twierdzenia.

Zauwazmy, ze rozwi ↪azanie optymalne zadania leksykograficznego (1.33) jesttez rozwi ↪azaniem optymalnym zadania jednokryterialnego (1.17) z j = τ(1).Dok ladniej, zadanie optymalizacji jednokryterialnej (1.17) jest cz ↪esciowym zada-niem leksykograficznym (1.34) z p = 1. Zadanie (1.33) jest zatem regularyzacj ↪aleksykograficzn ↪a odpowiedniego zadania optymalizacji jednokryterialnej. Zgodniez wnioskiem 1.13 rozwi ↪azuj ↪ac zadanie jednokryterialne (1.17) mozna zawsze wy-generowac rozwi ↪azanie efektywne problemu wielokryterialnego (1.7). Jezeli jednakwybieramy jedno z rozwi ↪azan optymalnych, to moze sie zdarzyc, ze (w przypadkuniejednoznacznosci rozwi ↪azan optymalnych) wybrane rozwi ↪azanie optymalne zada-nia (1.17) nie jest rozwi ↪azaniem efektywnym zadania (1.7). Koncepcja optymaliza-cji leksykograficznej moze byc wykorzystana do regularyzacji zadania jednokryte-rialnego (1.17). Jedno zadanie (1.17) moze byc regularyzowane za pomoc ↪a roznychzadan (1.33), odpowiadaj ↪acych roznym permutacjom pozosta lych funkcji oceny.Istnieje mozliwosc prostszej regularyzacji zadania optymalizacji jednokryterialnejza pomoc ↪a dwupoziomowego zadania leksykograficznego

lexmin {(fi0(x),

m∑i=1

fi(x)) : x ∈ Q}, i0 ∈ I (1.35)

Twierdzenie 1.17 Rozwi ↪azanie optymalne (dwupoziomowego) zadania leksyko-graficznego (1.35) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Dowod. Relacja preferencji odpowiadaj ↪aca (1.35) ma postac

y′ � y′′ ⇔ y′i0 < y′′i0 lub

(y′i0 = y′′i0 i

m∑i=1

y′i ≤m∑i=1

y′′i

)

Page 31: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 33

Relacja ta spe lnia warunki zwrotnosci (1.3), przechodniosci (1.4) i scis lej mono-tonicznosci (1.5). Jest to wi ↪ec racjonalna relacja preferencji i na mocy twierdze-nia 1.3 rozwi ↪azanie optymalne x0 zadania (1.35) generuje niezdominowany wektor

osi ↪agni ↪ecia f(x0). Zatem x0 jest rozwi ↪azaniem efektywnym zadania wielokryterial-

nego (1.7).

Koncepcja dwupoziomowej optymalizacji leksykograficznej typu (1.35) mozebyc wykorzystana do regularyzacji dowolnych skalaryzacji (1.13) generuj ↪acych re-lacj ↪e preferencji, ktora nie spe lnia warunku scis lej monotonicznosci (1.5), a jedyniewarunek s labej monotonicznosci (1.16). W szczegolnosci dotyczy to podejscia mi-nimaksowego (1.21), ktore moze byc zast ↪apione zadaniem

lexmin {( maxi=1,...,m

fi(x),

m∑i=1

fi(x)) : x ∈ Q} (1.36)

Twierdzenie 1.18 Relacja preferencji definiowana przez (dwupoziomowe) zada-nie leksykograficzne (1.36) jest racjonaln ↪a relacj ↪a preferencji.

Dowod. Relacja preferencji � odpowiadaj ↪aca (1.36) ma postac

y′ � y′′ ⇔ maxi=1,...,m

y′i < maxi=1,...,m

y′′i lub(max

i=1,...,my′i = max

i=1,...,my′′i i

m∑i=1

y′i ≤m∑i=1

y′′i

)

Relacja ta spe lnia warunki zwrotnosci (1.3) i przechodniosci (1.4). Odpowiedniarelacja scis lej preferencji ma postac

y′ ≺ y′′ ⇔ maxi=1,...,m

y′i < maxi=1,...,m

y′′i lub(max

i=1,...,my′i = max

i=1,...,my′′i i

m∑i=1

y′i <

m∑i=1

y′′i

)

i spe lnia warunek scis lej monotonicznosci (1.5). Zatem relacja definiowana przezzadanie leksykograficzne (1.36) jest racjonaln ↪a relacj ↪a preferencji.

Wniosek 1.20 Rozwi ↪azanie optymalne zadania leksykograficznego (1.36) jestrozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Wniosek 1.21 Dla dowolnych scisle rosn ↪acych funkcji si : R → R (i =1, 2, . . . ,m), relacja preferencji definiowana przez (dwupoziomowe) zadanie leksy-kograficzne

lexmin {( maxi=1,...,m

si(fi(x)),

m∑i=1

si(fi(x))) : x ∈ Q} (1.37)

jest racjonaln ↪a relacj ↪a preferencji.

Page 32: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

34 ROZDZIA L 1. WPROWADZENIE

Wniosek 1.22 Dla dowolnych scisle rosn ↪acych funkcji si : R → R (i =1, 2, . . . ,m) rozwi ↪azanie optymalne (dwupoziomowego) zadania leksykograficznego(1.37) jest rozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Zauwazmy, ze kazde rozwi ↪azanie optymalne zadania (1.37) jest rowniez rozwi ↪a-zaniem optymalnym odpowiedniego zadania minimaksowego (1.23). Zatem, dlazadania (1.37) prawdziwe s ↪a twierdzenia 1.11–1.13 i wynikaj ↪ace z nich wnioski. Wszczegolnosci z wniosku 1.18 wynika nast ↪epuj ↪acy wniosek.

Wniosek 1.23 Dla kazdego rozwi ↪azania efektywnego x0 zadania wielokryterial-nego (1.7) istniej ↪a scisle rosn ↪ace funkcje liniowe si : R → R (i = 1, 2, . . . ,m)takie, ze x0 jest jednoznacznym w przestrzeni ocen Y rozwi ↪azaniem optymalnymzadania (1.37).

Koncepcja optymalizacji minimaksowej bez dodatkowej regularyzacji jest zbytzgrubna i nie jest w stanie odfiltrowac wszystkich rozwi ↪azan nieefektywnych, po-niewaz koncentruje si ↪e ona jedynie na wartosciach najwi ↪ekszych wspo lrz ↪ednychwektorow ocen i ignoruje roznice pozosta lych wspo lrz ↪ednych. Koncepcja opty-malizacji minimaksowej moze byc rozci ↪agni ↪eta na minimalizacj ↪e drugich co dowielkosci wspo lrz ↪ednych wektorow ocen, trzecich co do wielkosci itd. Prowadzi todo koncepcji minimaksymalizacji leksykograficznej , czyli minimalizacji leksykogra-ficznej wektorow (fj1(x), fj2(x), . . . , fjp(x)) ze wspo lrz ↪ednymi uporz ↪adkowanyminierosn ↪aco. Koncepcja minimaksimum leksykograficznego moze byc sformu lowananast ↪epuj ↪aco. Wprowadzamy przekszta lcenie Θ : Rm → Rm porz ↪adkuj ↪ace nie-rosn ↪aco wspo lrz ↪edne wektorow. To znaczy, Θ(y) = (θ1(y), θ2(y), . . . , θm(y)), gdzieθ1(y) ≥ θ2(y) ≥ · · · ≥ θm(y) i istnieje permutacja τ zbioru I taka, ze θi(y) = yτ(i)

dla i = 1, 2, . . . ,m. Zauwazmy, ze standardowe podejscie minimaksowe (1.21) po-lega na minimalizacji θ1(y) i nie bierze pod uwag ↪e wartosci θi(y) dla i ≥ 2. To jestw lasnie przyczyna, dla ktorej podejscie minimaksowe jest zbyt zgrubne i dopuszczarozwi ↪azania nieefektywne jako mozliwe rozwi ↪azania optymalne. Aby uwzgl ↪ednicwszystkie wspo lrz ↪edne wektorow ocen, b ↪edziemy poszukiwac minimum leksykogra-ficznego wsrod uporz ↪adkowanych wektorow ocen. Relacja nierownosci leksykogra-ficznej jest porz ↪adkiem liniowym i dlatego mozliwe jest wyznaczenie najlepszegouporz ↪adkowanego wektora ocen w sensie tej relacji. Wektor dopuszczalny x0 ∈ Qnazywamy leksykograficznym rozwi ↪azaniem minimaksowym, gdy

Θ(f1(x0), f2(x0), . . . , fm(x0)) ≤lex Θ(f1(x), f2(x), . . . , fm(x))

dla wszystkich x ∈ Q. To znaczy, leksykograficzne rozwi ↪azanie minimaksowe jestrozwi ↪azaniem optymalnym zadania leksykograficznego

lexmin {Θ(f1(x), f2(x), . . . , fm(x)) : x ∈ Q} (1.38)

Twierdzenie 1.19 Relacja preferencji definiowana przez minimaksymalizacj ↪e lek-sykograficzn ↪a (1.38) jest racjonaln ↪a relacj ↪a preferencji.

Dowod. Relacja preferencji odpowiadaj ↪aca leksykograficznej minimaksymalizacjima postac

y′ � y′′ ⇔ Θ(y′) ≤lex Θ(y′′)

Page 33: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 35

Relacja ta spe lnia oczywiscie warunki zwrotnosci (1.3) i przechodniosci (1.4).Dla wykazania scis lej monotonicznosci (1.5) zauwazmy, ze z ε > 0 zachodziyi = θj′(y) > yi − ε = θj′′(y − εei) oraz istnieje indeks j0, j′ ≤ j0 ≤ j′′ taki,ze

θj0(y − εei) < θj0(y) i θj(y − εei) ≤ θj(y) dla j < j0

co dowodzi spe lnienia aksjomatu scis lej monotonicznosci (1.5).

Wniosek 1.24 Rozwi ↪azanie optymalne zadania (1.38) jest rozwi ↪azaniem efektyw-nym zadania wielokryterialnego (1.7).

Wniosek 1.25 Dla dowolnych scisle rosn ↪acych funkcji si : R → R (i =1, 2, . . . ,m) relacja preferencji definiowana przez minimaksymalizacj ↪e leksykogra-ficzn ↪a

lexmin {Θ(s1(f1(x)), s2(f2(x)), . . . , sm(fm(x))) : x ∈ Q} (1.39)

jest racjonaln ↪a relacj ↪a preferencji.

Wniosek 1.26 Dla dowolnych scisle rosn ↪acych funkcji si : R → R(i = 1, 2, . . . ,m) rozwi ↪azanie optymalne zadania leksykograficznego (1.39) jestrozwi ↪azaniem efektywnym zadania wielokryterialnego (1.7).

Zauwazmy, ze kazde rozwi ↪azanie optymalne zadania (1.39) jest rowniez rozwi ↪a-zaniem optymalnym odpowiedniego zadania minimaksowego (1.23). Zatem, dlazadania (1.39) prawdziwe s ↪a twierdzenia 1.11–1.13 i wynikaj ↪ace z nich wnioski. Wszczegolnosci z wniosku 1.18 wynika nast ↪epuj ↪acy wniosek.

Wniosek 1.27 Dla kazdego x0 rozwi ↪azania efektywnego zadania wielokryterial-nego (1.7) istniej ↪a scisle rosn ↪ace funkcje liniowe si : R→ R (i = 1, 2, . . . ,m) takie,ze x0 jest rozwi ↪azaniem optymalnym zadania (1.39), jednoznacznym w przestrzeniocen Y .

Ponadto, jak pokazujemy w ponizszych twierdzeniach, wniosek 1.17 moze zostacistotnie wzmocniony w przypadku relacji preferencji � definiowanej przez minimak-symalizacj ↪e leksykograficzn ↪a (1.38).

Twierdzenie 1.20 Relacja preferencji definiowana przez minimaksymalizacj ↪e lek-sykograficzn ↪a (1.38) spe lnia warunek

yi′ > yi′′ ⇒ y − ε′ei′ + ε′′ei′′ ≺ y

dla 0 < ε′ ≤ yi′ − yi′′ , 0 ≤ ε′′ ≤ yi′ − yi′′ − ε′ (1.40)

Dowod. Zauwazmy, ze jezeli yi′ = θj′(y) > yi′′ = θj′′(y), to istnieje indeks j0,j′ ≤ j0 ≤ j′′ taki, ze dla 0 < ε′ ≤ yi′ − yi′′ i 0 ≤ ε′′ ≤ yi′ − yi′′ − ε′

θj0(y − εei′ + εei′′) < θj0(y) i θj(y − εei′ + εei′′) ≤ θj(y) dla j < j0

co dowodzi spe lnienia warunku (1.40).

Page 34: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

36 ROZDZIA L 1. WPROWADZENIE

Twierdzenie 1.21 Jezeli funkcje si : R → R (i = 1, 2, . . . ,m) s ↪a scisle rosn ↪ace idla pewnego y0 ∈ Y spe lniaj ↪a warunek (1.24), to relacja preferencji � definiowanaprzez zadanie (1.39) spe lnia warunek

yi′ > y0i′ i yi′′ < y0

i′′ ⇒ y − ε′ei′ + ε′′ei′′ ≺ y

dla 0 < ε′ ≤ yi′ − y0i′ , 0 ≤ ε′′ ≤ y0

i′′ − yi′′ (1.41)

Dowod. Zauwazmy, ze poniewaz funkcje si s ↪a scisle rosn ↪ace i spe lniaj ↪a warunek(1.24), to z yi′ > y0

i′ i yi′′ < y0i′′ wynika

si′(yi′) > si′(yi′ − ε′) ≥ s∗ dla 0 < ε′ ≤ yi′ − y0i′

si′′(yi′′) ≤ si′′(yi′′ − ε′′) ≤ s∗ dla 0 ≤ ε′′ ≤ y0i′′ − yi′′

gdzie s∗ = s1(y01) = · · · = sm(y0

m). Zatem na mocy twierdzenia 1.20 relacjapreferencji � definiowana przez (1.39) spe lnia warunek y − ε′ei′ + ε′′ei′′ ≺ y.

Warunki (1.26) i (1.41) s ↪a sobie rownowazne w przypadku dwuwymiarowejprzestrzeni ocen (m = 2). W przypadku wi ↪ekszej liczby funkcji oceny warunek(1.41) jest silniejszy od warunku (1.26), jako ze kazda racjonalna relacja preferen-cji maj ↪aca w lasnosc (1.41) spe lnia nast ↪epuj ↪ace uogolnienie warunku (1.26)

(yi)i∈I′ 6<= (y0

i )i∈I′ ⇒ [(y0i )i∈I′ , (yi)i∈I\I′ ] ≺ y dla I ′ ⊂ I (1.42)

Warunek (1.42) oznacza, ze dla dowolnego podzbioru I ′ zbioru wszystkich ocen I,jezeli przynajmniej jedna z ocen yi, i ∈ I ′ jest wi ↪eksza od y0

i , to zast ↪apienie wszyst-kich ocen yi dla i ∈ J przez odpowiednie oceny y0

i jest preferowane w stosunku dooryginalnych wartosci ocen. Warunek (1.26) jest ograniczeniem warunku (1.42) doprzypadku I ′ = I.

Koncepcja minimaksimum leksykograficznego jest znana w teorii gier jako j ↪adro(nucleolus) gry macierzowej (Schmeidler, 1969; Justman, 1977; Potters i Tijs,1992). W grach macierzowych zbior dopuszczalny Q jest wielosciennym zbio-rem wypuk lym i funkcje fi s ↪a liniowe. W takim przypadku zawsze istnieje do-minuj ↪aca funkcja oceny, sta la (przyjmuj ↪aca wartosc optymaln ↪a) na ca lym zbio-rze rozwi ↪azan optymalnych problemu minimaksowego. Dlatego leksykograficznerozwi ↪azanie minimaksowe zadania WPL moze byc wyznaczone, podobnie jakstandardowe rozwi ↪azanie leksykograficzne, przez sekwencyjn ↪a optymalizacj ↪e mi-nimaksow ↪a z eliminacj ↪a dominuj ↪acych funkcji oceny (Potters i Tijs, 1992; Mar-chi i Oviedo, 1992). Odpowiedni sekwencyjny algorytm minimaksowy przyjmujenast ↪epuj ↪ac ↪a postac

Algorytm SAMKrok 00 Ustalamy wartosci pocz ↪atkowe k = 0, Q0 = Q i I0 = I.Krok 10 Dla biez ↪acego k rozwi ↪azujemy zadanie minimaksowe

Pk : minx{maxi∈Ik

fi(x) : x ∈ Qk}

Niech zk oznacza wartosc optymaln ↪a zadania Pk.Krok 20 Okreslamy Qk+1 = {x ∈ Qk : fi(x) ≤ zk dla i ∈ Ik},wyznaczamy Sk = {i ∈ Ik : fi(x) = zk dla wszystkich x ∈ Qk+1}i k ladziemy Ik+1 = Ik − Sk.

Page 35: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.3. TECHNIKI SKALARYZACJI 37

Krok 30 Jezeli Ik+1 = ∅, to przechodzimy do kroku 40. W przeciwnym przypadkuzwi ↪ekszamy k o 1 i powracamy do kroku 10.Krok 40 Stop. Ostatni zbior Qk+1 jest zbiorem wszystkich rozwi ↪azan optymalnychleksykograficznego problemu minimaksowego. �

W przypadku zadan WPL algorytm SAM jest dobrze zdefiniowany, poniewazw kazdej iteracji zbior Qk jest wypuk lym zbiorem wielosciennym i dlatego zbiorindeksow funkcji dominuj ↪acych (zbior Sk) jest niepusty. Ponadto, przy stosowaniumetody sympleks do rozwi ↪azywania problemow Pk, zbior Sk moze byc wzgl ↪ednie latwo wyznaczony i dodatkowe ograniczenia zaw ↪ezaj ↪ace zbior Qk mog ↪a byc wpro-wadzone przez ustalanie wartosci odpowiednich zmiennych (Klein i inni, 1992).Niestety algorytm nie moze byc bezposrednio stosowany do problemow dyskret-nych, poniewaz moze wtedy nie istniec dominuj ↪aca funkcja fi (zbior Sk moze bycpusty). Ilustrujemy to prostym przyk ladem.

Przyk lad 1.3. Rozpatrzmy dwukryterialne zagadnienie optymalnego za ladunku

min {(3x1 + 2x2, x1 + 3x3) : x1 + x2 = 1, xj ≥ 0, xj ∈ Z dla j = 1, 2}

Zadanie to ma dwa rozwi ↪azania dopuszczalne: (1,0) i (0,1), z wektorami ocenodpowiednio: (3,1) i (2,3). Jak latwo sprawdzic, oba rozwi ↪azania dopuszczalne s ↪arozwi ↪azaniami optymalnymi zadania minimaksowego

min {max{3x1 + 2x2, x1 + 3x3} : x1 + x2 = 1, xj ≥ 0, xj ∈ Z dla j = 1, 2}

z wartosci ↪a optymaln ↪a z = 3, chociaz tylko wektor (1,0) jest leksykograficznymrozwi ↪azaniem minimaksowym. Jednakze ani funkcja f1, ani f2 nie przyjmujewartosci 3 dla obu rozwi ↪azan optymalnych. Tym samym odpowiedni zbior Skjest pusty i nie jest mozliwe kontynuowanie algorytmu sekwencyjnego. �

Maschler i inni (1992) pokazali, ze w ogolnym przypadku obejmuj ↪acym prob-lemy dyskretne, leksykograficzne minimaksimum moze byc wyrazone jako ci ↪agproblemow minimaksowych z odpowiednio zmodyfikowanymi funkcjami oceny. Po-dejscie to opiera si ↪e na spostrzezeniu, ze leksykograficzne rozwi ↪azanie minimak-sowe nie ulega zmianie, gdy dowolne dwie funkcje fi′ i fi′′ zast ↪apimy funkcjamiwyrazaj ↪acymi odpowiednio ich minimum i maksimum, czyli funkcjami fi′ i fi′′

zdefiniowanymi jako

fi′(x) = min{fi′(x), fi′′(x)} i fi′′(x) = max{fi′(x), fi′′(x)} (1.43)

Stosuj ↪ac rekurencyjnie takie zamiany mozna zast ↪apic oryginalny zbior funkcji fi(i = 1, 2, . . . ,m) nast ↪epuj ↪acym

fi(x) = min{ maxk=1,...,i

fk(x), fi+1(x)} dla i < n; fm(x) = maxk∈I

fk(x) (1.44)

gdzie fm jest funkcj ↪a dominuj ↪ac ↪a i sta l ↪a na ca lym zbiorze rozwi ↪azan optymalnychproblemu minimaksowego. Zatem, podobnie jak w przypadku wypuk lego zbiorudopuszczalnego, mozna stosowac sekwencyjn ↪a optymalizacj ↪e minimaksow ↪a i eli-minacj ↪e dominuj ↪acych (zmodyfikowanych) funkcji. Krok 20 w algorytmie SAMprzyjmuje wtedy postac

Page 36: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

38 ROZDZIA L 1. WPROWADZENIE

Krok 20 Okreslamy Qk+1 = {x ∈ Qk : fi(x) ≤ zk dla i ∈ Ik},i wyznaczamy Sk = {i ∈ Ik : fi(x) = zk dla wszystkich x ∈ Qk+1}.Jezeli Sk 6= ∅, to k ladziemy Ik+1 = Ik − Sk i przechodzimy do kroku 30.W przeciwnym przypadku stosujemy transformacj ↪e (1.44) do funkcji fi dla i ∈ Iki powracamy do kroku 10 (bez zmiany k).

W przyk ladzie 1.3 rozwi ↪azania optymalne zadania minimaksowego generowa lywektory ocen (3,1) i (2,3) tak, ze zadna z oryginalnych funkcji oceny nie by ladominuj ↪aca. Zauwazmy, ze zast ↪epuj ↪ac oryginalne funkcje oceny f1 i f2 przezich minimum i maksimum (zgodnie z (1.44)) otrzymujemy nowe wektory ocen(1,3) i (2,3). W tym wypadku druga funkcja jest sta la i minimalizuj ↪ac pierwsz ↪afunkcj ↪e mozna wyznaczyc leksykograficzne rozwi ↪azanie minimaksowe. Transfor-macje (1.43) i (1.44) mog ↪a byc latwo implementowane w zadaniach o skonczonejliczbie znanych explicite rozwi ↪azan dopuszczalnych. W takim przypadku jednakmozna rowniez latwo zaimplementowac operator porz ↪adkuj ↪acy Θ i transformacje(1.43) i (1.44) s ↪a mu rownowazne. Niestety, w ogolnym przypadku formu ly (1.44)wymagaj ↪a wprowadzania dodatkowych zmiennych binarnych i w konsekwencji wtrakcie realizacji zmodyfikowanego algorytmu SAM zbior Qk zawiera rosn ↪ac ↪a liczb ↪edyskretnych zmiennych i ograniczen. Czyni to algorytm bardzo z lozonym oblicze-niowo.

Burkard i Rendl (1991) pokazali, ze dla prostych problemow dyskretnych leksy-kograficzna minimaksymalizacja moze byc zast ↪apiona rownowazn ↪a minimalizacj ↪aodpowiedniej sumy wazonej. Zasadnicza idea tego podejscia polega na wykorzy-staniu faktu skonczonosci zbioru wszystkich mozliwych ocen w problemach dys-kretnych. Zwi ↪ekszanie roznic pomi ↪edzy wartosciami ocen bez zmiany ich porz ↪adkunie ma wp lywu na leksykograficzne rozwi ↪azanie minimaksowe. Gdy roznice s ↪adostatecznie duze, to minimalizacja sumy ocen jest rownowazna leksykograficz-nej minimaksymalizacji. Fakt ten by l rowniez wykorzystywany w zadaniach lo-kalizacyjnych, gdzie odleg losci zast ↪epowano ich odpowiednio wysokimi pot ↪egami(Krarup i Pruzan, 1981). Wymaga to jednak nierealistycznie wysokich pot ↪eg dlazagwarantowania odpowiednio duzych roznic pomi ↪edzy wartosciami. Burkard iRendl (1991) proponuj ↪a, zeby najpierw odwzorowac zbior wartosci ocen na zbiorliczb ca lkowitych i dopiero potem wykorzystac pot ↪egowanie wartosci. Wszystkiepodejscia dostatecznie zwi ↪ekszaj ↪ace roznice pomi ↪edzy wartosciami ocen prowadz ↪ajednak do powaznych trudnosci obliczeniowych i w zasadzie wymagaj ↪a specjalnycharytmetyk. W rozdziale 4 proponujemy algorytm wyznaczania leksykograficznegominimaksimum dla problemow o skonczonych zbiorach wartosci ocen, oparty nasekwencyjnej optymalizacji, co nie powoduje trudnosci obliczeniowych.

1.4 Systemy wspomagania decyzji

Poj ↪ecie rozwi ↪azania efektywnego zagadnienienia optymalizacji wielokryterialnej(1.7) okresla dwa mozliwe zadania obliczeniowe:

– wyznaczenie dowolnego rozwi ↪azania efektywnego,– wyznaczenie wszystkich rozwi ↪azan efektywnych.

Page 37: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.4. SYSTEMY WSPOMAGANIA DECYZJI 39

Wyznaczanie jednego dowolnego rozwi ↪azania efektywnego jest naturalnym roz-szerzeniem podejscia do niejednoznacznosci rozwi ↪azania optymalnego w optyma-lizacji jednokryterialnej, gdzie przyjmuje si ↪e, ze jedynym wyroznikiem jakoscirozwi ↪azania jest wartosc funkcji celu i dlatego wszystkie rozwi ↪azania optymalne s ↪arownie dobre. Wszystkie rozwi ↪azania optymalne maj ↪a tam jednak identyczne oceny(w jednowymiarowej przestrzeni Y ), a rozne mog ↪a byc jedynie ich realizacje (w prze-strzeni X). Podejscie to nie jest akceptowane w optymalizacji wielokryterialnej,gdzie rozne rozwi ↪azania efektywne mog ↪a miec rozne wektory ocen. Ponadto, faktuzycia w modelu wielu funkcji oceny oznacza brak jednej zagregowanej funkcji celujako uniwersalnego wskaznika jakosci definiuj ↪acego preporz ↪adek. Moze to wynikacz nieistnienia takiego uniwersalnego wskaznika lub, co jest cz ↪estsze, niemoznoscisformu lowania apriori odpowiedniej funkcji. Tym samym nieporownywalnosc po-szczegolnych rozwi ↪azan efektywnych w sensie modelu (1.7) nie oznacza ich nie-porownywalnosci, a tym bardziej nierozroznialnosci. Dlatego dla matematycz-nego uscislenia problemu wielokryterialnego przyjmuje si ↪e niekiedy (por. Galasi inni, 1987), ze rozwi ↪azaniem zadania optymalizacji wielokryterialnej jest ca lyzbior rozwi ↪azan efektywnych lub zbior rozwi ↪azan efektywnych generuj ↪acych zbiorwszystkich niezdominowanych wektorow ocen.

W ogolnym przypadku zbior rozwi ↪azan efektywnych wielokryterialnego zadaniaprogramowania matematycznego moze byc nieskonczony. Zbior rozwi ↪azan efektyw-nych dla zadania WPL jest spojnym brzegowym podzbiorem zbioru dopuszczal-nego (por. Steuer, 1986). Dok ladniej, zbior rozwi ↪azan efektywnych zadania WPLjest sum ↪a skonczonej liczby (efektywnych) scian zbioru dopuszczalnego, ktory jestwielosciennym zbiorem wypuk lym. Yu i Zeleny (1974) rozbudowali odpowiednio al-gorytm metody sympleks do wyznaczania wszystkich efektywnych rozwi ↪azan wierz-cho lkowych zadania WPL i identyfikacji wszystkich scian wchodz ↪acych w sk ladzbioru rozwi ↪azan efektywnych.

W przypadku zadania WPL o dwu funkcjach oceny istnieje mozliwosc wykorzy-stania technik parametrycznego programowania liniowego do analizy ca lego zbiorurozwi ↪azan efektywnych. Podejscie to moze byc latwo zaimplementowane w pa-kietach programowania liniowego wyposazonych w procedury obliczeniowe para-metrycznej metody sympleks. W szczegolnosci dotyczy to komercyjnego pakietuprogramowania liniowego MPSX, dla ktorego odpowiedni program steruj ↪acy zosta lprzedstawiony przez Ogryczaka (1989, rozdzia l 14). W przypadku niedost ↪epnosciprocedur obliczeniowych parametrycznego programowania liniowego mozna do tegocelu wykorzystac techniki programowania ilorazowego (Prasad i Karwan, 1992).Analiza parametryczna moze byc rozszerzona na wi ↪eksz ↪a liczb ↪e funkcji ocenyprzez stosowanie odpowiednich przekrojow. Przyk lad takiej analizy dla rzeczy-wistego zagadnienia rejonizacji z wykorzystaniem srodowiska programistycznegopakietu MPSX zosta l przedstawiony przez Ogryczaka i Malczewskiego (1987). Jakorozwi ↪azan startowych do analizy parametrycznej uzyto tam rozwi ↪azan zadan op-tymalizacji leksykograficznej z rozn ↪a hierarchi ↪a poszczegolnych funkcji celu.

W celu rozstrzygni ↪eci ↪a praktycznego problemu decyzyjnego trzeba wybrac jednorozwi ↪azanie do realizacji. Tym samym zbioru rozwi ↪azan efektywnych zadania wie-lokryterialnego nie mozna traktowac jako ostatecznego rozwi ↪azania odpowiedniego

Page 38: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

40 ROZDZIA L 1. WPROWADZENIE

problemu decyzyjnego. Zauwazmy, ze dla dowolnej racjonalnej relacji preferen-cji � rozwi ↪azania dopuszczalne generuj ↪ace wektory ocen minimalne w sensie tejrelacji nalez ↪a do zbioru rozwi ↪azan efektywnych (wniosek 1.5). Co wi ↪ecej, dlakazdego rozwi ↪azania efektywnego x istnieje racjonalna relacja preferencji � taka,ze f(x) � y dla wszystkich y ∈ A (wniosek 1.6). Zatem wybor specyficznegorozwi ↪azania efektywnego faktycznie oznacza wybor relacji preferencji �. W wie-lokryterialnych problemach decyzyjnych relacja preferencji nie jest znana a priorii dlatego ostatecznego wyboru rozwi ↪azania moze dokonac jedynie decydent. Zewzgl ↪edu na licznosc zbioru rozwi ↪azan efektywnych, nawet w przypadku wyzna-czenia metodami obliczeniowymi ca lego zbioru rozwi ↪azan efektywnych decydentnie moze dokonac wyboru rozwi ↪azania bez pomocy odpowiedniego interakcyjnegosystemu informatycznego. System taki, nazywany tu systemem wspomagania de-cyzji (SWD), umozliwia sterowany przegl ↪ad zbioru rozwi ↪azan efektywnych. Napodstawie podawanych przez decydenta wartosci pewnych parametrow steruj ↪acychsystem przedstawia rozne rozwi ↪azania efektywne do analizy. Tym samym para-metry steruj ↪ace okreslaj ↪a pewn ↪a parametryzacj ↪e zbioru rozwi ↪azan efektywnych.Zauwazmy, ze taka parametryczna analiza zbioru rozwi ↪azan efektywnych pozwalaunikn ↪ac koniecznosci bezposredniego wyznaczania ca lego zbioru rozwi ↪azan efektyw-nych. Zamiast tego SWD zawieraj ↪acy odpowiedni modu l optymalizacyjny mozekazdorazowo wyznaczac jedno rozwi ↪azanie efektywne odpowiadaj ↪ace biez ↪acymwartosciom parametrow steruj ↪acych. Zatem metodologia ta pozwala na analiz ↪ezarowno problemow ci ↪ag lych, jak i dyskretnych. Istotne jest tu jednak, aby sys-tem gwarantowa l spe lnienie postulatu zupe lnosci parametryzacji zbioru rozwi ↪azanefektywnych, czyli aby dla kazdego niezdominowanego wektora ocen istnia l zestawwartosci parametrow steruj ↪acych, przy ktorych system wyznaczy rozwi ↪azanie efek-tywne generuj ↪ace ten wektor ocen.

Zgodnie z biez ↪acym trendem rozwoju badan operacyjnych (por. Geoffrion, 1992;Wierzbicki, 1993), wielokryterialne problemy decyzyjne rozwi ↪azuje si ↪e za pomoc ↪ainteraktywnych systemow wspomagania decyzji. Dla modelu racjonalnych prefe-rencji, czyli dla interaktywnego wyznaczania rozwi ↪azan efektywnych, istnieje roz-wini ↪eta metodologia. Interaktywne techniki analizy zbioru rozwi ↪azan efektywnychwykorzystuj ↪a parametryczn ↪a skalaryzacj ↪e wielokryterialnego zadania (1.7)

minx{(s(u, f(x)) : x ∈ Q}, u ∈ U (1.45)

gdzie u jest wektorem parametrow steruj ↪acych, a s : U × Y → R funkcj ↪a skalary-zuj ↪ac ↪a.

Istotne jest tu, aby skalaryzacja spe lnia la zasad ↪e efektywnosci, czyli zeby dlakazdego wektora parametrow steruj ↪acych u ∈ U rozwi ↪azanie optymalne skalarnegozadania (1.45) by lo rozwi ↪azaniem efektywnym oryginalnego problemu wielokryte-rialnego (1.7). Parametryczna skalaryzacja (1.45) powinna tez spe lniac warunekzupe lnosci parametryzacji zbioru rozwi ↪azan efektywnych (por. Wierzbicki, 1986).To znaczy, dla kazdego x0 rozwi ↪azania efektywnego zadania (1.7) powinien istniecwektor parametrow steruj ↪acych u0 ∈ U taki, ze x0 jest rozwi ↪azaniem optymal-nym odpowiedniego zadania (1.45). Mowimy wtedy, ze parametryczna skalaryzacja(1.45) stanowi zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan efektywnych wielokryte-

Page 39: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.4. SYSTEMY WSPOMAGANIA DECYZJI 41

rialnego zadania (1.7). Zauwazmy, ze zgodnie z wnioskiem 1.15 i twierdzeniem 1.9metoda wag, czyli parametryczna skalaryzacja (1.19) z dodatnimi wagami wi, sta-nowi zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan efektywnych zadania WPL. Nie jestto jednak prawd ↪a dla zadan WPLD (por. przyk lad 1.2).

Dla wykorzystania parametrycznej skalaryzacji w systemie wspomagania decy-zji istotne jest, aby zadania skalarne (1.45) by ly wzgl ↪ednie latwe obliczeniowo, czylifunkcja skalaryzuj ↪aca s nie powinna wprowadzac do modelu istotnych utrudnienobliczeniowych. Na przyk lad, dla zadan WPL zadanie skalarne (1.45) powinnobyc zadaniem programowania liniowego. Parametry steruj ↪ace powinny reprezen-towac latwo rozumiane przez decydenta wielkosci rzeczywiste charakteryzuj ↪ace jegopreferencje. Parametryczna skalaryzacja spe lniaj ↪aca wszystkie powyzsze postulatyumozliwia implementacj ↪e systemu wspomagania decyzji, pozwalaj ↪acego wyznaczycrozwi ↪azanie efektywne zgodne z preferencjami decydenta.

Parametryczna skalaryzacja (1.45) definiuje parametryczn ↪a relacj ↪e preferencji�u

y′ �u y′′ ⇔ s(u,y′) ≤ s(u,y′′)Zamiast parametrycznej skalaryzacji mozna wi ↪ec rozwazac ogolniejsze parame-tryczne relacje preferencji. Aby by l spe lniony postulat efektywnosci, powinny tobyc racjonalne relacje preferencji. Ponadto, dla dobrego postawienia odpowied-niego zadania minimalizacji, powinien zawsze istniec element najmniejszy w sensierelacji �u. W lasnosc t ↪e maj ↪a relacje porz ↪adku liniowego. W szczegolnosci relacjaporz ↪adku leksykograficznego spe lnia powyzsze wymagania i zapewnia mozliwoscwyznaczenia elementu najmniejszego. Dlatego zadanie (1.45) moze byc zast ↪apioneskalaryzacj ↪a leksykograficzn ↪a

lexminx{(s(u, f(x)) : x ∈ Q}, u ∈ U (1.46)

gdzie s jest wektorow ↪a funkcj ↪a skalaryzuj ↪ac ↪a.Zionts i Wallenius (1976, 1983) opracowali metody interaktywnej identyfikacji

funkcji uzytecznosci (Fishburn, 1970; Keeney i Raiffa, 1976). Opieraj ↪a si ↪e one naza lozeniu okreslonej postaci funkcji uzytecznosci o nieznanych wspo lczynnikach,czyli wykorzystuj ↪a pewn ↪a parametryczn ↪a skalaryzacj ↪e typu (1.45). Nieznanewspo lczynniki funkcji uzytecznosci nie reprezentuj ↪a jednak latwo rozumianychprzez decydenta wielkosci rzeczywistych. Dlatego w metodach Ziontsa i Walleniusas ↪a one identyfikowane w ramach procesu interaktywnego, w czasie ktorego decy-dent porownuje wektory ocen przedstawianych mu rozwi ↪azan efektywnych. Wynikiporownan poszczegolnych par rozwi ↪azan pozwalaj ↪a stopniowo zaw ↪ezac zbior po-tencjalnych wartosci nieznanych wspo lczynnikow i w wyniku otrzymujemy proceszbiezny do poszukiwanej funkcji uzytecznosci. Wymaga to jednak, aby decydentby l w pe lni konsekwentny w swoich porownaniach. Tym samym, takie podejscienie dopuszcza mozliwosci ewolucji preferencji decydenta w wyniku lepszego po-znawania problemu decyzyjnego w trakcie jego analizy z systemem wspomaganiadecyzji. K loci si ↪e to z zasadnicz ↪a koncepcj ↪a SWD jako narz ↪edzia analizy prob-lemu decyzyjnego wspieraj ↪acego proces podejmowania decyzji przez decydenta.W tej pracy interesuj ↪a nas otwarte systemy wspomagania decyzji nie narzucaj ↪acedecydentowi zadnego sztywnego scenariusza analizy problemu decyzyjnego i do-puszczaj ↪ace mozliwosc modyfikacji jego preferencji w trakcie analizy, w wyniku

Page 40: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

42 ROZDZIA L 1. WPROWADZENIE

poznawania specyfiki problemu decyzyjnego (Wierzbicki, 1993). Dla takich sys-temow zasadniczym narz ↪edziem matematycznym i — co za tym idzie — j ↪adremmetodologicznym jest odpowiednia parametryczna skalaryzacja (1.45) lub (1.46)spe lniaj ↪aca warunek zupe lnej parametryzacji zbioru rozwi ↪azan efektywnych. Dla-tego praca ta koncentruje si ↪e na analizie roznych parametryzacji zbioru rozwi ↪azanefektywnych zadan WPL i WPLD z punktu widzenia reprezentowanych przez niemodeli preferencji i ich przydatnosci w praktycznych systemach wspomagania de-cyzji.

W wi ↪ekszosci systemow wspomagania decyzji jako pierwszy krok analizy wie-lokryterialnej stosuje si ↪e jednokryterialn ↪a optymalizacj ↪e wzgl ↪edem kazdej funkcjioceny z osobna. Umozliwia to weryfikacj ↪e, czy rozwazany problem wielokryterialnyjest zadaniem regularnym. W wyniku optymalizacji pojedynczych funkcji ocenypowstaje tak zwana macierz realizacji celow (pay–off matrix, Steuer, 1986), ktorapozwala na oszacowanie zakresu zmian poszczegolnych funkcji oceny na zbiorzerozwi ↪azan efektywnych. Macierz ta dostarcza rowniez pewnych informacji na te-mat tzw. konfliktowosci funkcji oceny (por. Rietveld, 1980; Galas, 1986). Macierzrealizacji celow jest tablic ↪a zawieraj ↪ac ↪a wartosci wszystkich funkcji oceny (wierszy)otrzymywane podczas rozwi ↪azywania poszczegolnych problemow jednokryterial-nych (kolumn). To znaczy, elementy macierzy realizacji celow K = (kij)i,j=1,...,m

przyjmuj ↪a wartosci kij = fi(xj), gdzie xj jest rozwi ↪azaniem optymalnym jedno-

kryterialnego zadania (1.17), czyli min {(fj(x) : x ∈ Q}.Macierz realizacji celow generuje wektor utopii yu reprezentuj ↪acy najlepsze

wartosci kazdej funkcji oceny rozpatrywanej osobno, czyli yui = kii = fi(xi). Wek-

tor utopii stanowi dolne ograniczenie wszystkich osi ↪agalnych wektorow ocen, tzn.

yu<= y dla kazdego y ∈ A. Jest on zwykle nieosi ↪agalny (yu 6∈ A), czyli nie ma

rozwi ↪azania dopuszczalnego z takimi wartosciami funkcji oceny. Jezeli istnieje wek-tor dopuszczalny x0 ∈ Q taki, ze f(x

0) = yu, to x0 jest rozwi ↪azaniem optymalnym

zadania wielokryterialnego w sensie kazdego racjonalnego modelu preferencji. Sy-tuacja taka moze si ↪e zdarzyc tylko wtedy, gdy nie ma konfliktu pomi ↪edzy funkcjamioceny.

Zadania optymalizacji jednokryterialnej (1.17) mog ↪a miec niejednoznacznerozwi ↪azania optymalne i generowac rozwi ↪azania nieefektywne (por. twierdzenie1.13) o zawyzonych wartosciach ocen nie podlegaj ↪acych minimalizacji w danym za-daniu. Zatem, w ogolnym przypadku, macierz realizacji celow jest niejednoznacz-nie okreslona i wspo lczynniki wektora utopii stanowi ↪a jedyn ↪a informacj ↪e niezalezn ↪aod wyboru rozwi ↪azania optymalnego w zadaniach jednokryterialnych. Dla zapew-nienia uzytecznosci pozosta lych wspo lczynnikow konieczne jest zastosowanie tech-niki regularyzacyjnej podczas wyliczania macierzy realizacji celow, tak aby kazdejednokryterialne rozwi ↪azanie optymalne by lo jednoczesnie rozwi ↪azaniem efektyw-nym oryginalnego problemu wielokryterialnego. W przypadku niewielkiej liczbyfunkcji oceny (ma le m) mozliwe jest wyznaczenie rozszerzonej macierzy realiza-cji celow, opartej na rozwi ↪azaniach zadan leksykograficznych (1.33) dla wszystkichmozliwych hierarchii funcji oceny (dla wszystkich permutacji τ). W przypadkuwi ↪ekszej liczby funkcji oceny musimy ograniczyc si ↪e do rozwi ↪azania m zadan jed-nokryterialnych z regularyzacj ↪a typu (1.35) w celu zapewnienia efektywnosci wy-

Page 41: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

1.4. SYSTEMY WSPOMAGANIA DECYZJI 43

znaczanych rozwi ↪azan optymalnych.Z macierzy realizacji celow mozna wyznaczyc rowniez tzw. wektor nadiru

yn, wyrazaj ↪acy najgorsze wartosci dla kazdej funkcji oceny odnotowane podczasposzczegolnych optymalizacji jednokryterialnych, czyli yni = maxj=1,...,m kij =maxj=1,...,m fi(x

j). Sk ladowe wektora nadiru nie musz ↪a wyrazac najgorszychwartosci odpowiednich funkcji oceny na ca lym zbiorze rozwi ↪azan efektywnych. To

znaczy, w ogolnym przypadku nie jest prawd ↪a, ze yn>= y dla kazdego y ∈ AN .

Wyrazaj ↪a one jedynie najgorsze (najwi ↪eksze) wartosci kazdej funkcji zanotowane

podczas optymalizacji innych funkcji. Wyznaczenie wektora yw takiego, ze yw>= y

dla kazdego y ∈ AN jest z lozonym zadaniem obliczeniowym (Isermann i Steuer,1987; Benson, 1992). Wektor nadiru stanowi dolne ograniczenie wektora yw i naogol jego dobre przyblizenie wystarczaj ↪ace do wst ↪epnego zorientowania si ↪e w za-kresach zmiennosci poszczegolnych ocen dla roznych rozwi ↪azan efektywnych.

Przyk lad 1.4. Stosuj ↪ac standardow ↪a optymalizacj ↪e jednokryterialn ↪a (bez regula-ryzacji) przy wielokryterialnej optymalizacji rejonow dzia lania przychodni (Ogry-czak i Malczewski, 1987), dla jednego z zestawow danych otrzymalismy macierzrealizacji celow przedstawion ↪a w tablicy 1.1. Sugeruje ona wyst ↪epowanie konfliktupomi ↪edzy funkcj ↪a oceny f1 i pozosta lymi dwoma ocenami, jak rowniez pomi ↪edzyfunkcjami oceny f2 i f3.

Tablica 1.1

Macierz realizacji celow

Tablica 1.1:Funkcja Minimalizowana funkcja

oceny f1 f2 f3 Utopia Nadir

f1 2.227 2.230 2.228 2.227 2.230

f2 1.840 1.633 1.840 1.633 1.840

f3 3470 3470 3443 3443 3470

Stosuj ↪ac optymalizacje leksykograficzne (1.33) otrzymalismy rozszerzon ↪a ma-cierz realizacji celow przedstawion ↪a w tablicy 1.2. Obie macierze generuj ↪a tesame wektory utopii i nadiru. Jednakze z rozszerzonej macierzy realizacji celowwidac brak konfliktu pomi ↪edzy funkcjami oceny f2 i f3. Rozwi ↪azania odpowia-daj ↪ace hierachii f2/f3/f1 i f3/f2/f1 generuj ↪a te same wektory ocen o najmniej-szych mozliwych wartosciach ocen f2 i f3. Istnieje jedynie konflikt pomi ↪edzy f1

a dwoma pozosta lymi ocenami. Uwzgl ↪edniaj ↪ac fakt bardzo ma lych wzgl ↪ednychwahan oceny f1 (ponizej 0.15%), mozemy uznac, ze praktycznie nie ma konfliktupomi ↪edzy ocenami i przyj ↪ac rozwi ↪azanie minimalizuj ↪ace jednoczesnie f2 i f3 (odpo-wiadaj ↪ace hierachii f2/f3/f1 i f3/f2/f1) jako zadowalaj ↪ace rozwi ↪azanie problemuwielokryterialnego.

Page 42: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

44 ROZDZIA L 1. WPROWADZENIE

Tablica 1.2

Rozszerzona macierz realizacji celow

Tablica 1.2:Funkcja Minimalizowana funkcja

oceny f1/f2/f3 f1/f3/f2 f2/f1/f3 f2/f3/f1 f3/f1/f2 f3/f2/f1f1 2.227 2.227 2.228 2.230 2.228 2.230

f2 1.840 1.840 1.633 1.633 1.840 1.633

f3 3470 3470 3470 3443 3443 3443

Page 43: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Rozdzia l 2

Programowanie celowe

2.1 Modele programowania celowego

Dobrym narz ↪edziem dla interaktywnych systemow wspomagania decyzji wydajesi ↪e byc programowanie celowe (por. Ignizio, 1982; Romero, 1991). Programowaniecelowe (PC) zosta lo wprowadzone przez Charnesa i Coopera (1961) i dalej rozwijaneprzez Ijiri (1965), Lee (1972) i Ignizio (1976). Obecnie jest to najpowszechniej sto-sowana technika analizy wielokryterialnych problemow decyzyjnych (por. White,1990). W programowaniu celowym g lownymi parametrami steruj ↪acymi s ↪a poziomyaspiracji traktowane jako cele do osi ↪agni ↪ecia dla poszczegolnych funkcji oceny. Toznaczy, dla kazdej funkcji oceny fi zadawany jest poziom aspiracji ai. Dla kazdegorozwi ↪azania dopuszczalnego x ∈ Q okreslone s ↪a wtedy odchylenia w do l i w gor ↪ewartosci funkcji oceny od poziomow aspiracji, odpowiednio jako

d−i = (ai − fi(x))+ i d+i = (fi(x)− ai)+ dla i = 1, 2, . . . ,m (2.1)

gdzie (.)+ oznacza cz ↪esc nieujemn ↪a liczby. Za rozwi ↪azanie optymalne dla prob-lemu programowania celowego uwaza si ↪e rozwi ↪azanie dopuszczalne minimalizuj ↪aceodchylenia od poziomow aspiracji. Miara odchylenia jest okreslona przez tzw.funkcj ↪e osi ↪agni ↪ecia. Najprostsz ↪a i najcz ↪esciej stosowan ↪a funkcj ↪a osi ↪agni ↪ecia jestwazona suma odchylen

g(d−,d+) =

m∑i=1

(w−i d−i + w+

i d+i ) (2.2)

gdzie w−i i w+i s ↪a nieujemnymi wagami odpowiadaj ↪acymi poszczegolnym odchyle-

niom.

Odchylenia s ↪a zwykle wprowadzane do modelu PC za pomoc ↪a dodatkowegouk ladu rownan celowych

fi(x) + d−i − d+i = ai dla i = 1, 2, . . . ,m (2.3)

d−i ≥ 0, d+i ≥ 0 dla i = 1, 2, . . . ,m (2.4)

45

Page 44: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

46 ROZDZIA L 2. PROGRAMOWANIE CELOWE

gdzie d−i , d+i s ↪a nieujemnymi zmiennymi stanu wyrazaj ↪acymi odpowiednio odchyle-

nie w do l i w gor ↪e aktualnej wartosci i-tej funkcji oceny od odpowiedniego poziomuaspiracji ai. Zauwazmy, ze zmienne d−i i d+

i zdefiniowane za pomoc ↪a rownan celo-wych (2.3)–(2.4) wyrazaj ↪a odpowiednie odchylenia (2.1) wtedy i tylko wtedy, gdyspe lniony jest warunek

d−i d+i = 0 dla i = 1, 2, . . . ,m (2.5)

W rownaniach celowych (2.3)–(2.4) warunek ten nie wyst ↪epuje i dlatego istniej ↪arozwi ↪azania dopuszczalne (x,d−,d+) nie spe lniaj ↪ace (2.1). W programowaniu ce-lowym zak lada si ↪e jednak, ze wagi w−i i w+

i s ↪a nieujemne. Jezeli ponadto dlakazdego i przynajmniej jedna z wag jest dodatnia, czyli

w−i + w+i > 0 dla i = 1, 2, . . . ,m (2.6)

to warunek (2.5) jest spe lniony przez wszystkie rozwi ↪azania optymalne. Co wi ↪ecej,warunek (2.6) gwarantuje spe lnienie (2.5) w rozwi ↪azaniu optymalnym nawet bezza lozenia nieujemnosci wag. Natomiast w przypadku, gdy w−i0 = w+

i0= 0 dla pew-

nego i0, istniej ↪a rozwi ↪azania optymalne (x,d−,d+) nie spe lniaj ↪ace warunku (2.5).Zauwazmy jednak, ze rozwi ↪azaniem problemu decyzyjnego jest wektor x, a nie ca latrojka (x,d−,d+). Dlatego przy stosowaniu programowania celowego istotne jestnie tyle zagwarantowanie, ze zmienne d−i i d+

i wyrazaj ↪a odpowiednie odchylenia(2.1), co fakt, ze wyznaczony optymalny wektor x minimalizuje zadan ↪a funkcj ↪eodchylen. Innymi s lowy, interesuje nas, kiedy wektor x b ↪ed ↪acy rozwi ↪azaniem opty-malnym zadania

min {g(d−,d+) : x ∈ Q oraz (2.3) i (2.4)} (2.7)

jest jednoczesnie rozwi ↪azaniem optymalnym zadania

min {g(d−,d+) : x ∈ Q oraz (2.1)} (2.8)

Twierdzenie 2.1 W przypadku wazonej funkcji osi ↪agni ↪ecia (2.2) z wagamispe lniaj ↪acymi warunek

w−i + w+i ≥ 0 dla i = 1, 2, . . . ,m (2.9)

problemy (2.7) i (2.8) s ↪a sobie rownowazne w tym sensie, ze wektor dopuszczalnyx ∈ Q jest rozwi ↪azaniem optymalnym problemu (2.7) wtedy i tylko wtedy, gdy jeston rozwi ↪azaniem optymalnym problemu (2.8).

Dowod. Wektor x jest dopuszczalny dla problemu (2.8) wtedy i tylko wtedy, gdyjest dopuszczalny dla rozszerzonego problemu (2.7). Dok ladniej, kazdemu wek-torowi x dopuszczalnemu dla problemu (2.8) odpowiada zbior (x,d−(t),d+(t))rozwi ↪azan dopuszczalnych dla problemu (2.7), gdzie

d−i (t) = (ai−fi(x))++ti, d+i (t) = (fi(x)−ai)++ti, t = (t1, t2, . . . , tm)T , ti ≥ 0

Obliczaj ↪ac wartosc funkcji osi ↪agni ↪ecia dla (x,d−(t),d+(t)) otrzymujemym∑i=1

(w−i d−i (t) + w+

i d+i (t)) =

m∑i=1

(w−i (ai − fi(x))+ + w+i (fi(x)− ai)+) +

+

m∑i=1

ti(w−i + w+

i )

Page 45: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.1. MODELE PROGRAMOWANIA CELOWEGO 47

Zatem, na mocy nierownosci (2.9), g(d−(0),d+(0)) ≤ g(d−(t),d+(t)), co dowodziprawdziwosci twierdzenia.

Funkcja osi ↪agni ↪ecia (2.2) ma postac wazonej normy l1 (nie jest ona norm ↪a zewzgl ↪edu na mozliwosc wyst ↪epowania wag zerowych). Do definicji funkcji osi ↪agni ↪eciamog ↪a byc rowniez uzyte inne normy lp: ‖y‖p = (

∑mi=1 |yi|p)1/p. Wi ↪ekszosc z nich

prowadzi jednak do nieliniowych funkcji osi ↪agni ↪ecia, co stanowi istotn ↪a komplikacj ↪emodelu w przypadku zadan WPL. Dlatego poza norm ↪a l1 w programowaniu ce-lowym stosuje si ↪e jedynie niekiedy norm ↪e l∞ (przypadek graniczny dla p → ∞,‖y‖∞ = maxi=1,...,m |yi|), co prowadzi do tzw. minimaksowej funkcji osi ↪agni ↪ecia

g(d−,d+) = maxi=1,...,m

(w−i d−i + w+

i d+i ) (2.10)

Zadanie programowania celowego (2.7) z minimaksow ↪a funkcj ↪a osi ↪agni ↪ecia (2.10)moze generowac optymalne wartosci zmiennych d−i i d+

i nie spe lniaj ↪ace warunku(2.5) nawet w przypadku nieujemnych wag spe lniaj ↪acych warunek (2.6). Jest tozapewne jedna z przyczyn znacznie rzadszego stosowania minimaksowej funkcjiosi ↪agni ↪ecia. Niemniej jednak dla minimaksowego programowania celowego praw-dziwe jest nast ↪epuj ↪acy odpowiednik twierdzenia 2.1.

Twierdzenie 2.2 W przypadku minimaksowej funkcji osi ↪agni ↪ecia (2.10) z wagamispe lniaj ↪acymi warunek (2.9) problemy (2.7) i (2.8) s ↪a sobie rownowazne w tymsensie, ze wektor dopuszczalny x ∈ Q jest rozwi ↪azaniem optymalnym problemu(2.7) wtedy i tylko wtedy, gdy jest on rozwi ↪azaniem optymalnym problemu (2.8).

Dowod. Wektor x jest dopuszczalny dla problemu (2.8) wtedy i tylko wtedy, gdyjest dopuszczalny dla rozszerzonego problemu (2.7). Dok ladniej, kazdemu wek-torowi x dopuszczalnemu dla problemu (2.8) odpowiada zbior (x,d−(t),d+(t))rozwi ↪azan dopuszczalnych dla problemu (2.7), gdzie

d−i (t) = (ai−fi(x))++ti, d+i (t) = (fi(x)−ai)++ti, t = (t1, t2, . . . , tm)T , ti ≥ 0

Zauwazmy, ze

w−i d−i (t) + w+

i d+i (t) = w−i (ai − fi(x))+ + w+

i (fi(x)− ai)+ + ti(w−i + w+

i )

Zatem, na mocy nierownosci (2.9), g(d−(0),d+(0)) ≤ g(d−(t),d+(t)), co dowodziprawdziwosci twierdzenia.

Koncepcja stosowania poziomow aspiracji jako parametrow steruj ↪acych do mo-delowania preferencji w interaktywnym systemie wspomagania decyzji jest latworozumiana i ch ↪etnie akceptowana przez uzytkownikow tych systemow. Funkcjeosi ↪agni ↪ecia (2.2) i (2.10) wymagaj ↪a jednak zdefiniowania rowniez wag dla po-szczegolnych odchylen, co nie jest latwe. Oznacza to koniecznosc okreslenia stopsubstytucji dla poszczegolnych ocen. Dlatego powszechnie stosowane jest tzw. lek-sykograficzne programowanie celowe (Ignizio, 1982), gdzie wprowadza si ↪e hierarchi ↪eminimalizacji pewnych grup odchylen. Ustalenie odpowiednich wag jest wtedyistotne tylko w ramach grupy odchylen minimalizowanych na tym samym poziomiepriorytetu (hierarchii). W leksykograficznym programowaniu celowym poszukujesi ↪e minimum leksykograficznego wektorowej funkcji osi ↪agni ↪ecia

Page 46: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

48 ROZDZIA L 2. PROGRAMOWANIE CELOWE

g(d−,d+) = (g1(d−,d+), g2(d−,d+), . . . , gp(d−,d+)) (2.11)

ze sk ladowymi gk(d−,d+) w postaci standardowych funkcji osi ↪agni ↪ecia (2.2), czyli

gk(d−,d+) =∑i∈I

(w−kid−i + w+

kid+i ) (2.12)

gdzie

w−ki wspo lczynnik wagowy (waga) zmiennej d−i dla priorytetu k,

w+ki wspo lczynnik wagowy (waga) zmiennej d+

i dla priorytetu k.

Istnieje tez mozliwosc wykorzystania w leksykograficznym programowaniu celo-wym minimaksowych funkcji osi ↪agni ↪ecia (2.10). Zauwazmy, ze wszystkie sk ladowegk(d−,d+) s ↪a formalnie funkcjami tych samych wektorow odchylen d− i d+. Wpraktyce kazda z nich zalezy tylko od pewnego podzbioru zmiennych d−i i d+

i oniezerowych odpowiednich wspo lczynnikach wagowych w−ki i w+

ki.W przypadku leksykograficznego programowania celowego wektor x b ↪ed ↪acy

rozwi ↪azaniem optymalnym zadania

lexmin {g(d−,d+) : x ∈ Q oraz (2.3) i (2.4)} (2.13)

jest jednoczesnie rozwi ↪azaniem optymalnym zadania

lexmin {g(d−,d+) : x ∈ Q oraz (2.1)} (2.14)

o ile macierze wag W− = (w−ki)k=1,...,p;i=1,...,m i W+ = (w+ki)k=1,...,p;i=1,...,m

spe lniaj ↪a nast ↪epuj ↪ac ↪a nierownosc leksykograficzn ↪a

W− + W+ ≥lex 0 (2.15)

Tu i w dalszej cz ↪esci pracy przyjmujemy, ze nierownosc leksykograficzna zastowanado macierzy oznacza uk lad nierownosci leksykograficznych dla poszczegolnych ko-lumn macierzy. To znaczy, warunek (2.15) okresla uk lad nierownosci

W−i + W+

i ≥lex 0 dla i = 1, 2, . . . ,m

gdzie W−i = (w−ki)k=1,...,p i W+

i = (w+ki)k=1,...,p oznaczaj ↪a i–te kolumny odpowied-

nich macierzy wag.

Twierdzenie 2.3 W przypadku funkcji osi ↪agni ↪ecia (2.11)–(2.12) z macierzamiwag spe lniaj ↪acymi nierownosc (2.15) problemy (2.13) i (2.14) s ↪a sobie rownowaznew tym sensie, ze wektor dopuszczalny x ∈ Q jest rozwi ↪azaniem optymalnym prob-lemu (2.13) wtedy i tylko wtedy, gdy jest on rozwi ↪azaniem optymalnym problemu(2.14).

Dowod. Wektor x jest dopuszczalny dla problemu (2.14) wtedy i tylko wtedy, gdyjest dopuszczalny dla rozszerzonego problemu (2.13). Dok ladniej, kazdemu wek-torowi x dopuszczalnemu dla problemu (2.14) odpowiada zbior (x,d−(t),d+(t))rozwi ↪azan dopuszczalnych dla problemu (2.13), gdzie

d−i (t) = (ai−fi(x))++ti, d+i (t) = (fi(x)−ai)++ti, t = (t1, t2, . . . , tm)T , ti ≥ 0

Obliczaj ↪ac funkcj ↪e osi ↪agni ↪ecia dla (x,d−(t),d+(t)) otrzymujemy

Page 47: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.1. MODELE PROGRAMOWANIA CELOWEGO 49

W−d−(t) + W+d+(t) = W−(a− f(x))+ + W+(f(x)− a)+ + (W− + W+)t

Zatem, na mocy nierownosci (2.15), g(d−(0),d+(0)) ≤lex g(d−(t),d+(t)), co do-wodzi prawdziwosci twierdzenia.

W rozwazanych sformu lowaniach zadan programowania celowego wyst ↪epowa lzbior dopuszczalny Q. W typowych modelach programowania celowego (por. Igni-zio, 1982) warunki dopuszczalnosci s ↪a traktowane jako pewne cele do osi ↪agni ↪ecia.Zauwazmy, ze ograniczenia zbioru dopuszczalnego mog ↪a byc interpretowane jakowymagania, by pewne funkcje zmiennych decyzyjnych osi ↪aga ly okreslone wartosci.Funkcje te mozna interpretowac jako dodatkowe funkcje oceny, a wymaganewartosci jako odpowiadaj ↪ace im cele. Kazde ograniczenie jest zast ↪epowanerownaniem celowym z celem zdefiniowanym jako odpowiedni wspo lczynnik prawejstrony

fi(x) + d−i − d+i = ai

Dla kazdego celu okresla si ↪e odchylenia niedopuszczalne w jego realizacji. Maj ↪a onebyc rowne zeru, aby spe lnione by ly ograniczenia modelu. Dok ladniej, nierownoscifi(x) ≤ ai odpowiada niedopuszczalne odchylenie w gor ↪e d

+i ; nierownosci fi(x) ≥

ai odpowiada niedopuszczalne odchylenie w do l d−i , a rownaniu fi(x) = ai odpo-wiadaj ↪a niedopuszczalne oba odchylenia d+

i i d−i .Mozliwe s ↪a dwa podejscia do modelowania odchylen niedopuszczalnych. Pierw-

sze z nich, nazywane technik ↪a celow absolutnych (Ignizio, 1976), wykorzystujeleksykograficzn ↪a funkcj ↪e osi ↪agni ↪ecia. W tym podejsciu sum ↪e wszystkich niedopusz-czalnych odchylen traktuje si ↪e jako skalarn ↪a funkcj ↪e osi ↪agni ↪ecia minimalizowan ↪a napierwszym (najwyzszym) poziomie priorytetu. Pozwala to na elastyczne traktowa-nie ograniczen.

Technika celow absolutnych pozwala na unikni ↪ecie problemu dodatkowych ogra-niczen w leksykograficznym modelu PC. Jednakze zastosowanie tej techniki doprostego wazonego modelu PC przekszta lca go w model leksykograficzny. W tejsytuacji lepsze wydaje si ↪e drugie podejscie, nazywane technik ↪a sztywnych celow. Wtym podejsciu z ↪ada si ↪e, by niedopuszczalne odchylenia by ly rowne zeru i pomija si ↪eje w matematycznym sformu lowaniu modelu. Technika sztywnych celow moze bycuzywana zarowno do modelu leksykograficznego, jak i wazonego, nie naruszaj ↪ac ichspecyfiki. Pomijanie niektorych odchylen powoduje jednak pewn ↪a nieregularnosc wopisie modelu. Dlatego do rozwazan teoretycznych, gdzie istotna jest jednorodnoscopisu modelu, b ↪edziemy stosowac odmienny sposob reprezentacji sztywnych celow.Zamiast wymuszac zerowanie niedopuszczalnych odchylen przez pomijanie odpo-wiednich zmiennych stanu w modelu PC, ten sam efekt mozna osi ↪agnac nadaj ↪acwartosc +∞ odpowiednim wspo lczynnikom wag. Zapewnia to regularn ↪a postac mo-delu PC, a jedyna nieregularnosc jest zwi ↪azana z wyst ↪epowaniem nieskonczonychwspo lczynnikow. W dalszych rozwazaniach przyjmujemy, ze 0·∞ = 0 i 0·(−∞) = 0.

Typowe sformu lowanie leksykograficznego liniowego problemu PC jest nast ↪epu-j ↪ace

wyznaczyc wektor x = (x1, x2, . . . , xn)T minimalizuj ↪acy leksykograficznie

g(d−,d+) = (g1(d−,d+), g2(d−,d+), . . . , gp(d−,d+)) (2.16)

pod warunkiem, ze

Page 48: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

50 ROZDZIA L 2. PROGRAMOWANIE CELOWE

∑j∈J

cijxj + d−i − d+i = bi dla i ∈ I (2.17)

x>= 0, d−

>= 0, d+ >

= 0 (2.18)

gdzie

I = {1, 2, . . . ,m} zbior indeksow funkcji oceny,

J = {1, 2, . . . , n} zbior indeksow zmiennych decyzyjnych,

xj j–ta zmienna decyzyjna (strukturalna),

cij wspo lczynnik przy xj w i–tej funkcji oceny,

ai cel dla i–tej funkcji oceny,

d−i odchylenie w do l dla i–tej funkcji oceny,

d+i odchylenie w gor ↪e dla i–tej funkcji oceny,

gk(d−,d+) funkcja osi ↪agni ↪ecia postaci (2.12) minimalizowana dla prio-rytetu k (k = 1, 2, . . . , p).

Wiele zastosowan praktycznych wymaga wprowadzenia tzw. celow przedzia- lowych (Romero, 1991). Standardowy cel dla funkcji oceny fi jest zdefiniownyprzez poziom aspiracji jako punkt ai. Cele przedzia lowe stanowi ↪a uogolnienie takokreslonego celu na przedzia l liczbowy [a−i ; a+

i ] z odchyleniami okreslonymi odpo-wiednio jako d−i = (a−i −fi(x))+ i d+

i = (fi(x)−a+i )+. Standardowe cele punktowe

wyst ↪epuj ↪a w modelu (2.16)–(2.18) jako prawe strony rownan celowych (2.18). Dlarozwazan dopuszczaj ↪acych wyst ↪epowanie celow przedzia lowych wygodniej jest re-prezentowac cele jako ograniczenia na zmienne, podczas gdy prawe strony rownancelowych s ↪a rowne zeru. Prowadzi to do innej postaci problemu PC, w ktorejzaleznosci (2.17) i (2.18) s ↪a zast ↪apione nast ↪epuj ↪acymi∑

j∈Jcijxj + d−i − d

+i = 0 dla i ∈ I (2.19)

b−j ≤ xj ≤ b+j dla j ∈ J (2.20)

d−>= 0, d+ >

= 0 (2.21)

gdzie pewne ograniczenia b+j i b−j mog ↪a przyjmowac wartosci odpowiednio ∞lub −∞. Zauwazmy, ze dla dowolnego problemu PC zaleznosci (2.17) i (2.18)mozna zast ↪apic zaleznosciami (2.19)–(2.21). Na przyk lad wprowadzaj ↪ac dodatkowezmienne (logiczne), analogicznie jak w standardowych pakietach programowania li-niowego (por. Ogryczak, 1989). Ilustruje to ponizszy przyk lad.

Przyk lad 2.1. Rozpatrzmy liniowy model PC zdefiniowany przez liniowe funk-cje oceny fi (i = 1, 2, . . . ,m) i odpowiadaj ↪ace im przedzia ly (lub punkty) satys-fakcjonuj ↪acych wartosci [a−i ; a+

i ]. Zmienne decyzyjne xj (j = 1, 2, . . . , n) musz ↪analezec do pewnych dopuszczalnych przedzia low [b−j ; b+j ]. Model ten moze byc la-two sformu lowany w postaci (2.19)–(2.21). W tym celu przypisujemy kazdej funkcjifi zmienn ↪a logiczn ↪a yi w nast ↪epuj ↪acy sposob

Page 49: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.1. MODELE PROGRAMOWANIA CELOWEGO 51

fi(x)− yi + d−i − d+i = 0 dla i = 1, 2, . . . ,m

b−j ≤ xj ≤ b+j dla j = 1, 2, . . . , n

a−i ≤ yi ≤ a+i dla i = 1, 2, . . . ,m

Otrzymujemy w ten sposob zaleznosci w poz ↪adanej postaci z (n+m)–wymiarowym

wektorem zmiennych strukturalnych

(xy

)i odpowiednimi wektorami ograniczen(

b−

a−

),

(b+

a+

). �

Dla u latwienia dyskusji teoretycznych, problem (2.16) i (2.19)–(2.21) b ↪edziemyzapisywac w postaci macierzowej

wyznaczyc wektor x minimalizuj ↪acy leksykograficznie

[(w−1 d− + w+1 d+), . . . , (w−p d− + w+

p d+)]T = W−d− + W+d+ (2.22)

pod warunkiem, ze

Cx + d− − d+ = 0 (2.23)

b−<= x

<= b+ (2.24)

d−>= 0, d+ >

= 0 (2.25)

gdzie

w−k wektor wiersz wymiaru 1×m jest wektorem wag zmiennych odchylen wdo l dla priorytetu k,

w+k wektor wiersz wymiaru 1×m jest wektorem wag zmiennych odchylen w

gor ↪e dla priorytetu k,

W− macierz wymiaru p×m sk ladaj ↪aca si ↪e z wierszy w−k ,

W+ macierz wymiaru p×m sk ladaj ↪aca si ↪e z wierszy w+k ,

C macierz wspo lczynnikow wymiaru m× n,

b− wektor kolumna wymiaru n × 1 jest wektorem dolnych ograniczen nazmienne decyzyjne,

b+ wektor kolumna wymiaru n × 1 jest wektorem gornych ograniczen nazmienne decyzyjne,

x wektor kolumna wymiaru n× 1 jest wektorem zmiennych decyzyjnych,

d− wektor kolumna wymiaru m × 1 jest wektorem zmiennych odchylen wdo l,

d+ wektor kolumna wymiaru m × 1 jest wektorem zmiennych odchylen wgor ↪e.

Zgodnie z wczesniejszymi ustaleniami, dla niektorych wspo lczynnikow w mo-delu (2.22)–(2.25) dopuszczamy nieskonczone wartosci. Dok ladniej, mog ↪a to bycnast ↪epuj ↪ace wspo lczynniki:

10 b−j = −∞ (xj jest nieograniczone z do lu),

Page 50: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

52 ROZDZIA L 2. PROGRAMOWANIE CELOWE

20 b+j = +∞ (xj jest nieograniczone z gory),

30 w−1i = w−2i = . . . = w−pi = +∞ (d−i = 0, niedopuszczalne jest odchylenie w do ldla celu i),

40 w+1i = w+

2i = . . . = w+pi = +∞ (d+

i = 0, niedopuszczalne jest odchylenie w gor ↪edla celu i).

Zauwazmy, ze jesli wspo lczynniki wag nie spe lniaj ↪a nierownosci (2.15), to prob-lem (2.22)–(2.25) jest nieograniczony. Podobnie, nie ma powodow do rozpatrywaniamodelu PC nie spe lniaj ↪acego nierownosci

b+ − b−>= 0 (2.26)

Problemy nie spe lniaj ↪ace tej nierownosci s ↪a jawnie sprzeczne. O problemie PC, dlaktorego spe lnione s ↪a obie nierownosci (2.15) i (2.26), mowimy, ze jest problememdobrze postawionym i dalej b ↪edziemy si ↪e zajmowac tylko takimi problemami.

2.2 Symetryczna teoria dualnosci

Wazn ↪a zalet ↪a programowania celowego jest mozliwosc rozwini ↪ecia kompletnejteorii dualnosci dla liniowych (wazonych i leksykograficznych) modeli programowa-nia celowego i wykorzystania jej do analizy wrazliwosci rozwi ↪azania. W tym podroz-dziale przedstawiamy symetryczn ↪a teori ↪e dualnosci liniowych zadan programowa-nia celowego (Ogryczak, 1988), w ktorej zadanie dualne do zadania programowaniacelowego jest tez zadaniem programowaniem celowego. Dla pary dualnych zadanprogramowania celowego wyprowadzimy odpowiedniki klasycznych zaleznosci dual-nych w programowaniu liniowym, l ↪acznie z w lasnosci ↪a punktu siod lowego i wzoramina wartosci krancowe.

Dla uproszczenia zapisu pos luzymy si ↪e jawn ↪a postaci ↪a odchylen w modelu PC.To znaczy, zast ↪apimy d− i d+ odpowiednio przez (−Cx)+ i (Cx)+, gdzie ope-rator (.)+ zastosowany do wektora dzia la na wszystkich wspo lrz ↪ednych wektora.Sformu lujmy pierwotny problem PC wyrazony wzorami (2.22)–(2.25) jako prob-lem leksykograficzny

PPC : lexmin {W−(−Cx)+ + W+(Cx)+ : b−<= x

<= b+} (2.27)

Wektor x nazywamy dopuszczalnym dla pierwotnego problemu PC, jesli spe lnia

nierownosc b−<= x

<= b+. Dopuszczalny wektor x0 nazywamy optymal-

nym, jesli minimalizuje leksykograficznie wektorow ↪a funkcj ↪e osi ↪agni ↪ecia h(x) =W−(−Cx)+ + W+(Cx)+ na ca lym zbiorze dopuszczalnym, to znaczy

W−(−Cx0)+ + W+(Cx0)+ ≤lex W−(−Cx)+ + W+(Cx)+

dla dowolnego dopuszczalnego x. Na mocy twierdzenia 2.3 dobrze postawionyproblem (2.22)–(2.25) jest rownowazny problemowi (2.27). Problem (2.22)–(2.25)b ↪edziemy traktowali jako rozszerzon ↪a postac pierwotnego problemu PC (2.27).

Zauwazmy, ze funkcj ↪e osi ↪agni ↪ecia problemu PPC (2.27) mozna wyrazic nast ↪e-puj ↪aco

Page 51: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 53

h(x) = W−(−Cx)+ + W+(Cx)+ =

=1

2(W− + W+)|Cx|+ 1

2(W− −W+)(−Cx)+ +

1

2(W+ −W−)(Cx)+ =

=1

2(W− + W+)|Cx|+ 1

2(W+ −W−)Cx

gdzie operator modu lu jest rozumiany jako operacja po wspo lrz ↪ednych. Zatem,jezeli spe lniona jest nierownosc (2.15), to dla dowolnych x′, x′′ i α1, α2 ≥ 0,α1 + α2 = 1

h(α1x′ + α2x

′′) ≤lex α1h(x′) + α2h(x′′)

czyli funkcja osi ↪agni ↪ecia jest leksykograficznie wypuk la. Co za tym idzie, leksyko-graficzne minimum lokalne funkcji osi ↪agni ↪ecia jest rowniez jej minimum globalnym.

Rozpatrzmy najpierw wazony problem PC, czyli przypadek problemu PC zeskalarn ↪a funkcj ↪a osi ↪agni ↪ecia (tzn. p = 1). Kazdy wazony problem PC moznasformu lowac jako problem programowania liniowego ze specjaln ↪a struktur ↪a macie-rzy ograniczen. Zatem zgodnie z teori ↪a dualnosci programowania liniowego mozemyzdefiniowac dualny skalarny problem PC.

Pierwotny skalarny problem PC ma postac

min {w−(−Cx)+ + w+(Cx)+ : b−<= x

<= b+} (2.28)

gdzie w− = w−1 i w+ = w+1 s ↪a wierszami wspo lczynnikow wag. Problem ten

mozna rowniez zapisac w rozwini ↪etej postaci jako pierwotny problem programowa-nia liniowego

wyznaczyc wektor x minimalizuj ↪acy

w−d− + w+d+

pod warunkiem, ze s ↪a spe lnione zaleznosci (2.23), (2.24) i (2.25).

Odpowiedni problem dualny ma wtedy postac

wyznaczyc wektor x maksymalizuj ↪acy

v−b− − v+b+ (2.29)

pod warunkiem, ze

uC + v− − v+ = 0 (2.30)

−w+ <= u

<= w− (2.31)

v−>= 0, v+ >

= 0 (2.32)

gdzie

u wektor wiersz wymiaru 1 ×m jest wektorem dualnych zmiennych struk-turalnych,

v− wektor wiersz wymiaru 1×n jest wektorem dualnych zmiennych odchylenw do l,

v+ wektor wiersz wymiaru 1×n jest wektorem dualnych zmiennych odchylenw gor ↪e.

Page 52: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

54 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Problem (2.29)–(2.32) ma szczegoln ↪a struktur ↪e problemu programowania celo-wego, a dok ladniej jest to rozwini ↪eta postac problemu PC

max {(−uC)+b− − (uC)+b+ : −w+ <= u

<= w−} (2.33)

Latwo sprawdzic, ze ten problem jest dobrze postawiony wtedy, gdy pierwotnyproblem PC (2.28) jest dobrze postawiony. Problem (2.33) b ↪edziemy nazywacproblemem dualnym do pierwotnego problemu (2.28).

Korzystaj ↪ac z teorii dualnosci dla programowania liniowego, mozemy ustaliczaleznosci pomi ↪edzy pierwotnym (2.28) i dualnym (2.33) problemem PC. Wszyst-kie przedstawione tu twierdzenia, z wyj ↪atkiem twierdzenia 2.4 i jednego punktu wtwierdzeniu 2.6, wynikaj ↪a bezposrednio z teorii dualnosci w programowaniu linio-wym, zastosowanej do rozwini ↪etej postaci pierwotnego i dualnego problemu PC. Ztego powodu ich dowody zostan ↪a pomini ↪ete.

Twierdzenie 2.4 Jezeli x jest dopuszczalny dla pierwotnego problemu PC i u jestdopuszczalny dla dualnego problemu PC, to jest spe lniona nast ↪epuj ↪aca nierownosc

w−(−Cx)+ + w+(Cx)+>= −uCx

>= (−uC)+b− − (uC)+b+

Dowod.w−(−Cx)+ + w+(Cx)+

>= u(−Cx)+ − u(Cx)+ = −uCx =

= (−uC)+x− (uC)+x>= (−uC)+b− − (uC)+b+

Twierdzenie 2.5 Jezeli jeden z problemow PC, pierwotny lub dualny ma skon-czone rozwi ↪azanie optymalne, to drugi problem takze ma skonczone rozwi ↪azanieoptymalne, a optymalne wartosci funkcji osi ↪agni ↪ecia s ↪a sobie rowne.

Liniowy problem PC zazwyczaj ma rozwi ↪azanie. Szczegolnie, gdy spe lniones ↪a dodatkowe warunki (2.15) i (2.26). Ta w lasnosc dotyczy jednak problemow, wktorych wyst ↪epuj ↪a tylko skonczone wspo lczynniki danych.

Wniosek 2.1 Jezeli wszystkie wspo lczynniki danych s ↪a skonczone, to zarownopierwotny jak i dualny problem PC maj ↪a skonczone rozwi ↪azania optymalne, a opty-malne wartosci funkcji osi ↪agni ↪ecia s ↪a sobie rowne.

Twierdzenie 2.6 Nast ↪epuj ↪ace warunki s ↪a rownowazne:10 x0 jest rozwi ↪azaniem optymalnym pierwotnego problemu PC i u0 jest rozwi ↪aza-

niem optymalnym problemu dualnego;

20 x0 i u0 s ↪a dopuszczalne dla odpowiednich problemow PC, a wartosci funkcjiosi ↪agni ↪ecia s ↪a skonczone i rowne −u0Cx0, to znaczy

w−(−Cx0)+ + w+(Cx0)+ = (−uC0)+b− − (uC0)+b+ = −u0Cx0

30 x0 i u0 s ↪a dopuszczalne dla odpowiednich problemow PC oraz s ↪a spe lnione wa-runki komplementarnosci

(u0 + w+)(Cx0)+ = 0 (2.34)

(w− − u0)(−Cx0)+ = 0 (2.35)

(−u0C)+(x0 − b−) = 0 (2.36)

(u0C)+(b+ − x0) = 0 (2.37)

Page 53: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 55

40 para (x0,u0) jest punktem siod lowym funkcji

L(x,u) = (w− − u)(−Cx)+ + (w+ + u)(Cx)+ − (−uC)+(x− b−) +

+ (uC)+(b+ − x)− uCx

to znaczy, L(x0,u) ≤ L(x0,u0) ≤ L(x,u0) dla dowolnych x ∈ Rn i u ∈ Rm;

50 x0 i u0 s ↪a dopuszczalne dla odpowiednich problemow PC, a para (x0,u0) jestpunktem siod lowym funkcji L(x,u) = −uCx na iloczynie kartezjanskim zbiorowdopuszczalnych, to znaczy, −uCx0 ≤ −u0Cx0 ≤ −u0Cx dla dowolnych do-puszczalnych x oraz u.

Dowod. Warunki 10, 30 oraz 40 s ↪a rownowazne na mocy teorii dualnosci progra-mowania liniowego. Rownowaznosc warunkow 10 i 20 wynika z twierdzen 2.4 i 2.5.Zatem wystarczy pokazac rownowaznosc warunkow 30 i 50.

Warunki (2.34) i (2.35) s ↪a rownowazne warunkom

(−u0C)+(x0 − x) ≤ 0 oraz (u0C)+(x− x0) ≤ 0

dla dowolnego dopuszczalnego x, czyli warunkowi

−u0Cx0 ≤ −u0Cx dla dowolnego dopuszczalnego x

Analogicznie mozna udowodnic, ze warunek

−uCx0 ≤ −u0Cx0 dla dowolnego dopuszczalnego u

jest rownowazny warunkom (2.36) i (2.37), co konczy dowod.

W programowaniu liniowym rozwi ↪azanie zadania dualnego moze byc wykorzy-stane do analizy wrazliwosci zadania na zaburzenia danych. Dok ladniej, znaj ↪acrozwi ↪azanie dualne, mozna obliczyc tak zwane wartosci krancowe (marginalne) dlaroznych zaburzen danych. Wartosci krancowe s ↪a definiowane jako pochodne kie-runkowe

z′∆H(H) = limα→0+

z(H + α∆H)− z(H)

α

wartosci optymalnej z (rozpatrywanej jako funkcja danych H) w kierunku zabu-rzen danych ∆H. Wartosci krancowe mozna obliczac stosuj ↪ac wzor Millsa (patrzMills, 1956; Williams, 1963). Najszerzej wykorzystuje si ↪e analiz ↪e zaburzen wektoraprawych stron.

W programowaniu celowym mozna przeprowadzac podobn ↪a analiz ↪e. Jednakzew pierwotnym problemie PC wektor prawych stron jest strukturalnie rowny zeru.Bardziej interesuj ↪ace jest tu badanie zaburzen wektorow prostych ograniczen nazmienne, jako ze definiuj ↪a one poziomy aspiracji dla poszczegolnych funkcji oceny.Oczywiscie, rozpatrujemy tylko zaburzenia danych skonczonych. Twierdzenie 2.7okresla efekty zaburzen prostych ograniczen na zmienne.

Twierdzenie 2.7 Niech Je b ↪edzie zbiorem rownosciowych prostych ograniczen nazmienne, to znaczy Je = {j ∈ J : b−j = b+j }. Jezeli pierwotny problem PC ma

skonczone rozwi ↪azanie optymalne oraz wszystkie wspo lczynniki wag w−i i w+i s ↪a

skonczone, to istnieje α0 > 0 takie, ze zaburzony problem PC

Page 54: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

56 ROZDZIA L 2. PROGRAMOWANIE CELOWE

min {w−(−Cx)+ + w+(Cx)+ : b− + ∆b−<= x

<= b+ + ∆b+}

ma rozwi ↪azanie, gdy

|∆b−j | < α0 i |∆b+j | < α0 dla j ∈ J \ Je i ∆b−j ≤ ∆b+j dla j ∈ JeOdpowiednie wartosci krancowe okresla wzor

z′(∆b−,∆b+) = maxu∈S∗

[(−uC)+∆b− − (uC)+∆b+] (2.38)

gdzie S∗ jest zbiorem optymalnym dualnego problemu PC.

Typowa analiza postoptymalizacyjna polega na obliczaniu wartosci krancowychdla zaburzen pojedynczych wspo lczynnikow danych. W pierwotnych problemachPC mozna rozpatrywac trzy rodzaje zaburzen prostego ograniczenia na zmienn ↪a:

10 zaburzenie dolnego ograniczenia b−j = b−j + α dla j ∈ Jd,gdzie Jd = {j ∈ J : −∞ < b−j < b+j }

20 zaburzenie gornego ograniczenia b+j = b+j + α dla j ∈ Jg,gdzie Jg = {j ∈ J : b−j < b+j < +∞}

30 zaburzenie ograniczenia rownosciowego (b−j = b+j = bj) b−j = b+j = bj + α dla

j ∈ Je

Uwzgl ↪edniaj ↪ac we wzorze (2.38) dodatnie lub ujemne zaburzenia prostego ogra-niczenia na zmienn ↪a otrzymujemy nast ↪epuj ↪ace wartosci krancowe:

10 z′(+b−j )

= maxu∈S∗

(−uCj)+, z′(−b−j )

= maxu∈S∗

−(−uCj)+ dla j ∈ Jd;

20 z′(+b+j )

= maxu∈S∗

−(uCj)+, z′(−b+j )

= maxu∈S∗

(uCj)+ dla j ∈ Jg;

30 z′(+bj) = maxu∈S∗

−uCj , z′(−bj) = maxu∈S∗

uCj dla j ∈ Je

gdzie Cj oznacza j–t ↪a kolumn ↪e macierzy C.Zauwazmy, ze pewne wspo lczynniki ograniczen b−j i b+j zwykle reprezentuj ↪a

poziomy aspiracji dla funkcji oceny (patrz przyk lad 2.1). Odpowiednia kolumnaCj jest wtedy rowna minus wersorowi jednostkowemu −ej . Zatem niektorewspo lczynniki wektora dualnego u s ↪a cenami dualnymi dla odpowiednich celow.

Wniosek 2.2 Jezeli w pierwotnym problemie PC wyst ↪epuje zmienna logicznazwi ↪azana z funkcj ↪a oceny fi, to wartosci krancowe dla zaburzenia odpowiedniegocelu [a−i ; a+

i ] s ↪a dane wzorami:

10 z′(+a−i )

= maxu∈S∗

(ui)+ i z′(−a−i )

= maxu∈S∗

−(ui)+, odpowiednio dla dodatniego i

ujemnego zaburzenia dolnego poziomu aspiracji a−i ;

20 z′(+a+i )

= maxu∈S∗

−(−ui)+ i z′(−a+i )

= maxu∈S∗

(−ui)+, odpowiednio dla dodat-

niego i ujemnego zaburzenia gornego poziomu aspiracji a+i ;

30 z′(+ai) = maxu∈S∗

ui i z′(−ai) = maxu∈S∗

−ui, odpowiednio dla dodatniego i ujem-

nego zaburzenia poziomu aspiracji ai = a−i = a+i .

Page 55: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 57

Mozna rowniez badac zaburzenia wspo lczynnikow funkcji oceny cij . W roz-wini ↪etej postaci problemu PC macierz C stanowi cz ↪esc macierzy ograniczen. Dla-tego tez, na mocy teorii stabilnosci programowania liniowego (Williams, 1963),wymagana jest regularnosc problemu (ograniczonosc zbioru rozwi ↪azan dopuszczal-nych). Z drugiej strony, ze specyfiki sformu lowania problemu PC wynika, ze niepotrzeba zadnych za lozen dodatkowych, gdy wszystkie wspo lczynniki danych maj ↪awartosci skonczone. Twierdzenie 2.8 okresla efekty zaburzen danych pierwotnegoproblemu PC.

Twierdzenie 2.8 Jezeli wszystkie wspo lczynniki danych maj ↪a wartosci skonczone,to zaburzony problem PC

min {w−[−(C + Γ)x]+ + w+[(C + Γ)x]+ : b−<= x

<= b+}

ma rozwi ↪azanie dla dowolnej macierzy zaburzen Γ wymiaru m× n, a odpowiedni ↪awartosc krancow ↪a okresla wzor

z′Γ = maxu∈S∗

minx∈S

−uΓx (2.39)

gdzie S i S∗ s ↪a zbiorami optymalnymi problemow PC odpowiednio pierwotnego idualnego.

Obliczaj ↪ac wartosc krancow ↪a dla zaburzenia pojedynczego wspo lczynnika cijotrzymujemy

z′(+cij) = maxu∈S∗

minx∈S

−uixj oraz z′(−cij) = maxu∈S∗

minx∈S

uixj

odpowiednio dla dodatniego i ujemnego zaburzenia.Wyniki rozwazan dla przypadku skalarnego mog ↪a byc rozszerzone na ogolne

leksykograficzne liniowe problemy PC poprzez wykorzystanie koncepcji wielowy-miarowego problemu dualnego (Ignizio, 1976, 1984; Isermann, 1982). Wielowymia-rowy problem dualny otrzymuje si ↪e zast ↪epuj ↪ac w problemie skalarnym zmienne uip–wymiarowymi wektorami (kolumnami) Ui. Wszystkie nierownosci skalarne s ↪awtedy zast ↪epowane nierownosciami leksykograficznymi.

Dla danego leksykograficznego problemu PC (patrz (2.27))

PPC : lexmin {W−(−Cx)+ + W+(Cx)+ : b−<= x

<= b+}

problem dualny mozna zapisac w postaci wielowymiarowego problemu PC

DPC : lexmax {(−UC)Lb− − (UC)Lb+ : −W+ ≤lex U ≤lex W−} (2.40)

gdzie U jest macierz ↪a zmiennych dualnych, wymiaru p × m, a kazdy jej wierszuk (k = 1, 2, . . . , p) jest zwi ↪azany z priorytetem k. Operator (.)L oznacza lek-sykograficznie nieujemn ↪a cz ↪esc wektora kolumny. Zastosowany do macierzy (lubwektora wiersza) odnosi si ↪e do poszczegolnych kolumn macierzy. Postac rozwini ↪et ↪aproblemu DPC zapisuje si ↪e jako

wyznaczyc wektor x maksymalizuj ↪acy

V−b− −V+b+ (2.41)

pod warunkiem, ze

UC + V− −V+ = 0 (2.42)

−W+ ≤lex U ≤lex W− (2.43)

V− ≥lex 0, V+ ≥lex 0 (2.44)

Page 56: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

58 ROZDZIA L 2. PROGRAMOWANIE CELOWE

gdzie

U macierz wymiaru (p ×m) jest macierz ↪a dualnych zmiennych struktural-nych,

V− macierz wymiaru (p ×m) jest macierz ↪a dualnych zmiennych odchylen wdo l,

V+ macierz wymiaru (p ×m) jest macierz ↪a dualnych zmiennych odchylen wgor ↪e.

Podobnie jak w przypadku skalarnym, leksykograficzny problem dualny PC jest(wielowymiarowym) dobrze postawionym problemem PC, jesli s ↪a spe lnione warunki(2.15) i (2.26).

Twierdzenie 2.9 Wektorowa funkcja osi ↪agni ↪ecia w wielowymiarowym dualnymproblemie PC jest leksykograficznie wypuk la, to znaczy

h∗(α1U′ + α2U

′′) ≥lex α1h∗(U′) + α2h

∗(U′′) (2.45)

dla dowolnych U′, U′′ oraz α1, α2 ≥ 0, α1 + α2 = 1.

Dowod. Dualn ↪a funkcj ↪e osi ↪agni ↪ecia mozna zapisac jako

h∗(U) = (−UC)Lb− − (UC)Lb+ =

=1

2[(−UC)L + (UC)L](b− − b+)− 1

2UC(b+ + b−)

Z (2.27) wynika nierownosc

{[−(α1U′ + α2U

′′)C]L + [(α1U′ + α2U

′′)C]L}(b− − b+) ≥lex

≥lex α1[(−U′C)L + (U′C)L](b− − b+) + α2[(−U′′C)L + (U′′C)L](b− − b+)

dla dowolnych U′, U′′ oraz α1, α2 ≥ 0, α1 + α2 = 1. St ↪ad wynika nierownosc(2.45).

Wniosek 2.3 Zbior optymalny wielowymiarowego dualnego problemu PC jest wy-puk ly.

Pierwotny leksykograficzny problem PC i wielowymiarowy dualny problem PCspe lniaj ↪a wszystkie typowe zaleznosci dualnosci. Dok ladniej, istniej ↪a leksykogra-ficzne odpowiedniki podstawowych zaleznosci teorii dualnosci programowania linio-wego.

Twierdzenie 2.10 Jezeli x jest dopuszczalny dla pierwotnego leksykograficznegoproblemu PC, a U jest dopuszczalny dla wielowymiarowego dualnego problemu PC,to jest spe lniona nast ↪epuj ↪aca nierownosc

W−(−Cx)+ + W+(Cx)+ ≥lex −UCx ≥lex (−UC)Lb− − (UC)Lb+

Page 57: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 59

Dowod.W−(−Cx)+ + W+(Cx)+ ≥lex U(−Cx)+ −U(Cx)+ == U[(−Cx)+ − (Cx)+] = −UCx = [(−UC)L − (UC)L]x == (−UC)Lx− (UC)Lx ≥lex (−UC)Lb− − (UC)Lb+

Nast ↪epne twierdzenie rozszerza warunki komplementarnosci (2.34)–(2.37) naleksykograficzny problem dualny i jednoczesnie objasnia wielowymiarow ↪a struktur ↪etego problemu.

Twierdzenie 2.11 Jezeli x0 jest rozwi ↪azaniem optymalnym pierwotnego leksyko-graficznego problemu PC, a U0 jest rozwi ↪azaniem optymalnym wielowymiarowegodualnego problemu PC, to

(U0 + W+)(Cx0)+ = 0 (2.46)

(W− −U0)(−Cx0)+ = 0 (2.47)

(−U0C)L(x0 − b−) = 0 (2.48)

(U0C)L(b+ − x0) = 0 (2.49)

i k–ty wiersz U0 (k = 1, 2, . . . , p) jest rozwi ↪azaniem dualnym dla podproblemupierwotnego problemu PC rozwi ↪azywanego dla priorytetu k

Pk : min {w−k (−Cx)+ + w+k (Cx)+ : b−

<= x

<= b+, x ∈ Sk−1} (2.50)

gdzie Sk−1 jest zbiorem optymalnym problemu Pk−1.

Dowod. Indukcyjny ze wzgl ↪edu na p. Zauwazmy, ze twierdzenie jest prawdziwedla skalarnych problemow PC (p = 1). Za lozmy, ze jest prawdziwe dla p = r.

Dla k = r + 1 problem (2.50) ma postac

Pr+1 : min {w−r+1(−Cx)+ + w+r+1(Cx)+ : b−

<= x

<= b+, x ∈ Sr}

Podobnie, (r+ 1)–wymiarowy problem dualny PC mozna wyrazic w postaci prob-lemu jednokryterialnego

wyznaczyc wektor ur+1 i macierz U(r) minimalizuj ↪ace

eTr+1

[(−U(r)

−ur+1

)C

]L

b− − eTr+1

[(U(r)

ur+1

)C

]L

b+

pod warunkiem, ze

−(

(W+)(r)

w+r+1

)≤lex

(U(r)

ur+1

)≤lex

((W−)(r)

w−r+1

), U(r) ∈ S∗r

gdzie er+1 oznacza (r+1)–szy wersor, S∗r zbior optymalny r–wymiarowego dualnegoproblemu PC, (W+)(r), U(r), (W−)(r) s ↪a r–wierszowymi cz ↪esciami odpowiednichmacierzy. Ten problem mozna rozwi ↪azac w dwoch etapach:

10 wyznaczyc wektor ur+1 b ↪ed ↪acy rozwi ↪azaniem optymalnym skalarnego problemu

Page 58: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

60 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Dr+1 : max {∑

j∈J0r∪Jr

(−ur+1Cj)+b−j +

∑j∈Jr

(−ur+1Cj)+b+j +

+∑

j∈J0r∪Jr

(ur+1Cj)+b+j −

∑j∈Jr

(ur+1Cj)+b−j :

ur+1,i ≥ −w+r+1,i dla i ∈ Ird ,

ur+1,i ≤ w−r+1,i dla i ∈ Irg}

gdzie

Jr0 = {j ∈ J : U(r)Cj = 0 dla wszystkich U(r) ∈ S∗r}Jr+ = {j ∈ J : U(r)Cj >lex 0 dla pewnego U(r) ∈ S∗r}Jr− = {j ∈ J : U(r)Cj <lex 0 dla pewnego U(r) ∈ S∗r}Ird = {i ∈ I : U

(r)i = −(W+

i )(r) dla wszystkich U(r) ∈ S∗r}Irg = {i ∈ I : U

(r)i = (W−

i )(r) dla wszystkich U(r) ∈ S∗r}

20 wybrac U(r) ∈ S∗r taki, ze

−(W+i )(r) <lex U

(r)i gdy ur+1,i < −w+

r+1,i

U(r)i <lex (W−

i )(r) gdy ur+1,i > w−r+1,i

(taki U(r) zawsze istnieje poniewaz zbior S∗r jest wypuk ly).

Z za lozenia indukcyjnego wynika, ze problem Pk+1 mozna zapisac w postaci

min {w−r+1(−Cx)+ + w+r+1(Cx)+ : b−j ≤ xj ≤ b

+j dla j ∈ Jr0 ,

b−j ≤ xj ≤ b−j dla j ∈ Jr−,

b+j ≤ xj ≤ b+j dla j ∈ Jr+}

gdzie

w−r+1,i =

{w−r+1,i dla i ∈ Irg+∞ dla i 6∈ Irg

, w+r+1,i =

{w+r+1,i dla i ∈ Ird

+∞ dla i 6∈ Ird

Teraz juz latwo sprawdzic, ze problemy Pr+1 i Dr+1 s ↪a problemami PC odpo-wiednio pierwotnym i dualnym. Tak wi ↪ec, zgodnie z teori ↪a dualnosci dla skalarnychproblemow PC, ur+1 jest rozwi ↪azaniem dualnym pierwotnego podproblemu PC dlapriorytetu r + 1, a co za tym idzie, twierdzenie jest prawdziwe dla p = r + 1.

Wniosek 2.4 Jezeli jeden z problemow PC, leksykograficzny pierwotny lub wielo-wymiarowy dualny, ma skonczone rozwi ↪azanie optymalne, to drugi problem rowniezma skonczone rozwi ↪azanie optymalne.

Wniosek 2.5 Jezeli wszystkie wspo lczynniki danych s ↪a skonczone, to zarowno lek-sykograficzny pierwotny problem PC, jak i wielowymiarowy dualny problem PCmaj ↪a skonczone rozwi ↪azania optymalne oraz odpowiednie wektory wartosci funk-cji osi ↪agni ↪ecia s ↪a sobie rowne.

Page 59: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 61

Nast ↪epne twierdzenie jest posumowaniem warunkow optymalnosci. Wszystkietypowe warunki optymalnosci dla problemow programowania liniowego maj ↪a tuswoje odpowiedniki, w l ↪acznie z w lasnosci ↪a punktu siod lowego.

Twierdzenie 2.12 Nast ↪epuj ↪ace warunki s ↪a rownowazne:

10 x0 jest rozwi ↪azaniem optymalnym leksykograficznego pierwotnego problemu PCoraz U0 jest rozwi ↪azaniem optymalnym wielowymiarowego dualnego problemuPC;

20 x0 i U0 s ↪a dopuszczalne, a odpowiednie wektory wartosci funkcji osi ↪agni ↪ecia s ↪askonczone i rowne −U0Cx0, to znaczy

W−(−Cx0)+ + W+(Cx0)+ = (−U0C)Lb− − (U0C)Lb+ = −U0Cx0

30 x0 i U0 s ↪a dopuszczalne oraz spe lnione s ↪a warunki komplementarnosci (2.46)–(2.49);

40 para (x0,U0) jest leksykograficznym punktem siod lowym funkcji wektorowej

L(x,U) = (W− −U)(−Cx)+ + (U + W+)(Cx)+ − (−UC)L(x− b−) +

+ (UC)L(b+ − x)−UCx

to znaczyL(x0,U) ≤lex L(x0,U0) ≤lex L(x,U0) (2.51)

dla dowolnych x ∈ Rn i U ∈ Rp ×Rm;

50 x0 i U0 s ↪a dopuszczalne oraz para (x0,U0) jest leksykograficznym punktemsiod lowym funkcji wektorowej L(x,U) = −UCx, to znaczy

−UCx0 ≤lex −U0Cx0 ≤lex −U0Cx (2.52)

dla dowolnych dopuszczalnych x i U.

Dowod. Twierdzenie zostanie udowodnione poprzez wykazanie implikacji 20 ⇒10 ⇒ 30 ⇒ 40 ⇒ 20 i rownowaznosci 30 ⇔ 50.

20 ⇒ 10 : Z twierdzenia 2.10 ta implikacja jest oczywista.

10 ⇒ 30 : Ta implikacja wynika z twierdzenia 2.11.

30 ⇒ 40 : Z warunkow (2.46) i (2.47) wynika

L(x0,U0) = −(−U0C)L(x0 − b−)− (U0C)L(b+ − x0)−U0Cx0

Zatem dla dowolnego x

L(x0,U0) = (−U0C)Lb− − (U0C)Lb+ =

= −(−U0C)L(x0 − b−)− (U0C)L(b+ − x0)−U0Cx0) ≤lex≤lex (W− −U0)(−Cx)+ + (U0 + W+)(Cx)+ +

−(−U0C)L(x− b−)− (U0C)L(b+ − x)−U0Cx = L(x,U0)

Podobnie, z warunkow (2.48) i (2.49) wynika

L(x0,U0) = (W− −U0)(−Cx0)+ + (U0 + W+)(Cx0)+ −U0Cx

Page 60: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

62 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Zatem dla dowolnego U

L(x0,U0) = W−(−Cx0)+ + W+(Cx0)+ =

= (W− −U)(−Cx0)+ + (U + W+)(Cx0)+ −UCx0 ≥lex≥lex (W− −U)(−Cx0)+ + (U + W+)(Cx0)+ +

−(−UC)L(x0 − b−)− (UC)L(b+ − x0)−UCx0 = L(x0,U)

40 ⇒ 20 : Praw ↪a nierownosc warunku (2.51) mozna zapisac jako

(−U0C)Lb− − (U0C)Lb+ ≤lex (W− −U0)(−Cx)+ + (U0 + W+)(Cx)+ +

+(−U0C)Lb− − (U0C)Lb+

Tak wi ↪ec, dla dowolnego wektora x s ↪a spe lnione nast ↪epuj ↪ace nierownosci

(W− −U0)(−Cx)+ ≥lex 0 oraz (U0 + W+)(Cx)+ ≥lex 0

Zatem −W+ ≤lex U0 ≤lex W−, czyli U0 jest rozwi ↪azaniem dopuszczalnym dlaproblemu dualnego.

Rozpatrzmy teraz lew ↪a nierownosc w warunku (2.51). Mozna j ↪a zapisac wpostaci

W−(−Cx0)+ + W+(Cx0)+ − (−UC)L(x0 − b−)− (UC)L(b+ − x0) ≤lex≤lex W−(−Cx0)+ + W+(Cx0)+

St ↪ad, dla dowolnej macierzy U s ↪a prawdziwe nast ↪epuj ↪ace nierownosci

(−UC)L(x0 − b−) ≥lex 0 oraz (UC)L(b+ − x0) ≥lex 0

Zatem b−<= x0 <

= b+, czyli x0 jest rozwi ↪azaniem dopuszczalnym dla problemupierwotnego.Co wi ↪ecej, z nierownosci (2.51) wynika

(−U0C)Lb−−(U0C)Lb+ = L(0,U0) ≥lex L(x0,0) = W−(−Cx0)++W+(Cx0)+

co zgodnie z twierdzeniem 2.10 daje 20.

30 ⇔ 50 : Warunki (2.46) i (2.47) s ↪a rownowazne nast ↪epuj ↪acym

(−U0C)L(x0 − x) ≤lex 0 i (U0C)L(x− x0) ≤lex 0

dla dowolnego dopuszczalnego x. Te warunki s ↪a zas rownowazne warunkowi

−U0Cx0 ≤lex −U0Cx dla dowolnego dopuszczalnego x.

Analogicznie mozna pokazac, ze warunki (2.46) i (2.47) s ↪a rownowazne nierownosci

−UCx0 ≤lex −U0Cx0 dla dowolnego dopuszczalnego U.

Warunki komplementarnosci w programowaniu liniowym interpretuje si ↪e zwyklejako implikacje: “jezeli zmienna w jednym problemie przyjmuje wartosc dodatni ↪a,to odpowiadaj ↪ace jej ograniczenie w drugim problemie jest aktywne” oraz “jezeliograniczenie w jednym problemie nie jest aktywne, to odpowiadaj ↪aca mu zmiennaw drugim problemie przyjmuje wartosc zero”. Wniosek 2.6 formu luje warunkikomplementarnosci (2.46)–(2.49) w postaci tego typu implikacji.

Page 61: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 63

Wniosek 2.6 Jezeli x0 i U0 s ↪a rozwi ↪azaniami optymalnymi problemow PC, odpo-wiednio leksykograficznego pierwotnego i wielowymiarowego dualnego, to prawdziwes ↪a nast ↪epuj ↪ace implikacje:

U0i >lex −W+

i ⇒ cix0 ≤ 0

cix0 > 0 ⇒ U0

i = −W+i

U0i <lex W−

i ⇒ cix0 ≥ 0

cix0 < 0 ⇒ U0

i = W−i

x0i > b−j ⇒ U0Cj ≥lex 0

U0Cj <lex 0 ⇒ x0j = b−j

x0j < b+j ⇒ U0Cj ≤lex 0

U0Cj >lex 0 ⇒ x0j = b+j

gdzie ci oznacza i–ty wiersz macierzy C.

Leksykograficzny pierwotny problem PC zwykle rozwi ↪azuje si ↪e jako ci ↪ag prob-lemow skalarnych (2.50). Z twierdzenia 2.11 nie wynika jasno, czy podobn ↪a pro-cedur ↪e mozna zastosowac do rozwi ↪azywania wielowymiarowego dualnego problemuPC. Precyzuje to nast ↪epne twierdzenie.

Twierdzenie 2.13 Jezeli U(r) jest rozwi ↪azaniem optymalnym dla r–wymiarowegodualnego problemu PC, a u jest rozwi ↪azaniem optymalnym problemu

D(U(r)) : max {∑

j∈J0(U(r))∪J−(U(r))

(−uCj)+b−j +

∑j∈J+(U(r))

(−uCj)+b+j +

+∑

j∈J0(U(r))∪J+(U(r))

(uCj)+b+j −

∑j∈J−(U(r))

(uCj)+b+j :

ui ≥ −w+r+1,i dla i ∈ Id(U(r))

ui ≤ w−r+1,i dla i ∈ Ig(U(r))} (2.53)

gdzie

J0(U(r)) = {j ∈ J : U(r)Cj = 0}J−(U(r)) = {j ∈ J : U(r)Cj <lex 0}J+(U(r)) = {j ∈ J : U(r)Cj >lex 0}

Id(U(r)) = {i ∈ I : U

(r)i = −(W+

i )(r)}

Ig(U(r)) = {i ∈ I : U

(r)i = (W−

i )(r)}

to

(U(r)

u

)jest rozwi ↪azaniem optymalnym odpowiedniego (r + 1)–wymiarowego

dualnego problemu PC.

Page 62: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

64 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Dowod. Poniewaz u jest rozwi ↪azaniem optymalnym problemu (2.53), to istniejerozwi ↪azanie optymalne x odpowiedniego pierwotnego problemu PC

P(U(r)) : min {w−r+1(−Cx)+ + w+r+1(Cx)+ : b−j ≤ xj ≤ b

+j dla j ∈ J0(U(r)),

b−j ≤ xj ≤ b−j dla j ∈ J−(U(r)),

b+j ≤ xj ≤ b+j dla j ∈ J+(U(r))}

gdzie

w−r+1,i =

{w−r+1,i dlai ∈ Ig(U(r))

+∞ dlai 6∈ Ig(U(r)), w+

r+1,i =

{w+r+1,i dlai ∈ Id(U(r))

+∞ dlai 6∈ Id(U(r))

Rozwi ↪azanie x spe lnia oczywiscie warunki komplementarnosci

(U(r) + (W+)(r))(Cx)+ = 0

((W−)(r) −U(r))(−Cx)+ = 0

(−U(r)C)L(x− b−) = 0

(U(r)C)L(b+ − x) = 0

Ponadto, zgodnie z twierdzeniem 2.6 s ↪a spe lnione warunki komplementarnosci

(u + w+r+1)(Cx)+ = 0

(w−r+1 − u)(−Cx)+ = 0

(−uC)+(x− b−) = 0

(uC)+(b+ − x) = 0

Tak wi ↪ec s ↪a spe lnione wszystkie warunki punktu 30 w twierdzeniu 2.12 i, co

za tym idzie,

(U(r)

u

)jest rozwi ↪azaniem optymalnym odpowiedniego (r + 1)–

wymiarowego dualnego problemu PC.

W przypadku skalarnym wyprowadzilismy wzory na wartosci krancowe dlama lych zaburzen danych. Podobnie mozna rozpatrywac wektory krancowe opty-malnego wektora osi ↪agni ↪ecia w leksykograficznym problemie PC

z′∆H(H) = limα→0+

1

α[z(H + α∆H)− z(H)]

gdzie H i ∆H oznaczaj ↪a odpowiednio dane i zaburzenia. Jednakze leksykogra-ficzna optymalizacja jest w ogolnym przypadku niestabilna (Klepikowa, 1985) idlatego pewne wartosci krancowe mog ↪a byc nieokreslone (przyjmowac wartoscinieskonczone). Niestabilnosc zadania optymalizacji leksykograficznej jest konse-kwencj ↪a w lasnosci relacji nierownosci leksykograficznej. W szczegolnosci dualnyzbior dopuszczalny, okreslony za pomoc ↪a nierownosci leksykograficznych nie jestzbiorem domkni ↪etym.

Twierdzenie 2.14 Jezeli −w+r < w−r dla pewnego r < p, to zbior dopuszczalny

wielowymiarowego dualnego problemu PC nie jest domkni ↪ety.

Page 63: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 65

Dowod. Rozpatrzmy ci ↪ag rozwi ↪azan dualnych Uα zdefiniowanych nast ↪epuj ↪aco

uαk = −w+k dla k 6= r, r + 1

uαr = −w+r + α(w−r + w+

r )

uαr+1 = −w+r+1 − ε(w−r + w+

r )

gdzie ε jest dodatni ↪a sta l ↪a, a α jest nieujemnym parametrem. Uα jest dopuszczalnedla dowolnego dodatniego α, to znaczy −W+ ≤lex Uα ≤lex W− dla α > 0. Gdyα zbiega do zera, Uα d ↪azy do U0 spe lniaj ↪acego

u0k = −w+

k dla k 6= r + 1

u0r+1 = −w+

r+1 − ε(w−r + w+r )

i tym samym niedopuszczalnego.

Leksykograficzny problem PC jest stabilny dla ma lych zaburzen wspo lczynni-kow prostych ograniczen na zmienne, czyli gdy s ↪a dozwolone tylko zaburzenia tychwspo lczynnikow. Zatem mozna przeprowadzic analiz ↪e wrazliwosci leksykograficz-nego PC ze wzgl ↪edu na zmiany tych wspo lczynnikow i podac wzory na odpowiedniewektory krancowe.

Twierdzenie 2.15 Jezeli leksykograficzny pierwotny problem PC ma skonczonerozwi ↪azanie optymalne i wszystkie wspo lczynniki wag w+

ki i w−ki s ↪a skonczone, toistnieje α0 > 0 takie, ze zaburzony problem PC

lexmin {W−(−Cx)+ + W+(Cx)+ : b− + ∆b−<= x

<= b+ + ∆b+}

ma rozwi ↪azanie optymalne, o ile tylko

|∆b−j | < α0 i |∆b+j | < α0 dla j ∈ J \ Je i ∆b−j ≤ ∆b+j dla j ∈ Je

gdzie Je = {j ∈ J : b−j = b+j } jest zbiorem ograniczen rownosciowych. Odpowiedniwektor krancowy jest wtedy dany wzorem

z′(∆b−,∆b+) = lex maxU∈S∗

[(−UC)L∆b− − (UC)L∆b+] (2.54)

gdzie S∗ jest zbiorem optymalnym wielowymiarowego dualnego problemu PC.

Dowod. Rozpatrzmy wielowymiarowy dualny problem PC (2.40). Poniewazwszystkie wspo lczynniki w+

ki i w−ki s ↪a skonczone, zaburzony problem dualny

DPC(∆b−,∆b+) : lexmax {(−UC)L(b− + ∆b−)− (UC)L(b+ + ∆b−) :

−W+ ≤lex U ≤lex W−}

ma skonczone rozwi ↪azanie optymalne, gdy b−+∆b−<= b+ +∆b+. Na mocy wnio-

sku 2.4 zaburzony pierwotny problem PC ma wtedy rowniez skonczone rozwi ↪azanieoptymalne. Mozna wi ↪ec przyj ↪ac

α0 =1

2minj 6∈Je

(b+j − b−j )

Page 64: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

66 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Przy dostatecznie ma lych zaburzeniach zbior optymalny zaburzonego problemudualnego S∗β jest podzbiorem zbioru optymalnego problemu niezaburzonego S∗.Zatem dla dostatecznie ma lych zaburzen problem DPC(∆b−,∆b+) przyjmuje postac

lexmax {z∗(b−,b+) + (−UC)L∆b− − (UC)L∆b+ : U ∈ S∗}gdzie z∗(b−,b+) oznacza optymalny wektor osi ↪agni ↪ecia niezaburzonego problemudualnego.Optymalne wektory osi ↪agni ↪ecia problemu pierwotnego i problemu dualnego s ↪arowne na mocy twierdzenia 2.12. St ↪ad

z′(∆b−,∆b+) = limα←0+

1

α· lexmax {α(−UC)L∆b− − α(UC)L∆b+ : U ∈ S∗} =

= lex maxU∈S∗

[(−UCL∆b− − (UC)L∆b+]

co konczy dowod.

W leksykograficznych problemach PC, podobnie jak w przypadku skalarnym,rozpatruje si ↪e trzy typy zaburzen wspo lczynnikow prostych ograniczen na zmienne:

10 zaburzenie dolnego ograniczenia b−j = b−j + α dla j ∈ Jd,gdzie Jd = {j ∈ J : −∞ < b−j < b+j }

20 zaburzenie gornego ograniczenia b+j = b+j + α dla j ∈ Jg,gdzie Jg = {j ∈ J : b−j < b+j < +∞}

30 zaburzenie ograniczenia rownosciowego (b−j = b+j = bj) b−j = b+j = bj + α dla

j ∈ Je

Stosuj ↪ac wzor (2.54) dla dodatnich lub ujemnych zaburzen prostego ogranicze-nia na zmienn ↪a otrzymujemy nast ↪epuj ↪ace wektory krancowe:

10 z′(+b−j )

= lex maxU∈S∗

(−UCj)L, z′(−b−j )

= lex maxU∈S∗

−(−UCj)L dla j ∈ Jd;

20 z′(+b+j )

= lex maxU∈S∗

−(UCj)L, z′(−b+j )

= lex maxU∈S∗

(UCj)L dla j ∈ Jg;

30 z′(+bj) = lex maxU∈S∗

−UCj , z′(−bj) = lex maxU∈S∗

UCj dla j ∈ Je

Zauwazmy, ze pewne wspo lczynniki ograniczen b−j i b+j zwykle reprezentuj ↪a po-ziomy aspiracji dla funkcji oceny (patrz przyk lad 2.1). Odpowiednia kolumna Cj

jest wtedy rowna minus wersorowi jednostkowemu −ej . St ↪ad niektore kolumny Ui

macierzy zmiennych dualnych s ↪a wielowymiarowymi cenami dualnymi odpowied-nich celow.

Wniosek 2.7 Jezeli w pierwotnym problemie PC wyst ↪epuje zmienna logicznazwi ↪azana z funkcj ↪a oceny fi, to wektory krancowe dla zaburzenia odpowiedniegocelu [a−i ; a+

i ] s ↪a dane wzorami:

10 z′(+a−i )

= lex maxU∈S∗

(Ui)L i z′(−a−i )

= lex maxU∈S∗

−(Ui)L, odpowiednio dla do-

datniego i ujemnego zaburzenia dolnego poziomu aspiracji a−i ;

Page 65: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.2. SYMETRYCZNA TEORIA DUALNOSCI 67

20 z′(+a+i )

= lex maxU∈S∗

−(−Ui)L i z′(−a+i )

= lex maxU∈S∗

(−Ui)L, odpowiednio dla

dodatniego i ujemnego zaburzenia gornego poziomu aspiracji a+i ;

30 z′(+ai) = lex maxU∈S∗

Ui i z′(−ai) = lex maxU∈S∗

−Ui, odpowiednio dla dodatniego i

ujemnego zaburzenia poziomu aspiracji ai = a−i = a+i .

Przyk lad 2.2. Dla zilustrowania dualnosci w programowaniu celowym rozpa-trzmy model z dwiema funkcjami oceny: f1(x) = x1 + x2 z celem przedzia lowym[a−1 ; a+

1 ] = [10,+∞] oraz f2(x) = 3x1 + 2x2 z celem punktowym a2 = 5. Nalezyzminimalizowac po pierwsze (dla priorytetu 1) odchylenie w do l funkcji f1 i podrugie (dla priorytetu 2) oba odchylenia funkcji f2. Zmienne decyzyjne x1 i x2 s ↪anieujemne i ograniczone z gory przez 100.

Problem mozna sformu lowac jako

lexmin (d−1 , d−2 + d+

2 )T

pod warunkiem, ze

x1 + x2 −x3 +d−1 −d+1 = 0,

3x1 +2x2 −x4 +d−2 −d+2 = 0,

0 ≤ x1 ≤ 100, 0 ≤ x2 ≤ 100, 10 ≤ x3, x4 = 5,

d−>= 0, d+ >

= 0

Mamy wi ↪ec pierwotny problem PC

lexmin

{((−x1 − x2 + x3)+

(−3x1 − 2x2 + x4)+ + (3x1 + 2x2 − x4)+

): 0 ≤ x1 ≤ 100,

0 ≤ x2 ≤ 100, 10 ≤ x3, x4 = 5} (2.55)

Problem dualny ma postac

lexmax {10(U1)L + 5(U2)L − 100(U1 + 3U2)L − 100(U1 + 2U2)L+

−∞(−U1)L − 5(−U2)L :

(00

)≤lex U1 ≤lex

(10

),

(0

−1

)≤lex U2 ≤lex

(01

)}(2.56)

gdzie U1 i U2 s ↪a dwuwymiarowymi zmiennymi dualnymi

U1 =

(u11

u21

), U2 =

(u12

u22

)a nieskonczony wspo lczynnik wagi w funkcji osi ↪agni ↪ecia jest interpretowany jakonierownosc leksykograficzna U1 ≥lex 0.

Problem dualny (2.56) mozna zapisac w postaci rozszerzonej

lexmax 10V−3 + 5V−4 − 100V+1 − 100V+

2 − 5V+4

pod warunkiem, ze

Page 66: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

68 ROZDZIA L 2. PROGRAMOWANIE CELOWE

U1 +3U2 +V−1 −V+1 = 0,

U1 +2U2 +V−2 −V+2 = 0,

−U1 +V−3 = 0,− U2 +V−4 −V+

4 = 0(00

)≤lex U1 ≤lex

(10

),

(0

−1

)≤lex U2 ≤lex

(01

)V−j ≥lex 0, V+

j ≥lex 0 dla j = 1, 2, 3, 4

gdzie wszystkie zmienne Ui, V−j i V+j s ↪a dwuwymiarowe.

Zajmiemy si ↪e teraz analiz ↪a wzajemnych zaleznosci pomi ↪edzy rozwi ↪azaniemoptymalnym problemu pierwotnego i dualnego. Rozwi ↪azuj ↪ac problem pierwotnyotrzymujemy:

10 problem dla pierwszego poziomu priorytetu (PPC1)

min {(−x1 − x2 + x3)+ : 0 ≤ x1 ≤ 100, 0 ≤ x2 ≤ 100, 10 ≤ x3, x4 = 5}ze zbiorem optymalnym

S1 = {x : −x1 − x2 + x3 ≤ 0, 0 ≤ x1 ≤ 100, 0 ≤ x2 ≤ 100, 10 ≤ x3, x4 = 5};20 problem dla drugiego poziomu priorytetu (PPC2)

min {(−3x1 − 2x2 + x4)+ + (3x1 + 2x2 − x4)+ : −x1 − x2 + x3 ≤ 0,

0 ≤ x1 ≤ 100, 0 ≤ x2 ≤ 100, 10 ≤ x3, x4 = 5}

z jednoznacznym rozwi ↪azaniem optymalnym x1 = 0, x2 = 10, x3 = 10, x4 = 5

Zatem problem pierwotny (2.55) ma jednoznaczne rozwi ↪azanie optymalne x =(0, 10, 10, 5)T i optymalny wektor osi ↪agni ↪ecia z = (0, 15)T .

Rozwi ↪azuj ↪ac problem dualny (2.56) otrzymujemy:

10 problem dla pierwszego poziomu priorytetu (DPC1)

max{10(u11)++ 5(u12)+− 100(u11 + 3u12)+− 100(u11 + 2u12)+− 5(−u12)+ :

0 ≤ u11 ≤ 1, 0 ≤ u12 ≤ 0, u11 ≥ 0}

z jednoznacznym rozwi ↪azaniem optymalnym u11 = 0 i u12 = 0

20 problem dla drugiego poziomu priorytetu (DPC2)

max{10(u21)++ 5(u22)+− 100(u21 + 3u22)+− 100(u21 + 2u22)+− 5(−u22)+ :

0 ≤ u21, −1 ≤ u22 ≤ 1, u21 ≥ 0}

z jednoznacznym rozwi ↪azaniem optymalnym u21 = 2 i u22 = −1

Problem dualny (2.56) ma jednoznaczne rozwi ↪azanie optymalne U =(0 02 −1

)i optymalny wektor osi ↪agni ↪ecia z = (0, 15)T . Zauwazmy, ze optymalne

wektory osi ↪agni ↪ecia dla problemu pierwotnego i problemu dualnego s ↪a rowne orazze spe lnione s ↪a warunki komplementarnosci (2.46)–(2.49).

Zajmijmy si ↪e teraz zaburzeniami danych. Efekty niewielkich zaburzen da-nych mozna policzyc bezposrednio, poniewaz problem pierwotny ma jednoznacznerozwi ↪azanie optymalne. Na przyk lad:

Page 67: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.3. TECHNIKI OBLICZENIOWE 69

10 jezeli cel dla funkcji f1 jest zaburzony o ma l ↪a dodatni ↪a liczb ↪e α (a−1 = 10+α), torozwi ↪azanie optymalne przyjmuje postac xα = (0, 10 + α, 10 + α, 5)T , a wektorosi ↪agni ↪ecia zα = (0, 15 + 2α)T ;

20 jezeli cel dla funkcji f2 jest zaburzony o ma l ↪a dodatni ↪a liczb ↪e α (a2 = 5 + α),to rozwi ↪azanie optymalne przyjmuje postac xα = (0, 10, 10, 5 + α)T , a wektorosi ↪agni ↪ecia zα = (0, 15− α)T .

St ↪ad odpowiednie wektory krancowe: z′(+a1)− =

(02

)i z′(+a2) =

(0

−1

).

Identyczne wyniki osi ↪agniemy korzystaj ↪ac z teorii dualnosci programowania ce-lowego. Z wniosku 2.7 otrzymujemy

z′(+a1)− = (U1)L =

(02

)i z′(+a2) = (U2)L =

(0

−1

)�

2.3 Techniki obliczeniowe

Modele programowania celowego wprowadzaj ↪a do oryginalnych modeli decy-zyjnych dodatkowe zmienne odchylen. Jednakze dzi ↪eki temu, ze warunek komple-mentarnosci odpowiednich odchylen w gor ↪e i w do l (2.5) nie wyst ↪epuje w modeluPC, nie ulega istotnej zmianie struktura modelu decyzyjnego. W szczegolnoscistosuj ↪ac programowanie celowe do problemu WPL otrzymujemy w wyniku modelPC nalez ↪acy do klasy zadan programowania liniowego. Oznacza to, ze problemyPC mog ↪a byc rozwi ↪azywane ogolnymi algorytmami optymalizacji dla odpowied-nich klas zadan. Pewn ↪a komplikacj ↪e struktury zadania wprowadza jedynie lek-sykograficzne programowanie celowe (2.13), jako ze mamy wtedy do czynienia zoptymalizacj ↪a leksykograficzn ↪a wektorowej funkcji osi ↪agni ↪ecia.

Minimalizacja leksykograficzna wektorowej funkcji osi ↪agni ↪ecia g(d−,d+) w za-daniu (2.13) okresla nast ↪epuj ↪acy ci ↪ag zadan (skalarnych):

1. Wyznaczamy zbior S1 rozwi ↪azan optymalnych zadania

PC1 : min {g1(d−,d+) : x ∈ Q oraz (2.3) i (2.4)}

2. Dla k = 2, 3, . . . , p wyznaczamy zbior Sk rozwi ↪azan optymalnych zadania

PCk : min {gk(d−,d+) : x ∈ Q, (x,d−,d+) ∈ Sk−1 oraz (2.3) i (2.4)}

3. Dowolny element zbioru Sp jest rozwi ↪azaniem optymalnym leksykograficz-nego zadania PC (2.13).

Najprostsz ↪a technik ↪a definiowania zbiorow Sk jest zapisywanie ich za pomoc ↪awarunkow

gt(d−,d+) = zt dla t = 1, 2, . . . , k (2.57)

gdzie zt jest wartosci ↪a optymaln ↪a zadania Pt. Prowadzi ona do tzw. podejsciasekwencyjnego, czyli rozwi ↪azywania ci ↪agu zadan o rosn ↪acej liczbie ograniczen. Po-dejscie sekwencyjne moze byc latwo stosowane do dowolnych typow problemow

Page 68: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

70 ROZDZIA L 2. PROGRAMOWANIE CELOWE

(zarowno liniowych, jak i nieliniowych) i implementowane z wykorzystaniem stan-dardowych procedur optymalizacji jednokryterialnej odpowiedniego typu. Podej-scie sekwencyjne do leksykograficznych zadan PC ma pewne wady w przypadkuzadan programowania liniowego. W przypadku modeli liniowych wazn ↪a zalet ↪aleksykograficznego programowania celowego jest zwi ↪azana z nim teoria dualnoscii mozliwosc wykorzystania rozwi ↪azania dualnego do analizy wrazliwosci zadania(por. podrozdzia l 2.2). W podejsciu sekwencyjnym rownania (2.57) dodawanedo kolejnych zadan zmieniaj ↪a macierz wspo lczynnikow zadania i uniemozliwiaj ↪awyznaczenie rozwi ↪azania dualnego leksykograficznego zadania PC.

Dla uzyskania mozliwosci wyznaczenia rozwi ↪azania dualnego leksykograficz-nego problemu PC trzeba stosowac inn ↪a technik ↪e reprezentacji zbiorow Sk. Przyrozwi ↪azywaniu zadania programowania liniowego metod ↪a sympleks ca ly zbiorrozwi ↪azan optymalnych moze byc wyznaczony na podstawie wskaznikow opty-malnosci (zredukowanych kosztow) dla poszczegolnych zmiennych. Zmienne nie-bazowe z niezerowymi wskaznikami optymalnosci w optymalnej tablicy symplekso-wej zachowuj ↪a swoje wartosci (na poziomie odpowiednich ograniczen) we wszyst-kich rozwi ↪azaniach optymalnych. Tym samym, warunek (x,d−,d+) ∈ Sk−1 mozebyc zaimplementowany w zadaniu Pk przez ustalenie wartosci wszystkich zmien-nych niebazowych o niezerowych wskaznikach optymalnosci w optymalnej tab-licy sympleksowej problemu Pk−1 i ograniczenie zadania jedynie do zmiennycho zerowych wskaznikach optymalnosci dla wszystkich wczesniejszych funkcji celu(1, 2, . . . , k− 1). Takie podejscie jest zwane wielofazowym (przez analogi ↪e do dwu-fazowego algorytmu sympleks uzywanego przy braku startowej bazy dopuszczalnej)lub leksykograficzn ↪a metod ↪a sympleks (Isermann, 1982).

Podejscie wielofazowe wymaga odpowiedniej modyfikacji metody sympleks idlatego do jego implementacji nie mozna wykorzystac standardowych (zamkni ↪e-tych) pakietow programowania liniowego. Oba podejscia — sekwencyjne i wielo-fazowe — wyznaczaj ↪a rozwi ↪azania optymalne leksykograficznego zadania PC. Do-datkowe rownania (2.57) uzywane w podejsciu sekwencyjnym zwi ↪ekszaj ↪a rozmiarbazy w odpowiednich zadaniach programowania liniowego, co uniemozliwia wy-znaczenie odpowiedniej bazy dla oryginalnego zadania leksykograficznego (otrzy-mywanej w podejsciu wielofazowym). Markowski i Ignizio (1983) zaproponowalitechnik ↪e przekszta lcania bazy optymalnej z podejscia sekwencyjnego do bazy dlaleksykograficznej metody sympleks. Polega ona na wprowadzeniu do bazy zmien-nych logicznych odpowiadaj ↪acych rownaniom (2.57), z jednoczesnym zachowaniemoptymalnosci bazy dla podejscia sekwencyjnego. Tak otrzymana baza zawiera od-powiedni ↪a liczb ↪e oryginalnych zmiennych leksykograficznego zadania PC (xj , d

−i i

d+i ), ktore tworz ↪a baz ↪e dla leksykograficznej metody sympleks. Ponizszy przyk lad

(por. Ogryczak, 1988a) pokazuje jednak, ze — w przypadku zadan zdegenerowa-nych — tak otrzymana baza moze nie spe lniac warunkow optymalnosci leksykogra-ficznej (dopuszczalnosci dualnej), pomimo ze jest baz ↪a rozwi ↪azania optymalnego.

Przyk lad 2.3. Rozpatrzmy nast ↪epuj ↪acy leksykograficzny problem PC

lexmin (d−1 + d−2 , d−2 + d+

2 + d+3 )T pod warunkiem, ze

Page 69: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.3. TECHNIKI OBLICZENIOWE 71

x1 + d−1 − d+1 = 1

x1 + x2 + d−2 − d+2 = 2

x2 + d−3 + d+3 = 1

x>= 0, d−

>= 0, d+ >

= 0

Rozwi ↪azmy ten problem stosuj ↪ac podejscie sekwencyjne. Jako pierwszy jestrozwi ↪azywany problem P1, czyli minimalizowana jest funkcja osi ↪agni ↪ecia z1 = d−1 +d−2 . Pocz ↪atkowa tablica sympleksowa ma postac

x1 x2 d+1 d+2 d+3d−1 1 0 -1 0 0 1

d−2 1 1 0 -1 0 2

d−3 0 1 0 0 -1 12 1 -1 -1 0 3

Wprowadzaj ↪ac zmienna x1 do bazy na miejsce d−1 otrzymujemy tablic ↪e symplek-sow ↪a

x2 d−1 d+1 d+2 d+3x1 0 1 -1 0 0 1

d−2 1 -1 0 -1 0 1

d−3 1 0 0 0 -1 11 -2 1 -1 0 1

Teraz wchodzi do bazy x2, a d−2 opuszcza baz ↪e. Otrzymana po tej iteracji tablica

d−1 d−2 d+1 d+2 d+3x1 1 0 -1 0 0 1x2 -1 1 1 -1 0 1

d−3 1 -1 -1 1 -1 0-1 -1 0 0 0 0

jest tablic ↪a optymaln ↪a dla problemu P1 (poziom priorytetu 1). Rozwi ↪azaniem jest:x = (1, 1)T , d− = (0, 0, 0)T , d+ = (0, 0, 0)T i z1 = 0.

Nast ↪epnie rozwi ↪azujemy problem P2. Analogicznie jak Markowski i Ignizio(1983), dla zachowania optymalnej wartosci z1 = 0 wprowadzamy dwa dodatkowerownania celowe − d−1 − d−2 + s− = 0

d−1 + d−2 + s+ = 0

i obliczamy zredukowane koszty dla funkcji osi ↪agni ↪ecia z2 = d−2 + d+2 + d−3 .

Pocz ↪atkowa tablica dla problemu P2 przyjmuje postac

d−1 d−2 d+1 d+2 d+3x1 1 0 -1 0 0 1x2 -1 1 1 -1 0 1

d−3 1 -1 -1 1 -1 0s− -1 -1 0 0 0 0s+ 1 1 0 0 0 0

1 -2 -1 0 -1 0

Zmienna d−1 wchodzi do bazy zast ↪epuj ↪ac d−3 i w efekcie otrzymujemy

Page 70: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

72 ROZDZIA L 2. PROGRAMOWANIE CELOWE

d−2 d−3 d+1 d+2 d+3x1 1 -1 0 -1 1 1x2 0 1 0 0 -1 1

d−1 -1 1 -1 1 -1 0s− -2 1 -1 1 -1 0s+ 2 -1 1 -1 1 0

-1 -1 0 -1 0 0

ktora okazuje si ↪e byc tablic ↪a optymaln ↪a dla problemu P2. Jest to zatem koncowatablica sympleksowa dla podejscia sekwencyjnego. Rozwi ↪azaniem optymalnymoryginalnego leksykograficznego problemu PC jest: x = (1, 1)T , d− = (0, 0, 0)T ,d+ = (0, 0, 0)T i z = (0, 0)T .

Przekszta lcmy teraz tablic ↪e koncow ↪a do postaci odpowiedniej tablicy dla lek-sykograficznej (wielofazowej) metody sympleks korzystaj ↪ac z algorytmu opracowa-nego przez Markowski i Ignizio (1983). G lowna operacja w tym algorytmie polegana wymuszeniu wejscia do bazy zmiennych s− i s+. W naszym przypadku s− is+ s ↪a juz w bazie. Zatem algorytm zmienia tylko postac tablicy, nie zmieniaj ↪acstruktury bazy. W efekcie otrzymujemy tablic ↪e

d−2 d−3 d+1 d+2 d+3x1 1 -1 0 -1 1 1x2 0 1 0 0 -1 1

d−1 -1 1 -1 1 -1 0P1 -2 1 -1 1 -1 0P2 -1 -1 0 -1 0 0

Jest ona ewidentnie nieoptymalna, poniewaz zawiera dodatnie elementy w wierszuindeksow optymalnosci dla P1.

Innymi s lowy, otrzymalismy tablic ↪e generuj ↪ac ↪a rozwi ↪azanie optymalne leksyko-graficznego problemu PC, ale rozwi ↪azanie dualne generowane przez t ↪e tablic ↪e jestniedopuszczalne i nie moze byc uzyte do analizy wrazliwosci. Gdy wyst ↪epuje de-generacja zadania, istniej ↪a bazy rozwi ↪azania optymalnego nie spe lniaj ↪ace warunkuoptymalnosci (dopuszczalnosci dualnej). Korzysci z przekszta lcenia zaproponowa-nego przez Markowski i Ignizio (1983) wydaj ↪a si ↪e wi ↪ec byc ograniczone do raczejteoretycznej klasy problemow niezdegenerowanych, podczas gdy problemy rzeczy-wiste s ↪a zazwyczaj silnie zdegenerowane.

Pokazalismy, ze baza zawieraj ↪aca zmienne x1, x2 i d−1 jest optymalna w sensiepodejscia sekwencyjnego i jednoczesnie nie jest optymalna dla podejscia wielofazo-wego. Latwo sprawdzic, ze przedostatnia baza w podejsciu sekwencyjnym zawie-raj ↪aca zmienne x1, x2 i d−3 (nieoptymalna w tym podejsciu) by laby przekszta lconaw baz ↪e optymaln ↪a dla podejscia wielofazowego. Wynika st ↪ad, ze baza optymalnadla jednego podejscia moze byc nieoptymalna dla drugiego podejscia i odwrotnie.Zatem w przypadku degeneracji (gdy nie ma zagwarantowanej jednoznaczosci baz)nie jest mozliwe bezposrednie wyznaczenie bazy optymalnej dla podejscia wielofa-zowego na podstawie podejscia sekwencyjnego i odwrotnie. Co za tym idzie, niejest mozliwe wyznaczenie optymalnego rozwi ↪azania dualnego przy uzyciu podejsciasekwencyjnego bez uzycia wielofazowego algorytmu sympleksowego. �

Page 71: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.3. TECHNIKI OBLICZENIOWE 73

Twierdzenie 2.13 pokazuje, ze wielowymiarowy dualny problem PC moze bycrozwi ↪azywany jako odpowiedni ci ↪ag skalarnych zadan dualnych. Kolejne zada-nia skalarne rozni ↪a si ↪e od siebie jedynie prostymi ograniczeniami na zmienne.Tym samym, tak jak w podejsciu sekwencyjnym, odpowiednie zadania mog ↪a bycrozwi ↪azywane przy uzyciu standardowych procedur optymalizacyjnych. W wynikuotrzymujemy rozwi ↪azanie dualne, a rozwi ↪azanie pierwotne oryginalnego leksyko-graficznego problemu PC moze byc wyznaczone na podstawie warunkow komple-mentarnosci (twierdzenie 2.11). Tego typu podejscie zaproponowa l Ignizio (1985),ale by lo ono oparte jedynie na intuicyjnych przes lankach (bez formalnego dowodu)i zawiera lo szereg niescis losci (por. Crowder i Sposito, 1987). Ponizej przedsta-wiamy oparty na twierdzeniu 2.13 dualny algorytm sekwencyjny realizuj ↪acy kon-cepcj ↪e Ignizio (1985) dla liniowych leksykograficznych zadan PC w postaci (2.22)–(2.25).

Algorytm DASKrok 00 Wyznaczamy zbiory indeksow

Id = {i ∈ I : w+1i < +∞}, Ig = {i ∈ I : w−1i < +∞}

J−0 = {j ∈ J : b−j = −∞}, J+0 = {j ∈ J : b+j = +∞}

J− = J − J−0 , J+ = J − J+0

Ustalamy biez ↪acy poziom priorytetu r = 1.Krok 10 Dla biez ↪acego r rozwi ↪azujemy zadanie:

Dr : max { v−b− − v+b+ : uC + v− − v+ = 0,

ui ≥ −w+ri dla i ∈ Id, ui ≤ w−ri dla i ∈ Ig

v−j = 0 dla j ∈ J−0 , v−j ≥ 0 dla j ∈ J−

v+j = 0 dla j ∈ J+

0 , v+j ≥ 0 dla j ∈ J+}

Niech (u, v−, v+) oznacza rozwi ↪azanie optymalne, a z wartosc optymaln ↪a. Okres-lamy r–te wiersze macierzy rozwi ↪azania dualnego ur = u, v−r = v−, v+

r = v+ orazr–t ↪a wspo lrz ↪edn ↪a wektora osi ↪agni ↪ecia zr = zKrok 20 Jezeli r = p, to wyznaczone jest rozwi ↪azanie optymalne problemu dual-nego (STOP).W przeciwnym przypadku wyznaczamy zbiory indeksow

Id = {i ∈ Id : ui > −w+ri}, Ig = {i ∈ Ig : ui < −w−ri}

J− = {j ∈ J− : v−i > 0}, J+ = {j ∈ J+ : v+i > 0}

i modyfikujemy zbiory indeksow

Id := Id − Id, Ig := Ig − Ig, J− := J− − J−, J+ := J+ − J+

Zwi ↪ekszamy r o jeden i powracamy do kroku 10. �

Algorytm DAS wyznacza rozwi ↪azanie optymalne dualnego problemu celowego.Rozwi ↪azanie optymalne odpowiedniego problemu pierwotnego (x, d−, d+) moznawtedy wyznaczyc na podstawie warunkow komplementarnosci (por. wniosek 2.6).

Page 72: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

74 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Faktycznie odpowiednie wspo lrz ↪edne niebazowe rozwi ↪azania mog ↪a byc okreslanew trakcie realizacji algorytmu DAS na podstawie generowanych w kazdej iteracjizbiorow indeksow Id, Ig, J

− oraz J+ wed lug nast ↪epuj ↪acych regu l

xj = b−j dla j ∈ J−

xj = b+j dla j ∈ J+

d−i = 0 dla i ∈ Igd+i = 0 dla i ∈ Id

Wartosci zmiennych bazowych s ↪a wtedy okreslone jako rozwi ↪azania uk ladu rownan

Cx + d− − d+ = 0i mog ↪a byc wyznaczone jako odpowiednie ceny dualne w rozwi ↪azywanym w ostatniejiteracji (r = p) zadaniu programowania liniowego Dp.

Do rozwi ↪azywania kolejnych problemow Dr w kroku 10 algorytmu DAS naj-wygodniej jest stosowac dualny algorytm sympleksowy, wykorzystuj ↪acy technik ↪edwustronnych ograniczen na zmienne (por. Zorychta i Ogryczak, 1981). Bazaoptymalna wyznaczona dla danego problemu Dr jest bowiem jednoczesnie baz ↪adualnie dopuszczaln ↪a dla kolejnego problemu Dr+1.

Przyk lad 2.4. Przebieg algorytmu DAS przedstawimy dla zadania PC postaci

lexmin (2d+1 + 3d+

2 , d−3 , d

+4 )T

pod warunkiem, ze

x1 + x2 −x3 +d−1 −d+1 = 0

x1 −x4 +d−2 −d+2 = 0

5x1 +3x2 −x5 +d−3 −d+3 = 0

x1 + x2 −x6 +d−4 −d+4 = 0

x1 ≥ 0, x2 ≥ 0, x3 = 10, x4 = 4, x5 = 56, x6 = 12

d−i ≥ 0, d+i ≥ 0 dla i = 1, 2, 3, 4

Dualne zadanie PC w rozwini ↪etej formie (2.41)–(2.44) mozna zapisac jako

lexmax 10V−3 − 10V+3 + 4V−4 − 4V+

4 + 56V−5 − 56V+5 + 12V−6 − 12V+

6

pod warunkiem, ze

U1 +U2 +5U3 +U4 +V−1 = 0U1 +3U3 +U4 +V−2 = 0−U1 +V−3 −V+

3 = 0−U2 +V−4 −V+

4 = 0− U3 +V−5 −V+

5 = 0−U4 +V−6 −V+

6 = 0

V+1 = V+

2 = 0, V+j ≥lex 0 dla j = 3, . . . , 6

V−j ≥lex 0 dla j = 1, 2, . . . , 6( −200

)≤lex U1 ≤lex

(000

),

( −300

)≤lex U2 ≤lex

(000

)

Page 73: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.3. TECHNIKI OBLICZENIOWE 75

(000

)≤lex U3 ≤lex

(010

),

(00

−1

)≤lex U4 ≤lex

(000

)

Gdzie zmienne V+1 , V+

2 odpowiadaj ↪ace nieskonczonym wspo lczynnikom b+1 i b+2zosta ly pomini ↪ete jako rowne 0. Korzystaj ↪ac ze specyficznej struktury zadania(b−j = b+j dla j = 3, 4, 5, 6) zmienne V−j , V+

j dla j = 3, 4, 5, 6 mozna wyeliminowacz rozwazan na podstawie odpowiednich rownan celowych. Pozwala to zmniejszycwymiar zadania dualnego sprowadzaj ↪ac je do postaci

lexmax 10U1 + 4U2 + 56U3 + 12U4

pod warunkiem, ze

U1 +U2 +5U3 +U4 +V−1 = 0U1 +3U3 +U4 +V−2 = 0

V−1 ≥lex 0, V−2 ≥lex 0( −200

)≤lex U1 ≤lex

(000

),

( −300

)≤lex U2 ≤lex

(000

)(

000

)≤lex U3 ≤lex

(010

),

(00

−1

)≤lex U4 ≤lex

(000

)

Zastosujmy do tego zadania algorytm DAS.Krok 00: r := 1, Id = {1, 2, 3, 4}, Ig = {1, 2, 3, 4}, J−0 = ∅, J− = {1, 2}, J+ = ∅.Krok 10: Rozwi ↪azujemy zadanie D1

D1 : max { 10u1 + 4u2 + 56u3 + 12u4 :

u1 +u2 +5u3 +u4 +v−1 = 0u1 +3u3 +u4 +v−2 = 0

v−1 ≥ 0, v−2 ≥ 0

−2 ≤ u1 ≤ 0, −3 ≤ u2 ≤ 0, 0 ≤ u3 ≤ 0, 0 ≤ u4 ≤ 0}

Zestawiamy tablic ↪e sympleksow ↪a w bazie z lozonej ze zmiennych v−1 i v−2 (JB ={v−1 , v

−2 }) przyjmuj ↪ac, ze wszystkie zmienne niebazowe znajduj ↪a si ↪e na gornych

ograniczeniach (JG = {u1, u2, u3, u4}), czyli nie ma zadnej zmiennej na dolnymograniczeniu (JD = ∅).

u1 u2 u3 u4 v−1 v+2v−1 1 1 5 1 1 0 0

v−2 1 0 3 1 0 1 0-10 -4 -56 -12 0 0 0

W tablicy tej kolejne kolumny odpowiadaj ↪a zmiennym: u1, u2, u3, u4, v−1 , v−2 ,przy czym ostatni wiersz zawiera tzw. koszty zredukowane dla poszczegolnychzmiennych. Ostatnia kolumna zawiera wartosc funkcji celu i wspo lrz ↪edne bazowebiez ↪acego rozwi ↪azania. Startowe rozwi ↪azanie bazowe u = (0, 0, 0, 0), v− = (0, 0)spe lnia warunki optymalnosci, przy czym z = 0. Zatem okreslamy u1 = (0, 0, 0, 0),v−11 = v−12 = 0, z1 = 0 i przechodzimy do kroku 20.

Page 74: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

76 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Krok 20: Wyznaczamy zbiory ograniczen spe lnionych jako nierownosci ostre:J− := ∅, Id := {1, 2}, Id := ∅ i okreslamy nowe zbiory J− := {1, 2}, Id := {3, 4},Ig := {1, 2, 3, 4}. Mozna juz okreslic odpowiednie wspo lrz ↪edne rozwi ↪azania zadaniapierwotnego d+

1 = 0, d+2 = 0. Zwi ↪ekszamy r (r := 2) i powracamy do kroku 10.

Krok 10: Okreslamy zadanie D2. W stosunku do zadania D1 zmieniaj ↪a si ↪e tylkoproste ograniczenia na zmienne, ktore przyjmuj ↪a teraz postac

u1 ≤ 0, u2 ≤ 0, 0 ≤ u3 ≤ 1, 0 ≤ u4 ≤ 0, v−1 ≥ 0, v−2 ≥ 0

Tablica sympleksowa zasadniczo nie zmienia si ↪e. Nowe ograniczenia na zmiennepowoduj ↪a jedynie zmian ↪e ostatniej kolumny tablicy. Przyjmuje ona teraz po-stac (56,−5,−3)T . Tym razem jednak baza okreslona zbiorami indeksow JB ={v−1 , v

−2 }, JD = ∅, JG = {u1, u2, u3, u4} nie spe lnia warunkow dopuszczalnosci

(v−1 = −5, v−2 = −3). Wykonuj ↪ac dualn ↪a iteracj ↪e sympleksow ↪a otrzymujemy baz ↪e:JB = {u2, v

−2 }, JD = {v−1 }, JG = {u1, u3, u4}

u1 u2 u3 u4 v−1 v+2u2 1 1 5 1 1 0 -5

v−2 1 0 3 1 0 1 -3-6 0 -36 -8 4 0 36

Po kolejnej iteracji otrzymujemy baz ↪e: JB = {u2, u1}, JD = {v−1 , v−2 }, JG =

{u3, u4}u1 u2 u3 u4 v−1 v+2

u2 0 1 2 0 1 -1 -2u1 1 0 3 1 0 1 -3

0 0 -18 -2 4 6 18

Ostatnia baza generuje rozwi ↪azanie optymalne u = (−3,−2, 1, 0), v− = (0, 0), przyczym z = 18. Zatem okreslamy u2 = (−3,−2, 1, 0), v−21 = v−22 = 0 oraz z2 = 18 iprzechodzimy do kroku 20.Krok 20: Wyznaczamy zbiory ograniczen spe lnionych jako nierownosci ostre: J− :=∅, Id := {3}, Id := {1, 2} i okreslamy nowe zbiory J− := {1, 2}, Id := {4},Ig := {3, 4}. Mozemy juz okreslic odpowiednie wspo lrz ↪edne rozwi ↪azania zadaniapierwotnego d+

3 = 0, d+1 = 0, d+

2 = 0. Zwi ↪ekszamy r (r := 3) i powracamy dokroku 10.Krok 10: Okreslamy zadanie D3. W stosunku do zadania D2 zmieniaj ↪a si ↪e tylkoproste ograniczenia na zmienne, ktore przyjmuj ↪a teraz postac

u3 ≤ 0, −1 ≤ u4 ≤ 0, v−1 ≥ 0, v−2 ≥ 0

Tablica sympleksowa zasadniczo nie zmienia si ↪e. Nowe ograniczenia na zmiennepowoduj ↪a jedynie zmian ↪e ostatniej kolumny tablicy. Przyjmuje ona teraz postac(0, 0, 0)T . Generowane przez t ↪e tablic ↪e rozwi ↪azanie bazowe u = (0, 0, 0, 0), v− =(0, 0) spe lnia warunki optymalnosci, przy czym z = 0. Zatem okreslamy u3 =(0, 0, 0, 0), v−31 = v−32 = 0 oraz z3 = 0 i przechodzimy do kroku 20.Krok 20: r = 3, wi ↪ec proces rozwi ↪azywania zadania jest zakonczony. Rozwi ↪azaniemoptymalnym dualnego zadania PC s ↪a macierze

Page 75: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.4. MODEL PREFERENCJI PROGRAMOWANIA CELOWEGO 77

U =

(0 0 0 0

−3 −2 1 00 0 0 0

), V−1 =

(000

), V−2 =

(000

)a pozosta le elementy rozwi ↪azania pe lnej rozwini ↪etej postaci zadania s ↪a okreslonenast ↪epuj ↪aco

V+1 = V+

2 =

(000

), V−3 =

(000

), V+

3 =

(030

)

V−4 =

(000

), V+

4 =

(020

), V−5 =

(010

), V+

5 =

(000

), V−6 = V+

6 =

(000

)Optymalny wektor osi ↪agni ↪ecia z = (0, 18, 0)T . Korzystaj ↪ac z ustalonychw trakcie przebiegu algorytmu wspo lrz ↪ednych rozwi ↪azania pierwotnego oraz zrozwi ↪azania dualnego odczytanego z ostatniej tablicy sympleksowej, mozemy wyz-naczyc rozwi ↪azanie problemu pierwotnego jako x = (4, 6, 10, 4, 56, 12)T , d− =(10, 0, 18, 2)T i d+ = (10, 0, 0, 0)T �

2.4 Model preferencji programowania celowego

Programowanie celowe opiera si ↪e na tzw. zadowalaj ↪acym modelu procesu de-cyzyjnego (Simon, 1957). W modelu tym przyjmuje si ↪e, ze decydent rozwi ↪azuj ↪acproblem decyzyjny okresla poziomy aspiracji jako poz ↪adane wartosci poszczegol-nych ocen. Jezeli wartosci ocen nie osi ↪agaj ↪a poziomow aspiracji, decydent starasi ↪e znalezc lepsze rozwi ↪azanie. Jezeli jednak wartosci pewnych ocen osi ↪agn ↪e ly od-powiednie poziomy aspiracji, to decydent nie interesuje si ↪e ich dalsz ↪a popraw ↪a,koncentruj ↪ac uwag ↪e jedynie na poprawie wartosci tych ocen, ktore nie osi ↪agn ↪e lyswoich poziomow aspiracji. W terminach relacji preferencji klasyczny model zado-walaj ↪acy oznacza, ze zaden wektor ocen nie jest scisle preferowany w stosunku dowektora poziomow aspiracji a, czyli

a � y dla kazdego y ∈ Y (2.58)

Latwo zauwazyc, ze warunek (2.58) jest w ogolnym przypadku sprzeczny z warun-kiem scis lej monotonicznosci (1.5). Dok ladniej, jezeli istnieje wektor ocen y0 ∈ Ytaki, ze y0 ≤ a, to warunek (2.58) jest sprzeczny z warunkiem scis lej monoto-nicznosci (1.5). Oznacza to, ze w przypadku rozwazanej przez nas przestrzeni ocenY = Rm, relacje preferencji zgodne z modelem zadowalaj ↪acym nie mog ↪a spe lniacwarunku scis lej monotonicznosci na ca lej przestrzeni Y , a tylko na pewnych jejpodzbiorach.

Modele programowania celowego spe lniaj ↪a warunek (2.58). Dlatego technikiprogramowania celowego nie zawsze wyznaczaj ↪a rozwi ↪azania efektywne oryginal-nych problemow wielokryterialnych (1.7). Techniki wazonego i leksykograficznegoPC z dodatnimi wspo lczynnikami wagowymi generuj ↪a rozwi ↪azania efektywne, jezeliwektor poziomow aspiracji spe lnia warunek

a<= y dla kazdego y ∈ A (2.59)

Page 76: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

78 ROZDZIA L 2. PROGRAMOWANIE CELOWE

Twierdzenie 2.16 Jezeli wektor poziomow aspiracji a spe lnia warunek (2.59),to rozwi ↪azanie optymalne problemu PC (2.7) z wazon ↪a funkcj ↪a osi ↪agni ↪ecia (2.2)o wspo lczynnikach wagowych w+

i > w−i ≥ 0 (i = 1, 2, . . . ,m) jest rozwi ↪azaniemefektywnym problemu wielokryterialnego (1.7).

Dowod. Poniewaz A ⊂ Y (a) = {y ∈ Y : y>= a}, to wektor x0 jest rozwi ↪azaniem

optymalnym problemu (2.7) wtedy i tylko wtedy, gdy jest on rozwi ↪azaniem opty-malnym problemu

min {∑i∈I

w+i (fi(x)− ai) : x ∈ Q}

Problem ten generuje relacj ↪e preferencji �s spe lniaj ↪ac ↪a warunki zwrotnosci, prze-chodniosci i scis lej monotonicznosci. Zatem, na mocy twierdzenia 1.7 wektor x0

jest rozwi ↪azaniem efektywnym zadania (1.7).

Twierdzenie 2.17 Jezeli wektor poziomow aspiracji a spe lnia warunek (2.59),to rozwi ↪azanie optymalne leksykograficznego problemu PC (2.13) z wektorow ↪afunkcj ↪a osi ↪agni ↪ecia (2.11)–(2.12) o wspo lczynnikach wagowych spe lniaj ↪acych wa-runek W+ >lex W− ≥lex 0 jest rozwi ↪azaniem efektywnym problemu wielokryte-rialnego (1.7).

Dowod. Poniewaz A ⊂ Y (a) = {y ∈ Y : y>= a}, to wektor x0 jest rozwi ↪azaniem

optymalnym problemu (2.13) wtedy i tylko wtedy, gdy jest on rozwi ↪azaniem opty-malnym problemu

lexmin {(∑i∈I

w+1i(fi(x)− ai),

∑i∈I

w+2i(fi(x)− ai), . . . ,

∑i∈I

w+pi(fi(x)− ai)) : x ∈ Q}

Problem ten generuje relacj ↪e preferencji �s spe lniaj ↪ac ↪a warunki zwrotnosci, prze-chodniosci i scis lej monotonicznosci. Zatem, na mocy twierdzenia 1.7 wektor x0

jest rozwi ↪azaniem efektywnym zadania (1.7).

Zauwazmy, ze analogicznego twierdzenia nie mozna udowodnic dla minimakso-wego modelu PC (2.10), poniewaz minimaksowa funkcja skalaryzuj ↪aca nie spe lniawarunku scis lej monotonicznosci (por. podrozdzia l 1.3). Ponadto, dla spe lnieniawarunku (2.59), nie wystarcza, ze wektor poziomow aspiracji jest nieosi ↪agalny(a 6∈ A). Ponizszy przyk lad ilustruje, ze naruszenie warunku (2.59) moze spo-wodowac generowanie przez techniki PC rozwi ↪azan nieefektywnych.

Przyk lad 2.5. Rozpatrzmy problem liniowy z dwiema funkcjami oceny

zminimalizowac (x1, x2)

pod warunkiem, ze

x1 + x2 ≥ 3, x1 ≥ 1, x2 ≥ 1

Zbior rozwi ↪azan efektywnych dla tego problemu ma postac

{(x1, x2) : x1 + x2 = 3, x1 ≥ 1, x2 ≥ 1}czyli jest to odcinek l ↪acz ↪acy wierzcho lki (1,2) i (2,1) wraz z tymi wierzcho lkami.

Przekszta lcmy ten problem w zadanie programowania celowego wprowadzaj ↪ac(nieosi ↪agalny) wektor poziomow aspiracji a1 = 0 i a2 = 3

Page 77: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

2.4. MODEL PREFERENCJI PROGRAMOWANIA CELOWEGO 79

x1 + d−1 − d+1 = 0

x2 + d−2 − d+2 = 3

x1 + x2 ≥ 3

x1 ≥ 1, x2 ≥ 1, d−1 ≥ 0, d+1 ≥ 0, d−2 ≥ 0, d+

2 ≥ 0

Latwo sprawdzic, ze punkt x = (1, 3) jest rozwi ↪azaniem optymalnym tego zadaniaprogramowania celowego dla dowolnej funkcji osi ↪agni ↪ecia o postaci (2.2), (2.10) lub(2.11) z nieujemnymi wagami. Punkt (1,3) jest rozwi ↪azaniem dopuszczalnym, alenie jest rozwi ↪azaniem efektywnym oryginalnego problemu wielokryterialnego. �

Zeby zagwarantowac spe lnienie warunku (2.59), wektor poziomow aspiracji po-

winien spe lniac nierownosc a<= yu (gdzie yu jest wektorem utopii). Zosta lo to

wykorzystywane przez Zeleny’ego (1974) w metodzie przesuni ↪etego idea lu. Wa-

runek a<= yu i, co za tym idzie, warunek (2.59) istotnie ogranicza mozliwosci

wyboru poziomow aspiracji i jest sprzeczny z przyj ↪et ↪a w programowaniu celowymzasad ↪a, ze poziomy aspiracji s ↪a g lownymi parametrami steruj ↪acymi, podczas gdywspo lczynniki wagowe spe lniaj ↪a rol ↪e pomocnicz ↪a. Dlatego tez w praktycznych za-stosowaniach programowania celowego warunek (2.59) nie jest przestrzegany, coprowadzi do wyznaczania rozwi ↪azan nieefektywnych. Ponizszy przyk lad zawierazaczerpni ↪ety z literatury rzeczywisty problem decyzyjny, dla ktorego zastosowanymodel PC wygenerowa l rozwi ↪azanie ewidentnie nieefektywne.

Przyk lad 2.6. Parker (1985) prezentuje leksykograficzny model PC dla projekto-wania i oceny systemu informatycznego w jednostce s luzby zdrowia. Model zawieracztery zmienne decyzyjne z dwustronnymi ograniczeniami i cztery funkcje oceny.Pierwsza z nich f1 jest minimalizowana, przy czym jako poziom aspiracji przyj ↪etoa1 = 82. Dalsze dwie (f2 i f3) powinny osi ↪agac wartosci jak najblizsze poziomowaspiracji a2 = 125 i a3 = 53. Natomiast f4 jest maksymalizowana, przy czym jakoodpowiedni poziom aspiracji przyj ↪eto a4 = 80. Uwzgl ↪edniaj ↪ac zadan ↪a hierarchi ↪epriorytetow otrzymujemy leksykograficzny model PC postaci

lexmin (d+1 , d

−2 + d+

2 , d−3 + d+

3 , d−4 )

pod warunkiem, ze

15.0x1 + 17.5x2 − 8.7x3 − 1.3x4 + d−1 − d+1 = 82

30.7x1 + 16.2x2 − 10.2x3 + 2.6x4 + d−2 − d+2 = 125

10.3x1 − 2.1x2 + 15.5x3 − 5.6x4 + d−3 − d+3 = 53

7.4x1 + 5.6x2 + 4.1x3 + 2.3x4 + d−4 − d+4 = 80

1 ≤ x1 ≤ 7, 1 ≤ x2 ≤ 7, 1 ≤ x3 ≤ 7, 1 ≤ x4 ≤ 7

d−>= 0, d+ >

= 0

Stosuj ↪ac do tego modelu podejscie sekwencyjne, Parker (1985) wyznaczy l roz-wi ↪azanie optymalne: x = (2.24, 5.54, 4.37, 5.77), d− = d+ = 0 z ocenamif(x) = (82, 125, 53, 80). Zauwazmy, ze zachowuj ↪ac poz ↪adane wartosci f2 i f3 moznauzyskac mniejsz ↪a wartosc minimalizowanej funkcji oceny f1 i wi ↪eksz ↪a wartosc mak-symalizowanej funkcji f4. W szczegolnosci dopuszczalne s ↪a rozwi ↪azania wierz-

Page 78: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

80 ROZDZIA L 2. PROGRAMOWANIE CELOWE

cho lkowe: x = (2.76, 4.32, 4.70, 7) z wektorem ocen f(x) = (67, 125, 53, 80) orazx = (2.03, 6.17, 5.44, 7) z wektorem ocen f(x) = (82, 125, 53, 87.94). �

Fakt, ze model preferencji programowania celowego nie spe lnia warunku scis lejmonotonicznosci, moze prowadzic do powaznych trudnosci z uzyciem modelu PCnawet w przypadku, gdy model preferencji decydenta nie wymaga spe lnienia tegowarunku. W twierdzeniach 2.1–2.3 dowodzilismy, ze rozwi ↪azania optymalne od-powiednich problemow PC s ↪a rozwi ↪azaniami dopuszczalnymi oryginalnego zada-nia wielokryterialnego, minimalizuj ↪acymi odpowiednie funkcje osi ↪agni ↪ecia. Szeregmodeli programowania liniowego kryje w sobie pewne zaleznosci nieliniowe wyko-rzystuj ↪ac fakt, ze odpowiednie funkcje oceny s ↪a minimalizowane (lub maksymali-zowane). Dotyczy to w szczegolnosci modeli, w ktorych minimalizuje si ↪e funkcjeoceny typu maxj∈J xj . Zwykle przekszta lca si ↪e je w zadania programowania li-niowego przez wprowadzenie zmiennej z, reprezentuj ↪acej wartosc funkcji celu, idodatkowych nierownosci xj ≤ z dla j ∈ J (Williams, 1993). Nierownosci te gwa-rantuj ↪a, ze z nie jest mniejsze od zadnego xj (j ∈ J), a minimalizacja z doprowadzajego wartosc do maksimum xj . Zastosowanie do takiego modelu podejscia PC niespe lniaj ↪acego warunku scis lej monotonicznosci niszczy relacje pomi ↪edzy zmiennymioparte na za lozeniu minimalizacji odpowiedniej funkcji. Moze to spowodowac, zez nie b ↪edzie rowne maxj∈J xj . Zatem standardowe podejscie PC nie moze byc sto-sowane do wielokryterialnego problemu optymalizacji (1.7) bez g l ↪ebokiej analizy iewentualnej przebudowy oryginalnego modelu.

Przyk lad 2.7. Rozpatrzmy prosty problem o dwoch zmiennych decyzyjnych x1 ix2 spe lniaj ↪acych rownanie x1 + x2 = 1 z funkcj ↪a oceny f(x1, x2) = max {x1, x2}.Zadanie minimalizacji funkcji f jest zwykle formu lowane w postaci

min {z : x1 ≤ z, x2 ≤ z, x1 + x2 = 1} (2.60)

Przypuscmy, ze 0.7 jest najbardziej preferowan ↪a wartosci ↪a oceny f . Jest to mo-del preferencji w pe lni zgodny z koncepcj ↪a programowania celowego. Przyjmuj ↪ac0.7 jako poziom aspiracji a i stosuj ↪ac technik ↪e wazonego PC do problemu (2.60)otrzymujemy zadanie

min {w−d− + w+d+ : z + d− − d+ = 0.7, x1 ≤ z, x2 ≤ z,x1 + x2 = 1, d−, d+ ≥ 0} (2.61)

Zauwazmy, ze problem (2.61) ma wiele rozwi ↪azan optymalnych. W szczegolnosci,dla dowolnych nieujemnych wag w− i w+, wartosci x1 = 0.4, x2 = 0.6 i z = 0.7definiuj ↪a rozwi ↪azanie optymalne problemu PC (2.61), przy czym d− = d+ = 0sugeruje, ze funkcja oceny f osi ↪agn ↪e la zadany poziom aspiracji. W rzeczywistoscimax {x1, x2} = 0.6, a tylko zmienna z osi ↪agn ↪e la wartosc 0.7. W tym przypadkuani z nie wyraza wartosci max {x1, x2}, ani d− nie wyraza wartosci odpowiedniegoodchylenia w do l. �

Page 79: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Rozdzia l 3

Metody punktureferencyjnego

3.1 Metoda punktu referencyjnego

Programowanie celowe nie spe lnia postulatu parametryzacji zbioru rozwi ↪azanefektywnych i w pewnych przypadkach moze generowac rozwi ↪azania, ktore nie s ↪aefektywne (Hallefjord i Jornsten, 1988). Wady tej pozbawione s ↪a metody punktureferencyjnego. Metoda punktu referencyjnego zosta la wprowadzona przez Wierz-bickiego (1977, 1982). Po l ↪aczy la ona prostot ↪e i otwartosc sterowania procesemanalizy interaktywnej programowania celowego ze scis lym przestrzeganiem zasadyefektywnosci generowanych rozwi ↪azan i zupe lnej parametryzacji zbioru rozwi ↪azanefektywnych (Wierzbicki, 1986). Rozwini ↪ete zosta ly liczne warianty metody punktureferencyjnego i metod opartych na podobnych zasadach (Steuer i Choo, 1983; Na-kayama i Sawaragi, 1984; Korhonen i Laakso, 1986; Lewandowski i Wierzbicki,1988; Nakayama, 1992; Ogryczak i Lahoda, 1992; Michalowski i Szapiro, 1992;Steuer, 1993). Metody punktu referencyjnego zosta ly zaimplementowane dla wie-lokryterialnych zadan programowania liniowego (Grauer i inni, 1984; Rogowski iinni, 1988), programowania nieliniowego (Kr ↪eglewski i inni, 1988; Jaszkiewicz iS lowinski, 1992) oraz programowania dyskretnego (Ogryczak i inni, 1989; 1992).Pozwoli lo to na budow ↪e szeregu systemow wspomagania decyzji opartych na meto-dach punktu referencyjnego (por. Lewandowski i Wierzbicki, 1989a; Lewandowskii inni, 1989; Wierzbicki, 1993) i ich wykorzystanie do rozwi ↪azywania roznych prob-lemow praktycznych (Lewandowski i Wierzbicki, 1989; Malczewski i Ogryczak,1990; Wessels i Wierzbicki, 1993).

Metody punktu referencyjnego, tak jak techniki PC, uzywaj ↪a poziomow aspira-cji jako g lownych parametrow steruj ↪acych, ale dzi ↪eki odmiennemu modelowi prefe-rencji generuj ↪a zawsze rozwi ↪azania efektywne. Model preferencji uzyty w metodachpunktu referencyjnego spe lnia nast ↪epuj ↪ace dwa postulaty:

P1. Relacja preferencji jest racjonaln ↪a relacj ↪a preferencji, czyli spe lnia warunki

81

Page 80: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

82 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

zwrotnosci (1.3), przechodniosci (1.4) i scis lej monotonicznosci (1.5).

P2. Rozwi ↪azanie ze wszystkimi indywidualnymi ocenami fi(x) rownymi odpo-wiadaj ↪acym im poziomom aspiracji jest preferowane w stosunku do rozwi ↪a-zania z przynajmniej jedn ↪a indywidualn ↪a ocen ↪a wi ↪eksz ↪a od odpowiadaj ↪acegojej poziomu aspiracji.

Postulat P1 oznacza, ze rozwi ↪azania efektywne dominuj ↪a rozwi ↪azania nieefek-tywne, czyli ze preferencje decydenta s ↪a zgodne z zasad ↪a wyboru rozwi ↪azan efek-tywnych. Postulat P2 wyraza, ze decydent woli oceny osi ↪agaj ↪ace wszystkie po-ziomy aspiracji od tych, ktore nie osi ↪agaj ↪a jednego lub wi ↪ecej poziomow aspiracji.Zauwazmy, ze postulat ten nie pokrywa si ↪e z lez ↪acym u podstaw podejscia zadowa-laj ↪acego i programowania celowego za lozeniem (2.58), ze wektor poziomow aspiracjijest najbardziej preferowanym wektorem ocen. Postulat P2 moze byc zapisany wpostaci warunku

(y 6= a i y 6≤ a) ⇒ a ≺ y (3.1)

co oznacza, ze wektor aspiracji a jest scisle preferowany w stosunku do kazdegowektora ocen y ∈ Y , ktory nie dominuje s labo wektora a

y 6�r a ⇒ a ≺ y (3.2)

Modele preferencji oparte na warunku (3.1) nazywane s ↪a quasi–zadowalaj ↪acymi(Wierzbicki, 1986). W modelach tych przyjmuje si ↪e, podobnie jak w modeluzadowalaj ↪acym (por. podrozdzia l 2.4), ze decydent rozwi ↪azuj ↪ac problem decy-zyjny okresla poziomy aspiracji jako poz ↪adane wartosci poszczegolnych ocen. Jezeliwartosci ocen nie osi ↪agaj ↪a poziomow aspiracji, to decydent stara si ↪e znalezc lepszerozwi ↪azanie. Jezeli wartosci pewnych ocen osi ↪agn ↪e ly odpowiednie poziomy aspi-racji, to decydent koncentruje uwag ↪e na poprawie wartosci tych ocen, ktore nieosi ↪agn ↪e ly swoich poziomow aspiracji. Jednak gdy wszystkie oceny osi ↪agn ↪a za lozonepoziomy aspiracji, to decydent jest zainteresowany dalsz ↪a popraw ↪a ocen, o ile jestto mozliwe .

Warunek (3.1), niezaleznie od wyboru wektora poziomow aspiracji a, nie jestsprzeczny z warunkiem scis lej monotonicznosci (1.5). Dlatego istnieje mozliwosckonstrukcji takich skalaryzacji zadan wielokryterialnych, ze definiowane przez nierelacje preferencji spe lniaj ↪a postulaty P1 i P2. Co wi ↪ecej, brak ograniczen nawybor poziomow aspiracji pozwala wykorzystywac poziomy aspiracji jako g lowneparametry steruj ↪ace w procesie analizy interaktywnej. Zauwazmy, ze postulatyP1 i P2 s ↪a spe lnione przez model PC (2.7) z wazon ↪a funkcj ↪a osi ↪agni ↪ecia (2.2),gdy wspolczynniki wagowe spe lniaj ↪a nienaturalny dla metodologii PC warunekw+i > −w−i > 0 dla i = 1, 2, . . . ,m. Warunek ten zak lada w szczegolnosci, ze

wagi w−i odpowiadaj ↪ace odchyleniom w do l przyjmuj ↪a wartosci ujemne. Jest tooczywiscie niezgodne z ide ↪a programowania celowego i koncepcj ↪a scis lego podejsciazadowalaj ↪acego (2.58).

Metody punktu referencyjnego polegaj ↪a na minimalizacji odpowiednio zdefinio-wanej skalaryzuj ↪acej funkcji osi ↪agni ↪ecia, generuj ↪acej relacj ↪e preferencji spe lniaj ↪ac ↪apostulaty P1 i P2. Dzi ↪eki temu wyznaczaj ↪a one zawsze rozwi ↪azania efektywne.Ponadto wymaga si ↪e, zeby skalaryzuj ↪aca funkcja osi ↪agni ↪ecia zapewnia la zupe lnosc

Page 81: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.1. METODA PUNKTU REFERENCYJNEGO 83

parametryzacji zbioru rozwi ↪azan efektywnych przez poziomy aspiracji. Wymaga-nie to oznacza, ze dla kazdego osi ↪agalnego wektora ocen (y ∈ A) powinny istniecpoziomy aspiracji pozwalaj ↪ace wyznaczyc rozwi ↪azanie efektywne, generuj ↪ace tenwektor ocen (nawet w przypadku dyskretnych lub niewypuk lych zbiorow dopusz-czalnych). Tej ostatniej w lasnosci nie posiada przytoczony wczesniej uogolnionymodel wazonego programowania celowego z ujemnymi wagami dla odchylen w do l.

Jedna z najprostszych skalaryzuj ↪acych funkcji osi ↪agni ↪ecia dla zadania (1.7)przyjmuje nast ↪epuj ↪ac ↪a postac (por. Steuer, 1986)

s(y) = maxi=1,...,m

{λi(yi − ai)}+ ρ

m∑i=1

λi(yi − ai) (3.3)

gdzie

ai oznaczaj ↪a poziomy aspiracji (wspo lrz ↪edne wektora aspiracji a),

λi s ↪a dodatnimi czynnikami skaluj ↪acymi,

ρ oznacza arbitralnie ma ly, dodatni parametr regularyzacyjny.

Minimalizacja funkcji (3.3) ze wzgl ↪edu na y ∈ A wyznacza niezdominowany wektorocen y i generuj ↪ace go rozwi ↪azanie efektywne x. Wyznaczone rozwi ↪azanie efek-tywne zalezy od wartosci dwoch grup parametrow: poziomow aspiracji ai i czyn-nikow skaluj ↪acych λi. W implemetacjach metody wartosci czynnikow skaluj ↪acychλi ustala si ↪e zazwyczaj automatycznie na podstawie wst ↪epnej analizy problemu,natomiast poziomy aspiracji ai pozostawia si ↪e jako parametry steruj ↪ace procesemanalizy interaktywnej (por. Grauer i inni, 1984). Parametr ρ s luzy jedynie do wpro-wadzenia sk ladnika regularyzacyjnego gwarantuj ↪acego efektywnosc rozwi ↪azania wprzypadku niejednoznacznosci minimum pierwszego sk ladnika funkcji s(y).

Minimalizacja skalaryzuj ↪acej funkcji osi ↪agni ↪ecia (3.3) ze wzgl ↪edu na y ∈ Amoze byc rozpatrywana jako implementacja dwupoziomowego leksykograficznegozadania parametrycznego

lexmin {( maxi=1,...,m

si(ai, fi(x)),

m∑i=1

si(ai, fi(x))) : x ∈ Q}, a ∈ Y (3.4)

gdziesi(ai, yi) = λi(yi − ai) dla i = 1, 2, . . . ,m (3.5)

Zauwazmy, ze parametryczne funkcje si(ai, yi) postaci (3.5) s ↪a liniowymi funkcjamiskaluj ↪acymi indywidualne oceny yi. Co wi ↪ecej, w przypadku dodatnich wartosci λis ↪a to funkcje scisle rosn ↪ace, czyli spe lnione s ↪a za lozenia wniosku 1.22. Ogolnie zwniosku 1.22 otrzymujemy nast ↪epuj ↪acy wniosek.

Wniosek 3.1 Dla dowolnych funkcji si(ai, yi), scisle rosn ↪acych wzgl ↪edem yi,rozwi ↪azanie optymalne zadania (3.4) jest rozwi ↪azaniem efektywnym wielokryterial-nego zadania (1.7).

Dla zagwarantowania spe lnienia przez parametryzacj ↪e (3.4) obu postulatowP1 i P2 quasi–zadowalaj ↪acego modelu preferencji b ↪edziemy zak ladac, ze funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi oraz spe lniaj ↪a warunek

s1(a1, a1) = s2(a2, a2) = · · · = sm(am, am) (3.6)

Page 82: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

84 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Twierdzenie 3.1 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yi ispe lniaj ↪acych warunek (3.6), relacja preferencji definiowana przez leksykograficzn ↪aminimalizacj ↪e (3.4) jest zwrotna, przechodnia, scisle monotoniczna oraz spe lniawarunek (3.1).

Dowod. Zwrotnosc, przechodniosc i scis la monotonicznosc relacji preferencji defi-niowanej przez minimalizacj ↪e (3.4) wynika bezposrednio ze scis lej monotonicznoscifunkcji si(ai, yi) wzgl ↪edem yi (por. wniosek 1.21). Dalej, zauwazmy, ze na mocytwierdzenia 1.11 prawdziwa jest implikacja

y 6<= a ⇒ a ≺ y

co oznacza spe lnienie warunku (3.1).

Twierdzenie 3.2 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funk-cje si(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to kazderozwi ↪azanie efektywne x0 wielokryterialnego zadania (1.7) jest rozwi ↪azaniem opty-

malnym zadania (3.4) dla wektora aspiracji a0 = f(x0).

Dowod. Niech x0 b ↪edzie rozwi ↪azaniem efektywnym zadania (1.7). Przypuscmy,ze x0 nie jest rozwi ↪azaniem optymalnym zadania (3.4) dla wektora aspiracji a0 =

f(x0). Istnieje wtedy wektor x ∈ Q taki, ze

maxi=1,...,m

si(fi(x0), fi(x)) ≤ max

i=1,...,msi(fi(x

0), fi(x0))

i jednoczesnie w przypadku rownosci spe lniona jest dodatkowo nierownosc ostram∑i=1

si(fi(x0), fi(x)) <

m∑i=1

si(fi(x0), fi(x

0))

Zauwazmy, ze na mocy warunku (3.6)

s1(f1(x0), f1(x0)) = · · · = sm(fm(x0), fm(x0)) = maxi=1,...,m

si(fi(x0), fi(x

0))

Zatemsi(fi(x

0), fi(x)) ≤ si(fi(x0), fi(x0)) dla i = 1, 2, . . . ,m

i istnieje indeks i0 taki, ze

si0(fi0(x0), fi0(x)) < si0(fi0(x0), fi0(x0))

Funkcje si(fi(x0), yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi, tak wi ↪ec

fi(x) ≤ fi(x0) dla i = 1, 2, . . . ,m

przy czym dla indeksu i0 zachodzi nierownosc ostra. Przeczy to efektywnosci wek-tora x0 dla problemu (1.7). Zatem wektor x0 jest rozwi ↪azaniem optymalnym za-

dania (3.4) dla wektora poziomow aspiracji a0 = f(x0).

Wniosek 3.2 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to dla dowol-nego rozwi ↪azania efektywnego x0 wielokryterialnego zadania (1.7) istnieje wektorpoziomow aspiracji a0 ∈ Y taki, ze x0 jest rozwi ↪azaniem optymalnym odpowied-niego zadania (3.4).

Page 83: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.1. METODA PUNKTU REFERENCYJNEGO 85

Funkcje (3.5) spe lniaj ↪a za lozenia wniosku 3.1 oraz twierdzen 3.1 i 3.2. Dla-tego najprostsza skalaryzuj ↪aca funkcja osi ↪agni ↪ecia (3.3) dostarcza zupe lnej para-metryzacji zbioru rozwi ↪azan efektywnych zgodnej z quasi–zadowalaj ↪acym modelempreferencji okreslonym przez postulaty P1 i P2. Podobnie, za lozenia powyzszychtwierdzen spe lniaj ↪a uzywane w praktycznych implementacjach metody punktu re-ferencyjnego (Grauer i inni, 1984) funkcje postaci

si(ai, yi) =

{−βλi(yi − ai), jesli yi ≤ ai

λi(yi − ai), jesli yi > ai(3.7)

gdzie parametr β spe lnia zaleznosc 0 < β < 1.Lewandowski i Wierzbicki (1988) zaproponowali przedzia low ↪a metod ↪e punktu

referencyjnego, uzywaj ↪ac ↪a jako parametrow steruj ↪acych oprocz poziomow aspiracjitakze poziomow rezerwacji ri (ri > ai, i = 1, 2, . . . ,m), wyrazaj ↪acych “mi ↪ekkie”ograniczenia na poszczegolne oceny. Odpowiada to wprowadzeniu do modelu pre-ferencji dodatkowego postulatu

P2a. Rozwi ↪azanie ze wszystkimi indywidualnymi ocenami fi(x) rownymi odpo-wiadaj ↪acym im poziomom rezerwacji jest preferowane w stosunku do rozwi ↪a-zania z przynajmniej jedn ↪a indywidualn ↪a ocen ↪a wi ↪eksz ↪a od odpowiadaj ↪acegojej poziomu rezerwacji.

Postulat P2a wyraza, ze decydent woli oceny osi ↪agaj ↪ace wszystkie poziomyrezerwacji od tych, ktore nie osi ↪agaj ↪a jednego lub wi ↪ecej poziomow rezerwacji.Postulat ten, analogicznie jak postulat P2, moze byc zapisany w postaci warunku

y 6<= r ⇒ r ≺ y (3.8)

luby 6�r r ⇒ r ≺ y (3.9)

Skalaryzuj ↪aca funkcja osi ↪agni ↪ecia dla przedzia lowej metody punktu referencyj-nego ma postac

s(a, r,y) = maxi=1,...,m

si(ai, ri, yi) + ρ

m∑i=1

si(ai, ri, yi) (3.10)

gdzie si (i = 1, 2, . . . ,m) s ↪a funkcjami mierz ↪acymi odchylenie wartosci oceny yiod oczekiwan decydenta wyrazonych poziomem aspiracji ai i poziomem rezerwa-cji ri. Mozna je interpretowac jako miary niezadowolenia decydenta z biez ↪acychwartosci poszczegolnych ocen. Lewandowski i Wierzbicki (1988) przyjmuj ↪a funkcjeprzedzia lami liniowe

si(ai, ri, yi) =

−β(yi − ai)/(yui − ai), jesli yi ≤ ai(yi − ai)/(ri − ai), jesli ai < yi < ri

γ(yi − ri)/(ywi − ai) + 1, jesli yi ≥ ri(3.11)

gdzie yui i ywi oznaczaj ↪a odpowiednio najlepsz ↪a i najgorsz ↪a mozliw ↪a wartosc i–tejfunkcji oceny w zbiorze Q, o ktorych zak lada si ↪e, ze s ↪a znane przed rozpocz ↪eciemanalizy, a β i γ s ↪a dodatnimi parametrami dobranymi arbitralnie. β wyraza satys-fakcj ↪e decydenta z osi ↪agni ↪ecia lepszego niz odpowiedni poziom aspiracji, a γ > 1

Page 84: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

86 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

wyraza niezadowolenie zwi ↪azane z osi ↪agni ↪eciem gorszym od odpowiedniego poziomurezerwacji.

Funkcja si(ai, ri, yi) jest scisle rosn ↪ac ↪a funkcj ↪a yi o wartosciach si(ai, ri, ai) = 0,si(ai, ri, ri) = 1, si(ai, ri, y

ui ) = −β i si(ai, ri, y

wi ) = 1 + γ. W praktycznych imple-

mentacjach zamiast najgorszych wartosci ywi uzywane s ↪a odpowiednie wspo lrz ↪ednewektora nadiru (yni ). Zauwazmy, ze funkcje (3.11) nie zawieraj ↪a parametrow λi,jako ze poziomy rezerwacji s ↪a wykorzystane do automatycznego generowania czyn-nikow skaluj ↪acych i jedynymi dodatkowymi parametrami s ↪a sta le β i γ. Odpowiadato rozmytemu podejsciu (Zimmermann, 1985) do mierzenia satysfakcji decydentaz wartosci poszczegolnych funkcji oceny (por. Wierzbicki, 1986).

W implementacji przedzia lowej metody punktu referencyjnego w systemie DI-NAS (Ogryczak i inni, 1989) zosta ly uzyte prostsze funkcje si. S ↪a to funkcje prze-dzia lami liniowe, okreslone wzorem

si(ai, ri, yi) =

−β(yi − ai)/(ri − ai), jesli yi ≤ ai(yi − ai)/(ri − ai), jesli ai < yi < ri

γ(yi − ri)/(ri − ai) + 1, jesli yi ≥ ri(3.12)

gdzie parametry β i γ spe lniaj ↪a zaleznosci 0 < β < 1 < γ.Funkcje (3.12) przyjmuj ↪a wartosci si(ai, ri, ai) = 0, si(ai, ri, ri) = 1 i s ↪a scisle

rosn ↪ace wzgl ↪edem yi. Ponadto, w odroznieniu od funkcji (3.11), s ↪a one wypuk lewzgl ↪edem yi. Dzi ↪eki temu funkcje (3.12) mog ↪a byc wyrazone w postaci

si(ai, ri, yi) = max{−β(yi−ai)/(ri−ai), (yi−ai)/(ri−ai), γ(yi−ri)/(ri−ai)+1}

i ca la skalaryzuj ↪aca funkcja osi ↪agni ↪ecia (3.10) moze byc wprowadzona do modeluWPL bez naruszenia jego liniowej struktury.

Minimalizacja skalaryzuj ↪acej funkcji osi ↪agni ↪ecia (3.10) po y ∈ A moze byc roz-patrywana jako implementacja dwupoziomowego leksykograficznego zadania para-metrycznego

lexmin {( maxi=1,...,m

si(ai, ri, fi(x)),

m∑i=1

si(ai, ri, fi(x))) : x ∈ Q} (3.13)

gdzie a, r ∈ Y i a < r.Zauwazmy, ze zarowno funkcje (3.11), jak i funkcje (3.12) spe lniaj ↪a za lozenia

twierdzen 3.1 i 3.2 oraz wniosku 3.1. Zatem otrzymujemy zupe ln ↪a parametryzacj ↪ezbioru rozwi ↪azan efektywnych zgodn ↪a z modelem preferencji okreslonym postu-latami P1 i P2. Ponadto, dzi ↪eki temu, ze si(ai, ri, ri) = 1 dla i = 1, 2, . . . ,m,spe lniony jest rowniez postulat P2a. Prawdziwe jest bowiem nast ↪epuj ↪ace twier-dzenie.

Twierdzenie 3.3 Dla dowolnych funkcji si(ai, ri, yi) scisle rosn ↪acych wzgl ↪edem yii spe lniaj ↪acych warunek

s1(a1, r1, r1) = s2(a2, r2, r2) = · · · = sm(am, rm, rm) (3.14)

relacja preferencji definiowana przez leksykograficzn ↪a minimalizacj ↪e (3.13) spe lniawarunek (3.8).

Page 85: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.1. METODA PUNKTU REFERENCYJNEGO 87

Dowod. Zauwazmy, ze na mocy twierdzenia 1.11 dla relacji preferencji � definio-wanej przez minimalizacj ↪e (3.13) prawdziwa jest implikacja

y 6<= r ⇒ r ≺ y

co oznacza spe lnienie warunku (3.8).

Zauwazmy, ze funkcje si(ai, ri, yi) zdefiniowane wzorem (3.11) lub (3.12)spe lniaj ↪a warunek

s1(a1, r1, a1 + t(r1 − a1)) = s2(a2, r2, a2 + t(r2 − a2)) = . . .

= sm(am, rm, am + t(rm − am)) dla 0 ≤ t ≤ 1

Wynika z tego, ze przedzia lowe metody punktu referencyjnego oparte na funkcjach(3.11) i (3.12) implementuj ↪a model preferencji spe lniaj ↪acy warunek

y 6�r a + t(r− a) ⇒ a + t(r− a) ≺ y dla 0 ≤ t ≤ 1 (3.15)

Roznica pomi ↪edzy uzyciem funkcji (3.12) a (3.11) polega na tym, ze pierwsze znich rozszerzaj ↪a ten model preferencji na ca l ↪a prost ↪a wyznaczon ↪a przez a i r, adrugie na laman ↪a okreslon ↪a przez yu, a, r, yw. To znaczy, przedzia lowa metodapunktu referencyjnego z funkcjami si typu (3.12) implementuje model preferencjispe lniaj ↪acy zaleznosc

y 6�r a + t(r− a) ⇒ a + t(r− a) ≺ y dla t ∈ Ra w przypadku funkcji si typu (3.11) model preferencji spe lniaj ↪acy zaleznosc

y 6�r a + t(a− yu) ⇒ a + t(a− yu) ≺ y dla t ≤ 0y 6�r a + t(r− a) ⇒ a + t(r− a) ≺ y dla 0 ≤ t ≤ 1y 6�r r + t(yw − r) ⇒ r + t(yw − r) ≺ y dla t ≥ 0

Rozwi ↪azywane w metodach punktu referencyjnego zadania optymalizacyjnetypu (3.4) nie wprowadzaj ↪a istotnych komplikacji do struktury oryginalnego zada-nia. W szczegolnosci, w przypadku zadania WPL, odpowiedni problem (3.4) mozebyc rozwi ↪azywany technikami programowania liniowego i istnieje nawet mozliwoscimplementacji metody sympleks z niejawn ↪a reprezentacj ↪a minimaksowej funkcjicelu bez wprowadzania dodatkowych zaleznosci do oryginalnej struktury zbiorudopuszczalnego Q (Ogryczak i Zorychta, 1994).

Proces analizy interaktywnej metod punktu referencyjnego jest w pe lni zgodnyz przedstawion ↪a w podrozdziale 1.4 koncepcj ↪a systemow wspomagania decyzji. Re-alizuj ↪a one otwarty proces poszukiwania zadowalaj ↪acego rozwi ↪azania efektywnegona podstawie biez ↪acych preferencji okreslanych poziomami aspiracji (i dodatkowopoziomami rezerwacji lub wspo lczynnikami skaluj ↪acymi). Zastosowania opartychna metodach punktu referencyjnego systemow wspomagania decyzji do analizyrzeczywistych problemow decyzyjnych (por. np. Malczewski i Ogryczak, 1990)oraz specjalnie przeprowadzane eksperymenty (Korhonen i Wallenius, 1989; Steuer,1993) pokazuj ↪a, ze do wyznaczenia zadowalaj ↪acego rozwi ↪azania efektywnego wielo-kryterialnego problemu decyzyjnego wystarcza zazwyczaj niewielka liczba krokowanalizy interaktywnej. Jednoczesnie wyrazanie biez ↪acych preferencji w terminachpoziomow aspiracji (i ewentualnie rezerwacji) jest latwo rozumiane i ch ↪etnie akcep-towane przez decydentow.

Page 86: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

88 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

3.2 System DINAS

Przedzia lowa metoda punktu referencyjnego zosta la zaimplemetowana w sys-temie DINAS dla wielokryterialnych zagadnien transportowo–lokalizacyjnych nasieciach (Ogryczak i inni, 1988; 1991). Jest to cz ↪esto pojawiaj ↪aca si ↪e w zasto-sowaniach szczegolna klasa mieszanych zagadnien programowania liniowego dys-kretnego. W systemie DINAS zosta l przyj ↪ety nast ↪epuj ↪acy sieciowy model prob-lemu transportowo–lokalizacyjnego. Zbior w ↪ez low sieci dzieli si ↪e na dwa podzbiory:zbior w ↪ez low sta lych i zbior w ↪ez low potencjalnych. W ↪ez ly sta le reprezentuj ↪a ist-niej ↪ace (sta le) punkty sieci transportowej. W ↪ez ly potencjalne s ↪a wprowadzone dlareprezentacji mozliwych lokalizacji nowych punktow sieci. Pewne grupy w ↪ez lowpotencjanych mog ↪a reprezentowac rozne warianty tego samego obiektu. Dlategow ↪ez ly potencjalne s ↪a pogrupowane w tzw. selekcje (tzn. zbiory z ograniczeniamiwyboru). Kazda selekcja jest okreslona przez list ↪e zawartych w niej w ↪ez low poten-cjalnych oraz dolne i gorne ograniczenie na liczb ↪e w ↪ez low, ktore mog ↪a byc wybranez tej listy. Rozpatruje si ↪e dystrybucj ↪e jednorodnego dobra zgodnie z topologi ↪asieci transportowej. Kazdy w ↪eze l sta ly jest scharakteryzowany przez podaz i po-pyt na rozwazane dobro. Kazdy w ↪eze l potencjalny ma okreslon ↪a przepustowosc,ktora ogranicza maksymalny przep lyw dobra przez w ↪eze l. Przepustowosci s ↪a takzeokreslone dla wszystkich lukow sieci. Dane s ↪a liniowe funkcje celu okreslone przezwspo lczynniki kosztu odpowiadaj ↪ace poszczegolnym lukom i w ↪ez lom potencjalnym.Wspo lczynnik kosztu zwi ↪azany z lukiem wyraza koszt przep lywu jednostki dobrawzd luz luku. Wspo lczynnik kosztu dla w ↪ez la potencjalnego wyraza koszt sta lyzwi ↪azany z wyborem danego w ↪ez la.

Dla uproszczenia reprezentacji modelu i procedur obliczeniowych system DI-NAS dokonuje transformacji modelu transportowo–lokalizacyjnego przekszta lcaj ↪acwszystkie funkcje oceny na minimalizowane i zast ↪epuj ↪ac w ↪ez ly potencjalne lukamisztucznymi. Kazdy w ↪eze l potencjalny jest zast ↪epowany par ↪a w ↪ez low (sta lych) i l ↪acz ↪acym je lukiem (sztucznym). Dzi ↪eki tej transformacji otrzymujemy siec osta lej strukturze (wszystkie w ↪ez ly s ↪a sta le). Potencjalnosc lukow sztucznych niekomplikuje sta lej struktury sieci, poniewaz wszystkie luki reprezentuj ↪a potencjalnemozliwosci przep lywow. Co wi ↪ecej, po transformacji wszystkie przepustowosci do-tycz ↪a jedynie lukow. Podobnie wspo lczynniki kosztu s ↪a zwi ↪azane tylko z lukami.Wspo lczynniki kosztu odpowiadaj ↪ace lukom sztucznym maj ↪a jednak inny charakterniz te odpowiadaj ↪ace oryginalnym lukom. Matematyczny model przekszta lconegozadania przyjmuje nast ↪epuj ↪ac ↪a postac

zminimalizowac

fi(x) =∑

(l,j)∈E\Ea

ciljxlj +∑

(l,j)∈Ea

ciljx′lj , i = 1, 2, . . . ,m (3.16)

pod warunkiem, ze∑(l,j)∈E

xlj −∑

(j,l)∈E

xjl = bl dla l ∈W (3.17)

0 ≤ xlj ≤ plj dla (l, j) ∈ E \ Ea, (3.18)

Page 87: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.2. SYSTEM DINAS 89

0 ≤ xlj ≤ pljx′lj dla (l, j) ∈ Ea (3.19)

gk ≤∑

(l,j)∈Sk

x′lj ≤ hk dla k = 1, 2, . . . , ns, (3.20)

x′lj ∈ {0, 1} dla (l, j) ∈ Ea (3.21)

gdzie

m liczba funkcji oceny,

W zbior w ↪ez low,

ns liczba selekcji,

E zbior lukow ( l ↪acznie ze sztucznymi),

Ea zbior lukow sztucznych,

cilj wspo lczynnik kosztu w i-tej funkcji oceny zwi ↪azany z lukiem (l, j),

bl bilans podazy i popytu dla w ↪ez la l,

plj przepustowosc luku (l, j),

gk, hk dolna i gorna liczba lukow (sztucznych) do wybrania w k-tej selekcji,

Sk zbior lukow (sztucznych) nalez ↪acych do k-tej selekcji,

xlj zmienna decyzyjna reprezentuj ↪aca przep lyw wzd luz luku (l, j),

x′lj binarna zmienna decyzyjna reprezentuj ↪aca aktywnosc luku (l, j).

DINAS pozwala rozwi ↪azywac problem (3.16)–(3.21) na komputerach IBM–PClub kompatybilnych. Podstawowa wersja systemu DINAS moze byc uzywana dorozwi ↪azywania problemow sk ladaj ↪acych sie z co najwyzej siedmiu funkcji oceny isieci transportowej zawieraj ↪acej do 300 lukow, 100 w ↪ez low sta lych i 15 potencjal-nych.

Prac ↪a systemu DINAS steruje si ↪e za pomoc ↪a menu zawieraj ↪acego szereg pro-stych komend do wyboru. Operacje dost ↪epne podczas interaktywnej analizy s ↪apodzielone na trzy grupy i trzy odpowiadaj ↪ace im opcje g lownego menu (por. tab-lica 3.1): Process, Solution i Analysis.

Tablica 3.1

G lowne menu systemu DINAS

Tablica 3.1:Process Solution Analysis

problem summary compare

convert browse previous

pay–off save next

efficient delete last

quit restore

Opcja Process zawiera podstawowe operacje zwi ↪azane z przetwarzaniem prob-lemu wielokryterialnego i generowaniem rozwi ↪azan efektywnych. S ↪a wsrod nichoperacje definiowania problemu, takie jak wywo lanie edytora danych sieciowych

Page 88: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

90 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

przeznaczone do wprowadzania lub modyfikowania danych problemu (komendaproblem), a takze konwersji danych z jednoczesn ↪a kontrol ↪a ich poprawnosci dla juzzdefiniowanego problemu (komenda convert). Ponadto s ↪a dost ↪epne komendy op-tymalizacji pay–off i efficient oraz komenda quit, pozwalaj ↪aca na zakonczeniepracy i wyjscie z systemu.

Pierwszym krokiem analizy wielokryterialnej powinno byc wywo lanie komendypay–off. Komenda ta uruchamia proces optymalizacji kazdej funkcji oceny zosobna, a dok ladniej, rozwi ↪azywanie zadan jednokryterialnych postaci

min {fk(x) + ρ

m∑i=1

fi(x) : x ∈ Q}, k = 1, 2, . . . ,m (3.22)

gdzie ρ jest arbitralnie ma l ↪a liczb ↪a dodatni ↪a. To znaczy, do optymalizowanej funk-cji oceny jest dodawany niewielki sk ladnik regularyzuj ↪acy dla zapewnienia efek-tywnosci wszystkich wyznaczonych rozwi ↪azan optymalnych (por. twierdzenie 1.17).W wyniku tych obliczen powstaje macierz realizacji celow (por. podrozdzia l 1.4).Jest ona tablic ↪a zawieraj ↪ac ↪a wartosci wszystkich funkcji (kolumny) otrzymywanepodczas rozwi ↪azywania poszczegolnych problemow jednokryterialnych (wiersze).Podczas wykonywania komendy pay–off wyznaczane s ↪a takze wektory utopii inadiru. Dzi ↪eki technice regularyzacyjnej (3.22) kazde wygenerowane podczas ob-liczania tablicy realizacji celow rozwi ↪azanie optymalne zadania jednokryterialnegojest jednoczesnie rozwi ↪azaniem efektywnym problemu wielokryterialnego. Tak wi ↪ecpo obliczeniu tablicy realizacji celow wygenerowany jest pewien zbior rozwi ↪azanefektywnych zwi ↪azanych z poszczegolnymi wierszami tablicy. Obliczanie tablicyrealizacji celow jest zazwyczaj najbardziej czasoch lonn ↪a operacj ↪a analizy wielokry-terialnej. Dlatego tez w systemie DINAS jest ona automatycznie zapami ↪etywana.

Maj ↪ac wyznaczon ↪a tablic ↪e realizacji celow mozna rozpocz ↪ac interaktywne po-szukiwanie zadowalaj ↪acego rozwi ↪azania efektywnego. Jako parametry steruj ↪aceanaliz ↪a interaktywn ↪a w systemie DINAS uzywane s ↪a poziomy aspiracji i rezerwa-cji. Dok ladniej, dla kazdej funkcji oceny uzytkownik okresla jako poziom aspiracjiwartosc, ktor ↪a pragn ↪a lby, aby ta funkcja osi ↪agn ↪e la, a jako poziom rezerwacji jejnajgorsz ↪a akceptowaln ↪a wartosc. Wszystkie operacje zwi ↪azane z edycj ↪a poziomowaspiracji i rezerwacji, a takze obliczanie nowego rozwi ↪azania efektywnego wykonujesi ↪e za pomoc ↪a komendy efficient. System poszukuje zadowalaj ↪acego rozwi ↪azaniaefektywnego, uzywaj ↪ac skalaryzuj ↪acej funkcji osi ↪agni ↪ecia (3.10) i (3.12) jako kry-terium w optymalizacji jednokryterialnej. Wygenerowane rozwi ↪azanie optymalnejest zawsze rozwi ↪azaniem efektywnym oryginalnego problemu wielokryterialnego(nawet, gdy zadane poziomy aspiracji s ↪a osi ↪agalne).

System DINAS przechowuje rozwi ↪azania efektywne w specjalnej bazie. Wszyst-kie wygenerowane podczas sesji (lub wprowadzone z pliku wejsciowego) rozwi ↪azaniaefektywne s ↪a umieszczane w tej bazie. Jednakze mozna tam przechowywac conajwyzej dziewi ↪ec rozwi ↪azan, wi ↪ec gdy dziesi ↪ate rozwi ↪azanie jest umieszczane wbazie, wtedy najstarsze ze znajduj ↪acych si ↪e tam rozwi ↪azan jest z bazy automatycz-nie usuwane. Z drugiej strony, dowolne rozwi ↪azanie mozna zachowac w osobnympliku i wprowadzic z pliku podczas tej samej b ↪adz nast ↪epnych sesji. System DI-NAS jest wyposazony w komendy pomocne przy operacjach na bazie rozwi ↪azan.

Page 89: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.2. SYSTEM DINAS 91

S ↪a dwa rodzaje tych operacji: operacje na pojedynczym rozwi ↪azaniu efektywnym ioperacje na ca lej bazie rozwi ↪azan. Operacje na pojedynczym rozwi ↪azaniu dotycz ↪atylko rozwi ↪azania biez ↪acego. Najnowsze wygenerowane rozwi ↪azanie jest uwazane zarozwi ↪azanie biez ↪ace, ale dowolne rozwi ↪azanie znajduj ↪ace si ↪e w bazie mozna r ↪ecznieprzypisac jako rozwi ↪azanie biez ↪ace.

Opcja Solution w g lownym menu systemu (por. tablica 3.1) zawiera komendyodpowiadaj ↪ace operacjom na rozwi ↪azaniu biez ↪acym. Mozliwe jest szczego lowe ba-danie rozwi ↪azania biez ↪acego z uzyciem edytora sieciowego (komenda browse) alboanalizowanie skroconych charakterystyk, takich jak wartosci funkcji oceny i wyb-rane lokalizacje (komenda summary). Wartosci funkcji s ↪a prezentowane na trzysposoby: jako standardowa tablica, w postaci wykresow s lupkowych w skali aspi-racji/rezerwacji (|ri − ai| przyjmowane jako 100%) oraz jako wykresy s lupkowe wskali utopia/nadir (|yni − yui | przyjmowane jako 100%). S lupki pokazuj ↪a poziomprocentowy wartosci kazdej funkcji oceny w odniesieniu do skali, w ktorej s ↪a pre-zentowane. Biez ↪ace rozwi ↪azanie mozna zapami ↪etac w osobnym pliku (komendasave). Mozliwe jest takze usuni ↪ecie biez ↪acego rozwi ↪azania z bazy rozwi ↪azan (ko-menda delete).

Opcja Analysis w g lownym menu systemu (por. tablica 3.1) grupuje komendyzwi ↪azane z operacjami na bazie rozwi ↪azan. G lowna komenda compare umozliwiaporownywanie rozwi ↪azan efektywnych znajduj ↪acych si ↪e w bazie. W porownaniuwyst ↪epuj ↪a tylko skrocone charakterystyki rozwi ↪azan, czyli wartosci funkcji ocenyw formie tablic lub wykresow s lupkowych, a takze tablice wybranych lokalizacji.Ponadto pewne komendy w tej grupie (previous, next i last) s luz ↪a do wybiera-nia dowolnego rozwi ↪azania efektywnego znajduj ↪acego si ↪e w bazie jako rozwi ↪azaniebiez ↪ace. Mozliwe jest takze wprowadzenie do bazy rozwi ↪azania zapami ↪etanegouprzednio w osobnym pliku (komenda restore).

Najwazniejsz ↪a cz ↪esci ↪a systemu DINAS jest ukryty przed uzytkownikiem modu loptymalizacyjny dostarczaj ↪acy rozwi ↪azania problemow jednokryterialnych. Sta-nowi on j ↪adro numeryczne systemu, ktore generuje rozwi ↪azania efektywne. Zapro-jektowanie efektywnego modu lu optymalizacyjnego, pracuj ↪acego przy ograniczo-nych zasobach mikrokomputera klasy IBM-PC, wymaga lo z lozonych technik algo-rytmicznych i implementacyjnych wykorzystuj ↪acych specyfik ↪e zadania w ogolnychmetodach programowania liniowego dyskretnego (por. Ogryczak i inni, 1989). Wszczegolnosci rozwini ↪ete zosta ly techniki implemetacji metody sympleks z reprezen-tacj ↪a zmiennych gornych ograniczen poza struktur ↪a bazy (Ogryczak, 1992). Ozna-cza to, ze liczne w modelu nierownosci zawieraj ↪ace tylko dwie zmienne, podobniejak proste gorne ograniczenia w standardowych implementacjach metody sympleks,nie zwi ↪ekszaj ↪a roboczych struktur danych przechowuj ↪acych faktoryzacj ↪e biez ↪acejbazy, a jedynie komplikuj ↪a kroki algorytmu metody sympleks.

System DINAS jest wyposazony w specjalny pe lnoekranowy edytor sieciowy(Ogryczak i inni, 1992a) zaprojektowany do wprowadzania i modyfikacji danychproblemow sieciowych. Dane modelu dziel ↪a si ↪e na dwie zasadnicze grupy: danelogiczne okreslaj ↪ace topologi ↪e sieci transportowej (w ↪ez ly, luki, selekcje) i dane nu-meryczne opisuj ↪ace w ↪ez ly i luki sieci (wielkosci popytu i podazy, przepustowosci,wspo lczynniki funkcji celu). G lowna koncepcja edytora polega na tym, ze dane nu-

Page 90: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

92 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

meryczne s ↪a aktualizowane w trakcie definiowania lub sprawdzania logicznej struk-tury sieci. Dok ladniej, edytor pozwala na przechodzenie z biez ↪acego w ↪ez la (wzd luz lukow) do w ↪ez low s ↪asiednich i aktualizacj ↪e w specjalnych okienkach danych nume-rycznych dla biez ↪acego elementu sieci.

Przyk lad 3.1. Podstawowe elementy analizy wielokryterialnej wykonywanej przyuzyciu systemu DINAS ilustrujemy na ma lym sztucznym problemie reorganizacjirejonow s luzby zdrowia. Rzeczywisty problem tego typu zwi ↪azany z reorganizacj ↪aprzychodni rejonowych w regionie Warszawy zosta l rozwi ↪azany przy uzyciu pakietuMPSX/370 przez Ogryczaka i Malczewskiego (1987). Problem testowy ilustruj ↪acydzia lanie procedury interaktywnej oraz mozliwosci systemu DINAS jest ma lymwycinkiem modelu rzeczywistego.

Problem reorganizacji rejonow s luzby zdrowia zwi ↪azany z lokalizacj ↪a nowychosrodkow mozna sformu lowac nast ↪epuj ↪aco. Zak lada si ↪e, ze rozpatrywany regionsk lada si ↪e z pewnej liczby okr ↪egow o znanej dystrybucji populacji. W regionie tymznajduje si ↪e pewna liczba osrodkow zdrowia, ale ich mozliwosci obs lugi medycz-nej s ↪a niewystarczaj ↪ace i dlatego nalezy stworzyc nowe osrodki. Problem polegana okresleniu lokalizacji nowych osrodkow i ich wielkosci (mozliwosci obs lugi), atakze na przypisaniu mieszkancow regionu do poszczegolnych osrodkow (starych inowych). Proponowane rozwi ↪azanie powinno byc optymalne ze wzgl ↪edu na kilkakryteriow.

Rozpatrywany region jest cz ↪esci ↪a miasta podzielon ↪a przez pi ↪ec g lownych ulicna 12 obszarow. Potrzeby obs lugi medycznej w kazdym z obszarow s ↪a okreslone wtysi ↪acach porad na rok. W regionie istniej ↪a juz dwa osrodki zdrowia Pond i Hill.Ich mozliwosci obs lugi wynosz ↪a odpowiednio 100 i 90 tysi ↪ecy porad na rok. Zatemmozliwosci obs lugi medycznej w ca lym regionie wynosz ↪a 190, podczas gdy potrzebyobliczono na 240. Powinny wi ↪ec powstac w tym regionie nowe osrodki zdrowia.

Nowe osrodki mog ↪a byc tworzone w czterech potencjalnych lokalizacjach: Ice,Fiord, Bush i Oasis. Lokalizacje te s ↪a podzielone na dwa podzbiory odpowiadaj ↪acedwom subregionom:

North = {Ice, Fiord} i South = {Bush, Oasis}.Odleg losci mi ↪edzy dwiema potencjalnymi lokalizacjami w tym samym subregionies ↪a relatywnie ma le, a kazda lokalizacja ma mozliwosc zapokojenia potrzeb obs lugimedycznej. Lokalizacje w tym samym subregionie s ↪a rozpatrywane jako wzajem-nie wykluczaj ↪ace si ↪e, to znaczy w danym subregionie mozna wybrac tylko jedn ↪alokalizacj ↪e. Z kazd ↪a potencjaln ↪a lokalizacj ↪a zwi ↪azane s ↪a rozne mozliwosci obs lugi.

Nalezy zdecydowac, ktore z potencjalnych osrodkow zdrowia nalezy zbudowactak by by ly zaspokojone potrzeby w ca lym regionie. Decyzja powinna byc opty-malna ze wzgl ↪edu na nast ↪epuj ↪ace kryteria:– minimalizacja sredniej odleg losci dla porady,

– maksymalizacja ogolnej dost ↪epnosci osrodkow,

– minimalizacja kosztow inwestycji,

– maksymalizacja satysfakcji mieszkancow.

Pierwsze dwa kryteria s ↪a zwi ↪azane z odleg losciami mi ↪edzy osrodkami zdrowia aobszarami przez nie obs lugiwanymi. Bior ↪ac pod uwag ↪e morfologi ↪e miasta oraz siec

Page 91: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.2. SYSTEM DINAS 93

transportow ↪a jako najlepsze przyblizenie odleg losci rzeczywistych przyj ↪eto norm ↪el1. Niektore po l ↪aczenia mi ↪edzy obszarami a osrodkami zosta ly wyeliminowane(uznane za niedopuszczalne) z powodu utrudnien transportowych.

Ogolna dost ↪epnosc osrodkow jest zdefiniowana jako suma wspo lczynnikowdost ↪epu dla poszczegolnych obszarow. Przyjmuje si ↪e, ze dost ↪ep danego obszarujest odwrotnie proporcjonalny do kwadratu odleg losci obszaru od osrodka zdrowia.Dok ladniej, wspo lczynnik dost ↪epu obszaru do osrodka jest definiowany zgodnie zewzorem (por. Abernathy i Hershey, 1972)

clj = 1/(dlj + ε)2 (3.23)

gdzie dlj oznacza odleg losc pomi ↪edzy osrodkiem zdrowia l i obszarem j, a ε jestarbitralnie ma l ↪a liczb ↪a dodatni ↪a.

Jako koszt inwestycyjny i poziom satysfakcji mieszkancow przyjmuje si ↪e odpo-wiednio sum ↪e sta lych kosztow i sum ↪e sta lych poziomow satysfakcji zwi ↪azanych zposzczegolnymi lokalizacjami osrodkow.

Zdefiniowany tutaj problem reorganizacji rejonizacji s luzby zdrowia po l ↪aczonyz lokalizacj ↪a nowych osrodkow zdrowia latwo sformu lowac jako wielokryterialnyproblem transportowo–lokalizacyjny. Obszary i istniej ↪ace osrodki zdrowia sta-nowi ↪a sta le w ↪ez ly rozpatrywanej sieci, a wszystkie lokalizacje nowych osrodkowmozna traktowac jako w ↪ez ly potencjalne. Luki reprezentuj ↪a wszystkie mozliweprzypisania obszarow do osrodkow zdrowia. Przep lyw wzd luz luku z osrodkal do obszaru j wyraza liczb ↪e porad w obszarze j udzielanych przez osrodekl. Dla zbilansowania problemu wprowadzamy sztuczny w ↪eze l Tie z mozliwosci ↪aobs lugi rown ↪a ca lkowitym potrzebom regionu. Ponadto definiujemy dodatkowe luki l ↪acz ↪ace sztuczny w ↪eze l Tie z wszystkimi osrodkami (istniej ↪acymi i potencjal-nymi). Mozliwosci obs lugi istniej ↪acych osrodkow (Pond i Hill) s ↪a pojemnosciami lukow l ↪acz ↪acych w ↪eze l Tie z odpowiadaj ↪acymi im w ↪ez lami.

W problemach transportowo–lokalizacyjnych jako funkcje oceny rozpatruje si ↪esumy funkcji liniowych, zaleznych od przep lywow wzd luz poszczegolnych lukowi kosztow sta lych zwi ↪azanych z wybranymi lokalizacjami. W naszym modelufunkcje oceny s ↪a podzielone na dwie grupy. Funkcje reprezentuj ↪ace koszt inwe-stycji (Invest) i poziom satysfakcji (Satisf) s ↪a niezalezne od decyzji rejonizacjii w zwi ↪azku z tym nie maj ↪a wspo lczynnikow zwi ↪azanych z przep lywami wzd luz lukow (czyli wspo lczynniki te s ↪a rowne 0). Z drugiej strony funkcje reprezentuj ↪acesredni ↪a odleg losc (Dist) i ogoln ↪a dost ↪epnosc (Prox) zalez ↪a tylko od decyzji rejo-nizacji i dlatego nie maj ↪a sk ladnikow sta lych zwi ↪azanych z decyzjami lokalizacji.Sta le wspo lczynniki funkcji Invest i Satisf mog ↪a byc brane bezbosrednio z danychwejsciowych. Liniowe wspo lczynniki funkcji Prox s ↪a wyliczane ze wspo lczynnikowodleg losci zgodnie ze wzorem (3.23), zas liniowe wspo lczynniki funkcji Dist s ↪a defi-niowane jako odpowiednie odleg losci dzielone przez sum ↪e wszystkich potrzeb (240).

Cztery w ↪ez ly potencjalne reprezentuj ↪a cztery potencjalne lokalizacje osrodkowzdrowia: Ice, Fiord, Bush i Oasis. Jak juz wspominalismy, lokalizacje nalez ↪ace dotego samego subregionu wykluczaj ↪a si ↪e wzajemnie, czyli z jednego subregionu mozebyc wybrana co najwyzej jedna lokalizacja. Aby uwzgl ↪ednic wymaganie tego typu,wykorzystujemy selekcje. W naszym modelu s ↪a dwie selekcje zwi ↪azane z subre-gionami: North i South. Obie maj ↪a ograniczenia dolne rowne 0 i gorne rowne 1.

Page 92: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

94 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Gwarantuje to, ze w kazdej selekcji jest aktywny co najwyzej jeden w ↪eze l poten-cjalny.

Ostatnia grupa danych jest zwi ↪azana z lukami. Luki s ↪a charakteryzowane przezprzepustowosci i wspo lczynniki funkcji. Wspo lczynniki kosztu zosta ly omowioneprzy okazji omawiania wspo lczynnikow funkcji. Przepustowosci lukow l ↪acz ↪acychsztuczny w ↪eze l Tie z osrodkami (Pond, Hill, Ice, Fiord, Bush i Oasis) wyrazaj ↪amozliwosci ob lugi tych osrodkow. Luki l ↪acz ↪ace osrodki z obszarami maj ↪a zasadniczonieograniczone przepustowosci. Jednakze w praktyce przep lywy wzd luz tych lukows ↪a ograniczone mozliwosciami obs lugi odpowiednich osrodkow i mozemy ich uzycjako przepustowosci lukow.

Po zdefiniowaniu problemu i konwersji jego danych mozna rozpocz ↪ac analiz ↪ewielokryterialn ↪a. Jako pierwszy krok tej analizy nalezy wykonac komend ↪e pay–off. W efekcie otrzymujemy tablic ↪e realizacji celow (tablica 3.2). S ↪a w niejwartosci wszystkich funkcji oceny (kolumny) uzyskane podczas rozwi ↪azywania po-szczegolnych zadan jednokryterialnych (wiersze). Wykonanie komendy pay–offdostarcza takze dwoch wektorow referencyjnych: wektora utopii i wektora nadiru(patrz tablica 3.2). Wektor utopii reprezentuje najlepsze wartosci kazdej funk-cji rozpatrywanej oddzielnie, a wektor nadiru najgorsze wartosci funkcji odnoto-wane podczas optymalizacji innych funkcji. Wektor utopii jest tutaj wektorem nie-osi ↪agalnym, to znaczy nie istnieje rozwi ↪azanie dopuszczalne z takimi wartosciamifunkcji oceny.

Tablica 3.2

Macierz realizacji celow dla przykladu 3.1

Tablica 3.2:Optymalizowana funkcja

Funkcja Invest Satisf Dist Prox Utopia Nadir

Invest 186 401 413 398 186 413

Satisf 100 368 279 187 368 100

Dist 2.61 2.17 2.03 2.12 2.03 2.61

Prox 4976 6385 8782 8854 8854 4976

Analizuj ↪ac tablic ↪e 3.2 mozna zauwazyc, ze wartosci funkcji zmieniaj ↪a si ↪ew zaleznosci od wybranej optymalizacji. Tylko dla sredniej odleg losci (Dist)wyst ↪epuj ↪a relatywnie ma le odchylenia, rz ↪edu 30%, podczas gdy dla innych funk-cji przekraczaj ↪a nawet 100%. Ponadto daje si ↪e zauwazyc zdecydowany konfliktpomi ↪edzy kosztem inwestycji (Invest) a pozosta lymi funkcjami oceny. Minimali-zuj ↪ac koszt otrzymujemy najgorsze wartosci wszystkich pozosta lych funkcji oceny,a optymalizuj ↪ac inne funkcje oceny otrzymujemy podwojenie minimalnej wartoscikosztu.

Wspo lczynniki wektora nadiru nie mog ↪a byc traktowane jako najgorsze wartoscifunkcji oceny na ca lym zbiorze rozwi ↪azan efektywnych. Zwykle przyblizaj ↪a onete wartosci, ale wyrazaj ↪a wy l ↪acznie najgorsz ↪a wartosc kazdej funkcji oceny od-notowan ↪a podczas optymalizacji innych funkcji. W dalszym przebiegu analizy

Page 93: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.2. SYSTEM DINAS 95

pokazemy, ze te przyblizenia s ↪a czasami przekraczane.Dzi ↪eki specjalnej technice regularyzacyjnej uzywanej przy obliczaniu tablicy

realizacji celow (por. (3.22)), kazde wygenerowane rozwi ↪azanie zadania jednokry-terialnego jest takze rozwi ↪azaniem efektywnym problemu wielokryterialnego. Za-tem mamy juz w bazie rozwi ↪azan efektywnych cztery rozwi ↪azania zwi ↪azane z po-szczegolnymi wierszami tablicy realizacji celow. Pos luguj ↪ac si ↪e komendami systemuDINAS mozemy zbadac kazde z tych rozwi ↪azan, a w szczegolnosci mozemy zapo-znac si ↪e ze struktur ↪a lokalizacji w poszczegolnych rozwi ↪azaniach. W pierwszymrozwi ↪azaniu, ktore minimalizuje koszt inwestycyjny, wyst ↪epuje tylko jeden nowyosrodek zdrowia zlokalizowany w Bush. We wszystkich pozosta lych rozwi ↪azaniachwyst ↪epuj ↪a dwa nowe osrodki, co t lumaczy ich znacz ↪aco wyzszy koszt inwestycyjny.Nowe osrodki s ↪a zlokalizowane w tych rozwi ↪azaniach nast ↪epuj ↪aco: Ice i Oasis, Fiordi Oasis oraz Bush i Fiord.

Maj ↪ac obliczony wektor utopii mozemy rozpocz ↪ac interaktywne poszukiwa-nia satysfakcjonuj ↪acych rozwi ↪azan efektywnych. Do sterowania analiz ↪a interak-tywn ↪a s luz ↪a poziomy aspiracji i rezerwacji. Na pocz ↪atku tej analizy obliczamytzw. rozwi ↪azanie neutralne. W tym celu przyjmujemy wektor utopii jako wektoraspiracji, a wektor nadiru jako wektor rezerwacji. W wyniku otrzymujemy pi ↪aterozwi ↪azanie efektywne z dwoma nowymi osrodkami zlokalizowanymi w Bush i Ice.Koszt inwestycyjny jest w tym przypadku dosyc wysoki (Invest=386), podczas gdydla pozosta lych funkcji otrzymujemy wartosci na srednim poziomie (Satisf=276,Dist=2.26 i Prox=6457).

Poza rozwi ↪azaniem minimalizuj ↪acym koszt inwestycyjny, we wszystkich rozwi ↪a-zaniach wyst ↪epuj ↪a dwa nowe osrodki zdrowia, co powoduje ich wysoki koszt. Dla-tego probujemy znalezc rozwi ↪azanie z niskim kosztem (tylko jeden nowy osrodek)i stosunkowo dobrymi wartosciami pozosta lych funkcji. W tym celu przyjmujemypoziomy aspiracji i rezerwacji takie jak w tablicy 3.3. W rezultacie otrzymujemyszoste rozwi ↪azanie efektywne z jednym nowym osrodkiem zlokalizowanym w Oasis.Koszt inwestycyjny w tym rozwi ↪azaniu jest niski (Invest=201), poziom satysfakcjijest umiarkowany (Satisf=192), ale srednia odleg losc jest bardzo duza (Dist=2.58),a ogolna dost ↪epnosc nawet mniejsza niz odpowiedni wspo lczynnik wektora nadiru(Prox=4933). System automatycznie uaktualnia odpowiedni wspo lczynik wektoranadiru nadaj ↪ac mu najgorsz ↪a wartosc funkcji.

Tablica 3.3

Tablica 3.3:Invest Satisf Dist Prox

Aspiracja 186 300 2.08 8500

Rezerwacja 250 200 2.50 7000

Dla unikni ↪ecia zbyt ma lych wartosci ogolnej dost ↪epnosci modyfikujemy od-powiedni poziom rezerwacji zwi ↪ekszaj ↪ac jego wartosc do 8000. Po powtorzeniuobliczen uzyskujemy siodme rozwi ↪azanie efektywne z jednym nowym osrodkiemzdrowia w Ice. Dzi ↪eki wygodnej formie prezentacji rozwi ↪azan w systemie DINAS

Page 94: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

96 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

mozemy latwo porownac wartosci funkcji oceny w nowym rozwi ↪azaniu z odpowied-nimi wartosciami w rozwi ↪azaniu poprzednim. Ogolna dost ↪epnosc, srednia odleg losci koszt inwestycyjny s ↪a nieznacznie lepsze (Prox=5278, Dist=2.53 i Invest=200),podczas gdy poziom satysfakcji jest o kilka procent gorszy (Satisf=176).

Po przeanalizowaniu dwoch ostatnich rozwi ↪azan przypuszczamy, ze do znalezie-nia rozwi ↪azania efektywnego z dobrymi wartosciami ogolnej dost ↪epnosci, sredniejodleg losci i ma lym kosztem inwestycyjnym jest konieczne poluzowanie z ↪adan do-tycz ↪acych poziomu satysfakcji. Zatem zmieniamy poziom rezerwacji odpowia-daj ↪acy funkcji Satisf na 100. System potwierdza nasze przypuszczenie. W osmymrozwi ↪azaniu jest jeden nowy osrodek zlokalizowany w Fiord. To rozwi ↪azaniegwarantuje dosyc duz ↪a ogoln ↪a dost ↪epnosc (Prox=7691) i wzgl ↪ednie ma l ↪a sredni ↪aodleg losc (Dist=2.38) przy ma lym koszcie inwestycyjnym (Invest=212). Z dru-giej strony poziom satysfakcji jest gorszy nawet od odpowiedniego wspo lczynnikawektora nadiru (Satisf=87). Poza tym to rozwi ↪azanie wygl ↪ada interesuj ↪aco wporownaniu z innymi, w ktorych wyst ↪epuje tylko jeden nowy osrodek.

Dalsze proby znalezienia zadowalaj ↪acego rozwi ↪azania efektywnego z jednym no-wym osrodkiem zdrowia nie przynosz ↪a sukcesu. Dla roznych wartosci poziomowaspiracji i rezerwacji otrzymujemy to samo rozwi ↪azanie. Aby analiza by la kom-pletna, zmniejszamy wymagania dotycz ↪ace kosztu inwestycyjnego. Uzywaj ↪ac po-ziomow aspiracji i rezerwacji z tablicy 3.4 otrzymujemy dziewi ↪ate rozwi ↪azanie efek-tywne z dwoma nowymi osrodkami (Fiord i Oasis). W rozwi ↪azaniu tym wyst ↪epuj ↪ate same lokalizacje co w rozwi ↪azaniu trzecim. Koszt inwestycyjny i poziom sa-tysfakcji jest wi ↪ec taki sam (Invest=413 i Satisf=279). Nieco inna jest ogolnadost ↪epnosc i srednia odleg losc (Prox=8791 i Dist=2.04), co jest efektem innegoschematu przydzia low.

Tablica 3.4

Tablica 3.4:Invest Satisf Dist Prox

Aspiracja 200 300 2.10 8800

Rezerwacja 400 200 2.50 8400

Na koniec badamy wszystkie wygenerowane rozwi ↪azania efektywne pos luguj ↪acsi ↪e dost ↪epnymi w systemie narz ↪edziami porownywania rozwi ↪azan. Rozwi ↪azaniazosta ly zestawione w tablicy 3.5, a ich uwazna analiza prowadzi do nast ↪epuj ↪acejkonkluzji. Koszt inwestycyjny nie powinien byc rozpatrywany jako typowa funkcjaoceny, poniewaz jego wartosc bardziej zalezy od liczby nowych osrodkow niz od ichlokalizacji. Dzieli to wszystkie rozwi ↪azania efektywne na dwie grupy: rozwi ↪azaniaz jednym nowym osrodkiem zdrowia i rozwi ↪azania z dwoma nowymi osrodkami. Ztego powodu nalezy poszukiwac dobrego rozwi ↪azania z jednym nowym osrodkiem,takiego ze w przysz losci b ↪edzie je mozna rozszerzyc do lepszego rozwi ↪azania przezdodanie drugiego nowego osrodka. Naszym zdaniem pierwszy osrodek powinienbyc zlokalizowany w Fiord (rozwi ↪azanie 8). Jest to jedyne rozwi ↪azanie efektywnez jednym nowym osrodkiem, w ktorym srednia odleg losc i ogolna dost ↪epnosc maj ↪aakceptowalne wartosci (patrz tablica 3.5). To rozwi ↪azanie ma jednoczesnie najgor-

Page 95: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.2. SYSTEM DINAS 97

szy poziom satysfakcji. Jednakze pozniejsze rozszerzenie tego rozwi ↪azania przezdodanie drugiego osrodka w Oasis (rozwi ↪azanie 9) prowadzi do znacznego wzrostupoziomu satysfakcji i poprawia sredni ↪a odleg losc, a takze ogoln ↪a dost ↪epnosc (patrztablica 3.5). Oba proponowane rozwi ↪azania maj ↪a najwyzszy koszt w odpowiednichgrupach rozwi ↪azan, lecz nie nalezy tego traktowac jako powaznej wady, poniewazroznice wartosci tej funkcji pomi ↪edzy rozwi ↪azaniami z tej samej grupy s ↪a niewielkie.

Tablica 3.5

Rozwi ↪azania efektywne dla przyk ladu 3.1

Tablica 3.5:Wartosci funkcji oceny Lokalizacje

Invest Satisf Dist Prox Bush Fiord Ice Oasis

Rozwi ↪azanie 1 186 100 2.61 4976 tak nie nie nie

Rozwi ↪azanie 2 401 368 2.17 6385 nie nie tak tak

Rozwi ↪azanie 3 413 279 2.03 8782 nie tak nie tak

Rozwi ↪azanie 4 398 187 2.12 8854 tak tak nie nie

Rozwi ↪azanie 5 386 276 2.26 6457 nie nie tak nie

Rozwi ↪azanie 6 201 192 2.58 4933 nie nie nie tak

Rozwi ↪azanie 7 200 176 2.53 5287 nie nie tak nie

Rozwi ↪azanie 8 212 87 2.38 7691 nie tak nie nie

Rozwi ↪azanie 9 413 279 2.04 8791 nie tak nie tak

Dzi ↪eki latwosci modyfikowania problemu w systemie DINAS mozemy przepro-wadzic dodatkow ↪a analiz ↪e wy l ↪aczaj ↪ac pewne funkcje oceny. Powtarzaj ↪ac ana-liz ↪e wielokryterialn ↪a z pomini ↪eciem funkcji Invest uzyskujemy rozwi ↪azanie 9 jakorozwi ↪azanie neutralne, co potwierdza jego optymalnosc wzgl ↪edem pozosta lychtrzech funkcji oceny.

Pos luguj ↪ac si ↪e komend ↪a browse mozemy szczego lowo obejrzec pod edytoremsieciowym wybrane rozwi ↪azania. Okazuje si ↪e, ze w rozwi ↪azaniu osmym nowyosrodek zlokalizowany w Fiord jest kompletnie wykorzystany, podczas gdy w sta-rych osrodkach pozostaj ↪a pewne niewykorzystane mozliwosci. Wskazuje to na nie-optymalne ze wzgl ↪edu na rozpatrywane funkcje oceny zlokalizowanie istniej ↪acychosrodkow. Dziewi ↪ate rozwi ↪azanie efektywne potwierdza t ↪e diagnoz ↪e. Nowy do-datkowy osrodek w Oasis obs luguje pewne obszary z rejonu Hill i pewne z rejonuPond. W tym rozwi ↪azaniu takze oba nowe osrodki maj ↪a w pe lni wykorzystanemozliwosci, podczas gdy stare s ↪a wykorzystane tylko w 50–70%. �

Przyj ↪ete w systemie DINAS zasady analizy interaktywnej i ich funkcjonalnaimplementacja sprawdzi ly si ↪e w praktyce przy rozwi ↪azywaniu rzeczywistych prob-lemow decyzyjnych. Z wykorzystaniem systemu DINAS zosta la przeprowadzonami ↪edzy innymi analiza studialna lokalizacji i rejonizacji klinik pediatrycznych w ma-kroregionie warszawskim (Malczewski i Ogryczak, 1990). W analizie tej rozwazanopi ↪ec kryteriow:

– minimalizacja sredniej odleg losci do kliniki,

– maksymalizacja ogolnej dost ↪epnosci klinik,

Page 96: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

98 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

– minimalizacja kosztow inwestycyjnych dla nowych klinik,

– minimalizacja kosztow operacyjnych wszystkich klinik,

– minimalizacja zanieczyszczen srodowiska w miejscach lokalizacji nowych klinik.

Tablica 3.6

Macierz realizacji celow dla problemu lokalizacji klinik

Tablica 3.6:Optymalizowana Wartosci funkcji oceny

funkcja f1 f2 f3 f4 f5f1 39099.0 12385.9 888.8 519.6 1141.4

f2 40776.4 12534.6 666.0 395.8 917.3

f3 63822.6 9812.9 443.2 270.0 447.6

f4 62304.9 11418.0 446.3 249.6 474.8

f5 66396.0 6104.9 443.8 260.0 444.1

Problem zosta l sformu lowany, analogicznie jak w przyk ladzie 3.1, w postaci za-dania transportowo–lokalizacyjnego na sieci z lozonej z blisko 100 w ↪ez low (w tym 8potencjalnych) i 300 lukow. Pomimo wyst ↪epowania istotnego konfliktu pomi ↪edzyposzczegolnymi kryteriami (por. macierz realizacji celow w tablicy 3.6), do wy-znaczenia rozwi ↪azania efektywnego zadowalaj ↪acego ekspertow wystarczy ly czteryiteracje analizy interaktywnej. Przebieg analizy interaktywnej ilustruje tablica 3.7,gdzie dla kazdej iteracji podano przyj ↪ete poziomy aspiracji i rezerwacji oraz wartoscifunkcji oceny wyznaczonego rozwi ↪azania efektywnego.

Page 97: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.2. SYSTEM DINAS 99

Tablica 3.7

Wyniki interaktywnej analizy problemu lokalizacji klinik

Tablica 3.7:Iteracja Wartosci funkcji oceny

f1 f2 f3 f4 f51

poziom aspiracji 39099.0 12534.6 443.2 249.6 444.1

poziom rezerwacji 66396.0 6104.9 888.8 519.6 1141.4

rozwi ↪azanie efektywne 47834.7 8812.4 555.3 327.1 661.4

2

poziom aspiracji 39099.0 12534.6 443.2 249.6 444.1

poziom rezerwacji 66396.0 6104.9 450.0 300.0 1141.4

rozwi ↪azanie efektywne 63897.2 7304.6 444.8 260.4 497.3

3

poziom aspiracji 39099.0 12534.6 443.2 249.6 500.0

poziom rezerwacji 66396.0 6104.9 450.0 300.0 1141.4

rozwi ↪azanie efektywne 62408.3 7393.3 446.1 278.3 601.2

4

poziom aspiracji 39099.0 12534.6 443.2 249.6 500.0

poziom rezerwacji 60000.0 7000.0 450.0 300.0 1141.4

rozwi ↪azanie efektywne 59801.2 7481.3 487.4 294.3 712.2

Page 98: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

100 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

3.3 Referencyjne programowanie celowe

3.3.1 Model wazony

Metody punktu referencyjnego uzywaj ↪a, podobnie jak programowanie celowe,poziomow aspiracji jako g lownych parametrow steruj ↪acych. Pomimo tego, wodroznieniu od programowania celowego, metody punktu referencyjnego zawszegeneruj ↪a rozwi ↪azania efektywne i wprowadzaj ↪a zupe ln ↪a parametryzacj ↪e zbiorurozwi ↪azan efektywnych. W tym podrozdziale staramy si ↪e odpowiednio rozsze-rzyc mozliwosci modeli programowania celowego, tak aby osi ↪agn ↪ac zalety metodpunktu referencyjnego (por. Ogryczak, 1994). To znaczy, naszym celem jest sfor-mu lowanie uogolnionego modelu programowania celowego spe lniaj ↪acego postulatyP1 i P2 oraz generuj ↪acego zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan efektywnychza pomoc ↪a poziomow aspiracji.

Zauwazmy, ze skalaryzuj ↪aca funkcja osi ↪agni ↪ecia (3.3) moze byc wyrazona jakofunkcja uzywanych w programowaniu celowym odchylen d− = (a− f(x))+ i d+ =(f(x)− a)+

s(d−,d+) = maxi=1,...,m

λi(d+i − d

−i ) + ρ

m∑i=1

λi(d+i − d

−i )

Ogolniej, parametryzacja (3.4) z funkcjami si typu (3.7) moze byc zapisana wpostaci nast ↪epuj ↪acego modelu programowania celowego

RPC : lexmin g(d−,d+) = [g1(d−,d+), g2(d−,d+)] (3.24)

pod warunkiem, ze

fi(x) + d−i − d+i = ai dla i = 1, 2, . . . ,m (3.25)

d−i ≥ 0, d+i ≥ 0 dla i = 1, 2, . . . ,m (3.26)

x ∈ Q (3.27)

gdzie

g1(d−,d+) = maxi=1,...,m

(−w−i d−i + w+

i d+i ) (3.28)

g2(d−,d+) =

m∑i=1

(−w−i d−i + w+

i d+i ) (3.29)

0 < w−i < w+i dla i = 1, 2, . . . ,m (3.30)

Zadanie (3.24)–(3.30) jest zasadniczo leksykograficznym (dwupoziomowym)problemem PC ze standardowymi rownaniami celowymi (3.25)–(3.26), funkcj ↪aosi ↪agni ↪ecia g1 typu minimaksowego i wazon ↪a funkcj ↪a osi ↪agni ↪ecia g2. W zadaniutym tym kryje si ↪e jednak pewna specyfika, odrozniaj ↪aca je od standardowych prob-lemow PC. Mianowicie, zarowno w minimaksowej funkcji osi ↪agni ↪ecia g1, jak i wwazonej funkcji osi ↪agni ↪ecia g2, wspo lczynniki wagowe odpowiadaj ↪ace odchyleniomw do l s ↪a ujemne. Dzi ↪eki temu funkcje te definiuj ↪a scisle monotoniczne relacje pre-ferencji.

Page 99: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.3. REFERENCYJNE PROGRAMOWANIE CELOWE 101

Dla poprawnosci modelu RPC powinno byc zagwarantowane w lasciwe oblicza-nie odchylen d−i i d+

i z rownan celowych (3.25)–(3.26), czyli spe lnienie warunku

d−i d+i = 0 dla i = 1, 2, . . . ,m (3.31)

przez rozwi ↪azania optymalne. Ponizsze twierdzenie pokazuje, ze przyj ↪ete w mo-delu RPC za lozenie o wagach (3.30) gwarantuje spe lnienie warunku (3.31) przezrozwi ↪azania optymalne zadania RPC.

Twierdzenie 3.4 Dla dowolnych poziomow aspiracji ai, jezeli wagi spe lniaj ↪a wa-runek (3.30), to rozwi ↪azanie optymalne (x, d−, d+) problemu RPC spe lnia warunek(3.31).

Dowod. Niech (x, d−, d+) b ↪edzie rozwi ↪azaniem optymalnym problemu RPC.Przypuscmy, ze d−i0 d

+i0> 0 dla pewnego indeksu 0 ≤ i0 ≤ m. Mozemy wtedy

zmniejszyc d−i0 i d+i0

o t ↪e sam ↪a ma l ↪a dodatni ↪a liczb ↪e. To znaczy, ze dla dostatecznie

ma lej dodatniej liczby δ wektor (x, d− − δei0 , d+ − δei0) jest dopuszczalny dla

problemu RPC. Zgodnie z (3.30) jest spe lniona nierownosc

−w−i0(d−i0 − δ) + w+i0

(d+i0− δ) < −w−i0 d

−i0

+ w+i0d+i0

St ↪ad otrzymujemy

g1(d− − δei0 , d+ − δei0) ≤ g1(d−, d+) i g2(d− − δei0 , d+ − δei0) < g2(d−, d+)

co przeczy optymalnosci rozwi ↪azania (x, d−, d+) dla problemu RPC. Zatemd−i d

+i = 0 dla i = 1, 2, . . . ,m.

Twierdzenie 3.5 Dla dowolnych poziomow aspiracji ai oraz dowolnych wag w−ii w+

i spe lniaj ↪acych warunek (3.30), jezeli (x, d−, d+) jest rozwi ↪azaniem optymal-nym problemu RPC, to x jest rozwi ↪azaniem efektywnym problemu optymalizacjiwielokryterialnej (1.7).

Dowod. Niech (x, d−, d+) b ↪edzie rozwi ↪azaniem optymalnym problemu RPC.Przypuscmy, ze x nie jest rozwi ↪azaniem efektywnym problemu (1.7). Czyli, zeistnieje wektor x ∈ Q taki, ze

fi(x) ≤ fi(x) dla i = 1, 2, . . . ,m (3.32)

i fi0(x) < fi0(x) dla pewnego indeksu i0 (1 ≤ i0 ≤ m). Innymi s lowy

m∑i=1

fi(x) <

m∑i=1

fi(x) (3.33)

Odchylenia d−i i d+i spe lniaj ↪a rownosci d+

i = (fi(x) − ai)+ i d−i = (ai − fi(x))+.Analogicznymi odchyleniami dla wektora x s ↪a

d+i = (fi(x)− ai)+, d−i = (ai − fi(x))+ dla i = 1, 2, . . . ,m

Trojka wektorow (x,d−,d+) jest rozwi ↪azaniem dopuszczalnym problemu RPC izgodnie z (3.32) i (3.33), dla dowolnych dodatnich wag w−i oraz w+

i s ↪a spe lnionenast ↪epuj ↪ace nierownosci

w+i d

+i ≤ w

+i d

+i i − w−i d

−i ≤ −w

−i d−i dla i = 1, 2, . . . ,m

Page 100: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

102 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

oraz m∑i=1

(−w−i d−i + w+

i d+i ) <

m∑i=1

(−w−i d−i + w+

i d+i )

St ↪ad otrzymujemy

g1(d−,d+) ≤ g1(d−, d+) i g2(d−,d+) < g2(d−, d+)

co przeczy optymalnosci rozwi ↪azania (x, d−, d+) dla problemu RPC. Zatem x jestrozwi ↪azaniem efektywnym wielokryterialnego problemu (1.7).

Twierdzenie 3.6 Dla dowolnych poziomow aspiracji ai oraz dowolnych wag w−i iw+i spe lniaj ↪acych warunek (3.30), jezeli (x, d−, d+) jest rozwi ↪azaniem optymalnym

problemu RPC, to odchylenie d+i jest dodatnie tylko wtedy, gdy nie istnieje zaden

wektor x ∈ Q taki, ze

fi(x) ≤ ai dla i = 1, 2, . . . ,m.Dowod. Niech (x, d−, d+) b ↪edzie rozwi ↪azaniem optymalnym problemu RPC.Przypuscmy, ze d+

i0> 0 (czyli fi0(x) > ai0) dla pewnego indeksu 0 ≤ i0 ≤ m

i istnieje wektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m. Zdefiniujmyodchylenia dla wektora x

d+i = (fi(x)− ai)+ = 0, d−i = (ai − fi(x))+ ≥ 0 dla i = 1, 2, . . . ,m

Trojka wektorow (x,d−,d+) jest rozwi ↪azaniem dopuszczalnym problemu RPC idla dowolnych dodatnich wag w−i oraz w+

i jest spe lniona nierownosc

maxi=1,...,m

(−w−i d−i + w+

i d+i ) ≤ 0 < w+

i0d+i0≤ maxi=1,...,m

(−w−i d−i + w+

i d+i )

St ↪ad otrzymujemy g1(d−,d+) < g1(d−, d+), co przeczy optymalnosci rozwi ↪azania(x, d−, d+) dla problemu RPC. Zatem nie istnieje zaden wektor x ∈ Q taki, zefi(x) ≤ ai dla i = 1, 2, . . . ,m.

Zauwazmy, ze w terminach odchylen (porownaj (3.25)–(3.26)) postulat P2oznacza, ze rozwi ↪azanie z odchyleniem w gor ↪e d+

i rownym 0 dla wszystkichi = 1, 2, . . . ,m jest preferowane w stosunku do rozwi ↪azania z dodatni ↪a wartosci ↪a conajmniej jednego odchylenia d+

i . Zatem twierdzenia 3.5 i 3.6 pokazuj ↪a, ze modelpreferencji zadania RPC realizuje lez ↪acy u podstaw metod punktu referencyjnegoquasi–zadowalaj ↪acy model preferencji oparty na postalatach P1 i P2. Model RPCrealizuje rowniez postulat zupe lnej parametryzacji zbioru rozwi ↪azan efektywnychza pomoc ↪a wektorow poziomow aspiracji.

Twierdzenie 3.7 Jezeli wektor x ∈ Q jest rozwi ↪azaniem efektywnym zadania wie-lokryterialnego (1.7), to wektor (x,0,0) jest rozwi ↪azaniem optymalnym problemuRPC z wektorem aspiracji a = F(x) i dowolnymi wagami w−i , w+

i spe lniaj ↪acymiwarunek (3.30).

Dowod. Przypuscmy, ze (x,0,0) nie jest rozwi ↪azaniem optymalnym zadania RPCz wektorem aspiracji a = F(x). Istnieje wtedy wektor x ∈ Q taki, ze

g1((f(x)− f(x))+, (f(x)− f(x))+) < g1(0,0) = 0

Page 101: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.3. REFERENCYJNE PROGRAMOWANIE CELOWE 103

albo g1((f(x)− f(x))+, (f(x)− f(x))+) = 0 i

g2((f(x)− f(x))+, (f(x)− f(x))+) < g2(0,0) = 0

Zatem na mocy (3.30)

(f(x)− f(x))+ ≥ 0 i (f(x)− f(x))+ = 0

czyli f(x) ≤ f(x), co przeczy efektywnosci wektora x dla zadania wielokryterialnego(1.7).

Zauwazmy, ze zadne z twierdzen 3.5–3.7 nie zak lada wypuk losci zbioru dopusz-czalnego Q. Wynika st ↪ad, ze model referencyjny PC mozna stosowac nie tylkodo problemow liniowych, ale takze do problemow ca lkowitoliczbowych. Ponadtoz twierdzenia 3.4 wynika, ze referencyjne podejscie PC nie wprowadza do modelunieliniowosci, co umozliwia proste implementacje metod punktu referencyjnego wstandardowych systemach programowania liniowego.

Roznice mi ↪edzy modelem referencyjnym PC i standardowym modelem PC ilus-truje ponizszy przyk lad. Porownujemy w nim wyniki analizy dla ma lego wielokry-terialnego problemu liniowego i ca lkowitoliczbowego.

Przyk lad 3.2. Rozpatrzmy nast ↪epuj ↪acy problem optymalizacji z dwoma funk-cjami oceny

minimalizowac (x1, x2)pod warunkiem, ze 3x1 + 4x2 ≥ 30

x1 ≥ 2, x2 ≥ 3

Zbiorem efektywnym dla tego problemu jest

{(x1, x2) : 3x1 + 4x2 = 30, x1 ≥ 2, x2 ≥ 3}czyli ca ly odcinek pomi ↪edzy wierzcho lkami (2,6) i (6,3) l ↪acznie z obydwoma wierz-cho lkami. W przypadku odpowiedniego problemu ca lkowitoliczbowego (x1, x2 —ca lkowite) istniej ↪a cztery rozwi ↪azania efektywne: (2,6), (4,5), (5,4) i (6,3).

Porownamy rozwi ↪azania powyzszego problemu rozpatrywanego jako problemliniowy i ca lkowitoliczbowy otrzymywane z wazonego, minimaksowego i referencyj-nego PC. W tym celu wprowadzamy rownania celowe

x1 + d−1 − d+1 = a1, x2 + d−2 − d

+2 = a2, d−i ≥ 0, d+

i ≥ 0 dla i = 1, 2

We wszystkich modelach uzywamy tych samych wag: 1 dla odchylenia w gor ↪ei 0.9 dla odchylenia w do l. Dla wazonego PC minimalizujemy funkcj ↪e

d+1 + 0.9d−1 + d+

2 + 0.9d−2

W minimaksowym PC trzeba zminimalizowac

max (d+1 + 0.9d−1 , d

+2 + 0.9d−2 )

a w referencyjnym PC poszukuje si ↪e leksykograficznego minimum funkcji wektoro-wej

[max (d+1 − 0.9d−1 , d

+2 − 0.9d−2 ), (d+

1 − 0.9d−1 + d+2 − 0.9d−2 )]

Odpowiednie liniowe i ca lkowitoliczbowe problemy PC zosta ly rozwi ↪azane dlaosmiu wektorow aspiracji. Do obliczen uzyto pakietu STORM (Storm Software,1992).

Page 102: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

104 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Tablica 3.8

Problem liniowy

Tablica 3.8:(a1, a2) Wazony PCa) Minimaksowy PCa) Referencyjny PC

(0,0) (2,6) (4.2857,4.2857) (4.2857,4.2857)

(2,3) (2,6) (3.7143,4.7143) (3.7143,4.7143)

(1,8) ! (2,8) ! (2,6.8889) (2,6)

(2,5) (2,6) (2.5714,5.5714) (2.5714,5.5714)

(3,4) (3,5.25) (3.7143,4.7143) (3.7143,4.7143)

(5,5) ! (5,5) ! (5,5) (4.2857,4.2857)

(5,3) (5,3.75) (5.4286,3.4286) (5.4286,3.4286)

(8,2) ! (8,3) ! (6.8889,3) (6,3)a) ! – rozwi ↪azanie nieefektywne

Tablica 3.8 zawiera zestawienie wynikow dla problemu liniowego. Zauwazmy,ze zarowno wazony, jak i minimaksowy PC wygenerowa ly rozwi ↪azania niefektywnedla trzech wektorow aspiracji ((1,8), (5,5) i (8,3)). Ponadto latwo sprawdzic, ze wewszystkich trzech przypadkach wazony PC generuje rozwi ↪azania nieefektywne dladowolnego uk ladu dodatnich wag. To samo dotyczy minimaksowego PC dla wek-tora aspiracji (5,5). Wazony PC wydaje si ↪e generowac gorsz ↪a dystrybucj ↪e rozwi ↪azanniz minimaksowy PC. Moze to powodowac gorsz ↪a sterowalnosc przy analizie inte-raktywnej. W wazonym PC otrzymalismy rozwi ↪azanie (2,6) zarowno dla wektoraaspiracji (0,0), jak i (2,5), podczas gdy minimaksowy PC (jak rowniez referencyjnyPC) generuje rozwi ↪azania odpowiednio (4.2857,4.2857) i (2.5714,2.5714). WazonyPC wygenerowa l “narozne” rozwi ↪azanie (2,6) nawet dla wektora aspiracji (2,3),ktory jest punktem utopii, wi ↪ec naleza lo si ↪e spodziewac pewnego rozwi ↪azania kom-promisowego (Zeleny, 1974). Oba pozosta le podejscia (minimaksowy i referencyjnyPC) wygenerowa ly wtedy kompromisowe rozwi ↪azanie efektywne (3.7143,3.7143).W wi ↪ekszosci przebiegow wazony PC generowa l rozwi ↪azania z jedn ↪a ocen ↪a takblisk ↪a odpowiedniego poziomu aspiracji jak to tylko mozliwe, a drug ↪a stosunkowoodleg l ↪a. Natomiast minimaksowy PC i referencyjny PC wydaj ↪a si ↪e byc nie obar-czone t ↪a wad ↪a. Referencyjny PC generowa l dok ladnie takie samo rozwi ↪azanie jak iminimaksowy PC, gdy ten ostatni generowa l rozwi ↪azanie efektywne. Roznica jesttylko taka, ze referencyjny PC generowa l rozwi ↪azania efektywne nawet wtedy, gdyminimaksowy PC tego nie osi ↪aga l.

Tablica 3.9 zawiera wyniki dla problemu ca lkowitoliczbowego. Zauwazmy, zezarowno wazony PC, jak i minimaksowy PC generuj ↪a rozwi ↪azania nieefektywnedla tych samych wektorow aspiracji co w przypadku problemu liniowego. Jednakzetutaj wygenerowa ly one wi ↪ecej rozwi ↪azan nieefektywnych. Minimaksowy PC wyge-nerowa l rozwi ↪azania efektywne tylko dla dwoch wektorow aspiracji ((2,3) i (3,4)),a wazony PC wygenerowa l rozwi ↪azanie nieefektywne (3,6) dla wektora aspiracji(3,4). W kazdym przypadku dodatkowego (w stosunku do problemu liniowego)rozwi ↪azania nieefektywnego istnia lo alternatywne rozwi ↪azanie efektywne. Nalezy

Page 103: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.3. REFERENCYJNE PROGRAMOWANIE CELOWE 105

Tablica 3.9

Problem ca lkowitoliczbowy

Tablica 3.9:(a1, a2) Wazony PCa) Minimaksowy PCa) Referencyjny PC

(0,0) (2,6) !? (5,5) (4,5)

(2,3) (2,6) (4,5) (4,5)

(1,8) ! (2,8) ! (2,7) (2,6)

(2,5) (2,6) !? (3,6) (2,6)

(3,4) !? (3,6) (4,5) (4,5)

(5,5) ! (5,5) ! (5,5) (4,5)

(5,3) (5,4) !? (6,4) (5,4)

(8,2) ! (8,3) ! (7,3) (6,3)a) ! – rozwi ↪azanie nieefektywne

!? – rozwi ↪azanie nieefektywne ale istnieje alternatywne

rozwi ↪azanie efektywne

jednak pami ↪etac, ze standardowy modu l optymalizacyjny generuje zazwyczaj tylkojedno rozwi ↪azanie i w tym wypadku by lo to rozwi ↪azanie nieefektywne. Referen-cyjny PC zawsze generuje rozwi ↪azania efektywne. Nawet gdy istniej ↪a rozwi ↪azaniaalternatywne, to s ↪a one rowniez efektywne. Na przyk lad, dla wektora aspiracji(5,5) otrzymalismy rozwi ↪azanie (5,4), ale istnieje rozwi ↪azanie alternatywne (4,5),ktore jest rowniez efektywne. Podobnie jak w przypadku liniowym, referencyjnyPC wykazuje znacznie lepsz ↪a sterowalnosc przy analizie interaktywnej. �

3.3.2 Model leksykograficzny

Istotn ↪a zalet ↪a wazonego PC jest mozliwosc latwego rozwini ↪ecia go do modeluleksykograficznego. Referencyjne PC moze byc rowniez rozszerzone do modelu lek-sykograficznego. W l ↪aczaj ↪ac priorytety do modelu RPC, podobnie jak i w standar-dowym leksykograficznym programowaniu celowym, jestesmy zainteresowani prio-rytetami dla zmiennych odchylen a nie dla oryginalnych funkcji oceny. To zna-czy, rozpatrujemy oryginalny wielokryterialny problem (1.7) bez hierarchii funkcjioceny. Priorytety s luz ↪a jedynie jako dodatkowe narz ↪edzia lepszego wyrazania pre-ferencji decydenta podczas interaktywnego poszukiwania rozwi ↪azan efektywnych.

Podczas interaktywnej analizy decydent okresla swoje preferencje przez wek-tor poziomow aspiracji a i dwie grupy klas priorytetow P+

k dla k = 1, 2, . . . , p+

i P−k dla k = 1, 2, . . . , p−. Klasy priorytetow P+k (k = 1, 2, . . . , p+) reprezen-

tuj ↪a hierarchi ↪e poziomow aspiracji w sensie waznosci osi ↪agania ocen nie gorszychod odpowiadaj ↪acych im poziomow aspiracji. Analogicznie, P−k (k = 1, 2, . . . , p−)reprezentuj ↪a hierarchi ↪e waznosci osi ↪agania ocen lepszych od odpowiadaj ↪acych impoziomow aspiracji. Obie grupy klas priorytetow stanowi ↪a rozk lady ca lego zbioruocen I, czyli ⋃

k=1,2,...,p−

P−k = I , P−k′ ∩ P−k′′ = ∅ dla k′ 6= k′′

Page 104: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

106 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

⋃k=1,2,...,p+

P+k = I , P+

k′ ∩ P+k′′ = ∅ dla k′ 6= k′′

W szczegolnym przypadku obie grupy klas priorytetow mog ↪a okreslac identycznerozk lady zbioru ocen. Jednakze dla lepszego modelowania rzeczywistych preferen-cji wydaje si ↪e nieodzowne, by mog ly byc one rozne, jako ze osi ↪aganie poziomowaspiracji nie zawsze jest tak samo wazne jak ich przekraczanie.

Przyjmujemy, ze model preferencji decydenta wyrazony w poziomach aspira-cji i klasach priorytetow spe lnia lez ↪ace u podstaw metod punktu referencyjnegopostulaty P1 i P2 oraz dodatkowo nast ↪epuj ↪ace postulaty

P3. Minimalizacja dowolnego odchylenia w gor ↪e d+i jest wazniejsza od maksy-

malizacji kazdego odchylenia w do l d−j .

P4. Jezeli k′ < k′′, to minimalizacja odchylen w gor ↪e d+i dla i ∈ P+

k′ jestwazniejsza od minimalizacji odchylen w gor ↪e d

+i dla i ∈ P+

k′′ .

P5. Jezeli k′ < k′′, to maksymalizacja odchylen w do l d−i dla i ∈ P−k′ jestwazniejsza od maksymalizacji odchylen w do l d−i dla i ∈ P−k′′ .

Postulaty P3, P4 i P5 wyrazaj ↪a hierarchi ↪e minimalizacji odchylen zdefiniowan ↪aza pomoc ↪a klas priorytetow. Postulaty te mog ↪a byc odpowiednio wyrazone jakonast ↪epuj ↪ace w lasnosci relacji preferencji

yi′ > ai′ i yi′′ < ai′′ ⇒ y − ε′ei′ + ε′′ei′′ ≺ y (3.34)

dla 0 < ε′ ≤ yi′ − ai′i 0 ≤ ε′′ ≤ ai′′ − yi′′

yi′ > ai′ , yi′′ ≥ ai′′ i k+(i′) < k+(i′′) ⇒ y − ε′ei′ + ε′′ei′′ ≺ y (3.35)

dla 0 < ε′ ≤ yi′ − ai′ , ε′′ ≥ 0

yi′ < ai′ , yi′′ < ai′′ i k−(i′) < k−(i′′) ⇒ y − ε′ei′ + ε′′ei′′ ≺ y (3.36)

dla ε′ > 0, ε′′ ≥ 0

gdzie k+(i) i k−(i) oznaczaj ↪a indeksy klas priorytetow takie, ze odpowiednio i ∈P+k+(i) oraz i ∈ P−k−(i).

W celu wprowadzenia hierarchii odchylen do modelu RPC zast ↪apimy funkcj ↪eosi ↪agni ↪ecia (3.24) przez

LRPC : lexmin g(d−,d+) = [g+(d+),g−(d−)] (3.37)

pod warunkiem, ze (3.25), (3.26) i (3.27)

gdzie

g+(d+) = [g+11(d+), g+

12(d+), . . . ,g+p+,1

(d+),g+p+,2

(d+)] (3.38)

g−(d−) = [g−11(d−), g−12(d−), . . . ,g−p−,1(d−),g−p−,2(d−)] (3.39)

g+k1(d+) = max

i∈P+k

(w+i d

+i ) dla k = 1, 2, . . . , p+ (3.40)

g+k2(d+) =

∑i∈P+

k

w+i d

+i dla k = 1, 2, . . . , p+ (3.41)

Page 105: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.3. REFERENCYJNE PROGRAMOWANIE CELOWE 107

g−k1(d−) = maxi∈P−k

(−w−i d−i ) dla k = 1, 2, . . . , p+ (3.42)

g−k2(d−) =∑i∈P−k

−w−i d−i dla k = 1, 2, . . . , p− (3.43)

Zauwazmy, ze warunki problemu LRPC nie zawieraj ↪a wymagan (3.30) gwa-rantuj ↪acych w lasciwe obliczanie odchylen w problemie RPC. Te wymagania moz-na pomin ↪ac w problemie LRPC, poniewaz wszystkie odchylenia w do l d−i maj ↪aprzypisane priorytety nizsze niz dowolne odchylenie w gor ↪e d

+i . Dzi ↪eki temu dla

dowolnych dodatnich wspo lczynnikow wagowych w+i i w−i rozwi ↪azanie optymalne

problemu LRPC spe lnia warunek (3.31), gwarantuj ↪acy poprawnosc obliczania od-chylen z rownan celowych (3.25)–(3.26).

Twierdzenie 3.8 Dla dowolnych poziomow aspiracji ai i dowolnych dodatnichwag w−i i w+

i rozwi ↪azanie optymalne (x, d−, d+) problemu LRPC spe lnia warunki(3.31), czyli d−i d

+i = 0 dla i = 1, 2, . . . ,m

Dowod. Niech (x, d−, d+) b ↪edzie rozwi ↪azaniem optymalnym problemu LRPC.Przypuscmy, ze d−i0 d

+i0> 0 dla pewnego indeksu i0 (1 ≤ i0 ≤ m). Mozemy wtedy

zmniejszyc wartosci obu zmiennych d−i0 i d+i0

o t ↪e sam ↪a ma l ↪a dodatni ↪a liczb ↪e. To

znaczy, dla dostatecznie ma lej dodatniej liczby δ wektor (x, d− − δei0 , d+ − δei0)jest dopuszczalny dla problemu LRPC. Ze wzgl ↪edu na dodatniosc wag w−i i w+

i ,spe lnione s ↪a nast ↪epuj ↪ace nierownosci

g+k1(d+ − δei0) ≤ g+

k1(d+) i g+k2(d+ − δei0) ≤ g+

k2(d+) dla k = 1, 2, . . . , p+

Ponadto istnieje k0 takie, ze i0 ∈ P+k0

. St ↪ad wynika, ze g+k02(d+− δei0) < g+

k02(d+),

co przeczy optymalnosci (x, d−, d+) dla problemu LRPC. Zatem (x, d−, d+)spe lnia warunki (3.31).

Z okreslenia leksykograficznej funkcji celu (3.37)–(3.43) jest jasne, ze problemLRPC spe lnia postulaty P3, P4 i P5. Kolejne twierdzenia pokazuj ↪a, ze leksyko-graficzny problem LRPC zawsze generuje rozwi ↪azanie efektywne dla oryginalnegoproblemu wielokryterialnego (postulat P1) spe lniaj ↪ac jednoczesnie postulat P2.

Twierdzenie 3.9 Dla dowolnych poziomow aspiracji ai oraz dowolnych dodatnichwag w−i i w+

i , jezeli (x, d−, d+) jest rozwi ↪azaniem optymalnym problemu LRPC,to x jest rozwi ↪azaniem efektywnym wielokryterialnego problemu (1.7).

Dowod. Niech (x, d−, d+) b ↪edzie rozwi ↪azaniem optymalnym problemu LRPC.Przypuscmy, ze x nie jest rozwi ↪azaniem efektywnym problemu (1.7), czyli istniejewektor x ∈ Q taki, ze

fi(x) ≤ fi(x) dla i = 1, 2, . . . ,m (3.44)

i dla pewnego indeksu i0 (1 ≤ i0 ≤ m)

fi0(x) < fi0(x) (3.45)

Na mocy twierdzenia 3.8 odchylenia d−i i d+i spe lniaj ↪a rownania

Page 106: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

108 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

d+i = (fi(x)− ai)+ i d−i = (ai − fi(x))+

Zdefiniujmy analogiczne odchylenia dla wektora x

d+i = (fi(x)− ai)+ i d−i = (ai − fi(x))+ dla i = 1, 2, . . . ,m

Trojka wektorow (x,d−,d+) jest rozwi ↪azaniem dopuszczalnym problemu LRPC iz (3.44) wynika

d+i ≤ d

+i i d−i ≥ d

−i dla i = 1, 2, . . . ,m

St ↪ad, dla dowolnych dodatnich wag w−i i w+i prawdziwe s ↪a nast ↪epuj ↪ace nierownosci

g+k1(d+) ≤ g+

k1(d+) i g+k2(d+) ≤ g+

k2(d+) dla k = 1, 2, . . . , p+

g−k1(d−) ≤ g−k1(d−) i g−k2(d−) ≤ g−k2(d−) dla k = 1, 2, . . . , p−

Ponadto istnieje k+ taki, ze i0 ∈ P+k+

oraz k− taki, ze i0 ∈ P−k− . A wi ↪ec, zgodnie z

(3.45), dla dowolnych dodatnich wag w−i i w+i

g+k+2(d+) < g+

k+2(d+) lub g−k−2(d−) < g−k−2(d−)

co przeczy optymalnosci (x, d−, d+) dla problemu LRPC. Zatem x jest rozwi ↪aza-niem efektywnym oryginalnego problemu wielokryterialnego (1.7).

Twierdzenie 3.10 Dla dowolnych poziomow aspiracji ai oraz dowolnych dodat-nich wag w−i i w+

i , jezeli (x, d−, d+) jest rozwi ↪azaniem optymalnym problemuLRPC, to odchylenie d+

i jest dodatnie tylko wtedy, gdy nie istnieje zaden wektorx ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m.

Dowod. Niech (x, d−, d+) b ↪edzie rozwi ↪azaniem optymalnym problemu LRPC.Przypuscmy, ze d+

i0> 0 (czyli fi0(x) > ai0) dla pewnego indeksu i0 (1 ≤ i0 ≤ m)

i istnieje wektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m. Zdefiniujmyodchylenia dla wektora x

d+i = (fi(x)− ai)+ = 0 i d−i = (ai − fi(x))+ ≥ 0 dla i = 1, 2, . . . ,m

Trojka wektorow (x,d−,d+) jest rozwi ↪azaniem dopuszczalnym problemu LRPC idla dowolnych dodatnich wag w−i i w+

i prawdziwe s ↪a nast ↪epuj ↪ace nierownosci

g+k1(d+) = 0 ≤ g+

k1(d+) i g+k2(d+) = 0 ≤ g+

k2(d+) dla k = 1, 2, . . . , p+

Ponadto istnieje k0 taki, ze i0 ∈ P+k0

. St ↪ad g+k01(d+) = 0 < w+

i0d+i0≤ g+

k01(d+),

co przeczy optymalnosci (x, d−, d+) dla problemu LRPC. Zatem nie istnieje zadenwektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m.

Twierdzenie 3.11 Jezeli wektor x ∈ Q jest rozwi ↪azaniem efektywnym zadaniawielokryterialnego (1.7), to wektor (x,0,0) jest rozwi ↪azaniem optymalnym prob-lemu LRPC z wektorem aspiracji a = F(x) i dowolnymi dodatnimi wagami w−i ,w+i .

Page 107: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.3. REFERENCYJNE PROGRAMOWANIE CELOWE 109

Dowod. Zauwazmy, ze dla dodatnich wag g+(d+)>= 0 i g−(d−)

<= 0, a jedno-

czesnie g+(0) = 0 i g−(0) = 0. Zatem gdyby wektor (x,0,0) nie by l rozwi ↪azaniemoptymalnym problemu LRPC z wektorem aspiracji a = F(x), to istnia lby wektorx ∈ Q taki, ze

g+((f(x)− f(x))+) = 0 i g−((f(x)− f(x))+) <lex 0

St ↪ad f(x) ≤ f(x), co przeczy efektywnosci wektora x dla zadania wielokryterialnego(1.7).

Zauwazmy, ze zadne z twierdzen 3.8–3.11 nie zak lada lo wypuk losci zbiorudopuszczalnego Q. Zatem technika leksykograficznego referencyjnego PC mozebyc stosowana nie tylko do problemow liniowych, lecz takze do problemowca lkowitoliczbowych, w ktorych standardowe programowanie celowe moze nie bycw stanie wygenerowac rozwi ↪azania efektywnego (Hallefjord i Jornsten, 1988).

Problem LRPC przyjmuje prostsz ↪a postac, gdy wszystkie klasy priorytetow s ↪azbiorami jednoelementowymi (p+ = p− = m). W takim przypadku

g+k1(d+) = g+

k2(d+) = w+τ ′(k)d

+τ ′(k) dla k = 1, 2, . . . ,m

g−k1(d−) = g−k2(d−) = −w−τ ′′(k)d−τ ′′(k) dla k = 1, 2, . . . ,m

gdzie τ ′ i τ ′′ s ↪a permutacjami zbioru {1, 2, . . . ,m} takimi, ze P+k = {τ ′(k)} i

P−k = {τ ′′(k)} dla k = 1, 2, . . . ,m. Zatem funkcje wektorowe g+(d+) i g−(d−)zdefiniowane w (3.38)–(3.43) mog ↪a byc zast ↪apione przez

g+(d+) = [g+1 (d+), g+

2 (d+), . . . , g+m(d+)]

g−(d−) = [g−1 (d−), g−2 (d−), . . . , g−m(d−)]

gdzie g+k (d+) = d+

τ ′(k) i g−k (d−) = −d−τ ′′(k) dla k = 1, 2, . . . ,m.

Przyk lad 3.3. Przedyskutujemy tutaj model LRPC dla przyk ladowego prob-lemu decyzyjnego. Nasz problem jest oparty na podr ↪ecznikowym modelu wyborumediow dla akcji reklamowej (Budnick i inni, 1988). Rozpatrzmy problem podzia lubudzetu na reklam ↪e pomi ↪edzy dwa media: telewizj ↪e i radio. Skutecznosc reklamyjest mierzona liczb ↪a odbiorcow reklamy (osob, do ktorych dana reklama dociera).Przyjmijmy, ze znane s ↪a wspo lczynniki skutecznosci (stosunek liczby odbiorcow re-klamy do kosztow reklamy wyrazonych w tys. z l): 10 000 dla telewizji i 7 500 dlaradia. Za lozmy, ze nalezy osi ↪agn ↪ac nast ↪epuj ↪ace cele, w kolejnosci od najwyzszegodo najnizszego priorytetu:

1. Unikn ↪ac wydania wi ↪ecej niz 100 000 z l;

2. Osi ↪agn ↪ac co najmniej 750 000 odbiorcow;

3. Unikn ↪ac wydania wi ↪ecej niz 70 000 z l na reklam ↪e w TV;

4. Maksymalizowac liczb ↪e odbiorcow;

5. Minimalizowac ca losc wydatkow;

6. Minimalizowac wydatki na reklam ↪e w TV.

Page 108: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

110 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Latwo zauwazyc, ze podstawowy problem decyzyjny jest zadaniem optymali-zacji z trzema kryteriami: liczb ↪a odbiorcow (maksymalizowan ↪a), ca lkowitymi wy-datkami (minimalizowanymi) i wydatkami na reklam ↪e w TV (minimalizowanymi).Jednakze preferencje zosta ly wyspecyfikowane za pomoc ↪a poziomow aspiracji i prio-rytetow.

6

-

x2

x110050

100

50

@@@@@@@@@@@@@@@@@@@@@@@

SSSSSSSSSSSSSSSSSSSSSSS

s (70, 30)

d+3d−3

d+2

d−2

d+1

d−1

-�

��>��=

�����

Rysunek 3.1:Rys. 3.1. Analiza graficzna problemu wyboru mediow

Wprowadzaj ↪ac dwie zmienne decyzyjne x1 i x2, wyrazaj ↪ace odpowiednio wy-datki na reklam ↪e w TV i w radiu (w tysi ↪acach z lotych), otrzymujemy nast ↪epuj ↪acerownania celowe

x1 + x2 + d−1 − d+1 = 100

10 000x1 + 7 500x2 + d−2 − d+2 = 750 000

x1 + d−3 − d+3 = 70

x1, x2, d−1 , d

+1 , d

−2 , d

+2 , d

−3 , d

+3 ≥ 0

Preferencje mozna wyrazic przez nast ↪epuj ↪ac ↪a funkcj ↪e osi ↪agni ↪ecia LRPC

lexmin [d+1 , d

−2 , d

+3 ,−d

+2 ,−d

−1 ,−d

−3 ]

Zauwazmy, ze d−2 ma wyzszy priorytet niz −d+2 , poniewaz odpowiadaj ↪aca jej ocena

Page 109: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.3. REFERENCYJNE PROGRAMOWANIE CELOWE 111

jest maksymalizowana, podczas gdy do rozwazan teoretycznych zak ladalismy, zewszystki funkcje oceny s ↪a minimalizowane.

Przeprowadzaj ↪ac analiz ↪e graficzn ↪a, latwo sprawdzic (por. rys. 3.1), ze powyzszyproblem LRPC ma jednoznaczne rozwi ↪azanie optymalne x = (70, 30) z ocenami:100 000 z l ca lkowitych wydatkow, w tym 70 000 z l na reklam ↪e w TV, i 925 000odbiorcow. Analiza graficzna problemu wskazuje, ze to rozwi ↪azanie nie jest opty-malne dla zadnej funkcji osi ↪agni ↪ecia uzywaj ↪acej tylko dodatnich wag. Rzeczywiscie,rozwi ↪azuj ↪ac problem

lexmin [w+1 d

+1 , w

−2 d−2 , w

+3 d

+3 , w

+2 d

+2 , w

−1 d−1 , w

−3 d−3 ]

dla dowolnych dodatnich wag w−i i w+i otrzymuje si ↪e jednoznaczne rozwi ↪azanie

optymalne x = (0, 100) z ocenami: 100 000 z l ca lkowitych wydatkow wy l ↪acznie nareklam ↪e w radiu i 750 000 odbiorcow. To rozwi ↪azanie zdecydowanie nie jest zgodnez hierarchi ↪a celow 1–6. Zatem okazuje si ↪e, ze uzycie ujemnych wag by lo w tymprzyk ladzie istotne. �

Szczegolnym przypadkiem modelu LRPC jest problem ze wszystkimi odchy-leniami w gor ↪e d

+i nalez ↪acymi do jednej klasy priorytetow P+

1 = I i wszystkimiodchyleniami w do l nalez ↪acymi do jednej klasy priorytetow P−1 = I. Funkcjeosi ↪agni ↪ecia dla takiego problemu mozemy zapisac w postaci

g+(d+) = [g+1 (d+), g+

2 (d+)] =

[max

i=1,...,m(w+

i d+i ),

m∑i=1

w+i d

+i

](3.46)

g−(d−) = [g−1 (d−), g−2 (d−)] =

[max

i=1,...,m(−w−i d

−i ),

m∑i=1

−w−i d−i

](3.47)

Zadanie LRPC (3.37) z funkcjami osi ↪agni ↪ecia (3.46)–(3.47) definiuje modelreferencyjnego programowania celowego bez priorytetow minimalizacji odchylen.Rozni si ↪e on od wprowadzonego wczesniej modelu RPC (3.24)–(3.29) nie tylkoform ↪a, lecz rowniez w lasnosciami. O ile w modelu RPC wspo lczynniki wagowemusz ↪a spe lniac warunek (3.30), to model LRPC bez klas priorytetow wymaga je-dynie dodatniosci wag (por. twierdzenia 3.8–3.11). Wynika to z przyj ↪etego w mo-delu preferencji dla LRPC dodatkowego postulatu P3. W lasnosc relacji preferencji(3.34) rownowazna temu postulatowi nie wynika z postulatu P2. Wr ↪ecz przeciwnie,w przypadku racjonalnych relacji preferencji z w lasnosci (3.34) wynika spe lnieniewarunku (3.1). W lasnosci (3.34) nie posiada ani model preferencji zadania RPC,ani model preferencji standardowych metod punktu referencyjnego opartych naparametryzacji (3.4). Dok ladniej, metody punktu referencyjnego oparte na para-metryzacji (3.4) spe lniaj ↪a warunek (3.34) zawsze w przypadku dwoch funkcji oceny(m = 2), ale mog ↪a go nie spe lniac przy wi ↪ekszej liczbie funkcji.

Zauwazmy, ze postulat P2 nie precyzuje regu l preferencji dla roznych wektorowocen y′ 6�r a i y′′ 6�r a, a okresla jedynie, ze wektor aspiracji a jest preferowanyw stosunku do wszystkich wektorow ocen y 6�r a (por. (3.1)), Na przyk lad, wstandardowych metodach punktu referencyjnego opartych na parametryzacji (3.4)z liniowymi funkcjami skaluj ↪acymi (3.5) o jednostkowych wspo lczynnikach λi, jak

Page 110: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

112 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

rowniez w przypadku przedzia lami liniowych funkcji skaluj ↪acych (3.7) o jednost-kowych wspo lczynnikach λi i β > 0.1, wektor ocen (a1 + 1, a2 + 1, a3 − 10) jestpreferowany w stosunku do wektora (a1 + 1, a2, a3). Preferowanie w takim wy-padku wektora ocen (a1 + 1, a2, a3) wydaje si ↪e byc zgodne z intuicyjnym poj ↪eciempoziomow aspiracji i z lez ↪ac ↪a u podstaw podejscia quasi–zadowalaj ↪acego zasad ↪a,ze decydent koncentruje uwag ↪e na poprawie wartosci tych ocen, ktore nie osi ↪agn ↪e lyswoich poziomow aspiracji. Odpowiada to przyj ↪eciu za lozenia, ze wektor aspiracji adefiniuje model preferencji spe lniaj ↪acy warunki (3.2) oraz (3.34). Taki w lasnie mo-del preferencji realizuje LRPC niezaleznie od wartosci wspo lczynnikow wagowych,podczas gdy w standardowych metodach punktu referencyjnego, opartych na para-metryzacji (3.4), wymaga to stosowania funkcji skaluj ↪acych typu (3.7) z arbitralniema lym parametrem β > 0. Zatem, nawet w przypadku braku priorytetow, LRPCnie jest modelem standardowych metod punktu referencyjnego zapisanym w ter-minach programowania celowego, lecz jakosciowo inn ↪a metod ↪a, scislej realizuj ↪ac ↪aquasi–zadowalaj ↪acy model preferencji decydenta.

3.4 Przedzia lowe referencyjne programowanie ce-lowe

3.4.1 Model wazony

Przy analizie praktycznych wielokryterialnych problemow decyzyjnych najwy-godniejsz ↪a form ↪a metody punktu referencyjnego jest przedzia lowa metoda punktureferencyjnego (por. podrozdzia ly 3.1 i 3.2), gdzie uzywa si ↪e dodatkowego wektorareferencyjnego, wyrazaj ↪acego poziomy rezerwacji, a wspo lczynniki skaluj ↪ace (wagi)s ↪a automatycznie wyznaczane na podstawie poziomow aspiracji i rezerwacji. W tympodrozdziale pokazujemy, ze przedzia lowa metoda punktu referencyjnego moze bycwyrazona za pomoc ↪a technik programowania celowego (por. Ogryczak i Lahoda,1992). To znaczy, naszym celem jest sformu lowanie modelu PC zgodnego z po-stulatami P1, P2 i P2a oraz spe lniaj ↪acego wymaganie zupe lnosci parametryzacjizbioru rozwi ↪azan efektywnych.

Przedzia lowa metoda punktu referencyjnego uzywa wektora poziomow re-zerwacji jako drugiego wektora parametrow steruj ↪acych. Poziomy rezerwacjimozna wprowadzic do modelu programowania celowego zgodnie z tzw. tech-nik ↪a funkcji kary (Romero, 1991). Najprostsz ↪a drog ↪a jest zdefiniowanie dwochrownan celowych: jednego zwi ↪azanego z odchyleniami od poziomu aspiracji i dru-giego zwi ↪azanego z odchyleniami od poziomu rezerwacji. Mozna jednak unikn ↪aczwi ↪ekszania wymiarow problemu, korzystaj ↪ac z techniki modelowania podobnej doprzedzia lowego PC (Ignizio, 1982; Ogryczak, 1988). W tym celu wprowadzamyrownania celowe postaci

fi(x) + d−i − dai − dri = ai dla i = 1, 2, . . . ,m (3.48)

d−i ≥ 0, 0 ≤ dai ≤ ri − ai, dri ≥ 0 dla i = 1, 2, . . . ,m (3.49)

gdzie ai i ri oznaczaj ↪a odpowiednio poziom aspiracji i rezerwacji dla i–tej funk-

Page 111: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 113

cji oceny, a d−i , dai i dri s ↪a nieujemnymi zmiennymi stanu mierz ↪acymi odchyleniawartosci i–tej funkcji oceny od odpowiednich poziomow aspiracji i rezerwacji: d−ijest odchyleniem w do l od poziomu aspiracji, dai jest odchyleniem w gor ↪e od po-ziomu aspiracji, wewn ↪atrz przedzia lu mi ↪edzy poziomem aspiracji i rezerwacji, a drijest odchyleniem w gor ↪e od poziomu rezerwacji.

Rownania celowe (3.48)–(3.49) rozni ↪a si ↪e od typowych (3.25)–(3.26) tylko tym,ze odchylenie w gor ↪e d

+i jest sum ↪a dwoch odchylen dai i dri , z ktorych pierwsze jest

ograniczone do przedzia lu mi ↪edzy poziomami aspiracji i rezerwacji, a drugie jestdodatnie tylko wtedy, gdy dai = ri−ai. Zmienne d−i , dai i dri wyrazaj ↪a odpowiednieodchylenia wartosci funkcji oceny fi(x) od poziomow aspiracji i rezerwacji (dri =(fi(x) − ri)+, dai = (fi(x) − dri − ai)+ i d−i = (ai − fi(x))+), o ile spe lnione s ↪awarunki

d−i dai = 0, (ri − ai − dai )dri = 0 dla i = 1, 2, . . . ,m (3.50)

stanowi ↪ace odpowiednie rozszerzenie warunkow komplementarnosci odchylen wgor ↪e i w do l (3.31).

Uzywaj ↪ac trzech typow odchylen, zdefiniowanych przez rownania celowe (3.48)–(3.49), mozemy zapisac obie formu ly (3.11) i (3.12) jako

si(d−i , d

ai , d

ri ) =

−w−i d−i gdy yi ≤ ai

wai dai gdy ai < yi < ri

wri dri + 1 gdy yi ≥ ri

(3.51)

gdzie w−i , wai i wri s ↪a wagami dodatnimi, zdefiniowanymi w zaleznosci od odpo-wiednich poziomow aspiracji i rezerwacji. Zak ladaj ↪ac, ze wai = 1/(ri − ai) jak wformu lach (3.11) i (3.12), mozemy zapisac funkcj ↪e (3.51) w postaci sumy wazonejodchylen

si(d−i , d

ai , d

ri ) = −w−i d

−i + wai d

ai + wri d

ri (3.52)

Jednakze, podobnie jak w przypadku referencyjnego PC, w tej formule kryje si ↪epewna specyfika. Jest ni ↪a ujemny wspo lczynnik wagi −w−i wyst ↪epuj ↪acy przy od-chyleniu w do l d−i .

Jako odpowiednik lez ↪acej u podstaw przedzia lowej metody punktu referen-cyjnego parametryzacji (3.13) mozemy sformu lowac nast ↪epuj ↪acy leksykograficznyproblem PC

PRPC : lexmin g(d−,da,dr) = [g1(d−,da,dr), g2(d−,da,dr)] (3.53)

pod warunkiem, ze (3.48)–(3.49) oraz x ∈ Q

gdzie

g1(d−,da,dr) = maxi=1,...,m

{−w−i d−i + wai d

ai + wri d

ri } (3.54)

g2(d−,da,dr) =

m∑i=1

(−w−i d−i + wai d

ai + wri d

ri ) (3.55)

Wyst ↪epuj ↪ace w funkcjach osi ↪agni ↪ecia g1 i g2 wagi w−i , wai i wri s ↪a parametrami do-datnimi, ktore mog ↪a zalezec od poziomow aspiracji i rezerwacji. Na przyk lad,k lad ↪ac wai = 1/(ri − ai), w

−i = β/(ri − ai) i wri = γ/(ri − ai) z dodatnimi

Page 112: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

114 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

wartosciami β i γ, otrzymujemy zadanie rownowazne problemowi (3.13) z funk-cjami si okreslonymi wzorem (3.12).

Dla zapewnienia w lasciwego obliczania odchylen w zadaniu PRPC, optymalnewartosci zmiennych reprezentuj ↪acych odchylenia powinny spe lniac warunki (3.50).Pierwsze wymaganie d−i d

ai = 0 mozna wzgl ↪ednie latwo zaimplementowac w prog-

ramowaniu liniowym. Drugie natomiast wymaga specjalnych technik, nawet wprzypadku programowania liniowego. Jednakze okazuje si ↪e, ze warunki (3.50) s ↪aspe lnione przez rozwi ↪azania optymalne problemu PRPC, jezeli wagi spe lniaj ↪a wa-runki naturalne dla przedzia lowej metody punktu referencyjnego

wai = 1/(ri − ai), 0 < w−i < wai < wri dla i = 1, 2, . . . ,m (3.56)

Twierdzenie 3.12 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri, jezeliwagi spe lniaj ↪a warunki (3.56), to rozwi ↪azanie optymalne (x, d−, da, dr) problemuPRPC spe lnia warunki (3.50), czyli d−i d

ai = 0 oraz (ri − ai − dai )dri = 0 dla i =

1, 2, . . . ,m.

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemu PRPC.Przypuscmy, ze d−i0 d

ai0> 0 dla pewnego indeksu 1 ≤ i0 ≤ m. Mozemy wtedy

zmniejszyc d−i0 i dai0 o tak ↪a sam ↪a ma l ↪a liczb ↪e. To znaczy, dla dostatecznie ma lej

dodatniej liczby δ wektor (x, d−−δei0 , da−δei0 , dr) jest dopuszczalny dla problemuPRPC. Dzi ↪eki temu, ze 0 < w−i < wai , spe lniona jest nast ↪epuj ↪aca nierownosc

−w−i0(d−i0 − δ) + wai0(dai0 − δ) + wri0 dri0 < −w

−i0d−i0 + wai0 d

ai0 + wri0 d

ri0

St ↪ad wynika

g1(d− − δei0 , da − δei0 , dr) ≤ g1(d−, da, dr)

g2(d− − δei0 , da − δei0 , dr) < g2(d−, da, dr)

co przeczy optymalnosci (x, d−, da, dr) dla problemu PRPC.Dalej przypuscmy, ze (ri0 − ai0 − dai0)dri0 > 0 dla pewnego indeksu 1 ≤ i0 ≤

m. Mozemy wtedy zmniejszyc dri0 i jednoczesnie zwi ↪ekszyc dai0 o tak ↪a sam ↪a ma l ↪aliczb ↪e. To znaczy, dla dostatecznie ma lej liczby dodatniej δ czworka wektorow(x, d−, da+δei0 , d

r−δei0) jest rozwi ↪azaniem dopuszczalnym dla problemu PRPC.Dzi ↪eki temu, ze wri > wai , spe lniona jest nast ↪epuj ↪aca nierownosc

−w−i0 d−i0

+ wai0(dai0 + δ) + wri0(dri0 − δ) < −w−i0d−i0 + wai0 d

ai0 + wri0 d

ri0

St ↪ad wynika

g1(d−, da + δei0 , dr − δei0) ≤ g1(d−, da, dr)

g2(d−, da + δei0 , dr − δei0) < g2(d−, da, dr)

co przeczy optymalnosci (x, d−, da, dr) dla problemu PRPC. Zatem (x, d−, da, dr)spe lnia oba warunki (3.50)

Z twierdzenia 3.12 wynika, ze wymagania (3.50) mozna pomini ↪ac w sformu lowa-niu problemu PRPC, gdy wagi wprowadzaj ↪a stosunkowo wysok ↪a kar ↪e za przekro-czenie poziomu rezerwacji i stosunkowo nisk ↪a premi ↪e za wynik lepszy od odpowied-niego poziomu aspiracji. Zauwazmy, ze dla parametrow β i γ spe lniaj ↪acych waruki

Page 113: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 115

0 < β < 1 i γ > 1, wagi okreslone wzorami wai = 1/(ri − ai), w−i = β/(ri − ai)i wri = γ/(ri − ai) spe lniaj ↪a warunek (3.56). Zatem funkcja si zdefiniowana wzo-rem (3.12) moze byc wyrazona w postaci (3.52), tak zeby spe lnione by ly wszystkieza lozenia twierdzenia 3.12. W przypadku funkcji si zdefiniowanej wzorem (3.11)mozna napotkac pewne trudnosci przy dobieraniu w lasciwych wartosci dla para-metrow β i γ.

Wykazemy, ze problem PRPC zawsze generuje rozwi ↪azanie efektywne orygi-nalnego problemu wielokryterialnego (twierdzenie 3.13), spe lniaj ↪ac jednoczesniepostulaty P2 (twierdzenie 3.14) i P2a (twierdzenie 3.15), definiuj ↪ace model prefe-rencji przedzia lowej metody punktu referencyjnego. Ponadto zadanie PRPC sta-nowi zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan efektywnych za pomoc ↪a poziomowaspiracji (twierdzenie 3.16).

Twierdzenie 3.13 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri i dowol-nych dodatnich wag w−i , wri , wai spe lniaj ↪acych warunki (3.56), jezeli (x, d−, da, dr)jest rozwi ↪azaniem optymalnym problemu PRPC, to x jest rozwi ↪azaniem efektyw-nym problemu wielokryterialnego (1.7).

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemu PRPC.Przypuscmy, ze x jest rozwi ↪azaniem nieefektywnym problemu (1.7). Oznacza to,ze istnieje wektor x ∈ Q taki, ze

fi(x) ≤ fi(x) dla i = 1, 2, . . . ,m (3.57)

i fi0(x) < fi0(x) dla pewnego indeksu i0 (1 ≤ i0 ≤ m), czyli

m∑i=1

fi(x) <

m∑i=1

fi(x) (3.58)

Na mocy twierdzenia 3.12 odchylenia d−i , dai i dri spe lniaj ↪a rownosci

dri = (fi(x)− ri)+, dai = (fi(x)− dri − ai)+, d−i = (ai − fi(x))+

Zdefiniujmy analogicznie odchylenia dla wektora x jako

dri = (fi(x)− ri)+, dai = (fi(x)− dri − ai)+, d−i = (ai − fi(x))+

Czworka wektorow (x,d−,da,dr) jest rozwi ↪azaniem dopuszczalnym problemuPRPC i ze wzgl ↪edu na (3.57) i (3.58) nierownosci

−w−i d−i + wai d

ai + wri d

ri ≤ −w−i d

−i + wai d

ai + wri d

ri dla i = 1, 2, . . . ,m

m∑i=1

(−w−i d−i + wai d

ai + wri d

ri ) <

m∑i=1

(−w−i d−i + wai d

ai + wri d

ri )

s ↪a spe lnione dla dowolnych dodatnich wag w−i , wai i wri . St ↪ad wynika

g1(d−,da,dr) ≤ g1(d−, da, dr) i g2(d−,da,dr) < g2(d−, da, dr)

co przeczy optymalnosci (x, d−, da, dr) dla problemu PRPC. Zatem x jest rozwi ↪a-zaniem efektywnym oryginalnego problemu (1.7).

Page 114: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

116 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Twierdzenie 3.14 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri i dowol-nych dodatnich wag w−i , wri , wai spe lniaj ↪acych warunki (3.56), jezeli (x, d−, da, dr)jest rozwi ↪azaniem optymalnym problemu PRPC, to odchylenie dri jest dodatnie tylkowtedy, gdy nie istnieje wektor x ∈ Q taki, ze fi(x) ≤ ri dla i = 1, 2, . . . ,m.

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemu PRPC.Przypuscmy, ze dri0 > 0 (czyli fi0(x) > ri0 i dai0 = ri0 − ai0) dla pewnego indeksui0 oraz istnieje wektor x ∈ Q taki, ze fi(x) ≤ ri dla i = 1, 2, . . . ,m. Zdefiniujmyodchylenia dla wektora x jako

dri = (fi(x)− ri)+ = 0, dai = (fi(x)− dri − ai)+ ≥ 0, d−i = (ai − fi(x))+ ≥ 0

dla i = 1, 2, . . . ,m. Czworka wektorow (x,d−,da,dr) jest rozwi ↪azaniem dopusz-czalnym dla problemu PRPC i dla dowolnych dodatnich wag w−i i wri s ↪a spe lnionenast ↪epuj ↪ace zaleznosci

maxi=1,...,m

{−w−i d−i + wai d

ai + wri d

ri } = max

i=1,...,m{−w−i d

−i + wai d

ai } ≤ 1

maxi=1,...,m

{−w−i d−i + wai d

ai + wri d

ri } ≥ 1 + wri d

ri > 1

St ↪ad g1(d−,da,dr) < g1(d−, da, dr), co przeczy optymalnosci (x, d−, da, dr) dlaproblemu PRPC. Zatem nie istnieje wektor x ∈ Q taki, ze fi(x) ≤ ri dla i =1, 2, . . . ,m.

Twierdzenie 3.15 Dla dowolnych poziomow aspiracji i rezerwacji ai < rioraz dowolnych dodatnich wag w−i , wri , wai spe lniaj ↪acych warunki (3.56), jezeli(x, d−, da, dr) jest rozwi ↪azaniem optymalnym problemu PRPC, to odchylenie daijest dodatnie tylko wtedy, gdy nie istnieje wektor x ∈ Q taki, ze fi(x) ≤ ai dlai = 1, 2, . . . ,m.

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemu PRPC.Przypuscmy, ze dai0 > 0 (czyli fi0(x) > ai0) dla pewnego indeksu i0 oraz istniejewektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m. Zdefiniujmy odchylenia dlawektora x jako

dri = (fi(x)− ri)+ = 0, dai = (fi(x)− dri − ai)+ = 0, d−i = (ai − fi(x))+ ≥ 0

dla i = 1, 2, . . . ,m. Czworka wektorow (x,d−,da,dr) jest rozwi ↪azaniem dopusz-czalnym problemu PRPC i dla dowolnych dodatnich wag w−i i wri s ↪a spe lnionenast ↪epuj ↪ace nierownosci

maxi=1,...,m

{−w−i d−i + wai d

ai + wri d

ri } = max

i=1,...,m{−w−i d

−i } ≤ 0

maxi=1,...,m

{−w−i d−i + wai d

ai + wri d

ri } ≥ wai dai > 0

St ↪ad g1(d−,da,dr) < g1(d−, da, dr), co przeczy optymalnosci (x, d−, da, dr) dlaproblemu PRPC. Wi ↪ec nie istnieje wektor x ∈ Q taki, ze fi(x) ≤ ai dla i =1, 2, . . . ,m.

Twierdzenie 3.16 Jezeli wektor x ∈ Q jest rozwi ↪azaniem efektywnym zadaniawielokryterialnego (1.7), to wektor (x,0,0,0) jest rozwi ↪azaniem optymalnym prob-lemu PRPC z wektorem aspiracji a = F(x), dowolnym wektorem rezerwacji r > ai dowolnymi wagami w−i , wai , wri spe lniaj ↪acymi warunek (3.56).

Page 115: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 117

Dowod. Przypuscmy, ze (x,0,0,0) nie jest rozwi ↪azaniem optymalnym zadaniaPRPC z wektorem aspiracji a = F(x). Istnieje wtedy wektor x ∈ Q taki, ze

g1((f(x)− f(x))+, (f(x)− (f(x)− r)+ − f(x))+, (f(x)− r)+) < g1(0,0,0) = 0

albo

g1((f(x)− f(x))+, (f(x)− (f(x)− r)+ − f(x))+, (f(x)− r)+) = 0

i jednoczesnie

g2((f(x)− f(x))+, (f(x)− (f(x)− r)+ − f(x))+, (f(x)− r)+) < g2(0,0,0) = 0

Zatem na mocy (3.56)

(f(x)− f(x))+ ≥ 0 i (f(x)− f(x))+ = 0

czyli f(x) ≤ f(x), co przeczy efektywnosci wektora x dla zadania (1.7).

3.4.2 Implementacja w arkuszu kalkulacyjnym

Zauwazmy, ze warunki (3.56) s ↪a spe lnione dla wai = 1/(ri−ai), w−i = β/(ri−ai)i wri = γ/(ri − ai) z wartosciami β i γ spe lniaj ↪acymi nierownosci 0 < β < 1 < γ.Odpowiedni problem PRPC przyjmuje wtedy prost ↪a do implementacji postac

PRPC: lexmin g(d−,da,dr) = [g1(d−,da,dr), g2(d−,da,dr)]

pod warunkiem, ze (3.48)–(3.49) i x ∈ Q

gdzie

g1(d−,da,dr) = maxi=1,...,m

{(−βd−i + dai + γdri )/(ri − ai)} (3.59)

g2(d−,da,dr) =

m∑i=1

(−βd−i + dai + γdri )/(ri − ai) (3.60)

Powyzsza postac zadania PRPC jest tak prosta, ze moze byc latwo zaimple-mentowana w arkuszu kalkulacyjnym. W ostatniej dekadzie elektroniczne arkuszekalkulacyjne sta ly si ↪e standardowym narz ↪edziem analizy uzywanym w zarz ↪adzaniu.Podstawow ↪a technik ↪a analizy w arkuszach kalkulacyjnych jest analiza typu what–if. Za jej pomoc ↪a uzytkownik przymierza rozne wartosci w komorkach arkusza,reprezentuj ↪acych zmienne decyzyjne i analizuje zaktualizowany arkusz w poszuki-waniu najbardziej satysfakcjonuj ↪acego wyboru. Analiza symulacyjna typu what–ifnie jest wystarczaj ↪aco sprawna dla bardziej skomplikowanych modeli ilosciowych.Dlatego pewne arkusze kalkulacyjne oferuj ↪a tak zwan ↪a analiz ↪e goal–seeking (np.Gray, 1988). Za jej pomoc ↪a uzytkownik moze okreslic preferowan ↪a wartosc celudla pewnej komorki reprezentuj ↪acej ocen ↪e i wywo lac komend ↪e znajdowania odpo-wiedniej wartosci dla wskazanej komorki wejsciowej (zmiennej decyzyjnej). Moznawi ↪ec uwazac, ze analiza goal–seeking jest rozwi ↪azywaniem rownania lub uproszczon ↪asymulacj ↪a odwrotn ↪a. Naturalnym krokiem dalej jest uzycie narz ↪edzi optymalizacjido poszukiwania najlepszych wartosci zmiennych decyzyjnych, odpowiadaj ↪acych

Page 116: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

118 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

wartosci optymalnej wskazanej komorki oceny. Poczynaj ↪ac od pionierskich im-plementacji w po lowie lat 80. (por. Sharda, 1985), programowanie liniowe, czygeneralnie optymalizacja, zacz ↪e ly byc dost ↪epne w arkuszach kalkulacyjnych jakododatkowe oprogramowanie lub jako wbudowane funkcje arkusza. Jednakze, abysprostac oczekiwaniom uzytkownika, techniki optymalizacji nie powinny ograni-czac si ↪e do analiz jednokryterialnych. Poniewaz modele w arkuszach kalkulacyj-nych pozwalaj ↪a za pomoc ↪a analizy what–if obserwowac wiele ocen, naleza loby towykorzystac do optymalizacji wielokryterialnej.

Nowoczesne arkusze kalkulacyjne s ↪a wyposazone w narz ↪edzia u latwiaj ↪ace imple-mentacj ↪e wi ↪ekszosci funkcji systemow wspomagania decyzji (DeSanctis i Gallupe,1987). Przede wszystkim, maj ↪a mozliwosci sk ladowania danych zarowno w formietablic, jak i w postaci relacyjnych baz danych. To pierwsze jest istotne, poniewaznaturaln ↪a postaci ↪a wi ↪ekszosci danych jest prostok ↪atna tablica i jej sk ladowaniew relacyjnej bazie danych jest zwykle nieefektywne. Z drugiej strony, funkcjerelacyjnych baz danych s ↪a bardzo przydatne w procesie t lumaczenia wybranychrozwi ↪azan (decyzji) na j ↪ezyk konkretnych procedur zarz ↪adzania. Arkusze kalkula-cyjne wyposazone w roznorodne narz ↪edzia graficznej prezentacji wynikow stanowi ↪atez wygodne i przyjazne dla uzytkownika srodowisko dla implementacji systemowwspomagania decyzji. S ↪a one wi ↪ec idealnym srodowiskiem dla interaktywnej ana-lizy wielokryterialnej (por. Troutt i inni, 1991). Omawiana w tym podrozdzialetechnika przedzia lowego referencyjnego programowania celowego dobrze pasuje dostylu analizy interaktywnej w arkuszu kalkulacyjnym, poniewaz proces interak-tywny jest ca lkowicie otwarty, jak w typowej analizie what–if.

Interaktywna metoda PRPC zosta la zaimplementowana w arkuszu Lotus 1-2-3wyposazonym w dodatkowy pakiet optymalizacyjny What’sBest! (Lindo Systems,1992). Implementacja rozszerza zbior zmiennych oryginalnego modelu decyzyj-nego o zmienne odchylen d−i , dai i dri , dodaje nowe ograniczenia typu (3.48)–(3.49)i wykonuje dwa przebiegi optymalizacji. W pierwszym przebiegu jest minimali-zowana funkcja (3.59), a w drugim funkcja (3.60) przy ustalonej na poprzednim,optymalnym poziomie, wartosci funkcji (3.59). W ten sposob otrzymywane s ↪a dwakolejne zadania optymalizacyjne. Do implementowania ograniczen (3.48)–(3.49) ifunkcji osi ↪agni ↪ecia (3.59)–(3.60) zosta l przygotowany specjalny szablon. Poniewazdodatkowe rownania celowe (3.48)–(3.49) uzywaj ↪a tylko wartosci funkcji oceny zoryginalnego modelu, szablon jest powi ↪azany z oryginalnym modelem tylko poprzezkilka komorek odnosz ↪acych si ↪e do funkcji oceny fi(x) w (3.48). Aby skorzystac zmozliwosci analizy PRPC, uzytkownik potrzebuje tylko skopiowac szablon do ar-kusza zawieraj ↪acego problem decyzyjny i wskazac funkcje oceny, ktore maj ↪a bycanalizowane. Uzyty pakiet optymalizacyjny (Lindo Systems, 1992) pozwala anali-zowac wielokryterialne modele liniowe i ca lkowitoliczbowe. Jednakze PRPC stosujesi ↪e takze do problemow nieliniowych i moze byc implementowane do nich, jesli tylkododatkowe oprogramowanie pozwala na optymalizacj ↪e nieliniow ↪a.

Wi ↪ekszosc szablonu PRPC jest ukryta przed uzytkownikiem, ktory pracujetylko z jedn ↪a tablic ↪a steruj ↪ac ↪a (por. tablica 3.10). Tablica steruj ↪aca wspomagazarowno ca ly interaktywny proces analizy, jak i przy l ↪aczenie narz ↪edzia PRPC do

Page 117: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 119

oryginalnego modelu (poprzez specyfikacj ↪e funkcji oceny). Wiersze tablicy ste-ruj ↪acej odpowiadaj ↪a poszczegolnym funkcjom oceny. Wszystkie maj ↪a tak ↪a sam ↪aszesciokolumnow ↪a struktur ↪e. Pierwsze cztery kolumny powinny byc wype lnioneprzed rozpocz ↪eciem analizy interaktywnej, aby przy l ↪aczyc szablon do biez ↪acego mo-delu decyzyjnego. Pierwsza kolumna (Objective) zawiera komork ↪e tekstow ↪a prze-znaczon ↪a na nazw ↪e funkcji oceny. Druga kolumna (Max/Min) s luzy do okresleniatypu funkcji. Zawiera ona komork ↪e tekstow ↪a, w ktorej wpisuje si ↪e odpowiedniomax lub min. Trzecia kolumna (Activity) pozwala uzytkownikowi aktywizowac lubdezaktywizowac funkcj ↪e oceny podczas analizy interaktywnej. Czwarta kolumna(Value) jest przeznaczona do pokazywania biez ↪acej wartosci funkcji oceny. Zawierakomork ↪e formu ly, w ktorej na pocz ↪atku powinien byc wpisany adres komorki funk-cji oceny w oryginalnym modelu decyzyjnym. Operacja wpisania adresu przy l ↪aczatablic ↪e steruj ↪ac ↪a do modelu decyzyjnego.

Tablica 3.10

Tablica steruj ↪aca PRPC

Tablica 3.10:Objective Max/Min Activity Value Aspiration Reservation

(0 or 1) level level

tekst tekst liczba formu la liczba liczba

......

......

......

tekst tekst liczba formu la liczba liczba

Zasadnicza cz ↪esc implementacji kryje si ↪e w strukturze danych zawieraj ↪acej de-finicje zmiennych i formu ly. Przygotowany zbior formu l reperezentuje ograniczenia(3.48)–(3.49) w postaci m roz l ↪acznych podzbiorow, z ktorych kazdy odwo luje si ↪e dokonkretnej funkcji oceny fi (i = 1, 2, . . . ,m). Dodatkowe dwie komorki zawieraj ↪aformu ly reprezentuj ↪ace funkcje osi ↪agni ↪ecia (3.59) i (3.60). Zauwazmy, ze dodatkowestruktury s ↪a niezalezne od konkretnego modelu decyzyjnego i dlatego s ↪a uniwer-salne. Jedyne po l ↪aczenie z modelem wyst ↪epuje w ograniczeniach (3.48), ktore s ↪aprzy l ↪aczane do reszty modelu poprzez adresy funkcji oceny w czwartej kolumnietablicy steruj ↪acej.

Drug ↪a cz ↪esc implementacji stanowi makro arkusza. G lownym jego zadaniemjest wy l ↪aczenie zb ↪ednych formu l (3.48)–(3.49) odpowiadaj ↪acych nieaktywnym funk-cjom oceny (zgodnie z wartosciami z trzeciej kolumny tablicy steruj ↪acej) oraz przy-gotowanie zadan dla kazdego z dwoch przebiegow optymalizacji. Operacje te s ↪a re-alizowane za pomoc ↪a standardowych komend arkusza Lotus 1-2-3. Do pierwszegoprzebiegu optymalizacji wy l ↪aczana jest komorka zawieraj ↪aca funkcj ↪e celu (3.60). Popierwszej optymalizacji pomocnicza zmienna wybieraj ↪aca maksimum w (3.59) jestustalana na poziomie wartosci optymalnej i uaktywniana jest funkcja celu (3.60)dla drugiego przebiegu optymalizacji.

Maj ↪ac tablic ↪e steruj ↪ac ↪a przy l ↪aczon ↪a do modelu decyzyjnego mozna rozpocz ↪acanaliz ↪e interaktywn ↪a, jako ze model zostanie automatycznie rozszerzony o ogra-

Page 118: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

120 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

niczenia (3.48)–(3.49) zawarte w szablonie. Uzytkownik steruje analiz ↪a poprzezedycj ↪e poziomow aspiracji i/lub rezerwacji, czyli uzywaj ↪ac kolumn pi ↪atej (Aspira-tion level) i szostej (Reservation level) w tablicy steruj ↪acej. Kolumny te zawieraj ↪akomorki przeznaczone do wpisywania odpowiednich liczb. Mozna takze zaktywi-zowac lub dezaktywizowac pewne funkcje oceny w trzeciej kolumnie. Wykonaniemakro generuje odpowiednie rozwi ↪azanie efektywne. Biez ↪ace oceny pojawiaj ↪a si ↪e wczwartej kolumnie (Value) tablicy steruj ↪acej, podczas gdy biez ↪ace wartosci zmien-nych decyzyjnych s ↪a umieszczane w odpowiednich komorkach oryginalnego modelu.Uzytkownik moze prowadzic otwart ↪a analiz ↪e interaktywn ↪a, jak w trybie what–if.Standardowe mozliwosci sk ladowania i graficznej prezentacji danych w arkuszu kal-kulacyjnym pozwalaj ↪a zapami ↪etywac i porownywac kilka rozwi ↪azan efektywnych wsposob najbardziej dogodny dla uzytkownika.

Cz ↪esto jako pierwszy krok analizy wielokryterialnej stosuje si ↪e jednokryterialn ↪aoptymalizacj ↪e wzgl ↪edem kazdej funkcji oceny z osobna, co umozliwia wyznaczeniemacierzy konfliktu (por. podrozdzia l 1.4). Dlatego implementacja PRPC zosta lawyposazona w dodatkowe makro wykonuj ↪ace wszystkie optymalizacje jednokry-terialne w jednym wywo laniu. Jest to niewielkie rozszerzenie g lownego makrooptymalizacyjnego uzywaj ↪ace tych samych struktur danych. Macierz konfliktu po-wstaje jako tablica zawieraj ↪aca wartosci wszystkich funkcji oceny (wierszy) otrzy-mywane podczas rozwi ↪azywania poszczegolnych problemow jednokryterialnych (ko-lumn). Dzi ↪eki uzyciu techniki regularyzacyjnej podczas wyliczania macierzy kon-fliktu kazde jednokryterialne rozwi ↪azanie optymalne jest jednoczesnie rozwi ↪azaniemefektywnym oryginalnego problemu wielokryterialnego.

Przyk lad 3.4. Do zademonstrowania analizy wielokryterialnej przeprowadzanej zpomoc ↪a szablonu PRPC w arkuszu kalkulacyjnym uzyjemy ma lego przyk ladowegoproblemu decyzyjnego. Problem wywodzi si ↪e z podr ↪ecznikowego modelu planowa-nia finansowego (Shogan, 1988, rozdz. 4.4), ale my zajmiemy si ↪e jego wielokry-terialn ↪a natur ↪a, podczas gdy w oryginale by l sformu lowany jako jednokryterialnyproblem liniowy. Nalezy zdecydowac, jak inwestowac w okresie 6 miesi ↪ecy pewn ↪akwot ↪e “wolnej gotowki”. Jest kilka mozliwosci inwestowania (lokat terminowych)charakteryzuj ↪acych si ↪e roznymi terminami, stopami procentowymi i wskaznikamiryzyka. Po up lywie terminu lokaty zainwestowana kwota wraz z odsetkami jestnatychmiast dost ↪epna do ponownego zainwestowania. Tworzy to dynamiczn ↪a siecprzep lywu gotowki, ktor ↪a mozna opisac liniowymi rownaniami bilansu (por. Sho-gan, 1988). Technika modelowania w arkuszu kalkulacyjnym (por. Lindo Systems,1990) pozwala zapisac model decyzyjny w przejrzystej postaci prostok ↪atnej tablicyzmiennych decyzyjnych (kwoty zainwestowane), z wierszami odpowiadaj ↪acymi po-szczegolnym mozliwosciom inwestowania, podczas gdy rownania bilansu s ↪a ukrytew dodatkowych formu lach.

Celem jest znalezienie scenariusza inwestowania, ktory maksymalizuje zyskna koniec 6–miesi ↪ecznego okresu, minimalizuje ryzyko i maksymalizuje mobilnoscgotowki. Zysk jest zdefiniowany jako roznica mi ↪edzy uzyskan ↪a kwot ↪a koncow ↪a akwot ↪a zainwestowan ↪a na pocz ↪atku. W celu okreslenia ryzyka definiujemy mie-si ↪eczny wskaznik ryzyka dla zainwestowanych kwot jako sum ↪e biez ↪acych inwestycji

Page 119: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 121

wazon ↪a odpowiednimi wskaznikami ryzyka lokat. Funkcj ↪a oceny (minimalizowan ↪a)jest wtedy maksimum z 6 miesi ↪ecznych wskaznikow ryzyka. Jako miar ↪e mobilnoscigotowki rozpatrujemy kwot ↪e dost ↪epn ↪a do szybkiego wycofania. W tym celu obli-czamy dla kazdego miesi ↪aca dwie wielkosci: kwot ↪e dost ↪epn ↪a do wycofania w czasiejednego miesi ↪aca i kwot ↪e dost ↪epn ↪a do wycofania w czasie dwoch miesi ↪ecy. Pozwalato na sformu lowanie dwoch funkcji oceny (maksymalizowanych) wyrazaj ↪acych mi-nimum po 6 miesi ↪acach kwot dost ↪epnych do wycofania odpowiednio w czasie 1 i2 miesi ↪ecy. Rozpatrywany problem decyzyjny jest ostatecznie sformu lowany jakowielokryterialny problem liniowy z czterema funkcjami oceny nazywanymi odpo-wiednio: Zysk, Ryzyko, EW–1 i EW–2.

Wykonuj ↪ac odpowiednie makro otrzymujemy macierz konfliktu oraz wektoryutopii i nadiru pokazane w tablicy 3.11. Zauwazmy, ze wartosci ocen zmieniaj ↪asi ↪e znacz ↪aco w zaleznosci od tego, ktora funkcja oceny jest wybrana do jednokry-terialnej optymalizacji. Ponadto widac zdecydowany konflikt pomi ↪edzy Zyskiem ipozosta lymi funkcjami oceny.

Tablica 3.11

Macierz konfliktu

Tablica 3.11:Optymalizowana funkcja

Funkcja Zysk Ryzyko EW–1 EW–2 Utopia Nadir

Zysk 12.36 9.35 9.35 10.80 12.36 9.35

Ryzyko 9.54 1.08 1.08 4.00 1.08 9.54

EW–1 0.00 101.50 101.50 0.00 101.50 0.00

EW–2 0.00 101.50 101.50 103.50 103.50 0.00

Tablica 3.12

Analiza problemu przyk ladowego z PRPC

Tablica 3.12:F-kcja Asp. Rez. Rozw. Asp. Rez. Rozw.

Iteracja 1 Iteracja 2

Zysk 12.36 9.35 10.86 12.36 9.35 10.51

Ryzyko 1.08 9.54 5.26 3.00 4.00 3.62

EW–1 101.50 0.00 51.15 50.00 30.00 37.65

EW–2 103.50 0.00 52.17 50.00 30.00 65.48

Iteracja 3 Iteracja 4

Zysk 12.36 11.00 10.76 12.36 11.00 11.04

Ryzyko 3.00 4.00 4.19 3.00 5.00 4.94

EW–1 50.00 30.00 26.26 40.00 20.00 20.56

EW–2 50.00 30.00 53.49 50.00 30.00 30.59

Page 120: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

122 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Przebieg analizy interaktywnej zosta l przedstawiony w tablicy 3.12. Napocz ↪atku uzylismy wektora utopii jako poziomow aspiracji i wektora nadiru jako po-ziomow rezerwacji, co da lo w wyniku tak zwane rozwi ↪azanie neutralne. Analizuj ↪acrozwi ↪azanie neutralne spostrzeglismy, ze poziom Ryzyka nie jest satysfakcjonuj ↪acy,podczas gdy wartosci obu ocen mobilnosci s ↪a lepsze od spodziewanych. Dlatego wIteracji 2 zmienione zosta ly poziomy aspiracji i rezerwacji dla tych funkcji. W wy-niku otrzymalismy rozwi ↪azanie efektywne z mniejszym Zyskiem i bardzo dobrymipozosta lymi ocenami. Zauwazmy, ze wartosc EW–2 jest nawet lepsza od odpo-wiadaj ↪acego jej poziomu aspiracji, gdyz mog la byc poprawiona bez pogarszaniainnych ocen. To w lasnie rozni podejscie PRPC od standardowego programowaniacelowego. Pragniemy znalezc rozwi ↪azanie z wi ↪ekszym Zyskiem. Dlatego w Ite-racji 3 podnosimy odpowiedni poziom rezerwacji do 11. W wyniku otrzymujemyrozwi ↪azanie efektywne z wszystkimi ocenami gorszymi od odpowiadaj ↪acych im po-ziomow rezerwacji. Zatem po ponownym rozpatrzeniu naszych oczekiwan, decydu-jemy si ↪e na os labienie wymagan na Ryzyko i EW–1. Pozwala to na otrzymanie wIteracji 4 rozwi ↪azania efektywnego, w ktorym wszystkie oceny spe lniaj ↪a na lozonena nie wymagania. Decydujemy si ↪e na przyj ↪ecie tego rozwi ↪azania jako koncowego.Wybor koncowego rozwi ↪azania zalezy oczywiscie od preferencji uzytkownika. Naszprzyk lad sesji PRPC pokazuje, jak latwo decydent moze poznac problem decyzyjnyi sterowac analiz ↪a zbioru rozwi ↪azan efektywnych pracuj ↪ac w trybie what–if arkuszakalkulacyjnego. �

W podejsciu PRPC poziomy rezerwacji s ↪a posrednio uzywane do definiowa-nia wag wai = 1/(ri − ai). Mozna rozpatrywac standardowe podejscie PC z takzdefiniowanymi wagami jako prostsz ↪a technik ↪e do zaimplementowania w arkuszukalkulacyjnym. W kolejnym przyk ladzie przedstawiamy wyniki eksperymentowobliczeniowych s luz ↪acych do porownania tych dwoch podejsc.

Przyk lad 3.5. Rozpatrujemy modele wazonego i minimaksowego programowaniacelowego z wagami wi = 1/(ri − ai). Ponadto pozwalamy, aby poziomy rezer-wacji by ly uzyte jako drugie cele, definiuj ↪ac w ten sposob programowanie celowez funkcjami kary (Romero, 1991, rozdz. 6). W terminach modelu (3.48)–(3.49)rozpatrywane przez nas funkcje osi ↪agni ↪ecia PC przyjmuj ↪a nast ↪epuj ↪ac ↪a postac

g(d−,da,dr) =

m∑i=1

(dai + γdri )/(ri − ai) (3.61)

g(d−,da,dr) =

m∑i=1

(βd−i + dai + γdri )/(ri − ai) (3.62)

g(d−,da,dr) = maxi=1,...,m

{(dai + γdri )/(ri − ai)} (3.63)

g(d−,da,dr) = maxi=1,...,m

{(βd−i + dai + γdri )/(ri − ai)} (3.64)

Wzor (3.61) reprezentuje jednostronn ↪a wazon ↪a funkcj ↪e osi ↪agni ↪ecia, minimali-zuj ↪ac ↪a tylko odchylenia dodatnie, podczas gdy (3.62) uwzgl ↪ednia takze odchyleniaujemne. W przypadku γ = 1 standardowe odchylenia dodatnie s ↪a rozpatrywane

Page 121: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 123

z odpowiednimi wagami rownymi 1/(ri − ai). Dla γ > 1 wzory definiuj ↪a funkcjeosi ↪agni ↪ecia z dodatkowymi karami za odchylenia przekraczaj ↪ace odpowiadaj ↪ace impoziomy rezerwacji. Wzory (3.63) i (3.64) okreslaj ↪a podobne minimaksowe funkcjeosi ↪agni ↪ecia. Zauwazmy, ze funkcje osi ↪agni ↪ecia PC (3.64) i (3.62) rozni ↪a si ↪e odfunkcji (3.59) i (3.60), uzywanych w podejsciu PRPC, znakiem wspo lczynnikowwagowych zwi ↪azanych z odchyleniami ujemnymi d−i .

Tablica 3.13 jest zestawieniem wynikow standardowego podejscia wazonego PC(3.61) z γ = 1 dla problemu z przyk ladu 3.4. Iteracje od 1 do 4 odpowiadaj ↪a ta-kim samym w tablicy 3.12 w tym sensie, ze uzyto tych samych poziomow aspiracjii rezerwacji. W tablicy 3.13 mozna zaobserwowac znacznie gorsz ↪a sterowalnoscprocesu interaktywnego przez poziomy aspiracji i rezerwacji. W pierwszej itera-cji, uzywaj ↪ac wektora utopii jako wektora aspiracji i wektora nadiru jako wektorarezerwacji, zamiast rozwi ↪azania kompromisowego otrzymujemy rozwi ↪azanie odpo-wiadaj ↪ace jednokryterialnej optymalizacji wzgl ↪edem Ryzyka lub EW–1 (porownajtablica 3.11). W Iteracji 3, mimo zmiany poziomu rezerwacji dla Zysku, otrzy-mujemy ponownie rozwi ↪azanie z Iteracji 2 z wartosci ↪a Zysku ponizej poziomu re-zerwacji, podczas gdy pozosta le kryteria osi ↪agaj ↪a lub przekraczaj ↪a swoje poziomyaspiracji. Podobne cechy ma rozwi ↪azanie w Iteracji 4. Aby otrzymac rozwi ↪azaniez wi ↪ekszym Zyskiem, w Iteracji 5 podnosimy odpowiedni poziom rezerwacji do12. Daje to w efekcie rozwi ↪azanie z Zyskiem=11.04 (jak w Iteracji 4 PRPC, aleznacznie ponizej biez ↪acego poziomu rezerwacji) i wartosci ↪a Ryzyka przekraczaj ↪ac ↪aswoj poziom rezerwacji, podczas gdy kryteria mobilnosci osi ↪agaj ↪a swoje poziomyaspiracji.

Tablica 3.13

Analiza wazonego PC dla problemu przyk ladowego

Tablica 3.13:Iteracja 1 Iteracja 2 Iteracja 3 Iteracja 4 Iteracja 5

Funkcja Rozw. Rozw. Rozw. Rozw. Asp. Rez. Rozw.

Zysk 9.35 10.24 10.24 10.28 12.36 12.00 11.04

Ryzyko 1.08 3.00 3.00 3.00 3.00 5.00 5.60

EW–1 101.50 50.00 50.00 40.00 40.00 20.00 40.00

EW–2 101.50 78.32 78.32 93.71 50.00 30.00 50.00

Uzywaj ↪ac poziomu rezerwacji jako drugiego celu do definicji funkcji kary, moznapoprawic sterowalnosc w podejsciu wazonego PC. W tablicy 3.14 zestawiono wynikidla takiego w lasnie podejscia (z γ = 10) do problemu przyk ladowego, dla takichsamych pi ↪eciu iteracji jak w tablicy 3.13. Mozna zauwazyc popraw ↪e sterowalnosciprzez poziomy rezerwacji w tym sensie, ze rozwi ↪azania s ↪a zmuszane do osi ↪aganiawszystkich poziomow rezerwacji, o ile jest to tylko mozliwe. Jednakze, mimo po-prawy w Iteracji 4, wszystkie trudnosci ze sterowalnosci ↪a wskazane w tablicy 3.13pozostaj ↪a istotne w tablicy 3.14. Dok ladniej, wci ↪az nie ma rozwi ↪azania kompro-misowego w Iteracji 1, a rozwi ↪azanie z Iteracji 4 nie przybliza tak rownomierniepoziomow aspiracji i rezerwacji jak odpowiednie rozwi ↪azanie w tablicy 3.12.

Page 122: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

124 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Tablica 3.14

Analiza problemu przyk ladowego z wazonym PC z funkcj ↪a kary

Tablica 3.14:Iteracja 1 Iteracja 2 Iteracja 3 Iteracja 4 Iteracja 5

Funkcja Rozwi ↪azanie Rozwi ↪azanie Rozwi ↪azanie Rozwi ↪azanie Rozwi ↪azanie

Zysk 9.35 10.24 10.62 11.00 11.62

Ryzyko 1.08 3.00 4.00 5.00 7.17

EW–1 101.50 50.00 41.20 23.55 20.00

EW–2 101.50 78.32 50.00 50.00 30.00

Sterowalnosc, podobna do tej jak ↪a ma podejscie PRPC, moze byc osi ↪agni ↪etaprzy minimaksowym PC z funkcj ↪a kary. W tym podejsciu funkcja osi ↪agni ↪ecia(3.63) rozni si ↪e od pierwszego poziomu funkcji osi ↪agni ↪ecia PRPC (3.59) tylko tym,ze nie uzywa ujemnych wag dla odchylen d−i . Jednakze ujemne wagi i uzyciedrugiego poziomu funkcji osi ↪agni ↪ecia (3.60) s ↪a nieodzowne dla zagwarantowaniaefektywnosci generowanego rozwi ↪azania (Ogryczak i Lahoda, 1992). Standardowetechniki PC naruszaj ↪a w lasnosc P1 i dlatego mog ↪a generowac rozwi ↪azania nieefek-tywne. Ilustruj ↪a to eksperymenty z problemami testowymi generowanymi losowo.Wygenerowano 20 dwukryterialnych problemow ca lkowitoliczbowych zdefiniowa-nych bezposrednio w dwuwymiarowej przestrzeni ocen (tzn. yi = fi(x) = xi). Dlakazdego problemu wygenerowano losowo 10 zbiorow poziomow aspiracji i rezerwa-cji. Wszystkie rozwi ↪azania dopuszczalne s ↪a zawarte w kwadracie o wierzcho lkach(0, 0), (0, 100), (100, 100) i (100, 0). Ponadto zosta ly wygenerowane losowo dwienierownosci odcinaj ↪ace wierzcho lek (0, 0); jedna z wierzcho lka (0, 100) i druga zwierzcho lka (100, 0). Wektory aspiracji wygenerowano jako punkty o wspo lrz ↪ednychca lkowitych nalez ↪ace do trojk ↪ata o wierzcho lkach (0, 0), (0, 99) i (99, 0). 87% wyge-nerowanych wektorow aspiracji okaza lo si ↪e byc nieosi ↪agalnymi. Poziomy rezerwacjiwygenerowano losowo jako liczby ca lkowite spe lniaj ↪ace nierownosci ai + 1 ≤ ri ≤100. 44% sposrod wektorow rezerwacji okaza lo si ↪e nieosi ↪agalne. Wszystkie liczbylosowe by ly generowane zgodnie z rozk ladem jednostajnym.

Tablica 3.15

Statystyka wynikow dla generowanych losowo problemow ca lkowitoliczbowych

Tablica 3.15:Funkcje osi ↪agni ↪ecia z β = γ = 1

(3.61) (3.62) (3.63) (3.64) (3.59) (3.60)(3.59)

(3.60)

Nie osi ↪agni ↪eta efektywnosc 15% 30% 17% 30% 20% 0% 0%

Nie osi ↪agni ↪ete poz. rezerwacji 50% 50% 44% 44% 44% 82% 44%

Nie osi ↪agni ↪ete poz. aspiracji 87% 87% 87% 87% 87% 98% 87%

Nak ladaj ↪ace si ↪e rozwi ↪azania 27% 21% 24% 18% 20% 66% 26%

W tablicach 3.15 i 3.16 s ↪a zestawione wyniki dla roznych funkcji osi ↪agni ↪ecia

Page 123: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 125

Tablica 3.16

Statystyka wynikow dla generowanych losowo problemow ca lkowitoliczbowych

Tablica 3.16:Funkcje osi ↪agni ↪ecia z β = 0.1 i γ = 10

(3.61) (3.62) (3.63) (3.64) (3.59) (3.60)(3.59)

(3.60)

Nie osi ↪agni ↪eta efektywnosc 11% 26% 13% 21% 15% 0% 0%

Nie osi ↪agni ↪ete poz. rezerwacji 44% 44% 44% 44% 44% 44% 44%

Nie osi ↪agni ↪ete poz. aspiracji 87% 87% 87% 87% 87% 90% 87%

Nak ladaj ↪ace si ↪e rozwi ↪azania 19% 14% 23% 17% 19% 27% 25%

na problemach testowych wygenerowanych losowo. To porownanie zawiera czteryfunkcje osi ↪agni ↪ecia PC (3.61)–(3.64), funkcje (3.59) i (3.60) z podejscia PRPCrozpatrywane oddzielnie i w koncu technik ↪e PRPC opart ↪a na leksykograficznejminimalizacji funkcji (3.59) i (3.60). Kolejne wiersze tablic zawieraj ↪a: procentwyznaczonych rozwi ↪azan, ktore nie spe lniaj ↪a wymagan efektywnosci, procent wyz-naczonych rozwi ↪azan, ktore nie osi ↪agn ↪e ly swoich poziomow rezerwacji (y1 > r1 luby2 > r2), procent wyznaczonych rozwi ↪azan, ktore nie osi ↪agn ↪e ly swoich poziomowaspiracji (y1 > a1 lub y2 > a2) oraz sredni procent wyznaczonych nak ladaj ↪acychsi ↪e rozwi ↪azan. Latwo zauwazyc, ze wszystkie funkcje osi ↪agni ↪ecia PC wygene-rowa ly 11–30% rozwi ↪azan nieefektywnych, mimo ze tylko 13% wektorow aspira-cji by lo osi ↪agalnych. W istocie, poza technik ↪a PRPC tylko funkcja (3.60) wy-generowa la wy l ↪acznie rozwi ↪azanie efektywne. Jednakze funkcja (3.60), w przy-padku β = γ = 1 odpowiadaj ↪aca standardowemu podejsciu wazonemu (1.19),okaza la si ↪e bardzo s labo sterowalna przez poziomy aspiracji i rezerwacji. Wszyst-kie podejscia bazuj ↪ace na minimaksowych funkcjach osi ↪agni ↪ecia, l ↪acznie z technik ↪aPRPC, osi ↪agn ↪e ly wszystkie osi ↪agalne poziomy aspiracji i rezerwacji. Zauwazmy, zenawet “sp laszczona” wersja techniki PRPC z β = γ = 1 spe lni la w lasnosci P1–P3. Wprowadzenie parametrow β = 0.1 i γ = 10 (tablica 3.16) poprawi lo wynikifunkcji osi ↪agni ↪ecia PC, ale jeszcze pozosta lo wiele rozwi ↪azan nieefektywnych. �

3.4.3 Model leksykograficzny

W podrozdziale 3.3 pokazano, ze referencyjne PC moze byc rozszerzone domodelu leksykograficznego. W modelu PRPC mozna w podobny sposob okreslicpriorytety dla zmiennych odchylen. Poniewaz priorytety dotycz ↪a zmiennych od-chylen a nie poszczegolnych funkcji oceny, to zachowany zostaje oryginalny prob-lem wielokryterialny (1.7) bez hierarchii funkcji oceny, a priorytety s luz ↪a tylkojako dodatkowe narz ↪edzia lepszego wyrazania preferencji decydenta podczas inte-raktywnego poszukiwania rozwi ↪azan efektywnych. Zak ladamy, ze podczas analizyinteraktywnej decydent okresla swoje preferencje poprzez wektory poziomow aspi-racji a i rezerwacji r oraz trzy grupy klas priorytetow P rk dla k = 1, 2, . . . , pr, P

ak dla

k = 1, 2, . . . , pa i P−k dla k = 1, 2, . . . , p−. Klasy priorytetow P rk (k = 1, 2, . . . , pr)

Page 124: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

126 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

reprezentuj ↪a hierarchi ↪e poziomow rezerwacji w sensie waznosci osi ↪agania ocen niegorszych od odpowiadaj ↪acych im poziomow rezerwacji. Analogicznie, klasy prio-rytetow P ak (k = 1, 2, . . . , pa) reprezentuj ↪a hierarchi ↪e poziomow aspiracji w sensiewaznosci osi ↪agania ocen nie gorszych od odpowiadaj ↪acych im poziomow aspira-cji. Klasy P−k (k = 1, 2, . . . , p−) reprezentuj ↪a hierarchi ↪e waznosci osi ↪agania ocenlepszych od odpowiadaj ↪acych im poziomow aspiracji. Kazda z trzech grup klaspriorytetow stanowi rozk lad ca lego zbioru ocen i w szczegolnym przypadku mog ↪aone byc identyczne. Model preferencji decydenta wyrazony w poziomach aspiracjii rezerwacji oraz klasach priorytetow spe lnia nast ↪epuj ↪ace postulaty:P1. Relacja preferencji jest racjonaln ↪a relacj ↪a preferencji, czyli spe lnia warunki

zwrotnosci (1.3), przechodniosci (1.4) i scis lej monotonicznosci (1.5).

P2. Rozwi ↪azanie ze wszystkimi indywidualnymi ocenami fi(x) rownymi odpo-wiadaj ↪acym im poziomom aspiracji jest preferowane w stosunku do rozwi ↪a-zania z przynajmniej jedn ↪a indywidualn ↪a ocen ↪a wi ↪eksz ↪a od odpowiadaj ↪acegojej poziomu aspiracji.

P2a. Rozwi ↪azanie ze wszystkimi indywidualnymi ocenami fi(x) rownymi odpo-wiadaj ↪acym im poziomom rezerwacji jest preferowane w stosunku do rozwi ↪a-zania z przynajmniej jedn ↪a indywidualn ↪a ocen ↪a wi ↪eksz ↪a od odpowiadaj ↪acegojej poziomu rezerwacji.

P3a. Minimalizacja dowolnego odchylenia dai jest wazniejsza od maksymalizacjikazdego odchylenia w do l d−j .

P3b. Minimalizacja dowolnego odchylenia dri jest wazniejsza od minimalizacjikazdego odchylenia daj .

P4a. Jezeli k′ < k′′, to minimalizacja odchylen dri dla i ∈ P rk′ jest wazniejsza odminimalizacji odchylen dri dla i ∈ P rk′′ .

P4b. Jezeli k′ < k′′, to minimalizacja odchylen dai dla i ∈ P ak′ jest wazniejsza odminimalizacji odchylen dai dla i ∈ P ak′′ .

P5. Jezeli k′ < k′′, to maksymalizacja odchylen w do l d−i dla i ∈ P−k′ jestwazniejsza od maksymalizacji odchylen w do l d−i dla i ∈ P−k′′ .

Postulaty P1, P2 i P2a charakteryzuj ↪a model preferencji wykorzystywany wpodejsciu PRPC. Natomiast postulaty P3a, P3b, P4a, P4b i P5 wyrazaj ↪a hierar-chi ↪e minimalizacji odchylen zdefiniowan ↪a za pomoc ↪a klas priorytetow. PostulatyP3a i P3b wyrazaj ↪a w lasnosci relacji preferencji, ktore mog ↪a byc zapisane w pos-taci warunku (3.34) i analogicznego warunku dla poziomow rezerwacji

yi′ > ri′ i yi′′ < ri′′ ⇒ y − ε′ei′ + ε′′ei′′ ≺ y (3.65)

dla 0 < ε′ ≤ yi′ − ri′ , 0 ≤ ε′′ ≤ ri′′ − yi′′

Postulat P5 wyraza w lasnosci relacji preferencji zapisane w postaci warunku (3.36),natomiast postulaty P4a i P4b mog ↪a byc zapisane w postaci warunkow

yi′ > ri′ , yi′′ ≥ ri′′ i kr(i′) < kr(i′′) ⇒ y − ε′ei′ + ε′′ei′′ ≺ y

dla 0 < ε′ ≤ yi′ − ri′ , ε′′ ≥ 0

ri′ ≥ yi′ > ai′ , yi′′ ≥ ai′′ i ka(i′) < ka(i′′) ⇒ y − ε′ei′ + ε′′ei′′ ≺ y

dla 0 < ε′ ≤ yi′ − ai′ , 0 ≤ ε′′ ≤ ri′′ − yi′′

Page 125: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 127

gdzie kr(i) i ka(i) oznaczaj ↪a indeksy klas priorytetow takie, ze odpowiednio i ∈P rkr(i) oraz i ∈ P aka(i).

Hierarchia minimalizacji odchylen moze byc wprowadzona do modelu PRPC zapomoc ↪a nast ↪epuj ↪acych funkcji osi ↪agni ↪ecia

LPRPC : lexmin g(d−,da,dr) = [gr(dr),ga(da),g−(d−)] (3.66)

pod warunkiem, ze (3.48), (3.49) i x ∈ Q

gdzie

gr(dr) = [gr11(dr), gr12(dr), . . . ,grpr,1(dr),grpr,2(dr)] (3.67)

ga(da) = [ga11(da), ga12(da), . . . ,gapa,1(da),gapa,2(da)] (3.68)

g−(d−) = [g−11(d−), g−12(d−), . . . ,g−p−,1(d−),g−p−,2(d−)] (3.69)

grk1(dr) = maxi∈P r

k

(wri dri ) dla k = 1, 2, . . . , pr (3.70)

grk2(dr) =∑i∈P r

k

wri dri dla k = 1, 2, . . . , pr (3.71)

gak1(da) = maxi∈Pa

k

(wai dai ) dla k = 1, 2, . . . , pr (3.72)

gak2(da) =∑i∈Pa

k

wai dai dla k = 1, 2, . . . , pa (3.73)

g−k1(d−) = maxi∈P−k

(−w−i d−i ) dla k = 1, 2, . . . , pr (3.74)

g−k2(d−) =∑i∈P−k

−w−i d−i dla k = 1, 2, . . . , p− (3.75)

Wyst ↪epuj ↪ace w problemie LPRPC wagi w−i , wai i wri mog ↪a przyjmowac do-wolne wartosci dodatnie i nie musz ↪a spe lniac dodatkowych warunkow typu (3.56)dla zagwarantowania w lasciwego obliczania odchylen. Warunki te mozna pomin ↪acw problemie LPRPC, poniewaz wszystkie odchylenia w do l d−i maj ↪a przypisanepriorytety nizsze niz dowolne odchylenie dai i wszystkie odchylenia dai maj ↪a przy-pisane priorytety nizsze niz dowolne odchylenie dri . Zosta lo to sprecyzowane wtwierdzeniu 3.17.

Twierdzenie 3.17 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri i dowol-nych dodatnich wag w−i , wai i wri rozwi ↪azanie optymalne (x, d−, da, dr) problemuLPRPC spe lnia warunki (3.50), czyli

d−i dai = 0, (ri − ai − dai )dri = 0 dla i = 1, 2, . . . ,m

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemuLPRPC. Przypuscmy, ze d−i0 d

ai0> 0 dla pewnego indeksu i0 (1 ≤ i0 ≤ m). Mozemy

wtedy zmniejszyc wartosci obu zmiennych d−i0 i dai0 o t ↪e sam ↪a ma l ↪a dodatni ↪aliczb ↪e. To znaczy, dla dostatecznie ma lej dodatniej liczby δ czworka wektorow(x, d−−δei0 , da−δei0 , dr) jest rozwi ↪azaniem dopuszczalnym dla problemu LPRPC.Ze wzgl ↪edu na dodatniosc wag w−i i wai , spe lnione s ↪a nast ↪epuj ↪ace nierownosci

Page 126: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

128 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

gak1(da − δei0) ≤ gak1(da) i gak2(da − δei0) ≤ gak2(da) dla k = 1, 2, . . . , pa

Ponadto istnieje k0 takie, ze i0 ∈ P ak0 . St ↪ad wynika, ze gak02(da − δei0) < gk02(da),

co przeczy optymalnosci (x, d−, da, dr) dla problemu LPRPC.Dalej przypuscmy, ze (ri0 − ai0 − dai0)dri0 > 0 dla pewnego indeksu i0 (1 ≤

i0 ≤ m). Mozemy wtedy zmniejszyc wartosc zmiennej dri0 i jednoczesnie zwi ↪ekszycwartosc dai0 o tak ↪a sam ↪a ma l ↪a dodatni ↪a liczb ↪e. To znaczy, ze dla dostateczniema lej dodatniej liczby δ wektor (x, d−, da + δei0 , d

r − δei0) jest dopuszczalny dlaproblemu LPRPC. Ze wzgl ↪edu na dodatniosc wag wri i wai , spe lnione s ↪a nast ↪epuj ↪acenierownosci

grk1(dr − δei0) ≤ grk1(dr) i grk2(dr − δei0) ≤ grk2(dr) dla k = 1, 2, . . . , pr

Ponadto istnieje k0 takie, ze i0 ∈ P rk0 . St ↪ad wynika, ze grk02(dr−δei0) < grk02(dr), co

przeczy optymalnosci (x, d−, da, dr) dla problemu LPRPC. Zatem (x, d−, da, dr)spe lnia oba warunki (3.50).

Z okreslenia leksykograficznej funkcji celu (3.66)–(3.75) jest jasne, ze problemLRPC spe lnia postulaty P3a, P3b, P4a, P4b i P5. Kolejne twierdzenia pokazuj ↪a,ze leksykograficzny problem LPRPC zawsze generuje rozwi ↪azanie efektywne dlaoryginalnego problemu wielokryterialnego (postulat P1), spe lniaj ↪ac jednoczesniepostulaty P2 i P2a.

Twierdzenie 3.18 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri orazdowolnych dodatnich wag w−i , wai i wri , jezeli (x, d−, da, dr) jest rozwi ↪azaniemoptymalnym problemu LPRPC, to x jest rozwi ↪azaniem efektywnym problemu wie-lokryterialnego (1.7).

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemuLPRPC. Przypuscmy, ze x nie jest rozwi ↪azaniem efektywnym problemu (1.7), czyliistnieje wektor x ∈ Q taki, ze

fi(x) ≤ fi(x) dla i = 1, 2, . . . ,m (3.76)

i dla pewnego indeksu i0 (1 ≤ i0 ≤ m)

fi0(x) < fi0(x) (3.77)

Na mocy twierdzenia 3.17 odchylenia d−i , dai i dri spe lniaj ↪a rownosci

dri = (fi(x)− ri)+, dai = (fi(x)− dri − ai)+, d−i = (ai − fi(x))+

Zdefiniujmy analogicznie odchylenia dla wektora x jako

dri = (fi(x)− ri)+, dai = (fi(x)− dri − ai)+, d−i = (ai − fi(x))+

Czworka wektorow (x,d−,da,dr) jest rozwi ↪azaniem dopuszczalnym problemuLPRPC i z (3.76) wynika

dri ≤ dri , dai ≤ dai i d−i ≥ d−i dla i = 1, 2, . . . ,m

St ↪ad, dla dowolnych dodatnich wag w−i , wai i wri prawdziwe s ↪a nast ↪epuj ↪acenierownosci

Page 127: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 129

grk1(dr) ≤ grk1(dr) i grk2(dr) ≤ grk2(dr) dla k = 1, 2, . . . , pr

gak1(da) ≤ gak1(da) i gak2(da) ≤ gak2(da) dla k = 1, 2, . . . , pa

g−k1(d−) ≤ g−k1(d−) i g−k2(d−) ≤ g−k2(d−) dla k = 1, 2, . . . , p−Ponadto istniej ↪a k−, ka i kr takie, ze i0 ∈ P−k− , i0 ∈ P aka i i0 ∈ P rkr . A wi ↪ec, zgodnie

z (3.77), dla dowolnych dodatnich wag w−i , wai i wri prawdziwa jest przynajmniejjedna z nierownosci

grkr2(dr) < grkr2(dr) lub gaka2(da) < gaka2(da) lub g−k−2(d−) < g−k−2(d−)

co przeczy optymalnosci (x, d−, da, dr) dla problemu LPRPC. Zatem x jestrozwi ↪azaniem efektywnym oryginalnego problemu wielokryterialnego (1.7).

Twierdzenie 3.19 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri orazdowolnych dodatnich wag w−i , wai i wri , jezeli (x, d−, da, dr) jest rozwi ↪azaniemoptymalnym problemu LPRPC, to odchylenie dri jest dodatnie tylko wtedy, gdy nieistnieje zaden wektor x ∈ Q taki, ze fi(x) ≤ ri dla i = 1, 2, . . . ,m.

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemuLPRPC. Przypuscmy, ze dri0 > 0 (czyli fi0(x) > ri0) dla pewnego indeksu i0(1 ≤ i0 ≤ m) i istnieje wektor x ∈ Q taki, ze fi(x) ≤ ri dla i = 1, 2, . . . ,m.Zdefiniujmy odchylenia dla wektora x

dri = (fi(x)− ri)+ = 0, dai = (fi(x)− dri − ai)+ ≥ 0, d−i = (ai − fi(x))+ ≥ 0

Czworka wektorow (x,d−,da,dr) jest rozwi ↪azaniem dopuszczalnym problemuLPRPC i dla dowolnych dodatnich wag w−i , wai i wri prawdziwe s ↪a nast ↪epuj ↪acenierownosci

grk1(dr) = 0 ≤ grk1(dr) i grk2(dr) = 0 ≤ grk2(dr) dla k = 1, 2, . . . , pr

Ponadto istnieje k0 taki, ze i0 ∈ P rk0 . St ↪ad grk01(dr) = 0 < wri0 dri0≤ grk01(dr),

co przeczy optymalnosci (x, d−, da, dr) dla problemu LPRPC. Zatem nie istniejezaden wektor x ∈ Q taki, ze fi(x) ≤ ri dla i = 1, 2, . . . ,m.

Twierdzenie 3.20 Dla dowolnych poziomow aspiracji i rezerwacji ai < ri orazdowolnych dodatnich wag w−i , wai i wri , jezeli (x, d−, da, dr) jest rozwi ↪azaniemoptymalnym problemu LPRPC, to odchylenie dai jest dodatnie tylko wtedy, gdy nieistnieje zaden wektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m.

Dowod. Niech (x, d−, da, dr) b ↪edzie rozwi ↪azaniem optymalnym problemuLPRPC. Przypuscmy, ze dai0 > 0 (czyli fi0(x) > ai0) dla pewnego indeksu i0(1 ≤ i0 ≤ m) i istnieje wektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m.Zdefiniujmy odchylenia dla wektora x

dri = (fi(x)− ri)+ = 0, dai = (fi(x)− dri − ai)+ = 0, d−i = (ai − fi(x))+ ≥ 0

Czworka wektorow (x,d−,da,dr) jest rozwi ↪azaniem dopuszczalnym problemuLPRPC i dla dowolnych dodatnich wag w−i , wai i wri prawdziwe s ↪a nast ↪epuj ↪acenierownosci

Page 128: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

130 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

grk1(dr) = 0 ≤ grk1(dr) i grk2(dr) = 0 ≤ grk2(dr) dla k = 1, 2, . . . , pr

gak1(da) = 0 ≤ gak1(da) i gak2(da) = 0 ≤ gak2(da) dla k = 1, 2, . . . , pa

Ponadto istnieje k0 taki, ze i0 ∈ P ak0 . St ↪ad gak01(da) = 0 < wai0 dai0≤ gak01(da),

co przeczy optymalnosci (x, d−, da, dr) dla problemu LPRPC. Zatem nie istniejezaden wektor x ∈ Q taki, ze fi(x) ≤ ai dla i = 1, 2, . . . ,m.

Twierdzenie 3.21 Jezeli wektor x ∈ Q jest rozwi ↪azaniem efektywnym zadaniawielokryterialnego (1.7), to wektor (x,0,0,0) jest rozwi ↪azaniem optymalnym prob-lemu LPRPC z wektorem aspiracji a = F(x), dowolnym wektorem rezerwacji r > ai dowolnymi dodatnimi wagami w−i , wai i wri .

Dowod. Zauwazmy, ze dla dowolnych dodatnich wag gr(dr)>= 0, ga(da)

>= 0 i

g−(d−)<= 0, a jednoczesnie gr(0) = 0, ga(0) = 0 i g−(0) = 0. Zatem, gdyby

wektor (x,0,0,0) nie by l rozwi ↪azaniem optymalnym problemu LRPC z wekto-rem aspiracji a = F(x), to istnia lby wektor x ∈ Q taki, ze gr((f(x) − r)+) = 0,ga((f(x)−(f(x)−r)+−f(x))+) = 0 i g−((f(x)−f(x))+) <lex 0. St ↪ad f(x) ≤ f(x),co przeczy efektywnosci wektora x dla zadania wielokryterialnego (1.7).

Zauwazmy, ze zadne z twierdzen 3.17–3.21 nie zak lada wypuk losci zbioru do-puszczalnego Q. Zatem technika LPRPC moze byc stosowana nie tylko do prob-lemow liniowych, lecz takze do problemow ca lkowitoliczbowych.

Problem LPRPC przyjmuje prostsz ↪a postac, gdy wszystkie klasy priorytetows ↪a zbiorami jednoelementowymi (pr = pa = p− = m). Zauwazmy, ze w takimprzypadku

grk1(dr) = grk2(dr) = wrτr(k)drτr(k) dla k = 1, 2, . . . ,m

gak1(da) = gak2(da) = waτa(k)daτa(k) dla k = 1, 2, . . . ,m

g−k1(d−) = g−k2(d−) = −w−τ−(k)d−τ−(k) dla k = 1, 2, . . . ,m

gdzie τ r, τa i τ− s ↪a permutacjami zbioru {1, 2, . . . ,m} takimi, ze P rk = {τ r(k)},P ak = {τa(k)} i P−k = {τ−(k)} dla k = 1, 2, . . . ,m. Zatem funkcje wektorowegr(dr), ga(da) i g−(d−) zdefiniowane w (3.67)–(3.75) mog ↪a byc zast ↪apione przeznast ↪epuj ↪ace

gr(dr) = [gr1(dr), gr2(dr), . . . , grm(dr)]

ga(da) = [ga1 (da), ga2 (da), . . . , gam(da)]

g−(d−) = [g−1 (d−), g−2 (d−), . . . , g−m(d−)]

gdzie grk(dr) = drτr(k), gak(da) = daτa(k) i g−k (d−) = −d−τ−(k) dla k = 1, 2, . . . ,m.

Szczegolnym przypadkiem modelu LPRPC jest problem z pojedynczymi kla-sami priorytetow P r1 = I, P a1 = I i P−1 = I. Funkcje osi ↪agni ↪ecia dla takiegoproblemu mozemy zapisac w postaci

gr(dr) = [gr1(dr), gr2(dr)] =

[max

i=1,...,m(wri d

ri ),

m∑i=1

wri dri

](3.78)

Page 129: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

3.4. PRZEDZIA LOWE REFERENCYJNE PROGRAMOWANIE CELOWE 131

ga(da) = [ga1 (da), ga2 (da)] =

[max

i=1,...,m(wai d

ai ),

m∑i=1

wai dai

](3.79)

g−(d−) = [g−1 (d−), g−2 (d−)] =

[max

i=1,...,m(−w−i d

−i ),

m∑i=1

−w−i d−i

](3.80)

Zadanie LPRPC (3.37) z funkcjami osi ↪agni ↪ecia (3.78)–(3.80) definiuje mo-del przedzia lowego referencyjnego programowania celowego bez priorytetow mi-nimalizacji odchylen w poszczegolnych grupach. Rozni si ↪e on od wprowadzonegowczesniej modelu PRPC (3.53)–(3.55) nie tylko form ↪a, lecz rowniez w lasnosciami.O ile w modelu PRPC wspo lczynniki wagowe musz ↪a spe lniac warunek (3.56), tomodel LPRPC bez klas priorytetow wymaga jedynie dodatniosci wag (twierdzenia3.17–3.21). Wynika to z przyj ↪etych w modelu preferencji dla LPRPC dodatkowychpostulatow P3a i P3b. W lasnosci relacji preferencji (3.34) i (3.65) rownowaznetym postulatom nie wynikaj ↪a z postulatow P2 i P2a. W lasnosci (3.34) i (3.65)nie posiada ani model preferencji zadania PRPC, ani model preferencji standar-dowych przedzia lowych metod punktu referencyjnego opartych na parametryzacji(3.13). Dok ladniej, metody punktu referencyjnego oparte na parametryzacji (3.13)spe lniaj ↪a warunki (3.34) i (3.65) w przypadku dwoch funkcji oceny (m = 2), alemog ↪a ich nie spe lniac przy wi ↪ekszej liczbie funkcji.

Zauwazmy, ze postulaty P2 i P2a okreslaj ↪a jedynie, ze wektory aspiracji irezerwacji s ↪a preferowane w stosunku do wszystkich wektorow ocen spe lniaj ↪acychodpowiednio warunki y 6�r a (por. (3.2)) i y 6�r r (por. (3.9)). Postulaty te nie pre-cyzuj ↪a regu l preferencji dla roznych wektorow ocen y′ 6�r a i y′′ 6�r a lub y′ 6�r r iy′′ 6�r r. Na przyk lad, w przedzia lowych metodach punktu referencyjnego opartychna parametryzacji (3.13) z przedzia lami liniowymi funkcjami skaluj ↪acymi (3.12) zr2−a2 = r3−a3, β > 0.1 i γ < 10 wektor ocen (a1 + 1, a2 + 1, a3−10) jest prefero-wany w stosunku do wektora (a1+1, a2, a3) i wektor ocen (r1+1, r2+1, r3−10) jestpreferowany w stosunku do wektora (r1 +1, r2, r3). Preferowanie w takim wypadkuwektora ocen (a1 + 1, a2, a3) i odpowiednio (r1 + 1, r2, r3) wydaje si ↪e byc zgodne zintuicyjnym poj ↪eciem poziomow aspiracji i rezerwacji oraz z lez ↪ac ↪a u podstaw po-dejscia quasi–zadowalaj ↪acego zasad ↪a, ze decydent koncentruje uwag ↪e na poprawiewartosci tych ocen, ktore nie osi ↪agn ↪e ly swoich poziomow aspiracji (lub odpowiedniorezerwacji). Odpowiada to przyj ↪eciu za lozenia, ze wektory aspiracji i rezerwacji de-finiuj ↪a model preferencji spe lniaj ↪acy warunki (3.2) i (3.34) oraz (3.9) i (3.65). Takiw lasnie model preferencji realizuje LPRPC niezaleznie od wartosci wspo lczynnikowwagowych, podczas gdy w standardowych przedzia lowych metodach punktu refe-rencyjnego, opartych na parametryzacji (3.13) z funkcjami si postaci (3.11) lub(3.12), wymaga to stosowania arbitralnie ma lego wspo lczynnika β > 0 i arbitralnieduzego wspo lczynnika γ. Zatem, nawet w przypadku braku priorytetow, LPRPCnie jest modelem standardowych metod punktu referencyjnego zapisanym w ter-minach programowania celowego, lecz jakosciowo inn ↪a metod ↪a, scislej realizuj ↪ac ↪aquasi–zadowalaj ↪acy model preferencji decydenta wyrazonych za pomoc ↪a poziomowaspiracji i rezerwacji.

Page 130: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

132 ROZDZIA L 3. METODY PUNKTU REFERENCYJNEGO

Page 131: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Rozdzia l 4

Modele preferencji zelementami rownosci

4.1 Rozwi ↪azania symetrycznie efektywne

4.1.1 Symetryczna efektywnosc

Rozne rozwi ↪azania efektywne problemu wielokryterialnego (1.7) s ↪a rozwi ↪aza-niami najlepszymi w sensie roznych racjonalnych relacji preferencji (por. twierdze-nie 1.3). Wiele praktycznych wielokryterialnych modeli decyzyjnych narzuca do-datkowe w lasnosci relacji preferencji i, co za tym idzie, ogranicza wybor rozwi ↪azaniado odpowiedniego podzbioru ca lego zbioru rozwi ↪azan efektywnych. Ten rozdzia ljest poswi ↪econy problemom wielokryterialnym z ocenami jednorodnymi, ktorychminimalizacja jest jednakowo wazna (Podinowski, 1975). To znaczy, poszczegolneindywidualne oceny yi, chociaz generowane przez rozne funkcje fi, s ↪a wszystkiewyrazone w tej samej skali, co pozwala na porownywanie ich wartosci. Dotyczyto w szczegolnosci sytuacji, gdy poszczegolne funkcje oceny wyrazaj ↪a indywidu-alne oceny roznych uzytkownikow pewnego systemu i poszukuje si ↪e rozwi ↪azaniamozliwie najbardziej zadowalaj ↪acego wszystkich uzytkownikow. Oceny jednorodnepojawiaj ↪a si ↪e w licznych problemach dynamicznych, gdzie poszczegolne funkcjeoceny reprezentuj ↪a t ↪e sam ↪a ocen ↪e w odniesieniu do roznych momentow czasu (Kleini inni, 1992). W problemach stochastycznych oceny jednorodne mog ↪a reprezen-towac rozne mozliwe wartosci niedeterministycznej pojedynczej oceny (Bell i Ra-iffa, 1988). Ponadto wiele technik modelowania problemow decyzyjnych wprowa-dza najpierw oceny jednorodne, a nast ↪epnie dokonuje ich (bezstronnej) agregacji.Dotyczy to na przyk lad agregacji relacji przynaleznosci do zbioru rozmytego (por.Zimmermann, 1985; Yager i Filev, 1995).

W zadaniach z ocenami jednorodnymi i jednakowo waznymi relacja preferen-cji decydenta powinna byc bezstronna ze wzgl ↪edu na indywidualne funkcje oceny.To znaczy, przy danym zestawie funkcji oceny wazny jest tylko rozk lad wartosci

133

Page 132: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

134 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

osi ↪agni ↪etych przez te funkcje dla danej decyzji, a nie jest wazne, jaka funkcja jak ↪awartosc pryj ↪e la. Wymaganie to jest formu lowane matematycznie jako w lasnoscanonimowosci relacji preferencji.

Definicja 4.1 Mowimy, ze relacja preferencji � jest anonimowa (bezstronna)wtedy i tylko wtedy, gdy dla kazdego wektora ocen y ∈ Y

(yτ(1), yτ(2), . . . , yτ(m)) ∼= (y1, y2, . . . , ym) (4.1)

dla dowolnej permutacji τ zbioru I = {1, 2, . . . ,m}.

Relacj ↪e preferencji, ktora oprocz warunkow zwrotnosci (1.3), przechodniosci(1.4) i scis lej monotonicznosci (1.5) spe lnia dodatkowo warunek anonimowosci (4.1),b ↪edziemy dalej nazywac anonimowo racjonaln ↪a relacj ↪a preferencji. Tak ↪a relacj ↪ajest na przyk lad relacja preferencji odpowiadaj ↪aca minimalizacji sumy wszystkichfunkcji oceny

y′ � y′′ ⇔m∑i=1

y′i ≤m∑i=1

y′′i (4.2)

Szereg wielokryterialnych problemow decyzyjnych z jednorodnymi ocenami wy-maga anonimowo racjonalnych relacji preferencji. Jako podstawowego przyk laduproblemu decyzyjnego z anonimowo racjonaln ↪a relacj ↪a preferencji b ↪edziemy uzywacw tym rozdziale zagadnienia lokalizacyjnego. Ogolny problem lokalizacyjny moznasformu lowac nast ↪epuj ↪aco. Dany jest zbior m klientow (jednostek przestrzennych)oraz zbior n potencjalnych lokalizacji obiektow. W szczegolnosci moze to byc pod-zbior (lub ca ly zbior) punktow reprezentuj ↪acych klientow. Ponadto dana jest liczbap (p ≤ n) obiektow do lokalizacji. Decyzj ↪e mozna tu opisac poprzez zmienne bi-narne xj (j = 1, 2, . . . , n) rowne 1, gdy ma byc uzyta j–ta lokalizacja, a 0 w przeciw-nym przypadku. Zmienne decyzyjne xj musz ↪a spe lniac ograniczenie

∑nj=1 xj = p.

Nast ↪epnie zak lada si ↪e, ze dla kazdego klienta i = 1, 2, . . . ,m jest zdefiniowanafunkcja fi(x) rozlokowania obiektow x = (x1, x2, . . . , xn). Jest ona miar ↪a satysfak-cji i–tego klienta z danego rozlokowania obiektow. W typowych sformu lowaniachproblemow lokalizacyjnych funkcja ta jest zwykle zwi ↪azana z odleg losci ↪a i dlategojej mniejsza wartosc oznacza wyzsz ↪a satysfakcj ↪e klienta, a wi ↪ec kazda funkcja fijest minimalizowana. Zatem ogolny problem lokalizacyjny moze byc sformu lowanyjako nast ↪epuj ↪acy wielokryterialny problem minimalizacji

min {f(x) :

n∑j=1

xj = p, xj ∈ {0, 1} dla j = 1, 2, . . . , n} (4.3)

Funkcje fi zalez ↪a zwykle od wspo lczynnikow odleg losci dij (i = 1, 2, . . . ,m; j =1, 2, . . . , n) wyrazaj ↪acych odleg losc i–tego klienta od lokalizacji j. W standardo-wym problemie lokalizacyjnym (bez ograniczen pojemnosciowych) zak lada si ↪e, zewszystkie potencjalne obiekty wykonuj ↪a ten sam rodzaj us lugi i kazdy klient jestobs lugiwany przez obiekt najblizej usytuowany. Zatem poszczegolne funkcje ocenyprzyjmuj ↪a nast ↪epuj ↪ac ↪a postac

fi(x) = minj=1,...,n

{dij : xj = 1} dla i = 1, 2, . . . ,m (4.4)

Page 133: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 135

Funkcje te mozna zapisac w jawnej postaci funkcji kawa lkami liniowych jako

fi(x) = minj=1,...,n

(dij − dxj + d) dla i = 1, 2, . . . ,m (4.5)

gdzie d jest arbitralnie duz ↪a liczb ↪a (wi ↪eksz ↪a od wszystkich wspo lczynnikow od-leg losci dij). Problem (4.3) z funkcjami celu (4.4) lub (4.5) jest klasycznym,najcz ↪esciej analizowanym dyskretnym problemem lokalizacji. Jednakze w wieluproblemach lokalizacyjnych zbior dopuszczalny Q ma bardziej z lozon ↪a struktur ↪e.Decyzje przydzia lu s ↪a zwykle modelowane przy uzyciu dodatkowych zmiennych de-cyzyjnych x′ij (i = 1, 2, . . . ,m; j = 1, 2, . . . , n) rownych 1, gdy lokalizacja j–ta jestuzyta do obs lugi i–tego klienta, a 0 w przeciwnym przypadku. Zmienne przydzia lumusz ↪a spe lniac nast ↪epuj ↪ace ograniczenia

n∑j=1

x′ij = 1 dla i = 1, 2, . . . ,m (4.6)

x′ij ≤ xj dla i = 1, 2, . . . ,m i j = 1, 2, . . . , n (4.7)

x′ij ∈ {0, 1} dla i = 1, 2, . . . ,m i j = 1, 2, . . . , n (4.8)

Przy jawnym uzyciu zmiennych przydzia lu funkcje oceny fi mog ↪a byc zapisane wpostaci liniowej

fi(x) =

n∑j=1

dijx′ij dla i = 1, 2, . . . ,m (4.9)

Problem (4.3) moze byc rozpatrywany jako wielokryterialny problem decyzyjnyz ocenami jednorodnymi. Ponadto przy lokalizacji obiektow publicznych rozk ladodleg losci wsrod klientow jest czynnikiem istotnym i dlatego model preferencjipowinien miec w lasnosc anonimowosci. Zauwazmy, ze w przypadku zbioru po-tencjalnych lokalizacji obiektow b ↪ed ↪acego podzbiorem lokalizacji klientow kazderozwi ↪azanie dopuszczalne przypisuje oceny rowne 0 funkcjom oceny odpowia-daj ↪acym klientom w wybranych lokalizacjach i dodatnie oceny pozosta lym funk-cjom. Kazde rozwi ↪azanie dopuszczalne jest wtedy rozwi ↪azaniem efektywnym prob-lemu (4.3) i wyznacza najlepsze lokalizacje w sensie pewnej racjonalnej relacji pre-ferencji. Dopiero dodanie wymagania anonimowosci relacji preferencji powoduje,ze jest brany pod uwag ↪e rozk lad odleg losci.

Przyjmuj ↪ac jako podstaw ↪e zbior wszystkich anonimowo racjonalnych relacjipreferencji, mozemy zdefiniowac odpowiednie poj ↪ecia dominacji wektorow ocen irozwi ↪azan efektywnych, analogicznie jak dla racjonalnych relacji preferencji w pod-rozdziale 1.2.

Definicja 4.2 Mowimy, ze wektor ocen y′ ∈ Y dominuje symetrycznie y′′ ∈ Y luby′′ jest symetrycznie dominowany przez y′ wtedy i tylko wtedy, gdy y′ ≺ y′′ dlawszystkich anonimowo racjonalnych relacji preferencji.

Definicja 4.3 Mowimy, ze wektor ocen y′ ∈ Y jest symetrycznie indyferentny zy′′ ∈ Y wtedy i tylko wtedy, gdy y′ ∼= y′′ dla wszystkich anonimowo racjonalnychrelacji preferencji.

Page 134: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

136 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Definicja 4.4 Mowimy, ze wektor ocen y′ ∈ Y s labo dominuje symetrycznie y′′ ∈Y lub y′′ jest s labo dominowany symetrycznie przez y′ wtedy i tylko wtedy, gdyy′ � y′′ dla wszystkich anonimowo racjonalnych relacji preferencji.

Relacje symetrycznej dominacji ≺a, indyferencji ∼=a i s labej dominacji �aspe lniaj ↪a warunki (1.1)–(1.2), czyli stanowi ↪a relacj ↪e preferencji �a. Co wi ↪ecej,spe lnia ona warunki zwrotnosci (1.3), przechodniosci (1.4), scis lej monotonicznosci(1.5) i anonimowosci (4.1), czyli jest anonimowo racjonaln ↪a relacj ↪a preferencji. Re-lacja dominacji �a jest najogolniejsz ↪a anonimowo racjonaln ↪a relacj ↪a preferencji ikazda anonimowo racjonalna relacja preferencji � jest z ni ↪a zgodna w tym sensie,ze

y′ �a y′′ ⇒ y′ � y′′

Relacja symetrycznej dominacji moze byc wyrazona jako relacja nierownoscidla wektorow ocen, ktorych wspo lrz ↪edne s ↪a uporz ↪adkowane nierosn ↪aco. Formal-nie mozna to zapisac z uzyciem przekszta lcenia Θ : Rm → Rm porz ↪adkuj ↪acegonierosn ↪aco wspo lrz ↪edne wektorow ocen (por. podrozdzia l 1.3), czyli Θ(y) =(θ1(y), θ2(y), . . . , θm(y)), gdzie θ1(y) ≥ θ2(y) ≥ · · · ≥ θm(y) oraz istnieje per-mutacja τ zbioru I taka, ze θi(y) = yτ(i) dla i = 1, 2, . . . ,m. Zauwazmy, ze relacja

y′ � y′′ ⇔ Θ(y′)<= Θ(y′′) (4.10)

jest zwrotna, przechodnia i anonimowa. Ponadto prawdziwe s ↪a zaleznosci

Θ(y′) ≤ Θ(y′′) ⇔(

Θ(y′)<= Θ(y′′) i Θ(y′′) 6<= Θ(y′)

)Θ(y′) = Θ(y′′) ⇔

(Θ(y′)

<= Θ(y′′) i Θ(y′′)

<= Θ(y′)

)Zatem relacja (4.10) jest relacj ↪a preferencji z relacjami scis lej preferencji i indyfe-rencji okreslonymi odpowiednio jako

y′ ≺ y′′ ⇔ Θ(y′) ≤ Θ(y′′) (4.11)

y′ ∼= y′′ ⇔ Θ(y′) = Θ(y′′) (4.12)

Ponadto dla dowolnego i ∈ I prawdziwa zaleznosc

Θ(y − εei) ≤ Θ(y) dla ε > 0

czyli relacja (4.10), jest anonimowo racjonaln ↪a relacj ↪a preferencji.

Twierdzenie 4.1 Dla dowolnych wektorow ocen y′,y′′ ∈ Y

y′ �a y′′ ⇔ Θ(y′)<= Θ(y′′)

Dowod. Relacja (4.10) jest anonimowo racjonaln ↪a relacj ↪a preferencji. Zatembezposrednio z definicji symetrycznej dominacji wynika prawdziwosc implikacji

y′ �a y′′ ⇒ Θ(y′)<= Θ(y′′)

Dla udowodnienia odwrotnej implikacji za lozmy, ze Θ(y′)<= Θ(y′′). Zauwazmy,

ze dla kazdej anonimowo racjonalnej relacji preferencji � prawdziwa jest zaleznoscy′ ∼= Θ(y′) � Θ(y′′) ∼= y′′. St ↪ad otrzymujemy y′ �a y′′.

Page 135: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 137

Wniosek 4.1 Wektor ocen y′ ∈ Y dominuje symetrycznie y′′ ∈ Y wtedy i tylkowtedy, gdy Θ(y′) ≤ Θ(y′′).

Wniosek 4.2 Wektor ocen y′ ∈ Y dominuje symetrycznie y′′ ∈ Y wtedy i tylkowtedy, gdy istniej ↪a permutacje τ ′ i τ ′′ takie, ze

(y′τ ′(1), y′τ ′(2), . . . , y

′τ ′(m)) ≤ (y′′τ ′′(1), y

′′τ ′′(2), . . . , y

′′τ ′′(m))

Dowod. Dostatecznosc warunku wynika bezposrednio z definicji symetrycznejdominacji. Natomiast jego koniecznosc wynika z wniosku 4.1.

Wniosek 4.3 Dla kazdej anonimowo racjonalnej relacji preferencji � prawdziwes ↪a zaleznosci

Θ(y′)<= Θ(y′′) ⇒ y′ � y′′

Θ(y′) ≤ Θ(y′′) ⇒ y′ ≺ y′′

Relacja dominacji ≺d moze byc ilustrowana za pomoc ↪a tzw. struktury domina-cji (por. (1.10)), czyli przekszta lcenia przyporz ↪adkowuj ↪acego wektorom ocen y ∈ Yzbior dominowania

D(y) = {d ∈ Y : y ≺d y + d} ∪ {0}Z wniosku 4.2 wynika, ze struktura dominacji symetrycznej zalezy od po lozeniawektora y wzgl ↪edem prostej rownych ocen (y1 = y2 = · · · = ym). W ogolnymprzypadku zbior D(y) nie jest stozkiem i nie jest zbiorem wypuk lym. Rysunek 4.1przedstawia D(y) zaczepiony w y, czyli zbior y +D(y).

6

-y1

y2

ty��������

��������

��������

��������

�������

d��������

��������

��������

��������

�������

������

�����

����

�����

�������

������

�����

����

���

��

Rysunek 4.1:Rys. 4.1. Struktura symetrycznej dominacji w R2

Definicja 4.5 Wektor ocen y0 ∈ A nazywamy symetrycznie niezdominowanymwtedy i tylko wtedy, gdy nie istnieje y ∈ A taki, ze y dominuje symetrycznie y0.

Page 136: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

138 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Bezposrednio z definicji wektora symetrycznie niezdominowanego i wniosku 4.1wynikaj ↪a nast ↪epuj ↪ace wnioski.

Wniosek 4.4 Wektor ocen y0 ∈ A jest wektorem symetrycznie niezdominowanymwtedy i tylko wtedy, gdy istnieje anonimowo racjonalna relacja preferencji � taka,ze dla zadnego y ∈ A nie zachodzi y ≺ y0.

Wniosek 4.5 Wektor ocen y0 ∈ A jest wektorem symetrycznie niezdominowanymwtedy i tylko wtedy, gdy nie istnieje y ∈ A taki, ze Θ(y) ≤ Θ(y0).

Twierdzenie 4.2 Wektor ocen y0 ∈ A jest wektorem symetrycznie niezdomino-wanym wtedy i tylko wtedy, gdy istnieje spojna, anonimowo racjonalna relacja pre-ferencji � taka, ze y0 � y dla wszystkich y ∈ A.

Dowod. Za lozmy, ze dla pewnej spojnej, anonimowo racjonalnej relacji preferencji� prawdziwa jest zaleznosc y0 � y dla wszystkich y ∈ A. Zatem dla zadnegoy ∈ A nie zachodzi y � y0. Tym samym, zgodnie z wnioskiem 4.4, wektor y0 jestsymetrycznie niezdominowanym wektorem ocen.

Niech y0 ∈ A b ↪edzie symetrycznie niezdominowanym wektorem ocen. Okreslmyrelacj ↪e

y′ �o y′′ ⇔ maxi=1,...,m

(θi(y′)− θi(y0)) < max

i=1,...,m(θi(y

′′)− θi(y0))

lub

(max

i=1,...,m(θi(y

′)− θi(y0)) = maxi=1,...,m

(θi(y′′)− θi(y0))

i

m∑i=1

y′i ≤m∑i=1

y′′i

)

Dla tak okreslonej relacji y0 �o y dla wszystkich y ∈ A. Latwo sprawdzic, zerelacja �o jest zwrotna, przechodnia, spojna i anonimowa. Ponadto odpowiedniarelacja ≺o przyjmuje postac

y′ ≺o y′′ ⇔ maxi=1,...,m

(θi(y′)− θi(y0)) < max

i=1,...,m(θi(y

′′)− θi(y0))

lub

(max

i=1,...,m(θi(y

′)− θi(y0)) = maxi=1,...,m

(θi(y′′)− θi(y0))

i

m∑i=1

y′i <

m∑i=1

y′′i

)

i spe lnia warunek scis lej monotonicznosci (1.5). Tym samym relacja �o jest spojn ↪a,anonimowo racjonaln ↪a relacj ↪a preferencji, co konczy dowod twierdzenia.

Twierdzenie 4.3 Jezeli zbior osi ↪agalnych wektorow ocen A 6= ∅ jest domkni ↪ety iistnieje wektor y∗ ∈ Y dominuj ↪acy symetrycznie wszystkie osi ↪agalne wektory oceny ∈ A, to istnieje symetrycznie niezdominowany wektor ocen y0 ∈ A.

Page 137: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 139

Dowod. Niech y′ ∈ A b ↪edzie dowolnym osi ↪agalnym wektorem ocen. Rozpatrzmyzbior A′ = {y ∈ A :

∑mi=1 yi ≤

∑mi=1 y′i}. Zbior A′ jest zawarty w zbiorze

Y0 = {y ∈ Y : yi ≥ y∗ dla i = 1, 2, . . . ,m,

m∑i=1

yi ≤m∑i=1

y′i}

gdzie y∗ = mini=1,...,m y∗i . Zatem A′ jest ograniczonym zbiorem domkni ↪etym. Z

tego wynika, ze zadanie

min {m∑i=1

yi : y ∈ A′}

ma rozwi ↪azanie optymalne y0 ∈ A′. Co wi ↪ecej, dla kazdego y ∈ A prawdziwa jestnierownosc

∑mi=1 y0

i ≤∑mi=1 yi, czyli y0 jest rowniez rozwi ↪azaniem optymalnym

zadania

min {m∑i=1

yi : y ∈ A} (4.13)

Zauwazmy, ze relacja preferencji definiowana przez minimalizacj ↪e (4.13) wyraza si ↪ewzorem (4.2) i jest anonimowo racjonaln ↪a relacj ↪a preferencji. Zatem, zgodnie zwnioskiem 4.4, y0 jest symetrycznie niezdominowanym wektorem ocen.

Definicja 4.6 Rozwi ↪azanie dopuszczalne x ∈ Q nazywamy symetrycznie efektyw-nym rozwi ↪azaniem wielokryterialnego problemu (1.7) wtedy i tylko wtedy, gdy wek-tor ocen y = f(x) jest symetrycznie niezdominowany.

Z wnioskow 4.4 i 4.5 i twierdzenia 4.2 wynikaj ↪a nast ↪epuj ↪ace charakterystykirozwi ↪azan symetrycznie efektywnych.

Wniosek 4.6 Wektor dopuszczalny x0 ∈ Q jest symetrycznie efektywnym rozwi ↪a-zaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy istnieje anoni-mowo racjonalna relacja preferencji � taka, ze dla zadnego x ∈ Q nie zachodzif(x) ≺ f(x

0).

Wniosek 4.7 Wektor dopuszczalny x0 ∈ Q jest symetrycznie efektywnym rozwi ↪a-zaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy istnieje spojna,

anonimowo racjonalna relacja preferencji � taka, ze f(x0) � f(x) dla kazdego

x ∈ Q.

Wniosek 4.8 Wektor dopuszczalny x0 ∈ Q jest symetrycznie efektywnym rozwi ↪a-zaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy nie istnieje x ∈ Qtaki, ze Θ(f(x)) ≤ Θ(f(x

0)).

Wniosek 4.9 Dla dowolnej permutacji τ zbioru {1, 2, . . . ,m} wektor x0 ∈ Q jestsymetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy itylko wtedy, gdy jest symetrycznie efektywnym rozwi ↪azaniem zadania

min {(fτ(1)(x), fτ(2)(x), . . . , fτ(m)(x)) : x ∈ Q}

Page 138: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

140 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Wniosek 4.10 Dla dowolnej scisle rosn ↪acej funkcji s : R → R wektor x0 ∈ Qjest symetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7) wtedyi tylko wtedy, gdy jest symetrycznie efektywnym rozwi ↪azaniem zadania

min {(s(f1(x)), s(f2(x)), . . . , s(fm(x))) : x ∈ Q}

Zauwazmy, ze zgodnie z wnioskami 4.9 i 4.10, symetryczna efektywnoscrozwi ↪azania nie zalezy od kolejnosci funkcji oceny i od scisle monotonicznej zmianyskal indywidualnych ocen. W odroznieniu od wniosku 1.9, dotycz ↪acego rozwi ↪azanefektywnych, we wniosku 4.10 wszystkie funkcje oceny s ↪a skalowane za pomoc ↪a tejsamej scisle rosn ↪acej funkcji s.

Symetryczna efektywnosc jest silniejsza od standardowej efektywnosci, a zbiorrozwi ↪azan symetrycznie efektywnych jest podzbiorem standardowego zbioru roz-wi ↪azan efektywnych. Dowodzi tego nast ↪epuj ↪ace twierdzenie.

Twierdzenie 4.4 Kazde rozwi ↪azanie symetrycznie efektywne jest rozwi ↪azaniemefektywnym.

Dowod. Niech x0 b ↪edzie rozwi ↪azaniem symetrycznie efektywnym. Na mocy twier-dzenia 4.4 istnieje anonimowo racjonalna relacja preferencji � taka, ze dla zadnegox ∈ Q nie zachodzi f(x) � f(x

0). Anonimowo racjonalna relacja preferencji jest w

szczegolnosci racjonaln ↪a relacj ↪a preferencji. Zatem, na mocy wniosku 1.3, x0 jestrozwi ↪azaniem efektywnym.

Stanowi ↪ace g lowny przedmiot naszych rozwazan zadania WPL i WPLD maj ↪adomkni ↪ete zbiory rozwi ↪azan dopuszczalnych Q i liniowe funkcje oceny fi. Zatemdomkni ↪ete s ↪a odpowiednie zbiory ocen osi ↪agalnych A. Co wi ↪ecej, w przypadku re-gularnego zadania WPL lub WPLD, zbior Q jest niepusty oraz istniej ↪a rozwi ↪azaniaoptymalne xi (i = 1, 2, . . . ,m) jednokryterialnych zadan (1.9). St ↪ad A 6= ∅ i wszyst-kie osi ↪agalne wektory ocen y ∈ A s ↪a symetrycznie dominowane przez wektor y∗,gdzie y∗i = fi(x

i) dla i = 1, 2, . . . ,m. Z twierdzenia 4.3 wynika wi ↪ec nast ↪epuj ↪acywniosek.

Wniosek 4.11 Regularne zadania WPL i WPLD maj ↪a rozwi ↪azania symetrycznieefektywne.

Przyk lad 4.1. Dla zilustrowania koncepcji symetrycznej dominacji i symetrycznejefektywnosci rozpatrzmy problem lokalizacji dwoch obiektow do obs lugi dziesi ↪eciuklientow. Dla u latwienia analizy problemu przyjmujemy lokalizacje poszczegolnychklientow U1, U2,. . .,U10 jako punkty na osi X o wspo lrz ↪ednych: 0, 4, 5, 6, 8, 17, 18,19, 20 i 28, z ktorych kazdy moze byc potencjaln ↪a lokalizacj ↪a obiektu. Zak ladamy,ze kazdy obiekt ma nieograniczon ↪a pojemnosc i kazdy klient jest obs lugiwany przeznajblizszy obiekt. Zatem problem przyjmuje postac (4.3)–(4.4) z m = n = 10 ip = 2.

Tablica 4.1 zawiera cztery rozne rozwi ↪azania problemu lokalizacji. Pierwszez nich odpowiada podejsciu leksykograficznego minimaksimum (1.38) i polega naumieszczeniu obiektow w punktach U2 i U9. W drugim wierszu tablicy 4.1 znajduje

Page 139: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 141

Tablica 4.1

Rozwi ↪azania zadania lokalizacji dla przyk ladu 4.1

Tablica 4.1:Rozw. Wektor ocen Uporz ↪adkowany wektor ocen

1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

U2 U9 4 0 1 2 4 3 2 1 0 8 8 4 4 3 2 2 1 1 0 0

U1 U9 0 4 5 6 8 3 2 1 0 8 8 8 6 5 4 3 2 1 0 0

U3 U8 5 1 0 1 3 2 1 0 1 9 9 5 3 2 1 1 1 1 0 0

U1 U10 0 4 5 6 8 11 10 9 8 0 11 10 9 8 8 6 5 4 0 0

si ↪e inne rozwi ↪azanie minimaksowe. W tym rozwi ↪azaniu obiekty s ↪a umieszczone wpunktach U1 i U9. Nast ↪epne wiersze zawieraj ↪a rozwi ↪azanie minimalizuj ↪ace sum ↪eocen (1.18) oraz rozwi ↪azanie minimalizuj ↪ace wspo lczynnik Giniego, ktory jest naj-bardziej popularn ↪a miar ↪a rozbieznosci ocen stosowan ↪a w ekonomii (Sen, 1973).Problemami minimalizacji rozbieznosci ocen zajmiemy si ↪e dok ladniej w nast ↪epnympodrozdziale. W pierwszym z tych rozwi ↪azan obiekty s ↪a umieszczone w punktachU3 i U8, a w drugim w punktach U1 i U10.

Zauwazmy, ze zadne sposrod czterech rozwi ↪azan (wektorow ocen) wyst ↪epuj ↪a-cych w tablicy 4.1 nie jest dominowane przez inne. Wszystkie s ↪a rozwi ↪azaniamiefektywnymi, poniewaz ze specyfiki problemu wynika, ze kazde rozwi ↪azanie do-puszczalne jest rozwi ↪azaniem efektywnym. Natomiast uporz ↪adkowany wektor ocendrugiego rozwi ↪azania jest dominowany przez uporz ↪adkowany wektor ocen pierw-szego rozwi ↪azania, a uporz ↪adkowany wektor ocen czwartego rozwi ↪azania jest do-minowany przez trzy pozosta le. Zatem, zarowno rozwi ↪azanie drugie, jak i czwartenie s ↪a symetrycznie efektywne. �

4.1.2 Techniki generacji

Rozwi ↪azania efektywne zadania wielokryterialnego mozna wyznaczac rozwi ↪a-zuj ↪ac skalaryzacje zadania wielokryterialnego (1.13) z funkcj ↪a skalaryzuj ↪ac ↪a s :Rm → R definiuj ↪ac ↪a relacj ↪e preferencji �s spe lniaj ↪ac ↪a warunek scis lej monoto-nicznosci (por. twierdzenie 1.6). Jezeli relacja �s spe lnia ponadto warunek ano-nimowosci (4.1), to generowane przez t ↪e skalaryzacj ↪e rozwi ↪azanie efektywne jestrowniez symetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego. Do-tyczy to w szczegolnosci skalaryzacji (1.18), polegaj ↪acej na minimalizacji sumywszystkich funkcji oceny fi(x), i regularyzowanego zadania minimaksowego (1.36).

Twierdzenie 4.5 Rozwi ↪azanie optymalne zadania (1.18), czyli zadania postaci

min {m∑i=1

fi(x) : x ∈ Q}

jest symetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Page 140: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

142 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Dowod. Niech x0 ∈ Q b ↪edzie rozwi ↪azaniem optymalnym zadania (1.18). Relacjapreferencji definiowana przez zadanie (1.18) wyraza si ↪e wzorem (4.2) i jest anoni-

mowo racjonaln ↪a relacj ↪a preferencji. Zatem, zgodnie z wnioskiem 4.4, f(x0) jest

symetrycznie niezdominowanym wektorem ocen i, co za tym idzie, wektor x0 jestsymetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Twierdzenie 4.6 Rozwi ↪azanie optymalne leksykograficznego zadania (1.36), czylizadania postaci

lexmin {( maxi=1,...,m

fi(x),

m∑i=1

fi(x)) : x ∈ Q}

jest symetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Dowod. Niech x0 ∈ Q b ↪edzie rozwi ↪azaniem optymalnym zadania (1.36). Relacjapreferencji definiowana przez zadanie (1.36) wyraza si ↪e wzorem

y′ � y′′ ⇔ maxi=1,...,m

y′i < maxi=1,...,m

y′′i lub(max

i=1,...,my′i = max

i=1,...,my′′i i

m∑i=1

y′i ≤m∑i=1

y′′i

)i jest anonimowo racjonaln ↪a relacj ↪a preferencji. Zatem, zgodnie z wnioskiem 4.4,f(x

0) jest symetrycznie niezdominowanym wektorem ocen i, co za tym idzie, wektor

x0 jest symetrycznie efektywnym rozwi ↪azaniem zadania (1.7).

Skalaryzacja (1.18) moze byc wykorzystywana do wyznaczania roznych rozwi ↪a-zan efektywnych przez uzywanie roznych wspo lczynnikow wagowych dla poszcze-golnych funkcji oceny (por. wniosek 1.15). Stosowanie roznych wag dla posz-czegolnych funkcji oceny narusza jednak warunek anonimowosci relacji preferencjidefiniowanej przez skalaryzacj ↪e. Dlatego metoda wazenia ocen nie moze byc zasto-sowana przy poszukiwaniu rozwi ↪azan symetrycznie efektywnych.

Zauwazmy, ze wniosek 4.8 moze byc wyrazony w terminach zadania z wektorow ↪afunkcj ↪a uporz ↪adkowanych ocen Θ(f(x)) = (θ1(f(x)), . . . , θm(f(x))), gdzie θi(f(x)),jak poprzednio, oznacza i–t ↪a sk ladow ↪a wektora wyniku operacji porz ↪adkowaniaΘ(f(x))

min {Θ(f(x)) : x ∈ Q} (4.14)

Wniosek 4.12 Rozwi ↪azanie dopuszczalne x ∈ Q jest symetrycznie efektyw-nym rozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy jestrozwi ↪azaniem efektywnym problemu wielokryterialnego (4.14).

Stosuj ↪ac optymalizacj ↪e leksykograficzn ↪a (1.32) do zadania (4.14) otrzymujemyleksykograficzny minimaksowy problem (1.38), czyli zadanie postaci

lexmin {(θ1(f(x)), θ2(f(x)), . . . , θm(f(x))) : x ∈ Q}Na mocy twierdzenia 1.15 i wniosku 4.12 prawdziwy jest nast ↪epuj ↪acy wniosek.

Wniosek 4.13 Rozwi ↪azanie optymalne leksykograficznego zadania minimaksowego(1.38) jest symetrycznie efektywnym rozwi ↪azaniem zadania wielokryterialnego(1.7).

Page 141: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 143

Stosuj ↪ac metod ↪e wag (1.19) do zadania (4.14) mozna generowac rozne rozwi ↪a-zania efektywne problemu (4.14) i, co za tym idzie, rozne symetrycznie efektywnerozwi ↪azania oryginalnego zadania wielokryterialnego (1.7). Podejscie takie odpo-wiada przypisaniu wag do wspo lczynnikow uporz ↪adkowanych wektorow ocen. Tak ↪atechnik ↪e zaproponowa l Yager (1988) w tak zwanej agregacji OWA (Ordered Weigh-ted Averaging). Stosuj ↪ac operator agregacji OWA do wielokryterialnego problemu(1.7) otrzymujemy problem jednokryterialny

min {m∑i=1

wiθi(f(x)) : x ∈ Q} (4.15)

Na mocy wnioskow 4.12 i 1.15 prawdziwy jest nast ↪epuj ↪acy wniosek.

Wniosek 4.14 Dla dowolnych dodatnich wag wi kazde rozwi ↪azanie optymalneproblemu (4.15) jest symetrycznie efektywnym rozwi ↪azaniem problemu wielokry-terialnego (1.7).

Niestety technika agregacji OWA (4.15) nie stanowi zupe lnej parametryzacjica lego zbioru rozwi ↪azan symetrycznie efektywnych. Wynika to ze specyfiki tech-niki wazenia ocen w problemach wielokryterialnych (por. przyk lad 1.2). W przy-padku wielokryterialnych problemow dyskretnych (jak problem lokalizacji (4.3)–(4.4)) istniej ↪a rozwi ↪azania symetrycznie efektywne, ktore nie mog ↪a byc wygenero-wane jako rozwi ↪azania optymalne problemu (4.15) dla zadnego zbioru dodatnichwag. Pokazemy to na ma lym przyk ladzie.

Przyk lad 4.2. Rozpatrzmy problem umiejscowienia pojedynczego obiektu w jed-nej z trzech potencjalnych lokalizacji (P1, P2 i P3) do obs lugi dwoch klientow (C1 iC2). Odleg losci pomi ↪edzy poszczegolnymi klientami i potencjalnymi lokalizacjamis ↪a nast ↪epuj ↪ace: d11 = 15, d12 = 14, d13 = 12, d21 = 10, d22 = 11, d23 = 12.

Zauwazmy, ze wszystkie trzy rozwi ↪azania dopuszczalne s ↪a efektywne w standar-dowym i symetrycznym sensie. Latwo sprawdzic, ze stosuj ↪ac agregacj ↪e OWA niemozna wybrac lokalizacji P2 dla zadnego zbioru dodatnich wag. Jezeli 3w1 < 2w2,to lokalizacja P1 jest jednoznacznym rozwi ↪azaniem optymalnym problemu (4.15).Jezeli 3w1 > 2w2, to lokalizacja P3 jest jednoznacznym rozwi ↪azaniem optymalnymproblemu (4.15). W koncu, gdy 3w1 = 2w2, wtedy obie lokalizacje P1 i P3 s ↪a opty-malne. Lokalizacja P2 nigdy nie jest rozwi ↪azaniem optymalnym problemu (4.15).

Zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan symetrycznie efektywnych moznaotrzymac stosuj ↪ac metody punktu referencyjnego do zadania (4.14). Stosuj ↪ac pa-rametryzacj ↪e (3.4) do zadania (4.14) otrzymujemy

lexmin {( maxi=1,...,m

si(ai, θi(f(x))),

m∑i=1

si(ai, θi(f(x)))) : x ∈ Q}, a ∈ Y (4.16)

Bezposrednio z wnioskow 4.12, 3.1 i twierdzenia 3.2 wynikaj ↪a nast ↪epuj ↪ace wnioski.

Wniosek 4.15 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yirozwi ↪azanie optymalne zadania (4.16) jest symetrycznie efektywnym rozwi ↪azaniemzadania wielokryterialnego (1.7).

Page 142: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

144 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Wniosek 4.16 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to kazde syme-trycznie efektywne rozwi ↪azanie x0 wielokryterialnego zadania (1.7) jest rozwi ↪aza-

niem optymalnym zadania (4.16) dla wektora aspiracji a0 = Θ(f(x0)).

Wniosek 4.17 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to dla dowolnegosymetrycznie efektywnego rozwi ↪azania x0 zadania wielokryterialnego (1.7) istniejewektor poziomow aspiracji a0 ∈ Y taki, ze x0 jest rozwi ↪azaniem optymalnym odpo-wiedniego zadania (4.16).

Zauwazmy, ze poszczegolne wspo lrz ↪edne wektora aspiracji a uzytego w paramet-ryzacji (4.16) odpowiadaj ↪a wspo lrz ↪ednym uporz ↪adkowanego wektora ocen Θ(f(x)).W szczegolnosci, dla wyznaczenia symetrycznie efektywnego rozwi ↪azania x0 za po-moc ↪a parametryzacji (4.16) jako wektor aspiracji nalezy przyj ↪ac a0 = Θ(f(x

0)).

Tym samym mozna ograniczyc si ↪e do uzywania tylko uporz ↪adkowanych wektorowaspiracji (a = Θ(a), czyli a1 ≥ a2 ≥ · · · ≥ am). Jest to rownowazne zast ↪apieniuparametryzacji (4.16) przez nast ↪epuj ↪ac ↪a

lexmin {( maxi=1,...,m

si(θi(a), θi(f(x))),

m∑i=1

si(θi(a), θi(f(x)))) : x ∈ Q} (4.17)

Relacja preferencji parametryzacji (4.17) spe lnia nast ↪epuj ↪acy odpowiednik wa-runku (3.1)

(Θ(y) 6≤ Θ(a) i Θ(y) 6= Θ(a)) ⇒ a ≺ y (4.18)

Oznacza to, ze kazdy wektor ya taki, ze Θ(ya) = Θ(a) jest preferowany w stosunkudo dowolnego wektora ocen y ∈ Y , ktory nie dominuje symetrycznie ya i niestanowi permutacji wektora ya, czyli

y 6�a ya ⇒ ya ≺ y (4.19)

Twierdzenie 4.7 Dla dowolnego wektora aspiracji a ∈ Y , jezeli funkcje si(ai, yi)s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to relacja preferencji de-finiowana przez leksykograficzn ↪a minimalizacj ↪e (4.17) jest zwrotna, przechodnia,scisle monotoniczna i anonimowa oraz spe lnia warunek (4.18).

Dowod. Zwrotnosc i przechodniosc relacji preferencji definiowanej przez mini-malizacj ↪e (4.17) jest oczywista. Anonimowosc relacji wynika z uzycia operatoraporzadku Θ.

Dla wykazania scis lej monotonicznosci zauwazmy, ze relacja (4.10) jest ano-nimowo racjonaln ↪a relacj ↪a preferencji, czyli dla dowolnego i ∈ I prawdziwa jestzaleznosc

Θ(y − εei) ≤ Θ(y) dla ε > 0

St ↪ad, na mocy wnioskow 1.21 i 1.2, otrzymujemy scis l ↪a monotonicznosc relacjipreferencji definiowanej przez minimalizacj ↪e (4.17).

Na mocy twierdzenia 1.11 prawdziwa jest implikacja Θ(y) 6<= Θ(a)⇒ Θ(a) ≺ y.St ↪ad po uwzgl ↪ednieniu, ze Θ(a) ∼= a, otrzymujemy implikacj ↪e (4.18).

Page 143: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 145

Wyst ↪epuj ↪acy w definicji parametryzacji (4.17) operator porz ↪adku Θ powoduje,ze ten problem jest bardzo trudny do implementacji. Dla najprostszych funkcji sipostaci

si(ai, yi) = yi − ai (4.20)

mozliwe jest zast ↪apienie operatora porz ↪adku zadaniem przydzia lu. Zauwazmy, zedla dowolnych wektorow y ∈ Y i a ∈ Y oraz dowolnej permutacji τ zbioru indeksowI prawdziwe s ↪a nast ↪epuj ↪ace zaleznosci

maxi=1,...,m

{θi(y)− aτ(i)} ≥ maxi=1,...,m

{θi(y)− θi(a)}

m∑i=1

(θi(y)− aτ(i)) =

m∑i=1

(θi(y)− θi(a))

Tym samym zadanie (4.17) z funkcjami si postaci (4.20) moze byc zapisane wpostaci

lexmin ( maxi=1,...,m

zi,

m∑i=1

zi)

pod warunkiem, ze x ∈ Q

zi = fi(x)−m∑l=1

aluil,

m∑l=1

uil = 1 dla i = 1, 2, . . . ,m

m∑i=1

uil = 1 dla l = 1, 2, . . . ,m

uil ∈ {0, 1} dla i = 1, 2, . . . ,m; l = 1, 2, . . . ,m

Techniki tej nie mozna jednak rozszerzyc na ogolne funkcje si postaci (3.5) lub(3.7) z roznymi czynnikami skaluj ↪acymi λi.

4.1.3 Podejscie dystrybucyjne

Stosuj ↪ac uporz ↪adkowane wektory aspiracji w parametryzacji (4.17), okreslamyw pewnym sensie preferowany rozk lad ocen. Dla wielokryterialnych problemowdyskretnych ze skonczonymi zbiorami wartosci ocen mozemy zajmowac si ↪e bezpos-rednio dystrybucj ↪a ocen. Niech V = {v0, v1, . . . , vr} (v0 > v1 > · · · > vr) oznaczazbior wszystkich mozliwych roznych wartosci funkcji oceny fi dla x ∈ Q, czyli A ⊂V m ⊂ Y . Mozemy wprowadzic funkcje ca lkowite hk(y) (k = 0, 1, . . . , r) wyrazaj ↪aceliczb ↪e wartosci vk wyst ↪epuj ↪acych w wektorze ocen y = f(x). Analitycznie funkcjehk mozna wprowadzic do modelu poprzez przypisanie im dodatkowych zmiennych(binarnych) uik wed lug wzorow

hk(y) =

m∑i=1

uik dla k = 0, 1, . . . , r (4.21)

yi =

r∑k=0

vkuik dla i = 1, 2, . . . ,m (4.22)

Page 144: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

146 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

r∑k=0

uik = 1 dla i = 1, 2, . . . ,m (4.23)

uik ∈ {0, 1} dla i = 1, 2, . . . ,m i k = 0, 1, . . . , r (4.24)

Zauwazmy, ze∑rk=0 hk(y) = m. Zatem jedna z funkcji, przyjmijmy hr, moze byc

pomini ↪eta i r–wymiarowa funkcja wektorowa h(y) = (h0(y), h1(y), . . . , hr−1(y))jednoznacznie opisuje rozk lad wartosci wspo lrz ↪ednych wektora ocen y

h(y′) = h(y′′) ⇔ Θ(y′) = Θ(y′′)

W wielu problemach dyskretnych wartosci funkcji hk(f(x)) s ↪a dost ↪epne bez-posrednio, bez uzycia dodatkowych zmiennych uik. Dotyczy to w szczegolnosciproblemow lokalizacyjnych z jawnymi zmiennymi przydzia lu (4.6)–(4.8). Po-dzielmy zbior wszystkich indeksow (i, j) i = 1, . . . ,m; j = 1, . . . , n na klasy Ck(k = 0, 1, . . . , r) zdefiniowane rownymi wspo lczynnikami odleg losci dij . Niechd(Ck) (k = 0, 1, . . . , r) oznacza wartosc wspo lczynnika odleg losci dla klasy Ck id(C0) > d(C1) > · · · > d(Cr). Prawdziwa jest wtedy zaleznosc

hk(f(x)) =∑

(i,j)∈Ck

x′ij dla k = 0, 1, . . . , r (4.25)

czyli hk(f(x)) jest liniow ↪a funkcj ↪a zmiennych przydzia lu x′ij wyst ↪epuj ↪acych w za-daniu lokalizacyjnym (4.6)–(4.8).

Maj ↪ac zdefiniowan ↪a wektorow ↪a funkcj ↪e rozk ladu h mozemy zastosowac do niejliniowy operator kumulacji Γ = (γ1, γ2, . . . , γr), gdzie dla q ∈ Rr

γk(q) =

k−1∑l=0

ql dla k = 1, 2, . . . , r (4.26)

W ten sposob otrzymujemy funkcj ↪e wektorow ↪a h(y) = Γ(h(y)), ktorej poszczegolnewspo lrz ↪edne stanowi ↪a skumulowane funkcje rozk ladu

hk(y) =

k−1∑l=0

hl(y) dla k = 1, 2, . . . , r (4.27)

To znaczy, ze funkcja hk(y) wyraza liczb ↪e ocen wi ↪ekszych od vk. Funkcja wek-torowa h(y) = (h1(y), h2(y), . . . , hr(y)) opisuje jednoznacznie rozk lad wartosciwspo lrz ↪ednych wektora ocen y, czyli

h(y′) = h(y′′) ⇔ Θ(y′) = Θ(y′′)

Zatem h jest roznowartosciowym przekszta lceniem zbioru

Rm≥ = {y ∈ Rm : y1 ≥ y2 ≥ · · · ≥ ym} (4.28)

w zbiorZr≤m = {q ∈ Zr : 0 ≤ q1 ≤ q2 ≤ · · · ≤ qr ≤ m} (4.29)

Rozpatrzmy problem wielokryterialny

min {(h1(f(x)), h2(f(x)), . . . , hr(f(x))) : x ∈ Q} (4.30)

Okazuje si ↪e, ze symetryczna dominacja wektorow ocen y = f(x) dla zadaniawielokryterialnego (1.7) jest rownowazna standardowej dominacji wektorow ocenh(y) = (h1(y), h2(y), . . . , hr(y)) dla wielokryterialnego zadania (4.30).

Page 145: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 147

Twierdzenie 4.8 Dla dowolnych wektorow ocen y′,y′′ ∈ V m

h(y′) ≤ h(y′′) ⇔ Θ(y′) ≤ Θ(y′′)

Dowod. Niech h(y′) ≤ h(y′′), czyli hk(y′) ≤ hk(y′′) dla k = 1, 2, . . . , r, gdzie dlaco najmniej jednego indeksu k0 spe lniona jest nierownosc ostra (hk0(y′) < hk0(y′′)).Wtedy oczywiscie Θ(y′) ≤ Θ(y′′).

Za lozmy, ze Θ(y′) ≤ Θ(y′′). Zauwazmy, ze dla dowolnego y ∈ V m, h(y) =h(Θ(y)). Dalej zauwazmy, ze hk(y′) = hk(y′′) = 0, jezeli vk ≥ θ1(y′) i vk ≥ θ1(y′′)oraz hk(y′) = hk(y′′) = m, jesli vk < θm(y′) i vk < θ1(y′′). Co wi ↪ecej, dladowolnego i ∈ I, z tego ze θi(y

′) = vk′ ≤ θi(y′′) = vk′′ wynika, ze hk(y′) ≤ hk(y′′)dla k′ ≤ k ≤ k′′. Zatem h(y′) ≤ h(y′′).

Wniosek 4.18 Wektor ocen y′ ∈ V m symetrycznie dominuje y′′ ∈ V m wtedy itylko wtedy, gdy h(y′) ≤ h(y′′).

Wniosek 4.19 Jezeli A ⊂ V m, to rozwi ↪azanie dopuszczalne x ∈ Q jest syme-trycznie efektywnym rozwi ↪azaniem problemu wielokryterialnego (1.7) wtedy i tylkowtedy, gdy jest ono rozwi ↪azaniem efektywnym problemu wielokryterialnego (4.30).

Zadanie (4.30) w ogolnym przypadku moze miec bardzo duz ↪a liczb ↪e funkcjioceny. Liczba tych funkcji zalezy od liczby roznych wartosci ocen vk. Tym samymproblem liczby funkcji oceny w zadaniu (4.30) wi ↪aze si ↪e z dok ladnosci ↪a rozroznianiawartosci ocen. Na przyk lad, w zadaniach lokalizacyjnych jest to problem przyj ↪etejdok ladnosci rozrozniania odleg losci. W wielu przypadkach przy poszukiwaniu za-dowalaj ↪acej dystrybucji ocen wyroznia si ↪e jedynie niewielk ↪a liczb ↪e klas wartosciocen typu: bardzo dobre, dobre itd. Odpowiada to rozmytemu podejsciu do in-terpretacji ocen. Ponadto wektory ocen problemu (4.30) maj ↪a bardzo przejrzyst ↪ainterpretacj ↪e graficzn ↪a na p laszczyznie, gdzie na osi odci ↪etych odk ladamy wartoscivk, a na osi rz ↪ednych wartosci hk(y) (por. rys. 4.2). Punkty (vk, hk(y)) dla kolej-nych k = 1, 2, . . . , r mog ↪a byc ze sob ↪a po l ↪aczone odcinkami tworz ↪ac laman ↪a mono-toniczn ↪a (nierosn ↪ac ↪a). Kazdy wektor ocen jest wtedy reprezentowany przez wykres lamanej monotonicznej, a nierownosc h(y′) ≤ h(y′′) oznacza, ze zaden punkt la-manej odpowiadaj ↪acej y′ nie znajduje si ↪e powyzej lamanej odpowiadaj ↪acej y′′, aco najmniej jeden punkt znajduje si ↪e ponizej. Istnieje rowniez mozliwosc zdefinio-wania wartosci hv(y) dla dowolnego v ∈ R jako liczby ocen yi wi ↪ekszych od v, czyli

hv(y) = m dla v < vr, hv(y) = hk(y) dla vk ≤ v < vk−1,

hv(y) = 0 dla v ≥ v0 (4.31)

Schodkowy wykres (v, hv(y)) odpowiada wtedy wykresowi “odwroconej” dystry-buanty rozk ladu wartosci yi. W modelach probabilistycznych dominacja wektorowh(y) jest nazywana dominacj ↪a stochastyczn ↪a pierwszego rz ↪edu (Levy, 1992).

Zauwazmy, ze∑rk=1 (vk−1 − vk)hk(y) + mvr =

∑mi=1 yi. Zatem, stosuj ↪ac

do zadania (4.30) technik ↪e wazenia ocen (1.19) z wagami okreslonymi jako wk =vk−1 − vk dla k = 1, 2, . . . , r, otrzymujemy symetrycznie efektywne rozwi ↪azanierownowazne minimalizacji sumy oryginalnych funkcji oceny (1.18).

Page 146: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

148 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

6h

. . . -v

. . .m rr r

r r rv3 v2 v1 v0vr vr−1 vr−2

Rysunek 4.2:Rys. 4.2. Wykres dystrybucyjny h(y)

Stosuj ↪ac optymalizacj ↪e leksykograficzn ↪a (1.32) do zadania (4.30) otrzymujemyproblem leksykograficzny postaci

lexmin {(h1(f(x)), h2(f(x)), . . . , hr(f(x))) : x ∈ Q}

Na mocy definicji optymalizacji leksykograficznej problem ten jest rownowaznyzadaniu leksykograficznemu

lexmin {(h0(f(x)), h1(f(x)), . . . , hr−1(f(x))) : x ∈ Q} (4.32)

Problem (4.32) moze byc wykorzystany do konstrukcji efektywnego algorytmu wy-znaczania minimaksimum leksykograficznego (1.38). Prawdziwe jest nast ↪epuj ↪acetwierdzenie.

Twierdzenie 4.9 Jezeli A ⊂ V m, to wektor x ∈ Q jest rozwi ↪azaniem optymalnymleksykograficznego minimaksowego problemu (1.38) wtedy i tylko wtedy, gdy jest onrozwi ↪azaniem optymalnym leksykograficznego minimaksowego problemu (4.32).

Dowod. Zbior rozwi ↪azan optymalnych zadania (4.32) pokrywa si ↪e ze zbioremrozwi ↪azan optymalnych problemu leksykograficznego

lexmin {(v0h0(f(x)), v1h1(f(x)), . . . , vr−1hr−1(f(x))) : x ∈ Q} (4.33)

gdzie vk = vk − vr dla k = 0, 1, . . . , r − 1.Funkcje hk mozna wyrazic za pomoc ↪a wzorow (4.21)–(4.24). Niech uk =

(uik)i=1,2,...,m. Zauwazmy, ze dla dowolnych wektorow u′k i u′′k spe lniaj ↪acych wa-runki (4.23)–(4.24) prawdziwe s ↪a zaleznosci

vk

m∑i=1

u′ik < vk

m∑i=1

u′′ik ⇔ Θ(vku′k) <lex Θ(vku

′′k)

vk

m∑i=1

u′ik = vk

m∑i=1

u′′ik ⇔ Θ(vku′k) = Θ(vku

′′k)

Co wi ↪ecej, poniewaz vk−1 ≥ vk dla k = 1, 2, . . . , r − 1, to prawdziwe s ↪a zaleznosci

Page 147: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 149(v0

m∑i=1

u′i0, . . . , vr−1

m∑i=1

u′i,r−1

)<lex

(v0

m∑i=1

u′′i0, . . . , vr−1

m∑i=1

u′′i,r−1

)⇔

⇔ Θ(

r−1∑k=0

vku′k) <lex Θ(

r−1∑k=0

vku′′k)(

v0

m∑i=1

u′i0, . . . , vr−1

m∑i=1

u′i,r−1

)=

(v0

m∑i=1

u′′i0, . . . , vr−1

m∑i=1

u′′i,r−1

)⇔

⇔ Θ(

r−1∑k=0

vku′k) = Θ(

r−1∑k=0

vku′′k)

Dalej zauwazmy, ze zgodnie ze wzorami (4.22)–(4.24)

r−1∑k=0

vkuik = fi(x)− vr dla i = 1, 2, . . . ,m

Zatem wektor x ∈ Q jest rozwi ↪azaniem optymalnym zadania leksykograficznego(4.32) wtedy i tylko wtedy, gdy jest rozwi ↪azaniem optymalnym zadania leksyko-graficznego

lexmin {(θ1(f(x))− vr, θ2(f(x))− vr, . . . , θm(f(x))− vr) : x ∈ Q}ktore ma dok ladnie taki sam zbior rozwi ↪azan optymalnych jak standardowe zadanieminimaksimum leksykograficznego (1.38).

Przyk lad 4.3. Dla ilustracji, ze problem leksykograficzny (4.32) pomimo duzejliczby funkcji oceny hk moze byc znacznie latwiejszy do rozwi ↪azania niz orygi-nalny problem minimaksimum leksykograficznego (1.38), przedstawimy wyniki eks-perymentow obliczeniowych na losowo generowanych problemach lokalizacyjnych.Rozwazamy problemy lokalizacji jednego obiektu wsrod zadanego zbioru punktow(p = 1, m = n). W eksperymentach generowano losowo (rozk lad jednostajny)n punktow o ca lkowitych wspo lrz ↪ednych od 0 do 100. Dla okreslenia odleg loscimi ↪edzy punktami najpierw zosta ly obliczone odleg losci euklidesowe (norma l2),a nast ↪epnie zaokr ↪aglone do przyj ↪etego kroku (dok ladnosci) odleg losci. Ekspery-menty zosta ly przeprowadzone dla liczby punktow n = 30, 50 i 100 oraz dla krokuodleg losci 1 i 10. W ramach kazdego eksperymentu wygenerowano losowo 50 prob-lemow.

W rozwazanych problemach wszystkie rozwi ↪azania dopuszczalne s ↪a znane expli-cite i dla kazdego z nich mozna latwo wyznaczyc wektory Θ(f(x)) i h(f(x)). Tablica4.2 pokazuje, ile wspo lrz ↪ednych wektorow Θ(f(x)) i odpowiednio h(f(x)) trzebazbadac dla wyznaczenia minimaksimum leksykograficznego. W tablicy podajemyzarowno wyniki srednie, jak i najgorsze z 50 wygenerowanych problemow. Widac,ze w przypadku wi ↪ekszej liczby rownych odleg losci (krok odleg losci 10) moze byckonieczne badanie znacznej liczby wspo lrz ↪ednych uporz ↪adkowanego wektora ocenΘ(f(x)). Natomiast przy badaniu wektora h(f(x)) zawsze wystarcza zbadanie nie-wielkiej liczby pierwszych wspo lrz ↪ednych tego wektora, niezaleznie od licznosci klasrownych odleg losci. �

Page 148: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

150 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Tablica 4.2

Identyfikacja leksykograficznego rozwi ↪azania minimaksowego

Tablica 4.2:Liczba pozycji do Krok odleg losci 10 Krok odleg losci 1

zbadania n = 30 n = 50 n = 100 n = 30 n = 50 n = 100

srednio 3.54 3.70 5.82 1.16 1.16 1.40

w Θ(f(x)) najwi ↪ecej 22 25 32 3 5 3

srednio 2.04 1.80 2.02 1.16 1.16 1.38

w h(f(x)) najwi ↪ecej 5 3 3 3 5 3

Zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan symetrycznie efektywnych moznaotrzymac stosuj ↪ac metody punktu referencyjnego do zadania (4.30). Stosuj ↪ac pa-rametryzacj ↪e (3.4) do zadania (4.30) otrzymujemy

lexmin {( maxk=1,...,r

sk(qak , hk(f(x))),

r∑k=1

sk(qak , hk(f(x)))) : x ∈ Q} (4.34)

gdzie sk : R2 → R i qa ∈ Rr. Bezposrednio z wnioskow 4.19, 3.1 i twierdzenia 3.2wynikaj ↪a nast ↪epuj ↪ace wnioski.

Wniosek 4.20 Jezeli A ⊂ V m i funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk, torozwi ↪azanie optymalne zadania (4.34) jest symetrycznie efektywnym rozwi ↪azaniemzadania wielokryterialnego (1.7).

Wniosek 4.21 Jezeli A ⊂ V m oraz dla kazdego wektora poziomow aspiracji qa ∈Zr funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk i spe lniaj ↪a warunek

s1(qa1 , qa1 ) = s2(qa2 , q

a2 ) = · · · = sr(q

ar , q

ar ) (4.35)

to kazde symetrycznie efektywne rozwi ↪azanie x0 zadania wielokryterialnego (1.7)

jest rozwi ↪azaniem optymalnym zadania (4.34) dla wektora aspiracji qa = h(f(x0)).

Wniosek 4.22 Jezeli A ⊂ V m oraz dla kazdego wektora poziomow aspiracjiqa ∈ Zr funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk i spe lniaj ↪a warunek (4.35), todla dowolnego symetrycznie efektywnego rozwi ↪azania x0 zadania wielokryterialnego(1.7) istnieje wektor poziomow aspiracji qa ∈ Zr taki, ze x0 jest rozwi ↪azaniemoptymalnym odpowiedniego zadania (4.34).

Zauwazmy, ze poszczegolne wspo lrz ↪edne wektora aspiracji qa uzytego w para-metryzacji (4.34) odpowiadaj ↪a wspo lrz ↪ednym wektora h(f(x)). W szczegolnosci,dla wyznaczenia symetrycznie efektywnego rozwi ↪azania x0 za pomoc ↪a paramet-ryzacji (4.34) jako wektor aspiracji powinno byc przyj ↪ete qa = h(f(x

0)). Tym

samym w czasie analizy interaktywnej mozna uzywac jedynie wektorow aspira-cji reprezentuj ↪acych pewne skumulowane dystrybucje, czyli wektorow qa ∈ Zr≤m(tzn. 0 ≤ qa1 ≤ qa2 ≤ · · · ≤ qar ≤ m). Oznacza to, ze w przypadku duzego rdecydent nie musi zajmowac si ↪e wszystkimi wspo lczynnikami qak . Wektor qa moze

Page 149: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.1. ROZWI ↪AZANIA SYMETRYCZNIE EFEKTYWNE 151

byc okreslony przez kilka wspo lrz ↪ednych qak i automatyczn ↪a interpolacj ↪e wartoscipozosta lych wspo lrz ↪ednych. Podejscie takie prowadzi do interaktywnej metody re-ferencyjnej dystrybucji jako uogolnienia metody punktu referencyjnego dla zadanz ocenami jednorodnymi. Przedstawiona na rysunku 4.2 graficzna reprezentacjawektorow ocen h(y) w postaci wykresow skumulowanych dystrybucji dostarczaprzejrzystego interfejsu graficznego do prowadzenia analizy interaktywnej w ra-mach odpowiedniego systemu wspomagania decyzji.

W przypadku stosowania wektorow aspiracji qa ∈ Zr≤m relacja preferencjiparametryzacji (4.34) spe lnia warunek (4.18) dla wektora ya ∈ Y takiego, zeqa = h(ya), czyli

(Θ(y) 6≤ Θ(ya) i Θ(y) 6= Θ(ya)) ⇒ ya ≺ y (4.36)

Oznacza to, ze kazdy wektor ya taki, ze qa = h(ya) jest preferowany w stosunkudo dowolnego wektora ocen y 6�a ya, czyli

y 6�a ya ⇒ ya ≺ y (4.37)

Twierdzenie 4.10 Jezeli A ⊂ V m oraz dla kazdego wektora poziomow aspiracjiqa ∈ Zr≤m funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk i spe lniaj ↪a warunek (4.35), todla dowolnego wektora aspiracji qa ∈ Zr≤m relacja preferencji definiowana przez mi-nimalizacj ↪e leksykograficzn ↪a (4.34) jest zwrotna, przechodnia, scisle monotonicznai anonimowa oraz spe lnia warunek (4.37).

Dowod. Jezeli qa ∈ Zr≤m, to zadanie (4.34) jest rownowazne zadaniu

lexmin {( maxk=1,...,r

sk(hk(ya), hk(f(x))),

r∑k=1

sk(hk(ya), hk(f(x)))) : x ∈ Q} (4.38)

gdzie ya jest (dowolnym) wektorem ocen, takim ze qa = h(ya).Zwrotnosc i przechodniosc relacji preferencji definiowanej przez minimalizacj ↪e

(4.38) jest oczywista. Anonimowosc relacji wynika z symetrii przekszta lcenia h.Z twierdzenia 4.8 wynika, ze dla dowolnego i ∈ I prawdziwa jest zaleznosc

h(y − εei) ≤ h(y) dla ε > 0

St ↪ad na mocy wnioskow 1.21 i 1.2 otrzymujemy scis l ↪a monotonicznosc relacji pre-ferencji definiowanej przez minimalizacj ↪e (4.38)

Na mocy twierdzenia 1.11 prawdziwa jest implikacja

h(y) 6<= h(ya) ⇒ ya ≺ y

St ↪ad, po uwzgl ↪ednieniu rownowaznosci h(y′)<= h(y′′) ⇔ Θ(y′)

<= Θ(y′′), otrzy-

mujemy implikacj ↪e (4.36).

Przyk lad 4.4. Dla ilustracji metody dystrybucji referencyjnej opartej na para-metryzacji (4.34) przedstawimy pryk ladowy przebieg analizy interaktywnej dla lo-sowo wygenerowanego problemu lokalizacyjnego (4.3)–(4.4). Rozwazamy problemlokalizacji dwoch obiektow (p = 2) wsrod zadanych 10 potencjalnych lokalizacji(n = 10) dla obs lugi zbioru 50 klientow (m = 50). Dla okreslenia potencjal-nych lokalizacji i po lozenia klientow wygenerowano losowo (rozk lad jednostajny)

Page 150: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

152 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

60 punktow o ca lkowitych wspo lrz ↪ednych od 0 do 100. Dla okreslenia odleg loscimi ↪edzy punktami najpierw zosta ly obliczone odleg losci euklidesowe (norma l2),a nast ↪epnie zaokr ↪aglone do przyj ↪etego kroku (dok ladnosci) odleg losci 10. W tensposob otrzymano wielokryterialny problem (4.3)–(4.4) z 50 jednorodnymi oce-nami o wartosciach nalez ↪acych do zbioru V = {150, 140, . . . , 10, 0}, gdzie v0 = 150,v1 = 140,. . . , v14 = 10 i v15 = 0. Do analizy tego problemu zastosowano me-tod ↪e dystrybucji referencyjnej (4.34) z najprostszymi funkcjami skaluj ↪acymi postacisk(qak , qk) = qk − qak .

Tablica 4.3

Wyniki interaktywnej analizy problemu lokalizacyjnego

Tablica 4.3:Iteracja Skumulowana dystrybucja odleg losci h

0 10 20 30 40 50 60 70 80 90 100+

1

aspiracja 45 43 31 22 18 11 6 3 0 0 0

rozwi ↪azanie 48 44 31 22 21 12 7 5 0 0 0

2

aspiracja 50 50 40 30 18 11 6 3 0 0 0

rozwi ↪azanie 50 49 38 27 18 11 6 3 1 0 0

3

aspiracja 50 50 48 32 22 14 6 3 0 0 0

rozwi ↪azanie 50 49 38 27 18 11 6 3 1 0 0

Przebieg analizy interaktywnej ilustruje tablica 4.3 i rysunek 4.3. Jako pierwsz ↪adystrybucj ↪e referencyjn ↪a przyjmujemy dystrybucj ↪e utopii, czyli wektor qa z lozonyz najmniejszych mozliwych wartosci funkcji hk (k = 1, 2, . . . , 15). W wynikuotrzymujemy jedno z rozwi ↪azan minimaksowych o dosc znacznej liczbie odleg loscinajwi ↪ekszych (5 odleg losci wi ↪ekszych od 70, 7 odleg losci wi ↪ekszych od 60 i 12 od-leg losci wi ↪ekszych od 50). W celu wyznaczenia rozwi ↪azania o mniejszej liczbieduzych odleg losci, w drugiej iteracji zwi ↪ekszamy poziomy aspiracji odpowiadaj ↪acema lym odleg losciom (qa15 = qa14 = 50, qa13 = 40, qa12 = 30), pozostawiaj ↪ac niezmie-nione poziomy aspiracji dla odleg losci wi ↪ekszych od 40. W rezultacie otrzymu-jemy rozwi ↪azanie o znacznie mniejszej liczbie duzych odleg losci (tylko 3 odleg losciwi ↪eksze od 70, 6 odleg losci wi ↪ekszych od 60 i 11 odleg losci wi ↪ekszych od 50), cho-ciaz pojawi la si ↪e jedna odleg losc wi ↪eksza od 80. Otrzymany rozk lad odleg losci wy-daje si ↪e byc zadowalaj ↪acym rozwi ↪azaniem. Zosta ly osi ↪agni ↪ete najmniejsze mozliweliczby odleg losci wi ↪ekszych od 40, 50, 60 i 70.

Dla sprawdzenia, czy nie mozna znalezc podobnego rozwi ↪azania bez odleg losciwi ↪ekszej od 80, w trzeciej iteracji jeszcze bardziej zwi ↪ekszamy poziomy aspiracjidla odleg losci mniejszych od 40, jak rowniez podnosimy nieco poziomy aspiracjidla odleg losci wi ↪ekszych od 40 i wi ↪ekszych od 50. Okazuje si ↪e, ze ponownie otrzy-mujemy to samo rozwi ↪azanie. Zatem nie istnieje inne rozwi ↪azanie dopuszczalne o

Page 151: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 153

Iteracja 1 Iteracja 2 Iteracja 3

q qqq qq q q q q q q q q q

q qqqq q q q q q q q q q q

q qqqq q q q q q q q q q q

Rysunek 4.3:Rys. 4.3. Wyniki interaktywnej analizy problemu lokalizacyjnego

podobnie ma lej liczbie duzych odleg losci. Wyraznie widac to na rysunku 4.3, gdziewykresy otrzymanych dystrybucji odleg losci s ↪a prezentowane w postaci kropek natle s lupkow reprezentuj ↪acych dystrybucje referencyjne (aspiracje). Akceptujemywi ↪ec otrzymane w drugiej iteracji rozwi ↪azanie jako zadowalaj ↪ace rozwi ↪azanie prob-lemu lokalizacyjnego. �

4.2 Rozwi ↪azania wyrownuj ↪aco efektywne

4.2.1 Wyrownuj ↪aca efektywnosc

Istotnym czynnikiem oceny rozk ladu wartosci poszczegolnych ocen w rozwi ↪aza-niu zadania wielokryterialnego z ocenami jednorodnymi jest cz ↪esto minimalizacjarozbieznosci pomi ↪edzy ocenami (por. Young, 1994). W naukach ekonomicznychwprowadzono pewne miary rozbieznosci ocen, ktorych wartosci s ↪a minimalizowane(Sen, 1973; Marsh i Schilling, 1994). Najprostsz ↪a tak ↪a miar ↪a jest suma wartoscibezwzgl ↪ednych roznic mi ↪edzy ocenami

m∑i=1

m∑j=1

|yi − yj | (4.39)

W naukach ekonomicznych preferowane s ↪a wzgl ↪edne miary rozbieznosci jako nie-zalezne od skali ocen. W szczegolnosci powszechnie stosowana jest minimalizacjawspo lczynnika (miary) Giniego

(

m∑i=1

m∑j=1

|yi − yj |)/(2mm∑i=1

yi) (4.40)

Wspo lczynnik Giniego wyraza po low ↪e sredniej (bezwgl ↪ednej) roznicy mi ↪edzy oce-nami w stosunku do sredniej oceny (Kendall, 1958).

Rozbieznosci pomi ↪edzy ocenami mog ↪a byc ilustrowane graficznie za pomoc ↪a po-pularnej w ekonomii techniki krzywych Lorenza. Krzywe Lorenza s luz ↪a do zobrazo-wania rozbieznosci w dystrybucji przychodow (w sensie pewnego ustalonego dobra),

Page 152: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

154 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

w danej populacji odbiorcow. Odbiorcow porz ↪adkuje si ↪e wed lug niemalej ↪acychwartosci przychodow, czyli od “najbiedniejszych” do “najbogatszych”. Pozwalato identyfikowac zadanego rozmiaru grup ↪e odbiorcow o najnizszych przychodach.Jako rozmiar grupy przyjmuje si ↪e jej wzgl ↪edn ↪a licznosc w stosunku do ca lej popu-lacji. Nast ↪epnie dla kazdej takiej grupy odbiorcow oblicza si ↪e sum ↪e ich przychodoww stosunku do sumy przychodow ca lej populacji. Wykres tak okreslonej zaleznosciwzgl ↪ednych przychodow od wzgl ↪ednej wielkosci populacji stanowi krzyw ↪a Lorenza.Rysunek 4.4 przedstawia krzywe Lorenza w uk ladzie wspo lrz ↪ednych, gdzie os p1

reprezentuje wzgl ↪edn ↪a wielkosc populacji, a os p2 wzgl ↪edn ↪a wielkosc przychodow.Kropkowana linia ukosna reprezentuje krzyw ↪a Lorenza dla przypadku absolutnejrownosci (wszyscy odbiorcy uzyskuj ↪a jednakowe przychody). Krzywa Lorenza dladowolnego rozk ladu przychodow jest krzyw ↪a wypuk l ↪a (faktycznie laman ↪a przy dys-kretnej populacji odbiorcow) l ↪acz ↪ac ↪a punkty (0,0) i (1,1). Zatem wszystkie krzyweLorenza s ↪a zawarte w trojk ↪acie ponizej linii absolutnej rownosci. Im krzywa Lo-renza jest blizsza linii absolutnej rownosci, tym mniejsza jest nierownosc dystry-bucji przychodow. Mowimy, ze krzywa Lorenza A dominuje krzyw ↪a Lorenza B,gdy krzywa A nie ma zadnego punktu ponizej krzywej B, a przynajmniej jeden jejpunkt znajduje si ↪e powyzej krzywej B. Jezeli krzywa Lorenza dla rozk ladu przy-chodow A dominuje krzyw ↪a Lorenza dla rozk ladu przychodow B, to rozk lad Ageneruje mniejsz ↪a wzgl ↪edn ↪a nierownosc przychodow niz rozk lad B (Allison, 1978).Wspo lczynnik Giniego (4.40) ma prost ↪a graficzn ↪a interpretacj ↪e jako stosunek polaobszaru pomi ↪edzy krzyw ↪a Lorenza i prost ↪a absolutnej rownosci do pola ca legotrojk ↪ata ponizej prostej absolutnej rownosci.

6

-p p p p p p p p pp p p p p p p p p

p p p p p p p p pp p p p p p p p p

p p p p p p p p pp p p p p p p p p

p p p p p p1

1

p2

p1

qq

�����,,,,,

qq

������

��������������

Rysunek 4.4:Rys. 4.4. Krzywe Lorenza

Minimalizacja miar rozbieznosci jest na ogo l sprzeczna z minimalizacj ↪a posz-czegolnych ocen. Na przyk lad, w problemie lokalizacyjnym minimalizacja wspo l-czynnika Giniego moze prowadzic do wyboru lokalizacji obiektow maksymalnie

Page 153: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 155

odleg lych od wszystkich klientow (por. Erkut, 1993). W przyk ladzie 4.1 z po-przedniego podrozdzia lu czwarte rozwi ↪azanie problemu lokalizacyjnego jest w lasnierozwi ↪azaniem minimalizuj ↪acym wspo lczynnik Giniego i jak pokazano, nie jest onorozwi ↪azaniem symetrycznie efektywnym.

Teoria miar rozbieznosci opiera na aksjomacie przesuni ↪ec wyrownuj ↪acychPigou–Daltona (por. Shorrocks i Foster, 1987). Aksjomat ten moze byc zapisanyw postaci nast ↪epuj ↪acej w lasnosci relacji preferencji

yi′ > yi′′ ⇒ y − εei′ + εei′′ ≺ y dla 0 < ε < yi′ − yi′′ (4.41)

Zauwazmy, ze aksjomat przesuni ↪ec wyrownuj ↪acych mozna wyrazic w postaci sze-regu innych rownowaznych warunkow (Bell i Raiffa, 1988).

Twierdzenie 4.11 Relacja preferencji � spe lnia dla dowolnych y ∈ Y aksjomatprzesuni ↪ec wyrownuj ↪acych (4.41) wtedy i tylko wtedy, gdy spe lnia dla dowolnychy ∈ Y dowolny z nast ↪epuj ↪acych warunkow

yi′ > yi′′ ⇒ y − εei′ ≺ y − εei′′ dla ε > 0 (4.42)

yi′ > yi′′ ⇒ y + εei′′ ≺ y + εei′ dla ε > 0 (4.43)

Dowod. Dla udowodnienia twierdzenia wykazemy, ze prawdziwy jest ci ↪ag impli-kacji: (4.41) ⇒ (4.42) ⇒ (4.43) ⇒ (4.41).

Za lozmy, ze warunek (4.41) jest prawdziwy dla dowolnego wektora y ∈ Y .Rozpatrzmy wektor y′ = y− εei′′ . Zauwazmy, ze y′i′ = yi′ , y

′i′′ = yi′′ − ε i y′i′ > y′i′′

dla dowolnego ε > 0, jezeli yi′ > yi′′ . Stosuj ↪ac zaleznosc (4.41) do wektora y′,otrzymujemy warunek (4.42).

Za lozmy, ze warunek (4.42) jest prawdziwy dla dowolnego wektora y ∈ Y .Rozpatrzmy wektor y′ = y +εei′ +εei′′ . Zauwazmy, ze y′i′ = yi′ +ε, y′i′′ = yi′′ +ε iy′i′ > y′i′′ dla dowolnego ε > 0, jezeli yi′ > yi′′ . Stosuj ↪ac zaleznosc (4.42) do wektoray′, otrzymujemy warunek (4.43).

Za lozmy, ze warunek (4.43) jest prawdziwy dla dowolnego wektora y ∈ Y .Rozpatrzmy wektor y′ = y− εei′ . Zauwazmy, ze y′i′ = yi′ − ε, y′i′′ = yi′′ i y′i′ > y′i′′dla 0 < ε < yi′ − yi′′ , jezeli yi′ > yi′′ . Stosuj ↪ac zaleznosc (4.43) do wektora y′,otrzymujemy warunek (4.41).

Aksjomat przesuni ↪ec wyrownuj ↪acych nie jest sprzeczny z aksjomatami ano-nimowo racjonalnych relacji preferencji. Istnieje zatem mozliwosc poszukiwaniawyrownuj ↪aco efektywnych rozwi ↪azan problemu wielokryterialnego (1.7), zdefinio-wanych jako elementy minimalne w sensie racjonalych relacji preferencji spe lnia-j ↪acych dodatkowo warunek anonimowosci i aksjomat przesuni ↪ec wyrownuj ↪acych.Relacje takie b ↪edziemy dalej nazywac wyrownuj ↪aco racjonalnymi relacjami pre-ferencji. Przyjmuj ↪ac jako podstaw ↪e zbior wszystkich wyrownuj ↪aco racjonalnychrelacji preferencji mozemy zdefiniowac odpowiednie poj ↪ecia dominacji wektorowocen i rozwi ↪azan efektywnych, analogicznie jak dla racjonalnych relacji preferencjiw podrozdziale 1.2.

Definicja 4.7 Mowimy, ze wektor ocen y′ ∈ Y dominuje wyrownuj ↪aco y′′ ∈ Y luby′′ jest wyrownuj ↪aco dominowany przez y′ wtedy i tylko wtedy, gdy y′ ≺ y′′ dlawszystkich wyrownuj ↪aco racjonalnych relacji preferencji.

Page 154: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

156 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Definicja 4.8 Mowimy, ze wektor ocen y′ ∈ Y jest wyrownuj ↪aco indyferentny zy′′ ∈ Y wtedy i tylko wtedy, gdy y′ ∼= y′′ dla wszystkich wyrownuj ↪aco racjonalnychrelacji preferencji.

Definicja 4.9 Mowimy, ze wektor ocen y′ ∈ Y s labo dominuje wyrownuj ↪aco y′′ ∈Y lub y′′ jest s labo dominowany wyrownuj ↪aco przez y′ wtedy i tylko wtedy, gdyy′ � y′′ dla wszystkich wyrownuj ↪aco racjonalnych relacji preferencji.

Relacje wyrownuj ↪acej dominacji≺w, indyferencji∼=w i s labej dominacji�w spe l-niaj ↪a warunki (1.1)–(1.2), czyli stanowi ↪a relacj ↪e preferencji �w. Relacja ta spe lniawarunki zwrotnosci (1.3), przechodniosci (1.4), scis lej monotonicznosci (1.5), ano-nimowosci (4.1) i przesuni ↪ec wyrownuj ↪acych (4.41), czyli jest wyrownuj ↪aco racjo-naln ↪a relacj ↪a preferencji. Relacja dominacji �w jest najogolniejsz ↪a wyrownuj ↪acoracjonaln ↪a relacj ↪a preferencji i kazda wyrownuj ↪aco racjonalna relacja preferencji �jest z ni ↪a zgodna w tym sensie, ze

y′ �w y′′ ⇒ y′ � y′′

Relacja wyrownuj ↪acej dominacji moze byc wyrazona jako relacja nierownosci dlaskumulowanych uporz ↪adkowanych wektorow ocen, czyli z uzyciem m–wymiarowegoliniowego operatora kumulacji Γ (4.26) do uporz ↪adkowanych wektorow ocenΘ(y). Formalnie zapisujemy to za pomoc ↪a przekszta lcenia Θ = (θ1, θ2, . . . , θm)okreslonego wzorem Θ(y) = Γ(Θ(y)), czyli

θi(y) =

i∑l=1

θl(y) dla i = 1, 2, . . . ,m (4.44)

Kolejne wspo lrz ↪edne wektora Θ(y) wyrazaj ↪a odpowiednio: najwi ↪eksz ↪a ocen ↪e, sum ↪edwoch najwi ↪ekszych ocen, sum ↪e trzech najwi ↪ekszych ocen itd.

Bezposrednio z okreslenia operatora Θ wynika, ze dla dowolnych y′,y′′ ∈ Yprawdziwe s ↪a nast ↪epuj ↪ace zaleznosci

Θ(y′) = Θ(y′′) ⇔ Θ(y′) = Θ(y′′) (4.45)

Θ(y′) ≤ Θ(y′′) ⇒ Θ(y′) ≤ Θ(y′′) (4.46)

Implikacja odwrotna do (4.46) nie jest prawdziwa. Na przyk lad, Θ(2, 2, 2) =(2, 4, 6) ≤ (3, 5, 6) = Θ(3, 2, 1) i jednoczesnie Θ(2, 2, 2) 6≤ Θ(3, 2, 1).

Zauwazmy, ze relacja

y′ � y′′ ⇔ Θ(y′)<= Θ(y′′) (4.47)

jest zwrotna, przechodnia, anonimowa. Ponadto prawdziwe s ↪a zaleznosci

Θ(y′) ≤ Θ(y′′) ⇔(

Θ(y′)<= Θ(y′′) i Θ(y′′) 6<= Θ(y′)

)Θ(y′) = Θ(y′′) ⇔

(Θ(y′)

<= Θ(y′′) i Θ(y′′)

<= Θ(y′)

)Zatem relacja (4.47) jest relacj ↪a preferencji z relacjami scis lej preferencji i indyfe-rencji okreslonymi odpowiednio jako

Page 155: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 157

y′ ≺ y′′ ⇔ Θ(y′) ≤ Θ(y′′) (4.48)

y′ ∼= y′′ ⇔ Θ(y′) = Θ(y′′) (4.49)

Co wi ↪ecej, prawdziwe s ↪a zaleznosci

Θ(y − εei) ≤ Θ(y) dla ε > 0

yi′ > yi′′ ⇒ Θ(y − εei′ + εei′′) ≤ Θ(y) dla 0 < ε < yi′ − yi′′

czyli relacja (4.47) jest wyrownuj ↪aco racjonaln ↪a relacj ↪a preferencji.Zauwazmy, ze okreslenie wartosci θi(y) dla i = 1, 2, . . . ,m jest podobne do

kostrukcji krzywych Lorenza dla populacji z lozonej z m funkcji oceny. Zasadni-cza roznica polega na odwrotnym porz ↪adkowaniu wartosci ocen, od najwi ↪ekszej donajmniejszej. Wynika to z faktu, ze rozpatrujemy zadanie minimalizacji wielokry-terialnej i dlatego “najbiedniejszymi odbiorcami” s ↪a funkcje oceny o najwi ↪ekszychwartosciach. Rozpatruj ↪ac krzywe Lorenza w sensie minimalizacji otrzymalibysmyobrocone o 180o wykresy krzywych wkl ↪es lych. Wektor Θ(y) moze byc przedsta-wiony graficznie w postaci lamanej l ↪acz ↪acej punkt (0,0) i punkty (i, θi(y)) dlai = 1, 2, . . . ,m. W przypadku wektorow ocen y′,y′′ ∈ Y o rownej sumie ocen(θm(y′) = θm(y′′)), nierownosc Θ(y′) ≤ Θ(y′′) jest rownowazna dominacji y′ nady′′ w sensie “obroconych” krzywych Lorenza. W ogolnym przypadku “obrocone”krzywe Lorenza mozna traktowac jako wykresy wspo lrz ↪ednych wektora Θ(y)/θm(y)(por. rys. 4.5). Natomiast wykresy wspo lrz ↪ednych wektorow Θ(y) stanowi ↪a analo-giczne do “obroconych” krzywych Lorenza nienormalizowane krzywe wkl ↪es le (por.rys. 4.6). Zauwazmy, ze w terminach krzywych Lorenza zaden wektor ocen niemoze byc lepszy od wektora rownych ocen. Relacja (4.47) bierze rowniez poduwag ↪e wielkosci ocen. Wektory jednakowych ocen s ↪a dodatkowo rozrozniane napodstawie wartosci ocen. S ↪a one reprezentowane przez rozne proste ukosne narys. 4.6. Relacja preferencji (4.47) dopuszcza mozliwosc, ze wektor nierownychma lych ocen jest preferowany w stosunku do wektora jednakowych duzych ocen.

Teoria dominacji w sensie krzywych Lorenza (Allison, 1978) i ogolniej teoriamiar rozbieznosci opiera si ↪e na twierdzeniu o majoryzacji wektora (Hardy i inni,1934), ktore w terminach Θ(y) moze byc wyrazone w nast ↪epuj ↪acej postaci.

Twierdzenie 4.12 Jezeli Θ(y′) ≤ Θ(y′′) i θm(y′) = θm(y′′), to istnieje skonczonyci ↪ag wektorow y0 = y′′,y1, . . . ,yt = y′ taki, ze yk = yk−1 − εkei′ + εkei′′ , 0 <εk < yk−1

i′ − yk−1i′′ dla k = 1, 2, . . . , t.

Ponizsze twierdzenia i wnioski rozszerzaj ↪a ten wynik i doprowadzaj ↪a dorownowaznosci relacji wyrownuj ↪acej dominacji z relacj ↪a (4.47).

Twierdzenie 4.13 Jezeli Θ(y′) ≤ Θ(y′′) i θm(y′) < θm(y′′), to istnieje wektor

ocen y′′′ ∈ Y taki, ze Θ(y′)<= Θ(y′′′), θm(y′) = θm(y′′′), Θ(y′′′) ≤ Θ(y′′) i

θm(y′′′) ≥ min{θm(y′), θm(y′′)}.Dowod. Niech u0 = Θ(y′′). Okreslmy wektory u1,u2, . . . ,um jako

uk+1 = uk − δkeik dla k = 0, 1, . . . ,m− 1

Page 156: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

158 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

6

-p p p p p p p p pp p p p p p p p p

p p p p p p p p pp p p p p p p p p

p p p p p p p p pp p p p p p p p p

p p p p p p1

m

θi/θm

i

qq

,,,,,�����

qq

�����������������

���

Rysunek 4.5:Rys. 4.5. Θ(y)/θm(y) jako krzywe Lorenza

6

-

θi

im

qq

�����������������

���

p p p p p p p p p p p pp p p p p p p p p p p p

p p p p p p p p p p p pp p p p

qq

,,,,,���

��(((

((

��������������

Rysunek 4.6:Rys. 4.6. Θ(y) jako nienormalizowane krzywe Lorenza

Page 157: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 159

gdzie ik jest indeksem takim, ze

ukik > θik(y′) i uki ≤ θi(y′) dla ik < i ≤ m

a wspo lczynnik δk jest okreslony wzorem

δk = min{ukik − θik(y′), θm(uk)− θm(y′)}

Zauwazmy, ze

θi(uk)− θi(y′) ≤ θi−1(uk)− θi−1(y′) dla ik < i ≤ m

oraz δk ≥ 0 dla k = 0, 1, . . . ,m − 1, przy czym δ0 > 0. St ↪ad, dla k = 1, 2, . . . ,mprawdziwe s ↪a zaleznosci

uk1 ≥ uk2 ≥ · · · ≥ ukm ≥ min{θm(y′), θm(y′′)}

Θ(y′)<= Θ(uk) i Θ(uk)

<= Θ(uk−1)

Ponadto θm(um) = θm(y′) i Θ(um) ≤ Θ(y′′), czyli wektor y′′′ = um spe lniawszystkie warunki tezy twierdzenia.

Wniosek 4.23 Jezeli Θ(y′) ≤ Θ(y′′), to istnieje skonczony ci ↪ag wektorow y0 =y′′, y1, . . . ,yt−1,yt = y′ taki, ze θm(yk) ≥ min{θm(y′), θm(y′′)} oraz Θ(yk) ≤Θ(yk−1) lub yk = yk−1 − εkei′ + εkei′′ , 0 < εk < yk−1

i′ − yk−1i′′ dla k = 1, 2, . . . , t.

Twierdzenie 4.14 Dla dowolnych wektorow ocen y′,y′′ ∈ Y

y′ �w y′′ ⇔ Θ(y′)<= Θ(y′′)

Dowod. Zauwazmy, ze relacja (4.47) jest wyrownuj ↪aco racjonaln ↪a relacj ↪a prefe-rencji. Zatem bezposrednio z definicji wyrownuj ↪acej dominacji wynika prawdziwoscimplikacji

y′ �w y′′ ⇒ Θ(y′)<= Θ(y′′)

Dla udowodnienia odwrotnej implikacji zauwazmy, ze na mocy wniosku 4.23dla kazdej wyrownuj ↪aco racjonalnej relacji preferencji � prawdziwa jest zaleznoscΘ(y′) � Θ(y′′). St ↪ad, korzystaj ↪ac z warunku anonimowosci, otrzymujemy y′ � y′′.Zatem y′ �w y′′.

Wniosek 4.24 Wektor ocen y′ ∈ Y dominuje wyrownuj ↪aco y′′ ∈ Y wtedy i tylkowtedy, gdy Θ(y′) ≤ Θ(y′′).

Wniosek 4.25 Wektor ocen y′ ∈ Y jest wyrownuj ↪aco indyferentny z y′′ ∈ Y wtedyi tylko wtedy, gdy Θ(y′) = Θ(y′′), czyli

y′ ∼=w y′′ ⇔ y′ ∼=a y′′

Wniosek 4.26 Wektor ocen y′ ∈ Y dominuje wyrownuj ↪aco y′′ ∈ Y wtedy i tylkowtedy, gdy istnieje skonczony ci ↪ag wektorow y0 = y′′,y1, . . . ,yt−1,yt = y′ taki,ze Θ(yk) ≤ Θ(yk−1) lub yk = yk−1 − εkei′ + εkei′′ , 0 < εk < yk−1

i′ − yk−1i′′ dla

k = 1, 2, . . . , t.

Page 158: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

160 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Wniosek 4.27 Dla kazdej wyrownuj ↪aco racjonalnej relacji preferencji � praw-dziwe s ↪a nast ↪epuj ↪ace zaleznosci

Θ(y′)<= Θ(y′′) ⇒ y′ � y′′

Θ(y′) ≤ Θ(y′′) ⇒ y′ ≺ y′′

Z wniosku 4.26 wynika, ze struktura dominacji wyrownuj ↪acej (por. (1.10))zalezy od po lozenia wektora y wzgl ↪edem prostej rownych ocen (y1 = y2 = · · · =ym). W ogolnym przypadku zbior dominowania D(y) nie jest stozkiem i nie jestzbiorem wypuk lym. Rysunek 4.7 przedstawia D(y) zaczepiony w y, czyli zbiory +D(y).

6

-y1

y2

ty��������

��������

��������

��������

�������

d��������

��������

��������

��������

����

�����

������

������

�������

�������

��������

����

�����

������

������

�������

�������

��������

@@@@@

@@@@@

Rysunek 4.7:Rys. 4.7. Struktura wyrownuj ↪acej dominacji w R2

Definicja 4.10 Wektor ocen y0 ∈ A nazywamy wyrownuj ↪aco niezdominowanymwtedy i tylko wtedy, gdy nie istnieje y ∈ A taki, ze y dominuje wyrownuj ↪aco y0.

Bezposrednio z definicji wektora wyrownuj ↪aco niezdominowanego i wniosku 4.24wynikaj ↪a nast ↪epuj ↪ace wnioski.

Wniosek 4.28 Wektor ocen y0 ∈ A jest wektorem wyrownuj ↪aco niezdominowa-nym wtedy i tylko wtedy, gdy istnieje wyrownuj ↪aco racjonalna relacja preferencji �taka, ze dla zadnego y ∈ A nie zachodzi y ≺ y0.

Wniosek 4.29 Wektor ocen y0 ∈ A jest wektorem wyrownuj ↪aco niezdominowa-nym wtedy i tylko wtedy, gdy nie istnieje y ∈ A taki, ze Θ(y) ≤ Θ(y0).

Twierdzenie 4.15 Wektor ocen y0 ∈ A jest wektorem wyrownuj ↪aco niezdomino-wanym wtedy i tylko wtedy, gdy istnieje spojna, wyrownuj ↪aco racjonalna relacjapreferencji � taka, ze y0 � y dla wszystkich y ∈ A.

Page 159: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 161

Dowod. Za lozmy, ze dla pewnej wyrownuj ↪aco racjonalnej relacji preferencji,y0 � y dla wszystkich y ∈ A. Tym samym, dla zadnego y ∈ A nie zachodzi y ≺ y0.Zatem, na mocy wniosku 4.28, wektor y0 jest wyrownuj ↪aco niezdominowanymwektorem ocen.

Niech y0 ∈ A b ↪edzie wyrownuj ↪aco niezdominowanym wektorem ocen. Okreslmyrelacj ↪e

y′ �o y′′ ⇔ maxi=1,...,m

(θi(y′)− θi(y0)) < max

i=1,...,m(θi(y

′′)− θi(y0))

lub

(max

i=1,...,m(θi(y

′)− θi(y0)) = maxi=1,...,m

(θi(y′′)− θi(y0))

i

m∑i=1

θi(y′) ≤

m∑i=1

θi(y′′)

)Dla tak okreslonej relacji, y0 �o y dla wszystkich y ∈ A. Latwo sprawdzic, zerelacja �o jest zwrotna, przechodnia, spojna i anonimowa. Odpowiednia relacja≺o przyjmuje postac

y′ ≺o y′′ ⇔ maxi=1,...,m

(θi(y′)− θi(y0)) < max

i=1,...,m(θi(y

′′)− θi(y0))

lub

(max

i=1,...,m(θi(y

′)− θi(y0)) = maxi=1,...,m

(θi(y′′)− θi(y0))

i

m∑i=1

θi(y′) <

m∑i=1

θi(y′′)

)i spe lnia warunek scis lej monotonicznosci (1.5) oraz aksjomat przesuni ↪ec wyrow-nuj ↪acych (4.41). Tym samym relacja �o spe lnia wszystkie wymagane warunki.

Twierdzenie 4.16 Jezeli A ⊂ Y (y∗) = {y ∈ Y : yi ≥ y∗ dla i = 1, 2, . . . ,m}dla pewnego y∗ ∈ R, to wektor ocen y0 ∈ A jest wektorem wyrownuj ↪aco nie-zdominowanym wtedy i tylko wtedy, gdy istnieje relacja preferencji � spe lniaj ↪acawarunki zwrotnosci, przechodniosci, scis lej monotonicznosci, anonimowosci i prze-suni ↪ec wyrownuj ↪acych na zbiorze Y (y∗) taka, ze dla zadnego y ∈ A nie zachodziy ≺ y0.Dowod. Koniecznosc warunku wynika z wniosku 4.28. Dla udowodnienia dosta-tecznosci warunku przypuscmy, ze istnieje relacja preferencji � spe lniaj ↪aca warunkizwrotnosci, przechodniosci, scis lej monotonicznosci, anonimowosci i przesuni ↪ec wy-rownuj ↪acych na zbiorze Y (y∗) taka, ze dla zadnego y ∈ A nie zachodzi y ≺ y0 ipomimo tego y0 nie jest wektorem niezdominowanym. Zatem, zgodnie z wnio-skiem 4.29, istnieje y ∈ A taki, ze Θ(y) ≤ Θ(y0). Na mocy wniosku 4.23 istniejewtedy skonczony ci ↪ag wektorow u0 = y,u1, . . . ,ut−1,ut = y0 taki, ze uk ∈ Y (y∗)dla k = 1, 2, . . . , t oraz Θ(uk) ≤ Θ(uk−1) lub uk = uk−1 − εkei′ + εkei′′ , gdzie0 < εk < uk−1

i′ − uk−1i′′ . St ↪ad, dla kazdej relacji preferencji � spe lniaj ↪acej wa-

runki zwrotnosci, przechodniosci, scis lej monotonicznosci, anonimowosci i prze-suni ↪ec wyrownuj ↪acych na zbiorze Y (y∗) spe lniony jest warunek y ≺ y0, co jestsprzeczne z przyj ↪etym za lozeniem.

Page 160: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

162 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Twierdzenie 4.17 Jezeli zbior osi ↪agalnych wektorow ocen A 6= ∅ jest domkni ↪etyi istnieje y∗ ∈ R takie, ze A ⊂ Y (y∗) = {y ∈ Y : yi ≥ y∗ dla i = 1, 2, . . . ,m},to istnieje wyrownuj ↪aco niezdominowany wektor ocen y0 ∈ A.

Dowod. Zauwazmy, ze zadanie

min {m∑i=1

(yi − y∗)2 : y ∈ A} (4.50)

ma rozwi ↪azanie optymalne y0 ∈ A. Oznacza to, ze dla relacji preferencji � defi-niowanej przez minimalizacj ↪e (4.50) prawdziwy jest warunek y0 � y dla kazdegoy ∈ A. Relacja preferencji definiowana przez minimalizacj ↪e (4.50) wyraza si ↪e wzo-rem

y′ � y′′ ⇔m∑i=1

(y′i − y∗)2 ≤m∑i=1

(y′′i − y∗)2

i spe lnia warunki zwrotnosci, przechodniosci, scis lej monotonicznosci, anonimowo-sci i przesuni ↪ec wyrownuj ↪acych na zbiorze Y (y∗). Zatem, zgodnie z twierdzeniem4.16, y0 jest wyrownuj ↪aco niezdominowanym wektorem ocen.

Definicja 4.11 Rozwi ↪azanie dopuszczalne x ∈ Q nazywamy wyrownuj ↪aco efek-tywnym rozwi ↪azaniem wielokryterialnego zadania (1.7) wtedy i tylko wtedy, gdyy = f(x) jest wyrownuj ↪aco niezdominowany.

Z wnioskow 4.28 i 4.29 i twierdzenia 4.15 wynikaj ↪a nast ↪epuj ↪ace charakterystykirozwi ↪azan wyrownuj ↪aco efektywnych.

Wniosek 4.30 Wektor dopuszczalny x0 ∈ Q jest wyrownuj ↪aco efektywnymrozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy istniejewyrownuj ↪aco racjonalna relacja preferencji � taka, ze dla zadnego x ∈ Q nie za-chodzi f(x) ≺ f(x

0).

Wniosek 4.31 Wektor dopuszczalny x0 ∈ Q jest wyrownuj ↪aco efektywnymrozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy istnieje

spojna wyrownuj ↪aco racjonalna relacja preferencji � taka, ze f(x0) � f(x) dla

kazdego x ∈ Q.

Wniosek 4.32 Wektor dopuszczalny x0 ∈ Q jest wyrownuj ↪aco efektywnymrozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy nie istnieje

x ∈ Q taki, ze Θ(f(x)) ≤ Θ(f(x0)).

Wniosek 4.33 Dla dowolnej permutacji τ zbioru I = {1, 2, . . . ,m} wektor x0 ∈ Qjest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7) wtedyi tylko wtedy, gdy jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania

min {(fτ(1)(x), fτ(2)(x), . . . , fτ(m)(x)) : x ∈ Q}

Wniosek 4.34 Dla dowolnej scisle rosn ↪acej funkcji liniowej s : R → R wektorx0 ∈ Q jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego(1.7) wtedy i tylko wtedy, gdy jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zada-nia

min {(s(f1(x)), s(f2(x)), . . . , s(fm(x))) : x ∈ Q}

Page 161: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 163

Zauwazmy, ze zgodnie z wnioskami 4.33 i 4.34 wyrownuj ↪aca efektywnoscrozwi ↪azania nie zalezy od kolejnosci funkcji oceny i od scisle monotonicznej linio-wej zmiany skal indywidualnych ocen. W odroznieniu od wniosku 1.9 dotycz ↪acegorozwi ↪azan efektywnych, we wniosku 4.10 wszystkie funkcje oceny s ↪a skalowane zapomoc ↪a tej samej scisle rosn ↪acej funkcji liniowej s. Mozliwe s ↪a wi ↪ec tylko liniowezmiany skal ocen z zachowaniem wyrownuj ↪acej efektywnosci rozwi ↪azan.

Wyrownuj ↪aca efektywnosc jest silniejsza od symetrycznej efektywnosci, a zbiorrozwi ↪azan wyrownuj ↪aco efektywnych jest podzbiorem zbioru rozwi ↪azan symetrycz-nie efektywnych. Dowodzi tego nast ↪epuj ↪ace twierdzenie.

Twierdzenie 4.18 Kazde rozwi ↪azanie wyrownuj ↪aco efektywne jest rozwi ↪azaniemsymetrycznie efektywnym.

Dowod. Niech x0 b ↪edzie rozwi ↪azaniem wyrownuj ↪aco efektywnym. Przypuscmy,ze x0 nie jest rozwi ↪azaniem symetrycznie efektywnym. Na mocy wniosku 4.8 ist-nieje wtedy wektor dopuszczalny x taki, ze Θ(f(x)) ≤ Θ(f(x

0)). St ↪ad Θ(f(x)) ≤

Θ(f(x0)), co na mocy wniosku 4.32 jest sprzeczne z wyrownuj ↪ac ↪a efektywnoscia

wektora x0.

Stanowi ↪ace g lowny przedmiot naszych rozwazan zadania WPL i WPLD maj ↪adomkni ↪ete zbiory rozwi ↪azan dopuszczalnych Q i liniowe funkcje oceny fi. Za-tem domkni ↪ete s ↪a odpowiednie zbiory ocen osi ↪agalnych A. Co wi ↪ecej, w przy-padku regularnego zadania WPL lub WPLD zbior Q jest niepusty oraz istniej ↪arozwi ↪azania optymalne xi (i = 1, 2, . . . ,m) jednokryterialnych zadan (1.9). St ↪adA 6= ∅ i A ⊂ Y (y∗) = {y ∈ Y : yi ≥ y∗ dla i = 1, 2, . . . ,m}, gdziey∗ = mini=1,...,m fi(x

i). Z twierdzenia 4.17 wynika wi ↪ec nast ↪epuj ↪acy wniosek.

Wniosek 4.35 Regularne zadania WPL i WPLD maj ↪a rozwi ↪azania wyrownuj ↪acoefektywne.

4.2.2 Techniki generacji

Rozwi ↪azania efektywne zadania wielokryterialnego mozna wyznaczac rozwi ↪azu-j ↪ac skalaryzacje zadania wielokryterialnego z funkcj ↪a skalaryzuj ↪ac ↪a s : Rm → R,definiuj ↪ac ↪a relacj ↪e preferencji �s spe lniaj ↪ac ↪a warunek scis lej monotonicznosci (por.twierdzenie 1.6). Jezeli relacja �s spe lnia ponadto warunek anonimowosci (4.1)i aksjomat przesuni ↪ec wyrownuj ↪acych (4.41), to generowane przez skalaryzacj ↪erozwi ↪azanie efektywne jest rowniez wyrownuj ↪aco efektywnym rozwi ↪azaniem zada-nia wielokryterialnego. Aksjomatu przesuni ↪ec wyrownuj ↪acych nie spe lnia skalary-zacja (1.18), polegaj ↪aca na minimalizacji sumy wszystkich funkcji oceny fi(x), aniskalaryzacje minimaksowe (1.21) i (1.36). Istnieje jednak mozliwosc spe lnienia ak-sjomatu przesuni ↪ec wyrownuj ↪acych przez relacje preferencji zadan (1.18) i (1.36) zodpowiednio skalowanymi ocenami. Prawdziwe s ↪a nast ↪epuj ↪ace twierdzenia.

Twierdzenie 4.19 Dla dowolnej scisle wypuk lej, rosn ↪acej funkcji s : R→ R rela-cja preferencji definiowana przez zadanie

Page 162: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

164 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

min {m∑i=1

s(fi(x)) : x ∈ Q} (4.51)

jest zwrotna, przechodnia, scisle monotoniczna, anonimowa i spe lnia aksjomat prze-suni ↪ec wyrownuj ↪acych (4.41).

Dowod. Zwrotnosc, przechodniosc, scis la monotonicznosc i anonimowosc relacjipreferencji definiowanej przez skalaryzacj ↪e (4.51) wynika bezposrednio z odpowied-nich w lasnosci relacji preferencji definiowanej przez skalaryzacj ↪e (1.18) i faktu, zefunkcja s jest scisle rosn ↪aca. Pozostaje zatem udowodnic spe lnienie aksjomatuprzesuni ↪ec wyrownuj ↪acych (4.41). Niech y ∈ Y i yi′ > yi′′ . Zdefiniujmy wektoryyε = y − εei′ + εei′′ i ys = y − (yi′ − yi′′)ei′ + (yi′ − yi′′)ei′′ . Zauwazmy, zeyε = λys + (1− λ)y, gdzie λ = ε/(yi′ − yi′′), czyli 0 < λ < 1 dla 0 < ε < yi′ − yi′′ .Funkcja G(y) =

∑mi=1 s(yi) jest scisle wypuk la i symetryczna. St ↪ad

G(yε) < λG(ys) + (1− λ)G(y) = G(y) dla 0 < ε < yi′ − yi′′

Zatem relacja preferencji definiowana przez minimalizacj ↪e tej funkcji spe lnia waru-nek przesuni ↪ec wyrownuj ↪acych, co konczy dowod.

Wniosek 4.36 Jezeli f(x)>= 0 dla kazdego x ∈ Q (czyli A ⊂ Rm+ ), to rozwi ↪azanie

optymalne zadania najmniejszych kwadratow

min {m∑i=1

f2i (x) : x ∈ Q} (4.52)

jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Twierdzenie 4.20 Dla dowolnej scisle wypuk lej, rosn ↪acej funkcji s : R→ R rela-cja preferencji definiowana przez zadanie

lexmin {( maxi=1,...,m

s(fi(x)),

m∑i=1

s(fi(x))) : x ∈ Q} (4.53)

jest zwrotna, przechodnia, scisle monotoniczna, anonimowa i spe lnia aksjomat prze-suni ↪ec wyrownuj ↪acych (4.41).

Dowod. Zwrotnosc, przechodniosc, scis la monotonicznosc i anonimowosc relacjipreferencji definiowanej przez skalaryzacj ↪e (4.53) wynika bezposrednio z odpowied-nich w lasnosci relacji preferencji definiowanej przez skalaryzacj ↪e (1.36) i faktu, zefunkcja s jest scisle rosn ↪aca. Pozostaje zatem udowodnic spe lnienie aksjomatuprzesuni ↪ec wyrownuj ↪acych (4.41). Niech y ∈ Y i yi′ > yi′′ . Zdefiniujmy wektoryε = y − εei′ + εei′′ Zauwazmy, ze dla 0 < ε < yi′ − yi′′

maxi=1,...,m

s(yεi ) ≤ maxi=1,...,m

s(yi) i

m∑i=1

s(yεi ) <

m∑i=1

s(yi)

St ↪ad (max

i=1,...,ms(yεi ),

m∑i=1

s(yεi )

)<lex

(max

i=1,...,ms(yi),

m∑i=1

s(yi)

)

Page 163: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 165

Zatem relacja preferencji definiowana przez zadanie (4.53) spe lnia warunek prze-suni ↪ec wyrownuj ↪acych, co konczy dowod.

Aksjomat przesuni ↪ec wyrownuj ↪acych spe lnia relacja preferencji definiowanaprzez minimaksymalizacj ↪e leksykograficzn ↪a (1.38).

Twierdzenie 4.21 Relacja preferencji definiowana przez minimaksymalizacj ↪e lek-sykograficzn ↪a (1.38) jest zwrotna, przechodnia, scisle monotoniczna, anonimowa ispe lnia aksjomat przesuni ↪ec wyrownuj ↪acych (4.41).

Dowod. Relacja preferencji odpowiadaj ↪aca minimaksymalizacji leksykograficznej(1.38)

y′ � y′′ ⇔ Θ(y′) ≤lex Θ(y′′)spe lnia warunki zwrotnosci (1.3), przechodniosci (1.4) i scis lej monotonicznosci(1.5) (por. dowod twierdzenia 1.24). Z w lasnosci operatora porz ↪adkuj ↪acego Θwynika tez natychmiast anonimowosc tej relacji.

Zauwazmy, ze jezeli yi′ = θj′(y) > yi′′ = θj′′(y), to istnieje indeks j0, j′ ≤ j0 ≤j′′ taki, ze dla 0 < ε < yi′ − yi′′

θj0(y − εei′ + εei′′) < θj0(y) i θj(y − εei′ + εei′′) ≤ θj(y) dla j < j0

co dowodzi spe lnienia aksjomatu przesuni ↪ec wyrownuj ↪acych.

Wniosek 4.37 Rozwi ↪azanie optymalne leksykograficznego zadania minimaksowego(1.38) jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego(1.7).

Wniosek 4.32 moze byc wyrazony w terminach wielokryterialnego zadania zwektorow ↪a funkcj ↪a skumulowanych uporz ↪adkowanych ocen Θ(f(x))

min {Θ(f(x)) : x ∈ Q} (4.54)

Wniosek 4.38 Rozwi ↪azanie dopuszczalne x ∈ Q jest wyrownuj ↪aco efektyw-nym rozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy i tylko wtedy, gdy jestrozwi ↪azaniem efektywnym problemu wielokryterialnego (4.54).

Zauwazmy, ze poszczegolne wspo lrz ↪edne skumulowanego uporz ↪adkowanego wek-tora ocen Θ(y) mog ↪a byc zapisane w postaci wypuk lych, kawa lkami liniowych funk-cji wektora y

θi(y) = maxτ∈Π

(i∑

k=1

yτ(k)

)gdzie Π jest zbiorem wszystkich permutacji τ zbioru indeksow I. Tym samym, wprzypadku zadan WPL odpowiedni problem (4.54) moze byc wyrazony w postaciwielokryterialnego zadania programowania liniowego (z duz ↪a liczb ↪a dodatkowychnierownosci liniowych)

min (z1, z2, . . . , zm) (4.55)

pod warunkiem, ze x ∈ Q (4.56)

yi = fi(x) dla i = 1, 2, . . . ,m (4.57)

zi ≥i∑

k=1

yτ(k) dla τ ∈ Π; i = 1, 2, . . . ,m (4.58)

Page 164: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

166 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Wynika z tego, ze w przypadku zadan WPL zbior rozwi ↪azan wyrownuj ↪aco efek-tywnych jest spojnym podzbiorem zbioru wszystkich rozwi ↪azan efektywnych.

Skalaryzacja minimaksowa (1.21) odpowiada minimalizacji pierwszej funkcjioceny w wielokryterialnym zadaniu (4.54). Podobnie skalaryzacja (1.18) polegaj ↪acana minimalizacji sumy wszystkich oryginalnych funkcji oceny odpowiada minima-lizacji ostatniej (m–tej) funkcji oceny w wielokryterialnym zadaniu (4.54). Zatemw przypadku problemow dwukryterialnych (m = 2), zbior rozwi ↪azan wyrownuj ↪acoefektywnych pokrywa si ↪e ze zbiorem rozwi ↪azan efektywnych dwukryterialnego za-dania z funkcjami oceny okreslonymi odpowiednio jako maksimum oryginalnychocen i suma oryginalnych ocen. W ogolnym przypadku, na mocy wnioskow 4.38 i1.13, prawdziwe s ↪a nast ↪epuj ↪ace wnioski.

Wniosek 4.39 Zbior rozwi ↪azan optymalnych zadania (1.21) zawiera wyrownuj ↪acoefektywne rozwi ↪azanie zadania wielokryterialnego (1.7), a jednoznaczne, w sensieuporz ↪adkowanych wektorow ocen Θ(f(x)), rozwi ↪azanie optymalne zadania (1.21)jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Wniosek 4.40 Zbior rozwi ↪azan optymalnych zadania (1.18) zawiera wyrownuj ↪acoefektywne rozwi ↪azanie zadania wielokryterialnego (1.7), a jednoznaczne, w sensieuporz ↪adkowanych wektorow ocen Θ(f(x)), rozwi ↪azanie optymalne zadania (1.18)jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Wniosek 4.41 Zbior rozwi ↪azan efektywnych dwukryterialnego zadania

min {( maxi=1,...,m

fi(x),

m∑i=1

fi(x)) : x ∈ Q} (4.59)

zawiera wyrownuj ↪aco efektywne rozwi ↪azanie zadania wielokryterialnego (1.7), ajezeli rozwi ↪azanie efektywne x0 zadania (4.59) spe lnia dla wszystkich x ∈ Q waru-nek

( maxi=1,...,m

fi(x) = maxi=1,...,m

fi(x0) i

m∑i=1

fi(x) =

m∑i=1

fi(x0)) ⇒

⇒ Θ(f(x)) = Θ(f(x0))

to x0 jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Wniosek 4.42 Zbior rozwi ↪azan optymalnych zadania (1.36) zawiera wyrownuj ↪acoefektywne rozwi ↪azanie zadania wielokryterialnego (1.7), a jednoznaczne, w sensieuporz ↪adkowanych wektorow ocen Θ(f(x)), rozwi ↪azanie optymalne zadania (1.36)jest wyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Stosuj ↪ac optymalizacj ↪e leksykograficzn ↪a (1.32) do zadania (4.54), otrzymujemyproblem leksykograficzny

lexmin {Θ(f1(x), f2(x), . . . , fm(x)) : x ∈ Q} (4.60)

Zauwazmy, ze na mocy definicji optymalizacji leksykograficznej problem (4.60)jest rownowazny standardowemu leksykograficznemu problemowi minimaksowemu

Page 165: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 167

(1.38) dla oryginalnego zadania wielokryterialnego (1.7). Prowadzi to do alterna-tywnego dowodu wniosku 4.37.

Jednym ze stosowanych w praktyce sposobow uwzgl ↪edniania rozbieznosci ocenjest wprowadzanie miary rozbieznosci jako dodatkowej funkcji oceny do modeluwielokryterialnego i poszukiwanie rozwi ↪azan efektywnych dla tak rozszerzonego za-dania wielokryterialnego. Na przyk lad, Mandell (1991) poszukiwa l rozwi ↪azan efek-tywnych problemu dwukryterialnego, gdzie jednym kryterium by la minimalizacjasumy ocen, a drugim minimalizacja wspo lczynnika Giniego. Nasuwa si ↪e tu natu-ralne pytanie, czy takie podejscia mog ↪a prowadzic do wyznaczenia wyrownuj ↪acoefektywnych rozwi ↪azan oryginalnego zadania wielokryterialnego. Niech g(y) ozna-cza minimalizowan ↪a miar ↪e rozbieznosci. Rozwi ↪azania efektywne odpowiadaj ↪a wek-

torom ocen niezdominowanym w sensie relacji<=, czyli w przypadku rozszerzonego

problemu w sensie relacji

y′ � y′′ ⇔(y′

<= y′′ i g(y′) ≤ g(y′′)

) Latwo zauwazyc, ze tak okreslona relacja preferencji nie spe lnia warunku scis lejmonotonicznosci, jezeli funkcja g nie spe lnia warunku (s labej monotonicznosci)g(y − εei) ≤ g(y) dla ε > 0. Niestety, warunku tego nie spe lnia ani wspo lczynnikGiniego (4.40), ani suma roznic ocen (4.39). Rozszerzone problemy wielokry-terialne z uzyciem tych miar nie generuj ↪a wi ↪ec rozwi ↪azan wyrownuj ↪aco efek-tywnych. Dla ilustracji tego faktu odwo lajmy si ↪e do przyk ladu 4.1. Ostatnierozwi ↪azanie przedstawione w tablicy 4.1 stanowi jednoznaczne rozwi ↪azanie prob-lemu minimalizacji wspo lczynnika Giniego. Jest zatem rozwi ↪azaniem efektywnymrozszerzonego problemu wielokryterialnego. Tymczasem, jak pokazalismy w tab-licy 4.1, uporz ↪adkowany wektor ocen tego rozwi ↪azania jest zdominowany przezuporz ↪adkowane wektory ocen wszystkich pozosta lych rozwazanych rozwi ↪azan. Tymsamym rozwi ↪azanie to nie jest wyrownuj ↪aco efektywne.

Przyk lad 4.5. Dla ilustracji rozwi ↪azan wyrownuj ↪aco efektywnych mozna przed-stawic wyniki analizy losowo generowanych problemow lokalizacyjnych. Rozwaza-my problemy lokalizacji jednego obiektu wsrod zadanego zbioru punktow (p = 1,m = n). W eksperymentach generowano losowo (przy uzyciu rozk ladu jednostaj-nego) punkty o ca lkowitych wspo lrz ↪ednych od 0 do 100. W pierwszej serii ekspe-rymentow generowano losowo wszystkie n punktow w kwadracie o wierzcho lkach(0,0), (100,0), (100,100) i (0,100), czyli wyst ↪epowa l jednostajny rozk lad punktow.W drugiej serii eksperymentow wybrano narozny punkt (100,100), a pozosta le n−1punktow generowano losowo w trojk ↪acie o wierzcho lkach (0,0), (100,0) i (0,100),czyli istnia l jeden izolowany punkt. Dla okreslenia odleg losci mi ↪edzy punktami naj-pierw zosta ly obliczone odleg losci euklidesowe (norma l2), a nast ↪epnie zaokr ↪aglonedo przyj ↪etego kroku (dok ladnosci) odleg losci rownej 10. Eksperymenty zosta lyprzeprowadzone dla liczby punktow n = 30, 50 i 100. W ramach kazdego ekspery-mentu wygenerowano losowo 50 problemow.

Dla kazdego z wygenerowanych problemow lokalizacyjnych wyznaczano szescrozwi ↪azan: lm – leksykograficzne rozwi ↪azanie minimaksowe (1.38), ls – rozwi ↪azaniezadania najmniejszych kwadratow (4.52), mm – standardowe rozwi ↪azanie minimak-sowe (1.21), ms – rozwi ↪azanie minimalizuj ↪ace sum ↪e ocen (1.18), ad – rozwi ↪azanie

Page 166: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

168 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

minimalizuj ↪ace sum ↪e bezwgl ↪ednych roznic mi ↪edzy ocenami (4.39), gc – rozwi ↪azanieminimalizuj ↪ace wspolczynnik Giniego (4.40). Pierwsze dwa rozwi ↪azania lm ils s ↪a wyrownuj ↪aco efektywne na mocy wnioskow 4.37 i 4.36. Dalsze dwa mmi ms s ↪a wyrownuj ↪aco efektywne w przypadku jednoznacznosci skumulowanychuporz ↪adkowanych wektorow ocen (wnioski 4.39 i 4.40). Ostatnie dwa rozwi ↪azaniaad i gc minimalizuj ↪a standardowe miary rozbieznosci.

Tablica 4.4

Sredni rozk lad ocen dla problemu z jednostajnym rozk ladem punktow

Tablica 4.4:Procentowy rozk lad ocen dla n = 30

Rozw. 0 10 20 30 40 50 60 70 80 90 100+

lm 3.67 4.80 11.53 20.27 25.40 20.93 11.20 1.93 0.27

mm 3.67 5.33 12.27 19.00 24.07 19.60 12.13 3.33 0.60

ms 3.80 6.53 12.07 21.27 23.60 17.93 10.53 3.33 0.87 0.07

ls 3.73 5.80 11.27 20.27 26.60 19.13 10.33 2.40 0.47

gc 3.33 1.60 5.00 11.40 16.87 16.67 12.20 11.07 8.73 6.60 6.53

ad 3.47 3.67 10.60 20.33 26.33 21.53 10.73 2.87 0.33 0.13

Procentowy rozk lad ocen dla n = 50

Rozw. 0 10 20 30 40 50 60 70 80 90 100+

lm 2.44 5.52 12.60 18.96 23.88 23.52 11.16 1.92

mm 2.56 5.92 12.52 18.40 23.20 21.80 12.68 2.92

ms 2.88 6.56 13.88 19.68 23.00 19.72 10.96 2.80 0.48 0.04

ls 2.60 6.08 13.16 20.28 23.68 21.16 10.44 2.40 0.20

gc 2.08 2.12 5.72 10.56 15.04 16.04 12.12 9.56 9.32 7.64 9.80

ad 2.44 4.88 11.72 20.08 25.24 23.56 9.48 2.44 0.16

Procentowy rozk lad ocen dla n = 100

Rozw. 0 10 20 30 40 50 60 70 80 90 100+

lm 1.54 5.78 12.40 19.64 23.52 24.72 10.76 1.64

mm 1.54 5.98 12.14 19.26 23.16 22.74 12.12 3.06

ms 1.68 6.48 13.14 19.72 23.92 21.54 10.86 2.32 0.34

ls 1.58 6.26 12.80 19.72 24.50 22.26 10.66 2.12 0.10

gc 1.16 2.66 5.80 10.02 13.78 14.96 10.96 9.16 9.40 10.20 11.90

ad 1.38 5.50 11.84 19.76 24.72 24.48 10.38 1.88 0.06

Tablice 4.4 i 4.5 przedstawiaj ↪a wyniki dla pierwszej serii eksperymentow z jed-nostajnym rozk ladem punktow. Tablica 4.4 zawiera srednie rozk lady ocen dlaposzczegolnych rozwi ↪azan. Obserwujemy tam dosc wysoki procent duzych odleg- losci w rozwi ↪azaniu gc. Rozwi ↪azania mm i lm minimalizuj ↪a maksymaln ↪a odleg- losc. Rozwi ↪azanie lm minimalizuje jednak dodatkowo liczb ↪e wyst ↪apien odleg loscimaksymalnych. Rozwi ↪azanie ms wydaje si ↪e maksymalizowac liczb ↪e wyst ↪apien naj-mniejszych odleg losci, pozwalaj ↪ac pewnym ocenom przekraczac wartosc minimak-symaln ↪a. Rozwi ↪azanie ls jest podobne do ms, ale wydaje si ↪e zwracac wi ↪eksz ↪auwag ↪e na minimalizacj ↪e najwi ↪ekszych odleg losci.

Tablica 4.5 przedstawia koincydencj ↪e rozwi ↪azan, czyli procent przypadkow, gdyrozwi ↪azania by ly identyczne. Oprocz koincydencji poszczegolnych par rozwi ↪azanpodano tam tez procentow ↪a zgodnosc wszystkich rozwi ↪azan (all). Ze wzgl ↪edu najednostajny rozk lad punktow, mozna tu zaobserwowac wzgl ↪ednie wysok ↪a koincy-

Page 167: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 169

Tablica 4.5

Koincydencja rozwi ↪azan dla problemu z jednostajnym rozk ladem punktow

Tablica 4.5:n = 30 n = 50 n = 100

Rozw. lm mm ms ls gc lm mm ms ls gc lm mm ms ls gc

ad 72 56 40 60 34 62 44 32 52 30 62 28 28 38 32

gc 32 28 18 28 28 16 6 16 24 14 14 18

ls 76 60 74 56 38 72 48 20 74

ms 52 42 34 28 38 20

mm 68 64 38

all 16 4 6

dencj ↪e rozwi ↪azan dla wszystkich par. Koincydencja wszystkich rozwi ↪azan jest jed-nak niska.

Tablice 4.6 i 4.7 przedstawiaj ↪a wyniki dla drugiej serii eksperymentow z izo-lowanym punktem (100,100). W tej serii eksperymentow rozwi ↪azanie gc zawszepolega lo na wyborze lokalizacji w izolowanym punkcie (100,100), a ad wybiera loten punkt w 40–88% przypadkow, zaleznie od rozmiaru problemu. Wszystkie po-zosta le rozwi ↪azania zawsze wybiera ly pewn ↪a lokalizacj ↪e w trojk ↪acie (0,0), (100,0),(0,100). W tej serii eksperymentow szesc rozwazanych rozwi ↪azan wyraznie po-dzieli lo si ↪e na trzy pary wzgl ↪ednie podobnych rozwi ↪azan: lm i mm, ms i ls orazad i gc (por. tab. 4.7). Jednak nadal mozna zaobserwowac roznice w srednichrozk ladach ocen (por. tab. 4.6) pomi ↪edzy rozwi ↪azaniami lm a mm i odpowiedniopomi ↪edzy rozwi ↪azaniami ls a ms. �

Stosuj ↪ac metod ↪e wag (1.19) do zadania (4.54) otrzymujemy parametryczne za-danie postaci

min {m∑i=1

wiθi(f(x)) : x ∈ Q} (4.61)

Zauwazmy, ze na mocy definicji operatora Θ zadanie to jest rownowazne zasto-sowaniu do wielokryterialnego problemu (1.7) operatora agregacji OWA (4.15) zodpowiednio zmodyfikowanymi wagami. Zadanie (4.61) moze byc zapisane w pos-taci

min {m∑i=1

wiθi(f(x)) : x ∈ Q} (4.62)

gdzie wi =∑mj=i wj dla i = 1, 2, . . . ,m. Prawdziwe s ↪a nast ↪epuj ↪ace twierdzenia.

Twierdzenie 4.22 Jezeli wagi wi spe lniaj ↪a warunek

w1 > w2 > · · · > wm−1 > wm > 0 (4.63)

to kazde rozwi ↪azanie optymalne odpowiedniego problemu OWA (4.15) jest wyrow-nuj ↪aco efektywnym rozwi ↪azaniem problemu wielokryterialnego (1.7).

Dowod. Zadanie (4.15) z wagami wi mozna zapisac w postaci

Page 168: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

170 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Tablica 4.6

Sredni rozk lad ocen dla problemu z izolowanym punktem

Tablica 4.6:Procentowy rozk lad ocen dla n = 30

Rozw. 0 10 20 30 40 50 60 70 80 90 100+

lm 4.33 7.73 13.33 20.00 19.87 17.53 10.07 4.73 2.26 0.13

mm 4.00 8.20 13.20 18.27 18.40 17.20 11.20 5.80 3.60 0.13

ms 5.00 15.53 18.33 19.07 16.60 10.53 6.93 2.73 2.33 2.20 0.73

ls 4.87 12.73 18.20 20.80 18.33 11.87 6.33 2.20 2.33 1.80 0.53

gc 3.33 2.40 16.93 24.47 46.87

ad 3.47 2.67 6.80 10.07 10.60 8.33 3.00 2.47 9.87 14.07 28.65

Procentowy rozk lad ocen dla n = 50

Rozw. 0 10 20 30 40 50 60 70 80 90 100+

lm 2.68 7.28 12.40 20.28 22.92 18.92 10.44 4.20 0.88

mm 2.80 7.32 12.56 19.16 22.56 17.16 11.44 5.36 1.64

ms 3.60 14.32 21.40 19.04 17.04 11.56 6.60 2.60 1.60 1.76 0.48

ls 3.32 11.92 20.08 22.28 18.00 12.56 6.80 2.28 1.24 1.24 0.28

gc 2.00 2.60 15.36 26.20 53.84

ad 2.04 1.40 5.04 9.92 9.76 7.60 3.76 2.64 9.88 15.80 32.16

Procentowy rozk lad ocen dla n = 100

Rozw. 0 10 20 30 40 50 60 70 80 90 100+

lm 1.66 6.64 11.96 18.42 23.44 20.78 12.26 4.70 0.14

mm 1.66 6.72 12.00 18.24 23.08 20.24 12.30 5.34 0.42

ms 2.48 13.66 22.56 20.60 16.90 12.44 5.86 2.78 1.52 1.04 0.16

ls 2.30 12.16 21.90 21.40 18.42 14.16 5.44 2.16 1.10 0.90 0.06

gc 1.00 2.88 15.50 26.36 54.26

ad 1.04 0.60 1.42 2.94 2.76 2.60 1.16 2.78 13.94 23.18 47.58

Tablica 4.7

Koincydencja rozwi ↪azan dla problemu z izolowanym punktem

Tablica 4.7:n = 30 n = 50 n = 100

Rozw. lm mm ms ls gc lm mm ms ls gc lm mm ms ls gc

ad 16 10 2 6 54 26 16 2 2 40 6 2 0 0 88

gc 0 0 0 0 0 0 0 0 0 0 0 0

ls 12 6 54 6 0 62 0 0 48

ms 6 4 2 0 0 0

mm 68 58 68

all 0 0 0

Page 169: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 171

min {m∑i=1

w′iθi(f(x)) : x ∈ Q}

gdzie wspo lczynniki w′i s ↪a okreslone jako w′m = wm i w′i = wi − wi+1 dla i =1, 2, . . . ,m− 1.

Jezeli spe lniony jest warunek (4.63), to w′i > 0 dla i = 1, 2, . . . ,m. Zatem, namocy wnioskow 1.15 i 4.38, rozwi ↪azanie optymalne zadania (4.15) jest wyrownuj ↪acoefektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7).

Twierdzenie 4.23 Dla kazdego x0 wyrownuj ↪aco efektywnego rozwi ↪azania zadaniaWPL istniej ↪a wagi w1 > w2 > · · · > wm−1 > wm > 0 takie, ze x0 jest rozwi ↪azaniemoptymalnym odpowiedniego zadania OWA (4.15).

Dowod. Na mocy wniosku 4.38 x0 jest rozwi ↪azaniem efektywnym wielokryterial-nego zadania programowania liniowego (4.55)–(4.58). Na mocy twierdzenia 1.9 ist-niej ↪a wtedy dodatnie wagi w′i (i = 1, 2, . . . ,m) takie, ze x0 jest rozwi ↪azaniem opty-malnym odpowiedniego zadania (4.61). Zatem x0 jest rozwi ↪azaniem optymalnymodpowiedniego zadania OWA (4.15) z wagami wi =

∑mj=i w

′j dla i = 1, 2, . . . ,m.

Zauwazmy, ze w przypadku wag wi spe lniaj ↪acych warunek (4.63), dla dowolnejpermutacji τ zbioru I prawdziwa jest nierownosc

m∑i=1

wτ(i)yi ≤m∑i=1

wiθi(y)

Zatem zadanie wyznaczenia rozwi ↪azania wyrownuj ↪aco efektywnego za pomoc ↪atechniki OWA moze byc implementowane przez dodanie do ograniczen zadaniam! nierownosci liniowych, czyli w postaci zadania

min z (4.64)

pod warunkiem, ze x ∈ Q (4.65)

yi = fi(x) dla i = 1, 2, . . . ,m (4.66)

z ≥m∑i=1

wτ(i)yi dla τ ∈ Π (4.67)

gdzie Π jest zbiorem wszystkich permutacji τ zbioru indeksow I. Dla zadan WPLodpowiednie zadania (4.64)–(4.67) s ↪a zadaniami programowania liniowego. Wpraktyce taki zapis zadania (4.61) jest uzyteczny jedynie w przypadku niewielkiejliczby funkcji oceny.

Niestety technika agregacji OWA z malej ↪acymi wagami nie stanowi — w ogol-nym przypadku — zupe lnej parametryzacji ca lego zbioru rozwi ↪azan wyrownuj ↪acoefektywnych. Wynika to ze specyfiki podejscia wazenia ocen do problemow wie-lokryterialnych (por. przyk lad 1.2). W przypadku wielokryterialnych problemowdyskretnych (jak problem lokalizacji (4.3)–(4.4)) istniej ↪a rozwi ↪azania wyrownuj ↪acoefektywne, ktore nie mog ↪a byc wygenerowane jako rozwi ↪azania optymalne problemu(4.15) dla zadnego zbioru dodatnich wag. Pokazemy to na ma lym przyk ladzie.

Page 170: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

172 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Przyk lad 4.6. Rozpatrzmy problem umiejscowienia pojedynczego obiektu w jed-nej z trzech potencjalnych lokalizacji (P1, P2 i P3) do obs lugi dwoch klientow (C1 iC2). Odleg losci pomi ↪edzy poszczegolnymi klientami i potencjalnymi lokalizacjamis ↪a nast ↪epuj ↪ace: d11 = 15, d12 = 14, d13 = 13, d21 = 8, d22 = 11, d23 = 13.

Zauwazmy, ze wszystkie trzy rozwi ↪azania dopuszczalne s ↪a efektywne w standar-dowym sensie i jednoczesnie wyrownuj ↪aco efektywne. Latwo sprawdzic, ze stosuj ↪acagregacj ↪e OWA nie mozna wybrac lokalizacji P2 dla zadnego zbioru dodatnich wag.Zeby lokalizacja P2 by la rozwi ↪azaniem optymalnym problemu (4.15), wspo lczynnikiwagowe musz ↪a spe lniac nierownosci: w1 ≥ 3w2 i 2w2 ≥ w1, co nie jest mozliweprzy w1 > w2 > 0. Faktycznie, jezeli 2w1 < 5w2, to lokalizacja P1 jest jednoznacz-nym rozwi ↪azaniem optymalnym problemu (4.15). Jezeli 2w1 > 5w2, to lokalizacjaP3 jest jednoznacznym rozwi ↪azaniem optymalnym problemu (4.15). W koncu, gdy2w1 = 5w2, wtedy obie lokalizacje P1 i P3 s ↪a optymalne. Lokalizacja P2 nigdy niejest rozwi ↪azaniem optymalnym problemu (4.15). �

Zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan wyrownuj ↪aco efektywnych moznaotrzymac stosuj ↪ac metody punktu referencyjnego do zadania (4.54). Stosuj ↪ac pa-rametryzacj ↪e (3.4) do zadania (4.54) otrzymujemy

lexmin {( maxi=1,...,m

si(ai, θi(f(x))),

m∑i=1

si(ai, θi(f(x)))) : x ∈ Q}, a ∈ Y (4.68)

Bezposrednio z wnioskow 4.38, 3.1 i twierdzenia 3.2 wynikaj ↪a nast ↪epuj ↪ace wnioski.

Wniosek 4.43 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yirozwi ↪azanie optymalne zadania (4.68) jest wyrownuj ↪aco efektywnym rozwi ↪azaniemzadania wielokryterialnego (1.7).

Wniosek 4.44 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funk-cje si(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to kazdewyrownuj ↪aco efektywne rozwi ↪azanie x0 zadania wielokryterialnego (1.7) jest roz-

wi ↪azaniem optymalnym zadania (4.68) dla wektora aspiracji a0 = Θ(f(x0)).

Wniosek 4.45 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to dla dowolnegowyrownuj ↪aco efektywnego rozwi ↪azania x0 zadania wielokryterialnego (1.7) istniejewektor poziomow aspiracji a0 ∈ Y taki, ze x0 jest rozwi ↪azaniem optymalnym odpo-wiedniego zadania (4.68).

Zauwazmy, ze poszczegolne wspo lrz ↪edne wektora aspiracji a, uzytego w para-metryzacji (4.68), odpowiadaj ↪a wspo lrz ↪ednym skumulowanego uporz ↪adkowanegowektora ocen Θ(f(x)). W szczegolnosci, dla wyznaczenia wyrownuj ↪aco efektyw-nego rozwi ↪azania x0 za pomoc ↪a parametryzacji (4.68), jako wektor aspiracji nalezy

przyj ↪ac a0 = Θ(f(x0)). Tym samym, mozna ograniczyc si ↪e do uzywania tylko

wektorow aspiracji reprezentuj ↪acych pewne skumulowane uporz ↪adkowane wektoryocen. Relacja preferencji parametryzacji (4.68) z wektorem aspiracji a = Θ(ya)dla pewnego ya ∈ Y spe lnia nast ↪epuj ↪acy odpowiednik warunku (3.1)

Page 171: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 173

(Θ(y) 6≤ Θ(ya) i Θ(y) 6= Θ(ya)) ⇒ ya ≺ y (4.69)

Oznacza to, ze kazdy wektor ya taki, ze a = Θ(ya), jest preferowany w stosunkudo dowolnego wektora ocen y 6�w ya, czyli

y 6�w ya ⇒ ya ≺ y (4.70)

Twierdzenie 4.24 Jezeli wektor aspiracji a = Θ(ya) dla pewnego ya ∈ Y , funk-cje si(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to relacjapreferencji definiowana przez minimalizacj ↪e leksykograficzn ↪a (4.68) jest zwrotna,przechodnia, scisle monotoniczna i anonimowa oraz spe lnia aksjomat przesuni ↪ecwyrownuj ↪acych i warunek (4.69).

Dowod. Jezeli a = Θ(ya) dla pewnego ya ∈ Y , to minimalizacja (4.68) jest torownowazna nast ↪epuj ↪acemu zadaniu

lexmin {( maxi=1,...,m

si(θi(ya), θi(f(x))),

m∑i=1

si(θi(ya), θi(f(x)))) : x ∈ Q} (4.71)

Zwrotnosc i przechodniosc relacji preferencji definiowanej przez minimalizacj ↪e(4.71) jest oczywista. Anonimowosc relacji wynika z uzycia operatora Θ.

Dla wykazania scis lej monotonicznosci i warunku przesuni ↪ec wyrownuj ↪acychzauwazmy, ze relacja (4.47) jest wyrownuj ↪aco racjonaln ↪a relacj ↪a preferencji, czylidla dowolnego i ∈ I prawdziwe s ↪a zaleznosci

Θ(y − εei) ≤ Θ(y) dla ε > 0

yi′ > yi′′ ⇒ Θ(y − εei′ + εei′′) ≤ Θ(y) dla 0 < ε < yi′ − yi′′

St ↪ad na mocy wnioskow 1.21 i 1.2 stwierdzamy, ze relacja preferencji definiowanaprzez minimalizacj ↪e (4.71) jest scisle monotoniczna i spe lnia aksjomat przesuni ↪ecwyrownuj ↪acych. Dalej, na mocy twierdzenia 1.11, prawdziwa jest implikacja

Θ(y) 6<= Θ(a) ⇒ ya ≺ y

czyli warunek (4.69).

Wielkosci θi(y)/i wyrazaj ↪a cz ↪esciowe srednie pocz ↪atkowych i wspo lrz ↪ednychuporz ↪adkowanych wektorow ocen Θ(y). Mog ↪a byc zatem interpretowane graficznieza pomoc ↪a nierosn ↪acych lamanych, jak na rysunku 4.8. Taka interpretacja graficznadostarcza wygodnego interfejsu graficznego dla interaktywnej analizy opartej naparametryzacji (4.68).

4.2.3 Podejscie dystrybucyjne

W podrozdziale 4.1 pokazalismy, ze w przypadku skonczonego dyskretnegozbioru wartosci ocen V wielokryterialny problem minimalizacji uporz ↪adkowanychwektorow ocen (4.14) jest rownowazny wielokryterialnemu problemowi dystry-bucyjnemu (4.30) z indywidualnymi funkcjami hk okreslonymi wzorami (4.25)–(4.27). Podobny wynik mozna wyprowadzic dla wielokryterialnego problemu mi-nimalizacji skumulowanych uporz ↪adkowanych wektorow ocen (4.54). Niech V =

Page 172: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

174 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

-

6θi/i

i

ymax y

qq q q q

@@@@HH

HHhhhhhhhHHHH

1 2 3 m− 1 m

Rysunek 4.8:Rys. 4.8. Wykres θi(y)/i

{v0, v1, . . . , vr} (v0 > v1 > · · · > vr) oznacza zbior wszystkich mozliwych roznychwartosci funkcji oceny fi dla x ∈ Q, czyli A ⊂ V m ⊂ Y . Jak w podrozdziale 4.1,niech funkcje hk(y) (k = 0, 1, . . . , r) wyrazaj ↪a liczb ↪e wartosci vk wyst ↪epuj ↪acych wwektorze ocen y = f(x), a funkcje hk(y) (k = 1, 2, . . . , r) stanowi ↪a skumulowanefunkcje rozk ladu (4.27), wyrazaj ↪ace liczb ↪e ocen wi ↪ekszych od vk. Dla uwzgl ↪ednieniawartosci wspo lczynnikow vk i kumulacji w operatorze Θ do wektora h(y) zastosu-jemy dodatkowo liniowy operator wazonej kumulacji Γv = (γv1 , γ

v2 , . . . , γ

vr ), gdzie

dla q ∈ Rr

γvk(q) =

k∑l=1

(vl−1 − vl)ql dla k = 1, 2, . . . , r (4.72)

W ten sposob otrzymujemy funkcj ↪e wektorow ↪a h(y) = Γv(h(y)), ktorej poszcze-golne wspo lrz ↪edne s ↪a funkcjami postaci

hk(y) =

k∑l=1

(vl−1 − vl)hl(y) dla k = 1, 2, . . . , r (4.73)

Zauwazmy, ze

hk(y) =

k∑l=1

[(vl−1 − vl)l−1∑j=0

hj(y)] =

k−1∑l=0

(vl − vk)hl(y) dla k = 1, 2, . . . , r (4.74)

czyli hk(y) wyraza sum ↪e roznic pomi ↪edzy ocenami yi wi ↪ekszymi od vk i wartosci ↪avk. Poniewaz (vl− vk) > 0 dla 0 ≤ l < k, to z (4.74) wynika, ze funkcja wektorowah(y) jednoznacznie opisuje rozk lad wartosci wspo lrz ↪ednych wektora ocen y, jakoze dla dowolnych y′,y′′ ∈ V m

h(y′) = h(y′′) ⇔ h(y′) = h(y′′) ⇔ Θ(y′) = Θ(y′′) (4.75)

Page 173: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 175

Zaleznosc (4.74) pozwala tez na bezposrednie wyrazenie hk(y) jako kawa lkami li-niowej funkcji wektora ocen y

hk(y) =

m∑i=1

(yi − vk)+ dla k = 1, 2, . . . , r (4.76)

6h

. . . -v

. . .m rr r

r r rv3 v2 v1 v0vk vk−1 vk−2

��

���������������

��

��

���������

��������

����

����

Rysunek 4.9:Rys. 4.9. hk(y) jako pole obszaru pod wykresem h(y)

W poprzednim podrozdziale pokazalismy, ze istnieje mozliwosc zdefiniowaniawartosci hv(y) dla dowolnego v ∈ R jako liczby ocen yi wi ↪ekszych od v (por.(4.31)). Schodkowy wykres (v, hv(y)) odpowiada wtedy wykresowi “odwroconej”

dystrybuanty rozk ladu wartosci yi. Wielkosc hk(y) dla k = 1, 2, . . . , r moze bycinterpretowana jako pole obszaru pod wykresem (v, hv(y)) dla v ≥ vk (por. rys 4.9).

Podobnie wzor 4.74 pozwala na latwe zdefiniowanie wartosci hv(y) dla dowolnegov ∈ R jako

hv(y) =∑

k:vk>v

(vk − v)hk(y) =

m∑i=1

(yi − v)+ (4.77)

Rysunek 4.10 przedstawia wykres (v, hv(y)/m). Zauwazmy, ze dla vr ≤ v ≤ v0

jest to krzywa ( lamana) wypuk la pokrywaj ↪aca si ↪e z osi ↪a v dla v ≥ θ1(y) i prze-chodz ↪aca przez punkt (vr, y − vr), gdzie y jest sredni ↪a arytmetyczn ↪a ocen yi. Tak

wi ↪ec przebieg krzywej (v, hv(y)/m) jest wst ↪epnie okreslony przez wartosci maksy-malnej i sredniej oceny, ale ostateczny kszta lt krzywej zalezy od ca lego rozk laduwartosci wspo lrz ↪ednych yi. W modelach probabilistycznych dominacja wektorowh(y) jest nazywana dominacj ↪a stochastyczn ↪a drugiego rz ↪edu (Levy, 1992).

Rozpatrzmy problem wielokryterialny

min {(h1(f(x)), h2(f(x)), . . . , hr(f(x))) : x ∈ Q} (4.78)

Okazuje si ↪e, ze wyrownuj ↪aca dominacja wektorow ocen y = f(x) dla zadaniawielokryterialnego (1.7) jest rownowazna standardowej dominacji wektorow ocen

h(y) = (h1(y), h2(y), . . . , hr(y)) dla wielokryterialnego zadania (4.78).

Twierdzenie 4.25 Wektor ocen y′ ∈ V m dominuje wyrownuj ↪aco y′′ ∈ V m wtedyi tylko wtedy, gdy h(y′) ≤ h(y′′).

Page 174: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

176 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

-

6hv/m

vvr

y − vr

vk′′ − vr@@@@@@@vk′′ vk′

@@

@@@

@@@

@@@

vk′ − vr

v1 v0

ZZZZZQQQQHHH

Rysunek 4.10:Rys. 4.10. Wykres hv(y)/m

Dowod. Jezeli wektor ocen y′ ∈ Y dominuje wyrownuj ↪aco y′′ ∈ Y , to istniejeskonczony ci ↪ag wektorow y0 = y′′,y1, . . . ,yt−1,yt = y′ taki, ze yk ∈ Y dla k =1, 2, . . . , t oraz Θ(yk) ≤ Θ(yk−1) lub yk = yk−1−εei′+εei′′ dla 0 < ε < yk−1

i′ −yk−1i′′

Zauwazmy, ze na mocy (4.73) dla dowolnego wektora u ∈ Y

h(u− εei′ + εei′′)<= h(u) dla 0 < ε < ui′ − ui′′

i dla dowolnych wektorow u′, u′′ ∈ Y

Θ(u′) ≤ Θ(u′′) ⇒ h(u′)<= h(u′′)

Zatem h(yk)<= h(yk−1) dla k = 1, 2, . . . , t i, co za tym idzie, h(y′)

<= h(y′′).

Jednoczesnie na mocy (4.75), h(y′) 6= h(y′′), czyli h(y′) ≤ h(y′′). Tak wi ↪ecz wyrownuj ↪acego dominowania wektora y′′ przez wektor y′ wynika nierownosch(y′) ≤ h(y′′).

Niech h(y′) ≤ h(y′′). Pokazemy, ze Θ(y′) ≤ Θ(y′′). Przypuscmy, ze Θ(y′) 6≤Θ(y′′). Jezeli Θ(y′) = Θ(y′′), to z (4.45) i (4.75) otrzymujemy h(y′) = h(y′′),co przeczy h(y′) ≤ h(y′′). Pozostaje zatem przypadek, gdy Θ(y′) 6≤ Θ(y′′) iΘ(y′) 6= Θ(y′′). Istnieje wtedy indeks i0 (1 ≤ i0 ≤ m) taki, ze θi0(y′) > θi0(y′′)i θi(y

′) = θi(y′′) dla 1 ≤ i < i0. Niech k0 oznacza indeks taki, ze θi0(y′) = vk0 .

Zauwazmy, ze 0 ≤ k0 ≤ r − 1 oraz hk0(y′) > hk0(y′′) i hk(y′) = hk(y′′) dla

0 ≤ k < k0. St ↪ad, na mocy (4.74) otrzymujemy hk0+1(y′) > hk0+1(y′′), co przeczyh(y′) ≤ h(y′′). Zatem z nierownosci h(y′) ≤ h(y′′) wynika nierownosc Θ(y′) ≤Θ(y′′) i na mocy twierdzenia 4.24 wektor ocen y′ wyrownuj ↪aco dominuje y′′.

Wniosek 4.46 Dla dowolnych wektorow ocen y′,y′′ ∈ V m

h(y′) ≤ h(y′′) ⇔ Θ(y′) ≤ Θ(y′′)

Page 175: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.2. ROZWI ↪AZANIA WYROWNUJ ↪ACO EFEKTYWNE 177

Wniosek 4.47 Jezeli A ⊂ V m, to rozwi ↪azanie dopuszczalne x ∈ Q jestwyrownuj ↪aco efektywnym rozwi ↪azaniem zadania wielokryterialnego (1.7) wtedy itylko wtedy, gdy jest ono rozwi ↪azaniem efektywnym problemu wielokryterialnego(4.78).

Zauwazmy, ze hr(y) +mvr =∑mi=1 yi, czyli minimalizacja sumy oryginalnych

funkcji oceny problemu (1.7) (skalaryzacja (1.18)) jest rownowazna minimalizacjiostatniej pojedynczej funkcji oceny w zadaniu (4.78). Natomiast suma wartoscibewzgl ↪ednych wszystkich roznic mi ↪edzy ocenami (4.39) wyraza si ↪e jako

m∑i=1

m∑j=1

|yi − yj | = 2

r∑k=1

hk(y)hk(y)

czyli jest kombinacj ↪a liniow ↪a o zmiennych wspo lczynnikach funkcji oceny z zada-nia (4.78). Zatem minimalizacja (4.39) nie moze byc traktowana jako poprawnaskalaryzacja wielokryterialnego zadania (4.78).

Zupe ln ↪a parametryzacj ↪e zbioru rozwi ↪azan wyrownuj ↪aco efektywnych moznaotrzymac stosuj ↪ac metody punktu referencyjnego do zadania (4.78). Stosuj ↪ac pa-rametryzacj ↪e (3.4) do zadania (4.78) otrzymujemy

lexmin {( maxk=1,...,r

sk(qak , hk(f(x))),

r∑k=1

sk(qak , hk(f(x)))) : x ∈ Q}, qa ∈ Rr (4.79)

gdzie sk : R×R→ R. Bezposrednio z wnioskow 4.47, 3.1 i twierdzenia 3.2 wynikaj ↪anast ↪epuj ↪ace wnioski.

Wniosek 4.48 Jezeli A ⊂ V m i funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk, torozwi ↪azanie optymalne zadania (4.79) jest wyrownuj ↪aco efektywnym rozwi ↪azaniemzadania wielokryterialnego (1.7).

Wniosek 4.49 Jezeli A ⊂ V m oraz dla kazdego wektora poziomow aspiracjiqa ∈ Rr funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk i spe lniaj ↪a warunek (4.35), tokazde wyrownuj ↪aco efektywne rozwi ↪azanie x0 zadania wielokryterialnego (1.7) jest

rozwi ↪azaniem optymalnym zadania (4.79) dla wektora aspiracji qa = h(f(x0)).

Wniosek 4.50 Jezeli A ⊂ V m oraz dla kazdego wektora poziomow aspiracjiqa ∈ Rr funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk i spe lniaj ↪a warunek (4.35), todla dowolnego wyrownuj ↪aco efektywnego rozwi ↪azania x0 zadania wielokryterialnego(1.7) istnieje wektor poziomow aspiracji qa ∈ Rr taki, ze x0 jest rozwi ↪azaniemoptymalnym odpowiedniego zadania (4.79).

Zauwazmy, ze poszczegolne wspo lrz ↪edne wektora aspiracji qa uzytego w para-metryzacji (4.79) odpowiadaj ↪a wspo lrz ↪ednym wektora h(f(x)). W szczegolnosci,dla wyznaczenia wyrownuj ↪aco efektywnego rozwi ↪azania x0 za pomoc ↪a paramet-ryzacji (4.79), jako wektor aspiracji powinno byc przyj ↪ete qa = h(f(x

0)). Tym

samym, w czasie analizy interaktywnej mozna uzywac jedynie wektorow aspiracjipostaci qa = h(ya) dla pewnych ya ∈ Y . Podejscie takie prowadzi do interaktywnej

Page 176: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

178 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

metody referencyjnej dystrybucji jako uogolnienia metody punktu referencyjnegodla zadan z jednorodnymi ocenami. Przedstawiona na rysunku 4.10 graficzna repre-zentacja wektorow ocen h(y) w postaci wykresow krzywych (v, hv(y)/m) dostarczainterfejsu graficznego do prowadzenia analizy interaktywnej w ramach odpowied-niego systemu wspomagania decyzji.

W przypadku stosowania wektorow aspiracji postaci qa = h(ya) dla pew-nych ya ∈ Y , relacja preferencji parametryzacji (4.34) spe lnia warunek (4.69) dlakazdego wektora ya ∈ Y takiego, ze qa = h(ya). Oznacza to, ze kazdy wektorya taki, ze qa = h(ya), jest preferowany w stosunku do dowolnego wektora oceny 6�w ya, czyli

y 6�w ya ⇒ ya ≺ y (4.80)

Twierdzenie 4.26 Jezeli A ⊂ V m, wektor aspiracji qa = h(ya) dla pewnegoya ∈ Y oraz funkcje sk(qak , qk) s ↪a scisle rosn ↪ace po qk i spe lniaj ↪a warunek (4.35),to relacja preferencji definiowana przez leksykograficzn ↪a minimalizacj ↪e (4.79) jestzwrotna, przechodnia, scisle monotoniczna i anonimowa oraz spe lnia warunek prze-suni ↪ec wyrownuj ↪acych i warunek (4.69).

Dowod. Jezeli qa = h(ya) dla pewnego ya ∈ Y , to minimalizacja (4.79) jestrownowazna nast ↪epuj ↪acemu zadaniu

lexmin {( maxk=1,...,r

sk(hk(ya), hk(f(x))),

r∑k=1

sk(hk(ya), hk(f(x)))) : x ∈ Q} (4.81)

Zwrotnosc i przechodniosc relacji preferencji definiowanej przez minimalizacj ↪e(4.81) jest oczywista. Anonimowosc relacji wynika z uzycia operatora h.

Dla wykazania scis lej monotonicznosci i warunku przesuni ↪ec wyrownuj ↪acychzauwazmy, ze na mocy wniosku 4.46 prawdziwe s ↪a zaleznosci

h(y − εei) ≤ h(y) dla ε > 0

yi′ > yi′′ ⇒ h(y − εei′ + εei′′) ≤ h(y) dla 0 < ε < yi′ − yi′′

St ↪ad, na mocy wnioskow 1.21 i 1.2, stwierdzamy, ze relacja preferencji definiowanaprzez minimalizacj ↪e (4.81) jest scisle monotoniczna i spe lnia aksjomat przesuni ↪ecwyrownuj ↪acych.

Dalej, na mocy twierdzenia 1.11, prawdziwa jest implikacja

h(y) 6<= h(ya) ⇒ ya ≺ y

St ↪ad, na mocy wniosku 4.46 i zaleznosci (4.75), otrzymujemy warunek (4.69).

4.3 Leksykograficzna metoda punktu referencyj-nego

Rozwazane w podrozdziale 3.1 metody punktu referencyjnego wyznaczaniarozwi ↪azan efektywnych zadania wielokryterialnego (1.7) mozna interpretowac jakostosowanie minimaksowej skalaryzacji (1.36) do zadania o parametrycznych funk-cjach oceny si(ai, fi(x)) lub si(ai, ri, fi(x)) w przypadku przedzia lowej metody

Page 177: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.3. LEKSYKOGRAFICZNA METODA PUNKTU REFERENCYJNEGO 179

punktu referencyjnego. Oznacza to, ze skalaryzacja (1.36) jest tam uzywana dowyznaczania rozwi ↪azan efektywnych parametrycznych zadan wielokryterialnych

min {s(a, f(x)) : x ∈ Q}, a ∈ Y (4.82)

gdzie

s(a, f(x)) = (s1(a1, f1(x)), s2(a2, f2(x)), . . . , sm(am, fm(x))) (4.83)

lub odpowiednio

min {s(a, r, f(x)) : x ∈ Q}, a < r, a, r ∈ Y (4.84)

gdzie

s(a, r, f(x)) = (s1(a1, r1, f1(x)), s2(a2, r2, f2(x)), . . . , sm(am, rm, fm(x))) (4.85)

Wprowadzone w problemach (4.82) i (4.84) funkcje oceny si oceniaj ↪a wartoscioryginalnych funkcji oceny fi w terminach modelu preferencji okreslonego przezprzyj ↪ete poziomy aspiracji i rezerwacji (lub wspo lczynniki skaluj ↪ace). Co wi ↪ecej,wyraznie d ↪azy si ↪e do tego, zeby funkcje si mierzy ly indywidualne oceny w tej samejskali. Najlepiej jest to widoczne w przedzia lowej metodzie punktu referencyjnego,gdzie funkcje si s ↪a tak konstruowane, by zagwarantowac spe lnienie warunku

si(ai, ri, ai) = 0, si(ai, ri, ri) = 1 dla i = 1, 2, . . . ,m

Zatem zadania wielokryterialne (4.82) i (4.84) lez ↪ace u podstaw metod punktu re-ferencyjnego nalez ↪a do klasy rozwazanych w dwoch wczesniejszych podrozdzia lachzadan z jednakowo waznymi ocenami jednorodnymi. Pojawia si ↪e tu naturalne pyta-nie, czy model preferencji standardowych metod punktu referencyjnego uwzgl ↪edniaelementy rownosci funkcji oceny si w zadaniach (4.82) i (4.84).

W metodach punktu referencyjnego funkcje si s ↪a agregowane za pomoc ↪a regu-laryzowanej skalaryzacji minimaksowej (1.36). Zatem, zgodnie z twierdzeniem 4.6,model preferencji metod punktu referencyjnego spe lnia warunek anonimowosci(4.1) w odniesieniu do zadan (4.82) i (4.84). Natomiast nie jest spe lniony ak-sjomat przesuni ↪ec wyrownuj ↪acych. Stosowanie pewnej regularyzacji skalaryzacjiminimaksowej jest istotne dla spe lnienia warunku (3.1), podstawowego w podejsciuquasi–zadowalaj ↪acym, o postaci

y 6<= a ⇒ a ≺ y

Zamiast regularyzowanej skalaryzacji minimaksowej (1.36) mozna jednak uzyc mi-nimaksymalizacji leksykograficznej (1.38), ktora rowniez jest regularyzacj ↪a skalary-zacji minimaksowej (1.21) i jednoczesnie definiuje wyrownuj ↪aco racjonaln ↪a relacj ↪epreferencji (por. twierdzenie 4.21). Stosuj ↪ac minimaksymalizacj ↪e leksykograficzn ↪a(1.38) do zadania (4.82) otrzymujemy parametryzacj ↪e

lexmin {Θ(s(a, f(x))) : x ∈ Q}, a ∈ Y (4.86)

Metod ↪e punktu referencyjnego opart ↪a na parametryzacji (4.86) b ↪edziemy na-zywac leksykograficzn ↪a metod ↪a punktu referencyjnego. Leksykograficzna me-toda punktu referencyjnego zachowuje istotne w lasnosci standardowych metodpunktu referencyjnego opartych na parametryzacji (3.4). Z wniosku 1.26 wynikanast ↪epuj ↪acy wniosek.

Page 178: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

180 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Wniosek 4.51 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yirozwi ↪azanie optymalne zadania (4.86) jest rozwi ↪azaniem efektywnym zadania wie-lokryterialnego (1.7).

Ponadto prawdziwe s ↪a nast ↪epuj ↪ace odpowiedniki twierdzen 3.1 i 3.2 oraz wyni-kaj ↪acych z nich wnioskow.

Twierdzenie 4.27 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yii spe lniaj ↪acych warunek (3.6) relacja preferencji definiowana przez minimaksyma-lizacj ↪e leksykograficzn ↪a (4.86) jest zwrotna, przechodnia, scisle monotoniczna orazspe lnia warunek (3.1).

Dowod. Zwrotnosc, przechodniosc i scis la monotonicznosc definiowanej przezminimalizacj ↪e (4.86) relacji preferencji

y′ � y′′ ⇔ Θ(s(a,y′)) ≤lex Θ(s(a,y′′))

wynika bezposrednio ze scis lej monotonicznosci funkcji si(ai, yi) wzgl ↪edem yi (por.wniosek 1.26). Zauwazmy, ze θ1(s(a,y)) = maxi=1,...,m si(ai, yi). Zatem, na mocytwierdzenia 1.11, prawdziwa jest implikacja

y 6<= a ⇒ a ≺ y

co oznacza spe lnienie warunku (3.1).

Twierdzenie 4.28 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funk-cje si(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to kazderozwi ↪azanie efektywne x0 zadania wielokryterialnego (1.7) jest rozwi ↪azaniem opty-

malnym zadania (4.86) dla wektora aspiracji a0 = f(x0).

Dowod. Niech x0 b ↪edzie rozwi ↪azaniem efektywnym zadania (1.7). Przypuscmy,ze x0 nie jest rozwi ↪azaniem optymalnym zadania (4.86) dla wektora aspiracji

a0 = f(x0). Istnieje wtedy wektor x ∈ Q taki, ze Θ(s(f(x

0), f(x))) <lex

Θ(s(f(x0), f(x

0))).

Zauwazmy, ze na mocy warunku (3.6)

θ1(s(f(x0), f(x

0))) = θ2(s(f(x

0), f(x

0))) = · · · = θm(s(f(x

0), f(x

0)))

i jednoczesnie

θ1(s(f(x0), f(x))) ≥ θ2(s(f(x

0), f(x))) ≥ · · · ≥ θm(s(f(x

0), f(x)))

Zatemsi(fi(x

0), fi(x)) ≤ si(fi(x0), fi(x0)) dla i = 1, 2, . . . ,m

i istnieje indeks i0 taki, ze

si0(fi0(x0), fi0(x)) < si0(fi0(x0), fi0(x0))

Poniewaz funkcje si(fi(x0), yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi, to fi(x) ≤ fi(x0) dla

i = 1, 2, . . . ,m, przy czym dla indeksu i0 zachodzi nierownosc ostra. Przeczy toefektywnosci wektora x0 dla problemu (1.7). Zatem wektor x0 jest rozwi ↪azaniem

optymalnym zadania (4.86) dla wektora poziomow aspiracji a0 = f(x0).

Page 179: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.3. LEKSYKOGRAFICZNA METODA PUNKTU REFERENCYJNEGO 181

Wniosek 4.52 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to dla dowol-nego rozwi ↪azania efektywnego x0 zadania wielokryterialnego (1.7) istnieje wektorpoziomow aspiracji a0 ∈ Y taki, ze x0 jest rozwi ↪azaniem optymalnym odpowied-niego zadania (4.86).

Leksykograficzna metoda punktu referencyjnego nie tylko spe lnia wszystkiepodstawowe wymagania dla metod punktu referencyjnego, ale rowniez ma pewnedodatkowe zalety w porownaniu ze standardowymi metodami opartymi na para-metryzacji (3.4). Omawiaj ↪ac w lasnosci modelu LRPC w podrozdziale 3.1 zwra-calismy uwag ↪e na fakt, ze racjonalne relacje preferencji spe lniaj ↪ace warunek (3.34),czyli

yi′ > ai′ i yi′′ < ai′′ ⇒ y − ε′ei′ + ε′′ei′′ ≺ y

dla 0 < ε′ ≤ yi′ − ai′ , 0 ≤ ε′′ ≤ ai′′ − yi′′

lepiej odzwierciedlaj ↪a znaczenie poziomow aspiracji w quasi–zadowalaj ↪acym mo-delu decyzyjnym niz relacje spe lniaj ↪ace jedynie warunek (3.1). Warunki te s ↪a sobierownowazne w przypadku dwuwymiarowej przestrzeni ocen Y (m = 2). W przy-padku wi ↪ekszej liczby funkcji oceny warunek (3.34) jest silniejszy od warunku (3.1),jako ze kazda racjonalna relacja preferencji posiadaj ↪aca w lasnosc (3.34) spe lnianast ↪epuj ↪ace uogolnienie warunku (3.1)

(yi)i∈J 6<= (ai)i∈J ⇒ [(ai)i∈J , (yi)i∈I\J ] ≺ y dla J ⊂ I (4.87)

Warunek (4.87) oznacza, ze dla dowolnego podzbioru J zbioru wszystkich ocenI, jezeli przynajmniej jedna z ocen yi, i ∈ J , jest wi ↪eksza od swojego poziomuaspiracji, to zast ↪apienie wszystkich ocen yi dla i ∈ J ich poziomami aspiracji jestpreferowane w stosunku do oryginalnych wartosci ocen. Warunek (3.1) jest ograni-czeniem warunku (4.87) do przypadku J = I. Omawiane w podrozdziale 3.1 stan-dardowe metody punktu referencyjnego oparte na parametryzacji (3.4) w ogolnymprzypadku nie spe lniaj ↪a warunku (4.87) dla dowolnych J ⊂ I. Na przyk lad, wmetodach punktu referencyjnego opartych na parametryzacji (3.4) z liniowymifunkcjami skaluj ↪acymi (3.5) o jednostkowych wspo lczynnikach λi, wektor ocen(a1 +1, a2 +1, a3−10) jest preferowany w stosunku do wektora (a1 +1, a2, a3), pod-czas gdy preferowanie w takim wypadku wektora ocen (a1 + 1, a2, a3) jest zgodnez intuicyjnym poj ↪eciem poziomow aspiracji i lez ↪acej u podstaw podejscia quasi–zadowalaj ↪acego zasady, ze decydent koncentruje uwag ↪e na poprawie wartosci tychocen, ktore nie osi ↪agn ↪e ly swoich poziomow aspiracji. Model preferencji leksyko-graficznej metody punktu referencyjnego (4.86), w odroznieniu od standardowychmetod punktu referencyjnego opartych na parametryzacji (3.4), spe lnia warunek(3.34) i, co za tym idzie, warunek (4.87) dla dowolnych J ⊂ I. Bezposrednio ztwierdzenia 1.21 wynika bowiem nast ↪epuj ↪acy wniosek.

Wniosek 4.53 Jezeli dla kazdego wektora poziomow aspiracji a ∈ Y funkcjesi(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi i spe lniaj ↪a warunek (3.6), to relacja pre-ferencji definiowana przez minimaksymalizacj ↪e leksykograficzn ↪a (4.86) spe lnia wa-runek (3.34).

Page 180: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

182 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Stosuj ↪ac skalaryzacj ↪e minimaksimum leksykograficznego (1.38) do zadania(4.84) otrzymujemy parametryzacj ↪e

lexmin {Θ(s(a, r, f(x))) : x ∈ Q}, a < r, a, r ∈ Y (4.88)

generuj ↪ac ↪a leksykograficzn ↪a przedzia low ↪a metod ↪e punktu referencyjnego. Zauwaz-my, ze zarowno funkcje (3.11), jak i funkcje (3.12) spe lniaj ↪a za lozenia twierdzen4.27 i 4.28 oraz wniosku 4.51. Otrzymujemy zatem zupe ln ↪a parametryzacj ↪e zbiorurozwi ↪azan efektywnych, zgodn ↪a z modelem preferencji okreslonym postulatami P1 iP2 (por. rozdzia l 3). Ponadto, dzi ↪eki temu, ze si(ai, ri, ri) = 1 dla i = 1, 2, . . . ,m,spe lniony jest rowniez postulat P2a. To znaczy, relacja preferencji definiowanaprzez minimaksymalizacj ↪e leksykograficzn ↪a (4.88) spe lnia warunek (3.8), czyli

y 6<= r ⇒ r ≺ y

Prawdziwe jest bowiem nast ↪epuj ↪ace twierdzenie.

Twierdzenie 4.29 Dla dowolnych funkcji si(ai, ri, yi) scisle rosn ↪acych wzgl ↪edemyi i spe lniaj ↪acych warunek (3.14) relacja preferencji definiowana przez minimaksy-malizacj ↪e leksykograficzn ↪a (4.88) spe lnia warunek (3.8).

Dowod. Zauwazmy, ze θ1(s(a, r,y)) = maxi=1,...,m si(ai, ri, yi). Zatem, na mocytwierdzenia 1.11, prawdziwa jest implikacja

y 6<= r ⇒ r ≺ y

co oznacza spe lnienie warunku (3.8).

Relacja preferencji definiowana przez leksykograficzn ↪a przedzia low ↪a metod ↪epunktu referencyjnego spe lnia rowniez rozwazany w podrozdziale 3.4 warunek(3.65), czyli

yi′ > ri′ i yi′′ < ri′′ ⇒ y − ε′ei′ + ε′′ei′′ ≺ y

dla 0 < ε′ ≤ yi′ − ri′ , 0 ≤ ε′′ ≤ ri′′ − yi′′

ktory lepiej niz warunek (3.8) odzwierciedla znaczenie poziomow rezerwacji wquasi–zadowalaj ↪acym modelu decyzyjnym. Warunki te s ↪a sobie rownowazne wprzypadku dwuwymiarowej przestrzeni ocen (m = 2). W przypadku wi ↪ekszejliczby funkcji oceny warunek (3.65) jest silniejszy od warunku (3.8), jako zekazda racjonalna relacja preferencji posiadaj ↪aca w lasnosc (3.65) spe lnia nast ↪epuj ↪aceuogolnienie warunku (3.8)

(yi)i∈J 6<= (ri)i∈J ⇒ [(ri)i∈J , (yi)i∈I\J ] ≺ y dla J ⊂ I (4.89)

Warunek (4.89) oznacza, ze dla dowolnego podzbioru J zbioru ocen I, jezeli przy-najmniej jedna z ocen yi, i ∈ J , jest wi ↪eksza od swojego poziomu rezerwacji, tozast ↪apienie wszystkich ocen yi dla i ∈ J ich poziomami rezerwacji jest prefero-wane w stosunku do oryginalnych wartosci ocen. Warunek (3.8) jest ograniczeniemwarunku (4.89) do przypadku J = I. Omawiane w podrozdziale 3.1 standar-dowe przedzia lowe metody punktu referencyjnego oparte na parametryzacji (3.13)w ogolnym przypadku nie spe lniaj ↪a warunku (4.89) dla dowolnych J ⊂ I. Na

Page 181: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.3. LEKSYKOGRAFICZNA METODA PUNKTU REFERENCYJNEGO 183

przyk lad, w przedzia lowych metodach punktu referencyjnego opartych na paramet-ryzacji (3.13) z kawa lkami liniowymi funkcjami skaluj ↪acymi (3.12) z r2−a2 = r3−a3

i γ < 10 wektor ocen (r1 + 1, r2 + 1, r3 − 10) jest preferowany w stosunku do wek-tora (r1 + 1, r2, r3), podczas gdy preferowanie w takim wypadku wektora ocen(r1 + 1, r2, r3) jest zgodne z intuicyjnym poj ↪eciem poziomow rezerwacji i lez ↪aceju podstaw podejscia quasi–zadowalaj ↪acego zasady, ze decydent koncentruje uwag ↪ena poprawie wartosci tych ocen, ktore nie osi ↪agn ↪e ly swoich poziomow rezerwacji.Model preferencji leksykograficznej przedzia lowej metody punktu referencyjnego(4.88), w odroznieniu od standardowych metod opartych na parametryzacji (3.13),spe lnia warunek (3.65) i, co za tym idzie, warunek (4.89) dla dowolnych J ⊂ I.Bezposrednio z twierdzenia 1.21 wynika bowiem nast ↪epuj ↪acy wniosek.

Wniosek 4.54 Dla dowolnych funkcji si(ai, ri, yi) scisle rosn ↪acych wzgl ↪edem yi ispe lniaj ↪acych warunek (3.14) relacja preferencji definiowana przez minimaksyma-lizacj ↪e leksykograficzn ↪a (4.88) spe lnia warunek (3.65).

Z dotychczasowych rozwazan wynika, ze leksykograficzna metoda punktu re-ferencyjnego (4.86) i leksykograficzna przedzia lowa metoda punktu referencyjnego(4.88), nie wykorzystuj ↪ac technik programowania celowego implementuj ↪a odpo-wiednio modele preferencji realizowane przez LRPC i LPRPC bez prioryteow (por.podrozdzia ly 3.3 i 3.4). O ile jednak spe lnienie warunkow (3.34) i odpowiednio(3.65) wynika lo w modelach LRPC i LPRPC z odpowiedniej konstrukcji funkcjiosi ↪agni ↪ecia, to w leksykograficznych metodach punktu referencyjnego s ↪a one kon-sekwencj ↪a ogolnej w lasnosci skalaryzacji minimaksimum leksykograficznego (twier-dzenie 1.21). Dzi ↪eki temu leksykograficzne metody punktu referencyjnego rozsze-rzaj ↪a te w lasnosci poza wektory poziomow aspiracji i rezerwacji, analogicznie jakstandardowe metody punktu referencyjnego rozszerzaj ↪a w lasnosci (3.1) i (3.8) (por.rozdzia l 3.1). W szczegolnosci, poniewaz funkcje si(ai, ri, yi) zdefiniowane wzorem(3.11) lub (3.12) spe lniaj ↪a warunek

s1(a1, r1, a1 + t(r1 − a1)) = · · · = sm(am, rm, am + t(rm − am)) dla 0 ≤ t ≤ 1

to leksykograficzne przedzia lowe metody punktu referencyjnego (4.88) z funkcjami(3.11) i (3.12) implementuj ↪a model preferencji spe lniaj ↪acy dla wszystkich 0 ≤ t ≤ 1i J ⊂ I nast ↪epuj ↪acy warunek

(yi)i∈J 6<= (ai + t(ri − ai))i∈J ⇒ [(ai + t(ri − ai))i∈J , (yi)i∈I\J ] ≺ y (4.90)

Warunek (4.90) oznacza, ze dla dowolnego wektora ocen postaci a + t(r − a),0 ≤ t ≤ 1 i dla dowolnego podzbioru J zbioru wszystkich ocen I, jezeli przynaj-mniej jedna z ocen yi, i ∈ J jest wi ↪eksza od ai+t(ri−ai), to zast ↪apienie wszystkichocen yi dla i ∈ J odpowiednimi wartosciami ai + t(ri − ai) jest preferowane w sto-sunku do oryginalnych wartosci ocen. Realizowany przez standardowe przedzia lowemetody punktu referencyjnego warunek (3.15) jest ograniczeniem warunku (4.90)do przypadku J = I.

Rozwazaj ↪ac rozne modele preferencji na ogol ograniczamy si ↪e do ustalonej prze-strzeni ocen Y . Przy analizie z lozonych problemow decyzyjnych decydent cz ↪esto

Page 182: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

184 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

(czasowo) koncentruje uwag ↪e na pewnym podzbiorze funkcji oceny. W takim przy-padku model preferencji stanowi rodzin ↪e relacji preferencji okreslonych na roznychpodprzestrzeniach przestrzeni ocen. Naturalnym za lozeniem dotycz ↪acym modelupreferencji jest warunek zgodnosci ze wzgl ↪edu na rozszerzanie i zaw ↪ezanie zbioruocen, czyli wymaganie, aby do l ↪aczenie lub usuni ↪ecie oceny o tej samej wartosci niezmienia lo relacji preferencji pomi ↪edzy wektorami ocen.

Definicja 4.12 Mowimy, ze model preferencji � spe lnia warunek zgodnosci zewzgl ↪edu na rozszerzanie i zaw ↪ezanie zbioru ocen wtedy i tylko, gdy dla dowolnegoJ ⊂ I, J 6= I, spe lniony jest warunek

(y′i)i∈J � (y′′i )i∈J ⇔ [(y′i)i∈J , y∗] � [(y′′i )i∈J , y

∗] dla y∗ ∈ R (4.91)

Rozwazane w tej pracy skalaryzacje wielokryterialnych zadan programowa-nia matematycznego definiuj ↪a faktycznie modele preferencji b ↪ed ↪ace rodzinami re-lacji preferencji dla dowolnych pozbiorow oryginalnego zbioru funkcji oceny I.Zauwazmy, ze model preferencji standardowych metod punktu referencyjnegoopartych na parametryzacji (3.4) w ogolnym przypadku nie posiada w lasnoscizgodnosci ze wzgl ↪edu na rozszerzanie i zaw ↪ezanie zbioru ocen. Na przyk lad, wmetodach punktu referencyjnego opartych na parametryzacji (3.4) z funkcjamiskaluj ↪acymi (3.5) lub (3.7) o jednostkowych wspo lczynnikach λi, wektor ocen(a1+1, a2+4, a3+10) jest preferowany w stosunku do wektora (a1+3, a2+3, a3+10),podczas gdy (a1+3, a2+3) jest preferowany w stosunku do (a1+1, a2+4). Wady tejnie maj ↪a leksykograficzne metody punktu referencyjnego oparte na parametryzacji(4.86).

Twierdzenie 4.30 Dla dowolnych wektorow u′,u′′ ∈ Rk (1 ≤ k ≤ m) i dowolnejliczby u∗ ∈ R prawdziwa jest zaleznosc

Θ(u′) ≤lex Θ(u′′) ⇔ Θ(u′, u∗) ≤lex Θ(u′′, u∗) (4.92)

Dowod. Niech i′ b ↪edzie takim indeksem, ze

θi(u′) ≥ u∗ dla 1 ≤ i < i′ i θi(u

′) < u∗ dla i′ < i ≤ m

i analogicznie, niech i′′ b ↪edzie takim indeksem, ze

θi(u′′) ≥ u∗ dla 1 ≤ i < i′′ i θi(u

′′) < u∗ dla i′′ < i ≤ m

Zauwazmy, ze

θi(u′) = θi(u

′, u∗) i θi(u′′) = θi(u

′′, u∗) dla 1 ≤ i < min{i′, i′′}θi(u

′) = θi+1(u′, u∗) i θi(u′′) = θi+1(u′′, u∗) dla max{i′, i′′} < i ≤ m

z czego natychmiast wynika rownowaznosc (4.92) w przypadku i′ = i′′.Za lozmy, ze Θ(u′) ≤lex Θ(u′′). Jezeli

(θi(u′))1≤i<min{i′,i′′} <lex (θi(u

′′))1≤i<min{i′,i′′}

to oczywiscie Θ(u′, u∗) <lex Θ(u′′, u∗). Przypuscmy zatem, ze θi(u′) = θi(u

′′)dla 1 ≤ i < min{i′, i′′}. Wtedy i′ ≤ i′′, czyli po pomini ↪eciu przypadku i′ = i′′

otrzymujemy i′ < i′′. Zatem

Page 183: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

4.3. LEKSYKOGRAFICZNA METODA PUNKTU REFERENCYJNEGO 185

θi′(u′, u∗) = u∗ ≤ θi′(u′′, u∗) i θi′+1(u′, u∗) < u∗ ≤ θi′+1(u′′, u∗)

St ↪ad Θ(u′, u∗) <lex Θ(u′′, u∗), czyli prawdziwa jest implikacja

Θ(u′) ≤lex Θ(u′′) ⇒ Θ(u′, u∗) ≤lex Θ(u′′, u∗)

Dla udowodnienia odwrotnej implikacji za lozmy, ze Θ(u′, u∗) ≤lex Θ(u′′, u∗).Jezeli (θi(u

′, u∗))1≤i<min{i′,i′′} <lex (θi(u′′, u∗))1≤i<min{i′,i′′}, to oczywiscie

Θ(u′) <lex Θ(u′′). Przypuscmy zatem, ze θi(u′, u∗) = θi(u

′′, u∗) dla 1 ≤ i <min{i′, i′′} i pominmy udowodniony juz przypadek i′ = i′′. Jezeli i′ > i′′, to

θi′′(u′′, u∗) = u∗ ≤ θi′′(u′, u∗) i θi′′+1(u′′, u∗) < u∗ ≤ θi′′+1(u′, u∗)

co przeczy za lozeniu Θ(u′, u∗) ≤lex Θ(u′′, u∗). Zatem i′ < i′′, z czego wynikaΘ(u′) <lex Θ(u′′). Tym samym prawdziwa jest implikacja

Θ(u′, u∗) ≤lex Θ(u′′, u∗) ⇒ Θ(u′) ≤lex Θ(u′′)

co konczy dowod twierdzenia.

Twierdzenie 4.31 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yimodel preferencji definiowany przez minimaksymalizacj ↪e leksykograficzn ↪a (4.86)spe lnia warunek (4.91).

Dowod. Minimaksymalizacja leksykograficzna (4.86) stosowana do podzbiorufunkcji oceny J ⊂ I definiuje relacj ↪e preferencji � okreslon ↪a wzorem

(y′i)i∈J � (y′′i )i∈J ⇔ Θ((si(ai, y′i))i∈J) ≤lex Θ((si(ai, y

′′i ))i∈J)

Funkcje si(ai, yi) s ↪a scisle rosn ↪ace wzgl ↪edem yi. Zatem, na mocy twierdzenia 4.30,model preferencji definiowany przez minimaksymalizacj ↪e leksykograficzn ↪a (4.86)spe lnia warunek zgodnosci (4.91).

Wniosek 4.55 Dla dowolnych funkcji si(ai, yi) scisle rosn ↪acych wzgl ↪edem yi, jezelix0 ∈ Q jest rozwi ↪azaniem optymalnym zadania (4.86), to dla dowolnego J ⊂ I, x0

jest rozwi ↪azaniem optymalnym zadania

lexmin {Θ((si(ai, fi(x)i∈J) : x ∈ Q, fi(x) ≤ fi(x0) dla i ∈ I \ J}

Udowodnione w lasnosci relacji preferencji definiowanej przez minimaksymali-zacj ↪e leksykograficzn ↪a (4.86) wskazuj ↪a na atrakcyjnosc leksykograficznej metodypunktu referencyjnego w porownaniu ze standardowymi metodami opartymi naparametryzacji (3.4). Z wniosku 4.53 i twierdzenia 4.31 wynika, ze metoda tascislej realizuje quasi–zadowalaj ↪acy model preferencji definiowany przez poziomyaspiracji. W szczegolnosci, spe lnienie warunkow (3.34) i (4.91) jest bardzo istotnedla dobrej sterowalnosci procesu analizy interaktywnej. Minimaksymalizacja leksy-kograficzna (1.38) jest oczywiscie znacznie trudniejsza obliczeniowo niz minimaksy-malizacja regularyzowana (1.36). Jednakze, jak pokazalismy w podrozdzia lach 1.3i 4.1, dla wielu klas zadan WPLD istniej ↪a efektywne algorytmy wyznaczania lek-sykograficznego minimaksimum i, co za tym idzie, istnieje mozliwosc praktycznejimplementacji leksykograficznej metody punktu referencyjnego opartej na para-metryzacji (4.86) lub jej wersji przedzia lowej (4.88).

Page 184: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

186 ROZDZIA L 4. MODELE PREFERENCJI Z ELEMENTAMI ROWNOSCI

Page 185: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Rozdzia l 5

Zakonczenie

W tej pracy optymalizacja wielokryterialna jest traktowana jako narz ↪edzie sto-sowane w szerzej pojmowanym procesie rozwi ↪azania problemu decyzyjnego, czylijako technika do wykorzystania w systemie wspomagania decyzji. Co wi ↪ecej, skon-centrowano si ↪e na otwartych technikach interaktywnych nie narzucaj ↪acych decy-dentowi sztywnego scenariusza analizy problemu decyzyjnego i dopuszczaj ↪acychmozliwosc modyfikacji jego preferencji w trakcie analizy, w wyniku poznawania spe-cyfiki problemu decyzyjnego. Jako matematyczn ↪a podstaw ↪e takiego systemu wspo-magania decyzji przyjmuje si ↪e pewn ↪a parametryzacj ↪e zbioru rozwi ↪azan efektywnych(Wierzbicki, 1993). Parametry powinny reprezentowac latwo rozumiane przez de-cydenta wielkosci rzeczywiste charakteryzuj ↪ace jego preferencje. Na podstawie po-dawanych przez decydenta wartosci parametrow (steruj ↪acych) system przedstawiaodpowiednie rozwi ↪azania efektywne do analizy. Tym samym system wspomaga de-cydenta w poszukiwaniu najbardziej satysfakcjonuj ↪acego rozwi ↪azania efektywnego.Istotne jest tu, aby system gwarantowa l spe lnienie postulatu zupe lnosci paramet-ryzacji zbioru rozwi ↪azan efektywnych, czyli aby dla kazdego niezdominowanegowektora ocen istnia l zestaw wartosci parametrow steruj ↪acych, przy ktorych sys-tem wyznaczy rozwi ↪azanie efektywne generuj ↪ace ten wektor ocen. Niniejsza pracakoncentrowa la si ↪e na analizie interaktywnych technik optymalizacji wielokryterial-nej z punktu widzenia reprezentowanych przez nie modeli preferencji i ich przy-datnosci w systemach wspomagania decyzji. W przyj ↪etym modelu systemu wspo-magania decyzji najlepiej sprawdzaj ↪a si ↪e metody operuj ↪ace poziomami aspiracjijako parametrami steruj ↪acymi. Dlatego tez analiza koncentrowa la si ↪e zasadniczona roznorodnych metodach typu punktu referencyjnego (Wierzbicki, 1977; 1982) iprogramowania celowego (Charnes i Cooper, 1961).

Przedstawiona analiza dotyczy problemow wielokryterialnego programowanialiniowego i dyskretnego. Jest to bardzo ogolna klasa zadan i wi ↪ekszosc wielo-kryterialnych problemow decyzyjnych, a w szczegolnosci decyzyjnych problemowzarz ↪adzania, moze byc sformu lowana w postaci odpowiednich zagadnien progra-mowania liniowego i dyskretnego. Ponadto wiele przedstawionych tu wynikow do-tyczy dowolnych zadan optymalizacji wielokryterialnej, a ograniczenie do zadan

187

Page 186: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

188 5. Zakonczenie

liniowych i dyskretnych jest zwi ↪azane jedynie z przeprowadzon ↪a analiz ↪a mozliwosciefektywnej implementacji odpowiednich metod i algorytmow. Uwzgl ↪ednienie prob-lemow dyskretnych stanowi istotny czynnik przedstawionej analizy. Wiele technikstosowanych w wielokryterialnym programowaniu liniowym (na przyk lad technikioparte na wazeniu ocen) nie gwarantuje zupe lnej parametryzacji zbioru rozwi ↪azanefektywnych w przypadku problemow dyskretnych. W tej pracy koncentrowano si ↪ena technikach poprawnych zarowno w przypadku liniowym, jak i dyskretnym. Nie-mniej jednak zwracano uwag ↪e na dodatkowe mozliwosci pojawiaj ↪ace w przypadkuzadan czysto liniowych lub czysto dyskretnych. W szczegolnosci wprowadzona wpodrozdziale 2.2 symetryczna teoria dualnosci oraz dyskutowane w podrozdziale 2.3techniki obliczeniowe dla programowania celowego wykorzystuj ↪a specyfik ↪e zadanprogramowania liniowego. Z kolei podejscia dystrybucyjne do problemow z jed-norodnymi ocenami (punkty 4.1.3 i 4.2.3) wykorzystuj ↪a specyfik ↪e zadan czystodyskretnych o skonczonych zbiorach wartosci ocen.

Najwazniejszym narz ↪edziem analizy jest zdefiniowana aksjomatycznie racjo-nalna relacja preferencji. Rozwi ↪azania efektywne s ↪a okreslane jako elementy mi-nimalne dla roznych racjonalnych relacji preferencji. Techniki interaktywne ana-lizy problemow wielokryterialnych s ↪a definiowane przez parametryczne racjonalnerelacje preferencji (parametryczne skalaryzacje). Praca stanowi pierwsze konse-kwentne uj ↪ecie zagadnien optymalizacji wielokryterialnej i interaktywnych technikich rozwi ↪azywania w kategoriach racjonalnej relacji preferencji. W tym sensie pracajako ca losc stanowi nowe uj ↪ecie teorii i metod optymalizacji wielokryterialnej.

Zastosowane podejscie umozliwi lo dok ladniejsze porownanie metod punktureferencyjnego z programowaniem celowym. W wyniku tej analizy rozwini ↪etometody punktu referencyjnego wykorzystuj ↪ace techniki programowania celowego(podrozdzia ly 3.3 i 3.4), co pozwoli lo na wprowadzenie hierarchii priorytetow po-ziomow aspiracji do metod punktu referencyjnego i na scislejsz ↪a realizacj ↪e quasi–zadowalaj ↪acego modelu procesu decyzyjnego.

Aksjomatyczna definicja racjonalnej relacji preferencji pozwoli la na rozwazaniezadan wielokryterialnych z pewnymi dodatkowymi w lasnosciami relacji prefe-rencji. W rozdziale 4 analizowane by ly modele preferencji uwzgl ↪edniaj ↪ace ele-menty rownosci kryteriow. Rozwini ↪eta zosta la teoria symetrycznie efektywnych iwyrownuj ↪aco efektywnych rozwi ↪azan zagadnien wielokryterialnych, jako rozwi ↪azanminimalnych w sensie relacji preferencji anonimowo racjonalnych i odpowiedniowyrownuj ↪aco racjonalnych. Zagadnienia tego typu rozpatrywane by ly dotychczasniezaleznie w roznych dziedzinach zastosowan, przy czym jedynie dla problemowpodejmowania decyzji w warunkach ryzyka zosta la rozwini ↪eta kompletna metodo-logia uwzgl ↪edniaj ↪aca aspekty wielokryterialnosci (por. Levy, 1992). Metodologiata ogranicza si ↪e jednak do teorii funkcji uzytecznosci. Wyprowadzone w tej pracyodpowiednie wersje metod punktu referencyjnego, przyjmuj ↪ace postac interaktyw-nych technik referencyjnej dystrybucji ocen, stanowi ↪a pierwsz ↪a prob ↪e wprowadze-nia interaktywnych metod typu punktu referencyjnego do zagadnien wielokryte-rialnych z jednorodnymi ocenami, a w szczegolnosci do zagadnien podejmowaniadecyzji w warunkach ryzyka. Ponadto w podrozdziale 4.3 pokazano, jak koncepcjawyrownuj ↪aco racjonalnej relacji preferencji moze byc wykorzystana do konstruk-

Page 187: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

5. Zakonczenie 189

cji leksykograficznej metody punktu referencyjnego scisle implementuj ↪acej quasi–zadowalaj ↪acy model procesu decyzyjnego dla standardowych zadan optymalizacjiwielokryterialnej.

Niezaleznie od nowego ca losciowego uj ↪ecia teorii i metod optymalizacji wie-lokryterialnej praca zawiera wiele szczego lowych oryginalnych wynikow autora,z ktorych cz ↪esc by la prezentowana w innej formie w artyku lach i na konferen-cjach naukowych, a cz ↪esc jest publikowana tu po raz pierwszy (rozdzia l 4). Jakonajwazniejsze wyniki teoretyczne nalezy wymienic: metody zupe lnej parametry-zacji zbiorow rozwi ↪azan anonimowo i wyrownuj ↪aco efektywnych bez wykorzysty-wania teorii funkcji uzytecznosci (podrozdzia ly 4.1 i 4.2); nowe warianty metodypunktu referencyjnego implementuj ↪ace dodatkowe w lasnosci relacji preferencji wramach quasi–zadowalaj ↪acego modelu procesu decyzyjnego (podrozdzia ly 3.3, 3.4i 4.3); symetryczn ↪a teori ↪e dualnosci dla liniowych leksykograficznych zadan prog-ramowania celowego obejmuj ↪ac ↪a odpowiedniki klasycznych zaleznosci dualnych wprogramowaniu liniowym, l ↪acznie z w lasnosci ↪a punktu siod lowego i wzorami nawartosci krancowe (podrozdzia l 2.2). Praca zawiera rowniez wyniki przeprowa-dzanych przez autora eksperymentow obliczeniowych i implementacji metod. Wszczegolnosci autor projektowa l i implemtowa l modu l analizy wielokryterialnej wsystemie DINAS (podrozdzia l 3.2), ktory stanowi l pierwsz ↪a implemetacj ↪e metodpunktu referencyjnego dla mieszanych zadan dyskretnych.

Badania w zakresie optymalizacji wielokryterialnej przezywaj ↪a w ostatnich la-tach intensywny rozwoj (Steuer i inni, 1996). Wiele metod optymalizacji wie-lokryterialnej zosta lo zaproponowanych w literaturze i zaimplementowanych dorozwi ↪azywania praktycznych problemow decyzyjnych. Niniejsza praca nie stanowipe lnego przegl ↪adu teorii i roznorodnych podejsc do optymalizacji wielokryterialnej.Skoncentrowano si ↪e w niej na klasycznym poj ↪eciu rozwi ↪azania efektywnego zada-nia wielokryterialnego, nie zajmuj ↪ac si ↪e poj ↪eciami pochodnymi, jak na przyk ladrozwi ↪azaniami w lasciwie efektywnymi (Geoffrion, 1968). W rozwazanej tu kla-sie zadan WPL i WPLD te dwa poj ↪ecia efektywnosci rozwi ↪azania pokrywaj ↪a si ↪eze sob ↪a. Niemniej jednak rozwazanie rozwi ↪azan w lasciwie efektywnych z ogra-niczonymi a priori wspo lczynnikami wymiany moze prowadzic do interesuj ↪acychtechnik “zgrubnego” przegl ↪adu zbioru rozwi ↪azan efektywnych (Kaliszewski, 1994).Sugeruje to jeden z mozliwych dalszych kierunkow badan nad rozszerzaniem roz-wini ↪etego w tej pracy uj ↪ecia optymalizacji wielokryterialnej.

Literatura dotycz ↪aca optymalizacji wielokryterialnej jest bardzo obszerna. Dla-tego za l ↪aczony w pracy spis literatury nie stanowi kompletnej bibliografii opty-malizacji wielokryterialnej. Poza pozycjami o charakterze ogolnym (monografie iartyku ly przegl ↪adowe cytowane w podrozdziale 1.1) zawiera on jedynie cytowanew tekscie pozycje literatury bezposrednio zwi ↪azane z problemami dyskutowanymiw tej pracy.

Page 188: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

190 5. Zakonczenie

Page 189: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Literatura

Abernathy W.J., Hershey J.C. (1972), “A spatial–allocation model for regionalhealth–services planning”, Operations Research, 20, 629–642.

Allison P.D. (1978), “Measures of inequality”, American Sociological Review , 43,865–880.

Ameljanczyk A. (1980), Teoria gier i optymalizacja wektorowa, Wyd. WAT, War-szawa.

Bell D.E., Raiffa H. (1988), “Risky choice revisited”, w: Decision Making: Descrip-tive, Normative and Prescriptive Interactions, Bell D.E., Raiffa H., Tversky A.(red.), Cambridge University Press, Cambridge, 99–112.

Benson H.P. (1992), “A finite nonadjacent extreme–point search algorithm for opti-mization over the efficient set”, Journal of Optimization Theory and Applica-tions, 73, 47–64.

Bogetoft P., Pruzan P. (1991), Planning with Multiple Criteria: Investigation,Communication, Choice, North–Holland, Amsterdam.

Budnick F.S, McLeavey D., Mojena R. (1988), Principles of Operations Researchfor Management , IRWIN, Homewood.

Burkard R.E., Rendl F. (1991), “Lexicographic bottleneck problems”, OperationsResearch Letters, 10, 303–308.

Chankong V., Haimes Y.Y. (1983), Multiobjective Decision Making , North–Holland, Amsterdam.

Charnes A., Cooper W.W. (1961), Management Models and Industrial Applicationsof Linear Programming , John Wiley & Sons, New York.

Crowder L.J., Sposito V.A. (1987), “Comments on: An algorithm for solving the li-near goal–programming problem by solving its dual”, Journal of OperationalResearch Society , 38, 335–340.

DeSanctis G., Gallupe R.B. (1987), “A foundation for the study of group decisionsupport systems”, Management Science, 33, 589–609.

Erkut E. (1993), “Inequality measures for location problems”, Location Science, 1,199–217.

Fishburn P.C. (1970), Utility Theory for Decision Making , John Wiley & Sons,New York.

191

Page 190: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

192 Literatura

Galas Z. (1986), “O mierzeniu konfliktowosci celow”, Monografie i OpracowaniaSGPiS , 200, 168–180.

Galas Z., Nykowski I., Zo lkiewski Z. (1987), Programowanie wielokryterialne,PWE, Warszawa.

Geoffrion A.M. (1968), “Proper efficiency and the theory of vector maximization”,Journal of Mathematical Analysis and its Applications, 22, 618–630.

Geoffrion A.M. (1992), “Forces, trends and opportunities in MS/OR”, OperationsResearch, 40, 423–445.

Grauer M., Lewandowski A., Wierzbicki A.P. (1984), “DIDAS — theory, implemen-tation and experience”, w: Interactive Decision Analysis, Grauer M., Wierz-bicki A.P. (red.), Springer–Verlag, New York.

Gray P. (1988), Guide to IFPS/Personal: The Interactive Financial Planning Sys-tem for Personal Computers, McGraw–Hill, New York.

Hallefjord A., Jornsten K. (1988), “A critical comment on integer goal program-ming”, Journal of Operational Research Society , 39, 101–104.

Hardy G.H., Littlewood J.E., Polya G. (1934), Inequalities, Cambridge UniversityPress, Cambridge.

Hwang Ch.L., Masud A.S. (1979), Multiple Objective Decision Making — Methodsand Applications. A State–of–the–Art Survey , Springer–Verlag, Berlin.

Hwang Ch.L., Yoon K. (1981), Multiple Attribute Decision Making — Methods andApplications. A State–of–the–Art Survey , Springer–Verlag, Berlin.

Ignizio J.P. (1976), Goal Programming and Extensions, Heath, Lexington.

Ignizio J.P. (1982), Linear Programming in Single and Multiple Objective Systems,Prentice–Hall, Englewood Cliffs.

Ignizio J.P. (1984), “A note on the multidimesional dual”, European Journal ofOperational Research, 17, 116–122.

Ignizio J.P. (1985), “An algorithm for solving the linear goal programming problemby solving its dual”, Journal of Operational Research Society , 36, 507–515.

Ijiri Y. (1965), Management Goals and Accounting for Control , Rand-McNally,Chicago.

Isermann H. (1982), “Linear lexicographic optimization”, OR Spektrum, 4, 223–228.

Isermann H., Steuer R.E. (1987), “Computational experience concerning payofftables and minimum criterion values over the efficient set”, European Journalof Operational Research, 33, 91–97.

Jaszkiewicz A., S lowinski R. (1992), “Cone contraction method with visual interac-tion for multiple–objective nonlinear programmes”, Journal of Multi–CriteriaDecision Analysis, 1, 29–46.

Justmann M. (1977), “Iterative processes with nucleolar restriction”, InternationalJournal of Game Theory , 6, 189–212.

Kaliszewski I. (1994), Quantitative Pareto Analysis by Cone Separation Technique,Kluwer, Dodrecht.

Page 191: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Literatura 193

Keeney R.L., Raiffa H. (1976), Decisions with Multiple Objectives: Preferences andValue Tradeoffs, John Wiley & Sons, New York.

Kendall M. (1958), The Advanced Theory of Statistics, Volume 1 , Griffin, London.

Klein R.S., Luss H., Smith D.R. (1992), “A lexicographic minimax algorithm formultiperiod resource allocation”, Mathematical Programming , 55, 213–234.

Klepikowa M.G. (1985), “Woprosy ustojcziwosti lieksikograficzieskich zadacz opti-mizacii”, Zurna l Wyczislitielnoj Matiematiki i Matiematiczieskoj Fiziki , 25, 32–44.

Konarzewska–Guba la E. (1980), Programowanie przy wielorakosci celow , PWN,Warszawa.

Korhonen P. (1992), “Multiple criteria decision support: the state of research andfuture directions”, Computers & Operations Research, 19, 549–552.

Korhonen P., Laakso J. (1986), “A visual interactive method for solving multiplecriteria problem”, European Journal of Operational Research, 24, 277–287.

Korhonen P., Wallenius J. (1989), “Observations regarding choice behaviour ininteractive multiple criteria decision–making environments: An experimentalinvestigation”, w: Methodology and Software for Interactive Decision Support ,Lewandowski A., Stanchev I. (red.), Springer–Verlag, Berlin, 163–170.

Korycki, J., Ogryczak, W. (1997), “A Spreadsheet Implementation of Aspira-tion/Reservation Based Decision Support”, Central European Journal for Ope-rations Research and Economics, 5, 111–129.

Krarup J.K., Pruzan P.M. (1981), “Reducibility of minimax to minisum 0–1 pro-gramming problems”, European Journal of Operational Research, 5, 125–132.

Krawczyk S. (1980), Matematyczna analiza sytuacji decyzyjnych, PWE, Warszawa.

Kr ↪eglewski T., Paczynski J., Granat J., Wierzbicki A.P. (1988), “IAC–DIDAS–N:A dynamic interactive decision analysis and support system for multicriteriaanalysis of nonlinear models with nonlinear model generator supporting modelanalysis”, WP–88–112, IIASA, Laxenburg.

Lee S. (1972), Goal Programming for Decision Analysis. Auerbach, Philadelphia.

Levy H. (1992), “Stochastic dominance and expected utility: Survey and analysis”,Management Science, 38, 555–593.

Lewandowski A., Kr ↪eglewski T., Rogowski T., Wierzbicki A.P. (1989), “Decisionsupport systems of DIDAS family (Dynamic interactive decision analysis &support)”, w: Lewandowski i Wierzbicki (1989), 21–47.

Lewandowski A., Wierzbicki A.P. (1988), “Aspiration based decision analysis sup-port systems. Part I: Theoretical and methodological backgrounds”, WP–88–03, IIASA, Laxenburg.

Lewandowski A., Wierzbicki A.P. (red.) (1989), Aspiration Based Decision SupportSystems — Theory, Software and Applications, Springer–Verlag, Berlin.

Lewandowski A., Wierzbicki A.P. (1989a), “Decision support systems using refe-rence point optimization”, w: Lewandowski i Wierzbicki (1989), 3–20.

Page 192: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

194 Literatura

Lindo Systems (1990), A BestCase! Scenario Library: Financial Management ,Lindo Systems Inc., Chicago.

Lindo Systems (1992), What’sBest!: Release 1.77 , Lindo Systems Inc., Chicago.

Luc D.T. (1989), Theory of Vector Optimization, Springer–Verlag, Berlin.

Malczewski J., Ogryczak W. (1988), “A Multiobjective Approach to Reorganizationof Health Service Areas: A Case Study”, Environment & Planning A, 20, 1461–1470.

Malczewski J., Ogryczak W. (1990), “An interactive approach to the central fa-cility location problem: locating pediatric hospitals in Warsaw”, GeographicalAnalysis, 22, 244–258.

Malczewski J., Ogryczak W. (1995), “Multiple Criteria Location Problem: 1. A Ge-neralized Network Model and the Set of Efficient Solutions”, Environment &Planning A, 27, 1931–1960.

Malczewski J., Ogryczak W. (1996), “Multiple Criteria Location Problem:2. Preference–Based Techniques and Intertactive Decision Support”, Environ-ment & Planning A, 28, 69–98.

Mandell M.B. (1991), “Modelling effectiveness–equity trade–offs in public servicedelivery systems”, Management Science, 37, 467–482.

Marchi E., Oviedo J. A. (1992), “Lexicographic optimality in the multiple objectivelinear programming: the nucleolar solution”, European Journal of OperationalResearch, 57, 355–359.

Markowski C.A., Ignizio J.P. (1983), “Duality and transformations in multiphaseand sequential linear goal programming”, Computers & Operations Research,10, 321–333.

Marsh M.T., Schilling D.A. (1994), “Equity measurement in facility location analy-sis: A review and framework”, European Journal of Operational Research, 74,1–17.

Maschler M., Potters J.A.M., Tijs S.H. (1992), “The general nucleolus and the re-duced game property”, International Journal of Game Theory , 21, 85–106.

Michalowski W., Szapiro T. (1992), “A bi–reference procedure for interactive mul-tiple criteria programming”, Operations Research, 40, 247–258.

Mills H.D. (1956), “Marginal values of matrix games and linear programming”,w: Linear Inequalities and Related Systems, Kuhn H.W, Tucker A.W. (red.),Princeton University Press, Princeton, 183–193.

Nakayama H. (1992), “Trade–off analysis using parametric optimization techni-ques”, European Journal of Operational Research, 60, 87–98.

Nakayama H., Sawaragi Y. (1984), “Satisficing trade–off method for interac-tive multiobjective programming methods”, w: Interactive Decision Analysis,Grauer M., Wierzbicki A.P. (red.), Springer–Verlag, New York, 113–122.

Nemhauser G.L., Wolsey L.A. (1988), Integer and Combinatorial Optimization,John Wiley & Sons, New York.

Nykowski I. (1977), “Rozwi ↪azania kompromisowe w wielokryteriowym programo-waniu liniowym”, Przegl ↪ad Statystyczny , 24, 3–19.

Page 193: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Literatura 195

Ogryczak W. (1986), “A Symmetric Duality Concept for Linear Goal Programming:Principal Results”, Control and Cybernetics, 15, 413–423.

Ogryczak W. (1987), “On Practical Stopping Rules for the Simplex Method”, Ma-thematical Programming Study, 31, 167–174.

Ogryczak W. (1988), “Symmetric duality theory for linear goal programming”,Optimization, 19, 373–396.

Ogryczak W. (1988a), “A counterexample to transformations in multiphase andsequential linear goal programming”, Control and Cybernetics, 17, 79–84.

Ogryczak W. (1988b), “Simplex Method is not Always Well–behaved”, Linear Al-gebra and Its Applications, 109, 41–57.

Ogryczak W. (1989), Programowanie matematyczne w pakiecie MPSX , Wyd. UW,Warszawa.

Ogryczak W. (1992), “An implementation of variable upper bounds via SUB me-thodology”, Journal of Information & Optimization Sciences, 13, 29–47.

Ogryczak W. (1994), “A goal programming model for the reference point method”,Annals of Operations Research, 51, 33–44.

Ogryczak W. (1995), “Dual simplex algorithm with implicit representation of va-riable upper bounds”, Optimization, 33, 321–338.

Ogryczak W. (1996), “A Note on Modeling Multiple Choice Requirements for Sim-ple Mixed Integer Programming Solvers”, Computers & Operations Research,23, 199–205.

Ogryczak W. (1997), “On the Lexicographic Minimax Approach to Location Pro-blems”, European Journal of Operational Research, 100, 566–585.

Ogryczak W. (1997a), “On Cent-Dians of General Networks”, Location Science, 5,15–28.

Ogryczak W. (1997b), “Preemptive Reference Point Method”, w: MulticriteriaAnalysis, J.Climaco (red.), Springer Verlag, Berlin 1997, 156–167.

Ogryczak W. (1997c), “Reference Distribution — An Interactive Approach to Mul-tiple Homogeneous and Anonymous Criteria”, w: Multiple Criteria DecisionMaking , G. Fandel, T. Gal (Eds.), Lecture Notes in Economics and Mathema-tical Systems, 448, Springer Verlag, Berlin 1997, 156–165.

Ogryczak W., Lahoda S. (1992), “Aspiration/reservation decision support — a stepbeyond goal programming”, Journal of Multi–Criteria Decision Analysis, 1,101–117.

Ogryczak W., Malczewski J. (1987), “Health care districts planning by multiobjec-tive analysis with the MPSX/370 package”, Arch. Automatyki i Telemechaniki ,XXXII, 369–381.

Ogryczak W., Studzinski K., Zorychta K. (1988), “Dynamic interactive networkanalysis system — DINAS version 2.1 (1988): user’s manual”, WP–88–114,IIASA, Laxenburg.

Ogryczak W., Studzinski K., Zorychta K. (1989), “A solver for the multi–objectivetransshipment problem with facility location”, European Journal of OperationalResearch, 43, 53–64.

Page 194: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

196 Literatura

Ogryczak W., Studzinski K., Zorychta K. (1991), “DINAS — dynamic interactivenetwork analysis system v.3.0”, CP–91–012, IIASA, Laxenburg.

Ogryczak W., Studzinski K., Zorychta K. (1992), “DINAS — a computer–assistedanalysis system for multiobjective transshipment problems with facility loca-tion”, Computers & Operations Research, 19, 637–647.

Ogryczak W., Studzinski K., Zorychta K. (1992a), “EDINET — a network editorfor transshipment problems with facility location”, w: Computer Science &Operations Research: New Developments in their Interfaces, Balci O., ShardaR., Zenios S.A. (red.), Pergamon Press, Oxford, 197–212.

Ogryczak W., Zorychta K. (1994), “On solving multiobjective linear programs withimplicit representation of minimax scalarizing function”, Archives of ControlSciences, 3 (XXXIX), 193–209.

Parker B.R. (1985), “A multiple goal programming methodology for evaluationmanagement information systems”, Omega, 13, 313–330.

Podinowski W.W. (1975), “Mnogokriterialnyje zadaczi s odnorodnymi rawnocen-nymi kriteriami”, Zurna l Wyczislitielnoj Matiematiki i Matiematiczieskoj Fi-ziki , 15, 330–344.

Podinowski W.W., Nogin W.D. (1982), Parieto–Optimalnyje Rieszenija Mnogokri-terialnych Zadacz , Nauka, Moskwa.

Potters J.A.M., Tijs S.H. (1992), “The nucleolus of a matrix game and other nuc-leoli”, Mathematics of Operations Research, 17, 164–174.

Prasad S.Y., Karwan M.H. (1992), “A note on solving bicriteria linear programmingproblems using single criteria software”, Computers & Operations Research, 19,169–173.

Rietveld P. (1980), Multiple Objective Decision Methods and Regional Planning ,North–Holland, Amsterdam.

Ringuest J.L. (1992), Multiobjective Optimization: Behavioral and ComputationalConsiderations, Kluwer, Boston.

Rogowski T., Sobczyk J., Wierzbicki A.P., (1988), “IAC–DIDAS–L: Dynamic in-teractive decision analysis and support system linear version”, WP–88–110,IIASA, Laxenburg.

Romero C. (1991), Handbook of Critical Issues in Goal Programming , PergamonPress, Oxford.

Roy B. (1990), Wielokryterialne wspomaganie decyzji , WNT, Warszawa.

Sawaragi Y., Nakayama H., Tanino T. (1985), Theory of Multiobjective Optimiza-tion, Academic Press, Orlando.

Schmeidler D. (1969), “The nucleolus of a characteristic function game”, SIAMJournal of Applied Mathematics, 17, 1163–1170.

Sen A. (1973), On Economic Inequality , Clarendon Press, Oxford.

Sharda R. (1985), “Optimization using spreadsheets on a microcomputer”, Annalsof Operations Research, 5, 599–612.

Shogan A.W. (1988), Management Science, Prentice–Hall, Englewood Cliffs.

Page 195: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Literatura 197

Shorrocks A.F., Foster J.E. (1987), “Transfer sensitive inequality measures”, Re-view of Economic Studies, LIV, 485–497.

Simon H.A. (1957), Models of Man, MacMillan, New York.

S lowinski R. (1984), “Przegl ↪ad metod wielokryterialnego programowania linio-wego”, Przegl ↪ad Statystyczny , 30, cz. I: 47–64, cz. II: 303–318.

Stadler W. (1979), “A survey of multicriteria optimization or the vector maximumproblem, Part I: 1776–1960”, Journal of Optimization Theory and Applications,29, 1–52.

Steuer R.E. (1986), Multiple Criteria Optimization — Theory, Computation &Applications, John Wiley & Sons, New York.

Steuer R.E. (1993), “A combined Tchebycheff/aspiration criterion vector interac-tive multiobjective programming procedure”, Management Science, 39, 1255-1260.

Steuer R.E., Choo E.U. (1983), “An interactive weighted Tchebycheff procedure formultiple objective programming”, Mathematical Programming , 26, 326–344.

Steuer R.E., Gardiner L.R., Gray J. (1996), “A bibliographic survey of the activitiesand international nature of multiple criteria decision making”, Journal of Multi–Criteria Decision Analysis, 5, 195–217.

Stewart T.J. (1992), “A critical survey on the status of multiple criteria decisionmaking theory and practice”, OMEGA, 20, 569–586.

Storm Software (1992), STORM personal version 3.0 , Storm Systems Inc., Cleve-land.

Troutt M.D., Tadisina S.K., Clinton R.J. (1991), “Interactive optimization aspectsof electronic spreadsheet models for design and planning”, Journal of Operatio-nal Research Society , 42, 349–355.

Vincke Ph. (1992), Multicriteria Decision–Aid , John Wiley & Sons, New York.

Walukiewicz S. (1986), Programowanie dyskretne, PWN, Warszawa.

Wessels J., Wierzbicki A.P. (red.) (1993), User–Oriented Methodology and Techni-ques of Decision Analysis and Support , Springer–Verlag, Berlin.

White D.J. (1990), “A bibliography on the applications of mathematical program-ming multiple–objective methods”, Journal of Operational Research Society ,41, 669–691.

Wierzbicki A.P. (1977), “Basic properties of scalarizing functionals for multiobjec-tive optimization”, Optimization, 8, 55–60.

Wierzbicki A.P. (1982), “A mathematical basis for satisficing decision making”,Mathematical Modelling , 3, 391–405.

Wierzbicki A.P. (1986), “On completeness and constructiveness of parametric cha-racterizations to vector optimization problems”, OR Spektrum, 8, 73–87.

Wierzbicki A.P. (1993), “Types of decision support systems and Polish contribu-tions to their development”, w: Wessels i Wierzbicki (1993), 158–175.

Williams A.C. (1963), “Marginal values in linear programming”, SIAM Journal onApplied Mathematics, 11, 82–94.

Page 196: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

198 Literatura

Williams H.P. (1993), Model Building in Mathematical Programming — Third Edi-tion, John Wiley & Sons, New York.

Yager R.R. (1988), “On ordered weighted averaging aggregation operators in mul-ticriteria decision making”, IEEE Transactions on Systems, Man and Cyberne-tics, 18, 183–190.

Yager R.R., Filev D.P. (1995), Podstawy modelowania i sterowania rozmytego,WNT, Warszawa.

Young H.P. (1994), Equity in Theory and Practice, Princeton University Press,Princeton.

Yu P.L. (1974), “Cone convexity, cone extreme points, and nondominated solutionsin decisions problems with multiobjectives”, Journal of Optimization Theoryand Applications, 14, 319–377.

Yu P.L. (1985), Multiple Criteria Decision Making: Concepts, Techniques andExtensions, Plenum Press, New York.

Yu P.L., Zeleny M. (1974), “The set of all non–dominated solutions in linear ca-ses and multicriteria simplex method”, Journal of Mathematical Analysis andApplications, 49, 430–469.

Zeleny M. (1974), “A concept of compromise solutions and the method of displacedideal”, Computers & Operations Research, 1, 479–496.

Zimmermann H. (1985), Fuzzy Set Theory and its Applications, Kluwer, Dordrecht.

Zionts S., Wallenius I. (1976), “An interactive programming method for solvingthe multiple criteria problem”, Management Science, 22, 652–663.

Zionts S., Wallenius I. (1983), “An interactive multiple objective linear program-ming method for a class of underlying nonlinear utility functions”, ManagementScience, 29, 519–529.

Zorychta K., Ogryczak W. (1981), Programowanie liniowe i ca lkowitoliczbowe,WNT, Warszawa.

Page 197: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

Indeks

aksjomat przesuni ↪ec wyrownuj ↪acych150

agregacja OWA 139cel przedzia lowy 48dominacja stochastyczna 144, 171funkcja— oceny 11, 16— osi ↪agni ↪ecia 43— — leksykograficzna 45— — minimaksowa 45— — skalaryzuj ↪aca 80— — wazona 43— skalaryzuj ↪aca 22— uzytecznosci 13krzywa Lorenza 149macierz realizacji celow 40miara rozbieznosci ocen 149minimaksymalizacja leksykograficzna

32, 138minimalizacja leksykograficzna 28metoda— wazenia ocen 24— punktu referencyjnego 79— — leksykograficzna 175— — przedzia lowa 83model quasi–zadowalaj ↪acy 80model zadowalaj ↪acy 75nierownosc leksykograficzna 28nierownosc wektorowa 15parametryzacja 38— zupe lna 38parametr steruj ↪acy 38poziom aspiracji 43, 80poziom rezerwacji 83porz ↪adek leksykograficzny 28programowanie celowe 43

— leksykograficzne 45— — , podejscie sekwencyjne 67— — , podejscie wielofazowe 68— referencyjne 97— — przedzia lowe 110— , teoria dualnosci 50przekszta lcenie Θ 32, 132przekszta lcenie Θ 152przestrzen— decyzji 11, 16— ocen 12, 16regularyzacja 23relacja dominacji 16— racjonalnej 16— symetrycznej 131— wyrownuj ↪acej 151relacja indyferencji 12— symetrycznej 131— wyrownuj ↪acej 152relacja preferencji 12— anonimowa 130— antysymetryczna 28— bezstronna 130— parametryczna 39— przechodnia 12— racjonalna 13— — anonimowo 130— — wyrownuj ↪aco 151— s labej 12— s labo monotoniczna 23— spojna 13— scisle monotoniczna 12— scis lej 12— , warunek zgodnosci 179— zwrotna 12rownanie celowe 43

199

Page 198: WIELOKRYTERIALNA OPTYMALIZACJA LINIOWA I DYSKRETNA ...

200 INDEKS

rozwi ↪azanie— dopuszczalne 11— efektywne 20— — symetrycznie 135— — wyrownuj ↪aco 158— Pareto–optymalne 20— sprawne 20skalaryzacja 22— leksykograficzna 28— minimaksowa 26, 27— parametryczna 38struktura dominacji 18— racjonalnej 18— symetrycznej 133— wyrownuj ↪acej 156system DINAS 86system wspomagania decyzji 38warunek zgodnosci 179wartosc krancowa 53, 62wektor dopuszczalny 11wektor nadiru 41wektor ocen 16— dominowany 16— — racjonalnie 16— — symetrycznie 131— — wyrownuj ↪aco 151— indyferentny 17— — racjonalnie 17— — symetrycznie 131— — wyrownuj ↪aco 152— niezdominowany 19— — racjonalnie 19— — symetrycznie 133— — wyrownuj ↪aco 156— s labo dominowany 17— — racjonalnie 17— — symetrycznie 152— — wyrownuj ↪aco 144wektor utopii 40wektor zmiennych decyzyjnych 16wspo lczynnik Giniego 136, 149zadanie— regularne 16— LPRPC 124— LRPC 103

— PC 47— PRPC 110— RPC 97— transportowo–lokalizacyjne 86— WPL 14— WPLD 15zbior— dopuszczalny 11, 16— osi ↪agalnych wektorow ocen 12, 16zmienna decyzyjna 11