Skripta za predmet: Teorija...
Transcript of Skripta za predmet: Teorija...
Skripta za predmet:
Teorija Odlučivanja
Beograd, 2015
Sadržaj
Odlučivanje bazirano na ekspertskim modelima1. Višeatributivno odlučivanje 42. Modelovanje preferencija (Promethee metoda) 113. Grupno odlučivanje 184. AHP metoda 215. Odlučivanje pri riziku 296. Fazi odlučivanje 34
Odlučivanje bazirano na modelima iz podataka7. Klasifikacija Naivnim Bajesovim modelom 538. Zaključivanje korišćenje Bajesovih mreža 629. Induktivna stabla odlučivanja (ID3 metoda) 71
Odlučivanje bazirano naekspertskim modelima
Matricu odlučivanja treba kvantifikovati. Pored toga, potrebno je i odrediti tip ekstremizacije za
svaki kriterijum. Ukoliko je tip ekstremizacije minimizacija (min) onda je poželjno da vrednost za
taj kriterijum bude što niža. Odnosno, ukoliko je tip ekstremizacije maksimizacija (max) onda je
poželjno da vrednost za taj kriterijum bude što veća.
Cena (eur) min
Internet max
Udaljenost od grada (km) min
Čistoća max
A 55 Besplatan u sobi (3) 0.7 4
B 65 Plaća se (1) 0.4 3
C 40 Nema (0) 0.7 4
D 25 Besplatan u hodniku (2) 4 3
E 40 Plaća se (1) 2 5
Ponderi 7 4 6 3
Leksikografska metoda: 1. Formiranje relacije poretka značajnosti kriterijumima, tako da je prvi kriterijum u poretku
najznačajniji, a poslednji najmanje značajan.
2. Krenuti od najbitnijeg kriterijuma.
3. Izabrati alternativu koja ima najbolju vrednost za kriterijum:
Ukoliko postoji jedna alternativa, izabrati tu alternativu;
Ukoliko postoji veći broj alternativa onda se za te alternative prelazi na sledeći
kriterijum i vraća se na korak 3;
4. Postupak se ponavlja dok se ne donese odluka (ostane jedna alternativa) ili dok se ne
iskoriste svi kriterijumi.
Viš eatributivno odluč ivanjeMatrica odlučivanja – Služi za struktuiranje problema odlučivanja, kroz uvođenja relevantnih
kriterijuma i ocene alternativa po svakom kriterijumu. Kolone predstavljaju kriterijumeodlučivanja, a redovi predstavljaju alternative. Polja u matrici odlučivanja se mogu popuniti
merenjem ili procenom donosioca odluke.
Cena (eur) Internet Udaljenost od grada (km) Čistoća
A 55 Besplatan u sobi 0.7 4B 65 Plaća se 0.4 3C 40 Nema 0.7 4D 25 Besplatan u hodniku 4 3E 40 Plaća se 2 5Ponderi 7 4 6 3
4
Primer:
Uz datu matricu odlučivanja dat je i redosled važnosti kriterijuma:
Kriterijumi Cena >> Udaljenost od grada >> Internet >> Čistoća
Pogledati u matrici odlučivanja koja alternativa ima najnižu cenu (zato što je tip ekstremizacije
minimizacija).
Cena (eur) min
A 55
B 65
C 40
D 25
E 40
Izabrati alternativu D. Kako je vrednost jedinstvena zaključujemo da je alternativa D najbolja.
Ukoliko je, u alternativi D, vrednost za cenu 50 eura, onda je postupak sledeći.
Prema ceni najbolje alternative su C i E. Međutim, kako ne možemo odlučiti u ovom koraku koja
je alternativa najbolja prelazimo na sledeći kriterijum, tj. udaljenost od grada. Posmatrajući
alternative C i E, zaključujemo da je alternativa C bolja jer je udaljenost od grada niža za
alternativu C nego za alternativu E.
Cena (eur) min
Udaljenost od grada (km) min
A 55 0.7
B 65 0.4
C 40 0.7
D 50 4
E 40 2
Konjuktivna metoda: 1. Donosilac odluke (DO) daje vektor željenih vrednosti.
2. Izabrati alternativukoja zadovoljava sve željene vrednosti ILI onu alternativu koja ima
najviše zadovoljenih željenih vrednosti.
5
3. Ukoliko su željene vrednosti suviše jake (ne ostaje nijedna alternativa), onda se može
raditi popuštanje filtera. Odnosno, ukoliko su željene vrednosti suviše slabe (ostaje
previše alternativa), onda se može raditi stezanje filtera.
Primer:
DO je izrazio svoje željene vrednosti u vidu sledeće matrice.
Kriterijumi Cena Internet Udaljenost od grada Čistoća
Željene vrednosti <= 40 >= 3 <= 1 >= 4
U vektoru željenih vrednosti <= x i >= x se čitaju kao barem x dobro. Umesto vrednosti u matricu
odlučivanja upisaćemo 1 ukoliko alternative zadovoljava željenu vrednost za taj kriterijum i 0
ukoliko ne zadovoljava željenu vrednost za taj kriterijum.
Cena (eur) min
Internet max
Udaljenost od grada (km) min
Čistoća max
Ukupno
A 0 1 1 1 3
B 0 0 1 0 1
C 1 0 1 1 3
D 1 0 0 0 1
E 1 0 0 1 2
Nijedna alternativa ne zadovoljava sve željene vrednosti. Ukoliko DO ne želi da popusti željene
vrednosti onda zaključujemo da su alternative A i C najbolje, jer imaju najveći broj zadovoljenih
željenih vrednosti.
Ukoliko se popusti filter tako da je Internet >= 1, a udaljenost <= 2 onda dobijamo:
Cena (eur) min
Internet max
Udaljenost od grada (km) min
Čistoća max
Ukupno
A 0 1 1 1 3
B 0 1 1 0 2
C 1 0 1 1 3
D 1 0 0 0 1
E 1 1 1 1 4
U ovom slučaju alternativa E u potpunosti zadovoljava sve željene vrednosti.
Leksikografska metoda i konjuktivna metoda (bez popuštanja i stezanja željenih vrednosti)
predstavljaju metode bez kompromisa.
6
Metoda jednoštavnih aditivnih težina (JAT): Još jedan način za izražavanje preferencija donosioca odluke je definisanje pondere (težinskih
koeficijenata) za kriterijume. Ukupan kvalitet neke alternative bi onda mogao da se računa kao
otežana suma pojedinačnih kvaliteta (tj. kriterijuma). Ukoliko je Ai alternativa i (i = 1,…,n), wj
ponder kriterijuma j a xij vrednost u matrici odlučivanja za alternativu i i kriterijum j, onda bi mogli
da ocenimo alternativu Ai (predstavljeno u formuli ispod kao v(Ai)) preko formule:
𝑣(𝐴𝑖) = ∑ 𝑤𝑗𝑥𝑖𝑗
𝑘
𝑗=1
Prilikom računanja otežanih suma treba voditi računa o sledećem:
Suma pondera treba da bude jedan. Ukoliko suma pondera nije jednaka 1 onda se vrši L1
normalizacija, tj. svaki ponder se deli sa sumom pondera. Drugim rečima, nova vrednost
pondera se dobija na sledeći način:
𝑤𝑗‚ =
𝑤𝑗
∑ 𝑤𝑙𝑘𝑙=1
.
Svi kriterijumi treba da budu istog tipa ekstremizacije (maksimizacije). Ukoliko nisu, vrši
se invertovanje vrednosti, tj. svi kriterijumi kojima je tip ekstremizacije minimizacija
prebacuju se u maksimizaciju. To se radi tako što se vrednosti alternativa za taj kriterijum
transformišu na sledeći način:
𝑥𝑖𝑗 = 1
𝑥𝑖𝑗
Sve vrednosti treba da se nalaze na istoj skali vrednosti, kako kriterijumi sa velikim
skalama (npr. u hiljadama) ne bi učinili druge kriterijume (npr. u decimalama)
beznačajnim. U tu svrhu radi se L normalizacija. Drugim rečima, svaki element se deli sa
najvećom vrednošću tog kroterijuma, tj. vrši se transformacija vrednosti preko formule:
𝑥𝑖𝑗 =𝑥𝑖𝑗
𝑚𝑎𝑥𝑗(𝑥𝑖𝑗)
Primer:
Prvo ćemo pondere svesti tako da im je suma jednaka jedan. Suma je 7 + 4 + 6 +3 = 20
Kriterijumi Cena Internet Udaljenost od grada Čistoća
Ponderi 7 / 20 4 / 20 6 / 20 3 / 20
0.35 0.2 0.3 0.15
Zatim ćemo sve kriterijume svesti na isti tip ekstremizacije (max).
7
Cena (eur) max
Internet max
Udaljenost od grada (km) max
Čistoća max
A 1 / 55 3 1 / 0.7 4
B 1 / 65 1 1 / 0.4 3
C 1 / 40 0 1 / 0.7 4
D 1 / 25 2 1 / 4 3
E 1 / 40 1 1 / 2 5
Ponderi 0.35 0.2 0.3 0.15
Kako dobijene vrednosti nisu na istoj skali vršimo L normalizaciju.
Cena (eur) max
Internet max
Udaljenost od grada (km) max
Čistoća max
A (1 / 55) / (1 / 25) 3 / 3 (1 / 0.7) / (1 / 0.4) 4 / 5
B (1 / 65) / (1 / 25) 1 / 3 (1 / 0.4) / (1 / 0.4) 3 / 5
C (1 / 40) / (1 / 25) 0 / 3 (1 / 0.7) / (1 / 0.4) 4 / 5
D (1 / 25) / (1 / 25) 2 / 3 (1 / 4) / (1 / 0.4) 3 / 5
E (1 / 40) / (1 / 25) 1 / 3 (1 / 2) / (1 / 0.4) 5 / 5
Ponderi 0.35 0.2 0.3 0.15
Tj. dobijamo:
Cena (eur) max
Internet max
Udaljenost od grada (km) max
Čistoća max
Vrednost
A 0.455 1 0.571 0.8 0.6505
B 0.385 0.333 1 0.6 0.5913
C 0.625 0 0.571 0.8 0.5102
D 1 0.667 0.1 0.6 0.6033
E 0.625 0.333 0.2 1 0.4954
Ponderi 0.35 0.2 0.3 0.15
Sada primenjujemo otežanu sumu:
v(A) = 0.455 * 0.35 + 1 * 0.2 + 0.571 * 0.3 + 0.8 * 0.15 = 0.6505
v(B) = 0.385 * 0.35 + 0.333 * 0.2 + 1 * 0.3 + 0.6 * 0.15 = 0.5913
v(C) = 0.625 * 0.35 + 0 * 0.2 + 0.571 * 0.3 + 0.8 * 0.15 = 0.5102
v(D) = 1 * 0.35 + 0.667 * 0.2 + 0.1 * 0.3 + 0.6 * 0.15 = 0.6033
v(E) = 0.625 * 0.35 + 0.333 * 0.2 + 0.2 * 0.3 + 1 * 0.15 = 0.4954
8
Prednost JAT metode je što dozvoljava da se određene lošije vrednosti nekih kriterijuma
kompenzuju dosta boljim vrednostima u drugim kriterijumima, tako da ukupan zbir bude što veći.
To ujedno predstavlja i problem, jer može previše da kompenzuje loše kriterijume, tj. da „pobedi“
alternativa sa dobrim zbirom, ali sa nekim kriterijumima koji su neprihvatljivo loši. Stoga se često
koriste kao pomoć MAXIMIN i MAXIMAX metode.
MAXIMIN (pesimistička) metoda:
Nad sređenom matricom (nakon invertovanja i normalizacije) vrši se izbor najniže vrednosti za
alternativu.
Primer:
Cena (eur) max
Internet max
Udaljenost od grada (km) max
Čistoća max
MAXIMIN
A 0.455 1 0.571 0.8 0.455
B 0.385 0.333 1 0.6 0.333
C 0.625 0 0.571 0.8 0
D 1 0.667 0.1 0.6 0.1
E 0.625 0.333 0.2 1 0.2
Ovom metodom prikazujemo samo najnižu vrednost koju DO može da očekuje od alternative, tj.
zanemarujemo dobre vrednosti.
Ova metoda će istaći kao najbolje one alternative čije su i najlošije osobine prihvatljive.
Alternative sa barem jednom ekstremno lošom osobinom, bez obzira na druge dobre osobine, će
dobiti slabu ocenu kod ove metode.
MAXIMAX (optimistička) metoda:
Nad sređenom matricom (nakon invertovanja i normalizacije) vrši se izbor najveće vrednosti za
alternativu.
Primer:
Cena (eur) max
Internet max
Udaljenost od grada (km) max
Čistoća max
MAXIMAX
A 0.455 1 0.571 0.8 1
B 0.385 0.333 1 0.6 1
C 0.625 0 0.571 0.8 0.8
D 1 0.667 0.1 0.6 1
E 0.625 0.333 0.2 1 1
9
Ovom metodom prikazujemo samo najbolju vrednost koju DO može da očekuje od alternative,
tj. zanemarujemo loše vrednosti.
Za razliku od MAXIMIN metode, ova metoda će preferirati one alternative koje imaju barem
jednu osobinu koja je ekstremno dobra (tj. bolja od ostalih alternativa).
Ukoliko se rezultati JAT, MAXIMAX i MAXIMIN poklope (alternativa je izabrana od sve tri metode)
onda je rešenje sigurno dobro. Ukoliko to nije slučaj, pomoću MAXIMIN i MAXIMAX metode
možemo dobiti signal da alternativa ima neku jako lošu osobinu, ili da se pozitivno ističe po barem
jednoj osobini.
Takođe je bitan i koncept dominiranosti. Za alternativu kažemo da je dominirana ukoliko postoji
druga alternativa koja je po svakom kriterijumu podjednako dobra ili bolja od dominirane
alternative. Takve dominirane alternative su objektivno lošije i ne postoje nijedne preferencije
donosioca odluke (niti metoda) pod kojim bi dominirana alternativa ispala najbolja.
Primer:
Zamislimo da je u početnoj matrici odlučivanja za alternativu C vrednost za kriterijum udaljenost
od grada vrednost 2, onda bi ta alternativa bila dominirana od strane alternative E. U tom slučaju
alternativu C možemo izbaciti iz daljeg razmatranja.
Cena (eur) min
Internet max
Udaljenost od grada (km) min
Čistoća max
A 55 Besplatan u sobi (3) 0.7 4
B 65 Plaća se (1) 0.4 3
C 40 Nema (0) 2 4
D 25 Besplatan u hodniku (2) 4 3
E 40 Plaća se (1) 2 5
10
Vrednosti u matrici odlučivanja često predstavljaju direktno izmerene vrednosti i kao takve ne
odražavaju koliko je DO određena vrednost korisna ili povoljna1. Stoga, se te izmerene vrednosti
(npr. brzina automobila ili cena kafe) mogu mapirati u vrednosti koje predstavljaju korist te
vrednosti. Jedan način za modelovanje korisnosti je preko teorije korisnosti (pogledati
predavanja). Međutim, određivanje korisnosti može biti komplikovano, te DO može izraziti svoje
mišljenje preko relacije da je jedna alternativa “bolja od” druge alternative za dati kriterijum, tj.
DO “preferira” jednu alternativu u odnosu na drugu alternativu za dati kriterijum. Modelovanje
preferencija se vrši tako što se porede sve mogude kombinacije alternative za svaki kriterijum,
gde svaki kriterijum ima definisanu funkciju preferencije. Ukoliko nam p(A, B) predstavlja
vrednost preferencije alternative A u odnosu na alternative B onda kažemo:
- Ako je p(A, B) = 0, onda ne preferiramo alternativu A u odnosu na alternative B (treba voditi
računa da ova vrednost ne znači da preferiramo alternativu B u odnosu na alternative A).
- Ako je p(A, B) ≈ 0, onda iskazujemo slabu preferencu prema alternativi A u odnosu na
alternativu B.
- Ako je p(A, B) ≈ 1, onda jako preferiramo alternativu A u odnosu na alternativu B.
- Ako je p(A, B) = 1, onda u potpunosti preferiramo alternativu A, u odnosu na alternativu B.
Treba imati i u vidu da je p(A, B) uvek pozitivan broj. Način na koji se dolazi do funkcija
preferencija je putem anketa, upitnika ili ispitivanjem DO. Na ovaj način se modelira
subjektivnost DO.
Primer:
Pre odlaska na fakultet želimo da popijemo kafu te smo struktuirali problem na slededi način:
Cena (min)
Kvalitet (max)
A 100 3
B 150 4
C 110 5
Ukoliko pogledamo alternative A i C vidimo da je razlika u 10 dinara. Međutim, kako je razlika
relativno niska, ne želimo da preferiramo alternativu A u odnosu na alternativu C. Kako bi
iskazali da nam određena vrednost ne predstavlja značajnu razliku kreiramo funkciju
preferencije. Recimo da nam je razlika koja nam nije bitna 20 dinara. U tom slučaju kreiramo
slededu funkciju.
1 vrednosti u matrici odlučivanja koje su procenjene donekle predstavljaju korisnost DO, jer predstavljaju mišljenje
DO o alternativama izraženo npr. na skali od 1 do 9
Modelovanje preferencija – metodaPromethee
11
x
p(x)
1
20
Vrednost na x osi predstavlja razliku vrednosti prilikom poređenja dve alternative, a vrednost na
y osi predstavlja vrednost preferencije. Ukoliko je razlika vrednosti dve alternative ispod ili
jednaka 20 onda kažemo da ne preferiramo alternativu A u odnosu na alternativu B. Odnosno,
ako je razlika iznad 20 onda kažemo da preferiramo alternativu A u odnosu na alternativu B.
Vrednost 20 (ili m u opštem slučaju) predstavlja parametar indiferencije ili ravnodušnosti, koji
predstavlja vrednost u razlici koja DO nije bitna, tj. DO je ravnodušan prema toj razlici.
Drugim rečima:
𝑝 𝑥 = 0, 𝑥 ≤ 201, 𝑥 > 20
tj. u opštem slučaju
𝑝 𝑥 = 0, 𝑥 ≤ 𝑚1, 𝑥 > 𝑚
Imajudi u vidu datu funkciju možemo izraziti preferencije. Treba napomenuti da računanje
razlike zavisi od tipa ekstremizacije. Tako da, ukoliko računamo preferenciju alternative A u
odnosu na alternativu B, razlike računamo na slededi način:
A vs. B max A - B min -(A - B) = B - A
X Cena p(x)
(A, B) 110 – 100 = 10 ≤ 20 0
(A, C) 150 – 100 = 50 > 20 1
(B, A) 100 – 110 = -10 ≤ 20 0
(B, C) 150 – 110 = 40 > 20 1
(C, A) 100 – 150 = -50 ≤ 20 0
(C, B) 110 – 150 = -40 ≤ 20 0
Za kvalitet usluge kafida, možemo da smatramo da nam je svaka razlika u vrednostima veoma
bitna. Drugim rečima, parametar indiferencije je jednak 0.
12
x
1
0
p(x)
U tom slučaju vrednost preferencije se dobija na slededi način.
𝑝 𝑥 = 0, 𝑥 ≤ 01, 𝑥 > 0
x Kvalitet
p(x)
(A, B) 3 – 4 = -1 ≤ 0 0
(A, C) 3 – 5 = -2 ≤ 0 0
(B, A) 4 – 3 = 10 > 0 1
(B, C) 4 – 5 = -1 ≤ 0 0
(C, A) 5 – 3 = 2 > 0 1
(C, B) 5 – 4 = 1 > 0 1
Međutim, često DO ne može da striktno da preferira neku alternativu u odnosu na drugu, tj. ne
može da zada vrednosti koje su 0 ili 1, ved želi da predstavi preferenciju kao vrednost koja može
biti između 0 ili 1. Na primeru kafida, DO želi da kaže da je indiferentan prema razlici od 20
dinara, ali isto tako da tek sa razlikom od 60 dinara smatra da u potpunosti preferira alternativu
u odnosu na drugu. Ako je razlika između 20 i 60 onda je vrednost funkcije preferencije između
0 i 1 i to ako je bliže 20 onda je bliža nuli, a ako je razlika bliža 60 onda je vrednost funkcije
preferencije bliža 1.
Funkcija preferencije koja modeluje ovu situaciju se definiše preko parametra indiferencije m,
koji predstavlja ravnodušnost DO prema razlici i parametra preferencije n, koji predstavlja
vrednost razlike posle koje DO u potpunosti preferira jednu alternativu u odnosu na drugu. Za
dati primer funkcija preferencije je definisana na slededi način.
13
x
p(x)
1
20 60x’ x’’
p(x’’)
p(x’)
Vrednost funkcije preferencije se dobija na slededi način:
𝑝 𝑥 =
0, 𝑥 ≤ 20𝑥 − 20
60 − 20, 20 < 𝑥 ≤ 60
1, 𝑥 > 60
tj. u opštem slučaju
𝑝 𝑥 =
0, 𝑥 ≤ 𝑚𝑥 − 𝑚
𝑛 − 𝑚, 𝑚 < 𝑥 ≤ 𝑛
1, 𝑥 > 𝑛
Koristedi ovu funkciju preferencije dobijamo sledede vrednosti preferencija.
x Cena p(x)
(A, B) 110 – 100 = 10 ≤ 20 0
(A, C) 150 – 100 = 50 𝟓𝟎 − 𝟐𝟎
𝟔𝟎 − 𝟐𝟎=
𝟑𝟎
𝟒𝟎=
𝟑
𝟒
(B, A) 100 – 110 = -10 ≤ 20 0
(B, C) 150 – 110 = 40 𝟒𝟎 − 𝟐𝟎
𝟔𝟎 − 𝟐𝟎=
𝟐𝟎
𝟒𝟎=
𝟏
𝟐
(C, A) 100 – 150 = -50 ≤ 20 0
(C, B) 110 – 150 = -40 ≤ 20 0
14
Zadatak:
Napravili ste e-prodavnicu i potrebno je da izaberete server na kome dete okačiti aplikaciju.
Nakon istraživanja tržišta i traganja za alternativama došli ste do sledede matrice odlučivanja.
Cena (min)
Opteredenost *%+ (min)
Pouzdanost
Srbija 50 35 4
Kina 20 100 2
Hrvatska 70 30 2
Amerika 75 60 5
Rumunija 80 70 3
Ponderi 0,4 0,3 0,3
Indiff. (m) 20 10 0
Pref. (n) 20 40 0
Posmatrajudi matricu odlučivanja možemo da zaključimo da je Rumunija dominirana alternativa,
te je možemo isključiti iz matrice odlučivanja.
Funkcije preferencije su predstavljene preko parametara m i n, a važnost kriterijuma je data
preko pondera.
1. Prvi korak u Promethee metodi je računanje preferencija.
Za kriterijum Cena funkcija preferencije izgleda:
p(x)
1
20
Za kriterijum Opteredenost funkcija preferencije izgleda:
15
x
p(x)
1
10 40
Za kriterijum Pouzdanost funkcija preferencije izgleda:
x
1
0
p(x)
Cena (min)
Opt. [%] (min)
Pouz.
Srbija, Kina 0 1 1
Srbija, Hrvatska 0 0 1
Srbija, Amerika 1 25 − 10
40 − 10=
1
2
0
Kina, Srbija 1 0 0
Kina, Hrvatska 1 0 0
Kina, Amerika 1 0 0
Hrvatska, Srbija 0 0 0
Hrvatska, Kina 0 1 0
Hrvatska, Amerika 0 30 − 10
40 − 10=
2
3
0
Amerika, Srbija 0 0 1
Amerika, Kina 0 1 1
Amerika, Hrvatska 0 0 1
16
2. Pomnožimo odgovarajuće pondere sa preferencijama
Preferencija
Srbija, Kina 0,4 * 0 + 0,3 * 1 + 0,3 * 1 = 0,6
Srbija, Hrvatska 0,4 * 0 + 0,3 * 0 + 0,3 * 1 = 0,3
Srbija, Amerika 0,4 * 1 + 0,3 * 0,5 + 0,3 * 0 = 0,55
Kina, Srbija 0,4 * 1 + 0,3 * 0 + 0,3 * 0 = 0,4
Kina, Hrvatska 0,4 * 1 + 0,3 * 0 + 0,3 * 0 = 0,4
Kina, Amerika 0,4 * 1 + 0,3 * 0 + 0,3 * 0 = 0,4
Hrvatska, Srbija 0,4 * 0 + 0,3 * 0 + 0,3 * 0 = 0
Hrvatska, Kina 0,4 * 0 + 0,3 * 1 + 0,3 * 0 = 0,3
Hrvatska, Amerika 0,4 * 0 + 0,3 * 2/3 + 0,3 * 0 = 0,2
Amerika, Srbija 0,4 * 0 + 0,3 * 0 + 0,3 * 1 = 0,3
Amerika, Kina 0,4 * 0 + 0,3 * 1 + 0,3 * 1 = 0,6
Amerika, Hrvatska 0,4 * 0 + 0,3 * 0 + 0,3 * 1 = 0,3
Ovako dobijene vrednosti predstavljaju koliko ukupno preferiramo alternativu A u odnosu na
alternativu B. Npr. ukupno preferiramo Kinu u odnosu na Ameriku 0,4.
Dobijene preferencije treba popuniti u slededu matricu.
3. Računanje pozitivnog, negativnog i čistog toka preferencije
Pozitivan tok preferencije predstavlja prosečnu vrednost u redu i govori koliko prosečno
preferiramo tu alternativu u odnosu na druge.
Negativan tok preferencije prestavlja prosečnu vrednost u koloni i govori koliko su prosečno
druge alterantive bile preferirane u odnosu na nju.
Čist tok preferencije predstavlja razliku pozitivnog i negativnog toka. Suma čistog toka treba da
bude 0. Veda vrednost čistog toga predstavlja bolju vrednost, te zaključujemo da je najbolja
alternativa ona koja ima najvedu vrednost, tj. u našem primeru alternativa Srbija.
Srbija Kina Hrvatska Amerika T+ T
Srbija 0,6 0,3 0,55 0,483 0,25
Kina 0,4 0,4 0,4 0,4 -0,1
Hrvatska 0 0,3 0,2 0,167 -0,167
Amerika 0,3 0,6 0,3 0,4 0,017
T- 0,233 0,5 0,333 0,383
17
Osnovno pitanje problema višekriterijumskog grupnog odlučivanja jeste pronalaženje procedura
za izbor odluka koje odgovaraju željenom rešenju, uz mogućnost selekcije i izdvajanja
najprihvatljivije alternative. Složenost grupnog odlučivanja se ogleda u tome da postoji veći broj
kriterijuma i alternativa sa različitim nivoom značajnosti za više DO uključenih u odlučivanje.
Svaki DO, za posmatrani problem može imati svoje kriterijume i svoje važnosti kriterijuma, svoje
preferencije i svoj način donošenja odluka. Stoga je ključno usaglasiti mišljenja i izdvojiti
najprihvatljiviju alternativu za celu grupu.
Primer:
Direktor marketing odeljenja firme koja se bavi proizvodnjom i prodajom posuđa je naredio
svojim pomoćnicima da odrede strategiju prodaje posuđa. Nakon inicijalnog razgovora zaključili
su da postoji 4 moguće strategije. To su reklamiranje putem web-a, direktnom poštom,
reklamom na radiju i reklamom na televiziji. Svaki DO je na svoj način odredio rangove
alternativa i na direktoru marketing odeljenja je da odluči koju će strategiju da primeni.
Rangovi su zadati u sledećoj tabeli.
Rang DO1 DO2 DO3
1 Reklama na web-u Reklama na web-u Reklama na televizoru
2 Direktna pošta Direktna pošta Direktna pošta
3 Reklama na radiju Reklama na televizoru Reklama na radiju
4 Reklama na televizoru Reklama na radiju Reklama na web-u
Model pravila većine vrši pregled dominacije alternativa na 1. rangu. Drugim rečima,
najprihvatljivija alternativa je ona alternativa koja je najčešće bila prvorangirana. Popisaćemo
alternative u jednoj koloni, a u drugoj vrednost koja predstavlja koliko je puta alternativa bila
najbolje rangirana.
Alternativa Ukupno na 1. rangu
Direktna pošta 0
Reklama na radiju 0
Reklama na televiziji 1
Reklama na web-u 2
Kako je reklamiranje na web-u najčešće bilo na 1. rangu zaključujemo da je ona najprihvatljivija
alternativa.
Model zbira relacije poretka je metoda koja vrši pregled dominacije alternativa u odnosu na
preostale alternative. Prvi korak je definisanje matrice poretka alternativa, koja poredi
Grupno odlučivanje
18
alternative u parovima. Na glavnoj dijagonali se ne unose nikakve vrednosti (alternativa ne može
da dominira samu sebe). U ostalim poljima se unose vrednosti koje predstavljaju koliko puta je
alternativa (u redu) bila bolje rangirana od druge alternative (u koloni). Popunjavanjem
dobijamo sledeću matricu poretka. Vrednosti se tumače na sledeći način, npr. za poređenje
direktne pošte i reklame na radiju da je direktna pošta dominirala alternativu reklame na radiju
tri puta. Na kraju se računa ukupan zbir dominacija svake alternative (suma po redovima). Ta
vrednost nam govori koliko je puta ta alternativa dominirala preostale alternative (analogno
pozitivnom toku u Promethee metodi). Najprihvatljivija je ona alternativa koja ima najveći
ukupni zbir. Za posmatrani primer to su direktna pošta i reklama na web-u.
Alternative Direktna
pošta Reklama na radiju
Reklama na televiziji
Reklama na web-u
Ukupno
Direktna pošta - 3 2 1 6
Reklama na radiju 0 - 1 1 2
Reklama na televiziji 1 2 - 1 4
Reklama na web-u 2 2 2 - 6
Za preostale metode prvo ćemo definisati matricu individualnog poretka alternativa po svakom
učesniku sesije, gde su redovi alternative, kolone DO, a vrednost unutar matrice predstavlja
rang alternative datog DO. Za posmatrani primer dobijamo sledeću matricu individualnog
poretka.
Alternative DO1 DO2 DO3 AS VAR GS
Direktna pošta 2 2 2 2 0 2
Reklama na radiju 3 4 3 3,333 0,222 3,302
Reklama na televiziji 1 3 1 2,667 1,556 2,289
Reklama na web-u 1 1 4 2 2 1,587
Model aditivnog rangiranja predstavlja model gde se računa aritmetička sredina rangova
alternative po DO. Na raj način dobijamo koliko je u proseku alternativa bila dobro rangirana.
Vrednosti aritmetičke sredine su upisane u matricu u koloni AS. Najprihvatljivija alternativa je
ona alternativa koja ima najnižu vrednost aritmetičke sredine, tj. u proseku ima najbolji rang. Za
posmatrani primer to su alternative direktna pošta i reklama na web-u.
Model minimalne varijanse predstavlja pomoćnu metodu koja računa srednje kvadratno
odstupanje rangova od prosečne vrednosti rangova. Kao takva govori nam koliko je rešenje
stabilno, ali ne govori ništa o samom rangu alternative. Može se koristiti kada imamo više
alternativa koje imaju istu vrednost po nekoj drugoj metodi. Varijansa se računa na sledeći
način:
𝑣𝑎𝑟𝑖 = 1
𝑛∑(𝑟𝑖𝑘 − 𝑎𝑣𝑔(𝑟𝑖))2
𝑛
𝑘=1
19
Gde 𝑣𝑎𝑟𝑖predstavlja varijansu alternative i, 𝑟𝑖𝑘 rang alternative i kod DO k, a𝑎𝑣𝑔(𝑟𝑖)prosečnu
vrednost ranga alternative i. Vrednosti varijanse su predstavljene u koloni VAR. Ukoliko bi
koristili model minimalne varijanse kao pomoćnu metodu modelu aditivnog rangiranja izabrali bi
direktnu poštu. Drugim rečima, modelom minimalne varijanse biramo alternativu koja manje
odstupa od prosečne vrednosti. Ukoliko pogledamo vrednosti u matrici individualnog poretka
izabraćemo alternativu koja se kod svih DO nalazila na istom mestu (2. rang), tj. svi DO su bili
saglasni oko ranga.
Model umnoženog rangiranja računa geometrijsku sredinu rangova alternativa. Kako je
geometrijska sredina uvek manja ili jednaka aritmetičkoj sredini vrši se blago eliminisanje
ekstremno loših vrednosti. Kao i kod modela aditivnog rangiranja, najprihvatljivija je ona
alternativa koja ima najnižu vrednost, tj. alternativan ima u proseku najbolji rang. Geometrijska
sredina se računa na sledeći način:
𝐺𝑆𝑖 = √∏ 𝑟𝑖𝑘
𝑛
𝑘=1
𝑛
Gde je 𝐺𝑆𝑖 geometrijska sredina alternative i, a 𝑟𝑖𝑘 rang alternative i kod DO k. Na posmatranom
primeru najprihvatljivija alternativa je reklama na web-u. Ukoliko pogledamo njene vrednosti
ona se dva puta nalazila na prvom rangu, ali je kod jednog DO bila na poslednjem (4.) rangu.
Upravo zbog toga je imala veću vrednost aritmetičke sredine i visoku vrednost varijanse.
Međutim, kako je ovo izuzetak geometrijska sredina, zbog svoje osobine da je uvek manja ili
jednaka aritmetičkoj sredini, je eliminisala ovu ekstremno lošu vrednost.
20
Direktno merenje ili ocenjivanje vrednosti alternativa za neki kriterijum može predstavljati veliki
problem u procesu donošenja odluka jer su takve vrednosti vrlo osetljive na promene i kao
takve nisu precizne. Pored toga DO, iz psiholoških razloga, ne može da poredi veliki broj
alternativa istovremeno. Uzmimo za primer ocenjivanje univerziteta i kriterijum kvalitet nastave.
Direktnom procenom na skali od 1 do 5 DO bi došao do vrednosti prikazanih u tabeli ispod.
Ukoliko bi se jedna vrednost promenila, npr. London School of Economics na 6, vrednosti unutar
matrice odlučivanja bi se značajno promenile. Međutim, da li alternative koje imaju identične
vrednosti u potpunosti oslikavaju preferencije DO? Takođe, da li je ocene na jednoj skali
oslikavaju preferencije DO?
Alternativa Direktna ocena Norm. Ocena Norm. ocena nakon
promene
FON 3 0,17 0,16
Politecnico di Milano 3 0,17 0,16
London School of Economics 5 (6) 0,28 0,32
Wharton 5 0,28 0,26
Mega 2 0,11 0,11
Uočeno je da čovek ne može da ocenjuje veći broj alternativa na jednoj skali, odnosno da ne
može precizno da vrši procenu. Zbog toga, predloženo je poređenje u parovima. Takođe, uočeno
je da skala koja je dovoljno precizna je skala od 1 do 9 (Likertova ili Satijeva skala). Drugim
rečima, manja skala nije dovoljna da iskaže razlike između alternativa, dok veća skala otežava
DO da iskaže razlike.
Poređenje alternativa u parovima po nekom kriterijumu se vrši u matricama procene.
Popunjavanje matrice procene se vrši tako što DO dodeljuje vrednosti od 1 do 9 čime vrši
poređenje alternativa. Vrednost 1 predstavlja jednaku preferenciju između alternativa koje se
porede, dok vrednost 9 predstavlja ekstremnu preferenciju alternative u odnosu na drugu
alternativu. Kako DO procenjuje preferencije nije bitno kojeg je tipa ekstremizacije određeni
kriterijum, tj. DO dodeljivanjem vrednosti vrši poređenje alternativa relacijom „bolje od“ ili
„preferiram“. Primenom ovakvog načina ocenjivanja alternativa uvodi se maksimalna
subjektivnost DO u proces odlučivanja, bez eksplicitnog definisanja funkcije preferencije.
Prilikom popunjavanja matrice procene potrebno je popuniti samo gornji (ili donji) trougaoni
deo matrice. Na glavnoj dijagonali se nalazi vrednost 1 (DO je uvek indiferentan kada poredi
alternativu sa samom sobom). Ostatak matrice će se popuniti recipročnim vrednostima (pravilo
reciprociteta, tj. 𝑎𝑖𝑗 = 1
𝑎𝑗𝑖). Na taj način obezbeđuje se konzistentnost ocene (𝑎𝑖𝑗 ∗ 𝑎𝑗𝑖 = 1).
Vrednosti u matrici procene koje su prikazane u zagradama predstavljaju recipročne vrednosti
Metoda Analitičkih HijerarhijskihProcesa (AHP)
21
tog broja, tj. (5) predstavlja 1
5= 0,2. Prilikom popunjavanja matrice procene DO treba da vodi
računa o svojim ocenama, tj. treba da poštuje pravilo tranzitivnosti, koje glasi 𝑎𝑖𝑗 = 𝑎𝑖𝑘 ∗ 𝑎𝑘𝑗.
Za primer ocene kvaliteta nastave DO je popunio sledeću matricu procene (za popunjavanje
matrice procene pogledati predavanja).
FON Milano LSE Wharton Megatrend
FON 1 3 (5) (3) 5
Milano 1 (7) (5) 4
LSE 1 2 9
Wharton 1 7
Megatrend 1
Nakon popunjavanja preostalih vrednosti dobija se sledeća matrica (recipročne vrednosti su
prikazane u stvarnim vrednostima). Prvi korak u oceni alternativa u AHP metodi je
normalizacija. Koristi se L1 normalizacija, te ćemo izračunati sumu po kolonama. Zatim ćemo
svaku vrednost podeliti sa odgovarajućom sumom (sumom kolone u kojoj se vrednost nalazi).
FON Milano LSE Wharton Megatrend
FON 1 3 0,2 0,3333 5
Milano 0,3333 1 0,1429 0,2 4
LSE 5 7 1 2 9
Wharton 3 5 0,5 1 7
Megatrend 0,2 0,25 0,1111 0,1429 1
Sum 9,5333 16,2500 1,9540 3,6762 26,0000
Dobijamo sledeću matricu procene. Zatim računamo prosečnu vrednost po redu (alternativi)
koja nam predstavlja ocenu DO za zadati kriterijum, odnosno na ovom primeru ocenu kvaliteta
nastave na različitim fakultetima/univerzitetima. Ovako dobijena ocena se može tumačiti kao
prosečna preferencija jedne alternative u odnosu na ostale (analogno pozitivnom toku u
Promethee metodi).
FON Milano LSE Wharton Megatrend AVG
FON 0,1049 0,1846 0,1024 0,0907 0,1923 0,1350
Milano 0,0350 0,0615 0,0731 0,0544 0,1538 0,0756
LSE 0,5245 0,4308 0,5118 0,5440 0,3462 0,4714
Wharton 0,3147 0,3077 0,2559 0,2720 0,2692 0,2839
Megatrend 0,0210 0,0154 0,0569 0,0389 0,0385 0,0341
Ovakvim pristupom dobijamo preciznija i stabilnija rešenja. Preciznija su jer je vršeno poređenje
u parovima, a stabilnija su zato što mala promena u vrednostima neće izazvati velike promene u
konačnim ocenama. Ukoliko bi promenili jednu procenu, npr. da je FON bolji od Megatrenda za
6, promenila bi se recipročna vrednost a krajnja ocena bi se promenila za veoma malu vrednost.
22
Takođe, AHP omogućava ocenjivanje alternativa kod nejasnih i veoma subjektivnih kriterijuma.
Za svaku matricu procene se računa indeks nekonzistentnosti, koji predstavlja koliko je DO
dobro popunjavao matricu procene, tj. koliko je poštovao princip tranzitivnosti. Za računanje i
tumačenje indeksa nekonzistentnosti pogledati predavanja i knjigu.
Primer:
Na konkurs za posao za media planera prijavio se veliki broj kandidata. Nakon inicijalnog
intervjua ostalo je samo tri kandidata (nakon konjuktivne metode). To su Marko, Olivera i
Jovana. Potrebno je izabrati jednog kandidata, a kriterijumi su znanje, utisak i iskustvo. Iako su
kriterijumi kao što su znanje i iskustvo direktno merljivi, njima se može pristupiti poređenjem u
parovima kako bi se iskazale preferencije DO prema određenim vrednostima.
Prema znanju DO je popunio sledeću matricu procene. Prvi korak je normalizacija matrice
procene, te računamo sumu po kolonama i delimo svaku vrednost iz matrice procene sa sumom
kolone u kojoj se ta vrednost nalazi.
Znanje Marko Olivera Jovana
Marko 1 3 6
Olivera (3) 1 2
Jovana (6) (2) 1
Sum 1,5 4,5 9
Nakon normalizacije dobijamo sledeću matricu procene. Računanjem prosečne vrednosti po
redu dobijamo ocenu kandidata po znanju.
Znanje Marko Olivera Jovana AVG
Marko 0,667 0,667 0,667 0,667
Olivera 0,222 0,222 0,222 0,222
Jovana 0,222 0,111 0,111 0,111
Ukoliko bi pogledali dobijene ocene i uporedili sa inicijalnim ocenam DO videli bi da dobijene
ocene u potpunosti preslikavaju odnose koje DO popunio u matricu procene, tj. preferencija
između Marka i Jovane je 6, a odnos ocena između Marka i Jovane je tačno 6. Ovo je indikator
da je matrica savršeno konzistentna.
Prema utisku DO je popunio sledeću matricu procene.
Utisak Marko Olivera Jovana
Marko 1 1 (3)
Olivera 1 1 (2)
Jovana 3 2 1
Sum 5 4 1,833
23
Istim postupkom dobijamo sledeće ocene.
Utisak Marko Olivera Jovana AVG
Marko 0,2 0,25 0,182 0,211
Olivera 0,2 0,25 0,273 0,241
Jovana 0,6 0,5 0,545 0,548
Na kraju DO popunjava matricu procene za iskustvo.
Iskustvo Marko Olivera Jovana
Marko 1 (2) 2
Olivera 2 1 5
Jovana (2) (5) 1
Sum 3,5 1,7 8
Istim postupkom dobijamo sledeće ocene.
Iskustvo Marko Olivera Jovana AVG
Marko 0,286 0,294 0,25 0,277
Olivera 0,571 0,588 0,625 0,595
Jovana 0,143 0,188 0,125 0,129
Kako bi mogli da donesemo konačnu odluku ko je najprikladniji kandidat potrebno je još oceniti
vrednosti pondera. Stoga, na isti način kao i za alternative, računamo ocenu pondera.
Izbor kandidata Znanje Utisak Iskustvo
Znanje 1 2 (2)
Utisak (2) 1 3
Iskustvo 2 (3) 1
Sum 3,5 6 1,833
Istima postupkom dobijamo sledeće ocene.
Izbor kandidata Znanje Utisak Iskustvo AVG
Znanje 0,286 0,333 0,273 0,297
Utisak 0,143 0,167 0,182 0,164
Iskustvo 0,571 0,5 0,545 0,539
Kada smo izračunali sve ocene možemo da ih stavimo u matricu odlučivanja.
Znanje Utisak Iskustvo
Marko 0,667 0,211 0,277
Olivera 0,222 0,241 0,595
Jovana 0,111 0,548 0,129
Ponderi 0,297 0,164 0,539
24
Konačnu odluku koja alternativa je najbolja za posmatrani problem dobijamo otežanom sumom
(aditivnim težinama). Bitno je napomenuti da nema potrebe za daljom normalizacijom matrice
jer su sve vrednosti već normalizovane na istu skalu.
Alternativa Otežana suma Rang
Marko 0,667 * 0,297 + 0,211 * 0,164 + 0,277 * 0,539 = 0,382 2
Olivera 0,222 * 0,297 + 0,241 * 0,164 + 0,595 * 0,539 = 0,426 1
Jovana 0,111 * 0,297 + 0,548 * 0,164 + 0,129 * 0,539 = 0,192 3
Najveću vrednost ima Olivera, te zaključujemo da je Olivera najbolji kandidat.
•
Na prikazanom primeru, a i u narednom, svi kriterijumi i ponderi su izračunati preko matrica
procena, što nije opšti slučaj. Češće se samo određeni kriterijumi računaju preko matrice
procena i te vrednosti se koriste u matrici odlučivanja.
Najveći nedostaci AHP metode jesu veliki broj ocena DO (za problem koji ima m kriterijuma i n
alternativa treba popuniti 𝑚 ∗ 𝑛∗(𝑛−1)
2+
𝑚∗(𝑚−1)
2 procena) i moguća nekonzistentnost matrice
procene. Takođe, bitno je napomenuti da ukoliko postoje kriterijumi koji su međusobno
korelisani dolazi se do situacije da istu informaciju uključujemo više puta, te je kao rešenje ovog
problema predložena druga metoda od istog autora (Tomas Sati) koja se naziva ANP (eng.
Analytic Network Process).
Primer sa podkriterijumima:
Jedna od ključnih osobina AHP-a je u kreiranju hijerarhije kriterijuma, tj. kriterijum može da se
sastoji od podkriterijuma. U sledećem primeru ćemo imati jedan takav slučaj. Reč je o izboru
servera za web aplikaciju prodavnice računarske opreme. Kriterijumi su cena, opterećenost i
pouzdanost, koja se sastoji od podkriterijuma stabilnost i sigurnost.
Izbor servera
Cena Opterećenost Pouzdanost
SigurnostStabilnost
Alternative su Telekom, Eunet i AdriaHost.
25
Svaki problem koji se sastoji iz podkriterijuma se može redukovati na problem sa jednim nivoom
u hijerarhiji tako što će se podkriterijumi prebaciti u prvi nivo, a odgovarajući kriterijum obrisao
(na ovom primeru stabilnost i sigurnost bi se prebacili na prvi nivo, a pouzdanost bi se obrisala).
Međutim, time je potrebno popunjavati veći broj poređenja za pondere. Takođe, nekada nema
smisla porediti kriterijum sa podkriterijuma drugog kriterijuma.
DO prvo popunjava ocene alternativa za kriterijume, i to tako što će ocenjivati alternative po
ceni, opterećenosti, stabilnosti i sigurnosti (neće po pouzdanosti zato što je onda podeljena na
dva podkriterijuma).
Za cenu DO je popunio sledeću matricu procene.
Cena Telekom Eunet AdriaHost
Telekom 1 1 (3)
Eunet 1 1 (2)
AdriaHost 3 2 1
Sum 5 4 1,833
Rešavanjem dobijamo sledeće ocene.
Cena Telekom Eunet AdriaHost AVG
Telekom 0,2 0,25 0,182 0,211
Eunet 0,2 0,25 0,273 0,241
AdriaHost 0,6 0,5 0,545 0,548
Za opterećenost DO je popunio sledeću matricu procene.
Opterećenost Telekom Eunet AdriaHost
Telekom 1 3 4
Eunet (3) 1 2
AdriaHost (4) (2) 1
Sum 1,583 4,5 7
Rešavanjem dobijamo sledeće ocene.
Opterećenost Telekom Eunet AdriaHost AVG
Telekom 0,632 0,667 0,571 0,623
Eunet 0,211 0,222 0,286 0,240
AdriaHost 0,158 0,111 0,143 0,137
Za stabilnost DO je popunio sledeću matricu procene.
Stabilnost Telekom Eunet AdriaHost
Telekom 1 (2) 3
Eunet 2 1 5
AdriaHost (3) (5) 1
Sum 3,333 1,7 9
26
Rešavanjem dobijamo sledeće ocene.
Stabilnost Telekom Eunet AdriaHost AVG
Telekom 0,3 0,294 0,333 0,309
Eunet 0,6 0,588 0,556 0,581
AdriaHost 0,1 0,118 0,111 0,110
Za sigurnost DO je popunio sledeću matricu procene.
Sigurnost Telekom Eunet AdriaHost
Telekom 1 4 (2)
Eunet (4) 1 (6)
AdriaHost (2) 6 1
Sum 3,25 11 1,667
Rešavanjem dobijamo sledeće ocene.
Sigurnost Telekom Eunet AdriaHost AVG
Telekom 0,308 0,364 0,3 0,324
Eunet 0,077 0,091 0,1 0,089
AdriaHost 0,615 0,546 0,6 0,587
Nakon popunjavanja matrica procena za alternative po kriterijumima i podkriterijumima treba
da popunimo matrice procena za određivanje pondera za kriterijume i podkriterijume. Prvo
ćemo popuniti matricu procene za kriterijume. Ovaj korak predstavlja određivanje težina za prvi
nivo, dakle za određuju se težine za cenu, opterećenost i pouzdanost (bez stabilnosti i
sigurnosti).
DO je popunio sledeću matricu procene.
Izbor servera Cena Opterećenost Pouzdanost
Cena 1 3 1
Opterećenost (3) 1 (2)
Pouzdanost 1 2 1
Sum 2,333 6 2,5
Rešavanjem dobijamo sledeće pondere.
Izbor servera Cena Opterećenost Pouzdanost AVG
Cena 0,429 0,5 0,4 0,443
Opterećenost 0,143 0,167 0,2 0,170
Pouzdanost 0,429 0,333 0,4 0,387
Zatim potrebno je odrediti težine za podkriterijume stabilnost i sigurnost u odnosu na
pouzdanost.
27
Za težine podkriterijuma DO je popunio sledeću matricu procene.
Pouzdanost Stabilnost Sigurnost
Stabilnost 1 3
Sigurnost (3) 1
Sum 3,25 11
Rešavanjem dobijamo sledeće ocene.
Pouzdanost Stabilnost Sigurnost AVG
Stabilnost 0,75 0,75 0,75
Sigurnost 0,25 0,25 0,25
Nakon računanja pondera možemo napraviti matricu odlučivanja. Vrednosti u koloni koja
odgovara kriterijumu pouzdanosti servera dobija se kao otežana suma ocena podkriterijuma.
Izbor servera Cena Opterećenost Pouzdanost Otežana suma Rang
Telekom 0,211 0,623 0,354 0,336 2
Eunet 0,241 0,240 0,109 0,190 3
AdriaHost 0,548 0,137 0,537 0,474 1
Ponderi 0,443 0,170 0,387
Ocene DO za pouzdanost su dobijene na sledeći način.
Pouzdanost Stabilnost Sigurnost Ocena
Telekom 0,324 0,443 0,324 * 0,75 + 0,443 * 0,25 = 0,354
Eunet 0,089 0,170 0,089 * 0,75 + 0,170 * 0,25 = 0,109
AdriaHost 0,587 0,387 0,587 * 0,75 + 0,387 * 0,25 = 0,537
Ponderi 0,75 0,25
Najbolja alternativa, tj. najbolji server se nalazi u AdriaHost.
28
Veliki napori u procesu donošenja odluka su uloženi na eliminisanje nepreciznosti. Metode
poput Promethee-ja i AHP su rešavale probleme interne nepreciznosti, gde se nepreciznost
ogleda u tome koliko je određena vrednost nekog kriterijuma korisna DO. Međutim, postoje i
drugi elementi koji utiču na proces donošenja odluka, a nisu kontrolisani od strane DO. To su
rizični događaji, odnosno eksterne nepreciznosti. Sam rizik se definiše kao mogućnost realizacije
neželjene posledice nekog događaja i računa se kao proizvod verovatnoće tog događaja i
njegovog uticaja (npr. u novčanim jedinicama ili u koristi) na proces donošenja odluka. Način na
koji rizičan događaj utiče na model je tako što vrednosti za određeni kriterijum nose određenu
količinu rizika. Stoga, potrebno je uneti i eksterne nepreciznosti (rizik) u model.
Primer:
Menadžer prodaje izdavačke kuće se sprema za sajam knjiga. Potrebno je da izabere štand.
Nakon filtriranja štandova po zadatom budžetu (konjuktivna metoda) došao je do četiri
alternative. Kao kriterijumi određeni su broj prolaznika, otvorenost, veličina prostora i
prihvatljivost buke. Zarad jednostavnosti svi kriterijumi su tipa maksimizacije. Matrica
odlučivanja i ponderi su prikazani ispod.
Alternative Broj
prolaznika Otvorenost
Veličina prostora
Buka Očekivana
korist
Hala A 28 Zatvoren (6) 55 6 0.6903
Hala B 30 Otvoren (10) 50 8 0.7798
Hala C 55 Zatvoren (6) 40 9 0.8382
Hala D 35 Otvoren (10) 36 5 0.7065
Ponderi 0.4 0.2 0.3 0.1
Rešavanjem otežanim sumama (JAT metodom) dobijaju se vrednosti koje su zapisane u koloni
Korist. Možemo da zaključimo da je hala C najprihvatljivija alternativa.
Međutim, broj polaznika sa sobom nosi određeni rizik. Stoga vrednosti u stvari predstavljaju
očekivanu vrednosti broja prolaznika. Kao takva ima i odstupanje. Pretpostavimo da broj
polaznika podleže normalnoj raspodeli (N(m,S)). Rizik za ukupnu korist se računa preko formule
i predstavlja standardnu devijaciju očekivane korisnosti:
𝑟𝑖𝑘 = √𝑖𝑘
2 ∗ 𝑤𝑘2
𝑚𝑎𝑥𝑘2
Analiza rizika u višekriterijumskomodlučivanju
29
Gde 𝑟𝑖𝑘 predstavlja rizik kriterijuma k alternative i, 𝑖𝑘2 varijansu kriterijuma k alternative i, 𝑤𝑘
2
kvadrat težine (pondera) kriterijuma k, a 𝑚𝑎𝑥𝑘2 kvadrat maksimalne vrednosti kriterijuma k.
Deljenjem sa maksimalnom vrednošću vrši se normalizacija rizika.
Kako nam je poznata raspodela možemo probabilistički da iskažemo odnos DO prema riziku.
Ukoliko od očekivane koristi oduzmemo rizik iskazujemo averziju prema riziku. U zavisnosti od
vrednosti koju oduzimamo iskazujemo veću ili manju averziju. Tako ako oduzmemo tačno rizik
od očekivane koristi dobijamo sigurnost od 84% da će broj polaznika biti barem toliko
izračunata korist. Analogno, ukoliko od očekivane koristi oduzmemo 1.3 puta rizik dobijamo
sigurnost od 90%, 1.7 puta rizik sigurnost od 95% i ako oduzmemo 2.4 puta rizik dobijamo
sigurnost od 99%. Obrnuto, ukoliko dodamo na očekivanu korist neku vrednost rizika
iskazujemo sklonost ka riziku. Ako dodamo 0.125 puta rizik iskazujemo sklonost ka riziku od 5%,
tj. DO je spreman da prihvati korist koja je samo 45% sigurna. Odnosno, ukoliko dodamo 0.25 tj.
0.5 puta rizik iskazujemo sklonost ka riziku od 10% tj. 20% respektivno. U tabeli koja se nalazi
ispod nalaze se važni stepeni sigurnosti.
Način računanja Sigurnost
OK 50%
OK – 0.125 * rizik 55%
OK – 0.25 * rizik 60%
OK – 0.5 * rizik 70%
OK – rizik 84%
OK – 1.3 * rizik 90%
OK – 1.7 * rizik 95%
OK – 2.4 * rizik 99%
OK + 0.125 * rizik 45%
OK + 0.25 * rizik 40%
OK + 0.5 * rizik 30%
OK + rizik 16%
Ukoliko DO iskaže veću averziju prema riziku (zahteva sigurnost od 90% ili 95%) hala B postaje
najprihvatljivija alternativa. Razlog tome je što je odstupanje kod hale C najveće. Ukoliko DO
iskazuje sklonost ka riziku onda hala C ostaje najprihvatljivija alternativa.
Alternative Broj
prolaznika Otvorenost
Veličina prostora
Buka Očekivana
korist
Hala A 28 ± 4 6 55 6 0.6903
Hala B 30 ± 2 10 50 8 0.7798
Hala C 55 ± 10 6 40 9 0.8382
Hala D 35 ± 5 10 36 5 0.7065
Ponderi 0.4 0.2 0.3 0.1
30
Alt. Rizik OK OK-rizik (84%)
OK-1.3*rizik (90%)
OK-2.4*rizik (99%)
OK+0.125*rizik (45%)
Hala A 0.029 0.6903 0.6612 0.6525 0.6205 0.6939
Hala B 0.015 0.7798 0.7653 0.7609 0.7449 0.7816
Hala C 0.073 0.8382 0.7655 0.7436 0.6636 0.8473
Hala D 0.036 0.7065 0.6701 0.6592 0.6192 0.7110
Vrednosti koje se oduzimaju ili dodaju na očekivanu korist imaju grafičko objašnjenje koje je
prikazano ispod.
Na slici sa leve strane je prikazana očekivana korist. Linija očekivane koristi obuhvata tačno 50% čitave
površine raspodele (od linije na desno), tj. postoji 50% verovatnoća da će se dogoditi vrednost ispod
očekivane koristi. Sa desne strane prikazana je averzija prema riziku. Linija korisnosti je pomerena na
levo, tj. očekivanje je smanjeno. Iskazivanjem averzije prema riziku smanjuje se verovatnoća da će korist
biti manja od očekivane. Konkretno na primeru sa slike, verovatnoća da će korist biti manja od očekivane
iznosi 10%. U situaciji kada iskazujemo sklonost ka riziku očekivanu korist pomeramo na desnu stranu
raspodele. Tada postoji veća verovatnoća ostvarivanja rizičnih vrednosti. Konkretno na slici ispod
prikazana je sklonost od 5%, koja nam govori da postoji verovatnoća od 55% da će korist biti manja od
očekivane.
31
U našem primeru za zakup štanda buka takođe predstavlja rizičan kriterijum. Pretpostavimo da je
normalne raspodele. Međutim, sada imamo dva kriterijuma koja nose rizik. Računanje ukupnog rizika se
računa preko sledeće formule:
𝑟𝑖 = √∑𝑘
2 ∗ 𝑤𝑘2
𝑚𝑎𝑥𝑘2
𝑛
𝑘=1
Gde je 𝑟𝑖 rizik alternative, 𝑘2 varijansa kriterijuma k, 𝑤𝑘
2 kvadratna vrednost težine kriterijuma k, a 𝑚𝑎𝑥𝑘2
kvadrat najveće vrednosti kriterijuma k.
Alternative Broj
prolaznika Otvorenost
Veličina prostora
Buka Očekivana
korist Rizik
Hala A 28 ± 4 6 55 6 ± 1 0.6903 0.031
Hala B 30 ± 2 10 50 8 ± 0.5 0.7798 0.016
Hala C 55 ± 10 6 40 9 ± 2.5 0.8382 0.078
Hala D 35 ± 5 10 36 5 ± 1 0.7065 0.038
Ponderi 0.4 0.2 0.3 0.1 Zbog toga što se za iskazivanje rizika svih kriterijuma koristila normalna distribucija, konačna distribucija
ukupne koristi će takoće biti normalna (reproduktivna osobina), što ne važi za bilo koju distribuciju.
Ukoliko postoje različite distribucije kriterijuma onda, u opštem slučaju, ne važi reproduktivna osobina
te se raspodela procenjuje Monte Karlo simulacijom (pogledati predavanja). Tumačenje rezultata nakon
primene Monte Karlo simulacije je identičan kao i u ovom primeru, izuzev granica averzije i sklonosti ka
riziku jer su drugačije površine između distribucije i granice korisnosti.
Takođe, kriterijum otvorenost sa sobom nosi rizik, jer zavisi od vremenskih uslova. Pretpostavimo da
otvorenost ima diskretnu raspodelu sa tri stanja, svako sa određenom verovatnoćom. Očekivana korist
se dobija kao otežana suma mogućih vrednosti. Ove vrednosti će se kasnije koristiti u matrici
odlučivanja. Standardna devijacija za diskretne događaje se računa preko sledeće formule:
𝑖 = √∑ 𝑤𝑠 ∗ (𝑋𝑖𝑠 − �̅�𝑖)2
𝑚
𝑠=1
Gde je 𝑖 standardna devijacija alternative i, 𝑤𝑠 verovatnoća stanja s, 𝑋𝑖𝑠 korist ili vrednost stanja s
alternative i i �̅�𝑖 očekivana vrednost (korist) alternative i.
Otvorenost Sunce (60%) Oblaci (20%) Kiša (20%) OK Std. dev.
Otvorena 10 5 2 7.4 3.32
Zatvorena 6 5 8 6.2 0.98
32
Vlasnik izložbenih prostora je najavio da postoji šansa da će se štandovi u hali A i hali D proširiti, te i taj
kriterijum sa sobom nosi rizik, pošto nije u potpunosti sigurno da će do tog proširenja doći. Na isti način
kao i za otvorenost računamo očekivanu korist i standardnu devijaciju.
Veličina prostora
Proširenje (30%)
Nema promene
(70%) OK Std. dev.
Hala A 70 55 59.5 6.87
Hala B 50 50 50 0
Hala C 40 40 40 0
Hala D 60 36 43.2 11
Sada možemo sastaviti matricu odlučivanja i matricu rizika.
Alternative Broj
prolaznika Otvorenost
Veličina prostora
Buka Očekivana
korist
Hala A 28 ± 4 6.2 ± 0.98 59.5 ± 6.87 6 ± 1 0.7379
Hala B 30 ± 2 7.4 ± 3.32 50 ± 0 8 ± 0.5 0.7592
Hala C 55 ± 10 6.2 ± 0.98 40 ± 0 9 ± 2.5 0.8692
Hala D 35 ± 5 7.4 ± 3.32 43.2 ± 11 5 ± 1 0.7279
Ponderi 0.4 0.2 0.3 0.1 Prema otežanim sumama (bez uključivanja rizika) dobijamo očekivanu koristi, i zaključujemo da je hala C
najprihvatljivija alternativa. Međutim, nije uključen rizik.
Imajući u vidu sklonost i averziju DO prema riziku možemo računati očekivane koristi alternativa.
Rizik Očekivana korist
OK-rizik (84%)
OK-1.3*rizik (90%)
OK-2.4*rizik (99%)
OK+0.125*rizik (5% sklonost)
Hala A 0.054 0.7379 0.6843 0.6682 0.6093 0.7446
Hala B 0.091 0.7592 0.6681 0.6408 0.5406 0.7706
Hala C 0.082 0.8692 0.7870 0.7623 0.6718 0.8795
Hala D 0.112 0.7279 0.6158 0.5821 0.4588 0.7419 Na osnovu rezultata zaključujemo da je hala C najprihvatljivija alternativa, bez obzira na sklonost ili
averziju prema riziku.
U datom primeru sve vrednosti za svaki kriterijum nose sa sobom određeni rizik (izuzev alternative hala
B i hala C u kriterijumu veličina prostora). U opštem slučaju samo vrednosti za određeni/e kriterijum/e
nose sa sobom rizik. Tumačenje i rezonovanje ostaje identično.
33
Ulazi i izlazi mogu imati različite lingvističke nazive. Uobičajeno se promenjive nazivaju
opisnim imenima, poput: nivo vode, priliv vode, ljudi srednjeg rasta, velike zarade, brzi
automobili, mala rastojanja itd. Transformaciju ovakvih izraza u oblik matematičke predstave
omogućava nam teorija fuzzy skupova.
Lingvističke promenjive bi trebalo da imaju i lingvističke vrednosti. To mogu biti: „negativno
veliko“, „negativno srednje“, „negativno malo“, „blisko nuli“, „pozitivno veliko“, „dobro“,
„otvori brzo“ i sl. Ovim vrednostima možemo da dodelimo i numeričku predstavu u cilju lakšeg i
kraćeg obeležavanja.
Ako hoćemo da govorimo o toploti vode, moramo da ustanovimo opseg u kom se očekuje da
temperatura varira kao i to šta mislimo pod terminom „vruća“. Odnosno kojih sve temperatura
može da bude voda ako je nazovemo „vrućom“.
Koju vrednost zapravo imaju lingvističke vrednosti? Ovde na scenu stupaju funkcije pripadanja.
Ovo ustvari ilustruje prirodu lingvističkih vrednosti. Ako kažemo da je vreme danas vruće, šta to
ustvari podrazumeva? Svakako ne podrazumeva tačno određenu temperaturu spoljnjeg vazduha,
već izvesni intuitivni opseg temperature. Funkcija pripadanja predstavlja kontinualno merilo
sigurnosti da li je naša promenjiva klasifikovana kao ta lingvistička vrednost. Ova funkcija
određuje stepen pripadanja nekog objekta datom fuzzy skupu.
Uzmimo kao primer određivanje pripadnosti skupu visokih ljudi. Kod konvencijalnog skupa
granica pripadnosti bi bila oštro određena jednom prekidnom funkcijom (slika ispod). Usvojena
je granica do koje se neka osoba smatra visokom. Dve osobe bi bile različito klasifikovane iako
im se visina razlikuje u samo par centimetara.
Fazi sistemi kao podrška odlučivanjuFuzzy logikaPostoje situacije u kojima nije moguće znanje o sistemu reprezentovati na apsolutno precizan
način. Čak je više situacija u kojima moramo da koristimo neprecizne konstatacije. Na primer,
«Marko je visok čovek», «Onaj automobil se približava jako velikom brzinom» su nepreciznerečenice a ipak ih svakodnevno koristimo.
Da bismo bili u stanju reprezentovati znanje o ovakvim sistemima (a ima ih jako puno) moramoda se odreknemo klasične (binarne) logike u kojoj je nešto ili tačno ili netačno (crno ili belo) i da
koristimo fuzzy logiku (sve je nijansa sive boje).
Jedna od osobina fuzzy logike je da se bazira na prirodnom jeziku, na osnovama ljudskogsporazumevanja. Obični, govorni jezik, predstavlja trijumf efikasnosti komunikacije. Neprimećujemo važnost ovoga, jer se jezikom služimo svakodnevno. Kako je fuzzy logikaizgrađena od struktura koje se oslanjaju upravo na kvalitativnim opisima kojima se služimo
svakodnevno, u prirodnom jeziku, jednostavnost upotrebe fuzzy logike se sama nameće.
34
Slika – Konvencionalna funkcija pripadanja skupu visokih osoba
Ovaj pristup bi imao smisla da govorimo o nekoj apstraktnoj predstavi kao što su, recimo
brojevi. Možemo reći da su svi brojevi veći od nekog broja veliki a manji od njega mali.
Međutim, kad pričamo o nečemu što je uslovljeno subjektivnim, starosnim i društvenim
odlikama, kao što je procena da li je neka osoba visoka, postavljati ovakvu oštru granicu je bez
smisla. Zato uvodimo kontinualnu funkciju pripadanja koja određuje da li i u kojem stepenu je
neka osoba visoka (slika ispod). Ova funkcija može uzeti u obzir na koga se odnosi, da li na
osobe ženskog roda, da li na decu do 12 godina ili na sve punoletne osobe. Jedna od ključnih
osobina koju funkcija pripadanja mora da ispuni jeste da vrednosti budu skalirane i da budu
između 0 i 1, kao valjane reprezente stepena pripadanja promenjive toj funkciji. Pogledati ostale
osobine funkcije pripadanja.
35
Primeri fuzzy funkcija:
36
Fuzzy upravljanje i fuzzy sistemi
Fuzzy upravljanje obezbeđuje formalnu metodologiju za predstavljanje, manipulaciju i
implementaciju ljudskog heurističkog predznanja o tome kako kontrolisati jedan, određeni
sistem. Cilj fuzzy pristupa jeste da, umesto jezikom matematike, što bolje reši problem
upravljanja sistemom, pritom omogućavajući implementaciju inženjerskog iskustva o procesu u
sam algoritam kontrolera. Ovaj pristup ne isključuje razvoj modela procesa sistema, jer nam je
takav model potreban za detaljnu simulaciju ponašanja kontrolera u cilju ispitivanja zadovoljenja
performansi i stabilnosti sistema, kao i za ispitivanje krajnih ograničenja samog dizajna.
Struktura Fuzzy sistema
Slika – Struktura fuzzy sistema
Proces korišćenja Fuzzy sistema obuhvata sledeće faze
• Fazifikacija - modifikuje signale ulaza tako da mogu biti pravilno protumačeni i
upoređeni sa pravilima u bazi pravila, tj. crisp signal pretvaramo u adekvatan fuzzy oblik.
• Zaključivanje na osnovu pravila je mehanizam za procenjivanje koja kontrolna pravila
su relevantna za trenutno stanje sistema i odlučuje logičkim sklopom kakav će biti
upravljački signal, tj. ulaz u proces.
Defazifikacija - transformiše fuzzy oblik u crisp oblik signala, koji je „razumljiv“
procesu.
37
Logički operatori kod Fuzzy brojeva
Ukoliko postoji više uslova pravila, ukupno zadovoljenje uslova se računa preko operatora nad
fuzzy funkcijama pripadnosti. Slično kao i kod klasičnih (crisp) skupova i kod fuzzy skupova su
definisane operacije: unija (logički operator ili), presek (logički operator i) i negacija.
Slika – Skup fuzzy brojeva
Logički operator "i" je kod fuzzy skupova definisan kao funkcija min: }2,1min{21
Slika – Presek skupa (funkcija min)
Logički operator "ili" je kod fuzzy skupova definisan kao funkcija max: }2,1max{21
Slika – Unija skupa (funkcija max)
38
Negacija je kod fuzzy skupova definisana kao: 111
Slika – Operator negacije(1-µ)
Primer: Određivanje vrednosti automobila
Kompanija Sell-a-car bavi se prodajom polovnih automobila i želi da kupi vozilo na javnoj
licitaciji Vlade za prodaju službenih vozila. Generalni direktor je odlučio da razmatra potrošnju i
pouzdanost automobila, gde se potrošnja gleda u potrošenim litrima na 100 kilometara a
pouzdanost kao broj kvarova na 100000 kilometara. Nakon razgledanja izdvojio je četiri
automobila koja su prikazana u tabeli ispod.
Automobil Potrošnja Pouzdanost
VW 9 8
Dacia 12 14
BMW 9 5
Volvo 15 0
Generalni direktor želi da iskaže svoje znanje te kaže da je potrošnja mala ako automobil troši do
3 litra na 100 kilometara, ali da smatra i delimično malom potrošnjom ako automobil troši do 10
litara. Srednjom potrošnjom smatra od 9 do 11 litara, a delimično srednjom potrošnjom smatra
ako automobil troši od 7 do 9 i od 11 do 15. Velikom potrošnjom se smatra ako vozilo troši
preko 15 litara, a delimično visoku potrošnju imaju i vozila od 10 litara. Analogno, generalni
direktor kaže da je automobil visoku pouzdan ako ima manje od 5 kvarova, ali je i dalje visoko
pouzdan ako ima do 10 kvarova, dok je nisko pouzdan ako ima više od 15 kvarova, ali je takođe
delimično nisko pouzdan ako ima 6 kvarova. Za ukupnu vrednost automobila generalni direktor
kaže da sledeće. Vrednost je mala ako je ispod 7 hiljada evra, ali je delimično mala ako je i ispod
15 hiljada evra. Srednja je između 15 i 25 hiljada evra, a delimično je srednja vrednost ako je
između 7 i 15, odnosno 25 i 40. Na kraju vrednost je velika ako je iznad 40 hiljada evra, a
delimično je visoka ako je iznad 25. Drugim rečima generalni direktor je iskazao sledeće fazi
skupove.
39
Potrošnja
Mala Z(3, 10)
Srednja T(7, 9, 11, 15)
Visoka S(10, 15)
Pouzdanost
Visoka Z(5, 10)
Niska S(6, 15)
Vrednost
Mala Z(7, 15)
Srednja T(7, 15, 25, 40)
Visoka S(25, 40)
Grafički fazi skupovi izgledaju ovako:
3 10
μ
Litara/100km7 11 15
Mala Srednja Velika
Potrošnja
9
1
5 10
μ
Kvarova/100000km
6 15
Visoka Niska
Pouzdanost
1
40
7 15
μ
nj.25 40
Mala Srednja Velika
Vrednost
1
Na kraju generalni direktor na osnovu znanja definiše skup uzročno posledičnih pravila:
Potrošnja Pouzdanost Vrednost
1. Mala Niska Srednja
2. Mala Visoka Velika
3. Srednja Niska Srednja
4. Srednja Visoka Velika
5. Velika Niska Mala
6. Velika Visoka Srednja
Na ovaj način kreiran je Fuzzy model za određivanje vrednosti vozila.
Napomena:
Svako pravilo se takođe može predstaviti i u obliku „ako-onda“ pravila. Tako se drugo pravilo
može interpretirati kao:
AKO Potrošnja je Mala i Pouzdanost je Visoka ONDA Vrednost je Velika
Kada imamo definisane funkcije pripadnosti za ulazne i izlazne promenljive, i skup uzročno
posledičnih pravila koja povezuju te promenljive možemo da odredimo vrednost izlazne
promenljive za svaki automobil. Znamo da automobile VW kome određujemo vrednost troši 9 l
na 100 km i da ima 8 kvarova na 100000 km. Sada uz pomoć pravila proporcije određujemo
vrednost funkcije pripadnosti za obe ulazne promenljive.
Potrošnja:
• Mala: (10-9)/(10-3) = 0.143
• Srednja: (9-7)/(9-7) = 1
• Velika: 0
Pouzdanost:
• Visoka: (10-8)/(10-5) = 0.4
41
• Niska: (8-6)/(15-6) = 0.222
Zatim prelazimo na proces zaključivanja na osnovu definisanih pravila. Prvo, tabeli uočavamo
koja se pravila odnose na naše novo pojavljivanje (aktivirana pravila):
Pravilo Potrošnja Pouzdanost Vrednost
1. Mala (0.143) Niska (0.222) Srednja (0.143)
2. Mala (0.143) Visoka (0.4) Velika (0.143)
3. Srednja (1) Niska (0.222) Srednja (0.222)
4. Srednja (1) Visoka (0.4) Velika (0.4)
5. Velika (0) Niska (0.222) Mala (0)
6. Velika (0) Visoka (0.4) Srednja (0)
Na osnovu pravila i vrednosti funkcija pripadnosti za ulazne promenljive, računamo vrednosti
funkcije pripadnosti za sve dopuštene vrednosti izlazne promenljive. Iste se računaju kao ukupan
nivo zadovoljenja pojedinačnih uslova pravila (logičko i kod fuzzy skupova):
Pravilo 1: Srednja vrednost: 0.143 /\ 0.222 = 0.143
Pravilo 2: Velika vrednost: 0.143 /\ 0.4 = 0.143
Pravilo 3: Srednja vrednost: 1 /\ 0.222 = 0.222
Pravilo 4: Velika vrednost: 1 /\ 0.4 = 0.4
Pošto imamo dva pravila koja nam daju pripadnost za vrednost srednja vrednost (pravila 1 i 3) i
za visoku vrednost (pravila 2 i 4), moramo da odredimo koju ćemo vrednost koristiti (logičko ili
kod fuzzy skupova):
Srednja vrednost: 0.143 \/ 0.222 = 0.222
Visoka vrednost: 0.143 \/ 0.4 = 0.4
Konačno, dolazimo do faze defazifikacije gde lingvističke vrednosti promenljive Vrednost
(velika i srednja) prevodimo u jednu preciznu (matematičku) vrednost koja zapravo predstavlja
konačnu ocenu vrednosti novog pojavljivanja (u našem slučaju automobila).
i
ii
MV
FMVMVDFV
DFV – Defazifikovana fazi vrednost
MVi – Koeficijent pripadnosti i-tom zaključku
MFVi – Reprezentativna vrednost i-tog zaključka (fuzzy skupa). Za S i Z oblike funkcije se
uzima vrednost na granici sa potpunom pripadnošću skupu (µ=1), dok se za T oblik
uzima središnja vrednost od svih sa potpunom pripadnošću skupu. Drugim rečima
uzimaju se vrednosti koje su obeležene crvenim slovima: Z(a,b), S(a,b), T(a,b,c,d i
Tr(a,b,c).
N – broj fuzzy zaključaka
VREDNOST = (0.222*(15 + 25)/2+0.4*40)/(0.4+0.222) = 32.857
42
Drugi automobil, Dacia, troši 12 l na 100 km i ima 14 kvarova na 100000 km. Prvo računamo
vrednosti funkcije pripadnosti za potrošnju i pouzdanost.
Potrošnja:
• Mala: 0
• Srednja: (15-12)/(15-11) = 0.75
• Velika: (12-10)/(15-10) = 0.4
Pouzdanost:
• Visoka: 0
• Niska: (14-6)/(15-6) = 0.889
Sledeća pravila su aktivirana.
Pravilo Potrošnja Pouzdanost Vrednost
1. Mala (0) Niska (0.889) Srednja (0)
2. Mala (0) Visoka (0) Velika (0)
3. Srednja (0.75) Niska (0.889) Srednja (0.75)
4. Srednja (0.75) Visoka (0) Velika (0)
5. Velika (0.4) Niska (0.889) Mala (0.4)
6. Velika (0.4) Visoka (0) Srednja (0)
Kako nemamo više pravila koja imaju pripadnost za istu vrednost onda prelazimo direktno na
fazu defazifikacije.
VREDNOST = (0.4 * 7 + 0.75 * (15 + 25)/2)/(0.4 + 0.75) = 15.478
Treći automobil, BMW, troši 9 l na 100km i ima 5 kvarova na 100000 km. Vrednosti funkcija
pripadnosti za ulazne promenjive su:
Potrošnja:
• Mala: (10-9)/(10-3) = 0.143
• Srednja: (9-7)/(9-7) = 1
• Velika: 0
Pouzdanost:
• Visoka: 1
• Niska: 0
43
Pogledajmo koja su pravila aktivirana.
Pravilo Potrošnja Pouzdanost Vrednost
1. Mala (0.143) Niska (0) Srednja (0)
2. Mala (0.143) Visoka (1) Velika (0.143)
3. Srednja (1) Niska (0) Srednja (0)
4. Srednja (1) Visoka (1) Velika (1)
5. Velika (0) Niska (0) Mala (0)
6. Velika (0) Visoka (1) Srednja (0)
Dobijamo dva pravila koja daju funkciju pripadnosti velikoj vrednosti, te računamo koju ćemo
vrednost koristiti (ili jednu ili drugu).
Visoka vrednost: 0.143 \/ 1 = 1
Konačno, dobijamo ukupnu vrednost.
VREDNOST = (1 * 40)/(1) = 40
Poslednje vozilo, Volvo, troši 15 l na 100 km i uopšte se ne kvari. Izračunamo vrednosti funkcija
pripadnosti za ulazne promenjive i dobijamo:
Potrošnja:
• Mala: 0
• Srednja: 0
• Velika: 1
Pouzdanost:
• Visoka: 1
• Niska: 0
Pogledamo koja su pravila aktivirana.
Pravilo Potrošnja Pouzdanost Vrednost
1. Mala (0) Niska (0) Srednja (0)
2. Mala (0) Visoka (1) Velika (0)
3. Srednja (0) Niska (0) Srednja (0)
4. Srednja (0) Visoka (1) Velika (0)
5. Velika (1) Niska (0) Mala (0)
6. Velika (1) Visoka (1) Srednja (1)
Kako imamo samo jedno aktivirano pravilo računamo defazifikovanu fazi vrednost i dobijamo:
VREDNOST = (1 * (15 + 25)/2)/(1) = 20
44
Kada smo izračunali vrednosti za svaku alternativu možemo da ih poredimo.
Automobil Potrošnja Pouzdanost Vrednost Rang
VW 9 8 32.857 2
Dacia 12 14 15.478 4
BMW 9 5 40 1
Volvo 15 0 20 3
Možemo da zaključimo da je BMW alternativa čija je vrednost najveća.
Bitno je napomenuti da fuzzy sistemi mogu, bez menjanja matrice odlučivanja (normalizacije),
da daju vrednost za nove slučajeve.
Zadatak: Određivanje potencijala tržišta
Nakon uspešne godine direktor prodaje firme Dime & Kole žele da prošire prodaju sistema za
predviđanje poslovanja kompanije na nova tržišta. Nakon razmatranja izabrali su tržišta
Makedonije, Bosne i Hercegovine, Mađarske i Bugarske. Kao kriterijume izabrali su veličinu
tržišta, koja se meri u hiljadama kupaca, konkurencija, koja se meri u broju proizvoda supstituta,
i zasićenost tržišta, koja se meri procentom klijenata koji imaju neki od proizvoda supstituta.
Model za određivanje potencijala tržišta, za potrebe marketinga, iskazan je znanjem preko
sledećih funkcija i tabelom pravila:
Veličina
Mala Z(10, 50)
Srednje T(30, 60, 100, 150)
Veliko S(100, 150)
Konkurencija
Niska Z(5, 10)
Visoka S(5, 12)
Zasićenost
Mala Z(5, 15)
Velika S(10, 20)
Potencijal
Mali Z(20, 50)
Srednji T(20, 50, 150, 300)
Veliki S(150, 300)
45
10 60
μ
150
Mala Srednje Veliko
Veličina
1
5030 100 Klijenata
5 10
μ
12
Niska Visoka
Konkurencija
1
Br. proizvoda supstituta
5 15
μ
%10 20
Mala Velika
Zasićenost
1
20
μ
300
Mali Srednji Veliki
Potencijal
1
50 150 nj. x 103
46
Data je i sledeća tabela pravila:
Veličina Konkurencija Zaštićenost tržišta Potencijal
1. Malo Niska Mala Srednji
2. Malo Niska Velika Mali
3. Malo Visoka Mala Mali
4. Malo Visoka Velika Mali
5. Srednje Niska Mala Veliki
6. Srednje Niska Velika Srednji
7. Srednje Visoka Mala Srednji
8. Srednje Visoka Velika Mali
9. Veliko Niska Mala Veliki
10. Veliko Niska Velika Veliki
11. Veliko Velika Mala Srednji
12 Veliko Velika Velika Srednji
Alternative imaju sledeće vrednosti:
Alternativa Tržište Konkurencija Zaštićenost tržišta
Makedonija 110 9 18
BiH 90 20 10
Mađarska 150 3 25
Bugarska 45 2 15
Makedonsko tržište ima sledeće vrednosti funkcija pripadnosti.
Veličina
Mala: 0
Srednje: (150 - 110)/(150-100) = 0.8
Veliko: (110 - 100)/(150-100) = 0.2
Konkurencija
Niska: (10-9)/(10-5) = 0.2
Visoka: (9-5)/(12-5) = 0.571
Zasićenost
Mala: 0
Velika: (18-10)/(20-10) = 0.8
47
Na osnovu tabele pravila određujemo vrednosti pripadnosti potencijala makedonskog tržišta:
Veličina Konkurencija Zaštićenost tržišta Potencijal
1. Malo (0) Niska (0.2) Mala (0) Srednji
2. Malo (0) Niska (0.2) Velika (0.8) Mali
3. Malo (0) Visoka (0.571) Mala (0) Mali
4. Malo (0) Visoka (0.571) Velika (0.8) Mali
5. Srednje (0.8) Niska (0.2) Mala (0) Veliki
6. Srednje (0.8) Niska (0.2) Velika (0.8) Srednji (0.2)
7. Srednje (0.8) Visoka (0.571) Mala (0) Srednji
8. Srednje (0.8) Visoka (0.571) Velika (0.8) Mali (0.571)
9. Veliko (0.2) Niska (0.2) Mala (0) Veliki
10. Veliko (0.2) Niska (0.2) Velika (0.8) Veliki (0.2)
11. Veliko (0.2) Velika (0.571) Mala (0) Srednji
12 Veliko (0.2) Velika (0.571) Velika (0.8) Srednji (0.2)
Pravilo 6: Srednji potencijal: 0.8 /\ 0.2 /\ 0.8 = 0.2
Pravilo 8: Mali potencijal: 0.8 /\ 0.571 /\ 0.8 = 0.571
Pravilo 10: Veliki potencijal: 0.2 /\ 0.2 /\ 0.8 = 0.2
Pravilo 12: Srednji potencijal: 0.2 /\ 0.571 /\ 0.8 = 0.2
Pošto imamo dva pravila koja nam daju pripadnost za vrednost srednji potencijal, moramo da
odredimo koju ćemo vrednost koristiti:
srednji potencijal: 0.2 \/ 0.2 = 0.2
Konačno dobili smo pripadnost za sve tri vrednosti promenljive potencijal:
mali budžet: 0.571
srednji budžet: 0.2
veliki budžet: 0.2
Na kraju određujemo koliki je tačno potencijal, uz pomoć procesa defazifikacije:
𝑃𝑂𝑇𝐸𝑁𝐶𝐼𝐽𝐴𝐿 =(0.571 ∗ 20 + 0.2 ∗ 100 + 0.2 ∗ 300)
(0.571 + 0.2 + 0.2)= 94.118
Bosansko-hercegovačko tržište ima sledeći potencijal. Prvo računamo funkcije pripadnosti.
Veličina
Mala: 0
Srednje: 1
Veliko: 0
48
Konkurencija
Niska: 0
Visoka: 1
Zasićenost
Mala: 0.5
Velika: 0
Zatim određujemo potencijal tržišta preko tabele pravila.
Veličina Konkurencija Zaštićenost tržišta Potencijal
1. Malo (0) Niska (0) Mala (0.5) Srednji
2. Malo (0) Niska (0) Velika (0) Mali
3. Malo (0) Visoka (1) Mala (0.5) Mali
4. Malo (0) Visoka (1) Velika (0) Mali
5. Srednje (1) Niska (0) Mala (0.5) Veliki
6. Srednje (1) Niska (0) Velika (0) Srednji
7. Srednje (1) Visoka (1) Mala (0.5) Srednji (0.5)
8. Srednje (1) Visoka (1) Velika (0) Mali
9. Veliko (0) Niska (0) Mala (0.5) Veliki
10. Veliko (0) Niska (0) Velika (0) Veliki
11. Veliko (0) Velika (1) Mala (0.5) Srednji
12 Veliko (0) Velika (1) Velika (0) Srednji
Preko procesa defazifikacije računamo potencijal.
𝑃𝑂𝑇𝐸𝑁𝐶𝐼𝐽𝐴𝐿 =(0.5 ∗ 100)
(0.5)= 100
Mađarsko tržište, čija je veličina 150 hiljada korisnika, ima samo 3 proizvoda supstituta, i
zasićenost je 25%, ima sledeće vrednosti funkcija pripadnosti:
Veličina
Mala: 0
Srednje: 0
Veliko: 1
Konkurencija
Niska: 1
Visoka: 0
49
Zasićenost
Mala: 0
Velika: 1
Zatim određujemo potencijal tržišta preko tabele pravila.
Veličina Konkurencija Zaštićenost tržišta Potencijal
1. Malo (0) Niska (1) Mala (0) Srednji
2. Malo (0) Niska (1) Velika (1) Mali
3. Malo (0) Visoka (0) Mala (0) Mali
4. Malo (0) Visoka (0) Velika (1) Mali
5. Srednje (0) Niska (1) Mala (0) Veliki
6. Srednje (0) Niska (1) Velika (1) Srednji
7. Srednje (0) Visoka (0) Mala (0) Srednji
8. Srednje (0) Visoka (0) Velika (1) Mali
9. Veliko (1) Niska (1) Mala (0) Veliki
10. Veliko (1) Niska (1) Velika (1) Veliki (1)
11. Veliko (1) Velika (0) Mala (0) Srednji
12 Veliko (1) Velika (0) Velika (1) Srednji
Preko procesa defazifikacije računamo potencijal.
𝑃𝑂𝑇𝐸𝑁𝐶𝐼𝐽𝐴𝐿 =(1 ∗ 300)
(1)= 100
Bugarsko tržište, koje ima 45 hiljada korisnika, 2 proizvoda supstituta i čija je zasićenost 15%
ima sledeće vrednosti funkcija pripadnosti:
Veličina
Mala: (50-45)/(50-10) = 0.125
Srednje: (60-45)/(60-30) = 0.5
Veliko: 0
Konkurencija
Niska: 1
Visoka: 0
Zasićenost
Mala: 0
Velika: (20-15)/(20-10) = 0.5
50
Zatim određujemo potencijal tržišta preko tabele pravila.
Veličina Konkurencija Zaštićenost tržišta Potencijal
1. Malo (0.125) Niska (1) Mala (0) Srednji
2. Malo (0.125) Niska (1) Velika (0.5) Mali (0.125)
3. Malo (0.125) Visoka (0) Mala (0) Mali
4. Malo (0.125) Visoka (0) Velika (0.5) Mali
5. Srednje (0.5) Niska (1) Mala (0) Veliki
6. Srednje (0.5) Niska (1) Velika (0.5) Srednji (0.5)
7. Srednje (0.5) Visoka (0) Mala (0) Srednji
8. Srednje (0.5) Visoka (0) Velika (0.5) Mali
9. Veliko (0) Niska (1) Mala (0) Veliki
10. Veliko (0) Niska (1) Velika (0.5) Veliki
11. Veliko (0) Velika (0) Mala (0) Srednji
12 Veliko (0) Velika (0) Velika (0.5) Srednji
Preko procesa defazifikacije računamo potencijal.
𝑃𝑂𝑇𝐸𝑁𝐶𝐼𝐽𝐴𝐿 =(0.125 ∗ 20 + 0.5 ∗ 100)
(0.125 + 0.5)= 84
Kada smo izračunali vrednosti potencijala za svaku alternativu možemo da ih poredimo.
Alternativa Tržište Konkurencija Zaštićenost tržišta Potencijal
Makedonija 110 9 18 94.118
BiH 90 20 10 100
Mađarska 150 3 25 300
Bugarska 45 2 15 84
Zaključujemo da je alternativa sa najvećim potencijalom Mađarska.
51
Odlučivanje bazirano namodelima iz podataka
Slika 1. Model poslovne inteligencije
Klasifikacija modelom Naivnog BajesaTokom semestra koristili smo znanje eksperta ili grupe eksperata (npr. preferencije ili procene)kako bi modelovali proces donošenja odluka. Drugim rečima, u procesu rešavanja problema DO
ima na raspolaganju podršku eksperata. Svaki put kada grupa ili ekspert reše određeni problem
oni akumuliraju iskustvo i unapređuju svoje znanje. Ovakav pristup se koristi kada donosilac
odluke (DO) ima dovoljno znanja i sposobnosti da reši problem koji se javlja. Međutim, neretko
proces donošenja odluka u poslovnom procesu organizacije može brže i bolje da se sprovede
ukoliko koristimo računarsku podršku, odnosno koristimo istorijske podatke. Za potrebe ovog
predmeta računarska podrška u procesu odlučivanja se može zamisliti na sledeći način. Svako
preduzeće vodi evidenciju poslovanja u bazama podataka. U bazi podataka se čuva iskustvo,
odnosno znanje koje se može iskoristiti za bolje i brže donošenje odluka.
53
Problem koji je potrebno rešiti na osnovu iskustva može da se predstavi tabelom slučajeva,
odnosno na sledeći način:
RB x1 x2 x3 y
1 x11 x12 x13 y1
2 x21 x22 x23 y2
3 x31 x32 x33 y3
4 x41 x42 x43 y4
5 x51 x52 x53 y5
Redovi predstavljaju slučajeve sa kojima se preduzeće već susrelo u prošlosti i ono predstavlja
iskustvo. Kolone predstavljaju (ulazne) atribute i analogni su kriterijumima koje smo koristili. U
tabeli su obeleženi sa x1, x2 i x3. Dodatak je kolona y koja predstavlja ciljni atribut, odnosno atribut
za koji treba uočiti zakonitosti na osnovu x1, x2 i x3. Vrednosti u tabeli slučajeva predstavljaju
stanje uzorka (red) za atribut (kolona). Tako x12 predstavlja vrednost prvog uzorka za drugi
atribut.
Pravljenje modela odlučivanja naučenog iz podataka ima širok dijapazon primene. Uzmimo za
primer bankarsko poslovanje i problem odlučivanja je da li nekome dati kredit ili ne. Svaka banka
prilikom odobravanja kredita uzima podatke o klijentima, poput stanja na računu, mesečni
prihodi, broj podignutih kredita, broj isplaćenih kredita, vrednost na štednom računu i slično. Ovi
podaci predstavljaju atribute (x1, …, x5), a kako je reč o istorijskim podacima znamo da li je klijent
vratio kredit ili ne (y). Zatim, se umesto eksperta uočavaju veze između ulaznih atributa i izlaznog
atributa koje su se javljale u prošlosti (tabeli slučajeva) i na osnovu toga se pravi model
odlučivanja. Na kraju, kada se pojavi novi klijent u banci, se uzmu podaci o stanju na računu,
mesečnim prihodima, broju podignutih kredita, broju isplaćenih kredita, vrednosti na štednom
računu i ostalim atributima, primeni model odlučivanja i dobije se predviđanje da li će klijent
vratiti kredit ili ne. Ukoliko će klijent vratiti kredit, njemu se odobrava kredit. U suprotnom
klijentu se ne odobrava kredit.
Sledeći primer pravljenja modela odlučivanja jeste prepoznavanje bankrota preduzeća. Svako
preduzeće na kraju godine daje izveštaj o svom poslovanju Ministarstvu finansija. Iz izveštaja se
mogu uzeti informacije npr. o kapitalu preduzeća (x1), prodaji (x2), ukupnim troškovima (x3) i broju
zaposlenih (x4). Ciljni atribut (y) predstavlja da li je preduzeće bankrotiralo naredne godine.
Podaci se uzimaju iz prethodnih godina i time se popunjava tabela slučajeva. Pravi se model
odlučivanja i kada preduzeća predaju svoje izveštaje za tekuću godinu propuštaju se kroz model
i dobija se predviđanje da li će preduzeće bankrotirati ili ne. Ta informacija može da se koristi kao
signal da preduzeće možda nije pogodno u procesu javnih nabavki ili da im je možda potrebno
pomoći.
54
Modeli odlučivanja naučeni iz podataka se primenjuju i u medicini kao pomoć u dijagnostikovanju
bolesti. Pacijent dolazi kod doktora sa određenim simptomima. Za primer dijagnostikovanja upale
pluća to mogu biti temperatura (x1), glavobolja (x2), bol u grudima (x3), kašalj (x4) i otežano disanje
(x5), a izlazni atribut je da li pacijent ima upalu pluća ili ne (y). Tokom godina sakuplja se tabela
slučajeva, odnosno iskustvo na osnovu kojeg se pravi model odlučivanja. Zatim, kada dođe novi
pacijent pogleda se koje simptome od gore pomenutih ima i daje se „predviđanje“ da li je pacijent
ima upalu pluća ili ne.
Razlog zašto se primenjuju modeli odlučivanja naučeni iz podataka, a ne ekspertsko znanje, može
biti u prevelikom broju odluka koje je potrebno doneti pa se odluka može automatizovati. Dakle,
proces donošenja odluke primenom modela naučenih iz podataka je brži, a odluka može biti
bolja. Zatim, modeli odlučivanja naučeni iz podataka lakše mogu da uoče zavisnosti ciljnog
atributa (y) i ulaznih atributa (x1, x2, …, xn), naročito ukoliko postoji veći broj ulaznih atributa.
Često ovakvim modelima nije potrebno da vide sva moguća stanja, odnosno kombinacije atributa
da bi model mogao da donese odluku. Takođe, ne mora značiti da se pri istim stanjima
(vrednostima za ulazne atribute) uvek desiti isti ishod (vrednost ciljnog atributa). Bitno je
napomenuti da modeli odlučivanja naučeni iz podataka ne moraju nužno predviđati ishod tačno.
Drugim rečima, ovakvi modeli često imaju grešku. Međutim, analiza modela odlučivanja naučenih
iz podataka se radi na predmetima u narednim semestrima. Na kraju, modeli odlučivanja naučeni
iz podataka nikako ne mogu da zamene DO i da ga oslobode odgovornosti, tj. DO je uvek
odgovoran za krajnju odluku.
Modeli odlučivanja naučeni iz podataka predviđaju ishod (y) na osnovu ulaznih atributa (x1, x2, …,
xn), a primenjuju se na slučajevima (klijent, pacijent i slično) koje model nije video, odnosno
primenjuje se na onim slučajevima za koje se ne zna ishod (y).
Bitno je napomenuti da kvalitet zaključaka zavisi od uzorka u tabeli slučajeva. Odnosno što je veći
uzorak (ima više slučajeva) zaključak koji će se dobiti će biti bolji. Takođe, ciljni atribut (y) ne mora
nužno da ima samo dva stanja, već može da ima i veći broj stanja. Na primer, rezultat fudbalske
utakmice može biti pobeda domaćina, pobeda gosta ili nerešen rezultat.
Klasifikacija modelom Naivnog Bajesa
Banka želi da napravi model odlučivanja za davanje kredita klijentima. Gledajući u bazu podataka
dostavili su sledeću tabelu slučajeva. Ona sadrži 10 klijenata koji su opisani preko atributa da li je
klijent vlasnik stana, kakav mu je bračni status i koliki su mu prihodi. Sve vrednosti su kategoričke
(tj. vrednosti pripadaju nekoj grupi) i za te klijente znamo da li su vratili kredit ili nisu (ciljni
atribut).
55
x1 x2 x3 y
RB Vlasnik stana
Bračni status
Prihodi Vratio?
1 Da Neoženjen 100+ Da
2 Ne Oženjen 100+ Da
3 Ne Neoženjen 50-70 Da
4 Da Oženjen 100+ Da
5 Ne Razveden 70-100 Ne
6 Ne Oženjen 50-70 Da
7 Da Razveden 100+ Da
8 Ne Neoženjen 70-100 Ne
9 Ne Oženjen 50-70 Da
10 Ne Neoženjen 70-100 Ne
Cilj je napraviti model odlučivanja koji će za svakog novog klijenta dati predviđanje da li će novi
klijent vratiti kredit ili ne i na osnovu toga doneti odluku da li mu dati kredit ili ne. Jedan od načina
kreiranja modela odlučivanja na osnovu verovatnoća da li će klijent vratiti kredit u zavisnosti od
njegovih osobina (ulaznih atributa). Drugim rečima, želimo da modelujemo 𝑝(𝑦|𝑥1, 𝑥2, 𝑥3).
Prema Bajesovoj teoremi imamo sledeće:
𝑝(𝑦|𝑥1, 𝑥2, 𝑥3) = 𝑝(𝑦) ∗ 𝑝(𝑥1, 𝑥2, 𝑥3|𝑦)
𝑝(𝑥1, 𝑥2, 𝑥3)
U ovoj formuli 𝑝(𝑥1, 𝑥2, 𝑥3|𝑦) je problematično za računanje, tj. preko lančanog pravila
dobijamo:
𝑝(𝑥1, 𝑥2, 𝑥3|𝑦) = 𝑝(𝑥1|𝑦, 𝑥2, 𝑥3) ∗ 𝑝(𝑥2|𝑦, 𝑥3) ∗ 𝑝(𝑥3|𝑦)
odnosno
𝑝(𝑦|𝑥1, 𝑥2, 𝑥3) = 𝑝(𝑦) ∗ 𝑝(𝑥1|𝑦, 𝑥2, 𝑥3) ∗ 𝑝(𝑥2|𝑦, 𝑥3) ∗ 𝑝(𝑥3|𝑦)
𝑝(𝑥1, 𝑥2, 𝑥3)
Zbog toga uvodimo pretpostavku o uslovnoj nezavisnosti ulaznih promenljivih (stoga se algoritam
naziva naivni). Nakon uvođenja pretpostavke dobijamo:
𝑝(𝑥1, 𝑥2, 𝑥3|𝑦) = 𝑝(𝑥1|𝑦) ∗ 𝑝(𝑥2|𝑦) ∗ 𝑝(𝑥3|𝑦)
odnosno
𝑝(𝑦|𝑥1, 𝑥2, 𝑥3) = 𝑝(𝑦) ∗ 𝑝(𝑥1|𝑦) ∗ 𝑝(𝑥2|𝑦) ∗ 𝑝(𝑥3|𝑦)
𝑝(𝑥1, 𝑥2, 𝑥3)
56
Lepši zapis dobijamo na sledeći način:
𝑝(𝑦|𝑥1, 𝑥2, 𝑥3) = 𝑝(𝑦) ∗ ∏ 𝑝(𝑥𝑖|𝑦)3
𝑖=1
𝑝(𝑥1, 𝑥2, 𝑥3)
Na kraju, kako 𝑝(𝑥1, 𝑥2, 𝑥3) ne zavisi od y možemo taj deo da eliminišemo jer neće uticati na
rezultat. Nakon toga dobijamo:
𝑝(𝑦|𝑥1, 𝑥2, 𝑥3) ~ 𝑝(𝑦) ∗ ∏ 𝑝(𝑥𝑖|𝑦)
3
𝑖=1
U opštem slučaju može da bude n ulaznih atributa umesto tri koliko je u ovom primeru.
Za vraćanje kredita imamo dva moguća ishoda (y). Klijent je vratio kredit i klijent nije vratio kredit.
Stoga potrebno je izračunati:
𝑝(𝑦 = 𝐷𝑎|𝑥1, 𝑥2, 𝑥3) ~ 𝑝(𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥1|𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥2|𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥3|𝑦 = 𝐷𝑎)
i
𝑝(𝑦 = 𝑁𝑒|𝑥1, 𝑥2, 𝑥3)~ 𝑝(𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥1|𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥2|𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥3|𝑦 = 𝑁𝑒)
Predviđanje će biti onaj gde je verovatnoća ishoda veća. Odnosno:
�̂� = 𝑎𝑟𝑔𝑚𝑎𝑥𝑐 ∈𝑦 𝑝(𝑦 = 𝑐) ∗ ∏ 𝑝(𝑥𝑖|𝑦 = 𝑐)
𝑛
𝑖=1
gde �̂� predstavlja predviđanje, a c moguća stanja izlaznog atributa (ishoda).
Dakle, za model odlučivanja potrebno je da izračunamo 𝑝(𝑦) i 𝑝(𝑥𝑖|𝑦).
Prvo ćemo izračunati apriori verovatnoće 𝑝(𝑦). To ćemo uraditi tako što ćemo u tabeli slučajeva
videti koliko se puta javilo stanje 𝑦 = 𝐷𝑎 i koliko puta se javilo stanje 𝑦 = 𝑁𝑒.
𝑝(𝑦 = 𝐷𝑎) =7
10
𝑝(𝑦 = 𝑁𝑒) =3
10
Zatim računamo 𝑝(𝑥𝑖|𝑦). Dakle, treba da vidimo koliko puta se javljalo stanje atributa 𝑥𝑖 po
ciljnom atributu 𝑦. Za atribut 𝑥1 odnosno Vlasnik stana, imamo sledeću situaciju. Kada je klijent
bio vlasnik stana onda je 3 puta vratio kredit, a kako je 7 puta ukupno vraćen kredit dobijamo da
je 𝑝(𝑥1 = 𝐷𝑎|𝑦 = 𝐷𝑎) =3
7. Analogno tome popunjavamo ostatak tabele.
57
Vlasnik stana
Da Ne
Vratio?
Da 3
7
4
7
Ne 0
3
3
3
Na isti način popunjavamo za atribut Bračni status.
Bračni status
Oženjen Neoženjen Razveden
Vratio?
Da 4
7
2
7
1
7
Ne 0
3
2
3
1
3
Na kraju, popunjavamo za atribut Prihodi.
Prihodi
50-70 70-100 100+
Vratio?
Da 3
7
0
7
4
7
Ne 0
3
3
3
0
3
Ovim postupkom dobili smo model odlučivanja. Kada se pojavi novi klijent možemo da
predvidimo da li će taj klijent vratiti kredit ili ne. Recimo, pojavio se klijent. Za njega ne znamo da
li će vratiti kredit ili ne (to treba da odlučimo). Ukoliko pogledamo tabelu slučajeva po x1 i x2 liči
na peti slučaj koji nije vratio kredit, ali liči na sedmi slučaj (x2 i x3 su isti) koji je vratio kredit.
x1 x2 x3 y
RB Vlasnik stana Bračni status Prihodi Vratio?
Novi Ne Razveden 100+ ?
Da bi doneli odluku treba da izračunamo:
𝑝(𝑦 = 𝐷𝑎|𝑥1 = 𝑁𝑒, 𝑥2 = 𝑅𝑎𝑧𝑣𝑒𝑑𝑒𝑛, 𝑥3 = 100 +) ~ 𝑝(𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥1 = 𝑁𝑒|𝑦 = 𝐷𝑎) ∗
𝑝(𝑥2 = 𝑅𝑎𝑧𝑣𝑒𝑑𝑒𝑛|𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥3 = 100 + |𝑦 = 𝐷𝑎)
i
58
𝑝(𝑦 = 𝑁𝑒|𝑥1 = 𝑁𝑒, 𝑥2 = 𝑅𝑎𝑧𝑣𝑒𝑑𝑒𝑛, 𝑥3 = 100 +) ~ 𝑝(𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥1 = 𝑁𝑒|𝑦 = 𝑁𝑒) ∗
𝑝(𝑥2 = 𝑅𝑎𝑧𝑣𝑒𝑑𝑒𝑛|𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥3 = 100 + |𝑦 = 𝑁𝑒)
Ubacivanjem izračunatih vrednosti dobijamo:
𝑝(𝑦 = 𝐷𝑎|𝑥1 = 𝑁𝑒, 𝑥2 = 𝑅𝑎𝑧𝑣𝑒𝑑𝑒𝑛, 𝑥3 = 100 +) =7
10∗
4
7∗
1
7∗
4
7=
112
3430= 0.0327
i
𝑝(𝑦 = 𝑁𝑒|𝑥1 = 𝑁𝑒, 𝑥2 = 𝑅𝑎𝑧𝑣𝑒𝑑𝑒𝑛, 𝑥3 = 100 +) =3
10∗
3
3∗
1
3∗
0
3=
0
270= 0
Kako je verovatnoća da klijent vratiti kredit veća od verovatnoće da klijent neće vratiti kredit
zaključujemo da će klijent vratiti kredit, te njemu možemo dati kredit.
x1 x2 x3 y
RB Vlasnik stana Bračni status Prihodi Vratio?
Novi Ne Razveden 100+ Da
Razlog zašto se dobila verovatnoća 0 za ishod da klijent neće vratiti kredit je taj što nije viđen
nijedan slučaj da je klijent sa prihodima preko 100 hiljada dinara nije vratio kredit. Stoga se takav
slučaj smatra nemogućim.
Drugi primer
Policija želi da reši problem prevoza ukradenih vozila preko granice. Tokom vremena sakupili su
sledeće podatke.
x1 x2 x3 y
RB Boja Tip Poreklo Ukraden?
1 Crvena Sportska Domaće Da
2 Crvena Sportska Domaće Ne
3 Crvena Sportska Domaće Da
4 Žuta Sportska Domaće Ne
5 Žuta Sportska Uvezeno Da
6 Žuta SUV Uvezeno Ne
7 Žuta SUV Uvezeno Da
8 Žuta SUV Domaće Ne
9 Crvena SUV Uvezeno Ne
10 Crvena Sportska Uvezeno Da
Pojavilo se novo vozilo za koje su sumnja da je ukradeno. Policija želi da utvrdi da li je vozilo
kradeno ili nije u cilju sprovođenja istrage. Novo vozilo je prikazano ispod.
59
x1 x2 x3 y
RB Boja Tip Poreklo Ukraden?
Novi Crvena SUV Domaće ?
Prvi korak je pravljenje modela odlučivanja. Dakle, treba da se izračunaju apriori i uslovne
verovatnoće. Dobijamo sledeće apriori verovatnoće:
𝑝(𝑦 = 𝐷𝑎) =5
10
𝑝(𝑦 = 𝑁𝑒) =5
10
Zatim, dobijamo sledeće uslovne verovatnoće:
Boja
Crvena Žuta
Ukraden?
Da 3
5
2
5
Ne 2
5
3
5
Tip
Sportska SUV
Ukraden?
Da 4
5
1
5
Ne 2
5
3
5
Poreklo
Domaće Uvezeno
Ukraden?
Da 2
5
3
5
Ne 3
5
2
5
Da bi doneli odluku treba da izračunamo sledeće:
𝑝(𝑦 = 𝐷𝑎|𝑥1 = 𝐶𝑟𝑣𝑒𝑛𝑎, 𝑥2 = 𝑆𝑈𝑉, 𝑥3 = 𝐷𝑜𝑚𝑎ć𝑒) ~ 𝑝(𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥1 = 𝐶𝑟𝑣𝑒𝑛𝑎|𝑦 = 𝐷𝑎) ∗
𝑝(𝑥2 = 𝑆𝑈𝑉|𝑦 = 𝐷𝑎) ∗ 𝑝(𝑥3 = 𝐷𝑜𝑚𝑎ć𝑒|𝑦 = 𝐷𝑎)
i
60
𝑝(𝑦 = 𝑁𝑒|𝑥1 = 𝐶𝑟𝑣𝑒𝑛𝑎, 𝑥2 = 𝑆𝑈𝑉, 𝑥3 = 𝐷𝑜𝑚𝑎ć𝑒) ~ 𝑝(𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥1 = 𝐶𝑟𝑣𝑒𝑛𝑎|𝑦 =
𝑁𝑒) ∗ 𝑝(𝑥2 = 𝑆𝑈𝑉|𝑦 = 𝑁𝑒) ∗ 𝑝(𝑥3 = 𝐷𝑜𝑚𝑎ć𝑒|𝑦 = 𝑁𝑒)
Ubacivanjem izračunatih vrednosti dobijamo:
𝑝(𝑦 = 𝐷𝑎|𝑥1 = 𝐶𝑟𝑣𝑒𝑛𝑎, 𝑥2 = 𝑆𝑈𝑉, 𝑥3 = 𝐷𝑜𝑚𝑎ć𝑒) =5
10∗
3
5∗
1
5∗
2
5=
30
1250= 0.024
I
𝑝(𝑦 = 𝑁𝑒|𝑥1 = 𝐶𝑟𝑣𝑒𝑛𝑎, 𝑥2 = 𝑆𝑈𝑉, 𝑥3 = 𝐷𝑜𝑚𝑎ć𝑒) =5
10∗
2
5∗
3
5∗
3
5=
90
1250= 0.072
Kako je verovatnoća da je automobile nije ukraden veća od verovatnoće da je automobil ukraden
zaključujemo da automobil nije ukraden i ne pokrećemo dalju istragu.
x1 x2 x3 y
RB Boja Tip Poreklo Ukraden?
Novi Crvena SUV Domaće Ne
61
Slika 1. Nezavisni atributi
Stoga, treba naći model koji ne pripada nijednoj krajnosti, tj. da su neki atributi zavisni a neki
nisu. Kao rezultat ove potrebe nastale su Bajesove mreže. Na primer, ukoliko bismo dodali
novi nezavisni atribut e u situaciji gde su a, b, c i d međusobno zavisni dobili bi sledeće:
𝑝(𝑎, 𝑏, 𝑐, 𝑑, 𝑒) = 𝑝(𝑎|𝑏, 𝑐, 𝑑) ∙ 𝑝(𝑏|𝑐, 𝑑) ∙ 𝑝(𝑐|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(𝑒)
Što grafički (slika 3) izgleda:
a
b
d
c e
Slika 3. Grafički model Bajesove mreže sa novim nezavisnim atributom
a b dca
b
d
c
Slika 2. Potpuno zavisni atributi
Bajesove mrežePretpostavka uslovne nezavisnosti (kao u metodi Naivnog Bajesa) predstavlja se na sledećinačin:
( , , , ) = ( ) ∙ ( ) ∙ ( ) ∙ ( )
Međutim, ova pretpostavka nije uvek opravdana. Postoje situacije gde su atributi međusobno
zavisni (npr. težina zavisi od brzine). Druga krajnost je da su svi atributi u potpunosti
međusobno zavisni, tj.
( , , , ) = ( | , , ) ∙ ( | , ) ∙ ( | ) ∙ ( )
Gde je ( | ) ∙ ( ) = ( , ), a ( | , ) ∙ ( | ) ∙ ( ) = ( , , ). Međutim, realno
stanje u modelu odlučivanja nije ni da su svi atributi međusobno nezavisni (slika 1) niti da susvi atributi međusobno uslovno zavisni (slika 2) ne oslikava realno stanje u pravom modeluodlučivanja.
62
Međutim, ukoliko bi rekli da atribut e zavisi od atributa c dobili bi sledeće:
𝑝(𝑎, 𝑏, 𝑐, 𝑑, 𝑒) = 𝑝(𝑎|𝑏, 𝑐, 𝑑) ∙ 𝑝(𝑏|𝑐, 𝑑) ∙ 𝑝(𝑐|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(𝑒|𝑐)
Grafički (slika 4) to izgleda:
a
b
d
c e
Slika 4. Grafički model Bajesove mreže gde e zavisi od c
Formalno, Bajesove mreže predstavljaju grafičke modele, tj. grafove gde su čvorovi atributi, a
lukovi zavisnosti između promenjivih. Važno je napomenuti da su lukovi usmereni i tumače se
kao da atribut a utiče na vrednosti atributa b, odnosno b zavisi od a (ako je relacija od a ka b).
Za rezonovanje nad Bajesovom mrežom potrebne su sledeće osobine:
𝑝(𝑎, 𝑏) = 𝑝(𝑎|𝑏) ∙ 𝑝(𝑏) = 𝑝(𝑏|𝑎) ∙ 𝑝(𝑎)
Ova osobina se naziva faktorizacija.
Ukoliko bi hteli bi da izračunamo verovatnoću ostvarivanja događaja a i b istovremeno u grafičkom
modelu sa slike 4, tada nas ne zanimaju pojavljivanja događaja c, d i e, te ćemo za računanje
verovatnoće događaja a koristimo marginalizaciju. Ukoliko pretpostavimo da događaji a, b, c, d i e
imaju po dva stanja (dogodio se događaj i nije se dogodio) onda treba da izračunamo sledeće:
𝑝(𝑎, 𝑏) = ∑ 𝑝(𝑎, 𝑏, 𝑐, 𝑑, 𝑒)
𝑐,𝑑,𝑒
A kako nam je 𝑝(𝑎, 𝑏, 𝑐, 𝑑, 𝑒) = 𝑝(𝑎|𝑏, 𝑐, 𝑑) ∙ 𝑝(𝑏|𝑐, 𝑑) ∙ 𝑝(𝑐|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(𝑒|𝑐) treba da
izračunamo sledeće:
Stanja Verovatnoća događaja a i b 𝑐, 𝑑, 𝑒 𝑝(𝑎|𝑏, 𝑐, 𝑑) ∙ 𝑝(𝑏|𝑐, 𝑑) ∙ 𝑝(𝑐|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(𝑒|𝑐) + 𝑐, 𝑑, �̅� 𝑝(𝑎|𝑏, 𝑐, 𝑑) ∙ 𝑝(𝑏|𝑐, 𝑑) ∙ 𝑝(𝑐|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(�̅�|𝑐) +
𝑐, �̅�, 𝑒 𝑝(𝑎|𝑏, 𝑐, �̅�) ∙ 𝑝(𝑏|𝑐, �̅�) ∙ 𝑝(𝑐|�̅�) ∙ 𝑝(�̅�) ∙ 𝑝(𝑒|𝑐) +
𝑐, �̅�, �̅� 𝑝(𝑎|𝑏, 𝑐, �̅�) ∙ 𝑝(𝑏|𝑐, �̅�) ∙ 𝑝(𝑐|�̅�) ∙ 𝑝(�̅�) ∙ 𝑝(�̅�|𝑐) +
𝑐̅, 𝑑, 𝑒 𝑝(𝑎|𝑏, 𝑐̅, 𝑑) ∙ 𝑝(𝑏|𝑐̅, 𝑑) ∙ 𝑝(𝑐̅|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(𝑒|𝑐̅) + 𝑐̅, 𝑑, �̅� 𝑝(𝑎|𝑏, 𝑐̅, 𝑑) ∙ 𝑝(𝑏|𝑐̅, 𝑑) ∙ 𝑝(𝑐̅|𝑑) ∙ 𝑝(𝑑) ∙ 𝑝(�̅�|𝑐̅) +
𝑐̅, �̅�, 𝑒 𝑝(𝑎|𝑏, 𝑐̅, �̅�) ∙ 𝑝(𝑏|𝑐̅, �̅�) ∙ 𝑝(𝑐̅|�̅�) ∙ 𝑝(�̅�) ∙ 𝑝(𝑒|𝑐̅) +
𝑐̅, �̅�, �̅� 𝑝(𝑎|𝑏, 𝑐̅, �̅�) ∙ 𝑝(𝑏|𝑐̅, �̅�) ∙ 𝑝(𝑐̅|�̅�) ∙ 𝑝(�̅�) ∙ 𝑝(�̅�|𝑐̅) =
63
Drugim rečima, potrebno je sabrati verovatnoće po svim mogućim stanjima događaja c, d i e.
Ukoliko bi hteli da izračunamo verovatnoću ostvarivanja događaja a pod uslovom da se dogodio
događaj b koristićemo uslovnu verovatnoću (primer sa slike 4), koju računamo na sledeći način:
𝑝(𝑎|𝑏) =𝑝(𝑎, 𝑏)
𝑝(𝑏)
Odnosno kada primenimo marginalizaciju:
𝑝(𝑎, 𝑏)
𝑝(𝑏)=
∑ 𝑝(𝑎, 𝑏, 𝑐, 𝑑, 𝑒)𝑐,𝑑,𝑒
∑ 𝑝(𝑎, 𝑏, 𝑐, 𝑑, 𝑒)𝑎,𝑐,𝑑,𝑒
Primer 1:
Firma koja se bavi obezbeđenjem je uvela alarm. Alarm se oglašava kada dođe do krađe.
Međutim, u specifikaciji alarma piše da se alarm može oglasiti ukoliko dođe do zemljotresa.
Za zemljotres saznajemo iz vesti.
Imajući ove podatke dolazimo do sledećeg grafičkog modela (slika 5).
Krađa Zemljotres
Alarm Vesti
Slika 5. Grafički model – primer Alarm
Prvi korak u rešavanju je faktorizacija modela. Uslovne zavisnosti su date preko grafičkog
modela. Odatle možemo primetit da atributi nisu u potpunosti međusobno zavisni, niti su u
potpunosti uslovno nezavisni. Sa slike 5 vidimo da aktivacija alarma zavisi od toga da li se
dogodila krađa i da li se dogodio zemljotres. Takođe, vidimo da vesti zavise od toga da li se
dogodio zemljotres. Primenom pravila faktorizacije dobijamo:
Notacija: 𝐾𝑟𝑎đ𝑎 = 𝐾; 𝐴𝑙𝑎𝑟𝑚 = 𝐴; 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠 = 𝑍; 𝑉𝑒𝑠𝑡𝑖 = 𝑉
𝑝(𝐾, 𝐴, 𝑍, 𝑉) = 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
Da bismo mogli da rešavamo upite, tj. rezonujemo nad Bajesovom mrežom (određivanje
verovatnoća određenih događaja) potrebne su nam procenjene verovatnoće datih faktora
(koje su ujedno i parametri modela). Tako imamo verovatnoće za krađu:
𝑝(𝐾) = 0,01
𝑝(�̅�) = 1 − 0,01 = 0,99
64
Za zemljotres imamo sledeće verovatnoće:
𝑝(𝑍) = 0,000001 = 10−6
𝑝(�̅�) = 1 − 10−6 = 0,999999
Za alarm nam su nam potrebne verovatnoće u zavisnosti od krađe i zemljotresa, te imamo:
𝑆𝑡𝑎𝑛𝑗𝑒: 𝐾𝑟𝑎đ𝑎 𝑆𝑡𝑎𝑛𝑗𝑒: 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠 𝐴𝑙𝑎𝑟𝑚 𝐴𝑙𝑎𝑟𝑚̅̅ ̅̅ ̅̅ ̅̅ ̅
𝐾𝑟𝑎đ𝑎 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠 0,9999 0,0001
𝐾𝑟𝑎đ𝑎 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 0,99 0,01
𝐾𝑟𝑎đ𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅ 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠 0,99 0,01
𝐾𝑟𝑎đ𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅ 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 0,0001 0,9999
Na kraju potrebne su nam verovatnoće za vesti u zavisnosti od zemljotresa:
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠 𝑉𝑒𝑠𝑡𝑖 𝑉𝑒𝑠𝑡𝑖̅̅ ̅̅ ̅̅ ̅
𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠 1 0
𝑍𝑒𝑚𝑙𝑗𝑜𝑡𝑟𝑒𝑠̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 0 1
Napomena: verovatnoće ostvarivanja nekog događaja, npr. krađe, obeležavamo kao 𝑝(𝐾), a
verovatnoće ne ostvarivanja tog događaja 𝑝(�̅�) (čitamo kao ne <<taj događaj>>, u ovom
slučaju ne krađa).
Upit 1: Koja je verovatnoća da će se alarm oglasiti, da će biti zemljotres i da će vesti javiti da
je bio zemljotres?
Dakle, potrebno je da izračunamo 𝑝(𝐴, 𝑍, 𝑉). Kako nam stanje krađe nije poznato, da bi
izračunali traženu verovatnoću potrebno je da marginalizujemo po krađi, tj:
𝑝(𝐴, 𝑍, 𝑉) = ∑ 𝑝(𝐾, 𝐴, 𝑍, 𝑉)
𝐾
= ∑ 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
𝐾
𝑆𝑡𝑎𝑛𝑗𝑒: 𝐾 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
𝐾 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 1 +
�̅� 0,99 ∙ 0,99 ∙ 0,000001 ∙ 0 =
Popunjavanje polja, npr. 𝑝(𝐴|𝐾, 𝑍) radimo tako što gledamo u procenjene (ili izračunate)
verovatnoće. U prvom redu (gde stoji 𝐾) gledamo verovatnoću gde se ostvarila i krađa i
zemljotres a alarm se oglasio i to je prvi red u tabeli gde je vrednost 0,9999. Drugi red (gde
stoji �̅�) tražimo verovatnoću da se alarm oglasio ako znamo da nije bila krađa, a zemljotres se
dogodio.
𝑝(𝐴, 𝑍, 𝑉) = 9,9 ∙ 10−7
Dakle, verovatnoća da će se alarm oglasiti, da će biti zemljotres i da će vesti javiti da je bio
zemljotres iznosi 9,9 ∙ 10−7.
65
Upit 2: Koja je verovatnoća da će se alarm oglasiti?
Računamo 𝑝(𝐴), gde nam stanja 𝐾, 𝑍 i 𝑉 nisu poznata. Dobijamo sledeće:
𝑝(𝐴) = ∑ 𝑝(𝐾, 𝐴, 𝑍, 𝑉)
𝐾,𝑍,𝑉
= ∑ 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
𝐾,𝑍,𝑉
Potrebno je da marginalizujemo po svim mogućim stanjima 𝐾, 𝑍 i 𝑉. Drugim rečima, dobijamo
sledeće:
𝑆𝑡𝑎𝑛𝑗𝑒: 𝐾, 𝑍, 𝑉 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
𝐾𝑍𝑉 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 1 +
𝐾𝑍�̅� 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 0 +
𝐾�̅�𝑉 0,01 ∙ 0,99 ∙ 0,999999 ∙ 0 +
𝐾𝑍𝑉̅̅̅̅ 0,01 ∙ 0,99 ∙ 0,999999 ∙ 1 +
�̅�𝑍𝑉 0,99 ∙ 0,99 ∙ 0,000001 ∙ 1 +
�̅�𝑍�̅� 0,99 ∙ 0,99 ∙ 0,000001 ∙ 0 +
𝐾𝑍̅̅ ̅̅ 𝑉 0,99 ∙ 0,0001 ∙ 0,999999 ∙ 0 +
𝐾𝑍𝑉̅̅ ̅̅ ̅̅ 0,99 ∙ 0,0001 ∙ 0,999999 ∙ 1 =
𝑝(𝐴) = 0,01
Verovatnoća da će se alarm aktivirati iznosi 0,01, odnosno 1%.
Upit 3: Koja je verovatnoća da se da će je bila krađa, ako znamo da se alarm aktivirao?
Potrebna nam je verovatnoća 𝑝(𝐾|𝐴). Primenom uslovne verovatnoće dobijamo:
𝑝(𝐾|𝐴) =𝑝(𝐾, 𝐴)
𝑝(𝐴)=
∑ 𝑝(𝐾, 𝐴, 𝑍, 𝑉)𝑍,𝑉
∑ 𝑝(𝐾, 𝐴, 𝑍, 𝑉)𝐾,𝑍,𝑉
Verovatnoću da se alarm oglasio smo izračunali u prethodnom upitu, te ćemo računati samo
𝑝(𝐾, 𝐴).
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑍, 𝑉 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
𝑍𝑉 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 1 +
𝑍�̅� 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 0 +
�̅�𝑉 0,01 ∙ 0,99 ∙ 0,999999 ∙ 0 +
𝑍𝑉̅̅ ̅̅ 0,01 ∙ 0,99 ∙ 0,999999 ∙ 1 =
Dobijamo da je:
𝑝(𝐾, 𝐴) = 0,0099
Odnosno:
𝑝(𝐾|𝐴) =𝑝(𝐾, 𝐴)
𝑝(𝐴)=
0,0099
0,01= 0,99
66
Zaključujemo da je verovatnoća da se dogodila krađa, ako znamo da se alarm oglasio jednaka
0,99.
Upit 4: Koja je verovatnoća da se dogodio zemljotres, pod uslovom da se alarm oglasio i da je
bila krađa?
𝑝(𝑍|𝐴, 𝐾) =𝑝(𝑍, 𝐴, 𝐾)
𝑝(𝐴, 𝐾)=
∑ 𝑝(𝐾, 𝐴, 𝑍, 𝑉)𝑉
∑ 𝑝(𝐾, 𝐴, 𝑍, 𝑉)𝑍,𝑉
U prethodnom upitu smo izračunali 𝑝(𝐴, 𝐾) pa ćemo računati samo 𝑝(𝑍, 𝐴, 𝐾).
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑉 𝑝(𝐾) ∙ 𝑝(𝐴|𝐾, 𝑍) ∙ 𝑝(𝑍) ∙ 𝑝(𝑉|𝑍)
𝑉 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 1 +
�̅� 0,01 ∙ 0,9999 ∙ 0,000001 ∙ 0 =
Dobijamo:
𝑝(𝑍, 𝐴, 𝐾) = 9,9 ∙ 10−9
Odnosno:
𝑝(𝑍|𝐴, 𝐾) =𝑝(𝑍, 𝐴, 𝐾)
𝑝(𝐴, 𝐾)=
9,9 ∙ 10−9
0,0099= 1,01 ∙ 10−6
Ovaj upit oslikava pojam koji se naziva objašnjivanje drugim atributom. Upit pokazuje da su
zemljotres i krađa uslovno zavisni preko zajedničke posledice (alarma), iako su marginalno
nezavisni.
Primer 2:
U poslovanju firme Siax & Co. generalni direktor želi da vidi kako uspeh firme zavisi od različitih
faktora. Njegovo znanje je zadato na sledeći način:
Prodaja firme zavisi od dva ključna faktora. To su promocija i konkurencija. Sa druge strane,
naša prodaja utiče na lojalnost naših kupaca i na profit firme (slika 6).
Promocija Konkurencija
Prodaja
Lojalnost Profit
Slika 6. Grafički model - primer Prodaja
67
Primenom pravila faktorizacije dobijamo sledeći model:
Notacija: 𝑃𝑟𝑜𝑚𝑜𝑐𝑖𝑗𝑎 = 𝑃𝑟𝑜𝑚; 𝐾𝑜𝑛𝑘𝑢𝑟𝑒𝑛𝑐𝑖𝑗𝑎 = 𝐾𝑜𝑛𝑘; 𝑃𝑟𝑜𝑑𝑎𝑗𝑎 = 𝑃𝑟𝑜𝑑;
𝐿𝑜𝑗𝑎𝑙𝑛𝑜𝑠𝑡 = 𝐿𝑜𝑗; 𝑃𝑟𝑜𝑓𝑖𝑡 = 𝑃𝑟𝑜𝑓
𝑝(𝑃𝑟𝑜𝑚, 𝐾𝑜𝑛𝑘, 𝑃𝑟𝑜𝑑, 𝐿𝑜𝑗, 𝑃𝑟𝑜𝑓)
= 𝑝(𝑃𝑟𝑜𝑚) ∙ 𝑝(𝐾𝑜𝑛𝑘) ∙ 𝑝(𝑃𝑟𝑜𝑑|𝑃𝑟𝑜𝑚, 𝐾𝑜𝑛𝑘) ∙ 𝑝(𝐿𝑜𝑗|𝑃𝑟𝑜𝑑)
∙ 𝑝(𝑃𝑟𝑜𝑓|𝑃𝑟𝑜𝑑)
Parametre modela (verovatnoće) treba proceniti iz istorijskih podataka. Tako je generalni
direktor zatražio podatke iz prethodnih meseci i dobio sledeće podatke:
Period Promocija Konkurencija Prodaja Lojalnost Profit
1 1 0 1 1 0
2 0 1 1 1 1
3 1 0 1 0 1
4 0 0 0 0 1
5 0 1 0 0 0
6 1 0 0 1 1
7 1 1 1 0 1
8 1 1 0 1 0
9 1 1 1 1 1
Iz tabele slučajeva treba da procenimo verovatnoće. Dobijamo sledeće verovatnoće za
promociju:
𝑝(𝑃𝑟𝑜𝑚) =6
9 𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ ) =
3
9
Za konkurenciju dobijamo sledeće verovatnoće:
𝑝(𝐾𝑜𝑛𝑘) =5
9 𝑝(𝐾𝑜𝑛𝑘̅̅ ̅̅ ̅̅ ̅) =
4
9
Za prodaju, koja zavisi od promocije i konkurencije, dobijamo sledeće verovatnoće:
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑃𝑟𝑜𝑚𝑜𝑐𝑖𝑗𝑎 𝑆𝑡𝑎𝑛𝑗𝑒: 𝐾𝑜𝑛𝑘𝑢𝑟𝑒𝑛𝑐𝑖𝑗𝑎 𝑃𝑟𝑜𝑑𝑎𝑗𝑎 𝑃𝑟𝑜𝑑𝑎𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅
𝑃𝑟𝑜𝑚𝑜𝑐𝑖𝑗𝑎 𝐾𝑜𝑛𝑘𝑢𝑟𝑒𝑛𝑐𝑖𝑗𝑎 2
3
1
3
𝑃𝑟𝑜𝑚𝑜𝑐𝑖𝑗𝑎 𝐾𝑜𝑛𝑘𝑢𝑟𝑒𝑛𝑐𝑖𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 2
3
1
3
𝑃𝑟𝑜𝑚𝑜𝑐𝑖𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ 𝐾𝑜𝑛𝑘𝑢𝑟𝑒𝑛𝑐𝑖𝑗𝑎 1
2
1
2
𝑃𝑟𝑜𝑚𝑜𝑐𝑖𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ 𝐾𝑜𝑛𝑘𝑢𝑟𝑒𝑛𝑐𝑖𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 0
1 1
Vrednosti verovatnoća dobijamo na sledeći način. Pogledamo u tabeli slučajeva tamo gde je
promocija jednaka jedan i gde je konkurencija jednaka jedan. To su slučajevi 7, 8 i 9. Od tih
68
slučajeva gledamo koliko puta je prodaja bila jedan. Vidimo da postoje dva slučaja (7 i 9) te
upisujemo 2
3. Analogno, popunjavamo ostatak tabele.
Verovatnoće za lojalnost su sledeće:
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑃𝑟𝑜𝑑𝑎𝑗𝑎 𝐿𝑜𝑗𝑎𝑙𝑛𝑜𝑠𝑡 𝐿𝑜𝑗𝑎𝑙𝑛𝑜𝑠𝑡̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅
𝑃𝑟𝑜𝑑𝑎𝑗𝑎 3
5
2
5
𝑃𝑟𝑜𝑑𝑎𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 2
4
2
4
Kada je prodaja bila jedan (slučajevi 1, 2, 3, 7 i 9) bilo je tri slučaja kada je i lojalnost bila jedan
(slučajevi 1, 2 i 9) te procenjujemo da je verovatnoća da je lojalnost jedan pod uslovom da je
prodaja jedan jednaka 3
5. Analogno, popunjavamo ostatak tabele.
Na kraju, verovatnoće za profit su sledeće:
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑃𝑟𝑜𝑑𝑎𝑗𝑎 𝑃𝑟𝑜𝑓𝑖𝑡 𝑃𝑟𝑜𝑓𝑖𝑡̅̅ ̅̅ ̅̅ ̅̅ ̅
𝑃𝑟𝑜𝑑𝑎𝑗𝑎 4
5
1
5
𝑃𝑟𝑜𝑑𝑎𝑗𝑎̅̅ ̅̅ ̅̅ ̅̅ ̅̅ ̅ 2
4
2
4
Upit 1: Koja je verovatnoća da će firma Siax & Co. ostvariti profit pod uslovom da je promocija
bila loša, lojalnost kupaca dobra i konkurencija dobra?
Dakle treba da izračunati 𝑝(𝑃𝑟𝑜𝑓|𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘). Primenom uslovne verovatnoće i
marginalizacije dobijamo:
𝑝(𝑃𝑟𝑜𝑓|𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) =𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)
𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)=
=∑ 𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝑃𝑟𝑜𝑑, 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)𝑃𝑟𝑜𝑑
∑ 𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝑃𝑟𝑜𝑑, 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)𝑃𝑟𝑜𝑑,𝑃𝑟𝑜𝑓
Odatle računamo:
𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) = ∑ 𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝑃𝑟𝑜𝑑, 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)
𝑃𝑟𝑜𝑑
𝑆𝑡𝑎𝑛𝑗𝑒: 𝑃𝑟𝑜𝑑 𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ ) ∙ 𝑝(𝐾𝑜𝑛𝑘) ∙ 𝑝(𝑃𝑟𝑜𝑑|𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐾𝑜𝑛𝑘) ∙ 𝑝(𝐿𝑜𝑗|𝑃𝑟𝑜𝑑) ∙ 𝑝(𝑃𝑟𝑜𝑓|𝑃𝑟𝑜𝑑)
𝑃𝑟𝑜𝑑 3
9 ∙
5
9 ∙
1
2 ∙
3
5 ∙
4
5 +
𝑃𝑟𝑜𝑑̅̅ ̅̅ ̅̅ ̅ 3
9 ∙
5
9 ∙
1
2 ∙
2
4 ∙
2
4 =
𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) = 0,06759
69
A 𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) dobijamo na sledeći način:
𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) = ∑ 𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝑃𝑟𝑜𝑑, 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)
𝑃𝑟𝑜𝑑,𝑃𝑟𝑜𝑓
𝑆𝑡𝑎𝑛𝑗𝑒 𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ ) ∙ 𝑝(𝐾𝑜𝑛𝑘) ∙ 𝑝(𝑃𝑟𝑜𝑑|𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐾𝑜𝑛𝑘) ∙ 𝑝(𝐿𝑜𝑗|𝑃𝑟𝑜𝑑) ∙ 𝑝(𝑃𝑟𝑜𝑓|𝑃𝑟𝑜𝑑)
𝑃𝑟𝑜𝑑, 𝑃𝑟𝑜𝑓 3
9 ∙
5
9 ∙
1
2 ∙
3
5 ∙
4
5 +
𝑃𝑟𝑜𝑑, 𝑃𝑟𝑜𝑓̅̅ ̅̅ ̅̅ ̅ 3
9 ∙
5
9 ∙
1
2 ∙
3
5 ∙
1
5 +
𝑃𝑟𝑜𝑑̅̅ ̅̅ ̅̅ ̅, 𝑃𝑟𝑜𝑓 3
9 ∙
5
9 ∙
1
2 ∙
2
4 ∙
2
4 +
𝑃𝑟𝑜𝑑̅̅ ̅̅ ̅̅ ̅, 𝑃𝑟𝑜𝑓̅̅ ̅̅ ̅̅ ̅ 3
9 ∙
5
9 ∙
1
2 ∙
2
4 ∙
2
4 =
𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) = 0,10185
Na kraju dobijamo:
𝑝(𝑃𝑟𝑜𝑓|𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘) =𝑝(𝑃𝑟𝑜𝑓, 𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)
𝑝(𝑃𝑟𝑜𝑚̅̅ ̅̅ ̅̅ ̅̅ , 𝐿𝑜𝑗, 𝐾𝑜𝑛𝑘)=
0,06759
0,10185= 0,6636
Rezonovanje u Bajesovim mrežama može da se vrši od uzroka ka posledicama i tada se takvo
rezonovanje naziva prediktivno. Na primer, koja je verovatnoća da će firma Siax & Co. imati
dobar profit ako znamo da smo imali dobru promociju?
Ako se rezonovanje vrši od posledice prema uzroku onda se takav način rezonovanja naziva
dijagnostički. Na primer, koja je verovatnoća da je promocija bila dobra, ako je poznato da je
profit bio dobar?
Na kraju rezonovanje može biti kombinovano, kao što je bio upit u drugom primeru.
Bitno je naglasiti da je domensko znanje ugrađeno u strukturu Bajesove mreže, a da se
parametri modela uče iz podataka.
Na kraju algoritam Naivnog Bajesa se može predstaviti kao Bajesova mreža, kao što je
prikazano na slici 7.
Vlasnik stana
Vratio?
Bračni status
Prihodi
Slika 7. Algoritam Naivnog Bajesa kao Bajesova mreža
70
ID31 алгоритам представља алгоритам за изградњу дрва одлучивања
2 на основу
података. Први пут га је описао Рос Кинлан (Ross Quinlan) са Сиднејског
универзитета, 1975. године у књизи Machine Learning, [1].
Дрво одлучивања представља графички приказ начина на који доносилац одлуке
одлучује. Традиционално се израђује ручно од стране екперта из области, који из
искуства у одлучивању генерише дрво које се може искористити за доношење
одлука у будућности.
ID3 алгоритам покушава да замени експерта у прављењу дрва одлучивања, тако
што ће дрво генерисати из података којима су описани ранији случајеви
одлучивања у сличним ситуацијама. То значи да је за рад ID3 алгоритма неопходно
постојање записа о историји одлучивања (случајева у прошлости), најчешће у
табеларном облику:
дан врем. прилике температура влажност ветар играти?
1 сунчано вруће висока слаб не
2 сунчано вруће висока јак не
3 облачно вруће висока слаб да
4 кишовито топло висока слаб да
5 кишовито хладно нормална слаб да
6 кишовито хладно нормална јак не
7 облачно хладно нормална јак да
8 сунчано топло висока слаб не
9 сунчано хладно нормална слаб да
10 кишовито топло нормална слаб да
11 сунчано топло нормална јак да
12 облачно топло висока јак да
13 облачно вруће нормална слаб да
14 кишовито топло висока јак не
Горе наведеном табелом се описују случајеви из прошлости, када се на основу
временских прилика одлучивало да ли играти неку игру која се игра на отвореном
простору. Атрибути (колоне) појединачно описују компоненте временских прилика
сваког случаја (реда), док атрибут играти представља одлуку у том случају и
назива се атрибут одлуке3.
Основни проблем је: какву одлуку донети када се у будућности догоде некакве
временске прилике?
1 акроним од: Iterative Dichotomiser 3 („Tree“) 2 у преводу често се назива и Стабло одлучивања (eng. Decision tree) 3 неретко се јављају и синоними за овај атрибут, на пример: output, target, label, итд.
ID3 алгоритам
71
Пошто овакве историје случајева могу бити доста велике, претраживање целе базе
случајева за случајем који највише одговара новонасталом не долази у обзир. Са
друге стране, дрво одлучивања које одговара подацима о случајевима могло би
знатно олакшати доношење одлуке. Зато се поставља следећи проблем: како
генерисати дрво одлучивања на основу података које ће бити што је могуће лакше
за доношење одлука? Јасно је да је такво дрво што је могуће „мање“, тј. садржи
минималан број чворова и грана. Другачије речено, тражи се дрво које у просеку
има што мањи број корака којима се долази до одлуке4. ID3 алгоритам управо даје
одговор на ово питање.
Алгоритам ради итеративно, тако да ће до решења долазити у више корака.
У првом кораку треба одредити атрибут којим ће се дрво гранати у корену. За овај
проблем се уводи концепт ентропије, позајмљен из Информационе теорије.
Ентропија представља меру неуређености система, тј. у нашем случају,
неизвесности о томе коју одлуку треба донети.
Један од начина да се ентропија измери је и путем следеће формуле коју је
дефинисао Клод Шенон (C. Shannon)5:
2
1
( ) log ( )n
i i
i
H S p p=
= − ⋅∑
где ( )H S представља ентропију скупа случајева S , ip вероватноћу да ће бити
донешена одлука i , а n број различитих одлука које могу бити донешене.
Вероватноће се могу рачунати преко формуле:
i
i
Cp
S=
где је iC број случајева са одлуком i , а S укупан број случајева.
У нашем случају, почетна ентропија износи:
2 2
9 9 5 5( ) log log 0,940
14 14 14 14H S
= − + =
напомена: следећа математичка релација може бити од користи када се логаритми
рачунају на ручним калкулаторима:
10 102
10
log loglog
log 2 0,301
X XX = =
4 ово представља примену познатог Окамовог принципа (Occam’s razor), који преферира
једноставније теорије и објашњења у односу на сложене. 5 по овој формули ентропија представља просечан број битова потребних да би се идентификовало
стање система (одлука)
72
Вратимо се на питање избора атрибута за гранање дрва одлучивања.
Увођењем атрибута Х у корену дрво се грана на више грана, тј. почетни скуп
случајева се дели на више подскупова (у општем случају, дрво се грана на онолико
грана колико има вредности атрибута Х).
На пример, почетно стабло из примера можемо преко атрибута ветар гранати на
две гране:
Ентропија у систему после увођења атрибута Х у корену за гранање дрвета рачуна
се по следећој формули:
( ) ( )1
,n
i
i
i
SH X S H S
S=
= ⋅
∑
где су: iS број елемената са особином iX , S укупан број случајева у скупу S , а
( )iH S ентропија подскупа случајева са особином iX
У нашем примеру, гранајући дрво са атрибутом ветар систем ће имати следећу
количину ентропије:
( ) ( ) ( ) ( ) ( )6 8, 0,892
14 14
jak slab
jak slab jak slab
S SH vetar S H S H S H S H S
S S= ⋅ + ⋅ = ⋅ + ⋅ =
пошто је:
( ) ( ) ( )2 20,5 log 0,5 0,5 log 0,5 1jakH S = − ⋅ + ⋅ =
( ) ( ) ( )2 20,75 log 0,75 0,25 log 0, 25 0,811slabH S = − ⋅ + ⋅ =
Примећујемо да се ентропија смањила у односу на почетну ентропију у систему,
што је и очекивано, с обзиром да смо откривши вредност атрибута Х дошли до
одређене информације о систему. Количина информације коју смо добили
откривајући вредност атрибута може се и измерити следећом формулом:
( ) ( ) ( ), ,I X S H S H X S= −
где се ( ),I X S назива информациона добит за одлуку од атрибута х
У нашем примеру имамо да је
( ), 0,940 0,892 0,048I vetar S = − =
Дакле, информациона добит нам показује колико се ентропија система смањује ако
познајемо вредност атрибута Х.
слаб
јак
vetar
73
Идеја ID3 алгоритма је да за гранање дрва одлучивања одабере онај атрибут који
носи највише информација о одлуци, тј. чија је информациона добит највећа.
У нашем примеру, рачунајући информационе добити за преостале атрибуте
добијамо:
( )( )( )( )
. , 0,246
, 0,136
, 0,030
, 0,048
I vr prilike S
I vlažnost S
I temperatura S
I vetar S
=
=
=
=
Дакле, по ID3 алгоритму, бирамо вр.прилике за атрибут којим ћемо гранати дрво
одлучивања:
Даље, итеративно примењујемо исти поступак за сваку грану, са циљем да гранамо
дрво до нивоа када је одлука сигурна.
Ако погледамо наш пример, примећујемо да је у подскупу облачних дана одлука
увек била да се игра. Ентропија у том подсистему је једнака нули и ту даље
гранање није потребно. На том делу дрва означавамо да је одлука да се игра.
На преосталим гранама ентропија је већа од нуле, па ћемо ту увести неки од
преосталих атрибута да би даље гранали дрво. Поступак, значи, понављамо
посебно за подскуп сунчаних и за подскуп кишовитих дана.
У општем случају, поступак се понавља док не дођемо до сигурне одлуке, или нам
понестане атрибута за гранање, ако су сви атрибути искоришћени.
На подскупу случајева сунчаних дана (лева грана стабла), информационе добити
преосталих атрибута су:
( )( )( )
, 0,971
, 0,571
, 0,079
sunce
sunce
sunce
I vlažnost S
I temperatura S
I vetar S
=
=
=
киша
облаци
сунце
вр.прилике
Da ? ?
74
Дакле, узимамо влажност да поново гранамо дрво на грани сунчаних дана.
Са друге стране, за кишовите дане, истим поступком, бирамо атрибут ветар.
После спровођења целог алгоритма, коначно дрво има изглед:
Овим је поступак примене ID3 алгоритма завршен.
Оно што се може приметити је да атрибут температура није коришћен у дрвету
зато што, по ID3 алгоритму, не носи довољно информација о одлуци. Даље, до
одлуке се долази у највише два корака.
Посебна погодност дрва одлучивања јесте што се лако може претворити у низ
„ако–онда“ правила. У нашем примеру имали бисмо неке од следећих правила:
IF (вр.прилике=сунчано) AND (влажност=висока) THEN играти=не
IF (вр.прилике=облачно) THEN играти=да
итд.
Треба још напоменути да je ID3 алгоритам у ствари хеуристика. То значи да њиме
не морамо доћи до најбољег (најмањег) стабла, већ да се добија стабло које је
„довољно добро“. Ипак, примена овог алгоритма у индустрији показује да је у
пракси доста ефективан. Неке од досадашњих примена су: медицинска дијагноза,
процена ризика код одобравања кредита, откривање грешака у опреми, Веб
претраживање, итд.
ID3 алгоритам има и својих мана. Неки од тих недостатака су отклоњени у нешто
млађим алгоритмима који се базирају на ID3 алгоритму. „C4.5“ алгоритам истог
аутора уноси нека побољшања која се односе на рад са недостајућим вредностима,
рад са атрибутима који имају контунуалне вредности, скраћивање дрва, израда
правила, итд.
За детаљније упознавање са ID3 алгоритмом погледати наведене референце.
киша
облаци
сунце
нормална
висока
јак
слаб
Da Не Da
вр.прилике
Da влажност ветар
Не
75
Пример „преживљавање“
Проблем: На основу описа плода из природе треба одлучити да ли је сигурно
хранити се истим. 6
Табела случајева има следећи изглед:
воће кожа боја величина месо закључак
1 длакаво браон велико тврдо сигурно
2 длакаво зелена велико тврдо сигурно
3 глатко црвена велико меко опасно
4 длакаво зелена велико меко сигурно
5 длакаво црвена мало тврдо сигурно
6 глатко црвена мало тврдо сигурно
7 глатко браон мало тврдо сигурно
8 длакаво зелена мало меко опасно
9 глатко зелена мало тврдо опасно
10 длакаво црвена велико тврдо сигурно
11 глатко браон велико меко сигурно
12 глатко зелена мало меко опасно
13 длакаво црвена мало меко сигурно
14 глатко црвена велико тврдо опасно
15 глатко црвена мало тврдо сигурно
16 длакаво зелена мало тврдо опасно
Треба генерисати дрво одлучивања применом ID3 алгоритма.
У првом кораку одређујемо атрибут за гранање у корену. Одређујемо прво почетну
ентропију:
( ) 2 2 2 2
10 10 6 6log log log log 0,954
16 16 16 16
sigurno sigurno opasno opasnoS S S SH S
S S S S= ⋅ + ⋅ = ⋅ + ⋅ =
а затим и ентропије после увођења сваког атрибута појединачно:
( ) ( ) ( ) ( ) ( )
( )
( )
( )
2 2
2 2
8 8,
16 16
6 6 2 2log log 0,811
8 8 8 8
4 4 4 4log log 1
8 8 8 8
, 0,906
glatkodlakavo
dlakavo glatko dlakavo glatko
dlakavo
glatko
SSH koža S H S H S H S H S
S S
H S
H S
H koža S
= ⋅ + ⋅ = ⋅ + ⋅
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
=
6 пример преузет из [6]
76
( ) ( ) ( ) ( ) ( )
( )
( )
( )
2 2
2 2
7 9,
16 16
5 5 2 2log log 0,863
7 7 7 7
5 5 4 4log log 0,991
9 9 9 9
, 0,935
veliko malo
veliko malo veliko malo
veliko
malo
S SH veličina S H S H S H S H S
S S
H S
H S
H veličina S
= ⋅ + ⋅ = ⋅ + ⋅
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
=
( ) ( ) ( ) ( ) ( )
( )
( )
( )
2 2
2 2
10 6,
16 16
7 7 3 3log log 0,881
10 10 10 10
3 3 3 3log log 1
6 6 6 6
, 0,926
tvrdo meko
tvrdo meko tvrdo meko
tvrdo
meko
S SH meso S H S H S H S H S
S S
H S
H S
H meso S
= ⋅ + ⋅ = ⋅ + ⋅
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
=
( ) ( ) ( ) ( )
( )
( )
( )
( )
2 2
2 2
2 2
3 6 7,
16 16 16
3 3 0 0log log 0
3 3 3 3
2 2 4 4log log 0,915
6 6 6 6
5 5 2 2log log 0,863
7 7 7 7
, 0,721
braon zeleno crveno
braon
zeleno
crveno
H boja S H S H S H S
H S
H S
H S
H boja S
= ⋅ + ⋅ + ⋅
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
=
Даље рачунамо информационе добити, које ћемо користити за избор атрибута за
гранање:
( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )
, , 0,954 0,906 0,048
, , 0,954 0,935 0,019
, , 0,954 0,926 0,028
, , 0,954 0,721 0, 233
I koža S H S H koža S
I veličina S H S H veličina S
I meso S H S H meso S
I boja S H S H boja S
= − = − =
= − = − =
= − = − =
= − = − =
77
Дакле, бирамо атрибут боја за гранање. Видимо да је за браон боју ентропија
спуштена на нулу, што значи да даље гранање ове гране није потребно. Преостале
две гране треба још гранати, што ћемо чинити у наставку. Дрво засад има изглед:
Настављамо са гранањем подскупа случајева (воћки) које имају зелену боју.
Одређујемо ентропије, а затим и информационе добити за све преостале атрибуте:
( ) ( ) ( )
( ) ( )
( )
,,
, ,
, ,
, 2 2
,
4 2
6 6
2 2 2 2log log 1
4 4 4 4
glatko zelenodlakavo zeleno
zeleno dlakavo zeleno glatko zeleno
zeleno zeleno
dlakavo zeleno glatko zeleno
dlakavo zeleno
SSH koža S H S H S
S S
H S H S
H S
= ⋅ + ⋅ =
= ⋅ + ⋅
= − ⋅ + ⋅ =
( )
( )
, 2 2
0 0 2 2log log 0
2 2 2 2
, 0,667
glatko zeleno
zeleno
H S
H koža S
= − ⋅ + ⋅ =
=
( ) ( ) ( )
( )
( )
( )
, ,
, 2 2
, 2 2
2 4,
6 6
2 2 0 0log log 0
2 2 2 2
0 0 4 4log log 0
4 4 4 4
, 0
zeleno veliko zeleno malo zeleno
veliko zeleno
malo zeleno
zeleno
H veličina S H S H S
H S
H S
H veličina S
= ⋅ + ⋅
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
=
црвена
зелена
браон
боја
сигурно
? ?
78
( ) ( ) ( )
( )
( )
( )
, ,
, 2 2
, 2 2
3 3,
6 6
1 2 2 2log log 0,915
3 3 3 3
1 1 2 2log log 0,915
3 3 3 3
, 0,915
zeleno tvrdo zeleno meko zeleno
tvrdo zeleno
meko zeleno
zeleno
H meso S H S H S
H S
H S
H meso S
= ⋅ + ⋅
= − ⋅ + ⋅ =
= − ⋅ + ⋅ =
=
( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )
, , 0,915 0,667 0, 248
, , 0,915 0 0,915
, , 0,915 0,915 0
zeleno zeleno zeleno
zeleno zeleno zeleno
zeleno zeleno zeleno
I koža S H S H koža S
I veličina S H S H veličina S
I meso S H S H meso S
= − = − =
= − = − =
= − = − =
Дакле, грану са зеленом бојом даље гранамо са атрибутом величина. Видимо да су у
том случају велике воћке сигурне, док су мале опасне.
За подскуп црвених воћки добијамо следеће информационе добити:
( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )
, , 0,863 0,571 0,292
, , 0,863 0,392 0, 471
, , 0,863 0,801 0,062
crveno crveno crveno
crveno crveno crveno
crveno crveno crveno
I koža S H S H koža S
I veličina S H S H veličina S
I meso S H S H meso S
= − = − =
= − = − =
= − = − =
Дакле, грану са црвеном бојом даље гранамо такође са атрибутом величина. У овом
случају за мале воћке можемо рећи да су сигурне, док за велике не можемо са
сигурношћу рећи. Пошто су преостала још два атрибута (кожа и месо), настављамо
гранање за црвене велике воћке. Дрво у овом тренутку изгледа на следећи начин:
мало
сигурно
сигурно
сигурно
опасно
зелена
браон
велико
црвена
велико
мало
боја
величина величина
?
79
Информационе добити за атрибуте на подскупу црвених великих воћки рачунамо
на исти начин и добијамо:
( ) ( ) ( )( ) ( ) ( )
, , ,
, , ,
, , 0,915 0 0,915
, , 0,915 0,667 0,248
crveno veliko crveno veliko crveno veliko
crveno veliko crveno veliko crveno veliko
I koža S H S H koža S
I meso S H S H meso S
= − = − =
= − = − =
Коначно дрво одлучивања има изглед:
Овим је задатак завршен.
Напомена: подаци за овај пример су фиктивни и знање добијено применом ID3
алгоритма над њима није за употребу.
сигурно
опасно
глатко
длакаво
мало
сигурно
сигурно
сигурно
опасно
зелена
браон
велико
црвена
велико
мало
боја
величина величина
кожа
80