Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít®...

20
* xx x X, x, p(X ) X x X E X,p(X) [f (X )] f (X ) p(X ) var p(X) [f (X )] f (X ) p(X ) I p (X |Z |Y ) X Y Z p (X Y |Z ) p I p (X |Z |Y ) (X 6 Y |Z ) p ¬I p (X |Z |Y ) CI p (X ; Y |Z ) X Y Z p c G G (n) n G, θ G G G (n)/G k (n) n k G G G G pa(X i ,G) ∼≺ pa(X i ,G) MB p (X i ) X i p pa, pa(X i ,G) X i G pa ij j bd(X i ,G) X i G MBG(X i ,G) X i G MBM(X i ,X j ,G) n k N V Y *

Transcript of Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít®...

Page 1: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

Jelölések∗

Felhasznált jelölések

x,x,x skalár, (oszlop)vektor vagy halmaz, mátrixX, x, p(X) véletlen változó X, érték x, valószín¶sgéi tömegfüggvény/s¶r¶ségfüggvény XEX,p(X)[f(X)] f(X) várható értéke p(X) szerintvarp(X)[f(X)] f(X) varianciája p(X) szerintIp(X|Z|Y ) X és Y meg�gyelési függetlensége Z feltétellel p esetében(X ⊥⊥ Y |Z)p Ip(X|Z|Y )

(X 6⊥⊥ Y |Z)p) ¬Ip(X|Z|Y )

CIp(X;Y |Z) X és Y beavatkozási függetlensége Z feltétellel p esetében≺ (részleges) sorrendezés≺c a változók egy teljes sorrendezése≺G adott G irányított körmentes grá�al kompatibilies sorrendek halmaza≺ (n) n objektum sorrendjeinek (permutációinak) a halmazaG, θ Bayes háló strukturája és paramétereiG∼ G irányított körmentes gráf esszenciális gráfjaG(n)/Gk(n) n csomópont¶ maximum k szül®j¶ DAG-ok halmazaG≺ adott ≺ sorrenddel kompatibilis DAG-ok halmazaGG adott G DAG-gal meg�gyelési ekvivalens DAG-ok halmaza∼ kompatibilitási relációpa(Xi, G) ∼≺ pa(Xi, G) szül®i halmaz kompatibilis ≺ sorrendezésselMBp(Xi) Markov takarója Xi-nek p-benpa, pa(Xi, G) szül®i változók halmaza, Xi szüleinek halmaza G-benpaij a j. kon�gurációja a szül®i értékeknek egy sorrendbenbd(Xi, G) Xi szüleinek, gyerekeinek és gyerekei egyéb szüleinek halmaza G-benMBG(Xi, G) a Markov takaró algráfja Xi-nek G-benMBM(Xi, Xj, G) a Markov takaróbeliség relációjan valószín¶ségi változók számak maximális szül®szám DAG-okbanN mintaszámV összes valószín¶ségi változók számaY válasz, kimeneteli, függ® változó

∗További konvenciók az egyes fejezetekben jelöltek.

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 2: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

2 A m¶ címe

N+/N...,+,... Ni/N...,i,... megfelel® összegeiD|X X változóhalmazra sz¶kített adathalmaz|| kardinalitás1() indikátor függvényf ′, f ′′ f függvény els® és második deriváltjaiAT A mátrix transzponálthax · y x és y vektorok skalárszorzataξ+/ξ− informatív/neminformatív információs kontextus¬,∧,∨, 6=,→ standard logikai operátorok∩,∪, \,∆ standard halmazm¶veletekKB `i α α bizonyíthatósága KB-b®lΓ a Gamma függvényBeta(x|α, β) a Béta eloszlás s¶r¶ségfüggvénye (pdf)Dir(x|α) a Dirichlet eloszlás s¶r¶ségfüggvényeN(x|µ, σ), N(x|µ,Σ)a normál eloszlás s¶r¶ségfüggvényeBD,BDe Bayesian Dirichlet prior, meg�gyelési ekvivalens BD priorBDCH Bayesian Dirichlet (BD) prior 1 hiperparameterekkelBDeu meg�gyelési ekvivalen és uniform BD priorL(θ;DN) p(DN |θ) likelihood függvényeH(X, Y ), I(X;Y )X és Y entrópiája és kölcsönös információjaKL(X‖Y ), H(X‖Y )X és Y Kullback-Leibler divergenciája és keresztentrópiájaL1(, ), L2(, ) az abszolút értékbeli (Manhattan) négyzetes (Euklidészi) távolságokL0(, ) 0-1 veszteségO()/Θ() aszimptotikus, nagyságrendi fels® és alsó határ

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 3: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

Jelölések 3

Rövidítések

ROC Receiver Operating Characteristic (ROC) görbeAUC ROC görbe alatti területBMA Bayesi Modell ÁtlagolásBN Bayes hálóDAG Irányított körmentes gráfFSS Jegykiválasztási problémaMAP Maximum A PosterioriMI kölcsönös információML Maximum LikelihoodMBG Markov határ gráfMB Markov takaróMBM Markov takaróbeliség(MC)MC (Markov láncos) Monte CarloNaive-BN/N-BN Naív Bayes háló

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 4: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv
Page 5: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

Tartalomjegyzék

. Jelölések 1

1. Valószín¶ségi Bayes hálók tanulása 7

1.1. Paramétertanulás Rejtett Markov Modellekben . . . . . . . . . . . . . . . . 71.1.1. Paramétertanulás RMM-ekben ismert állapotszekvenciák esetében . 81.1.2. E-M alapú paramétertanulás RMM-ekben ismeretlen állapotszek-

venciák esetében . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2. Naív Bayes hálók tanulása . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2.1. A bayesi feltételes modellezés . . . . . . . . . . . . . . . . . . . . . 111.2.2. Bayes hálók tanulása feltételes modellként . . . . . . . . . . . . . . 131.2.3. Naive Bayes hálók teljesítménye osztályozásban és regresszióban . . 141.2.4. Naive Bayes hálók kiterjesztései . . . . . . . . . . . . . . . . . . . . 151.2.5. Teljes modellátlagolás NBN-k felett . . . . . . . . . . . . . . . . . . 16

1.3. Egy információelméleti pontszám Bayes háló tanulásához . . . . . . . . . . 17

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 6: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

6 A m¶ címe

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 7: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

1. fejezet

Valószín¶ségi Bayes hálók tanulása

A fejezetben bemutatjuk a valószín¶ségi gráfos modelleken (PGM) belül a Bayes hálókhozkapcsolódó paramétertanulást, majd a feltételes modellezés és teljes tárgyterületi modellezéskapcsolatát tisztázzuk, végül egy információelméleti megközelítést mutatunk be valószín¶sé-gi Bayes hálók tanulására. A fejezet a Rejtett Markov Modellek paramétereinek tanulásá-nak ismertetésével indul, amelyen keresztül bemutatjuk az Expectation-Maximization alapúparamétertanulást. Ismertetjük a feltételes modellek és PGM-k használatának pro és kont-ra érveit adatelemzési feladatokban, különös tekintettel a Naív Bayes hálók tanulásánakszempontjából. A megkötések nélküli Bayes hálók tanulására származtatunk egy pontszá-mot információelméleti avagy �Minimum Description Length� formalizmus szerint. Azoksági Bayes hálók tanulását, amely oksági vonatkozású priorokat is befogad, illetve okságimodelltulajdonságok tanulását is lehet®vé teszi az Oksági Bayes hálók tanulása fejezetbenismertetjük.

1.1. Paramétertanulás Rejtett Markov Modellekben

Valószín¶ségi gráfos modellek egyik népszer¶ alosztálya a Rejtett Markov Modellek (RMM),amelyek az eredeti beszédfelismerési és követési felhasználási területek mellett a biológiaiszekvenciák elemzésében is egyre intenzívebben felhasználtak. A Bayes háló formalizmustkövetve de�nicíójuk és a tárgyalásukban használt jelölésük a következ® [9].

1. π jelöli a rejtett állapot szekvenciát, πi jelöli az i. állapotot

2. akl jelöli az állapotátmenet valószín¶ségeket p(πi = l|πi−1 = k) (egy extra 0 állapototfenntartva az induló és végállapot számára)

3. ek(b) a kibocsájtási/meg�gyelési valószín¶ségek p(xi = b|πi = k)

A továbbiakban feltesszük, hogy az RMM-kbeli változók diskzrét és véges változók. ARMM-kben való következtetés típusait, benne az �el®refele� és �visszafele� RMM következ-tetési módszereket a Valószín¶ségi döntéstámogatási rendszerek egy fejezete foglalja össze,

c© szerz® neve, egyetem www.tankonyvtar.hu

horvath
Highlight
horvath
Highlight
Page 8: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

8 A m¶ címe

levezetésükért lásd [19]. A továbbiakban feltesszük, hogy ezek hatékony megoldása ismertés az is, hogy általuk kiszámíthatóak a következ®ek:

1. 'dekódolás": π∗ = arg maxπ p(x, π)

2. szekvencia valószín¶sége:p(x) =∑

π p(x, π) (avagy p(x|M) �modell likelihood" vagysz¶rés)

3. simítás/poszterior dekódolás:p(πi = k|x)

Feltételezve, hogy θ jelöli az RMM modell paramétereit, n független x(1), . . . , x(n) meg-�gyelési szekvencia valószín¶sége ekkor a következ®képpen írható

p(x(1), . . . , x(n)|θ) =n∏i=1

p(x(i)|θ). (1.1)

Rögzített struktúrát, azaz rögzített meg�gyelés- és állapotteret feltételezve két felada-tot vizsgálunk meg. Bevezetési jelleggel els®ként megnézzük, hogy hogyan határozhatókmeg a paraméterek a maximum likelihood elv szerint, ha ismertek a meg�gyelésekheztartozó állapotok, illetve ha ezek nem ismertek. Ez utóbbi az úgynevezett Baum-Welcheljárás, amely az expectation-maximization eljárásra példa.

1.1.1. Paramétertanulás RMM-ekben ismert állapotszekvenciák ese-

tében

Ismert állapotszekvenciák esetében az Akl állapotátmenet számlálók és az Ek(b) kibocsáj-tási számlálók segítségével a megfelel® akl, ek(b) relatív gyakoriságok közvetlenül adódnak

akl =Akl∑l′ Akl′

and ek(b) =Ek(b)∑b′ Ek(b′)

. (1.2)

Emlékeztet®ül idézzük, hogy a relatív gyakoriság maximum likelihood becsl® a multi-nomiális mintavételhez. Tételezzük fel, hogy i = 1, . . . K kimenetelek egy multinomiálismintavételb®l származna, amelynek parametérei θ = {θi}, és jelölje n = {ni} a meg�gyeltel®fordulási számokat (N =

∑i ni). Ekkor

logp(n|θML)

p(n|θ)= log

∏i(θ

MLi )ni∏

i(θi)ni

=∑i

ni logθMLi

θi= N

∑i

θMLi log

θMLi

θi> 0 (1.3)

mivel 0 < KL(θML||θ)

−KL(p||q) =∑i

pi log(qi/pi) ≤∑i

pi((qi/pi)− 1) = 0 (1.4)

felhasználva, hogy log(x) ≤ x− 1.

www.tankonyvtar.hu c© szerz® neve, egyetem

horvath
Highlight
Page 9: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

1. fejezet. Valószín¶ségi Bayes hálók tanulása 9

Az a priori tudás kombinálására ad hoc módszerként jelent meg pszeudoszámlálók vagya priori számlálók fogalma, ami kis mintás esetben a becslések robosztusságának növelé-sére is felhasznált⇒ A′kl = Akl + rkl E

′k(b) = Ek(b) + rk(b),

amelynek elméleti hátterét az Oksági Bayes hálók tanulása fejezetben tárgyaljuk.

1.1.2. E-M alapú paramétertanulás RMM-ekben ismeretlen álla-

potszekvenciák esetében

Egy közelít® módszer ismeretlen állapotszekvenciák esetében, hogy akár a priori vagyakár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnakvélt vagy legvalószín¶bb állapotszekvenciákat, amelyet követ®en már a közvetlen becslésieljárás alkalmazható. Ez az ötlet iteratívan is használható, amely a következ® módszerrevezet: becsüljük meg a várható értékét az At, Et számlálóknak adott θt mellett, majdújrabecsülve frissítsük θt+1 paramétereket ezen At,Et. . . várható értékek alapján.

Els®ként is vegyük észre, hogy a k → l átmenetek valószín¶sége az x szekvencia i.pozíciójában közvetlenül számítható a hatékonyan számolható �el®refele� és �visszafele�RMM következtetési módszerekb®l.

p(πi = k, πi+1 = l|x) (1.5)

=p(

fk(i)︷ ︸︸ ︷x1, . . . , xi, πi = k,xi+1,

bl(i+1)︷ ︸︸ ︷πi+1 = l, xi+2, . . . , xL)

p(x)= fk(i)aklel(xi+1)bl(i+1)

p(x)(1.6)

Ekkor a várható értéke egy adott átmenet valószín¶ségnek és kibocsátási valószín¶ség-nek rendre a következ®

Akl =∑j

1

p(x(j))

∑i

f(j)k (i)aklel(x

(j)i+1)b

(j)l (i+ 1) (1.7)

Ek(b) =∑j

1

p(x(j))

∑i|x(j)i =b

f(j)k (i)b

(j)k (i), (1.8)

A módszer konvergenciáját az biztosítja, hogy az iteráltan elvégzett következtetés ésparaméterbecslés valójában az úgynevezett E-M módszercsaládba tartozik. Általános be-mutatásához megmutatjuk a f® ötletét, amely adatelemzési/optimalizálási feladatokban isgyakran használt, az eredeti, bizonyítottan jó m¶ködést adó feltételein túl. Az E-M mód-szercsalád f® célja az itteni jelölést használva, hogy a meg�gyelt x és hiányzó π esetébenhatározza meg a maximum likelihood paramétereket

θ∗ = arg maxθ

log(p(x|θ)). (1.9)

A megközelítés felfogható egy olyan módszernek, amikor a megoldás analitikusan éshatékonyan számolhatóan adódik, ha a hiányzó adat létezik, és ezen módszer a hiányzó

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 10: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

10 A m¶ címe

adatok rögzített adatokkal való "pótlása" és hiányzó adatok kiátlagolása között helyezke-dik el. M¶ködésének központ eleme a �várható adat log-likelihood�

Q(θ|θt) =∑π

p(π|x, θt) log(p(x, π|θ)) (1.10)

iterált javítása. Kihasználva, hogy

p(x, π|θ) = p(π|x, θ)p(x|θ), (1.11)

írhatjuk, hogy

log(p(x|θ)) = log(p(x, π|θ))− log(p(π|x, θ)) (1.12)

Ekkor p(π|x, θt)-val szorozva és π felett szummázva

log(p(x|θ)) =∑π

p(π|x, θt) log(p(x, π|θ))︸ ︷︷ ︸Q(θ|θt)

−∑π

p(π|x, θt) log(p(π|x, θ)) (1.13)

Mivel a likelihood-ot szeretnénk növelni, ez ekvivalens ennek a különbségnek a növelé-sével.

log(p(x|θ))− log(p(x|θt)) = Q(θ|θt)−Q(θt|θt) +∑π

p(π|x, θt) log(p(π|x, θt)p(π|x, θ)

)︸ ︷︷ ︸KL(p(π|x,θt)||p(π|x,θ))

(1.14)

Kihasználva, hogy 0 ≥ KL(p||q), adódik a következ®

log(p(x|θ))− log(p(x|θt)) ≥ Q(θ|θt)−Q(θt|θt). (1.15)

Az általánosított E-M eljárás csupán egy jobb θ megválasztásán alapszik Q(θ|θt)tekintetében, amely folytonos paramétertér esetében garantált, hogy aszimptotikusan egylokális vagy globális maxiumhoz konvergál (sajnos diszkrét esetekben viselkedésére nincsgarancia, bár gyakran használt, például lásd [11]). A standard E-M eljárás javító lépésé-ben maximalizálás szerepel

θt+1 = arg maxθQ(θ|θt). (1.16)

Visszatérve az RMM paramétertanulásra, az E-M módszer alkalmazása a következ®.Egy adott π állapot- és x meg�gyelésszekvencia valószín¶sége a következ®

p(x, π|θ) =M∏k=1

∏b

[ek(b)]Ek(b,π)

M∏k=0

M∏l=1

aAkl(π)kl (1.17)

ezt felhasználva Q(θ|θt) =∑

π p(π|x, θt) log(p(x, π|θ)) átírható a következ®képpen

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 11: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

1. fejezet. Valószín¶ségi Bayes hálók tanulása 11

Q(θ|θt) =∑π

p(π|x, θt)M∑k=1

∑b

Ek(b, π) log(ek(b)) +M∑k=0

M∑l=1

Akl(π) log(akl). (1.18)

Mivel Akl és Ek(b) várható értéke π-k felett egy adott x esetében

Ek(b) =∑π

p(π|x, θt)Ek(b, π) Akl =∑π

p(π|x, θt)Akl(π), (1.19)

így els®ként π-k felett elvégezve az összegzést kapjuk, hogy

Q(θ|θt) =M∑k=1

∑b

Ek(b) log(ek(b)) +M∑k=0

M∑l=1

Akl log(akl). (1.20)

Ekkor kihasználva, hogy Akl és Ek(b) hatékonyan számolható az el®re és hátra algorit-musokkal az aktuális θt esetében, és akl és bk(l) alkotjákaz új paramétereket θ , Q(θ|θt)-tmaximalizálja a következ®

a0kl =

Aij∑k Aik

(1.21)

mivel az A-kat tartalmazó tagnál a különbség így írható

M∑k=0

M∑l=1

Akl log(a0klakl

) =M∑k=0

(∑l′

Akl′)M∑l=1

a0kl log(

a0klakl

), (1.22)

amelyik éppen a K-L távolság, tehát nem negatív.

1.2. Naív Bayes hálók tanulása

A Bayes hálók modellosztály másik nagyon népszer¶ családja a Naív Bayes hálók (NBN)(lásd Valószín¶ségi gráfos modellek PGM fejezete). Az NBN-k feltevéseinek széles kör¶elfogadhatósága mellett a tanulásban is központi szerepet töltenek be robosztusságuk mi-att, mivel mintegy hidat képeznek az úgynevezett feltételes modellek felé. Els®ként ezta határvonalat tisztázzuk, megvizsgálva az NBN-k paraméter és struktúra tanulását is,végezetül a bayesi kontextusban is.

1.2.1. A bayesi feltételes modellezés

A feltételes megközelítés célja a bizonytalan reláció modellezése az Y kimeneti és az Xbemeneti változók között. Egyéb elnevezési konvenciók a válasz, kimenetel, függ® és pre-diktor, magyarázó vagy független változók. A bizonytalan reláció modellezésére hasonlóaxiomatikus megközelítéssel adódik a valószín¶ségi megközelítés, amelyben f® cél ismétpredikciós

p(YN+1|XN+1, (X1, Y1), . . . , (XN , YN)). (1.23)

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 12: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

12 A m¶ címe

Analóg módon, egy feltételes felcserélhet®ségi feltevésb®l származtatható egy para-metrikus bayesi megközelítés, hasonlóan a támogatva a �mintha� értelmezését a bayesimegközelítésnek [5]

p(y1, . . . , yN |x1, . . . , xN) =

∫(N∏i=1

p(yi|θ(xi)))p(θ(x)) dθ(x), (1.24)

ahol p(θ(x)) egy prior a p(yi|θ(xi))-t speci�káló parametrikus család felett.

Alapvet® eltérés a tárgyterületi vagy rendszeralapú modellezéshez képest, hogy a be-meneti változók közti összefüggések nincsenek modellezve. Ezen adatok hiányos volta azegyik legnagyobb kihívás a feltételes modellezés gyakorlati alkalmazásánál, amire közelít®,a teljes tárgyterületi modellezést elkerül®, de legalábbis minimalizáló megoldások szélesskálája jött létre (lásd Hiányos adatok kezelése fejezet). Egy elméleti nehézség a feltételesmodellek bayesi alkalmazása terén az úgynevezett konjugált prior hiánya és az ezzel össze-kapcsolódó probléma, hogy a tárgyterületi modellezést®l eltér®en a paraméterek szintje ittanalitikusan nem kezelhet® (lásd Oksági Bayes hálók tanulása fejezet).

A tárgyterületet leíró függetlenségi modell meghatározza a validitását az esetleges fel-tételes modellezésnek, ami statisztikai mintaszám komplexitás és számítási komplexitástekintetében mindenképpen el®nyösebb. Ez a bayesi megközelítésben is megnyilvánul, ésáltalános esetben a p(G), p(θ|G) struktúra és paraméter priorok például Bayes hálókranem dekomponálódik priorokra a p(Y |X) feltételes modell szerint. Például mégha tárgy-területi, a priori kényszerek miatt is a kimeneti változó nem lehet szül®, akkor is függhetennek a változónak a modellje a többi változó közti függésekt®l

p(y|x) =∑G

p(G)

∫Θ

p(y|x, θ,G) dp(θ). (1.25)

Egy pragmatista bayesi megközelítésben, az 1.24 egyenletben azt tesszük fel, hogy az YX-t®l való függésére vonatkozó elvárások függetlenek más tárgyterületi függésekt®l. Ennekformalizálására tételezzük fel, hogy a teljes (Y,X)-ra vonatkozó meg�gyeléseket egy priorp(θ) és egy mintavételi p(Y,X|θ) eloszlás de�niálja, ahol a θ paraméter (φ, ω)-ra bontható,ahol a φ paraméter X-hez tartozik (azaz X 6⊥⊥ φ és (X ⊥⊥ ω|φ)), és ω pedig Y |X-hez tartozik(azaz Y 6⊥⊥ {X,ω} and (Y ⊥⊥ φ|ω,X)). A feltételes megközelítés ekkor formálisan azt teszifel, hogy ω ⊥⊥ φ, azaz a priorok ilyen dekomponoálását, amit az 1.1 ábrán lév® Bayes hálóis illusztrál.

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 13: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

1. fejezet. Valószín¶ségi Bayes hálók tanulása 13

X

Y

1.1. ábra. A bayesi feltételes modellezés feltevéseinek Bayes hálós modellje. A bemenetiés kimeneti változókat X és Y jelöli, a hozzájuk tartozó paramétereket φ és ω (amelyekegyütt alkotják θ-t).

Az ezen feltevés szerint dekomponált priorok jelentik a feltételes megközelítés alapját,mivel teljes meg�gyelés esetén a posteriorok is dekomponálódnak

p(θ|x, y) , p(ω, φ|x, y) ∝ p(x, y|ω, φ)p(ω, φ) (1.26)

= p(y|x, ω)p(x|φ)p(ω|φ)p(φ) (1.27)

= p(y|x, ω)p(ω)p(x|φ)p(φ) (1.28)

∝ p(ω|x, y)p(φ|x). (1.29)

Eszerint, ha csak a feltételes modellre szeretnénk következtetni, azaz ω poszteriorra,akkor a feltételes megközelítésben

p(ω|x, y) ∝∫φ

p(y|x, ω, φ)p(x|φ)p(ω|φ)p(φ) dφ (1.30)

= p(y|x, ω)p(ω) (1.31)

1.2.2. Bayes hálók tanulása feltételes modellként

A hiányos adatkezelés vagy a priori elvárások miatt is a teljes tárgyterületi modell tanulá-sa sok esetben egy minta és számításígényes, de legalább univerzális választásnak t¶nhet.Azonban viszonylagosan kis mintáknál, akár a bayesi keretben is a kés®bb tárgyalt jegy-tanulási módszerekben, a teljes modell tanulása szisztematikusan eltér a feltételes modelltanulásától. Ennek megértéséhez fontoljuk meg a teljes adatra vonatkozó likelihood-t egyolyan G, θ modellnél, amely az X, Y -t tartalmazza [12]:

LL(G, θ;DN) = log p(DN |G, θ) (1.32)

= CLLY (G, θ;DN) +N∑i=1

log p(X i|G, θ) (1.33)

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 14: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

14 A m¶ címe

ahol

CLLY (G, θ;DN) =N∑i=1

log p(Yi|G, θ,X i). (1.34)

Az els® tag a feltételes adat log-likelihood CLLY (G, θ;DN), amelyik kizárólagosanmeghatározza az osztályozást (diszkrét esetet feltételezve). A másik tag annak a kö-vetkezménye, hogy nem feltételes modellosztállyal dolgozunk, és mint látni fogjuk mindbecslési bias-t és nagyobb statisztikai érzékenységet is okoz. Els®ként is, a Bayes hálóáltalános volta miatt az osztályozás szempontjából optimális arg maxθ CLLY (G, θ;DN)parametérek nem egyen®ek a tárgyterületi modell maximum likelihood paramétereivelarg maxθ LLY (G, θ;DN), sem a paraméterek várható értékeivel Ep(θ|G,DN )[θ] (valamelyp(θ) priorral) (ez a nem faktorizálódó normalizációs konstansok miatt is fellép). Ez alólcsak az jelent kivételt, ha a kimeneti Y változó levél csomópont [12]. Másodsorban, aCLLY (G, θ;DN) tag dominált az n− 1 analóg taggal a bemeneti változóknál [12].

1.2.3. Naive Bayes hálók teljesítménye osztályozásban és regresszi-

óban

Az NBN-knek rengeteg sikeres alkalmazása van, akár numerikus vagy folytonos bemene-ti változókkal, mind az osztályozási és mind a regressziós keretben. Mivel az NBN-ekfüggetlenségi feltevése szerint az Y (= X0) központi (gyökér/szül®) változó és az n darabX1, . . . , Xn bemeneti változóra fennáll, hogy Xi ⊥⊥ {Xj : j 6= i}|Y , így adódik a jól ismerteredmény

logP (y|X) =n∑i=1

log p(Xi|y) + logP (y)− logP (X), (1.35)

amely azt mutatja, hogy diszkrét esetben az NBN egy lineáris osztályozó (diszkriminá-tor). Azonban, ha folytonos változók is megengedettek, akkor nemlineáris és egymástólelválasztott régiók is megjelenhetnek döntési tartományoknak [8, 6]. Az NBN-k sikeresalkalmazása osztályozásban, amikor az osztályozás a regressziósbecslésen de�niált egy kü-szöbértékkel, elméleti kutatásokban is vizsgált [10, 6]. J. Friedman mutatta meg, hogy aDN adat statisztikai hatása az osztályozási hibán strukturálisan különbözik a regressziósbecslés L2 predikciós hibájától. A jól ismert �bias-variance� megközelítés szerint az L2

hiba a frekventista megközelítésben regressziós feladatban egy bias és egy variancia tagrabontható [14],

EDN[y − f̂DN

(x)]2 = EDN[f(x)− f̂DN

(x)]2 + E[y − f(x)︸ ︷︷ ︸ε noise

]2 (1.36)

EDN[f(x)− f̂DN

(x)]2 =2

(f(x)− EDN[f̂DN

(x)])︸ ︷︷ ︸bias

+2

EDN[EDN

[f̂DN(x)]− f̂DN

(x)]︸ ︷︷ ︸variance

.

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 15: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

1. fejezet. Valószín¶ségi Bayes hálók tanulása 15

Bináris osztályozásnál a bias tényez® lépcs®s jelleg¶ küszöbhöz kötött sign(12−f)(Ef̂− 1

2) és

a varianciával skálázott var(f̂). Ez azt eredményezi, hogy a regresszióbeli varianciája (azazkomplexitása) a függvényosztálynak nagyobb hangsúlyt kap és a bias-e (azaz kapacitása)pedig kisebbet. Máshogyan fogalmazva az olyan egyszer¶ modellosztály mint a naív BNalkalmatlan lehet regresszióra a szigorú korlátai miatt (bias), de kiváló osztályozásra, mivelvarianciája kicsi [10].

1.2.4. Naive Bayes hálók kiterjesztései

Az NBN modellek szigorú feltevését több módon is próbáltak enyhíteni, így növelve azalkalmazhatóságát: a Tree Augmented NBN (TAN) és a kontextuális multi-háló [12], azAugmented NBN osztályozó [6, 16, 18], stb. A TAN modellosztály egy skálázható ki-terjesztést jelent, így azt ismertetjük. Ebben a modellosztályban (az Y kimeneti és ndarab X1, . . . , Xn bemeneti változó felett) egy teljes N-BN de�niált, amely modellstruk-tura pluszban egy teljes fát is tartalmaz a bemeneti változók csomópontjai között. Ezlehet®vé tesz globális és lokális szenpontok optimalizálásval n − 1 él beillesztését a ma-ximális szül® számot k ≤ 2-n tartva [12]. Kihasználva, hogy teljes DN adat esetén egyadott G struktúránál a θ∗ maximum likelihood paramétereket használva a log-likelihoodfelírható így (levezetésért lásd Oksági modellek tanulása fejezet)

log p(DN |G, θ∗) = Nn∑i=0

I(Xi; Pa(Xi, G))−Nn∑i=1

H(Xi), (1.37)

felhasználva még a kölcsönös információra vonatkozó láncszabályt I(X;Y, Z) = I(X;Z)+I(X;Y |Z), az els®, struktúrától függ® összeg átírható a következ®képpen (külön gy¶jtvea szül®re vonatkozó konstans tagokat)∑

i

Ip̂DN(Xi;Y ) +

∑i:pa(Xi)≥1

Ip̂DN(Xi;Xpa(Xi)|Y ). (1.38)

Ez azt mutatja, hogy a maximum likelihood TAN-t úgy találhatjuk meg, hogy a má-sodik összegzést maximáljuk bevéve a maximális feltételes kölcsönös információjú éleketa �korrelációs� fába a bemeneti változók között. Mivel az élekre a feltételes kölcsönösinformáció O(n2N) id®ben kiszámolható, amib®l ezt az értéket mint élsúly kezelve ma-ximális feszít®fa (MWST) konstruálható O(n2 log n) id®ben, ez egy nagyon hatékony al-goritmust jelent [12]. A módszer hátránya, hogy egy teljes fát épít fel akkor is, ha abemeneti változók az NBN feltevés szerint feltételesen függetlenek, de ez tesztekkel el iskerülhet®, illetve komplexitásnövel®hatása mintakomplexitás emelkedés tekintetében mér-sékelt.Általánosabb módszerek nem csak fát, hanem általános DAG struktúrát is meg-engednek a bemeneti változók közös szül®/gyökér változóval feltételes függéseinek repre-zentálására, például k maximális szül®számot el®írva, azonban 1 < k-ra már NP-teljesaz optimális bemeneti változók feletti DAG megkeresése, így általános tanulási eljárásokszükségesek.

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 16: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

16 A m¶ címe

1.2.5. Teljes modellátlagolás NBN-k felett

Ay NBN-kkel való következtetés hatékonyságát, változók számában lineáris voltát, egypontparametrizáció mellett vizsgáltuk meg. Ez a lineáris komplexitás a paraméterek bayesikezelése esetében is gyakran megmarad, mivel ha p(Θ|G) jelöl egy adott struktúra mellettiparamétereloszlást, akkor egy értékek szintjén történ® következtetésben a paramétertérfelett átlagolás

EΘ[p(y|x,Θ)] = p̄(y|x). (1.39)

adott, praktikus feltételek mellett analitikusan elvégezhet® (lásd Oksági modellek ta-nulása fejezet). Egy meglep® eredmény szerint ez a lineáris komplexitás még akkor ismegtartható, ha a struktúrák felett is átlagolni kell, azaz ha a 2n struktúrák feletti p(G) el-oszlás követi a tárgyterületi függetlenségek szerinti dekompozíciót, akkor létezik egy olyan�szuper-(pont)paraméterezés�, amely ezt is képes reprezentálni [4]. Els®ként is idézzükfel, hogy x teljes meg�gyelés esetében a feltételes eloszlás p(y|x) kiszámolható a p(Y, x)együttes eloszlásból O(n) id®ben, az NBN-ket de�náló szorzatalakból

p(Y |x, θ,G) ∝ p(Y, x, θ,G) = p(Y )n∏i=1

p(xi| pa(Xi, G)) =n∏i=0

p(xi| pa(Xi, G)). (1.40)

Másodsorban, Dirichlet paraméterpriorokat használó paraméterfüggetlenség esetén aparaméterek feletti integrálás elkerülhet® a lokális modellekbeli valószín¶ségek várhatóértékeinek használatával (lásd ?? egyenlet).

p(y, x) =∑G

p(G)

∫p(y, x, θ,G) dp(θ) =

∑G

p(G)n∏i=0

p(xi| pa(Xi, G)). (1.41)

Teljes DN adatok esetén ez a tulajdonság a poszteriorokra is teljesül (lásd ?? egyenlet).Harmadrészt, struktúrális modularitást feltéve, a astruktúrák felett prior az p(Y →

Xi ∈ Edges(G)) élek a priori élvalószín¶ségeinek szorzataként de�niálható, amely a DAGkényszerrel való kompatibilitása miatt egy normalizált priort de�niál. Elméletilleg a követ-keztésbe belép®, akár részleges x is befolyálja a poszterior, de ezt �gyelmen kívül hagyjuk.

Ekkor a struktúrák feletti poszteriorra az alábbi szorzat alak adódik (lásd ?? egyenlet,a normalizáció minden változóra függetlenül végezhet® el megfontolva a két lehetségesesetet, hogy Y szül®-e vagy nem)

p(G|DN) =n∏i=0

p(Pa(Xi, G)|DN). (1.42)

és jelölje p1i p(Pa(Xi, G) = Y |DN)-t és p0

i p(Pa(Xi, G) 6= Y |DN)-t (kihasználva, hogyp0

0 = p0Y = 0).

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 17: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

1. fejezet. Valószín¶ségi Bayes hálók tanulása 17

Kombinálva az 1.40,az 1.41 és az 1.42 egyenleteket kapjuk, hogy

p(y, x|DN) (1.43)

=∑G

n∏i=0

p(pa(Xi)G, DN)p(xi|pa(Xi)

G, DN) (1.44)

=∑

paGX1=Y

paGX16=Y

. . .∑

paGXn=Y

paGXn6=Y

n∏i=0

p(pa(Xi)G|DN)p(xi|pa(Xi)

G, DN) (1.45)

=n∏i=0

p0i p(xi|pa(Xi)

G 6= Y,DN) + p1i p(xi|pa(Xi)

G = Y,DN) (1.46)

=n∏i=0

p∗(xi|pa(Xi)G = Y,DN) (1.47)

ahol az utolsó lépésben felhasználtuk az összeg-szorzat felcserését. Ez azt mutatja, hogyegy pontparaméterezés konstruálható egy teljes NBN modellre O(n) id®ben, amellyelaz 1.41 egyenletbeli prediktív következtetés � 2n modellstruktúra és paramétertér felettiátlagolás � O(n) id®ben elvégezhet®.

1.3. Egy információelméleti pontszám Bayes háló tanu-

lásához

Az általános valószín¶ségi Bayes hálók tanulásához a jelen fejezetben egy információelméle-ti pontszámot mutatunk be. A Bayes hálók általános, gazdagabb, akár oksági vonatkozásúpriorokat is befogadó tanulását az Oksági Bayes hálók tanulása fejezetben ismertetjük.

A frekventista paradigmában tételezzünk fel teljes, diszkrét, azonos eloszlású, független(i.i.d.) mintákat és de�niáljunk egy maximum likelihood pontszámot a következ®képpen

ML(G;DN) = maxθp(DN |G, θ) (1.48)

Adott G struktúránál az 1.3 egyenlet szerint ezt a θ∗ijk = Nijk/Nij+ relatív gyakoriságokmaximálják, ahol Nijk jelöli az xk érték és qj szül®i kon�guráció együttes el®fordulásánakszámát Xi változó és Pa(Xi) szül®i halmazára nézve (Nij+ az értelemszer¶ összeget jelen-ti) [?, ?]. Behelyettesítve ezt a maximum likelihood paramétert kapjuk, hogy

ML(G;DN) = p(DN |G, θ∗) =N∏l=1

n∏i=1

p(x(l)i |pa

(l)i ) (1.49)

=n∏i=1

qi∏j=1

ri∏k=1

Nijk

Nij+

Nijk

, (1.50)

Logaritmust véve, összegzési sorrendet cserélve és N -nel b®vítve adódik, hogy

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 18: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

18 A m¶ címe

log(ML(G;DN)) = N

n∑i=1

qi∑j=1

Nij+

N

ri∑k=1

Nijk

Nij+

log(Nijk/Nij+). (1.51)

Felhasználva a feltételes entrópia de�níciójátH(Y |X) =∑

x p(x)∑

y p(y|x) log(p(y|x)),az entrópiára vonatkozó láncszabályt H(X, Y ) = H(Y |X) + H(X) és a kölcsönös infor-máció de�nícióját I(Y ;X) = H(Y )−H(Y |X) [3], ez átírható a következ®képpen

log(ML(G;DN)) = −Nn∑i=1

H(Xi|Pa(Xi, G)) (1.52)

= −NH(X1, . . . , Xn) (1.53)

= Nn∑i=1

I(Xi;Pa(Xi, G))−Nn∑i=1

H(Xi). (1.54)

(1.55)

Ezt azt mutatja,hogy a de�niált maximum likelihood pontszámot maximalizáló Bayesháló értelmezhet® úgy, mint ami entrópiát minimalizál avagy az általa elérhet® kódolásis legrövidebb hosszúságú, ami a �Minimum Description Length� tömörítési elvet tükrözi(lásd 1.53), másrészt úgyis, hogy maximalizálja a szül®k és a gyerekeik közti kölcsönösinformációt (lásd 1.54, ahol a struktúrától független tagokat értelemszer¶en nem számíta-nak). Nagyon érdekes kapcsolat, hogy a változók azon sorrendje, amely ilyen értelembenmaximális meghatározottságot mutat az mennyiben használható fel oksági sorrendek ki-következtetésére [7].

A de�niált pontszám struktúra tanulásban való felhasználásához azonban �gyelembekell venni a kölcsönös információ monotonitását, nevezetesen, hogy ha Pa(Xi) ⊂ Pa(Xi)

′,akkor I(Xi;Pa(Xi) ≤ I(Xi;Pa

′(Xi) [3], azaz a teljes DAG maximalizálja a pontszámot.Ezt egy komplexitás regularizációs tag tudja kezelni, amely a �Bayesian information criter-ion� (BIC) pontszám esetében a következ® teljes pontszámot eredményezi (származtatásátés egyéb pontszámokat az Oksági Bayes hálók fejezetben tárgyalunk [17, 1, 2, 13, 15])

BIC(G;DN) = log(ML(G;DN))− 1

2dim(G) log(N), (1.56)

ahol dim(G) a szabad paraméterek számát jelöli.

www.tankonyvtar.hu c© szerz® neve, egyetem

Page 19: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

Irodalomjegyzék

[1] R. R. Bouckaert. Bayesian Belief Networks: From construction to inference. Ph.D.Thesis, Dept. of Comp. Sci., Utrecht University, Netherlands, 1995.

[2] D. M. Chickering, D. Geiger, and D. Heckerman. Learning Bayesian networks: Searchmethods and experimental results. In Proceedings of Fifth Conference on Arti�cialIntelligence and Statistics, pages 112�128, 1995.

[3] T. M. Cover and J. A. Thomas. Elements of Information Theory. Wiley & Sons,2001.

[4] D. Dash and G. F. Cooper. Exact model averaging with naive Bayesian classi�ers. InProceedings of the Nineteenth International Conference on Machine Learning, pages91�98, 2002.

[5] D. G. T. Denison, C. C. Holmes, B. K. Mallick, and A. F. M. Smith. BayesianMethods for Nonlinear Classi�cation and Regression. Wiley & Sons, 2002.

[6] P. Domingos and M. Pazzani. On the optimality of the simple Bayesian classi�erunder zero-one loss. Machine Learning, 29:103�130, 1997.

[7] M. J. Druzdzel and H. Simon. Causality in Bayesian belief networks. In DavidHeckerman and Abe Mamdani, editors, Proceedings of the 9th Conf. on Uncertaintyin Arti�cial Intelligence (UAI-1993), pages 3�11. Morgan Kaufmann, 1993.

[8] R. O. Duda, P. E. Hart, and D. G. Stork. Pattern classi�cation. Wiley & Sons, 2001.

[9] R. Durbin, S. R. Eddy, and A. Krogh anf G. Mitchison. Biological Sequence Analysis :Probabilistic Models of Proteins and Nucleic Acids. Chapman & Hall, London, 1995.

[10] J. H. Friedman. On bias, variance, 0/1-loss, and the curse of dimensionality. DataMining and Knowledge Discovery, 1(1):55�77, 1997.

[11] N. Friedman. The Bayesian structural EM algorithm. In Proc. of the 14th Conf. onUncertainty in Arti�cial Intelligence(UAI-1998), pages 129�138. Morgan Kaufmann,1998.

[12] N. Friedman, D. Geiger, and M. Goldszmidt. Bayesian networks classi�ers. MachineLearning, 29:131�163, 1997.

c© szerz® neve, egyetem www.tankonyvtar.hu

Page 20: Jelölések - home.mit.bme.huhome.mit.bme.hu/~horvath/IDA/IDAJegyzet... · akár közelít® módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt agyv

20 A m¶ címe

[13] N. Friedman and Z. Yakhini. On the sample complexity of learning Bayesian networks.In Proc. of the 12th Conf. on Uncertainty in Arti�cial Intelligence (UAI-1996), pages274�282. Morgan Kaufmann, 1996.

[14] S. Geman, S. Bienenstock, and R. Doursat. Neural networks and the bias/variancedilemma. Neural Computation, 4:1�58, 1992.

[15] D. Heckermann. A tutorial on learning with Bayesian networks., 1995. TechnicalReport, MSR-TR-95-06.

[16] E. Keogh and M. Pazzani. Learning the structure of augmented Bayesian classi�ers.International Journal of Arti�cial Intelligence Tools, 11(4):587�601, 2002.

[17] W. Lam and F. Bacchus. Using causal information and local measures to learnBayesian networks. In David Heckerman and Abe Mamdani, editors, Proc. of the9th Conference on Uncertainty in Arti�cial Intelligence (UAI-1993), pages 243�250.Morgan Kaufmann, 1993.

[18] P. Lucas. Restricted Bayesian network structure learning. In H. Blockeel and M. Dene-cker, editors, Proc. of 14th Belgian-Dutch Conference on Arti�cial Intelligence (BNA-IC'02), pages 211�218, 2002.

[19] S. Russel and P. Norvig. Arti�cial Intelligence. Prentice Hall, 2001.

www.tankonyvtar.hu c© szerz® neve, egyetem