Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske...

9
Odre divanje neodre denosti hadronske strukture metodama strojnog uˇ cenja Ivan ´ Cori´ c 20. sijeˇ cnja 2019. Saˇ zetak U ovom seminaru prouˇ cava se mogu´ cnost ekstrakcije Comptonskih form faktora (CFF) iz umjetnih (engl. mock) podataka, kako bismo dobili uvid u kvalitetu istog postupka na realnim, eksperimentalnim podacima. Kako ne bismo unijeli pristranost pri izboru modela, za mo- del CFF funkcija biramo neuronske mreˇ ze. Svaki CFF opisujemo neuronskom mreˇ zom te ih uˇ cimo na umjet- nim podacima. Relativno uspjeˇ sno uspijemo ekstrahirati samo CFF funkciju koja najviˇ se doprinosi odgovaraju´ coj opservabli. 1 Uvod Poznavanjem generaliziranih partonskih distibucija (GPD-ova): H q , E q , ˜ H q , ˜ E q , H q T , ˜ H q T , E q T , ˜ E q T dobiva se detaljna slika raspodjele kvarkova i gluona u nukleonu kao ˇ sto je opisano u [1]. To je dugoroˇ cni cilj istraˇ zivanja i jedan od razloga konstrukcije novog EIC sudarivaˇ ca. GPD-ovi su povezani s Comptonskim form faktorima (CFF-ovima): H, E , ˜ H, ˜ E , H T , E T , ˜ H T , ˜ E T , tzv. faktorizacijskim formulama kao u [2]: F (η , t )= q e 2 q Z 1 -1 dx × 1 η - x - iε - 1 η + x - iε F q (x, η , t ), (1) ˜ F (η , t )= q e 2 q Z 1 -1 dx × 1 η - x - iε + 1 η + x - iε ˜ F q (x, η , t ), (2) gdje je F = H, E , ..., a F q = H q , E q , . . . CFF-ovi su kompleksne funkcije koje su neˇ sto jednostavnije od GPD-ova jer ovise samo o dvije varijable: bezdimenzi- onalnoj veliˇ cini η koju moˇ zemo povezati s Bjorkenovim x-om te Mandelstamovoj t varijabli. Slika 1: Leptoprodukcija realnog fotona kao kohe- rentna superpozicija DVCS i Bethe-Heitler amplituda. Posu deno iz [2]. Glavni eksperiment za odre divanje CFF funkcija je duboko virtualno komptonsko rasprˇ senje (DVCS). U tom eksperimentu ulazni foton je virtualan i dobiva se zraˇ cenjem leptona, dakle glavni proces je ep epγ (tzv. leptoprodukcija fotona). Toj leptoprodukciji doprinosi i druga amplituda, tzv. Bethe-Heitler rasprˇ senje koje moˇ zemo vidjeti na slici 1. U eksperimentu se mjeri udarni presjek za ep epγ i on je dan kao dosta kom- plicirana funkcija nepoznatih CFF-ova. Kljuˇ cno pitanje je kako iz mjerenja DVCS-a odre- diti kompleksne CFF funkcije. U najniˇ zem redu dopri- nose ˇ cetiri kompleksne CFF funkcije, H, E , ˜ H, ˜ E .U ovom seminaru smo se koncentrirali na situaciju u ko- joj imamo rasprˇ senje polariziranog elektrona na nepo- lariziranom protonu, za ˇ sto ima dosta mjerenja koja se obiˇ cno onda izraˇ zavaju kao ”nepolarizirani” udarni pre- sjek σ (tj. zbroj spin-up i spin-down snopa, engl. beam spin sum - BSS) te ”polarizirani” udarni presjek Δσ (nji- hova razlika, engl. beam spin difference - BSD) te kao njihov omjer σ BSA = Δσ /σ (engl. beam spin asymme- try - BSA). Mi u ovom seminaru ˇ zelimo saznati koliko dobro moˇ zemo ekstrahirati CFF funkcije na temelju iz- mjerenih podataka. Kako ne bismo unijeli pristranost u odabir modela CFF opisujemo neuronskim mreˇ zama.

Transcript of Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske...

Page 1: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Odredivanje neodredenosti hadronske strukture metodama strojnog ucenja

Ivan Coric20. sijecnja 2019.

SazetakU ovom seminaru proucava se mogucnost ekstrakcijeComptonskih form faktora (CFF) iz umjetnih (engl.mock) podataka, kako bismo dobili uvid u kvalitetu istogpostupka na realnim, eksperimentalnim podacima. Kakone bismo unijeli pristranost pri izboru modela, za mo-del CFF funkcija biramo neuronske mreze. Svaki CFFopisujemo neuronskom mrezom te ih ucimo na umjet-nim podacima. Relativno uspjesno uspijemo ekstrahiratisamo CFF funkciju koja najvise doprinosi odgovarajucojopservabli.

1 Uvod

Poznavanjem generaliziranih partonskih distibucija(GPD-ova): Hq, Eq, Hq, Eq, Hq

T , HqT , Eq

T , EqT dobiva

se detaljna slika raspodjele kvarkova i gluona u nukleonukao sto je opisano u [1]. To je dugorocni cilj istrazivanjai jedan od razloga konstrukcije novog EIC sudarivaca.GPD-ovi su povezani s Comptonskim form faktorima(CFF-ovima): H, E , H, E , HT, ET, HT, ET, tzv.faktorizacijskim formulama kao u [2]:

F(η , t) = ∑q

e2q

∫ 1

−1dx

×[

1η− x− iε

− 1η + x− iε

]Fq(x,η , t),

(1)

F(η , t) = ∑q

e2q

∫ 1

−1dx

×[

1η− x− iε

+1

η + x− iε

]Fq(x,η , t),

(2)

gdje je F = H, E , . . . , a Fq = Hq, Eq, . . . CFF-ovisu kompleksne funkcije koje su nesto jednostavnije odGPD-ova jer ovise samo o dvije varijable: bezdimenzi-onalnoj velicini η koju mozemo povezati s Bjorkenovimx-om te Mandelstamovoj t varijabli.

Slika 1: Leptoprodukcija realnog fotona kao kohe-rentna superpozicija DVCS i Bethe-Heitler amplituda.Posudeno iz [2].

Glavni eksperiment za odredivanje CFF funkcija jeduboko virtualno komptonsko rasprsenje (DVCS). Utom eksperimentu ulazni foton je virtualan i dobiva sezracenjem leptona, dakle glavni proces je ep→ epγ (tzv.leptoprodukcija fotona). Toj leptoprodukciji doprinosii druga amplituda, tzv. Bethe-Heitler rasprsenje kojemozemo vidjeti na slici 1. U eksperimentu se mjeriudarni presjek za ep→ epγ i on je dan kao dosta kom-plicirana funkcija nepoznatih CFF-ova.

Kljucno pitanje je kako iz mjerenja DVCS-a odre-diti kompleksne CFF funkcije. U najnizem redu dopri-nose cetiri kompleksne CFF funkcije, H, E , H, E . Uovom seminaru smo se koncentrirali na situaciju u ko-joj imamo rasprsenje polariziranog elektrona na nepo-lariziranom protonu, za sto ima dosta mjerenja koja seobicno onda izrazavaju kao ”nepolarizirani” udarni pre-sjek σ (tj. zbroj spin-up i spin-down snopa, engl. beamspin sum - BSS) te ”polarizirani” udarni presjek ∆σ (nji-hova razlika, engl. beam spin difference - BSD) te kaonjihov omjer σBSA = ∆σ/σ (engl. beam spin asymme-try - BSA). Mi u ovom seminaru zelimo saznati kolikodobro mozemo ekstrahirati CFF funkcije na temelju iz-mjerenih podataka. Kako ne bismo unijeli pristranost uodabir modela CFF opisujemo neuronskim mrezama.

Page 2: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

2 Neuronske mreze

Umjetne neuronske mreze motivirane su bioloskim ne-uronskim mrezama te njihovom sposobnoscu da nauceuspjesno obavljati kompleksne zadatke.

Slika 2: Usporedba bioloskog te umjetnog neurona.Slika je posudena s [3].

Na slici 2 su prikazani bioloski te umjetni neuron. Bi-oloski neuron koristi dendrite da prihvati ulazne signale,ulazni signali prolaze kroz tijelo neurona te izlaze krozakson. Na slican nacin umjetni neuron obraduje podatke.Pretpostavimo da je ulazni podatak n-dimenzionalan.Komponente jednog ulaznog podatka oznacavamo sx1, x2, ..., xn. Svaka komponenta biva pomnozena s od-govarajucom tezinom te se tako transformirani ulazni po-daci sumiraju te im se jos pribroji pristranost (engl. bias)kao:

uk =n

∑j=1

wk jx j +bk, (3)

gdje je bk jos jedan parametar kojeg nazivamo pris-tranoscu (engl. bias), a k odgovara indeksu neurona.Takva suma se propusta kroz nelinearnu funkciju f kao

fk = f (uk). (4)

Funkcija f mora biti nelinearna kako bi se mogle mo-delirati i nelinearne funkcije (jer je linearna kombinacijalinearnih kombinacija opet linearna funkcija pa bi mrezamogla opisivati samo linearne funkcije). Za f se izmeduostalih najcesce uzimaju tangens hiperbolni, sigmoidalnafunkcija, ReLU itd. Te funkcije mozemo vidjeti na slici3.

Slika 3: Prikaz tangensa hiperbolnog, ReLU te sigmo-idalne funkcije. Slika posudena s [4].

Slika 4: Prikaz neuronske mreze. Slika posudena s [5].

Neurone nadalje slazemo u slojeve kao sto je prika-zano na slici 4. Podaci se predaju svakom neuronu uprvom sloju. Izlazi neurona prvog sloja predaju se naulaz neurona u drugom sloju itd. Brojevi neurona u sva-kom sloju mogu biti proizvoljni. Ovisno o zadatku kojise rjesava (regresija, klasifikacija slika, semanticka seg-mentacija, detekcija objekata, obrada prirodnog jezika(engl. natural language processing), ...) arhitektura ne-uronske moze biti znacajno razlicita pa tako imamo ko-nvolucijske neuronske mreze, mreze s povratnom vezom(engl. recurrent), ...

Neuronska mreza predstavlja model koji kao parame-tre ima tezine i bias-e za svaki neuron. Kako bi model sasto vecom tocnoscu obavljao zadatak koji bismo htjeli,moramo nauciti parametre neuronske mreze. Ucenje seodvija odvija algoritmom propagacije unazad (engl. bac-kpropagation) ciju ideju cemo ukratko opisati.

Nakon sto ulazni podaci produ kroz neuronsku mrezu

2

Page 3: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

dobivamo izlaz iz mreze. Prepostavimo da su nam poz-nati podaci tj. dio znanja koje zelimo nauciti nasu ne-uronsku mrezu tj. imamo ulazne i izlazne podatke (takavtip ucenja nazivamo nadzirano ucenje). Za svaki poda-tak tada mozemo usporediti dobiveni izlaz iz mreze sodgovarajucim izlaznim podatkom. Tada mozemo de-finirati funkciju gubitka (engl. loss function) koja namgovori koliko mreza lose odredila izlazne podatake (npr.mozemo je definirati kao sumu kvadratnih odstupanja).Cilj je minimizirati tu funkciju (tj. smanjiti gresku).To radimo tako da deriviramo funkciju po svakom pa-rametru, dobijemo gradijente za svaki parametar, te ihpromijenimo za taj gradijent pomnozen s nekom malomkonstantom (odredeno hiperparametrom, tzv. stupnjemucenja (engl. learning rate)). Moze se pokazati da se di-jelovi racuna gradijenata koji se dobiju u slojevima blizeizlazu mogu upotrijebiti za racunanje gradijenata u nizimslojevima pa se ta operacija moze izracunati efikasnije.To je ideja algoritma propagacije unatrag (tj. gradijentise propagiraju iz visih slojeva u nize).

Slika 6: Prikaz mock podataka.

3 Rezultati

Kako bismo provjerili koliko dobro mozemo koristitineuronske mreze na stvarnim podacima, odlucili smoprovesti eksperimente na umjetnim (tzv. mock) poda-cima. Uzeli smo kao primjer popularni Goloskokov-Kroll (GK) model za modeliranje CFF funkcija. Ondasmo koristeci GK model generirali podatke za razlicitevrijednosti Mandelstamove t varijable, u te podatke smounijeli sum i pokusali na tim sumovitim podacima stobolje ekstrahirati CFF funkcije u GK modelu. Zada-tak nam je bio probati dobiti sto bolje rezultate za eks-trakciju CFF funkcija u jednoj dimenziji (fiksni η) te udvije dimenzije. Na slici 5 prikazani su CFF-ovi za GK

model te je na slici 6 prikaz umjetnih (mock) podataka.Za pocetak radimo eksperimente samo na jednodimen-zionalnom skupu za fiksan Bjorkenov x, xB = 0.13, stofiksira varijablu η , a razlicite vrijednosti Mandelstamovet varijable.

Slika 7: Prikaz naucenog σBSA gjde je plava krivulja σBSAu GK modelu dok je zelena naucena krivulja.

Nad umjetnim podacima nadalje radimo uobicajenu,slucajnu podjelu u skup za treniranje i validaciju uomjeru 2 : 1. Tada ucimo model na skupu za treniranje tena skupu za validaciju testiramo kako radi na podacimakoje jos nije vidio tj. koliko dobro generalizira. Kao naj-bolje rjesenje uzimamo model koji postize najmanju po-gresku na validacijskom skupu. Kao pogresku smo uzeliuobicajenu pogresku kvadratnog odstupanja.

Slika 8: Prikaz naucenog ImH gjde je plava krivuljaImH u GK modelu dok je zelena naucena krivulja.

3

Page 4: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Slika 5: Prikaz comptonskih form faktora u GK modelu za fiksni η .

4

Page 5: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Svaki od CFF-ova opisujemo zasebnom neuronskommrezom te treniramo mrezu na mnogo razlicitih nacina.Kada bismo sve CFF funkcije trenirali istovremeno, mo-del ne bi naucio niti jedan CFF vec bi uspio postici dobroopisivanje σBSA (dano na slici 7) drugacijom kombinaci-jom CFF funkcija kao sto je prikazano na slici 9.

To nas je potaknulo da prvo pokusamo nauciti najvecidoprinos σBSA sto cini imaginarnio dio CFF H funk-cije, dok sve ostale CFF funkcije drzimo zamrznutim.Taj pristup se pokazao dobar te smo relativno uspjesnonaucili imaginarnio dio H funkcije kao sto je prikazanona slici 8.

Nadalje spremili smo tezine za tako nauceni imagi-narnio dio H funkcije. U sljedecim treninzima smopokusavali nauciti sljedeci ili sljedeca dva doprinosaσBSA. Pokrenuli smo stotine eksperimenata s mnostvomrazlicitih hiperparametara. Pokusavali smo mijenjati du-binu mreze za sljedeca dva doprinosa, no to nije dovelodo ucenja istih. Kako je σBSA vec relativno uspjesnonaucena, s naucenim glavnim doprinosom (ImH) gradi-jenti koji se propagiraju unatrag do mreza sljedecih do-prinosa su maleni. Uz to, sljedeca dva doprinosa su zared do dva velicine (kao u [6]) manja od glavnog (ImH)doprinosa te gradijenti bivaju jos vise umanjeni. Ondasmo pokusali provoditi eksperimente s razlicitim lear-ning rate-ovima koji bi se kretali izmedu nekoliko redovavelicine (npr. od 10−2 do 108 ) za svakog od sljedecadva doprinosa nakon ImH (tj. radili smo pretragu poresetci za learning rate hiperparametar (engl. grid se-arch)), no niti to nije pomoglo, jedino sto smo uspjelinauciti je pristranost za imaginarni dio E CFF funkcijekao sto mozemo vidjeti na slici 10.

Nakon tih eksperimenata pokusavali smo poceti treni-rati druga dva doprinosa, ali ovaj put prije nego se ImHpotpuno naucio kako bi gradijenti bili veci za preostalefunkcije, no niti tako nismo uspjeli nauciti sljedeca dvadoprinosa.

Nakon treniranja modela u jednoj dimenziji odlucilismo pokusati vidjeti kako model funkcionira u dvije di-menzije tj. za proizvoljne η (odnosno Bjorkenov x) teMandelstamovu varijablu t. Provodili smo iste tipoveeksperimenata koji ovoga puta trajali znatno duze zbogtoga sto ima mnogo vise podataka. Nakon prvog tipatreninga uspjeli smo dobiti relativno dobar ImH kao stomozemo vidjeti na slici 11, pripadni σBSA je dan na slici12.

Slika 11: Prikaz naucene ImH funkcije (zelena ploha) teodgovarajuce funkcije u GK modelu (plava ploha).

Slika 12: Prikaz naucene σBSA te odgovarajuce funkcijeu GK modelu.

Nakon treniranja samo ImH, kao i u jednodimenzi-onalnom slucaju pocinjemo trenirati i ostale CFF funk-cije, no ovdje smo odlucili od samog pocetka zanemaritisve doprinose osim ImH i ImE , koji nakon ImH najvisedoprinose (vidi [6]), kako brzina izvodenja ne bi bila pre-mala. Dobiveni rezultati dani su na slikama 13 i 14.

5

Page 6: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Slika 9: Prikaz naucenih comptonskih form faktora gdje su plavom bojom oznacene CFF funkcije u GK modelu, azelenom bojom naucene CFF funkcije.

6

Page 7: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Slika 10: Prikaz naucenih comptonskih form faktora gdje su plavom bojom oznacene CFF funkcije u GK modelu, azelenom bojom naucene CFF funkcije.

7

Page 8: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Slika 13: Prikaz naucene σBSA te odgovarajuce funkcijeu GK modelu.

4 Zakljucak

U ovom seminaru proucavali smo koliko dobro mozemoekstrahirati CFF funkcije pomocu neuronskih mreza izumjetnih podataka, tako da bolje razumijemo nesigur-nost tog postupka kada ga radimo na realnim ekspe-rimentalnim podacima. Iscrpnim eksperimentiranjem,za jednodimenzionalne (fiksni η), kao i za dvodimenzi-onalne podatke uspjeli smo relativno dobro ekstrahiratisamo CFF funkciju koja najvise doprinosi σBSA.

Literatura

[1] A. Accardi, J. L. Albacete, M. Anselmino, N. Ar-mesto, E. C. Aschenauer, A. Bacchetta, D. Boer,W. K. Brooks, T. Burton, N. B. Chang, W. T. Deng,A. Deshpande, M. Diehl, A. Dumitru, R. Dupre,R. Ent, S. Fazio, H. Gao, V. Guzey, H. Hakobyan,Y. Hao, D. Hasch, R. Holt, T. Horn, M. Huang,A. Hutton, C. Hyde, J. Jalilian-Marian, S. Klein,B. Kopeliovich, Y. Kovchegov, K. Kumar, K. Ku-mericki, M. A. C. Lamont, T. Lappi, J. H. Lee,Y. Lee, E. M. Levin, F. L. Lin, V. Litvinenko, T. W.Ludlam, C. Marquet, Z. E. Meziani, R. McKeown,A. Metz, R. Milner, V. S. Morozov, A. H. Mueller,B. Muller, D. Muller, P. Nadel- Turonski, H. Pauk-kunen, A. Prokudin, V. Ptitsyn, X. Qian, J. W. Qiu,M. Ramsey- Musolf, T. Roser, F. Sabatie, R. Sassot,G. Schnell, P. Schweitzer, E. Sichtermann, M. Strat-mann, M. Strikman, M. Sullivan, S. Taneja, T. Toll,

D. Trbojevic, T. Ullrich, R. Venugopalan, S. Vigdor,W. Vogelsang, C. Weiss, B. W. Xiao, F. Yuan, Y. H.Zhang, and L. Zheng. Electron Ion Collider: TheNext QCD Frontier - Understanding the glue thatbinds us all. arXiv e-prints, page arXiv:1212.1701,December 2012.

[2] Kresimir Kumericki, Simonetta Liuti, and HerveMoutarde. GPD phenomenology and DVCS fitting.Entering the high-precision era. European PhysicalJournal A, 52:157, June 2016.

[3] Nagyfi Richard. The differences betweenartificial and biological neural networks.https://towardsdatascience.com/the-differences-between-artificial-and-

biological-neural-networks-a8b46db828b7,2018. [Online; accessed 18-January-2019].

[4] Activation functions. https://www.julyedu.com/question/big/kp id/26/ques id/1044.[Online; accessed 18-January-2019].

[5] Peter Kottas. https://www.quora.com/How-does-deep-learning-work-and-how-is-it-

different-from-normal-neural-networks-

applied-with-SVM-How-does-one-go-about-

starting-to-understand-them-papers-

blogs-articles. [Online; accessed 18-January-2019].

[6] P. Kroll, H. Moutarde, and F. Sabatie. From hardexclusive meson electroproduction to deeply virtualCompton scattering. European Physical Journal C,73:2278, January 2013.

8

Page 9: Odredivanje neodredenosti hadronske strukture metodama ... · 2 Neuronske mreˇze Umjetne neuronske mreze motivirane su bioloˇ ˇskim ne-uronskim mrezama te njihovom sposobnoˇ ˇscu

Slika 14: Prikaz naucenih comptonskih form faktora gdje su plavom bojom oznacene CFF funkcije u GK modelu, azelenom bojom naucene CFF funkcije.

9