Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu...

21
BAB II LANDASAN TEORI 2. 1 Fungsi Produksi Fungsi produksi menunjukkan hubungan antara input (masukan) dan output (keluaran) yang dihasilkan dari suatu proses produksi (Nicholson, 2005). Secara matematis fungsi produksi dapat dituliskan sebagai berikut Q=f ( K,L,M,… ) (2.1) dimana Q menunjukkan output, K sebagai kapital, L sebagai tenaga kerja, M sebagai bahan baku, dan tanda titik-titik menunjukkan kemungkinan adanya faktor lain yang mempengaruhi proses produksi. Dalam literatur, pembahasan tentang fungsi produksi umumnya dilakukan dengan simplikasi yang hanya mempertimbangkan dua jenis input yaitu kapital dan tenaga kerja atau Q=f ( K,L). Terdapat empat jenis fungsi produksi, yaitu 1. Fungsi produksi linear 2. Fungsi produksi fixed proportion 3. Fungsi produksi Cobb-Douglass 4. Fungsi Produksi CES (Constant Elasticity of Subtitution) Untuk kesesuaian dengan tugas ekperimen, landasan teoritis yang dikemukakan dalam bab ini hanya membahas dua jenis fungsi produksi yaitu fungsi produksi Cobb- Douglass dan fungsi produksi CES. 4

Transcript of Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu...

Page 1: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

BAB II LANDASAN TEORI2. 1 Fungsi Produksi

Fungsi produksi menunjukkan hubungan antara input (masukan) dan output (keluaran) yang dihasilkan dari suatu proses produksi (Nicholson, 2005). Secara matematis fungsi produksi dapat dituliskan sebagai berikut Q=f (K , L , M , …) (2.1)

dimana Q menunjukkan output, K sebagai kapital, L sebagai tenaga kerja, M sebagai bahan baku, dan tanda titik-titik menunjukkan kemungkinan adanya faktor lain yang mempengaruhi proses produksi. Dalam literatur, pembahasan tentang fungsi produksi umumnya dilakukan dengan simplikasi yang hanya mempertimbangkan dua jenis input yaitu kapital dan tenaga kerja atau Q=f (K , L). Terdapat empat jenis fungsi produksi, yaitu 1. Fungsi produksi linear 2. Fungsi produksi fixed proportion 3. Fungsi produksi Cobb-Douglass 4. Fungsi Produksi CES (Constant Elasticity of Subtitution) Untuk kesesuaian dengan tugas ekperimen, landasan teoritis yang dikemukakan dalam bab ini hanya membahas dua jenis fungsi produksi yaitu fungsi produksi Cobb-Douglass dan fungsi produksi CES.2.1.1 Fungsi Produksi Cobb-Douglass

Fungsi produksi Cobb-Douglas dibuat oleh matematikawan Charles W. Cobb dan ekonom Faul H. Douglas sekitar tahun 1928. Model matematis fungsi produksi Cobb-Douglas adalah (Nicholson, 2005):4

Page 2: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

Q=f ( K , L )=A Kα Lβ (2.2)dengan Q adalah output, K adalah kapital, dan L adalah tenaga kerja. A, α , dan β adalah parameter positif yang konstan. Jika additive disturbance term yang i.i.d (independent indentically distributed) dimasukkan dalam persamaan (2.2), maka fungsi produksi Cobb-Douglas dapat memiliki beberapa bentuk, antara lain:Pertama, Qt=A Lt

β 1 K tβ 2 et . Bentuk ini dapat ditranformasi dalam bentuk fungsi linier menjadi ln Qt=ln A+β1 ln Lt+β2 ln K t +ln e t, sehingga dapat diestimasi dengan teknik statistik linier.

Kedua, Qt=A Ltβ 1 K t

β 2+et . Bentuk ini tidak dapat ditranformasi dalam bentuk fungsi linier. Dengan kata lain fungsi tersebut adalah fungsi produksi Cobb-Douglas non-linier sehingga harus diestimasi dengan teknik statistic non linier yang selanjutnya menjadi salah satu pembahasan dalam eksperimen ini. 2.1.1 Fungsi Produksi CES (Constant Elasticity of Subtitution)

Fungsi produksi CES pertama kali diperkenalkan oleh Arrow et. al pada tahun 1961. Bentuk fungsi produksi CES adalah (Nicholson, 2005): Q=f ( K ,L )=¿ (2.3)

dimana ρ ≤ 1, ρ ≠0, dan γ > 0. Jika additive disturbance term yang i.i.d (independent indentically distributed) dimasukkan dalam persamaan fungsi produksi CES dan dinyatakan dalam bentuk log, maka fungsi produksi dapat berbentuk seperti berikut lnQ=β1+β 4 ln [ β2 Lt

β 3+ (1−β2 ) K tβ 3 ]+e t (2.4)

Fungsi produksi CES di atas baik pada persamaan (2.3) maupun pada persamaan (2.4) tidak dapat ditransformasi ke 5

Page 3: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

dalam bentuk linier, atau dengan kata lain harus diestimasi dengan model non linier.2. 2 Model Statistik Non Linier

Bentuk umum model statistik non linier yang menyatakan hubungan antara variabel adalah: y=f ( X ,β )+e (2.5)

dengan fungsi non linier dalam parameter β dan e N (0 , σ2 I T ) . Ada 2 (dua) cara untuk menaksir β dalam fungsi non linier, yaitu dengan metoda nonlinear least square dan maximum likelihood. Kedua metode tersebut menghasilkan penaksiran β yang sama yaitu:β=f (X , β)+e (2.7)

Dengan sifat E ( β )=β (2.8)Cov ( β )=σ2 X ' X ¿−1 (2.9)β adalah BLUE (2.10)

Perbedaan nonlinear least square dan maximum likelihood terletak pada penaksiran σ 2. Penaksiran σ 2 dengan metode nonlinear least square menghasilkan penaksir yang unbiased yaitu σ 2=

( y−β ) ( y−β )T−K

(2.11)E (σ 2 )=σ 2 (2.12)

Sedangkan penaksiran σ 2 dengan metode maximum likelihood menghasilkan penaksir yang biased

6

^

^

^

^

^ ^^

^

^ ^ ^

Page 4: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)

σ 2=( y−β ) ( y−β )

T−K

(2.13)E (σ 2 )≠ σ 2 (2.14)

2.2.1 Metode Non Linear Lest Square (NLS) Penaksiran β dengan metode nonlinear least square bertujuan untuk mendapatkan nilai β yang meminimumkan residual sum of squares S(β )

minβ

S ( β )=e ' e (2.15)¿ ( y−f ( x , β ) )' ( y− f ( x , β )) (2.16)

Syarat perlu untuk minimisasi adalah ∂ S∂ β

=−2 [ Z ( β ) ]' ( y−f ( X , β )) (2.17)[ Z ( β ) ]'( y−f ( X , β )) = 0 (2.18)

Dalam persamaan (2.18) fungsi f ( X ,β ) adalah fungsi non linier sehingga penaksiran nilai β memerlukan proses iterasi yang memberikan global minimum. Secara umum, iterasi untuk mendapatkan taksiran β dengan nonlinear least square adalahβ(n+1)=βn+t n Pn γ n (2.19)

Jenis iterasi yang dapat digunakan untuk mendapatkan taksiran β dengan nonlinear least square adalah: 1. Iterasi Gauss-Newton

β (n+1)=βn−12

[ Z ( β (n) )' Z ( β (n )) ] ∂ S(β )'∂ β

(2.20)dengan

7

^

-1

Page 5: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)

β(n) β(n)

β(n)β(n)

β(n)

β(n)

β(n) β(n)

β(n)

t n = 12 (2.21)

Pn=[ Z ( β (n )) 'Z ( β (n ) ) ] (2.22)

γn = ∂ S (β) '∂ β (2.23)

2. Iterasi Newton-Raphsonβ (n+1)=βn−( ∂2 S ( β )

∂ β ∂ β ' )( ∂ S( β) '∂ β ) (2.24)

dengan t n = 1 (2.25)Pn=( ∂2 S ( β )

∂ β ∂ β ' ) (2.26)γn = ∂ S (β) '

∂ β (2.27)3. Iterasi Marquant-Levenberg

β (n+1)=βn−[Z ( β (n ) )' Z ( β (n ) )+λn I k ] ∂ S(β )'∂ β

(2.28)dengan

t n , dapat bervariasi (2.29)Pn=[Z ( β (n ) )' Z ( β (n ) )+λn I k ] (2.30)γn = ∂ S (β) '

∂ β (2.31)4. Iterasi Quadratic Hill Climbing

β (n+1)=βn−( ∂2 S ( β )∂ β∂ β ' +λn I k)( ∂ S(β )'

∂ β ) (2.32)dengan

t n, dapat bervariasi (2.33)8

-1

-1

-1

-1

-1

-1

-1

Page 6: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)

β(n)

β(n)

β(1)β(1)

Pn=( ∂2 S ( β )∂ β ∂ β ' +λn I k) (2.34)

γn = ∂ S (β) '∂ β (2.35)

5. Iterasi Steepest Descentβ (n+1)=βn−( I k )( ∂ S ( β )'

∂ β ) (2.36)dengan

t n , dapat bervariasi (2.37)Pn=I k (2.38)γn = ∂ S (β) '

∂ β (2.39)2.2.1.1 Iterasi Gaus-Newton

Iterasi Gauss-Newton mengakprosimasi f ( X ,β ) di sekitar initial values β(1) dengan menggunakan first-order Taylor series, yang dapat dijabarkan sebagai berikutf ( X ,β )= f ( X , β(1))+ ∂ f ( X , β )

∂ β(β−β( 1)) (2.40)

Jika dimisalkan ∂ f ( X , β )∂ β

=Z (β (1 )), maka dari persamaan (2.40) diperoleh

y=f ( X , β(1))+Z ( β ( 1) ) ( β−β (1) )+e (2.41)Dari persamaan (2.41) kita dapat mengkonstruksi model pseudo linier, yaitu

y−f ( X , β(1))+Z ( β ( 1) ) β ( 1)=Z ( β ( 1) ) β+e (2.42)Ӯ (β ( 1))=Z ( β (1) ) β+e (2.43)

9

Page 7: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)

Selanjutnya berdasarkan persamaan (2.43) dilakukan estimasi dengan least squares untuk taksiran β (2 ), yaitu β (2 )=¿ (2.44)

¿¿ (2.45)¿ β (1 )+¿ (2.46)Bila proses di atas dilanjutkan diperoleh bentuk umum iterasi sebagai berikut

β (n+1)=β ( n)+¿ (2.47)Bila iterasinya sudah konvergen β (n+1)=β ( n), maka akan diperoleh

Z ( β (n ) )'¿ = 0 (2.48)Persamaan (2.48) memenuhi first order condition (FOC) dari masalah residual sum of squares S(β ), dalam hal ini β (n ) dapat diklaim sebagai titik minimum. Dengan demikian, iterasi umum pada persamaan (2.47) dapat ditulis menjadi

β (n+1)=β ( n)+¿ (2.49)Persamaan (2.49) inilah yang disebut dengan iterasi Gauss-Newton. Dalam prakteknya, kriteria konvergensi β (n+1)=β ( n) dinilai terlalu ideal, sehingga digunakan kriteria konvergensi berikut

Norm¿¿ ε (2.50)Terdapat beberapa kelemahan dalam Metode Iterasi Gauss-Newton, antara lain :Pertama, perubahan initial values memungkinkan diperolehnya titik minimu, tetapi tidak dapat diketahui apakah titik minimu tersebut adalah global minimum atau lokal minimum. Untuk mengatasinya dilakukan dengan mengubah-ubah initial values parameter sampai diperoleh konvergesi yang sama pada setiap

10

Page 8: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(1)β(1)

β(1)β(1)

β(1)β(1)

β(n)β(n)

waktu. Pada kondisi tersebut dapat diasumsikan telah dicapai titik global minimum. Akan tetapi jika perubahan initial values parameter menghasilkan konvergesi terjadi pada titik yang berbeda, maka yang dipilih adalah nilai terendah dari sum of squares error. Selanjutnya, nilai tersebut diidentifikasi pada titik yang bukan lokal minimum.Kedua, adanya kemungkinan tidak terjadi konvergensi karena bentuk fungsi dari sum of squares error sulit mencapai titik minimum. Untuk mengatasinya dapat dilakukan dengan terus mengubah initial values parameter atau menggunakan prosedur yang lain. 2.2.1.2 Iterasi Newton-Raphson

Iterasi Newton-Raphson menggunakan deret Taylor orde dua di sekitar initial values β (1 ) sebagai aproksimasi untuk objective function S ( β ), yang dapat dijabarkan sebagai berikutS ( β )=S ( β (1) )+ ∂S (β )

∂ β '( β−β (1 ))+ 1

2( β−β (1) ) ' ∂2 S ( β )

∂ β ∂ β ' ( β−β (1) ) (2.51)Syarat perlu untuk minimisasi objective function S ( β ) adalah

∂ S (β)∂ β

=0 (2.52)dengan

∂ S (β)∂ β

=∂ S (β) '

∂ β+

∂2 S ( β )∂ β ∂ β ' (β−β (1 )¿ (2.53)

Dari persamaan (2.52) dan (2.52) dapat diperoleh taksiran β (2 ), yaitu β (2 )=β (1)−( ∂2 S ( β )

∂ β ∂ β ' )( ∂ S ( β )'

∂ β ) (2.54)Bila proses di atas dilanjutkan diperoleh bentuk umum iterasi sebagai berikut

11

-1

-1

Page 9: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β (n+1)=β ( n)−( ∂2 S ( β )∂ β ∂ β' )( ∂ S ( β )'

∂ β ) (2.55)Bila iterasinya sudah konvergen β (n+1)=β ( n), maka berarti minimisasi objective function S ( β ) sudah terpenuhi. Proses iterasi ini disebut iterasi Newton Raphson untuk nonlinear least square. 2.2.1.3 Iterasi Marquant-Levenberg

Iterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan first order condition (FOC) dari sum of least square error. Perbedaannya adalah ada penambahan perkalian skalar dan indetinty matrix λIK pada iterasi Marquant-Levenberg. Selain itu, penentuan panjang langkah atau step length (t n¿ dalam iterasi Marquant-Levenberg dapat bervariasi. Secara matematis bentuk iterasi Marquant-Levenberg dapat dilihat pada persamaan (2.28) s/d (2.31) seperti telah diuraikan sebelumnya. 2.2.1.4 Iterasi Quadratic-Hill Climbing

Iterasi Quadratic-Hill Climbing menggunakan metode iterasi yang sama dengan metode Newton-Raphson yaitu menggunakan second order condition (SOC) dari sum of least square error. Perbedaannya terletak pada adanya penambahan perkalian skalar dan indetinty matrix λIK, serta penentuan panjang langkah atau step length (t n¿ yang dapat bervariasi. Secara matematis Iterasi Quadratic-Hill Climbing dapat dilihat pada persamaan (2.32) s/d (2.35) seperti telah diuraikan sebelumnya. 2.2.2 Metode Non Linier Maximum Likelihood

12

Page 10: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

Misalkan metode maximum likelihood digunakan untuk mengestimasi model y=f (X , β )+e (2.56) dengan e N (0 , σ2 I ). Fungsi likelihood dari model pada persamaan (2.56) adalah

l(β , σ2∨ y , X )= 1¿¿ Sedangkan log likelihood-nya adalah

L ( β ,σ 2|y , X )=ln l ( β , σ2|y , X ) (2.58)¿−T

2ln2 Π−T

2ln σ2−

S ( β )2σ 2 (2.60)

Untuk memenuhi kondisi optimum, fungsi log likelihood pada persamaan (2.60) diturunkan terhadap variansnya sehingga diperoleh persamaan yang digunakan untuk menaksir parameter, yaitu L¿ ( β|y , X )=−T

2ln 2 Π−T

2ln S ( β )

T−T

2(2.61)

Untuk mendapatkan taksiran β dengan non linier maximum likelihood dapat digunakan dengan beberapa metode antara lain: 1. Newton-Raphson2. Method of Scoring3. Berndt-Hall-Hall-Hausman (BHHH)2.2.2.1 Newton-Raphson

Iterasi Newton-Raphson menggunakan deret Taylor orde dua untuk mengakprosimasi fungsi objektif L(β ) di sekitar nilai parameter permulaan. Metode Newton-Raphson dapat dijabarkan sebagai berikut 13

Page 11: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(1)β(1)

β(1)β(1)β(1)β(1)

β(1)β(1)

β(n)β(n)

Misalkan ¿ ( β )adalah likelihood function untuk observasi ke t dan log likelihoodnya adalah ¿ ( β )=ln(¿ ( β )). Sedangkan likelihood function untuk seluruh observasi adalah L ( β )=∏

t=1

T

¿ ( β )(2.62)

dengan log likelihood-nya adalah L ( β )=∑

t=1

T

¿(β )(2.63)

Dengan menggunakan deret Taylor orde 2, aproksimasi untuk L ( β ) di sekitar nilai β(1) adalah L ( β )=L ( β( 1) )+ ∂L ( β )

∂ β '( β−β ( 1) )+1

2( β−β (1 )) ∂2 L ( β )

∂ β ∂ β '( β−β ( 1) )(2.64)

Syarat perlu untuk meminimumkan L ( β )adalah

∂ L ( β )∂ β

=0(2.65)

dengan

∂ L ( β )∂ β =( ∂ L ( β )

∂ β ' )'

+∂2 L ( β )∂ β ∂ β '

( β−β ( 1) )(2.66)

¿∂ L ( β )

∂ β+

∂2 L ( β )∂ β ∂ β '

( β−β (1) )(2.67)

Jika syarat perlu pada persamaan (2.65) dipenuhi, maka dari persamaan (2.67)

dapat diperoleh β(2) , yaituβ(2)=β(1)+( ∂2 L ( β )

∂ β ∂ β ' )−1

+∂ L (β )

∂ β(2.68)

Bila proses tersebut dilanjutkan, akhirnya akan diperoleh iterasi Newton-

Raphson, yaitu

β(n+1)=β (n )+( ∂2 L ( β )∂ β ∂ β ' )

−1

+∂ L ( β )

∂ β(269)

14

Page 12: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)β(n)

β(n)

β(n)

β(n)β(n)

β(n)β(n)

Dengan t n = 1 (2.70)Pn=( ∂2 L ( β )

∂ β ∂ β ' ) (2.71)γn = ∂ L( β)

∂ β (2.72)Bila iterasinya sudah konvergen β (n+1)=β ( n), maka berarti syarat perlu untuk memaksimumkan objective function S ( β ) sudah terpenuhi, sehingga β (n ) dapat diklaim sebagai titik maksimum. 2.2.2.2 Method of Scoring

Method of scoring memodifikasi algoritma Newton-Raphson dengan menggunakan nilai ekpektasi second order condition pada hessian matrix yang terdapat persamaan (2.69)∂2 L ( β )∂ β ∂ β ' (2.73)

diganti dengan expected value-nya menjadi

E( ∂2 L (β )∂ β ∂ β' ) (2.74)

Sehingga diperoleh algoritma yang disebut Method of Scoring, yaitu

β(n+1)=β(n )+[ E( ∂2 L ( β )∂ β ∂ β ' )]

−1

+ ∂ L ( β )∂ β

(2.75)

dengan

t n = 1 (2.76)Pn=[ E(∂2 L ( β )

∂ β ∂ β ' )] (2.77)

15

-1

Page 13: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)β(n)

β(n)β(n)

β(n)β(n)

β(n) β(n)β(n)

γn = ∂ L( β)∂ β (2.78)

2.2.2.3 Bernt-Hall-Hall-Hausman (BHHH)Metode BHHH merupakan modifikasi dari Method of Scoring dengan

memanfaatkan information matrix equality dan the Law of the Large Numbers.

Dari persamaan (2.63) diperoleh

L ( β )=∑t=1

T

¿(β )(2.79)

∂2 L ( β )∂ β ∂ β '

=∑t=1

T ∂2 L ( β )∂ β ∂ β '

(2.80)

Dengan memanfaatkan persamaan pada (2.80), algoritma method of scoring

pada persamaan (2.75) dapat dituliskan menjadi

β(n+1)=β(n )+[E(∑t=1

T ∂2 L ( β )∂ β ∂ β ' )]

−1

+∂ L ( β )

∂ β(2.81)

¿ β(n)+[T . E( ∂2 L ( β )∂ β ∂ β ' )]

−1

+∂ L ( β )

∂ β(2.82)

Dengan memanfaatkan information matrix equality, persamaan (2.82) dapat

dituliskan menjadi

β(n+1)=β(n )+[T . E[( ∂ Lt

∂ β )( ∂ Lt

∂ β )' ]]

−1

+∂ L ( β )

∂ β(2.83)

dengan the law of the large number, dari persamaan (2.83) dapat diperoleh

iterasi BHHH, yaitu

β(n+1)=β (n )−¿¿ (2.84)

¿ β(n)−[ Z¿ ( β( n) )' Z¿ ( β (n ) ) ]−1+

∂ L ( β )∂ β

(2.85)

Dengan

16

Page 14: Web viewIterasi Marquant-Levenberg menggunakan metode iterasi seperti iterasi Gauss-Newton yaitu menggunakan . first order condition (FOC) dari

β(n)

t n = 1 (2.86)Pn=[ Z¿ ( β ( n) )' Z ¿ ( β (n )) ]−1 (2.87)γn = ∂ L( β)

∂ β (2.88)

17

-1