Command Palette

Search for a command to run...

Metode Linear AI

Analisis Statistik

Matriks Informasi Fisher

Matriks ATAA^T A memiliki nama khusus dalam konteks masalah kuadrat terkecil. Matriks ini disebut sebagai matriks informasi Fisher, sesuai dengan nama ahli statistik terkenal.

Bayangkan seperti mengukur seberapa tajam puncak sebuah gunung. Semakin tajam puncaknya, semakin mudah kita menentukan lokasi puncak yang tepat. Begitu juga dengan matriks informasi Fisher, ia memberikan ukuran seberapa baik kita dapat menentukan parameter yang optimal.

Matriks Kovarian Parameter

Matriks C=(ATA)1C = (A^T A)^{-1} merupakan matriks kovarian dari penduga parameter x^=(ATA)1ATb\hat{x} = (A^T A)^{-1} A^T b. Matriks ini berlaku ketika kita mengasumsikan bahwa komponen bib_i untuk i=1,,ni = 1, \ldots, n adalah nilai bebas yang terdistribusi normal standar.

Dengan asumsi tersebut, penduga x^\hat{x} mengikuti distribusi normal multivariat

x^N(xtrue,C)\hat{x} \sim N(x_{true}, C)

dimana xtrueRnx_{true} \in \mathbb{R}^n adalah parameter sebenarnya yang tidak diketahui sebagai nilai harapan dan CRn×nC \in \mathbb{R}^{n \times n} sebagai matriks kovarian.

Elemen diagonal ciic_{ii} menggambarkan varian dari parameter, seperti mengukur seberapa jauh estimasi parameter bisa meleset dari nilai sebenarnya. Dari nilai ini dapat dihitung interval kepercayaan untuk parameter tersebut. Elemen di luar diagonal cijc_{ij} dengan iji \neq j adalah kovarian yang menunjukkan bagaimana ketidakpastian dua parameter saling berkaitan. Dari kovarian ini dapat diperoleh korelasi cij/ciicjjc_{ij}/\sqrt{c_{ii} \cdot c_{jj}} antar parameter.

Yang penting dalam estimasi parameter bukan hanya penduga x^\hat{x} itu sendiri, tetapi juga signifikansi statistiknya yang dijelaskan melalui matriks kovarian CC. Seperti seorang dokter yang tidak hanya memberikan hasil tes, tetapi juga menjelaskan tingkat kepercayaan terhadap hasil tersebut. Dalam kuliah statistik, konsep-konsep ini dibahas secara lebih rinci.

Dekomposisi QR

Matriks kovarian dapat dihitung menggunakan dekomposisi QR kecil dari AA. Jika A=QRA = QR, maka berlaku

C=(ATA)1C = (A^T A)^{-1}
=(RTQTQR)1= (R^T Q^T QR)^{-1}
=R1RT= R^{-1} R^{-T}

Kuadrat Terkecil Berbobot

Untuk memenuhi persyaratan terhadap kesalahan pengukuran dan memberikan bobot yang sesuai pada data pengukuran, biasanya digunakan masalah kuadrat terkecil berbobot

minxi=1m(h(ti)xyi)2σi2\min_x \sum_{i=1}^m \frac{(h(t_i) \cdot x - y_i)^2}{\sigma_i^2}
=Axb22= \|Ax - b\|_2^2

Masalah ini dapat ditransformasi dengan mendefinisikan

A=Σ1(h(t1)h(tm))A = \Sigma^{-1} \begin{pmatrix} h(t_1) \\ \vdots \\ h(t_m) \end{pmatrix}
b=Σ1(y1ym)b = \Sigma^{-1} \begin{pmatrix} y_1 \\ \vdots \\ y_m \end{pmatrix}

dengan

Σ1=(1/σ1001/σm)\Sigma^{-1} = \begin{pmatrix} 1/\sigma_1 & 0 & \cdots \\ 0 & \ddots & \\ \vdots & & 1/\sigma_m \end{pmatrix}

Di sini σi2\sigma_i^2 adalah varian dari kesalahan pengukuran yiy_i yang bebas dan terdistribusi normal. Selain itu diasumsikan bahwa kesalahan pengukuran memiliki nilai harapan 00, sehingga tidak ada kesalahan sistematis. Dengan demikian bib_i terdistribusi normal standar.

Dalam fungsi kuadrat terkecil berbobot, nilai pengukuran dengan kesalahan pengukuran besar diberi bobot yang lebih lemah dibandingkan nilai pengukuran dengan kesalahan pengukuran kecil. Analoginya seperti ketika kita mendengarkan pendapat dari berbagai sumber, kita akan memberikan bobot lebih besar pada sumber yang lebih dapat dipercaya dan bobot lebih kecil pada sumber yang kurang akurat.