Command Palette

Search for a command to run...

Metode Linear AI

Masalah Keseimbangan Linear

Definisi Masalah

Bayangkan kamu sedang mencoba mencocokkan teka-teki yang tidak sempurna. Begitulah situasi yang kita hadapi dalam masalah keseimbangan linear. Kita memiliki matriks ARm×nA \in \mathbb{R}^{m \times n} dan vektor bRmb \in \mathbb{R}^m, tetapi sistem persamaan Ax=bA \cdot x = b mungkin tidak memiliki solusi yang tepat.

Dalam kasus seperti ini, kita mencari solusi terbaik yang dapat kita peroleh dengan meminimumkan fungsi kesalahan

F(x)=Axb22F(x) = \|A \cdot x - b\|_2^2

Fungsi ini mengukur seberapa jauh hasil perkalian AxA \cdot x dari target yang kita inginkan yaitu bb.

Masalah Optimasi

Sekarang kita pahami dulu apa yang sebenarnya ingin kita capai. Permasalahan minimisasi

minxAxb22\min_x \|A \cdot x - b\|_2^2

adalah inti dari masalah keseimbangan linear atau yang sering disebut masalah kuadrat terkecil linear. Bayangkan seperti mencari posisi terbaik untuk melempar bola agar mendarat sedekat mungkin dengan target, meskipun tidak bisa tepat sasaran.

Mengapa kita menggunakan pendekatan ini? Karena dalam banyak situasi nyata, data yang kita miliki mengandung derau atau gangguan yang membuat solusi eksak tidak mungkin ditemukan.

Ekspansi Formula

Sekarang coba kita uraikan formula ini untuk melihat apa yang sebenarnya terjadi di dalamnya

minxAxb22=minxi=1n(Axb)i2\min_x \|A \cdot x - b\|_2^2 = \min_x \sum_{i=1}^{n} (A \cdot x - b)_i^2

Bentuk ekspansi ini menunjukkan bahwa kita sebenarnya menjumlahkan kuadrat dari setiap komponen kesalahan. Mirip seperti menghitung total jarak kuadrat antara beberapa titik prediksi dengan titik target yang sebenarnya. Dengan mengkuadratkan setiap kesalahan, kita memberikan penalti yang lebih besar untuk kesalahan yang besar dibandingkan kesalahan kecil.

Norm Alternatif

Ternyata ada beberapa cara berbeda untuk mengukur kesalahan, tergantung pada karakteristik masalah yang kita hadapi.

1\ell_1-norm bekerja dengan menjumlahkan nilai absolut kesalahan

minxAxb1=minxi=1n(Axb)i\min_x \|A \cdot x - b\|_1 = \min_x \sum_{i=1}^{n} |(A \cdot x - b)_i|

Pendekatan ini seperti mengukur jarak dengan berjalan di kota yang jalanannya berbentuk grid. Kamu harus bergerak horizontal dan vertikal saja, tidak bisa diagonal. Metode ini lebih tahan terhadap data pencilan yang ekstrem.

\ell_\infty-norm fokus pada kesalahan terbesar

minxAxb=minxmaxi=1,,n(Axb)i\min_x \|A \cdot x - b\|_\infty = \min_x \max_{i=1,\ldots,n} |(A \cdot x - b)_i|

Bayangkan kamu sedang mengatur tinggi meja yang tidak rata. Metode ini akan fokus mengatasi kaki meja yang paling tinggi atau paling pendek, memastikan tidak ada satu bagian pun yang terlalu ekstrem.

Pemilihan norm yang tepat tergantung pada jenis kesalahan yang paling ingin kita hindari dan karakteristik data yang kita miliki.

Interpretasi Geometris

Solusi Masalah Keseimbangan Linear
Ilustrasi geometris menunjukkan hubungan antara vektor bb, proyeksi Ax^A\hat{x}, dan vektor kesalahan.

Gambaran geometris ini membantu kita memahami apa yang sebenarnya terjadi. Bidang datar dalam diagram ini menrepresentasikan ruang kolom dari matriks AA (disebut Citra A), yaitu semua kemungkinan hasil perkalian AxA \cdot x.

Vektor bb adalah target yang ingin kita capai, tetapi mungkin tidak berada dalam ruang kolom matriks AA. Solusi optimal x^\hat{x} menghasilkan Ax^A\hat{x} yang merupakan titik terdekat dari bb dalam ruang kolom tersebut.

Vektor Ax^bA\hat{x} - b menunjukkan vektor kesalahan yang menghubungkan proyeksi terbaik dengan target asli. Seperti bayangan benda yang jatuh ke lantai, Ax^A\hat{x} adalah "bayangan" terdekat dari bb dalam ruang yang tersedia.

Metode Penyelesaian

Setiap jenis norm membutuhkan pendekatan penyelesaian yang berbeda. Masalah 1\ell_1-norm dan \ell_\infty-norm bisa diselesaikan menggunakan teknik optimasi linear, dimana kita mengubah masalah menjadi bentuk yang bisa ditangani oleh algoritma pemrograman linear.

Sementara itu, masalah kuadrat terkecil dengan norm Euklides memiliki keunggulan khusus. Ketika kesalahan dalam data mengikuti pola distribusi normal (seperti bel), maka solusi yang kita peroleh memberikan estimasi terbaik dalam arti statistik, yang disebut estimator kemungkinan maksimum.