Command Palette

Search for a command to run...

Metode Linear AI

Diagonalisasi Matriks

Konsep Diagonalisasi Matriks

Dalam teori matriks, kita sering mencari cara untuk menyederhanakan bentuk matriks agar lebih mudah dianalisis dan dihitung. Diagonalisasi adalah salah satu teknik paling ampuh untuk mencapai hal ini. Bayangkan seperti mengubah ruang yang rumit menjadi ruang yang lebih teratur dimana setiap dimensi tidak saling mengganggu.

Tujuan utama diagonalisasi adalah mencari basis khusus sehingga transformasi linear y=Axy = A \cdot x dapat direpresentasikan melalui matriks diagonal B=S1ASB = S^{-1} \cdot A \cdot S. Jika basis tersebut adalah basis ortonormal, maka matriks transformasi memiliki sifat S1=STS^{-1} = S^T.

Definisi Diagonalisasi

Sebuah matriks AKn×nA \in \mathbb{K}^{n \times n} disebut dapat didiagonalisasi jika matriks tersebut serupa dengan suatu matriks diagonal ΛKn×n\Lambda \in \mathbb{K}^{n \times n}, yaitu jika terdapat matriks yang dapat dibalik SKn×nS \in \mathbb{K}^{n \times n} sedemikian sehingga:

Λ=S1AS\Lambda = S^{-1} \cdot A \cdot S

Kondisi Dasar Diagonalisasi

Kapan sebuah matriks AKn×nA \in \mathbb{K}^{n \times n} bisa didiagonalisasi? Jawabannya adalah ketika kita bisa menemukan basis dari Kn\mathbb{K}^n yang seluruhnya terdiri dari vektor eigen v1,,vnKnv_1, \ldots, v_n \in \mathbb{K}^n dari AA dengan nilai eigen yang berkaitan λ1,,λnK\lambda_1, \ldots, \lambda_n \in \mathbb{K}.

Matriks diagonal Λ\Lambda adalah:

Λ=(λ1λn)=diag(λ1,,λn)\Lambda = \begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix} = \text{diag}(\lambda_1, \ldots, \lambda_n)

dan SS adalah matriks dengan kolom:

S=(v1vn)S = (v_1 \quad \ldots \quad v_n)

Jika AA dapat didiagonalisasi, maka kolom v1,,vnv_1, \ldots, v_n dari SS membentuk basis vektor eigen. Dari Λ=S1AS\Lambda = S^{-1} \cdot A \cdot S kita peroleh AS=SΛA \cdot S = S \cdot \Lambda dan dengan demikian Avi=λiviA \cdot v_i = \lambda_i \cdot v_i untuk i=1,,ni = 1, \ldots, n.

Sebaliknya, jika v1,,vnv_1, \ldots, v_n adalah basis vektor eigen, maka SS dapat dibalik dan dari Avi=λiviA \cdot v_i = \lambda_i \cdot v_i untuk i=1,,ni = 1, \ldots, n kita peroleh AS=SΛA \cdot S = S \cdot \Lambda dan dengan demikian Λ=S1AS\Lambda = S^{-1} \cdot A \cdot S.

Contoh Kasus Non-Diagonalisasi

Perhatikan matriks:

A=(1201)A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix}

Matriks ini memiliki nilai eigen λ=1\lambda = 1 dengan multiplisitas aljabar μA(1)=2\mu_A(1) = 2. Ruang eigen adalah kernel (ruang nol) dari A1IA - 1 \cdot I, yaitu himpunan semua vektor yang dipetakan ke vektor nol oleh matriks tersebut:

EigA(1)=Kern(A1I)\text{Eig}_A(1) = \text{Kern}(A - 1 \cdot I)
=Kern(0200)= \text{Kern}\begin{pmatrix} 0 & 2 \\ 0 & 0 \end{pmatrix}
=rentang(10)= \text{rentang}\begin{pmatrix} 1 \\ 0 \end{pmatrix}

Di sini rentang dari vektor (10)\begin{pmatrix} 1 \\ 0 \end{pmatrix} adalah himpunan semua kelipatan skalar dari vektor tersebut, yang memiliki dimensi 1. Karena tidak ada nilai eigen dan vektor eigen lain, dan tidak terdapat basis K2\mathbb{K}^2 dari vektor eigen AA, maka AA tidak dapat didiagonalisasi.

Syarat Diagonalisasi Matriks

Jika matriks AKn×nA \in \mathbb{K}^{n \times n} dapat didiagonalisasi, maka polinomial karakteristik χA(t)\chi_A(t) dari AA dalam K\mathbb{K} terurai menjadi faktor linear:

χA(t)=(λ1t)(λnt)\chi_A(t) = (\lambda_1 - t) \cdots (\lambda_n - t)

dimana AA memiliki nn nilai eigen yang tidak perlu berbeda λiK\lambda_i \in \mathbb{K}.

Ketika semua nilai eigen berbeda, prosesnya menjadi lebih sederhana. Jika AKn×nA \in \mathbb{K}^{n \times n} dan polinomial karakteristik χA(t)\chi_A(t) dari AA dalam K\mathbb{K} terurai menjadi faktor linear:

χA(t)=(λ1t)(λnt)\chi_A(t) = (\lambda_1 - t) \cdots (\lambda_n - t)

dengan nilai eigen yang berbeda secara berpasangan λiλj\lambda_i \neq \lambda_j untuk iji \neq j dengan i,j{1,,n}i, j \in \{1, \ldots, n\}, maka AA pasti dapat didiagonalisasi.

Mengapa begitu? Karena vektor eigen untuk nilai eigen yang berbeda secara berpasangan dari AA selalu bebas linear dan membentuk basis dari Kn\mathbb{K}^n.

Tapi bagaimana kalau AA memiliki nilai eigen berulang? Kita harus lebih hati-hati mengeceknya. Nilai eigen memiliki multiplisitas aljabar μA(λi)\mu_A(\lambda_i) dan multiplisitas geometris dimEigA(λi)\dim \text{Eig}_A(\lambda_i) dengan hubungan:

dimEigA(λi)μA(λi)\dim \text{Eig}_A(\lambda_i) \leq \mu_A(\lambda_i)

Teorema Karakterisasi Diagonalisasi

Untuk matriks AKn×nA \in \mathbb{K}^{n \times n}, pernyataan berikut adalah ekuivalen:

  1. AA dapat didiagonalisasi.

  2. Kedua kondisi berikut terpenuhi. Pertama, polinomial karakteristik dari AA harus terurai dalam faktor linear:

    χA(t)=(λ1t)μA(λ1)(λkt)μA(λk)\chi_A(t) = (\lambda_1 - t)^{\mu_A(\lambda_1)} \cdots (\lambda_k - t)^{\mu_A(\lambda_k)}

    dengan nilai eigen yang berbeda secara berpasangan λ1,,λkK\lambda_1, \ldots, \lambda_k \in \mathbb{K} dari AA. Kedua, untuk semua nilai eigen dari AA, multiplisitas aljabar harus sama dengan multiplisitas geometris:

    μA(λi)=dimEigA(λi)untuk i=1,,k\mu_A(\lambda_i) = \dim \text{Eig}_A(\lambda_i) \quad \text{untuk } i = 1, \ldots, k
  3. Penjumlahan langsung semua ruang eigen adalah seluruh ruang vektor:

    EigA(λ1)EigA(λk)=Kn\text{Eig}_A(\lambda_1) \oplus \cdots \oplus \text{Eig}_A(\lambda_k) = \mathbb{K}^n

    Ini berarti terdapat basis dari Kn\mathbb{K}^n yang terdiri dari vektor eigen AA.

Untuk setiap i=1,,ki = 1, \ldots, k, misalkan v1(i),,vdi(i)v_1^{(i)}, \ldots, v_{d_i}^{(i)} adalah basis vektor eigen dari AA untuk ruang eigen EigA(λi)\text{Eig}_A(\lambda_i). Maka:

v1(1),,vd1(1),v1(2),,vd2(2),,v1(k),,vdk(k)v_1^{(1)}, \ldots, v_{d_1}^{(1)}, v_1^{(2)}, \ldots, v_{d_2}^{(2)}, \ldots, v_1^{(k)}, \ldots, v_{d_k}^{(k)}

adalah basis dari Kn\mathbb{K}^n yang terdiri dari vektor eigen AA. Oleh karena itu, AA dapat didiagonalisasi.