Metode Linear AI
Tulang punggung matematika yang mengubah pola data menjadi prediksi cerdas.
Definisi Determinan
Perhitungan Determinan
Teorema pengembangan Laplace
Aturan Cramer
Ruang Vektor Kompleks
Matriks Kompleks
Nilai Eigen, Vektor Eigen, dan Ruang Eigen
Karakteristik Polinomial
Nilai Eigen dari Matriks Diagonal dan Segitiga
Matriks Ortogonal dan Uniter
Matriks simetris dan Hermitian
Matriks Definit Positif
Produk Skalar
Kondisi Matriks
LU Dekomposisi
Cholesky Dekomposisi
QR Dekomposisi
Linear Model
Sistem Persamaan Linear
Masalah Keseimbangan Linear
Sistem Persamaan Normal
Solusi Sistem Persamaan Normal
Kemampuan Identifikasi dan Pemeringkatan
Regularisasi
Analisis Statistik
Perkiraan Terbaik dalam Fungsi dan Ruang Polinomial
Proyeksi Ortogonal
Polinomial Ortogonal
Kesamaan Matriks
Diagonalisasi Matriks
Prosedur Dasar untuk Diagonalisasi
Teorema Spektral
Teorema Spektral untuk Matriks Kompleks
Teorema Spektral untuk Matriks Nyata
Transformasi Sumbu Nyata
Analisis Komponen Utama
Trigonalisasi dan Bentuk Normal Jordan
Perhitungan Numerik dari Nilai Eigen
Perhitungan Nilai Eigen Individu
Perhitungan Semua Nilai Eigen
Pemrograman AI
Mengkode kecerdasan yang mengajarkan mesin berpikir dan memecahkan masalah kompleks.
Markdown dan Command Line Interfaces
Step Pertama di Python
Semuanya adalah Objek di Python
Numbers
Operator Aritmatika
Atribut dan Metode Bilangan
Fungsi Matematika
Variabel
Perbandingan dan Logika
Objek String
Escape Sequence
Indexing dan Slicing
Metode String
Fungsi Print
Pemformatan String
Container
Immutable, Mutable, dan Identity
Iterable
Control Flow
File Input dan Output
Dictionary
Fungsi
Membuat Array dengan NumPy
Atribut dan Tipe Data dengan NumPy
Indexing dan Slicing dengan NumPy
Operasi pada Array dengan NumPy
Syntactic Sugar
Neural Networks
Otak digital yang meniru neuron manusia untuk mengenali pola dan membuat keputusan.
Masalah dari Supervised Learning
Jenis-jenis Supervised Learning
Regresi Linear
Ruang Fungsi
Fungsi Kerugian
Persamaan Normal
Fungsi Dasar Linear
Pengklasifikasi Biner
Kerugian Entropi Silang Biner
Optimasi
Pengklasifikasi Multi-Kelas
Kerugian Entropi Silang
Persepsi Multi-Lapisan
Turunan Parsial
Contoh Penggunaan Turunan Parsial
Learning dalam Bentuk Vektor
Fungsi Aktivasi untuk Lapisan Tersembunyi
Tantangan Optimasi
Varian Keturunan Gradien
Laju Pembelajaran Adaptif
Rata-Rata Tertimbang Eksponensial
Momentum
Propagasi Akar Rata-Rata Kuadrat
Estimasi Momen Adaptif
Overfitting dan Underfitting
Regularisasi
Penalti Parameter
Dropout
Pelatihan, Validasi, dan Pengujian
Praproses dan Inisialisasi
Normalisasi Batch
Pencarian Hyperparameter
Konvolusi untuk Data Waktu
Pooling untuk Data Waktu
Convolutional Neural Networks untuk Data Waktu
Konvolusi untuk Gambar
Konvolusi pada Volume
Blok Konvolusi
Convolutional Neural Network
Machine Learning
Algoritma yang belajar dari pengalaman untuk memprediksi hasil masa depan secara otomatis.
Apa itu Machine Learning?
Apa itu Supervised Learning?
Pengaturan Formal untuk Supervised Learning
Minimalisasi Risiko Empiris
Minimalisasi Risiko yang Teratur
K-Nearest Neighbor Classifier
Aturan Maksimum Posteriori
Aturan Keputusan Bayesian
Fungsi Diskriminatif
Bukti Pengklasifikasi Optimal Bayes
Distribusi Normal Univariat
Probabilitas vs Kemungkinan
Estimasi Kemungkinan Maksimum
Contoh Estimasi Kemungkinan Maksimum
Metode Kemungkinan Maksimum
Pemasangan Parameter untuk Distribusi Normal
Kovarians
Eigendekomposisi dari Matriks Kovarians
Model Gaussian
Fungsi Diskriminan untuk Model Gaussian
Jarak Mahalanobis
Estimasi Titik
Penaksir yang Tidak Bias
Konsistensi
Kesalahan Kuadrat Rata-Rata
Dekomposisi Bias-Varians dari Kesalahan Kuadrat Rata-Rata
Pemilihan Model untuk Estimasi Kemungkinan Maksimum
Divergensi Kullback-Leibler
Kriteria Informasi Akaike
Validasi Silang
Model Campuran Gaussian
Algoritma Maksimisasi Ekspektasi
Optimisasi Nonlinear untuk AI
Matematika lanjutan yang menemukan solusi optimal dalam ruang masalah AI yang kompleks.
Masalah Optimisasi Nonlinear
Penerimaan dan Pengoptimalan
Konvergensi Proses Berulang
Kondisi Optimalitas di Satu Dimensi
Kondisi Optimalitas di Dua Dimensi
Prosedur Degradasi
Metode Gradien
Perilaku Konvergensi
Gradien Konjugasi
Metode Gradien vs Metode Gradien Konjugasi
Metode Newton dan Metode Quasi-Newton
Metode Pemrograman Kuadratik Berurutan
Metode Quasi-Newton Pemrograman Kuadratik Berurutan
Masalah Penyetaraan Nonlinear
Metode Gauss-Newton
Konvergensi Lokal Metode Gauss-Newton
Mengapa Pemrograman Kuadratik Berurutan Tidak Cocok untuk Regresi Nonlinier?
Masalah yang Belum Ditentukan dan Regularisasi
Advanced Machine Learning
Teknik mutakhir yang mendorong batas kemampuan kecerdasan buatan.
Konsistensi Universal
Union Bound
Ketidaksetaraan Jensen
Ketidaksetaraan Markov
Ketidaksetaraan Chebyshev
Ketidaksetaraan Chernoff
Ketidaksetaraan Hoeffding
Estimasi Titik
Minimalisasi Risiko Empiris
Ketika Minimalisasi Risiko Empiris Gagal
Generalization Bound
Estimasi Error Bound
Fungsi Pertumbuhan
Ketidaksetaraan Vapnik-Chervonenkis
Dimensi Vapnik-Chervonenkis
Sauer-Shelah Lemma
Vapnik-Chervonenkis Bound
Vapnik-Chervonenkis Generalization Bound
Symmetrization Lemma
Teorema Condorcet
Hard dan Soft Voting
Weak dan Strong Learner
Algoritma Boosting
Algoritma AdaBoost
Model Aditif
Forward Stagewise Additive Modelling
Analisis Teoritis
Computer Vision
Mengajarkan mesin untuk melihat dan memahami dunia visual seperti manusia.
Gambar Skala Abu-Abu
Gambar Berwarna
Histogram Equalization
Edge Detection
Penghalusan
Unsharp Masking
Hough Transform
Fourier Transform
Otsu's Method
Region Growing
Algoritma Watershed
Matriks Co-Occurrence
Gabor Filter
Harris Corner Detection
Histogram untuk Gradient
Scale-Invariant Feature Transform
Speeded-Up Robust Features
Lapisan Konvolusi
Pooling
Dekonvolusi
Fungsi Kesalahan untuk Klasifikasi
Augmentasi
Regularisasi
AlexNet
Natural Language Processing
Menjembatani bahasa manusia dan pemahaman mesin untuk komunikasi yang mulus.