Makine Öğrenmesi ile Refleks-temelli modeller
Afshine Amidi ve Shervine Amidi tarafından
Yavuz Kömeçoğlu ve Ayyüce Kızrak tarafından çevrilmiştir
Doğrusal öngörücüler
Bu bölümde, girdi-çıktı çiftleri olan örneklerden geçerek, deneyim ile gelişebilecek refleks-temelli modelleri göreceğiz.
Öznitelik vektörü $x$ girişinin öznitelik vektörü $\phi(x)$ olarak not edilir ve şöyledir:
Puan Bir örneğin $s(x,w)$ si ni $(\phi(x),y) \in \mathbb{R}^d \times \mathbb{R}$, $w \in \mathbb{R}^d$ doğrusal ağırlık modeline bağlı olarak:
Sınıflandırma
Doğrusal sınıflandırıcı Bir ağırlık vektörü $w\in\mathbb{R}^d$ ve bir öznitelik vektörü $\phi(x)\in\mathbb{R}^d$ verildiğinde, ikili doğrusal sınıflandırıcı $f_w$ şöyle verilir:
Marj $(\phi(x),y) \in \mathbb{R}^d \times \{-1,+1\}$ örneğinin $m(x,y,w) \in \mathbb{R}$ marjları $w\in \mathbb{R}^d$ doğrusal ağırlık modeliyle ilişkili olarak, tahminin güvenirliği ölçülür: daha büyük değerler daha iyidir. Şöyle ifade edilir:
Bağlanım
Doğrusal bağlanım $w\in\mathbb{R}^d$ bir ağırlık vektörü ve bir öznitelik vektörü $\phi(x)\in\mathbb{R}^d$ verildiğinde, $f_w$ olarak belirtilen ağırlıkların doğrusal bir bağlanım (linear regression) çıktısı şöyle verilir:
Artık Artık (residual) $\textrm{res}(x,y,w) \in \mathbb{R}$, $f_w(x)$ tahmininin $y$ hedefini aştığı miktar olarak tanımlanır:
Kayıp minimizasyonu
Kayıp fonksiyonu Kayıp fonksiyonu $\textrm{Loss}(x,y,w)$, $x$ girişinden $y$ çıktısının öngörme görevindeki model ağırlıkları ile ne kadar mutsuz olduğumuzu belirler. Bu değer eğitim sürecinde en aza indirmek istediğimiz bir miktar.
Sınıflandırma durumu Doğru etiket $y\in \{-1,+1\}$ değerinin $x$ örneğinin doğrusal ağırlık $w$ modeliyle sınıflandırılması $f_w(x) \triangleq \textrm{sign}(s(x,w))$ belirleyicisi ile yapılabilir. Bu durumda, sınıflandırma kalitesini ölçen bir fayda ölçütü $m(x,y,w)$ marjı ile verilir ve aşağıdaki kayıp fonksiyonlarıyla birlikte kullanılabilir:
Ad | Sıfır-bir kayıp | Menteşe kaybı | Lojistik kaybı |
$\textrm{Loss}(x,y,w)$ | $1_{\{m(x,y,w) \leqslant 0\}}$ | $\max(1-m(x,y,w), 0)$ | $\log(1+e^{-m(x,y,w)})$ |
Örnekleme |
Regresyon durumu Doğru etiket $y \in \mathbb{R}$ değerinin $x$ örneğinin bir doğrusal ağırlık modeli $w$ ile öngörülmesi $f_w(x) \triangleq s(x,w)$ öngörüsü ile yapılabilir. Bu durumda, regresyonun kalitesini ölçen bir fayda ölçütü $\textrm{res}(x,y,w)$ marjı ile verilir ve aşağıdaki kayıp fonksiyonlarıyla birlikte kullanılabilir:
Ad | Kareler kaybı | Mutlak sapma kaybı |
$\textrm{Loss}(x,y,w)$ | $(\textrm{res}(x,y,w))^2$ | $|\textrm{res}(x,y,w)|$ |
Görselleştirme |
Kayıp minimize etme çerçevesi Bir modeli eğitmek için, eğitim kaybını en aza indirmek istiyoruz:
Doğrusal olmayan öngörücüler
$k$-en yakın komşu Yaygın olarak $k$-NN ($k$-nearest neighbors) olarak bilinen $k$-en yakın komşu algoritması, bir veri noktasının tepkisinin eğitim kümesinden $k$ komşularının yapısı tarafından belirlendiği parametrik olmayan bir yaklaşımdır. Hem sınıflandırma hem de regresyon ayarlarında kullanılabilir.
Not: $k$ parametresi ne kadar yüksekse, önyargı (bias) o kadar yüksek ve $k$ parametresi ne kadar düşükse, varyans o kadar yüksek olur.
Yapay sinir ağları Yapay sinir ağları (neural networks) katmanlarla oluşturulmuş bir model sınıfıdır. Yaygın olarak kullanılan sinir ağları, evrişimli ve tekrarlayan sinir ağlarını içerir. Yapay sinir ağları mimarisi etrafındaki kelime bilgisi aşağıdaki şekilde tanımlanmıştır:
$i$ ağın $i$. katmanı ve $j$, katmanın $j$. gizli birimi olacak şekilde aşağıdaki gibi ifade edilir:
$w$, $b$, $x$, $z$ değerlerinin sırasıyla nöronun ağırlık, önyargı (bias), girdi ve aktive edilmemiş çıkışını olarak ifade eder.
Yukarıdaki kavramlara daha ayrıntılı bir bakış için, Gözetimli Öğrenme el kitabına göz atın!
Stokastik gradyan inişi
Gradyan inişi $\eta\in\mathbb{R}$ öğrenme oranını (aynı zamanda adım boyutu olarak da bilinir) dikkate alınarak, gradyan (bayır) inişine ilişkin güncelleme kuralı, öğrenme oranı ve $\textrm{Loss}(x,y,w)$ kayıp fonksiyonu ile aşağıdaki şekilde ifade edilir:
Stokastik güncellemeler Stokastik gradyan inişi (SGİ/SGD, stochastic gradient descent), bir seferde bir eğitim örneğinin $(\phi(x),y)\in\mathcal{D}_{\textrm{train}}$ parametrelerini günceller. Bu yöntem bazen gürültülü, ancak hızlı güncellemeler yol açar.
Yığın güncellemeler Yığın gradyan inişi (YGİ/BGD, batch gradient descent), bir seferde bir grup örnek (örneğin, tüm eğitim kümesi) parametrelerini günceller. Bu yöntem daha yüksek bir hesaplama maliyetiyle kararlı güncelleme talimatlarını hesaplar.
İnce ayar modelleri
Hipotez sınıfı Bir hipotez sınıfı $\mathcal{F}$, sabit bir $\phi(x)$ ve değişken $w$ ile olası öngörücü kümesidir:
Lojistik fonksiyon Ayrıca sigmoid fonksiyon olarak da adlandırılan lojistik fonksiyon (sigmoid function) $\sigma$, şöyle tanımlanır:
Not: $\sigma'(z)=\sigma(z)(1-\sigma(z))$ şeklinde ifade edilir.
Geri yayılım (backpropagation) İleriye geçiş, i'de yer alan alt ifadenin değeri olan fi ile yapılırken, geriye doğru geçiş $g_i=\frac{\partial\textrm{out}}{\partial f_i}$ aracılığıyla yapılır ve $f_i$'nin çıkışı nasıl etkilediğini gösterir.
Yaklaşım ve kestirim hatası Yaklaşım hatası $\epsilon_\text{approx}$, $\mathcal{F}$ tüm hipotez sınıfının hedef öngörücü $g^*$ ne kadar uzak olduğunu gösterirken, kestirim hatası $\epsilon_{\text{est}}$ öngörücüsü $\hat{f}$, $\mathcal{F}$ hipotez sınıfının en iyi yordayıcısı $f^{*}$'ya göre ne kadar iyi olduğunu gösterir.
Düzenlileştirme Düzenlileştirme (regularization) prosedürü, modelin verilerin aşırı öğrenmesinden kaçınmayı amaçlar ve böylece yüksek değişkenlik sorunlarıyla ilgilenir. Aşağıdaki tablo, yaygın olarak kullanılan düzenlileştirme tekniklerinin farklı türlerini özetlemektedir:
LASSO | Ridge | Elastic Net |
• Katsayıları 0'a düşürür • Değişken seçimi için iyi |
Katsayıları daha küçük yapar | Değişken seçimi ile küçük katsayılar arasında ödünleşim |
$...+\lambda||w||_1$ $\lambda\in\mathbb{R}$ |
$...+\lambda||w||_2^2$ $\lambda\in\mathbb{R}$ |
$...+\lambda\Big[(1-\alpha)||w||_1+\alpha||w||_2^2\Big]$ $\lambda\in\mathbb{R},\alpha\in[0,1]$ |
Hiperparametreler Hiperparametreler öğrenme algoritmasının özellikleridir ve öznitelikler dahildir, $\lambda$ normalizasyon parametresi, yineleme sayısı $T$, adım büyüklüğü $\eta$, vb.
Kümeler Bir model seçerken, veriyi aşağıdaki gibi 3 farklı parçaya ayırırız:
Eğitim kümesi | Doğrulama kümesi | Test kümesi |
• Model eğitilir • Veri kümesinin genellikle %80'i |
• Model değerlendirilir • Veri kümesinin genellikle %20'si • Ayrıca tutma veya geliştirme kümesi olarak da adlandırılır |
• Model tahminlerini verir • Görünmeyen veriler |
Model seçildikten sonra, tüm veri kümesi üzerinde eğitilir ve görünmeyen test kümesinde test edilir. Bunlar aşağıdaki şekilde gösterilmektedir:
Yukarıdaki kavramlara daha ayrıntılı bir bakış için, Makine Öğrenmesi ipuçları ve püf noktaları el kitabını göz atın!
Gözetimsiz Öğrenme
Gözetimsiz öğrenme yöntemlerinin sınıfı, zengin gizli yapılara sahip olabilecek verilerin yapısını keşfetmeyi amaçlamaktadır.
$k$-ortalama ($k$-means)
Kümeleme $\mathcal{D}_{\textrm{train}}$ giriş noktalarından oluşan bir eğitim kümesi göz önüne alındığında, kümeleme (clustering) algoritmasının amacı, her bir $\phi(x_i)$ noktasını $z_i\in\{1,...,k\}$ kümesine atamaktır.
Amaç fonksiyonu Ana kümeleme algoritmalarından biri olan $k$-ortalama için kayıp fonksiyonu şöyle ifade edilir:
Algoritma Küme merkezlerini $\mu_1,\mu_2,...,\mu_k\in\mathbb{R}^d$ kümesini rasgele başlattıktan sonra, $k$-ortalama algoritması yakınsayana kadar aşağıdaki adımı tekrarlar:
Temel Bileşenler Analizi
Özdeğer, özvektör Bir $A\in\mathbb{R}^{d\times d}$ matrisi verildiğinde, $z\in\mathbb{R}^d\backslash\{0\}$ olacak şekilde bir vektör varsa $\lambda$, $A$'nın bir öz değeri olduğu söylenir, aşağıdaki gibi ifade edilir:
Spektral teoremi $A\in\mathbb{R}^{d\times d}$ olsun. $A$ simetrik ise, o zaman $A$ gerçek ortogonal matris $U\in\mathbb{R}^{d\times d}$ olacak şekilde köşegenleştirilebilir. $\Lambda=\textrm{diag}(\lambda_1,...,\lambda_d)$ formülü dikkate alınarak aşağıdaki gibi ifade edilir:
Not: en büyük özdeğerle ilişkilendirilen özvektör, $A$ matrisinin temel özvektörüdür.
Algoritma Temel Bileşenler Analizi (PCA, principal component analysis) prosedürü, verilerin varyansını en üst düzeye çıkararak $k$ boyutlarına indirgeyen bir boyut küçültme tekniğidir:
- Adım 1: Verileri ortalama 0 ve 1 standart sapma olacak şekilde normalize edin.
- Adım 2: Hesaplama $\displaystyle\Sigma=\frac{1}{n}\sum_{i=1}^n\phi(x_i){\phi(x_i)}^T\in\mathbb{R}^{d\times d}$, ki bu, gerçek özdeğerlerle simetriktir.
- Adım 3: Hesaplama $u_1, ..., u_k\in\mathbb{R}^d$ $k$'nin ortogonal ana özvektörleri, yani $k$ en büyük özdeğerlerin ortogonal özvektörleri.
- Adım 4: $\textrm{span}_\mathbb{R}(u_1,...,u_k)$'daki verilerin izdüşümünü al.
Bu prosedür, tüm $k$ boyutlu uzaylar arasındaki farkı en üst düzeye çıkarır.
Yukarıdaki kavramlara daha ayrıntılı bir genel bakış için, Gözetimsiz Öğrenme el kitaplarına göz atın!