Doğrusal Cebir ve Kalkülüs hatırlatması
Afshine Amidi ve Shervine Amidi tarafından
Kadir Tekeli ve Ekrem Çetinkaya tarafından çevrilmiştir
Genel notasyonlar
Tanımlar
Vektör $i$-inci elemanı $x_i\in\mathbb{R}$ olmak üzere $n$ elemanlı bir vektör, $x\in\mathbb{R}^n$:
Matris $A_{i,j}\in\mathbb{R}$ $i$-inci satır ve $j$-inci sütundaki elemanları olmak üzere $m$ satırlı ve $n$ sütunlu bir matris, $A\in\mathbb{R}^{m\times n}$:
Dipnot: Yukarıda tanımlanan $x$ vektörü $n\times1$ tipinde bir matris olarak ele alınabilir ve genellikle sütun vektörü olarak adlandırılır.
Ana matrisler
Birim matris Birim matris, köşegeni birlerden ve diğer tüm elemanları sıfırlardan oluşan karesel matris, $I\in\mathbb{R}^{n\times n}$:
Dipnot: Her $A\in\mathbb{R}^{n\times n}$ matrisi için $A\times I=I\times A=A$ eşitliği sağlanır.
Köşegen matris Bir köşegen matris, köşegenindeki elemanları sıfırdan farklı diğer tüm elemanları sıfır olan karesel matris, $D\in\mathbb{R}^{n\times n}$:
Dipnot: $D$ matrisi $\textrm{diag}(d_1,...,d_n)$ olarak da gösterilir.
Matris işlemleri
Çarpma
Vektör-vektör İki çeşit vektör-vektör çarpımı vardır.
- iç çarpım: $x,y\in\mathbb{R}^n$ için:
- dış çarpım: $x\in\mathbb{R}^m, y\in\mathbb{R}^n$ için:
Matris-vektör $A\in\mathbb{R}^{m\times n}$ matrisi ve $x\in\mathbb{R}^{n}$ vektörünün çarpımları $\mathbb{R}^{m}$ boyutunda bir vektördür:
Matris-matris $A\in\mathbb{R}^{m\times n}$ matrisi ve $B\in\mathbb{R}^{n\times p}$ matrisinin çarpımları $\mathbb{R}^{m\times p}$ boyutunda bir matristir:
Diğer işlemler
Devrik (Transpoze) Bir $A\in\mathbb{R}^{m\times n}$ matrisinin devriği, satır ve sütunların yer değiştirmesi ile elde edilir, ve $A^T$ ile gösterilir:
Dipnot: Her $A,B$ için $(AB)^T=B^TA^T$ vardır.
Ters Tersinir bir $A$ karesel matrisinin tersi, aşağıdaki koşulu sağlayan matristir, ve $A^{-1}$ ile gösterilir:
Dipnot: Her karesel matris tersinir değildir. Ayrıca, Her tersinir $A,B$ matrisi için $(AB)^{-1}=B^{-1}A^{-1}$ dir.
İz Bir $A$ karesel matrisinin izi, köşegenindeki elemanlarının toplamıdır, ve $\textrm{tr}(A)$ ile gösterilir:
Dipnot: $A,B$ matrisleri için $\textrm{tr}(A^T)=\textrm{tr}(A)$ ve $\textrm{tr}(AB)=\textrm{tr}(BA)$ vardır.
Determinant $A\in\mathbb{R}^{n\times n}$ matrisinin determinantı, $A_{\backslash i, \backslash j}$ gösterimi $i$-inci satırsız ve $j$-inci sütunsuz şekilde $A$ matrisi olmak üzere özyinelemeli olarak aşağıdaki gibi ifade edilir, ve $|A|$ ya da $\textrm{det}(A)$ ile gösterilir:
Dipnot: $A$ tersinirdir ancak ve ancak $|A|\neq0$. Ayrıca, $|AB|=|A||B|$ ve $|A^T|=|A|$.
Matris özellikleri
Tanımlar
Simetrik ayrışım Verilen bir $A$ matrisi simetrik ve ters simetrik parçalarının cinsinden aşağıdaki gibi ifade edilebilir:
Norm $V$ vektör uzayı ve her $x,y\in V$ için aşağıdaki özellikleri sağlayan $N:V\longrightarrow[0,+\infty[$ fonksiyonu bir normdur:
- $N(x+y)\leqslant N(x)+N(y)$
- Bir $a$ sabiti için $N(ax)=|a|N(x)$
- $N(x)=0$ ise $x=0$
$x\in V$ için en yaygın şekilde kullanılan normlar aşağıdaki tabloda verilmektedir.
Norm | Notasyon | Tanım | Kullanım |
Manhattan, $L^1$ | $||x||_1$ | $\displaystyle\sum_{i=1}^n|x_i|$ | LASSO regularization |
Euclidean, $L^2$ | $||x||_2$ | $\displaystyle\sqrt{\sum_{i=1}^nx_i^2}$ | Ridge regularization |
$p$-norm, $L^p$ | $||x||_p$ | $\displaystyle\left(\sum_{i=1}^nx_i^p\right)^{\frac{1}{p}}$ | Hölder inequality |
Infinity, $L^{\infty}$ | $||x||_{\infty}$ | $\underset{i}{\textrm{max }}|x_i|$ | Uniform convergence |
Doğrusal bağımlılık Bir vektör kümesinden bir vektör diğer vektörlerin doğrusal birleşimi (kombinasyonu) cinsinden yazılabiliyorsa bu vektör kümesine doğrusal bağımlı denir.
Dipnot: Eğer bu şekilde yazılabilen herhangi bir vektör yoksa bu vektörlere doğrusal bağımsız denir.
Matris rankı Verilen bir $A$ matrisinin rankı, $\textrm{rank}(A)$, bu matrisinin sütunları tarafından üretilen vektör uzayının boyutudur. Bu ifade $A$ matrisinin doğrusal bağımsız sütunlarının maksimum sayısına denktir.
Pozitif yarı-tanımlı matris Aşağıdaki koşulu sağlayan bir $A\in\mathbb{R}^{n\times n}$ matrisi pozitif yarı-tanımlıdır ve $A\succeq 0$ ile gösterilir:
Dipnot: Benzer olarak, pozitif yarı-tanımlı bir $A$ matrisi sıfırdan farklı her $x$ vektörü için $x^TAx>0$ koşulunu sağlıyorsa $A$ matrisine pozitif tanımlı denir ve $A\succ0$ ile gösterilir.
Özdeğer, özvektör Verilen bir $A\in\mathbb{R}^{n\times n}$ için aşağıdaki gibi bir $z\in\mathbb{R}^n\backslash\{0\}$ vektörü var ise buna özvektör, $\lambda$ sayısına da $A$ matrisinin öz değeri denir.
Spektral teorem $A\in\mathbb{R}^{n\times n}$ olsun. Eğer $A$ simetrik ise, $A$ matrisi gerçel ortogonal $U\in\mathbb{R}^{n\times n}$ matrisi ile köşegenleştirilebilir. $\Lambda=\textrm{diag}(\lambda_1,...,\lambda_n)$ olmak üzere:
Tekil-değer ayrışımı $m\times n$ tipindeki bir $A$ matrisi için tekil-değer ayrışımı; $m\times m$ tipinde bir üniter $U$, $m\times n$ tipinde bir köşegen $\Sigma$ ve $n\times n$ tipinde bir üniter $V$ matrislerinin varlığını garanti eden bir parçalama tekniğidir.
Matris kalkülüsü
Gradyan $f:\mathbb{R}^{m\times n}\rightarrow\mathbb{R}$ bir fonksiyon ve $A\in\mathbb{R}^{m\times n}$ bir matris olsun. $f$ nin $A$ ya göre gradyanı $m\times n$ tipinde bir matristir, ve $\nabla_A f(A)$ ile gösterilir:
Dipnot: $f$ fonksiyonunun gradyanı yalnızca $f$ skaler döndüren bir fonksiyon ise tanımlıdır.
Hessian $f:\mathbb{R}^{n}\rightarrow\mathbb{R}$ bir fonksiyon ve $x\in\mathbb{R}^{n}$ bir vektör olsun. $f$ fonksiyonun $x$ vektörüne göre Hessian’ı $n\times n$ tipinde bir simetrik matristir, ve $\nabla_x^2 f(x)$ ile gösterilir:
Dipnot: $f$ fonksiyonunun Hessian’ı yalnızca $f$ skaler döndüren bir fonksiyon ise tanımlıdır.
Gradyan işlemleri $A,B,C$ matrisleri için aşağıdaki işlemlerin akılda bulunmasında fayda vardır: