مرجع سريع للتعلّم المُوَجَّه
النص الأصلي بواسطة افشین عمیدی و شروین عمیدی
تمت الترجمة بواسطة فارس القنيعير. تمت المراجعة بواسطة زيد اليافعي.
مقدمة للتعلّم المُوَجَّه
إذا كان لدينا مجموعة من نقاط البيانات $\{x^{(1)}, ..., x^{(m)}\}$ مرتبطة بمجموعة مخرجات $\{y^{(1)}, ..., y^{(m)}\}$، نريد أن نبني مُصَنِّف يتعلم كيف يتوقع $y$ من $x$.
نوع التوقّع أنواع نماذج التوقّع المختلفة موضحة في الجدول التالي:
الانحدار (regression) | التصنيف (classification) | |
المُخرَج | مستمر | صنف |
أمثلة | انحدار خطّي (linear regression) | انحدار لوجستي (logistic regression), آلة المتجهات الداعمة (SVM), بايز البسيط (Naive Bayes) |
نوع النموذج أنواع النماذج المختلفة موضحة في الجدول التالي:
نموذج تمييزي (discriminative) | نموذج توليدي (generative) | |
الهدف | التقدير المباشر لـ $P(y|x)$ | تقدير $P(x|y)$ ثم استنتاج $P(y|x)$ |
ماذا يتعلم | حدود القرار | التوزيع الاحتمالي للبيانات |
توضيح | ||
أمثلة | الانحدار (regression), آلة المتجهات الداعمة (SVM) | GDA, بايز البسيط (Naive Bayes) |
الرموز ومفاهيم أساسية
الفرضية (hypothesis) الفرضية، ويرمز لها بـ $h_\theta$، هي النموذج الذي نختاره. إذا كان لدينا المدخل $x^{(i)}$، فإن المخرج الذي سيتوقعه النموذج هو $h_\theta(x^{(i)})$.
دالة الخسارة (loss function) دالة الخسارة هي الدالة $L:(z,y)\in\mathbb{R}\times Y\longmapsto L(z,y)\in\mathbb{R}$ التي تأخذ كمدخلات القيمة المتوقعة $z$ والقيمة الحقيقية $y$ وتعطينا الاختلاف بينهما. الجدول التالي يحتوي على بعض دوال الخسارة الشائعة:
خطأ أصغر تربيع (least squared error) |
خسارة لوجستية (logistic loss) |
خسارة مفصلية (Hinge loss) |
الانتروبيا التقاطعية (cross-entropy) |
$\displaystyle\frac{1}{2}(y-z)^2$ | $\displaystyle\log(1+\exp(-yz))$ | $\displaystyle\max(0,1-yz)$ | $\displaystyle-\Big[y\log(z)+(1-y)\log(1-z)\Big]$ |
الانحدار الخطّي (linear regression) |
الانحدار اللوجستي (logistic regression) |
آلة المتجهات الداعمة (SVM) |
الشبكات العصبية (neural network) |
دالة التكلفة (cost function) دالة التكلفة $J$ تستخدم عادة لتقييم أداء نموذج ما، ويتم تعريفها مع دالة الخسارة $L$ كالتالي:
النزول الاشتقاقي (gradient descent) لنعرّف معدل التعلّم $\alpha\in\mathbb{R}$، يمكن تعريف القانون الذي يتم تحديث خوارزمية النزول الاشتقاقي من خلاله باستخدام معدل التعلّم ودالة التكلفة $J$ كالتالي:
ملاحظة: في النزول الاشتقاقي العشوائي (stochastic gradient descent, SGD) يتم تحديث المُعاملات (parameters) بناءاً على كل عينة تدريب على حدة، بينما في النزول الاشتقاقي الحُزَمي (batch gradient descent) يتم تحديثها باستخدام حُزَم من عينات التدريب.
الأرجحية (likelihood) تستخدم أرجحية النموذج $L(\theta)$، حيث أن $\theta$ هي المُدخلات، للبحث عن المُدخلات $\theta$ الأحسن عن طريق تعظيم (maximizing) الأرجحية. عملياً يتم استخدام الأرجحية اللوغاريثمية (log-likelihood) $\ell(\theta)=\log(L(\theta))$ حيث أنها أسهل في التحسين (optimize). فيكون لدينا:
خوارزمية نيوتن (Newton's algorithm) خوارزمية نيوتن هي طريقة حسابية للعثور على $\theta$ بحيث يكون $\ell'(\theta)=0$. قاعدة التحديث للخوارزمية كالتالي:
ملاحظة: هناك خوارزمية أعم وهي متعددة الأبعاد (multidimensional)، يطلق عليها خوارزمية نيوتن-رافسون (Newton-Raphson)، ويتم تحديثها عبر القانون التالي:
(linear models)
النماذج الخطيّةالانحدار الخطّي (linear regression)
هنا نفترض أن $y|x;\theta\sim\mathcal{N}(\mu,\sigma^2)$
المعادلة الطبيعية/الناظمية (normal) إذا كان لدينا المصفوفة $X$، القيمة $\theta$ التي تقلل من دالة التكلفة يمكن حلها رياضياً بشكل مغلق (closed-form) عن طريق:
خوارزمية أصغر معدل تربيع LMS إذا كان لدينا معدل التعلّم $\alpha$، فإن قانون التحديث لخوارزمية أصغر معدل تربيع (Least Mean Squares, LMS) لمجموعة بيانات من $m$ عينة، ويطلق عليه قانون تعلم ويدرو-هوف (Widrow-Hoff)، كالتالي:
ملاحظة: قانون التحديث هذا يعتبر حالة خاصة من النزول الاشتقاقي (gradient descent).
الانحدار الموزون محليّاً (LWR) الانحدار الموزون محليّاً (Locally Weighted Regression)، ويعرف بـ LWR، هو نوع من الانحدار الخطي يَزِن كل عينة تدريب أثناء حساب دالة التكلفة باستخدام $w^{(i)}(x)$، التي يمكن تعريفها باستخدام المُدخل (parameter) $\tau\in\mathbb{R}$ كالتالي:
التصنيف والانحدار اللوجستي
دالة سيجمويد (sigmoid) دالة سيجمويد $g$، وتعرف كذلك بالدالة اللوجستية، تعرّف كالتالي:
الانحدار اللوجستي (logistic regression) نفترض هنا أن $y|x;\theta\sim\textrm{Bernoulli}(\phi)$. فيكون لدينا:
ملاحظة: ليس هناك حل رياضي مغلق للانحدار اللوجستي.
انحدار سوفت ماكس (softmax) ويطلق عليه الانحدار اللوجستي متعدد الأصناف (multiclass logistic regression)، يستخدم لتعميم الانحدار اللوجستي إذا كان لدينا أكثر من صنفين. في العرف يتم تعيين $\theta_K=0$، بحيث تجعل مُدخل بيرنوللي (Bernoulli) $\phi_i$ لكل فئة $i$ يساوي:
النماذج الخطية العامة (Generalized Linear Models, GLM)
العائلة الأُسيّة (Exponential family) يطلق على صنف من التوزيعات (distributions) بأنها تنتمي إلى العائلة الأسيّة إذا كان يمكن كتابتها بواسطة مُدخل قانوني (canonical parameter) $\eta$، إحصاء كافٍ (sufficient statistic) $T(y)$، ودالة تجزئة لوغاريثمية $a(\eta)$، كالتالي:
ملاحظة: كثيراً ما سيكون $T(y)=y$. كذلك فإن $\exp(-a(\eta))$ يمكن أن تفسر كمُدخل تسوية (normalization) للتأكد من أن الاحتمالات يكون حاصل جمعها يساوي واحد.
تم تلخيص أكثر التوزيعات الأسيّة استخداماً في الجدول التالي:
التوزيع | $\eta$ | $T(y)$ | $a(\eta)$ | $b(y)$ |
بِرنوللي (Bernoulli) | $\log\left(\frac{\phi}{1-\phi}\right)$ | $y$ | $\log(1+\exp(\eta))$ | $1$ |
جاوسي (Gaussian) | $\mu$ | $y$ | $\frac{\eta^2}{2}$ | $\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{y^2}{2}\right)$ |
بواسون (Poisson) | $\log(\lambda)$ | $y$ | $e^{\eta}$ | $\displaystyle\frac{1}{y!}$ |
هندسي (Geometric) | $\log(1-\phi)$ | $y$ | $\log\left(\frac{e^\eta}{1-e^\eta}\right)$ | $1$ |
افتراضات GLMs تهدف النماذج الخطيّة العامة (GLM) إلى توقع المتغير العشوائي $y$ كدالة لـ $x\in\mathbb{R}^{n+1}$، وتستند إلى ثلاثة افتراضات:
ملاحظة: أصغر تربيع (least squares) الاعتيادي و الانحدار اللوجستي يعتبران من الحالات الخاصة للنماذج الخطيّة العامة.
(Support Vector Machines)
آلة المتجهات الداعمةتهدف آلة المتجهات الداعمة (SVM) إلى العثور على الخط الذي يعظم أصغر مسافة إليه:
مُصنِّف الهامش الأحسن (optimal margin classifier) يعرَّف مُصنِّف الهامش الأحسن $h$ كالتالي:
حيث $(w, b)\in\mathbb{R}^n\times\mathbb{R}$ هو الحل لمشكلة التحسين (optimization) التالية:
ملاحظة: يتم تعريف الخط بهذه المعادلة $\boxed{w^Tx-b=0}$.
الخسارة المفصلية (Hinge loss) تستخدم الخسارة المفصلية في حل SVM ويعرف على النحو التالي:
النواة (kernel) إذا كان لدينا دالة ربط الخصائص (features) $\phi$، يمكننا تعريف النواة $K$ كالتالي:
عملياً، يمكن أن تُعَرَّف الدالة $K$ عن طريق المعادلة $K(x,z)=\exp\left(-\frac{||x-z||^2}{2\sigma^2}\right)$، ويطلق عليها النواة الجاوسية (Gaussian kernel)، وهي تستخدم بكثرة.
ملاحظة: نقول أننا نستخدم "حيلة النواة" (kernel trick) لحساب دالة التكلفة عند استخدام النواة لأننا في الحقيقة لا نحتاج أن نعرف التحويل الصريح $\phi$، الذي يكون في الغالب شديد التعقيد. ولكن، نحتاج أن فقط أن نحسب القيم $K(x,z)$.
اللّاغرانجي (Lagrangian) يتم تعريف اللّاغرانجي $\mathcal{L}(w,b)$ على النحو التالي:
ملاحظة: المعامِلات (coefficients) $\beta_i$ يطلق عليها مضروبات لاغرانج (Lagrange multipliers).
(generative learning)
التعلم التوليديالنموذج التوليدي في البداية يحاول أن يتعلم كيف تم توليد البيانات عن طريق تقدير $P(x|y)$، التي يمكن حينها استخدامها لتقدير $P(y|x)$ باستخدام قانون بايز (Bayes' rule).
تحليل التمايز الجاوسي (Gaussian Discriminant Analysis)
الإطار تحليل التمايز الجاوسي يفترض أن $y$ و $x|y=0$ و $x|y=1$ بحيث يكونوا كالتالي:
التقدير الجدول التالي يلخص التقديرات التي يمكننا التوصل لها عند تعظيم الأرجحية (likelihood):
$\widehat{\phi}$ | $\widehat{\mu_j}\quad{\small(j=0,1)}$ | $\widehat{\Sigma}$ |
$\displaystyle\frac{1}{m}\sum_{i=1}^m1_{\{y^{(i)}=1\}}$ | $\displaystyle\frac{\sum_{i=1}^m1_{\{y^{(i)}=j\}}x^{(i)}}{\sum_{i=1}^m1_{\{y^{(i)}=j\}}}$ | $\displaystyle\frac{1}{m}\sum_{i=1}^m(x^{(i)}-\mu_{y^{(i)}})(x^{(i)}-\mu_{y^{(i)}})^T$ |
بايز البسيط (Naive Bayes)
الافتراض يفترض نموذج بايز البسيط أن جميع الخصائص لكل عينة بيانات مستقلة (independent):
الحل تعظيم الأرجحية اللوغاريثمية (log-likelihood) يعطينا الحلول التالية إذا كان $k\in\{0,1\},l\in[\![1,L]\!]$: $k\in\{0,1\},l\in[\![1,L]\!]$
ملاحظة: بايز البسيط يستخدم بشكل واسع لتصنيف النصوص واكتشاف البريد الإلكتروني المزعج.
(tree-based) والتجميعية (ensemble)
الطرق الشجريةهذه الطرق يمكن استخدامها لكلٍ من مشاكل الانحدار (regression) والتصنيف (classification).
التصنيف والانحدار الشجري (CART) والاسم الشائع له أشجار القرار (decision trees)، يمكن أن يمثل كأشجار ثنائية (binary trees). من المزايا لهذه الطريقة إمكانية تفسيرها بسهولة.
الغابة العشوائية (random forest) هي أحد الطرق الشجرية التي تستخدم عدداً كبيراً من أشجار القرار مبنية باستخدام مجموعة عشوائية من الخصائص. بخلاف شجرة القرار البسيطة لا يمكن تفسير النموذج بسهولة، ولكن أدائها العالي جعلها أحد الخوارزمية المشهورة.
ملاحظة: أشجار القرار نوع من الخوارزميات التجميعية (ensemble).
التعزيز (boosting) فكرة خوارزميات التعزيز هي دمج عدة خوارزميات تعلم ضعيفة لتكوين نموذج قوي. الطرق الأساسية ملخصة في الجدول التالي:
التعزيز التَكَيُّفي (adaptive boosting) | التعزيز الاشتقاقي (gradient boosting) |
• يتم التركيز على مواطن الخطأ لتحسين النتيجة في الخطوة التالية. | • يتم تدريب خوارزميات التعلم الضعيفة على الأخطاء المتبقية. |
(non-parametric)
طرق أخرى غير بارامتريةخوارزمية أقرب الجيران ($k$-nearest neighbors) تعتبر خوارزمية أقرب الجيران، وتعرف بـ $k$-NN، طريقة غير بارامترية، حيث يتم تحديد نتيجة عينة من البيانات من خلال عدد $k$ من البيانات المجاورة في مجموعة التدريب. ويمكن استخدامها للتصنيف والانحدار.
ملاحظة: كلما زاد المُدخل $k$، كلما زاد الانحياز (bias)، وكلما نقص $k$، زاد التباين (variance).
نظرية التعلُّم
حد الاتحاد (union bound) لنجعل $A_1, ..., A_k$ تمثل $k$ حدث. فيكون لدينا:
متراجحة هوفدينج (Hoeffding) لنجعل $Z_1, .., Z_m$ تمثل $m$ متغير مستقلة وموزعة بشكل مماثل (iid) مأخوذة من توزيع بِرنوللي (Bernoulli distribution) ذا مُدخل $\phi$. لنجعل $\widehat{\phi}$ متوسط العينة (sample mean) و $\gamma>0$ ثابت. فيكون لدينا:
ملاحظة: هذه المتراجحة تعرف كذلك بحد تشرنوف (Chernoff bound).
خطأ التدريب ليكن لدينا المُصنِّف $h$، يمكن تعريف خطأ التدريب $\widehat{\epsilon}(h)$، ويعرف كذلك بالخطر التجريبي أو الخطأ التجريبي، كالتالي:
تقريباً صحيح احتمالياً (Probably Approximately Correct, PAC) هو إطار يتم من خلاله إثبات العديد من نظريات التعلم، ويحتوي على الافتراضات التالية:
- مجموعتي التدريب والاختبار يتبعان نفس التوزيع.
- عينات التدريب تؤخذ بشكل مستقل.
مجموعة تكسيرية (shattering set) إذا كان لدينا المجموعة $S=\{x^{(1)},...,x^{(d)}\}$، ومجموعة مُصنٍّفات $\mathcal{H}$، نقول أن $\mathcal{H}$ تكسر $S$ (H shatters S) إذا كان لكل مجموعة علامات (labels) $\{y^{(1)}, ..., y^{(d)}\}$ لدينا:
مبرهنة الحد الأعلى (upper bound theorem) لنجعل $\mathcal{H}$ فئة فرضية محدودة (finite hypothesis class) بحيث $|\mathcal{H}|=k$، و $\delta$ وحجم العينة $m$ ثابتين. حينها سيكون لدينا، مع احتمال على الأقل $1-\delta$، التالي:
بُعْد فابنيك تشرفونيكس (Vapnik-Chervonenkis, VC) لفئة فرضية غير محدودة (infinite hypothesis class) $\mathcal{H}$، ويرمز له بـ $\textrm{VC}(\mathcal{H})$، هو حجم أكبر مجموعة (set) التي تم تكسيرها بواسطة $\mathcal{H}$ (shattered by $\mathcal{H}$).
مبرهنة فابنيك (Vapnik theorem) ليكن لدينا $\mathcal{H}$، مع $\textrm{VC}(\mathcal{H})=d$ وعدد عيّنات التدريب $m$. سيكون لدينا، مع احتمال على الأقل $1-\delta$، التالي: