یادآوری آمار و احتمالات
متن اصلی از افشین عمیدی و شروین عمیدی
ترجمه شده توسط عرفان نوری. بازبینی شده توسط محمد کریمی.
مقدمهای بر احتمالات و ترکیبیات
فضای نمونه مجموعهی همهی پیشامدهای یک آزمایش را فضای نمونهی آن آزمایش گویند که با $S$ نمایش داده میشود.
رخداد هر زیرمجموعهی $E$از فضای نمونه یک رخداد در نظر گرفته میشود. به عبارت دیگر، یک رخداد مجموعهای از پیشامدهای یک آزمایش است. اگر پیشامد یک آزمایش عضوی از مجموعهی $E$ باشد، در این حالت میگوییم که رخداد $E$ اتفاق افتاده است.
اصول موضوعهی احتمالات برای هر رخداد $E$، $P(E)$ احتمال اتفاق افتادن رخداد $E$ میباشد.
اصل ۱ - احتمال عددی بین ۰ و ۱ است.
اصل ۲ - احتمال اینکه حداقل یکی از رخدادهای موجود در فضای نمونه اتفاق بیوفتد، ۱ است.
اصل ۳ - برای هر دنباله از رخدادهایی که دو به دو اشتراک نداشته باشند، داریم:
جایگشت یک جایگشت چیدمانی از $r$ شی از $n$ شی با یک ترتیب خاص است. تعداد این چنین جایگشتها $P(n, r)$ است که به صورت زیر تعریف میشود:
ترکیب یک ترکیب چیدمانی از $r$ شی از $n$ شی است، به طوری که ترتیب اهمیتی نداشته باشد. تعداد این چنین ترکیبها $C(n, r)$ است که به صورت زیر تعریف میشود:
نکته: برای $0\leqslant r\leqslant n$، داریم $P(n,r)\geqslant C(n,r)$
احتمال شرطی
قضیهی بیز برای رخدادهای $A$ و $B$ به طوری که $P(B) > 0$ داریم:
نکته:داریم $P(A \cap B) = P(A) P(B | A) = P(A | B) P(B)$
افراز فرض میکنیم برای $\{A_i, i\in[\![1,n]\!]\}$ به ازای هر $i$ داشته باشیم $A_i\neq\varnothing$. در این صورت میگوییم $\{A_i\}$ یک افراز است اگر:
نکته: برای هر رخداد $B$ در فضای نمونه داریم $\displaystyle P(B)=\sum_{i=1}^nP(B|A_i)P(A_i)$.
تعمیم قضیهی بیز فرض میکنیم $\{A_i, i\in[\![1,n]\!]\}$ یک افراز از فضای نمونه باشید. در این صورت داریم:
استقلال دو رخداد $A$ و $B$ مستقل هستند اگر و فقط اگر داشته باشیم:
متغیرهای تصادفی
تعاریف
متغیر تصادفی یک متغیر تصادفی، که معمولاً با $X$ نمایش داده میشود، یک تابع است که هر عضو فضای نمونه را به اعداد حقیقی نگاشت میکند.
تابع توزیع تجمعی تابع توزیع تجمعی $F$، که تابعی یکنوا و اکیدا غیرنزولی است و برای آن $\underset{x\rightarrow-\infty}{\textrm{lim}}F(x)=0$ و $\underset{x\rightarrow+\infty}{\textrm{lim}}F(x)=1$ صدق میکنید، به صورت زیر تعریف میشود:
نکته: داریم $P(a < X\leqslant B)=F(b)-F(a)$.
تابع چگالی احتمال (PDF) تابع چگالی احتمال $f$ احتمال آن است که متغیر تصادفی $X$ مقداری بین دو تحقق همجوار این متغیر تصادفی را بگیرد.
ارتباط بین PDF و CDF موارد زیر ویژگیهای مهمی هستند که باید در مورد حالت گسسته و حالت پیوسته در نظر گرفت.
حالت | CDF $F$ | PDF $f$ | ویژگیهای PDF |
(D) | $\displaystyle F(x)=\sum_{x_i\leqslant x}P(X=x_i)$ | $f(x_j)=P(X=x_j)$ | $\displaystyle0\leqslant f(x_j)\leqslant1\textrm{ et }\sum_{j}f(x_j)=1$ |
(C) | $\displaystyle F(x)=\int_{-\infty}^xf(y)dy$ | $f(x)=\displaystyle \frac{dF}{dx}$ | $\displaystyle f(x)\geqslant0\textrm{ et }\int_{-\infty}^{+\infty}f(x)dx=1$ |
امید ریاضی و گشتاورهای یک توزیع عبارتهای مربوط به امید ریاضی $E[X]$، امید ریاضی تعمیم یافته $E[g(X)]$، $k$-مین گشتاور $E[X^k]$، و تابع ویژگی $\psi(\omega)$ برای حالات پیوسته و گسسته به صورت زیر هستند:
حالت | $E[X]$ | $E[g(X)]$ | $E[X^k]$ | $\psi(\omega)$ |
(D) | $\displaystyle \sum_{i=1}^nx_if(x_i)$ | $\displaystyle \sum_{i=1}^ng(x_i)f(x_i)$ | $\displaystyle \sum_{i=1}^nx_i^kf(x_i)$ | $\displaystyle\sum_{i=1}^nf(x_i)e^{i\omega x_i}$ |
(C) | $\displaystyle \int_{-\infty}^{+\infty}xf(x)dx$ | $\displaystyle \int_{-\infty}^{+\infty}g(x)f(x)dx$ | $\displaystyle \int_{-\infty}^{+\infty}x^kf(x)dx$ | $\displaystyle\int_{-\infty}^{+\infty}f(x)e^{i\omega x}dx$ |
واریانس واریانس یک متغیر تصادفی، که معمولاً با $\textrm{Var}(X)$ یا $\sigma^2$ نمایش داده میشود، میزانی از پراکندگی یک تابع توزیع است. مقدار واریانس به صورت زیر به دست میآید:
انحراف معیار انحراف معیار یک متغیر تصادفی، که با $\sigma$ نمایش داده میشود، میزانی از پراکندگی یک تابع توزیع است که با متغیر تصادفی همواحد است. مقدار آن به صورت زیر به دست میآید:
تبدیلات متغیرهای تصادفی فرض کنید متغیرهای تصادفی $X$ و $Y$ توسط تابعی به هم مرتبط هستند. با نمایش تابع توزیع متغیرهای تصادفی $X$ و $Y$ با $f_X$ و $f_Y$ داریم:
قضیهی انتگرال لایبنیتس فرض کنید $g$ تابعی از $x$ و $c$ باشد، و $a$ و $b$ کرانهایی باشند که مقدار آنها وابسته به مقدار $c$ باشد. داریم:
توزیعهای احتمالی
نابرابری چبیشف فرض کنید $X$ متغیری تصادفی با امید ریاضی $\mu$ باشد. برای هر $k$ و $\sigma > 0$ نابرابری زیر را داریم:
توزیعهای احتمالی اصلی توزیعهای زیر توزیعهای احتمالی اصلی هستند که بهتر است به خاطر بسپارید:
نوع | توزیع | $\psi(\omega)$ | $E[X]$ | $\textrm{Var}(X)$ | |
(D) | $X\sim\mathcal{B}(n, p)$ | $\displaystyle P(X=x)=\displaystyle\binom{n}{x} p^xq^{n-x}$ | $(pe^{i\omega}+q)^n$ | $np$ | $npq$ |
(D) | $X\sim\textrm{Po}(\mu)$ | $\displaystyle P(X=x)=\frac{\mu^x}{x!}e^{-\mu}$ | $e^{\mu(e^{i\omega}-1)}$ | $\mu$ | $\mu$ |
(C) | $X\sim\mathcal{U}(a, b)$ | $\displaystyle f(x)=\frac{1}{b-a}$ | $\displaystyle\frac{e^{i\omega b}-e^{i\omega a}}{(b-a)i\omega}$ | $\displaystyle\frac{a+b}{2}$ | $\displaystyle\frac{(b-a)^2}{12}$ |
(C) | $X\sim\mathcal{N}(\mu, \sigma)$ | $\displaystyle f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}$ | $e^{i\omega\mu-\frac{1}{2}\omega^2\sigma^2}$ | $\mu$ | $\sigma^2$ |
(C) | $X\sim\textrm{Exp}(\lambda)$ | $\displaystyle f(x) = \lambda e^{-\lambda x}$ | $\displaystyle\frac{1}{1-\frac{i\omega}{\lambda}}$ | $\displaystyle\frac{1}{\lambda}$ | $\displaystyle\frac{1}{\lambda^2}$ |
متغیرهای تصادفی با توزیع مشترک
چگالی حاشیهای و توزیع تجمعی از تابع چگالی احتمالی مشترک $f_{XY}$ داریم:
حالت | چگالی حاشیهای | تابع تجمعی |
(D) | $\displaystyle f_X(x_i)=\sum_{j}f_{XY}(x_i,y_j)$ | $\displaystyle F_{XY}(x,y)=\sum_{x_i\leqslant x}\sum_{y_j\leqslant y}f_{XY}(x_i,y_j)$ |
(C) | $\displaystyle f_X(x)=\int_{-\infty}^{+\infty}f_{XY}(x,y)dy$ | $\displaystyle F_{XY}(x,y)=\int_{-\infty}^x\int_{-\infty}^yf_{XY}(x',y')dx'dy'$ |
چگالی شرطی چگالی شرطی $X$ نسبت به $Y$، که معمولاً با $f_{X|Y}$ نمایش داده میشود، به صورت زیر تعریف میشود:
استقلال دو متغیر تصادفی $X$ و $Y$ مستقل هستند اگر داشته باشیم:
کواریانس کواریانس دو متغیر تصادفی $X$ و $Y$ که با $\sigma_{XY}^2$ یا به صورت معمولتر با $\textrm{Cov}(X,Y)$ نمایش داده میشود، به صورت زیر است:
همبستگی با نمایش انحراف معیار $X$ و $Y$ به صورت $\sigma_X$ و $\sigma_Y$، همبستگی مابین دو متغیر تصادفی $X$ و $Y$ که با $\rho_{XY}$ نمایش داده میشود به صورت زیر تعریف میشود:
نکتهی ۱: برای هر دو متغیر تصادفی دلخواه $X$ و $Y$، داریم $\rho_{XY}\in[-1,1]$.
نکتهی ۲: اگر $X$ و $Y$ مستقل باشند، داریم $\rho_{XY}=0$.
تخمین پارامتر
تعاریف
نمونهی تصادفی یک نمونهی تصادفی مجموعهای از $n$ متغیر تصادفی $X_1, ..., X_n$ است که از هم مستقل هستند و توزیع یکسانی با $X$ دارند.
تخمینگر یک تخمینگر تابعی از دادهها است که برای بهدستآوردن مقدار نامشخص یک پارامتر در یک مدل آماری به کار میرود.
پیشقدر پیشقدر یک تخمینگر $\hat{\theta}$ به عنوان اختلاف بین امید ریاضی توزیع $\hat{\theta}$ و مقدار واقعی تعریف میشود. یعنی:
نکته: یک تخمینگر بدون پیشقدر است اگر داشته باشیم $E[\hat{\theta}] = \theta$.
تخمین میانگین
میانگین نمونه میانگین نمونهی یک نمونهی تصادفی که برای تخمین مقدار واقعی میانگین $\mu$ یک توزیع به کار میرود، معمولاً با $\overline{X}$ نمایش داده میشود و به صورت زیر تعریف میشود:
نکته: میانگین نمونه بدون پیشقدر است، یعنی $E[\overline{X}]=\mu$.
قضیهی حد مرکزی یک نمونهی تصادفی $X_1, ..., X_n$ که از یک توزیع با میانگین $\mu$ و واریانس $\sigma^2$ به دست آمدهاند را در نظر بگیرید؛ داریم:
تخمین واریانس
واریانس نمونه واریانس نمونهی یک نمونهی تصادفی که برای تخمین مقدار واقعی واریانس $\sigma^2$ یک توزیع به کار میرود، معمولاً با $s^2$ یا $\hat{\sigma}^2$ نمایش داده میشود و به صورت زیر تعریف میشود:
نکته: واریانس نمونه بدون پیشقدر است، یعنی $E[s^2] = \sigma^2$.
رابطهی $\chi^2$ با واریانس نمونه فرض کنید $s^2$ واریانس نمونهی یک نمونهی تصادفی باشد. داریم: