Teoria probabilităților

De la Wikipedia, enciclopedia liberă
Salt la: Navigare, căutare

În lumea înconjurătoare, fenomenele deterministe ocupă doar o mică parte. Imensa majoritate a fenomenelor din natură și societate sunt stocastice (aleatoare). Studiul acestora nu poate fi făcut pe cale deterministă și, de aceea, știința hazardului a apărut ca o necesitate. Teoria probabilităților studiază legile după care evoluează fenomenele aleatoare. Aplicarea matematicii la studierea fenomenelor aleatoare se bazează pe faptul că, prin repetarea de mai multe ori a unui experiment, în condiții practic identice, frecvența relativă a apariției unui anumit rezultat (raportul dintre numărul experimentelor în care apare rezultatul și numărul tuturor experimentelor efectuate) este aproximativ același, oscilând în jurul unui număr constant. Dacă acest lucru se întâmplă, atunci unui eveniment dat îi putem asocia un număr, anume probabilitatea sa. Această legătură între structura unui câmp de evenimente și număr este o reflectare în matematică a transferului calității în cantitate. Problema convertirii în număr a unui câmp de evenimente revine la a defini o funcție numerică pe această structură, care să fie o măsură a posibilităților de realizare a evenimentelor. Realizarea unui eveniment fiind probabilă, această funcție se numește probabilitate.

Scurt istoric[modificare | modificare sursă]

Începuturile teoriei probabilităților sunt legate de numele matematicienilor Blaise Pascal și Pierre Fermat în secolul al XVII-lea, ajungând la probleme legate de probabilitate datorită jocurilor de noroc. Dezvoltarea teoriei probabilităților și cercetarea unor probleme nelegate de jocurile de noroc sunt legate de matematicienii: Abraham Moivre, Pierre-Simon Laplace, Carl Friedrich Gauss, Simon-Denis Poisson, Pafnuti Lvovici Cebîșev, Andrei Andreevici Markov în secolul XIX, iar în secolul al XX-lea Andrei Nikolaevici Kolmogorov și al lui Alexandr Iakovlevici Hincin.

Probabilitatea evenimentelor aleatoare[modificare | modificare sursă]

Clasificarea evenimentelor[modificare | modificare sursă]

a) sigur - evenimentul apariției una din fețele 1,2,3,4,5,6 la un zar;
b) imposibil- evenimentul apariției feței 7 la un zar;
c) aleator - evenimentul apariției feței 3 la un zar.

Frecvența unui eveniment[modificare | modificare sursă]

h(E)\, = {m \over n}, unde m reprezintă numărul de apariții E în cazul a n încercări.

Probabilitatea unor evenimente aleatoare[modificare | modificare sursă]

În cazul unui număr n suficient de mare de experimente în care evenimentul E apare de m ori, frecvența relativă m/n poate fi socotită ca valoarea probabilităților. Această valoare se numește probabilitatea (statistică a) evenimentului E și se notează P(E); P(E) = {m \over n}.

Evenimente incompatibile, contrare[modificare | modificare sursă]

  • Evenimente incompatibile - evenimentele nu se produc simultan.
  • Evenimente contrare - producerea unuia înseamnă nerealizarea celorlalte.

Regula de adunare și cea de înmulțire[modificare | modificare sursă]

  • Regula de adunare

Probabilitatea reuniunii unui număr de evenimente incompatibile este egală cu suma probabilităților acestor evenimente:
P(E_1\cupE_2\cupE_3\cupE_4\cup... \cupE_K)=P(E_1)+P(E_2)+P(E_3)+ P(E_4)+...+P(E_K).

  • Regula de înmulțire
  • pentru evenimente independente: P(E\capF)=P(E) \cdot P(F)
  • pentru evenimente condiționate: P(E\capF)=P(F) \cdot P(E/F)

Câmp de evenimente. Câmp Borel de evenimente[modificare | modificare sursă]

  1. Mulțimea S e un element a lui B.
  2. Dacă două mulțimi E_1 și E_2 sunt elemente ale lui B atunci E_1\cupE_2, E_1\capE_2 sunt elemente ale lui B.
  3. Dacă mulțimile E_1, E_2, ..., E_n, ... sunt elemente ale lui B, atunci E_1\cupE_2\cup...E_n\cup... și E_1\capE_2\cap...E_n\cap sunt de asemenea elemente ale lui B.
  • Câmp de evenimente - condițiile 1 și 2
  • Câmp Borel de evenimente - condițiile 1, 2, 3.

Sistemul de axiome Kolmogorov[modificare | modificare sursă]

Axioma 1. Fiecărui eveniment aleator E din câmpul de evenimente îi este atașat un număr real nenegativ P(E) numit probabilitatea lui E. Axioma 2. Probabilitatea evenimentului sigur S P(S)=1.
Axioma 3. Dacă evenimentele E_1, E_n sunt incompatibile două câte două, atunci P(E_1\cupE_2\cup... \cupE_n)=P(E_1)+P(E_2)+...+P(E_n)
Axioma de adunare extinsă. Dacă apariția unui eveniment E echivalentă cu apariția unui oarecare eveniment E_1,..., E_n, ... incompatibile două câte două, atunci P(E)=P(E_1)+P(E_2)+...+P(E_n)+...

Variabile aleatoare și repartiții[modificare | modificare sursă]

Variabilă aleatoare: variabila ia valori diferite în cazul mai multor experimente efectuate în aceleași condiții.
Variabila aleatoare discretă: poate lua un număr finit de valori.
Variabila aleatoare continuă: poate lua un număr infinit de valori.
Repartiția: mulțimea, a cărei elemente sunt perechile formate din valorile pe care poate să le ia variabila și probabilitatea corespunzătoare.

Valoarea medie și dispersia[modificare | modificare sursă]

Valoarea medie[modificare | modificare sursă]

Variabila aleatoare X ce ia valorile x_i și probabilitățile corespunzătoare p_i
M(X)\, = \sum^\infty_{i=1}x_i p_i
Variabila continuă X și f(x) - densitatea de repartiție continuă
M(X)\, = \int_{-\infty}^{\infty} xf(x)\,dx

Valorile medii ale sumelor și produselor de variabile aleatoare[modificare | modificare sursă]

Valoarea medie a sumei a două variabile aleatoare este egală cu suma valorilor medii a celor două variabile aleatoare M(Z)=M(X)+M(Y), unde Z=X+Y, tot variabilă aleatoare. Valoarea medie a produsului a două variabile aleatoare independente este egală cu produsul valorilor medii ale variabilelor aleatoare M(Z)=M(X)×M(Y).

Dispersia pentru o variabilă aleatoare discretă[modificare | modificare sursă]

Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin însumarea produselor dintre pătratul devierii de la medie (x_i - μ) și probabilitatea corespunzătoare.
\sigma^2=\sum^n_{i=1} (x_i - \mu)^2 \times p_i

Dispersia pentru o variabilă aleatoare continuă[modificare | modificare sursă]

Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin integrarea de la - ∞ la + ∞ a produsului dintre pătratul abaterii de la medie (x-μ) și densitatea de repartiție f(x).
\sigma^2= \int_{-\infty}^{\infty} (x-\mu)^2 f(x)\,dx

Dispersia sumei a două variabile aleatoare independente[modificare | modificare sursă]

Dispersia unei sume de două variabile aleatoare independente este egală cu suma dispersiilor celor două variabile σ_2²=σ_x²+σ_y²

Inegalitatea lui Cebîșev[modificare | modificare sursă]

Fie X o variabilă discretă sau continuă cu valorile x, valoare medie μ și dispersia σ². Probabilitatea ca modulul diferenței (x-μ) să fie mai mare sau egal cu un număr oarecare ε>0 este mai mică sau egală cu câtul dintre dispersia σ² și pătratul lui ε.
P\left (\big|x-\mu\big|\ge \epsilon\right )\le {\sigma^2 \over \epsilon^2}

Legea numerelor mari[modificare | modificare sursă]

  • Enunț Bernoulli

Probabilitatea ca modulul diferenței dintre frecvența relativă a evenimentului E în cazul a n experimente (n suficient de mare) și probabilitatea p a evenimentului E să fie mai mic ca ε pozitiv, arbitrar de mic e aproximativ egală cu unu.
P\left (\bigg|{m \over n}-p\bigg|< \epsilon\right )\ge 1-\frac{1}{4\epsilon^2n}

  • Enunț Cebîșev

Probabilitatea ca modulul diferenței dintre media aritmetică A a valorilor medii a n variabile aleatoare independente (n suficient de mare) și media aritmetică a variabilelor aleatoare să fie mai mică decât ε e aproximativ egală cu unu. P\left (\Bigg|{1 \over n}\sum^n_{i=1} X_i-A\Bigg|< \epsilon\right )\ge 1-\frac{b^2}{n\epsilon^2}.

Repartiții[modificare | modificare sursă]

  • Repartiția binomială (Bernoulli)
Legea de repartiție: P_n (k)=C_n^k p^k (1-p)^{n-k}
Media: μ = np
Dispersia: σ² = np(1-p)
Formula de recurență: P_n (k+1)=\frac{n-k}{k+1} \cdot \frac{p}{1-p} P_n (k)
  • Repartiția Poisson

Este asemănătoare cu cea binomială, deosebindu-se prin faptul că n poate fi foarte mare (n-> ∞) și p foarte mic (p->0).

Legea de repartiție: \Psi_n (k)=\frac{a^k e^{-a}}{k!}
Media: a
Dispersia: a
Formula de recurență: \Psi_{n+1} (k)=\frac{a}{k+1} \Psi_n (k)
  • Repartiția Gauss (normală)
Densitatea de repartiție: p(x)=\frac{1}{a\sqrt{2\pi}} e^{-\frac{(x-b)^2}{2 a^2}}
Media: μ=b
Dispersia: σ²=a²
  • Repartiția normală redusă
Densitatea de repartiție: \varphi(\lambda)=\frac{1}{\sqrt{2\pi}} e^{-\frac{\lambda^2}{2}}
Media: μ=0
Dispersia: σ²=1

Cu ajutorul substituției λ=(x-μ)/σ și se face pentru a înlesni calculele.

  • Funcția de repartiție (integrala lui Gauss)

F(x)=\int_{-\infty}^{x} p(t)\, dt=\frac{1}{a\sqrt{2\pi}}\int_{-\infty}^{x} e^{-\frac{(t-b)^2}{2 a^2}}\, dt

Teoreme limită pentru sume de variabile aleatoare independente[modificare | modificare sursă]

Teorema Moivre-Laplace[modificare | modificare sursă]

Unde n reprezintă experimentele, p probabilitatea ca E să apară și q=1-p probabilitatea ca E să nu apară.
P\left\{a\le\sum_{k=1}^n \frac{mb-\mu}{\sqrt{mpq}}<b\right\} -> \frac{1}{\sqrt{2\pi}} \int_{a}^{b} e^{-\frac{x^2}{2}}\, dx

Teorema limită centrală[modificare | modificare sursă]

Dacă variabilele aleatoare independente două câte două x_1, x_2, ..., x_n au aceeași repartiție și dacă μ=M(x_n) și σ²=Δ²(x_n)>0 atunci variabila aleatoare \frac{{1 \over n} \sum_{k=1}^n X_k-M\left ({1 \over n} \sum_{k=1}^n X_k\right )}{\Delta\left ({1 \over n^2} \sum_{k=1}^n X_k\right )} urmează o repartiție normală redusă.

Bibliografie[modificare | modificare sursă]

  • Mică enciclopedie matematică, Ed Tehnică, București (1980)

Legaturi externe[modificare | modificare sursă]