Distribuția Gauss

De la Wikipedia, enciclopedia liberă
Salt la: Navigare, căutare
Funcția densitate de probabilitate pentru distribuția normală; linia verde este distribuția normală standard

Distribuția normală este o distribuție de probabilitate continuă. Este numită de asemenea distribuția Gauss deoarece a fost descoperită de către Carl Friedrich Gauss.[1]

Distribuția normală standard (cunoscută,de asemenea, sub numele de distribuție Z) este distribuția normală cu media zero și variația 1 (curbele verzi în imaginea din dreapta). Acesta este adesea numită clopotul lui Gauss, deoarece graficul densității de probabilitate arată ca un clopot.

Se notează cu: N(μ,σ), unde μ și σ sunt parametrii din funcția de distribuție care va fi descrisă în continuare.

Proprietăți[2][3][4][5][6][modificare | modificare sursă]

Densitatea de repartiție[modificare | modificare sursă]

f(x)=\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}

Media[modificare | modificare sursă]

M(X)\, = \int_{-\infty}^{\infty} x.f(x)\,dx = \int_{-\infty}^{\infty} x.\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\,dx = \mu

Dispersia[modificare | modificare sursă]

\sigma^2(X)= \int_{-\infty}^{\infty} (x-M(X))^2.f(x)\,dx=\int_{-\infty}^{\infty} (x-M(X))^2.\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\,dx=\int_{-\infty}^{\infty} (x-\mu)^2.\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\,dx=\sigma^2

Entropia[modificare | modificare sursă]

H[f] = -\int\limits_{-\infty}^{\infty} f(x) \ln (f(x))\, dx = -\int\limits_{-\infty}^{\infty} \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}} \ln (\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}})\, dx = \ln\left(\sigma\sqrt{2\,\pi\,e}\right)\!

Funcția de repartiție cumulativă[modificare | modificare sursă]

Funcția de repartiție cumulativă este funcția

 F(t) = \int_{-\infty}^{t}f(x) \,dx = \frac{1}{\sigma.\sqrt{2\pi}} \int_{-\infty}^{t} x.e^{-\frac{(x-\mu)^2}{2 \sigma^2}}\,dx

Pentru repartiția N(0,1), această funcție este numită "funcția lui Laplace", și este dată de

 \phi(t) = \frac{1}{\sqrt{2\pi}}  \int_{-\infty}^{t}e^{-\frac{x^2}{2}}\,dx

Pentru o repartiție normală oarecare N(μ,σ), se verifică prin schimbarea de variabilă x->(x-μ)/σ că

 P(X<x) = \phi(\frac{x-\mu}{\sigma})

Repartiția variabilei (X-μ)/σ[modificare | modificare sursă]

Pornind de la proprietățile operatorilor de medie și dispersie

  • M(X − μ) = M(X)− μ
  • D(X − μ) = D(X)
  • D(X/σ)=(1/σ2) D(X)

se obține că, dacă o variabilă aleatoare este normal repartizată N(μ,σ), atunci variabila aleatoare redusă

\frac{X-\mu}{\sigma}

este repartizată N(0,1).

Suma a n variabile independente având repartițiile N(μkk)[7][modificare | modificare sursă]

Dacă Xk:N(μkk), k=1,...,n - sunt variabile aleatoare independente, atunci suma lor X1+X2+...+Xn are repartiția:

N( \sum_{k=1}^n {\mu}_k, \sqrt(\sum_{k=1}^n {\sigma}_k^2)).

Ca o consecință imediată a acestui rezultat:

Media aritmetică a n variabile independente având repartiția N(μ,σ)[modificare | modificare sursă]

Dacă Xk:N(μ,σ), k=1,...,n - sunt variabile aleatoare independente, atunci media lor aritmetică (X1+X2+...+Xn)/n are repartiția:

N( \mu, \frac {\sigma}{\sqrt(n)})

Teorema limită centrală (Laplace)[modificare | modificare sursă]

Reprezintă una din cele mai puternice și mai utilizate proprietăți ale distribuției Gauss. Teorema este următoarea:

Dacă Xk - sunt variabile aleatoare independente având aceeași medie \mu și dispersia \sigma^2, atunci limita mediei lor aritmetice (X1+X2+...+Xn)/n atunci cand n -> \infty are proprietatea:

\frac {1}{\sigma / \sqrt(n)} (\frac{X_1+X_2+...+X_n}{n} - \mu)-> N(0,1)

Rezultă că \frac{X_1+X_2+...+X_n}{n} se aproximează cu N(\mu,\frac {\sigma}{n}) pentru n -> \infty

Regula celor 3σ[modificare | modificare sursă]

O variabilă normal repartizată X:N(μ,σ) ia valori semnicative numai în intervalul (μ-3σ,μ+3σ). Într-adevăr, P({|X-\mu|>=3\sigma}) =1 - P({|X-\mu|<3\sigma}) = 1-\phi(3) = 0,0027, valoare care în unele situații poate fi neglijată.

Vezi și[modificare | modificare sursă]

Referințe[modificare | modificare sursă]

  1. ^ Kirkwood, Betty R; Sterne, Jonathan AC (2003). Essential Medical Statistics. Blackwell Science Ltd 
  2. ^ http://civile.utcb.ro/cmat/cursrt/psvp.pdf Probabilități și statistică, Viorel Petrehus, Sever-Angel Popescu, Universitatea Tehnică de Construcții București, 2005
  3. ^ http://www.justmed.eu/files/statistica/s1.pdf/
  4. ^ http://web.info.uvt.ro/~balint/files/probabilitati.pdf/ Ștefan Balint, Eva Kaslik, Simina Mariș -Probabilităț - notițe de curs
  5. ^ math.etti.tuiasi.ro/lpopa/cursTP.pdf/ Ariadna Lucia Pletea, Liliana Popa, Teoria probabilităților, Universitatea Tehnică " Gh. Asachi", Iași, 1999
  6. ^ http://www.tc.etc.upt.ro/teaching/ms/c4.pdf
  7. ^ H. Poincaré-Calcul des probabilités, Gauthiers-Villars,Paris,1912/

Legături externe[modificare | modificare sursă]