Metoda tangentei

De la Wikipedia, enciclopedia liberă
Salt la: Navigare, căutare
Isaac Newton

În analiză numerică, metoda tangentei (de asemenea, cunoscut sub numele de metoda lui Newton sau metoda lui Newton-Raphson[1]), este o metodă de determinare a rădăcinii unei funcții reale

f(x) = 0 , \,

Descrierea metodei[modificare | modificare sursă]

Funcţia ƒ este marcată cu culoarea albastră, iar tangenta cu culoarea roşie. Se vede că xn+1 este o aproximare mai bună decât xn pentru rădăcina x a funcţiei f.

Având o funcție reală ƒ, iar derivata ei, ƒ ', vom începe cu stabilirea unei valori inițiale pentru x0 pentru o rădăcină a funcției f. O aproximare mai bună pentru rădăcina funcției este

x_{1} = x_0 - \frac{f(x_0)}{f'(x_0)} , \,

Geometric, (x1, 0) este la intersecția cu axa x a tangentei funcției f în punctul (x0). Procesul se repetă

x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)} , \,

până se atinge o valoare suficient de precisă.

Vom începe procesul cu o valoare inițială arbitrară x0.

Istorie[modificare | modificare sursă]

Numele "Metoda lui Newton" este derivat din faptul că Isaac Newton a descris un caz special al metodei în De analysi per aequationes numero terminorum infinitas (scris în 1669, publicat în 1711 de către William Jones) și în De metodis fluxionum et serierum infinitarum (scrisă în 1671, tradus și publicat ca Metoda fluctuațiilor în 1736 de către John Colson). Cu toate acestea, metoda lui diferă substanțial de metoda modernă de mai sus: Newton aplică metoda numai pentru polinoame. El nu calcula aproximări succesive x_n, dar calculează o secvență de polinoame și numai la sfârșit el ajunge la o aproximare a rădăcinii x. În cele din urmă, Newton consideră metoda ca pur algebrică și nu face nici o mențiune cu privire la calculul numeric. Metoda lui Isaac Newton poate fi derivată de la o metodă similară, dar mai puțin precisă, metoda lui Vieta. Esența metodei Vieta lui poate fi găsită în lucrările matematicianului persan Sharaf al-Din al-Tusi, , în timp ce succesorul său Jamshīd al-Kāshī a folosit o formă a metodei lui Newton pentru a rezolva x^P - N = 0 t pentru a găsi rădăcinile lui N. Un caz special al metodei lui Newton pentru calcularea rădăcini pătrate a fost cunoscut mult mai devreme și este adesea numit „metoda babiloniană”.

Metoda lui Newton a fost folosită de către matematicianul japonez din secolul 17 Seki Kōwa pentru a rezolva ecuații cu o singură variabilă, deși legătură cu calculul lipsea.

Metoda lui Newton a fost publicată prima dată în 1685, înTratat istoric și practic de algebră de John Wallis. În 1690, Joseph Raphson a publicat o descriere simplificată în Analysis aequationum universalis. Raphson prezenta metoda lui Newton ca o metodă pur algebrică și limita utilizarea sa la funcții polinomiale, dar el descrie metoda în termeni de aproximări succesivexn în loc de mai complicata secvență de polinoame utilizate de Newton.

În cele din urmă, în 1740, Thomas Simpson a descris metoda lui Newton ca o metodă iterativă pentru rezolvarea ecuațiilor generale neliniare utilizând calcul, oferind, în esență, descrierea de mai sus. În aceeași publicație, Simpson oferă, de asemenea, generalizarea la sistemele de două ecuații și constată că metoda lui Newton poate fi folosit pentru rezolvarea problemelor de optimizare prin setarea gradient de la zero.

Arthur Cayley în 1879, în Problema imaginar Newton-Fourier a fost primul care a observat dificultăți în generalizarea metodei lui Newton la rădăcinile complexe de polinoame cu un grad mai mare de 2 și valorile inițiale complexe. Acest lucru a deschis calea pentru studiul teoriei iterațiilor funcțiilor raționale.

Demonstrația convergenței pătratice[modificare | modificare sursă]

Să presupunem că ƒ : [ab] → R este o funcție derivabilă definită pe intervalul [ab] cu valori în mulțimea numerelor reale  R.

Formula de convergență a rădăcinii poate fi ușor dedusă. Să presupunem că avem o aproximare curentă xn. Atunci putem obține formula pentru o mai bună aproximare, xn+1 . Știm din definiția derivatei unui punct dat că este panta unei tangente în acel punct.

Fie

f'(x_{n}) = \frac{ \Delta y }{ \Delta x } = \frac{ f( x_{n} ) - 0 }{ x_{n} - x_{n+1} } , \,

Să notăm rădăcina cu \alpha \,..

Conform formulei lui Taylor, dacă funcția f(x) are a doua derivată continuă, atunci poate fi reprezentată în punctul \alpha \,. cu formula:

f(\alpha) = f(x_n) + f^\prime(x_n)(\alpha - x_n) + \frac{1}{2!}f^{\prime\prime}(\xi_n)(\alpha - x_n)^{2} \,,

unde ξn este cuprins între xn și \alpha \,.

Rezultă că

0 = f(\alpha) = f(x_n) + f^\prime(x_n)(\alpha - x_n) + \frac{1}{2}f^{\prime\prime}(\xi_n)(\alpha - x_n)^{2} \,

Împărțind cu  f^\prime(x_n)\,, obținem:

 \frac {f(x_n)}{f^\prime(x_n)}+\left(\alpha-x_n\right) = \frac {- f^{\prime\prime} (\xi_n)}{2 f^\prime(x_n)}\left(\alpha-x_n\right)^2

Ținând cont de formula

 x_{n+1} = x_{n} - \frac {f(x_n)}{f^\prime(x_n)} \,,

rezultă că:

 \underbrace{\alpha - x_{n+1}}_{\epsilon_{n+1}} = \frac {- f^{\prime\prime} (\xi_n)}{2 f^\prime(x_n)} (\underbrace{\alpha - x_n}_{\epsilon_{n}})^2 \,.

deci

 \epsilon_{n+1} = \frac {- f^{\prime\prime} (\xi_n)}{2 f^\prime(x_n)} \, {\epsilon_n}^2 \,.

Dacă funcția f este de clasă C^3 pe intervalul [a,b] care include soluția x*, atunci f, f' și f, fiind continue pe un interval închis, sunt mărginite pe acel interval. Notând cu M - maximul în valoare absolută al funcției f/(2*f'), atunci

|\alpha - x_n+1| <= M.|\alpha - x_n| \,

Deci raza de convergență R>=1/M. Alegând prima iterație :\alpha \, astfel încât :|\alpha - x_0| <= 1/M \, obținem un șir convergent la soluția :\alpha \,.

Se demonstrează că daca funcția f este strict monotonă (f' de semn constant si nu se anulează) și convexă sau concavă (f de semn constant) pe intervalul cuprins între rădăcină și valoarea de estimare inițială, atunci algoritmul converge, iar convergența sa este pătratică. Intr-adevăr, din

f(x_{n+1}) \, =  f(x_n) + f^\prime(x_n)(x_{n+1} - x_n) + \frac{1}{2!}f^{\prime\prime}(\xi_n)(x_{n+1} - x_n)^{2} \,,

unde ξn este cuprins între xn și xn+1, si din

 x_{n+1} - x_n = - \frac {f(x_n)}{f^\prime(x_n)} \,,

rezultă că

f(x_{n+1}) = f(x_n) - f^\prime(x_n)(\frac {f(x_n)}{f^\prime(x_n)}) + \frac{1}{2!}f^{\prime\prime}(\xi_n)(\frac {f(x_n)}{f^\prime(x_n)})^{2} \,

de unde

f(x_{n+1}) = \frac{1}{2!}f^{\prime\prime}(\xi_n)(\frac {f(x_n)}{f^\prime(x_n)})^{2} \,

De aici și din

 x_{n+2} - x_{n+1} = - \frac {f(x_{n+1})}{f^\prime(x_{n+1})} \,,

rezultă că

 x_{n+2} - x_{n+1} = - \frac{1}{2!} . \frac {f''(\xi_n)}{f'(x_{n+1})}(\frac {f(x_n)}{f'(x_n)})^{2} \,,

Termenii șirului  x_{n+2} - x_{n+1} au același semn cu - \frac{f''}{f'}. Deci șirul  f(x_n) este monoton începând cu iterația a doua. Pentru că este și mărginit, rezultă că este convergent.

Pentru a calcula limita, trecem la limită în ecuația

 x_{n+1} = x_{n} - \frac {f(x_n)}{f^\prime(x_n)} \,,

rezultă că

 l = l - \frac {f(l)}{f^\prime(l)} \,,

unde l este limita funcției. Deci f(l)=0, de unde rezultă că limita șirului este chiar rădăcina unică a funcției f(x)=0 pe intervalul de definiție.

Exemple[modificare | modificare sursă]

Rădăcina pătrată a unui număr[modificare | modificare sursă]

Dacă se dorește calculul rădăcinii pătrate din 612, acest lucru este echivalent cu găsirea soluției ecuației

\,x^2 = 612

având derivata

 f'(x) = 2x. \,

Cu o estimare inițială de 10, secvența dată de metoda lui Newton este

\begin{matrix}
  x_1 & = & x_0 - \dfrac{f(x_0)}{f'(x_0)} & = & 10 - \dfrac{10^2 - 612}{2 \cdot 10} & = & 35.6 \quad\quad\quad{} \\
  x_2 & = & x_1 - \dfrac{f(x_1)}{f'(x_1)} & = & 35.6 - \dfrac{35.6^2 - 612}{2 \cdot 35.6} & = & \underline{2}6.395505617978\dots \\
  x_3 & = & \vdots & = & \vdots & = & \underline{24.7}90635492455\dots \\
  x_4 & = & \vdots & = & \vdots & = & \underline{24.7386}88294075\dots \\
  x_5 & = & \vdots & = & \vdots & = & \underline{24.7386337537}67\dots
\end{matrix}

Cifrele corecte sunt cele subliniate. Cu doar câteva iterații se poate obține o soluție corectă la mai multe zecimale.

Soluția ecuației cos(x) = x3 [modificare | modificare sursă]

Considerăm problema găsirii numărul pozitiv x astfel încât cos(x) = x3, sau echivalent f(x) = cos(x) − x3. Avem f'(x) = −sin(x) − 3x2. Deoarece cos(x) ≤ 1 pentru toate x șix3 > 1 pentru x > 1, știm că rădăcina noastră se află între 0 și 1. Încercăm o valoare de pornire de x0 = 0.5

\begin{matrix}
  x_1 & = & x_0 - \dfrac{f(x_0)}{f'(x_0)} & = & 0.5 - \dfrac{\cos(0.5) - (0.5)^3}{-\sin(0.5) - 3(0.5)^2} & = & 1.112141637097 \\
  x_2 & = & x_1 - \dfrac{f(x_1)}{f'(x_1)} & = & \vdots & = & \underline{0.}909672693736 \\
  x_3 & = & \vdots & = & \vdots & = & \underline{0.86}7263818209 \\
  x_4 & = & \vdots & = & \vdots & = & \underline{0.86547}7135298 \\
  x_5 & = & \vdots & = & \vdots & = & \underline{0.8654740331}11 \\
  x_6 & = & \vdots &= & \vdots & = & \underline{0.865474033102}
\end{matrix}

Cifrele corecte sunt cele subliniate. În special, x6 este corect pentru numărul de zecimale dat. Vom vedea că numărul de zecimale exacte corecte crește de la 2 (pentru x 3 ), la 5 și apoi la 10, ceea ce ilustrează convergența pătratică.

Pseudocod[modificare | modificare sursă]

 N ← 1
x=a;
y=f(x);
y1=f1(x);      //f1 este derivata lui f

 While N ≤ NMAX
{ 
        x=x-y/y1
        y=f(x)
        y1=f1(x)
   If (f(x) = 0 then 
{ 
     Output(x)
     Stop
}
  N ← N + 1 
 }
 Output("Algoritmul nu determină soluția în numărul maxim de iterații.") 

In limbajul C

#include<iostream.h>
#include<math.h>
#define eps 0.00000000001
#define iter 200
 
double f(double x)
{
return x*x*x-2*x*x*cos(x)+x-3;
}
 
double f1(double x)
{
//f1 este derivata functiei f
return 3*x*x+2*x*x*sin(x)-4*x*cos(x)+1;
}
 
double itang(double a,double b,double(*f)(double),double(*f1)(double))
{
unsigned char i;double x,y1,y;
i=0;
x=a;
y=f(x);
y1=f1(x);
 
while ( (i<=iter) && ((y<-eps) || (y>eps)) )
	{
	x=x-y/y1;
	y=f(x);
	y1=f1(x);
	cout<<"\n\nf("<<x<<")="<<y<<" la iteratia "<<(int)i;
	i++;
	}
if (i>iter) 
	{
	cout<<"problema nu se poate rezolva in nr.maxim de iteratii";
	return 0;
	} 
else return x;
}
 
void main()
{
double x,y1,y,a,b;
cout<<"a=";cin>>a;cout<<"b=";cin>>b;
x=itang(a,b,f,f1);if (x!=0) cout<<'\n'<<x;
}

Note[modificare | modificare sursă]

Bibliografie[modificare | modificare sursă]

  • Constantin Ilioi, Probleme de optimizare și algoritmi de aproximare a soluțiilor, Editura Academiei Republicii Socialiste România, București, 1980.

Legături externe[modificare | modificare sursă]