Superinteligența. Căi, pericole, strategii

De la Wikipedia, enciclopedia liberă
Sari la navigare Sari la căutare
Superinteligența. Căi, pericole, strategii
Superintelligence-Paths Dangers Strategies.jpg
Informații generale
AutorNick Bostrom
SubiectSuperinteligență
Geneseu
Ediția originală
Titlu original
Superintelligence: Paths, Dangers, Strategies
Limbalimba engleză
EditurăOxford University Press
Țara primei aparițiiRegatul Unit
Data primei apariții
ISBN978-0-19-967811-2

Superinteligența. Căi, pericole, strategii (Superintelligence: Paths, Dangers, Strategies) este o carte din 2014 a filosofului suedez Nick Bostrom de la Universitatea din Oxford. Acesta susține că atunci când creierul mașinii depășește creierul uman ca inteligență generală, atunci această nouă superinteligență ar putea înlocui oamenii ca formă de viață dominantă pe Pământ. Mașinile suficient de inteligente și-ar putea îmbunătăți propriile capacități mai repede decât ar face-o cercetătorii din domeniul computerelor umane,[1] iar rezultatul ar putea reprezenta o catastrofă existențială pentru oameni. [2] Bostrom susține despre inteligența artificială că „noi oamenii suntem ca niște copii mici care se joacă cu o bombă”.[3]

Cartea lui Bostrom a fost tradusă în multe limbi. În limba română a apărut la Editura Litera în 2016 (ISBN: 9786063302817).[4]

Rezumat[modificare | modificare sursă]

Information icon.svg Atenție: urmează detalii despre narațiune și/sau deznodământ.

Nu se știe dacă inteligența artificială va atinge nivelul celei umane în câțiva ani, la sfârșitul acestui secol, sau undeva în secolele viitoare. Indiferent când va apărea, odată ce inteligența mașinii este dezvoltată la nivel uman, un sistem „superinteligent” care „depășește cu mult performanța cognitivă a oamenilor în aproape toate domeniile de interes” ar urma, cel mai probabil, în mod surprinzător de rapid. O astfel de superinteligență ar fi foarte dificil de controlat sau de restricționat.

În timp ce obiectivele finale ale superinteligențelor pot varia foarte mult, o superinteligență funcțională va genera în mod spontan, ca sub-obiective naturale, „obiective instrumentale”, cum ar fi conservarea de sine și integritatea obiectivului-conținut, îmbunătățirea cognitivă și achiziționarea resurselor. De exemplu, un agent al cărui singur scop final este să rezolve ipoteza Riemann (una din cele mai celebre și mai importante probleme nerezolvate din matematică) ar putea crea și transforma întregul Pământ în computronium (o „materie programabilă” ipotetică) pentru a ajuta la calcul. Superinteligența ar rezista proactiv oricărei încercări externe de a dezactiva superinteligența sau de a împiedica în alt mod finalizarea sub-obiectivelor sale. Pentru a preveni o astfel de catastrofă existențială, este necesar să se rezolve cu succes „problema controlului IA” pentru prima superinteligență. Soluția ar putea implica insuflarea superinteligenței cu obiective compatibile cu supraviețuirea și bunăstarea umană. Rezolvarea problemei de control este surprinzător de dificilă, deoarece majoritatea obiectivelor, atunci când sunt traduse în cod implementabil de mașină, duc la consecințe neprevăzute și nedorite.

Bufnița de pe coperta cărții face aluzie la o analogie pe care Bostrom o numește „Fabula neterminată a vrăbiilor”.[5] Un stol de vrăbii decide să găsească un pui de bufniță și să-l crească ca servitor.[6] Își imaginează cu nerăbdare „cât de ușoară ar fi viața” dacă ar avea o bufniță care să le ajute la construirea cuiburilor, să apere vrăbiile și să le dea timp pentru o viață de agrement. Vrăbiile încep căutarea dificilă a unui ou de bufniță; numai „Scronkfinkle”, o „vrabie cu un singur ochi, cu un temperament îngrozitor”, sugerează să ne gândim la întrebarea complicată a modului de a îmblânzi bufnița înainte de a o aduce „în mijlocul nostru”. Celelalte vrăbii se împotrivesc; căutarea unui ou de bufniță va fi deja suficient de grea: "De ce să nu ai bufnița mai întâi și să rezolvi detaliile fine mai târziu?" Bostrom afirmă că „Nu se știe cum se termină povestea”, dar își dedică cartea lui Scronkfinkle.[7][8]

Recepție[modificare | modificare sursă]

Cartea a ocupat locul 17 pe lista New York Times cu cele mai bine vândute cărți științifice din august 2014.[9] În aceeași lună, magnatul Elon Musk a apărut la știri, fiind de acord cu cartea că inteligența artificială este potențial mai periculoasă decât armele nucleare.[10][11][12] Munca lui Bostrom privind superinteligența a influențat și preocuparea lui Bill Gates pentru riscurile existențiale cu care se confruntă omenirea în secolul următor.[13][14] Într-un interviu din martie 2015 al președintelui Baidu, Robin Li, Gates a spus că el „va recomanda cu tărie” cartea Superinteligența.[15] Potrivit New Yorker, filosofii Peter Singer și Derek Parfit au „considerat-o o lucrare importantă”.[8]

Redactorul științific al Financial Times a descoperit că lucrarea lui Bostrom „uneori se îndreaptă către un limbaj opac care îi trădează trecutul de profesor de filozofie”, dar demonstrează convingător că riscul unei superinteligențe este suficient de mare încât societatea ar trebui să înceapă să se gândească de pe acum la modalități de dotare a viitoarei mașini inteligente cu valori pozitive.[1] O recenzie din The Guardian a subliniat: „chiar și cele mai sofisticate mașini create până acum sunt inteligente doar într-un sens limitat” și că „așteptările ca IA să depășească în curând inteligența umană au fost distruse pentru prima dată în anii 1960”, dar găsește un punct comun cu Bostrom în a sfătui că „cineva ar trebui sfătuit să respingă cu totul posibilitatea”.[2]

Unii dintre colegii lui Bostrom sugerează că războiul nuclear prezintă o amenințare mai mare pentru umanitate decât superinteligența, la fel ca și perspectiva viitoare a înarmării prin nanotehnologie și biotehnologiei.[2] The Economist afirmă că „Bostrom este obligat în mare parte din carte să discute speculații construite pe presupuneri plauzibile ... dar cartea este totuși valoroasă. Implicațiile introducerii unei a doua specii inteligente pe Pământ sunt suficient de ample pentru a merita o gândire intensă, chiar dacă perspectiva de a se întâmpla acest lucru pare îndepărtată."[16] Ronald Bailey a scris în Reason că Bostrom susține cu tărie că rezolvarea problemei controlului IA este „sarcina esențială a epocii noastre”.[17] Potrivit lui Tom Chivers de la Daily Telegraph, cartea este greu de citit, dar totuși este plină de satisfacții.[6] Un recenzor de la Journal of Experimental & Theoretical Artificial Intelligence a afirmat că „stilul de scriere [al cărții] este clar” și a lăudat cartea pentru evitarea „jargonului prea tehnic”.[18] Un recenzor de la Philosophy a considerat că Superinteligența este „mai realistă” decât cartea Singularitatea este aproape (The Singularity is Near) de Ray Kurzweil.[19]

Referințe[modificare | modificare sursă]

  1. ^ a b Cookson, Clive (). „Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom”. The Financial Times. Accesat în . 
  2. ^ a b c Henderson, Caspar (). „Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review”. The Guardian. Accesat în . 
  3. ^ https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom
  4. ^ https://books.google.ro/books?id=rKO3DwAAQBAJ
  5. ^ https://www.youtube.com/watch?v=7rRJ9Ep1Wzs
  6. ^ a b Chivers, Tom (). „Superintelligence by Nick Bostrom, review: 'a hard read'. The Telegraph. Accesat în . 
  7. ^ Adams, Tim (). „Nick Bostrom: 'We are like small children playing with a bomb'. The Observer. Accesat în . 
  8. ^ a b Khatchadourian, Raffi (). „The Doomsday Invention”. The New Yorker (în engleză). Accesat în . 
  9. ^ „Best Selling Science Books”. The New York Times. . Accesat în . 
  10. ^ Dean, James (). „Artificial intelligence 'may wipe out the human race'. The Times. Accesat în . 
  11. ^ Augenbraun, Eliene (). „Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes". CBC News. Accesat în . 
  12. ^ Bratton, Benjamin H. (). „Outing A.I.: Beyond the Turing Test”. The New York Times. Accesat în . 
  13. ^ Mack, Eric (). „Bill Gates Says You Should Worry About Artificial Intelligence”. Forbes. Accesat în . 
  14. ^ Lumby, Andrew (). „Bill Gates Is Worried About the Rise of the Machines”. The Fiscal Times. Accesat în . 
  15. ^ Kaiser Kuo (). „Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015”. YouTube. Accesat în . 
  16. ^ „Clever cogs”. The Economist. . Accesat în . 
  17. ^ Bailey, Ronald (). „Will Superintelligent Machines Destroy Humanity?”. Reason. Accesat în . 
  18. ^ Thomas, Joel (iulie 2015). „In defense of philosophy: a review of Nick Bostrom,”. Journal of Experimental & Theoretical Artificial Intelligence. 28 (6): 1089–1094. doi:10.1080/0952813X.2015.1055829. 
  19. ^ Richmond, Sheldon (). „Superintelligence: Paths, Dangers, Strategies”. Philosophy. 91 (1): 125–130. doi:10.1017/S0031819115000340.