Sari la conținut

Inteligență artificială puternică

De la Wikipedia, enciclopedia liberă

Inteligența artificială puternică[1] sau generală[2] (din artificial general intelligence, prescurtat AGI) este inteligența ipotetică[3][4] a unei mașini care are capacitatea de a înțelege sau de a învăța orice sarcină intelectuală pe care o poate îndeplini o ființă umană. Este un obiectiv primordial al unor cercetări în domeniul inteligenței artificiale și un subiect comun în științifico-fantastic și în viitorologie. Mai este denumită și IA puternică,[5][6][7] IA completă[8] sau inteligență generală de acțiune.[9] Unele surse academice folosesc termenul „IA puternică” doar pentru mașinile care pot experimenta conștiința.[10] Se afirmă că IA de astăzi se află la zeci de ani distanță de o viitoare IA puternică.[11][12]

Spre deosebire de IA puternică, IA slabă[6] (numită și IA restrânsă sau IA îngustă[13] din narrow AI) nu este destinată să aibă abilități cognitive umane, mai degrabă, IA slabă se limitează la utilizarea unui software pentru a studia sau îndeplini sarcini specifice de rezolvare a problemelor sau de raționament.

Din 2017, peste patruzeci de organizații cercetează activ IA puternică.[14]

Au fost propuse diferite criterii de inteligență (cel mai faimos fiind testul Turing), dar până în prezent nu există nicio definiție care să mulțumească pe toată lumea. Cu toate acestea, există un acord la scară largă în rândul cercetătorilor inteligenței artificiale, prin care inteligența este necesară pentru următoarele abilități și capacități:[15]

Alte capabilități importante includ abilitatea de a simți (de exemplu, vederea) și capacitatea de a acționa (de exemplu, să mute și să manipuleze obiecte) în lumea în care trebuie observat un comportament inteligent.[16] Acest lucru ar include capacitatea de a detecta și de a răspunde la pericole.[17] Multe abordări interdisciplinare ale inteligenței (de exemplu, știința cognitivă, inteligența computațională și luarea deciziilor) tind să sublinieze necesitatea de a lua în considerare trăsături suplimentare precum imaginația (considerată ca abilitatea de a forma imagini mentale și concepte care nu au fost programate)[18] și autonomia.[19] Există sisteme bazate pe computer care prezintă multe dintre aceste capabilități (de exemplu, vezi: creativitatea informatică, raționamentul automat, sistemul de sprijinire a deciziilor, robotul, calculul evolutiv, agentul inteligent), dar care nu se află încă la un nivel uman [mediu].

Au fost luate în considerare următoarele teste pentru confirmarea IA puternice la nivel uman:[20][21]

Testul Turing (Turing)
O mașină și un om conversează în scris amândoi cu un al doilea om care nu-i vede și care trebuie să evalueze care dintre cei doi este mașina, care trece testul dacă poate păcăli evaluatorul o perioadă semnificativă din timp. Notă: Turing nu definește ceea ce ar trebui să se califice drept inteligență, doar că dacă evaluatorul își dă seama că este o mașină acest lucru ar trebui să o descalifice.
Testul cafelei (Wozniak)
Necesită ca o mașină să intre într-o casă americană obișnuită și să își dea seama cum să facă o cafea: să găsească aparatul de cafea, să găsească cafeaua, să adauge apă, să găsească o cană și să pregătească cafeaua apăsând butoanele corespunzătoare.
Testul studentului robot (Goertzel)
O mașină se înscrie la o universitate, urmând și promovând aceleași clase ca și oamenii, obținând o diplomă.
Testul ocupării forței de muncă (Nilsson)
O mașină lucrează într-un loc de muncă important din punct de vedere economic, cu performanțe cel puțin la fel de bine ca oamenii din același loc de muncă.

Probleme pe care să le rezolve

[modificare | modificare sursă]

Cele mai dificile probleme pentru computere sunt cunoscute informal ca „IA-complete” sau „IA-hard”, ceea ce înseamnă că rezolvarea lor este echivalentă cu aptitudinea generală a inteligenței umane sau IA puternice, dincolo de capacitățile unui algoritm specific scopului.[22]

Printre presupuse probleme IA complete sunt incluse: viziunea generală, înțelegerea limbajului natural și gestionarea circumstanțelor neașteptate în timp ce rezolvă orice problemă din lumea reală.[23]

Problemele IA complete nu pot fi rezolvate numai cu tehnologia computerizată actuală și necesită, de asemenea, calcule umane. Această proprietate ar putea fi utilă, de exemplu, pentru a testa prezența oamenilor, așa cum intenționează CAPTCHA; și pentru securitatea computerului pentru a respinge atacurile prin forță brută.[24][25]

Cercetarea modernă a IA a început la mijlocul anilor 1950.[26] Prima generație de cercetători IA a fost convinsă că inteligența artificială generală este posibilă și că va apărea în doar câteva decenii. Pionierul IA Herbert A. Simon scria în 1965: „Mașinile vor fi capabile, în termen de douăzeci de ani, să facă orice lucru pe care un om îl poate face”.[27] Predicțiile sale au inspirat personajul HAL 9000 al lui Stanley Kubrick și Arthur C. Clarke, care a întruchipat ceea ce cercetătorii IA credeau că ar putea crea până în 2001. Pionierul IA Marvin Minsky a fost consultant[28] în proiectul de a face HAL 9000 cât mai realist posibil conform previziunilor consensuale ale vremii.[29]

Cu toate acestea, la începutul anilor 1970, a devenit evident că cercetătorii au subestimat brutal dificultatea proiectului. Agențiile de finanțare au devenit sceptice față de IA puternică și au pus cercetătorii sub presiune crescândă pentru a produce o „IA aplicată” utilă. La începutul anilor 1980, proiectul japonez de calculatoare de a cincea generație a relansat interesul pentru IA puternică, stabilind o cronologie de zece ani care include obiective IA puternică precum „să ducă o conversație întâmplătoare”.[30] Ca răspuns la acest lucru și la succesul sistemelor expert, atât industria, cât și guvernul au reinvestit în domeniu.[31] Cu toate acestea, încrederea în IA s-a prăbușit spectaculos la sfârșitul anilor 1980, iar obiectivele proiectului de calculatoare de a cincea generație nu au fost niciodată îndeplinite.[32]

Pentru a doua oară în 20 de ani, cercetătorii IA care au prezis realizarea iminentă a IA puternice au greșit. În anii 1990, cercetătorii AI au câștigat o reputație de a face promisiuni deșarte. Au devenit reticenți să facă previziuni și să evite orice mențiune a inteligenței artificiale „la nivel uman” de teamă să nu fie etichetați ca „visători cu ochi sălbatici”.[33]

Cercetarea IA slabe

[modificare | modificare sursă]

În anii 1990 și la începutul secolului 21, cercetarea IA mainstream a obținut un succes comercial și o respectabilitate academică mult mai mare concentrându-se pe subprobleme specifice în care pot produce rezultate verificabile și aplicații comerciale, cum ar fi rețelele neuronale artificiale și învățarea statistică a mașinilor.[34] Aceste sisteme „IA aplicată” sunt acum utilizate pe scară largă în întreaga industrie tehnologică, iar cercetarea în acest sens este foarte finanțată atât în mediul academic, cât și în industrie. În prezent, dezvoltarea în acest domeniu este considerată o tendință emergentă și se așteaptă ca o etapă matură să se întâmple în mai mult de 10 ani.[35]

Cei mai mulți cercetători mainstream ai IA speră că IA puternică poate fi dezvoltată prin combinarea programelor care rezolvă diferite sub-probleme.

„Sunt încrezător că această cale de jos în sus către inteligența artificială se va întâlni într-o bună zi la mai mult de jumătate din drum cu calea tradițională de sus în jos, gata să ofere competență lumii reale și cunoștințe comune la scară largă care au fost atât de frustrant de evazive în programele de raționament. Mașinile complet inteligente vor rezulta atunci când vârful de aur metaforic este atins unind cele două eforturi." [36]

Cu toate acestea, chiar și această filozofie fundamentală a fost contestată; de exemplu, Stevan Harnad de la Princeton și-a încheiat lucrarea din 1990 cu privire la ipoteza împământarii simbolului, afirmând:

„S-a exprimat adesea așteptarea că abordările „de sus în jos” (simbolice) de modelare a cogniției vor întâlni cumva abordările „de jos în sus” (senzoriale) undeva între ele. Dacă considerațiile fundamentale din această lucrare sunt valabile, atunci această așteptare este modular fără speranță și există într-adevăr o singură cale viabilă: de la bază. Un nivel simbolic plutitor, cum ar fi nivelul software al unui computer, nu va fi niciodată atins pe această cale (sau invers) - nici nu este clar de ce ar trebui să încercăm să atingem un astfel de nivel, deoarece se pare că a ajunge acolo echivalează cu dezrădăcinarea simbolurilor noastre din semnificațiile lor intrinseci (prin aceasta ne reducem doar la echivalentul funcțional al unui computer programabil)."[37]

Cercetare modernă a IA puternice

[modificare | modificare sursă]

Termenul „inteligență artificială generală” a fost folosit încă din 1997 de Mark Gubrud[38] într-o discuție despre implicațiile producției și operațiunilor militare complet automatizate. Termenul a fost reintrodus și popularizat de Shane Legg și Ben Goertzel în jurul anului 2002. Obiectivul cercetării este mult mai vechi, de exemplu proiectul Cyc al lui Doug Lenat (care a început în 1984) și proiectul Soar al lui Allen Newell sunt considerate ca fiind în domeniul de aplicare al IA puternice. Activitatea de cercetare a IA puternice din 2006 a fost descrisă de Pei Wang și Ben Goertzel[39] ca „producerea unor publicații și rezultate preliminare”. Prima școală de vară despre IA puternică a fost organizată în Xiamen, China în 2009[40] de Laboratorul de Creiere Artificiale al universității Xiamen și OpenCog. Primul curs universitar a început în 2010[41] și 2011[42] la Universitatea Plovdiv, Bulgaria predat de Todor Arnaudov. MIT a prezentat un curs de IA puternică în 2018, organizat de Lex Fridman cu câțiva lectori invitați. Cu toate acestea, până acum, majoritatea cercetătorilor IA au acordat puțină atenție IA puternice, unii susținând că inteligența este prea complexă pentru a fi complet reprodusă pe termen scurt. Cu toate acestea, un număr mic de informaticieni sunt activi în cercetarea IA puternice și mulți din acest grup contribuie la o serie de conferințe despre IA puternică. Cercetarea este extrem de diversă și adesea reprezintă un pionierat. În prefața cărții sale,[43] Goertzel spune că estimările timpului necesar înainte ca o IA puternică cu adevărat flexibilă să fie construită variază de la 10 ani la peste un secol, dar consensul comunității de cercetare a IA puternice pare să corespundă cu perioada presupusă de Ray Kurzweil în Singularitatea este aproape[44] (adică între 2015 și 2045).[45]

Cu toate acestea, cercetătorii mainstream au oferit o gamă largă de opinii cu privire la progresul atât de rapid. O meta-analiză din 2012 a 95 de astfel de opinii a descoperit o tendință de prezicere a debutului IA puternice în decurs de 16-26 de ani, atât pentru predicțiile moderne, cât și pentru cele istorice.[46]

Organizațiile care se ocupă în mod explicit cu IA puternică includ laboratorul elvețian AI IDSIA,[47] Nnaisense,[48] Vicarious, Maluuba,[14] OpenCog Foundation, Adaptive AI, LIDA și Numenta și asociația Redwood Neuroscience Institute.[49] În plus, organizații precum Machine Intelligence Research Institute[50] și OpenAI[51] au fost fondate pentru a influența calea de dezvoltare a IA puternice. În cele din urmă, proiecte precum Proiectul creierului uman[52] au scopul de a construi o simulare funcțională a creierului uman. Un sondaj din 2017 a clasificat patruzeci și cinci de „proiecte active de cercetare și dezvoltare” cunoscute care explicit sau implicit (prin cercetare publicată) cercetează IA puternică, cele mai mari trei fiind DeepMind, Human Brain Project și OpenAI.[14]

În 2017, cercetătorii Feng Liu, Yong Shi și Ying Liu au efectuat teste de inteligență pe IA slabă, teste accesibile publicului în mod liber, cum ar fi Google AI sau Apple Siri și altele. La maximum, aceste IA au atins o valoare IQ de aproximativ 47, care corespunde aproximativ unui copil de șase ani din clasa întâi. Un adult are aproximativ IQ-ul 100 în medie. Au fost efectuate teste similare în 2014, scorul IQ atingând o valoare maximă de 27.[53][54]

În 2019, programatorul de jocuri video și inginerul aerospațial John Carmack a anunțat planurile sale de cercetare a IA puternice.[55]

În 2020, OpenAI a dezvoltat GPT-3, un model de limbaj capabil să îndeplinească multe sarcini diverse, fără pregătire specifică. Potrivit lui Gary Grossman într-un articol VentureBeat, deși există un consens că GPT-3 nu este un exemplu de IA puternică, unii consideră că este prea avansat pentru a fi clasificat ca un sistem IA slabă.[56]

IA puternică și conștiința

[modificare | modificare sursă]

În 1980, filosoful John Searle a inventat termenul „IA puternică” ca parte a argumentului său privind camera chinezească.[57] El a vrut să facă distincția între două ipoteze diferite despre inteligența artificială:[58]

  • Un sistem de inteligență artificială poate gândi și poate avea o minte. (Cuvântul „minte” are un sens specific pentru filozofi, așa cum este folosit în „problema corpului minții” sau „filozofia minții”.)
  • Un sistem de inteligență artificială poate (numai) să acționeze așa cum gândește și are o minte.

Prima se numește „ipoteza IA puternică ”, iar cea de-a doua este „ipoteza IA slabă ”, deoarece prima face afirmația puternică: presupune că i s-a întâmplat ceva special mașinii care depășește toate abilitățile sale pe care le putem testa. Searle s-a referit la „ipoteza IA puternică” drept „IA puternică”. Această utilizare este, de asemenea, obișnuită în cercetare și în manualele academice de IA.[59]

Ipoteza IA slabă este echivalentă cu ipoteza că inteligența artificială generală este posibilă. Potrivit lui Russell și Norvig, „Majoritatea cercetătorilor în IA consideră ipoteza IA slabe ca atare și nu le pasă de ipoteza IA puternice”.[60]

Spre deosebire de Searle, Ray Kurzweil folosește termenul „IA puternică” pentru a descrie orice sistem de inteligență artificială care acționează ca și cum ar avea o minte,[44] indiferent dacă un filozof ar fi în măsură să stabilească dacă are de fapt o minte sau nu.

În science fiction, IA puternică este asociată cu trăsături precum conștiența, conștiința, înțelepciunea și conștiința de sine observate la ființele vii. Cu toate acestea, potrivit lui Searle, este o întrebare deschisă dacă inteligența generală este suficientă pentru a exista o conștiință. „IA puternică” (așa cum este definită mai sus de Kurzweil) nu trebuie confundată cu „ipoteza IA puternice” a lui Searle. Ipoteza IA puternice este afirmația că un computer care se comportă la fel de inteligent ca o persoană trebuie să aibă, de asemenea, în mod necesar o minte și o conștiență. IA puternică se referă doar la cantitatea de inteligență pe care o arată mașina, cu sau fără minte.

Există și alte aspecte ale minții umane, în afară de inteligență, care sunt relevante pentru conceptul de IA puternică, care joacă un rol major în științifico-fantasticâ și în etica privind inteligența artificială :

Aceste trăsături au o dimensiune morală, deoarece o mașină cu această formă de IA puternică poate avea drepturi, similare cu drepturile animalelor non-umane. Ca atare, s-au efectuat lucrări preliminare privind abordările de integrare a agenților etici deplini cu cadrul legal și social existent. Aceste abordări s-au concentrat pe poziția juridică și drepturile IA „puternice”.[61]

Cu toate acestea, Bill Joy, printre altele, susține că o mașină cu aceste trăsături poate fi o amenințare la adresa vieții sau a demnității umane.[62] Rămâne de arătat dacă oricare dintre aceste trăsături sunt necesare pentru o IA puternică. Rolul conștientei nu este clar și în prezent nu există un test convenit pentru prezența sa. Dacă o mașină este construită cu un dispozitiv care simulează corelații neurale ale conștiinței, ar avea automat conștiință de sine? De asemenea, este posibil ca unele dintre aceste proprietăți, cum ar fi simțirea, să iasă în mod natural dintr-o mașină complet inteligentă sau să devină firesc atribuirea acestor proprietăți mașinilor odată ce acestea încep să acționeze într-un mod clar inteligent. De exemplu, acțiunea inteligentă poate fi suficientă pentru simțire, mai degrabă decât invers.

Cercetarea conștiinței artificiale

[modificare | modificare sursă]

Cu toate că rolul conștientei în IA / IA puternică este discutabil, mulți cercetători ai IA puternice[63] consideră că cercetarea care investighează posibilitățile de implementare a conștiinței este vitală. Într-un efort timpuriu, Igor Aleksander[64] a susținut că principiile pentru crearea unei mașini conștiente există deja, dar că ar fi nevoie de patruzeci de ani pentru a instrui o astfel de mașină pentru a înțelege limbajul.

Controverse și pericole

[modificare | modificare sursă]

În octombrie 2020, inteligența artificială puternică rămâne pur speculativă[11][65] deoarece nu s-a demonstrat că există încă un astfel de sistem. Opiniile variază de la dacă și când inteligența artificială generală va apărea. La o extremă, pionierul dezvoltării IA Herbert A. Simon a speculat în 1965 că: „mașinile vor fi capabile, în termen de douăzeci de ani, să facă orice lucru pe care un om îl poate face”. Cu toate acestea, această predicție nu s-a împlinit. Cofondatorul Microsoft, Paul Allen, a crezut că o astfel de inteligență este puțin probabilă în secolul al XXI-lea, deoarece ar necesita „descoperiri imprevizibile și fundamental imprevizibile” și o „înțelegere profundă științifică a cunoașterii”.[66] Scriind în The Guardian, roboticianul Alan Winfield a susținut că prăpastia dintre calculul modern și inteligența artificială la nivel uman este la fel de largă ca prăpastia dintre zborul spațiului actual și zborul spațial mai repede decât lumina.[67]

Mulți dintre cărturarii care sunt îngrijorați de riscul existențial cred că cel mai bun model de urmat ar fi efectuarea unor cercetări (posibil masive) pentru rezolvarea dificilei „probleme de control” pentru a răspunde la întrebarea: ce tipuri de garanții, algoritmi sau arhitecturi pot implementa programatorii pentru a maximiza probabilitatea ca IA care se îmbunătățește recursiv să continue să se comporte într-un mod prietenos, mai degrabă decât distructiv, după ce ajunge la o super-inteligență?[68][69]

Teza conform căreia IA poate prezenta un risc existențial are, de asemenea, mulți detractori puternici. Scepticii acuză uneori că teza este cripto-religioasă, cu o credință irațională în posibilitatea supra-inteligenței care să înlocuiască o credință irațională într-un Dumnezeu atotputernic; la o extremă, Jaron Lanier susține că întregul concept conform căruia mașinile actuale sunt în vreun fel inteligente este „o iluzie”.[70]

O mare parte din criticile existente susțin că IA puternică este puțin probabilă pe termen scurt. Informaticianul Gordon Bell susține că rasa umană se va autodistruge înainte de a ajunge la singularitatea tehnologică. Gordon Moore, susținătorul inițial al Legii lui Moore, declară că „sunt un sceptic. Nu cred că [o singularitate tehnologică] se va întâmpla, cel puțin pentru o lungă perioadă de timp. Și nu știu de ce cred așa."[71] Vicepreședintele Baidu, Andrew Ng, afirmă că riscul existențial al IA este „ca și cum ai fi îngrijorat de suprapopularea de pe Marte, când nici măcar nu am pus piciorul pe planetă”.[72]

  1. ^ Petru Iluț, Ioan Biriș, Ioana Lucia Bordeianu. În căutare de principii. Epistemologie și metodologie socială aplicată. Editura Polirom, 2016. ISBN 9789734636846
  2. ^ Avizul Comitetului Economic și Social European privind „Inteligența artificială – Impactul inteligenței artificiale asupra pieței unice (digitale), a producției, a consumului, a ocupării forței de muncă și a societății” Art. 2.2; Jurnalul Oficial al Uniunii Europene, 31 august 2017
  3. ^ Superintelligence Cannot be Contained: Lessons from Computability Theory, Journal of Artificial Intelligence Research, jair.org, Jan 5, 2021
  4. ^ Hodson, Hal (). „DeepMind and Google: the battle to control artificial intelligence”. 1843. Accesat în . AGI stands for Artificial General Intelligence, a hypothetical computer program... 
  5. ^ Kurzweil, Singularity (2005) p. 260
  6. ^ a b Kurzweil, Ray (), „Long Live AI”, Forbes : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  7. ^ Treder, Mike (), „Advanced Human ntelligence”, Responsible Nanotechnology, arhivat din original la  
  8. ^ „The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013”. Arhivat din original la . Accesat în . 
  9. ^ Newell & Simon 1976.
  10. ^ Searle 1980.
  11. ^ a b europarl.europa.eu: How artificial intelligence works, "Concluding remarks: Today's AI is powerful and useful, but remains far from speculated AGI or ASI.", European Parliamentary Research Service, retrieved March 3, 2020
  12. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (). „Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts”. Journal of Artificial Intelligence Research. 62: 729–754. doi:10.1613/jair.1.11222Accesibil gratuit. ISSN 1076-9757. 
  13. ^ „The Open University on Strong and Weak AI”. Arhivat din original la . Accesat în . 
  14. ^ a b c Baum, Seth (). „Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (November 12, 2017). Global Catastrophic Risk Institute Working Paper 17-1”. 
  15. ^ AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent." McCarthy, John (). „Basic Questions”. Stanford University. Arhivat din original la . Accesat în .  (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  16. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN: 0-262-16239-3
  17. ^ White, R. W. (). „Motivation reconsidered: The concept of competence”. Psychological Review. 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397. 
  18. ^ Johnson 1987.
  19. ^ deCharms, R. (1968). Personal causation. New York: Academic Press.
  20. ^ Muehlhauser, Luke (). „What is AGI?”. Machine Intelligence Research Institute. Arhivat din original la . Accesat în . 
  21. ^ „What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence”. Talky Blog (în engleză). . Arhivat din original la . Accesat în . 
  22. ^ Shapiro, Stuart C. (1992). Artificial Intelligence Arhivat în , la Wayback Machine. In Stuart C. Shapiro (Ed.), Encyclopedia of Artificial Intelligence (Second Edition, pp. 54–57). New York: John Wiley. (Section 4 is on "AI-Complete Tasks".)
  23. ^ Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness. In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3–17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf Arhivat în , la Wayback Machine.
  24. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Arhivat în , la Wayback Machine.. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  25. ^ Bergmair, Richard (). „Natural Language Steganography and an "AI-complete" Security Primitive”. CiteSeerX 10.1.1.105.129Accesibil gratuit.  (unpublished?)
  26. ^ Crevier 1993, pp. 48–50.
  27. ^ Simon 1965, p. 96. quoted in Crevier 1993, p. 109.
  28. ^ „Scientist on the Set: An Interview with Marvin Minsky”. Arhivat din original la . Accesat în . 
  29. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  30. ^ Crevier 1993, p. 211. , Russell & Norvig 2003, p. 24. and see also Feigenbaum & McCorduck 1983.
  31. ^ Crevier 1993, pp. 161–162,197–203,240. ; Russell & Norvig 2003, p. 25. ; NRC 1999, under "Shift to Applied Research Increases Investment".
  32. ^ Crevier 1993, pp. 209–212.
  33. ^ Markoff, John (). „Behind Artificial Intelligence, a Squadron of Bright Real People”. The New York Times. 
  34. ^ Russell & Norvig 2003, pp. 25–26.
  35. ^ „Trends in the Emerging Tech Hype Cycle”. Gartner Reports. Arhivat din original la . Accesat în . 
  36. ^ Moravec 1988, p. 20.
  37. ^ Harnad, S (). „The Symbol Grounding Problem”. Physica D. 42 (1–3): 335–346. arXiv:cs/9906002Accesibil gratuit. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. 
  38. ^ Gubrud 1997.
  39. ^ Goertzel & Wang 2006. . See also Wang (2006) with an up-to-date summary and lots of links.
  40. ^ AGI Summer School in Xiamen, goertzel.org 
  41. ^ Факултет по математика и информатика - Избираеми дисциплини 2009/2010 - пролетен триместър, fmi-plovdiv.org 
  42. ^ Факултет по математика и информатика - Избираеми дисциплини 2010/2011 - зимен триместър, fmi.uni-plovdiv.bg, arhivat din original la , accesat în  
  43. ^ Goertzel & Pennachin 2006.
  44. ^ a b (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Arhivat în , la Wayback Machine. where he defines strong AI as "machine intelligence with the full range of human intelligence."
  45. ^ Goertzel 2007.
  46. ^ „Error in Armstrong and Sotala 2012”. AI Impacts. . Accesat în . 
  47. ^ „Intelligent machines that learn unaided” (PDF). Ticino Ricerca. . Accesat în . 
  48. ^ Markoff, John (). „When A.I. Matures, It May Call Jürgen Schmidhuber 'Dad'. The New York Times. Arhivat din original la . Accesat în . 
  49. ^ James Barrat (). „Chapter 11: A Hard Takeoff”. Our Final Invention: Artificial Intelligence and the End of the Human Era (ed. First). New York: St. Martin's Press. ISBN 9780312622374. 
  50. ^ „About the Machine Intelligence Research Institute”. Machine Intelligence Research Institute. Arhivat din original la . Accesat în . 
  51. ^ „About OpenAI”. OpenAI (în engleză). Arhivat din original la . Accesat în . 
  52. ^ Theil, Stefan. „Trouble in Mind”. Scientific American (în engleză). pp. 36–42. Bibcode:2015SciAm.313d..36T. doi:10.1038/scientificamerican1015-36. Arhivat din original la . Accesat în . 
  53. ^ Liu, Feng; Shi, Yong; Liu, Ying (). „Intelligence Quotient and Intelligence Grade of Artificial Intelligence”. Annals of Data Science. 4 (2): 179–191. arXiv:1709.10242Accesibil gratuit. Bibcode:2017arXiv170910242L. doi:10.1007/s40745-017-0109-0. 
  54. ^ „Google-KI doppelt so schlau wie Siri”. Arhivat din original la . Accesat în . 
  55. ^ Lawler, Richard (). „John Carmack takes a step back at Oculus to work on human-like AI”. Engadget. Accesat în . 
  56. ^ Grossman, Gary (). „We're entering the AI twilight zone between narrow and general AI”. VentureBeat. Accesat în . Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI. 
  57. ^ Searle 1980.
  58. ^ As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis." (Russell & Norvig 2003)
  59. ^ For example:
  60. ^ Russell & Norvig 2003, p. 947.
  61. ^ Sotala, Kaj; Yampolskiy, Roman V (). „Responses to catastrophic AGI risk: a survey”. Physica Scripta. 90 (1): 8. doi:10.1088/0031-8949/90/1/018001Accesibil gratuit. ISSN 0031-8949. 
  62. ^ Joy, Bill (aprilie 2000). „Why the future doesn't need us”. Wired. 
  63. ^ Yudkowsky 2006.
  64. ^ Aleksander 1996.
  65. ^ itu.int: Beyond Mad?: The Race For Artificial General Intelligence, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  66. ^ Allen, Paul. „The Singularity Isn't Near”. MIT Technology Review. Accesat în . 
  67. ^ Winfield, Alan. „Artificial intelligence will not turn into a Frankenstein's monster”. The Guardian. Arhivat din original la . Accesat în . 
  68. ^ Bostrom, Nick (). Superintelligence: Paths, Dangers, Strategies (ed. First). ISBN 978-0199678112. 
  69. ^ Kaj Sotala; Roman Yampolskiy (). „Responses to catastrophic AGI risk: a survey”. Physica Scripta. 90 (1). 
  70. ^ „But What Would the End of Humanity Mean for Me?”. The Atlantic. . Accesat în . 
  71. ^ „Tech Luminaries Address Singularity”. IEEE Spectrum: Technology, Engineering, and Science News (în engleză) (SPECIAL REPORT: THE SINGULARITY). . Accesat în . 
  72. ^ Shermer, Michael (). „Apocalypse AI”. Scientific American (în engleză). p. 77. Bibcode:2017SciAm.316c..77S. doi:10.1038/scientificamerican0317-77. Accesat în . 

Legături externe

[modificare | modificare sursă]